WO2019139309A1 - 부호화 방법 및 그 장치, 복호화 방법 및 그 장치 - Google Patents

부호화 방법 및 그 장치, 복호화 방법 및 그 장치 Download PDF

Info

Publication number
WO2019139309A1
WO2019139309A1 PCT/KR2019/000198 KR2019000198W WO2019139309A1 WO 2019139309 A1 WO2019139309 A1 WO 2019139309A1 KR 2019000198 W KR2019000198 W KR 2019000198W WO 2019139309 A1 WO2019139309 A1 WO 2019139309A1
Authority
WO
WIPO (PCT)
Prior art keywords
current block
block
filter
encoding
encoding unit
Prior art date
Application number
PCT/KR2019/000198
Other languages
English (en)
French (fr)
Inventor
표인지
알쉬나엘레나
알쉰알렉산더
템즈아니쉬
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to KR1020217020514A priority Critical patent/KR20210084691A/ko
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to CN202211184262.9A priority patent/CN115460402A/zh
Priority to KR1020217001836A priority patent/KR102275654B1/ko
Priority to CN202211184318.0A priority patent/CN115695788A/zh
Priority to KR1020207008385A priority patent/KR102207258B1/ko
Priority to US16/959,726 priority patent/US11825117B2/en
Priority to CN202211184637.1A priority patent/CN115695789A/zh
Priority to CN201980008315.1A priority patent/CN111602393B/zh
Priority to CN202211185099.8A priority patent/CN115695790A/zh
Priority to EP19738750.9A priority patent/EP3742729A4/en
Publication of WO2019139309A1 publication Critical patent/WO2019139309A1/ko
Priority to US18/493,402 priority patent/US20240056606A1/en
Priority to US18/493,359 priority patent/US20240056605A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence

Definitions

  • the present invention relates to a video coding method and a decoding method, and more particularly to a method of applying an interpolation filter to a reference sample for inter prediction.
  • Various data units may be used to compress the image and there may be a containment relationship between these data units.
  • a data unit can be divided by various methods, and an optimized data unit is determined according to characteristics of an image, so that an image can be encoded or decoded.
  • the image data can be compressed by eliminating spatial redundancy and temporal redundancy between pixels. Since it is common to have a common feature among adjacent pixels, encoding information is transmitted in units of data consisting of pixels in order to eliminate redundancy between adjacent pixels.
  • the pixel values of the pixels included in the data unit are not transmitted directly, but the necessary method to obtain the pixel value is transmitted.
  • a prediction method for predicting the pixel value similar to the original value is determined for each data unit and the encoding information for the prediction method is transmitted from the encoder to the decoder. Also, since the predicted value is not exactly the same as the original value, the residual data of the difference between the original value and the predicted value is transmitted to the decoder in the encoder.
  • the prediction methods include intra prediction and inter prediction.
  • Intra prediction is a method of predicting pixels of a block from surrounding pixels of the block.
  • Inter prediction is a method of predicting pixels with reference to pixels of another picture referenced by a picture including a block. Therefore, spatial redundancy is removed by intra prediction, and temporal redundancy is eliminated by inter prediction.
  • the present disclosure proposes a video coding method and a video coding apparatus, a video decoding method, and a video decoding apparatus adaptively applying a filter to a reference sample based on an inter prediction mode of a current block.
  • a video decoding method includes: determining an inter-prediction mode of the current block when the current block is inter-predicted; Determining at least one reference sample location to which the current block refers based on an inter prediction mode of the current block; Determining filter information to be applied to at least one reconstructed reference sample corresponding to the at least one reference sample location based on an inter prediction mode of the current block; Performing filtering on the at least one reconstructed reference sample based on the filter information; And decoding the current block using the prediction samples generated by the filtering.
  • a video decoding apparatus includes at least one processor and a memory, the memory including at least one instruction configured to be executable by the at least one processor, Wherein the instructions cause the at least one processor to determine an inter-prediction mode of the current block when the current block is inter-predicted, and determine, based on the inter-prediction mode of the current block, Determining filter information to be applied to at least one reconstructed reference sample corresponding to the at least one reference sample location based on the inter prediction mode of the current block, Performing filtering on the at least one reconstructed reference sample based on the information, It can be predicted using the samples produced by sintering is set to decode the current block.
  • a video encoding method includes: determining an inter-prediction mode of the current block when a current block is inter-predicted; Determining at least one reference sample location to which the current block refers based on an inter prediction mode of the current block; Determining filter information to be applied to at least one reconstructed reference sample corresponding to the at least one reference sample location based on an inter prediction mode of the current block; Performing filtering on the at least one reconstructed reference sample based on the filter information; And encoding the current block using prediction samples generated by the filtering.
  • a video encoding apparatus includes at least one processor and a memory, the memory including at least one instruction configured to be executable by the at least one processor, the at least one Wherein the instructions cause the at least one processor to determine an inter-prediction mode of the current block when the current block is inter-predicted, and determine, based on the inter-prediction mode of the current block, Determining filter information to be applied to at least one reconstructed reference sample corresponding to the at least one reference sample location based on the inter prediction mode of the current block, Performing filtering on the at least one reconstructed reference sample based on the information, It can be predicted using the samples produced by sintering is set to encode the current block.
  • This disclosure proposes a computer-readable non-transitory recording medium in which a program for performing the video coding method is recorded, according to various embodiments of the present disclosure.
  • This disclosure proposes a computer-readable non-transitory recording medium in which a program for performing the video decoding method is recorded, according to various embodiments of the present disclosure.
  • a video encoding method, a video encoding apparatus, a video decoding method, and a video decoding apparatus adaptively apply a filter to a reference sample based on an inter-prediction mode of a current block at inter- It is possible to improve the efficiency of the resources used in the system. For example, by adjusting the memory bandwidth used for inter prediction to an appropriate level, power consumption and battery usage can be reduced.
  • FIG. 1A shows a block diagram of an image decoding apparatus according to various embodiments.
  • FIG. 1B shows a block diagram of an image decoding apparatus according to various embodiments.
  • Figure 2 shows a block diagram of an image decoding apparatus according to various embodiments.
  • Figure 3 shows a flow diagram of a method of image decoding according to various embodiments.
  • FIG. 4A shows a block diagram of an image encoding apparatus according to various embodiments.
  • FIG. 4B shows a block diagram of an image encoding apparatus according to various embodiments.
  • FIG. 5 shows a block diagram of an image encoding apparatus according to various embodiments.
  • Figure 6 shows a flow diagram of a method of encoding an image according to various embodiments.
  • FIG. 7 illustrates a process in which an image decoding apparatus according to various embodiments divides a current encoding unit into at least one encoding unit.
  • FIG. 8 illustrates a process in which an image decoding apparatus according to various embodiments divides an encoding unit of a non-square shape to determine at least one encoding unit.
  • FIG. 9 illustrates a process in which an image decoding apparatus according to various embodiments divides an encoding unit based on at least one of block type information and split mode mode information.
  • FIG. 10 illustrates a method for an image decoding apparatus according to various embodiments to determine a predetermined encoding unit among odd number of encoding units.
  • FIG. 11 illustrates a sequence in which a plurality of coding units are processed when an image decoding apparatus according to various embodiments divides a current coding unit to determine a plurality of coding units.
  • FIG. 12 illustrates a process of determining that the current encoding unit is divided into odd number of encoding units when the image decoding apparatus according to various embodiments can not process the encoding units in a predetermined order.
  • FIG. 13 illustrates a process in which an image decoding apparatus according to various embodiments divides a first encoding unit and determines at least one encoding unit.
  • FIG. 14 is a diagram illustrating a case where a second encoding unit of a non-square type determined by dividing a first encoding unit satisfies a predetermined condition by a video decoding apparatus according to various embodiments, Lt; / RTI >
  • FIG. 15 illustrates a process in which an image decoding apparatus divides a square-shaped encoding unit when the split mode mode information according to various embodiments can not indicate division into four square-shaped encoding units.
  • FIG. 16 illustrates that the processing order among a plurality of encoding units according to various embodiments can be changed according to a division process of an encoding unit.
  • FIG. 17 illustrates a process in which the depth of an encoding unit is determined according to a change in the type and size of an encoding unit when the encoding units according to various embodiments are recursively divided to determine a plurality of encoding units.
  • FIG. 18 shows a depth index (PID) for coding unit classification and depth that can be determined according to the type and size of coding units according to various embodiments.
  • PID depth index
  • FIG. 19 shows that a plurality of encoding units are determined according to a plurality of predetermined data units included in a picture according to various embodiments.
  • FIG. 20 shows a processing block serving as a reference for determining a determination order of a reference encoding unit included in a picture according to various embodiments.
  • FIGS. 21A and 21B are diagrams for explaining a method of performing filtering on reference samples for motion compensation in inter-prediction according to various embodiments.
  • 22A shows reference samples needed for inter prediction of a current block, in accordance with various embodiments.
  • Figure 22B shows reference samples needed for inter prediction of a current block when the current block refers to a plurality of reference blocks, according to various embodiments.
  • Figure 23 shows the memory bandwidth required for inter prediction of the current block, in accordance with various embodiments.
  • FIG. 24 shows reference samples required for inter prediction of a current block when different filters are used in the vertical and horizontal directions, respectively, in accordance with various embodiments.
  • 25A shows a prediction method of an Overlapped Blocks Motion Compensation (OBMC) mode in which subblocks are not used, according to various embodiments.
  • OBMC Overlapped Blocks Motion Compensation
  • Figure 25B shows reference samples needed for inter prediction of a current block in an OBMC mode that does not use sub-blocks, in accordance with various embodiments.
  • Figure 25C shows the memory bandwidth required for inter-prediction of the current block in the OBMC mode without using sub-blocks, according to various embodiments.
  • Figure 26A shows a method of predicting an OBMC mode using sub-blocks, according to various embodiments.
  • Figure 26B shows reference samples needed for inter prediction of a current block in an OBMC mode using sub-blocks, according to various embodiments.
  • Figure 26C shows the memory bandwidth required for inter-prediction of the current block in OBMC mode using sub-blocks, according to various embodiments.
  • Figure 27A illustrates a method of predicting a decoder-side Motion Vector Refinement (DMVR) mode, according to various embodiments.
  • Figure 27B shows reference samples required for inter prediction of a current block in the DMVR mode, according to various embodiments.
  • Figure 27C shows the memory bandwidth required for inter prediction of the current block in DMVR mode, according to various embodiments.
  • 28A shows reference samples needed for inter prediction of a current block in a DMVR mode using multiple motion vector candidates, in accordance with various embodiments.
  • Figure 28B shows the memory bandwidth required for inter prediction of the current block in DMVR mode using multiple motion vector candidates, according to various embodiments.
  • Figure 28C shows reference samples required for inter prediction of a current block in a DMVR mode that defines a search range, in accordance with various embodiments.
  • Figure 28d shows the memory bandwidth required for inter-prediction of the current block in DMVR mode, which defines the search range, according to various embodiments.
  • 29A illustrates a method of predicting the Affine mode, according to various embodiments.
  • Figure 29B shows the memory bandwidth required for inter prediction of the current block in the affine mode, according to various embodiments.
  • 29C shows reference samples needed for inter prediction of a current block in an affine mode, in accordance with various embodiments.
  • Figure 29d shows the memory bandwidth required for inter prediction of the current block in the affine mode, according to various embodiments.
  • BIO Bidirectional Optical Flow
  • the terminology used herein is intended to encompass all commonly used generic terms that may be considered while considering the functionality of the present invention, but this may vary depending upon the intent or circumstance of the skilled artisan, the emergence of new technology, and the like. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.
  • part refers to a hardware component such as software, FPGA or ASIC, and" part " However, “part” is not meant to be limited to software or hardware. “Part” may be configured to reside on an addressable storage medium and may be configured to play back one or more processors.
  • part (s) refers to components such as software components, object oriented software components, class components and task components, and processes, Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables.
  • the functions provided in the components and “parts " may be combined into a smaller number of components and” parts “ or further separated into additional components and “parts ".
  • processor may be embodied in a processor and memory.
  • the term “processor” should be broadly interpreted to include a general purpose processor, a central processing unit (CPU), a microprocessor, a digital signal processor (DSP), a controller, a microcontroller, a state machine, In some circumstances, a “processor” may refer to an application specific integrated circuit (ASIC), a programmable logic device (PLD), a field programmable gate array (FPGA)
  • ASIC application specific integrated circuit
  • PLD programmable logic device
  • FPGA field programmable gate array
  • processor refers to a combination of processing devices, such as, for example, a combination of a DSP and a microprocessor, a combination of a plurality of microprocessors, a combination of one or more microprocessors in conjunction with a DSP core, It can also be called.
  • memory should be broadly interpreted to include any electronic component capable of storing electronic information.
  • the terminology memory may be any suitable memory such as random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), programmable read-only memory (PROM), erase- May refer to various types of processor-readable media such as erasable programmable read-only memory (PROM), flash memory, magnetic or optical data storage devices, registers, and the like.
  • RAM random access memory
  • ROM read-only memory
  • NVRAM non-volatile random access memory
  • PROM programmable read-only memory
  • erase- May to various types of processor-readable media such as erasable programmable read-only memory (PROM), flash memory, magnetic or optical data storage devices, registers, and the like.
  • a memory is said to be in electronic communication with a processor if the processor can read information from and / or write information to the memory.
  • the memory integrated in the processor is in electronic communication with the processor.
  • the "image” may be a static image such as a still image of a video or a dynamic image such as a moving image, i.e., the video itself.
  • the "current block " means one of a coding unit, a prediction unit and a conversion unit to be currently coded or decoded.
  • sample means data to be processed as data assigned to a sampling position of an image.
  • pixel values in the image of the spatial domain, and transform coefficients on the transform domain may be samples.
  • a unit including at least one of these samples may be defined as a block.
  • FIGS. 1A to 6 . 7 to 20 An image encoding apparatus, an image decoding apparatus, an image encoding method, and an image decoding method for adaptively inter-prediction based on an inter-prediction mode of a current block according to various embodiments will be described with reference to FIGS. 1A to 6 . 7 to 20, a video coding apparatus and a video decoding apparatus, a video coding method, and a video decoding method based on a coding unit of a tree structure according to various embodiments are disclosed.
  • Various embodiments in which the video encoding method, the video decoding method, the video encoding method, and the video decoding method according to the embodiments of Figs. 1 to 20 are applicable will be described with reference to Figs. 21A to 30.
  • FIG. 1A shows a block diagram of an image decoding apparatus 100 according to various embodiments.
  • the image decoding apparatus 100 may include a receiving unit 105, an inter-prediction unit 110, and a decoding unit 115.
  • the receiving unit 105, the inter-prediction unit 110, and the decoding unit 115 may include at least one processor.
  • the receiving unit 105, the inter-prediction unit 110, and the decoding unit 115 may include a memory for storing instructions to be executed by at least one processor.
  • the receiving unit 105 can receive the bit stream.
  • the bitstream includes information obtained by encoding an image by the image encoding apparatus 400, which will be described later.
  • the bit stream can be transmitted from the image encoding apparatus 400.
  • the image encoding apparatus 400 and the image decoding apparatus 100 may be connected by wire or wireless, and the receiving unit 105 may receive a bit stream through wire or wireless.
  • the receiving unit 105 can receive a bit stream from a storage medium such as an optical medium, a hard disk, or the like.
  • the receiving unit 105 can obtain information on the prediction mode of the current block from the bitstream.
  • the information on the prediction mode of the current block may include information indicating an intra mode or an inter prediction mode.
  • the reception unit 105 can acquire information on the inter prediction mode of the current block from the bit stream.
  • the information on the inter-prediction mode of the current block may be information on the inter-prediction mode applied to the current block among the plurality of inter-prediction modes.
  • the inter prediction mode of the current block may be a merge mode, an AMVP mode, an inter skip mode, an OBMC mode, an DMVR mode, Decoder-Side Motion Vector Refinement mode, Affine mode, and BIO mode (Bidirectional Optical Flow mode).
  • the inter prediction unit 110 can be activated when the prediction mode of the current block is the inter prediction mode.
  • the inter-prediction unit 110 can determine the inter-prediction mode of the current block based on the information about the inter-prediction mode of the current block obtained from the bitstream.
  • the inter-prediction unit 110 can determine at least one reference sample position to be referred to by the current block, based on the inter-prediction mode of the current block.
  • the inter-prediction unit 110 may obtain at least one motion vector and at least one reference picture index of the current block based on the inter-prediction mode of the current block, and if the motion vector is within the reference picture indicated by the reference picture index
  • the pointing position can be determined as the reference sample position.
  • the reference sample position may be determined by the coordinates of the top left corner of the current block plus the motion vector component of the current block.
  • the reference sample position may indicate the position of the upper left corner of the reference block referred to by the current block in the reference picture.
  • the reference sample location may point to a sub-pixel located between integer pixels.
  • the reference sample position may indicate a sub-pixel of 1/4-pixel unit.
  • the subpixel unit may be a 1/8-pixel unit or a smaller unit.
  • as many reference sample positions as the number of motion vectors used in the inter-prediction mode of the current block may be determined. For example, if the current block is unidirectionally predicted, one reference sample position can be determined and two reference sample positions can be determined if the current block is bi-directionally predicted.
  • the inter-prediction unit 110 can determine filter information to be applied to at least one reconstructed reference sample corresponding to at least one reference sample position, based on the inter-prediction mode of the current block.
  • the inter-prediction unit 110 may apply an interpolation filter to reference samples of integer pixel positions to generate reference samples of sub-pixel positions between reference samples of integer pixel positions, and determine information about the interpolation filters .
  • the inter-prediction unit 110 may determine at least one reconstructed reference sample to which to apply the filter based on the reference sample position within the reconstructed reference picture.
  • the at least one reconstructed reference sample may include samples located within a certain range based on a reference sample location.
  • the at least one reconstructed reference sample may include samples in a reference block referenced by the current block and neighboring samples adjacent to the reference block of the current block.
  • the at least one reconstructed reference sample may further include reference samples referenced by neighboring blocks adjacent to the current block.
  • the at least one reconstructed reference sample may further include neighboring samples adjacent to reference blocks referenced by neighboring blocks of the current block.
  • the inter-prediction unit 110 may determine reference samples of integer pixel positions that are within a certain range based on the reference sample position as at least one reconstructed reference sample to which to apply the interpolation filter.
  • the at least one reconstructed reference sample may include reference samples of integer pixel positions needed to generate reference samples of subpixel positions contained in a reference block that the current block references.
  • the at least one reconstructed reference sample may further include reference samples of integer pixel positions needed to generate reference samples of neighboring sub-pixel locations adjacent to the reference block of the current block.
  • the at least one reconstructed reference sample may further include reference samples of integer pixel positions needed to generate reference samples of subpixel locations referenced by neighboring blocks adjacent to the current block.
  • the filter information may include at least one of a direction and a size of the filter.
  • the inter-prediction unit 110 may decide to use a separable two-dimensional filter. In one embodiment, the inter-prediction unit 110 may decide to apply the horizontal and vertical filters, respectively.
  • the inter-prediction unit 110 may determine the size of the filter by determining the number of taps of the filter to a predetermined value.
  • the number of taps in the filter may refer to the number of reference samples at an integer pixel position required to generate a reference sample of the subpixel position.
  • the predetermined value may be determined according to the inter prediction mode of the current block.
  • the inter-prediction unit 110 may determine the filter information based on the size of the current block. In various embodiments, the inter-prediction unit 110 may determine the size of the filter based on the size of the current block.
  • the inter-prediction unit 110 may determine to use the first filter if the size of the current block is greater than or equal to the predetermined reference value, and otherwise, to use the second filter. In one embodiment, the size of the first filter may be greater than the size of the second filter. In one embodiment, the predetermined reference value may be determined according to the inter prediction mode of the current block. In one embodiment, the inter-prediction unit 110 can compare the size of the current block with a plurality of reference values, and determine which of a plurality of filters to use according to the comparison result.
  • the inter-prediction unit 110 may determine the horizontal direction filter information based on the horizontal width of the current block and determine the vertical direction filter information based on the vertical length of the current block. In one embodiment, the inter-prediction unit 110 may determine the horizontal direction filter and the vertical direction filter as different-sized filters when the current block is non-square.
  • the inter-prediction unit 110 can determine the horizontal direction filter information and the vertical direction filter information based on the ratio of the horizontal width to the vertical length of the current block. For example, when the horizontal direction filter information of the current block is determined, the inter prediction unit 110 may determine the vertical direction filter information based on the horizontal direction filter information and the ratio of the horizontal width to the vertical length of the current block. For example, when the vertical direction filter information of the current block is determined, the inter prediction unit 110 may determine the horizontal direction filter information based on the vertical direction filter information and the ratio of the horizontal width to the vertical length of the current block . In one embodiment, the inter-prediction unit 110 can determine the size of the horizontal direction filter and the size of the vertical direction filter so as to be proportional to the horizontal width and vertical length of the current block.
  • the inter-prediction unit 110 may determine the filter information based on whether the current block is a luma block or a chroma block. In one embodiment, the inter-prediction unit 110 may determine to use a first filter if the current block is a luma block and to use a second filter if the current block is a chroma block. In one embodiment, the size of the first filter may be twice the size of the second filter.
  • the inter-prediction unit 110 may determine the filter information based on whether the inter prediction of the current block is unidirectional prediction or bidirectional prediction. In one embodiment, the inter-prediction unit 110 may determine to use the first filter when the current block is unidirectionally predicted and to use the second filter if the current block is bi-directionally predicted. In one embodiment, the size of the first filter may be twice the size of the second filter.
  • the inter-prediction unit 110 may determine the filter information based on the number of reference blocks to which the current block refers.
  • the image decoding apparatus 100 uses a filter having a first number of taps when the number of reference blocks to which the current block refers is less than or equal to a predetermined reference value, and uses a filter having a second number of taps smaller than the first number of taps Can be used.
  • the inter-prediction unit 110 can compare the number of reference blocks referred to by the current block with a plurality of reference values, and determine which of a plurality of filters to use according to the comparison result.
  • the inter-prediction unit 110 may determine the maximum size of the filter based on the inter-prediction mode of the current block. For example, when the inter prediction mode of the current block is the OBMC mode, the inter prediction unit 110 may determine that the size of the filter is less than two taps. For example, when the inter prediction mode of the current block is the DMVR mode, the inter prediction unit 110 may determine the filter size to be four taps or less. For example, when the inter prediction mode of the current block is an affine mode, the inter prediction unit 110 may determine the size of the filter to be four taps or less. For example, when the inter prediction mode of the current block is the BIO mode, the inter prediction unit 110 may determine the size of the filter to be 8 taps or less.
  • the inter-prediction unit 110 may determine the filter information so that the memory bandwidth required for inter-prediction of the current block is within a predetermined range.
  • the memory bandwidth may be defined as the number of reference samples that need to be fetched from the memory to predict the current sample.
  • the memory bandwidth may be determined based on the size of the current block and the number of reconstructed reference samples needed for inter prediction of the current block.
  • the inter-prediction unit 110 determines whether the inter prediction of the current block is unidirectional prediction or bidirectional prediction, whether the current block is a luma block or a chroma block, an inter-prediction mode of the current block, Based on at least one, it may decide not to perform filtering on at least one reconstructed reference sample.
  • the inter-prediction unit 110 may perform filtering on at least one reconstructed reference sample based on the filter information. In various embodiments, the inter-prediction unit 110 may apply an interpolation filter to the reconstructed reference samples of an integer pixel location based on the filter information to generate a reference sample of the sub-pixel location. In various embodiments, inter-prediction unit 110 may generate prediction samples corresponding to samples of the current block using reference samples of integer pixel positions and reference samples of sub-pixel positions.
  • the decoding unit 115 may decode the current block using the prediction samples generated by the filtering. In various embodiments, the decoding unit 115 may restore the current block based on the prediction samples of the current block and the residual block of the current block.
  • FIG. 1B shows a block diagram of an image decoding apparatus 100 according to various embodiments.
  • the image decoding apparatus 100 may be the image decoding apparatus 100 shown in FIG. 1A.
  • the video decoding apparatus 100 may include a memory 120 and at least one processor 125 connected to the memory 120. [ The operations of the video decoding apparatus 100 according to various embodiments may operate as separate processors or may be operated under the control of a central processor. In addition, the memory 120 of the video decoding apparatus 100 can store data received from the outside and data generated by the processor.
  • the memory 120 of the video decoding apparatus 100 may include at least one instruction that is configured to be executable by the at least one processor 125.
  • the at least one instruction when executed, causes the at least one processor (125) to determine an inter-prediction mode of the current block when the current block is inter-predicted, Determining filter information to be applied to at least one reconstructed reference sample corresponding to the at least one reference sample location based on the inter prediction mode of the current block, And to perform filtering on the at least one reconstructed reference sample based on the filter information and to decode the current block using prediction samples generated by the filtering.
  • FIG. 2 shows a block diagram of an image decoding unit 200 according to various embodiments.
  • the image decoding unit 200 can perform operations to decode image data in the image decoding apparatus 100 shown in FIGS. 1A and 1B.
  • the entropy decoding unit 215 parses the encoded image data to be decoded and the encoding information necessary for decoding from the bitstream 205.
  • the encoded image data is a quantized transform coefficient
  • the inverse quantization unit 220 and the inverse transform unit 225 restore the residue data from the quantized transform coefficients.
  • the intraprediction unit 240 performs intraprediction on a block-by-block basis.
  • the inter prediction unit 235 performs inter prediction using the reference image obtained in the reconstruction picture buffer 230 for each block.
  • the inter prediction unit 235 may correspond to the inter prediction unit 110 of FIG.
  • Prediction data for each block generated by the intra prediction unit 240 or the inter prediction unit 235 is added to the residual data so that the data of the spatial region for the block of the current image is restored and the deblocking unit 245 and /
  • the SAO performing unit 250 may perform loop filtering on the data of the reconstructed spatial region and output the filtered reconstructed image 260.
  • the restored images stored in the restored picture buffer 230 may be output as a reference image.
  • the stepwise operations of the image decoding unit 200 may be performed on a block-by-block basis.
  • Figure 3 shows a flow diagram of a method of image decoding according to various embodiments.
  • the image decoding apparatus 100 can determine the inter prediction mode of the current block.
  • the video decoding apparatus 100 may receive the bit stream and obtain information on the inter prediction mode of the current block from the bit stream.
  • the information on the inter-prediction mode of the current block may be information on the inter-prediction mode applied to the current block among the plurality of inter-prediction modes.
  • the inter prediction mode may be a merge mode, an AMVP mode, an inter-skip mode, an OBMC mode, a DMVR mode, A Motion Vector Refinement mode, an Affine mode, and a BIO mode (Bidirectional Optical Flow mode).
  • the image decoding apparatus 100 may determine at least one reference sample position to be referred to by the current block, based on the inter prediction mode of the current block.
  • the video decoding apparatus 100 can acquire at least one motion vector and at least one reference picture index of the current block based on the inter prediction mode of the current block and the motion vector in the reference picture indicated by the reference picture index is The pointing position can be determined as the reference sample position.
  • the reference sample location may point to a sub-pixel located between integer pixels. In various embodiments, as many reference sample positions as the number of motion vectors used in the inter-prediction mode of the current block may be determined.
  • the image decoding apparatus 100 may determine filter information to be applied to at least one reconstructed reference sample corresponding to at least one reference sample position, based on the inter-prediction mode of the current block.
  • the image decoding apparatus 100 may apply an interpolation filter to the reference samples of an integer pixel position to generate a reference sample of the subpixel position between the reference samples of the integer pixel positions and determine information about the interpolation filter .
  • the video decoding apparatus 100 may determine at least one reconstructed reference sample to which to apply the filter based on the reference sample position within the reconstructed reference picture.
  • the at least one reconstructed reference sample may include samples located within a certain range based on a reference sample location.
  • the at least one reconstructed reference sample may include samples in a reference block referenced by the current block and neighboring samples adjacent to the reference block of the current block.
  • the at least one reconstructed reference sample may further include reference samples referenced by neighboring blocks adjacent to the current block.
  • the at least one reconstructed reference sample may further include neighboring samples adjacent to reference blocks referenced by neighboring blocks of the current block.
  • the image decoding apparatus 100 may determine reference samples of integer pixel positions located within a certain range based on a reference sample position as at least one reconstructed reference sample to which the interpolation filter is to be applied.
  • the at least one reconstructed reference sample may include reference samples of integer pixel positions needed to generate reference samples of subpixel positions contained in a reference block that the current block references.
  • the at least one reconstructed reference sample may further include reference samples of integer pixel positions needed to generate reference samples of neighboring sub-pixel locations adjacent to the reference block of the current block.
  • the at least one reconstructed reference sample may further include reference samples of integer pixel positions needed to generate reference samples of subpixel locations referenced by neighboring blocks adjacent to the current block.
  • the filter information may include at least one of a direction and a size of the filter.
  • the image decoding apparatus 100 may decide to use a separable two-dimensional filter. In one embodiment, the image decoding apparatus 100 may decide to apply a horizontal filter and a vertical filter, respectively.
  • the image decoding apparatus 100 may determine the size of the filter by determining the number of taps of the filter to a predetermined value. At this time, the predetermined value may be determined according to the inter prediction mode of the current block.
  • the image decoding apparatus 100 may determine the filter information based on the size of the current block. In one embodiment, the video decoding apparatus 100 may determine to use the first filter if the size of the current block is greater than or equal to the predetermined reference value, and otherwise determine to use the second filter. In one embodiment, the size of the first filter may be greater than the size of the second filter. In one embodiment, the predetermined reference value may be determined according to the inter prediction mode of the current block. In one embodiment, the image decoding apparatus 100 can compare the size of the current block with a plurality of reference values, and determine which of a plurality of filters to use according to the comparison result.
  • the video decoding apparatus 100 may determine the horizontal direction filter information based on the horizontal width of the current block and determine the vertical direction filter information based on the vertical length of the current block. In one embodiment, the image decoding apparatus 100 may determine the horizontal direction filter and the vertical direction filter as filters having different sizes when the current block is non-square.
  • the image decoding apparatus 100 can determine the horizontal direction filter information and the vertical direction filter information based on the ratio of the horizontal width to the vertical length of the current block. For example, when the horizontal direction filter information of the current block is determined, the image decoding apparatus 100 can determine the vertical direction filter information based on the horizontal direction filter information and the ratio of the horizontal width to the vertical length of the current block. For example, when the vertical direction filter information of the current block is determined, the image decoding apparatus 100 may determine the horizontal direction filter information based on the vertical direction filter information and the ratio of the horizontal width to the vertical length of the current block . In one embodiment, the image decoding apparatus 100 may determine the size of the horizontal direction filter and the size of the vertical direction filter so as to be proportional to the horizontal width and the vertical length of the current block.
  • the image decoding apparatus 100 can determine the filter information based on whether the current block is a luma block or a chroma block. In one embodiment, the video decoding apparatus 100 may determine to use a first filter if the current block is a luma block, and to use a second filter if the current block is a chroma block. In one embodiment, the size of the first filter may be twice the size of the second filter.
  • the image decoding apparatus 100 may determine the filter information based on whether the inter prediction of the current block is unidirectional prediction or bidirectional prediction. In one embodiment, the video decoding apparatus 100 may determine to use the first filter when the current block is unidirectionally predicted, and to use the second filter if the current block is bidirectionally predicted. In one embodiment, the size of the first filter may be twice the size of the second filter.
  • the image decoding apparatus 100 may determine the filter information based on the number of reference blocks to which the current block refers. In one embodiment, the image decoding apparatus 100 can compare the number of reference blocks referred to by the current block with a plurality of reference values, and determine which of a plurality of filters to use according to the comparison result.
  • the image decoding apparatus 100 may determine the maximum size of the filter based on the inter prediction mode of the current block. For example, when the inter prediction mode of the current block is the OBMC mode, the image decoding apparatus 100 may determine the size of the filter to be two taps or less. For example, when the inter prediction mode of the current block is the DMVR mode, the image decoding apparatus 100 can determine the size of the filter to be four taps or less. For example, when the inter prediction mode of the current block is the affine mode, the image decoding apparatus 100 may determine the size of the filter to be four taps or less. For example, when the inter prediction mode of the current block is the BIO mode, the image decoding apparatus 100 can determine the size of the filter to be 8 taps or less.
  • the video decoding apparatus 100 may determine the filter information so that the memory bandwidth required for inter prediction of the current block is within a predetermined range.
  • the memory bandwidth may be defined as the number of reference samples that must be fetched from the memory to process the current sample.
  • the memory bandwidth may be determined based on the size of the current block and the number of reconstructed reference samples needed for inter prediction of the current block.
  • the image decoding apparatus 100 determines whether the current block is a luma block or a chroma block, whether inter prediction of the current block is unidirectional prediction or bidirectional prediction Based on at least one, it may decide not to perform filtering on at least one reconstructed reference sample.
  • the image decoding apparatus 100 may perform filtering on at least one reconstructed reference sample based on the filter information.
  • the image decoding apparatus 100 may apply an interpolation filter to the reconstructed reference samples of an integer pixel location based on the filter information to generate a reference sample of the subpixel location.
  • the video decoding apparatus 100 may generate prediction samples corresponding to samples of the current block using reference samples of integer pixel positions and reference samples of a subpixel position.
  • the image decoding apparatus 100 may decode the current block using the prediction samples generated by the filtering. In various embodiments, the image decoding apparatus 100 may recover the current block based on the prediction samples of the current block and the residual block of the current block.
  • FIG. 4A shows a block diagram of an image encoding apparatus 400 according to various embodiments.
  • the image encoding apparatus 400 may include an inter prediction unit 405 and an encoding unit 410.
  • the inter prediction unit 405 and the encoding unit 410 may include at least one processor.
  • the inter prediction unit 405 and the encoding unit 410 may include a memory for storing instructions to be executed by at least one processor.
  • the inter-prediction unit 405 can determine the inter-prediction mode applied to the current block among the plurality of inter-prediction modes when the prediction mode of the current block is the inter-prediction mode. According to various embodiments, the inter-prediction unit 405 can determine the inter-prediction mode applied to the current block according to the coding efficiency of the inter-prediction mode applicable to the current block.
  • the inter prediction modes that can be applied to the current block include a merge mode, an AMVP mode, an inter-skip mode, an OBMC mode (Overlapped Block Motion Compensation mode A Decoder-Side Motion Vector Refinement mode, an Affine mode, a BIO mode (Bidirectional Optical Flow mode), and the like.
  • the inter-prediction unit 405 can determine the number of reference blocks to which the current block refers. For example, the inter prediction unit 405 can determine whether the current block is to be unidirectionally predicted or bidirectionally predicted.
  • the inter prediction unit 405 can determine at least one reference sample position to which the current block refers based on the inter prediction mode of the current block. According to various embodiments, the inter-prediction unit 405 determines a reference block, which is the block most similar to the current block, in at least one reference picture, based on the inter-prediction mode of the current block, It is possible to perform motion prediction to determine a motion vector indicating a difference.
  • reference samples at subpixel positions may be generated in 1/4-pixel units.
  • reference samples of sub-pixel positions may be generated in units of 1/8-pixel or smaller.
  • the inter-prediction unit 405 can determine the position indicated by the motion vector in the reference picture as the reference sample position.
  • the reference sample position may indicate the position of the upper left corner of the reference block referred to by the current block in the reference picture.
  • the reference sample position can be determined by the coordinates obtained by adding the motion vector component of the current block to the coordinates of the upper left corner of the current block.
  • as many reference sample positions as the number of motion vectors used in the inter-prediction mode of the current block may be determined. For example, if a current block is unidirectional predicted, one reference sample location can be determined. For example, if the current block is bidirectional predicted, two reference sample positions can be determined.
  • the inter-prediction unit 405 can determine filter information to be applied to at least one reconstructed reference sample corresponding to at least one reference sample position, based on the inter-prediction mode of the current block.
  • Inter prediction unit 405 can apply an interpolation filter to reference samples of integer pixel positions to generate reference samples of sub-pixel positions between reference samples of integer pixel positions and determine information about the interpolation filters .
  • the inter-prediction unit 405 may determine at least one reconstructed reference sample to which to apply the filter based on the reference sample position within the reconstructed reference picture.
  • the at least one reconstructed reference sample may include samples located within a certain range based on a reference sample location.
  • the at least one reconstructed reference sample may include samples in a reference block referenced by the current block and neighboring samples adjacent to the reference block of the current block.
  • the at least one reconstructed reference sample may further include reference samples referenced by neighboring blocks adjacent to the current block.
  • the at least one reconstructed reference sample may further include neighboring samples adjacent to reference blocks referenced by neighboring blocks of the current block.
  • the inter-prediction unit 405 may determine reference samples of integer pixel positions that are within a certain range based on the reference sample position as at least one reconstructed reference sample to which to apply the interpolation filter.
  • the at least one reconstructed reference sample may include reference samples of integer pixel positions needed to generate reference samples of subpixel positions contained in a reference block that the current block references.
  • the at least one reconstructed reference sample may further include reference samples of integer pixel positions needed to generate reference samples of neighboring sub-pixel locations adjacent to the reference block of the current block.
  • the at least one reconstructed reference sample may further include reference samples of integer pixel positions needed to generate reference samples of subpixel locations referenced by neighboring blocks adjacent to the current block.
  • the filter information may include at least one of a direction and a size of the filter.
  • the inter-prediction unit 405 may decide to use a separable two-dimensional filter. In one embodiment, the inter-prediction unit 405 may decide to apply a horizontal filter and a vertical filter, respectively.
  • the inter-prediction unit 405 can determine the size of the filter by determining the number of taps of the filter to a predetermined value.
  • the number of taps in the filter may refer to the number of reference samples at an integer pixel position required to generate a reference sample of the subpixel position.
  • the predetermined value may be determined according to the inter prediction mode of the current block.
  • the inter-prediction unit 405 can determine the filter information based on the size of the current block. In various embodiments, the inter-prediction unit 405 can determine the size of the filter based on the size of the current block.
  • the inter-prediction unit 405 may determine to use the first filter if the size of the current block is greater than or equal to the predetermined reference value, and otherwise, to use the second filter. In one embodiment, the size of the first filter may be greater than the size of the second filter. In one embodiment, the predetermined reference value may be determined according to the inter prediction mode of the current block. In one embodiment, the inter-prediction unit 405 can compare the size of the current block with a plurality of reference values, and determine which of a plurality of filters to use according to the comparison result.
  • the inter-prediction unit 405 may determine the horizontal direction filter information based on the horizontal width of the current block and determine the vertical direction filter information based on the vertical length of the current block. In one embodiment, the inter-prediction unit 405 may determine the horizontal direction filter and the vertical direction filter as different-sized filters when the current block is non-square. In one embodiment, the inter-prediction unit 405 may determine the number of taps of the horizontal direction filter and the number of taps of the vertical direction filter differently when the current block is non-square.
  • the inter-prediction unit 405 can determine the horizontal direction filter information and the vertical direction filter information based on the ratio of the horizontal width to the vertical length of the current block. For example, when the horizontal direction filter information of the current block is determined, the inter prediction unit 405 can determine vertical direction filter information based on the horizontal direction filter information and the ratio of the horizontal width to the vertical length of the current block. For example, when the vertical direction filter information of the current block is determined, the inter prediction unit 405 may determine the horizontal direction filter information based on the vertical direction filter information and the ratio of the horizontal width to the vertical length of the current block . In one embodiment, the inter-prediction unit 405 can determine the size of the horizontal direction filter and the size of the vertical direction filter so as to be proportional to the horizontal width and vertical length of the current block.
  • the inter-prediction unit 405 can determine the filter information based on whether the current block is a luma block or a chroma block. In one embodiment, the inter-prediction unit 405 may determine to use a first filter if the current block is a luma block and to use a second filter if the current block is a chroma block. In one embodiment, the size of the first filter may be twice the size of the second filter.
  • the inter-prediction unit 405 can determine the filter information based on whether the inter prediction of the current block is unidirectional prediction or bidirectional prediction. In one embodiment, the inter-prediction unit 405 may determine to use the first filter if the current block is unidirectional predicted, and to use the second filter if the current block is bi-directionally predicted. In one embodiment, the size of the first filter may be twice the size of the second filter.
  • the inter-prediction unit 405 can determine the filter information based on the number of reference blocks to which the current block refers. In one embodiment, the inter-prediction unit 405 can compare the number of reference blocks referred to by the current block with a plurality of reference values, and determine which of a plurality of filters to use according to the comparison result.
  • the inter-prediction unit 405 can determine the maximum size of the filter based on the inter-prediction mode of the current block. For example, when the inter prediction mode of the current block is the OBMC mode, the inter prediction unit 405 can determine the size of the filter to be two tapes or less. For example, when the inter prediction mode of the current block is the DMVR mode, the inter prediction unit 405 can determine the size of the filter to be four taps or less. For example, when the inter prediction mode of the current block is the affine mode, the inter prediction unit 405 may determine the size of the filter to be four taps or less. For example, when the inter prediction mode of the current block is the BIO mode, the inter prediction unit 405 can determine the size of the filter to be 8 taps or less.
  • the inter-prediction unit 405 can determine the filter information so that the memory bandwidth required for inter-prediction of the current block is within a predetermined range.
  • the memory bandwidth may be defined as the number of reference samples that must be fetched from memory to encode the current sample.
  • the memory bandwidth may be determined based on the size of the current block and the number of reconstructed reference samples needed for inter prediction of the current block.
  • the inter-prediction unit 405 determines whether the inter prediction of the current block is a unidirectional prediction or a bidirectional prediction, whether the current block is a luma block or a chroma block, Based on at least one, it may decide not to perform filtering on at least one reconstructed reference sample.
  • the inter-prediction unit 405 may perform filtering on at least one reconstructed reference sample based on the filter information.
  • the inter-prediction unit 405 may apply an interpolation filter to the reconstructed reference samples of the integer pixel positions based on the filter information to generate a reference sample of the sub-pixel position.
  • the inter-prediction unit 405 uses the reference samples of the integer pixel positions and the reference samples of the sub-pixel positions based on the inter-prediction mode of the current block to generate at least one reference block Can be determined. In various embodiments, the inter-prediction unit 405 may determine the position difference between the current block and the reference block as a motion vector.
  • the inter-prediction unit 405 may generate prediction samples corresponding to the samples of the current block from the samples of the reference block.
  • the encoding unit 410 may encode the current block using the prediction samples generated by the filtering. In various embodiments, the encoding unit 410 may obtain a residual value between the sample value of the current block and the predicted sample value of the current block, and encode the residual value.
  • the encoding unit 410 may encode information related to at least one motion vector of the current block. In various embodiments, the encoding unit 410 may encode at least one reference picture index of the current block. In various embodiments, the encoding unit 410 may encode information on the inter-prediction mode of the current block.
  • FIG. 4B shows a block diagram of an image encoding apparatus 400 according to various embodiments.
  • the image encoding apparatus 400 may be the image encoding apparatus 400 shown in FIG. 4A.
  • the image encoding apparatus 400 may include a memory 420 and at least one processor 425 connected to the memory 420.
  • the operations of the image encoding apparatus 400 according to various embodiments may operate as separate processors or may be operated under the control of a central processor.
  • the memory 420 of the image encoding apparatus 400 can store data received from the outside and data generated by the processor.
  • the memory 420 of the image encoding apparatus 400 may include at least one instruction configured to be executable by the at least one processor 425.
  • the at least one instruction when executed, causes the at least one processor (425) to determine an inter-prediction mode of the current block when the current block is inter-predicted, Determining filter information to be applied to at least one reconstructed reference sample corresponding to the at least one reference sample location based on the inter prediction mode of the current block, And to perform filtering on the at least one reconstructed reference sample based on the filter information and to encode the current block using prediction samples generated by the filtering.
  • FIG. 5 shows a block diagram of an image encoding unit 500 according to various embodiments.
  • the image encoding unit 500 may perform operations to encode image data in the image encoding apparatus 400 shown in FIGS. 4A and 4B.
  • the intra predictor 520 performs intraprediction on a block-by-block basis among the current image 505 and the inter-prediction unit 515 uses the reference image obtained in the current image 505 and the restored picture buffer 510 for each block And performs inter prediction.
  • the inter-prediction unit 520 of FIG. 5 may correspond to the inter-prediction unit 405 of FIG. 4A.
  • the transform unit 525 generates residue data by subtracting the prediction data for each block output from the intra prediction unit 520 or the inter prediction unit 5150 from the data for the block to be encoded of the current image 505,
  • quantization unit 530 may perform conversion and quantization on the residue data to output the quantized transform coefficients for each block.
  • the inverse quantization unit 545 and the inverse transformation unit 550 may perform inverse quantization and inverse transformation on the quantized transform coefficients to restore the residue data in the spatial domain.
  • the residue data of the reconstructed spatial region is reconstructed into the spatial domain data for the block of the current image 505 by adding the prediction data for each block outputted from the intra prediction unit 520 or the inter prediction unit 515 .
  • the deblocking unit 555 and the SAO performing unit perform in-loop filtering on the data of the reconstructed spatial region to generate a filtered reconstructed image.
  • the generated restored image is stored in the restored picture buffer 510.
  • the reconstructed images stored in the reconstructed picture buffer 510 may be used as reference images for inter prediction of other images.
  • the entropy encoding unit 535 entropy-codes the quantized transform coefficients, and the entropy-encoded coefficients can be output to the bitstream 540.
  • the stepwise operations of the image encoding unit 500 may be performed on a block-by-block basis.
  • Figure 6 shows a flow diagram of a method of encoding an image according to various embodiments.
  • the image encoding apparatus 400 can determine the inter prediction mode of the current block.
  • the image encoding apparatus 400 may determine the inter prediction mode of the current block according to the coding efficiency of the inter prediction modes applicable to the current block.
  • the inter prediction modes that can be applied to the current block include a merge mode, an AMVP mode, an inter-skip mode, an OBMC mode (Overlapped Block Motion Compensation mode A Decoder-Side Motion Vector Refinement mode, an Affine mode, a BIO mode (Bidirectional Optical Flow mode), and the like.
  • the inter-prediction unit 405 can determine whether the current block is to be unidirectionally predicted or bidirectionally predicted.
  • the image encoding apparatus 400 can determine the number of reference blocks to be referred to by the current block. For example, the image encoding apparatus 400 may determine whether the current block is uni-directionally predicted or bidirectionally predicted.
  • the image encoding apparatus 400 may determine at least one reference sample position to be referred to by the current block, based on the inter-prediction mode of the current block. According to various embodiments, the image encoding apparatus 400 determines a reference block, which is the block most similar to the current block, in at least one reference picture based on the inter-prediction mode of the current block, It is possible to perform motion prediction for determining a motion vector indicating a position difference.
  • the image coding apparatus 400 may determine a position indicated by a motion vector in a reference picture as a reference sample position. In various embodiments, as many reference sample positions as the number of motion vectors used in the inter-prediction mode of the current block may be determined.
  • the image encoding apparatus 400 may determine filter information to be applied to at least one reconstructed reference sample corresponding to at least one reference sample position, based on the inter-prediction mode of the current block.
  • the image encoding apparatus 400 may apply an interpolation filter to the reference samples of the integer pixel positions to generate a reference sample of the subpixel position between the reference samples of the integer pixel positions and determine information about the interpolation filter .
  • the image encoding apparatus 400 may determine at least one reconstructed reference sample to which to apply the filter based on the reference sample position within the reconstructed reference picture.
  • the at least one reconstructed reference sample may include samples located within a certain range based on a reference sample location.
  • the at least one reconstructed reference sample may include samples in a reference block referenced by the current block and neighboring samples adjacent to the reference block of the current block.
  • the at least one reconstructed reference sample may further include reference samples referenced by neighboring blocks adjacent to the current block.
  • the at least one reconstructed reference sample may further include neighboring samples adjacent to reference blocks referenced by neighboring blocks of the current block.
  • the image encoding apparatus 400 may determine the reference samples of the integer pixel positions located within a certain range based on the reference sample position as at least one reconstructed reference sample to which the interpolation filter is applied.
  • the at least one reconstructed reference sample may include reference samples of integer pixel positions needed to generate reference samples of subpixel positions contained in a reference block that the current block references.
  • the at least one reconstructed reference sample may further include reference samples of integer pixel positions needed to generate reference samples of neighboring sub-pixel locations adjacent to the reference block of the current block.
  • the at least one reconstructed reference sample may further include reference samples of integer pixel positions needed to generate reference samples of subpixel locations referenced by neighboring blocks adjacent to the current block.
  • the filter information may include at least one of a direction and a size of the filter.
  • the image encoding apparatus 400 may decide to use a separable two-dimensional filter. In one embodiment, the image encoding apparatus 400 may decide to apply a horizontal filter and a vertical filter, respectively.
  • the image encoding apparatus 400 may determine the size of the filter by determining the number of taps of the filter to a predetermined value. At this time, the predetermined value may be determined according to the inter prediction mode of the current block.
  • the image encoding apparatus 400 may determine the filter information based on the size of the current block. In one embodiment, the image encoding apparatus 400 may determine to use the first filter if the size of the current block is greater than or equal to the predetermined reference value, and otherwise, to use the second filter. In one embodiment, the size of the first filter may be greater than the size of the second filter. In one embodiment, the image encoding apparatus 400 can compare the size of the current block with a plurality of reference values, and determine which of the plurality of filters to use according to the comparison result.
  • the image encoding apparatus 400 may determine the horizontal direction filter information based on the horizontal width of the current block, and may determine the vertical direction filter information based on the vertical length of the current block. In one embodiment, when the current block is a non-square block, the image encoding apparatus 400 may determine the horizontal direction filter and the vertical direction filter as filters having different sizes. In one embodiment, the image coding apparatus 400 may determine the number of taps of the horizontal direction filter and the number of taps of the vertical direction filter differently when the current block is non-square.
  • the image encoding apparatus 400 can determine the horizontal direction filter information and the vertical direction filter information based on the ratio of the horizontal width to the vertical length of the current block. For example, when the horizontal direction filter information of the current block is determined, the image coding apparatus 400 can determine the vertical direction filter information based on the horizontal direction filter information and the ratio of the horizontal width to the vertical length of the current block. For example, when the vertical direction filter information of the current block is determined, the image encoding apparatus 400 may determine the horizontal direction filter information based on the vertical direction filter information and the ratio of the horizontal width to the vertical length of the current block . In one embodiment, the image encoding apparatus 400 may determine the size of the horizontal direction filter and the size of the vertical direction filter so as to be proportional to the horizontal width and the vertical length of the current block.
  • the image encoding apparatus 400 may determine the filter information based on whether the current block is a luma block or a chroma block. In one embodiment, the image encoding apparatus 400 may determine to use a first filter if the current block is a luma block, and to use a second filter if the current block is a chroma block. In one embodiment, the size of the first filter may be twice the size of the second filter.
  • the image encoding apparatus 400 may determine the filter information based on whether the inter prediction of the current block is unidirectional prediction or bidirectional prediction. In one embodiment, the image encoding apparatus 400 may determine to use the first filter when the current block is unidirectionally predicted, and to use the second filter when the current block is bi-directionally predicted. In one embodiment, the size of the first filter may be twice the size of the second filter.
  • the image encoding apparatus 400 may determine the filter information based on the number of reference blocks to which the current block refers. In one embodiment, the image encoding apparatus 400 can compare the number of reference blocks referred to by the current block with a plurality of reference values, and determine which of a plurality of filters to use according to the comparison result.
  • the image encoding apparatus 400 may determine the maximum size of the filter based on the inter prediction mode of the current block. For example, when the inter prediction mode of the current block is the OBMC mode, the image encoding apparatus 400 can determine the size of the filter to be two or less taps. For example, when the inter prediction mode of the current block is the DMVR mode, the image encoding apparatus 400 can determine the size of the filter to be four taps or less. For example, when the inter prediction mode of the current block is the affine mode, the image encoding apparatus 400 can determine the size of the filter to be four taps or less. For example, when the inter prediction mode of the current block is the BIO mode, the image encoding apparatus 400 can determine the size of the filter to be 8 taps or less.
  • the image encoding apparatus 400 may determine the filter information so that the memory bandwidth required for inter prediction of the current block is within a predetermined range.
  • the memory bandwidth may be defined as the number of reference samples that must be fetched from the memory to process the current sample.
  • the memory bandwidth may be determined based on the size of the current block and the number of reconstructed reference samples needed for inter prediction of the current block.
  • the image encoding apparatus 400 determines whether the inter prediction of the current block, the current block size, whether the current block is a luma block or a chroma block, and whether the inter prediction of the current block is unidirectional prediction or bidirectional prediction Based on at least one, it may decide not to perform filtering on at least one reconstructed reference sample.
  • the image encoding apparatus 400 may perform filtering on at least one reconstructed reference sample based on the filter information.
  • the image encoding device 400 may apply an interpolation filter to the reconstructed reference samples of the integer pixel location based on the filter information to generate a reference sample of the subpixel location.
  • the image encoding apparatus 400 may determine, based on the inter-prediction mode of the current block, at least one reference block that is closest to the current block, using reference samples of the integer pixel positions and reference samples of the sub- Can be determined. In various embodiments, the image coding apparatus 400 may determine the position difference between the current block and the reference block as a motion vector. In various embodiments, the image encoding apparatus 400 may generate prediction samples corresponding to the samples of the current block from the samples of the reference block.
  • the image encoding apparatus 400 may encode the current block using the prediction samples generated by the filtering. In various embodiments, the image encoding apparatus 400 may obtain a residual value between the sample value of the current block and the predicted sample value of the current block, and encode the residual value. In various embodiments, the image encoding apparatus 400 may encode information related to at least one motion vector of the current block. In various embodiments, the image encoding apparatus 400 may encode at least one reference picture index of the current block. In various embodiments, the image encoding apparatus 400 may encode information on the inter-prediction mode of the current block.
  • one picture may be divided into one or more slices.
  • One slice may be a sequence of one or more Coding Tree Units (CTUs).
  • CTUs Coding Tree Units
  • CTB maximum coding block
  • the maximum coding block means an NxN block including NxN samples (N is an integer). Each color component may be divided into one or more maximum encoding blocks.
  • the maximum encoding unit is the maximum encoding block of the luma sample and the two maximum encoding blocks of the chroma samples corresponding thereto, Samples, and chroma samples.
  • the maximum encoding unit is a unit including syntax structures used for encoding the maximum encoded block and monochrome samples of the monochrome sample.
  • the maximum encoding unit is a unit including syntax structures used for encoding the pictures and the samples of the picture.
  • One maximum coding block may be divided into MxN coding blocks (M, N is an integer) including MxN samples.
  • a coding unit is a coding unit that encodes two coding blocks of a luma sample coding block and corresponding chroma samples and luma samples and chroma samples Is a unit that includes syntax structures used for decoding.
  • the encoding unit is a unit including syntax blocks used for encoding the mono chrome samples and the encoded block of the monochrome sample.
  • an encoding unit is a unit including syntax structures used for encoding the pictures and the samples of the picture.
  • the maximum encoding block and the maximum encoding unit are concepts that are distinguished from each other, and the encoding block and the encoding unit are conceptually distinguished from each other. That is, the (maximum) coding unit means a data structure including a (maximum) coding block including a corresponding sample and a corresponding syntax structure.
  • a (maximum) encoding unit or a (maximum) encoding block refers to a predetermined size block including a predetermined number of samples.
  • the image can be divided into a maximum coding unit (CTU).
  • the size of the maximum encoding unit may be determined based on information obtained from the bitstream.
  • the shape of the largest encoding unit may have a square of the same size.
  • the present invention is not limited thereto.
  • the maximum size of a luma encoded block from the bitstream can be obtained.
  • the maximum size of a luma encoding block indicated by information on the maximum size of a luma encoding block may be one of 16x16, 32x32, 64x64, 128x128, and 256x256.
  • information on the maximum size and luma block size difference of a luma coding block that can be divided into two from the bitstream can be obtained.
  • the information on the luma block size difference may indicate the size difference between the luma maximum encoding unit and the maximum luma encoding block that can be divided into two. Therefore, when the information on the maximum size of the luma coding block obtained from the bitstream and capable of being divided into two pieces is combined with information on the luma block size difference, the size of the luma maximum coding unit can be determined. Using the size of the luma maximum encoding unit, the size of the chroma maximum encoding unit can also be determined.
  • the size of the chroma block may be half the size of the luma block
  • the size of the chroma maximum encoding unit may be the size of the luma maximum encoding unit It can be half the size.
  • the maximum size of the luma coding block capable of binary division can be variably determined.
  • the maximum size of a luma coding block capable of ternary splitting can be fixed.
  • the maximum size of a luma coding block capable of ternary partitioning on an I slice is 32x32
  • the maximum size of a luma coding block capable of ternary partitioning on a P slice or B slice can be 64x64.
  • the maximum encoding unit may be hierarchically divided in units of encoding based on division mode information obtained from the bitstream.
  • division mode information at least one of information indicating whether a quad split is performed, information indicating whether or not the division is multi-division, division direction information, and division type information may be obtained from the bitstream.
  • information indicating whether a quad split is present may indicate whether the current encoding unit is quad-split (QUAD_SPLIT) or not quad-split.
  • the information indicating whether the current encoding unit is multi-divided may indicate whether the current encoding unit is no longer divided (NO_SPLIT) or binary / ternary divided.
  • the division direction information indicates that the current encoding unit is divided into either the horizontal direction or the vertical direction.
  • the division type information indicates that the current encoding unit is divided into binary division) or ternary division.
  • the division mode of the current encoding unit can be determined according to the division direction information and the division type information.
  • the division mode when the current coding unit is divided into the horizontal direction is divided into binary horizontal division (SPLIT_BT_HOR), ternary horizontal division (SPLIT_TT_HOR) when tiled in the horizontal direction, and division mode in the case of binary division in the vertical direction.
  • the binary vertical division (SPLIT_BT_VER) and the division mode in the case of ternary division in the vertical direction can be determined to be the ternary vertical division (SPLIT_BT_VER).
  • the image decoding apparatus 100 can obtain the split mode mode information from the bit stream in one bin string.
  • the form of the bit stream received by the video decoding apparatus 100 may include a fixed length binary code, a unary code, a truncated unary code, and a predetermined binary code.
  • An empty string is a binary sequence of information. The empty string may consist of at least one bit.
  • the image decoding apparatus 100 can obtain the split mode mode information corresponding to the bin string based on the split rule.
  • the video decoding apparatus 100 can determine whether or not to divide the encoding unit into quad, division, or division direction and division type based on one bin string.
  • the encoding unit may be less than or equal to the maximum encoding unit.
  • the maximum encoding unit is also one of the encoding units since it is the encoding unit having the maximum size.
  • the encoding unit determined in the maximum encoding unit has the same size as the maximum encoding unit. If the division type mode information for the maximum encoding unit indicates division, the maximum encoding unit may be divided into encoding units. In addition, if division type mode information for an encoding unit indicates division, encoding units can be divided into smaller-sized encoding units.
  • the division of the image is not limited to this, and the maximum encoding unit and the encoding unit may not be distinguished. The division of encoding units will be described in more detail with reference to FIG. 3 to FIG.
  • one or more prediction blocks for prediction from the encoding unit can be determined.
  • the prediction block may be equal to or smaller than the encoding unit.
  • one or more conversion blocks for conversion from an encoding unit may be determined.
  • the conversion block may be equal to or smaller than the encoding unit.
  • the shapes and sizes of the transform block and the prediction block may not be related to each other.
  • prediction can be performed using an encoding unit as an encoding unit as a prediction block.
  • conversion can be performed using the encoding unit as a conversion block as a conversion block.
  • the current block and the neighboring blocks of the present disclosure may represent one of a maximum encoding unit, an encoding unit, a prediction block, and a transform block.
  • the current block or the current encoding unit is a block in which decoding or encoding is currently proceeding, or a block in which the current segmentation is proceeding.
  • the neighboring block may be a block restored before the current block.
  • the neighboring blocks may be spatially or temporally contiguous from the current block.
  • the neighboring block may be located at one of the left lower side, the left side, the upper left side, the upper side, the upper right side, the right side, and the lower right side of the current block.
  • FIG. 7 illustrates a process in which the image decoding apparatus 100 determines at least one encoding unit by dividing a current encoding unit according to an embodiment.
  • the block shape may include 4Nx4N, 4Nx2N, 2Nx4N, 4NxN, Nx4N, 32NxN, Nx32N, 16NxN, Nx16N, 8NxN, or Nx8N.
  • N may be a positive integer.
  • the block type information is information indicating at least one of a ratio, or a size, of a shape, direction, width, and height of an encoding unit.
  • the shape of the encoding unit may include a square and a non-square. If the width and height of the encoding unit are the same (i.e., the block type of the encoding unit is 4Nx4N), the image decoding apparatus 100 can determine the block type information of the encoding unit as a square. The image decoding apparatus 100 can determine the shape of the encoding unit as a non-square.
  • the image decoding apparatus 100 When the width and height of the encoding unit are different (i.e., the block type of the encoding unit is 4Nx2N, 2Nx4N, 4NxN, Nx4N, 32NxN, Nx32N, 16NxN, Nx16N, 8NxN, or Nx8N), the image decoding apparatus 100
  • the block type information of the encoding unit can be determined as a non-square.
  • the image decoding apparatus 100 sets the width and height ratio of the block type information of the coding unit to 1: 2, 2: 1, 1: 4, 4: , 8: 1, 1:16, 16: 1, 1:32, 32: 1.
  • the video decoding apparatus 100 can determine whether the coding unit is the horizontal direction or the vertical direction. Further, the image decoding apparatus 100 can determine the size of the encoding unit based on at least one of the width of the encoding unit, the length of the height, and the width.
  • the image decoding apparatus 100 may determine the type of the encoding unit using the block type information, and may determine the type of the encoding unit to be divided using the division type mode information. That is, the division method of the coding unit indicated by the division type mode information can be determined according to which block type the block type information used by the video decoding apparatus 100 represents.
  • the image decoding apparatus 100 can obtain the split mode information from the bit stream. However, the present invention is not limited thereto, and the image decoding apparatus 100 and the image encoding apparatus 400 can determine the promised divided mode information based on the block type information.
  • the video decoding apparatus 100 can determine the promised divided mode mode information for the maximum encoding unit or the minimum encoding unit. For example, the image decoding apparatus 100 may determine the division type mode information as a quad split with respect to the maximum encoding unit. Also, the video decoding apparatus 100 can determine the division type mode information to be "not divided" for the minimum encoding unit. Specifically, the image decoding apparatus 100 can determine the size of the maximum encoding unit to be 256x256.
  • the video decoding apparatus 100 can determine the promised division mode information in advance by quad division.
  • Quad partitioning is a split mode mode that bisects both the width and the height of the encoding unit.
  • the image decoding apparatus 100 can obtain a 128x128 encoding unit from the 256x256 maximum encoding unit based on the division type mode information. Also, the image decoding apparatus 100 can determine the size of the minimum encoding unit to be 4x4.
  • the image decoding apparatus 100 can obtain the division type mode information indicating "not divided" for the minimum encoding unit.
  • the image decoding apparatus 100 may use block type information indicating that the current encoding unit is a square type. For example, the image decoding apparatus 100 can determine whether to divide a square encoding unit according to division type mode information, vertically or horizontally, four encoding units, or the like. 3, if the block type information of the current encoding unit 700 indicates a square shape, the decoding unit 115 decodes the same size as the current encoding unit 700 according to the division mode mode information indicating that the current block is not divided 710b, 710c, 710d, 710e, 710f, etc.) based on the division type mode information indicating the predetermined division method.
  • the image decoding apparatus 100 includes two encoding units 710b obtained by dividing the current encoding unit 700 in the vertical direction on the basis of the division mode mode information indicating that the image is divided vertically according to an embodiment You can decide.
  • the image decoding apparatus 100 can determine two encoding units 710c obtained by dividing the current encoding unit 700 in the horizontal direction based on the split mode mode information indicating that the image is divided in the horizontal direction.
  • the image decoding apparatus 100 can determine four encoding units 710d obtained by dividing the current encoding unit 700 in the vertical direction and the horizontal direction based on the division type mode information indicating that the image is divided vertically and horizontally.
  • the image decoding apparatus 100 includes three encoding units 710e obtained by dividing the current encoding unit 700 in the vertical direction based on division mode information indicating that the image is divided ternary in the vertical direction according to an embodiment You can decide.
  • the image decoding apparatus 100 can determine three encoding units 710f obtained by dividing the current encoding unit 700 in the horizontal direction based on the division type mode information indicating that the image is divided in the horizontal direction.
  • a division type in which a square coding unit can be divided should not be limited to the above-described type, and various types of division mode information can be included.
  • the predetermined divisional form in which the square encoding unit is divided will be described in detail by way of various embodiments below.
  • FIG. 8 illustrates a process in which the image decoding apparatus 100 determines at least one encoding unit by dividing a non-square encoding unit according to an embodiment.
  • the image decoding apparatus 100 may use block type information indicating that the current encoding unit is a non-square format.
  • the image decoding apparatus 100 may determine whether to divide the non-square current encoding unit according to the division mode mode information or not in a predetermined method. Referring to FIG. 4, when the block type information of the current encoding unit 800 or 850 indicates a non-square shape, the image decoding apparatus 100 determines whether the current encoding unit 820b, 830a, 830b, 830c, 870a, 830a, 830a, 830a, 830a, 830a, 830a, 830a, 830a, 830a, 830a, 830a, 830a, , 870b, 880a, 880b, 880c.
  • the predetermined division method in which the non-square coding unit is divided will be described in detail through various embodiments.
  • the image decoding apparatus 100 may determine the type in which the encoding unit is divided using the division type mode information.
  • the division type mode information may include at least one of the encoding units Can be expressed. Referring to FIG. 8, when the division type mode information indicates that the current encoding unit 800 or 850 is divided into two encoding units, the image decoding apparatus 100 decodes the current encoding unit 800 or 850 based on the division type mode information, 850) to determine two encoding units 820a, 820b, or 870a, 870b included in the current encoding unit.
  • the video decoding apparatus 100 divides the current encoding unit 800 or 850 into a non- The current encoding unit can be divided in consideration of the position of the long side of the encoding unit 800 or 850.
  • the image decoding apparatus 100 divides the current encoding unit 800 or 850 in the direction of dividing the long side of the current encoding unit 800 or 850 in consideration of the type of the current encoding unit 800 or 850 So that a plurality of encoding units can be determined.
  • the video decoding apparatus 100 when the division type mode information indicates division of an encoding unit into odd number of blocks (ternary division), the video decoding apparatus 100 performs an odd number of encodings included in the current encoding unit 800 or 850 The unit can be determined. For example, when the division type mode information indicates that the current encoding unit 800 or 850 is divided into three encoding units, the image decoding device 100 converts the current encoding unit 800 or 850 into three encoding units 830a, 830b, 830c, 880a, 880b, 880c.
  • the ratio of the width and height of the current encoding unit 800 or 850 may be 4: 1 or 1: 4. If the ratio of width to height is 4: 1, the length of the width is longer than the length of the height, so the block type information may be horizontal. If the ratio of width to height is 1: 4, the block type information may be vertical because the length of the width is shorter than the length of the height.
  • the image decoding apparatus 100 may determine to divide the current encoding unit into odd number blocks based on the division type mode information. Also, the image decoding apparatus 100 can determine the dividing direction of the current encoding unit 800 or 850 based on the block type information of the current encoding unit 800 or 850.
  • the image decoding apparatus 100 can determine the encoding units 830a, 830b, and 830c by dividing the current encoding unit 800 in the horizontal direction. Also, when the current encoding unit 850 is in the horizontal direction, the image decoding apparatus 100 can determine the encoding units 880a, 880b, and 880c by dividing the current encoding unit 850 in the vertical direction.
  • the image decoding apparatus 100 may determine an odd number of encoding units included in the current encoding unit 800 or 850, and the sizes of the determined encoding units may not be the same.
  • the size of a predetermined encoding unit 830b or 880b among the determined odd number of encoding units 830a, 830b, 830c, 880a, 880b, and 880c is different from that of other encoding units 830a, 830c, 880a, and 880c .
  • an encoding unit that can be determined by dividing the current encoding unit 800 or 850 may have a plurality of types of sizes, and an odd number of encoding units 830a, 830b, 830c, 880a, 880b, May have different sizes.
  • the image decoding apparatus 100 may determine an odd number of encoding units included in the current encoding unit 800 or 850, Furthermore, the image decoding apparatus 100 may set a predetermined restriction on at least one of the odd number of encoding units generated by division. Referring to FIG. 8, the image decoding apparatus 100 includes a coding unit 830a, 830b, 830c, 880a, 880b, and 880c generated by dividing a current coding unit 800 or 850, 830b, and 880b may be different from other encoding units 830a, 830c, 880a, and 880c.
  • the encoding units 830b and 880b positioned at the center are restricted so as not to be further divided, It can be limited to be divided.
  • FIG. 9 illustrates a process in which the image decoding apparatus 100 divides an encoding unit based on at least one of block type information and split mode mode information according to an embodiment.
  • the image decoding apparatus 100 may determine to divide or not divide the first encoding unit 900 of a square shape into encoding units based on at least one of the block type information and the division mode mode information . If the division type mode information indicates that the first encoding unit 900 is divided in the horizontal direction according to the embodiment, the image decoding apparatus 100 divides the first encoding unit 900 in the horizontal direction, The unit 910 can be determined.
  • the first encoding unit, the second encoding unit, and the third encoding unit used according to an embodiment are terms used to understand the relation before and after the division between encoding units.
  • the second encoding unit can be determined, and if the second encoding unit is divided, the third encoding unit can be determined.
  • the relationship between the first coding unit, the second coding unit and the third coding unit used can be understood to be in accordance with the above-mentioned characteristic.
  • the image decoding apparatus 100 may determine that the determined second encoding unit 910 is not divided or divided into encoding units based on the division mode mode information. Referring to FIG. 9, the image decoding apparatus 100 divides a second encoding unit 910 of a non-square shape determined by dividing a first encoding unit 900 based on division mode information into at least one third encoding It may be divided into units 920a, 920b, 920c, 920d, etc., or the second encoding unit 910 may not be divided.
  • the image decoding apparatus 100 can obtain the division type mode information and the image decoding apparatus 100 divides the first encoding unit 900 based on the obtained division type mode information to generate a plurality of second encoding (E.g., 910), and the second encoding unit 910 can be divided according to the manner in which the first encoding unit 900 is divided based on the division mode mode information.
  • the second coding unit 910 (E.g., 920a, 920b, 920c, 920d, etc.) based on the division type mode information for the second encoding unit 910.
  • the encoding unit may be recursively divided based on the division mode information associated with each encoding unit. Therefore, a square encoding unit may be determined in a non-square encoding unit, and a non-square encoding unit may be determined by dividing the square encoding unit recursively.
  • predetermined encoding units for example, An encoding unit or a square-shaped encoding unit
  • the third encoding unit 920b in the form of a square which is one of the odd numbered third encoding units 920b, 920c, and 920d, may be divided in the horizontal direction and divided into a plurality of fourth encoding units.
  • the non-square fourth encoding unit 930b or 930d which is one of the plurality of fourth encoding units 930a, 930b, 930c, and 930d, may be further divided into a plurality of encoding units.
  • the non-square-shaped fourth encoding unit 930b or 930d may be divided again into odd-numbered encoding units. A method which can be used for recursive division of an encoding unit will be described later in various embodiments.
  • the image decoding apparatus 100 may divide each of the third encoding units 920a, 920b, 920c, and 920d into encoding units based on the division type mode information. Also, the image decoding apparatus 100 may determine that the second encoding unit 910 is not divided based on the division type mode information. The image decoding apparatus 100 may divide the second encoding unit 910 in a non-square form into an odd number of third encoding units 920b, 920c, and 920d according to an embodiment. The image decoding apparatus 100 may set a predetermined restriction on a predetermined third encoding unit among the odd number of third encoding units 920b, 920c, and 920d. For example, the image decoding apparatus 100 may limit the encoding unit 920c located in the middle among the odd numbered third encoding units 920b, 920c, and 920d to no longer be divided, or be divided into a set number of times .
  • the image decoding apparatus 100 includes an encoding unit (not shown) positioned in the middle among the odd third encoding units 920b, 920c, and 920d included in the second encoding unit 910 in the non- 920c are not further divided or limited to being divided into a predetermined division form (for example, divided into four coding units only or divided into a form corresponding to a form in which the second coding units 910 are divided) (For example, dividing only n times, n > 0).
  • a predetermined division form for example, divided into four coding units only or divided into a form corresponding to a form in which the second coding units 910 are divided
  • the above restriction on the coding unit 920c located in the middle is merely an example and should not be construed to be limited to the above embodiments and the coding unit 920c located in the middle is not limited to the other coding units 920b and 920d Quot;), < / RTI > which can be decoded differently.
  • the image decoding apparatus 100 may acquire division mode information used for dividing a current encoding unit at a predetermined position in a current encoding unit.
  • FIG. 10 shows a method for an image decoding apparatus 100 to determine a predetermined encoding unit among odd number of encoding units according to an embodiment.
  • the division type mode information of the current encoding units 1000 and 1050 may include a sample of a predetermined position among a plurality of samples included in the current encoding units 1000 and 1050 (for example, 1040, 1090).
  • the predetermined position in the current coding unit 1000 in which at least one of the division mode information can be obtained should not be limited to the middle position shown in FIG. 10, and the predetermined position should be included in the current coding unit 1000 (E.g., top, bottom, left, right, top left, bottom left, top right or bottom right, etc.)
  • the image decoding apparatus 100 may determine division mode mode information obtained from a predetermined position and divide the current encoding unit into the encoding units of various types and sizes.
  • the image decoding apparatus 100 may select one of the encoding units.
  • the method for selecting one of the plurality of encoding units may be various, and description of these methods will be described later in various embodiments.
  • the image decoding apparatus 100 may divide the current encoding unit into a plurality of encoding units and determine a predetermined encoding unit.
  • the image decoding apparatus 100 may use information indicating the positions of odd-numbered encoding units in order to determine an encoding unit located in the middle among odd-numbered encoding units. 10, the image decoding apparatus 100 divides the current encoding unit 1000 or the current encoding unit 1050 into odd number of encoding units 1020a, 1020b, and 1020c or odd number of encoding units 1060a, 1060b, and 1060c. The image decoding apparatus 100 may use the information on the positions of the odd number of coding units 1020a, 1020b and 1020c or the odd number of coding units 1060a, 1060b and 1060c, (1060b).
  • the image decoding apparatus 100 determines the positions of the encoding units 1020a, 1020b, and 1020c based on information indicating the positions of predetermined samples included in the encoding units 1020a, 1020b, and 1020c, Can be determined. Specifically, the video decoding apparatus 100 encodes the encoding units 1020a, 1020b, and 1020c based on information indicating the positions of the samples 1030a, 1030b, and 1030c at the upper left of the encoding units 1020a, 1020b, and 1020c, The coding unit 1020b located in the center can be determined.
  • Information indicating the positions of the upper left samples 1030a, 1030b, and 1030c included in the coding units 1020a, 1020b, and 1020c according to an embodiment is stored in the pictures of the coding units 1020a, 1020b, and 1020c Or information about the position or coordinates of the object.
  • Information indicating the positions of the upper left samples 1030a, 1030b, and 1030c included in the coding units 1020a, 1020b, and 1020c according to one embodiment is stored in the coding units 1020a , 1020b, and 1020c, and the width or height may correspond to information indicating a difference between coordinates in the pictures of the encoding units 1020a, 1020b, and 1020c.
  • the image decoding apparatus 100 directly uses the information on the position or the coordinates in the pictures of the coding units 1020a, 1020b, and 1020c or the information on the width or height of the coding unit corresponding to the difference value between the coordinates
  • the encoding unit 1020b located in the center can be determined.
  • the information indicating the position of the upper left sample 1030a of the upper coding unit 1020a may indicate the coordinates (xa, ya), and the upper left sample 1030b of the middle coding unit 1020b May indicate the coordinates (xb, yb), and information indicating the position of the upper left sample 1030c of the lower coding unit 1020c may indicate (xc, yc) coordinates.
  • the video decoding apparatus 100 can determine the center encoding unit 1020b by using the coordinates of the upper left samples 1030a, 1030b, and 1030c included in the encoding units 1020a, 1020b, and 1020c, respectively.
  • the coding unit 1020b including the coordinates (xb, yb) of the sample 1030b positioned at the center May be determined as a coding unit located in the middle of the coding units 1020a, 1020b, and 1020c determined by dividing the current coding unit 1000.
  • the coordinates indicating the positions of the samples 1030a, 1030b and 1030c in the upper left corner may indicate the coordinates indicating the absolute position in the picture
  • the position of the sample 1030a in the upper left of the upper coding unit 1020a may be (Dxb, dyb), which is information indicating the relative position of the upper left sample 1030b of the middle coding unit 1020b, and the relative position of the upper left sample 1030c of the lower coding unit 1020c
  • Information dyn (dxc, dyc) coordinates may also be used.
  • the method of determining the coding unit at a predetermined position by using the coordinates of the sample as information indicating the position of the sample included in the coding unit should not be limited to the above-described method, and various arithmetic Should be interpreted as a method.
  • the image decoding apparatus 100 may divide the current encoding unit 1000 into a plurality of encoding units 1020a, 1020b, and 1020c, and may encode a predetermined one of the encoding units 1020a, 1020b, and 1020c
  • the encoding unit can be selected according to the criterion. For example, the image decoding apparatus 100 can select an encoding unit 1020b having a different size from among the encoding units 1020a, 1020b, and 1020c.
  • the image decoding apparatus 100 may include (xa, ya) coordinates, which is information indicating the position of the upper left sample 1030a of the upper encoding unit 1020a, a sample of the upper left sample of the middle encoding unit 1020b (Xc, yc) coordinates, which is information indicating the position of the upper-left encoding unit 1030b and the position of the upper-left sample 1030c of the lower-stage encoding unit 1020c, , 1020b, and 1020c, respectively.
  • the image decoding apparatus 100 encodes the encoding units 1020a and 1020b using the coordinates (xa, ya), (xb, yb), (xc, yc) indicating the positions of the encoding units 1020a, 1020b, , And 1020c, respectively.
  • the image decoding apparatus 100 may determine the width of the upper encoding unit 1020a as the width of the current encoding unit 1000.
  • the image decoding apparatus 100 can determine the height of the upper encoding unit 1020a as yb-ya.
  • the image decoding apparatus 100 may determine the width of the middle encoding unit 1020b as the width of the current encoding unit 1000 according to an embodiment.
  • the image decoding apparatus 100 can determine the height of the center encoding unit 1020b as yc-yb.
  • the image decoding apparatus 100 may determine the width or height of the lower coding unit by using the width or height of the current coding unit and the width and height of the upper coding unit 1020a and the middle coding unit 1020b .
  • the image decoding apparatus 100 may determine an encoding unit having a different size from the other encoding units based on the widths and heights of the determined encoding units 1020a, 1020b, and 1020c. Referring to FIG.
  • the image decoding apparatus 100 may determine a coding unit 1020b as a coding unit at a predetermined position while having a size different from that of the upper coding unit 1020a and the lower coding unit 1020c.
  • the process of determining the encoding unit having a size different from that of the other encoding units by the video decoding apparatus 100 may be the same as that of the first embodiment in which the encoding unit of a predetermined position is determined using the size of the encoding unit determined based on the sample coordinates .
  • Various processes may be used for determining the encoding unit at a predetermined position by comparing the sizes of the encoding units determined according to predetermined sample coordinates.
  • the image decoding apparatus 100 is configured to calculate the position of the sample 1070a at the upper left of the left encoding unit 1060a and the position of the sample 1070b at the upper left of the middle encoding unit 1060b, 1060b and 1060c using the (xf, yf) coordinates which are information indicating the (xe, ye) coordinate which is the information indicating the position of the left upper coding unit 1060c and the position of the upper left sample 1070c of the right coding unit 1060c, Each width or height can be determined.
  • the image decoding apparatus 100 encodes the encoded units 1060a and 1060b using the coordinates (xd, yd), (xe, ye), (xf, yf) indicating the positions of the encoding units 1060a, 1060b and 1060c , And 1060c, respectively.
  • the image decoding apparatus 100 may determine the width of the left encoding unit 1060a as xe-xd.
  • the image decoding apparatus 100 can determine the height of the left encoding unit 1060a as the height of the current encoding unit 1050.
  • the image decoding apparatus 100 may determine the width of the middle encoding unit 1060b as xf-xe.
  • the image decoding apparatus 100 can determine the height of the middle encoding unit 1060b as the height of the current encoding unit 1000.
  • the width or height of the right encoding unit 1060c is determined by the width or height of the current encoding unit 1050 and the width and height of the left encoding unit 1060a and the middle encoding unit 1060b .
  • the image decoding apparatus 100 may determine an encoding unit having a different size from the other encoding units based on the widths and heights of the determined encoding units 1060a, 1060b, and 1060c. Referring to FIG. 10, the image decoding apparatus 100 may determine a coding unit 1060b as a coding unit at a predetermined position, having a size different from that of the left coding unit 1060a and the right coding unit 1060c.
  • the process of determining the encoding unit having a size different from that of the other encoding units by the video decoding apparatus 100 may be the same as that of the first embodiment in which the encoding unit of a predetermined position is determined using the size of the encoding unit determined based on the sample coordinates , Various processes may be used for determining the encoding unit at a predetermined position by comparing the sizes of the encoding units determined according to predetermined sample coordinates.
  • the position of the sample to be considered for determining the position of the coding unit should not be interpreted as being limited to the left upper end, and information about the position of any sample included in the coding unit can be interpreted as being available.
  • the image decoding apparatus 100 can select a coding unit at a predetermined position among the odd number of coding units determined by dividing the current coding unit considering the type of the current coding unit. For example, if the current coding unit is a non-square shape having a width greater than the height, the image decoding apparatus 100 can determine a coding unit at a predetermined position along the horizontal direction. That is, the image decoding apparatus 100 may determine one of the encoding units which are located in the horizontal direction and limit the encoding unit. If the current coding unit is a non-square shape having a height greater than the width, the image decoding apparatus 100 can determine a coding unit at a predetermined position in the vertical direction. That is, the image decoding apparatus 100 may determine one of the encoding units having different positions in the vertical direction and set a restriction on the encoding unit.
  • the image decoding apparatus 100 may use information indicating positions of even-numbered encoding units in order to determine an encoding unit at a predetermined position among the even-numbered encoding units.
  • the image decoding apparatus 100 can determine an even number of encoding units by dividing the current encoding unit (binary division) and determine a predetermined encoding unit using information on the positions of the even number of encoding units. A concrete procedure for this is omitted because it may be a process corresponding to a process of determining a coding unit of a predetermined position (for example, the middle position) among the odd number of coding units described with reference to FIG.
  • the video decoding apparatus 100 may determine the block type information stored in the sample included in the middle coding unit, Mode information can be used.
  • the image decoding apparatus 100 may divide the current encoding unit 1000 into a plurality of encoding units 1020a, 1020b, and 1020c based on the division type mode information, and may include a plurality of encoding units 1020a, 1020b, and 1020c among the encoding units 1020a and 1020b. Furthermore, the image decoding apparatus 100 can determine the coding unit 1020b positioned at the center in consideration of the position at which the split mode information is obtained.
  • the division type mode information of the current encoding unit 1000 can be obtained in the sample 1040 positioned in the middle of the current encoding unit 1000, and the current encoding unit 1000 can be obtained based on the division mode information
  • the encoding unit 1020b including the sample 1040 may be determined as a centrally located encoding unit.
  • the information used for determining the coding unit located in the middle should not be limited to the division type mode information, and various kinds of information can be used in the process of determining the coding unit located in the middle.
  • predetermined information for identifying a coding unit at a predetermined position may be obtained from a predetermined sample included in a coding unit to be determined.
  • the image decoding apparatus 100 includes a plurality of encoding units 1020a, 1020b, and 1020c, which are determined by dividing the current encoding unit 1000, and encoding units (for example, Obtained from a sample at a predetermined position in the current coding unit 1000 (for example, a sample located in the middle of the current coding unit 1000) to determine the coding mode of the current coding unit 1000 Can be used.
  • the video decoding apparatus 100 can determine a sample of the predetermined position in consideration of the block form of the current encoding unit 1000, and the video decoding apparatus 100 can decode a plurality of It is possible to determine a coding unit 1020b including a sample from which predetermined information (for example, divided mode information) can be obtained, among the number of coding units 1020a, 1020b, and 1020c .
  • the image decoding apparatus 100 may determine a sample 1040 located in the center of the current encoding unit 1000 as a sample from which predetermined information can be obtained,
  • the coding unit 100 may limit the coding unit 1020b including the sample 1040 to a predetermined limit in the decoding process.
  • the position of a sample from which predetermined information can be obtained can not be construed to be limited to the above-described position, and can be interpreted as samples at arbitrary positions included in the encoding unit 1020b to be determined for limiting.
  • the position of a sample from which predetermined information can be obtained according to an embodiment may be determined according to the type of the current encoding unit 1000.
  • the block type information can determine whether the current encoding unit is a square or a non-square, and determine the position of a sample from which predetermined information can be obtained according to the shape.
  • the video decoding apparatus 100 may use at least one of the information on the width of the current coding unit and the information on the height to position at least one of the width and the height of the current coding unit in half The sample can be determined as a sample from which predetermined information can be obtained.
  • the image decoding apparatus 100 selects one of the samples adjacent to the boundary dividing the longer side of the current encoding unit into halves by a predetermined Can be determined as a sample from which the information of < / RTI >
  • the image decoding apparatus 100 may use the division mode information to determine a predetermined unit of the plurality of encoding units.
  • the image decoding apparatus 100 may acquire division type mode information from a sample at a predetermined position included in an encoding unit, and the image decoding apparatus 100 may include a plurality of encoding units
  • the units may be divided using the division mode information obtained from the sample at a predetermined position included in each of the plurality of encoding units. That is, the coding unit can be recursively divided using the division type mode information obtained in the sample at the predetermined position contained in each of the coding units. Since the recursive division process of the encoding unit has been described with reference to FIG. 5, a detailed description thereof will be omitted.
  • the image decoding apparatus 100 can determine at least one encoding unit by dividing the current encoding unit, and the order in which the at least one encoding unit is decoded is determined as a predetermined block (for example, ). ≪ / RTI >
  • FIG. 11 illustrates a sequence in which a plurality of coding units are processed when the image decoding apparatus 100 determines a plurality of coding units by dividing the current coding unit according to an embodiment.
  • the image decoding apparatus 100 may determine the second encoding units 1110a and 1110b by dividing the first encoding unit 1100 in the vertical direction according to the division type mode information or may determine the second encoding units 1110a and 1110b in the first encoding unit 1100,
  • the second encoding units 1130a and 1130b may be determined by dividing the second encoding units 1150a and 1150b in the horizontal direction or the first encoding units 1100 may be divided in the vertical direction and the horizontal direction to determine the second encoding units 1150a, have.
  • the image decoding apparatus 100 may determine the order in which the second encoding units 1110a and 1110b determined by dividing the first encoding unit 1100 in the vertical direction are processed in the horizontal direction 1110c .
  • the image decoding apparatus 100 may determine the processing order of the second encoding units 1130a and 1130b determined by dividing the first encoding unit 1100 in the horizontal direction as the vertical direction 1130c.
  • the image decoding apparatus 100 processes the encoding units located in one row of the second encoding units 1150a, 1150b, 1150c, and 1150d determined by dividing the first encoding unit 1100 in the vertical direction and the horizontal direction (For example, a raster scan order or a z scan order 1150e) in which the encoding units located in the next row are processed.
  • the image decoding apparatus 100 may recursively divide encoding units. 11, the image decoding apparatus 100 may determine a plurality of encoding units 1110a, 1110b, 1130a, 1130b, 1150a, 1150b, 1150c, and 1150d by dividing the first encoding unit 1100, The determined plurality of encoding units 1110a, 1110b, 1130a, 1130b, 1150a, 1150b, 1150c, and 1150d may be recursively divided.
  • the method of dividing the plurality of encoding units 1110a, 1110b, 1130a, 1130b, 1150a, 1150b, 1150c, and 1150d may be a method corresponding to the method of dividing the first encoding unit 1100.
  • the plurality of encoding units 1110a, 1110b, 1130a, 1130b, 1150a, 1150b, 1150c, and 1150d may be independently divided into a plurality of encoding units.
  • the image decoding apparatus 100 may determine the second encoding units 1110a and 1110b by dividing the first encoding unit 1100 in the vertical direction, and may further determine the second encoding units 1110a and 1110b Can be determined not to divide or separate independently.
  • the image decoding apparatus 100 may divide the left second encoding unit 1110a in the horizontal direction into the third encoding units 1120a and 1120b and the right second encoding unit 1110b ) May not be divided.
  • the processing order of the encoding units may be determined based on the division process of the encoding units.
  • the processing order of the divided coding units can be determined based on the processing order of the coding units immediately before being divided.
  • the image decoding apparatus 100 may determine the order in which the third coding units 1120a and 1120b determined by dividing the left second coding unit 1110a are processed independently of the second coding unit 1110b on the right.
  • the third encoding units 1120a and 1120b may be processed in the vertical direction 1120c since the second encoding unit 1110a on the left side is divided in the horizontal direction and the third encoding units 1120a and 1120b are determined.
  • the order in which the left second encoding unit 1110a and the right second encoding unit 1110b are processed corresponds to the horizontal direction 1110c
  • the right encoding unit 1110b can be processed after the blocks 1120a and 1120b are processed in the vertical direction 1120c.
  • the above description is intended to explain the process sequence in which encoding units are determined according to the encoding units before division. Therefore, it should not be construed to be limited to the above-described embodiments, It should be construed as being used in various ways that can be handled independently in sequence.
  • FIG. 12 illustrates a process of determining that the current encoding unit is divided into odd number of encoding units when the image decoding apparatus 100 can not process the encoding units in a predetermined order according to an embodiment.
  • the image decoding apparatus 100 may determine that the current encoding unit is divided into odd number of encoding units based on the obtained division mode mode information.
  • the first encoding unit 1200 may be divided into second non-square encoding units 1210a and 1210b, and the second encoding units 1210a and 1210b may be independently 3 encoding units 1220a, 1220b, 1220c, 1220d, and 1220e.
  • the image decoding apparatus 100 can determine the plurality of third encoding units 1220a and 1220b by dividing the left encoding unit 1210a of the second encoding unit in the horizontal direction, and the right encoding unit 1210b Can be divided into an odd number of third encoding units 1220c, 1220d, and 1220e.
  • the image decoding apparatus 100 determines whether or not the third encoding units 1220a, 1220b, 1220c, 1220d, and 1220e can be processed in a predetermined order and determines whether there are odd-numbered encoding units You can decide. 12, the image decoding apparatus 100 may recursively divide the first encoding unit 1200 to determine the third encoding units 1220a, 1220b, 1220c, 1220d, and 1220e.
  • the image decoding apparatus 100 may further include a first encoding unit 1200, a second encoding unit 1210a, and 1210b or a third encoding unit 1220a, 1220b, and 1220c , 1220d, and 1220e are divided into odd number of coding units among the divided types. For example, an encoding unit located on the right of the second encoding units 1210a and 1210b may be divided into odd third encoding units 1220c, 1220d, and 1220e.
  • the order in which the plurality of coding units included in the first coding unit 1200 are processed may be a predetermined order (for example, a z-scan order 1230) 100 can determine whether the third encoding units 1220c, 1220d, and 1220e determined by dividing the right second encoding unit 1210b into odd numbers satisfy the condition that the third encoding units 1220c, 1220d, and 1220e can be processed according to the predetermined order.
  • a predetermined order for example, a z-scan order 1230
  • the image decoding apparatus 100 satisfies a condition that third encoding units 1220a, 1220b, 1220c, 1220d, and 1220e included in the first encoding unit 1200 can be processed in a predetermined order And it is determined whether or not at least one of the widths and heights of the second encoding units 1210a and 1210b is divided in half according to the boundaries of the third encoding units 1220a, 1220b, 1220c, 1220d, and 1220e .
  • the third encoding units 1220a and 1220b which are determined by dividing the height of the left second encoding unit 1210a in the non-square form by half, can satisfy the condition.
  • the boundaries of the third encoding units 1220c, 1220d, and 1220e determined by dividing the right second encoding unit 1210b into three encoding units do not divide the width or height of the right second encoding unit 1210b by half ,
  • the third encoding units 1220c, 1220d, and 1220e may be determined as not satisfying the condition.
  • the image decoding apparatus 100 may determine that the scan order is disconnection in the case of such unsatisfactory condition and determine that the right second encoding unit 1210b is divided into odd number of encoding units based on the determination result.
  • the image decoding apparatus 100 may limit a coding unit of a predetermined position among the divided coding units when the coding unit is divided into odd number of coding units. Since the embodiment has been described above, a detailed description thereof will be omitted.
  • FIG. 13 illustrates a process in which the image decoding apparatus 100 determines at least one encoding unit by dividing a first encoding unit 1300 according to an embodiment.
  • the image decoding apparatus 100 may divide the first encoding unit 1300 based on the division type mode information acquired through a receiver (not shown).
  • the first encoding unit 1300 in the form of a square may be divided into four encoding units having a square shape, or may be divided into a plurality of non-square encoding units.
  • the apparatus 100 encodes the first encoding unit 1300 And may be divided into a plurality of non-square encoding units.
  • the image decoding apparatus 100 determines whether the first encoding unit 1300 can be divided into the second encoding units 1310a, 1310b, and 1310c divided in the vertical direction as the odd number of encoding units or the second encoding units 1320a, 1320b, and 1320c determined by being divided in the horizontal direction.
  • the image decoding apparatus 100 may be configured such that the second encoding units 1310a, 1310b, 1310c, 1320a, 1320b, and 1320c included in the first encoding unit 1300 are processed in a predetermined order And the condition is that at least one of the width and the height of the first encoding unit 1300 is divided in half according to the boundaries of the second encoding units 1310a, 1310b, 1310c, 1320a, 1320b, and 1320c .
  • the boundaries of the second encoding units 1310a, 1310b, and 1310c, which are determined by dividing the first encoding unit 1300 in the vertical direction, are divided in half by the width of the first encoding unit 1300
  • the first encoding unit 1300 can be determined as not satisfying a condition that can be processed in a predetermined order.
  • the boundaries of the second encoding units 1320a, 1320b, and 1320c determined by dividing the first encoding unit 1300 in the horizontal direction into the horizontal direction can not divide the width of the first encoding unit 1300 in half, 1 encoding unit 1300 can be determined as not satisfying a condition that can be processed in a predetermined order.
  • the image decoding apparatus 100 may determine that the scan sequence is disconnection in the case of such unsatisfactory condition and determine that the first encoding unit 1300 is divided into odd number of encoding units based on the determination result. According to an embodiment, the image decoding apparatus 100 may limit a coding unit of a predetermined position among the divided coding units when the coding unit is divided into odd number of coding units. Since the embodiment has been described above, a detailed description thereof will be omitted.
  • the image decoding apparatus 100 may determine the encoding units of various types by dividing the first encoding unit.
  • the image decoding apparatus 100 may divide a first coding unit 1300 in a square form and a first coding unit 1330 or 1350 in a non-square form into various types of coding units .
  • the image decoding apparatus 100 may convert a first encoding unit 1400 in a square form into a second encoding unit 1410a in a non-square form based on division mode information obtained through a receiver (not shown) , 1410b, 1420a, and 1420b.
  • the second encoding units 1410a, 1410b, 1420a, and 1420b may be independently divided. Accordingly, the image decoding apparatus 100 can determine whether to divide or not divide the image into a plurality of encoding units based on the division type mode information associated with each of the second encoding units 1410a, 1410b, 1420a, and 1420b.
  • the image decoding apparatus 100 divides the non-square left second encoding unit 1410a determined by dividing the first encoding unit 1400 in the vertical direction into the horizontal direction, 1412a, 1412b. However, when the left second encoding unit 1410a is divided in the horizontal direction, the right-side second encoding unit 1410b is shifted in the horizontal direction in the same direction as that in which the left second encoding unit 1410a is divided, As shown in Fig.
  • the left second encoding unit 1410a and the right second encoding unit 1410b are arranged in the horizontal direction
  • the third encoding units 1412a, 1412b, 1414a, and 1414b can be determined by being independently divided. However, this is the same result that the image decoding apparatus 100 divides the first encoding unit 1400 into four square-shaped second encoding units 1430a, 1430b, 1430c, and 1430d based on the split mode information, It may be inefficient in terms of image decoding.
  • the image decoding apparatus 100 divides the second coding unit 1420a or 1420b in the non-square form determined by dividing the first coding unit 1400 in the horizontal direction into the vertical direction, (1422a, 1422b, 1424a, 1424b). However, if one of the second coding units (for example, the upper second coding unit 1420a) is divided in the vertical direction, the image decoding apparatus 100 may generate a second coding unit (for example, The encoding unit 1420b) can be restricted such that the upper second encoding unit 1420a can not be divided vertically in the same direction as the divided direction.
  • FIG. 15 illustrates a process in which the image decoding apparatus 100 divides a square-shaped encoding unit when the split mode information can not be divided into four square-shaped encoding units according to an embodiment.
  • the image decoding apparatus 100 may determine the second encoding units 1510a, 1510b, 1520a, and 1520b by dividing the first encoding unit 1500 based on the division type mode information.
  • the division type mode information may include information on various types in which an encoding unit can be divided, but information on various types may not include information for division into four square units of encoding units. According to the division type mode information, the image decoding apparatus 100 can not divide the first encoding unit 1500 of the square shape into the second encoding units 1530a, 1530b, 1530c, and 1530d of the four square shapes.
  • the image decoding apparatus 100 may determine the second encoding units 1510a, 1510b, 1520a, and 1520b in the non-square form based on the division mode information.
  • the image decoding apparatus 100 may independently divide the non-square second encoding units 1510a, 1510b, 1520a, and 1520b, respectively.
  • Each of the second encoding units 1510a, 1510b, 1520a, and 1520b may be divided in a predetermined order through a recursive method, which is a method of dividing the first encoding unit 1500 based on the split mode information May be a corresponding partitioning method.
  • the image decoding apparatus 100 can determine the third encoding units 1512a and 1512b in the form of a square by dividing the left second encoding unit 1510a in the horizontal direction, and the second right encoding unit 1510b It is possible to determine the third encoding units 1514a and 1514b in the form of a square by being divided in the horizontal direction. Further, the image decoding apparatus 100 may divide the left second encoding unit 1510a and the right second encoding unit 1510b in the horizontal direction to determine the square-shaped third encoding units 1516a, 1516b, 1516c, and 1516d have. In this case, the encoding unit can be determined in the same manner as the first encoding unit 1500 is divided into four square-shaped second encoding units 1530a, 1530b, 1530c, and 1530d.
  • the image decoding apparatus 100 can determine the third encoding units 1522a and 1522b in the form of a square by dividing the upper second encoding unit 1520a in the vertical direction, and the lower second encoding units 1520b Can be divided in the vertical direction to determine the third encoding units 1524a and 1524b in the form of a square. Further, the image decoding apparatus 100 may divide the upper second encoding unit 1520a and the lower second encoding unit 1520b in the vertical direction to determine the square-shaped third encoding units 1526a, 1526b, 1526a, and 1526b have. In this case, the encoding unit can be determined in the same manner as the first encoding unit 1500 is divided into four square-shaped second encoding units 1530a, 1530b, 1530c, and 1530d.
  • FIG. 16 illustrates that a processing order among a plurality of coding units may be changed according to a division process of a coding unit according to an embodiment.
  • the image decoding apparatus 100 may divide the first encoding unit 1600 based on the division type mode information. If the block type is square and the division type mode information indicates that the first encoding unit 1600 is divided into at least one of a horizontal direction and a vertical direction, the image decoding apparatus 100 may generate the first encoding unit 1600 (For example, 1610a, 1610b, 1620a, 1620b, etc.) can be determined by dividing the second encoding unit. Referring to FIG. 16, the non-square second encoding units 1610a, 1610b, 1620a, and 1620b, which are determined by dividing the first encoding unit 1600 only in the horizontal direction or the vertical direction, Can be divided independently.
  • the image decoding apparatus 100 divides the second encoding units 1610a and 1610b generated by dividing the first encoding unit 1600 in the vertical direction into horizontal directions and outputs the third encoding units 1616a, 1616b, 1616c and 1616d can be determined and the second coding units 1620a and 1620b generated by dividing the first coding unit 1600 in the horizontal direction are respectively divided in the horizontal direction and the third coding units 1626a, 1626b and 1626c , 1626d can be determined. Since the process of dividing the second encoding units 1610a, 1610b, 1620a, and 1620b has been described in detail with reference to FIG. 15, a detailed description will be omitted.
  • the image decoding apparatus 100 may process an encoding unit in a predetermined order.
  • the features of the processing of the encoding unit according to the predetermined order have been described in detail with reference to FIG. 11, and a detailed description thereof will be omitted.
  • the image decoding apparatus 100 divides a first encoding unit 1600 in a square form into 4 quadrangle-shaped third encoding units 1616a, 1616b, 1616c, 1616d, 1626a, 1626b, 1626c, 1626d Can be determined.
  • the image decoding apparatus 100 may process the third encoding units 1616a, 1616b, 1616c, 1616d, 1626a, 1626b, 1626c, and 1626d according to the form in which the first encoding unit 1600 is divided You can decide.
  • the image decoding apparatus 100 divides the second encoding units 1610a and 1610b generated in the vertical direction and divides the generated second encoding units 1610a and 1610b in the horizontal direction to determine third encoding units 1616a, 1616b, 1616c, and 1616d
  • the image decoding apparatus 100 first processes the third encoding units 1616a and 1616c included in the left second encoding unit 1610a in the vertical direction and then processes the third encoding units 1616a and 1616c included in the right second encoding unit 1610b
  • the third encoding units 1616a, 1616b, 1616c, and 1616d may be processed according to the order 1617 of processing the third encoding units 1616b and 1616d in the vertical direction.
  • the image decoding apparatus 100 divides the second encoding units 1620a and 1620b generated in the horizontal direction into vertical directions to determine the third encoding units 1626a, 1626b, 1626c, and 1626d
  • the image decoding apparatus 100 first processes the third encoding units 1626a and 1626b included in the upper second encoding unit 1620a in the horizontal direction and then processes the third encoding units 1626a and 1626b included in the lower second encoding unit 1620b
  • the third encoding units 1626a, 1626b, 1626c, and 1626d can be processed according to the order 1627 of processing the third encoding units 1626c and 1626d in the horizontal direction.
  • the second encoding units 1610a, 1610b, 1620a, and 1620b are divided to determine the third encoding units 1616a, 1616b, 1616c, 1616d, 1626a, 1626b, 1626c, have.
  • the second encoding units 1610a and 1610b determined to be divided in the vertical direction and the second encoding units 1620a and 1620b determined to be divided in the horizontal direction are divided into different formats.
  • the third encoding units 1616a , 1616b, 1616c, 1616d, 1626a, 1626b, 1626c, and 1626d the result is that the first encoding unit 1600 is divided into the same type of encoding units.
  • the image decoding apparatus 100 recursively divides an encoding unit through a different process based on division mode information, thereby eventually determining the same type of encoding units, It can be processed in order.
  • FIG. 17 illustrates a process of determining the depth of an encoding unit according to a change in type and size of an encoding unit when the encoding unit is recursively divided according to an embodiment to determine a plurality of encoding units.
  • the image decoding apparatus 100 may determine the depth of a coding unit according to a predetermined criterion.
  • a predetermined criterion may be a length of a long side of a coding unit.
  • the depth of the current encoding unit is smaller than the depth of the encoding unit before being divided it can be determined that the depth is increased by n.
  • an encoding unit with an increased depth is expressed as a lower-depth encoding unit.
  • the video decoding apparatus 100 may generate 1 encoding unit 1700 may be divided to determine the second encoding unit 1702, the third encoding unit 1704, and the like of the lower depth. If the size of the first encoding unit 1700 in the form of a square is 2Nx2N, the second encoding unit 1702 determined by dividing the width and height of the first encoding unit 1700 by 1/2 may have the size of NxN have.
  • block type information e.g., block type information may indicate '0: SQUARE'
  • the video decoding apparatus 100 may generate 1 encoding unit 1700 may be divided to determine the second encoding unit 1702, the third encoding unit 1704, and the like of the lower depth. If the size of the first encoding unit 1700 in the form of a square is 2Nx2N, the second encoding unit 1702 determined by dividing the width and height of the first encoding unit 1700 by 1/2 may have the size of NxN have.
  • the third coding unit 1704 determined by dividing the width and height of the second coding unit 1702 by 1/2 size may have a size of N / 2xN / 2.
  • the width and height of the third encoding unit 1704 correspond to 1/4 times of the first encoding unit 1700. If the depth of the first encoding unit 1700 is D, the depth of the second encoding unit 1702, which is half the width and height of the first encoding unit 1700, may be D + 1, The depth of the third encoding unit 1704, which is one fourth of the width and height of the third encoding unit 1700, may be D + 2.
  • block type information indicating a non-square shape for example, block type information is' 1: NS_VER 'indicating that the height is a non-square having a width greater than the width or' 2 >: NS_HOR '
  • the image decoding apparatus 100 divides the non-square first coding unit 1710 or 1720 into second lower coding units 1712 or 1722, The third encoding unit 1714 or 1724, or the like.
  • the image decoding apparatus 100 may determine a second encoding unit (e.g., 1702, 1712, 1722, etc.) by dividing at least one of the width and the height of the first encoding unit 1710 of Nx2N size. That is, the image decoding apparatus 100 can determine the second encoding unit 1702 of the NxN size or the second encoding unit 1722 of the NxN / 2 size by dividing the first encoding unit 1710 in the horizontal direction, The second encoding unit 1712 having a size of N / 2xN may be determined by dividing the frame into horizontal and vertical directions.
  • a second encoding unit e.g., 1702, 1712, 1722, etc.
  • the image decoding apparatus 100 divides at least one of a width and a height of a 2NxN first encoding unit 1720 to determine a second encoding unit (for example, 1702, 1712, 1722, etc.) It is possible. That is, the image decoding apparatus 100 can determine the second encoding unit 1702 of NxN size or the second encoding unit 1712 of N / 2xN size by dividing the first encoding unit 1720 in the vertical direction, The second encoding unit 1722 of the NxN / 2 size may be determined by dividing the frame into the horizontal direction and the vertical direction.
  • a second encoding unit for example, 1702, 1712, 1722, etc.
  • the image decoding apparatus 100 divides at least one of the width and the height of the second encoding unit 1702 of NxN size to determine a third encoding unit (e.g., 1704, 1714, 1724, etc.) It is possible. That is, the image decoding apparatus 100 determines the third encoding unit 1704 of N / 2xN / 2 size by dividing the second encoding unit 1702 in the vertical and horizontal directions, or determines the third encoding unit 1704 of N / 4xN / 3 encoding unit 1714 or a third encoding unit 1724 of N / 2xN / 4 size.
  • a third encoding unit e.g., 1704, 1714, 1724, etc.
  • the image decoding apparatus 100 divides at least one of the width and the height of the second encoding unit 1712 of N / 2xN size into a third encoding unit (e.g., 1704, 1714, 1724, etc.) . That is, the image decoding apparatus 100 divides the second encoding unit 1712 in the horizontal direction to generate a third encoding unit 1704 of N / 2xN / 2 or a third encoding unit 1724 of N / 2xN / 4 size ) Or may be divided into vertical and horizontal directions to determine a third encoding unit 1714 of N / 4xN / 2 size.
  • a third encoding unit e.g., 1704, 1714, 1724, etc.
  • the image decoding apparatus 100 may divide at least one of the width and the height of the second encoding unit 1722 of NxN / 2 size into a third encoding unit (e.g., 1704, 1714, and 1724) . That is, the image decoding apparatus 100 divides the second encoding unit 1722 in the vertical direction to generate a third encoding unit 1704 of N / 2xN / 2 or a third encoding unit 1714 of N / 4xN / 2 size ) Or may be divided in the vertical and horizontal directions to determine a third encoding unit 1724 of N / 2xN / 4 size.
  • a third encoding unit e.g., 1704, 1714, and 1724
  • the image decoding apparatus 100 may divide a square-shaped encoding unit (for example, 1700, 1702, and 1704) into a horizontal direction or a vertical direction.
  • a square-shaped encoding unit for example, 1700, 1702, and 1704
  • the first encoding unit 1700 having a size of 2Nx2N is divided in the vertical direction to determine a first encoding unit 1710 having a size of Nx2N or the horizontal direction to determine a first encoding unit 1720 having a size of 2NxN .
  • the depth of the encoding unit when the depth is determined based on the length of the longest side of the encoding unit, the depth of the encoding unit, which is determined by dividing the first encoding unit 1700 of 2Nx2N size in the horizontal direction or the vertical direction, May be the same as the depth of the unit (1700).
  • the width and height of the third encoding unit 1714 or 1724 may correspond to one fourth of the first encoding unit 1710 or 1720. If the depth of the first coding unit 1710 or 1720 is D, the depth of the second coding unit 1712 or 1722 which is half the width and height of the first coding unit 1710 or 1720 is D + And the depth of the third encoding unit 1714 or 1724 which is one fourth of the width and height of the first encoding unit 1710 or 1720 may be D + 2.
  • FIG. 18 illustrates a depth index (PID) for classifying a depth and a coding unit that can be determined according to the type and size of coding units according to an exemplary embodiment.
  • PID depth index
  • the image decoding apparatus 100 may determine a second type of encoding unit by dividing the first encoding unit 1800 in a square form. 18, the image decoding apparatus 100 divides the first encoding unit 1800 into at least one of a vertical direction and a horizontal direction according to the division type mode information, and outputs the second encoding units 1802a, 1802b, 1804a , 1804b, 1806a, 1806b, 1806c, 1806d). That is, the image decoding apparatus 100 can determine the second encoding units 1802a, 1802b, 1804a, 1804b, 1806a, 1806b, 1806c, and 1806d based on the division type mode information for the first encoding unit 1800 .
  • the second encoding units 1802a, 1802b, 1804a, 1804b, 1806a, 1806b, 1806c, and 1806d which are determined according to the split mode mode information for the first encoding unit 1800 in a square form.
  • the depth of field can be determined based on the depth. For example, since the lengths of one side of the first encoding unit 1800 in the square form and the lengths of the long sides of the second encoding units 1802a, 1802b, 1804a, and 1804b in the non-square form are the same, 1800 and the non-square type second encoding units 1802a, 1802b, 1804a, and 1804b are denoted by D in the same manner.
  • the image decoding apparatus 100 divides the first encoding unit 1800 into four square-shaped second encoding units 1806a, 1806b, 1806c, and 1806d based on the split mode information, Since the length of one side of the second coding units 1806a, 1806b, 1806c and 1806d is 1/2 of the length of one side of the first coding unit 1800, the length of one side of the second coding units 1806a, 1806b, 1806c and 1806d The depth may be a depth of D + 1 that is one depth lower than D, which is the depth of the first encoding unit 1800.
  • the image decoding apparatus 100 divides a first encoding unit 1810 of a shape whose height is longer than a width in a horizontal direction according to the division mode information to generate a plurality of second encoding units 1812a, 1812b, and 1814a , 1814b, and 1814c. According to an embodiment, the image decoding apparatus 100 divides a first encoding unit 1820 of a shape whose width is longer than a height in a vertical direction according to the division mode information to generate a plurality of second encoding units 1822a, 1822b, and 1824a , 1824b, and 1824c.
  • 1822a, 1822b, 1824a, 1824b, and 1824a which are determined according to the division type mode information for the first encoding unit 1810 or 1820 in the non- 1824b, 1824c can be determined in depth based on the length of the long side. For example, since the length of one side of the square-shaped second encoding units 1812a and 1812b is 1/2 times the length of one side of the non-square first encoding unit 1810 whose height is longer than the width, The depth of the second encoding units 1812a and 1812b of the form is D + 1 which is one depth lower than the depth D of the first encoding unit 1810 in the non-square form.
  • the image decoding apparatus 100 may divide the non-square first encoding unit 1810 into odd second encoding units 1814a, 1814b, and 1814c based on the division type mode information.
  • the odd number of second encoding units 1814a, 1814b and 1814c may include non-square second encoding units 1814a and 1814c and a square second encoding unit 1814b.
  • the length of the long sides of the non-square second encoding units 1814a and 1814c and the length of one side of the second encoding unit 1814b of the square shape are 1 /
  • the depth of the second encoding units 1814a, 1814b and 1814c may be a depth of D + 1 which is one depth lower than the depth D of the first encoding unit 1810.
  • the image decoding apparatus 100 is connected to a first encoding unit 1820 of a non-square shape whose width is longer than a height in a manner corresponding to the scheme for determining the depths of the encoding units associated with the first encoding unit 1810 The depth of the encoding units can be determined.
  • the image decoding apparatus 100 determines an index (PID) for distinguishing the divided coding units. If the odd-numbered coding units are not the same size, The index can be determined based on the index. 18, an encoding unit 1814b positioned at the center among odd-numbered encoding units 1814a, 1814b, and 1814c has the same width as other encoding units 1814a and 1814c, 1814a, 1814c. ≪ / RTI > That is, in this case, the middle encoding unit 1814b may include two of the other encoding units 1814a and 1814c.
  • PID index
  • the coding unit 1814c positioned next to the coding unit 1814c may be three days in which the index is increased by two. That is, there may be a discontinuity in the value of the index.
  • the image decoding apparatus 100 may determine whether odd-numbered encoding units are not the same size based on the presence or absence of an index discontinuity for distinguishing between the divided encoding units.
  • the image decoding apparatus 100 may determine whether the image is divided into a specific division form based on an index value for distinguishing a plurality of coding units divided from the current coding unit. 18, the image decoding apparatus 100 divides a rectangular first encoding unit 1810 having a height greater than the width to determine an even number of encoding units 1812a and 1812b or an odd number of encoding units 1814a and 1814b , 1814c can be determined.
  • the image decoding apparatus 100 may use an index (PID) indicating each coding unit in order to distinguish each of the plurality of coding units.
  • the PID may be obtained at a sample of a predetermined position of each coding unit (e.g., the upper left sample).
  • the image decoding apparatus 100 may determine a coding unit of a predetermined position among the coding units determined by using the index for classifying the coding unit.
  • the image decoding apparatus 100 includes a first encoding unit 1810, Can be divided into three coding units 1814a, 1814b and 1814c.
  • the image decoding apparatus 100 may assign an index to each of the three encoding units 1814a, 1814b, and 1814c.
  • the image decoding apparatus 100 may compare the indexes of the respective encoding units in order to determine the middle encoding unit among the encoding units divided into odd numbers.
  • the image decoding apparatus 100 encodes an encoding unit 1814b having an index corresponding to a middle value among the indices based on the indices of the encoding units so as to encode the middle position among the encoding units determined by dividing the first encoding unit 1810 Can be determined as a unit.
  • the image decoding apparatus 100 may determine an index based on a size ratio between coding units when the coding units are not the same size in determining the index for dividing the divided coding units .
  • the coding unit 1814b generated by dividing the first coding unit 1810 is divided into coding units 1814a and 1814c having the same width as the other coding units 1814a and 1814c but different in height Can be double the height.
  • the image decoding apparatus 100 may determine that the image decoding apparatus 100 is divided into a plurality of encoding units including encoding units having different sizes from other encoding units.
  • the image decoding apparatus 100 determines that the encoding unit (for example, the middle encoding unit) at a predetermined position among the odd number of encoding units is different from the encoding units You can split the current encoding unit into a form.
  • the image decoding apparatus 100 may determine an encoding unit having a different size by using an index (PID) for the encoding unit.
  • PID index
  • the index and the size or position of the encoding unit at a predetermined position to be determined are specific for explaining an embodiment, and thus should not be construed to be limited thereto, and various indexes, positions and sizes of encoding units can be used Should be interpreted.
  • the image decoding apparatus 100 may use a predetermined data unit in which a recursive division of an encoding unit starts.
  • FIG. 19 illustrates that a plurality of encoding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • a predetermined data unit may be defined as a unit of data in which an encoding unit begins to be recursively segmented using segmentation mode information. That is, it may correspond to a coding unit of the highest depth used in the process of determining a plurality of coding units for dividing the current picture.
  • a predetermined data unit is referred to as a reference data unit for convenience of explanation.
  • the reference data unit may represent a predetermined size and shape.
  • the reference encoding unit may comprise samples of MxN.
  • M and N may be equal to each other, or may be an integer represented by a multiplier of 2. That is, the reference data unit may represent a square or a non-square shape, and may be divided into an integer number of encoding units.
  • the image decoding apparatus 100 may divide the current picture into a plurality of reference data units. According to an embodiment, the image decoding apparatus 100 may divide a plurality of reference data units for dividing the current picture into pieces using the split mode information for each reference data unit.
  • the segmentation process of the reference data unit may correspond to the segmentation process using a quad-tree structure.
  • the image decoding apparatus 100 may determine in advance a minimum size that the reference data unit included in the current picture can have. Accordingly, the image decoding apparatus 100 can determine reference data units of various sizes having a size larger than a minimum size, and can determine at least one encoding unit using the split mode information based on the determined reference data unit .
  • the image decoding apparatus 100 may use a square-shaped reference encoding unit 1900 or a non-square-shaped reference encoding unit 1902.
  • the type and size of the reference encoding unit may include various data units (e.g., a sequence, a picture, a slice, a slice segment a slice segment, a maximum encoding unit, and the like).
  • a receiver (not shown) of the video decoding apparatus 100 may acquire at least one of information on the type of the reference encoding unit and information on the size of the reference encoding unit from the bitstream for each of the various data units have.
  • the process of determining at least one encoding unit included in the reference-type encoding unit 1900 in the form of a square is described in detail in the process of dividing the current encoding unit 1500 of FIG. 15, and the non- ) Is determined in the process of dividing the current encoding unit 1600 or 1650 of FIG. 16, so a detailed description thereof will be omitted.
  • the image decoding apparatus 100 may include an index for identifying the size and type of the reference encoding unit Can be used. That is, a receiving unit (not shown) receives a predetermined condition (for example, a data unit having a size equal to or smaller than a slice) among the various data units (e.g., sequence, picture, slice, slice segment, ), It is possible to obtain only an index for identification of the size and type of the reference encoding unit for each slice, slice segment, maximum encoding unit, and the like.
  • a predetermined condition for example, a data unit having a size equal to or smaller than a slice
  • the various data units e.g., sequence, picture, slice, slice segment,
  • the image decoding apparatus 100 can determine the size and shape of the reference data unit for each data unit satisfying the predetermined condition by using the index.
  • the information on the type of the reference encoding unit and the information on the size of the reference encoding unit are obtained from the bitstream for each relatively small data unit and used, the use efficiency of the bitstream may not be good. Therefore, Information on the size of the reference encoding unit and information on the size of the reference encoding unit can be acquired and used. In this case, at least one of the size and the type of the reference encoding unit corresponding to the index indicating the size and type of the reference encoding unit may be predetermined.
  • the image decoding apparatus 100 selects at least one of the size and the type of the reference encoding unit in accordance with the index, thereby obtaining at least one of the size and the type of the reference encoding unit included in the data unit, You can decide.
  • the image decoding apparatus 100 may use at least one reference encoding unit included in one maximum encoding unit. That is, the maximum encoding unit for dividing an image may include at least one reference encoding unit, and the encoding unit may be determined through a recursive division process of each reference encoding unit. According to an exemplary embodiment, at least one of the width and the height of the maximum encoding unit may correspond to at least one integer multiple of the width and height of the reference encoding unit. According to an exemplary embodiment, the size of the reference encoding unit may be a size obtained by dividing the maximum encoding unit n times according to a quadtree structure.
  • the image decoding apparatus 100 can determine the reference encoding unit by dividing the maximum encoding unit n times according to the quad-tree structure, and determine the reference encoding unit based on the block type information and the split mode information Can be divided based on one.
  • FIG. 20 shows a processing block serving as a reference for determining a determination order of a reference encoding unit included in the picture 2000 according to an embodiment.
  • the image decoding apparatus 100 may determine at least one processing block for dividing a picture.
  • the processing block is a data unit including at least one reference encoding unit for dividing an image, and at least one reference encoding unit included in the processing block may be determined in a specific order. That is, the order of determination of at least one reference encoding unit determined in each processing block may correspond to one of various kinds of order in which the reference encoding unit can be determined, and the reference encoding unit determination order determined in each processing block May be different for each processing block.
  • the order of determination of the reference encoding unit determined for each processing block is a raster scan, a Z scan, an N scan, an up-right diagonal scan, a horizontal scan a horizontal scan, and a vertical scan. However, the order that can be determined should not be limited to the scan orders.
  • the image decoding apparatus 100 may obtain information on the size of the processing block and determine the size of the at least one processing block included in the image.
  • the image decoding apparatus 100 may obtain information on the size of the processing block from the bitstream to determine the size of the at least one processing block included in the image.
  • the size of such a processing block may be a predetermined size of a data unit represented by information on the size of the processing block.
  • a receiver (not shown) of the image decoding apparatus 100 may acquire information on the size of a processing block from a bitstream for each specific data unit.
  • information on the size of a processing block can be obtained from a bitstream in units of data such as an image, a sequence, a picture, a slice, a slice segment, and the like. That is, the receiving unit (not shown) may obtain the information on the size of the processing block from the bitstream for each of the plurality of data units, and the image decoding apparatus 100 divides the picture using the information on the size of the obtained processing block
  • the size of the at least one processing block may be determined, and the size of the processing block may be an integer multiple of the reference encoding unit.
  • the image decoding apparatus 100 may determine the size of the processing blocks 2002 and 2012 included in the picture 2000 according to an embodiment. For example, the video decoding apparatus 100 can determine the size of the processing block based on information on the size of the processing block obtained from the bitstream. Referring to FIG. 20, the image decoding apparatus 100 according to an exemplary embodiment of the present invention may be configured such that the horizontal size of the processing blocks 2002 and 2012 is four times the horizontal size of the reference encoding unit, four times the vertical size of the reference encoding unit, You can decide. The image decoding apparatus 100 may determine an order in which at least one reference encoding unit is determined in at least one processing block.
  • the image decoding apparatus 100 can determine each processing block 2002, 2012 included in the picture 2000 based on the size of the processing block, and includes the processing block 2002, 2012 in the processing block 2002, 2012 The determination order of at least one reference encoding unit is determined.
  • the determination of the reference encoding unit may include determining the size of the reference encoding unit according to an embodiment.
  • the image decoding apparatus 100 may obtain information on a determination order of at least one reference encoding unit included in at least one processing block from a bitstream, So that the order in which at least one reference encoding unit is determined can be determined.
  • the information on the decision order can be defined in the order or direction in which the reference encoding units are determined in the processing block. That is, the order in which the reference encoding units are determined may be independently determined for each processing block.
  • the image decoding apparatus 100 may obtain information on a determination order of a reference encoding unit from a bitstream for each specific data unit.
  • a receiving unit (not shown) may acquire information on a determination order of a reference encoding unit from a bitstream for each data unit such as an image, a sequence, a picture, a slice, a slice segment, and a processing block. Since the information on the determination order of the reference encoding unit indicates the reference encoding unit determination order in the processing block, the information on the determination order can be obtained for each specific data unit including an integer number of processing blocks.
  • the image decoding apparatus 100 may determine at least one reference encoding unit based on the determined order according to an embodiment.
  • the receiving unit may obtain information on the reference encoding unit determination order from the bitstream as information related to the processing blocks 2002 and 2012, and the video decoding apparatus 100 may acquire information (2002, 2012), and determine at least one reference encoding unit included in the picture 2000 according to the determination order of the encoding unit.
  • the video decoding apparatus 100 may determine a determination order 2004, 2014 of at least one reference encoding unit associated with each processing block 2002, 2012. For example, when information on the order of determination of the reference encoding unit is obtained for each processing block, the reference encoding unit determination order associated with each processing block 2002, 2012 may be different for each processing block.
  • the reference encoding unit included in the processing block 2002 may be determined according to the raster scan order.
  • the reference encoding unit determination order 2014 related to the other processing block 2012 is in the reverse order of the raster scan order
  • the reference encoding unit included in the processing block 2012 may be determined according to the reverse order of the raster scan order.
  • the image decoding apparatus 100 may decode the determined at least one reference encoding unit according to an embodiment.
  • the image decoding apparatus 100 can decode an image based on the reference encoding unit determined through the above-described embodiment.
  • the method of decoding the reference encoding unit may include various methods of decoding the image.
  • the image decoding apparatus 100 may obtain block type information indicating a type of a current encoding unit or divided mode type information indicating a method of dividing a current encoding unit from a bitstream.
  • the split mode information may be included in a bitstream associated with various data units.
  • the video decoding apparatus 100 may include a sequence parameter set, a picture parameter set, a video parameter set, a slice header, a slice segment header slice segment type mode information included in the segment header can be used.
  • the image decoding apparatus 100 may obtain a syntax element corresponding to the maximum encoding unit, the reference encoding unit, the block type information from the bitstream or the split mode information for each processing block from the bitstream and use the obtained syntax element.
  • the image decoding apparatus 100 can determine the division rule of the image.
  • the division rule may be predetermined between the video decoding apparatus 100 and the video encoding apparatus 400.
  • the image decoding apparatus 100 can determine the division rule of the image based on the information obtained from the bit stream.
  • the video decoding apparatus 100 includes a sequence parameter set, a picture parameter set, a video parameter set, a slice header, and a slice segment header
  • the partitioning rule can be determined based on the information obtained from at least one.
  • the video decoding apparatus 100 may determine the division rule differently according to a frame, a slice, a temporal layer, a maximum encoding unit, or an encoding unit.
  • the image decoding apparatus 100 can determine the division rule based on the block type of the encoding unit.
  • the block shape may include the size, shape, width and height ratio, direction of the encoding unit.
  • the image encoding apparatus 400 and the image decoding apparatus 100 may determine in advance that the division rule is determined based on the block type of the encoding unit.
  • the present invention is not limited thereto.
  • the video decoding apparatus 100 can determine the division rule based on the information obtained from the bit stream received from the video encoding apparatus 400.
  • the shape of the encoding unit may include a square and a non-square. If the width and height of the encoding unit are the same, the image decoding apparatus 100 can determine the shape of the encoding unit as a square. In addition, when the lengths of the widths and the heights of the coding units are not the same, the image decoding apparatus 100 can determine the shape of the coding unit to be non-square.
  • the size of the encoding unit may include various sizes of 4x4, 8x4, 4x8, 8x8, 16x4, 16x8, ..., 256x256.
  • the size of the encoding unit can be classified according to the length of the longer side of the encoding unit, the length or the width of the shorter side.
  • the video decoding apparatus 100 may apply the same division rule to the coding units classified into the same group. For example, the image decoding apparatus 100 may classify encoding units having the same long side length into the same size. In addition, the image decoding apparatus 100 can apply the same division rule to coding units having the same long side length.
  • the ratio of the width and height of the encoding unit may include 1: 2, 2: 1, 1: 4, 4: 1, 1: 8, 8: 1, 1:16 or 16: 1.
  • the direction of the encoding unit may include a horizontal direction and a vertical direction.
  • the horizontal direction may indicate the case where the length of the width of the encoding unit is longer than the length of the height.
  • the vertical direction can indicate the case where the width of the encoding unit is shorter than the length of the height.
  • the image decoding apparatus 100 may adaptively determine the segmentation rule based on the size of the encoding unit.
  • the image decoding apparatus 100 may determine the allowable division mode differently based on the size of the encoding unit. For example, the image decoding apparatus 100 can determine whether division is allowed based on the size of an encoding unit.
  • the image decoding apparatus 100 can determine the dividing direction according to the size of the coding unit.
  • the video decoding apparatus 100 can determine an allowable division type according to the size of a coding unit.
  • Determination of the division rule based on the size of the encoding unit may be a predetermined division rule between the image encoding device 150 and the image decoding device 100.
  • the video decoding apparatus 100 can determine the division rule based on the information obtained from the bit stream.
  • the image decoding apparatus 100 can adaptively determine the division rule based on the position of the encoding unit.
  • the image decoding apparatus 100 can adaptively determine the segmentation rule based on the position where the encoding unit takes in the image.
  • the image decoding apparatus 100 can determine the division rule so that the encoding units generated by different division paths do not have the same block form.
  • the present invention is not limited thereto, and coding units generated by different division paths may have the same block form.
  • the coding units generated by different division paths may have different decoding processing orders. The decoding procedure has been described with reference to FIG. 16, and a detailed description thereof will be omitted.
  • an image encoding apparatus and an image decoding apparatus adaptively applying a filter to a reference sample based on an inter-prediction mode of a current block according to various embodiments, an image encoding method, and a video decoding method The method will be described in detail.
  • 21A and 21B are diagrams for explaining a method of performing filtering on reference samples for motion compensation in inter prediction according to various embodiments.
  • Figure 21A illustrates reference samples at integer pixel positions and reference samples at a sub-pixel location, according to various embodiments.
  • an interpolation filter may be applied to reference samples of the sample pixel location.
  • the interpolation filter may be applied to neighboring samples of integer pixel positions adjacent to the reference samples of the subpixel positions to be generated.
  • the application of the interpolation filter means that the coefficients of the interpolation filter are sequentially multiplied with the sample values of the integer pixel positions, and the sum of the multiplication result values (or a value obtained by scaling the summed values) It is the process of creating.
  • Samples of integer pixel positions to which an interpolation filter is applied are samples arranged in a line around a reference sample of a subpixel position to be generated and an interpolation filter can be applied to the number of samples equal to the number of coefficients of the interpolation filter.
  • the samples indicated by alphabetical capital letters such as A, B, C, D, E, F, G, H, I, J, K and L are samples of integer pixel positions.
  • Samples marked with lowercase letters, such as a, b, c, e, f, and g, are samples of subpixel positions.
  • FIG. 21A shows only sub-pixels in 1/4-pixel units, the present invention is not limited thereto, and it is possible to generate samples of sub-pixel positions in units of 1/8-pixel, 1/16-pixel, It is possible.
  • an interpolation filter may be applied to reference samples at eight integer pixel positions adjacent to a subpixel location, such as A, B, C, D, E, F, G,
  • the samples a, b, and c of the sub-pixel positions can be generated. That is, the interpolation filter for generating the sample of the sub-pixel position may be an 8-tap filter.
  • the reference samples of the integer pixel positions to which the interpolation filter is to be applied can be selected in the order of the adjacent left and right of the subpixel position.
  • the filter coefficient set of the interpolation filter for generating the sample a of the sub-pixel position the filter coefficient set of the interpolation filter for generating the sample b of the sub-
  • the filter coefficient sets may be different from each other.
  • an interpolation filter is applied to the reference samples at four integer pixel positions adjacent to the sub-pixel positions, such as I, J, K, L, to obtain a sample e , g, and f may be generated. That is, the interpolation filter for generating the sample of the subpixel position may be a 4-tap filter.
  • a filter coefficient set of an interpolation filter for generating a sample e of a sub-pixel position, a filter coefficient set of an interpolation filter for generating a sample f of a sub-pixel position, and a filter coefficient The sets may be different.
  • the interpolation filter that the image coding apparatus 400 and the image decoding apparatus 100 use to generate reference samples for motion compensation (prediction) can be determined based on the inter prediction mode of the current block .
  • the direction or magnitude of the interpolation filter may be determined based on the inter prediction mode of the current block.
  • the interpolation filter used by the image encoding apparatus 400 and the image decoding apparatus 100 to generate a reference sample for motion compensation (prediction) includes a size of a current block, a size of a current block, Block, and / or whether the inter prediction mode of the current block is unidirectional prediction or bidirectional prediction.
  • FIG. 21B shows an example of reference samples required for inter prediction of a current block.
  • the video decoding apparatus 100 can determine the reference block 2180 from the position of the reference sample indicated by the motion vector of the current block in the reference picture 2150 indicated by the reference picture index of the current block. For example, a reference block may be determined such that the motion vector of the current block points to a sample located at the upper left boundary of the reference block.
  • the reference block 2180 may include reference samples of the same number of subpixel locations as the current block size.
  • a surrounding reference sample at an integer position may be used.
  • the reference sample required to generate the reference block 2180 corresponding to the current block includes the sample at the integer pixel position in the reference block 2180 and the sample 2170 at the integer pixel position adjacent to the reference block 2180 can do.
  • FIG. 21B shows an example of the case where the size of the current block is 8x8, and the interpolation filter uses an 8-tap filter in the horizontal and vertical directions.
  • the integer pixel position reference sample in the reference block and three rows adjacent to the left side of the reference block, four rows adjacent to the right side, three rows adjacent to the upper side,
  • An interpolation filter can be applied to the 4-row integer pixel position reference sample.
  • X (8 + 7) 225.
  • FIG. 22A shows reference samples needed for inter prediction of a current block, in accordance with various embodiments.
  • Figure 22A can be a more generalized example of the embodiments described above in Figures 21A and 21B.
  • the horizontal width of the current block 2210 is denoted by W, and the vertical length is denoted by H.
  • the position indicated by the motion vector in the reference picture indicated by the reference picture index of the current block 2210 may be determined as the reference sample position 2230.
  • the reference sample position 2230 may be determined as a coordinate obtained by adding the motion vector component of the current block 2210 to the coordinates of the upper left corner of the current block 2210.
  • the reference sample position 2230 may indicate that the current block 2210 is located at the upper left of the reference block 2240 to be referred to in the inter prediction.
  • the interpolation filter is composed of a separable two-dimensional filter, that is, a horizontal filter and a vertical filter, and the size of the filter is T, that is, a T tap filter is used.
  • T that is, a T tap filter
  • reference samples of T adjacent adjacent integer pixel positions are required in order to generate reference samples of the sub-pixel positions in the reference block 2240, respectively. Therefore, the number of reconstructed reference samples 2220 to be read from the reconstructed reference picture to generate all the reference samples included in the reference block is maximum (W + T-1) x (H + T-1) .
  • Equation (1) the average number of reference samples to be read from the reconstructed reference picture stored in the memory for predicting the current sample.
  • Equation 1 may be defined as a memory bandwidth. According to Equation (1), as the size (W, H) of the current block becomes smaller, the memory bandwidth becomes larger, and as the size of the interpolation filter (i.e., the number of taps T) becomes larger, the memory bandwidth becomes larger. Therefore, in order to maintain the memory bandwidth within a certain level, the number of taps of the filter may need to be reduced when the size of the current block becomes small.
  • the video decoding apparatus 100 may determine the filter information so that the memory bandwidth is within a predetermined range. In various embodiments, the image decoding apparatus 100 may adjust the memory bandwidth by determining the size of the filter according to the size of the current block. In one embodiment, the video decoding apparatus 100 may determine to use a filter of a first number of taps if the size of the current block is greater than or equal to a predetermined reference value, and to use a filter of a second number of taps smaller than the first number of taps have. In one embodiment, the predetermined reference value may be determined according to the inter prediction mode of the current block. In one embodiment, the image encoding apparatus 400 or the image decoding apparatus 100 can compare the size of the current block with a plurality of reference values, and determine which of a plurality of filters to use according to the comparison result.
  • Figure 22B shows reference samples needed for inter prediction of a current block when the current block refers to a plurality of reference blocks, according to various embodiments.
  • a two-dimensional T-tap filter that can be separated by an interpolation filter is used as a horizontal width W and a vertical length H of the current block 2210, but unlike FIG. 22A, the current block is bidirectionally predicted And FIG.
  • reference blocks corresponding to the reference sample positions and reference sample positions pointed to by the motion vectors may be determined in advance.
  • the two reference sample positions may point to positions within the same reference picture, and each point to a different reference picture.
  • the maximum number of reconstructed reference samples 2220, 2250 needed to generate reference samples of reference blocks is 2 x (W + T-1) x (H + T-1), which is twice the unidirectional prediction.
  • the average number of reference samples to be read in at least one reconstructed reference picture stored in the memory for predicting the current sample can be expressed by Equation (2).
  • Equation (2) can be defined as a memory bandwidth. According to Equation (2), the memory bandwidth increases as the number of reference blocks used for prediction increases, and the memory bandwidth increases as the size of the interpolation filter (i.e., the number of taps T) increases. Therefore, in order to keep the memory bandwidth within a certain level, if the number of reference blocks increases, the number of taps of the filter may need to be reduced.
  • the video decoding apparatus 100 may determine that the filter information is within the predetermined range of the memory bandwidth. In various embodiments, the image decoding apparatus 100 may adjust the memory bandwidth by determining the size of the filter based on whether the inter prediction of the current block is unidirectional prediction or bidirectional prediction. In one embodiment, the video decoding apparatus 100 may determine to use the first filter when the current block is unidirectionally predicted, and to use the second filter if the current block is bidirectionally predicted. In one embodiment, the size of the first filter may be twice the size of the second filter.
  • the video decoding apparatus 100 may adjust the memory bandwidth by determining the size of the filter based on the number of reference blocks that the current block references.
  • the image decoding apparatus 100 uses a filter having a first number of taps when the number of reference blocks to which the current block refers is less than or equal to a predetermined reference value, and uses a filter having a second number of taps smaller than the first number of taps Can be used.
  • the image decoding apparatus 100 can compare the number of reference blocks referred to by the current block with a plurality of reference values, and determine which of a plurality of filters to use according to the comparison result.
  • Figure 23 shows the memory bandwidth required for inter prediction of the current block, in accordance with various embodiments.
  • the table 2300 of FIG. 23 shows a case where a two-dimensional T-tap filter that can be separated by an interpolation filter is used, where the horizontal width is W and the vertical length is H, according to the embodiment of FIG. 22A or 22B.
  • Equation (2) For the case of the luma block 2310 and the case 2320 of the chroma block being sampled at 4: 2: 0, various examples are provided according to the size and number of taps of the current block.
  • inter prediction of 4x4 blocks is not allowed for luma blocks. If the current block is 4x8 or 8x4 size, only unidirectional prediction is allowed. If the current block is 8x8 or larger, bidirectional prediction is allowed. Therefore, referring to FIG. 23, when the maximum memory bandwidth of the HEVC is required, the current block is 8x8 and the 8-tap filter is used for bidirectional prediction. According to Equation 2, The memory bandwidth is calculated to be about 7.03. This value can be defined as the HEVC limit.
  • the image decoding apparatus 100 may determine the size of the filter such that the memory bandwidth calculated by Equation (1) or (2) does not exceed a predetermined reference value. In one embodiment, the image decoding apparatus 100 determines that the combination is usable in inter prediction if the memory bandwidth according to the combination of the current block size, the number of taps of the filter, and unidirectional / bidirectional prediction is smaller than a predetermined reference value .
  • the predetermined reference value may be equal to the HEVC limit.
  • the value of the memory bandwidth greater than the HEVC limit is indicated in bold in the table of FIG. 23 and the other figures of the present disclosure.
  • the size of the filter in the unidirectional and bidirectional prediction can be determined to be four taps or less.
  • an 8-tap filter may be allowed in unidirectional prediction if the current block is 4x4 size.
  • the memory bandwidth is calculated by Equation 1 or Equation 2 It is the same as dividing by 4.
  • the size of the filter can be determined to be 8 taps or less in unidirectional prediction, You can decide.
  • Figure 24 shows reference samples needed for inter prediction of a current block when filters of different sizes in the vertical and horizontal directions are used, according to various embodiments.
  • the horizontal width of the current block 2410 is W
  • the vertical length is H
  • the interpolation filter for obtaining the reference sample is a separable two-dimensional filter, i.e., a horizontal filter and a vertical filter . ≪ / RTI >
  • a T1-tap filter is applied in the horizontal direction
  • a T2-tap filter is applied in the vertical direction.
  • the total number of reconstructed reference samples 2420 to be read from the reconstructed reference picture to generate all reference samples included in the reference block (shown by the dashed line) corresponding to the current block 2410 is (W + T1-1) ⁇ (H + T2-1).
  • Equation (3) the average number of reference samples to be read from the reconstructed reference picture stored in the memory for predicting the current sample, that is, the memory bandwidth.
  • N denotes the number of reference blocks referred to for inter prediction of the current block.
  • N is 1 for unidirectional prediction, and 2 is for bidirectional prediction.
  • the image decoding apparatus 100 can independently determine the size of the horizontal filter and the size of the vertical filter such that the memory bandwidth calculated by Equation (3) is within a predetermined range.
  • the number of taps T1 of the transverse filter can be determined based on the width W of the transverse direction
  • the number of taps T2 of the longitudinal filter can be determined based on the longitudinal length H.
  • the image decoding apparatus 100 may determine the horizontal direction filter and the vertical direction filter as filters having different sizes when the current block is non-square.
  • the image decoding apparatus 100 can determine the horizontal direction filter information and the vertical direction filter information based on the ratio of the horizontal width to the vertical length of the current block. For example, when the horizontal direction filter information of the current block is determined, the image decoding apparatus 100 can determine the vertical direction filter information based on the horizontal direction filter information and the ratio of the horizontal width to the vertical length of the current block. For example, when the vertical direction filter information of the current block is determined, the image decoding apparatus 100 may determine the horizontal direction filter information based on the vertical direction filter information and the ratio of the horizontal width to the vertical length of the current block .
  • the image decoding apparatus 100 may determine the size of the horizontal direction filter and the size of the vertical direction filter so as to be proportional to the horizontal width and the vertical length of the current block. For example, T1 and T2 can be determined so that the ratio T1: T2 of the number of taps of the horizontal direction filter to the number of taps of the vertical direction filter matches the ratio W: H of the horizontal width to the vertical length.
  • 25A shows a prediction method of an Overlapped Blocks Motion Compensation (OBMC) mode in which subblocks are not used, according to various embodiments.
  • OBMC Overlapped Blocks Motion Compensation
  • the motion vectors of the blocks 2520, 2522, 2524, and 2528 adjacent to the current block can be used for motion prediction of the current block 2510.
  • the motion vector of the block 2522 adjacent to the upper end of the current block is used to predict the samples (Y 0 , Y 1 ) adjacent to the upper boundary of the current block, and the samples Y 2 , and Y 3 ), the motion vector of the block 2528 adjacent to the lower end of the current block can be used.
  • the motion vector of the block 2520 adjacent to the left side of the current block is used and the samples adjacent to the right boundary of the current block Y 1 , and Y 3 ), the motion vector of the block 2524 adjacent to the right side of the current block can be used.
  • the block 2528 adjacent to the lower end of the current block is not decoded.
  • a motion vector of the motion vector 2510 can be used instead of the motion vector of the block 2528 adjacent to the lower end of the current block.
  • a plurality of prediction values are obtained using the motion vector of the current block and the motion vectors of blocks neighboring the current block.
  • the lower four rows R4 and R5 of the block 2522 adjacent to the top of the current block, the four right columns R6 and R7 of the block 2520 adjacent to the left side of the current block, The reference samples corresponding to the four left columns (R8, R9) of the block 2524 adjacent to the right side can be obtained.
  • the predicted values are weighted averaged to obtain the final predicted value of the current block.
  • Figure 25B shows reference samples needed for inter prediction of a current block in an OBMC mode that does not use sub-blocks, in accordance with various embodiments.
  • the OBMC mode in which the sub-block is not used can be regarded as performing the motion compensation on the current block 2542 extended by 4 pixels to the upper, left, and right sides.
  • the horizontal width of the current block 2530 is W and the vertical length is H and a two-dimensional T-tap filter separable by an interpolation filter is used, it is necessary to read from the reconstructed reference picture for inter-
  • the total number of reconstructed reference samples 2540 is (W + 8 + T-1) x (H + 4 + T-1). Therefore, in the case of the OBMC mode in which the subblock is not used, the average number of reference samples to be read from the reconstructed reference picture stored in the memory for predicting the current sample, that is, the memory bandwidth, can be expressed by Equation (4).
  • N denotes the number of reference blocks referred to for inter prediction of the current block.
  • N is 1 for unidirectional prediction, and 2 is for bidirectional prediction.
  • Figure 25C shows the memory bandwidth required for inter-prediction of the current block in the OBMC mode without using sub-blocks, according to various embodiments.
  • 25C shows a case where the width of the current block is W, the length is H, and the interpolation filter uses a separable two-dimensional T tap filter according to the embodiment of FIGS. 25A and 25B. Bandwidth.
  • case 2570 for a luma block and case 2570 for a 4: 2: 0 sampled chroma block are provided.
  • the image decoding apparatus 100 may determine the size of the filter so that the memory bandwidth calculated by Equation (4) does not exceed a predetermined reference value.
  • the predetermined reference value may be determined based on the HEVC limit described above.
  • a 2-tap filter in case of a luma block (2560), according to one embodiment of setting a predetermined reference value to the HEVC limit, when the current block is 8x8 size, the size of the filter is determined to be 2 taps or less in bidirectional prediction, The size can be determined to be 8 tap or less. If the current block is a 4x4 size, the memory bandwidth exceeds the HEVC limit even if a 2-tap filter is used. Therefore, in the case of a 4x4 block, it can be decided not to use the OBMC mode not using the subblock. However, according to another embodiment, in case of using a 2-tap filter in unidirectional prediction of a 4x4 block, a 2-tap filter can be allowed since an increase in memory bandwidth is small compared to the HEVC limit.
  • the size of the filter can be determined to be 2 taps or less.
  • a four-tap filter may be allowed in unidirectional prediction.
  • Figure 26A shows a method of predicting an OBMC mode using sub-blocks, according to various embodiments.
  • the inter-predicted current blocks 2610 and 2620 can be divided into 4x4 sub-blocks, and motion compensation can be performed on a divided sub-block basis.
  • motion vectors of neighboring sub-blocks in the current sub-block may be used.
  • a plurality of prediction values are obtained using a motion vector of a current block and motion vectors of neighboring subblocks. Then, a plurality of predicted values are weighted averaged to obtain the final predicted value of the current sub-block.
  • motion compensation may be performed on a sub-block basis at the boundary of the current block 2610.
  • the motion vector of the current block 2610 and the motion vector of the sub-block 2612 adjacent to the upper side of the current sub-block 2612 are used for motion prediction of the sub-block 2611 located at the upper boundary of the current block .
  • the motion vector of the current block 2610 and the motion vector of the sub-block 2617 adjacent to the left of the current sub-block 2617 are used for motion prediction of the sub-block 2616 located at the left boundary of the current block .
  • a motion vector of the current block 2610 and a motion vector of a sub-block 2615 adjacent to the left side of the current sub-block 2615 may be used for motion prediction of the sub-block 2613 adjacent to both the left boundary and the upper boundary of the current block. Both the motion vector and the motion vector of the sub-block 2614 adjacent to the upper side of the current sub-block can be used.
  • motion compensation may be performed on a subblock basis at a location other than the boundary of the current block 2620.
  • the motion vectors of the current block 2620 and the motion vectors of the subblocks 2625, 2626, 2627, and 2628 adjacent to the upper, lower, right, and left sides of the current subblock are Both can be used.
  • Figure 26B shows reference samples needed for inter prediction of a current block in an OBMC mode using sub-blocks, according to various embodiments.
  • the OBMC mode using the sub-block in addition to the reference samples of the reference block 2644 corresponding to the current block 2630, It is possible to perform motion prediction using reference samples corresponding to blocks. Accordingly, the OBMC mode using the sub-block can be viewed as performing the motion compensation on the block 2642 extended by 4 pixels in the up, down, left, and right directions of the current block.
  • the horizontal width of the current block 2630 is W and the vertical length is H and a two-dimensional T-tap filter separable by an interpolation filter is used, it is necessary to read from the reconstructed reference picture for inter-
  • the total number of reconstructed reference samples 2640 is (W + 8 + T-1) x (H + 8 + T-1). Therefore, in the case of the OBMC mode using the sub-block, the average number of reference samples to be read from the reconstructed reference picture stored in the memory for predicting the current sample, that is, the memory bandwidth, can be expressed by Equation (5).
  • N denotes the number of reference blocks referred to for inter prediction of the current block.
  • N is 1 for unidirectional prediction, and 2 is for bidirectional prediction.
  • Figure 26C shows the memory bandwidth required for inter-prediction of the current block in OBMC mode using sub-blocks, according to various embodiments.
  • Fig. 26C shows a case where the width of the current block is W, the length is H, and the interpolation filter uses a separable two-dimensional T tap filter according to the embodiment of Figs. 26A and 26B. Bandwidth.
  • case 2670 for a luma block and case 2670 for a chroma block being 4: 2: 0 sampled are provided.
  • the image decoding apparatus 100 may determine the size of the filter so that the memory bandwidth calculated by equation (5) does not exceed a predetermined reference value.
  • the predetermined reference value may be determined based on the HEVC limit described above.
  • the memory bandwidth exceeds the HEVC limit even if a two-tap filter is used. Therefore, according to one embodiment of setting the predetermined reference value to the HEVC limit, it may be decided not to use the OBMC mode using the sub-block in the case of 4x4 block. According to another embodiment, if the current block is a 4x4 size, the size of the filter may be less than two taps.
  • the number of samples included in the chroma block is 1/4 of the luma block of the same size, so that the memory bandwidth is divided by 4 The same.
  • the size of the filter can be determined to be two tapes or less.
  • FIGS 27A-28D illustrate a prediction method of a decoder-side motion vector refinement (DMVR) mode, according to various embodiments.
  • motion vectors used for inter prediction can be adjusted through template matching.
  • Figure 27A shows how a motion vector is adjusted in bidirectional prediction.
  • two original prediction blocks 2721 and 2726 are obtained by two original motion vectors MV0 and MV1 of the current block 2715.
  • a template 2730 may be generated by weighting averaging the original prediction blocks 2721 and 2726 (step 1).
  • the image decoding apparatus 100 performs template matching for finding the updated prediction blocks 2722 and 2726 having the minimum difference from the template 2730 in the reference pictures 2720 and 2725 (step 2).
  • the updated motion vectors MV0 ', MV1' indicating the updated prediction blocks 2722, 2726 can be determined through template matching.
  • the final predicted value of the current block 2715 is obtained from the updated prediction blocks 2722 and 2726.
  • the number of motion vector candidates to find updated prediction blocks 2722, 2726 in reference pictures 2720, 2725 may be limited.
  • the image decoding apparatus 100 may determine up to M motion vector candidates.
  • the image decoding apparatus 100 compares the template 2730 with a plurality of prediction block candidates indicated by the motion vector candidates in a reference picture and outputs the prediction block candidate having the smallest difference to the updated prediction blocks 2722 and 2726, .
  • the search area for searching for updated prediction blocks 2722, 2726 within the reference pictures 2720, 2725 may be limited.
  • the image decoding apparatus 100 can find the updated prediction blocks 2722 and 2726 in the regions where the original prediction blocks 2721 and 2726 are extended by L pixels in the up, down, left, and right directions.
  • the image decoding apparatus 100 can find an updated prediction block in an area of an original prediction block expanded by one pixel in the up, down, left, and right directions.
  • the image decoding apparatus 100 may convert eight motion vectors, which are obtained by moving the original motion vector and the original motion vector one pixel by one pixel in up, down, left, right, upper left, lower left, right upper and lower right, .
  • the image decoding apparatus 100 may compare the prediction block candidates indicated by the motion vector candidates with the template 2730 and determine the prediction block candidates having the smallest difference as the updated prediction blocks 2722 and 2726.
  • FIG. 27A shows only the case of bidirectional prediction, it is not limited to this, and it is possible to use DMVR mode by applying or applying the above-described method to unidirectional prediction or multi-prediction using three or more references. Will be.
  • Figure 27B shows reference samples required for inter prediction of a current block in the DMVR mode, according to various embodiments.
  • the original prediction block 2754 is determined based on the motion vector.
  • the search area for template matching may be limited to an area 2752 in which the original prediction block 2754 is expanded by one pixel at the top, bottom, left, and right sides.
  • the horizontal width of the current block 2740 is W
  • the vertical length thereof is H
  • a two-dimensional T tap filter that can be separated by the interpolation filter is used
  • N denotes the number of reference blocks referred to for inter prediction of the current block.
  • N is 1 for unidirectional prediction, and 2 is for bidirectional prediction.
  • FIG. 27C shows the memory bandwidth required for inter prediction of the current block in DMVR mode, according to various embodiments.
  • FIG. 27C shows a case where a two-dimensional T-tap filter in which the width of the current block is W and the length is H and which is separable by an interpolation filter is used according to the embodiment of FIGS. 27A and 27B, Represents a memory bandwidth calculated by Equation (6) when the block is an area expanded by one pixel at the top, bottom, left, and right sides.
  • Various examples of the case 2778 of a luma block and the case 2780 of a chroma block being 4: 2: 0 sampled are provided.
  • the image decoding apparatus 100 may determine the size of the filter such that the memory bandwidth calculated by Equation (6) does not exceed a predetermined reference value.
  • the predetermined reference value may be determined based on the HEVC limit described above.
  • the size of the filter in bidirectional prediction can be determined to be 4 taps or less, Can be determined to be 8 taps or less.
  • the size of the filter when the current block is 4x4 size, can be determined to be 2 taps or less in bi-directional prediction, and 4 taps or less in the unidirectional prediction .
  • an 8-tap filter may be allowed in bidirectional prediction of 8x8 blocks.
  • the number of samples included in the chroma block is 1/4 of the luma block of the same size. Therefore, the memory bandwidth is divided by 4 The same.
  • the size of the filter can be determined to be 4 taps or less.
  • an eight-tap filter may be allowed in unidirectional prediction.
  • 28A shows reference samples needed for inter prediction of a current block in a DMVR mode using multiple motion vector candidates, in accordance with various embodiments.
  • the number of motion vector candidates for searching for an updated prediction block in a reference picture may be limited in template matching.
  • the image decoding apparatus 100 may determine a maximum of M motion vector candidates, in which case M prediction block candidates (indicated by dotted lines) pointed to by the motion vector candidates may be determined.
  • the width of the current block 2810 is W
  • the length is H
  • a two-dimensional T tap filter that can be separated by an interpolation filter is used.
  • the number of reconstructed reference samples 2820, 2821, 2830 needed to generate reference samples of the respective prediction block candidates is (W + T-1) x ( H + T-1). Therefore, the maximum number of reconstructed reference samples 2820, 2821, 2830 to be read from the reconstructed reference picture for inter prediction of the current block 2810 is M ⁇ (W + T-1) ⁇ (H + T- 1). Consequently, the average number of reference samples to be read from the restored reference picture stored in the memory to predict the current sample, that is, the memory bandwidth, can be expressed by Equation (7).
  • N denotes the number of reference blocks referred to for inter prediction of the current block.
  • N is 1 for unidirectional prediction, and 2 is for bidirectional prediction.
  • Equation (7) As the number of motion vector candidates increases, the memory bandwidth increases. As the size of the interpolation filter (i.e., the number of taps T) increases, the memory bandwidth increases. Therefore, if the number of motion vector candidates increases, the number of taps of the filter must be small in order to keep the memory bandwidth within a certain level.
  • Figure 28B shows the memory bandwidth required for inter prediction of the current block in DMVR mode using multiple motion vector candidates, according to various embodiments.
  • 28B shows a case where a 2-dimensional T-tap filter in which the width of the current block is W and the length is H and the interpolation filter is separable is used according to the embodiment of FIGS. 27A and 28A, and the number of motion vector candidates And the memory bandwidth calculated by Equation (7) when limiting to a maximum of M.
  • Table 2850 provides various examples for the case of luma blocks.
  • the image decoding apparatus 100 may determine the size of the filter such that the memory bandwidth calculated by equation (7) does not exceed a predetermined reference value.
  • the predetermined reference value may be determined based on the HEVC limit described above.
  • a predetermined reference value is set to an HEVC limit
  • the size of the current block is 8x8 or less
  • the memory bandwidth exceeds the HEVC limit even if a 2-tap filter is used.
  • a two-tap filter can be allowed in bidirectional prediction.
  • the predetermined reference value is set to an HEVC limit
  • the size of the current block is 8x8 or less
  • the memory bandwidth exceeds the HEVC limit even if a 2-tap filter is used.
  • a two-tap filter can be allowed in bidirectional prediction.
  • the number of motion vector candidates is allowed to be 5 or more, according to one embodiment, even if a 2-tap filter is used in a unidirectional prediction, the memory bandwidth exceeds the HEVC limit when the current block is 4x4. You can decide not to use. According to another embodiment, if more than five motion vector candidates are allowed, a 2-tap filter may be used for a 4x4 block.
  • Figure 28C shows reference samples required for inter prediction of a current block in a DMVR mode that defines a search range, in accordance with various embodiments.
  • a search area for searching for an updated prediction block in a reference picture may be limited in template matching.
  • the search area for template matching may be defined as an area 2862 in which the original prediction block 2864 is extended by L pixels in the up, down, left, and right directions.
  • the reconstructed reference picture for inter prediction of the current block 2810 (W + 2L + T-1) x (H + 2L + T-1). Therefore, the average number of reference samples to be read from the reconstructed reference picture stored in the memory in order to predict the current sample, that is, the memory bandwidth, can be expressed by Equation (8).
  • N denotes the number of reference blocks referred to for inter prediction of the current block.
  • N is 1 for unidirectional prediction, and 2 is for bidirectional prediction.
  • FIG. 28D shows the memory bandwidth required for inter-prediction of the current block in DMVR mode, which defines the search range, according to various embodiments.
  • FIG. 28D shows a case where a two-dimensional T-tap filter in which the width of the current block is W and the length is H and which is separable by an interpolation filter is used according to the embodiment of FIGS. 27A and 28C, Represents the memory bandwidth calculated by Equation (7) when the area is limited to the area extended by the L pixels in the up, down, left, and right directions.
  • Table 2870 provides various examples for the case of luma blocks.
  • the number of samples included in the chroma block is 1/4 of the luma block of the same size, so that the memory bandwidth is calculated by Equation 8 It is the same as dividing by 4.
  • the size of the unidirectional prediction- 4 taps or less, and the size of the filter in bidirectional prediction can be determined to be 2 taps or less.
  • the size of the unidirectional predictive filter is determined to be 8 taps or less and the size of the bidirectional prediction filter is determined to be 4 taps or less have.
  • the size of the current block in the unidirectional prediction is 4x4, It can be determined to be 2 or less tabs.
  • the size of the filter can be determined to be 4 taps or less.
  • a 4-tap filter may be allowed in unidirectional prediction of a 4x4 block.
  • the memory bandwidth exceeds the HEVC limit even if a two-tap filter is used. Therefore, according to one embodiment of setting the predetermined reference value to the HEVC limit, in the bi-directional prediction, it can be decided not to use the DMVR mode in which the original predicted block is expanded to more than three pixels in the upper, lower, left, and right directions as the search area. According to another embodiment, in a DMVR mode in which an original predicted block is extended to three or more pixels vertically and horizontally as a search area, a two-tap filter in bidirectional prediction can be allowed.
  • the size of the unidirectional prediction filter can be determined to be two taps or less.
  • a 4-tap filter can be allowed in unidirectional prediction of 8x8 blocks.
  • 29A illustrates a method of predicting the Affine mode, according to various embodiments.
  • the four vertices 2902, 2904, 2906 and 2908 of the current block 2900 correspond to the motion vectors 2912, 2914, 2916 and 2918, respectively.
  • the affine transformation block 2910 is generated by affine transformation of the current block 2900 by the motion vectors 2912, 2914, 2916, and 2918. Samples located in the current block 2900 may be matched to samples of the affine transform block 2910.
  • the sample 2922 affine transformed sample 2922 located in a line segment between a vertex 2906 and a sample 2920 located at the center of the top of the block 2900 is transformed into a motion vector 2916 of the vertex 2906, Of the affine transformation block 2910 indicated by the motion vector 2930 of the sample 2920 and the sample 2926 of the affine transformation block 2910 pointed to by the motion vector 2920 of the sample 2920.
  • the position of the affine transformed sample 2924 may be determined by the motion vector 2930 obtained by linear interpolation of the motion vectors 2912, 2914, 2916, 2918 according to the position of the sample 2922.
  • samples of the current block 2900 may also be affine transformed and matched with the samples of the affine transform block 2910. As described in FIG. 29A, all samples of a block can be inter-predicted using a motion vector generated for the affine transformation.
  • Figure 29B shows the memory bandwidth required for inter prediction of the current block in the affine mode, according to various embodiments.
  • the maximum number of reconstructed reference samples required to generate the affine transformed samples of the affine transform block is the same as that described in FIG. 22A . ≪ / RTI > Therefore, in this case, the average number of reference samples to be read out from at least one reconstructed reference picture stored in the memory, that is, the memory bandwidth is the same as in Equation (2).
  • the size of the filter in unidirectional and bidirectional prediction can be determined to be four tapes or less.
  • an 8-tap filter may be allowed in unidirectional prediction if the current block is 4x4 size.
  • the number of samples included in the chroma block is 1/4 of the luma block of the same size in the case of sampling 4: 2: 0, so that the memory bandwidth is 4 It is like sharing.
  • the size of the filter can be determined to be 8 taps or less in unidirectional prediction, You can decide.
  • 29C shows reference samples needed for inter prediction of a current block in an affine mode, in accordance with various embodiments.
  • an affine transform block is determined based on the motion vector of the current block 2950. Since the affine transform includes movement and rotation as well as zoom, the size of the reference sample 2964 corresponding to the affine transform block in the reference picture may be larger than the size of the current block 2950. The size of the reference sample 2964 corresponding to the affine transform block with respect to the size of the current block 2950 may indicate a rate of enlargement / reduction in affine transformation.
  • the affine transform block may mean that the affine transform block is enlarged up to twice the current block .
  • the maximum zoom ratio of the affine transformation may be limited to a predetermined value or less.
  • the size of the reference sample 2964 corresponding to the affine transform block may be limited to less than or equal to the width of the current block 2950 and the length of the vertically extended length by 2L pixels.
  • the reference sample 2964 corresponding to the affine transform block can be searched in an area expanded by L pixels vertically, horizontally, and vertically by a block 2966 indicated by the motion vector of the current block.
  • the size of the reference sample 2964 corresponding to the affine transformation block is maximum 6x6, Can be limited to one.
  • a P tapewrapping filter may be further applied to the reference sample of the reference picture.
  • 29C shows a state in which the horizontal width of the current block 2950 is W and the vertical length thereof is H and the affine transformation block is a region 2964 in which the block 2966 indicated by the motion vector of the current block is extended by L pixels in the upper, And uses a two-dimensional T-tap filter that is separable by an interpolation filter. If a P tapewarp filter is additionally applied, the reconstructed reference sample to be read from the reconstructed reference picture for inter prediction of the current block 2740 2960 < / RTI > In this case, the total number of reconstructed reference samples 2960 is (W + 2L + P-1 + T-1) x (H + 2L + P-1 + T-1). Therefore, the average number of reference samples to be read from the reconstructed reference picture stored in the memory for predicting the current sample, that is, the memory bandwidth, can be expressed by Equation (9).
  • N denotes the number of reference blocks referred to for inter prediction of the current block.
  • N is 1 for unidirectional prediction, and 2 is for bidirectional prediction.
  • Figure 29d shows the memory bandwidth required for inter prediction of the current block in the affine mode, according to various embodiments.
  • 29D shows a case where the width of the current block is W and the length of the current block is H and the affine transformation block is a block 2966 in which the motion vector of the current block is pointed by L pixels Area 2964, using a two-dimensional two-tap filter that is separable by an interpolation filter, and when the P tapewarp filter is additionally applied, the memory bandwidth calculated by equation (9).
  • Table 2970 provides various examples for the case of luma blocks.
  • the number of samples included in the chroma block is 1/4 of the luma block of the same size, so that the memory bandwidth is calculated by Equation 8 It is the same as dividing by 4.
  • the tapping filter using the 5 tapping filter is used and the affine mode capable of expanding up to 1.5 times .
  • bi-directional prediction can be decided not to use the affine mode using the warping filter.
  • BIO Bidirectional Optical Flow
  • the motion vector of the current block can be adjusted for each sample 3015 of the current picture.
  • Figure 30 shows how the motion vector is adjusted in bidirectional prediction.
  • the reference block corresponding to the current block can be determined by the motion vectors MVx 0 and MVy 0 and MVx 1 and MVy 1 of the current block and the reference block corresponding to the current sample 3015 in the reference block can be determined.
  • the reference samples 3022 and 3032 of FIG. Based on the spatial / temporal variation of the reference sample value, the motion vector (v x , v y ) of the current sample 3015 is estimated. Using the motion vector of the current block and the motion vector of the current sample, final prediction samples 3026 and 3036 are obtained.
  • the amount of spatial variation of the reference sample value can be calculated from the difference between the reference sample value and the sample values around the reference sample.
  • an interpolation filter may be applied to samples of integer positions around a reference sample to obtain sample values of sub-pixel positions around the reference sample.
  • interpolation filtering to calculate spatial variations in reference sample values may be performed concurrently with interpolation filtering for motion compensation.
  • the size of the interpolation filter for calculating the spatial variation of the reference sample value is not larger than the size of the interpolation filter for motion compensation, the number of reconstructed reference samples needed to generate all the reference samples in the reference block in the BIO mode is And 22b. Therefore, in this case, the BIO mode does not require additional memory bandwidth, and the required memory bandwidth can be expressed by Equation (2).
  • the memory bandwidth required for inter prediction in the BIO mode can be referred to FIG.
  • the number of taps T of the filter may mean the larger of the size of the interpolation filter for calculating the spatial variation of the reference sample value and the size of the interpolation filter for motion compensation.
  • the image decoding apparatus 100 is described as determining the filter information, but it is not limited thereto.
  • the filter information according to the inter prediction mode of the current block, the size of the current block, whether the current block is a luma block or a chroma block, whether the current block is a unidirectional prediction or bidirectional prediction And may be stored in the memories 400 and 420 and the memories 120 and 420 of the image decoding apparatus 100, respectively.
  • the image encoding apparatus 400 may determine whether the current block is a uni-directional prediction or a bidirectional prediction based on whether the current block is an inter-prediction mode, a current block size, whether the current block is a luma block or a chroma block, And may be included in the bitstream and transmitted to the video decoding apparatus 100. [ The video decoding apparatus 100 may extract the filter information from the bitstream.
  • the image encoding apparatus 400 and the image decoding apparatus 100 may determine whether the current block is an inter prediction mode, a current block size, whether the current block is a luma block or a chroma block, whether the current block is a unidirectional prediction It is possible to determine the filter information according to whether or not it is bidirectional prediction.
  • video data of a spatial region is encoded for each coding unit of a tree structure, and a video decoding technique based on coding units of a tree structure Decoding is performed for each maximum encoding unit according to the motion vector, and the video data in the spatial domain is reconstructed, and the video and the video, which is a picture sequence, can be reconstructed.
  • the restored video can be played back by the playback apparatus, stored in a storage medium, or transmitted over a network.

Abstract

현재 블록이 인터 예측될 때, 상기 현재 블록의 인터 예측 모드를 결정하는 단계, 상기 현재 블록의 인터 예측 모드에 기초하여, 상기 현재 블록이 참조할 적어도 하나의 참조 샘플 위치를 결정하는 단계, 상기 현재 블록의 인터 예측 모드에 기초하여, 상기 적어도 하나의 참조 샘플 위치에 대응되는 적어도 하나의 복원된 참조 샘플에 적용될 필터 정보를 결정하는 단계, 상기 필터 정보에 기초하여, 상기 적어도 하나의 복원된 참조 샘플에 필터링을 수행하는 단계, 및 상기 필터링에 의해 생성된 예측 샘플들을 이용하여 상기 현재 블록을 복호화하는 단계를 포함하는, 비디오 복호화 방법이 제공된다.

Description

부호화 방법 및 그 장치, 복호화 방법 및 그 장치
본 발명은 비디오의 부호화 방법 및 복호화 방법에 대한 것으로, 보다 구체적으로는 인터 예측을 위해 참조 샘플에 보간 필터를 적용하는 방법에 관한 것이다.
고해상도 또는 고화질 영상 컨텐트를 재생, 저장할 수 있는 하드웨어의 개발 및 보급에 따라, 고해상도 또는 고화질 영상 컨텐트를 효과적으로 부호화 또는 복호화 하는 코덱(codec)의 필요성이 증대하고 있다. 부호화된 영상 컨텐트는 복호화됨으로써 재생될 수 있다. 최근에는 이러한 고해상도 또는 고화질 영상 컨텐트를 효과적으로 압축하기 위한 방법들이 실시되고 있다.
영상을 압축하기 위하여 다양한 데이터 단위가 이용될 수 있으며 이러한 데이터 단위들 간에 포함관계가 존재할 수 있다. 이러한 영상 압축에 이용되는 데이터 단위의 크기를 결정하기 위해 다양한 방법에 의해 데이터 단위가 분할될 수 있으며 영상의 특성에 따라 최적화된 데이터 단위가 결정됨으로써 영상의 부호화 또는 복호화가 수행될 수 있다.
영상 데이터는 픽셀들 간의 공간적 중복성 및 시간적 중복성을 제거함으로써 압축될 수 있다. 인접한 픽셀들 간에 공통된 특징을 가지는 것이 일반적이기 때문에, 인접한 픽셀들 간의 중복성을 제거하기 위하여 픽셀들로 이루어진 데이터 단위로 부호화 정보가 전송된다.
데이터 단위에 포함된 픽셀들의 픽셀 값은 직접 전송되지 않고, 픽셀 값을 획득하기 위해 필요한 방법이 전송된다. 픽셀 값을 원본 값과 유사하게 예측하는 예측 방법이 데이터 단위마다 결정되며, 예측 방법에 대한 부호화 정보가 부호화기에서 복호화기로 전송된다. 또한 예측 값이 원본 값과 완전히 동일하지 않으므로, 원본 값과 예측 값의 차이에 대한 레지듀얼 데이터가 부호화기에서 복호화기로 전송된다.
예측 방법에는 인트라 예측과 인터 예측이 있다. 인트라 예측은 블록의 주변 픽셀들로부터 블록의 픽셀들을 예측하는 방법이다. 인터 예측은 블록이 포함된 픽처가 참조하는 다른 픽처의 픽셀을 참조하여 픽셀들을 예측하는 방법이다. 따라서 인트라 예측에 의하여 공간적 중복성이 제거되고, 인터 예측에 의하여 시간적 중복성이 제거된다.
본 개시는, 현재 블록의 인터 예측 모드에 기초하여 적응적으로 참조 샘플에 필터를 적용하는 비디오 부호화 방법 및 비디오 부호화 장치, 비디오 복호화 방법 및 비디오 복호화 장치를 제안한다.
본 실시 예가 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제들로 한정되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시의 다양한 실시예에 따른 비디오 복호화 방법은, 현재 블록이 인터 예측될 때, 상기 현재 블록의 인터 예측 모드를 결정하는 단계; 상기 현재 블록의 인터 예측 모드에 기초하여, 상기 현재 블록이 참조할 적어도 하나의 참조 샘플 위치를 결정하는 단계; 상기 현재 블록의 인터 예측 모드에 기초하여, 상기 적어도 하나의 참조 샘플 위치에 대응되는 적어도 하나의 복원된 참조 샘플에 적용될 필터 정보를 결정하는 단계; 상기 필터 정보에 기초하여, 상기 적어도 하나의 복원된 참조 샘플에 필터링을 수행하는 단계; 및 상기 필터링에 의해 생성된 예측 샘플들을 이용하여 상기 현재 블록을 복호화하는 단계를 포함할 수 있다.
본 개시의 다양한 실시예에 따른 비디오 복호화 장치는, 적어도 하나의 프로세서 및 메모리를 포함하고, 상기 메모리는, 상기 적어도 하나의 프로세서에 의해 실행 가능하도록 구성되는 적어도 하나의 명령어를 포함하며, 상기 적어도 하나의 명령어는, 실행 시에, 상기 적어도 하나의 프로세서로 하여금, 현재 블록이 인터 예측될 때, 상기 현재 블록의 인터 예측 모드를 결정하고, 상기 현재 블록의 인터 예측 모드에 기초하여, 상기 현재 블록이 참조할 적어도 하나의 참조 샘플 위치를 결정하고, 상기 현재 블록의 인터 예측 모드에 기초하여, 상기 적어도 하나의 참조 샘플 위치에 대응되는 적어도 하나의 복원된 참조 샘플에 적용될 필터 정보를 결정하고, 상기 필터 정보에 기초하여, 상기 적어도 하나의 복원된 참조 샘플에 필터링을 수행하고, 상기 필터링에 의해 생성된 예측 샘플들을 이용하여 상기 현재 블록을 복호화하도록 설정될 수 있다.
본 개시의 다양한 실시예에 따른 비디오 부호화 방법은, 현재 블록이 인터 예측될 때, 상기 현재 블록의 인터 예측 모드를 결정하는 단계; 상기 현재 블록의 인터 예측 모드에 기초하여, 상기 현재 블록이 참조할 적어도 하나의 참조 샘플 위치를 결정하는 단계; 상기 현재 블록의 인터 예측 모드에 기초하여, 상기 적어도 하나의 참조 샘플 위치에 대응되는 적어도 하나의 복원된 참조 샘플에 적용될 필터 정보를 결정하는 단계; 상기 필터 정보에 기초하여, 상기 적어도 하나의 복원된 참조 샘플에 필터링을 수행하는 단계; 및 상기 필터링에 의해 생성된 예측 샘플들을 이용하여 상기 현재 블록을 부호화하는 단계를 포함한다.
본 개시의 다양한 실시예에 따른 비디오 부호화 장치는, 적어도 하나의 프로세서 및 메모리를 포함하고, 상기 메모리는, 상기 적어도 하나의 프로세서에 의해 실행 가능하도록 구성되는 적어도 하나의 명령어를 포함하며, 상기 적어도 하나의 명령어는, 실행 시에, 상기 적어도 하나의 프로세서로 하여금, 현재 블록이 인터 예측될 때, 상기 현재 블록의 인터 예측 모드를 결정하고, 상기 현재 블록의 인터 예측 모드에 기초하여, 상기 현재 블록이 참조할 적어도 하나의 참조 샘플 위치를 결정하고, 상기 현재 블록의 인터 예측 모드에 기초하여, 상기 적어도 하나의 참조 샘플 위치에 대응되는 적어도 하나의 복원된 참조 샘플에 적용될 필터 정보를 결정하고, 상기 필터 정보에 기초하여, 상기 적어도 하나의 복원된 참조 샘플에 필터링을 수행하고, 상기 필터링에 의해 생성된 예측 샘플들을 이용하여 상기 현재 블록을 부호화하도록 설정될 수 있다.
본 개시는, 본 개시의 다양한 실시예에 따라, 상기 비디오 부호화 방법을 수행하는 프로그램이 기록된 컴퓨터로 판독 가능한 비일시적 기록매체를 제안한다.
본 개시는, 본 개시의 다양한 실시예에 따라, 상기 비디오 복호화 방법을 수행하는 프로그램이 기록된 컴퓨터로 판독 가능한 비일시적 기록매체를 제안한다.
다양한 실시예들에 따른, 비디오 부호화 방법 및 비디오 부호화 장치, 비디오 복호화 방법 및 비디오 복호화 장치는, 인터 예측 시에 현재 블록의 인터 예측 모드에 기초하여 적응적으로 참조 샘플에 필터를 적용함으로써, 인터 예측에 사용되는 자원의 효율성을 향상시킬 수 있다. 예를 들어, 인터 예측에 사용되는 메모리 대역폭을 적정 수준으로 조정함으로써, 전원 소비량 및 배터리 사용량을 절감할 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1a는 다양한 실시예들에 따른 영상 복호화 장치의 블록도를 도시한다.
도 1b는 다양한 실시예들에 따른 영상 복호화 장치의 블록도를 도시한다.
도 2는 다양한 실시예들에 따른 영상 복호화 장치의 블록도를 도시한다.
도 3은 다양한 실시예들에 따른 영상 복호화 방법의 흐름도를 도시한다.
도 4a는 다양한 실시예들에 따른 영상 부호화 장치의 블록도를 도시한다.
도 4b는 다양한 실시예들에 따른 영상 부호화 장치의 블록도를 도시한다.
도 5는 다양한 실시예들에 따른 영상 부호화 장치의 블록도를 도시한다.
도 6은 다양한 실시예들에 따른 영상 부호화 방법의 흐름도를 도시한다.
도 7은 다양한 실시예들에 따른 영상 복호화 장치가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
도 8은 다양한 실시예들에 따른 영상 복호화 장치가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
도 9는 다양한 실시예들에 따른 영상 복호화 장치가 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.
도 10은 다양한 실시예들에 따른 영상 복호화 장치가 홀수개의 부호화 단위들 중 소정의 부호화 단위를 결정하기 위한 방법을 도시한다.
도 11은 다양한 실시예들에 따른 영상 복호화 장치가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
도 12는 다양한 실시예들에 따른 영상 복호화 장치가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.
도 13은 다양한 실시예들에 따른 영상 복호화 장치가 제1 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
도 14는 다양한 실시예들에 따른 영상 복호화 장치가 제1 부호화 단위가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
도 15는 다양한 실시예들에 따른 분할 형태 모드 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
도 16은 다양한 실시예들에 따른 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
도 17은 다양한 실시예들에 따른 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
도 18은 다양한 실시예들에 따른 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
도 19는 다양한 실시예들에 따른 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
도 20은 다양한 실시예들에 따른 픽쳐에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
도 21a 및 도 21b는 다양한 실시예들에 따른 인터 예측 시 움직임 보상을 위하여 참조 샘플에 필터링을 수행하는 방법을 설명하기 위한 도면이다.
도 22a는 다양한 실시예들에 따른, 현재 블록의 인터 예측에 필요한 참조 샘플들을 도시한다.
도 22b는 다양한 실시예들에 따른, 현재 블록이 복수의 참조 블록을 참조하는 경우 현재 블록의 인터 예측에 필요한 참조 샘플들을 도시한다.
도 23은 다양한 실시예들에 따른, 현재 블록의 인터 예측에 필요한 메모리 대역폭을 나타낸다.
도 24는 다양한 실시예들에 따른, 수직 및 수평 방향으로 각각 다른 필터를 사용하는 경우, 현재 블록의 인터 예측에 필요한 참조 샘플들을 도시한다.
도 25a는 다양한 실시예들에 따른, 서브 블록을 사용하지 않는 OBMC (Overlapped Blocks Motion Compensation) 모드의 예측 방법을 나타낸다.
도 25b는 다양한 실시예들에 따른, 서브 블록을 사용하지 않는 OBMC 모드에서 현재 블록의 인터 예측에 필요한 참조 샘플들을 도시한다.
도 25c는 다양한 실시예들에 따른, 서브 블록을 사용하지 않는 OBMC 모드에서 현재 블록의 인터 예측에 필요한 메모리 대역폭을 나타낸다.
도 26a는 다양한 실시예들에 따른, 서브 블록을 사용하는 OBMC 모드의 예측 방법을 나타낸다.
도 26b는 다양한 실시예들에 따른, 서브 블록을 사용하는 OBMC 모드에서 현재 블록의 인터 예측에 필요한 참조 샘플들을 도시한다.
도 26c는 다양한 실시예들에 따른, 서브 블록을 사용하는 OBMC 모드에서 현재 블록의 인터 예측에 필요한 메모리 대역폭을 나타낸다.
도 27a는 다양한 실시예들에 따른, DMVR(Decoder-side Motion Vector Refinement) 모드의 예측 방법을 나타낸다.
도 27b는 다양한 실시예들에 따른, DMVR 모드에서 현재 블록의 인터 예측에 필요한 참조 샘플들을 도시한다.
도 27c는 다양한 실시예들에 따른, DMVR 모드에서 현재 블록의 인터 예측에 필요한 메모리 대역폭을 나타낸다.
도 28a는 다양한 실시예들에 따른, 다수의 움직임 벡터 후보자를 이용하는 DMVR 모드에서 현재 블록의 인터 예측에 필요한 참조 샘플들을 도시한다.
도 28b는 다양한 실시예들에 따른, 다수의 움직임 벡터 후보자를 이용하는 DMVR 모드에서 현재 블록의 인터 예측에 필요한 메모리 대역폭을 나타낸다.
도 28c는 다양한 실시예들에 따른, 탐색 범위를 한정한 DMVR 모드에서 현재 블록의 인터 예측에 필요한 참조 샘플들을 도시한다.
도 28d는 다양한 실시예들에 따른, 탐색 범위를 한정한 DMVR 모드에서 현재 블록의 인터 예측에 필요한 메모리 대역폭을 나타낸다.
도 29a는 다양한 실시예들에 따른, 아핀(Affine) 모드의 예측 방법을 나타낸다.
도 29b는 다양한 실시예들에 따른, 아핀 모드에서 현재 블록의 인터 예측에 필요한 메모리 대역폭을 나타낸다.
도 29c는 다양한 실시예들에 따른, 아핀 모드에서 현재 블록의 인터 예측에 필요한 참조 샘플들을 도시한다.
도 29d는 다양한 실시예들에 따른, 아핀 모드에서 현재 블록의 인터 예측에 필요한 메모리 대역폭을 나타낸다.
도 30은 다양한 실시예들에 따른, BIO(Bidirectional Optical Flow) 모드의 예측 방법을 나타낸다.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.
또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
본 개시의 일 실시예에 따르면 "부"는 프로세서 및 메모리로 구현될 수 있다. 용어 "프로세서" 는 범용 프로세서, 중앙 처리 장치 (CPU), 마이크로프로세서, 디지털 신호 프로세서 (DSP), 제어기, 마이크로제어기, 상태 머신, 및 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서는, "프로세서" 는 주문형 반도체 (ASIC), 프로그램가능 로직 디바이스 (PLD), 필드 프로그램가능 게이트 어레이 (FPGA), 등을 지칭할 수도 있다. 용어 "프로세서" 는, 예를 들어, DSP 와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다.
용어 "메모리" 는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. 용어 메모리는 임의 액세스 메모리 (RAM), 판독-전용 메모리 (ROM), 비-휘발성 임의 액세스 메모리 (NVRAM), 프로그램가능 판독-전용 메모리 (PROM), 소거-프로그램가능 판독 전용 메모리 (EPROM), 전기적으로 소거가능 PROM (EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들, 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리에 메모리로부터 정보를 판독하고/하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불린다. 프로세서에 집적된 메모리는 프로세서와 전자 통신 상태에 있다.
이하, "영상"은 비디오의 정지영상와 같은 정적 이미지이거나 동영상, 즉 비디오 그 자체와 같은 동적 이미지를 나타낼 수 있다.
이하 "현재 블록”은 현재 부호화 또는 복호화되는 부호화 단위, 예측 단위 및 변환 단위 중 하나를 의미한다. 또한 “하위 블록”은 “현재 블록”으로부터 분할된 데이터 단위를 의미한다. 그리고 “상위 블록”은 “현재 블록”을 포함하는 데이터 단위를 의미한다.
이하 "샘플"은, 영상의 샘플링 위치에 할당된 데이터로서 프로세싱 대상이 되는 데이터를 의미한다. 예를 들어, 공간영역의 영상에서 픽셀값, 변환 영역 상의 변환 계수들이 샘플들일 수 있다. 이러한 적어도 하나의 샘플들을 포함하는 단위를 블록이라고 정의할 수 있다.
아래에서는 첨부한 도면을 참고하여 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
이하 도 1a 내지 도 6을 참조하여, 다양한 실시예들에 따라 현재 블록의 인터 예측 모드에 기초하여 적응적으로 인터 예측을 수행하기 위한 영상 부호화 장치 및 영상 복호화 장치, 영상 부호화 방법 및 영상 복호화 방법이 상술된다. 또한, 도 7 내지 도 20 을 참조하여, 다양한 실시예에 따른 트리 구조의 부호화 단위에 기초하는 비디오 부호화 장치 및 비디오 복호화 장치, 비디오 부호화 방법 및 비디오 복호화 방법이 개시된다. 또한, 도 1 내지 도 20의 실시예들에 따른 비디오 부호화 방법, 비디오 복호화 방법, 비디오 부호화 방법, 비디오 복호화 방법이 적용가능한 다양한 실시예들이 도 21a 내지 도 30을 참조하여 개시된다.
도 1a는 다양한 실시예들에 따른 영상 복호화 장치(100)의 블록도를 도시한다.
영상 복호화 장치(100)는 수신부(105), 인터 예측부(110) 및 복호화부(115)를 포함할 수 있다. 수신부(105), 인터 예측부(110) 및 복호화부(115)는 적어도 하나의 프로세서를 포함할 수 있다. 또한 수신부(105), 인터 예측부(110) 및 복호화부(115)는 적어도 하나의 프로세서가 수행할 명령어들을 저장하는 메모리를 포함할 수 있다.
수신부(105)는 비트스트림을 수신할 수 있다. 비트스트림은 후술되는 영상 부호화 장치(400)가 영상을 부호화한 정보를 포함한다. 또한 비트스트림은 영상 부호화 장치(400)로부터 송신될 수 있다. 영상 부호화 장치(400) 및 영상 복호화 장치(100)는 유선 또는 무선으로 연결될 수 있으며, 수신부(105)는 유선 또는 무선을 통하여 비트스트림을 수신할 수 있다. 수신부(105)는 광학미디어, 하드디스크 등과 같은 저장매체로부터 비트스트림을 수신할 수 있다.
수신부(105)는 비트스트림으로부터 현재 블록의 예측 모드에 관한 정보를 획득할 수 있다. 현재 블록의 예측 모드에 관한 정보는 인트라 모드 또는 인터 예측 모드를 나타내는 정보를 포함할 수 있다. 수신부(105)는 현재 블록의 예측 모드가 인터 예측 모드인 경우, 비트스트림으로부터 현재 블록의 인터 예측 모드에 관한 정보를 획득할 수 있다. 현재 블록의 인터 예측 모드에 관한 정보는 복수의 인터 예측 모드들 중 현재 블록에 적용되는 인터 예측 모드에 관한 정보일 수 있다. 예를 들어, 현재 블록의 인터 예측 모드는 머지 모드(merge mode), AMVP 모드(Advanced Motion Vector Prediction mode), 인터 스킵 모드(inter skip mode), OBMC 모드(Overlapped Block Motion Compensation mode), DMVR 모드(Decoder-side Motion Vector Refinement mode), 아핀 모드(Affine mode), BIO 모드(Bidirectional Optical Flow mode) 중 적어도 하나일 수 있다.
인터 예측부(110)는 현재 블록의 예측 모드가 인터 예측 모드인 경우 활성화될 수 있다. 인터 예측부(110)는 비트스트림으로부터 획득한 현재 블록의 인터 예측 모드에 관한 정보에 기초하여 현재 블록의 인터 예측 모드를 결정할 수 있다.
인터 예측부(110)는 현재 블록의 인터 예측 모드에 기초하여, 현재 블록이 참조할 적어도 하나의 참조 샘플 위치를 결정할 수 있다. 인터 예측부(110)는 현재 블록의 인터 예측 모드에 기초하여, 현재 블록의 적어도 하나의 움직임 벡터 및 적어도 하나의 참조 픽처 인덱스를 획득할 수 있고, 참조 픽처 인덱스가 가리키는 참조 픽처 내에서 움직임 벡터가 가리키는 위치를 참조 샘플 위치로 결정할 수 있다. 다양한 실시예들에서, 참조 샘플 위치는 현재 블록의 좌측 상단의 좌표에 현재 블록의 움직임 벡터 성분을 더한 좌표로 결정될 수 있다. 참조 샘플 위치는 참조 픽처 내에서 현재 블록이 참조하는 참조 블록의 좌측 상단의 위치를 나타내는 것일 수 있다.
다양한 실시예들에서, 보다 정확한 예측을 위해 참조 샘플 위치는 정수 화소(integer pixel) 사이에 위치하는 부화소(sub-pixel)를 가리킬 수 있다. 예를 들어, 참조 샘플 위치는 1/4-화소 단위의 부화소를 가리킬 수 있다. 그러나 이에 한정되지 아니하고, 부화소 단위는 1/8-화소 단위 또는 더 작은 단위일 수 있다.
다양한 실시예들에서, 현재 블록의 인터 예측 모드에서 사용하는 움직임 벡터의 개수만큼의 참조 샘플 위치가 결정될 수 있다. 예를 들어, 현재 블록이 단방향 예측되는 경우 하나의 참조 샘플 위치가 결정될 수 있고, 현재 블록이 양방향 예측되는 경우 두 개의 참조 샘플 위치가 결정될 수 있다.
인터 예측부(110)는 현재 블록의 인터 예측 모드에 기초하여, 적어도 하나의 참조 샘플 위치에 대응되는 적어도 하나의 복원된 참조 샘플에 적용될 필터 정보를 결정할 수 있다. 인터 예측부(110)는 정수 화소 위치의 참조 샘플 사이의 부화소 위치의 참조 샘플을 생성하기 위해, 정수 화소 위치의 참조 샘플들에 보간 필터를 적용할 수 있고, 상기 보간 필터에 관한 정보를 결정할 수 있다.
다양한 실시예들에서, 인터 예측부(110)는 복원된 참조 픽처 내에서 참조 샘플 위치에 기초하여 필터를 적용할 적어도 하나의 복원된 참조 샘플을 결정할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은 참조 샘플 위치를 기준으로 일정한 범위 내에 위치하는 샘플들을 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은 현재 블록이 참조하는 참조 블록 내의 샘플들 및 상기 현재 블록의 참조 블록에 인접한 주변 샘플들을 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은 현재 블록에 인접한 주변 블록이 참조하는 참조 샘플들을 더 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은 상기 현재 블록의 주변 블록이 참조하는 참조 블록들에 인접한 주변 샘플들을 더 포함할 수 있다.
여러 실시예들에서, 인터 예측부(110)는 참조 샘플 위치를 기준으로 일정한 범위 내에 위치하는 정수 화소 위치의 참조 샘플들을 보간 필터를 적용할 적어도 하나의 복원된 참조 샘플로 결정할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은, 현재 블록이 참조하는 참조 블록에 포함되는 부화소 위치의 참조 샘플들을 생성하기 위해 필요한 정수 화소 위치의 참조 샘플들을 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은, 상기 현재 블록의 참조 블록에 인접한 주변 부화소 위치의 참조 샘플을 생성하기 위해 필요한 정수 화소 위치의 참조 샘플들을 더 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은, 상기 현재 블록에 인접한 주변 블록이 참조하는 부화소 위치의 참조 샘플들을 생성하기 위해 필요한 정수 화소 위치의 참조 샘플들을 더 포함할 수 있다.
다양한 실시예들에서, 상기 필터 정보는 필터의 방향 및 크기 중 적어도 하나를 포함할 수 있다. 다양한 실시예들에서, 인터 예측부(110)는 분리 가능한 2차원 필터를 사용하기로 결정할 수 있다. 일 실시예에서, 인터 예측부(110)는 가로 방향 필터 및 세로 방향 필터를 각각 적용하기로 결정할 수 있다.
다양한 실시예들에서, 인터 예측부(110)는 필터의 탭수를 소정의 값으로 결정함으로써 필터의 크기를 결정할 수 있다. 필터의 탭수는 부화소 위치의 참조 샘플을 생성하기 위해 필요한 정수 화소 위치의 참조 샘플의 개수를 의미할 수 있다. 이때 소정의 값은 현재 블록의 인터 예측 모드에 따라 결정될 수 있다.
다양한 실시예들에서, 인터 예측부(110)는 현재 블록의 크기에 기초하여 상기 필터 정보를 결정할 수 있다. 여러 실시예들에서, 인터 예측부(110)는 현재 블록의 크기에 기초하여 필터의 크기를 결정할 수 있다.
일 실시예에서, 인터 예측부(110)는 현재 블록의 크기가 소정의 기준 값 이상인 경우 제1 필터를 사용하도록 결정하고, 그렇지 않을 경우 제2 필터를 사용하도록 결정할 수 있다. 일 실시예에서, 상기 제1 필터의 크기는 상기 제2 필터의 크기보다 클 수 있다. 일 실시예에서, 상기 소정의 기준 값은 현재 블록의 인터 예측 모드에 따라 결정될 수 있다. 일 실시예에서, 인터 예측부(110)는 현재 블록의 크기를 복수의 기준값들과 비교할 수 있고, 비교 결과에 따라 복수의 필터들 중 어느 것을 사용할지 결정할 수 있다.
일 실시예에서, 인터 예측부(110)는 현재 블록의 가로 너비에 기초하여 가로 방향 필터 정보를 결정하고, 현재 블록의 세로 길이에 기초하여 세로 방향 필터 정보를 결정할 수 있다. 일 실시예에서, 인터 예측부(110)는 현재 블록이 비정방형일 경우 가로 방향 필터와 세로 방향 필터를 서로 다른 크기의 필터로 결정할 수 있다.
일 실시예에서, 인터 예측부(110)는 현재 블록의 가로 너비와 세로 길이의 비율에 기초하여 가로 방향 필터 정보 및 세로 방향 필터 정보를 결정할 수 있다. 예를 들어, 현재 블록의 가로 방향 필터 정보가 결정된 경우, 인터 예측부(110)는 상기 가로 방향 필터 정보와 현재 블록의 가로 너비와 세로 길이의 비율에 기초하여 세로 방향 필터 정보를 결정할 수 있다. 다른 예를 들어, 현재 블록의 세로 방향 필터 정보가 결정된 경우, 인터 예측부(110)는 상기 세로 방향 필터 정보와 현재 블록의 가로 너비와 세로 길이의 비율에 기초하여 가로 방향 필터 정보를 결정할 수 있다. 일 실시예에서, 인터 예측부(110)는 현재 블록의 가로 너비와 세로 길이에 비례하도록 가로 방향 필터의 크기 및 세로 방향 필터의 크기를 결정할 수 있다.
다양한 실시예들에서, 인터 예측부(110)는 현재 블록이 루마 블록인지 크로마 블록인지에 기초하여 상기 필터 정보를 결정할 수 있다. 일 실시예에서, 인터 예측부(110)는 현재 블록이 루마 블록인 경우 제1 필터를 사용하도록 결정하고, 현재 블록이 크로마 블록인 경우 제2 필터를 사용하도록 결정할 수 있다. 일 실시예에서, 상기 제1 필터의 크기는 상기 제2 필터의 크기의 두 배일 수 있다.
다양한 실시예들에서, 인터 예측부(110)는 현재 블록의 인터 예측이 단방향 예측인지 양방향 예측인지에 기초하여 상기 필터 정보를 결정할 수 있다. 일 실시예에서, 인터 예측부(110)는 현재 블록이 단방향 예측되는 경우 제1 필터를 사용하도록 결정하고, 현재 블록이 양방향 예측되는 경우 제2 필터를 사용하도록 결정할 수 있다. 일 실시예에서, 상기 제1 필터의 크기는 상기 제2 필터의 크기의 두 배일 수 있다.
다양한 실시예들에서, 인터 예측부(110)는 현재 블록이 참조하는 참조 블록의 개수에 기초하여 상기 필터 정보를 결정할 수 있다. 일 실시예에서, 영상 복호화 장치(100)는 현재 블록이 참조하는 참조 블록의 개수가 소정의 기준값 이하인 경우 제1 탭수의 필터를 사용하고, 그렇지 않을 경우 제 1 탭수보다 더 작은 제2 탭수의 필터를 사용하도록 결정할 수 있다. 일 실시예에서, 인터 예측부(110)는 현재 블록이 참조하는 참조 블록의 개수를 복수의 기준값들과 비교할 수 있고, 비교 결과에 따라 복수의 필터들 중 어느 것을 사용할지 결정할 수 있다.
다양한 실시예들에서, 인터 예측부(110)는 현재 블록의 인터 예측 모드에 기초하여 필터의 최대 크기를 결정할 수 있다. 예를 들어, 상기 현재 블록의 인터 예측 모드가 OBMC 모드인 경우, 인터 예측부(110)는 필터의 크기를 2탭 이하로 결정할 수 있다. 예를 들어, 상기 현재 블록의 인터 예측 모드가 DMVR 모드인 경우, 인터 예측부(110)는 필터의 크기를 4탭 이하로 결정할 수 있다. 예를 들어, 상기 현재 블록의 인터 예측 모드가 아핀 모드인 경우, 인터 예측부(110)는 필터의 크기를 4탭 이하로 결정할 수 있다. 예를 들어, 상기 현재 블록의 인터 예측 모드가 BIO 모드인 경우, 인터 예측부(110)는 필터의 크기를 8탭 이하로 결정할 수 있다.
다양한 실시예들에서, 인터 예측부(110)는 현재 블록의 인터 예측에 필요한 메모리 대역폭이 소정의 범위 이내가 되도록 필터 정보를 결정할 수 있다. 상기 메모리 대역폭은, 현재 샘플을 예측하기 위하여 메모리에서 인출해야 하는 참조 샘플의 개수로 정의될 수 있다. 상기 메모리 대역폭은, 상기 현재 블록의 크기 및 상기 현재 블록의 인터 예측을 위해 필요한 복원된 참조 샘플들의 개수에 기초하여 결정되는 것일 수 있다.
다양한 실시예들에서, 인터 예측부(110)는 현재 블록의 인터 예측 모드, 현재 블록의 크기, 현재 블록이 루마 블록인지 크로마 블록인지 여부, 현재 블록의 인터 예측이 단방향 예측인지 양방향 예측인지 여부 중 적어도 하나에 기초하여, 적어도 하나의 복원된 참조 샘플에 필터링을 수행하지 않기로 결정할 수 있다.
인터 예측부(110)는 상기 필터 정보에 기초하여, 적어도 하나의 복원된 참조 샘플에 필터링을 수행할 수 있다. 다양한 실시예들에서, 인터 예측부(110)는 상기 필터 정보에 기초하여, 정수 화소 위치의 복원된 참조 샘플들에 보간 필터를 적용하여 부화소 위치의 참조 샘플을 생성할 수 있다. 다양한 실시예들에서, 인터 예측부(110)는 정수 화소 위치의 참조 샘플들 및 부화소 위치의 참조 샘플들을 이용하여 현재 블록의 샘플들에 대응되는 예측 샘플들을 생성할 수 있다.
복호화부(115)는 상기 필터링에 의해 생성된 예측 샘플들을 이용하여 현재 블록을 복호화할 수 있다. 다양한 실시예들에서, 복호화부(115)는 현재 블록의 예측 샘플들 및 현재 블록의 레지듀얼 블록을 기초로 현재 블록을 복원할 수 있다.
도 1b는 다양한 실시예들에 따른 영상 복호화 장치(100)의 블록도를 도시한다. 영상 복호화 장치(100)는 도 1a에 도시된 영상 복호화 장치(100)일 수 있다.
다양한 실시예들에 따른 영상 복호화 장치(100)는 메모리(120) 및 메모리(120)에 접속된 적어도 하나의 프로세서(125)를 포함할 수 있다. 다양한 실시예들에 따른 영상 복호화 장치(100)의 동작들은 개별적인 프로세서로서 작동하거나, 중앙 프로세서의 제어에 의해 작동될 수 있다. 또한, 영상 복호화 장치(100)의 메모리(120)는, 외부로부터 수신한 데이터와, 프로세서에 의해 생성된 데이터를 저장할 수 있다.
다양한 실시예들에 따른 영상 복호화 장치(100)의 메모리(120)는, 적어도 하나의 프로세서(125)에 의해 실행 가능하도록 구성되는 적어도 하나의 명령어를 포함할 수 있다. 상기 적어도 하나의 명령어는, 실행 시에, 적어도 하나의 프로세서(125)로 하여금, 현재 블록이 인터 예측될 때, 상기 현재 블록의 인터 예측 모드를 결정하고, 상기 현재 블록의 인터 예측 모드에 기초하여, 상기 현재 블록이 참조할 적어도 하나의 참조 샘플 위치를 결정하고, 상기 현재 블록의 인터 예측 모드에 기초하여, 상기 적어도 하나의 참조 샘플 위치에 대응되는 적어도 하나의 복원된 참조 샘플에 적용될 필터 정보를 결정하고,상기 필터 정보에 기초하여, 상기 적어도 하나의 복원된 참조 샘플에 필터링을 수행하고, 상기 필터링에 의해 생성된 예측 샘플들을 이용하여 상기 현재 블록을 복호화하도록 설정될 수 있다.
도 2는 다양한 실시예들에 따른 영상 복호화부(200)의 블록도를 도시한다.
다양한 실시예들에 따른 영상 복호화부(200)는, 도 1a 및 도 1b에 도시된 영상 복호화 장치(100)에서 영상 데이터를 복호화하는데 거치는 작업들을 수행할 수 있다.
도 2를 참조하면, 엔트로피 복호화부(215)는 비트스트림(205)으로부터 복호화 대상인 부호화된 영상 데이터 및 복호화를 위해 필요한 부호화 정보를 파싱한다. 부호화된 영상 데이터는 양자화된 변환계수로서, 역양자화부(220) 및 역변환부(225)는 양자화된 변환 계수로부터 레지듀 데이터를 복원한다.
인트라 예측부(240)는 블록 별로 인트라 예측을 수행한다. 인터 예측부(235)는 블록 별로 복원 픽처 버퍼(230)에서 획득된 참조 영상을 이용하여 인터 예측을 수행한다. 인터 예측부(235)는 도 1a의 인터 예측부(110)에 대응될 수 있다.
인트라 예측부(240) 또는 인터 예측부(235)에서 생성된 각 블록에 대한 예측 데이터와 레지듀 데이터가 더해짐으로써 현재 영상의 블록에 대한 공간 영역의 데이터가 복원되고, 디블로킹부(245) 및 SAO 수행부(250)는 복원된 공간 영역의 데이터에 대해 루프 필터링을 수행하여 필터링된 복원 영상(260)을 출력할 수 있다. 또한, 복원 픽쳐 버퍼(230)에 저장된 복원 영상들은 참조 영상으로서 출력될 수 있다.
영상 복호화 장치(100)에서 영상 데이터를 복호화하기 위해, 다양한 실시예에 따른 영상 복호화부(200)의 단계별 작업들이 블록별로 수행될 수 있다.
도 3은 다양한 실시예들에 따른 영상 복호화 방법의 흐름도를 도시한다.
S310 단계에서, 영상 복호화 장치(100)는 현재 블록의 인터 예측 모드를 결정할 수 있다. 영상 복호화 장치(100)는 비트스트림을 수신하고, 비트스트림으로부터 현재 블록의 인터 예측 모드에 관한 정보를 획득할 수 있다. 현재 블록의 인터 예측 모드에 관한 정보는 복수의 인터 예측 모드 중 현재 블록에 적용되는 인터 예측 모드에 관한 정보일 수 있다. 예를 들어, 인터 예측 모드는 머지 모드(merge mode), AMVP 모드(Advanced Motion Vector Prediction mode), 인터 스킵 모드(inter skip mode), OBMC 모드(Overlapped Block Motion Compensation mode), DMVR 모드(Decoder-side Motion Vector Refinement mode), 아핀 모드(Affine mode), BIO 모드(Bidirectional Optical Flow mode) 중 적어도 하나일 수 있다.
S320 단계에서, 영상 복호화 장치(100)는 현재 블록의 인터 예측 모드에 기초하여, 현재 블록이 참조할 적어도 하나의 참조 샘플 위치를 결정할 수 있다. 영상 복호화 장치(100)는 현재 블록의 인터 예측 모드에 기초하여, 현재 블록의 적어도 하나의 움직임 벡터 및 적어도 하나의 참조 픽처 인덱스를 획득할 수 있고, 참조 픽처 인덱스가 가리키는 참조 픽처 내에서 움직임 벡터가 가리키는 위치를 참조 샘플 위치로 결정할 수 있다.
다양한 실시예들에서, 보다 정확한 예측을 위해 참조 샘플 위치는 정수 화소(integer pixel) 사이에 위치하는 부화소(sub-pixel)를 가리킬 수 있다. 다양한 실시예들에서, 현재 블록의 인터 예측 모드에서 사용하는 움직임 벡터의 개수만큼의 참조 샘플 위치가 결정될 수 있다.
S330 단계에서, 영상 복호화 장치(100)는 현재 블록의 인터 예측 모드에 기초하여, 적어도 하나의 참조 샘플 위치에 대응되는 적어도 하나의 복원된 참조 샘플에 적용될 필터 정보를 결정할 수 있다. 영상 복호화 장치(100)는 정수 화소 위치의 참조 샘플 사이의 부화소 위치의 참조 샘플을 생성하기 위해, 정수 화소 위치의 참조 샘플들에 보간 필터를 적용할 수 있고, 상기 보간 필터에 관한 정보를 결정할 수 있다.
다양한 실시예들에서, 영상 복호화 장치(100)는 복원된 참조 픽처 내에서 참조 샘플 위치에 기초하여 필터를 적용할 적어도 하나의 복원된 참조 샘플을 결정할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은 참조 샘플 위치를 기준으로 일정한 범위 내에 위치하는 샘플들을 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은 현재 블록이 참조하는 참조 블록 내의 샘플들 및 상기 현재 블록의 참조 블록에 인접한 주변 샘플들을 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은 현재 블록에 인접한 주변 블록이 참조하는 참조 샘플들을 더 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은 상기 현재 블록의 주변 블록이 참조하는 참조 블록들에 인접한 주변 샘플들을 더 포함할 수 있다.
여러 실시예들에서, 영상 복호화 장치(100)는 참조 샘플 위치를 기준으로 일정한 범위 내에 위치하는 정수 화소 위치의 참조 샘플들을 보간 필터를 적용할 적어도 하나의 복원된 참조 샘플로 결정할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은, 현재 블록이 참조하는 참조 블록에 포함되는 부화소 위치의 참조 샘플들을 생성하기 위해 필요한 정수 화소 위치의 참조 샘플들을 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은, 상기 현재 블록의 참조 블록에 인접한 주변 부화소 위치의 참조 샘플을 생성하기 위해 필요한 정수 화소 위치의 참조 샘플들을 더 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은, 상기 현재 블록에 인접한 주변 블록이 참조하는 부화소 위치의 참조 샘플들을 생성하기 위해 필요한 정수 화소 위치의 참조 샘플들을 더 포함할 수 있다.
다양한 실시예들에서, 상기 필터 정보는 필터의 방향 및 크기 중 적어도 하나를 포함할 수 있다. 다양한 실시예들에서, 영상 복호화 장치(100)는 분리 가능한 2차원 필터를 사용하기로 결정할 수 있다. 일 실시예에서, 영상 복호화 장치(100)는 가로 방향 필터 및 세로 방향 필터를 각각 적용하기로 결정할 수 있다.
다양한 실시예들에서, 영상 복호화 장치(100)는 필터의 탭수를 소정의 값으로 결정함으로써 필터의 크기를 결정할 수 있다. 이때 소정의 값은 현재 블록의 인터 예측 모드에 따라 결정될 수 있다.
다양한 실시예들에서, 영상 복호화 장치(100)는 현재 블록의 크기에 기초하여 상기 필터 정보를 결정할 수 있다. 일 실시예에서, 영상 복호화 장치(100)는 현재 블록의 크기가 소정의 기준 값 이상인 경우 제1 필터를 사용하도록 결정하고, 그렇지 않을 경우 제2 필터를 사용하도록 결정할 수 있다. 일 실시예에서, 상기 제1 필터의 크기는 상기 제2 필터의 크기보다 클 수 있다. 일 실시예에서, 상기 소정의 기준 값은 현재 블록의 인터 예측 모드에 따라 결정될 수 있다. 일 실시예에서, 영상 복호화 장치(100)는 현재 블록의 크기를 복수의 기준값들과 비교할 수 있고, 비교 결과에 따라 복수의 필터들 중 어느 것을 사용할지 결정할 수 있다.
일 실시예에서, 영상 복호화 장치(100)는 현재 블록의 가로 너비에 기초하여 가로 방향 필터 정보를 결정하고, 현재 블록의 세로 길이에 기초하여 세로 방향 필터 정보를 결정할 수 있다. 일 실시예에서, 영상 복호화 장치(100)는 현재 블록이 비정방형일 경우 가로 방향 필터와 세로 방향 필터를 서로 다른 크기의 필터로 결정할 수 있다.
일 실시예에서, 영상 복호화 장치(100)는 현재 블록의 가로 너비와 세로 길이의 비율에 기초하여 가로 방향 필터 정보 및 세로 방향 필터 정보를 결정할 수 있다. 예를 들어, 현재 블록의 가로 방향 필터 정보가 결정된 경우, 영상 복호화 장치(100)는 상기 가로 방향 필터 정보와 현재 블록의 가로 너비와 세로 길이의 비율에 기초하여 세로 방향 필터 정보를 결정할 수 있다. 다른 예를 들어, 현재 블록의 세로 방향 필터 정보가 결정된 경우, 영상 복호화 장치(100)는 상기 세로 방향 필터 정보와 현재 블록의 가로 너비와 세로 길이의 비율에 기초하여 가로 방향 필터 정보를 결정할 수 있다. 일 실시예에서, 영상 복호화 장치(100)는 현재 블록의 가로 너비와 세로 길이에 비례하도록 가로 방향 필터의 크기 및 세로 방향 필터의 크기를 결정할 수 있다.
다양한 실시예들에서, 영상 복호화 장치(100)는 현재 블록이 루마 블록인지 크로마 블록인지에 기초하여 상기 필터 정보를 결정할 수 있다. 일 실시예에서, 영상 복호화 장치(100)는 현재 블록이 루마 블록인 경우 제1 필터를 사용하도록 결정하고, 현재 블록이 크로마 블록인 경우 제2 필터를 사용하도록 결정할 수 있다. 일 실시예에서, 상기 제1 필터의 크기는 상기 제2 필터의 크기의 두 배일 수 있다.
다양한 실시예들에서, 영상 복호화 장치(100)는 현재 블록의 인터 예측이 단방향 예측인지 양방향 예측인지에 기초하여 상기 필터 정보를 결정할 수 있다. 일 실시예에서, 영상 복호화 장치(100)는 현재 블록이 단방향 예측되는 경우 제1 필터를 사용하도록 결정하고, 현재 블록이 양방향 예측되는 경우 제2 필터를 사용하도록 결정할 수 있다. 일 실시예에서, 상기 제1 필터의 크기는 상기 제2 필터의 크기의 두 배일 수 있다.
다양한 실시예들에서, 영상 복호화 장치(100)는 현재 블록이 참조하는 참조 블록의 개수에 기초하여 상기 필터 정보를 결정할 수 있다. 일 실시예에서, 영상 복호화 장치(100)는 현재 블록이 참조하는 참조 블록의 개수를 복수의 기준값들과 비교할 수 있고, 비교 결과에 따라 복수의 필터들 중 어느 것을 사용할지 결정할 수 있다.
다양한 실시예들에서, 영상 복호화 장치(100)는 현재 블록의 인터 예측 모드에 기초하여 필터의 최대 크기를 결정할 수 있다. 예를 들어, 상기 현재 블록의 인터 예측 모드가 OBMC 모드인 경우, 영상 복호화 장치(100)는 필터의 크기를 2탭 이하로 결정할 수 있다. 예를 들어, 상기 현재 블록의 인터 예측 모드가 DMVR 모드인 경우, 영상 복호화 장치(100)는 필터의 크기를 4탭 이하로 결정할 수 있다. 예를 들어, 상기 현재 블록의 인터 예측 모드가 아핀 모드인 경우, 영상 복호화 장치(100)는 필터의 크기를 4탭 이하로 결정할 수 있다. 예를 들어, 상기 현재 블록의 인터 예측 모드가 BIO 모드인 경우, 영상 복호화 장치(100)는 필터의 크기를 8탭 이하로 결정할 수 있다.
다양한 실시예들에서, 영상 복호화 장치(100)는 현재 블록의 인터 예측에 필요한 메모리 대역폭이 소정의 범위 이내가 되도록 필터 정보를 결정할 수 있다. 상기 메모리 대역폭은, 현재 샘플을 처리하기 위하여 메모리에서 인출해야 하는 참조 샘플의 개수로 정의될 수 있다. 상기 메모리 대역폭은, 상기 현재 블록의 크기 및 상기 현재 블록의 인터 예측을 위해 필요한 복원된 참조 샘플들의 개수에 기초하여 결정되는 것일 수 있다.
다양한 실시예들에서, 영상 복호화 장치(100)는 현재 블록의 인터 예측 모드, 현재 블록의 크기, 현재 블록이 루마 블록인지 크로마 블록인지 여부, 현재 블록의 인터 예측이 단방향 예측인지 양방향 예측인지 여부 중 적어도 하나에 기초하여, 적어도 하나의 복원된 참조 샘플에 필터링을 수행하지 않기로 결정할 수 있다.
S340 단계에서, 영상 복호화 장치(100)는 상기 필터 정보에 기초하여, 적어도 하나의 복원된 참조 샘플에 필터링을 수행할 수 있다. 다양한 실시예들에서, 영상 복호화 장치(100)는 상기 필터 정보에 기초하여, 정수 화소 위치의 복원된 참조 샘플들에 보간 필터를 적용하여 부화소 위치의 참조 샘플을 생성할 수 있다. 다양한 실시예들에서, 영상 복호화 장치(100)는 정수 화소 위치의 참조 샘플들 및 부화소 위치의 참조 샘플들을 이용하여 현재 블록의 샘플들에 대응되는 예측 샘플들을 생성할 수 있다.
S350 단계에서, 영상 복호화 장치(100)는 상기 필터링에 의해 생성된 예측 샘플들을 이용하여 현재 블록을 복호화할 수 있다. 다양한 실시예들에서, 영상 복호화 장치(100)는 현재 블록의 예측 샘플들 및 현재 블록의 레지듀얼 블록을 기초로 현재 블록을 복원할 수 있다.
도 4a는 다양한 실시예들에 따른 영상 부호화 장치(400)의 블록도를 도시한다.
영상 부호화 장치(400)는 인터 예측부(405) 및 부호화부(410)를 포함할 수 있다. 인터 예측부(405) 및 부호화부(410)는 적어도 하나의 프로세서를 포함할 수 있다. 또한 인터 예측부(405) 및 부호화부(410)는 적어도 하나의 프로세서가 수행할 명령어들을 저장하는 메모리를 포함할 수 있다.
인터 예측부(405)는 현재 블록의 예측 모드가 인터 예측 모드인 경우, 복수의 인터 예측 모드들 중 현재 블록에 적용되는 인터 예측 모드를 결정할 수 있다. 다양한 실시예들에 따르면, 인터 예측부(405)는 현재 블록에 적용될 수 있는 인터 예측 모드의 부호화 효율에 따라, 현재 블록에 적용되는 인터 예측 모드를 결정할 수 있다. 예를 들어, 현재 블록에 적용될 수 있는 인터 예측 모드들에는, 머지 모드(merge mode), AMVP 모드(Advanced Motion Vector Prediction mode), 인터 스킵 모드(inter skip mode), OBMC 모드(Overlapped Block Motion Compensation mode), DMVR 모드(Decoder-side Motion Vector Refinement mode), 아핀 모드(Affine mode), BIO 모드(Bidirectional Optical Flow mode) 등이 포함될 수 있다.
다양한 실시예들에 따르면, 인터 예측부(405)는 현재 블록이 참조할 참조 블록의 개수를 결정할 수 있다. 예를 들어, 인터 예측부(405)는 현재 블록이 단방향 예측될지 또는 양방향 예측될지 여부를 결정할 수 있다.
인터 예측부(405)는 현재 블록의 인터 예측 모드에 기초하여, 현재 블록이 참조할 적어도 하나의 참조 샘플 위치를 결정할 수 있다. 다양한 실시예에 따르면, 인터 예측부(405)는 현재 블록의 인터 예측 모드에 기초하여, 적어도 하나의 참조 픽처 내에서 현재 블록과 가장 유사한 블록인 참조 블록을 결정하고, 현재 블록과 참조 블록 간의 위치 차이를 나타내는 움직임 벡터를 결정하는 움직임 예측을 수행할 수 있다.
이 때 보다 정확한 움직임 예측을 위해, 참조 픽처의 정수 화소 위치의 참조 샘플들 사이의 부화소 위치의 참조 샘플들을 생성하고, 부화소 위치의 참조 샘플을 가리키는 부화소 단위의 움직임 벡터를 결정할 수 있다. 예를 들어 부화소 위치의 참조 샘플들은 1/4-화소 단위로 생성될 수 있다. 그러나 이에 한정되지 아니하고, 부화소 위치의 참조 샘플들은 1/8-화소 단위 또는 더 작은 단위로 생성될 수 있다.
다양한 실시예에 따르면, 인터 예측부(405)는 참조 픽처 내에서 움직임 벡터가 가리키는 위치를 참조 샘플 위치로 결정할 수 있다. 다양한 실시예들에서, 참조 샘플 위치는 참조 픽처 내에서 현재 블록이 참조하는 참조 블록의 좌측 상단의 위치를 나타내는 것일 수 있다. 참조 샘플 위치는 현재 블록의 좌측 상단의 좌표에 현재 블록의 움직임 벡터 성분을 더한 좌표로 결정될 수 있다.
다양한 실시예들에서, 현재 블록의 인터 예측 모드에서 사용하는 움직임 벡터의 개수만큼의 참조 샘플 위치가 결정될 수 있다. 예를 들어, 현재 블록이 단방향 예측되는 경우 하나의 참조 샘플 위치가 결정될 수 있다. 예를 들어, 현재 블록이 양방향 예측되는 경우 두 개의 참조 샘플 위치가 결정될 수 있다.
인터 예측부(405)는 현재 블록의 인터 예측 모드에 기초하여, 적어도 하나의 참조 샘플 위치에 대응되는 적어도 하나의 복원된 참조 샘플에 적용될 필터 정보를 결정할 수 있다. 인터 예측부(405)는 정수 화소 위치의 참조 샘플 사이의 부화소 위치의 참조 샘플을 생성하기 위해, 정수 화소 위치의 참조 샘플들에 보간 필터를 적용할 수 있고, 상기 보간 필터에 관한 정보를 결정할 수 있다.
다양한 실시예들에서, 인터 예측부(405)는 복원된 참조 픽처 내에서 참조 샘플 위치에 기초하여 필터를 적용할 적어도 하나의 복원된 참조 샘플을 결정할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은 참조 샘플 위치를 기준으로 일정한 범위 내에 위치하는 샘플들을 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은 현재 블록이 참조하는 참조 블록 내의 샘플들 및 상기 현재 블록의 참조 블록에 인접한 주변 샘플들을 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은 현재 블록에 인접한 주변 블록이 참조하는 참조 샘플들을 더 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은 상기 현재 블록의 주변 블록이 참조하는 참조 블록들에 인접한 주변 샘플들을 더 포함할 수 있다.
여러 실시예들에서, 인터 예측부(405)는 참조 샘플 위치를 기준으로 일정한 범위 내에 위치하는 정수 화소 위치의 참조 샘플들을 보간 필터를 적용할 적어도 하나의 복원된 참조 샘플로 결정할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은, 현재 블록이 참조하는 참조 블록에 포함되는 부화소 위치의 참조 샘플들을 생성하기 위해 필요한 정수 화소 위치의 참조 샘플들을 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은, 상기 현재 블록의 참조 블록에 인접한 주변 부화소 위치의 참조 샘플을 생성하기 위해 필요한 정수 화소 위치의 참조 샘플들을 더 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은, 상기 현재 블록에 인접한 주변 블록이 참조하는 부화소 위치의 참조 샘플들을 생성하기 위해 필요한 정수 화소 위치의 참조 샘플들을 더 포함할 수 있다.
다양한 실시예들에서, 상기 필터 정보는 필터의 방향 및 크기 중 적어도 하나를 포함할 수 있다. 다양한 실시예들에서, 인터 예측부(405)는 분리 가능한 2차원 필터를 사용하기로 결정할 수 있다. 일 실시예에서, 인터 예측부(405)는 가로 방향 필터 및 세로 방향 필터를 각각 적용하기로 결정할 수 있다.
다양한 실시예들에서, 인터 예측부(405)는 필터의 탭수를 소정의 값으로 결정함으로써 필터의 크기를 결정할 수 있다. 필터의 탭수는 부화소 위치의 참조 샘플을 생성하기 위해 필요한 정수 화소 위치의 참조 샘플의 개수를 의미할 수 있다. 이때 소정의 값은 현재 블록의 인터 예측 모드에 따라 결정될 수 있다.
다양한 실시예들에서, 인터 예측부(405)는 현재 블록의 크기에 기초하여 상기 필터 정보를 결정할 수 있다. 여러 실시예들에서, 인터 예측부(405)는 현재 블록의 크기에 기초하여 필터의 크기를 결정할 수 있다.
일 실시예에서, 인터 예측부(405)는 현재 블록의 크기가 소정의 기준 값 이상인 경우 제1 필터를 사용하도록 결정하고, 그렇지 않을 경우 제2 필터를 사용하도록 결정할 수 있다. 일 실시예에서, 상기 제1 필터의 크기는 상기 제2 필터의 크기보다 클 수 있다. 일 실시예에서, 상기 소정의 기준 값은 현재 블록의 인터 예측 모드에 따라 결정될 수 있다. 일 실시예에서, 인터 예측부(405)는 현재 블록의 크기를 복수의 기준값들과 비교할 수 있고, 비교 결과에 따라 복수의 필터들 중 어느 것을 사용할지 결정할 수 있다.
일 실시예에서, 인터 예측부(405)는 현재 블록의 가로 너비에 기초하여 가로 방향 필터 정보를 결정하고, 현재 블록의 세로 길이에 기초하여 세로 방향 필터 정보를 결정할 수 있다. 일 실시예에서, 인터 예측부(405)는 현재 블록이 비정방형일 경우 가로 방향 필터와 세로 방향 필터를 서로 다른 크기의 필터로 결정할 수 있다. 일 실시예에서, 인터 예측부(405)는 현재 블록이 비정방형일 경우 가로 방향 필터의 탭수와 세로 방향 필터의 탭수를 서로 다르게 결정할 수 있다.
일 실시예에서, 인터 예측부(405)는 현재 블록의 가로 너비와 세로 길이의 비율에 기초하여 가로 방향 필터 정보 및 세로 방향 필터 정보를 결정할 수 있다. 예를 들어, 현재 블록의 가로 방향 필터 정보가 결정된 경우, 인터 예측부(405)는 상기 가로 방향 필터 정보와 현재 블록의 가로 너비와 세로 길이의 비율에 기초하여 세로 방향 필터 정보를 결정할 수 있다. 다른 예를 들어, 현재 블록의 세로 방향 필터 정보가 결정된 경우, 인터 예측부(405)는 상기 세로 방향 필터 정보와 현재 블록의 가로 너비와 세로 길이의 비율에 기초하여 가로 방향 필터 정보를 결정할 수 있다. 일 실시예에서, 인터 예측부(405)는 현재 블록의 가로 너비와 세로 길이에 비례하도록 가로 방향 필터의 크기 및 세로 방향 필터의 크기를 결정할 수 있다.
다양한 실시예들에서, 인터 예측부(405)는 현재 블록이 루마 블록인지 크로마 블록인지에 기초하여 상기 필터 정보를 결정할 수 있다. 일 실시예에서, 인터 예측부(405)는 현재 블록이 루마 블록인 경우 제1 필터를 사용하도록 결정하고, 현재 블록이 크로마 블록인 경우 제2 필터를 사용하도록 결정할 수 있다. 일 실시예에서, 상기 제1 필터의 크기는 상기 제2 필터의 크기의 두 배일 수 있다.
다양한 실시예들에서, 인터 예측부(405)는 현재 블록의 인터 예측이 단방향 예측인지 양방향 예측인지에 기초하여 상기 필터 정보를 결정할 수 있다. 일 실시예에서, 인터 예측부(405)는 현재 블록이 단방향 예측되는 경우 제1 필터를 사용하도록 결정하고, 현재 블록이 양방향 예측되는 경우 제2 필터를 사용하도록 결정할 수 있다. 일 실시예에서, 상기 제1 필터의 크기는 상기 제2 필터의 크기의 두 배일 수 있다.
다양한 실시예들에서, 인터 예측부(405)는 현재 블록이 참조하는 참조 블록의 개수에 기초하여 상기 필터 정보를 결정할 수 있다. 일 실시예에서, 인터 예측부(405)는 현재 블록이 참조하는 참조 블록의 개수를 복수의 기준값들과 비교할 수 있고, 비교 결과에 따라 복수의 필터들 중 어느 것을 사용할지 결정할 수 있다.
다양한 실시예들에서, 인터 예측부(405)는 현재 블록의 인터 예측 모드에 기초하여 필터의 최대 크기를 결정할 수 있다. 예를 들어, 상기 현재 블록의 인터 예측 모드가 OBMC 모드인 경우, 인터 예측부(405)는 필터의 크기를 2탭 이하로 결정할 수 있다. 예를 들어, 상기 현재 블록의 인터 예측 모드가 DMVR 모드인 경우, 인터 예측부(405)는 필터의 크기를 4탭 이하로 결정할 수 있다. 예를 들어, 상기 현재 블록의 인터 예측 모드가 아핀 모드인 경우, 인터 예측부(405)는 필터의 크기를 4탭 이하로 결정할 수 있다. 예를 들어, 상기 현재 블록의 인터 예측 모드가 BIO 모드인 경우, 인터 예측부(405)는 필터의 크기를 8탭 이하로 결정할 수 있다.
다양한 실시예들에서, 인터 예측부(405)는 현재 블록의 인터 예측에 필요한 메모리 대역폭이 소정의 범위 이내가 되도록 필터 정보를 결정할 수 있다. 상기 메모리 대역폭은, 현재 샘플을 부호화하기 위하여 메모리에서 인출해야 하는 참조 샘플의 개수로 정의될 수 있다. 상기 메모리 대역폭은, 상기 현재 블록의 크기 및 상기 현재 블록의 인터 예측을 위해 필요한 복원된 참조 샘플들의 개수에 기초하여 결정되는 것일 수 있다.
다양한 실시예들에서, 인터 예측부(405)는 현재 블록의 인터 예측 모드, 현재 블록의 크기, 현재 블록이 루마 블록인지 크로마 블록인지 여부, 현재 블록의 인터 예측이 단방향 예측인지 양방향 예측인지 여부 중 적어도 하나에 기초하여, 적어도 하나의 복원된 참조 샘플에 필터링을 수행하지 않기로 결정할 수 있다.
인터 예측부(405)는 상기 필터 정보에 기초하여, 적어도 하나의 복원된 참조 샘플에 필터링을 수행할 수 있다. 다양한 실시예들에서, 인터 예측부(405)는 상기 필터 정보에 기초하여, 정수 화소 위치의 복원된 참조 샘플들에 보간 필터를 적용하여 부화소 위치의 참조 샘플을 생성할 수 있다.
다양한 실시예들에서, 인터 예측부(405)는 현재 블록의 인터 예측 모드에 기초하여, 정수 화소 위치의 참조 샘플들 및 부화소 위치의 참조 샘플들을 이용하여 현재 블록과 가장 유사한 적어도 하나의 참조 블록을 결정할 수 있다. 다양한 실시예들에서, 인터 예측부(405)는 현재 블록과 참조 블록 간의 위치 차이를 움직임 벡터로 결정할 수 있다.
다양한 실시예들에서, 인터 예측부(405)는 참조 블록의 샘플들로부터 현재 블록의 샘플들에 대응되는 예측 샘플들을 생성할 수 있다.
부호화부(410)는 상기 필터링에 의해 생성된 예측 샘플들을 이용하여 현재 블록을 부호화할 수 있다. 다양한 실시예들에서, 부호화부(410)는 현재 블록의 샘플 값과 현재 블록의 예측 샘플값 간의 레지듀얼 값을 획득하고, 상기 레지듀얼 값을 부호화할 수 있다.
다양한 실시예들에서, 부호화부(410)는 현재 블록의 적어도 하나의 움직임 벡터에 관련된 정보를 부호화할 수 있다. 다양한 실시예들에서, 부호화부(410)는 현재 블록의 적어도 하나의 참조 픽처 인덱스를 부호화할 수 있다. 다양한 실시예들에서, 부호화부(410)는 현재 블록의 인터 예측 모드에 관한 정보를 부호화할 수 있다.
도 4b는 다양한 실시예들에 따른 영상 부호화 장치(400)의 블록도를 도시한다. 영상 부호화 장치(400)는 도 4a에 도시된 영상 부호화 장치(400)일 수 있다.
다양한 실시예들에 따른 영상 부호화 장치(400)는 메모리(420) 및 메모리(420)에 접속된 적어도 하나의 프로세서(425)를 포함할 수 있다. 다양한 실시예들에 따른 영상 부호화 장치(400)의 동작들은 개별적인 프로세서로서 작동하거나, 중앙 프로세서의 제어에 의해 작동될 수 있다. 또한, 영상 부호화 장치(400)의 메모리(420)는, 외부로부터 수신한 데이터와, 프로세서에 의해 생성된 데이터를 저장할 수 있다.
다양한 실시예들에 따른 영상 부호화 장치(400)의 메모리(420)는, 적어도 하나의 프로세서(425)에 의해 실행 가능하도록 구성되는 적어도 하나의 명령어를 포함할 수 있다. 상기 적어도 하나의 명령어는, 실행 시에, 적어도 하나의 프로세서(425)로 하여금, 현재 블록이 인터 예측될 때, 상기 현재 블록의 인터 예측 모드를 결정하고, 상기 현재 블록의 인터 예측 모드에 기초하여, 상기 현재 블록이 참조할 적어도 하나의 참조 샘플 위치를 결정하고, 상기 현재 블록의 인터 예측 모드에 기초하여, 상기 적어도 하나의 참조 샘플 위치에 대응되는 적어도 하나의 복원된 참조 샘플에 적용될 필터 정보를 결정하고,상기 필터 정보에 기초하여, 상기 적어도 하나의 복원된 참조 샘플에 필터링을 수행하고, 상기 필터링에 의해 생성된 예측 샘플들을 이용하여 상기 현재 블록을 부호화하도록 설정될 수 있다.
도 5는 다양한 실시예들에 따른 영상 부호화부(500)의 블록도를 도시한다.
다양한 실시예들에 따른 영상 부호화부(500)는, 도 4a 및 도 4b에 도시된 영상 부호화 장치(400)에서 영상 데이터를 부호화하는데 거치는 작업들을 수행할 수 있다.
인트라 예측부(520)는 현재 영상(505) 중 블록별로 인트라 예측을 수행하고, 인터 예측부(515)는 블록별로 현재 영상(505) 및 복원 픽처 버퍼(510)에서 획득된 참조 영상을 이용하여 인터 예측을 수행한다. 도 5의 인터 예측부(520)는 도 4a의 인터 예측부(405)에 대응될 수 있다.
인트라 예측부(520) 또는 인터 예측부(5150)로부터 출력된 각 블록에 대한 예측 데이터를 현재 영상(505)의 인코딩되는 블록에 대한 데이터로부터 빼줌으로써 레지듀 데이터를 생성하고, 변환부(525) 및 양자화부(530)는 레지듀 데이터에 대해 변환 및 양자화를 수행하여 블록별로 양자화된 변환 계수를 출력할 수 있다.
역양자화부(545), 역변환부(550)는 양자화된 변환 계수에 대해 역양자화 및 역변환을 수행하여 공간 영역의 레지듀 데이터를 복원할 수 있다. 복원된 공간 영역의 레지듀 데이터는 인트라 예측부(520) 또는 인터 예측부(515)로부터 출력된 각 블록에 대한 예측 데이터와 더해짐으로써 현재 영상(505)의 블록에 대한 공간 영역의 데이터로 복원된다. 디블로킹부(555) 및 SAO 수행부는 복원된 공간 영역의 데이터에 대해 인루프 필터링을 수행하여, 필터링된 복원 영상을 생성한다. 생성된 복원 영상은 복원 픽쳐 버퍼(510)에 저장된다. 복원 픽처 버퍼(510)에 저장된 복원 영상들은 다른 영상의 인터예측을 위한 참조 영상으로 이용될 수 있다. 엔트로피 부호화부(535)는 양자화된 변환 계수에 대해 엔트로피 부호화하고, 엔트로피 부호화된 계수가 비트스트림(540)으로 출력될 수 있다.
영상 부호화 장치(400)에서 영상 데이터를 부호화하기 위해, 다양한 실시예에 따른 영상 부호화부(500)의 단계별 작업들이 블록별로 수행될 수 있다.
도 6은 다양한 실시예들에 따른 영상 부호화 방법의 흐름도를 도시한다.
S610 단계에서, 영상 부호화 장치(400)는 현재 블록의 인터 예측 모드를 결정할 수 있다. 다양한 실시예들에 따르면, 영상 부호화 장치(400)는 현재 블록에 적용될 수 있는 인터 예측 모드들의 부호화 효율에 따라, 현재 블록의 인터 예측 모드를 결정할 수 있다. 예를 들어, 현재 블록에 적용될 수 있는 인터 예측 모드들에는, 머지 모드(merge mode), AMVP 모드(Advanced Motion Vector Prediction mode), 인터 스킵 모드(inter skip mode), OBMC 모드(Overlapped Block Motion Compensation mode), DMVR 모드(Decoder-side Motion Vector Refinement mode), 아핀 모드(Affine mode), BIO 모드(Bidirectional Optical Flow mode) 등이 포함될 수 있다. 다양한 실시예들에 따르면, 인터 예측부(405)는 현재 블록이 단방향 예측될지 또는 양방향 예측될지 여부를 결정할 수 있다.
다양한 실시예들에 따르면, 영상 부호화 장치(400)는 현재 블록이 참조할 참조 블록의 개수를 결정할 수 있다. 예를 들어, 영상 부호화 장치(400)는 현재 블록이 단방향 예측될지 또는 양방향 예측될지 여부를 결정할 수 있다.
S620 단계에서, 영상 부호화 장치(400)는 현재 블록의 인터 예측 모드에 기초하여, 현재 블록이 참조할 적어도 하나의 참조 샘플 위치를 결정할 수 있다. 다양한 실시예에 따르면, 영상 부호화 장치(400)는 현재 블록의 인터 예측 모드에 기초하여, 적어도 하나의 참조 픽처 내에서 현재 블록과 가장 유사한 블록인 참조 블록을 결정하고, 현재 블록과 참조 블록 같의 위치 차이를 나타내는 움직임 벡터를 결정하는 움직임 예측을 수행할 수 있다.
이 때 보다 정확한 움직임 예측을 위해, 참조 픽처의 정수 화소 위치의 참조 샘플들 사이의 부화소 위치의 참조 샘플들을 생성하고, 결정된 참조 샘플을 가리키는 부화소 단위의 움직임 벡터를 결정할 수 있다.
다양한 실시예에 따르면, 영상 부호화 장치(400)는 참조 픽처 내에서 움직임 벡터가 가리키는 위치를 참조 샘플 위치로 결정할 수 있다. 다양한 실시예들에서, 현재 블록의 인터 예측 모드에서 사용하는 움직임 벡터의 개수만큼의 참조 샘플 위치가 결정될 수 있다.
S630 단계에서, 영상 부호화 장치(400)는 현재 블록의 인터 예측 모드에 기초하여, 적어도 하나의 참조 샘플 위치에 대응되는 적어도 하나의 복원된 참조 샘플에 적용될 필터 정보를 결정할 수 있다. 영상 부호화 장치(400)는 정수 화소 위치의 참조 샘플 사이의 부화소 위치의 참조 샘플을 생성하기 위해, 정수 화소 위치의 참조 샘플들에 보간 필터를 적용할 수 있고, 상기 보간 필터에 관한 정보를 결정할 수 있다.
다양한 실시예들에서, 영상 부호화 장치(400)는 복원된 참조 픽처 내에서 참조 샘플 위치에 기초하여 필터를 적용할 적어도 하나의 복원된 참조 샘플을 결정할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은 참조 샘플 위치를 기준으로 일정한 범위 내에 위치하는 샘플들을 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은 현재 블록이 참조하는 참조 블록 내의 샘플들 및 상기 현재 블록의 참조 블록에 인접한 주변 샘플들을 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은 현재 블록에 인접한 주변 블록이 참조하는 참조 샘플들을 더 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은 상기 현재 블록의 주변 블록이 참조하는 참조 블록들에 인접한 주변 샘플들을 더 포함할 수 있다.
여러 실시예들에서, 영상 부호화 장치(400)는 참조 샘플 위치를 기준으로 일정한 범위 내에 위치하는 정수 화소 위치의 참조 샘플들을 보간 필터를 적용할 적어도 하나의 복원된 참조 샘플로 결정할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은, 현재 블록이 참조하는 참조 블록에 포함되는 부화소 위치의 참조 샘플들을 생성하기 위해 필요한 정수 화소 위치의 참조 샘플들을 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은, 상기 현재 블록의 참조 블록에 인접한 주변 부화소 위치의 참조 샘플을 생성하기 위해 필요한 정수 화소 위치의 참조 샘플들을 더 포함할 수 있다. 여러 실시예들에서, 상기 적어도 하나의 복원된 참조 샘플은, 상기 현재 블록에 인접한 주변 블록이 참조하는 부화소 위치의 참조 샘플들을 생성하기 위해 필요한 정수 화소 위치의 참조 샘플들을 더 포함할 수 있다.
다양한 실시예들에서, 상기 필터 정보는 필터의 방향 및 크기 중 적어도 하나를 포함할 수 있다. 다양한 실시예들에서, 영상 부호화 장치(400)는 분리 가능한 2차원 필터를 사용하기로 결정할 수 있다. 일 실시예에서, 영상 부호화 장치(400)는 가로 방향 필터 및 세로 방향 필터를 각각 적용하기로 결정할 수 있다.
다양한 실시예들에서, 영상 부호화 장치(400)는 필터의 탭수를 소정의 값으로 결정함으로써 필터의 크기를 결정할 수 있다. 이때 소정의 값은 현재 블록의 인터 예측 모드에 따라 결정될 수 있다.
다양한 실시예들에서, 영상 부호화 장치(400)는 현재 블록의 크기에 기초하여 상기 필터 정보를 결정할 수 있다. 일 실시예에서, 영상 부호화 장치(400)는 현재 블록의 크기가 소정의 기준 값 이상인 경우 제1 필터를 사용하도록 결정하고, 그렇지 않을 경우 제2 필터를 사용하도록 결정할 수 있다. 일 실시예에서, 상기 제1 필터의 크기는 상기 제2 필터의 크기보다 클 수 있다. 일 실시예에서, 영상 부호화 장치(400)는 현재 블록의 크기를 복수의 기준값들과 비교할 수 있고, 비교 결과에 따라 복수의 필터들 중 어느 것을 사용할지 결정할 수 있다.
일 실시예에서, 영상 부호화 장치(400)는 현재 블록의 가로 너비에 기초하여 가로 방향 필터 정보를 결정하고, 현재 블록의 세로 길이에 기초하여 세로 방향 필터 정보를 결정할 수 있다. 일 실시예에서, 영상 부호화 장치(400)는 현재 블록이 비정방형일 경우 가로 방향 필터와 세로 방향 필터를 서로 다른 크기의 필터로 결정할 수 있다. 일 실시예에서, 영상 부호화 장치(400)는 현재 블록이 비정방형일 경우 가로 방향 필터의 탭수와 세로 방향 필터의 탭수를 서로 다르게 결정할 수 있다.
일 실시예에서, 영상 부호화 장치(400)는 현재 블록의 가로 너비와 세로 길이의 비율에 기초하여 가로 방향 필터 정보 및 세로 방향 필터 정보를 결정할 수 있다. 예를 들어, 현재 블록의 가로 방향 필터 정보가 결정된 경우, 영상 부호화 장치(400)는 상기 가로 방향 필터 정보와 현재 블록의 가로 너비와 세로 길이의 비율에 기초하여 세로 방향 필터 정보를 결정할 수 있다. 다른 예를 들어, 현재 블록의 세로 방향 필터 정보가 결정된 경우, 영상 부호화 장치(400)는 상기 세로 방향 필터 정보와 현재 블록의 가로 너비와 세로 길이의 비율에 기초하여 가로 방향 필터 정보를 결정할 수 있다. 일 실시예에서, 영상 부호화 장치(400)는 현재 블록의 가로 너비와 세로 길이에 비례하도록 가로 방향 필터의 크기 및 세로 방향 필터의 크기를 결정할 수 있다.
다양한 실시예들에서, 영상 부호화 장치(400)는 현재 블록이 루마 블록인지 크로마 블록인지에 기초하여 상기 필터 정보를 결정할 수 있다. 일 실시예에서, 영상 부호화 장치(400)는 현재 블록이 루마 블록인 경우 제1 필터를 사용하도록 결정하고, 현재 블록이 크로마 블록인 경우 제2 필터를 사용하도록 결정할 수 있다. 일 실시예에서, 상기 제1 필터의 크기는 상기 제2 필터의 크기의 두 배일 수 있다.
다양한 실시예들에서, 영상 부호화 장치(400)는 현재 블록의 인터 예측이 단방향 예측인지 양방향 예측인지에 기초하여 상기 필터 정보를 결정할 수 있다. 일 실시예에서, 영상 부호화 장치(400)는 현재 블록이 단방향 예측되는 경우 제1 필터를 사용하도록 결정하고, 현재 블록이 양방향 예측되는 경우 제2 필터를 사용하도록 결정할 수 있다. 일 실시예에서, 상기 제1 필터의 크기는 상기 제2 필터의 크기의 두 배일 수 있다.
다양한 실시예들에서, 영상 부호화 장치(400)는 현재 블록이 참조하는 참조 블록의 개수에 기초하여 상기 필터 정보를 결정할 수 있다. 일 실시예에서, 영상 부호화 장치(400)는 현재 블록이 참조하는 참조 블록의 개수를 복수의 기준값들과 비교할 수 있고, 비교 결과에 따라 복수의 필터들 중 어느 것을 사용할지 결정할 수 있다.
다양한 실시예들에서, 영상 부호화 장치(400)는 현재 블록의 인터 예측 모드에 기초하여 필터의 최대 크기를 결정할 수 있다. 예를 들어, 상기 현재 블록의 인터 예측 모드가 OBMC 모드인 경우, 영상 부호화 장치(400)는 필터의 크기를 2탭 이하로 결정할 수 있다. 예를 들어, 상기 현재 블록의 인터 예측 모드가 DMVR 모드인 경우, 영상 부호화 장치(400)는 필터의 크기를 4탭 이하로 결정할 수 있다. 예를 들어, 상기 현재 블록의 인터 예측 모드가 아핀 모드인 경우, 영상 부호화 장치(400)는 필터의 크기를 4탭 이하로 결정할 수 있다. 예를 들어, 상기 현재 블록의 인터 예측 모드가 BIO 모드인 경우, 영상 부호화 장치(400)는 필터의 크기를 8탭 이하로 결정할 수 있다.
다양한 실시예들에서, 영상 부호화 장치(400)는 현재 블록의 인터 예측에 필요한 메모리 대역폭이 소정의 범위 이내가 되도록 필터 정보를 결정할 수 있다. 상기 메모리 대역폭은, 현재 샘플을 처리하기 위하여 메모리에서 인출해야 하는 참조 샘플의 개수로 정의될 수 있다. 상기 메모리 대역폭은, 상기 현재 블록의 크기 및 상기 현재 블록의 인터 예측을 위해 필요한 복원된 참조 샘플들의 개수에 기초하여 결정되는 것일 수 있다.
다양한 실시예들에서, 영상 부호화 장치(400)는 현재 블록의 인터 예측 모드, 현재 블록의 크기, 현재 블록이 루마 블록인지 크로마 블록인지 여부, 현재 블록의 인터 예측이 단방향 예측인지 양방향 예측인지 여부 중 적어도 하나에 기초하여, 적어도 하나의 복원된 참조 샘플에 필터링을 수행하지 않기로 결정할 수 있다.
S640 단계에서, 영상 부호화 장치(400)는 상기 필터 정보에 기초하여, 적어도 하나의 복원된 참조 샘플에 필터링을 수행할 수 있다. 다양한 실시예들에서, 영상 부호화 장치(400)는 상기 필터 정보에 기초하여, 정수 화소 위치의 복원된 참조 샘플들에 보간 필터를 적용하여 부화소 위치의 참조 샘플을 생성할 수 있다.
다양한 실시예들에서, 영상 부호화 장치(400)는 현재 블록의 인터 예측 모드에 기초하여, 정수 화소 위치의 참조 샘플들 및 부화소 위치의 참조 샘플들을 이용하여 현재 블록과 가장 유사한 적어도 하나의 참조 블록을 결정할 수 있다. 다양한 실시예들에서, 영상 부호화 장치(400)는 현재 블록과 참조 블록 간의 위치 차이를 움직임 벡터로 결정할 수 있다. 다양한 실시예들에서, 영상 부호화 장치(400)는 참조 블록의 샘플들로부터 현재 블록의 샘플들에 대응되는 예측 샘플들을 생성할 수 있다.
S650 단계에서, 영상 부호화 장치(400)는 상기 필터링에 의해 생성된 예측 샘플들을 이용하여 현재 블록을 부호화할 수 있다. 다양한 실시예들에서, 영상 부호화 장치(400)는 현재 블록의 샘플 값과 현재 블록의 예측 샘플값 간의 레지듀얼 값을 획득하고, 상기 레지듀얼 값을 부호화할 수 있다. 다양한 실시예들에서, 영상 부호화 장치(400)는 현재 블록의 적어도 하나의 움직임 벡터에 관련된 정보를 부호화할 수 있다. 다양한 실시예들에서, 영상 부호화 장치(400)는 현재 블록의 적어도 하나의 참조 픽처 인덱스를 부호화할 수 있다. 다양한 실시예들에서, 영상 부호화 장치(400)는 현재 블록의 인터 예측 모드에 관한 정보를 부호화할 수 있다.
이하 본 개시의 다양한 실시예들에 따라 부호화 단위의 분할에 대하여 자세히 설명한다.
먼저 하나의 픽처 (Picture)는 하나 이상의 슬라이스로 분할될 수 있다. 하나의 슬라이스는 하나 이상의 최대 부호화 단위(Coding Tree Unit; CTU)의 시퀀스일 수 있다. 최대 부호화 단위 (CTU)와 대비되는 개념으로 최대 부호화 블록 (Coding Tree Block; CTB)이 있다.
최대 부호화 블록(CTB)은 NxN개의 샘플들을 포함하는 NxN 블록을 의미한다(N은 정수). 각 컬러 성분은 하나 이상의 최대 부호화 블록으로 분할될 수 있다.
픽처가 3개의 샘플 어레이(Y, Cr, Cb 성분별 샘플 어레이)를 가지는 경우에 최대 부호화 단위(CTU)란, 루마 샘플의 최대 부호화 블록 및 그에 대응되는 크로마 샘플들의 2개의 최대 부호화 블록과, 루마 샘플, 크로마 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽처가 모노크롬 픽처인 경우에 최대 부호화 단위란, 모노크롬 샘플의 최대 부호화 블록과 모노크롬 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽처가 컬러 성분별로 분리되는 컬러 플레인으로 부호화되는 픽처인 경우에 최대 부호화 단위란, 해당 픽처와 픽처의 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다.
하나의 최대 부호화 블록(CTB)은 MxN개의 샘플들을 포함하는 MxN 부호화 블록(coding block)으로 분할될 수 있다 (M, N은 정수).
픽처가 Y, Cr, Cb 성분별 샘플 어레이를 가지는 경우에 부호화 단위(Coding Unit; CU)란, 루마 샘플의 부호화 블록 및 그에 대응되는 크로마 샘플들의 2개의 부호화 블록과, 루마 샘플, 크로마 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽처가 모노크롬 픽처인 경우에 부호화 단위란, 모노크롬 샘플의 부호화 블록과 모노크롬 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽처가 컬러 성분별로 분리되는 컬러 플레인으로 부호화되는 픽처인 경우에 부호화 단위란, 해당 픽처와 픽처의 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다.
위에서 설명한 바와 같이, 최대 부호화 블록과 최대 부호화 단위는 서로 구별되는 개념이며, 부호화 블록과 부호화 단위는 서로 구별되는 개념이다. 즉, (최대) 부호화 단위는 해당 샘플을 포함하는 (최대) 부호화 블록과 그에 대응하는 신택스 구조를 포함하는 데이터 구조를 의미한다. 하지만 당업자가 (최대) 부호화 단위 또는 (최대) 부호화 블록가 소정 개수의 샘플들을 포함하는 소정 크기의 블록을 지칭한다는 것을 이해할 수 있으므로, 이하 명세서에서는 최대 부호화 블록과 최대 부호화 단위, 또는 부호화 블록과 부호화 단위를 특별한 사정이 없는 한 구별하지 않고 언급한다.
영상은 최대 부호화 단위(Coding Tree Unit; CTU)로 분할될 수 있다. 최대 부호화 단위의 크기는 비트스트림으로부터 획득된 정보에 기초하여 결정될 수 있다. 최대 부호화 단위의 모양은 동일 크기의 정사각형을 가질 수 있다. 하지만 이에 한정되는 것은 아니다.
예를 들어, 비트스트림으로부터 루마 부호화 블록의 최대 크기에 대한 정보가 획득될 수 있다. 예를 들어, 루마 부호화 블록의 최대 크기에 대한 정보가 나타내는 루마 부호화 블록의 최대 크기는 16x16, 32x32, 64x64, 128x128, 256x256 중 하나일 수 있다.
예를 들어, 비트스트림으로부터 2분할이 가능한 루마 부호화 블록의 최대 크기와 루마 블록 크기 차이에 대한 정보가 획득될 수 있다. 루마 블록 크기 차이에 대한 정보는 루마 최대 부호화 단위와 2분할이 가능한 최대 루마 부호화 블록 간의 크기 차이를 나타낼 수 있다. 따라서, 비트스트림으로부터 획득된 2분할이 가능한 루마 부호화 블록의 최대 크기에 대한 정보와 루마 블록 크기 차이에 대한 정보를 결합하면, 루마 최대 부호화 단위의 크기가 결정될 수 있다. 루마 최대 부호화 단위의 크기를 이용하면 크로마 최대 부호화 단위의 크기도 결정될 수 있다. 예를 들어, 컬러 포맷에 따라 Y: Cb : Cr 비율이 4:2:0 이라면, 크로마 블록의 크기는 루마 블록의 크기의 절반일 수 있고, 마찬가지로 크로마 최대 부호화 단위의 크기는 루마 최대 부호화 단위의 크기의 절반일 수 있다.
일 실시예에 따르면, 바이너리 분할(binary split)이 가능한 루마 부호화 블록의 최대 크기에 대한 정보는 비트스트림으로부터 획득하므로, 바이너리 분할이 가능한 루마 부호화 블록의 최대 크기는 가변적으로 결정될 수 있다. 이와 달리, 터너리 분할(ternary split)이 가능한 루마 부호화 블록의 최대 크기는 고정될 수 있다. 예를 들어, I 슬라이스에서 터너리 분할이 가능한 루마 부호화 블록의 최대 크기는 32x32이고, P 슬라이스 또는 B 슬라이스에서 터너리 분할이 가능한 루마 부호화 블록의 최대 크기는 64x64일 수 있다.
또한 최대 부호화 단위는 비트스트림으로부터 획득된 분할 형태 모드 정보에 기초하여 부호화 단위로 계층적으로 분할될 수 있다. 분할 형태 모드 정보로서, 쿼드분할(quad split) 여부를 나타내는 정보, 다분할 여부를 나타내는 정보, 분할 방향 정보 및 분할 타입 정보 중 적어도 하나가 비트스트림으로부터 획득될 수 있다.
예를 들어, 쿼드분할(quad split) 여부를 나타내는 정보는 현재 부호화 단위가 쿼드분할(QUAD_SPLIT)될지 또는 쿼드분할되지 않을지를 나타낼 수 있다.
현재 부호화 단위가 쿼드분할지되 않으면, 다분할 여부를 나타내는 정보는 현재 부호화 단위가 더 이상 분할되지 않을지(NO_SPLIT) 아니면 바이너리/터너리 분할될지 여부를 나타낼 수 있다.
현재 부호화 단위가 바이너리 분할되거나 터너리 분할되면, 분할 방향 정보는 현재 부호화 단위가 수평 방향 또는 수직 방향 중 하나로 분할됨을 나타낸다.
현재 부호화 단위가 수평 또는 수직 방향으로 분할되면 분할 타입 정보는 현재 부호화 단위를 바이너리 분할) 또는 터너리 분할로 분할함을 나타낸다.
분할 방향 정보 및 분할 타입 정보에 따라, 현재 부호화 단위의 분할 모드가 결정될 수 있다. 현재 부호화 단위가 수평 방향으로 바이너리 분할되는 경우의 분할 모드는 바이너리 수평 분할(SPLIT_BT_HOR), 수평 방향으로 터너리 분할되는 경우의 터너리 수평 분할(SPLIT_TT_HOR), 수직 방향으로 바이너리 분할되는 경우의 분할 모드는 바이너리 수직 분할 (SPLIT_BT_VER) 및 수직 방향으로 터너리 분할되는 경우의 분할 모드는 터너리 수직 분할 (SPLIT_BT_VER)로 결정될 수 있다.
영상 복호화 장치(100)는 비트스트림으로부터 분할 형태 모드 정보를 하나의 빈스트링으로부터 획득할 수 있다. 영상 복호화 장치(100)가 수신한 비트스트림의 형태는 Fixed length binary code, Unary code, Truncated unary code, 미리 결정된 바이너리 코드 등을 포함할 수 있다. 빈스트링은 정보를 2진수의 나열로 나타낸 것이다. 빈스트링은 적어도 하나의 비트로 구성될 수 있다. 영상 복호화 장치(100)는 분할 규칙에 기초하여 빈스트링에 대응하는 분할 형태 모드 정보를 획득할 수 있다. 영상 복호화 장치(100)는 하나의 빈스트링에 기초하여, 부호화 단위를 쿼드분할할지 여부, 분할하지 않을지 또는 분할 방향 및 분할 타입을 결정할 수 있다.
부호화 단위는 최대 부호화 단위보다 작거나 같을 수 있다. 예를 들어 최대 부호화 단위도 최대 크기를 가지는 부호화 단위이므로 부호화 단위의 하나이다. 최대 부호화 단위에 대한 분할 형태 모드 정보가 분할되지 않음을 나타내는 경우, 최대 부호화 단위에서 결정되는 부호화 단위는 최대 부호화 단위와 같은 크기를 가진다. 최대 부호화 단위에 대한 분할 형태 모드 정보가 분할됨을 나타내는 경우 최대 부호화 단위는 부호화 단위들로 분할 될 수 있다. 또한 부호화 단위에 대한 분할 형태 모드 정보가 분할을 나타내는 경우 부호화 단위들은 더 작은 크기의 부호화 단위들로 분할 될 수 있다. 다만, 영상의 분할은 이에 한정되는 것은 아니며 최대 부호화 단위 및 부호화 단위는 구별되지 않을 수 있다. 부호화 단위의 분할에 대해서는 도 3 내지 도 16에서 보다 자세히 설명한다.
또한 부호화 단위로부터 예측을 위한 하나 이상의 예측 블록이 결정될 수 있다. 예측 블록은 부호화 단위와 같거나 작을 수 있다. 또한 부호화 단위로부터 변환을 위한 하나 이상의 변환 블록이 결정될 수 있다. 변환 블록은 부호화 단위와 같거나 작을 수 있다.
변환 블록과 예측 블록의 모양 및 크기는 서로 관련 없을 수 있다.
다른 실시예로, 부호화 단위가 예측 블록으로서 부호화 단위를 이용하여 예측이 수행될 수 있다. 또한 부호화 단위가 변환 블록으로서 부호화 단위를 이용하여 변환이 수행될 수 있다.
부호화 단위의 분할에 대해서는 도 7 내지 도 20에서 보다 자세히 설명한다. 본 개시의 현재 블록 및 주변 블록은 최대 부호화 단위, 부호화 단위, 예측 블록 및 변환 블록 중 하나를 나타낼 수 있다. 또한, 현재 블록 또는 현재 부호화 단위는 현재 복호화 또는 부호화가 진행되는 블록 또는 현재 분할이 진행되고 있는 블록이다. 주변 블록은 현재 블록 이전에 복원된 블록일 수 있다. 주변 블록은 현재 블록으로부터 공간적 또는 시간적으로 인접할 수 있다. 주변 블록은 현재 블록의 좌하측, 좌측, 좌상측, 상측, 우상측, 우측, 우하측 중 하나에 위치할 수 있다.
도 7은 일 실시예에 따라 영상 복호화 장치(100)가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
블록 형태는 4Nx4N, 4Nx2N, 2Nx4N, 4NxN, Nx4N, 32NxN, Nx32N, 16NxN, Nx16N, 8NxN 또는 Nx8N을 포함할 수 있다. 여기서 N은 양의 정수일 수 있다. 블록 형태 정보는 부호화 단위의 모양, 방향, 너비 및 높이의 비율 또는 크기 중 적어도 하나를 나타내는 정보이다.
부호화 단위의 모양은 정사각형(square) 및 비-정사각형(non-square)을 포함할 수 있다. 부호화 단위의 너비 및 높이의 길이가 같은 경우(즉, 부호화 단위의 블록 형태가 4Nx4N 인 경우), 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보를 정사각형으로 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 모양을 비-정사각형으로 결정할 수 있다.
부호화 단위의 너비 및 높이의 길이가 다른 경우(즉, 부호화 단위의 블록 형태가 4Nx2N, 2Nx4N, 4NxN, Nx4N, 32NxN, Nx32N, 16NxN, Nx16N, 8NxN 또는 Nx8N인 경우), 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보를 비-정사각형으로 결정할 수 있다. 부호화 단위의 모양이 비-정사각형인 경우, 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보 중 너비 및 높이의 비율을 1:2, 2:1, 1:4, 4:1, 1:8, 8:1, 1:16, 16:1, 1:32, 32:1 중 적어도 하나로 결정할 수 있다. 또한, 부호화 단위의 너비의 길이 및 높이의 길이에 기초하여, 영상 복호화 장치(100)는 부호화 단위가 수평 방향인지 수직 방향인지 결정할 수 있다. 또한, 부호화 단위의 너비의 길이, 높이의 길이 또는 넓이 중 적어도 하나에 기초하여, 영상 복호화 장치(100)는 부호화 단위의 크기를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보를 이용하여 부호화 단위의 형태를 결정할 수 있고, 분할 형태 모드 정보를 이용하여 부호화 단위가 어떤 형태로 분할되는지를 결정할 수 있다. 즉, 영상 복호화 장치(100)가 이용하는 블록 형태 정보가 어떤 블록 형태를 나타내는지에 따라 분할 형태 모드 정보가 나타내는 부호화 단위의 분할 방법이 결정될 수 있다.
영상 복호화 장치(100)는 비트스트림으로부터 분할 형태 모드 정보를 획득할 수 있다. 하지만 이에 한정되는 것은 아니며, 영상 복호화 장치(100) 및 영상 부호화 장치(400)는 블록 형태 정보에 기초하여 미리 약속된 분할 형태 모드 정보를 결정할 수 있다. 영상 복호화 장치(100)는 최대 부호화 단위 또는 최소 부호화 단위에 대하여 미리 약속된 분할 형태 모드 정보를 결정할 수 있다. 예를 들어 영상 복호화 장치(100)는 최대 부호화 단위에 대하여 분할 형태 모드 정보를 쿼드 분할(quad split)로 결정할 수 있다. 또한, 영상 복호화 장치(100)는 최소 부호화 단위에 대하여 분할 형태 모드 정보를 "분할하지 않음"으로 결정할 수 있다. 구체적으로 영상 복호화 장치(100)는 최대 부호화 단위의 크기를 256x256으로 결정할 수 있다. 영상 복호화 장치(100)는 미리 약속된 분할 형태 모드 정보를 쿼드 분할로 결정할 수 있다. 쿼드 분할은 부호화 단위의 너비 및 높이를 모두 이등분하는 분할 형태 모드이다. 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 256x256 크기의 최대 부호화 단위로부터 128x128 크기의 부호화 단위를 획득할 수 있다. 또한 영상 복호화 장치(100)는 최소 부호화 단위의 크기를 4x4로 결정할 수 있다. 영상 복호화 장치(100)는 최소 부호화 단위에 대하여 "분할하지 않음"을 나타내는 분할 형태 모드 정보를 획득할 수 있다.
일 실시예에 따라, 영상 복호화 장치(100)는 현재 부호화 단위가 정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 예를 들어 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 정사각형의 부호화 단위를 분할하지 않을지, 수직으로 분할할지, 수평으로 분할할지, 4개의 부호화 단위로 분할할지 등을 결정할 수 있다. 도 3을 참조하면, 현재 부호화 단위(700)의 블록 형태 정보가 정사각형의 형태를 나타내는 경우, 복호화부(115)는 분할되지 않음을 나타내는 분할 형태 모드 정보에 따라 현재 부호화 단위(700)와 동일한 크기를 가지는 부호화 단위(710a)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 모드 정보에 기초하여 분할된 부호화 단위(710b, 710c, 710d, 710e, 710f 등)를 결정할 수 있다.
도 7을 참조하면 영상 복호화 장치(100)는 일 실시예에 따라 수직방향으로 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(700)를 수직방향으로 분할한 두 개의 부호화 단위(710b)를 결정할 수 있다. 영상 복호화 장치(100)는 수평방향으로 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(700)를 수평방향으로 분할한 두 개의 부호화 단위(710c)를 결정할 수 있다. 영상 복호화 장치(100)는 수직방향 및 수평방향으로 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(700)를 수직방향 및 수평방향으로 분할한 네 개의 부호화 단위(710d)를 결정할 수 있다. 영상 복호화 장치(100)는 일 실시예에 따라 수직방향으로 터너리(ternary) 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(700)를 수직방향으로 분할한 세 개의 부호화 단위(710e)를 결정할 수 있다. 영상 복호화 장치(100)는 수평방향으로 터너리 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(700)를 수평방향으로 분할한 세 개의 부호화 단위(710f)를 결정할 수 있다. 다만 정사각형의 부호화 단위가 분할될 수 있는 분할 형태는 상술한 형태로 한정하여 해석되어서는 안되고, 분할 형태 모드 정보가 나타낼 수 있는 다양한 형태가 포함될 수 있다. 정사각형의 부호화 단위가 분할되는 소정의 분할 형태들은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
도 8는 일 실시예에 따라 영상 복호화 장치(100)가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위가 비-정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 비-정사각형의 현재 부호화 단위를 분할하지 않을지 소정의 방법으로 분할할지 여부를 결정할 수 있다. 도 4를 참조하면, 현재 부호화 단위(800 또는 850)의 블록 형태 정보가 비-정사각형의 형태를 나타내는 경우, 영상 복호화 장치(100)는 분할되지 않음을 나타내는 분할 형태 모드 정보에 따라 현재 부호화 단위(800 또는 850)와 동일한 크기를 가지는 부호화 단위(810 또는 860)를 결정하거나, 소정의 분할방법을 나타내는 분할 형태 모드 정보에 따라 기초하여 분할된 부호화 단위(820a, 820b, 830a, 830b, 830c, 870a, 870b, 880a, 880b, 880c)를 결정할 수 있다. 비-정사각형의 부호화 단위가 분할되는 소정의 분할 방법은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보를 이용하여 부호화 단위가 분할되는 형태를 결정할 수 있고, 이 경우 분할 형태 모드 정보는 부호화 단위가 분할되어 생성되는 적어도 하나의 부호화 단위의 개수를 나타낼 수 있다. 도 8을 참조하면 분할 형태 모드 정보가 두 개의 부호화 단위로 현재 부호화 단위(800 또는 850)가 분할되는 것을 나타내는 경우, 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(800 또는 850)를 분할하여 현재 부호화 단위에 포함되는 두 개의 부호화 단위(820a, 820b, 또는 870a, 870b)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 비-정사각형의 형태의 현재 부호화 단위(800 또는 850)를 분할하는 경우, 영상 복호화 장치(100)는 비-정사각형의 현재 부호화 단위(800 또는 850)의 긴 변의 위치를 고려하여 현재 부호화 단위를 분할할 수 있다. 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위(800 또는 850)의 형태를 고려하여 현재 부호화 단위(800 또는 850)의 긴 변을 분할하는 방향으로 현재 부호화 단위(800 또는 850)를 분할하여 복수개의 부호화 단위를 결정할 수 있다.
일 실시예에 따라, 분할 형태 모드 정보가 홀수개의 블록으로 부호화 단위를 분할(터너리 분할)하는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(800 또는 850)에 포함되는 홀수개의 부호화 단위를 결정할 수 있다. 예를 들면, 분할 형태 모드 정보가 3개의 부호화 단위로 현재 부호화 단위(800 또는 850)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(800 또는 850)를 3개의 부호화 단위(830a, 830b, 830c, 880a, 880b, 880c)로 분할할 수 있다.
일 실시예에 따라, 현재 부호화 단위(800 또는 850)의 너비 및 높이의 비율이 4:1 또는 1:4 일 수 있다. 너비 및 높이의 비율이 4:1 인 경우, 너비의 길이가 높이의 길이보다 길므로 블록 형태 정보는 수평 방향일 수 있다. 너비 및 높이의 비율이 1:4 인 경우, 너비의 길이가 높이의 길이보다 짧으므로 블록 형태 정보는 수직 방향일 수 있다. 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 현재 부호화 단위를 홀수개의 블록으로 분할할 것을 결정할 수 있다. 또한 영상 복호화 장치(100)는 현재 부호화 단위(800 또는 850)의 블록 형태 정보에 기초하여 현재 부호화 단위(800 또는 850)의 분할 방향을 결정할 수 있다. 예를 들어 현재 부호화 단위(800)가 수직 방향인 경우, 영상 복호화 장치(100)는 현재 부호화 단위(800)를 수평 방향으로 분할 하여 부호화 단위(830a, 830b, 830c)를 결정할 수 있다. 또한 현재 부호화 단위(850)가 수평 방향인 경우, 영상 복호화 장치(100)는 현재 부호화 단위(850)를 수직 방향으로 분할 하여 부호화 단위(880a, 880b, 880c)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위(800 또는 850)에 포함되는 홀수개의 부호화 단위를 결정할 수 있으며, 결정된 부호화 단위들의 크기 모두가 동일하지는 않을 수 있다. 예를 들면, 결정된 홀수개의 부호화 단위(830a, 830b, 830c, 880a, 880b, 880c) 중 소정의 부호화 단위(830b 또는 880b)의 크기는 다른 부호화 단위(830a, 830c, 880a, 880c)들과는 다른 크기를 가질 수도 있다. 즉, 현재 부호화 단위(800 또는 850)가 분할되어 결정될 수 있는 부호화 단위는 복수의 종류의 크기를 가질 수 있고, 경우에 따라서는 홀수개의 부호화 단위(830a, 830b, 830c, 880a, 880b, 880c)가 각각 서로 다른 크기를 가질 수도 있다.
일 실시예에 따라 분할 형태 모드 정보가 홀수개의 블록으로 부호화 단위가 분할되는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(800 또는 850)에 포함되는 홀수개의 부호화 단위를 결정할 수 있고, 나아가 영상 복호화 장치(100)는 분할하여 생성되는 홀수개의 부호화 단위들 중 적어도 하나의 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 도 8을 참조하면 영상 복호화 장치(100)는 현재 부호화 단위(800 또는 850)가 분할되어 생성된 3개의 부호화 단위(830a, 830b, 830c, 880a, 880b, 880c)들 중 중앙에 위치하는 부호화 단위(830b, 880b)에 대한 복호화 과정을 다른 부호화 단위(830a, 830c, 880a, 880c)와 다르게 할 수 있다. 예를 들면, 영상 복호화 장치(100)는 중앙에 위치하는 부호화 단위(830b, 880b)에 대하여는 다른 부호화 단위(830a, 830c, 880a, 880c)와 달리 더 이상 분할되지 않도록 제한하거나, 소정의 횟수만큼만 분할되도록 제한할 수 있다.
도 9는 일 실시예에 따라 영상 복호화 장치(100)가 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(900)를 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 일 실시예에 따라 분할 형태 모드 정보가 수평 방향으로 제1 부호화 단위(900)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(100)는 제1 부호화 단위(900)를 수평 방향으로 분할하여 제2 부호화 단위(910)를 결정할 수 있다. 일 실시예에 따라 이용되는 제1 부호화 단위, 제2 부호화 단위, 제3 부호화 단위는 부호화 단위 간의 분할 전후 관계를 이해하기 위해 이용된 용어이다. 예를 들면, 제1 부호화 단위를 분할하면 제2 부호화 단위가 결정될 수 있고, 제2 부호화 단위가 분할되면 제3 부호화 단위가 결정될 수 있다. 이하에서는 이용되는 제1 부호화 단위, 제2 부호화 단위 및 제3 부호화 단위의 관계는 상술한 특징에 따르는 것으로 이해될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 결정된 제2 부호화 단위(910)를 분할 형태 모드 정보에 기초하여 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 도 9를 참조하면 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(900)를 분할하여 결정된 비-정사각형의 형태의 제2 부호화 단위(910)를 적어도 하나의 제3 부호화 단위(920a, 920b, 920c, 920d 등)로 분할하거나 제2 부호화 단위(910)를 분할하지 않을 수 있다. 영상 복호화 장치(100)는 분할 형태 모드 정보를 획득할 수 있고 영상 복호화 장치(100)는 획득한 분할 형태 모드 정보에 기초하여 제1 부호화 단위(900)를 분할하여 다양한 형태의 복수개의 제2 부호화 단위(예를 들면, 910)를 분할할 수 있으며, 제2 부호화 단위(910)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(900)가 분할된 방식에 따라 분할될 수 있다. 일 실시예에 따라, 제1 부호화 단위(900)가 제1 부호화 단위(900)에 대한 분할 형태 모드 정보에 기초하여 제2 부호화 단위(910)로 분할된 경우, 제2 부호화 단위(910) 역시 제2 부호화 단위(910)에 대한 분할 형태 모드 정보에 기초하여 제3 부호화 단위(예를 들면, 920a, 920b, 920c, 920d 등)으로 분할될 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 관련된 분할 형태 모드 정보에 기초하여 재귀적으로 분할될 수 있다. 따라서 비-정사각형 형태의 부호화 단위에서 정사각형의 부호화 단위가 결정될 수 있고, 이러한 정사각형 형태의 부호화 단위가 재귀적으로 분할되어 비-정사각형 형태의 부호화 단위가 결정될 수도 있다.
도 9를 참조하면, 비-정사각형 형태의 제2 부호화 단위(910)가 분할되어 결정되는 홀수개의 제3 부호화 단위(920b, 920c, 920d) 중 소정의 부호화 단위(예를 들면, 가운데에 위치하는 부호화 단위 또는 정사각형 형태의 부호화 단위)는 재귀적으로 분할될 수 있다. 일 실시예에 따라 홀수개의 제3 부호화 단위(920b, 920c, 920d) 중 하나인 정사각형 형태의 제3 부호화 단위(920b)는 수평 방향으로 분할되어 복수개의 제4 부호화 단위로 분할될 수 있다. 복수개의 제4 부호화 단위(930a, 930b, 930c, 930d) 중 하나인 비-정사각형 형태의 제4 부호화 단위(930b 또는 930d)는 다시 복수개의 부호화 단위들로 분할될 수 있다. 예를 들면, 비-정사각형 형태의 제4 부호화 단위(930b 또는 930d)는 홀수개의 부호화 단위로 다시 분할될 수도 있다. 부호화 단위의 재귀적 분할에 이용될 수 있는 방법에 대하여는 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제3 부호화 단위(920a, 920b, 920c, 920d 등) 각각을 부호화 단위들로 분할할 수 있다. 또한 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제2 부호화 단위(910)를 분할하지 않는 것으로 결정할 수 있다. 영상 복호화 장치(100)는 일 실시예에 따라 비-정사각형 형태의 제2 부호화 단위(910)를 홀수개의 제3 부호화 단위(920b, 920c, 920d)로 분할할 수 있다. 영상 복호화 장치(100)는 홀수개의 제3 부호화 단위(920b, 920c, 920d) 중 소정의 제3 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 예를 들면 영상 복호화 장치(100)는 홀수개의 제3 부호화 단위(920b, 920c, 920d) 중 가운데에 위치하는 부호화 단위(920c)에 대하여는 더 이상 분할되지 않는 것으로 제한하거나 또는 설정 가능한 횟수로 분할되어야 하는 것으로 제한할 수 있다.
도 9를 참조하면, 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(910)에 포함되는 홀수개의 제3 부호화 단위(920b, 920c, 920d)들 중 가운데에 위치하는 부호화 단위(920c)는 더 이상 분할되지 않거나, 소정의 분할 형태로 분할(예를 들면 4개의 부호화 단위로만 분할하거나 제2 부호화 단위(910)가 분할된 형태에 대응하는 형태로 분할)되는 것으로 제한하거나, 소정의 횟수로만 분할(예를 들면 n회만 분할, n>0)하는 것으로 제한할 수 있다. 다만 가운데에 위치한 부호화 단위(920c)에 대한 상기 제한은 단순한 실시예들에 불과하므로 상술한 실시예들로 제한되어 해석되어서는 안되고, 가운데에 위치한 부호화 단위(920c)가 다른 부호화 단위(920b, 920d)와 다르게 복호화 될 수 있는 다양한 제한들을 포함하는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 분할하기 위해 이용되는 분할 형태 모드 정보를 현재 부호화 단위 내의 소정의 위치에서 획득할 수 있다.
도 10은 일 실시예에 따라 영상 복호화 장치(100)가 홀수개의 부호화 단위들 중 소정의 부호화 단위를 결정하기 위한 방법을 도시한다.
도 10을 참조하면, 현재 부호화 단위(1000, 1050)의 분할 형태 모드 정보는 현재 부호화 단위(1000, 1050)에 포함되는 복수개의 샘플 중 소정 위치의 샘플(예를 들면, 가운데에 위치하는 샘플(1040, 1090))에서 획득될 수 있다. 다만 이러한 분할 형태 모드 정보 중 적어도 하나가 획득될 수 있는 현재 부호화 단위(1000) 내의 소정 위치가 도 10에서 도시하는 가운데 위치로 한정하여 해석되어서는 안되고, 소정 위치에는 현재 부호화 단위(1000)내에 포함될 수 있는 다양한 위치(예를 들면, 최상단, 최하단, 좌측, 우측, 좌측상단, 좌측하단, 우측상단 또는 우측하단 등)가 포함될 수 있는 것으로 해석되어야 한다. 영상 복호화 장치(100)는 소정 위치로부터 획득되는 분할 형태 모드 정보를 획득하여 현재 부호화 단위를 다양한 형태 및 크기의 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위가 소정의 개수의 부호화 단위들로 분할된 경우 그 중 하나의 부호화 단위를 선택할 수 있다. 복수개의 부호화 단위들 중 하나를 선택하기 위한 방법은 다양할 수 있으며, 이러한 방법들에 대한 설명은 이하의 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(100) 는 현재 부호화 단위를 복수개의 부호화 단위들로 분할하고, 소정 위치의 부호화 단위를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 홀수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 도 10을 참조하면, 영상 복호화 장치(100)는 현재 부호화 단위(1000) 또는 현재 부호화 단위(1050)를 분할하여 홀수개의 부호화 단위들(1020a, 1020b, 1020c) 또는 홀수개의 부호화 단위들(1060a, 1060b, 1060c)을 결정할 수 있다. 영상 복호화 장치(100)는 홀수개의 부호화 단위들(1020a, 1020b, 1020c) 또는 홀수개의 부호화 단위들(1060a, 1060b, 1060c)의 위치에 대한 정보를 이용하여 가운데 부호화 단위(1020b)또는 가운데 부호화 단위(1060b)를 결정할 수 있다. 예를 들면 영상 복호화 장치(100)는 부호화 단위들(1020a, 1020b, 1020c)에 포함되는 소정의 샘플의 위치를 나타내는 정보에 기초하여 부호화 단위들(1020a, 1020b, 1020c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(1020b)를 결정할 수 있다. 구체적으로, 영상 복호화 장치(100)는 부호화 단위들(1020a, 1020b, 1020c)의 좌측 상단의 샘플(1030a, 1030b, 1030c)의 위치를 나타내는 정보에 기초하여 부호화 단위들(1020a, 1020b, 1020c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(1020b)를 결정할 수 있다.
일 실시예에 따라 부호화 단위들(1020a, 1020b, 1020c)에 각각 포함되는 좌측 상단의 샘플(1030a, 1030b, 1030c)의 위치를 나타내는 정보는 부호화 단위들(1020a, 1020b, 1020c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 포함할 수 있다. 일 실시예에 따라 부호화 단위들(1020a, 1020b, 1020c)에 각각 포함되는 좌측 상단의 샘플(1030a, 1030b, 1030c)의 위치를 나타내는 정보는 현재 부호화 단위(1000)에 포함되는 부호화 단위들(1020a, 1020b, 1020c)의 너비 또는 높이를 나타내는 정보를 포함할 수 있고, 이러한 너비 또는 높이는 부호화 단위들(1020a, 1020b, 1020c)의 픽쳐 내에서의 좌표 간의 차이를 나타내는 정보에 해당할 수 있다. 즉, 영상 복호화 장치(100)는 부호화 단위들(1020a, 1020b, 1020c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 직접 이용하거나 좌표간의 차이값에 대응하는 부호화 단위의 너비 또는 높이에 대한 정보를 이용함으로써 가운데에 위치하는 부호화 단위(1020b)를 결정할 수 있다.
일 실시예에 따라, 상단 부호화 단위(1020a)의 좌측 상단의 샘플(1030a)의 위치를 나타내는 정보는 (xa, ya) 좌표를 나타낼 수 있고, 가운데 부호화 단위(1020b)의 좌측 상단의 샘플(1030b)의 위치를 나타내는 정보는 (xb, yb) 좌표를 나타낼 수 있고, 하단 부호화 단위(1020c)의 좌측 상단의 샘플(1030c)의 위치를 나타내는 정보는 (xc, yc) 좌표를 나타낼 수 있다. 영상 복호화 장치(100)는 부호화 단위들(1020a, 1020b, 1020c)에 각각 포함되는 좌측 상단의 샘플(1030a, 1030b, 1030c)의 좌표를 이용하여 가운데 부호화 단위(1020b)를 결정할 수 있다. 예를 들면, 좌측 상단의 샘플(1030a, 1030b, 1030c)의 좌표를 오름차순 또는 내림차순으로 정렬하였을 때, 가운데에 위치하는 샘플(1030b)의 좌표인 (xb, yb)를 포함하는 부호화 단위(1020b)를 현재 부호화 단위(1000)가 분할되어 결정된 부호화 단위들(1020a, 1020b, 1020c) 중 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 좌측 상단의 샘플(1030a, 1030b, 1030c)의 위치를 나타내는 좌표는 픽쳐 내에서의 절대적인 위치를 나타내는 좌표를 나타낼 수 있고, 나아가 상단 부호화 단위(1020a)의 좌측 상단의 샘플(1030a)의 위치를 기준으로, 가운데 부호화 단위(1020b)의 좌측 상단의 샘플(1030b)의 상대적 위치를 나타내는 정보인 (dxb, dyb)좌표, 하단 부호화 단위(1020c)의 좌측 상단의 샘플(1030c)의 상대적 위치를 나타내는 정보인 (dxc, dyc)좌표를 이용할 수도 있다. 또한 부호화 단위에 포함되는 샘플의 위치를 나타내는 정보로서 해당 샘플의 좌표를 이용함으로써 소정 위치의 부호화 단위를 결정하는 방법이 상술한 방법으로 한정하여 해석되어서는 안되고, 샘플의 좌표를 이용할 수 있는 다양한 산술적 방법으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위(1000)를 복수개의 부호화 단위들(1020a, 1020b, 1020c)로 분할할 수 있고, 부호화 단위들(1020a, 1020b, 1020c) 중 소정의 기준에 따라 부호화 단위를 선택할 수 있다. 예를 들면, 영상 복호화 장치(100)는 부호화 단위들(1020a, 1020b, 1020c) 중 크기가 다른 부호화 단위(1020b)를 선택할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 상단 부호화 단위(1020a)의 좌측 상단의 샘플(1030a)의 위치를 나타내는 정보인 (xa, ya) 좌표, 가운데 부호화 단위(1020b)의 좌측 상단의 샘플(1030b)의 위치를 나타내는 정보인 (xb, yb) 좌표, 하단 부호화 단위(1020c)의 좌측 상단의 샘플(1030c)의 위치를 나타내는 정보인 (xc, yc) 좌표를 이용하여 부호화 단위들(1020a, 1020b, 1020c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위들(1020a, 1020b, 1020c)의 위치를 나타내는 좌표인 (xa, ya), (xb, yb), (xc, yc)를 이용하여 부호화 단위들(1020a, 1020b, 1020c) 각각의 크기를 결정할 수 있다. 일 실시예에 따라, 영상 복호화 장치(100)는 상단 부호화 단위(1020a)의 너비를 현재 부호화 단위(1000)의 너비로 결정할 수 있다. 영상 복호화 장치(100)는 상단 부호화 단위(1020a)의 높이를 yb-ya로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 가운데 부호화 단위(1020b)의 너비를 현재 부호화 단위(1000)의 너비로 결정할 수 있다. 영상 복호화 장치(100)는 가운데 부호화 단위(1020b)의 높이를 yc-yb로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 하단 부호화 단위의 너비 또는 높이는 현재 부호화 단위의 너비 또는 높이와 상단 부호화 단위(1020a) 및 가운데 부호화 단위(1020b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(100)는 결정된 부호화 단위들(1020a, 1020b, 1020c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 10을 참조하면, 영상 복호화 장치(100)는 상단 부호화 단위(1020a) 및 하단 부호화 단위(1020c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(1020b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(100)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
영상 복호화 장치(100)는 좌측 부호화 단위(1060a)의 좌측 상단의 샘플(1070a)의 위치를 나타내는 정보인 (xd, yd) 좌표, 가운데 부호화 단위(1060b)의 좌측 상단의 샘플(1070b)의 위치를 나타내는 정보인 (xe, ye) 좌표, 우측 부호화 단위(1060c)의 좌측 상단의 샘플(1070c)의 위치를 나타내는 정보인 (xf, yf) 좌표를 이용하여 부호화 단위들(1060a, 1060b, 1060c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위들(1060a, 1060b, 1060c)의 위치를 나타내는 좌표인 (xd, yd), (xe, ye), (xf, yf)를 이용하여 부호화 단위들(1060a, 1060b, 1060c) 각각의 크기를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(100)는 좌측 부호화 단위(1060a)의 너비를 xe-xd로 결정할 수 있다. 영상 복호화 장치(100)는 좌측 부호화 단위(1060a)의 높이를 현재 부호화 단위(1050)의 높이로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 가운데 부호화 단위(1060b)의 너비를 xf-xe로 결정할 수 있다. 영상 복호화 장치(100)는 가운데 부호화 단위(1060b)의 높이를 현재 부호화 단위(1000)의 높이로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 우측 부호화 단위(1060c)의 너비 또는 높이는 현재 부호화 단위(1050)의 너비 또는 높이와 좌측 부호화 단위(1060a) 및 가운데 부호화 단위(1060b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(100)는 결정된 부호화 단위들(1060a, 1060b, 1060c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 10을 참조하면, 영상 복호화 장치(100)는 좌측 부호화 단위(1060a) 및 우측 부호화 단위(1060c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(1060b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(100)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
다만 부호화 단위의 위치를 결정하기 위하여 고려하는 샘플의 위치는 상술한 좌측 상단으로 한정하여 해석되어서는 안되고 부호화 단위에 포함되는 임의의 샘플의 위치에 대한 정보가 이용될 수 있는 것으로 해석될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위의 형태를 고려하여, 현재 부호화 단위가 분할되어 결정되는 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 선택할 수 있다. 예를 들면, 현재 부호화 단위가 너비가 높이보다 긴 비-정사각형 형태라면 영상 복호화 장치(100)는 수평 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 수평 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다. 현재 부호화 단위가 높이가 너비보다 긴 비-정사각형 형태라면 영상 복호화 장치(100)는 수직 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 수직 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 짝수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 짝수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 영상 복호화 장치(100)는 현재 부호화 단위를 분할(바이너리 분할)하여 짝수개의 부호화 단위들을 결정할 수 있고 짝수개의 부호화 단위들의 위치에 대한 정보를 이용하여 소정 위치의 부호화 단위를 결정할 수 있다. 이에 대한 구체적인 과정은 도 10에서 상술한 홀수개의 부호화 단위들 중 소정 위치(예를 들면, 가운데 위치)의 부호화 단위를 결정하는 과정에 대응하는 과정일 수 있으므로 생략하도록 한다.
일 실시예에 따라, 비-정사각형 형태의 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 분할 과정에서 소정 위치의 부호화 단위에 대한 소정의 정보를 이용할 수 있다. 예를 들면 영상 복호화 장치(100)는 현재 부호화 단위가 복수개로 분할된 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 분할 과정에서 가운데 부호화 단위에 포함된 샘플에 저장된 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나를 이용할 수 있다.
도 10을 참조하면 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(1000)를 복수개의 부호화 단위들(1020a, 1020b, 1020c)로 분할할 수 있으며, 복수개의 부호화 단위들(1020a, 1020b, 1020c) 중 가운데에 위치하는 부호화 단위(1020b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 분할 형태 모드 정보가 획득되는 위치를 고려하여, 가운데에 위치하는 부호화 단위(1020b)를 결정할 수 있다. 즉, 현재 부호화 단위(1000)의 분할 형태 모드 정보는 현재 부호화 단위(1000)의 가운데에 위치하는 샘플(1040)에서 획득될 수 있으며, 상기 분할 형태 모드 정보에 기초하여 현재 부호화 단위(1000)가 복수개의 부호화 단위들(1020a, 1020b, 1020c)로 분할된 경우 상기 샘플(1040)을 포함하는 부호화 단위(1020b)를 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 가운데에 위치하는 부호화 단위로 결정하기 위해 이용되는 정보가 분할 형태 모드 정보로 한정하여 해석되어서는 안되고, 다양한 종류의 정보가 가운데에 위치하는 부호화 단위를 결정하는 과정에서 이용될 수 있다.
일 실시예에 따라 소정 위치의 부호화 단위를 식별하기 위한 소정의 정보는, 결정하려는 부호화 단위에 포함되는 소정의 샘플에서 획득될 수 있다. 도 10을 참조하면, 영상 복호화 장치(100)는 현재 부호화 단위(1000)가 분할되어 결정된 복수개의 부호화 단위들(1020a, 1020b, 1020c) 중 소정 위치의 부호화 단위(예를 들면, 복수개로 분할된 부호화 단위 중 가운데에 위치하는 부호화 단위)를 결정하기 위하여 현재 부호화 단위(1000) 내의 소정 위치의 샘플(예를 들면, 현재 부호화 단위(1000)의 가운데에 위치하는 샘플)에서 획득되는 분할 형태 모드 정보를 이용할 수 있다. 즉, 영상 복호화 장치(100)는 현재 부호화 단위(1000)의 블록 형태를 고려하여 상기 소정 위치의 샘플을 결정할 수 있고, 영상 복호화 장치(100)는 현재 부호화 단위(1000)가 분할되어 결정되는 복수개의 부호화 단위들(1020a, 1020b, 1020c) 중, 소정의 정보(예를 들면, 분할 형태 모드 정보)가 획득될 수 있는 샘플이 포함된 부호화 단위(1020b)를 결정하여 소정의 제한을 둘 수 있다. 도 10을 참조하면 일 실시예에 따라 영상 복호화 장치(100)는 소정의 정보가 획득될 수 있는 샘플로서 현재 부호화 단위(1000)의 가운데에 위치하는 샘플(1040)을 결정할 수 있고, 영상 복호화 장치(100)는 이러한 샘플(1040)이 포함되는 부호화 단위(1020b)를 복호화 과정에서의 소정의 제한을 둘 수 있다. 다만 소정의 정보가 획득될 수 있는 샘플의 위치는 상술한 위치로 한정하여 해석되어서는 안되고, 제한을 두기 위해 결정하려는 부호화 단위(1020b)에 포함되는 임의의 위치의 샘플들로 해석될 수 있다.
일 실시예에 따라 소정의 정보가 획득될 수 있는 샘플의 위치는 현재 부호화 단위(1000)의 형태에 따라 결정될 수 있다. 일 실시예에 따라 블록 형태 정보는 현재 부호화 단위의 형태가 정사각형인지 또는 비-정사각형인지 여부를 결정할 수 있고, 형태에 따라 소정의 정보가 획득될 수 있는 샘플의 위치를 결정할 수 있다. 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위의 너비에 대한 정보 및 높이에 대한 정보 중 적어도 하나를 이용하여 현재 부호화 단위의 너비 및 높이 중 적어도 하나를 반으로 분할하는 경계 상에 위치하는 샘플을 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다. 또다른 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위에 관련된 블록 형태 정보가 비-정사각형 형태임을 나타내는 경우, 현재 부호화 단위의 긴 변을 반으로 분할하는 경계에 인접하는 샘플 중 하나를 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여, 분할 형태 모드 정보를 이용할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보를 부호화 단위에 포함된 소정 위치의 샘플에서 획득할 수 있고, 영상 복호화 장치(100)는 현재 부호화 단위가 분할되어 생성된 복수개의 부호화 단위들을 복수개의 부호화 단위 각각에 포함된 소정 위치의 샘플로부터 획득되는 분할 형태 모드 정보를 이용하여 분할할 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 포함된 소정 위치의 샘플에서 획득되는 분할 형태 모드 정보를 이용하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할 과정에 대하여는 도 5를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정할 수 있고, 이러한 적어도 하나의 부호화 단위가 복호화되는 순서를 소정의 블록(예를 들면, 현재 부호화 단위)에 따라 결정할 수 있다.
도 11은 일 실시예에 따라 영상 복호화 장치(100)가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 제1 부호화 단위(1100)를 수직 방향으로 분할하여 제2 부호화 단위(1110a, 1110b)를 결정하거나 제1 부호화 단위(1100)를 수평 방향으로 분할하여 제2 부호화 단위(1130a, 1130b)를 결정하거나 제1 부호화 단위(1100)를 수직 방향 및 수평 방향으로 분할하여 제2 부호화 단위(1150a, 1150b, 1150c, 1150d)를 결정할 수 있다.
도 11을 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(1100)를 수직 방향으로 분할하여 결정된 제2 부호화 단위(1110a, 1110b)를 수평 방향(1110c)으로 처리되도록 순서를 결정할 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(1100)를 수평 방향으로 분할하여 결정된 제2 부호화 단위(1130a, 1130b)의 처리 순서를 수직 방향(1130c)으로 결정할 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(1100)를 수직 방향 및 수평 방향으로 분할하여 결정된 제2 부호화 단위(1150a, 1150b, 1150c, 1150d)를 하나의 행에 위치하는 부호화 단위들이 처리된 후 다음 행에 위치하는 부호화 단위들이 처리되는 소정의 순서(예를 들면, 래스터 스캔 순서((raster scan order) 또는 z 스캔 순서(z scan order)(1150e) 등)에 따라 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위들을 재귀적으로 분할할 수 있다. 도 11을 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(1100)를 분할하여 복수개의 부호화 단위들(1110a, 1110b, 1130a, 1130b, 1150a, 1150b, 1150c, 1150d)을 결정할 수 있고, 결정된 복수개의 부호화 단위들(1110a, 1110b, 1130a, 1130b, 1150a, 1150b, 1150c, 1150d) 각각을 재귀적으로 분할할 수 있다. 복수개의 부호화 단위들(1110a, 1110b, 1130a, 1130b, 1150a, 1150b, 1150c, 1150d)을 분할하는 방법은 제1 부호화 단위(1100)를 분할하는 방법에 대응하는 방법이 될 수 있다. 이에 따라 복수개의 부호화 단위들(1110a, 1110b, 1130a, 1130b, 1150a, 1150b, 1150c, 1150d)은 각각 독립적으로 복수개의 부호화 단위들로 분할될 수 있다. 도 11을 참조하면 영상 복호화 장치(100)는 제1 부호화 단위(1100)를 수직 방향으로 분할하여 제2 부호화 단위(1110a, 1110b)를 결정할 수 있고, 나아가 제2 부호화 단위(1110a, 1110b) 각각을 독립적으로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 좌측의 제2 부호화 단위(1110a)를 수평 방향으로 분할하여 제3 부호화 단위(1120a, 1120b)로 분할할 수 있고, 우측의 제2 부호화 단위(1110b)는 분할하지 않을 수 있다.
일 실시예에 따라 부호화 단위들의 처리 순서는 부호화 단위의 분할 과정에 기초하여 결정될 수 있다. 다시 말해, 분할된 부호화 단위들의 처리 순서는 분할되기 직전의 부호화 단위들의 처리 순서에 기초하여 결정될 수 있다. 영상 복호화 장치(100)는 좌측의 제2 부호화 단위(1110a)가 분할되어 결정된 제3 부호화 단위(1120a, 1120b)가 처리되는 순서를 우측의 제2 부호화 단위(1110b)와 독립적으로 결정할 수 있다. 좌측의 제2 부호화 단위(1110a)가 수평 방향으로 분할되어 제3 부호화 단위(1120a, 1120b)가 결정되었으므로 제3 부호화 단위(1120a, 1120b)는 수직 방향(1120c)으로 처리될 수 있다. 또한 좌측의 제2 부호화 단위(1110a) 및 우측의 제2 부호화 단위(1110b)가 처리되는 순서는 수평 방향(1110c)에 해당하므로, 좌측의 제2 부호화 단위(1110a)에 포함되는 제3 부호화 단위(1120a, 1120b)가 수직 방향(1120c)으로 처리된 후에 우측 부호화 단위(1110b)가 처리될 수 있다. 상술한 내용은 부호화 단위들이 각각 분할 전의 부호화 단위에 따라 처리 순서가 결정되는 과정을 설명하기 위한 것이므로, 상술한 실시예에 한정하여 해석되어서는 안되고, 다양한 형태로 분할되어 결정되는 부호화 단위들이 소정의 순서에 따라 독립적으로 처리될 수 있는 다양한 방법으로 이용되는 것으로 해석되어야 한다.
도 12는 일 실시예에 따라 영상 복호화 장치(100)가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 획득된 분할 형태 모드 정보에 기초하여 현재 부호화 단위가 홀수개의 부호화 단위들로 분할되는 것을 결정할 수 있다. 도 12를 참조하면 정사각형 형태의 제1 부호화 단위(1200)가 비-정사각형 형태의 제2 부호화 단위(1210a, 1210b)로 분할될 수 있고, 제2 부호화 단위(1210a, 1210b)는 각각 독립적으로 제3 부호화 단위(1220a, 1220b, 1220c, 1220d, 1220e)로 분할될 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 제2 부호화 단위 중 좌측 부호화 단위(1210a)는 수평 방향으로 분할하여 복수개의 제3 부호화 단위(1220a, 1220b)를 결정할 수 있고, 우측 부호화 단위(1210b)는 홀수개의 제3 부호화 단위(1220c, 1220d, 1220e)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 제3 부호화 단위들(1220a, 1220b, 1220c, 1220d, 1220e)이 소정의 순서로 처리될 수 있는지 여부를 판단하여 홀수개로 분할된 부호화 단위가 존재하는지를 결정할 수 있다. 도 12를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(1200)를 재귀적으로 분할하여 제3 부호화 단위(1220a, 1220b, 1220c, 1220d, 1220e)를 결정할 수 있다. 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여, 제1 부호화 단위(1200), 제2 부호화 단위(1210a, 1210b) 또는 제3 부호화 단위(1220a, 1220b, 1220c, 1220d, 1220e)가 분할되는 형태 중 홀수개의 부호화 단위로 분할되는지 여부를 결정할 수 있다. 예를 들면, 제2 부호화 단위(1210a, 1210b) 중 우측에 위치하는 부호화 단위가 홀수개의 제3 부호화 단위(1220c, 1220d, 1220e)로 분할될 수 있다. 제1 부호화 단위(1200)에 포함되는 복수개의 부호화 단위들이 처리되는 순서는 소정의 순서(예를 들면, z-스캔 순서(z-scan order)(1230))가 될 수 있고, 영상 복호화 장치(100)는 우측 제2 부호화 단위(1210b)가 홀수개로 분할되어 결정된 제3 부호화 단위(1220c, 1220d, 1220e)가 상기 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 판단할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(1200)에 포함되는 제3 부호화 단위(1220a, 1220b, 1220c, 1220d, 1220e)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제3 부호화 단위(1220a, 1220b, 1220c, 1220d, 1220e)의 경계에 따라 제2 부호화 단위(1210a, 1210b)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 예를 들면 비-정사각형 형태의 좌측 제2 부호화 단위(1210a)의 높이를 반으로 분할하여 결정되는 제3 부호화 단위(1220a, 1220b)는 조건을 만족할 수 있다. 우측 제2 부호화 단위(1210b)를 3개의 부호화 단위로 분할하여 결정되는 제3 부호화 단위(1220c, 1220d, 1220e)들의 경계가 우측 제2 부호화 단위(1210b)의 너비 또는 높이를 반으로 분할하지 못하므로 제3 부호화 단위(1220c, 1220d, 1220e)는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(100)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 우측 제2 부호화 단위(1210b)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
도 13은 일 실시예에 따라 영상 복호화 장치(100)가 제1 부호화 단위(1300)를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 수신부(미도시)를 통해 획득한 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1300)를 분할할 수 있다. 정사각형 형태의 제1 부호화 단위(1300)는 4개의 정사각형 형태를 가지는 부호화 단위로 분할되거나 또는 비-정사각형 형태의 복수개의 부호화 단위로 분할할 수 있다. 예를 들면 도 13을 참조하면, 제1 부호화 단위(1300)는 정사각형이고 분할 형태 모드 정보가 비-정사각형의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(100)는 제1 부호화 단위(1300)를 복수개의 비-정사각형의 부호화 단위들로 분할할 수 있다. 구체적으로, 분할 형태 모드 정보가 제1 부호화 단위(1300)를 수평 방향 또는 수직 방향으로 분할하여 홀수개의 부호화 단위를 결정하는 것을 나타내는 경우, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1300)를 홀수개의 부호화 단위들로서 수직 방향으로 분할되어 결정된 제2 부호화 단위(1310a, 1310b, 1310c) 또는 수평 방향으로 분할되어 결정된 제2 부호화 단위(1320a, 1320b, 1320c)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(1300)에 포함되는 제2 부호화 단위(1310a, 1310b, 1310c, 1320a, 1320b, 1320c)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제2 부호화 단위(1310a, 1310b, 1310c, 1320a, 1320b, 1320c)의 경계에 따라 제1 부호화 단위(1300)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 도 13을 참조하면 정사각형 형태의 제1 부호화 단위(1300)를 수직 방향으로 분할하여 결정되는 제2 부호화 단위(1310a, 1310b, 1310c)들의 경계가 제1 부호화 단위(1300)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(1300)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 또한 정사각형 형태의 제1 부호화 단위(1300)를 수평 방향으로 분할하여 결정되는 제2 부호화 단위(1320a, 1320b, 1320c)들의 경계가 제1 부호화 단위(1300)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(1300)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(100)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 제1 부호화 단위(1300)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라, 영상 복호화 장치(100)는 제1 부호화 단위를 분할하여 다양한 형태의 부호화 단위들을 결정할 수 있다.
도 13을 참조하면, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1300), 비-정사각형 형태의 제1 부호화 단위(1330 또는 1350)를 다양한 형태의 부호화 단위들로 분할할 수 있다.
도 14는 일 실시예에 따라 영상 복호화 장치(100)가 제1 부호화 단위(1400)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 수신부(미도시)를 통해 획득한 분할 형태 모드 정보에 기초하여 정사각형 형태의 제1 부호화 단위(1400)를 비-정사각형 형태의 제2 부호화 단위(1410a, 1410b, 1420a, 1420b)로 분할하는 것으로 결정할 수 있다. 제2 부호화 단위(1410a, 1410b, 1420a, 1420b)는 독립적으로 분할될 수 있다. 이에 따라 영상 복호화 장치(100)는 제2 부호화 단위(1410a, 1410b, 1420a, 1420b) 각각에 관련된 분할 형태 모드 정보에 기초하여 복수개의 부호화 단위로 분할하거나 분할하지 않는 것을 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 수직 방향으로 제1 부호화 단위(1400)가 분할되어 결정된 비-정사각형 형태의 좌측 제2 부호화 단위(1410a)를 수평 방향으로 분할하여 제3 부호화 단위(1412a, 1412b)를 결정할 수 있다. 다만 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1410a)를 수평 방향으로 분할한 경우, 우측 제2 부호화 단위(1410b)는 좌측 제2 부호화 단위(1410a)가 분할된 방향과 동일하게 수평 방향으로 분할될 수 없도록 제한할 수 있다. 만일 우측 제2 부호화 단위(1410b)가 동일한 방향으로 분할되어 제3 부호화 단위(1414a, 1414b)가 결정된 경우, 좌측 제2 부호화 단위(1410a) 및 우측 제2 부호화 단위(1410b)가 수평 방향으로 각각 독립적으로 분할됨으로써 제3 부호화 단위(1412a, 1412b, 1414a, 1414b)가 결정될 수 있다. 하지만 이는 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1400)를 4개의 정사각형 형태의 제2 부호화 단위(1430a, 1430b, 1430c, 1430d)로 분할한 것과 동일한 결과이며 이는 영상 복호화 측면에서 비효율적일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 수평 방향으로 제1 부호화 단위(1400)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1420a 또는 1420b)를 수직 방향으로 분할하여 제3 부호화 단위(1422a, 1422b, 1424a, 1424b)를 결정할 수 있다. 다만 영상 복호화 장치(100)는 제2 부호화 단위 중 하나(예를 들면 상단 제2 부호화 단위(1420a))를 수직 방향으로 분할한 경우, 상술한 이유에 따라 다른 제2 부호화 단위(예를 들면 하단 부호화 단위(1420b))는 상단 제2 부호화 단위(1420a)가 분할된 방향과 동일하게 수직 방향으로 분할될 수 없도록 제한할 수 있다.
도 15는 일 실시예에 따라 분할 형태 모드 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치(100)가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1500)를 분할하여 제2 부호화 단위(1510a, 1510b, 1520a, 1520b 등)를 결정할 수 있다. 분할 형태 모드 정보에는 부호화 단위가 분할될 수 있는 다양한 형태에 대한 정보가 포함될 수 있으나, 다양한 형태에 대한 정보에는 정사각형 형태의 4개의 부호화 단위로 분할하기 위한 정보가 포함될 수 없는 경우가 있다. 이러한 분할 형태 모드 정보에 따르면, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1500)를 4개의 정사각형 형태의 제2 부호화 단위(1530a, 1530b, 1530c, 1530d)로 분할하지 못한다. 분할 형태 모드 정보에 기초하여 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(1510a, 1510b, 1520a, 1520b 등)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(1510a, 1510b, 1520a, 1520b 등)를 각각 독립적으로 분할할 수 있다. 재귀적인 방법을 통해 제2 부호화 단위(1510a, 1510b, 1520a, 1520b 등) 각각이 소정의 순서대로 분할될 수 있으며, 이는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1500)가 분할되는 방법에 대응하는 분할 방법일 수 있다.
예를 들면 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1510a)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1512a, 1512b)를 결정할 수 있고, 우측 제2 부호화 단위(1510b)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1514a, 1514b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1510a) 및 우측 제2 부호화 단위(1510b) 모두 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1516a, 1516b, 1516c, 1516d)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1500)가 4개의 정사각형 형태의 제2 부호화 단위(1530a, 1530b, 1530c, 1530d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
또 다른 예를 들면 영상 복호화 장치(100)는 상단 제2 부호화 단위(1520a)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1522a, 1522b)를 결정할 수 있고, 하단 제2 부호화 단위(1520b)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1524a, 1524b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 상단 제2 부호화 단위(1520a) 및 하단 제2 부호화 단위(1520b) 모두 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1526a, 1526b, 1526a, 1526b)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1500)가 4개의 정사각형 형태의 제2 부호화 단위(1530a, 1530b, 1530c, 1530d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
도 16은 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1600)를 분할할 수 있다. 블록 형태가 정사각형이고, 분할 형태 모드 정보가 제1 부호화 단위(1600)가 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할됨을 나타내는 경우, 영상 복호화 장치(100)는 제1 부호화 단위(1600)를 분할하여 제2 부호화 단위(예를 들면, 1610a, 1610b, 1620a, 1620b 등)를 결정할 수 있다. 도 16을 참조하면 제1 부호화 단위(1600)가 수평 방향 또는 수직 방향만으로 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1610a, 1610b, 1620a, 1620b)는 각각에 대한 분할 형태 모드 정보에 기초하여 독립적으로 분할될 수 있다. 예를 들면 영상 복호화 장치(100)는 제1 부호화 단위(1600)가 수직 방향으로 분할되어 생성된 제2 부호화 단위(1610a, 1610b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1616a, 1616b, 1616c, 1616d)를 결정할 수 있고, 제1 부호화 단위(1600)가 수평 방향으로 분할되어 생성된 제2 부호화 단위(1620a, 1620b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1626a, 1626b, 1626c, 1626d)를 결정할 수 있다. 이러한 제2 부호화 단위(1610a, 1610b, 1620a, 1620b)의 분할 과정은 도 15와 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 소정의 순서에 따라 부호화 단위를 처리할 수 있다. 소정의 순서에 따른 부호화 단위의 처리에 대한 특징은 도 11과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다. 도 16을 참조하면 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1600)를 분할하여 4개의 정사각형 형태의 제3 부호화 단위(1616a, 1616b, 1616c, 1616d, 1626a, 1626b, 1626c, 1626d)를 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(1600)가 분할되는 형태에 따라 제3 부호화 단위(1616a, 1616b, 1616c, 1616d, 1626a, 1626b, 1626c, 1626d)의 처리 순서를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 수직 방향으로 분할되어 생성된 제2 부호화 단위(1610a, 1610b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1616a, 1616b, 1616c, 1616d)를 결정할 수 있고, 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1610a)에 포함되는 제3 부호화 단위(1616a, 1616c)를 수직 방향으로 먼저 처리한 후, 우측 제2 부호화 단위(1610b)에 포함되는 제3 부호화 단위(1616b, 1616d)를 수직 방향으로 처리하는 순서(1617)에 따라 제3 부호화 단위(1616a, 1616b, 1616c, 1616d)를 처리할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 수평 방향으로 분할되어 생성된 제2 부호화 단위(1620a, 1620b)를 수직 방향으로 각각 분할하여 제3 부호화 단위(1626a, 1626b, 1626c, 1626d)를 결정할 수 있고, 영상 복호화 장치(100)는 상단 제2 부호화 단위(1620a)에 포함되는 제3 부호화 단위(1626a, 1626b)를 수평 방향으로 먼저 처리한 후, 하단 제2 부호화 단위(1620b)에 포함되는 제3 부호화 단위(1626c, 1626d)를 수평 방향으로 처리하는 순서(1627)에 따라 제3 부호화 단위(1626a, 1626b, 1626c, 1626d)를 처리할 수 있다.
도 16을 참조하면, 제2 부호화 단위(1610a, 1610b, 1620a, 1620b)가 각각 분할되어 정사각형 형태의 제3 부호화 단위(1616a, 1616b, 1616c, 1616d, 1626a, 1626b, 1626c, 1626d)가 결정될 수 있다. 수직 방향으로 분할되어 결정된 제2 부호화 단위(1610a, 1610b) 및 수평 방향으로 분할되어 결정된 제2 부호화 단위(1620a, 1620b)는 서로 다른 형태로 분할된 것이지만, 이후에 결정되는 제3 부호화 단위(1616a, 1616b, 1616c, 1616d, 1626a, 1626b, 1626c, 1626d)에 따르면 결국 동일한 형태의 부호화 단위들로 제1 부호화 단위(1600)가 분할된 결과가 된다. 이에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 상이한 과정을 통해 재귀적으로 부호화 단위를 분할함으로써 결과적으로 동일한 형태의 부호화 단위들을 결정하더라도, 동일한 형태로 결정된 복수개의 부호화 단위들을 서로 다른 순서로 처리할 수 있다.
도 17은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 심도를 소정의 기준에 따라 결정할 수 있다. 예를 들면 소정의 기준은 부호화 단위의 긴 변의 길이가 될 수 있다. 영상 복호화 장치(100)는 현재 부호화 단위의 긴 변의 길이가 분할되기 전의 부호화 단위의 긴 변의 길이보다 2n (n>0) 배로 분할된 경우, 현재 부호화 단위의 심도는 분할되기 전의 부호화 단위의 심도보다 n만큼 심도가 증가된 것으로 결정할 수 있다. 이하에서는 심도가 증가된 부호화 단위를 하위 심도의 부호화 단위로 표현하도록 한다.
도 17을 참조하면, 일 실시예에 따라 정사각형 형태임을 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는 ′0: SQUARE′를 나타낼 수 있음)에 기초하여 영상 복호화 장치(100)는 정사각형 형태인 제1 부호화 단위(1700)를 분할하여 하위 심도의 제2 부호화 단위(1702), 제3 부호화 단위(1704) 등을 결정할 수 있다. 정사각형 형태의 제1 부호화 단위(1700)의 크기를 2Nx2N이라고 한다면, 제1 부호화 단위(1700)의 너비 및 높이를 1/2배로 분할하여 결정된 제2 부호화 단위(1702)는 NxN의 크기를 가질 수 있다. 나아가 제2 부호화 단위(1702)의 너비 및 높이를 1/2크기로 분할하여 결정된 제3 부호화 단위(1704)는 N/2xN/2의 크기를 가질 수 있다. 이 경우 제3 부호화 단위(1704)의 너비 및 높이는 제1 부호화 단위(1700)의 1/4배에 해당한다. 제1 부호화 단위(1700)의 심도가 D인 경우 제1 부호화 단위(1700)의 너비 및 높이의 1/2배인 제2 부호화 단위(1702)의 심도는 D+1일 수 있고, 제1 부호화 단위(1700)의 너비 및 높이의 1/4배인 제3 부호화 단위(1704)의 심도는 D+2일 수 있다.
일 실시예에 따라 비-정사각형 형태를 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는, 높이가 너비보다 긴 비-정사각형임을 나타내는 ′1: NS_VER′ 또는 너비가 높이보다 긴 비-정사각형임을 나타내는 ′2: NS_HOR′를 나타낼 수 있음)에 기초하여, 영상 복호화 장치(100)는 비-정사각형 형태인 제1 부호화 단위(1710 또는 1720)를 분할하여 하위 심도의 제2 부호화 단위(1712 또는 1722), 제3 부호화 단위(1714 또는 1724) 등을 결정할 수 있다.
영상 복호화 장치(100)는 Nx2N 크기의 제1 부호화 단위(1710)의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1702, 1712, 1722 등)를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(1710)를 수평 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1702) 또는 NxN/2 크기의 제2 부호화 단위(1722)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 N/2xN 크기의 제2 부호화 단위(1712)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(100)는 2NxN 크기의 제1 부호화 단위(1720) 의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1702, 1712, 1722 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(1720)를 수직 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1702) 또는 N/2xN 크기의 제2 부호화 단위(1712)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 NxN/2 크기의 제2 부호화 단위(1722)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(100)는 NxN 크기의 제2 부호화 단위(1702) 의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1704, 1714, 1724 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(1702)를 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1704)를 결정하거나 N/4xN/2 크기의 제3 부호화 단위(1714)를 결정하거나 N/2xN/4 크기의 제3 부호화 단위(1724)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 N/2xN 크기의 제2 부호화 단위(1712)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1704, 1714, 1724 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(1712)를 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1704) 또는 N/2xN/4 크기의 제3 부호화 단위(1724)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/4xN/2 크기의 제3 부호화 단위(1714)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 NxN/2 크기의 제2 부호화 단위(1722)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1704, 1714, 1724 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(1722)를 수직 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1704) 또는 N/4xN/2 크기의 제3 부호화 단위(1714)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/4크기의 제3 부호화 단위(1724)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 정사각형 형태의 부호화 단위(예를 들면, 1700, 1702, 1704)를 수평 방향 또는 수직 방향으로 분할할 수 있다. 예를 들면, 2Nx2N 크기의 제1 부호화 단위(1700)를 수직 방향으로 분할하여 Nx2N 크기의 제1 부호화 단위(1710)를 결정하거나 수평 방향으로 분할하여 2NxN 크기의 제1 부호화 단위(1720)를 결정할 수 있다. 일 실시예에 따라 심도가 부호화 단위의 가장 긴 변의 길이에 기초하여 결정되는 경우, 2Nx2N 크기의 제1 부호화 단위(1700)가 수평 방향 또는 수직 방향으로 분할되어 결정되는 부호화 단위의 심도는 제1 부호화 단위(1700)의 심도와 동일할 수 있다.
일 실시예에 따라 제3 부호화 단위(1714 또는 1724)의 너비 및 높이는 제1 부호화 단위(1710 또는 1720)의 1/4배에 해당할 수 있다. 제1 부호화 단위(1710 또는 1720)의 심도가 D인 경우 제1 부호화 단위(1710 또는 1720)의 너비 및 높이의 1/2배인 제2 부호화 단위(1712 또는 1722)의 심도는 D+1일 수 있고, 제1 부호화 단위(1710 또는 1720)의 너비 및 높이의 1/4배인 제3 부호화 단위(1714 또는 1724)의 심도는 D+2일 수 있다.
도 18은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1800)를 분할하여 다양한 형태의 제2 부호화 단위를 결정할 수 있다. 도 18을 참조하면, 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 제1 부호화 단위(1800)를 수직 방향 및 수평 방향 중 적어도 하나의 방향으로 분할하여 제2 부호화 단위(1802a, 1802b, 1804a, 1804b, 1806a, 1806b, 1806c, 1806d)를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(1800)에 대한 분할 형태 모드 정보에 기초하여 제2 부호화 단위(1802a, 1802b, 1804a, 1804b, 1806a, 1806b, 1806c, 1806d)를 결정할 수 있다.
일 실시예에 따라 정사각형 형태의 제1 부호화 단위(1800)에 대한 분할 형태 모드 정보에 따라 결정되는 제2 부호화 단위(1802a, 1802b, 1804a, 1804b, 1806a, 1806b, 1806c, 1806d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제1 부호화 단위(1800)의 한 변의 길이와 비-정사각형 형태의 제2 부호화 단위(1802a, 1802b, 1804a, 1804b)의 긴 변의 길이가 동일하므로, 제1 부호화 단위(1800)와 비-정사각형 형태의 제2 부호화 단위(1802a, 1802b, 1804a, 1804b)의 심도는 D로 동일하다고 볼 수 있다. 이에 반해 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1800)를 4개의 정사각형 형태의 제2 부호화 단위(1806a, 1806b, 1806c, 1806d)로 분할한 경우, 정사각형 형태의 제2 부호화 단위(1806a, 1806b, 1806c, 1806d)의 한 변의 길이는 제1 부호화 단위(1800)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1806a, 1806b, 1806c, 1806d)의 심도는 제1 부호화 단위(1800)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 높이가 너비보다 긴 형태의 제1 부호화 단위(1810)를 분할 형태 모드 정보에 따라 수평 방향으로 분할하여 복수개의 제2 부호화 단위(1812a, 1812b, 1814a, 1814b, 1814c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 너비가 높이보다 긴 형태의 제1 부호화 단위(1820)를 분할 형태 모드 정보에 따라 수직 방향으로 분할하여 복수개의 제2 부호화 단위(1822a, 1822b, 1824a, 1824b, 1824c)로 분할할 수 있다.
일 실시예에 따라 비-정사각형 형태의 제1 부호화 단위(1810 또는 1820)에 대한 분할 형태 모드 정보에 따라 결정되는 제2 부호화 단위(1812a, 1812b, 1814a, 1814b, 1814c. 1822a, 1822b, 1824a, 1824b, 1824c)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제2 부호화 단위(1812a, 1812b)의 한 변의 길이는 높이가 너비보다 긴 비-정사각형 형태의 제1 부호화 단위(1810)의 한 변의 길이의 1/2배이므로, 정사각형 형태의 제2 부호화 단위(1812a, 1812b)의 심도는 비-정사각형 형태의 제1 부호화 단위(1810)의 심도 D보다 한 심도 하위의 심도인 D+1이다.
나아가 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 비-정사각형 형태의 제1 부호화 단위(1810)를 홀수개의 제2 부호화 단위(1814a, 1814b, 1814c)로 분할할 수 있다. 홀수개의 제2 부호화 단위(1814a, 1814b, 1814c)는 비-정사각형 형태의 제2 부호화 단위(1814a, 1814c) 및 정사각형 형태의 제2 부호화 단위(1814b)를 포함할 수 있다. 이 경우 비-정사각형 형태의 제2 부호화 단위(1814a, 1814c)의 긴 변의 길이 및 정사각형 형태의 제2 부호화 단위(1814b)의 한 변의 길이는 제1 부호화 단위(1810)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1814a, 1814b, 1814c)의 심도는 제1 부호화 단위(1810)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(1810)와 관련된 부호화 단위들의 심도를 결정하는 상기 방식에 대응하는 방식으로, 너비가 높이보다 긴 비-정사각형 형태의 제1 부호화 단위(1820)와 관련된 부호화 단위들의 심도를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 분할된 부호화 단위들의 구분을 위한 인덱스(PID)를 결정함에 있어서, 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 18을 참조하면, 홀수개로 분할된 부호화 단위들(1814a, 1814b, 1814c) 중 가운데에 위치하는 부호화 단위(1814b)는 다른 부호화 단위들(1814a, 1814c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1814a, 1814c)의 높이의 두 배일 수 있다. 즉, 이 경우 가운데에 위치하는 부호화 단위(1814b)는 다른 부호화 단위들(1814a, 1814c)의 두 개를 포함할 수 있다. 따라서, 스캔 순서에 따라 가운데에 위치하는 부호화 단위(1814b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1814c)는 인덱스가 2가 증가한 3일수 있다. 즉 인덱스의 값의 불연속성이 존재할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 이러한 분할된 부호화 단위들 간의 구분을 위한 인덱스의 불연속성의 존재 여부에 기초하여 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌지 여부를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위로부터 분할되어 결정된 복수개의 부호화 단위들을 구분하기 위한 인덱스의 값에 기초하여 특정 분할 형태로 분할된 것인지를 결정할 수 있다. 도 18을 참조하면 영상 복호화 장치(100)는 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1810)를 분할하여 짝수개의 부호화 단위(1812a, 1812b)를 결정하거나 홀수개의 부호화 단위(1814a, 1814b, 1814c)를 결정할 수 있다. 영상 복호화 장치(100)는 복수개의 부호화 단위 각각을 구분하기 위하여 각 부호화 단위를 나타내는 인덱스(PID)를 이용할 수 있다. 일 실시예에 따라 PID는 각각의 부호화 단위의 소정 위치의 샘플(예를 들면, 좌측 상단 샘플)에서 획득될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 구분을 위한 인덱스를 이용하여 분할되어 결정된 부호화 단위들 중 소정 위치의 부호화 단위를 결정할 수 있다. 일 실시예에 따라 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1810)에 대한 분할 형태 모드 정보가 3개의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(100)는 제1 부호화 단위(1810)를 3개의 부호화 단위(1814a, 1814b, 1814c)로 분할할 수 있다. 영상 복호화 장치(100)는 3개의 부호화 단위(1814a, 1814b, 1814c) 각각에 대한 인덱스를 할당할 수 있다. 영상 복호화 장치(100)는 홀수개로 분할된 부호화 단위 중 가운데 부호화 단위를 결정하기 위하여 각 부호화 단위에 대한 인덱스를 비교할 수 있다. 영상 복호화 장치(100)는 부호화 단위들의 인덱스에 기초하여 인덱스들 중 가운데 값에 해당하는 인덱스를 갖는 부호화 단위(1814b)를, 제1 부호화 단위(1810)가 분할되어 결정된 부호화 단위 중 가운데 위치의 부호화 단위로서 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 분할된 부호화 단위들의 구분을 위한 인덱스를 결정함에 있어서, 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 18을 참조하면, 제1 부호화 단위(1810)가 분할되어 생성된 부호화 단위(1814b)는 다른 부호화 단위들(1814a, 1814c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1814a, 1814c)의 높이의 두 배일 수 있다. 이 경우 가운데에 위치하는 부호화 단위(1814b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1814c)는 인덱스가 2가 증가한 3일수 있다. 이러한 경우처럼 균일하게 인덱스가 증가하다가 증가폭이 달라지는 경우, 영상 복호화 장치(100)는 다른 부호화 단위들과 다른 크기를 가지는 부호화 단위를 포함하는 복수개의 부호화 단위로 분할된 것으로 결정할 수 있다, 일 실시예에 따라 분할 형태 모드 정보가 홀수개의 부호화 단위로 분할됨을 나타내는 경우, 영상 복호화 장치(100)는 홀수개의 부호화 단위 중 소정 위치의 부호화 단위(예를 들면 가운데 부호화 단위)가 다른 부호화 단위와 크기가 다른 형태로 현재 부호화 단위를 분할할 수 있다. 이 경우 영상 복호화 장치(100)는 부호화 단위에 대한 인덱스(PID)를 이용하여 다른 크기를 가지는 가운데 부호화 단위를 결정할 수 있다. 다만 상술한 인덱스, 결정하고자 하는 소정 위치의 부호화 단위의 크기 또는 위치는 일 실시예를 설명하기 위해 특정한 것이므로 이에 한정하여 해석되어서는 안되며, 다양한 인덱스, 부호화 단위의 위치 및 크기가 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 재귀적인 분할이 시작되는 소정의 데이터 단위를 이용할 수 있다.
도 19는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
일 실시예에 따라 소정의 데이터 단위는 부호화 단위가 분할 형태 모드 정보를 이용하여 재귀적으로 분할되기 시작하는 데이터 단위로 정의될 수 있다. 즉, 현재 픽쳐를 분할하는 복수개의 부호화 단위들이 결정되는 과정에서 이용되는 최상위 심도의 부호화 단위에 해당할 수 있다. 이하에서는 설명 상 편의를 위해 이러한 소정의 데이터 단위를 기준 데이터 단위라고 지칭하도록 한다.
일 실시예에 따라 기준 데이터 단위는 소정의 크기 및 형태를 나타낼 수 있다. 일 실시예에 따라, 기준 부호화 단위는 MxN의 샘플들을 포함할 수 있다. 여기서 M 및 N은 서로 동일할 수도 있으며, 2의 승수로 표현되는 정수일 수 있다. 즉, 기준 데이터 단위는 정사각형 또는 비-정사각형의 형태를 나타낼 수 있으며, 이후에 정수개의 부호화 단위로 분할될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐를 복수개의 기준 데이터 단위로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐를 분할하는 복수개의 기준 데이터 단위를 각각의 기준 데이터 단위에 대한 분할 형태 모드 정보를 이용하여 분할할 수 있다. 이러한 기준 데이터 단위의 분할 과정은 쿼드 트리(quad-tree)구조를 이용한 분할 과정에 대응될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐에 포함되는 기준 데이터 단위가 가질 수 있는 최소 크기를 미리 결정할 수 있다. 이에 따라, 영상 복호화 장치(100)는 최소 크기 이상의 크기를 갖는 다양한 크기의 기준 데이터 단위를 결정할 수 있고, 결정된 기준 데이터 단위를 기준으로 분할 형태 모드 정보를 이용하여 적어도 하나의 부호화 단위를 결정할 수 있다.
도 19를 참조하면, 영상 복호화 장치(100)는 정사각형 형태의 기준 부호화 단위(1900)를 이용할 수 있고, 또는 비-정사각형 형태의 기준 부호화 단위(1902)를 이용할 수도 있다. 일 실시예에 따라 기준 부호화 단위의 형태 및 크기는 적어도 하나의 기준 부호화 단위를 포함할 수 있는 다양한 데이터 단위(예를 들면, 시퀀스(sequence), 픽쳐(picture), 슬라이스(slice), 슬라이스 세그먼트(slice segment), 최대부호화단위 등)에 따라 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)의 수신부(미도시)는 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보 중 적어도 하나를 상기 다양한 데이터 단위마다 비트스트림으로부터 획득할 수 있다. 정사각형 형태의 기준 부호화 단위(1900)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 15의 현재 부호화 단위(1500)가 분할되는 과정을 통해 상술하였고, 비-정사각형 형태의 기준 부호화 단위(1902)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 16의 현재 부호화 단위(1600 또는 1650)가 분할되는 과정을 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 소정의 조건에 기초하여 미리 결정되는 일부 데이터 단위에 따라 기준 부호화 단위의 크기 및 형태를 결정하기 위하여, 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용할 수 있다. 즉, 수신부(미도시)는 비트스트림으로부터 상기 다양한 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 최대부호화단위 등) 중 소정의 조건(예를 들면 슬라이스 이하의 크기를 갖는 데이터 단위)을 만족하는 데이터 단위로서 슬라이스, 슬라이스 세그먼트, 최대부호화 단위 등 마다, 기준 부호화 단위의 크기 및 형태의 식별을 위한 인덱스만을 획득할 수 있다. 영상 복호화 장치(100)는 인덱스를 이용함으로써 상기 소정의 조건을 만족하는 데이터 단위마다 기준 데이터 단위의 크기 및 형태를 결정할 수 있다. 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 상대적으로 작은 크기의 데이터 단위마다 비트스트림으로부터 획득하여 이용하는 경우, 비트스트림의 이용 효율이 좋지 않을 수 있으므로, 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 직접 획득하는 대신 상기 인덱스만을 획득하여 이용할 수 있다. 이 경우 기준 부호화 단위의 크기 및 형태를 나타내는 인덱스에 대응하는 기준 부호화 단위의 크기 및 형태 중 적어도 하나는 미리 결정되어 있을 수 있다. 즉, 영상 복호화 장치(100)는 미리 결정된 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 인덱스에 따라 선택함으로써, 인덱스 획득의 기준이 되는 데이터 단위에 포함되는 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 하나의 최대 부호화 단위에 포함하는 적어도 하나의 기준 부호화 단위를 이용할 수 있다. 즉, 영상을 분할하는 최대 부호화 단위에는 적어도 하나의 기준 부호화 단위가 포함될 수 있고, 각각의 기준 부호화 단위의 재귀적인 분할 과정을 통해 부호화 단위가 결정될 수 있다. 일 실시예에 따라 최대 부호화 단위의 너비 및 높이 중 적어도 하나는 기준 부호화 단위의 너비 및 높이 중 적어도 하나의 정수배에 해당할 수 있다. 일 실시예에 따라 기준 부호화 단위의 크기는 최대부호화단위를 쿼드 트리 구조에 따라 n번 분할한 크기일 수 있다. 즉, 영상 복호화 장치(100)는 최대부호화단위를 쿼드 트리 구조에 따라 n 번 분할하여 기준 부호화 단위를 결정할 수 있고, 다양한 실시예들에 따라 기준 부호화 단위를 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 분할할 수 있다.
도 20은 일 실시예에 따라 픽쳐(2000)에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 픽쳐를 분할하는 적어도 하나의 프로세싱 블록을 결정할 수 있다. 프로세싱 블록이란, 영상을 분할하는 적어도 하나의 기준 부호화 단위를 포함하는 데이터 단위로서, 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위는 특정 순서대로 결정될 수 있다. 즉, 각각의 프로세싱 블록에서 결정되는 적어도 하나의 기준 부호화 단위의 결정 순서는 기준 부호화 단위가 결정될 수 있는 다양한 순서의 종류 중 하나에 해당할 수 있으며, 각각의 프로세싱 블록에서 결정되는 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록마다 결정되는 기준 부호화 단위의 결정 순서는 래스터 스캔(raster scan), Z 스캔(Z-scan), N 스캔(N-scan), 우상향 대각 스캔(up-right diagonal scan), 수평적 스캔(horizontal scan), 수직적 스캔(vertical scan) 등 다양한 순서 중 하나일 수 있으나, 결정될 수 있는 순서는 상기 스캔 순서들에 한정하여 해석되어서는 안 된다.
일 실시예에 따라 영상 복호화 장치(100)는 프로세싱 블록의 크기에 대한 정보를 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 영상 복호화 장치(100)는 프로세싱 블록의 크기에 대한 정보를 비트스트림으로부터 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 이러한 프로세싱 블록의 크기는 프로세싱 블록의 크기에 대한 정보가 나타내는 데이터 단위의 소정의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)의 수신부(미도시)는 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 특정의 데이터 단위마다 획득할 수 있다. 예를 들면 프로세싱 블록의 크기에 대한 정보는 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트 등의 데이터 단위로 비트스트림으로부터 획득될 수 있다. 즉 수신부(미도시)는 상기 여러 데이터 단위마다 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 획득할 수 있고 영상 복호화 장치(100)는 획득된 프로세싱 블록의 크기에 대한 정보를 이용하여 픽쳐를 분할하는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있으며, 이러한 프로세싱 블록의 크기는 기준 부호화 단위의 정수배의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 픽쳐(2000)에 포함되는 프로세싱 블록(2002, 2012)의 크기를 결정할 수 있다. 예를 들면, 영상 복호화 장치(100)는 비트스트림으로부터 획득된 프로세싱 블록의 크기에 대한 정보에 기초하여 프로세싱 블록의 크기를 결정할 수 있다. 도 20을 참조하면, 영상 복호화 장치(100)는 일 실시예에 따라 프로세싱 블록(2002, 2012)의 가로크기를 기준 부호화 단위 가로크기의 4배, 세로크기를 기준 부호화 단위의 세로크기의 4배로 결정할 수 있다. 영상 복호화 장치(100)는 적어도 하나의 프로세싱 블록 내에서 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(100)는 프로세싱 블록의 크기에 기초하여 픽쳐(2000)에 포함되는 각각의 프로세싱 블록(2002, 2012)을 결정할 수 있고, 프로세싱 블록(2002, 2012)에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서를 결정할 수 있다. 일 실시예에 따라 기준 부호화 단위의 결정은 기준 부호화 단위의 크기의 결정을 포함할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 비트스트림으로부터 적어도 하나의 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서에 대한 정보를 획득할 수 있고, 획득한 결정 순서에 대한 정보에 기초하여 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다. 결정 순서에 대한 정보는 프로세싱 블록 내에서 기준 부호화 단위들이 결정되는 순서 또는 방향으로 정의될 수 있다. 즉, 기준 부호화 단위들이 결정되는 순서는 각각의 프로세싱 블록마다 독립적으로 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 특정 데이터 단위마다 기준 부호화 단위의 결정 순서에 대한 정보를 비트스트림으로부터 획득할 수 있다. 예를 들면, 수신부(미도시)는 기준 부호화 단위의 결정 순서에 대한 정보를 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 프로세싱 블록 등의 데이터 단위로마다 비트스트림으로부터 획득할 수 있다. 기준 부호화 단위의 결정 순서에 대한 정보는 프로세싱 블록 내에서의 기준 부호화 단위 결정 순서를 나타내므로, 결정 순서에 대한 정보는 정수개의 프로세싱 블록을 포함하는 특정 데이터 단위 마다 획득될 수 있다.
영상 복호화 장치(100)는 일 실시예에 따라 결정된 순서에 기초하여 적어도 하나의 기준 부호화 단위를 결정할 수 있다.
일 실시예에 따라 수신부(미도시)는 비트스트림으로부터 프로세싱 블록(2002, 2012)과 관련된 정보로서, 기준 부호화 단위 결정 순서에 대한 정보를 획득할 수 있고, 영상 복호화 장치(100)는 상기 프로세싱 블록(2002, 2012)에 포함된 적어도 하나의 기준 부호화 단위를 결정하는 순서를 결정하고 부호화 단위의 결정 순서에 따라 픽쳐(2000)에 포함되는 적어도 하나의 기준 부호화 단위를 결정할 수 있다. 도 20을 참조하면, 영상 복호화 장치(100)는 각각의 프로세싱 블록(2002, 2012)과 관련된 적어도 하나의 기준 부호화 단위의 결정 순서(2004, 2014)를 결정할 수 있다. 예를 들면, 기준 부호화 단위의 결정 순서에 대한 정보가 프로세싱 블록마다 획득되는 경우, 각각의 프로세싱 블록(2002, 2012)과 관련된 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록(2002)과 관련된 기준 부호화 단위 결정 순서(2004)가 래스터 스캔(raster scan)순서인 경우, 프로세싱 블록(2002)에 포함되는 기준 부호화 단위는 래스터 스캔 순서에 따라 결정될 수 있다. 이에 반해 다른 프로세싱 블록(2012)과 관련된 기준 부호화 단위 결정 순서(2014)가 래스터 스캔 순서의 역순인 경우, 프로세싱 블록(2012)에 포함되는 기준 부호화 단위는 래스터 스캔 순서의 역순에 따라 결정될 수 있다.
영상 복호화 장치(100)는 일 실시예에 따라, 결정된 적어도 하나의 기준 부호화 단위를 복호화할 수 있다. 영상 복호화 장치(100)는 상술한 실시예를 통해 결정된 기준 부호화 단위에 기초하여 영상을 복호화 할 수 있다. 기준 부호화 단위를 복호화 하는 방법은 영상을 복호화 하는 다양한 방법들을 포함할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위의 형태를 나타내는 블록 형태 정보 또는 현재 부호화 단위를 분할하는 방법을 나타내는 분할 형태 모드 정보를 비트스트림으로부터 획득하여 이용할 수 있다. 분할 형태 모드 정보는 다양한 데이터 단위와 관련된 비트스트림에 포함될 수 있다. 예를 들면, 영상 복호화 장치(100)는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header)에 포함된 분할 형태 모드 정보를 이용할 수 있다. 나아가, 영상 복호화 장치(100)는 최대 부호화 단위, 기준 부호화 단위, 프로세싱 블록마다 비트스트림으로부터 블록 형태 정보 또는 분할 형태 모드 정보에 대응하는 신택스 엘리먼트를 비트스트림으로부터 획득하여 이용할 수 있다.
이하 본 개시의 일 실시예에 따른 분할 규칙을 결정하는 방법에 대하여 자세히 설명한다.
영상 복호화 장치(100)는 영상의 분할 규칙을 결정할 수 있다. 분할 규칙은 영상 복호화 장치(100) 및 영상 부호화 장치(400) 사이에 미리 결정되어 있을 수 있다. 영상 복호화 장치(100)는 비트스트림으로부터 획득된 정보에 기초하여 영상의 분할 규칙을 결정할 수 있다. 영상 복호화 장치(100)는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header) 중 적어도 하나로부터 획득된 정보에 기초하여 분할 규칙을 결정할 수 있다. 영상 복호화 장치(100)는 분할 규칙을 프레임, 슬라이스, 템포럴 레이어(Temporal layer), 최대 부호화 단위 또는 부호화 단위에 따라 다르게 결정할 수 있다.
영상 복호화 장치(100)는 부호화 단위의 블록 형태에 기초하여 분할 규칙을 결정할 수 있다. 블록 형태는 부호화 단위의 크기, 모양, 너비 및 높이의 비율, 방향을 포함할 수 있다. 영상 부호화 장치(400) 및 영상 복호화 장치(100)는 부호화 단위의 블록 형태에 기초하여 분할 규칙을 결정할 것을 미리 결정할 수 있다. 하지만 이에 한정되는 것은 아니다. 영상 복호화 장치(100)는 영상 부호화 장치(400)로부터 수신된 비트스트림으로부터 획득된 정보에 기초하여, 분할 규칙을 결정할 수 있다.
부호화 단위의 모양은 정사각형(square) 및 비-정사각형(non-square)을 포함할 수 있다. 부호화 단위의 너비 및 높이의 길이가 같은 경우, 영상 복호화 장치(100)는 부호화 단위의 모양을 정사각형으로 결정할 수 있다. 또한, 부호화 단위의 너비 및 높이의 길이가 같지 않은 경우, 영상 복호화 장치(100)는 부호화 단위의 모양을 비-정사각형으로 결정할 수 있다.
부호화 단위의 크기는 4x4, 8x4, 4x8, 8x8, 16x4, 16x8, ... , 256x256의 다양한 크기를 포함할 수 있다. 부호화 단위의 크기는 부호화 단위의 긴변의 길이, 짧은 변의 길이또는 넓이에 따라 분류될 수 있다. 영상 복호화 장치(100)는 동일한 그룹으로 분류된 부호화 단위에 동일한 분할 규칙을 적용할 수 있다. 예를 들어 영상 복호화 장치(100)는 동일한 긴변의 길이를 가지는 부호화 단위를 동일한 크기로 분류할 수 있다. 또한 영상 복호화 장치(100)는 동일한 긴변의 길이를 가지는 부호화 단위에 대하여 동일한 분할 규칙을 적용할 수 있다.
부호화 단위의 너비 및 높이의 비율은 1:2, 2:1, 1:4, 4:1, 1:8, 8:1, 1:16 또는 16:1 등을 포함할 수 있다. 또한, 부호화 단위의 방향은 수평 방향 및 수직 방향을 포함할 수 있다. 수평 방향은 부호화 단위의 너비의 길이가 높이의 길이보다 긴 경우를 나타낼 수 있다. 수직 방향은 부호화 단위의 너비의 길이가 높이의 길이보다 짧은 경우를 나타낼 수 있다.
영상 복호화 장치(100)는 부호화 단위의 크기에 기초하여 분할 규칙을 적응적으로 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 크기에 기초하여 허용가능한 분할 형태 모드를 다르게 결정할 수 있다. 예를 들어, 영상 복호화 장치(100)는 부호화 단위의 크기에 기초하여 분할이 허용되는지 여부를 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 크기에 따라 분할 방향을 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 크기에 따라 허용가능한 분할 타입을 결정할 수 있다.
부호화 단위의 크기에 기초하여 분할 규칙을 결정하는 것은 영상 부호화 장치(150) 및 영상 복호화 장치(100) 사이에 미리 결정된 분할 규칙일 수 있다. 또한, 영상 복호화 장치(100)는 비트스트림으로부터 획득된 정보에 기초하여, 분할 규칙을 결정할 수 있다.
영상 복호화 장치(100)는 부호화 단위의 위치에 기초하여 분할 규칙을 적응적으로 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위가 영상에서 차지하 는 위치에 기초하여 분할 규칙을 적응적으로 결정할 수 있다.
또한, 영상 복호화 장치(100)는 서로 다른 분할 경로로 생성된 부호화 단위가 동일한 블록 형태를 가지지 않도록 분할 규칙을 결정할 수 있다. 다만 이에 한정되는 것은 아니며 서로 다른 분할 경로로 생성된 부호화 단위는 동일한 블록 형태를 가질 수 있다. 서로 다른 분할 경로로 생성된 부호화 단위들은 서로 다른 복호화 처리 순서를 가질 수 있다. 복호화 처리 순서에 대해서는 도 16과 함께 설명하였으므로 자세한 설명은 생략한다.
이하 도 21a 내지 도 30을 참조하여, 다양한 실시예들에 따라, 현재 블록의 인터 예측 모드에 기초하여 적응적으로 참조 샘플에 필터를 적용하는 영상 부호화 장치 및 영상 복호화 장치, 영상 부호화 방법 및 영상 복호화 방법에 대하여 자세히 설명한다.
도 21a 및 21B는 다양한 실시예들에 따른 인터 예측 시 움직임 보상을 위하여 참조 샘플에 필터링을 수행하는 방법을 설명하기 위한 도면이다.
도 21a는 다양한 실시예에 따른, 정수 화소(integer pixel) 위치의 참조 샘플들 및 부화소(sub-pixel) 위치의 참조 샘플들을 도시한다.
정수 화소 사이에 위치하는 부화소 위치의 참조 샘플들을 생성하기 위해, 정소 화소 위치의 참조 샘플들에 보간 필터가 적용될 수 있다. 보간 필터는 생성될 부화소 위치의 참조 샘플에 인접하는 정수 화소 위치의 이웃 샘플들에 대해 적용될 수 있다. 예를 들어, 보간 필터의 적용이라 함은, 보간 필터의 계수들과 정수 화소 위치의 샘플값들을 차례로 곱하고, 곱셈 결과값을 합산한 값 (또는 합산한 값을 스케일링한 값)을 보간 샘플값으로서 생성하는 과정이다. 보간 필터가 적용되는 정수 화소 위치의 샘플들은, 생성될 부화소 위치의 참조 샘플을 중심으로 일렬로 나열된 샘플들로서, 보간 필터의 계수들의 개수와 동일한 개수의 샘플들에 대해 보간 필터가 적용될 수 있다.
도 21a에 도시된 참조 샘플들 중에서, A, B, C, D, E, F, G, H, I, J, K, L과 같이 알파벳 대문자로 표기된 샘플들은 정수 화소 위치의 샘플이다. a, b, c, e, f, g와 같이, 알파벳 소문자로 표기된 샘플들은 부화소 위치의 샘플이다. 도 21a는 1/4-화소 단위의 부화소들만을 도시하고 있으나, 이에 한정되지 아니하며, 1/8-화소 단위, 1/16-화소 단위 또는 그보다 더 작은 단위로 부화소 위치의 샘플을 생성할 수도 있다.
예를 들어, 도 21a의 예시 2100을 참조하면, A, B, C, D, E, F, G, H와 같이 부화소 위치에 인접한 8개의 정수 화소 위치의 참조 샘플들에 대해 보간 필터를 적용함으로써 부화소 위치의 샘플 a, b, 및 c가 생성될 수 있다. 즉, 부화소 위치의 샘플을 생성하기 위한 보간 필터는 8탭 필터일 수 있다. 이 때 보간 필터를 적용할 정수 화소 위치의 참조 샘플들은 부화소 위치의 좌측 및 우측에서 인접한 순서대로 선택될 수 있다. 다만, 부화소 위치의 샘플 a를 생성하기 위한 보간 필터의 필터 계수 세트와, 부화소 위치의 샘플 b를 생성하기 위한 보간 필터의 필터 계수 세트 및 부화소 위치의 샘플 c를 생성하기 위한 보간 필터의 필터 계수 세트는 각각 다를 수 있다.
다른 예를 들어, 도 21a의 예시 2110을 참조하면, I, J, K, L과 같이 부화소 위치에 인접한 4개의 정수 화소 위치의 참조 샘플들에 대해 보간 필터를 적용함으로써 부화소 위치의 샘플 e, g, 및 f가 생성될 수 있다. 즉, 부화소 위치의 샘플을 생성하기 위한 보간 필터는 4탭 필터일 수 있다. 부화소 위치의 샘플 e를 생성하기 위한 보간 필터의 필터 계수 세트와, 부화소 위치의 샘플 f를 생성하기 위한 보간 필터의 필터 계수 세트 및 부화소 위치의 샘플 g를 생성하기 위한 보간 필터의 필터 계수 세트는 각각 다를 수 있다.
다양한 실시예들에서, 영상 부호화 장치(400)와 영상 복호화 장치(100)가 움직임 보상(예측)을 위한 참조 샘플을 생성하기 위해 이용하는 보간 필터는, 현재 블록의 인터 예측 모드에 기초하여 결정될 수 있다. 다양한 실시예들에서, 현재 블록의 인터 예측 모드에 기초하여 보간 필터의 방향 또는 크기가 결정될 수 있다.
다양한 실시예들에서, 영상 부호화 장치(400)과 영상 복호화 장치(100)가 움직임 보상(예측)을 위한 참조 샘플을 생성하기 위해 이용하는 보간 필터는, 현재 블록의 크기, 현재 블록이 루마 블록인지 크로마 블록인지 여부, 및/또는 현재 블록의 인터 예측 모드가 단방향 예측인지 양방향 예측인지 여부에 따라서도 결정될 수 있다.
도면에서는 가로 방향의 인접한 정수 화소 위치의 참조 샘플을 이용하는 예만이 도시되었으나, 이와 유사하게, 세로 방향의 인접한 정수 화소 위치의 참조 샘플에 보간 필터를 적용하여 부화소 위치의 샘플을 생성할 수 있다.
도 21b는 현재 블록의 인터 예측에 필요한 참조 샘플들의 예시를 도시한다.
영상 복호화 장치(100)는 현재 블록의 참조 픽처 인덱스가 가리키는 참조 픽처(2150)에서, 현재 블록의 움직임 벡터가 가리키는 참조 샘플의 위치로부터 참조 블록(2180)을 결정할 수 있다. 예를 들어, 현재 블록의 움직임 벡터가 참조 블록 내의 좌측 상단 경계에 위치한 샘플을 가리키도록 참조 블록이 결정될 수 있다.
다양한 실시예들에서, 현재 블록의 움직임 벡터가 가리키는 참조 샘플이 부화소 위치의 샘플인 경우, 참조 블록(2180)은 현재 블록의 크기와 동일한 개수의 부화소 위치의 참조 샘플들을 포함할 수 있다. 참조 블록(2180)에 포함되는 각 부화소 위치의 참조 샘플을 생성하기 위하여, 도 21a에 도시한 것과 같이 정수 위치의 주변 참조 샘플이 이용될 수 있다. 따라서, 현재 블록에 대응되는 참조 블록(2180)을 생성하기 위해서 필요한 참조 샘플은, 참조 블록(2180) 내의 정수 화소 위치의 샘플 및 참조 블록(2180)에 인접한 정수 화소 위치의 샘플(2170)을 포함할 수 있다.
도 21b는 현재 블록의 크기가 8x8이고, 보간 필터로는 가로 및 세로 방향으로 8탭 필터를 사용하는 경우의 한 예시를 도시한다. 이 경우, 현재 블록의 움직임 벡터에 기초하여 결정된 참조 블록(2180)은 8x8=64개의 부화소 위치 참조 샘플을 포함할 수 있다. 각 부화소 위치마다 좌우 또는 상하에 인접한 정수 화소 위치의 참조 샘플이 8개씩 선택되고, 선택된 정수 위치의 참조 샘플에 보간 필터를 적용하여 부화소 위치의 참조 샘플이 생성될 수 있다. 예를 들어, 64개의 부화소 위치의 참조 샘플을 생성하기 위해서, 참조 블록 내의 정수 화소 위치 참조 샘플 및 참조 블록의 좌측에 인접한 3열, 우측 에 인접한 4열, 상측에 인접한 3행 및 하측에 인접한 4행의 정수 화소 위치 참조 샘플에 보간 필터가 적용될 수 있다. 이 경우, 8x8 크기의 현재 블록의 인터 예측을 위해 참조 픽처로부터 읽어와야 하는 복원된 참조 샘플의 개수는 최대 (8+7)X(8+7)=225개이다.
도 22a는 다양한 실시예들에 따른, 현재 블록의 인터 예측에 필요한 참조 샘플들을 도시한다. 도 22a는 도 21a 및 도 21b에서 상술한 실시예들의 보다 일반화된 예시일 수 있다.
현재 블록(2210)의 가로 너비를 W, 세로 길이를 H라고 한다. 상기 현재 블록(2210)의 참조 픽처 인덱스가 가리키는 참조 픽처 내에서, 움직임 벡터가 가리키는 위치가 참조 샘플 위치(2230)로 결정될 수 있다. 참조 샘플 위치(2230)는 현재 블록(2210)의 좌측 상단의 좌표에 현재 블록(2210)의 움직임 벡터 성분을 더한 좌표로 결정될 수 있다. 참조 샘플 위치(2230)는 현재 블록(2210)이 인터 예측에서 참조할 참조 블록(2240)의 좌측 상단의 위치를 나타내는 것일 수 있다.
보간 필터가 분리 가능한 2차원 필터, 즉 가로 필터와 세로 필터로 구성되어 있으며, 필터의 크기가 T인 경우, 즉 T탭 필터를 사용하는 경우를 가정한다. 이 경우 참조 블록(2240) 내의 부화소 위치의 참조 샘플을 생성하기 위해서는 상하 및 좌우로 각각 T개의 인접한 정수 화소 위치의 참조 샘플이 필요하다. 따라서, 참조 블록에 포함된 모든 참조 샘플들을 생성하기 위해 복원된 참조 픽처로부터 읽어들여야 하는 복원된 참조 샘플들(2220)의 개수는 최대 (W+T-1)×(H+T-1) 이다.
결론적으로, 현재 샘플을 예측하기 위하여 메모리에 저장된 복원된 참조 픽처에서 읽어들여야 하는 참조 샘플들의 평균 개수는 수학식 1과 같이 나타낼 수 있다.
Figure PCTKR2019000198-appb-img-000001
다양한 실시예들에서, 상기 수학식 1을 메모리 대역폭으로 정의할 수 있다. 수학식 1에 따르면, 현재 블록의 크기(W, H)가 작아질수록 메모리 대역폭은 커지며, 보간 필터의 크기(즉, 탭수 T)가 커질수록 메모리 대역폭이 커진다. 그러므로, 메모리 대역폭이 일정 수준 이내로 유지되기 위해서는 현재 블록의 크기가 작아질 경우 필터의 탭 수가 작아져야 할 수 있다.
다양한 실시예들에서, 영상 복호화 장치(100)는 상기 메모리 대역폭이 소정의 범위 이내가 되도록 필터 정보를 결정할 수 있다. 다양한 실시예들에서, 영상 복호화 장치(100)는 현재 블록의 크기에 따라 필터의 크기를 결정함으로써 메모리 대역폭을 조절할 수 있다. 일 실시예에서, 영상 복호화 장치(100)는 현재 블록의 크기가 소정의 기준값 이상인 경우 제1 탭수의 필터를 사용하고, 그렇지 않을 경우 제 1 탭수보다 더 작은 제2 탭수의 필터를 사용하도록 결정할 수 있다. 일 실시예에서, 상기 소정의 기준값은 현재 블록의 인터 예측 모드에 따라 결정될 수 있다. 일 실시예에서, 영상 부호화 장치(400) 또는 영상 복호화 장치(100)는 현재 블록의 크기를 복수의 기준값들과 비교할 수 있고, 비교 결과에 따라 복수의 필터들 중 어느 것을 사용할지 결정할 수 있다.
도 22b는 다양한 실시예들에 따른, 현재 블록이 복수의 참조 블록을 참조하는 경우 현재 블록의 인터 예측에 필요한 참조 샘플들을 도시한다.
도 22b는 도 22a와 동일하게 현재 블록(2210)의 가로 너비를 W, 세로 길이를 H라고 하며, 보간 필터로 분리 가능한 2차원 T탭 필터를 사용하나, 도 22a와 달리 현재 블록이 양방향 예측되는 경우의 실시예를 도시하고 있다.
현재 블록이 양방향 예측되는 경우, 현재 블록의 인터 예측을 위해 두 개의 움직임 벡터가 결정된다. 따라서, 움직임 벡터들이 가리키는 참조 샘플 위치들 및 참조 샘플 위치들에 대응되는 참조 블록들도 두 개씩 결정될 수 있다. 두 개의 참조 샘플 위치들은 동일한 참조 픽처 내의 위치를 가리킬 수 있고, 각각 다른 참조 픽처 내의 위치를 가리킬 수도 있다. 이 경우 참조 블록들의 참조 샘플들을 생성하기 위해 필요한 복원된 참조 샘플들(2220, 2250)의 최대 개수는 단방향 예측의 두 배인 2 × (W+T-1)×(H+T-1) 이다.
현재 블록이 N개의 참조 블록을 참조하는 경우, 현재 샘플을 예측하기 위하여 메모리에 저장된 적어도 하나의 복원된 참조 픽처에서 읽어들여야 하는 참조 샘플들의 평균 개수는 수학식 2와 같이 나타낼 수 있다.
Figure PCTKR2019000198-appb-img-000002
다양한 실시예들에서, 상기 수학식 2를 메모리 대역폭으로 정의할 수 있다. 수학식 2에 따르면, 예측에 사용되는 참조 블록의 개수가 늘어날수록 메모리 대역폭이 커지며, 보간 필터의 크기(즉, 탭수 T)가 커질수록 메모리 대역폭이 커진다. 그러므로, 메모리 대역폭이 일정 수준 이내로 유지되기 위해서는 참조 블록의 개수가 늘어날 경우 필터의 탭 수가 작아져야 할 수 있다.
다양한 실시예들에서, 영상 복호화 장치(100)는 필터 정보는 상기 메모리 대역폭이 소정의 범위 이내가 되도록 결정될 수 있다. 다양한 실시예들에서, 영상 복호화 장치(100)는 현재 블록의 인터 예측이 단방향 예측인지 양방향 예측인지에 기초하여 필터의 크기를 결정함으로써 메모리 대역폭을 조절할 수 있다. 일 실시예에서, 영상 복호화 장치(100)는 현재 블록이 단방향 예측되는 경우 제1 필터를 사용하도록 결정하고, 현재 블록이 양방향 예측되는 경우 제2 필터를 사용하도록 결정할 수 있다. 일 실시예에서, 상기 제1 필터의 크기는 상기 제2 필터의 크기의 두 배일 수 있다.
다양한 실시예들에서, 영상 복호화 장치(100)는 현재 블록이 참조하는 참조 블록의 개수에 기초하여 필터의 크기를 결정함으로써 메모리 대역폭을 조절할 수 있다. 일 실시예에서, 영상 복호화 장치(100)는 현재 블록이 참조하는 참조 블록의 개수가 소정의 기준값 이하인 경우 제1 탭수의 필터를 사용하고, 그렇지 않을 경우 제 1 탭수보다 더 작은 제2 탭수의 필터를 사용하도록 결정할 수 있다. 일 실시예에서, 영상 복호화 장치(100)는 현재 블록이 참조하는 참조 블록의 개수를 복수의 기준값들과 비교할 수 있고, 비교 결과에 따라 복수의 필터들 중 어느 것을 사용할지 결정할 수 있다.
도 23은 다양한 실시예들에 따른, 현재 블록의 인터 예측에 필요한 메모리 대역폭을 나타낸다.
도 23의 표 2300은, 도 22a 또는 도 22b의 실시예에 따라, 가로 너비를 W, 세로 길이를 H라고 하며, 보간 필터로 분리 가능한 2차원 T탭 필터를 사용하는 경우, 수학식 1 및 수학식 2에 의해 계산되는 메모리 대역폭을 나타낸다. 루마 블록의 경우(2310)와, 4:2:0 샘플링되는 크로마 블록의 경우(2320)에 대하여, 현재 블록의 크기와 탭수에 따른 다양한 예시가 제공된다.
HEVC/H.265 표준에서는 루마 블록의 경우, 4x4 크기의 블록에 대한 인터 예측이 허용되지 않는다. 현재 블록이 4x8 또는 8x4 크기인 경우 단방향 예측만이 허용된다. 현재 블록이 8x8 크기 이상인 경우 양방향 예측이 허용된다. 따라서, 도 23을 참조하면, HEVC에서 허용되는 것 중 최대의 메모리 대역폭을 필요로 하는 경우는 현재 블록이 8x8 크기이고 양방향 예측일 때 8탭 필터를 사용하는 경우이고, 수학식 2에 따르면 이 때 메모리 대역폭은 약 7.03으로 계산된다. 이 값을 HEVC 한도(limit)라고 정의할 수 있다.
다양한 실시예들에서, 영상 복호화 장치(100)는 수학식 1 또는 수학식 2에 의해 계산되는 메모리 대역폭이 소정의 기준값을 넘지 않도록 필터의 크기를 결정할 수 있다. 일 실시예에서, 영상 복호화 장치(100)는 현재 블록의 크기, 필터의 탭수, 단방향/양방향 예측 여부의 조합에 따른 메모리 대역폭이 소정의 기준값보다 작은 경우, 상기 조합을 인터 예측에서 사용 가능한 것으로 결정할 수 있다.
예를 들어, 상기 소정의 기준값은 상기 HEVC 한도와 같을 수 있다. 상기 HEVC 한도보다 큰 메모리 대역폭의 값은 도 23 및 본 개시의 다른 도면들의 표에서 굵은 글씨체로 표시된다.
루마 블록의 경우(2310), 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 현재 블록이 4x4 크기인 경우, 단방향 및 양방향 예측에서 필터의 크기를 4탭 이하로 결정할 수 있다. 다른 실시예에 따르면, 현재 블록이 4x4 크기인 경우 단방향 예측에서 8탭 필터를 허용할 수도 있다.
크로마 블록의 경우(2320), 4:2:0 샘플링되는 경우 크로마 블록에 포함되는 샘플의 개수는 같은 크기의 루마 블록의 1/4이므로, 메모리 대역폭은 수학식 1 또는 수학식 2에 의해 계산된 것을 4로 나눈 것과 같다. 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 현재 크로마 블록이 2x2 크기인 경우, 단방향 예측에서는 필터의 크기를 8탭 이하로 결정할 수 있고, 양방향 예측에서는 필터의 크기를 4탭 이하로 결정할 수 있다.
도 24는 다양한 실시예들에 따른, 수직 및 수평 방향으로 각각 다른 크기의 필터를 사용하는 경우, 현재 블록의 인터 예측에 필요한 참조 샘플들을 도시한다.
도 22a 내지 도 23에서 가정한 것과 마찬가지로, 현재 블록(2410)의 가로 너비를 W, 세로 길이를 H라고 하고, 참조 샘플을 획득하기 위한 보간 필터가 분리 가능한 2차원 필터, 즉 가로 필터와 세로 필터로 구성되어 있다고 가정한다. 그러나 앞선 실시예와는 달리, 가로 방향으로는 T1-탭 필터를 적용하고, 세로 방향으로는 T2-탭 필터를 적용한다고 가정한다.
이 경우 부화소 위치의 참조 샘플을 생성하기 위해서는 각 부화소 위치마다 좌우로 T1개, 상하로 T2개의 인접한 정수 화소 위치의 참조 샘플이 필요하다. 따라서, 현재 블록(2410)에 대응되는 참조 블록(점선으로 도시)에 포함된 모든 참조 샘플들을 생성하기 위해 복원된 참조 픽처로부터 읽어와야 하는 복원된 참조 샘플들(2420)의 총 개수는 (W+T1-1)Х(H+T2-1) 이다.
따라서, 현재 샘플을 예측하기 위하여 메모리에 저장된 복원된 참조 픽처에서 읽어들여야 하는 참조 샘플들의 평균 개수, 즉 메모리 대역폭은 수학식 3과 같이 정의할 수 있다.
Figure PCTKR2019000198-appb-img-000003
이 때 N은 현재 블록의 인터 예측을 위해 참조되는 참조 블록의 개수를 의미한다. 단방향 예측일 경우 N은 1, 양방향 예측일 경우 N은 2이다.
일 실시예에 따르면, 영상 복호화 장치(100)는 수학식 3에 의해 계산되는 메모리 대역폭이 소정의 범위 이내가 되도록 가로 필터의 크기 및 세로 필터의 크기를 각각 독립적으로 결정할 수 있다. 일 실시예에 따르면, 가로 방향 너비 W에 기초하여 가로 방향 필터의 탭수 T1을 결정하고, 세로 방향 길이 H에 기초하여 세로 방향 필터의 탭수 T2를 결정할 수 있다. 일 실시예에서, 영상 복호화 장치(100)는 현재 블록이 비정방형일 경우 가로 방향 필터와 세로 방향 필터를 서로 다른 크기의 필터로 결정할 수 있다.
일 실시예에 따르면, 영상 복호화 장치(100)는 현재 블록의 가로 너비와 세로 길이의 비율에 기초하여 가로 방향 필터 정보 및 세로 방향 필터 정보를 결정할 수 있다. 예를 들어, 현재 블록의 가로 방향 필터 정보가 결정된 경우, 영상 복호화 장치(100)는 상기 가로 방향 필터 정보와 현재 블록의 가로 너비와 세로 길이의 비율에 기초하여 세로 방향 필터 정보를 결정할 수 있다. 다른 예를 들어, 현재 블록의 세로 방향 필터 정보가 결정된 경우, 영상 복호화 장치(100)는 상기 세로 방향 필터 정보와 현재 블록의 가로 너비와 세로 길이의 비율에 기초하여 가로 방향 필터 정보를 결정할 수 있다. 일 실시예에서, 영상 복호화 장치(100)는 현재 블록의 가로 너비와 세로 길이에 비례하도록 가로 방향 필터의 크기 및 세로 방향 필터의 크기를 결정할 수 있다. 예를 들어, 가로 방향 필터의 탭수와 세로 방향 필터의 탭수의 비율 T1:T2 가 가로 너비와 세로 길이의 비율 W:H와 일치하도록 T1 및 T2를 결정할 수 있다.
도 25a는 다양한 실시예들에 따른, 서브 블록을 사용하지 않는 OBMC (Overlapped Blocks Motion Compensation) 모드의 예측 방법을 나타낸다.
서브 블록을 사용하지 않는 OBMC 모드에서, 현재 블록(2510)의 움직임 예측을 위하여, 현재 블록에 이웃한 블록들(2520, 2522, 2524, 2528)의 움직임 벡터들을 이용할 수 있다. 구체적으로, 현재 블록의 위쪽 경계에 인접한 샘플들(Y 0, Y 1)을 예측하기 위해 현재 블록의 상단에 인접한 블록(2522)의 움직임 벡터를 이용하고, 현재 블록의 아래쪽 경계에 인접한 샘플들(Y 2, Y 3)을 예측하기 위해 현재 블록의 하단에 인접한 블록(2528)의 움직임 벡터를 이용할 수 있다. 유사하게, 현재 블록의 좌측 경계에 인접한 샘플들(Y 0, Y 2)을 예측하기 위해 현재 블록의 좌측에 인접한 블록(2520)의 움직임 벡터를 이용하고, 현재 블록의 우측 경계에 인접한 샘플들(Y 1, Y 3)을 예측하기 위해 현재 블록의 우측에 인접한 블록(2524)의 움직임 벡터를 이용할 수 있다.
다만 현재 블록이 래스터 스캔에 따른 부호화 순서에 따라 복호화되는 경우, 현재 블록의 하단에 인접한 블록(2528)은 복호화되지 않은 바, 이 경우 현재 블록의 하단에 인접한 블록(2528)의 움직임 벡터 대신 현재 블록(2510)의 움직임 벡터를 이용할 수 있다.
현재 블록의 움직임 벡터와 현재 블록에 이웃한 블록들의 움직임 벡터를 이용하여 복수의 예측 값들이 획득된다. 일 실시예에 따르면, 현재 블록의 상단에 인접한 블록(2522)의 아래쪽 4행 (R4, R5), 현재 블록의 좌측에 인접한 블록(2520)의 우측 4열 (R6, R7), 및 현재 블록의 우측에 인접한 블록(2524)의 좌측 4열 (R8, R9)에 대응되는 참조 샘플들이 획득될 수 있다. 상기 복수의 예측 값들을 가중 평균하여, 현재 블록의 최종 예측 값이 획득된다.
도 25b는 다양한 실시예들에 따른, 서브 블록을 사용하지 않는 OBMC 모드에서 현재 블록의 인터 예측에 필요한 참조 샘플들을 도시한다.
도 25a에서 도시된 것과 같이, 서브 블록을 사용하지 않는 OBMC 모드에서는 현재 블록(2530)에 대응되는 참조 블록(2544)의 참조 샘플들에 더하여, 현재 블록의 상단, 좌측, 우측에 인접한 4픽셀씩의 샘플들에 대응되는 참조 샘플들을 더 이용할 수 있다. 따라서 서브 블록을 사용하지 않는 OBMC 모드는 현재 블록이 상단, 좌측, 우측으로 4픽셀씩 확장된 블록(2542)에 대한 움직임 보상을 수행하는 것과 같이 볼 수 있다.
이 경우, 현재 블록(2530)의 가로 너비를 W, 세로 길이를 H라고 하고, 보간 필터로 분리 가능한 2차원 T탭 필터를 사용하는 경우, 현재 블록의 인터 예측을 위하여 복원된 참조 픽처로부터 읽어들여야 하는 복원된 참조 샘플들(2540)의 총 개수는 (W+8+T-1)×(H+4+T-1)이다. 따라서, 서브 블록을 사용하지 않는 OBMC 모드의 경우, 현재 샘플을 예측하기 위하여 메모리에 저장된 복원된 참조 픽처에서 읽어들여야 하는 참조 샘플들의 평균 개수, 즉 메모리 대역폭은 수학식 4과 같이 나타낼 수 있다.
Figure PCTKR2019000198-appb-img-000004
이 때 N은 현재 블록의 인터 예측을 위해 참조되는 참조 블록의 개수를 의미한다. 단방향 예측일 경우 N은 1, 양방향 예측일 경우 N은 2이다.
도 25c는 다양한 실시예들에 따른, 서브 블록을 사용하지 않는 OBMC 모드에서 현재 블록의 인터 예측에 필요한 메모리 대역폭을 나타낸다. 도 25c는 도 25a 및 도 25b의 실시예에 따라 현재 블록의 가로 너비가 W, 세로 길이가 H이고, 보간 필터가 분리 가능한 2차원 T탭 필터를 사용하는 경우, 수학식 4에 의해 계산되는 메모리 대역폭을 나타낸다. 루마 블록의 경우(2560)와, 4:2:0 샘플링되는 크로마 블록의 경우(2570)의 다양한 예시가 제공된다.
다양한 실시예들에서, 영상 복호화 장치(100)는 수학식 4에 의해 계산되는 메모리 대역폭이 소정의 기준값을 넘지 않도록 필터의 크기를 결정할 수 있다. 일 실시예에서, 상기 소정의 기준값을 전술한 HEVC 한도에 기초하여 결정할 수 있다.
루마 블록의 경우(2560), 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 현재 블록이 8x8 크기인 경우, 양방향 예측에서는 필터의 크기를 2탭 이하로 결정하고, 단방향 예측에서는 필터의 크기를 8탭 이하로 결정할 수 있다. 현재 블록이 4x4 크기인 경우, 2탭 필터를 사용하는 경우에도 메모리 대역폭이 HEVC 한도를 상회하므로, 4x4 블록의 경우 서브 블록을 사용하지 않는 OBMC 모드를 사용하지 않기로 결정할 수 있다. 다만, 다른 실시예에 따르면, 4x4 블록의 단방향 예측에서 2탭 필터를 사용하는 경우 HEVC 한도에 비해 메모리 대역폭의 증가가 근소하므로, 2탭 필터가 허용될 수 있다.
크로마 블록의 경우(2570), 4:2:0 샘플링되는 경우 크로마 블록에 포함되는 샘플의 개수는 같은 크기의 루마 블록의 1/4이므로, 메모리 대역폭은 수학식 4에 의해 계산된 것을 4로 나눈 것과 같다. 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 현재 블록이 2x2 크기인 경우, 필터의 크기를 2탭 이하로 결정할 수 있다. 다른 실시예에 따르면, 현재 블록이 2x2 크기인 경우, 단방향 예측에서 4탭 필터를 허용할 수 있다.
도 26a는 다양한 실시예들에 따른, 서브 블록을 사용하는 OBMC 모드의 예측 방법을 나타낸다.
서브 블록을 사용하는 OBMC 모드에서, 인터 예측되는 현재 블록(2610, 2620)은 4x4 크기의 서브 블록들로 분할될 수 있고, 분할된 서브 블록 단위로 움직임 보상이 수행될 수 있다. 현재 서브 블록의 움직임 예측을 위해, 현재 서브 블록에 이웃한 서브 블록들의 움직임 벡터들을 이용할 수 있다. 일 실시예에 따르면, 현재 블록의 움직임 벡터와 현재 서브 블록에 이웃한 서브 블록들의 움직임 벡터를 이용하여 복수의 예측 값이 획득된다. 그리고 복수의 예측 값을 가중 평균하여, 현재 서브 블록의 최종 예측 값이 획득된다.
다양한 실시예들에 따르면, 현재 블록(2610)의 경계에서 서브 블록 단위의 움직임 보상이 수행될 수 있다. 일 실시예에 따르면, 현재 블록의 상측 경계에 위치한 서브 블록(2611)의 움직임 예측을 위하여, 현재 블록(2610)의 움직임 벡터와 현재 서브 블록의 상측에 인접한 서브 블록(2612)의 움직임 벡터가 이용될 수 있다. 일 실시예에 따르면, 현재 블록의 좌측 경계에 위치한 서브 블록(2616)의 움직임 예측을 위하여, 현재 블록(2610)의 움직임 벡터와 현재 서브 블록의 좌측에 인접한 서브 블록(2617)의 움직임 벡터가 이용될 수 있다. 일 실시예에 따르면, 현재 블록의 좌측 경계와 상측 경계에 모두 인접한 서브 블록(2613)의 움직임 예측을 위하여, 현재 블록(2610)의 움직임 벡터, 현재 서브 블록의 좌측에 인접한 서브 블록(2615)의 움직임 벡터 및 현재 서브 블록의 상측에 인접한 서브 블록(2614)의 움직임 벡터가 모두 이용될 수 있다.
다양한 실시예들에 따르면, 현재 블록(2620)의 경계가 아닌 위치에서 서브 블록 단위의 움직임 보상이 수행될 수 있다. 일 실시예에 따르면, 현재 서브 블록(2622)의 움직임 예측을 위하여, 현재 블록(2620)의 움직임 벡터 및 현재 서브 블록의 상하좌우에 인접한 서브 블록(2625, 2626, 2627, 2628)의 움직임 벡터가 모두 이용될 수 있다.
도 26b는 다양한 실시예들에 따른, 서브 블록을 사용하는 OBMC 모드에서 현재 블록의 인터 예측에 필요한 참조 샘플들을 도시한다.
도 26a에서 도시된 것과 같이, 서브 블록을 사용하는 OBMC 모드에서는 현재 블록(2630)에 대응되는 참조 블록(2644)의 참조 샘플들에 더하여, 현재 블록(2630)의 상하좌우에 인접한 4x4 크기의 서브 블록들에 대응되는 참조 샘플들을 이용하여 움직임 예측을 수행할 수 있다. 따라서 서브 블록을 사용하는 OBMC 모드는 현재 블록이 상하좌우로 4픽셀씩 확장된 블록(2642)에 대한 움직임 보상을 수행하는 것과 같이 볼 수 있다.
이 경우, 현재 블록(2630)의 가로 너비를 W, 세로 길이를 H라고 하고, 보간 필터로 분리 가능한 2차원 T탭 필터를 사용하는 경우, 현재 블록의 인터 예측을 위하여 복원된 참조 픽처로부터 읽어들여야 하는 복원된 참조 샘플들(2640)의 총 개수는 (W+8+T-1)×(H+8+T-1)이다. 따라서, 서브 블록을 사용하는 OBMC 모드의 경우, 현재 샘플을 예측하기 위하여 메모리에 저장된 복원된 참조 픽처에서 읽어들여야 하는 참조 샘플들의 평균 개수, 즉 메모리 대역폭은 수학식 5과 같이 나타낼 수 있다.
Figure PCTKR2019000198-appb-img-000005
이 때 N은 현재 블록의 인터 예측을 위해 참조되는 참조 블록의 개수를 의미한다. 단방향 예측일 경우 N은 1, 양방향 예측일 경우 N은 2이다.
도 26c는 다양한 실시예들에 따른, 서브 블록을 사용하는 OBMC 모드에서 현재 블록의 인터 예측에 필요한 메모리 대역폭을 나타낸다. 도 26c는 도 26a 및 도 26b의 실시예에 따라 현재 블록의 가로 너비가 W, 세로 길이가 H이고, 보간 필터가 분리 가능한 2차원 T탭 필터를 사용하는 경우, 수학식 5에 의해 계산되는 메모리 대역폭을 나타낸다. 루마 블록의 경우(2660)와, 4:2:0 샘플링되는 크로마 블록의 경우(2670)의 다양한 예시가 제공된다.
다양한 실시예들에서, 영상 복호화 장치(100)는 수학식 5에 의해 계산되는 메모리 대역폭이 소정의 기준값을 넘지 않도록 필터의 크기를 결정할 수 있다. 일 실시예에서, 상기 소정의 기준값을 전술한 HEVC 한도에 기초하여 결정할 수 있다.
루마 블록의 경우(2660), 현재 블록이 4x4 크기인 경우, 2탭 필터를 사용하더라도 메모리 대역폭이 HEVC 한도를 상회한다. 따라서 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 4x4 블록의 경우 서브 블록을 사용하는 OBMC 모드를 사용하지 않기로 결정할 수 있다. 다른 실시예에 따르면, 현재 블록이 4x4 크기인 경우, 필터의 크기를 2탭 이하로 결정할 수 있다.
크로마 블록의 경우(2670), 4:2:0 샘플링되는 경우 크로마 블록에 포함되는 샘플의 개수는 같은 크기의 루마 블록의 1/4이므로, 메모리 대역폭은 수학식 5에 의해 계산된 것을 4로 나눈 것과 같다. 일 실시예에 따르면, 현재 블록이 2x2 크기인 경우, 필터의 크기를 2탭 이하로 결정할 수 있다. 다른 실시예에 따르면, 현재 블록이 2x2 크기인 경우, 2탭 필터를 사용하더라도 메모리 대역폭이 HEVC 한도를 상회하므로, 2x2 블록의 경우 서브 블록을 사용하는 OBMC 모드를 사용하지 않기로 결정할 수 있다.
도 27a 내지 도 28d는 다양한 실시예들에 따른, DMVR(Decoder-side Motion Vector Refinement) 모드의 예측 방법을 나타낸다.
DMVR 모드에서, 인터 예측에 이용되는 움직임 벡터는 템플릿 매칭을 통해 조정될 수 있다. 도 27a은 양방향 예측에서 움직임 벡터가 조정되는 방법을 도시한다.
양방향 예측에서, 현재 블록(2715)의 두 개의 오리지널 움직임 벡터들(MV0, MV1) 에 의해 두 개의 오리지널 예측 블록들(2721, 2726)이 획득된다. 상기 오리지널 예측 블록들(2721, 2726)을 가중 평균하여 템플릿(2730)이 생성될 수 있다 (step 1). 영상 복호화 장치(100)는 참조 픽처(2720, 2725) 내에서 상기 템플릿(2730)과의 차이가 최소가 되는 업데이트된 예측 블록들(2722, 2726)을 찾는 템플릿 매칭을 수행한다 (step 2). 템플릿 매칭을 통해 상기 업데이트된 예측 블록들(2722, 2726)을 가리키는 업데이트된 움직임 벡터들(MV0′, MV1′)이 결정될 수 있다. 상기 업데이트된 예측 블록들(2722, 2726)로부터 현재 블록(2715)의 최종 예측 값이 획득된다.
다양한 실시예에 따르면, 템플릿 매칭 시, 참조 픽처(2720, 2725) 내의 업데이트된 예측 블록(2722, 2726)을 찾기 위한 움직임 벡터 후보의 개수가 제한될 수 있다. 예를 들어, 영상 복호화 장치(100)는 최대 M개의 움직임 벡터 후보들을 결정할 수 있다. 영상 복호화 장치(100)는 참조 픽처 내에서 상기 움직임 벡터 후보들이 가리키는 복수의 예측 블록 후보들과 템플릿(2730)을 비교하여, 그 중 가장 차이가 적은 예측 블록 후보를 업데이트된 예측 블록(2722, 2726)으로 결정할 수 있다.
다양한 실시예에 따르면, 참조 픽처(2720, 2725) 내에서 업데이트된 예측 블록(2722, 2726)을 찾기 위한 탐색 영역이 제한될 수 있다. 예를 들어, 영상 복호화 장치(100)는 오리지널 예측 블록(2721, 2726)을 상하좌우 L픽셀씩 확장한 영역 내에서 업데이트된 예측 블록(2722, 2726)을 찾을 수 있다.
일 실시예에 따르면, 영상 복호화 장치(100)는 오리지널 예측 블록을 상하좌우 1픽셀씩 확장한 영역 내에서 업데이트된 예측 블록을 찾을 수 있다. 일 실시예에 따르면, 영상 복호화 장치(100)는 오리지널 움직임 벡터 및 오리지널 움직임 벡터를 상, 하, 좌, 우, 좌상, 좌하, 우상, 우하로 1픽셀씩 이동시킨 8개의 움직임 벡터들을 움직임 벡터 후보들로 결정할 수 있다. 영상 복호화 장치(100)는 상기 움직임 벡터 후보들이 가리키는 예측 블록 후보들과 템플릿(2730)을 비교하여, 그 중 가장 차이가 적은 예측 블록 후보를 업데이트된 예측 블록(2722, 2726)으로 결정할 수 있다.
도 27a는 양방향 예측의 경우만을 도시하고 있으나, 이에 제한되지 않고, 단방향 예측 또는 3개 이상의 참조를 사용하는 다중 예측의 경우에도 상술한 방법을 적용 또는 응용하여 DMVR 모드를 사용할 수 있음이 당업자에게 이해될 것이다.
도 27b는 다양한 실시예들에 따른, DMVR 모드에서 현재 블록의 인터 예측에 필요한 참조 샘플들을 도시한다.
도 27a에 도시된 것과 같이, 현재 블록(2740)의 참조 픽처 인덱스가 가리키는 참조 픽처 내에서, 움직임 벡터에 기초하여 오리지널 예측 블록(2754)이 결정된다. 일 실시예에 따르면, 템플릿 매칭을 위한 탐색 영역은 오리지널 예측 블록(2754)을 상하좌우 1픽셀씩 확장한 영역(2752)으로 한정될 수 있다.
이 경우, 현재 블록(2740)의 가로 너비를 W, 세로 길이를 H라고 하고, 보간 필터로 분리 가능한 2차원 T탭 필터를 사용하는 경우, 현재 블록(2740)의 인터 예측을 위하여 복원된 참조 픽처로부터 읽어들여야 하는 복원된 참조 샘플들(2750)의 총 개수는 (W+2+T-1)×(H+2+T-1)이다. 따라서 현재 샘플을 예측하기 위하여 메모리에 저장된 복원된 참조 픽처에서 읽어들여야 하는 참조 샘플들의 평균 개수, 즉 메모리 대역폭은 수학식 6과 같이 나타낼 수 있다.
Figure PCTKR2019000198-appb-img-000006
이 때 N은 현재 블록의 인터 예측을 위해 참조되는 참조 블록의 개수를 의미한다. 단방향 예측일 경우 N은 1, 양방향 예측일 경우 N은 2이다.
도 27c는 다양한 실시예들에 따른, DMVR 모드에서 현재 블록의 인터 예측에 필요한 메모리 대역폭을 나타낸다. 도 27c는 도 27a 및 도 27b의 실시예에 따라 현재 블록의 가로 너비가 W, 세로 길이가 H이고, 보간 필터로 분리 가능한 2차원 T탭 필터를 사용하며, 템플릿 매칭을 위한 탐색 영역은 오리지널 예측 블록을 상하좌우 1픽셀씩 확장한 영역인 경우, 수학식 6에 의해 계산되는 메모리 대역폭을 나타낸다. 루마 블록의 경우(2770)와, 4:2:0 샘플링되는 크로마 블록의 경우(2780)의 다양한 예시가 제공된다.
다양한 실시예들에서, 영상 복호화 장치(100)는 수학식 6에 의해 계산되는 메모리 대역폭이 소정의 기준값을 넘지 않도록 필터의 크기를 결정할 수 있다. 일 실시예에서, 상기 소정의 기준값을 전술한 HEVC 한도에 기초하여 결정할 수 있다.
루마 블록의 경우(2770), 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 현재 블록이 8x8 크기인 경우, 양방향 예측에서 필터의 크기를 4탭 이하로 결정할 수 있고, 단방향 예측에서 필터의 크기를 8탭 이하로 결정할 수 있다. 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 현재 블록이 4x4 크기인 경우, 양방향 예측에서는 필터의 크기를 2탭 이하로 결정할 수 있고, 단방향 예측에서는 필터의 크기를 4탭 이하로 결정할 수 있다. 다른 실시예에 따르면, 8x8 블록의 양방향 예측에서 8탭 필터를 허용할 수 있다.
크로마 블록의 경우(2780), 4:2:0 샘플링되는 경우 크로마 블록에 포함되는 샘플의 개수는 같은 크기의 루마 블록의 1/4이므로, 메모리 대역폭은 수학식 6에 의해 계산된 것을 4로 나눈 것과 같다. 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 현재 블록이 2x2 크기인 경우, 필터의 크기를 4탭 이하로 결정할 수 있다. 일 실시예에 따르면, 현재 블록이 2x2 크기인 경우, 단방향 예측에서 8탭 필터가 허용될 수 있다.
도 28a는 다양한 실시예들에 따른, 다수의 움직임 벡터 후보자를 이용하는 DMVR 모드에서 현재 블록의 인터 예측에 필요한 참조 샘플들을 도시한다.
앞서 기술한 것과 같이, 다양한 실시예에 따르면, DMVR 모드에서 템플릿 매칭 시 참조 픽처 내의 업데이트된 예측 블록을 찾기 위한 움직임 벡터 후보의 개수가 제한될 수 있다. 일 실시예에 따르면, 영상 복호화 장치(100)는 최대 M개의 움직임 벡터 후보들을 결정할 수 있고, 이 경우 움직임 벡터 후보들이 가리키는 예측 블록 후보들 (점선으로 도시) M개가 결정될 수 있다.
현재 블록(2810)의 가로 너비를 W, 세로 길이를 H라고 하며, 보간 필터로 분리 가능한 2차원 T탭 필터를 사용한다고 가정한다. 이 경우 각각의 예측 블록 후보들의 참조 샘플들을 생성하기 위해 필요한 복원된 참조 샘플들(2820, 2821, 2830)의 개수는, 도 22a에서 도시 및 설명된 바에 따라, (W+T-1)×(H+T-1)와 같다. 따라서 현재 블록(2810)의 인터 예측을 위하여 복원된 참조 픽처로부터 읽어들여야 하는 복원된 참조 샘플들(2820, 2821, 2830)의 최대 개수는 M×(W+T-1)×(H+T-1)으로 나타낼 수 있다. 결론적으로, 현재 샘플을 예측하기 위하여 메모리에 저장된 복원된 참조 픽처에서 읽어들여야 하는 참조 샘플들의 평균 개수, 즉 메모리 대역폭은 수학식 7와 같이 나타낼 수 있다.
Figure PCTKR2019000198-appb-img-000007
이 때 N은 현재 블록의 인터 예측을 위해 참조되는 참조 블록의 개수를 의미한다. 단방향 예측일 경우 N은 1, 양방향 예측일 경우 N은 2이다.
수학식 7에 따르면, 움직임 벡터 후보의 개수가 늘어날수록 메모리 대역폭이 커지며, 보간 필터의 크기(즉, 탭수 T)가 커질수록 메모리 대역폭이 커진다. 그러므로, 메모리 대역폭이 일정 수준 이내로 유지되기 위해서는 움직임 벡터 후보의 개수가 늘어날 경우 필터의 탭 수가 작아져야 한다.
도 28b는 다양한 실시예들에 따른, 다수의 움직임 벡터 후보자를 이용하는 DMVR 모드에서 현재 블록의 인터 예측에 필요한 메모리 대역폭을 나타낸다. 도 28b은 도 27a 및 도 28a의 실시예에 따라 현재 블록의 가로 너비가 W, 세로 길이가 H이고, 보간 필터로 분리 가능한 2차원 T탭 필터를 사용하며, 템플릿 매칭 시 움직임 벡터 후보의 개수를 최대 M개로 제한하는 경우, 수학식 7에 의해 계산되는 메모리 대역폭을 나타낸다. 표 2850은 루마 블록의 경우의 다양한 예시를 제공한다.
다양한 실시예들에서, 영상 복호화 장치(100)는 수학식 7에 의해 계산되는 메모리 대역폭이 소정의 기준값을 넘지 않도록 필터의 크기를 결정할 수 있다. 일 실시예에서, 상기 소정의 기준값을 전술한 HEVC 한도에 기초하여 결정할 수 있다.
움직임 벡터 후보의 개수가 최대 3개로 제한되는 경우, 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 현재 블록의 크기가 8x8 이하인 경우, 단방향 예측 시 필터의 크기를 2탭 이하로 결정할 수 있다. 다만 양방향 예측 시, 2탭 필터를 사용하더라도 메모리 대역폭이 HEVC 한도를 상회한다. 따라서 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 양방향 예측에서는 복수의 움직임 벡터 후보를 사용하는 DMVR 모드를 사용하지 않기로 결정할 수 있다. 다른 실시예에 따르면, 크기가 8x8 이하인 경우, 양방향 예측 시 2탭 필터가 허용될 수 있다.
움직임 벡터 후보의 개수가 최대 4개로 제한되는 경우, 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 현재 블록의 크기가 8x8 이하인 경우, 단방향 예측 시 필터의 크기를 2탭 이하로 결정할 수 있다. 다만 양방향 예측 시, 2탭 필터를 사용하더라도 메모리 대역폭이 HEVC 한도를 상회한다. 따라서 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 양방향 예측에서는 복수의 움직임 벡터 후보를 사용하는 DMVR 모드를 사용하지 않기로 결정할 수 있다. 다른 실시예에 따르면, 크기가 8x8 이하인 경우, 양방향 예측 시 2탭 필터가 허용될 수 있다.
움직임 벡터 후보의 개수를 5개 이상 허용하는 경우, 일 실시예에 따르면, 현재 블록이 4x4 크기인 경우 단방향 예측에서 2탭 필터를 사용하더라도 메모리 대역폭이 HEVC 한도를 상회하므로, 4x4 블록의 경우 DMVD 모드를 사용하지 않기로 결정할 수 있다. 다른 실시예에 따르면, 움직임 벡터 후보의 개수를 5개 이상 허용하는 경우 4x4 블록에 대하여는 2탭 필터를 사용하도록 결정할 수 있다.
도 28c는 다양한 실시예들에 따른, 탐색 범위를 한정한 DMVR 모드에서 현재 블록의 인터 예측에 필요한 참조 샘플들을 도시한다.
앞서 기술한 것과 같이, 다양한 실시예에 따르면, DMVR 모드에서 템플릿 매칭 시 참조 픽처 내의 업데이트된 예측 블록을 찾기 위한 탐색 영역이 제한될 수 있다. 일 실시예에 따르면, 일 실시예에 따르면, 템플릿 매칭을 위한 탐색 영역은 오리지널 예측 블록(2864)을 상하좌우 L픽셀씩 확장한 영역(2862)으로 한정될 수 있다.
이 경우, 현재 블록(2810)의 가로 너비를 W, 세로 길이를 H라고 하고, 보간 필터로 분리 가능한 2차원 T탭 필터를 사용하는 경우, 현재 블록(2810)의 인터 예측을 위하여 복원된 참조 픽처로부터 읽어들여야 하는 복원된 참조 샘플들(2860)의 총 개수는 (W+2L+T-1)×(H+2L+T-1)이다. 따라서 현재 샘플을 예측하기 위하여 메모리에 저장된 복원된 참조 픽처에서 읽어들여야 하는 참조 샘플들의 평균 개수, 즉 메모리 대역폭은 수학식 8과 같이 나타낼 수 있다.
Figure PCTKR2019000198-appb-img-000008
이 때 N은 현재 블록의 인터 예측을 위해 참조되는 참조 블록의 개수를 의미한다. 단방향 예측일 경우 N은 1, 양방향 예측일 경우 N은 2이다.
수학식 8에 따르면, 업데이트된 예측 블록을 찾기 위한 탐색 영역이 커질수록 메모리 대역폭이 커지며, 보간 필터의 크기(즉, 탭수 T)가 커질수록 메모리 대역폭이 커진다. 그러므로, 메모리 대역폭이 일정 수준 이내로 유지되기 위해서는 탐색 영역이 커질 경우 필터의 탭 수가 작아져야 한다.
도 28d는 다양한 실시예들에 따른, 탐색 범위를 한정한 DMVR 모드에서 현재 블록의 인터 예측에 필요한 메모리 대역폭을 나타낸다. 도 28d은 도 27a 및 도 28c의 실시예에 따라 현재 블록의 가로 너비가 W, 세로 길이가 H이고, 보간 필터로 분리 가능한 2차원 T탭 필터를 사용하며, 템플릿 매칭 시 탐색 영역을 오리지널 예측 블록을 상하좌우 L픽셀씩 확장한 영역으로 한정하는 경우, 수학식 7에 의해 계산되는 메모리 대역폭을 나타낸다.
표 2870은 루마 블록의 경우의 다양한 예시를 제공한다. 크로마 블록의 경우에 대해서는 도시되어 있지 않으나, 4:2:0 샘플링되는 경우 크로마 블록에 포함되는 샘플의 개수는 같은 크기의 루마 블록의 1/4이므로, 메모리 대역폭은 수학식 8에 의해 계산된 것을 4로 나눈 것과 같다.
탐색 영역을 오리지널 예측 블록을 상하좌우 2픽셀씩 확장한 영역으로 한정하는 경우, 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 현재 블록의 크기가 4x4인 경우 단방향 예측시 필터의 크기를 4탭 이하로 결정하고, 양방향 예측시 필터의 크기를 2탭 이하로 결정할 수 있다. 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 현재 블록의 크기가 8x8인 경우 단방향 예측시 필터의 크기를 8탭 이하로 결정하고, 양방향 예측시 필터의 크기를 4탭 이하로 결정할 수 있다.
탐색 영역을 오리지널 예측 블록을 상하좌우 3픽셀씩 확장한 영역으로 한정하는 경우, 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 단방향 예측시 현재 블록의 크기가 4x4인 경우 필터의 크기를 2탭 이하로 결정할 수 있다. 일 실시예에 따르면, 단방향 예측시 현재 블록의 크기가 8x8인 경우 필터의 크기를 4탭 이하로 결정할 수 있다. 다른 실시예에 따르면, 4x4 블록의 단방향 예측 시 4탭 필터를 허용할 수 있다.
다만 양방향 예측의 경우, 2탭 필터를 사용하더라도 메모리 대역폭이 HEVC 한도를 상회한다. 따라서 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 양방향 예측에서는 오리지널 예측 블록을 상하좌우 3픽셀 이상 확장한 영역을 탐색 영역으로 하는 DMVR 모드를 사용하지 않기로 결정할 수 있다. 다른 실시예에 따르면, 오리지널 예측 블록을 상하좌우 3픽셀 이상 확장한 영역을 탐색 영역으로 하는 DMVR 모드에서 양방향 예측 시 2탭 필터가 허용될 수 있다.
오리지널 예측 블록을 상하좌우 4픽셀 이상 확장한 영역을 탐색 영역으로 하는 경우, 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 단방향 예측시 필터의 크기를 2탭 이하로 결정할 수 있다. 다른 실시예에 따르면, 8x8 블록의 단방향 예측 시 4탭 필터를 허용할 수 있다.
도 29a는 다양한 실시예들에 따른, 아핀(Affine) 모드의 예측 방법을 나타낸다.
현재 블록(2900)의 4개의 꼭지점(2902, 2904, 2906, 2908)은 각각 움직임 벡터(2912, 2914, 2916, 2918)에 대응된다. 움직임 벡터(2912, 2914, 2916, 2918)에 의하여 현재 블록(2900)이 아핀 변환됨으로써, 아핀 변환 블록(2910)이 생성된다. 현재 블록(2900)에 위치한 샘플들은 아핀 변환 블록(2910)의 샘플들에 매칭될 수 있다.
예를 들어, 꼭지점(2906)과 블록(2900) 상단의 중앙에 위치한 샘플(2920)을 잇는 선분에 위치한 샘플(2922)이 아핀 변환된 샘플(2924)은 꼭지점(2906)의 움직임 벡터(2916)가 가리키는 아핀 변환 블록(2910)의 샘플(2926)과 샘플(2920)의 움직임 벡터(2930)가 가리키는 아핀 변환 블록(2910)의 샘플(2928)를 잇는 선분에 위치한다. 아핀 변환된 샘플(2924)의 위치는 샘플(2922)의 위치에 따라 움직임 벡터(2912, 2914, 2916, 2918)를 선형 보간하여 획득된 움직임 벡터(2930)의 의하여 결정될 수 있다. 마찬가지로 현재 블록(2900)의 다른 샘플들도 아핀 변환되어 아핀 변환 블록(2910)의 샘플들과 매칭될 수 있다. 도 29a에서 설명된 바와 같이, 블록의 모든 샘플들은 아핀 변환을 위하여 생성된 움직임 벡터를 이용하여 인터 예측될 수 있다.
도 29b는 다양한 실시예들에 따른, 아핀 모드에서 현재 블록의 인터 예측에 필요한 메모리 대역폭을 나타낸다.
도 29a에서 설명된 바와 같이, 아핀 변환된 샘플들은 현재 블록의 움직임 벡터를 이용하여 생성되므로, 아핀 변환 블록의 아핀 변환된 샘플들을 생성하기 위하여 필요한 복원된 참조 샘플들의 최대 개수는 도 22a에서 설명된 것과 동일하게 나타낼 수 있다. 따라서 이 경우 메모리에 저장된 적어도 하나의 복원된 참조 픽처에서 읽어들여야 하는 참조 샘플들의 평균 개수, 즉 메모리 대역폭은 수학식 2와 동일하다.
도 29b의 표 2940은, 도 29a 및 도 22a의 실시예에 따라, 가로 너비를 W, 세로 길이를 H라고 하며, 보간 필터로 분리 가능한 2차원 T탭 필터를 사용하는 경우, 수학식 1 및 수학식 2에 의해 계산되는 메모리 대역폭을 나타낸다. 4x4 루마 블록의 경우와, 4:2:0 샘플링되는 2x2 크로마 블록의 경우에 대하여, 탭수에 따른 다양한 예시가 제공된다.
루마 블록의 경우, 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 현재 블록이 4x4 크기인 경우, 단방향 및 양방향 예측에서 필터의 크기를 4탭 이하로 결정할 수 있다. 다른 실시예에 따르면, 현재 블록이 4x4 크기인 경우 단방향 예측에서 8탭 필터를 허용할 수도 있다.
크로마 블록의 경우, 4:2:0 샘플링되는 경우 크로마 블록에 포함되는 샘플의 개수는 같은 크기의 루마 블록의 1/4이므로, 메모리 대역폭은 수학식 1 또는 수학식 2에 의해 계산된 것을 4로 나눈 것과 같다. 소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 현재 크로마 블록이 2x2 크기인 경우, 단방향 예측에서는 필터의 크기를 8탭 이하로 결정할 수 있고, 양방향 예측에서는 필터의 크기를 4탭 이하로 결정할 수 있다.
도 29c는 다양한 실시예들에 따른, 아핀 모드에서 현재 블록의 인터 예측에 필요한 참조 샘플들을 도시한다.
도 29a에 도시된 것과 같이, 현재 블록(2950)의 움직임 벡터에 기초하여 아핀 변환 블록이 결정된다. 아핀 변환은 이동 및 회전 뿐 아니라 확대/축소를 포함하므로, 참조 픽처에서 아핀 변환 블록에 대응되는 참조 샘플(2964)의 크기는 현재 블록(2950)의 크기보다 더 클 수 있다. 현재 블록(2950)의 크기 대비 아핀 변환 블록에 대응되는 참조 샘플(2964)의 크기는 아핀 변환에서 확대/축소되는 비율을 나타낼 수 있다. 예를 들어, 4x4 크기의 현재 블록의 아핀 모드 인터 예측에서, 아핀 변환 블록에 대응되는 참조 샘플(2964)의 크기가 8x8인 경우, 아핀 변환 블록은 현재 블록의 최대 2배로 확대되었음을 의미할 수 있다.
일 실시예에서, 아핀 변환의 최대 확대/축소 비율이 소정의 값 이하로 제한될 수 있다. 일 실시예에서, 아핀 변환 블록에 대응되는 참조 샘플(2964)의 크기는 현재 블록(2950)을 가로 너비 및 세로 길이를 2L픽셀씩 확장한 크기 이하로 제한될 수 있다. 일 실시예에서, 아핀 변환 블록에 대응되는 참조 샘플(2964)을 현재 블록의 움직임 벡터가 가리키는 블록(2966)을 상하좌우 L픽셀씩 확장한 영역 내에서 탐색할 수 있다. 예를 들어, 4x4 크기의 현재 블록의 아핀 모드 인터 예측에서, 아핀 변환에서 최대 1.5배의 확대/축소가 이루어질 수 있다면, 아핀 변환 블록에 대응되는 참조 샘플(2964)의 크기는 최대 6x6이므로, L이 1로 제한될 수 있다.
일 실시예에서, 아핀 변환 블록의 각 아핀 변환된 샘플을 생성하기 위하여, 참조 픽처의 참조 샘플에 P탭 워핑 필터가 추가로 적용될 수 있다.
도 29c는 현재 블록(2950)의 가로 너비를 W, 세로 길이를 H라고 하고, 아핀 변환 블록은 현재 블록의 움직임 벡터가 가리키는 블록(2966)을 상하좌우 L픽셀씩 확장한 영역(2964) 내에서 결정되며, 보간 필터로 분리 가능한 2차원 T탭 필터를 사용하고, P탭 워핑 필터가 추가로 적용되는 경우, 현재 블록(2740)의 인터 예측을 위하여 복원된 참조 픽처로부터 읽어들여야 하는 복원된 참조 샘플들(2960)을 도시한다. 이 경우 복원된 참조 샘플들(2960)의 총 개수는 (W+2L+P-1+T-1)×(H+2L+P-1+T-1)이다. 따라서 현재 샘플을 예측하기 위하여 메모리에 저장된 복원된 참조 픽처에서 읽어들여야 하는 참조 샘플들의 평균 개수, 즉 메모리 대역폭은 수학식 9와 같이 나타낼 수 있다.
Figure PCTKR2019000198-appb-img-000009
이 때 N은 현재 블록의 인터 예측을 위해 참조되는 참조 블록의 개수를 의미한다. 단방향 예측일 경우 N은 1, 양방향 예측일 경우 N은 2이다.
도 29d는 다양한 실시예들에 따른, 아핀 모드에서 현재 블록의 인터 예측에 필요한 메모리 대역폭을 나타낸다. 도 29d은 도 29a 및 도 29c의 실시예에 따라 현재 블록의 가로 너비가 W, 세로 길이가 H이고, 아핀 변환 블록은 현재 블록의 움직임 벡터가 가리키는 블록(2966)을 상하좌우 L픽셀씩 확장한 영역(2964) 내에서 결정되며, 보간 필터로 분리 가능한 2차원 2탭 필터를 사용하고, P탭 워핑 필터가 추가로 적용되는 경우, 수학식 9에 의해 계산되는 메모리 대역폭을 나타낸다.
표 2970은 루마 블록의 경우의 다양한 예시를 제공한다. 크로마 블록의 경우에 대해서는 도시되어 있지 않으나, 4:2:0 샘플링되는 경우 크로마 블록에 포함되는 샘플의 개수는 같은 크기의 루마 블록의 1/4이므로, 메모리 대역폭은 수학식 8에 의해 계산된 것을 4로 나눈 것과 같다.
소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 현재 블록이 8x8 크기일 때 양방향 예측에서는 5탭 워핑 필터를 사용하며 최대 1.5배 확대가 가능한 (즉, L=1인) 아핀 모드를 사용할 수 있다. 또는, 3탭 워핑 필터를 사용하며 최대 2배 확대가 가능한 (즉, L=2인) 아핀 모드를 사용할 수 있다.
소정의 기준값을 HEVC 한도로 설정하는 일 실시예에 따르면, 현재 블록이 4x4 크기인 경우, 단방향 예측에서는 5탭 워핑 필터를 사용하며 최대 1.5배 확대가 가능한 (즉, L=1인) 아핀 모드, 또는 3탭 워핑 필터를 사용하며 최대 2배 확대가 가능한 (즉, L=2인) 아핀 모드를 사용할 수 있다. 다만, 양방향 예측의 도시된 조합에서는 모두 메모리 대역폭이 HEVC 한도를 상회하므로, 양방향 예측에서는 워핑 필터를 사용하는 아핀 모드를 사용하지 않기로 결정할 수 있다. 다른 실시예에 따르면, 현재 블록이 4x4 크기일 때 양방향 예측에서 3탭 워핑 필터를 사용하며 최대 1.25배 확대가 가능한 (즉, L=0.5인) 아핀 모드를 사용할 수 있다.
도 30은 다양한 실시예들에 따른, BIO(Bidirectional Optical Flow) 모드의 예측 방법을 나타낸다.
BIO 모드에서, 현재 픽처의 각 샘플(3015)에 대하여 현재 블록의 움직임 벡터가 조정될 수 있다. 도 30은 양방향 예측에서 움직임 벡터가 조정되는 방법을 도시한다.
현재 블록의 움직임 벡터들 (MVx 0, MVy 0) 및 (MVx 1, MVy 1) 에 의해, 현재 블록에 대응되는 참조 블록이 결정될 수 있고, 참조 블록 내에서 현재 샘플(3015)에 대응되는 참조 블록의 참조 샘플(3022, 3032)이 결정될 수 있다. 상기 참조 샘플값의 공간적/시간적 변화량에 기초하여, 현재 샘플(3015)의 움직임 벡터 (v x, v y)가 추정된다. 상기 현재 블록의 움직임 벡터와 상기 현재 샘플의 움직임 벡터를 이용하여, 최종 예측 샘플들(3026, 3036)이 획득된다.
상기 참조 샘플값의 공간적 변화량은, 참조 샘플 값과 참조 샘플 주변의 샘플값들의 차이로부터 계산될 수 있다. 일 실시예에서, 참조 샘플 주변의 부화소 위치의 샘플값들을 획득하기 위하여 참조 샘플 주변의 정수 위치의 샘플들에 보간 필터가 적용될 수 있다. 일 실시예에서, 참조 샘플값의 공간적 변화량을 계산하기 위한 보간 필터링은 움직임 보상을 위한 보간 필터링과 동시에 수행될 수 있다.
참조 샘플값의 공간적 변화량을 계산하기 위한 보간 필터의 크기가 움직임 보상을 위한 보간 필터의 크기보다 크지 않다면, BIO 모드에서 참조 블록 내의 모든 참조 샘플들을 생성하기 위해 필요한 복원된 참조 샘플들의 개수는 도 22a 및 22b에서 설명된 것과 동일하다. 따라서 이 경우 BIO 모드는 추가의 메모리 대역폭을 필요로 하지 않으며, 필요한 메모리 대역폭은 수학식 2로 나타낼 수 있다.
BIO 모드에서 인터 예측에 필요한 메모리 대역폭은 도 23을 참조할 수 있다. 다만 이 경우 필터의 탭수 T는 참조 샘플값의 공간적 변화량을 계산하기 위한 보간 필터의 크기와, 움직임 보상을 위한 보간 필터의 크기 중에서 큰 쪽을 의미할 수 있다.
도 21a 내지 도 30을 참조하여 전술된 실시예들에서, 영상 복호화 장치(100)가 상기 필터 정보를 결정하는 것으로 기술되었으나, 이에 한정되지 않는다. 다양한 실시예들에서, 현재 블록의 인터 예측 모드, 현재 블록의 크기, 현재 블록이 루마 블록인지 크로마 블록인지 여부, 현재 블록이 단방향 예측인지 양방향 예측인지 여부 등에 따른 필터 정보가 미리 결정되어 영상 부호화 장치(400) 및 영상 복호화 장치(100)의 메모리(120, 420)에 저장되어 있을 수 있다. 다양한 실시예들에서, 영상 부호화 장치(400)가 현재 블록의 인터 예측 모드, 현재 블록의 크기, 현재 블록이 루마 블록인지 크로마 블록인지 여부, 현재 블록이 단방향 예측인지 양방향 예측인지 여부 등에 따라 상기 필터 정보를 결정할 수 있고, 비트스트림에 포함되어 영상 복호화 장치(100)로 전달될 수 있다. 영상 복호화 장치(100)는 비트스트림으로부터 상기 필터 정보를 추출할 수 있다. 다양한 실시예들에서, 영상 부호화 장치(400) 및 영상 복호화 장치(100)는 각각 현재 블록의 인터 예측 모드, 현재 블록의 크기, 현재 블록이 루마 블록인지 크로마 블록인지 여부, 현재 블록이 단방향 예측인지 양방향 예측인지 여부 등에 따른 필터 정보를 결정할 수 있다.
도 1 내지 30을 참조하여 전술된 트리 구조의 부호화 단위들에 기초한 비디오 부호화 기법에 따라, 트리 구조의 부호화 단위들마다 공간영역의 영상 데이터가 부호화되며, 트리 구조의 부호화 단위들에 기초한 비디오 복호화 기법에 따라 최대 부호화 단위마다 복호화가 수행되면서 공간 영역의 영상 데이터가 복원되어, 픽처 및 픽처 시퀀스인 비디오가 복원될 수 있다. 복원된 비디오는 재생 장치에 의해 재생되거나, 저장 매체에 저장되거나, 네트워크를 통해 전송될 수 있다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
본 발명은 특정한 최상의 실시 예와 관련하여 설명되었지만, 이외에 본 발명에 대체, 변형 및 수정이 적용된 발명들은 전술한 설명에 비추어 당업자에게 명백할 것이다. 즉, 청구범위는 이러한 모든 대체, 변형 및 수정된 발명을 포함하도록 해석한다. 그러므로 이 명세서 및 도면에서 설명한 모든 내용은 예시적이고 비제한적인 의미로 해석해야 한다.

Claims (15)

  1. 현재 블록이 인터 예측될 때, 상기 현재 블록의 인터 예측 모드를 결정하는 단계;
    상기 현재 블록의 인터 예측 모드에 기초하여, 상기 현재 블록이 참조할 적어도 하나의 참조 샘플 위치를 결정하는 단계;
    상기 현재 블록의 인터 예측 모드에 기초하여, 상기 적어도 하나의 참조 샘플 위치에 대응되는 적어도 하나의 복원된 참조 샘플에 적용될 필터 정보를 결정하는 단계;
    상기 필터 정보에 기초하여, 상기 적어도 하나의 복원된 참조 샘플에 필터링을 수행하는 단계;
    상기 필터링에 의해 생성된 예측 샘플들을 이용하여 상기 현재 블록을 복호화하는 단계;
    를 포함하는, 비디오 복호화 방법.
  2. 제1항에 있어서, 상기 필터 정보는 필터의 방향 및 크기 중 적어도 하나를 포함하는, 비디오 복호화 방법.
  3. 제1항에 있어서, 상기 필터 정보를 결정하는 단계는,
    상기 현재 블록의 크기에 기초하여 상기 필터 정보를 결정하는 단계를 포함하는, 비디오 복호화 방법.
  4. 제3항에 있어서, 상기 필터 정보를 결정하는 단계는,
    상기 현재 블록의 크기가 소정의 기준값 이상인 경우 제1 필터를 사용하도록 결정하고, 그렇지 않을 경우 제2 필터를 사용하도록 결정하는 단계를 포함하고,
    상기 제1 필터의 크기는 상기 제2 필터의 크기보다 큰 것을 특징으로 하는, 비디오 복호화 방법.
  5. 제3항에 있어서, 상기 필터 정보를 결정하는 단계는,
    상기 현재 블록이 비정방형(non-square)일 경우, 상기 현재 블록의 가로 너비에 기초하여 가로 방향 필터 정보를 결정하고, 상기 현재 블록의 세로 길이에 기초하여 세로 방향 필터 정보를 결정하는 단계를 포함하는, 비디오 복호화 방법.
  6. 제3항에 있어서, 상기 필터 정보를 결정하는 단계는,
    상기 현재 블록의 가로 너비와 세로 길이의 비율에 기초하여 가로 방향 필터 정보 및 세로 방향 필터 정보를 결정하는 단계를 포함하는, 비디오 복호화 방법.
  7. 제1항에 있어서, 상기 필터 정보를 결정하는 단계는,
    상기 현재 블록이 루마 블록인지 크로마 블록인지에 기초하여 상기 필터 정보를 결정하는 단계를 포함하는, 비디오 복호화 방법.
  8. 제1항에 있어서, 상기 필터 정보를 결정하는 단계는,
    상기 현재 블록의 인터 예측이 단방향 예측인지 양방향 예측인지에 기초하여 상기 필터 정보를 결정하는 단계를 포함하는, 비디오 복호화 방법.
  9. 제1항에 있어서, 상기 필터 정보를 결정하는 단계는,
    상기 현재 블록의 인터 예측 모드가 OBMC 모드(Overlapped Block Motion Compensation mode)인 경우, 필터의 크기를 2-탭 이하로 결정하는 단계를 포함하는, 비디오 복호화 방법.
  10. 제1항에 있어서, 상기 필터 정보를 결정하는 단계는,
    상기 현재 블록의 인터 예측 모드가 DMVR 모드(Decoder-side Motion Vector Refinement mode)인 경우, 필터의 크기를 4-탭 이하로 결정하는 단계를 포함하는, 비디오 복호화 방법.
  11. 제1항에 있어서, 상기 필터 정보를 결정하는 단계는,
    상기 현재 블록의 인터 예측 모드가 아핀 모드(Affine Mode)인 경우, 필터의 크기를 4-탭 이하로 결정하는 단계를 포함하는, 비디오 복호화 방법.
  12. 상기 현재 블록의 인터 예측 모드가 BIO 모드(Bidirectional Optical Flow Mode)인 경우, 필터의 크기를 8-탭 이하로 결정하는 단계를 포함하는, 비디오 복호화 방법.
  13. 제1항에 있어서, 상기 필터 정보를 결정하는 단계는,
    상기 현재 블록의 인터 예측에 필요한 메모리 대역폭이 소정의 범위 이내가 되도록 필터 정보를 결정하는 단계를 포함하고,
    상기 메모리 대역폭은 상기 현재 블록의 크기 및 상기 현재 블록의 인터 예측을 위해 필요한 복원된 참조 샘플들의 개수에 기초하여 결정되는 것을 특징으로 하는, 비디오 복호화 방법.
  14. 적어도 하나의 프로세서; 및
    메모리를 포함하고,
    상기 메모리는, 상기 적어도 하나의 프로세서에 의해 실행 가능하도록 구성되는 적어도 하나의 명령어를 포함하며,
    상기 적어도 하나의 명령어는, 실행 시에, 상기 적어도 하나의 프로세서로 하여금,
    현재 블록이 인터 예측될 때, 상기 현재 블록의 인터 예측 모드를 결정하고,
    상기 현재 블록의 인터 예측 모드에 기초하여, 상기 현재 블록이 참조할 적어도 하나의 참조 샘플 위치를 결정하고,
    상기 현재 블록의 인터 예측 모드에 기초하여, 상기 적어도 하나의 참조 샘플 위치에 대응되는 적어도 하나의 복원된 참조 샘플에 적용될 필터 정보를 결정하고,
    상기 필터 정보에 기초하여, 상기 적어도 하나의 복원된 참조 샘플에 필터링을 수행하고,
    상기 필터링에 의해 생성된 예측 샘플들을 이용하여 상기 현재 블록을 복호화하도록 설정되는, 비디오 복호화 장치.
  15. 현재 블록이 인터 예측될 때, 상기 현재 블록의 인터 예측 모드를 결정하는 단계;
    상기 현재 블록의 인터 예측 모드에 기초하여, 상기 현재 블록이 참조할 적어도 하나의 참조 샘플 위치를 결정하는 단계;
    상기 현재 블록의 인터 예측 모드에 기초하여, 상기 적어도 하나의 참조 샘플 위치에 대응되는 적어도 하나의 복원된 참조 샘플에 적용될 필터 정보를 결정하는 단계;
    상기 필터 정보에 기초하여, 상기 적어도 하나의 복원된 참조 샘플에 필터링을 수행하는 단계;
    상기 필터링에 의해 생성된 예측 샘플들을 이용하여 상기 현재 블록을 부호화하는 단계;
    를 포함하는, 비디오 부호화 방법.
PCT/KR2019/000198 2018-01-15 2019-01-07 부호화 방법 및 그 장치, 복호화 방법 및 그 장치 WO2019139309A1 (ko)

Priority Applications (12)

Application Number Priority Date Filing Date Title
US16/959,726 US11825117B2 (en) 2018-01-15 2019-01-07 Encoding method and apparatus therefor, and decoding method and apparatus therefor
CN202211184262.9A CN115460402A (zh) 2018-01-15 2019-01-07 编码方法及其设备以及解码方法及其设备
KR1020217001836A KR102275654B1 (ko) 2018-01-15 2019-01-07 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
CN202211184318.0A CN115695788A (zh) 2018-01-15 2019-01-07 编码方法及其设备以及解码方法及其设备
KR1020207008385A KR102207258B1 (ko) 2018-01-15 2019-01-07 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
KR1020217020514A KR20210084691A (ko) 2018-01-15 2019-01-07 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
CN202211184637.1A CN115695789A (zh) 2018-01-15 2019-01-07 编码方法及其设备以及解码方法及其设备
EP19738750.9A EP3742729A4 (en) 2018-01-15 2019-01-07 ENCODING METHOD AND APPARATUS THEREOF, AND DECODING METHOD AND APPARATUS THEREOF
CN202211185099.8A CN115695790A (zh) 2018-01-15 2019-01-07 编码方法及其设备以及解码方法及其设备
CN201980008315.1A CN111602393B (zh) 2018-01-15 2019-01-07 编码方法及其设备以及解码方法及其设备
US18/493,402 US20240056606A1 (en) 2018-01-15 2023-10-24 Encoding method and apparatus therefor, and decoding method and apparatus therefor
US18/493,359 US20240056605A1 (en) 2018-01-15 2023-10-24 Encoding method and apparatus therefor, and decoding method and apparatus therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862617335P 2018-01-15 2018-01-15
US62/617,335 2018-01-15

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US16/959,726 A-371-Of-International US11825117B2 (en) 2018-01-15 2019-01-07 Encoding method and apparatus therefor, and decoding method and apparatus therefor
US18/493,402 Continuation US20240056606A1 (en) 2018-01-15 2023-10-24 Encoding method and apparatus therefor, and decoding method and apparatus therefor
US18/493,359 Continuation US20240056605A1 (en) 2018-01-15 2023-10-24 Encoding method and apparatus therefor, and decoding method and apparatus therefor

Publications (1)

Publication Number Publication Date
WO2019139309A1 true WO2019139309A1 (ko) 2019-07-18

Family

ID=67219848

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/000198 WO2019139309A1 (ko) 2018-01-15 2019-01-07 부호화 방법 및 그 장치, 복호화 방법 및 그 장치

Country Status (5)

Country Link
US (3) US11825117B2 (ko)
EP (1) EP3742729A4 (ko)
KR (3) KR102207258B1 (ko)
CN (5) CN115695790A (ko)
WO (1) WO2019139309A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3651465A1 (en) * 2018-11-07 2020-05-13 Avago Technologies International Sales Pte. Limited Control of memory bandwidth consumption of affine mode in versatile video coding

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10863190B2 (en) * 2018-06-14 2020-12-08 Tencent America LLC Techniques for memory bandwidth optimization in bi-predicted motion vector refinement
US11632563B2 (en) 2019-02-22 2023-04-18 Qualcomm Incorporated Motion vector derivation in video coding
EP3922023A4 (en) * 2019-03-05 2022-06-15 Huawei Technologies Co., Ltd. USING EXTENDED SAMPLES WHILE SEARCHING IN A DECODER-SIDE MOTION REFINEMENT
JP7176094B2 (ja) * 2019-03-11 2022-11-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置及び符号化方法
US11683517B2 (en) * 2020-11-23 2023-06-20 Qualcomm Incorporated Block-adaptive search range and cost factors for decoder-side motion vector (MV) derivation techniques

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130050899A (ko) * 2011-11-08 2013-05-16 주식회사 케이티 영상의 부호화 방법 및 장치, 그리고 영상의 복호화 방법 및 장치
KR101540167B1 (ko) * 2011-01-10 2015-08-06 퀄컴 인코포레이티드 평활화 동작들의 적응적 수행
KR101569725B1 (ko) * 2011-11-08 2015-11-17 주식회사 케이티 영상의 부호화 방법 및 장치, 및 복호화 방법 및 장치
KR101794199B1 (ko) * 2011-04-26 2017-11-07 엘지전자 주식회사 참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치
KR20170125086A (ko) * 2015-03-10 2017-11-13 후아웨이 테크놀러지 컴퍼니 리미티드 화상 예측 방법 및 관련 장치

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2728868A4 (en) 2011-06-28 2015-02-25 Samsung Electronics Co Ltd METHOD FOR IMAGE INTERPOLATION BY MEANS OF AN ASYMMETRIC INTERPOLATION FILTER AND DEVICE THEREFOR
US9538184B2 (en) 2011-09-14 2017-01-03 Samsung Electronics Co., Ltd. Method and device for encoding and decoding video
GB2501535A (en) * 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
EP3058736B1 (en) * 2013-10-14 2019-02-27 Microsoft Technology Licensing, LLC Encoder-side options for intra block copy prediction mode for video and image coding
WO2015149699A1 (en) * 2014-04-01 2015-10-08 Mediatek Inc. Method of adaptive interpolation filtering in video coding
KR102291835B1 (ko) * 2015-07-08 2021-08-23 인터디지털 매디슨 페턴트 홀딩스 에스에이에스 교차 평면 필터링을 이용한 향상된 크로마 코딩
US20200288146A1 (en) * 2015-08-17 2020-09-10 Lg Electronics Inc. Intra-prediction mode-based image processing method and apparatus therefor
US10341659B2 (en) * 2016-10-05 2019-07-02 Qualcomm Incorporated Systems and methods of switching interpolation filters
CN116320493A (zh) * 2016-11-28 2023-06-23 韩国电子通信研究院 用于滤波的方法和装置
CN116916015A (zh) * 2016-12-07 2023-10-20 株式会社Kt 对视频进行解码或编码的方法和存储视频数据的设备
WO2018113658A1 (en) * 2016-12-22 2018-06-28 Mediatek Inc. Method and apparatus of motion refinement for video coding
US10555006B2 (en) * 2016-12-22 2020-02-04 Qualcomm Incorporated Deriving bilateral filter information based on a prediction mode in video coding
RU2019120751A (ru) * 2017-01-12 2021-01-13 Сони Корпорейшн Устройство для обработки изображений и способ обработки изображений
US20180199057A1 (en) * 2017-01-12 2018-07-12 Mediatek Inc. Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101540167B1 (ko) * 2011-01-10 2015-08-06 퀄컴 인코포레이티드 평활화 동작들의 적응적 수행
KR101794199B1 (ko) * 2011-04-26 2017-11-07 엘지전자 주식회사 참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치
KR20130050899A (ko) * 2011-11-08 2013-05-16 주식회사 케이티 영상의 부호화 방법 및 장치, 그리고 영상의 복호화 방법 및 장치
KR101569725B1 (ko) * 2011-11-08 2015-11-17 주식회사 케이티 영상의 부호화 방법 및 장치, 및 복호화 방법 및 장치
KR20170125086A (ko) * 2015-03-10 2017-11-13 후아웨이 테크놀러지 컴퍼니 리미티드 화상 예측 방법 및 관련 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3742729A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3651465A1 (en) * 2018-11-07 2020-05-13 Avago Technologies International Sales Pte. Limited Control of memory bandwidth consumption of affine mode in versatile video coding
US11212521B2 (en) 2018-11-07 2021-12-28 Avago Technologies International Sales Pte. Limited Control of memory bandwidth consumption of affine mode in versatile video coding

Also Published As

Publication number Publication date
KR102207258B1 (ko) 2021-01-25
US11825117B2 (en) 2023-11-21
KR20200039005A (ko) 2020-04-14
US20200374562A1 (en) 2020-11-26
EP3742729A4 (en) 2022-03-23
KR102275654B1 (ko) 2021-07-09
KR20210010657A (ko) 2021-01-27
KR20210084691A (ko) 2021-07-07
CN115695789A (zh) 2023-02-03
EP3742729A1 (en) 2020-11-25
US20240056605A1 (en) 2024-02-15
CN115695790A (zh) 2023-02-03
CN115695788A (zh) 2023-02-03
CN111602393A (zh) 2020-08-28
US20240056606A1 (en) 2024-02-15
CN111602393B (zh) 2022-10-21
CN115460402A (zh) 2022-12-09

Similar Documents

Publication Publication Date Title
WO2019139309A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2018097693A2 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2018066867A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020096389A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2019182385A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020111785A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2019083334A1 (ko) 비대칭 서브 블록 기반 영상 부호화/복호화 방법 및 장치
WO2018097692A2 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2011068360A2 (ko) 고해상도 영상의 부호화/복호화 방법 및 이를 수행하는 장치
WO2020076116A1 (ko) 영상 부호화/복호화 방법 및 장치
WO2020050685A1 (ko) 인트라 예측을 이용한 영상 부호화/복호화 방법 및 장치
WO2020096428A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2019009504A1 (ko) 적응적 움직임 벡터 해상도로 결정된 움직임 벡터의 부호화 장치 및 부호화 방법, 및 움직임 벡터의 복호화 장치 및 복호화 방법
WO2020085800A1 (ko) 서브블록 기반의 모션 보상을 이용한 비디오 신호 처리 방법 및 장치
WO2019216716A2 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2017142335A1 (ko) 비디오 복호화 방법 및 그 장치 및 비디오 부호화 방법 및 그 장치
WO2019066174A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2020096426A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2018101700A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2019093598A1 (ko) 움직임 정보의 부호화 장치 및 방법, 및 복호화 장치 및 방법
WO2020096427A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2019066574A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2020060317A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020159199A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2019066514A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19738750

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20207008385

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019738750

Country of ref document: EP

Effective date: 20200817