WO2017090968A1 - 영상을 부호화/복호화 하는 방법 및 그 장치 - Google Patents

영상을 부호화/복호화 하는 방법 및 그 장치 Download PDF

Info

Publication number
WO2017090968A1
WO2017090968A1 PCT/KR2016/013529 KR2016013529W WO2017090968A1 WO 2017090968 A1 WO2017090968 A1 WO 2017090968A1 KR 2016013529 W KR2016013529 W KR 2016013529W WO 2017090968 A1 WO2017090968 A1 WO 2017090968A1
Authority
WO
WIPO (PCT)
Prior art keywords
coding unit
unit
coding
information
units
Prior art date
Application number
PCT/KR2016/013529
Other languages
English (en)
French (fr)
Inventor
임경민
민정혜
이선일
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020187013815A priority Critical patent/KR20180075557A/ko
Priority to US15/775,220 priority patent/US20180324441A1/en
Priority to CN201680068871.4A priority patent/CN108293115A/zh
Priority to JP2018525574A priority patent/JP2018535607A/ja
Priority to EP16868864.6A priority patent/EP3355579A1/en
Publication of WO2017090968A1 publication Critical patent/WO2017090968A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/198Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/88Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving rearrangement of data among different coding units, e.g. shuffling, interleaving, scrambling or permutation of pixel data or permutation of transform coefficient data among different blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation

Definitions

  • the method and apparatus may encode or decode an image by using various data units included in the image.
  • the image data is encoded by a codec according to a predetermined data compression standard, for example, the Moving Picture Expert Group (MPEG) standard, and then stored in a recording medium in the form of a bitstream or transmitted through a communication channel.
  • MPEG Moving Picture Expert Group
  • Various data units may be used to compress an image, and there may be an inclusion relationship among these data units.
  • the data unit may be divided by various methods, and the optimized data unit is determined according to the characteristics of the image, thereby encoding or decoding the image.
  • the compression sequence proceeds from the upper left to the lower right, and the prediction is performed using only the encoded values of the left and the top when performing intra prediction.
  • the entire region is predicted by the values of the left side and the top side, there is a problem that the accuracy of prediction of the right side and the bottom side is lowered.
  • determining the data units for intra prediction from the video picture, from the bitstream, to predict the data units according to the first intra prediction type for predicting the data units using the predetermined prediction information Obtaining intra prediction type information indicating whether to predict according to a second intra prediction type predicted using data units adjacent to the data units, based on the intra prediction type information obtained from the bitstream, the first intra prediction Determining first data units predicted according to a type and second data units predicted according to a second intra prediction type, and generating a first data unit according to a first intra prediction type using predetermined prediction information.
  • a video decoding method may be provided that includes generating a second prediction value for a second data unit according to a second intra prediction type using an adjacent data unit.
  • a second intra predicting using first data units according to a first intra prediction type predicted by using predetermined prediction information and a data unit adjacent to a second data unit Determining second data units according to the prediction type, generating a first prediction value for the first data unit according to the first intra prediction type using predetermined prediction information, and using a data unit adjacent to the data unit Generating a second prediction value for the second data unit according to the second intra prediction type, and generating a bitstream including encoding information determined based on at least one of the first prediction value and the second prediction value.
  • a video decoding apparatus comprising: a data unit determiner for determining data units for intra prediction from a video picture, and a first intra prediction type for predicting data units using predetermined prediction information from a bitstream; A bitstream obtainer that obtains intra prediction type information indicating whether to predict according to the second intra prediction type predicted using the data units adjacent to the data units or the intra prediction type information obtained from the bitstream.
  • the first data units predicted according to the first intra prediction type and the second data units predicted according to the second intra prediction type are determined, and the first according to the first intra prediction type using predetermined prediction information.
  • Generate a first prediction for the data unit Using data units adjacent to the emitter unit including the second decoding unit generating a second prediction value for a second data unit in accordance with the intra-prediction type, it can be provided a video decoding apparatus.
  • a second intra predicting using first data units according to a first intra prediction type predicted by using predetermined prediction information and a data unit adjacent to a second data unit A data unit determiner that determines second data units according to the prediction type, and generates a first prediction value for the first data unit according to the first intra prediction type by using the predetermined prediction information, and the data unit adjacent to the data unit Generates a second prediction value for the second data unit according to the second intra prediction type, generates a bitstream including encoding information determined based on at least one of the first prediction value and the second prediction value, and then generates a video picture. And a bitstream generation unit and an encoding unit for encoding the bitstream, wherein the bitstream includes predetermined prediction information. Which it may be provided by the video encoding apparatus.
  • data units adaptive to the characteristics of an image can be used, thereby enabling efficient image encoding and decoding and improving image quality of a reconstructed image.
  • FIG. 1 is a block diagram of an image decoding apparatus capable of decoding an image based on at least one of block shape information and split shape information, according to an exemplary embodiment.
  • FIG. 2 is a block diagram of an image encoding apparatus capable of encoding an image based on at least one of block shape information and split shape information, according to an embodiment.
  • FIG. 3 illustrates a process of determining a first data unit predicted according to a first intra prediction type and a second data unit predicted according to a second intra prediction type, according to an embodiment.
  • FIG. 4 illustrates a process of predicting a first data unit according to a first intra prediction type based on predetermined prediction information, according to an embodiment.
  • FIG. 5 illustrates a process of predicting a second data unit according to a second intra prediction type predicting using adjacent data units, according to an embodiment.
  • FIG. 6 illustrates a process of predicting a second data unit according to a second intra prediction type predicted using data units adjacent to the left and a top and data units adjacent to the right and the bottom according to an embodiment.
  • FIG. 7 illustrates a process of determining a first intra prediction type and a second intra prediction type for a data unit according to an embodiment.
  • FIG. 8 is a flowchart of a video decoding method using intra prediction type information, according to an embodiment.
  • FIG. 9 is a flowchart of a video encoding method using intra prediction type information, according to an embodiment.
  • FIG. 10 illustrates that a form in which a second coding unit may be split is limited when a second coding unit having a non-square shape determined by splitting the first coding unit satisfies a predetermined condition according to an embodiment. .
  • FIG. 11 illustrates a process of splitting a coding unit having a square shape when split type information cannot be divided into four square coding units according to an embodiment.
  • FIG. 12 illustrates that a processing order between a plurality of coding units may vary according to a division process of coding units, according to an embodiment.
  • FIG. 13 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • FIG. 14 illustrates a depth index and a part index (PID) for classifying coding units, which may be determined according to shapes and sizes of coding units, according to an embodiment.
  • PID part index
  • FIG. 15 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • 16 is a diagram of a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture, according to an embodiment.
  • FIG. 17 is a diagram of coding units that may be determined for each picture when a combination of forms in which coding units may be divided is different for each picture, according to an embodiment.
  • FIG. 18 illustrates various forms of coding units that may be determined based on split form information that may be represented by binary codes, according to an embodiment.
  • FIG. 19 illustrates another form of a coding unit that may be determined based on split form information that may be represented by a binary code, according to an embodiment.
  • FIG. 20 shows a block diagram of an image encoding and decoding system for performing loop filtering.
  • FIG. 21 illustrates an example of filtering units included in a maximum coding unit and filtering performance information of a filtering unit, according to an embodiment.
  • 22 illustrates a process of merging or splitting between coding units determined according to a predetermined encoding method, according to an embodiment.
  • FIG. 23 illustrates an index according to a Z scan order of coding units, according to an embodiment.
  • 24 illustrates reference samples for intra prediction of coding units, according to an embodiment.
  • part refers to a hardware component, such as software, FPGA or ASIC, and “part” plays certain roles. However, “part” is not meant to be limited to software or hardware.
  • the “unit” may be configured to be in an addressable storage medium and may be configured to play one or more processors.
  • a “part” refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables.
  • the functionality provided within the components and “parts” may be combined into a smaller number of components and “parts” or further separated into additional components and “parts”.
  • the "image” may be a static image such as a still image of a video or may represent a dynamic image such as a video, that is, the video itself.
  • sample means data to be processed as data allocated to a sampling position of an image.
  • pixel values and transform coefficients on a transform region may be samples in an image of a spatial domain.
  • a unit including the at least one sample may be defined as a block.
  • FIG. 1 is a block diagram of an image decoding apparatus 100 capable of decoding an image based on at least one of block shape information and split shape information, according to an exemplary embodiment.
  • the image decoding apparatus 100 may predict the data unit determiner 110 to determine data units for intra prediction from a video picture using predetermined prediction information from a bitstream.
  • the first data units predicted according to the first intra prediction type and the second data units predicted according to the second intra prediction type are determined, and the first intra prediction is performed by using the predetermined prediction information.
  • Using the data unit may include a decoding unit (130) for generating a second predicted value for the second data unit in accordance with a second intra-prediction types.
  • the decoder 130 of the image decoding apparatus 100 may be configured based on the intra prediction type information.
  • a first prediction value for the first data unit may be generated according to the one intra prediction type.
  • the data unit determiner 110 of the image decoding apparatus 100 may determine data units for intra prediction.
  • the data units may be one of a coding unit, a prediction unit, or a transform unit.
  • the bitstream obtainer 120 of the image decoding apparatus 100 obtains intra prediction type information indicating whether the determined data units are predicted according to the first intra prediction type or the second intra prediction type. can do.
  • the prediction according to the first intra prediction type may be to perform intra prediction by using information other than the neighboring data unit.
  • the prediction according to the second intra prediction type may be to perform intra prediction using a neighboring data unit.
  • the decoder 130 of the image decoding apparatus 100 may generate a first prediction value for the first data unit according to the first intra prediction type based on the intra prediction type information.
  • the decoder 130 may generate a second prediction value for the second data unit according to the second intra prediction type.
  • the decoder 130 may generate a prediction value using data units on the left and top or data units on the right and the bottom among data units adjacent to the second data unit.
  • FIG. 3 illustrates a process of determining a first data unit predicted according to a first intra prediction type and a second data unit predicted according to a second intra prediction type, according to an exemplary embodiment.
  • the decoder 130 based on the intra prediction type information, the first data units 310 predicted according to the first intra prediction type and the second data unit predicted according to the second intra prediction type Can be determined 320. For example, it may be determined whether the predicted data unit is predicted using the neighboring data unit or is predicted using information other than the information about the surrounding data unit.
  • the decoder 130 may predict the data unit by using information other than the information about the neighboring data unit. For example, the decoder 130 may perform prediction using a specified value stored in the slice header, the PPS, or the SPS. For example, a predetermined value may be preassigned for each region in the data unit.
  • the decoder 130 may perform a second prediction according to the second intra prediction type. Prediction on the data units 320 may be performed. For example, prediction of the second data units 320 may be performed using information on the first data units 310 predicted according to the first intra prediction type. For example, the second data units 320 may be predicted using at least one of the data units adjacent to the right side or the bottom side.
  • the decoder 130 may generate a predicted value of the second data unit 320 as an average value of the sample values of the first data unit 310 adjacent to the second data unit 320.
  • the decoder 130 generates a prediction value using the sample values of the first data unit adjacent to the right with respect to the right prediction samples in the second data unit 320, and generates a lower end in the second data unit 320.
  • a prediction value may be generated using sample values of a first data unit adjacent to the bottom.
  • the decoder 130 may generate a prediction value based on a relative direction with respect to the adjacent data unit with respect to the prediction samples in the second data unit 320. For example, the decoder 130 may generate a predicted value of the second data unit 320 by applying a weight of the relative distance to the sample value.
  • the decoder 130 may generate a predicted value of the second data unit 320 using the reference sample of the first data unit adjacent to the right side and the reference sample of the second data unit adjacent to the upper side. Can be.
  • the decoder 130 may generate a prediction value of a data unit to be predicted by applying the same Intra_angular mode to reference samples of the first data unit and the second data unit predicted by different intra prediction types. For example, even if the same Intra_angular mode is applied, the decoder 130 may apply a weight according to the type of the reference sample, that is, whether the reference sample is the first data unit or the reference sample of the second data unit, thereby predicting the data unit. Can be generated.
  • FIG. 4 illustrates a process of predicting a first data unit according to a first intra prediction type based on predetermined prediction information, according to an embodiment.
  • the decoder 130 may predict the first data units 420 predicted according to the first intra prediction type using information other than the information about the neighboring data unit.
  • the first data units 420 may be predicted using a sample value 410 adjacent to a data unit of a higher layer including the first data unit 420.
  • the sample value 410 adjacent to the data unit of the upper layer including the first data unit 420 may include information about the neighboring pixel of the CTU boundary or information about the neighboring pixel of the CU boundary.
  • the prediction target unit may be a CU, a PU, a TU, or a CTU.
  • the prediction target unit may be a PU, a TU, or a CU.
  • the decoder 130 may convert the predicted value of the first data unit 420 as an average value of the sample values 410 of the reference sample adjacent to the data unit of the upper layer including the first data unit 420. Can be generated.
  • the decoder 130 may perform filtering on a sample adjacent to a data unit of a higher layer to remove discontinuity with reference samples of the first data unit 420.
  • the decoder 130 may apply different filters to the upper left sample and the left sample or the right sample of the data unit of the upper layer, respectively.
  • the decoder 130 may generate a prediction value by applying an Intra_Angular mode based on a relative direction with a reference sample adjacent to a data unit of a higher layer including the first data unit 420. For example, the decoder 130 may generate a predicted value of the first data unit 420 by applying a weight of the relative distance to the sample value.
  • FIG. 5 illustrates a process of predicting a second data unit according to a second intra prediction type that predicts using adjacent data units according to an embodiment.
  • the decoder 130 may perform prediction according to the second intra prediction type by using data units adjacent to the data unit. For example, when performing the prediction on the data unit 510, the information 511 about the data unit 530 encoded according to the first intra prediction type adjacent to the bottom of the data unit 510 may be used. have. For example, when performing prediction on the data unit 520, the information 521 about the data unit 530 encoded according to the first intra prediction type adjacent to the right side of the data unit 520 may be used. have.
  • the decoder 130 performs prediction by using left and top sample values when the distance between the left and the top is close according to the predicted position of the sample in the data unit 510.
  • the decoder 130 performs prediction by using sample values of the right and the bottom when the distance of the right or the bottom is close according to the position of the predicted pixel in the data unit 510.
  • the decoder 130 may generate a predicted value of the data unit 510 as an average value of the peripheral reference samples of the data unit 510.
  • the decoder 130 may use the average value of the reference samples adjacent to the left and the reference samples adjacent to the top and the average value of the reference samples adjacent to the bottom and the reference samples adjacent to the right.
  • a prediction value of the sample can be generated.
  • the decoder 130 may generate a predicted value of the predictive sample in the data unit by applying a weight for the distance between the predicted samples in the data unit 510 and the peripheral reference samples to each average value.
  • the decoder 130 may generate a predicted value of the predicted sample in consideration of the direction of the data unit 510 and the reference samples surrounding the data unit. A method of considering the direction of the data unit 510 and the reference samples around the data unit will be described later with reference to FIG. 6.
  • the decoder 130 may use one reference sample among adjacent reference samples for the prediction samples in the data unit 520 as a prediction sample value for one line.
  • the decoder 130 may use one reference sample among the reference samples adjacent to the bottom of the data unit 510 as a prediction sample value for the entire line in the vertical direction in the data unit 520.
  • the decoder 130 may use one reference sample among the reference samples adjacent to the right side of the data unit 520 as a prediction sample value for the entire horizontal line in the data unit 520.
  • FIG. 6 illustrates a process of predicting a second data unit according to a second intra prediction type predicted using data units adjacent to the left and a top and data units adjacent to the right and a bottom according to an embodiment.
  • the decoder 130 may generate a prediction value using at least one of a left and a top data unit. .
  • the decoder 130 may generate a prediction value using at least one of the right and bottom data units.
  • the decoder 130 may generate a new predicted value 611 by interpolating the predicted value generated by using at least one of the left and upper data units using the same prediction mode 631 and bi-linearly according to the distance. Can be.
  • the decoder 130 may generate the prediction value 621 using at least one of the right and bottom data units based on the new prediction modes 642 in addition to the existing prediction modes 641. For example, the decoder 130 may use sample values adjacent to the right and bottom data units using the new 67 prediction modes 640 in which 32 prediction modes are added to the 35 prediction modes 640. Can be.
  • the decoder 130 may perform filtering to reduce a boundary portion with respect to a prediction value generated using at least one of a left and a top data unit and a prediction value generated using at least one of a right and a bottom data unit. Can be done.
  • the decoder 130 may perform filtering to remove discontinuities of adjacent samples and prediction samples that are not referenced in two modes.
  • FIG. 7 illustrates a process of determining a first intra prediction type and a second intra prediction type for a data unit according to an embodiment.
  • the decoder 130 may generate a prediction value according to the first intra prediction type for each CU, PU, or TU based on the intra prediction type information, or may generate the prediction value according to the second intra prediction type. You can decide whether to create it.
  • the decoder 130 may determine to perform the prediction according to the first intra prediction type for the Intra_DC mode, and to perform the prediction according to the second intra prediction type for other modes besides the Intra_DC mode.
  • the decoder 130 obtains a flag indicating whether to classify a data unit into one of a first data unit and a second data unit, and the obtained flag is one of the first data unit and the second data unit. If it is indicated to be classified, a prediction value for the data unit may be generated according to the first or second intra prediction type.
  • FIG. 8 is a flowchart of a video decoding method using intra prediction type information, according to an embodiment.
  • the data unit determiner 110 of the image decoding apparatus 100 may determine data units for intra prediction from a video picture.
  • the bitstream obtainer 120 of the image decoding apparatus 100 determines whether to predict data units according to a first intra prediction type that predicts data units from a bitstream using predetermined prediction information.
  • Intra prediction type information indicating whether to predict according to the second intra prediction type that is predicted using the data units may be obtained.
  • the decoder 130 of the image decoding apparatus 100 may determine the first data units and the second intra prediction type predicted according to the first intra prediction type based on the intra prediction type information obtained from the bitstream.
  • the second data units predicted accordingly may be determined.
  • the decoder 130 of the image decoding apparatus 100 may generate a first prediction value for a first data unit according to the first intra prediction type using predetermined prediction information.
  • the decoder 130 of the image decoding apparatus 100 may generate a second prediction value for the second data unit according to the second intra prediction type by using the data unit adjacent to the data unit.
  • FIG. 10 illustrates that a second coding unit is split when a second coding unit having a non-square shape determined by splitting the first coding unit 1000 according to an embodiment satisfies a predetermined condition. It shows that the form that can be limited.
  • the decoder 130 may form a non-square shape first coding unit 1000 having a square shape based on at least one of block shape information and partition shape information obtained through the bitstream obtainer 120. It may be determined to divide the second coding units 1010a, 1010b, 1020a, and 1020b. The second coding units 1010a, 1010b, 1020a, and 1020b may be independently divided. Accordingly, the decoder 130 may determine whether to split or not split into a plurality of coding units based on at least one of block shape information and split shape information related to each of the second coding units 1010a, 1010b, 1020a, and 1020b. have.
  • the decoder 130 divides the left second coding unit 1010a having a non-square shape in the horizontal direction, determined by dividing the first coding unit 1000 in the vertical direction, and divides the third coding unit 1012a into a horizontal direction. , 1012b).
  • the decoder 130 splits the left second coding unit 1010a in the horizontal direction the right second coding unit 1010b is horizontally identical to the direction in which the left second coding unit 1010a is divided. It can be restricted so that it cannot be divided.
  • the left second coding unit 1010a and the right second coding unit 1010b are each horizontally.
  • the third coding units 1012a, 1012b, 1014a, and 1014b may be determined.
  • the decoder 130 divides the first coding unit 1000 into four square second coding units 1030a, 1030b, 1030c, and 1030d based on at least one of the block shape information and the split shape information. This is the same result as that and may be inefficient in terms of image decoding.
  • the decoder 130 divides the second coding unit 1020a or 1020b of the non-square shape, determined by dividing the first coding unit 900 in the horizontal direction, in the vertical direction, and then divides the third coding unit ( 1022a, 1022b, 1024a, and 1024b) may be determined.
  • the decoder 130 divides one of the second coding units (for example, the upper second coding unit 1020a) in the vertical direction
  • the second encoding unit for example, the lower coding
  • the unit 1020b may restrict the upper second coding unit 1020a from being split in the vertical direction in the same direction as the split direction.
  • FIG. 11 illustrates a process of splitting a coding unit having a square shape by the image decoding apparatus 100 when the split shape information cannot be divided into four square coding units.
  • the decoder 130 determines the second coding unit 1110a, 1110b, 1120a, 1120b, etc. by dividing the first coding unit 1100 based on at least one of block shape information and split shape information.
  • the split type information may include information about various types in which a coding unit may be split, but the information on various types may not include information for splitting into four coding units having a square shape.
  • the decoder 130 may not divide the first coding unit 1100 having a square shape into four second coding units 1130a, 1130b, 1130c, and 1130d having a square shape.
  • the decoder 130 may determine the non-square second coding units 1110a, 1110b, 1120a, 1120b, and the like based on the split shape information.
  • the decoder 130 may independently divide the non-square second coding units 1110a, 1110b, 1120a, 1120b, and the like.
  • Each of the second coding units 1110a, 1110b, 1120a, 1120b, and the like may be split in a predetermined order through a recursive method, which is based on at least one of block shape information and split shape information 1100. May be a splitting method similar to the method in which?
  • the decoder 130 may split the left second coding unit 1110a into the horizontal direction to determine the third coding units 1112a and 1112b having a square shape, and the right second coding unit 1110b is horizontal.
  • the third coding units 1114a and 1114b having a square shape may be divided in the direction.
  • the decoder 130 may divide the left second coding unit 1110a and the right second coding unit 1110b in the horizontal direction to determine the third coding units 1116a, 1116b, 1116c, and 1116d having a square shape.
  • the coding unit may be determined in the same form as that in which the first coding unit 1100 is divided into four second coding units 1130a, 1130b, 1130c, and 1130d.
  • the decoder 130 may determine the third coding units 1122a and 1122b having a square shape by dividing the upper second coding unit 1120a in the vertical direction, and the lower second coding unit 1120b. Is divided in the vertical direction to determine the third coding units 1124a and 1124b having a square shape. Furthermore, the decoder 130 may split the upper second coding unit 1120a and the lower second coding unit 1120b in the vertical direction to determine the third coding units 1122a, 1122b, 1124a, and 1124b having a square shape. . In this case, the coding unit may be determined in the same form as that in which the first coding unit 1100 is divided into four second coding units 1130a, 1130b, 1130c, and 1130d.
  • FIG. 12 illustrates that a processing order between a plurality of coding units may vary according to a splitting process of coding units, according to an embodiment.
  • the decoder 130 may split the first coding unit 1200 based on the block shape information and the split shape information.
  • the block shape information indicates a square shape and the split shape information indicates that the first coding unit 1200 is split in at least one of a horizontal direction and a vertical direction
  • the decoder 130 may determine the first coding unit 1200.
  • the second coding unit (eg, 1210a, 1210b, 1220a, 1220b, 1230a, 1230b, 1230c, 1230d, etc.) may be determined by dividing. Referring to FIG.
  • non-square second coding units 1210a, 1210b, 1220a, and 1220b which are determined by dividing the first coding unit 1200 in only the horizontal direction or the vertical direction, respectively, may include block shape information and split shape information for each. It can be divided independently based on.
  • the decoder 130 divides the second coding units 1210a and 1210b generated by splitting the first coding unit 1200 in the vertical direction, respectively, in the horizontal direction, to thereby separate the third coding units 1216a, 1216b, and 1216c.
  • the decoder 130 may process coding units in a predetermined order. Features of the processing of the coding unit according to the predetermined order have been described above with reference to FIG. 7, and thus a detailed description thereof will be omitted. Referring to FIG. 12, the decoder 130 splits a first coding unit 1200 having a square shape to form three square third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d. Can be determined.
  • the decoder 130 determines a processing order of the third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d according to the form in which the first coding unit 1200 is divided. Can be.
  • the decoder 130 may determine the third coding units 1216a, 1216b, 1216c, and 1216d by dividing the second coding units 1210a and 1210b generated by splitting in the vertical direction in the horizontal direction.
  • the decoder 130 first processes the third coding units 1216a and 1216b included in the left second coding unit 1210a in the vertical direction, and then includes a third included in the right second coding unit 1210b.
  • the third coding units 1216a, 1216b, 1216c, and 1216d may be processed according to an order 1217 of processing the coding units 1216c and 1216d in the vertical direction.
  • the decoder 130 may determine the third coding units 1226a, 1226b, 1226c, and 1226d by dividing the second coding units 1220a and 1220b generated by dividing in the horizontal direction in the vertical direction.
  • the decoder 130 first processes the third coding units 1226a and 1226b included in the upper second coding unit 1220a in the horizontal direction, and then includes a third included in the lower second coding unit 1220b.
  • the third coding units 1226a, 1226b, 1226c, and 1226d may be processed according to an order 1227 of processing the coding units 1226c and 1226d in the horizontal direction.
  • second coding units 1210a, 1210b, 1220a, and 1220b may be divided, respectively, and square third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d may be determined. have.
  • the second coding units 1210a and 1210b that are determined by being split in the vertical direction and the second coding units 1220a and 1220b that are determined by being split in the horizontal direction are divided into different forms, but are determined afterwards.
  • 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d may result in the first coding unit 1200 being split into coding units having the same shape.
  • the decoder 130 recursively splits the coding unit through a different process based on at least one of the block shape information and the split shape information, thereby determining coding units having the same shape. Coding units may be processed in different orders.
  • FIG. 13 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • the decoder 130 may determine the depth of the coding unit according to a predetermined criterion.
  • the predetermined criterion may be the length of the long side of the coding unit.
  • the length of the long side of the current coding unit is divided by 2n (n> 0) times the length of the long side of the coding unit before the split, the depth of the current coding unit is n than the depth of the coding unit before the split. Depth can be determined to increase by.
  • a coding unit having an increased depth is expressed as a coding unit of a lower depth.
  • the decoder 130 may have a square shape based on block shape information indicating a square shape (for example, block shape information may indicate '0: SQUARE').
  • the coding unit 1300 may be divided to determine a second coding unit 1302, a third coding unit 1304, or the like of a lower depth.
  • the second coding unit 1302 determined by dividing the width and height of the first coding unit 1300 by 1/21 times may have a size of NxN. have.
  • the third coding unit 1304 determined by dividing the width and the height of the second coding unit 1302 into half the size may have a size of N / 2 ⁇ N / 2.
  • the width and height of the third coding unit 1304 correspond to 1/22 times the first coding unit 1300.
  • the depth of the first coding unit 1300 is D
  • the depth of the second coding unit 1302 which is 1/21 times the width and the height of the first coding unit 1300 may be D + 1
  • the depth of the third coding unit 1304, which is 1/22 times the width and the height of 1300 may be D + 2.
  • block shape information indicating a non-square shape (e.g., block shape information indicates that the height is a non-square longer than the width '1: NS_VER' or the width is a non-square longer than the height).
  • 2 may indicate NS_HOR ', and the decoder 130 divides the first coding unit 1310 or 1320 having a non-square shape to form the second coding unit 1312 or 1322 of the lower depth.
  • 3 coding units 1314 or 1324 may be determined.
  • the decoder 130 may determine a second coding unit (eg, 1302, 1312, 1322, etc.) by dividing at least one of a width and a height of the Nx2N size of the first coding unit 1310. That is, the decoder 130 may divide the first coding unit 1310 in the horizontal direction to determine a second coding unit 1302 having an NxN size or a second coding unit 1322 having an NxN / 2 size and horizontally.
  • the second coding unit 1312 having a size of N / 2 ⁇ N may be determined by splitting in the direction and the vertical direction.
  • the decoder 130 may determine a second coding unit (eg, 1302, 1312, 1322, etc.) by dividing at least one of a width and a height of the 2N ⁇ N first coding unit 1320. have. That is, the decoder 130 may divide the first coding unit 1320 in the vertical direction to determine a second coding unit 1302 having an NxN size or a second coding unit 1312 having an N / 2xN size and horizontally.
  • the second coding unit 1322 having the size of NxN / 2 may be determined by splitting in the direction and the vertical direction.
  • the decoder 130 may determine a third coding unit (eg, 1304, 1314, 1324, etc.) by dividing at least one of a width and a height of the NxN-sized second coding unit 1302. have. That is, the decoder 130 determines the third coding unit 1304 having the size of N / 2xN / 2 by dividing the second coding unit 1302 in the vertical direction and the horizontal direction, or the third having the size of N / 22xN / 2.
  • the coding unit 1314 may be determined, or a third coding unit 1324 having a size of N / 2 ⁇ N / 22 may be determined.
  • the decoder 130 divides at least one of a width and a height of the N / 2xN sized second coding unit 1312 to determine a third coding unit (eg, 1304, 1314, 1324, etc.). You can also decide. That is, the decoder 130 divides the second coding unit 1312 in the horizontal direction to form a third coding unit 1304 having an N / 2xN / 2 size or a third coding unit 1324 having an N / 2xN / 22 size.
  • the third coding unit 1314 having the size of N / 22 ⁇ N / 2 may be determined by determining or splitting in the vertical direction and the horizontal direction.
  • the decoder 130 divides at least one of a width and a height of the NxN / 2 sized second coding unit 1314 to determine a third coding unit (eg, 1304, 1314, 1324, etc.). You can also decide. That is, the decoder 130 divides the second coding unit 1312 in the vertical direction to form a third coding unit 1304 having an N / 2xN / 2 size or a third coding unit 1314 having an N / 22xN / 2 size.
  • the third coding unit 1324 having the size of N / 2 ⁇ N / 22 may be determined by determining or splitting in the vertical direction and the horizontal direction.
  • the decoder 130 may split a coding unit having a square shape (for example, 1300, 1302, 1304) in a horizontal direction or a vertical direction.
  • the first coding unit 1300 having a size of 2Nx2N is split in the vertical direction to determine the first coding unit 1310 having the size of Nx2N, or the first coding unit 1320 having a size of 2NxN is determined by splitting in the horizontal direction.
  • the depth of the coding unit determined by splitting the first coding unit 1300, 1302, or 1304 having a size of 2N ⁇ 2N into the horizontal or vertical direction is determined. May be the same as the depth of the first coding unit 1300, 1302, or 1304.
  • the width and height of the third coding unit 1314 or 1324 may correspond to 1/22 times the first coding unit 1310 or 1320.
  • the depth of the first coding unit 1310 or 1320 is D
  • the depth of the second coding unit 1312 or 1314 that is 1/2 the width and height of the first coding unit 1310 or 1320 may be D + 1.
  • the depth of the third coding unit 1314 or 1324 that is 1/22 times the width and the height of the first coding unit 1310 or 1320 may be D + 2.
  • FIG. 14 illustrates a depth and a part index (PID) for classifying coding units, which may be determined according to the shape and size of coding units, according to an embodiment.
  • PID depth and a part index
  • the decoder 130 may determine a second coding unit having various shapes by dividing the first coding unit 1400 having a square shape. Referring to FIG. 14, the decoder 130 divides the first coding unit 1400 in at least one of a vertical direction and a horizontal direction according to the split type information, and thereby the second coding unit 1402a, 1402b, 1404a, and 1404b. , 1406a, 1406b, 1406c, 1406d). That is, the decoder 130 may determine the second coding units 1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, and 1406d based on the split shape information about the first coding unit 1400.
  • the second coding units 1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, and 1406d which are determined according to split shape information about the first coding unit 1400 having a square shape, have a long side length. Depth can be determined based on this. For example, since the length of one side of the first coding unit 1400 having a square shape and the length of the long side of the second coding units 1402a, 1402b, 1404a and 1404b of a non-square shape are the same, the first coding unit ( 1400 and the non-square second coding units 1402a, 1402b, 1404a, and 1404b may be regarded as D.
  • the second coding unit 130 may have a square shape. Since the length of one side of the coding units 1406a, 1406b, 1406c, and 1406d is 1/2 times the length of one side of the first coding unit 1400, the depths of the second coding units 1406a, 1406b, 1406c, and 1406d are It may be a depth of D + 1 that is one depth lower than D, which is a depth of the first coding unit 1400.
  • the decoder 130 divides the first coding unit 1410 having a shape whose height is greater than the width in the horizontal direction according to the split shape information to thereby provide a plurality of second coding units 1412a, 1412b, 1414a, and 1414b. 1414c). According to an embodiment, the decoder 130 divides the first coding unit 1420 having a width greater than the height in the vertical direction according to the split shape information to thereby provide a plurality of second coding units 1422a, 1422b, 1424a, and 1424b. 1424c).
  • the second coding units 1412a, 1412b, 1414a, 1414b, 1416a, 1416b, 1416c, and 1416d that are determined according to split shape information about the first coding unit 1410 or 1420 having a non-square shape may be Depth may be determined based on the length of the long side. For example, since the length of one side of the second coding units 1412a and 1412b having a square shape is 1/2 times the length of one side of the first coding unit 1410 having a non-square shape having a height greater than the width, the square is square.
  • the depths of the second coding units 1402a, 1402b, 1404a, and 1404b of the form are D + 1, which is one depth lower than the depth D of the first coding unit 1410 of the non-square form.
  • the decoder 130 may divide the non-square first coding unit 1410 into odd second coding units 1414a, 1414b, and 1414c based on the split shape information.
  • the odd numbered second coding units 1414a, 1414b, and 1414c may include non-square second coding units 1414a and 1414c and square shape second coding units 1414b.
  • the length of the long side of the second coding units 1414a and 1414c of the non-square shape and the length of one side of the second coding unit 1414b of the square shape is 1 / time of the length of one side of the first coding unit 1410.
  • the depths of the second coding units 1414a, 1414b, and 1414c may be a depth of D + 1 that is one depth lower than the depth D of the first coding unit 1410.
  • the decoder 130 is a coding unit associated with the first coding unit 1420 having a non-square shape having a width greater than a height in a manner similar to the above method of determining depths of the coding units related to the first coding unit 1410. Depth of field can be determined.
  • the decoder 130 in determining an index (PID) for dividing the divided coding units, when the odd-numbered split coding units are not the same size, the decoder 130 is based on the size ratio between the coding units. To determine the index. Referring to FIG. 14, a coding unit 1414b positioned at the center of odd-numbered split coding units 1414a, 1414b, and 1414c has the same width as the other coding units 1414a and 1414c but has a different height. It may be twice the height of the fields 1414a, 1414c. That is, in this case, the coding unit 1414b located in the center may include two of the other coding units 1414a and 1414c.
  • the decoder 130 may determine whether odd-numbered split coding units are not the same size based on whether there is a discontinuity of an index for distinguishing the split coding units.
  • the image decoding apparatus 100 may determine whether the image decoding apparatus 100 is divided into a specific division type based on a value of an index for dividing the plurality of coding units determined by dividing from the current coding unit. Referring to FIG. 14, the image decoding apparatus 100 determines an even number of coding units 1412a and 1412b by dividing a first coding unit 1410 having a rectangular shape having a height greater than a width, or an odd number of coding units 1414a and 1414b. 1414c). The image decoding apparatus 100 may use an index (PID) indicating each coding unit to distinguish each of the plurality of coding units. According to an embodiment, the PID may be obtained from a sample (eg, an upper left sample) at a predetermined position of each coding unit.
  • a sample eg, an upper left sample
  • the image decoding apparatus 100 may determine a coding unit of a predetermined position among coding units determined by splitting by using an index for dividing coding units. According to an embodiment of the present disclosure, when the split type information of the first coding unit 1410 having a height greater than the width is divided into three coding units, the image decoding apparatus 100 may determine the first coding unit 1410. It may be divided into three coding units 1414a, 1414b, and 1414c. The image decoding apparatus 100 may allocate an index for each of three coding units 1414a, 1414b, and 1414c. The image decoding apparatus 100 may compare the indices of the respective coding units to determine the coding unit among the oddly divided coding units.
  • the image decoding apparatus 100 encodes a coding unit 1414b having an index corresponding to a center value among the indices based on the indexes of the coding units, and encodes the center position among the coding units determined by splitting the first coding unit 1410. It can be determined as a unit. According to an embodiment, when determining the indexes for distinguishing the divided coding units, the image decoding apparatus 100 may determine the indexes based on the size ratio between the coding units when the coding units are not the same size. . Referring to FIG. 14, the coding unit 1414b generated by dividing the first coding unit 1410 may include the coding units 1414a and 1414c having the same width but different heights as the other coding units 1414a and 1414c.
  • the image decoding apparatus 100 may determine that the image decoding apparatus 100 is divided into a plurality of coding units including a coding unit having a different size from other coding units. In this case, when the split form information is divided into odd coding units, the image decoding apparatus 100 may have a shape different from a coding unit having a different coding unit (for example, a middle coding unit) at a predetermined position among the odd coding units.
  • the current coding unit can be divided by.
  • the image decoding apparatus 100 may determine a coding unit having a different size by using an index (PID) for the coding unit.
  • PID index
  • the above-described index, the size or position of the coding unit of the predetermined position to be determined are specific to explain an embodiment and should not be construed as being limited thereto. Various indexes and positions and sizes of the coding unit may be used. Should be interpreted.
  • the decoder 130 may use a predetermined data unit at which recursive division of coding units begins.
  • FIG. 15 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • the predetermined data unit may be defined as a data unit in which a coding unit starts to be recursively divided using at least one of block shape information and split shape information. That is, it may correspond to the coding unit of the highest depth used in the process of determining a plurality of coding units for dividing the current picture.
  • a predetermined data unit will be referred to as a reference data unit.
  • the reference data unit may represent a predetermined size and shape.
  • the reference coding unit may include samples of M ⁇ N. M and N may be the same as each other, and may be an integer represented by a multiplier of two. That is, the reference data unit may represent a square or non-square shape, and then may be divided into integer coding units.
  • the decoder 130 of the image decoding apparatus 100 may split the current picture into a plurality of reference data units.
  • the decoder 130 may divide a plurality of reference data units for dividing a current picture using split information for each reference data unit.
  • the division process of the reference data unit may correspond to the division process using a quad-tree structure.
  • the decoder 130 may predetermine the minimum size of the reference data unit included in the current picture. Accordingly, the decoder 130 may determine a reference data unit having various sizes having a minimum size or more, and determine at least one coding unit using block shape information and split shape information based on the determined reference data unit. Can be.
  • the image decoding apparatus 100 may use a reference coding unit 1500 having a square shape, or may use a reference coding unit 1502 having a non-square shape.
  • the shape and size of the reference coding unit may include various data units (eg, a sequence, a picture, a slice, and a slice segment) that may include at least one reference coding unit. slice segment, maximum coding unit, etc.).
  • the bitstream obtainer 120 of the image decoding apparatus 100 obtains at least one of information about a shape of a reference coding unit and information about a size of a reference coding unit from each bitstream. can do.
  • the process of determining at least one coding unit included in the reference coding unit 1500 having a square shape is described above by splitting the current coding unit 300 of FIG. 3, and the reference coding unit 1500 having a non-square shape has been described. Since the process of determining at least one coding unit included in the above) is described above through the process of splitting the current coding unit 400 or 450 of FIG. 4, a detailed description thereof will be omitted.
  • the decoder 130 may determine an index for identifying the size and shape of the reference coding unit in order to determine the size and shape of the reference coding unit according to some data unit determined in advance based on a predetermined condition. It is available. That is, the bitstream obtainer 120 may have a predetermined condition (for example, a size equal to or smaller than a slice) among the various data units (eg, sequence, picture, slice, slice segment, maximum coding unit, etc.) from the bitstream. As the data unit satisfying the data unit), only an index for identifying the size and shape of the reference coding unit may be obtained for each slice, slice segment, maximum coding unit, or the like.
  • a predetermined condition for example, a size equal to or smaller than a slice
  • the various data units eg, sequence, picture, slice, slice segment, maximum coding unit, etc.
  • the decoder 130 may determine the size and shape of the reference data unit for each data unit satisfying the predetermined condition by using the index.
  • the index may be obtained and used. In this case, at least one of the size and shape of the reference coding unit associated with an index indicating the size and shape of the reference coding unit may be predetermined.
  • the decoder 130 determines at least one of the size and shape of the reference coding unit included in the data unit, which is the reference for index acquisition, by selecting at least one of the predetermined size and shape of the reference coding unit according to the index. Can be.
  • the decoder 130 may use at least one reference coding unit included in one maximum coding unit. That is, at least one reference coding unit may be included in the maximum coding unit for dividing an image, and the coding unit may be determined through a recursive division process of each reference coding unit. According to an embodiment, at least one of the width and the height of the maximum coding unit may correspond to an integer multiple of at least one of the width and the height of the reference coding unit. According to an embodiment, the size of the reference coding unit may be a size obtained by dividing the maximum coding unit n times according to a quad tree structure.
  • the decoder 130 may determine the reference coding unit by dividing the maximum coding unit n times according to the quad tree structure, and according to various embodiments, the reference coding unit may be included in at least one of block shape information and split shape information. Can be divided based on this.
  • FIG. 16 is a diagram of a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture 1600, according to an exemplary embodiment.
  • the decoder 130 may determine at least one processing block for dividing a picture.
  • the processing block is a data unit including at least one reference coding unit for dividing an image, and the at least one reference coding unit included in the processing block may be determined in a specific order. That is, the determination order of at least one reference coding unit determined in each processing block may correspond to one of various types of order in which the reference coding unit may be determined, and the reference coding unit determination order determined in each processing block. May be different per processing block.
  • the order of determination of the reference coding units determined for each processing block is raster scan, Z-scan, N-scan, up-right diagonal scan, and horizontal scan. It may be one of various orders such as a horizontal scan, a vertical scan, etc., but the order that may be determined should not be construed as being limited to the scan orders.
  • the decoder 130 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block.
  • the decoder 130 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block from the bitstream.
  • the size of such a processing block may be a predetermined size of a data unit indicated by the information about the size of the processing block.
  • the bitstream obtainer 120 of the image decoding apparatus 100 may obtain information about a size of a processing block from a bitstream for each specific data unit.
  • the information about the size of the processing block may be obtained from the bitstream in data units such as an image, a sequence, a picture, a slice, and a slice segment. That is, the bitstream obtainer 120 may obtain information about the size of the processing block from the bitstream for each of the various data units, and the decoder 130 may divide the picture using the obtained information about the size of the processing block.
  • a size of at least one processing block can be determined, and the size of the processing block can be an integer multiple of the reference coding unit.
  • the decoder 130 may determine the sizes of the processing blocks 1602 and 1612 included in the picture 1600. For example, the decoder 130 may determine the size of the processing block based on the information about the size of the processing block obtained from the bitstream. Referring to FIG. 16, the decoder 130 determines a horizontal size of the processing blocks 1602 and 1612 to be four times the horizontal size of the reference coding unit and four times the vertical size of the reference coding unit, according to an embodiment. Can be. The decoder 130 may determine an order in which at least one reference coding unit is determined in at least one processing block.
  • the decoder 130 may determine each processing block 1602 and 1612 included in the picture 1600 based on the size of the processing block, and the reference coding unit determiner 12 may process A determination order of at least one reference coding unit included in blocks 1602 and 1612 may be determined.
  • the determination of the reference coding unit may include the determination of the size of the reference coding unit.
  • the decoder 130 may obtain information about the determination order of at least one reference coding unit included in the at least one processing block from the bitstream, and based on the obtained information about the determination order An order in which at least one reference coding unit is determined may be determined.
  • the information about the determination order may be defined in an order or direction in which reference coding units are determined in the processing block. That is, the order in which the reference coding units are determined may be independently determined for each processing block.
  • the image decoding apparatus 100 may obtain information about a determination order of a reference coding unit from a bitstream for each specific data unit.
  • the bitstream obtainer 120 may obtain information on the determination order of the reference coding unit from the bitstream for each data unit such as an image, a sequence, a picture, a slice, a slice segment, and a processing block. Since the information about the determination order of the reference coding unit indicates the determination order of the reference coding unit in the processing block, the information about the determination order may be obtained for each specific data unit including an integer number of processing blocks.
  • the image decoding apparatus 100 may determine at least one reference coding unit based on the order determined according to the embodiment.
  • the bitstream obtainer 120 may obtain information about a reference coding unit determination order from the bitstream as information related to the processing blocks 1602 and 1612, and the decoder 130 may process the processing.
  • An order of determining at least one reference coding unit included in blocks 1602 and 1612 may be determined, and at least one reference coding unit included in the picture 1600 may be determined according to the determination order of the coding units.
  • the decoder 130 may determine determination orders 1604 and 1614 of at least one reference coding unit associated with each processing block 1602 and 1612. For example, when information on the determination order of the reference coding unit is obtained for each processing block, the reference coding unit determination order associated with each processing block 1602 and 1612 may be different for each processing block.
  • the reference coding units included in the processing block 1602 may be determined according to the raster scan order.
  • the reference coding unit determination order 1614 associated with another processing block 1612 is the reverse order of the raster scan order
  • the reference coding units included in the processing block 1612 may be determined according to the reverse order of the raster scan order.
  • the decoder 130 may decode at least one determined reference coding unit according to an embodiment.
  • the decoder 130 may decode the image based on the reference coding unit determined through the above-described embodiment.
  • the method of decoding the reference coding unit may include various methods of decoding an image.
  • the image decoding apparatus 100 may obtain and use block shape information indicating a shape of a current coding unit or split shape information indicating a method of splitting a current coding unit from a bitstream.
  • Block type information or split type information may be included in a bitstream associated with various data units.
  • the image decoding apparatus 100 may include a sequence parameter set, a picture parameter set, a video parameter set, a slice header, and a slice segment header. block type information or segmentation type information included in a segment header) may be used.
  • the image decoding apparatus 100 may obtain and use syntax related to block shape information or split shape information from the bitstream from the bitstream for each maximum coding unit, reference coding unit, and processing block.
  • the decoder 130 may differently determine the type of division type into which the coding unit may be divided, for each predetermined data unit. According to an embodiment, the decoder 130 of the image decoding apparatus 100 may differently determine a combination of forms in which coding units may be divided for each predetermined data unit (eg, sequence, picture, slice, etc.). .
  • FIG. 17 illustrates coding units that may be determined for each picture when a combination of forms in which coding units may be divided is different for each picture, according to an embodiment.
  • the decoder 130 may differently determine a combination of division forms in which a coding unit may be divided for each picture.
  • the decoder 130 may include a picture 1700 that may be divided into four coding units among at least one picture included in an image, and a picture 1710 that may be divided into two or four coding units. And a picture 1720 that may be divided into two, three, or four coding units, to decode the image.
  • the decoder 130 may use only division type information indicating that the picture 1700 is divided into four square coding units in order to divide the picture 1700 into a plurality of coding units.
  • the decoder 130 may use only split type information indicating splitting into two or four coding units to split the picture 1710.
  • the decoder 130 may use only partition type information indicating that the picture is split into two, three, or four coding units in order to split the picture 1720.
  • the combination of the above-described divisional forms is only an embodiment for explaining the operation of the image decoding apparatus 100. Therefore, the above-described combination of the divisional forms should not be interpreted to be limited to the above-described embodiment, and the division of various forms for each predetermined data unit It is to be understood that combinations of forms may be used.
  • the bitstream obtainer 120 of the image decoding apparatus 100 may determine a bitstream including an index indicating a combination of segmentation type information as a predetermined data unit (eg, a sequence, a picture, a slice, etc.). Can be obtained every time.
  • the bitstream obtainer 120 may obtain an index indicating a combination of segmentation type information from a sequence parameter set, a picture parameter set, or a slice header.
  • the decoder 130 of the image decoding apparatus 100 may determine a combination of division types in which coding units may be divided for each predetermined data unit using the obtained index, and thus different divisions for each predetermined data unit may be performed. Combinations of forms may be used.
  • FIG. 18 illustrates various forms of coding units that may be determined based on split form information that may be represented by binary codes according to an embodiment.
  • the image decoding apparatus 100 may divide a coding unit into various forms by using block shape information and split shape information acquired through the bitstream obtainer 120.
  • the form of the coding unit that may be split may correspond to various forms including the forms described through the above-described embodiments.
  • the decoder 130 may split a coding unit having a square shape into at least one of a horizontal direction and a vertical direction based on the split shape information, and divide the coding unit having a non-square shape into a horizontal direction. Or it can divide in a vertical direction.
  • the split type information of the square coding unit may be represented.
  • the partition type information may be represented by a 2-digit binary code, and a binary code may be allocated to each partition type.
  • the partition type information when the coding unit is not divided, the partition type information may be represented by (00) b, and when the coding unit is split in the horizontal direction and the vertical direction, the partition type information may be represented by (01) b, When the coding unit is split in the horizontal direction, the split type information may be represented by (10) b, and when the coding unit is split in the vertical direction, the split type information may be represented by (11) b.
  • the type of division type that can be represented by the segmentation type information may be determined according to how many coding units are divided. Can be.
  • the decoder 130 may split up to three non-square coding units according to an embodiment.
  • the decoder 130 may split a coding unit into two coding units, and in this case, the split type information may be represented by (10) b.
  • the decoder 130 may divide a coding unit into three coding units, and in this case, the split type information may be represented by (11) b.
  • the decoder 130 may determine not to split the coding unit, and in this case, the split type information may be expressed as (0) b. That is, the decoder 130 may use variable length coding (VLC) instead of fixed length coding (FLC) in order to use a binary code indicating split type information.
  • VLC variable length coding
  • FLC fixed length coding
  • a binary code of split type information indicating that a coding unit is not split may be represented by (0) b. If the binary code of the partition type information indicating that the coding unit is not split is set to (00) b, even if there is no partition type information set to (01) b, all of the binary codes of the 2-bit partition type information are included. Should be used. However, as shown in FIG. 18, in the case of using three split types for a non-square coding unit, even if the decoder 130 uses one-bit binary code (0) b as split type information. Since the coding unit can be determined not to be divided, the bitstream can be efficiently used. However, the divided form of the non-square-type coding unit indicated by the divided form information is not limited to only the three forms illustrated in FIG. 18 and should be interpreted in various forms including the embodiments described above.
  • FIG. 19 illustrates another form of a coding unit that may be determined based on split form information that may be represented by a binary code, according to an embodiment.
  • the decoder 130 may split a coding unit having a square shape in a horizontal direction or a vertical direction based on split shape information, and may split the coding unit having a non-square shape in a horizontal direction or a vertical direction.
  • the split type information may indicate that a coding unit having a square shape is split in one direction.
  • the binary code of the split type information indicating that the coding unit of the square type is not split may be represented by (0) b. If the binary code of the partition type information indicating that the coding unit is not split is set to (00) b, even if there is no partition type information set to (01) b, all of the binary codes of the 2-bit partition type information are included. Should be used.
  • the coding unit is used. Can determine that is not to be divided, so that the bitstream can be used efficiently.
  • the divided form of the square coding unit represented by the divided form information should not be construed as being limited to only the three forms illustrated in FIG. 19, but should be interpreted in various forms including the embodiments described above.
  • the block type information or the split type information may be represented by using a binary code, and such information may be immediately generated in a bitstream.
  • block type information or partition type information that can be represented by a binary code may be used as a binary code that is not directly generated as a bitstream but input by context adaptive binary arithmetic coding (CABAC).
  • CABAC context adaptive binary arithmetic coding
  • the image decoding apparatus 100 describes a process of obtaining syntax about block type information or partition type information through CABAC.
  • the bitstream including the binary code for the syntax may be obtained through the bitstream obtainer 120.
  • the decoder 130 may inverse binarize the bin string included in the obtained bitstream to detect a syntax element representing the block type information or the split type information.
  • the decoder 130 may obtain a set of binary bin strings corresponding to syntax elements to be decoded, and decode each bin using probability information, and the decoder 130 may decode the bin. You can iterate until an empty string consisting of equals one of the previously obtained empty strings.
  • the decoder 130 may determine the syntax element by performing inverse binarization of the empty string.
  • the decoder 130 may determine a syntax for an empty string by performing a decoding process of adaptive binary arithmetic coding, and the decoder 130 may obtain a bitstream obtainer 120. ) Can be used to update the probability model for the acquired bins.
  • the bitstream obtainer 120 of the image decoding apparatus 100 may acquire a bitstream indicating a binary code indicating segmentation type information, according to an exemplary embodiment.
  • the decoder 130 may determine the syntax of the partition type information by using the obtained binary code having a size of 1 bit or 2 bits.
  • the decoder 130 may update the probability of each bit of the 2-bit binary code to determine the syntax of the partition type information. That is, the decoder 130 may update the probability of having a value of 0 or 1 when decoding the next bin, depending on which value of the first bin is 0 or 1 of the 2-bit binary code.
  • the decoder 130 may update a probability of bins used in decoding bins of an empty string for syntax, and the decoder 130 may update the bin. It may be determined that a specific bit of the string has the same probability without updating the probability.
  • the decoder 130 does not split the coding unit having a non-square shape.
  • the syntax of the partition type information may be determined using one bin having a value of 0. That is, when the block type information indicates that the current coding unit is a non-square type, the first bin of the empty string for the split type information is 0 when the coding unit of the non-square type is not divided, and two or three It may be 1 when it is divided into coding units. Accordingly, the probability that the first bin of the empty string of the split form information for the non-square coding unit is 0 may be 1/3, and the probability that 1 is 2/3.
  • the decoder 130 may perform the splitter type information because the splitter type information indicating that the non-square type coding unit is not split may be represented. Only when the first bin of 1 is 1, the syntax of the partition type information may be determined by determining whether the second bin is 0 or 1. According to an embodiment, when the first bin for the partition type information is 1, the decoder 130 may decode the bins as having a probability that the second bin is 0 or 1 with the same probability.
  • the image decoding apparatus 100 may use various probabilities for each bin in the process of determining the bin of the bin string for the split type information.
  • the decoder 130 may differently determine a probability of a bin with respect to the partition type information according to the direction of the non-square block.
  • the decoder 130 may differently determine a probability of a bin with respect to the split shape information according to the width or the length of the long side of the current coding unit.
  • the decoder 130 may differently determine a probability of a bin with respect to the split shape information according to at least one of a shape of a current coding unit and a length of a long side.
  • the decoder 130 may determine the same probability of bins for the split type information for coding units having a predetermined size or more. For example, based on the length of the long side of the coding unit, it may be determined that the coding units having a size of 64 samples or more have the same probability of bins for the split shape information.
  • the decoder 130 may determine an initial probability of bins constituting an empty string of split type information based on a slice type (eg, an I slice, a P slice, or a B slice).
  • a slice type eg, an I slice, a P slice, or a B slice.
  • 20 is a block diagram of an image encoding and decoding system for performing loop filtering.
  • the encoding stage 2010 of the image encoding and decoding system 2000 transmits an encoded bitstream of an image, and the decoding stage 2050 receives and decodes the bitstream to output a reconstructed image.
  • the encoding end 2010 may have a similar configuration to the image encoding apparatus 200 to be described later, and the decoding end 2050 may have a similar configuration to the image decoding apparatus 100.
  • the predictive encoding unit 2015 outputs a reference image through inter prediction and intra prediction, and the transform and quantization unit 2020 transforms the quantized residual data between the reference image and the current input image. Quantize this to output it.
  • the entropy encoder 2025 encodes and transforms the quantized transform coefficients and outputs the bitstream.
  • the quantized transform coefficients are reconstructed into spatial data through the inverse quantization and inverse transform unit 2030, and the reconstructed spatial data are output as reconstructed images through the deblocking filtering unit 2035 and the loop filtering unit 2040. do.
  • the reconstructed image may be used as a reference image of the next input image through the prediction encoder 2015.
  • the encoded image data in the bitstream received by the decoder 2050 is reconstructed as residual data in the spatial domain through the entropy decoder 2055 and the inverse quantization and inverse transform unit 2060.
  • the reference image and the residual data output from the predictive decoder 2075 are combined to form image data of the spatial domain, and the deblocking filter 2065 and the loop filter 2070 filter the image data of the spatial domain.
  • the reconstructed image of the current original image can be output by performing.
  • the reconstructed image may be used as the reference image for the next original image by the prediction decoder 2075.
  • the loop filtering unit 2040 of the encoding stage 2010 performs loop filtering using filter information input according to a user input or system setting.
  • the filter information used by the loop filtering unit 2040 is output to the entropy encoder 2010 and transmitted to the decoder 2050 together with the encoded image data.
  • the loop filtering unit 2070 of the decoding unit 2050 may perform loop filtering based on filter information input from the decoding unit 2050.
  • 21 is a diagram illustrating an example of filtering units included in a maximum coding unit and filtering performance information of a filtering unit, according to an embodiment.
  • the data filtering unit of the loop filtering unit 2040 of the encoding end 2010 and the loop filtering unit 2070 of the decoding end 2050 is similar to the coding unit according to the above-described embodiment through FIGS. 3 to 5.
  • the filter information may include block type information and split type information of a data unit to indicate a filtering unit, and loop filtering performance information indicating whether to perform loop filtering on the filtering unit.
  • the filtering units included in the maximum coding unit 2100 may have the same block form and split form as the coding units included in the maximum coding unit 2100. Also, the filtering units included in the maximum coding unit 2100 may be divided based on the sizes of the coding units included in the maximum coding unit 2100. For example, with reference to FIG. 21, the filtering units may include square-shaped filtering units 2140 of depth D, non-square-shaped filtering units 2132 and 2134 of depth D, and square-shaped filtering units of depth D + 1. (2112, 2114, 2116, 2152, 2154, 2164), non-square filtering units of depth D + 1 (2162, 2166), square filtering units of depth D + 2 (2122, 2124, 2126, 2128) ) May be included.
  • Block shape information, split shape information (depth), and loop filtering performance information of the filtering units included in the maximum coding unit 2100 may be encoded as shown in Table 1 below.
  • a process of determining a plurality of coding units by recursively dividing coding units according to block shape information and block splitting information according to an embodiment is as described above with reference to FIG. 13.
  • Loop filtering performance information of the filtering units according to an embodiment indicates that loop filtering is performed on the corresponding filtering unit when the flag value is 1 and loop filtering is not performed on the corresponding filtering unit.
  • information of a data unit for determining a filtering unit to be filtered by the loop filtering units 2040 and 2070 may be encoded and transmitted as filter information.
  • coding units configured according to an embodiment are coding units configured in a form of minimizing an error with an original image, it is expected that spatial correlation is high in the coding unit. Therefore, since the filtering unit is determined based on the coding unit according to an embodiment, the operation of determining the filtering unit separately from the determination of the coding unit may be omitted. Accordingly, since information for determining the division type of the filtering unit may be omitted by determining the filtering unit based on the coding unit, the transmission bit rate of the filter information may be saved.
  • the filtering unit is determined to be determined based on the coding unit according to an embodiment.
  • the filtering unit is split based on the coding unit, and the filtering unit is further divided up to the corresponding depth without further dividing at any depth.
  • the shape of may be determined.
  • the determination of the filtering unit disclosed in the above-described embodiments may be applied to various embodiments, such as deblocking filtering and adaptive loop filtering, as well as loop filtering.
  • the image decoding apparatus 100 may split a current coding unit by using at least one of block shape information and split shape information, and the block shape information is previously determined to use only a square shape and the split shape information. May be determined in advance as not to divide or to indicate splitting into four square coding units. That is, in the current coding unit, according to the block shape information, the coding unit always has a square shape, and may be divided into four coding units having no square or four square shapes based on the split shape information.
  • the image decoding apparatus 100 may obtain the bitstream generated by using the predetermined encoding method by using only the block form and the split form, through the bitstream obtainer 110, and the decoder 120 may Only predetermined block types and split types may be used.
  • the image decoding apparatus 100 may solve the compatibility problem with the predetermined encoding method by using the predetermined decoding method similar to the predetermined encoding method.
  • the image decoding apparatus 100 uses the above-described predetermined decoding method using only a predetermined block shape and a split shape among various types that can be represented by the block shape information and the split shape information, the block shape information may be Since only the square shape is represented, the image decoding apparatus 100 may omit the process of acquiring block shape information from the bitstream.
  • a syntax indicating whether to use the above-described predetermined decoding method may be used, and the syntax may include a bitstream for each data unit of various types that may include a plurality of coding units such as a sequence, a picture, a slice unit, and a maximum coding unit. Can be obtained from. That is, the bitstream obtaining unit 110 may determine whether to obtain a syntax indicating the block type information from the bitstream based on the syntax indicating whether a predetermined decoding method is used.
  • FIG. 23 illustrates an index according to a Z scan order of coding units, according to an embodiment.
  • the image decoding apparatus 100 may scan the lower data units included in the upper data unit in the Z scan order. Also, the image decoding apparatus 100 according to an embodiment may sequentially access data according to a Z scan index in a maximum coding unit or a coding unit included in a processing block.
  • the image decoding apparatus 100 may split the reference coding unit into at least one coding unit, as described above with reference to FIGS. 3 to 4. In this case, square coding units and non-square coding units may be mixed in the reference coding unit.
  • the image decoding apparatus 100 according to an embodiment may perform data access according to a Z scan index included in each coding unit in a reference coding unit. In this case, the method of applying the Z scan index may be different depending on whether a non-square type coding unit exists in the reference coding unit.
  • coding units having a lower depth in the reference coding unit may have consecutive Z scan indices.
  • the coding units of the higher depths may include four coding units of the lower depths.
  • the coding units of the four lower depths may be adjacent to each other, and the coding units of the lower depths may be scanned in the Z scan order according to an index indicating the Z scan order.
  • an index indicating a Z scan order may be set to a number that increases according to the Z scan order for each coding unit. In this case, scanning units according to depths of the same depth may be scanned according to a Z scan order.
  • the image decoding apparatus 100 divides the coding units in the reference coding unit into subblocks, respectively, A scan according to the Z scan order may be performed on the blocks. For example, when a coding unit having a non-square shape in the vertical direction or the horizontal direction exists in the reference coding unit, the Z scan may be performed using the divided subblocks. Also, for example, when splitting is performed in odd coding units within a reference coding unit, a Z scan may be performed using subblocks. The sub block is obtained by dividing a coding unit that is no longer split or an arbitrary coding unit, and may have a square shape. For example, four square subblocks may be split from a square coding unit. Also, for example, two square subblocks may be split from a non-square coding unit.
  • the image decoding apparatus 100 may perform a Z scan order on coding units 2302, 2304, 2306, 2308, and 2310 of lower depths in the coding unit 2300. You can scan according to.
  • the coding unit 2300 and the coding units 2302, 2304, 2306, 2308, and 2310 are relatively higher coding units and lower coding units, respectively.
  • the coding unit 2300 includes coding units 2306 and 2310 having a non-square shape in a horizontal direction. These non-square shaped coding units 2306 and 2310 are discontinuous at boundaries with adjacent square shaped coding units 2302 and 2304.
  • the coding unit 2308 has a square shape, and a coding unit having a non-square shape is an intermediate coding unit when an odd number of coding units are divided. Like the non-square coding units 2306 and 2310, the coding unit 2308 has a discontinuous boundary with adjacent square coding units 2302 and 2304. If coding units 2300 include non-square coding units 2306 and 2310 or non-square coding units are divided into odd numbered coding units 2308, the coding units 2308 may be included. A continuous Z scan index cannot be set because adjacent boundaries are discontinuous. Therefore, the image decoding apparatus 100 may continuously set the Z scan index by dividing coding units into subblocks. Also, the image decoding apparatus 100 may perform a continuous Z scan on the non-square coding units 2306 and 2310 or the coding units 2308 located in the middle of the odd-numbered non-square coding units. Can be done.
  • the coding unit 2320 illustrated in FIG. 23 is obtained by dividing coding units 2302, 2304, 2306, 2308, and 2310 in the coding unit 2300 into subblocks. Since the Z scan index may be set for each of the sub blocks, and adjacent boundaries between the sub blocks are continuous, the sub blocks may be scanned according to the Z scan order.
  • the coding unit 2308 may be divided into sub blocks 2322, 2324, 2326, and 2328.
  • the sub blocks 2322 and 2324 may be scanned after the data processing for the sub block 2330, and the sub blocks 2326 and 2328 may be scanned after the data processing for the sub block 2332.
  • each of the sub blocks may be scanned according to the Z scan order.
  • scanning according to the Z scan order for the data units may be for data storage, data loading, data access, and the like.
  • the data units can be scanned according to the Z scan order, but the scanning order of the data units includes various scan orders such as raster scan, N scan, right upward diagonal scan, horizontal scan, and vertical scan. It can be performed as, and not limited to the Z scan order.
  • the target of the scanning may be a maximum coding unit or any block in a processing block. have.
  • the scan is performed according to the Z scan order by dividing into sub-blocks only when there is at least one non-square type block, but the non-square type is provided for simplified implementation. Even if a block of s does not exist, the sub blocks may be divided to perform a scan according to the Z scan order.
  • the image decoding apparatus 100 may generate prediction data by performing inter prediction or intra prediction on a coding unit, and generate residual data by performing inverse transform on a transform unit included in a current coding unit.
  • the current coding unit may be reconstructed using the generated prediction data and the residual data.
  • the prediction mode of the coding unit may be at least one of an intra mode, an inter mode, and a skip mode. According to an embodiment, a prediction mode may be independently selected for each coding unit.
  • inter mode prediction and intra mode prediction may be performed separately for each coding unit.
  • a skip mode may be applied to coding units of 2NxN or Nx2N form according to an embodiment.
  • the image decoding apparatus 100 may be allowed to perform bi-prediction in a skip mode of an 8x4 or 4x8 type coding unit.
  • the image decoding apparatus 100 may increase the decoding efficiency by allowing bidirectional prediction for a coding unit to which a skip mode is applied.
  • the image decoding apparatus 100 allows bidirectional prediction for 8x4 or 4x8 type coding units, but sets the number of interpolation taps to be relatively small in the motion compensation step to efficiently use the memory bandwidth.
  • an interpolation filter of less than 8 taps eg, a 2-tap interpolation filter
  • the image decoding apparatus 100 may divide the region included in the current coding unit into a predetermined form (for example, diagonal based division) to signal intra or inter prediction information on each divided region. You may.
  • the image decoding apparatus 100 may obtain a prediction sample of the current coding unit using an intra mode by using a neighboring sample of the current coding unit. At this time, intra prediction performs prediction using surrounding reconstructed samples, which are called reference samples.
  • FIG. 24 is a diagram illustrating a reference sample for intra prediction of a coding unit, according to an embodiment.
  • a current coding unit 2300 having a non-square block shape, a horizontal length w, a vertical length h, and w + h reference samples 2302 at the top, A total of 2 (w + h) +1 reference samples are required, one w + h reference sample 2304 on the left and one reference reference 2306 on the upper left.
  • padding may be performed on a portion where a reference sample does not exist, and a reference mode filtering process for each prediction mode may be performed to reduce quantization error included in the reconstructed reference sample.
  • the number of reference samples when the block shape of the current coding unit is a non-square shape has been described.
  • the number of the reference samples is equally applied even when the current coding unit is a block shape of a rectangular shape.
  • FIG. 2 is a block diagram of an image encoding apparatus 200 capable of encoding an image based on at least one of block shape information and split shape information, according to an exemplary embodiment.
  • the image encoding apparatus 200 may include a bitstream generator 210 for generating a bitstream including predetermined information such as segmentation type information and block shape information. It may include an encoder 220 for encoding the image using the information. According to an embodiment, the encoder 220 of the image encoding apparatus 200 may determine at least one coding unit for dividing an image based on at least one of block shape information and split shape information, and may encode the image encoder 200. The bitstream generator 210 may generate a bitstream including at least one of such block type information and split type information.
  • the block shape information may mean information or syntax indicating a shape of a coding unit
  • the split shape information may mean information or syntax indicating a shape in which a coding unit is split.
  • the encoder 220 of the image encoding apparatus 200 may determine a shape of a coding unit.
  • the coding unit may be square or have a non-square shape, and information representing such a shape may be included in the block shape information.
  • the encoder 220 may determine how to split the coding unit.
  • the encoder 220 may determine the form of at least one coding unit included in the coding unit, and the bitstream generator 210 may generate a bitstream including split form information including information about the shape of the coding unit. Can be generated.
  • the encoder 220 may determine whether a coding unit is divided or not. When the encoder 220 determines that only one coding unit is included in the coding unit or that the coding unit is not split, the bitstream generator 210 includes split type information indicating that the coding unit is not split. A bitstream can be generated. Also, the encoder 220 may split the plurality of coding units included in the coding unit, and the bitstream generator 210 may divide the bitstream including the split type information indicating that the coding unit is divided into a plurality of coding units. Can be generated.
  • information indicating how many coding units to divide or in which direction to split coding units may be included in split type information.
  • the split type information may indicate splitting in at least one of a vertical direction and a horizontal direction or may not split.
  • FIG. 3 illustrates a process of determining, by the image encoding apparatus 200, at least one coding unit by dividing a current coding unit according to an embodiment.
  • the encoder 220 may determine a shape of a coding unit. For example, the encoder 220 may determine a shape of a coding unit having an optimal RD-cost in consideration of a rate distortion (RD) cost.
  • RD rate distortion
  • the encoder 220 may determine that the current coding unit is in a square shape, and thus, determine a shape in which the coding unit having a square shape is divided. For example, the encoder 220 may determine whether to split a square coding unit, to split vertically, to split horizontally, or to split into four coding units. Referring to FIG. 3, the encoder 220 does not divide a coding unit 310a having the same size as the current coding unit 300, or splits the coding unit based on split type information indicating a predetermined division method ( 310b, 310c, 310d, etc.) can be determined.
  • the encoder 220 may determine two coding units 310b obtained by dividing the current coding unit 300 in the vertical direction.
  • the encoder 220 may determine two coding units 310c obtained by dividing the current coding unit 300 in the horizontal direction.
  • the encoder 220 may determine four coding units 310d obtained by dividing the current coding unit 300 in the vertical direction and the horizontal direction.
  • the divided form in which the square coding unit may be divided should not be limited to the above-described form and may include various forms represented by the divided form information. Certain division forms in which a square coding unit is divided will be described in detail with reference to various embodiments below.
  • the bitstream generator 210 of the image encoding apparatus 200 may generate a bitstream including split shape information indicating a shape in which the current coding unit 300 is split by the encoder 220. Can be.
  • FIG. 4 illustrates a process of determining, by the image encoding apparatus 200, at least one coding unit by dividing a coding unit having a non-square shape according to an embodiment.
  • the encoder 220 may determine whether to split the current coding unit of the non-square or whether to split the current coding unit in a predetermined method.
  • the encoder 220 of the current coding unit 400 or 450 does not divide a coding unit 410 or 460 having the same size as the current coding unit 400 or 450 or a predetermined division method.
  • the divided coding units 420a, 420b, 430a, 430b, 430c, 470a, 470b, 480a, 480b, and 480c may be determined.
  • the bitstream generator 210 of the image encoding apparatus 200 may generate a bitstream including split type information indicating the split type.
  • a predetermined division method in which a non-square coding unit is divided will be described in detail with reference to various embodiments below.
  • the encoder 220 may determine a form in which a coding unit is divided. Referring to FIG. 4, the encoder 220 may divide the current coding unit 400 or 450 to determine two coding units 420a, 420b, or 470a, 470b included in the current coding unit, and generate a bitstream. The unit 210 may generate a bitstream including split type information indicating the split type.
  • the encoder 220 may consider the position of the long side of the current coding unit 400 or 450 in the non-square. Coding units may be split. For example, the encoder 220 divides the current coding unit 400 or 450 in a direction of dividing the long side of the current coding unit 400 or 450 in consideration of the shape of the current coding unit 400 or 450. A plurality of coding units may be determined, and the bitstream generator 210 may generate a bitstream including split type information indicating the split type.
  • the encoder 220 may determine an odd number of coding units included in the current coding unit 400 or 450. For example, the encoder 220 may divide the current coding unit 400 or 450 into three coding units 430a, 430b, 430c, 480a, 480b, and 480c. According to an embodiment, the encoder 220 may determine an odd number of coding units included in the current coding unit 400 or 450, and not all sizes of the determined coding units may be the same.
  • the size of a predetermined coding unit 430b or 480b among the determined odd coding units 430a, 430b, 430c, 480a, 480b, and 480c is different from other coding units 430a, 430c, 480a, and 480c. May have That is, a coding unit that may be determined by dividing the current coding unit 400 or 450 may have a plurality of types, and in some cases, odd number of coding units 430a, 430b, 430c, 480a, 480b, and 480c. Each may have a different size.
  • the encoder 220 may determine an odd number of coding units included in the current coding unit 400 or 450, and further, the encoder 220 may divide at least one of the odd number of coding units generated by splitting. A predetermined limit may be placed on the coding unit of. Referring to FIG. 4, the encoder 220 may determine a coding unit positioned at the center of three coding units 430a, 430b, 430c, 480a, 480b, and 480c generated by dividing a current coding unit 400 or 450 ( The decoding process for 430b and 480b may be different from other coding units 430a, 430c, 480a and 480c.
  • the encoder 220 restricts the coding units 430b and 480b positioned in the center from being split any more, unlike the other coding units 430a, 430c, 480a and 480c, or splits only a predetermined number of times. You can limit it.
  • FIG. 5 illustrates a process of splitting a coding unit by the image encoding apparatus 200 according to an embodiment.
  • the encoder 220 may determine that the first coding unit 500 having a square shape is divided into coding units or not. According to an embodiment, the encoder 220 may determine the second coding unit 510 by dividing the first coding unit 500 in a horizontal direction, and may be used in accordance with an embodiment of the bitstream.
  • the second coding unit and the third coding unit are terms used to understand a before and after relationship between the coding units. For example, when the first coding unit is split, the second coding unit may be determined. When the second coding unit is split, the third coding unit may be determined.
  • the relationship between the first coding unit, the second coding unit, and the third coding unit used is based on the above-described feature.
  • the image encoding apparatus 200 may determine to divide or not split the determined second coding unit 510 into coding units based on at least one of block shape information and split shape information.
  • the encoder 220 may perform at least a second coding unit 510 having a non-square shape determined by dividing the first coding unit 500 based on at least one of block shape information and split shape information.
  • One third coding unit 520a, 520b, 520c, 520d, or the like may be divided or the second coding unit 510 may not be divided.
  • the bitstream generator 210 of the image encoding apparatus 200 may generate a bitstream including at least one of block type information and split type information, and the encoder 220 may generate at least one of block type information and split type information.
  • a plurality of second coding units (eg, 510) having various forms may be divided by dividing the first coding unit 500 based on one, and the second coding unit 510 may include block shape information and a split form.
  • the first coding unit 500 may be split based on at least one piece of information. According to an embodiment, when the first coding unit 500 is divided into the second coding unit 510 based on at least one of the block shape information and the split shape information for the first coding unit 500, the second coding unit 500 may be divided into the second coding unit 500.
  • the coding unit 510 may also be divided into third coding units (eg, 520a, 520b, 520c, 520d, etc.) based on at least one of block shape information and split shape information of the second coding unit 510. have. Therefore, a square coding unit may be determined in a non-square coding unit, and a coding unit of a square shape may be recursively divided to determine a coding unit of a non-square shape. Referring to FIG. 5, a non-square second coding unit 510 is divided among predetermined odd coding units 520b, 520c, and 520d that are determined by splitting a predetermined coding unit (eg, located in the center of the second coding unit).
  • third coding units eg, 520a, 520b, 520c, 520d, etc.
  • Coding units or coding units having a square shape may be recursively divided.
  • the third coding unit 520c having a square shape which is one of odd third coding units 520b, 520c, and 520d, may be divided in a horizontal direction and divided into a plurality of fourth coding units.
  • the fourth coding unit 540 having a non-square shape which is one of the plurality of fourth coding units, may be divided into a plurality of coding units.
  • the fourth coding unit 540 of the non-square shape may be divided into odd coding units 550a, 550b, and 550c.
  • the coding unit may be recursively divided based on at least one of the split form information and the block form information associated with each coding unit.
  • a method that can be used for recursive division of coding units will be described later through various embodiments.
  • the encoder 220 splits each of the third coding units 520a, 520b, 520c, 520d, etc. into coding units based on at least one of the block shape information and the split shape information, or the second coding unit. It may be determined not to divide 510.
  • the encoder 220 may divide the non-square second coding unit 510 into odd third coding units 520b, 520c, and 520d, according to an exemplary embodiment.
  • the image encoding apparatus 200 may place a predetermined limit on a predetermined third coding unit among the odd third coding units 520b, 520c, and 520d.
  • the image encoding apparatus 200 may be limited to the number of coding units 520c positioned in the middle of the odd number of third coding units 520b, 520c, and 520d, or may be divided by the number of times that can be set. It can be limited to.
  • the image encoding apparatus 200 may include a coding unit positioned at the center among odd-numbered third coding units 520b, 520c, and 520d included in the second coding unit 510 having a non-square shape.
  • 520c is no longer divided, or is limited to being divided into a predetermined division form (for example, divided into only four coding units or divided into a form corresponding to the divided form of the second coding unit 510), or predetermined.
  • the above limitation on the coding unit 520c located in the center is merely a mere embodiment and thus should not be construed as being limited to the above-described embodiments, and the coding unit 520c located in the center may be different from other coding units 520b and 520d. ), It should be interpreted as including various restrictions that can be decoded.
  • the bitstream generator 210 of the image encoding apparatus 200 performs block shape information and segmentation used to segment a current coding unit together with a bitstream associated with a sample at a predetermined position in the current coding unit.
  • a bitstream including at least one of the shape information may be generated.
  • FIG. 6 illustrates a method for the encoder 220 to determine a predetermined coding unit among odd-numbered coding units.
  • the encoder 220 of the image encoding apparatus 200 may determine to divide or not divide the current coding unit into coding units having various shapes and sizes.
  • the bitstream generator 210 may include a bitstream associated with a sample (eg, a sample 640 located in the middle) of a predetermined position among a plurality of samples included in the current coding unit 600.
  • a bitstream including at least one of block shape information and split shape information of the current coding unit 600 may be generated.
  • a predetermined position in the current coding unit 600 associated with at least one of such block shape information and split form information should not be interpreted as being limited to the center position shown in FIG. 6, and the predetermined position may be included in the current coding unit 600. It should be construed that various positions (eg, top, bottom, left, right, top left, bottom left, top right or bottom right, etc.) may be included.
  • the image encoding apparatus 200 may select one coding unit from among them. Methods for selecting one of a plurality of coding units may vary, which will be described below through various embodiments.
  • the encoder 220 of the image encoding apparatus 200 may divide a current coding unit into a plurality of coding units, and determine a coding unit of a predetermined position.
  • FIG. 6 illustrates a method for the image encoding apparatus 200 to determine a coding unit of a predetermined position among odd-numbered coding units, according to an embodiment.
  • the encoder 220 may use information indicating the position of each of the odd coding units to determine a coding unit located in the middle of the odd coding units.
  • the encoder 220 may divide the current coding unit 600 to determine odd number of coding units 620a, 620b, and 620c.
  • the encoder 220 may determine the center coding unit 620b by using information about the positions of the odd number of coding units 620a, 620b, and 620c. For example, the encoder 220 determines the positions of the coding units 620a, 620b, and 620c based on the information indicating the positions of the predetermined samples included in the coding units 620a, 620b, and 620c.
  • the coding unit 620b positioned may be determined.
  • the encoder 220 may determine the positions of the coding units 620a, 620b, and 620c based on the information indicating the positions of the samples 630a, 630b, and 630c in the upper left of the coding units 620a, 620b, and 620c.
  • the coding unit 620b positioned in the center may be determined by determining.
  • the information indicating the positions of the upper left samples 630a, 630b, and 630c included in the coding units 620a, 620b, and 620c may be located in the pictures of the coding units 620a, 620b, and 620c, respectively. Or it may include information about the coordinates. According to an embodiment, the information indicating the positions of the upper left samples 630a, 630b, and 630c included in the coding units 620a, 620b, and 620c may be included in the current coding unit 600.
  • 620c may include information indicating width or height, and the width or height may correspond to information indicating a difference between coordinates in a picture of the coding units 620a, 620b, and 620c. That is, the image encoding apparatus 200 directly uses information about a position or coordinates in a picture of the coding units 620a, 620b, and 620c or uses information about a width or height of a coding unit indicating a difference value between coordinates. As a result, the coding unit 620b positioned at the center may be determined.
  • the information indicating the position of the sample 630a at the upper left of the upper coding unit 620a may indicate (xa, ya) coordinates, and the sample 630b at the upper left of the middle coding unit 620b.
  • the information indicating the position of) may indicate the (xb, yb) coordinates, and the information indicating the position of the sample 630c on the upper left of the lower coding unit 620c may indicate the (xc, yc) coordinates.
  • the image encoding apparatus 200 may determine the center coding unit 620b using the coordinates of the samples 630a, 630b, and 630c in the upper left included in the coding units 620a, 620b, and 620c, respectively.
  • the coordinates indicating the positions of the samples 630a, 630b, and 630c in the upper left corner may indicate coordinates representing the absolute positions in the picture, and further, the positions of the samples 630a in the upper left corner of the upper coding unit 620a.
  • the (dxb, dyb) coordinate which is the information indicating the relative position of the upper left sample 630b of the middle coding unit 620b, and the relative position of the upper left sample 630c of the lower coding unit 620c.
  • Information (dxc, dyc) coordinates can also be used.
  • the method of determining the coding unit of a predetermined position by using the coordinates of the sample as information indicating the position of the sample included in the coding unit should not be interpreted to be limited to the above-described method, and various arithmetic operations that can use the coordinates of the sample are available. It should be interpreted in a way.
  • the image encoding apparatus 200 may divide the current coding unit 600 into a plurality of coding units 620a, 620b, and 620c, and may determine a predetermined reference among the coding units 620a, 620b, and 620c. According to the coding unit can be selected. For example, the encoder 220 may select coding units 620b having different sizes from among coding units 620a, 620b, and 620c.
  • the image encoding apparatus 200 may have (xa, ya) coordinates, information indicating a position of a sample 630a on the upper left side of the upper coding unit 620a, and a sample on the upper left side of the center coding unit 620b.
  • the coding unit 620a using the (xb, yb) coordinates indicating the position of 630b and the (xc, yc) coordinates indicating the position of the sample 630c on the upper left side of the lower coding unit 620c.
  • 620b, 620c may determine the width or height of each.
  • the image encoding apparatus 200 uses (xa, ya), (xb, yb), and (xc, yc) coordinates indicating the positions of the coding units 620a, 620b, and 620c. ) Each size can be determined.
  • the image encoding apparatus 200 may determine the width of the upper coding unit 620a as xb-xa and the height as yb-ya. According to an embodiment, the encoder 220 may determine the width of the central coding unit 620b as xc-xb and the height as yc-yb. According to an embodiment, the encoder 220 may determine the width or height of the lower coding unit using the width or height of the current coding unit, the width and the height of the upper coding unit 620a, and the middle coding unit 620b. The encoder 220 may determine a coding unit having a different size from other coding units based on the width and the height of the determined coding units 620a, 620b, and 620c.
  • the image encoding apparatus 200 may determine a coding unit 620b as a coding unit of a predetermined position, having a size different from that of the upper coding unit 620a and the lower coding unit 620c.
  • the coding unit at a predetermined position is determined using the size of the coding unit determined based on the sample coordinates.
  • various processes of determining a coding unit at a predetermined position by comparing the sizes of coding units determined according to predetermined sample coordinates may be used.
  • the position of the sample to be considered for determining the position of the coding unit should not be interpreted as being limited to the upper left side described above, but may be interpreted that information on the position of any sample included in the coding unit may be used.
  • the image encoding apparatus 200 may select a coding unit of a predetermined position among odd-numbered coding units determined by dividing the current coding unit in consideration of the shape of the current coding unit. For example, if the current coding unit is a non-square shape having a width greater than the height, the encoder 220 may determine the coding unit at a predetermined position in the horizontal direction. That is, the encoder 220 may determine one of the coding units having different positions in the horizontal direction and place a restriction on the corresponding coding unit. If the current coding unit has a non-square shape having a height greater than the width, the encoder 220 may determine a coding unit at a predetermined position in the vertical direction. That is, the encoder 220 may determine one of the coding units having different positions in the vertical direction to limit the corresponding coding unit.
  • the image encoding apparatus 200 may use information indicating the positions of each of the even coding units in order to determine the coding unit of the predetermined position among the even coding units.
  • the encoder 220 may determine the even number of coding units by dividing the current coding unit and determine the coding unit of the predetermined position by using information about the positions of the even number of coding units.
  • a detailed process thereof may be similar to the process of determining a coding unit of a predetermined position (for example, a center position) among the odd number of coding units described above with reference to FIG.
  • a predetermined method used in the splitting process of the current coding unit to determine a coding unit of a predetermined position among the plurality of coding units Information is available.
  • the encoder 220 of the image encoding apparatus 200 may determine predetermined information used in the process of dividing the current coding unit in order to determine a coding unit positioned among the coding units in which the current coding unit is divided into a plurality. At least one of block type information and split type information may be used as the above information.
  • the encoder 220 of the image encoding apparatus 200 may split the current coding unit 600 into a plurality of coding units 620a, 620b, and 620c, and may include a plurality of coding units 620a.
  • 620b and 620c may determine a coding unit 620b positioned in the center, and the bitstream generator 210 may include at least one of block shape information and split shape information used in the splitting process of the current coding unit 600. It may generate a bitstream comprising a.
  • the encoder 220 may consider a location of a sample associated with at least one bitstream among the block shape information and the partition shape information used in the splitting process of the current coding unit 600, and may select a coding unit 620b positioned at the center. You can decide. That is, a bitstream including at least one of block type information and split type information of the current coding unit 600 together with a bitstream associated with a sample 640 positioned in the center of the current coding unit 600 may be generated. In this case, the encoder 220 may determine the coding unit 620b including the sample 640 as the coding unit located in the center of the plurality of coding units 620a, 620b, and 620c.
  • the information used to determine the coding unit located in the center among the plurality of coding units determined by dividing the current coding unit is limited to at least one of block shape information and split shape information used in the splitting process of the current coding unit. It should not be, but various kinds of information may be used.
  • the process of determining the coding unit of the predetermined position by the image encoding apparatus 200 is opposite to the process of the image decoding apparatus 100 determining the coding unit of the predetermined position among a plurality of coding units determined from the current coding unit. Since the process may be a detailed description thereof will be omitted.
  • the image encoding apparatus 200 may determine at least one coding unit by dividing a current coding unit, and determine an order in which the at least one coding unit is decoded in a predetermined block (for example, the current coding unit). Can be determined according to
  • FIG. 7 illustrates an order in which a plurality of coding units are processed when the image encoding apparatus 200 determines a plurality of coding units by dividing a current coding unit.
  • the process of processing the plurality of coding units by the image encoding apparatus 200 related to FIG. 7 may be similar to the operation of the image decoding apparatus 100 described above with reference to FIG. 7, and thus a detailed description thereof will be omitted.
  • FIG. 8 illustrates a process of determining that a current coding unit is divided into an odd number of coding units when the image encoding apparatus 200 may not process the coding units in a predetermined order, according to an embodiment.
  • the encoder 220 of the image encoding apparatus 200 may determine that the current coding unit is divided into an odd number of coding units, and the bitstream generator 210 indicates a form of the current coding unit.
  • a bitstream including block type information and split type information indicating a split type of the current coding unit (divided into odd numbers) may be generated.
  • a first coding unit 800 having a square shape may be divided into second coding units 810a and 810b having a non-square shape, and the second coding units 810a and 810b may be independently formed. It may be divided into three coding units 820a, 820b, 820c, 820d, and 820e.
  • the encoder 220 may determine a plurality of third coding units 820a and 820b by dividing the left coding unit 810a in the horizontal direction among the second coding units, and may include the right coding unit 810b. May be divided into an odd number of third coding units 820c, 820d, and 820e.
  • the process of determining that the current coding unit is divided into an odd number of coding units by the image encoding apparatus 200 related to FIG. 8 may be a process opposite to that of the image decoding apparatus 100 described above with reference to FIG. 8. Detailed description will be omitted.
  • FIG. 9 illustrates that the image encoding apparatus 200 determines at least one coding unit by dividing the first coding unit 900 according to an embodiment.
  • the encoder 220 may split the first coding unit 900, and the bitstream generator 210 may block information indicating the shape of the first coding unit 900 and the first encoding.
  • a bitstream including at least one of split type information indicating a split type of the unit 900 may be generated.
  • the first coding unit 900 having a square shape may be divided into coding units having four square shapes, or may be divided into a plurality of coding units having a non-square shape. For example, referring to FIG.
  • the encoder 220 may split the first coding unit 900 into a plurality of non-square coding units, and in this case, the bitstream generator 210 may include the first coding unit 900.
  • the coding unit 900 may generate a bitstream including block shape information indicating a square and split shape information indicating that the first coding unit 900 is divided into non-square coding units.
  • the encoder 220 is a second coding unit 910a, 910b, or 910c determined by dividing the first coding unit 900 having a square shape in the vertical direction as an odd number of coding units, or by being divided in the horizontal direction.
  • the bitstream generator 210 divides the first coding unit 900 in the horizontal direction or the vertical direction to determine the odd number of coding units.
  • a bitstream including split type information indicating may be generated.
  • the process of determining the at least one coding unit by dividing the first coding unit 900 by the image encoding apparatus 200 related to FIG. 9 is opposite to the operation of the image decoding apparatus 100 described above with reference to FIG. 9. This may be a process, so detailed description thereof will be omitted.
  • FIG. 10 illustrates that the second coding unit is split when the second coding unit having a non-square shape determined by splitting the first coding unit 1000 according to an embodiment satisfies a predetermined condition. It shows that the form that can be limited.
  • the encoder 220 may determine that the first coding unit 1000 having a square shape is divided into second coding units 1010a, 1010b, 1020a, and 1020b having a non-square shape.
  • the second coding units 1010a, 1010b, 1020a, and 1020b may be independently divided. Accordingly, the encoder 220 may determine whether to split each of the second coding units 1010a, 1010b, 1020a, and 1020b into a plurality of coding units or not.
  • the operation in which the image encoding apparatus 200 related to FIG. 10 may be restricted when the second coding unit having a non-square form satisfies a predetermined condition is limited to the image decoding apparatus 100 described above with reference to FIG. 10. ) May be the opposite of the operation, so detailed description thereof will be omitted.
  • FIG. 11 illustrates a process of splitting a coding unit having a square shape by the image encoding apparatus 200 when the split shape information cannot be divided into four square coding units. Since the operation of the image encoding apparatus 200 in this regard may be opposite to that of the image decoding apparatus 100 described above with reference to FIG. 11, a detailed description thereof will be omitted.
  • FIG. 12 illustrates that a processing order between a plurality of coding units may vary according to a splitting process of coding units, according to an embodiment.
  • the encoder 220 may divide the first coding unit 1200 having a square shape into at least one of a horizontal direction and a vertical direction.
  • the bitstream generator 210 divides block shape information indicating that the first coding unit 1200 is a square shape and the first coding unit 1200 is split into at least one of a horizontal direction and a vertical direction. A bitstream including split type information indicating may be generated.
  • the encoder 220 may divide the first coding unit 1200 to determine a second coding unit (eg, 1210a, 1210b, 1220a, 1220b, 1230a, 1230b, 1230c, 1230d, etc.). have.
  • the second coding units 1210a, 1210b, 1220a, and 1220b having a non-square shape determined by splitting the first coding unit 1200 in only the horizontal direction or the vertical direction may be split independently.
  • the encoder 220 divides the second coding units 1210a and 1210b generated by splitting the first coding unit 1200 in the vertical direction, respectively, in the horizontal direction, thereby terminating the third coding units 1216a, 1216b, and 1216c.
  • FIG. 13 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • the decoder 120 of the image decoding apparatus 100 described above with reference to FIG. 13 may determine the depth of the coding unit. The detailed description may be omitted since it may be contrary to the process.
  • the image encoding apparatus 200 may determine whether the image encoding apparatus is divided into a specific division type based on a value of an index for distinguishing a plurality of coding units determined by dividing from the current coding unit. Referring to FIG. 14, the image encoding apparatus 200 may determine an even number of coding units 1412a and 1412b by dividing a first coding unit 1410 having a rectangular shape having a height greater than a width, or may determine an odd number of coding units 1414a and 1414b. 1414c). The image encoding apparatus 200 may use an index (PID) indicating each coding unit to distinguish each of the plurality of coding units.
  • PID index
  • the PID may be obtained from a sample (eg, an upper left sample) at a predetermined position of each coding unit. Since the operation of the image encoding apparatus 200 related to FIG. 14 may be opposite to that of the image decoding apparatus 100 described above with reference to FIG. 14, a detailed description thereof will be omitted.
  • FIG. 15 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • the encoder 220 may use the above-described reference coding unit as a predetermined data unit in which recursive division of the coding unit starts.
  • the operation of the image encoding apparatus 200 using the reference coding unit in relation to FIG. 15 may be the opposite of the operation of the image decoding apparatus 100 described above with reference to FIG. 15 using the reference coding unit, and thus a detailed description thereof is omitted. Do it.
  • the bitstream generator 210 of the image encoding apparatus 200 may include a bitstream including at least one of information about a shape of a reference coding unit and information about a size of a reference coding unit, in the various data units. It can be generated every time.
  • the process of determining at least one coding unit included in the reference coding unit 1500 having a square shape is described above by splitting the current coding unit 300 of FIG. 3, and the reference coding unit 1500 having a non-square shape has been described. Since the process of determining at least one coding unit included in the above) is described above through the process of splitting the current coding unit 400 or 450 of FIG. 4, a detailed description thereof will be omitted.
  • the encoder 220 may determine an index for identifying the size and shape of the reference coding unit in order to determine the size and shape of the reference coding unit according to some data unit that is predetermined based on a predetermined condition. It is available. That is, the bitstream generator 210 may select a predetermined condition (for example, a data unit having a size less than or equal to a slice) among the various data units (for example, a sequence, a picture, a slice, a slice segment, a maximum coding unit, and the like). For each data unit that satisfies, a bitstream including an index for identifying the size and shape of the reference coding unit may be generated.
  • a predetermined condition for example, a data unit having a size less than or equal to a slice
  • the various data units for example, a sequence, a picture, a slice, a slice segment, a maximum coding unit, and the like.
  • the encoder 220 may determine the size and shape of the reference data unit for each data unit satisfying the predetermined condition by using the index.
  • a reference related to an index indicating the size and shape of the reference coding unit may be used.
  • At least one of the size and shape of the coding unit may be predetermined. That is, the encoder 220 determines at least one of the size and shape of the reference coding unit included in the data unit that is the index acquisition reference by selecting at least one of the predetermined size and shape of the reference coding unit according to the index. Can be. Since an operation of the encoder 220 using an index for identifying the size and shape of the reference coding unit may be similar to that of the decoder 120 described above, a detailed description thereof will be omitted.
  • FIG. 16 is a diagram of a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture 1600, according to an exemplary embodiment.
  • the encoder 220 may obtain information about the size of the processing block and determine the size of at least one processing block included in the image.
  • the encoder 220 may determine the size of at least one processing block included in the image, and the bitstream generator 210 may generate a bitstream including information about the size of the processing block.
  • the size of such a processing block may be a predetermined size of a data unit indicated by the information about the size of the processing block.
  • the bitstream generator 210 of the image encoding apparatus 200 may generate a bitstream including information about a size of a processing block for each specific data unit.
  • a bitstream including information on the size of a processing block may be generated for each data unit such as an image, a sequence, a picture, a slice, and a slice segment. That is, the bitstream generator 210 may generate a bitstream including information about the size of the processing block for each of the various data units, and the encoder 220 may use the information about the size of the processing block.
  • a size of at least one processing block for dividing a picture may be determined, and the size of the processing block may be an integer multiple of a reference coding unit.
  • the encoder 220 may determine the sizes of the processing blocks 1602 and 1612 included in the picture 1600. For example, the encoder 220 may determine the size of the processing block based on the information about the size of the processing block. Referring to FIG. 16, the encoder 220 determines a horizontal size of the processing blocks 1602 and 1612 to be four times the horizontal size of the reference coding unit and four times the vertical size of the reference coding unit, according to an embodiment. Can be. The encoder 220 may determine an order in which at least one reference coding unit is determined in at least one processing block. Since the operation of the encoder 220 related to the processing block may be similar to that of the decoder 120 described above with reference to FIG. 16, a detailed description thereof will be omitted.
  • the bitstream generator 210 of the image encoding apparatus 200 generates a bitstream including block shape information indicating a shape of a current coding unit or split shape information indicating a method of splitting a current coding unit. can do.
  • Block type information or split type information may be included in a bitstream associated with various data units.
  • the bitstream generator 210 of the image encoding apparatus 200 may include a sequence parameter set, a picture parameter set, a video parameter set, and a slice header. header, block type information or split type information included in a slice segment header may be used.
  • the bitstream generator 210 of the image encoding apparatus 200 may generate a bitstream including syntax indicating block type information or split type information for each maximum coding unit, reference coding unit, and processing block.
  • the encoder 220 may differently determine the type of division type into which the coding unit may be divided, for each predetermined data unit. According to an embodiment, the encoder 220 of the image encoding apparatus 200 may differently determine a combination of forms in which coding units may be divided for each predetermined data unit (eg, sequence, picture, slice, etc.). .
  • FIG. 17 illustrates coding units that may be determined for each picture when a combination of forms in which coding units may be divided is different for each picture, according to an embodiment.
  • the encoder 220 may differently determine a combination of division forms in which a coding unit may be divided for each picture.
  • the encoder 220 may be a picture 1700 that may be split into four coding units among at least one picture included in an image, and a picture 1710 that may be split into two or four coding units. And a picture 1720 that may be divided into two, three, or four coding units, to decode the image.
  • the encoder 220 may divide the picture 1700 into four square coding units.
  • the encoder 220 may divide the picture 1710 into two or four coding units.
  • the encoder 220 may divide the picture 1720 into two, three, or four coding units.
  • the encoder 220 of the image encoding apparatus 200 may determine a combination of division types that may be divided into coding units for each predetermined data unit by using an index indicating a combination of division type information. As a result, a combination of different partition types may be used for each predetermined data unit. Furthermore, the bitstream generator 210 of the image encoding apparatus 200 may generate a bitstream including an index indicating a combination of segmentation type information for each data unit (eg, sequence, picture, slice, etc.). Can be. For example, the bitstream generator 210 may include a sequence parameter set, a picture parameter set, or a slice including an index indicating a combination of segmentation type information.
  • 18 and 19 illustrate various forms of coding units that may be determined based on split form information that may be represented by binary codes, according to an embodiment.
  • the encoder 220 of the image encoding apparatus 200 may divide a coding unit into various forms, and include a bitstream including block shape information and segmentation shape information through the bitstream generator 210. Can be generated.
  • the form of the coding unit that may be split may correspond to various forms including the forms described through the above-described embodiments. Referring to FIG. 18, the encoder 220 may divide a square coding unit into at least one of a horizontal direction and a vertical direction based on split shape information, and may split a non-square coding unit into a horizontal direction. Or it can divide in a vertical direction.
  • Features of the binary code of the segmentation information that may be used by the image encoding apparatus 200 may correspond to the features of the image decoding apparatus 100 described above with reference to FIGS. 18 and 19, and thus, detailed description thereof will be omitted.
  • the image encoding apparatus 200 may generate prediction data by performing inter prediction or intra prediction on a coding unit, and generate residual data by performing inverse transform on a transform unit included in a current coding unit.
  • the current coding unit may be encoded by using the generated prediction data and the residual data.
  • the prediction mode of the coding unit may be at least one of an intra mode, an inter mode, and a skip mode. According to an embodiment, prediction may be independently performed for each coding unit, and thus a prediction mode having the smallest error may be selected.
  • inter mode prediction and intra mode prediction may be performed separately for each coding unit.
  • the encoder 220 of the image encoding apparatus 200 may not only apply a coding unit to a square form but also use a CU skip mode to encode the coding unit using a non-square form. Can be encoded.
  • the non-square coding unit can be decoded using the CU skip mode. By enabling the use of the adaptive skip mode, the image encoding / decoding efficiency can be improved. Since the feature of the image encoding apparatus 200 using the skip mode in the non-square coding unit may be similar to the above-described feature in connection with the use of the skip mode of the image encoding apparatus 200, a detailed description thereof will be omitted.
  • 22 illustrates a process of merging or splitting between coding units determined according to a predetermined encoding method, according to an embodiment.
  • the image encoding apparatus 200 may determine coding units for dividing a picture using the above-described predetermined encoding method. For example, the image encoding apparatus 200 may determine a coding unit of the current depth or split it into four coding units of a lower depth based on split information of the coding unit. As described above, the image encoding apparatus 200 according to an embodiment may include block shape information indicating that the current coding unit always has a square shape, and indicate that the current coding unit is not split or to four coding units having a square shape. The coding unit may be determined using split type information that may indicate splitting. Referring to FIG. 22, pictures 2200 and 2220 may be divided according to square coding units determined according to the above-described predetermined coding method.
  • the image encoding apparatus 200 encodes the decoding for the small object 2221 by dividing the first coding unit 2222 into four lower depth coding units in order to reconstruct the small object 2221. The unit can be determined.
  • the large object 2223 is not included in the current coding unit 2222, the large object 2223 is not suitable to be decoded using the current coding unit 2222, and furthermore, to decode the small object 2221. Since the coding unit 2222 is split, an unnecessary splitting process of the coding unit needs to be performed for decoding the large object 2223, which is inefficient. That is, if the image encoding apparatus 200 may use one coding unit to encode a portion of the large object 2223, image encoding may be efficiently performed.
  • the encoder 220 of the image encoding apparatus 200 may split a current coding unit by using at least one of block shape information and split shape information, and the block shape information uses only a square shape in advance.
  • the split type information may be determined in advance to indicate that the split type information is not split or may be split into four square coding units. This may correspond to a coding unit determination process used in the above-described predetermined encoding method through various embodiments.
  • the encoder 220 may use a sample value included in the picture to merge the coding units determined using the predetermined coding method with each other or to split the coding units determined. For example, the encoder 220 may detect various objects included in the picture by examining a portion having similar sample values, and performs a merge / split process of coding units based on the portions of the detected objects. Can be done.
  • the encoder 220 may determine a plurality of coding units for dividing the picture 2200 using the above-described predetermined encoding method. However, although the portion 2201 having similar sample values included in the picture exists, a process of dividing the similar region into a plurality of coding units instead of one coding unit may be performed. In this case, although the coding unit is determined through a predetermined coding method, the encoder 220 may merge the coding units into one coding unit 2202 and encode the coding unit as one coding unit. Referring to FIG. 22, as another embodiment, the encoder 220 may split the coding unit 2222 for encoding the small object 2221 into four coding units by using the above-described predetermined coding method. have. In the case of the divided coding units, since the detected large object 2223 may not be included in all, the encoder 220 may merge the coding units into a single coding unit including a portion having a similar sample value. .
  • the encoder 220 determines a coding unit by using a predetermined coding method that does not divide a coding unit or divides the coding unit into four coding units by using split information of the coding unit, and then includes a sample included in the picture.
  • the coding unit may be divided again in consideration of the sample values. That is, the encoder 120 may split not only the merged coding units but also the previously determined coding units in order to determine the coding units for each object. Referring to FIG. 22, the encoder 120 may merge coding units for the object 2223, and the coding unit merged for the object 2223 to determine the coding unit optimized for the object 2223. May be divided again (2226). In other words, the encoder 220 may determine a portion in which the object 2223 is not included as a coding unit 2227 separate from the object 2223 through the division 2226.
  • a process of determining a plurality of coding units by recursively dividing coding units according to block shape information and block splitting information according to an embodiment is as described above with reference to FIG. 13.
  • Loop filtering performance information of the filtering units according to an embodiment indicates that loop filtering is performed on the corresponding filtering unit when the flag value is 1 and loop filtering is not performed on the corresponding filtering unit.
  • information of a data unit for determining a filtering unit to be filtered by the loop filtering units 2040 and 2070 may be encoded and transmitted as filter information.
  • coding units configured according to an embodiment are coding units configured in a form of minimizing an error with an original image, it is expected that spatial correlation is high in the coding unit. Therefore, since the filtering unit is determined based on the coding unit according to an embodiment, the operation of determining the filtering unit separately from the determination of the coding unit may be omitted. Accordingly, since information for determining the division type of the filtering unit may be omitted by determining the filtering unit based on the coding unit, the transmission bit rate of the filter information may be saved.
  • the filtering unit is determined to be determined based on the coding unit according to an embodiment.
  • the filtering unit is split based on the coding unit, and the filtering unit is further divided up to the corresponding depth without further dividing at any depth.
  • the shape of may be determined.
  • the determination of the filtering unit disclosed in the above-described embodiments may be applied to various embodiments, such as deblocking filtering and adaptive loop filtering, as well as loop filtering.
  • the image decoding apparatus 100 may split a current coding unit by using at least one of block shape information and split shape information, and the block shape information is previously determined to use only a square shape and the split shape information. May be determined in advance as not to divide or to indicate splitting into four square coding units. That is, in the current coding unit, according to the block shape information, the coding unit always has a square shape, and may be divided into four coding units having no square or four square shapes based on the split shape information.
  • the image decoding apparatus 100 may obtain the bitstream generated by using the predetermined encoding method, which is determined to use only the block form and the split form, through the bitstream obtainer 120, and the decoder 130 may Only predetermined block types and split types may be used.
  • the image decoding apparatus 100 may solve the compatibility problem with the predetermined encoding method by using the predetermined decoding method similar to the predetermined encoding method.
  • the image decoding apparatus 100 uses the above-described predetermined decoding method using only a predetermined block shape and a split shape among various types that can be represented by the block shape information and the split shape information, the block shape information may be Since only the square shape is represented, the image decoding apparatus 100 may omit the process of acquiring block shape information from the bitstream.
  • a syntax indicating whether to use the above-described predetermined decoding method may be used, and the syntax may include a bitstream for each data unit of various types that may include a plurality of coding units such as a sequence, a picture, a slice unit, and a maximum coding unit. Can be obtained from. That is, the bitstream obtainer 120 may determine whether to obtain a syntax indicating block type information from the bitstream based on the syntax indicating whether a predetermined decoding method is used.
  • FIG. 23 illustrates an index according to a Z scan order of coding units, according to an embodiment.
  • the image decoding apparatus 100 may scan the lower data units included in the upper data unit in the Z scan order. Also, the image decoding apparatus 100 according to an embodiment may sequentially access data according to a Z scan index in a maximum coding unit or a coding unit included in a processing block.
  • the image decoding apparatus 100 may split the reference coding unit into at least one coding unit, as described above with reference to FIGS. 3 to 4. In this case, square coding units and non-square coding units may be mixed in the reference coding unit.
  • the image decoding apparatus 100 according to an embodiment may perform data access according to a Z scan index included in each coding unit in a reference coding unit. In this case, the method of applying the Z scan index may be different depending on whether a non-square type coding unit exists in the reference coding unit.
  • coding units having a lower depth in the reference coding unit may have consecutive Z scan indices.
  • the coding units of the higher depths may include four coding units of the lower depths.
  • the coding units of the four lower depths may be adjacent to each other, and the coding units of the lower depths may be scanned in the Z scan order according to an index indicating the Z scan order.
  • an index indicating a Z scan order may be set to a number that increases according to the Z scan order for each coding unit. In this case, scanning units according to depths of the same depth may be scanned according to a Z scan order.
  • the image decoding apparatus 100 divides the coding units in the reference coding unit into subblocks, respectively, A scan according to the Z scan order may be performed on the blocks. For example, when a coding unit having a non-square shape in the vertical direction or the horizontal direction exists in the reference coding unit, the Z scan may be performed using the divided subblocks. Also, for example, when splitting is performed in odd coding units within a reference coding unit, a Z scan may be performed using subblocks. The sub block is obtained by dividing a coding unit that is no longer split or an arbitrary coding unit, and may have a square shape. For example, four square subblocks may be split from a square coding unit. Also, for example, two square subblocks may be split from a non-square coding unit.
  • the image decoding apparatus 100 may perform a Z scan order on coding units 2302, 2304, 2306, 2308, and 2310 of lower depths in the coding unit 2300. You can scan according to.
  • the coding unit 2300 and the coding units 2302, 2304, 2306, 2308, and 2310 are relatively higher coding units and lower coding units, respectively.
  • the coding unit 2300 includes coding units 2306 and 2310 having a non-square shape in a horizontal direction. These non-square shaped coding units 2306 and 2310 are discontinuous at boundaries with adjacent square shaped coding units 2302 and 2304.
  • the coding unit 2308 has a square shape, and a coding unit having a non-square shape is an intermediate coding unit when an odd number of coding units are divided. Like the non-square coding units 2306 and 2310, the coding unit 2308 has a discontinuous boundary with adjacent square coding units 2302 and 2304. If coding units 2300 include non-square coding units 2306 and 2310 or non-square coding units are divided into odd numbered coding units 2308, the coding units 2308 may be included. A continuous Z scan index cannot be set because adjacent boundaries are discontinuous. Therefore, the image decoding apparatus 100 may continuously set the Z scan index by dividing coding units into subblocks. Also, the image decoding apparatus 100 may perform a continuous Z scan on the non-square coding units 2306 and 2310 or the coding units 2308 located in the middle of the odd-numbered non-square coding units. Can be done.
  • the coding unit 2320 illustrated in FIG. 23 is obtained by dividing coding units 2302, 2304, 2306, 2308, and 2310 in the coding unit 2300 into subblocks. Since the Z scan index may be set for each of the sub blocks, and adjacent boundaries between the sub blocks are continuous, the sub blocks may be scanned according to the Z scan order.
  • the coding unit 2308 may be divided into sub blocks 2322, 2324, 2326, and 2328.
  • the sub blocks 2322 and 2324 may be scanned after the data processing for the sub block 2330, and the sub blocks 2326 and 2328 may be scanned after the data processing for the sub block 2332.
  • each of the sub blocks may be scanned according to the Z scan order.
  • scanning according to the Z scan order for the data units may be for data storage, data loading, data access, and the like.
  • the data units can be scanned according to the Z scan order, but the scanning order of the data units includes various scan orders such as raster scan, N scan, right upward diagonal scan, horizontal scan, and vertical scan. It can be performed as, and not limited to the Z scan order.
  • the target of the scanning may be a maximum coding unit or any block in a processing block. have.
  • the scan is performed according to the Z scan order by dividing into sub-blocks only when there is at least one non-square type block, but the non-square type is provided for simplified implementation. Even if a block of s does not exist, the sub blocks may be divided to perform a scan according to the Z scan order.
  • the image decoding apparatus 100 may generate prediction data by performing inter prediction or intra prediction on a coding unit, and generate residual data by performing inverse transform on a transform unit included in a current coding unit.
  • the current coding unit may be reconstructed using the generated prediction data and the residual data.
  • the prediction mode of the coding unit may be at least one of an intra mode, an inter mode, and a skip mode. According to an embodiment, a prediction mode may be independently selected for each coding unit.
  • inter mode prediction and intra mode prediction may be performed separately for each coding unit.
  • a skip mode may be applied to coding units of 2NxN or Nx2N form according to an embodiment.
  • the image decoding apparatus 100 may be allowed to perform bi-prediction in a skip mode of an 8x4 or 4x8 type coding unit.
  • the image decoding apparatus 100 may increase the decoding efficiency by allowing bidirectional prediction for a coding unit to which a skip mode is applied.
  • the image decoding apparatus 100 allows bidirectional prediction for 8x4 or 4x8 type coding units, but sets the number of interpolation taps to be relatively small in the motion compensation step to efficiently use the memory bandwidth.
  • an interpolation filter of less than 8 taps eg, a 2-tap interpolation filter
  • the image decoding apparatus 100 may divide the region included in the current coding unit into a predetermined form (for example, diagonal based division) to signal intra or inter prediction information on each divided region. You may.
  • the image decoding apparatus 100 may obtain a prediction sample of the current coding unit using an intra mode by using a neighboring sample of the current coding unit. At this time, intra prediction performs prediction using surrounding reconstructed samples, which are called reference samples.
  • FIG. 24 is a diagram illustrating a reference sample for intra prediction of a coding unit, according to an embodiment.
  • a current coding unit 2300 having a non-square block shape, a horizontal length w, a vertical length h, and w + h reference samples 2302 at the top, A total of 2 (w + h) +1 reference samples are required, one w + h reference sample 2304 on the left and one reference reference 2306 on the upper left.
  • padding may be performed on a portion where a reference sample does not exist, and a reference mode filtering process for each prediction mode may be performed to reduce quantization error included in the reconstructed reference sample.
  • the number of reference samples when the block shape of the current coding unit is a non-square shape has been described.
  • the number of the reference samples is equally applied even when the current coding unit is a block shape of a rectangular shape.
  • FIG. 2 is a block diagram of an image encoding apparatus capable of encoding an image based on at least one of block shape information and split shape information, according to an exemplary embodiment.
  • the apparatus 200 for encoding an image includes a data unit determiner 210 that determines data units for intra prediction from a video picture, and a first intra prediction type using predetermined prediction information. Generate a first prediction value for the first data unit according to the second prediction value, generate a second prediction value for the second data unit according to the second intra prediction type using the data unit adjacent to the data unit, and generate the first prediction value and the first prediction value
  • a bitstream generator 230 and an encoder 220 that generate a bitstream including encoding information determined based on at least one of the two prediction values and encode a video picture may be included.
  • the intra prediction type information is information indicating whether the data unit is predicted according to at least one of the first intra prediction type and the second intra prediction type, and the first intra prediction type is information other than the sample value of the neighboring data unit.
  • the data unit may be predicted using the second intra prediction type, and the data unit may be predicted using the sample value of the neighboring data unit.
  • the data unit determiner 210 of the image encoding apparatus may determine whether the data unit is predicted by a type of the first intra prediction type or the second intra prediction type.
  • the data units may be one of a coding unit, a prediction unit, or a transform unit.
  • the encoder 220 of the image encoding apparatus 200 generates a first prediction value for the first data unit according to the first intra prediction type, and generates a first prediction value for the second data unit according to the second intra prediction type.
  • the second prediction value may be generated.
  • the encoder 220 may generate encoding information by using the first prediction value and the second prediction value.
  • the prediction according to the first intra prediction type may be to perform intra prediction by using information other than the neighboring data unit.
  • the prediction according to the second intra prediction type may be to perform intra prediction using a neighboring data unit.
  • the bitstream generator 230 of the image encoding apparatus 200 may generate a bitstream including encoding information determined based on at least one of a first prediction value and a second prediction value.
  • the bitstream generator 230 may include intra prediction type information indicating whether the first data units are predicted according to the first intra prediction type or the second intra prediction type.
  • FIG. 3 illustrates a process of determining a first data unit predicted according to a first intra prediction type and a second data unit predicted according to a second intra prediction type, according to an exemplary embodiment.
  • the data unit determiner 210 determines the first data units 310 predicted according to the first intra prediction type and the second data units 320 predicted according to the second intra prediction type. Can be. That is, it may be determined whether the predicted data unit is predicted using the neighboring data unit or is predicted by using information other than the information about the surrounding data unit.
  • the encoder 220 may generate a prediction value of the data unit by using information other than the information about the neighboring data unit. For example, the encoder 220 may generate a predicted value of a data unit by using a value stored in advance. For example, a pre-set value can be determined according to the RDO result.
  • FIG. 4 illustrates a process of predicting a first data unit according to a first intra prediction type based on predetermined prediction information, according to an embodiment.
  • the encoder 220 may predict the first data units 420 predicted according to the first intra prediction type using information other than the information about the neighboring data unit.
  • the first data units 420 may be predicted using a sample value 410 adjacent to a data unit of a higher layer including the first data unit 420.
  • the sample value 410 adjacent to the data unit of the upper layer including the first data unit 420 may include information about the neighboring pixel of the CTU boundary or information about the neighboring pixel of the CU boundary.
  • the prediction target unit may be a CU, a PU, a TU, or a CTU.
  • the prediction target unit may be a PU, a TU, or a CU.
  • FIG. 5 illustrates a process of predicting a second data unit according to a second intra prediction type that predicts using adjacent data units according to an embodiment.
  • the encoder 220 may perform prediction according to the second intra prediction type by using data units adjacent to the data unit. For example, when performing the prediction on the data unit 510, the information 511 about the data unit 530 first encoded according to the first intra prediction type adjacent to the bottom of the data unit 510 may be used. Can be. For example, when performing prediction on the data unit 520, information 521 about the data unit 530 pre-coded according to the first intra prediction type adjacent to the right side of the data unit 520 may be used. Can be.
  • the encoder 220 performs prediction by using left and top sample values when the distance between the left and the top is close according to the predicted pixel position in the data unit 510.
  • the encoder 220 performs prediction using right and lower sample values when the distance between the right and the bottom is close according to the predicted pixel position in the data unit 510.
  • FIG. 7 illustrates a process of determining a first intra prediction type and a second intra prediction type for a data unit according to an embodiment.
  • the bitstream generator 230 may generate the prediction value according to the first intra prediction type or the prediction value according to the second intra prediction type for each CU, PU, or TU.
  • Type information may be included in the bitstream.
  • the bitstream generator 230 performs prediction according to the first intra prediction type for the Intra_DC mode and performs prediction according to the second intra prediction type for other modes besides the Intra_DC mode.
  • Type information may be included in the bitstream.
  • the bitstream generator 230 may include intra prediction type information indicating whether to classify a data unit into one of a first data unit and a second data unit.
  • FIG. 9 is a flowchart of a video encoding method using intra prediction type information, according to an embodiment.
  • the determiner 210 of the data unit of the image encoding apparatus 200 may determine the first data unit predicted according to the first intra prediction type or the second data unit predicted according to the second intra prediction type.
  • the first intra prediction type may be to perform prediction on a data unit by using information other than sample values of data units adjacent to the data unit.
  • the second intra prediction type may be performing prediction on a data unit by using sample values of data units adjacent to the data unit.
  • the encoder 220 of the image encoding apparatus 200 may generate a first prediction value for the first data unit according to the first intra prediction type.
  • the encoder 220 of the image encoding apparatus 200 may generate a second prediction value for the second data unit according to the second intra prediction type.
  • the bitstream generator 230 of the image encoding apparatus 200 may generate a bitstream including encoding information determined based on at least one of the first prediction value and the second prediction value.
  • the encoder 220 may encode a video picture in which the bitstream is generated.
  • FIG. 10 illustrates that the second coding unit is split when the second coding unit having a non-square shape determined by splitting the first coding unit 1000 according to an embodiment satisfies a predetermined condition. It shows that the form that can be limited.
  • the encoder 220 may determine that the first coding unit 1000 having a square shape is divided into second coding units 1010a, 1010b, 1020a, and 1020b having a non-square shape.
  • the second coding units 1010a, 1010b, 1020a, and 1020b may be independently divided. Accordingly, the encoder 220 may determine whether to split each of the second coding units 1010a, 1010b, 1020a, and 1020b into a plurality of coding units or not.
  • the operation in which the image encoding apparatus 200 related to FIG. 10 may be restricted when the second coding unit having a non-square form satisfies a predetermined condition is limited to the image decoding apparatus 100 described above with reference to FIG. 10. ) May be the opposite of the operation, so detailed description thereof will be omitted.
  • FIG. 11 illustrates a process of splitting a coding unit having a square shape by the image encoding apparatus 200 when the split shape information cannot be divided into four square coding units. Since the operation of the image encoding apparatus 200 in this regard may be opposite to that of the image decoding apparatus 100 described above with reference to FIG. 11, a detailed description thereof will be omitted.
  • FIG. 12 illustrates that a processing order between a plurality of coding units may vary according to a splitting process of coding units, according to an embodiment.
  • the encoder 220 may divide the first coding unit 1200 having a square shape into at least one of a horizontal direction and a vertical direction.
  • the bitstream generator 230 divides block shape information indicating that the first coding unit 1200 is a square shape and the first coding unit 1200 is split into at least one of a horizontal direction and a vertical direction. A bitstream including split type information indicating may be generated.
  • the encoder 220 may divide the first coding unit 1200 to determine a second coding unit (eg, 1210a, 1210b, 1220a, 1220b, 1230a, 1230b, 1230c, 1230d, etc.). have.
  • the second coding units 1210a, 1210b, 1220a, and 1220b having a non-square shape determined by splitting the first coding unit 1200 in only the horizontal direction or the vertical direction may be split independently.
  • the encoder 220 divides the second coding units 1210a and 1210b generated by splitting the first coding unit 1200 in the vertical direction, respectively, in the horizontal direction, thereby terminating the third coding units 1216a, 1216b, and 1216c.
  • FIG. 13 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • the process of determining the depth of the coding unit by the encoder 220 of the image encoding apparatus 200 may include determining that the depth of the coding unit is determined by the decoder 130 of the image decoding apparatus 100 described above with reference to FIG. 13. The detailed description may be omitted since it may be contrary to the process.
  • the image encoding apparatus 200 may determine whether the image encoding apparatus is divided into a specific division type based on a value of an index for distinguishing a plurality of coding units determined by dividing from the current coding unit. Referring to FIG. 14, the image encoding apparatus 200 may determine an even number of coding units 1412a and 1412b by dividing a first coding unit 1410 having a rectangular shape having a height greater than a width, or may determine an odd number of coding units 1414a and 1414b. 1414c). The image encoding apparatus 200 may use an index (PID) indicating each coding unit to distinguish each of the plurality of coding units.
  • PID index
  • the PID may be obtained from a sample (eg, an upper left sample) at a predetermined position of each coding unit. Since the operation of the image encoding apparatus 200 related to FIG. 14 may be opposite to that of the image decoding apparatus 100 described above with reference to FIG. 14, a detailed description thereof will be omitted.
  • FIG. 15 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • the encoder 220 may use the above-described reference coding unit as a predetermined data unit in which recursive division of the coding unit starts.
  • the operation of the image encoding apparatus 200 using the reference coding unit in relation to FIG. 15 may be the opposite of the operation of the image decoding apparatus 100 described above with reference to FIG. 15 using the reference coding unit, and thus a detailed description thereof is omitted. Do it.
  • the bitstream generator 230 of the image encoding apparatus 200 may include a bitstream including at least one of information about a shape of a reference coding unit and information about a size of a reference coding unit. It can be generated every time.
  • the process of determining at least one coding unit included in the reference coding unit 1500 having a square shape is described above by splitting the current coding unit 300 of FIG. 3, and the reference coding unit 1500 having a non-square shape has been described. Since the process of determining at least one coding unit included in the above) is described above through the process of splitting the current coding unit 400 or 450 of FIG. 4, a detailed description thereof will be omitted.
  • the encoder 220 may determine an index for identifying the size and shape of the reference coding unit in order to determine the size and shape of the reference coding unit according to some data unit that is predetermined based on a predetermined condition. It is available. That is, the bitstream generator 230 may select a predetermined condition (for example, a data unit having a size less than or equal to a slice) among the various data units (for example, a sequence, a picture, a slice, a slice segment, and a maximum coding unit). For each data unit that satisfies, a bitstream including an index for identifying the size and shape of the reference coding unit may be generated.
  • a predetermined condition for example, a data unit having a size less than or equal to a slice
  • the various data units for example, a sequence, a picture, a slice, a slice segment, and a maximum coding unit.
  • the encoder 220 may determine the size and shape of the reference data unit for each data unit satisfying the predetermined condition by using the index. According to an embodiment, at least one of the size and shape of the reference coding unit associated with an index indicating the size and shape of the reference coding unit may be predetermined. That is, the encoder 220 determines at least one of the size and shape of the reference coding unit included in the data unit that is the index acquisition reference by selecting at least one of the predetermined size and shape of the reference coding unit according to the index. Can be. Since an operation of the encoder 220 using an index for identifying the size and shape of the reference coding unit may be similar to that of the decoder 130 described above, a detailed description thereof will be omitted.
  • FIG. 16 is a diagram of a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture 1600, according to an exemplary embodiment.
  • the encoder 220 may obtain information about the size of the processing block and determine the size of at least one processing block included in the image.
  • the encoder 220 may determine the size of at least one processing block included in the image, and the bitstream generator 230 may generate a bitstream including information about the size of the processing block.
  • the size of such a processing block may be a predetermined size of a data unit indicated by the information about the size of the processing block.
  • the bitstream generator 230 of the image encoding apparatus 200 may generate a bitstream including information about a size of a processing block for each specific data unit.
  • a bitstream including information on the size of a processing block may be generated for each data unit such as an image, a sequence, a picture, a slice, and a slice segment. That is, the bitstream generator 230 may generate a bitstream including information about the size of the processing block for each of the various data units, and the encoder 220 may use the information about the size of the processing block.
  • a size of at least one processing block for dividing a picture may be determined, and the size of the processing block may be an integer multiple of a reference coding unit.
  • the encoder 220 may determine the sizes of the processing blocks 1602 and 1612 included in the picture 1600. For example, the encoder 220 may determine the size of the processing block based on the information about the size of the processing block. Referring to FIG. 16, the encoder 220 determines a horizontal size of the processing blocks 1602 and 1612 to be four times the horizontal size of the reference coding unit and four times the vertical size of the reference coding unit, according to an embodiment. Can be. The encoder 220 may determine an order in which at least one reference coding unit is determined in at least one processing block. Since the operation of the encoder 220 related to the processing block may be similar to that of the decoder 130 described above with reference to FIG. 16, a detailed description thereof will be omitted.
  • the bitstream generator 230 of the image encoding apparatus 200 generates a bitstream including block shape information indicating a shape of a current coding unit or split shape information indicating a method of splitting a current coding unit. can do.
  • Block type information or split type information may be included in a bitstream associated with various data units.
  • the bitstream generator 230 of the image encoding apparatus 200 may include a sequence parameter set, a picture parameter set, a video parameter set, and a slice header. header, block type information or split type information included in a slice segment header may be used.
  • the bitstream generator 230 of the image encoding apparatus 200 may generate a bitstream including syntax indicating block type information or split type information for each maximum coding unit, reference coding unit, and processing block.
  • the encoder 220 may differently determine the type of division type into which the coding unit may be divided, for each predetermined data unit. According to an embodiment, the encoder 220 of the image encoding apparatus 200 may differently determine a combination of forms in which coding units may be divided for each predetermined data unit (eg, sequence, picture, slice, etc.). .
  • FIG. 17 illustrates coding units that may be determined for each picture when a combination of forms in which coding units may be divided is different for each picture, according to an embodiment.
  • the encoder 220 may differently determine a combination of division forms in which a coding unit may be divided for each picture.
  • the encoder 220 may be a picture 1700 that may be split into four coding units among at least one picture included in an image, and a picture 1710 that may be split into two or four coding units. And a picture 1720 that may be divided into two, three, or four coding units, to decode the image.
  • the encoder 220 may divide the picture 1700 into four square coding units.
  • the encoder 220 may divide the picture 1710 into two or four coding units.
  • the encoder 220 may divide the picture 1720 into two, three, or four coding units.
  • the encoder 220 of the image encoding apparatus 200 may determine a combination of division types that may be divided into coding units for each predetermined data unit by using an index indicating a combination of division type information. As a result, a combination of different partition types may be used for each predetermined data unit. Furthermore, the bitstream generator 230 of the image encoding apparatus 200 may generate a bitstream including an index indicating a combination of segmentation type information for each data unit (for example, a sequence, a picture, a slice, etc.). have. For example, the bitstream generator 230 may include a sequence parameter set, a picture parameter set, or a slice including an index indicating a combination of segmentation type information.
  • 18 and 19 illustrate various forms of coding units that may be determined based on split form information that may be represented by binary codes, according to an embodiment.
  • the encoder 220 of the image encoding apparatus 200 may divide a coding unit into various forms, and include a bitstream including block shape information and split shape information through the bitstream generator 230. Can be generated.
  • the form of the coding unit that may be split may correspond to various forms including the forms described through the above-described embodiments. Referring to FIG. 18, the encoder 220 may divide a square coding unit into at least one of a horizontal direction and a vertical direction based on split shape information, and may split a non-square coding unit into a horizontal direction. Or it can divide in a vertical direction.
  • Features of the binary code of the segmentation information that may be used by the image encoding apparatus 200 may correspond to the features of the image decoding apparatus 100 described above with reference to FIGS. 18 and 19, and thus, detailed description thereof will be omitted.
  • the image encoding apparatus 200 may generate prediction data by performing inter prediction or intra prediction on a coding unit, and generate residual data by performing inverse transform on a transform unit included in a current coding unit.
  • the current coding unit may be encoded by using the generated prediction data and the residual data.
  • the prediction mode of the coding unit may be at least one of an intra mode, an inter mode, and a skip mode. According to an embodiment, prediction may be independently performed for each coding unit, and thus a prediction mode having the smallest error may be selected.
  • inter mode prediction and intra mode prediction may be performed separately for each coding unit.
  • the encoder 220 of the image encoding apparatus 200 may not only apply a coding unit to a square form but also use a CU skip mode to encode the coding unit using a non-square form. Can be encoded.
  • the non-square coding unit can be decoded using the CU skip mode. By enabling the use of the adaptive skip mode, the image encoding / decoding efficiency can be improved. Since the feature of the image encoding apparatus 200 using the skip mode in the non-square coding unit may be similar to the above-described feature in connection with the use of the skip mode of the image encoding apparatus 200, a detailed description thereof will be omitted.
  • 22 illustrates a process of merging or splitting between coding units determined according to a predetermined encoding method, according to an embodiment.
  • the image encoding apparatus 200 may determine coding units for dividing a picture using the above-described predetermined encoding method. For example, the image encoding apparatus 200 may determine a coding unit of the current depth or split it into four coding units of a lower depth based on split information of the coding unit. As described above, the image encoding apparatus 200 may include block shape information indicating that a current coding unit always has a square shape, and indicate that the current coding unit is not divided or to four coding units having a square shape. The coding unit may be determined using split type information that may indicate splitting. Referring to FIG. 22, pictures 2200 and 2220 may be divided according to square coding units determined according to the above-described predetermined coding method.
  • the image encoding apparatus 200 encodes the decoding for the small object 2221 by dividing the first coding unit 2222 into four lower depth coding units in order to reconstruct the small object 2221. The unit can be determined.
  • the large object 2223 is not included in the current coding unit 2222, the large object 2223 is not suitable to be decoded using the current coding unit 2222, and furthermore, to decode the small object 2221. Since the coding unit 2222 is split, an unnecessary splitting process of the coding unit needs to be performed for decoding the large object 2223, which is inefficient. That is, if the image encoding apparatus 200 may use one coding unit to encode a portion of the large object 2223, image encoding may be efficiently performed.
  • the encoder 220 of the image encoding apparatus 200 may split a current coding unit by using at least one of block shape information and split shape information, and the block shape information uses only a square shape in advance.
  • the split type information may be determined in advance to indicate that the split type information is not split or may be split into four square coding units. This may correspond to a coding unit determination process used in the above-described predetermined encoding method through various embodiments.
  • the encoder 220 may use a sample value included in the picture to merge the coding units determined using the predetermined coding method with each other or to split the coding units determined. For example, the encoder 220 may detect various objects included in the picture by examining a portion having similar sample values, and performs a merge / split process of coding units based on the portions of the detected objects. Can be done.
  • the encoder 220 may determine a plurality of coding units for dividing the picture 2200 using the above-described predetermined encoding method. However, although the portion 2201 having similar sample values included in the picture exists, a process of dividing the similar region into a plurality of coding units instead of one coding unit may be performed. In this case, although the coding unit is determined through a predetermined coding method, the encoder 220 may merge the coding units into one coding unit 2202 and encode the coding unit as one coding unit. Referring to FIG. 22, as another embodiment, the encoder 220 may split the coding unit 2222 for encoding the small object 2221 into four coding units by using the above-described predetermined coding method. have. In the case of the divided coding units, since the detected large object 2223 may not be included in all, the encoder 220 may merge the coding units into a single coding unit including a portion having a similar sample value. .
  • the encoder 220 determines a coding unit by using a predetermined coding method that does not divide a coding unit or divides the coding unit into four coding units by using split information of the coding unit, and then includes a sample included in the picture.
  • the coding unit may be divided again in consideration of the sample values. That is, the encoder 130 may split not only the merged coding units but also the previously determined coding units in order to determine the coding units for each object. Referring to FIG. 22, the encoder 130 may merge coding units for the object 2223, and the coding unit merged for the object 2223 to determine the coding unit optimized for the object 2223. May be divided again (2226). In other words, the encoder 220 may determine a portion in which the object 2223 is not included as a coding unit 2227 separate from the object 2223 through the division 2226.
  • the image decoding apparatus In operation 100, the image can be decoded by performing the image decoding method corresponding to the reverse operation of the image encoding method after acquiring the bitstream.
  • FIG. 23 illustrates an index according to a Z scan order of coding units, according to an embodiment.
  • the encoder 220 of the image encoding apparatus 200 may scan the lower data units included in the upper data unit in the Z scan order. Also, the image encoding apparatus 200 according to an embodiment may sequentially access data according to a Z scan index in a maximum coding unit or a coding unit included in a processing block. As described above with reference to FIGS. 3 to 4, the encoder 220 of the image encoding apparatus 200 according to an embodiment may divide the reference coding unit into at least one coding unit. In this case, square coding units and non-square coding units may be mixed in the reference coding unit. Since the image encoding apparatus 200 may have a feature similar to that of the image decoding apparatus 100 described above with reference to FIG. 23, a feature of the index according to the Z scan order of the coding unit will be omitted.
  • the above-described embodiments of the present invention can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium.
  • the computer-readable recording medium may include a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.) and an optical reading medium (eg, a CD-ROM, a DVD, etc.).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

일 실시예에 따라 비디오 픽처로부터 인트라 예측을 위한 데이터 단위들을 결정하는 단계, 데이터 단위들을 소정의 예측 정보를 이용하여 예측하는 제 1 인트라 예측 유형에 따라 예측할 것인지 데이터 단위들에 인접하는 데이터 단위들을 이용하여 예측하는 제 2 인트라 예측 유형에 따라 예측할 것인지 나타내는 인트라 예측 유형 정보를 획득하는 단계, 인트라 예측 유형 정보에 기초하여, 제 1 인트라 예측 유형에 따라 예측되는 제 1 데이터 단위들 및 제 2 인트라 예측 유형에 따라 예측되는 제 2 데이터 단위들을 결정하는 단계, 예측 정보를 이용하여 제 1 인트라 예측 유형에 따른 제 1 데이터 단위에 대한 제 1 예측값을 생성하는 단계, 및 데이터 단위에 인접하는 데이터 단위를 이용하여 제 2 인트라 예측 유형에 따른 제 2 데이터 단위에 대한 제 2 예측값을 생성하는 단계를 포함하는 비디오 복호화 방법이 제공될 수 있다.

Description

영상을 부호화/복호화 하는 방법 및 그 장치
일 실시예에 따른 방법 및 장치는 영상에 포함되는 다양한 데이터 단위를 이용하여, 영상을 부호화 또는 복호화 할 수 있다.
영상 데이터는 소정의 데이터 압축 표준, 예를 들면 MPEG(Moving Picture Expert Group) 표준에 따른 코덱에 의하여 부호화된 후 비트스트림의 형태로 기록매체에 저장되거나 통신 채널을 통해 전송된다.
고해상도 또는 고화질 영상 컨텐트를 재생, 저장할 수 있는 하드웨어의 개발 및 보급에 따라, 고해상도 또는 고화질 영상 컨텐트를 효과적으로 부호화 또는 복호화 하는 코덱(codec)의 필요성이 증대하고 있다. 부호화된 영상 컨텐트는 복호화됨으로써 재생될 수 있다. 최근에는 이러한 고해상도 또는 고화질 영상 컨텐트를 효과적으로 압축하기 위한 방법들이 실시되고 있다. 예를 들면, 부호화 하려는 영상을 임의적 방법으로 처리하는 과정을 통한 효율적 영상 압축 방법이 실시되고 있다.
영상을 압축하기 위하여 다양한 데이터 단위가 이용될 수 있으며 이러한 데이터 단위들 간에 포함관계가 존재할 수 있다. 이러한 영상 압축에 이용되는 데이터 단위의 크기를 결정하기 위해 다양한 방법에 의해 데이터 단위가 분할될 수 있으며 영상의 특성에 따라 최적화된 데이터 단위가 결정됨으로써 영상의 부호화 또는 복호화가 수행될 수 있다.
종래의 압축방식의 경우, 압축 순서가 좌측 상단부터 우측 하단까지 진행하여, 화면 내 예측 수행 시 좌측 및 상단의 부호화된 값들만을 이용하여 예측이 수행되었다. 이 경우, 영역 전체를 좌측, 상단의 값으로 예측하게 되므로 우측 및 하단 영역의 예측 정확도가 떨어지는 문제가 있다.
일 실시예에 따른 비디오 복호화 하는 방법에 있어서, 비디오 픽처로부터 인트라 예측을 위한 데이터 단위들을 결정하는 단계, 비트스트림으로부터, 데이터 단위들을 소정의 예측 정보를 이용하여 예측하는 제 1 인트라 예측 유형에 따라 예측할 것인지 데이터 단위들에 인접 하는 데이터 단위들을 이용하여 예측하는 제 2 인트라 예측 유형에 따라 예측할 것인지 나타내는 인트라 예측 유형 정보를 획득하는 단계, 비트스트림으로부터 획득된 인트라 예측 유형 정보에 기초하여, 제 1 인트라 예측 유형에 따라 예측되는 제 1 데이터 단위들 및 제 2 인트라 예측 유형에 따라 예측되는 제 2 데이터 단위들을 결정하는 단계, 소정의 예측 정보를 이용하여 제 1 인트라 예측 유형에 따른 제 1 데이터 단위에 대한 제 1 예측값을 생성하는 단계, 및 데이터 단위에 인접 하는 데이터 단위를 이용하여 제 2 인트라 예측 유형에 따른 제 2 데이터 단위에 대한 제 2 예측값을 생성하는 단계를 포함하는, 비디오 복호화 방법이 제공될 수 있다.
일 실시예에 따른 비디오 부호화 방법에 있어서, 소정의 예측 정보를 이용하여 예측하는 제 1 인트라 예측 유형에 따른 제 1 데이터 단위들 및 제 2 데이터 단위에 인접 하는 데이터 단위를 이용하여 예측하는 제 2 인트라 예측 유형에 따른 제 2 데이터 단위들을 결정하는 단계, 소정의 예측 정보를 이용하여 제 1 인트라 예측 유형에 따른 제 1 데이터 단위에 대한 제 1 예측값을 생성하는 단계, 데이터 단위에 인접 하는 데이터 단위를 이용하여 제 2 인트라 예측 유형에 따른 제 2 데이터 단위에 대한 제 2 예측값을 생성하는 단계, 및 제 1 예측값 및 제 2 예측값 중 적어도 하나에 기초하여 결정되는 부호화 정보를 포함하는 비트스트림을 생성하여 비디오 픽처를 부호화하는 단계를 포함하고, 비트스트림은 소정의 예측 정보를 포함하는, 비디오 부호화 방법이 제공될 수 있다.
일 실시예에 따른 비디오 복호화 장치에 있어서, 비디오 픽처로부터 인트라 예측을 위한 데이터 단위들을 결정하는 데이터 단위 결정부, 비트스트림으로부터, 데이터 단위들을 소정의 예측 정보를 이용하여 예측하는 제 1 인트라 예측 유형에 따라 예측할 것인지 데이터 단위들에 인접 하는 데이터 단위들을 이용하여 예측하는 제 2 인트라 예측 유형에 따라 예측할 것인지 나타내는 인트라 예측 유형 정보를 획득하는 비트스트림 획득부, 및 비트스트림으로부터 획득된 인트라 예측 유형 정보에 기초하여, 제 1 인트라 예측 유형에 따라 예측되는 제 1 데이터 단위들 및 제 2 인트라 예측 유형에 따라 예측되는 제 2 데이터 단위들을 결정하고, 소정의 예측 정보를 이용하여 제 1 인트라 예측 유형에 따른 제 1 데이터 단위에 대한 제 1 예측값을 생성하며, 데이터 단위에 인접 하는 데이터 단위를 이용하여 제 2 인트라 예측 유형에 따른 제 2 데이터 단위에 대한 제 2 예측값을 생성하는 복호화부를 포함하는, 비디오 복호화 장치가 제공될 수 있다.
일 실시예에 따른 비디오 부호화 장치에 있어서, 소정의 예측 정보를 이용하여 예측하는 제 1 인트라 예측 유형에 따른 제 1 데이터 단위들 및 제 2 데이터 단위에 인접 하는 데이터 단위를 이용하여 예측하는 제 2 인트라 예측 유형에 따른 제 2 데이터 단위들을 결정하는 데이터 단위 결정부, 소정의 예측 정보를 이용하여 제 1 인트라 예측 유형에 따른 제 1 데이터 단위에 대한 제 1 예측값을 생성하고, 데이터 단위에 인접 하는 데이터 단위를 이용하여 제 2 인트라 예측 유형에 따른 제 2 데이터 단위에 대한 제 2 예측값을 생성하고, 제 1 예측값 및 제 2 예측값 중 적어도 하나에 기초하여 결정되는 부호화 정보를 포함하는 비트스트림을 생성하여 비디오 픽처를 부호화하는 비트스트림 생성부 및 부호화부를 포함하고, 비트스트림은 소정의 예측 정보를 포함하는, 비디오 부호화 장치가 제공될 수 있다.
사용 가능한 참조값들을 확장하고 이용할 수 있음에 따라, 영상의 특성에 적응적인 데이터 단위를 이용할 수 있고 이에 따라 효율적인 영상 부호화 및 복호화가 가능하고 복원 영상의 화질 향상이 가능하다.
도 1 은 일 실시예에 따라 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 영상을 복호화 할 수 있는 영상 복호화 장치의 블록도를 도시한다.
도 2 는 일 실시예에 따라 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 영상을 부호화 할 수 있는 영상 부호화 장치의 블록도를 도시한다.
도 3 은 일 실시예에 따라 제 1 인트라 예측 유형에 따라 예측되는 제 1 데이터 단위 및 제 2 인트라 예측 유형에 따라 예측되는 제 2 데이터 단위를 결정되는 과정을 도시한다.
도 4 는 일 실시예에 따라 소정의 예측 정보에 기초한 제 1 인트라 예측 유형에 따라 제 1 데이터 단위를 예측하는 과정을 도시한다.
도 5 는 일 실시예에 따라 인접 하는 데이터 단위들을 이용하여 예측하는 제 2 인트라 예측 유형에 따라 제 2 데이터 단위를 예측하는 과정을 도시한다.
도 6 은 일 실시예에 따라 좌측 및 상단에 인접 하는 데이터 단위들 및 우측 및 하단에 인접하는 데이터 단위들을 이용하여 예측하는 제 2 인트라 예측 유형에 따라 제 2 데이터 단위를 예측하는 과정을 도시한다.
도 7 은 일 실시예에 따라 데이터 단위에 대하여 제 1 인트라 예측 유형 및 제 2 인트라 예측 유형이 결정되는 과정을 도시한다.
도 8 은 일 실시예에 따른 인트라 예측 유형 정보를 이용한 비디오 복호화 방법의 흐름도를 도시한다.
도 9 는 일 실시예에 따라 인트라 예측 유형 정보를 이용한 비디오 부호화 방법의 흐름도를 도시한다.
도 10 은 일 실시예에 따라 제1 부호화 단위가 분할되어 결정된 비-정사각형 형태의 제 2 부호화 단위가 소정의 조건을 만족하는 경우, 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
도 11 은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 정사각형 형태의 부호화 단위가 분할되는 과정을 도시한다
도 12 는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
도 13 은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
도 14 는 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
도 15 는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
도 16 은 일 실시예에 따라 픽쳐에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
도 17 은 일 실시예에 따라 부호화 단위가 분할될 수 있는 형태의 조합이 픽쳐마다 서로 다른 경우, 각각의 픽쳐마다 결정될 수 있는 부호화 단위들을 도시한다.
도 18 은 일 실시예에 따라 바이너리(binary)코드로 표현될 수 있는 분할 형태 정보에 기초하여 결정될 수 있는 부호화 단위의 다양한 형태를 도시한다.
도 19 는 일 실시예에 따라 바이너리 코드로 표현될 수 있는 분할 형태 정보에 기초하여 결정될 수 있는 부호화 단위의 또 다른 형태를 도시한다.
도 20 는 루프 필터링을 수행하는 영상 부호화 및 복호화 시스템의 블록도를 도시한다.
도 21 은 일 실시예에 따른 최대 부호화 단위에 포함되는 필터링 단위들의 일례와 필터링 단위의 필터링 수행 정보를 도시한다.
도 22 는 일 실시예에 따라 소정의 부호화 방법에 따라 결정된 부호화 단위들 간의 병합(merge) 또는 분할(split)이 수행되는 과정을 도시한다.
도 23 은 일 실시예에 따른 부호화 단위의 Z 스캔 순서에 따른 인덱스를 도시한다.
도 24 는 일 실시예에 따른 부호화 단위의 인트라 예측을 위한 참조 샘플을 도시한다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
이하, "영상"은 비디오의 정지영상과 같은 정적 이미지이거나 동영상, 즉 비디오 그 자체와 같은 동적 이미지를 나타낼 수 있다.
이하 "샘플"은, 영상의 샘플링 위치에 할당된 데이터로서 프로세싱 대상이 되는 데이터를 의미한다. 예를 들어, 공간영역의 영상에서 픽셀값, 변환 영역 상의 변환 계수들이 샘플들일 수 있다. 이러한 적어도 하나의 샘플들을 포함하는 단위를 블록이라고 정의할 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
도 1은 일 실시예에 따라 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 영상을 복호화 할 수 있는 영상 복호화 장치(100)의 블록도를 도시한다.
도 1을 참조하면, 영상 복호화 장치(100)는 일 실시예에 따라 비디오 픽처로부터 인트라 예측을 위한 데이터 단위들을 결정하는 데이터 단위 결정부 (110), 비트스트림으로부터 소정의 예측 정보를 이용하여 예측하는 제 1 인트라 예측 유형에 따라 예측할 것인지 데이터 단위들에 인접 하는 데이터 단위들을 이용하여 예측하는 제 2 인트라 예측 유형에 따라 예측할 것인지 나타내는 인트라 예측 유형 정보를 획득하는 비트스트림 획득부(120), 획득된 인트라 예측 유형 정보에 기초하여, 제 1 인트라 예측 유형에 따라 예측되는 제 1 데이터 단위들 및 제 2 인트라 예측 유형에 따라 예측되는 제 2 데이터 단위들을 결정하고, 소정의 예측 정보를 이용하여 제 1 인트라 예측 유형에 따른 제 1 데이터 단위에 대한 제 1 예측값을 생성하며, 데이터 단위에 인접 하는 데이터 단위를 이용하여 제 2 인트라 예측 유형에 따른 상기 제 2 데이터 단위에 대한 제 2 예측값을 생성하는 복호화부(130)를 포함할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)의 비트스트림 획득부(120)에서 인트라 예측 유형 정보를 획득한 경우, 영상 복호화 장치(100)의 복호화부(130)는 인트라 예측 유형 정보에 기초하여 제 1 인트라 예측 유형에 따라 제 1 데이터 단위에 대한 제 1 예측값을 생성할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)의 데이터 단위 결정부(110)는 인트라 예측을 위한 데이터 단위들을 결정할 수 있다. 예를 들어, 데이터 단위들은 코딩 유닛 (Coding Unit), 예측 유닛 (Prediction Unit), 또는 변환 유닛 (Transform Unit) 중 하나일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)의 비트스트림 획득부(120)는 결정된 데이터 단위들을 제 1 인트라 예측 유형에 따라 예측할 것인지, 제 2 인트라 예측 유형에 따라 예측할 것인지 나타내는 인트라 예측 유형 정보를 획득할 수 있다. 제 1 인트라 예측 유형에 따른 예측은 주변 데이터 단위가 아닌 다른 정보를 이용하여 인트라 예측을 수행하는 것일 수 있다. 제 2 인트라 예측 유형에 따른 예측은 주변 데이터 단위를 이용하여 인트라 예측을 수행하는 것일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)의 복호화부(130)는 인트라 예측 유형 정보에 기초하여 제 1 인트라 예측 유형에 따라 제 1 데이터 단위에 대한 제 1 예측값을 생성할 수 있다. 복호화부(130)는 제 2 인트라 예측 유형에 따라 제 2 데이터 단위에 대한 제 2 예측값을 생성할 수 있다. 예를 들면 복호화부(130)는 제 2 데이터 단위가 인접하는 데이터 단위 중 좌측 및 상단의 데이터 단위 또는 우측 및 하단의 데이터 단위를 이용하여 예측값을 생성할 수 있다.
도 3은 일 실시예에 따라 제 1 인트라 예측 유형에 따라 예측되는 제 1 데이터 단위 및 제 2 인트라 예측 유형에 따라 예측되는 제 2 데이터 단위를 결정되는 과정을 도시한다.
일 실시예에 따라 복호화부(130)는 인트라 예측 유형 정보에 기초하여, 제 1 인트라 예측 유형에 따라 예측되는 제 1 데이터 단위들(310) 및 제 2 인트라 예측 유형에 따라 예측되는 제 2 데이터 단위들(320)을 결정할 수 있다. 예를 들어, 예측되는 데이터 단위가 주변 데이터 단위를 이용하여 예측 되는지 또는 주변 데이터 단위에 대한 정보가 아닌 다른 정보를 이용하여 예측되는지 결정될 수 있다.
일 실시예에 따라, 복호화부(130)는 주변 데이터 단위에 대한 정보가 아닌 다른 정보를 이용하여 데이터 단위를 예측할 수 있다. 예를 들어 복호화부(130)는 슬라이스 헤더, PPS, 또는 SPS 에 저장된 지정된 값을 이용하여 예측을 수행할 수 있다. 예를 들어 데이터 단위 내의 영역별로 소정의 값을 미리 할당할 수 있다.
도 3을 참조하면, 복호화부(130)가 제 1 인트라 예측 유형에 따라 제 1 데이터 단위들(310)에 대한 예측을 수행한 경우, 복호화부(130)는 제 2 인트라 예측 유형에 따라 제 2 데이터 단위들(320)에 대한 예측을 수행할 수 있다. 예를 들어, 제 2 데이터 단위들(320)에 대한 예측은 제 1 인트라 예측 유형에 따라 예측된 제 1 데이터 단위들(310)에 대한 정보를 이용하여 수행될 수 있다. 예를 들어, 제 2 데이터 단위들(320)은 우측 또는 하단에 인접하는 데이터 단위 중 적어도 하나를 이용하여 예측될 수 있다.
일 실시예에 따라, 복호화부(130)는 제 2 데이터 단위(320)에 인접하는 제 1 데이터 단위(310)의 샘플값의 평균값으로 제 2 데이터 단위(320)의 예측값을 생성할 수 있다. 또는, 복호화부(130)는 제 2 데이터 단위(320) 내의 우측 예측 샘플들에 대해서는 우측으로 인접하는 제 1 데이터 단위의 샘플값을 이용하여 예측값을 생성하고, 제 2 데이터 단위(320) 내의 하단 예측 샘플 들에 대해서는 하단으로 인접하는 제 1 데이터 단위의 샘플값을 이용하여 예측값을 생성할 수 있다.
일 실시예에 따라, 복호화부(130)는 제 2 데이터 단위(320) 내의 예측 샘플들에 대해서 인접하는 데이터 단위와의 상대적인 방향성에 기초하여 예측값을 생성할 수 있다. 또한, 예를 들어 복호화부(130)는 상대적인 거리에 대한 가중치를 샘플값에 적용하여 제 2 데이터 단위(320)의 예측값을 생성할 수 있다.
일 실시예에 따라, 복호화부(130)는 우측에 인접하는 제 1 데이터 단위의 참조 샘플 및 상단에 인접하는 제 2 데이터 단위의 참조 샘플을 이용하여 제 2 데이터 단위(320) 의 예측값을 생성할 수 있다. 예를 들어, 복호화부(130)는 상이한 인트라 예측 유형에 의해 예측되는 제 1 데이터 단위 및 제 2 데이터 단위의 참조 샘플들을 동일한 Intra_angular 모드를 적용하여 예측하고자 하는 데이터 단위의 예측값을 생성할 수 있다. 예를 들어, 복호화부(130)는 동일한 Intra_angular 모드를 적용하더라도 참조 샘플의 종류, 즉, 제 1 데이터 단위의 참조 샘플인지 또는 제 2 데이터 단위의 참조 샘플인지에 따라 가중치를 적용하여 데이터 단위의 예측값을 생성할 수 있다.
도 4는 일 실시예에 따라 소정의 예측 정보에 기초한 제 1 인트라 예측 유형에 따라 제 1 데이터 단위를 예측하는 과정을 도시한다.
일 실시예에 따라 복호화부(130)는 제 1 인트라 예측 유형에 따라 예측되는 제 1 데이터 단위들(420)은 주변 데이터 단위에 대한 정보가 아닌 다른 정보를 이용하여 예측될 수 있다. 예를 들어, 제 1 데이터 단위들(420)은 제 1 데이터 단위(420)가 포함된 상위 계층의 데이터 단위에 인접하는 샘플값(410)을 이용하여 예측될 수 있다. 제 1 데이터 단위(420)가 포함된 상위 계층의 데이터 단위에 인접하는 샘플값(410)은 CTU 경계의 주변 픽셀에 대한 정보, 또는 CU 경계의 주변 픽셀에 대한 정보를 포함할 수 있다. CTU 경계의 주변 픽셀에 대한 정보를 이용하여 예측을 수행하는 경우, 예측 대상 단위는 CU, PU, TU, 또는 CTU 일 수 있다. CU 경계의 주변 픽셀에 대한 정보 이용하여 예측을 수행하는 경우, 예측 대상 단위는 PU, TU, 또는 CU 일 수 있다.
일 실시예에 따라 복호화부(130)는 제 1 데이터 단위(420)가 포함된 상위 계층의 데이터 단위에 인접하는 참조 샘플의 샘플값(410)의 평균값으로 제 1 데이터 단위(420)의 예측값을 생성할 수 있다. 예를 들어, 복호화부(130)는 제 1 데이터 단위(420) 참조 샘플들과의 비연속성을 제거하기 위하여 상위 계층의 데이터 단위에 인접하는 샘플에 대하여 필터링을 행할 수 있다. 예를 들어 복호화부(130)는 상위 계층의 데이터 단위의 좌측 상단 샘플 및 좌측 샘플 또는 우측 샘플에 각각 상이한 필터를 취할 수 있다.
일 실시예에 따라 복호화부(130)는 제 1 데이터 단위(420)가 포함된 상위 계층의 데이터 단위에 인접하는 참조 샘플과의 상대적인 방향성에 기초하여 Intra_Angular mode 를 적용함으로써 예측값을 생성할 수 있다. 또한, 예를 들어 복호화부(130)는 상대적인 거리에 대한 가중치를 샘플값에 적용하여 제 1 데이터 단위(420)의 예측값을 생성할 수 있다.
도 5는 일 실시예에 따라 인접 하는 데이터 단위들을 이용하여 예측하는 제 2 인트라 예측 유형에 따라 제 2 데이터 단위를 예측하는 과정을 도시한다.
일 실시예에 따라 복호화부(130)는 데이터 단위에 인접하는 데이터 단위들을 이용하여 제 2 인트라 예측 유형에 따라 예측을 수행할 수 있다. 예를 들어, 데이터 단위(510)에 대한 예측을 수행하는 경우, 데이터 단위(510)의 하단에 인접하는 제 1 인트라 예측 유형에 따라 부호화된 데이터 단위(530)에 대한 정보(511)를 이용할 수 있다. 예를 들어, 데이터 단위(520)에 대한 예측을 수행하는 경우, 데이터 단위(520)의 우측에 인접하는 제 1 인트라 예측 유형에 따라 부호화된 데이터 단위(530)에 대한 정보(521)를 이용할 수 있다.
일 실시예에 따라 복호화부(130)는 데이터 단위(510) 내의 예측되는 샘플의 위치에 따라 좌측 또는 상단의 거리가 가까운 경우 좌측 및 상단의 샘플값을 이용하여 예측을 수행한다. 또는, 일 실시예에 따라 복호화부(130)는 데이터 단위(510) 내의 예측되는 픽셀의 위치에 따라 우측 또는 하단의 거리가 가까운 경우 우측 및 하단의 샘플값을 이용하여 예측을 수행한다.
일 실시예에 따라 복호화부(130)는 데이터 단위(510)의 주변 참조 샘플들의 평균값으로 데이터 단위(510)의 예측값을 생성할 수 있다. 예를 들어, 복호화부(130)는 좌측에 인접하는 참조 샘플들 및 상단에 인접하는 참조 샘플들의 평균값 및 하단에 인접하는 참조 샘플들 및 우측에 인접하는 참조 샘플들의 평균값을 이용하여 데이터 단위 내의 참조 샘플의 예측값을 생성할 수 있다. 예를 들어, 복호화부(130)는 데이터 단위(510) 내의 예측 샘플들과 주변 참조 샘플들과의 거리에 대한 가중치를 각각의 평균값에 적용하여 데이터 단위 내의 예측 샘플의 예측값을 생성할 수 있다.
일 실시예에 따라 복호화부(130)는 데이터 단위(510)과 데이터 단위 주변 참조 샘플들의 방향성을 고려하여 예측 샘플의 예측값을 생성할 수 있다. 데이터 단위(510)과 데이터 단위 주변 참조 샘플들의 방향성을 고려하는 방법에 대해서는 도 6 에서 후술하도록 한다.
일 실시예에 따라 복호화부(130)는 데이터 단위(520) 내의 예측 샘플들에 대하여 인접하는 참조 샘플들 중 한 참조 샘플을 한 줄에 대한 예측 샘플 값으로 이용할 수 있다. 예를 들어, 복호화부(130)는 데이터 단위(510) 의 하단에 인접하는 참조 샘플들 중 한 참조 샘플을 데이터 단위(520) 내의 수직 방향의 한 줄 전체에 대한 예측 샘플값으로 이용할 수 있다. 예를 들어, 복호화부(130)는 데이터 단위(520) 의 우측에 인접하는 참조 샘플들 중 한 참조 샘플을 데이터 단위(520) 내의 수평 방향의 한 줄 전체에 대한 예측 샘플값으로 이용할 수 있다.
도 6은 일 실시예에 따라 좌측 및 상단에 인접 하는 데이터 단위들 및 우측 및 하단에 인접하는 데이터 단위들을 이용하여 예측하는 제 2 인트라 예측 유형에 따라 제 2 데이터 단위를 예측하는 과정을 도시한다.
도 6을 참조하면, 제 2 인트라 예측 유형에 따른 제 2 데이터 단위에 대한 제 2 예측값을 생성하는 경우, 복호화부(130)는 좌측 및 상단 데이터 단위 중 적어도 하나를 이용하여 예측값을 생성할 수 있다. 또는, 복호화부(130)는 우측 및 하단 데이터 단위 중 적어도 하나를 이용하여 예측값을 생성할 수 있다. 복호화부(130)는 좌측 및 상단 데이터 단위 중 적어도 하나를 이용하여 생성된 예측값을 동일한 예측 모드(631)를 이용하고 거리에 따라 bi-linear로 보간(interpolation)하여 새로운 예측값(611)을 생성할 수 있다.
일 실시예에 따라 복호화부(130)는 기존 예측 모드들(641) 외에 새로운 예측 모드들(642)에 기초하여 우측 및 하단 데이터 단위 중 적어도 하나를 이용하여 예측값(621)을 생성할 수 있다. 예를 들어, 복호화부(130)는 기존 35개의 예측 모드(640)에서 32개의 예측 모드를 추가한 새로운 67개의 예측 모드(640)를 이용하여 우측 및 하단의 데이터 단위에 인접하는 샘플값을 이용할 수 있다.
일 실시예에 따라 복호화부(130)는 좌측 및 상단 데이터 단위 중 적어도 하나를 이용하여 생성된 예측값 및 우측 및 하단 데이터 단위 중 적어도 하나를 이용하여 생성된 예측값에 대하여 경계 부분을 완화하기 위하여 필터링을 수행할 수 있다. 예를 들어, 복호화부(130)는 두 가지 모드에서 참조되지 않은 인접한 샘플들과 예측 샘플의 비연속성을 제거하기 위한 필터링을 수행할 수 있다.
도 7은 일 실시예에 따라 데이터 단위에 대하여 제 1 인트라 예측 유형 및 제 2 인트라 예측 유형이 결정되는 과정을 도시한다.
일 실시예에 따라 복호화부(130)는 인트라 예측 유형 정보에 기초하여 각각의 CU, PU 또는 TU 에 대하여 제 1 인트라 예측 유형에 따라 예측값을 생성할 것인지, 또는 제 2 인트라 예측 유형에 따라 예측값을 생성할 것인지 결정할 수 있다.
일 실시예에 따라 복호화부(130)는 Intra_DC 모드에 대해서는 제 1 인트라 예측 유형에 따라 예측을 수행하고, Intra_DC 모드 외에 다른 모드에 대해서는 제 2 인트라 예측 유형에 따라 예측을 수행하도록 결정할 수 있다.
일 실시예에 따라 복호화부(130)는 데이터 단위를 제 1 데이터 단위 또는 제 2 데이터 단위 중 어느 하나로 분류할지 나타내는 플래그를 획득하여, 획득된 플래그가 제 1 데이터 단위 또는 제 2 데이터 단위 중 어느 하나로 분류할 것으로 나타내는 경우, 제 1 또는 제 2 인트라 예측 유형에 따라 데이터 단위에 대한 예측값을 생성할 수 있다.
도 8 은 일 실시예에 따른 인트라 예측 유형 정보를 이용한 비디오 복호화 방법의 흐름도를 도시한다.
단계 S810 에서 영상 복호화 장치(100)의 데이터 단위 결정부(110)는 비디오 픽처로부터 인트라 예측을 위한 데이터 단위들을 결정할 수 있다.
단계 S820 에서 영상 복호화 장치(100)의 비트스트림 획득부(120)는 비트스트림으로부터, 데이터 단위들을 소정의 예측 정보를 이용하여 예측하는 제 1 인트라 예측 유형에 따라 예측할 것인지 상기 데이터 단위들에 인접 하는 데이터 단위들을 이용하여 예측하는 제 2 인트라 예측 유형에 따라 예측할 것인지 나타내는 인트라 예측 유형 정보를 획득할 수 있다.
단계 S830 에서 영상 복호화 장치(100)의 복호화부(130)는 비트스트림으로부터 획득된 인트라 예측 유형 정보에 기초하여, 제 1 인트라 예측 유형에 따라 예측되는 제 1 데이터 단위들 및 제 2 인트라 예측 유형에 따라 예측되는 제 2 데이터 단위들을 결정할 수 있다.
단계 S840 에서 영상 복호화 장치(100)의 복호화부(130)는 소정의 예측 정보를 이용하여 제 1 인트라 예측 유형에 따른 제 1 데이터 단위에 대한 제 1 예측값을 생성할 수 있다.
단계 S850 에서 영상 복호화 장치(100)의 복호화부(130)는 데이터 단위에 인접 하는 데이터 단위를 이용하여 제 2 인트라 예측 유형에 따른 제 2 데이터 단위에 대한 제 2 예측값을 생성할 수 있다.
도 10은 일 실시예에 따라 영상 복호화 장치(100)가 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
일 실시예에 따라 복호화부(130)는 비트스트림 획득부(120)를 통해 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(1000)를 비-정사각형 형태의 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)로 분할하는 것으로 결정할 수 있다. 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)는 독립적으로 분할될 수 있다. 이에 따라 복호화부(130)는 제2 부호화 단위(1010a, 1010b, 1020a, 1020b) 각각에 관련된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 복수개의 부호화 단위로 분할하거나 분할하지 않는 것을 결정할 수 있다. 일 실시예에 따라 복호화부(130)는 수직 방향으로 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 좌측 제2 부호화 단위(1010a)를 수평 방향으로 분할하여 제3 부호화 단위(1012a, 1012b)를 결정할 수 있다. 다만 복호화부(130)는 좌측 제2 부호화 단위(1010a)를 수평 방향으로 분할한 경우, 우측 제2 부호화 단위(1010b)는 좌측 제2 부호화 단위(1010a)가 분할된 방향과 동일하게 수평 방향으로 분할될 수 없도록 제한할 수 있다. 만일 우측 제2 부호화 단위(1010b)가 동일한 방향으로 분할되어 제3 부호화 단위(1014a, 1014b)가 결정된 경우, 좌측 제2 부호화 단위(1010a) 및 우측 제2 부호화 단위(1010b)가 수평 방향으로 각각 독립적으로 분할됨으로써 제3 부호화 단위(1012a, 1012b, 1014a, 1014b)가 결정될 수 있다. 하지만 이는 복호화부(130)가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1000)를 4개의 정사각형 형태의 제2 부호화 단위(1030a, 1030b, 1030c, 1030d)로 분할한 것과 동일한 결과이며 이는 영상 복호화 측면에서 비효율적일 수 있다.
일 실시예에 따라 복호화부(130)는 수평 방향으로 제1 부호화 단위(900)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1020a 또는 1020b)를 수직 방향으로 분할하여 제3 부호화 단위(1022a, 1022b, 1024a, 1024b)를 결정할 수 있다. 다만 복호화부(130)는 제2 부호화 단위 중 하나(예를 들면 상단 제2 부호화 단위(1020a))를 수직 방향으로 분할한 경우, 상술한 이유에 따라 다른 제2 부호화 단위(예를 들면 하단 부호화 단위(1020b))는 상단 제2 부호화 단위(1020a)가 분할된 방향과 동일하게 수직 방향으로 분할될 수 없도록 제한할 수 있다.
도 11은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치(100)가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 복호화부(130)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1100)를 분할하여 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 결정할 수 있다. 분할 형태 정보에는 부호화 단위가 분할될 수 있는 다양한 형태에 대한 정보가 포함될 수 있으나, 다양한 형태에 대한 정보에는 정사각형 형태의 4개의 부호화 단위로 분할하기 위한 정보가 포함될 수 없는 경우가 있다. 이러한 분할 형태 정보에 따르면, 복호화부(130)는 정사각형 형태의 제1 부호화 단위(1100)를 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할하지 못한다. 분할 형태 정보에 기초하여 복호화부(130)는 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 결정할 수 있다.
일 실시예에 따라 복호화부(130)는 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 각각 독립적으로 분할할 수 있다. 재귀적인 방법을 통해 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등) 각각이 소정의 순서대로 분할될 수 있으며, 이는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1100)가 분할되는 방법에 유사한 분할 방법일 수 있다.
예를 들면 복호화부(130)는 좌측 제2 부호화 단위(1110a)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1112a, 1112b)를 결정할 수 있고, 우측 제2 부호화 단위(1110b)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1114a, 1114b)를 결정할 수 있다. 나아가 복호화부(130)는 좌측 제2 부호화 단위(1110a) 및 우측 제2 부호화 단위(1110b) 모두 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1116a, 1116b, 1116c, 1116d)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1100)가 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
또 다른 예를 들면 복호화부(130)는 상단 제2 부호화 단위(1120a)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1122a, 1122b)를 결정할 수 있고, 하단 제2 부호화 단위(1120b)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1124a, 1124b)를 결정할 수 있다. 나아가 복호화부(130)는 상단 제2 부호화 단위(1120a) 및 하단 제2 부호화 단위(1120b) 모두 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1122a, 1122b, 1124a, 1124b)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1100)가 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
도 12는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
일 실시예에 따라 복호화부(130)는 블록 형태 정보 및 분할 형태 정보에 기초하여 제1 부호화 단위(1200)를 분할할 수 있다. 블록 형태 정보가 정사각형 형태를 나타내고, 분할 형태 정보가 제1 부호화 단위(1200)가 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할됨을 나타내는 경우, 복호화부(130)는 제1 부호화 단위(1200)를 분할하여 제2 부호화 단위(예를 들면, 1210a, 1210b, 1220a, 1220b, 1230a, 1230b, 1230c, 1230d 등)를 결정할 수 있다. 도 12를 참조하면 제1 부호화 단위1200)가 수평 방향 또는 수직 방향만으로 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)는 각각에 대한 블록 형태 정보 및 분할 형태 정보에 기초하여 독립적으로 분할될 수 있다. 예를 들면 복호화부(130)는 제1 부호화 단위(1200)가 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 제1 부호화 단위(1200)가 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 이러한 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)의 분할 과정은 도 10과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 복호화부(130)는 소정의 순서에 따라 부호화 단위를 처리할 수 있다. 소정의 순서에 따른 부호화 단위의 처리에 대한 특징은 도 7과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다. 도 12를 참조하면 복호화부(130)는 정사각형 형태의 제1 부호화 단위(1200)를 분할하여 4개의 정사각형 형태의 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 일 실시예에 따라 복호화부(130)는 제1 부호화 단위(1200)가 분할되는 형태에 따라 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)의 처리 순서를 결정할 수 있다.
일 실시예에 따라 복호화부(130)는 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 복호화부(130)는 좌측 제2 부호화 단위(1210a)에 포함되는 제3 부호화 단위(1216a, 1216b)를 수직 방향으로 먼저 처리한 후, 우측 제2 부호화 단위(1210b)에 포함되는 제3 부호화 단위(1216c, 1216d)를 수직 방향으로 처리하는 순서(1217)에 따라 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 처리할 수 있다.
일 실시예에 따라 복호화부(130)는 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수직 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있고, 복호화부(130)는 상단 제2 부호화 단위(1220a)에 포함되는 제3 부호화 단위(1226a, 1226b)를 수평 방향으로 먼저 처리한 후, 하단 제2 부호화 단위(1220b)에 포함되는 제3 부호화 단위(1226c, 1226d)를 수평 방향으로 처리하는 순서(1227)에 따라 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 처리할 수 있다.
도 12를 참조하면, 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)가 각각 분할되어 정사각형 형태의 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)가 결정될 수 있다. 수직 방향으로 분할되어 결정된 제2 부호화 단위(1210a, 1210b) 및 수평 방향으로 분할되어 결정된 제2 부호화 단위(1220a, 1220b)는 서로 다른 형태로 분할된 것이지만, 이후에 결정되는 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)에 따르면 결국 동일한 형태의 부호화 단위들로 제1 부호화 단위(1200)가 분할된 결과가 된다. 이에 따라 복호화부(130)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 상이한 과정을 통해 재귀적으로 부호화 단위를 분할함으로써 결과적으로 동일한 형태의 부호화 단위들을 결정하더라도, 동일한 형태로 결정된 복수개의 부호화 단위들을 서로 다른 순서로 처리할 수 있다.
도 13은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
일 실시예에 따라 복호화부(130)는 부호화 단위의 심도를 소정의 기준에 따라 결정할 수 있다. 예를 들면 소정의 기준은 부호화 단위의 긴 변의 길이가 될 수 있다. 복호화부(130)는 현재 부호화 단위의 긴 변의 길이가 분할되기 전의 부호화 단위의 긴 변의 길이보다 2n (n>0) 배로 분할된 경우, 현재 부호화 단위의 심도는 분할되기 전의 부호화 단위의 심도보다 n만큼 심도가 증가된 것으로 결정할 수 있다. 이하에서는 심도가 증가된 부호화 단위를 하위 심도의 부호화 단위로 표현하도록 한다.
도 13을 참조하면, 일 실시예에 따라 정사각형 형태임을 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는 ′0: SQUARE′를 나타낼 수 있음)에 기초하여 복호화부(130)는 정사각형 형태인 제1 부호화 단위(1300)를 분할하여 하위 심도의 제2 부호화 단위(1302), 제3 부호화 단위(1304) 등을 결정할 수 있다. 정사각형 형태의 제1 부호화 단위(1300)의 크기를 2Nx2N이라고 한다면, 제1 부호화 단위(1300)의 너비 및 높이를 1/21배로 분할하여 결정된 제2 부호화 단위(1302)는 NxN의 크기를 가질 수 있다. 나아가 제2 부호화 단위(1302)의 너비 및 높이를 1/2크기로 분할하여 결정된 제3 부호화 단위(1304)는 N/2xN/2의 크기를 가질 수 있다. 이 경우 제3 부호화 단위(1304)의 너비 및 높이는 제1 부호화 단위(1300)의 1/22배에 해당한다. 제1 부호화 단위(1300)의 심도가 D인 경우 제1 부호화 단위(1300)의 너비 및 높이의 1/21배인 제2 부호화 단위(1302)의 심도는 D+1일 수 있고, 제1 부호화 단위(1300)의 너비 및 높이의 1/22배인 제3 부호화 단위(1304)의 심도는 D+2일 수 있다.
일 실시예에 따라 비-정사각형 형태를 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는, 높이가 너비보다 긴 비-정사각형임을 나타내는 ′1: NS_VER′ 또는 너비가 높이보다 긴 비-정사각형임을 나타내는 ′2: NS_HOR′를 나타낼 수 있음)에 기초하여, 복호화부(130)는 비-정사각형 형태인 제1 부호화 단위(1310 또는 1320)를 분할하여 하위 심도의 제2 부호화 단위(1312 또는 1322), 제3 부호화 단위(1314 또는 1324) 등을 결정할 수 있다.
복호화부(130)는 Nx2N 크기의 제1 부호화 단위(1310)의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1302, 1312, 1322 등)를 결정할 수 있다. 즉, 복호화부(130)는 제1 부호화 단위(1310)를 수평 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1302) 또는 NxN/2 크기의 제2 부호화 단위(1322)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 N/2xN 크기의 제2 부호화 단위(1312)를 결정할 수도 있다.
일 실시예에 따라 복호화부(130)는 2NxN 크기의 제1 부호화 단위(1320) 의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1302, 1312, 1322 등)를 결정할 수도 있다. 즉, 복호화부(130)는 제1 부호화 단위(1320)를 수직 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1302) 또는 N/2xN 크기의 제2 부호화 단위(1312)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 NxN/2 크기의 제2 부호화 단위(1322)를 결정할 수도 있다.
일 실시예에 따라 복호화부(130)는 NxN 크기의 제2 부호화 단위(1302) 의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 복호화부(130)는 제2 부호화 단위(1302)를 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304)를 결정하거나 N/22xN/2 크기의 제3 부호화 단위(1314)를 결정하거나 N/2xN/22 크기의 제3 부호화 단위(1324)를 결정할 수 있다.
일 실시예에 따라 복호화부(130)는 N/2xN 크기의 제2 부호화 단위(1312)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 복호화부(130)는 제2 부호화 단위(1312)를 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304) 또는 N/2xN/22 크기의 제3 부호화 단위(1324)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/22xN/2 크기의 제3 부호화 단위(1314)를 결정할 수 있다.
일 실시예에 따라 복호화부(130)는 NxN/2 크기의 제2 부호화 단위(1314)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 복호화부(130)는 제2 부호화 단위(1312)를 수직 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304) 또는 N/22xN/2 크기의 제3 부호화 단위(1314)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/22크기의 제3 부호화 단위(1324)를 결정할 수 있다.
일 실시예에 따라 복호화부(130)는 정사각형 형태의 부호화 단위(예를 들면, 1300, 1302, 1304)를 수평 방향 또는 수직 방향으로 분할할 수 있다. 예를 들면, 2Nx2N 크기의 제1 부호화 단위(1300)를 수직 방향으로 분할하여 Nx2N 크기의 제1 부호화 단위(1310)를 결정하거나 수평 방향으로 분할하여 2NxN 크기의 제1 부호화 단위(1320)를 결정할 수 있다. 일 실시예에 따라 심도가 부호화 단위의 가장 긴 변의 길이에 기초하여 결정되는 경우, 2Nx2N 크기의 제1 부호화 단위(1300, 1302 또는 1304)가 수평 방향 또는 수직 방향으로 분할되어 결정되는 부호화 단위의 심도는 제1 부호화 단위(1300, 1302 또는 1304)의 심도와 동일할 수 있다.
일 실시예에 따라 제3 부호화 단위(1314 또는 1324)의 너비 및 높이는 제1 부호화 단위(1310 또는 1320)의 1/22배에 해당할 수 있다. 제1 부호화 단위(1310 또는 1320)의 심도가 D인 경우 제1 부호화 단위(1310 또는 1320)의 너비 및 높이의 1/2배인 제2 부호화 단위(1312 또는 1314)의 심도는 D+1일 수 있고, 제1 부호화 단위(1310 또는 1320)의 너비 및 높이의 1/22배인 제3 부호화 단위(1314 또는 1324)의 심도는 D+2일 수 있다.
도 14는 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
일 실시예에 따라 복호화부(130)는 정사각형 형태의 제1 부호화 단위(1400)를 분할하여 다양한 형태의 제2 부호화 단위를 결정할 수 있다. 도 14를 참조하면, 복호화부(130)는 분할 형태 정보에 따라 제1 부호화 단위(1400)를 수직 방향 및 수평 방향 중 적어도 하나의 방향으로 분할하여 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)를 결정할 수 있다. 즉, 복호화부(130)는 제1 부호화 단위(1400)에 대한 분할 형태 정보에 기초하여 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)를 결정할 수 있다.
일 실시예에 따라 정사각형 형태의 제1 부호화 단위(1400)에 대한 분할 형태 정보에 따라 결정되는 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제1 부호화 단위(1400)의 한 변의 길이와 비-정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 긴 변의 길이가 동일하므로, 제1 부호화 단위(1400)와 비-정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 심도는 D로 동일하다고 볼 수 있다. 이에 반해 복호화부(130)가 분할 형태 정보에 기초하여 제1 부호화 단위(1400)를 4개의 정사각형 형태의 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)로 분할한 경우, 정사각형 형태의 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)의 한 변의 길이는 제1 부호화 단위(1400)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)의 심도는 제1 부호화 단위(1400)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다.
일 실시예에 따라 복호화부(130)는 높이가 너비보다 긴 형태의 제1 부호화 단위(1410)를 분할 형태 정보에 따라 수평 방향으로 분할하여 복수개의 제2 부호화 단위(1412a, 1412b, 1414a, 1414b, 1414c)로 분할할 수 있다. 일 실시예에 따라 복호화부(130)는 너비가 높이보다 긴 형태의 제1 부호화 단위(1420)를 분할 형태 정보에 따라 수직 방향으로 분할하여 복수개의 제2 부호화 단위(1422a, 1422b, 1424a, 1424b, 1424c)로 분할할 수 있다.
일 실시예에 따라 비-정사각형 형태의 제1 부호화 단위(1410 또는 1420)에 대한 분할 형태 정보에 따라 결정되는 제2 부호화 단위(1412a, 1412b, 1414a, 1414b, 1416a, 1416b, 1416c, 1416d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제2 부호화 단위(1412a, 1412b)의 한 변의 길이는 높이가 너비보다 긴 비-정사각형 형태의 제1 부호화 단위(1410)의 한 변의 길이의 1/2배이므로, 정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 심도는 비-정사각형 형태의 제1 부호화 단위(1410)의 심도 D보다 한 심도 하위의 심도인 D+1이다.
나아가 복호화부(130)가 분할 형태 정보에 기초하여 비-정사각형 형태의 제1 부호화 단위(1410)를 홀수개의 제2 부호화 단위(1414a, 1414b, 1414c)로 분할할 수 있다. 홀수개의 제2 부호화 단위(1414a, 1414b, 1414c)는 비-정사각형 형태의 제2 부호화 단위(1414a, 1414c) 및 정사각형 형태의 제2 부호화 단위(1414b)를 포함할 수 있다. 이 경우 비-정사각형 형태의 제2 부호화 단위(1414a, 1414c)의 긴 변의 길이 및 정사각형 형태의 제2 부호화 단위(1414b)의 한 변의 길이는 제1 부호화 단위(1410)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1414a, 1414b, 1414c)의 심도는 제1 부호화 단위(1410)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다. 복호화부(130)는 제1 부호화 단위(1410)와 관련된 부호화 단위들의 심도를 결정하는 상기 방식에 유사한 방식으로, 너비가 높이보다 긴 비-정사각형 형태의 제1 부호화 단위(1420)와 관련된 부호화 단위들의 심도를 결정할 수 있다.
일 실시예에 따라 복호화부(130)는 분할된 부호화 단위들의 구분을 위한 인덱스(PID)를 결정함에 있어서, 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 14를 참조하면, 홀수개로 분할된 부호화 단위들(1414a, 1414b, 1414c) 중 가운데에 위치하는 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1414a, 1414c)의 높이의 두 배일 수 있다. 즉, 이 경우 가운데에 위치하는 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)의 두 개를 포함할 수 있다. 따라서, 스캔 순서에 따라 가운데에 위치하는 부호화 단위(1414b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1414c)는 인덱스가 2가 증가한 3일수 있다. 즉 인덱스의 값의 불연속성이 존재할 수 있다. 일 실시예에 따라 복호화부(130)는 이러한 분할된 부호화 단위들 간의 구분을 위한 인덱스의 불연속성의 존재 여부에 기초하여 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌지 여부를 결정할 수 있다.
(PID를 이용하여 tri-split 결정)
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위로부터 분할되어 결정된 복수개의 부호화 단위들을 구분하기 위한 인덱스의 값에 기초하여 특정 분할 형태로 분할된 것인지를 결정할 수 있다. 도 14를 참조하면 영상 복호화 장치(100)는 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)를 분할하여 짝수개의 부호화 단위(1412a, 1412b)를 결정하거나 홀수개의 부호화 단위(1414a, 1414b, 1414c)를 결정할 수 있다. 영상 복호화 장치(100)는 복수개의 부호화 단위 각각을 구분하기 위하여 각 부호화 단위를 나타내는 인덱스(PID)를 이용할 수 있다. 일 실시예에 따라 PID는 각각의 부호화 단위의 소정 위치의 샘플(예를 들면, 좌측 상단 샘플)에서 획득될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 구분을 위한 인덱스를 이용하여 분할되어 결정된 부호화 단위들 중 소정 위치의 부호화 단위를 결정할 수 있다. 일 실시예에 따라 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)에 대한 분할 형태 정보가 3개의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(100)는 제1 부호화 단위(1410)를 3개의 부호화 단위(1414a, 1414b, 1414c)로 분할할 수 있다. 영상 복호화 장치(100)는 3개의 부호화 단위(1414a, 1414b, 1414c) 각각에 대한 인덱스를 할당할 수 있다. 영상 복호화 장치(100)는 홀수개로 분할된 부호화 단위 중 가운데 부호화 단위를 결정하기 위하여 각 부호화 단위에 대한 인덱스를 비교할 수 있다. 영상 복호화 장치(100)는 부호화 단위들의 인덱스에 기초하여 인덱스들 중 가운데 값에 해당하는 인덱스를 갖는 부호화 단위(1414b)를, 제1 부호화 단위(1410)가 분할되어 결정된 부호화 단위 중 가운데 위치의 부호화 단위로서 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 분할된 부호화 단위들의 구분을 위한 인덱스를 결정함에 있어서, 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 14를 참조하면, 제1 부호화 단위(1410)가 분할되어 생성된 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1414a, 1414c)의 높이의 두 배일 수 있다. 이 경우 가운데에 위치하는 부호화 단위(1414b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1414c)는 인덱스가 2가 증가한 3일수 있다. 이러한 경우처럼 균일하게 인덱스가 증가하다가 증가폭이 달라지는 경우, 영상 복호화 장치(100)는 다른 부호화 단위들과 다른 크기를 가지는 부호화 단위를 포함하는 복수개의 부호화 단위로 분할된 것으로 결정할 수 있다, 일 실시예에 따라 분할 형태 정보가 홀수개의 부호화 단위로 분할됨을 나타내는 경우, 영상 복호화 장치(100)는 홀수개의 부호화 단위 중 소정 위치의 부호화 단위(예를 들면 가운데 부호화 단위)가 다른 부호화 단위와 크기가 다른 형태로 현재 부호화 단위를 분할할 수 있다. 이 경우 영상 복호화 장치(100)는 부호화 단위에 대한 인덱스(PID)를 이용하여 다른 크기를 가지는 가운데 부호화 단위를 결정할 수 있다. 다만 상술한 인덱스, 결정하고자 하는 소정 위치의 부호화 단위의 크기 또는 위치는 일 실시예를 설명하기 위해 특정한 것이므로 이에 한정하여 해석되어서는 안되며, 다양한 인덱스, 부호화 단위의 위치 및 크기가 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 복호화부(130)는 부호화 단위의 재귀적인 분할이 시작되는 소정의 데이터 단위를 이용할 수 있다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
일 실시예에 따라 소정의 데이터 단위는 부호화 단위가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 재귀적으로 분할되기 시작하는 데이터 단위로 정의될 수 있다. 즉, 현재 픽쳐를 분할하는 복수개의 부호화 단위들이 결정되는 과정에서 이용되는 최상위 심도의 부호화 단위에 해당할 수 있다. 이하에서는 설명 상 편의를 위해 이러한 소정의 데이터 단위를 기준 데이터 단위라고 지칭하도록 한다.
일 실시예에 따라 기준 데이터 단위는 소정의 크기 및 형태를 나타낼 수 있다. 일 실시예에 따라, 기준 부호화 단위는 MxN의 샘플들을 포함할 수 있다. 여기서 M 및 N은 서로 동일할 수도 있으며, 2의 승수로 표현되는 정수일 수 있다. 즉, 기준 데이터 단위는 정사각형 또는 비-정사각형의 형태를 나타낼 수 있으며, 이후에 정수개의 부호화 단위로 분할될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)의 복호화부(130)는 현재 픽쳐를 복수개의 기준 데이터 단위로 분할할 수 있다. 일 실시예에 따라 복호화부(130)는 현재 픽쳐를 분할하는 복수개의 기준 데이터 단위를 각각의 기준 데이터 단위에 대한 분할 정보를 이용하여 분할할 수 있다. 이러한 기준 데이터 단위의 분할 과정은 쿼드 트리(quad-tree)구조를 이용한 분할 과정에 대응될 수 있다.
일 실시예에 따라 복호화부(130)는 현재 픽쳐에 포함되는 기준 데이터 단위가 가질 수 있는 최소 크기를 미리 결정할 수 있다. 이에 따라, 복호화부(130)는 최소 크기 이상의 크기를 갖는 다양한 크기의 기준 데이터 단위를 결정할 수 있고, 결정된 기준 데이터 단위를 기준으로 블록 형태 정보 및 분할 형태 정보를 이용하여 적어도 하나의 부호화 단위를 결정할 수 있다.
도 15를 참조하면, 영상 복호화 장치(100)는 정사각형 형태의 기준 부호화 단위(1500)를 이용할 수 있고, 또는 비-정사각형 형태의 기준 부호화 단위(1502)를 이용할 수도 있다. 일 실시예에 따라 기준 부호화 단위의 형태 및 크기는 적어도 하나의 기준 부호화 단위를 포함할 수 있는 다양한 데이터 단위(예를 들면, 시퀀스(sequence), 픽쳐(picture), 슬라이스(slice), 슬라이스 세그먼트(slice segment), 최대부호화단위 등)에 따라 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)의 비트스트림 획득부(120)는 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보 중 적어도 하나를 상기 다양한 데이터 단위마다 비트스트림으로부터 획득할 수 있다. 정사각형 형태의 기준 부호화 단위(1500)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 3의 현재 부호화 단위(300)가 분할되는 과정을 통해 상술하였고, 비-정사각형 형태의 기준 부호화 단위(1500)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 4의 현재 부호화 단위(400 또는 450)가 분할되는 과정을 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 복호화부(130)는 소정의 조건에 기초하여 미리 결정되는 일부 데이터 단위에 따라 기준 부호화 단위의 크기 및 형태를 결정하기 위하여, 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용할 수 있다. 즉, 비트스트림 획득부(120)는 비트스트림으로부터 상기 다양한 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 최대부호화단위 등) 중 소정의 조건(예를 들면 슬라이스 이하의 크기를 갖는 데이터 단위)을 만족하는 데이터 단위로서 슬라이스, 슬라이스 세그먼트, 최대부호화 단위 등 마다, 기준 부호화 단위의 크기 및 형태의 식별을 위한 인덱스만을 획득할 수 있다. 복호화부(130)는 인덱스를 이용함으로써 상기 소정의 조건을 만족하는 데이터 단위마다 기준 데이터 단위의 크기 및 형태를 결정할 수 있다. 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 상대적으로 작은 크기의 데이터 단위마다 비트스트림으로부터 획득하여 이용하는 경우, 비트스트림의 이용 효율이 좋지 않을 수 있으므로, 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 직접 획득하는 대신 상기 인덱스만을 획득하여 이용할 수 있다. 이 경우 기준 부호화 단위의 크기 및 형태를 나타내는 인덱스와 관련된 기준 부호화 단위의 크기 및 형태 중 적어도 하나는 미리 결정되어 있을 수 있다. 즉, 복호화부(130)는 미리 결정된 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 인덱스에 따라 선택함으로써, 인덱스 획득의 기준이 되는 데이터 단위에 포함되는 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 결정할 수 있다.
일 실시예에 따라 복호화부(130)는 하나의 최대 부호화 단위에 포함하는 적어도 하나의 기준 부호화 단위를 이용할 수 있다. 즉, 영상을 분할하는 최대 부호화 단위에는 적어도 하나의 기준 부호화 단위가 포함될 수 있고, 각각의 기준 부호화 단위의 재귀적인 분할 과정을 통해 부호화 단위가 결정될 수 있다. 일 실시예에 따라 최대 부호화 단위의 너비 및 높이 중 적어도 하나는 기준 부호화 단위의 너비 및 높이 중 적어도 하나의 정수배에 해당할 수 있다. 일 실시예에 따라 기준 부호화 단위의 크기는 최대부호화단위를 쿼드 트리 구조에 따라 n번 분할한 크기일 수 있다. 즉, 복호화부(130)는 최대부호화단위를 쿼드 트리 구조에 따라 n 번 분할하여 기준 부호화 단위를 결정할 수 있고, 다양한 실시예들에 따라 기준 부호화 단위를 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 분할할 수 있다.
도 16은 일 실시예에 따라 픽쳐(1600)에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
일 실시예에 따라 복호화부(130)는 픽쳐를 분할하는 적어도 하나의 프로세싱 블록을 결정할 수 있다. 프로세싱 블록이란, 영상을 분할하는 적어도 하나의 기준 부호화 단위를 포함하는 데이터 단위로서, 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위는 특정 순서대로 결정될 수 있다. 즉, 각각의 프로세싱 블록에서 결정되는 적어도 하나의 기준 부호화 단위의 결정 순서는 기준 부호화 단위가 결정될 수 있는 다양한 순서의 종류 중 하나에 해당할 수 있으며, 각각의 프로세싱 블록에서 결정되는 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록마다 결정되는 기준 부호화 단위의 결정 순서는 래스터 스캔(raster scan), Z 스캔(Z-scan), N 스캔(N-scan), 우상향 대각 스캔(up-right diagonal scan), 수평적 스캔(horizontal scan), 수직적 스캔(vertical scan) 등 다양한 순서 중 하나일 수 있으나, 결정될 수 있는 순서는 상기 스캔 순서들에 한정하여 해석되어서는 안 된다.
일 실시예에 따라 복호화부(130)는 프로세싱 블록의 크기에 대한 정보를 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 복호화부(130)는 프로세싱 블록의 크기에 대한 정보를 비트스트림으로부터 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 이러한 프로세싱 블록의 크기는 프로세싱 블록의 크기에 대한 정보가 나타내는 데이터 단위의 소정의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)의 비트스트림 획득부(120)는 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 특정의 데이터 단위마다 획득할 수 있다. 예를 들면 프로세싱 블록의 크기에 대한 정보는 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트 등의 데이터 단위로 비트스트림으로부터 획득될 수 있다. 즉 비트스트림 획득부(120)는 상기 여러 데이터 단위마다 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 획득할 수 있고 복호화부(130)는 획득된 프로세싱 블록의 크기에 대한 정보를 이용하여 픽쳐를 분할하는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있으며, 이러한 프로세싱 블록의 크기는 기준 부호화 단위의 정수배의 크기일 수 있다.
일 실시예에 따라 복호화부(130)는 픽쳐(1600)에 포함되는 프로세싱 블록(1602, 1612)의 크기를 결정할 수 있다. 예를 들면, 복호화부(130)는 비트스트림으로부터 획득된 프로세싱 블록의 크기에 대한 정보에 기초하여 프로세싱 블록의 크기를 결정할 수 있다. 도 16을 참조하면, 복호화부(130)는 일 실시예에 따라 프로세싱 블록(1602, 1612)의 가로크기를 기준 부호화 단위 가로크기의 4배, 세로크기를 기준 부호화 단위의 세로크기의 4배로 결정할 수 있다. 복호화부(130)는 적어도 하나의 프로세싱 블록 내에서 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다.
일 실시예에 따라, 복호화부(130)는 프로세싱 블록의 크기에 기초하여 픽쳐(1600)에 포함되는 각각의 프로세싱 블록(1602, 1612)을 결정할 수 있고, 기준 부호화 단위 결정부(12)는 프로세싱 블록(1602, 1612)에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서를 결정할 수 있다. 일 실시예에 따라 기준 부호화 단위의 결정은 기준 부호화 단위의 크기의 결정을 포함할 수 있다.
일 실시예에 따라 복호화부(130)는 비트스트림으로부터 적어도 하나의 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서에 대한 정보를 획득할 수 있고, 획득한 결정 순서에 대한 정보에 기초하여 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다. 결정 순서에 대한 정보는 프로세싱 블록 내에서 기준 부호화 단위들이 결정되는 순서 또는 방향으로 정의될 수 있다. 즉, 기준 부호화 단위들이 결정되는 순서는 각각의 프로세싱 블록마다 독립적으로 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 특정 데이터 단위마다 기준 부호화 단위의 결정 순서에 대한 정보를 비트스트림으로부터 획득할 수 있다. 예를 들면, 비트스트림 획득부(120)는 기준 부호화 단위의 결정 순서에 대한 정보를 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 프로세싱 블록 등의 데이터 단위로마다 비트스트림으로부터 획득할 수 있다. 기준 부호화 단위의 결정 순서에 대한 정보는 프로세싱 블록 내에서의 기준 부호화 단위 결정 순서를 나타내므로, 결정 순서에 대한 정보는 정수개의 프로세싱 블록을 포함하는 특정 데이터 단위 마다 획득될 수 있다.
영상 복호화 장치(100)는 일 실시예에 따라 결정된 순서에 기초하여 적어도 하나의 기준 부호화 단위를 결정할 수 있다.
일 실시예에 따라 비트스트림 획득부(120)는 비트스트림으로부터 프로세싱 블록(1602, 1612)과 관련된 정보로서, 기준 부호화 단위 결정 순서에 대한 정보를 획득할 수 있고, 복호화부(130)는 상기 프로세싱 블록(1602, 1612)에 포함된 적어도 하나의 기준 부호화 단위를 결정하는 순서를 결정하고 부호화 단위의 결정 순서에 따라 픽쳐(1600)에 포함되는 적어도 하나의 기준 부호화 단위를 결정할 수 있다. 도 16을 참조하면, 복호화부(130)는 각각의 프로세싱 블록(1602, 1612)과 관련된 적어도 하나의 기준 부호화 단위의 결정 순서(1604, 1614)를 결정할 수 있다. 예를 들면, 기준 부호화 단위의 결정 순서에 대한 정보가 프로세싱 블록마다 획득되는 경우, 각각의 프로세싱 블록(1602, 1612)과 관련된 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록(1602)과 관련된 기준 부호화 단위 결정 순서(1604)가 래스터 스캔(raster scan)순서인 경우, 프로세싱 블록(1602)에 포함되는 기준 부호화 단위는 래스터 스캔 순서에 따라 결정될 수 있다. 이에 반해 다른 프로세싱 블록(1612)과 관련된 기준 부호화 단위 결정 순서(1614)가 래스터 스캔 순서의 역순인 경우, 프로세싱 블록(1612)에 포함되는 기준 부호화 단위는 래스터 스캔 순서의 역순에 따라 결정될 수 있다.
복호화부(130)는 일 실시예에 따라, 결정된 적어도 하나의 기준 부호화 단위를 복호화할 수 있다. 복호화부(130)는 상술한 실시예를 통해 결정된 기준 부호화 단위에 기초하여 영상을 복호화 할 수 있다. 기준 부호화 단위를 복호화 하는 방법은 영상을 복호화 하는 다양한 방법들을 포함할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위의 형태를 나타내는 블록 형태 정보 또는 현재 부호화 단위를 분할하는 방법을 나타내는 분할 형태 정보를 비트스트림으로부터 획득하여 이용할 수 있다. 블록 형태 정보 또는 분할 형태 정보는 다양한 데이터 단위와 관련된 비트스트림에 포함될 수 있다. 예를 들면, 영상 복호화 장치(100)는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header)에 포함된 블록 형태 정보 또는 분할 형태 정보를 이용할 수 있다. 나아가, 영상 복호화 장치(100)는 최대 부호화 단위, 기준 부호화 단위, 프로세싱 블록마다 비트스트림으로부터 블록 형태 정보 또는 분할 형태 정보와 관련된 신택스를 비트스트림으로부터 획득하여 이용할 수 있다.
일 실시예에 따라 복호화부(130)는 부호화 단위가 분할될 수 있는 분할 형태의 종류를 소정의 데이터 단위마다 다르게 결정할 수 있다. 영상 복호화 장치(100)의 복호화부(130)는 일 실시예에 따라 소정의 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스 등)마다 부호화 단위가 분할될 수 있는 형태들의 조합을 다르게 결정할 수 있다.
도 17은 일 실시예에 따라 부호화 단위가 분할될 수 있는 형태의 조합이 픽쳐마다 서로 다른 경우, 각각의 픽쳐마다 결정될 수 있는 부호화 단위들을 도시한다.
도 17을 참조하면, 복호화부(130)는 픽쳐마다 부호화 단위가 분할될 수 있는 분할 형태들의 조합을 다르게 결정할 수 있다. 예를 들면, 복호화부(130)는 영상에 포함되는 적어도 하나의 픽쳐들 중 4개의 부호화 단위로 분할될 수 있는 픽쳐(1700), 2개 또는 4개의 부호화 단위로 분할될 수 있는 픽쳐(1710) 및 2개, 3개 또는 4개의 부호화 단위로 분할될 수 있는 픽쳐(1720)를 이용하여 영상을 복호화 할 수 있다. 복호화부(130)는 픽쳐(1700)를 복수개의 부호화 단위로 분할하기 위하여, 4개의 정사각형의 부호화 단위로 분할됨을 나타내는 분할 형태 정보만을 이용할 수 있다. 복호화부(130)는 픽쳐(1710)를 분할하기 위하여, 2개 또는 4개의 부호화 단위로 분할됨을 나타내는 분할 형태 정보만을 이용할 수 있다. 복호화부(130)는 픽쳐(1720)를 분할하기 위하여, 2개, 3개 또는 4개의 부호화 단위로 분할됨을 나타내는 분할 형태 정보만을 이용할 수 있다. 상술한 분할 형태의 조합은 영상 복호화 장치(100)의 동작을 설명하기 위한 실시예에 불과하므로 상술한 분할 형태의 조합은 상기 실시예에 한정하여 해석되어서는 안되며 소정의 데이터 단위마다 다양한 형태의 분할 형태의 조합이 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)의 비트스트림 획득부(120)는 분할 형태 정보의 조합을 나타내는 인덱스를 포함하는 비트스트림을 소정의 데이터 단위 (예를 들면, 시퀀스, 픽쳐, 슬라이스 등)마다 획득할 수 있다. 예를 들면, 비트스트림 획득부(120)는 시퀀스 파라미터 세트(Sequence Parameter Set), 픽쳐 파라미터 세트(Picture Parameter Set) 또는 슬라이스 헤더(Slice Header)에서 분할 형태 정보의 조합을 나타내는 인덱스를 획득할 수 있다. 영상 복호화 장치(100)의 복호화부(130)는 획득한 인덱스를 이용하여 소정의 데이터 단위마다 부호화 단위가 분할될 수 있는 분할 형태의 조합을 결정할 수 있으며, 이에 따라 소정의 데이터 단위마다 서로 다른 분할 형태의 조합을 이용할 수 있다.
도 18은 일 실시예에 따라 바이너리(binary)코드로 표현될 수 있는 분할 형태 정보에 기초하여 결정될 수 있는 부호화 단위의 다양한 형태를 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 비트스트림 획득부(120)를 통해 획득한 블록 형태 정보 및 분할 형태 정보를 이용하여 부호화 단위를 다양한 형태로 분할할 수 있다. 분할될 수 있는 부호화 단위의 형태는 상술한 실시예들을 통해 설명한 형태들을 포함하는 다양한 형태에 해당할 수 있다.
도 18을 참조하면, 복호화부(130)는 분할 형태 정보에 기초하여 정사각형 형태의 부호화 단위를 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할할 수 있고, 비-정사각형 형태의 부호화 단위를 수평 방향 또는 수직 방향으로 분할할 수 있다.
일 실시예에 따라 복호화부(130)가 정사각형 형태의 부호화 단위를 수평 방향 및 수직 방향으로 분할하여 4개의 정사각형의 부호화 단위로 분할할 수 있는 경우, 정사각형의 부호화 단위에 대한 분할 형태 정보가 나타낼 수 있는 분할 형태는 4가지일 수 있다. 일 실시예에 따라 분할 형태 정보는 2자리의 바이너리 코드로써 표현될 수 있으며, 각각의 분할 형태마다 바이너리 코드가 할당될 수 있다. 예를 들면 부호화 단위가 분할되지 않는 경우 분할 형태 정보는 (00)b로 표현될 수 있고, 부호화 단위가 수평 방향 및 수직 방향으로 분할되는 경우 분할 형태 정보는 (01)b로 표현될 수 있고, 부호화 단위가 수평 방향으로 분할되는 경우 분할 형태 정보는 (10)b로 표현될 수 있고 부호화 단위가 수직 방향으로 분할되는 경우 분할 형태 정보는 (11)b로 표현될 수 있다.
일 실시예에 따라 복호화부(130)는 비-정사각형 형태의 부호화 단위를 수평 방향 또는 수직 방향으로 분할하는 경우 분할 형태 정보가 나타낼 수 있는 분할 형태의 종류는 몇 개의 부호화 단위로 분할하는지에 따라 결정될 수 있다. 도 18을 참조하면, 복호화부(130)는 일 실시예에 따라 비-정사각형 형태의 부호화 단위를 3개까지 분할할 수 있다. 복호화부(130)는 부호화 단위를 두 개의 부호화 단위로 분할할 수 있으며, 이 경우 분할 형태 정보는 (10)b로 표현될 수 있다. 복호화부(130)는 부호화 단위를 세 개의 부호화 단위로 분할할 수 있으며, 이 경우 분할 형태 정보는 (11)b로 표현될 수 있다. 복호화부(130)는 부호화 단위를 분할하지 않는 것으로 결정할 수 있으며, 이 경우 분할 형태 정보는 (0)b로 표현될 수 있다. 즉, 복호화부(130)는 분할 형태 정보를 나타내는 바이너리 코드를 이용하기 위하여 고정길이 코딩(FLC: Fixed Length Coding)이 아니라 가변길이 코딩(VLC: Variable Length Coding)을 이용할 수 있다.
일 실시예에 따라 도 18을 참조하면, 부호화 단위가 분할되지 않는 것을 나타내는 분할 형태 정보의 바이너리 코드는 (0)b로 표현될 수 있다. 만일 부호화 단위가 분할되지 않음을 나타내는 분할 형태 정보의 바이너리 코드가 (00)b로 설정된 경우라면, (01)b로 설정된 분할 형태 정보가 없음에도 불구하고 2비트의 분할 형태 정보의 바이너리 코드를 모두 이용하여야 한다. 하지만 도 18에서 도시하는 바와 같이, 비-정사각형 형태의 부호화 단위에 대한 3가지의 분할 형태를 이용하는 경우라면, 복호화부(130)는 분할 형태 정보로서 1비트의 바이너리 코드(0)b를 이용하더라도 부호화 단위가 분할되지 않는 것을 결정할 수 있으므로, 비트스트림을 효율적으로 이용할 수 있다. 다만 분할 형태 정보가 나타내는 비-정사각형 형태의 부호화 단위의 분할 형태는 단지 도 18에서 도시하는 3가지 형태만으로 국한되어 해석되어서는 안되고, 상술한 실시예들을 포함하는 다양한 형태로 해석되어야 한다.
도 19는 일 실시예에 따라 바이너리 코드로 표현될 수 있는 분할 형태 정보에 기초하여 결정될 수 있는 부호화 단위의 또 다른 형태를 도시한다.
도 19를 참조하면 복호화부(130)는 분할 형태 정보에 기초하여 정사각형 형태의 부호화 단위를 수평 방향 또는 수직 방향으로 분할할 수 있고, 비-정사각형 형태의 부호화 단위를 수평 방향 또는 수직 방향으로 분할할 수 있다. 즉, 분할 형태 정보는 정사각형 형태의 부호화 단위를 한쪽 방향으로 분할되는 것을 나타낼 수 있다. 이러한 경우 정사각형 형태의 부호화 단위가 분할되지 않는 것을 나타내는 분할 형태 정보의 바이너리 코드는 (0)b로 표현될 수 있다. 만일 부호화 단위가 분할되지 않음을 나타내는 분할 형태 정보의 바이너리 코드가 (00)b로 설정된 경우라면, (01)b로 설정된 분할 형태 정보가 없음에도 불구하고 2비트의 분할 형태 정보의 바이너리 코드를 모두 이용하여야 한다. 하지만 도 19에서 도시하는 바와 같이, 정사각형 형태의 부호화 단위에 대한 3가지의 분할 형태를 이용하는 경우라면, 복호화부(130)는 분할 형태 정보로서 1비트의 바이너리 코드(0)b를 이용하더라도 부호화 단위가 분할되지 않는 것을 결정할 수 있으므로, 비트스트림을 효율적으로 이용할 수 있다. 다만 분할 형태 정보가 나타내는 정사각형 형태의 부호화 단위의 분할 형태는 단지 도 19에서 도시하는 3가지 형태만으로 국한되어 해석되어서는 안되고, 상술한 실시예들을 포함하는 다양한 형태로 해석되어야 한다.
일 실시예에 따라 블록 형태 정보 또는 분할 형태 정보는 바이너리 코드를 이용하여 표현될 수 있고, 이러한 정보가 곧바로 비트스트림으로 생성될 수 있다. 또한 바이너리 코드로 표현될 수 있는 블록 형태 정보 또는 분할 형태 정보는 바로 비트스트림으로 생성되지 않고 CABAC(context adaptive binary arithmetic coding)에서 입력되는 바이너리 코드로서 이용될 수도 있다.
일 실시예에 따라 영상 복호화 장치(100)는 CABAC을 통해 블록 형태 정보 또는 분할 형태 정보에 대한 신택스를 획득하는 과정을 설명한다. 비트스트림 획득부(120)를 통해 상기 신택스에 대한 바이너리 코드를 포함하는 비트스트림을 획득할 수 있다. 복호화부(130)는 획득한 비트스트림에 포함되는 빈 스트링(bin string)을 역 이진화하여 블록 형태 정보 또는 분할 형태 정보를 나타내는 신택스 요소(syntax element)를 검출할 수 있다. 일 실시예에 따라 복호화부(130)는 복호화할 신택스 요소에 해당하는 바이너리 빈 스트링의 집합을 구하고, 확률 정보를 이용하여 각각의 빈을 복호화할 수 있고, 복호화부(130)는 이러한 복호화된 빈으로 구성되는 빈 스트링이 이전에 구한 빈 스트링들 중 하나와 같아질 때까지 반복할 수 있다. 복호화부(130)는 빈 스트링의 역 이진화를 수행하여 신택스 요소를 결정할 수 있다.
일 실시예에 따라 복호화부(130)는 적응적 이진 산술 코딩(adaptive binary arithmetic coding)의 복호화 과정을 수행하여 빈 스트링에 대한 신택스를 결정할 수 있고, 복호화부(130)는 비트스트림 획득부(120)를 통해 획득한 빈들에 대한 확률 모델을 갱신할 수 있다. 도 18을 참조하면, 영상 복호화 장치(100)의 비트스트림 획득부(120)는 일 실시예에 따라 분할 형태 정보를 나타내는 바이너리 코드를 나타내는 비트스트림을 획득할 수 있다. 획득한 1비트 또는 2비트의 크기를 가지는 바이너리 코드를 이용하여 복호화부(130)는 분할 형태 정보에 대한 신택스를 결정할 수 있다. 복호화부(130)는 분할 형태 정보에 대한 신택스를 결정하기 위하여, 2비트의 바이너리 코드 중 각각의 비트에 대한 확률을 갱신할 수 있다. 즉, 복호화부(130)는 2비트의 바이너리 코드 중 첫번째 빈의 값이 0 또는 1 중 어떤 값이냐에 따라, 다음 빈을 복호화 할 때 0 또는 1의 값을 가질 확률을 갱신할 수 있다.
일 실시예에 따라 복호화부(130)는 신택스를 결정하는 과정에서, 신택스에 대한 빈 스트링의 빈들을 복호화 하는 과정에서 이용되는 빈들에 대한 확률을 갱신할 수 있으며, 복호화부(130)는 상기 빈 스트링 중 특정 비트에서는 확률을 갱신하지 않고 동일한 확률을 가지는 것으로 결정할 수 있다.
도 18을 참조하면, 비-정사각형 형태의 부호화 단위에 대한 분할 형태 정보를 나타내는 빈 스트링을 이용하여 신택스를 결정하는 과정에서, 복호화부(130)는 비-정사각형 형태의 부호화 단위를 분할하지 않는 경우에는 0의 값을 가지는 하나의 빈을 이용하여 분할 형태 정보에 대한 신택스를 결정할 수 있다. 즉, 블록 형태 정보가 현재 부호화 단위는 비-정사각형 형태임을 나타내는 경우, 분할 형태 정보에 대한 빈 스트링의 첫번째 빈은, 비-정사각형 형태의 부호화 단위가 분할되지 않는 경우 0이고, 2개 또는 3개의 부호화 단위로 분할되는 경우 1일 수 있다. 이에 따라 비-정사각형의 부호화 단위에 대한 분할 형태 정보의 빈 스트링의 첫번째 빈이 0일 확률은 1/3, 1일 확률은 2/3일 수 있다. 상술하였듯이 복호화부(130)는 비-정사각형 형태의 부호화 단위가 분할되지 않는 것을 나타내는 분할 형태 정보는 0의 값을 가지는 1비트의 빈 스트링만을 표현될 수 있으므로, 복호화부(130)는 분할 형태 정보의 첫번째 빈이 1인 경우에만 두번째 빈이 0인지 1인지 판단하여 분할 형태 정보에 대한 신택스를 결정할 수 있다. 일 실시예에 따라 복호화부(130)는 분할 형태 정보에 대한 첫번째 빈이 1인 경우, 두번째 빈이 0 또는 1일 확률은 서로 동일한 확률인 것으로 보고 빈을 복호화할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 정보에 대한 빈 스트링의 빈을 결정하는 과정에서 각각의 빈에 대한 다양한 확률을 이용할 수 있다. 일 실시예에 따라 복호화부(130)는 비-정사각형 블록의 방향에 따라 분할 형태 정보에 대한 빈의 확률을 다르게 결정할 수 있다. 일 실시예에 따라 복호화부(130)는 현재 부호화 단위의 넓이 또는 긴 변의 길이에 따라 분할 형태 정보에 대한 빈의 확률을 다르게 결정할 수 있다. 일 실시예에 따라 복호화부(130)는 현재 부호화 단위의 형태 및 긴 변의 길이 중 적어도 하나에 따라 분할 형태 정보에 대한 빈의 확률을 다르게 결정할 수 있다.
일 실시예에 따라 복호화부(130)는 소정 크기 이상의 부호화 단위들에 대하여는 분할 형태 정보에 대한 빈의 확률을 동일한 것으로 결정할 수 있다. 예를 들면, 부호화 단위의 긴 변의 길이를 기준으로 64샘플 이상의 크기의 부호화 단위들에 대하여는 분할 형태 정보에 대한 빈의 확률이 동일한 것으로 결정할 수 있다.
일 실시예에 따라 복호화부(130)는 분할 형태 정보의 빈 스트링을 구성하는 빈들에 대한 초기 확률은 슬라이스 타입(예를 들면, I 슬라이스, P 슬라이스 또는 B 슬라이스)에 기초하여 결정될 수 있다.
도 20는 루프 필터링을 수행하는 영상 부호화 및 복호화 시스템의 블록도를 나타낸 도면이다.
영상 부호화 및 복호화 시스템(2000)의 부호화단(2010)은 영상의 부호화된 비트스트림을 전송하고, 복호화단(2050)은 비트스트림을 수신하여 복호화함으로써 복원 영상을 출력한다. 여기서 부호화단(2010)은 후술할 영상 부호화 장치(200)에 유사한 구성일 수 있고, 복호화단(2050)은 영상 복호화 장치(100)에 유사한 구성일 수 있다.
부호화단(2010)에서, 예측 부호화부(2015)는 인터 예측 및 인트라 예측을 통해 참조 영상을 출력하고, 변환 및 양자화부(2020)는 참조 영상과 현재 입력 영상 간의 레지듀얼 데이터를 양자화된 변환 계수로 양자화하여 출력한다. 엔트로피 부호화부(2025)는 양자화된 변환 계수를 부호화하여 변환하고 비트스트림으로 출력한다. 양자화된 변환 계수는 역양자화 및 역변환부(2030)을 거쳐 공간 영역의 데이터로 복원되고, 복원된 공간 영역의 데이터는 디블로킹 필터링부(2035) 및 루프 필터링부(2040)를 거쳐 복원 영상으로 출력된다. 복원 영상은 예측 부호화부(2015)를 거쳐 다음 입력 영상의 참조 영상으로 사용될 수 있다.
복호화단(2050)으로 수신된 비트스트림 중 부호화된 영상 데이터는, 엔트로피 복호화부(2055) 및 역양자화 및 역변환부(2060)를 거쳐 공간 영역의 레지듀얼 데이터로 복원된다. 예측 복호화부(2075)로부터 출력된 참조 영상 및 레지듀얼 데이터가 조합되어 공간 영역의 영상 데이터가 구성되고, 디블로킹 필터링부(2065) 및 루프 필터링부(2070)는 공간 영역의 영상 데이터에 대해 필터링을 수행하여 현재 원본 영상에 대한 복원 영상을 출력할 수 있다. 복원 영상은 예측 복호화부(2075)에 의해 다음 원본 영상에 대한 참조 영상으로서 이용될 수 있다.
부호화단(2010)의 루프 필터링부(2040)는 사용자 입력 또는 시스템 설정에 따라 입력된 필터 정보를 이용하여 루프 필터링을 수행한다. 루프 필터링부(2040)에 의해 사용된 필터 정보는 엔트로피 부호화부(2010)로 출력되어, 부호화된 영상 데이터와 함께 복호화단(2050)으로 전송된다. 복호화단(2050)의 루프 필터링부(2070)는 복호화단(2050)으로부터 입력된 필터 정보에 기초하여 루프 필터링을 수행할 수 있다.
도 21은 일 실시예에 따른 최대 부호화 단위에 포함되는 필터링 단위들의 일례와 필터링 단위의 필터링 수행 정보를 나타낸 도면이다.
부호화단(2010)의 루프 필터링부(2040) 및 복호화단(2050)의 루프 필터링부(2070)의 필터링 단위가, 도 3 내지 도 5를 통해 전술한 일 실시예에 따른 부호화 단위와 유사한 데이터 단위로 구성된다면, 필터 정보는 필터링 단위를 나타내기 위한 데이터 단위의 블록 형태 정보 및 분할 형태 정보, 그리고 필터링 단위에 대한 루프 필터링 수행 여부를 나타내는 루프 필터링 수행 정보를 포함할 수 있다.
일 실시예에 따른 최대 부호화 단위(2100)에 포함된 필터링 단위들은 최대 부호화 단위(2100)에 포함된 부호화 단위들과 동일한 블록 형태 및 분할 형태를 가질 수 있다. 또한, 일 실시예에 따른 최대 부호화 단위(2100)에 포함된 필터링 단위들은 최대 부호화 단위(2100)에 포함된 부호화 단위들의 크기를 기준으로 분할될 수 있다. 도 21을 참조하여 예를 들면, 필터링 단위들은 심도 D의 정사각형 형태의 필터링 단위(2140), 심도 D의 비-정사각형 형태의 필터링 단위(2132, 2134), 심도 D+1의 정사각형 형태의 필터링 단위(2112, 2114, 2116, 2152, 2154, 2164), 심도 D+1의 비-정사각형 형태의 필터링 단위(2162, 2166), 심도 D+2의 정사각형 형태의 필터링 단위(2122, 2124, 2126, 2128)를 포함할 수 있다.
최대 부호화 단위(2100)에 포함된 필터링 단위들의 블록 형태 정보, 분할 형태 정보(심도) 및 루프 필터링 수행 정보는 아래 표 1과 같이 부호화될 수 있다.
Figure PCTKR2016013529-appb-T000001
일 실시예에 따른 블록 형태 정보 및 블록 분할 정보에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 과정은, 도 13을 통해 전술한 바와 같다. 일 실시예에 따른 필터링 단위들의 루프 필터링 수행 정보는, 플래그 값이 1인 경우 해당 필터링 단위에 대해 루프 필터링이 수행됨을 나타내며, 0인 경우 루프 필터링이 수행되지 않음을 나타낸다. 표 1을 참조하면, 루프 필터링부(2040, 2070)에 의해 필터링의 대상이 되는 필터링 단위를 결정하기 위한 데이터 단위의 정보들은 필터 정보로서 모두 부호화되어 전송될 수 있다.
일 실시예에 따라 구성된 부호화 단위들은, 원본 영상과의 오차를 최소화하는 형태로 구성된 부호화 단위이므로, 부호화 단위 내에서 공간적 상관도가 높다고 예상된다. 따라서, 일 실시예에 따른 부호화 단위에 기반하여 필터링 단위가 결정됨으로써, 부호화 단위의 결정과 별도로 필터링 단위를 결정하는 동작이 생략될 수도 있다. 또한 이에 따라, 일 실시예에 따른 부호화 단위에 기반하여 필터링 단위를 결정함으로써 필터링 단위의 분할 형태를 결정하기 위한 정보를 생략할 수 있으므로 필터 정보의 전송 비트레이트를 절약할 수 있다.
전술한 실시예에서는 필터링 단위가 일 실시예에 따른 부호화 단위에 기반하여 결정되는 것으로 설명하였지만, 부호화 단위에 기반하여 필터링 단위의 분할을 수행하다가 임의의 심도에서 더 이상 분할하지 않고 해당 심도까지만 필터링 단위의 형태가 결정될 수도 있다.
전술한 실시예에 개시된 필터링 단위의 결정은 루프 필터링 뿐만 아니라, 디블로킹 필터링, 적응적 루프 필터링 등 다양한 실시예에도 적용될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 현재 부호화 단위를 분할할 수 있으며, 블록 형태 정보는 정사각형 형태만을 이용하는 것으로 미리 결정되고, 분할 형태 정보는 분할하지 않거나 또는 4개의 정사각형 형태의 부호화 단위로 분할됨을 나타낼 수 있는 것으로 미리 결정될 수 있다. 즉, 현재 부호화 단위는 상기 블록 형태 정보에 따르면 부호화 단위는 항상 정사각형 형태를 가지고, 상기 분할 형태 정보에 기초하여 분할되지 않거나 4개의 정사각형 형태의 부호화 단위들로 분할될 수 있다. 영상 복호화 장치(100)는 이러한 블록 형태 및 분할 형태만을 이용하는 것으로 미리 결정된 소정의 부호화 방법을 이용하여 생성된 비트스트림을 비트스트림 획득부(110)를 통해 획득할 수 있고, 복호화부(120)는 미리 결정된 블록 형태 및 분할 형태만을 이용할 수 있다. 이러한 경우 영상 복호화 장치(100)는 상술한 소정의 부호화 방법과 유사한 소정의 복호화 방법을 이용함으로써 소정의 부호화 방법과의 호환성 문제를 해결할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 정보가 나타낼 수 있는 다양한 형태들 중 미리 결정된 블록 형태 및 분할 형태만을 이용하는 상술한 소정의 복호화 방법을 이용하는 경우, 블록 형태 정보는 정사각형 형태만을 나타내게 되므로 영상 복호화 장치(100)는 비트스트림으로부터 블록 형태 정보를 획득하는 과정을 생략할 수 있다. 상술한 소정의 복호화 방법을 이용할 것인지 여부를 나타내는 신택스가 이용될 수 있고, 이러한 신택스는 시퀀스, 픽쳐, 슬라이스 단위, 최대부호화단위 등 복수개의 부호화 단위를 포함할 수 있는 다양한 형태의 데이터 단위마다 비트스트림으로부터 획득될 수 있다. 즉, 비트스트림 획득부(110)는 소정의 복호화 방법의 사용 여부를 나타내는 신택스에 기초하여 블록 형태 정보를 나타내는 신택스를 비트스트림으로부터 획득하는지 여부를 결정할 수 있다.
도 23은 일 실시예에 따른 부호화 단위의 Z 스캔 순서에 따른 인덱스를 도시한다.
일 실시예에 따른 영상 복호화 장치(100)는, 상위 데이터 단위에 포함된 하위 데이터 단위들을 Z 스캔 순서에 따라 스캔할 수 있다. 또한, 일 실시예에 따른 영상 복호화 장치(100)는 최대 부호화 단위 또는 프로세싱 블록에 포함되는 부호화 단위 내의 Z 스캔 인덱스에 따라 데이터를 순차적으로 액세스할 수 있다.
일 실시예에 따른 영상 복호화 장치(100)가 기준 부호화 단위를 적어도 하나의 부호화 단위로 분할할 수 있음은 도 3 내지 도 4를 참조하여 전술한 바와 같다. 이 때, 기준 부호화 단위 내에는 정사각형 형태의 부호화 단위들과 비-정사각형 형태의 부호화 단위들이 혼재할 수 있다. 일 실시예에 따른 영상 복호화 장치(100)는, 기준 부호화 단위 내의 각 부호화 단위에 포함된 Z 스캔 인덱스에 따라 데이터 액세스를 수행할 수 있다. 이 때, 기준 부호화 단위 내에 비-정사각형 형태의 부호화 단위가 존재하는지 여부에 따라 Z 스캔 인덱스를 적용하는 방식이 상이해질 수 있다.
일 실시예에 따라, 기준 부호화 단위 내에 비-정사각형 형태의 부호화 단위가 존재하지 않는 경우, 기준 부호화 단위 내의 하위 심도의 부호화 단위들끼리는 연속된 Z 스캔 인덱스를 가질 수 있다. 예를 들어, 일 실시예에 따라 상위 심도의 부호화 단위는 하위 심도의 부호화 단위 4 개를 포함할 수 있다. 여기서, 4 개의 하위 심도의 부호화 단위들은 서로 인접하는 경계가 연속적일 수 있으며, 각각의 하위 심도의 부호화 단위들은 Z 스캔 순서를 나타내는 인덱스에 따라 Z 스캔 순서로 스캔될 수 있다. 일 실시예에 따른 Z 스캔 순서를 나타내는 인덱스는 각 부호화 단위에 대해 Z 스캔 순서에 따라 증가하는 수로 설정될 수 있다. 이 경우, 동일한 심도의 심도별 부호화 단위들끼리 Z 스캔 순서에 따라 스캔이 가능하다.
일 실시예에 따라, 기준 부호화 단위 내에 비-정사각형 형태의 부호화 단위가 적어도 하나 이상 존재하는 경우, 영상 복호화 장치(100)는 기준 부호화 단위 내의 부호화 단위들을 각각 서브 블록들로 분할하여, 분할된 서브 블록들에 대해 Z 스캔 순서에 따른 스캔을 수행할 수 있다. 예를 들어, 기준 부호화 단위 내에 수직 방향 또는 수평 방향의 비-정사각형 형태의 부호화 단위가 존재하는 경우 분할된 서브 블록들을 이용하여 Z 스캔을 수행할 수 있다. 또한, 예를 들어, 기준 부호화 단위 내에서 홀수 개의 부호화 단위들로 분할이 수행된 경우 서브 블록들을 이용하여 Z 스캔을 수행할 수 있다. 서브 블록은, 더 이상 분할되지 않는 부호화 단위 또는 임의의 부호화 단위가 분할된 것으로서, 정사각형 형태일 수 있다. 예를 들어, 정사각형 형태의 부호화 단위로부터 4개의 정사각형 형태의 서브 블록들이 분할될 수 있다. 또한, 예를 들어, 비-정사각형 형태의 부호화 단위로부터는 2 개의 정사각형 형태의 서브 블록들이 분할될 수 있다.
도 23을 참조하여 예를 들면, 일 실시예에 따른 영상 복호화 장치(100)는, 부호화 단위(2300) 내에서 하위 심도의 부호화 단위들(2302, 2304, 2306, 2308, 2310)을 Z 스캔 순서에 따라 스캔할 수 있다. 부호화 단위(2300) 및 부호화 단위(2302, 2304, 2306, 2308, 2310)는, 각각 상대적으로 상위 부호화 단위 및 하위 부호화 단위이다. 부호화 단위(2300)는 수평 방향의 비-정사각형 형태의 부호화 단위(2306, 2310)를 포함한다. 이들 비-정사각형 형태의 부호화 단위들(2306, 2310)은 인접한 정사각형 형태의 부호화 단위(2302, 2304)와의 경계가 불연속적이다. 또한, 부호화 단위(2308)는 정사각형 형태이며, 비-정사각형 형태의 부호화 단위가 홀수 개로 분할 시 중간에 위치한 부호화 단위이다. 비-정사각형 형태의 부호화 단위들(2306, 2310)과 마찬가지로, 부호화 단위(2308)는 인접한 정사각형 형태의 부호화 단위(2302, 2304)와의 경계가 불연속적이다. 부호화 단위(2300) 내에 비-정사각형 형태의 부호화 단위(2306, 2310)가 포함되거나 비-정사각형 형태의 부호화 단위가 홀수 개로 분할 시 중간에 위치한 부호화 단위(2308)가 포함된 경우, 부호화 단위들 간에 인접하는 경계가 불연속적이기 때문에 연속적인 Z 스캔 인덱스가 설정될 수 없다. 따라서, 영상 복호화 장치(100)는 부호화 단위들을 서브 블록들로 분할함으로써 Z 스캔 인덱스를 연속적으로 설정할 수 있다. 또한, 영상 복호화 장치(100)는, 비-정사각형 형태의 부호화 단위(2306, 2310) 또는 홀수 개로 분할된 비-정사각형 형태의 부호화 단위의 중간에 위치한 부호화 단위(2308)에 대해 연속된 Z 스캔을 수행할 수 있다.
도 23에 도시된 부호화 단위(2320)는 부호화 단위(2300) 내의 부호화 단위들(2302, 2304, 2306, 2308, 2310)을 서브 블록들로 분할한 것이다. 서브 블록들 각각에 대해 Z 스캔 인덱스가 설정될 수 있고, 서브 블록들 간의 인접하는 경계는 연속적이므로, 서브 블록들끼리 Z 스캔 순서에 따라 스캔이 가능하다. 예를 들어, 일 실시예에 따른 복호화 장치에서, 부호화 단위(2308)는 서브 블록들(2322, 2324, 2326, 2328)로 분할될 수 있다. 이 때, 서브 블록(2322, 2324)은 서브 블록(2330)에 대한 데이터 처리 이후에 스캔될 수 있으며, 서브 블록(2326, 2328)은 서브 블록(2332)에 대한 데이터 처리 이후에 스캔될 수 있다. 또한, 각각의 서브 블록들끼리 Z 스캔 순서에 따라 스캔될 수 있다.
전술한 실시예에서, 데이터 단위들에 대해 Z 스캔 순서에 따라 스캔하는 것은, 데이터 저장, 데이터 로딩, 데이터 액세스 등을 위한 것일 수 있다.
또한, 전술한 실시예에서는, 데이터 단위들을 Z 스캔 순서에 따라 스캔할 수 있음을 설명하였지만, 데이터 단위들의 스캔 순서는 래스터 스캔, N 스캔, 우상향 대각 스캔, 수평적 스캔, 수직적 스캔 등 다양한 스캔 순서로 수행될 수 있고, Z 스캔 순서에 한정하여 해석되는 것은 아니다.
또한, 전술한 실시예에서는, 기준 부호화 단위 내의 부호화 단위들에 대해 스캔을 수행하는 것으로 설명하였지만, 이에 한정하여 해석되어서는 안되며, 스캔 수행의 대상은 최대 부호화 단위 또는 프로세싱 블록 내의 임의의 블록일 수 있다.
또한, 전술한 실시예에서는, 비-정사각형 형태의 블록이 적어도 하나 이상 존재하는 경우에만 서브 블록들로 분할하여 Z 스캔 순서에 따른 스캔을 수행하는 것으로 설명하였지만, 단순화된 구현을 위해 비-정사각형 형태의 블록이 존재하지 않는 경우에도 서브 블록들을 분할하여 Z 스캔 순서에 따른 스캔을 수행할 수도 있다.
일 실시예에 따른 영상 복호화 장치(100)는, 부호화 단위에 대한 인터 예측 또는 인트라 예측을 수행하여 예측 데이터를 생성하고, 현재 부호화 단위에 포함된 변환 단위에 대해 역변환을 수행하여 레지듀얼 데이터를 생성하며, 생성된 예측 데이터와 레지듀얼 데이터를 이용하여 현재 부호화 단위를 복원할 수 있다.
일 실시예에 따른 부호화 단위의 예측 모드는 인트라 모드, 인터 모드 및 스킵 모드 중 적어도 하나일 수 있다. 일 실시예에 따라, 부호화 단위 마다 독립적으로 예측 모드가 선택될 수 있다.
일 실시예에 따른 2Nx2N 형태의 부호화 단위가 분할하여 두 개의 2NxN 또는 두 개의 Nx2N 형태의 부호화 단위들로 분할된 경우, 이들 각각의 부호화 단위에 대해서 인터 모드 예측 및 인트라 모드 예측이 별개로 수행될 수도 있다. 또한, 일 실시예에 따른 2NxN 또는 Nx2N 형태의 부호화 단위에 대해서는 스킵 모드가 적용될 수도 있다.
한편, 일 실시예에 따른 영상 복호화 장치(100)는, 8x4 또는 4x8 형태의 부호화 단위의 스킵 모드에서 양방향 예측(bi-prediction)의 수행이 허용될 수도 있다. 스킵 모드에서는 부호화 단위에 대해 스킵 모드 정보만을 전송받기 때문에 해당 부호화 단위에 대한 레지듀얼 데이터의 이용이 생략된다. 따라서, 이 경우 역양자화 및 역변환에 대한 오버헤드(overhead)를 절약할 수 있다. 그 대신, 일 실시예에 따른 영상 복호화 장치(100)는 스킵 모드가 적용되는 부호화 단위에 대해 양방향 예측을 허용하여 복호화 효율을 높일 수 있다. 또한, 일 실시예에 따른 영상 복호화 장치(100)는 8x4 또는 4x8 형태의 부호화 단위에 대해 양방향 예측을 허용하되, 움직임 보상 단계에서 보간 탭(interpolation tap) 수를 상대적으로 적게 설정하여 메모리 대역폭을 효율적으로 사용할 수 있다. 일 예로, 8-탭의 보간 필터를 사용하는 대신 8 미만의 탭 수의 보간 필터(예를 들어, 2-탭 보간 필터)를 사용할 수도 있다.
또한, 일 실시예에 따른 영상 복호화 장치(100)는 현재 부호화 단위에 포함된 영역을 미리설정된 형태로 분할(예를 들어, 사선 기반 분할)하여 분할된 각 영역에 대한 인트라 또는 인터 예측 정보를 시그널링할 수도 있다.
일 실시예에 따른 영상 복호화 장치(100)는 인트라 모드를 이용하여 현재 부호화 단위의 예측 샘플을 현재 부호화 단위의 주변 샘플을 이용하여 획득할 수 있다. 이 때, 인트라 예측은 주변의 이미 재구성된 샘플들을 사용하여 예측을 수행하는데 이러한 샘플들을 참조 샘플이라고 한다.
도 24는 일 실시예에 따른 부호화 단위의 인트라 예측을 위한 참조 샘플을 나타내는 도면이다. 도 24를 참조하면, 블록 형태가 비-사각형 형태이고 수평 방향의 길이가 w, 수직 방향의 길이가 h인 현재 부호화 단위(2300)에 대하여, 상단의 참조 샘플(2302)이 w+h 개, 좌측의 참조 샘플(2304)이 w+h 개, 좌측 상단의 참조 샘플(2306)에 한 개로 총 2(w+h)+1 개의 참조 샘플이 필요하다. 참조 샘플의 준비를 위해, 참조 샘플이 존재하지 않는 부분에 대해 패딩을 수행하는 단계를 거치며, 재구성된 참조 샘플에 포함된 양자화 에러를 줄이기 위한 예측 모드별 참조 샘플 필터링 과정을 거칠 수도 있다.
전술한 실시예에서는 현재 부호화 단위의 블록 형태가 비-사각형 형태인 경우의 참조 샘플의 개수를 설명하였으나, 이러한 참조 샘플의 개수는 현재 부호화 단위가 사각형 형태의 블록 형태인 경우에도 동일하게 적용된다.
상술한 다양한 실시예들은 영상 복호화 장치(100)이 수행하는 영상 복호화 방법과 관련된 동작을 설명한 것이다. 이하에서는 이러한 영상 복호화 방법에 역순의 과정에 해당하는 영상 부호화 방법을 수행하는 영상 부호화 장치(200)의 동작을 다양한 실시예를 통해 설명하도록 한다.
도 2는 일 실시예에 따라 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 영상을 부호화 할 수 있는 영상 부호화 장치(200)의 블록도를 도시한다.
도 2를 참조하면, 영상 부호화 장치(200)는 일 실시예에 따라 분할 형태 정보, 블록 형태 정보 등과 같은 소정의 정보를 포함하는 비트스트림을 생성하기 위한 비트스트림 생성부(210), 상기 소정의 정보를 이용하여 영상을 부호화 하기 위한 부호화부(220)를 포함할 수 있다. 일 실시예에 따라 영상 부호화 장치(200)의 부호화부(220)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 영상을 분할하는 적어도 하나의 부호화 단위를 결정할 수 있고, 영상 부호화 장치(200)의 비트스트림 생성부(210)에서 이러한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 포함하는 비트스트림을 생성할 수 있다. 여기서 블록 형태 정보는 부호화 단위의 형태를 나타내는 정보 또는 신택스를 의미할 수 있고, 분할 형태 정보는 부호화 단위가 분할되는 형태를 나타내는 정보 또는 신택스를 의미할 수 있다.
일 실시예에 따라 영상 부호화 장치(200)의 부호화부(220)는 부호화 단위의 형태를 결정할 수 있다. 예를 들면 부호화 단위가 정사각형인지 또는 비-정사각형의 형태를 가질 수 있고, 이러한 형태를 나타내는 정보는 블록 형태 정보에 포함될 수 있다
일 실시예에 따라 부호화부(220)는 부호화 단위가 어떤 형태로 분할될지를 결정할 수 있다. 부호화부(220)는부호화 단위에 포함되는 적어도 하나의 부호화 단위의 형태를 결정할 수 있고 비트스트림 생성부(210)는 이러한 부호화 단위의 형태에 대한 정보를 포함하는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다.
일 실시예에 따라 부호화부(220)는 부호화 단위가 분할되는지 분할되지 않는지 여부를 결정할 수 있다. 부호화부(220)가 부호화 단위에 하나의 부호화 단위만이 포함되거나 또는 부호화 단위가 분할되지 않는 것으로 결정하는 경우비트스트림 생성부(210)는 부호화 단위가 분할되지 않음을 나타내는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다. 또한 부호화부(220)는 부호화 단위에 포함되는 복수개의 부호화 단위로 분할할 수 있고, 비트스트림 생성부(210)는 부호화 단위는 복수개의 부호화 단위로 분할됨을 나타내는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다.
일 실시예에 따라 부호화 단위를 몇 개의 부호화 단위로 분할할 지를 나타내거나 어느 방향으로 분할할지를 나타내는 정보가 분할 형태 정보에 포함될 수 있다. 예를 들면 분할 형태 정보는 수직 방향 및 수평 방향 중 적어도 하나의 방향으로 분할하는 것을 나타내거나 또는 분할하지 않는 것을 나타낼 수 있다.
도 3은 일 실시예에 따라 영상 부호화 장치(200)가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 부호화부(220)는 부호화 단위의 형태를 결정할 수 있다. 예를 들면, 부호화부(220)는 RD(rate distortion) cost를 고려하여 최적의 RD-cost를 갖는 부호화 단위의 형태를 결정할 수 있다.
일 실시예에 따라, 부호화부(220)는 현재 부호화 단위가 정사각형 형태임을결정할 수 있고, 이에 따라 정사각형 형태의 부호화 단위가 분할되는 형태를 결정할 수 있다. 예를 들어 부호화부(220)는 정사각형의 부호화 단위를 분할하지 않을지, 수직으로 분할할지, 수평으로 분할할지, 4개의 부호화 단위로 분할할지 등을 결정할 수 있다. 도 3을 참조하면, 부호화부(220)는 현재 부호화 단위(300)와 동일한 크기를 가지는 부호화 단위(310a)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 정보에 기초하여 분할된 부호화 단위(310b, 310c, 310d 등)를 결정할 수 있다.
도 3을 참조하면 부호화부(220)는 일 실시예에 따라 현재 부호화 단위(300)를 수직방향으로 분할한 두개의 부호화 단위(310b)를 결정할 수 있다. 부호화부(220)는 현재 부호화 단위(300)를 수평방향으로 분할한 두개의 부호화 단위(310c)를 결정할 수 있다. 부호화부(220)는 현재 부호화 단위(300)를 수직방향 및 수평방향으로 분할한 네개의 부호화 단위(310d)를 결정할 수 있다. 다만 정사각형의 부호화 단위가 분할될 수 있는 분할 형태는 상술한 형태로 한정하여 해석되어서는 안되고, 분할 형태 정보가 나타낼 수 있는 다양한 형태가 포함될 수 있다. 정사각형의 부호화 단위가 분할되는 소정의 분할 형태들은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
일 실시예에 따라 영상 부호화 장치(200)의 비트스트림 생성부(210)는 현재 부호화 단위(300)가 부호화부(220)에 의해 분할된 형태를 나타내는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다.
도 4는 일 실시예에 따라 영상 부호화 장치(200)가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 부호화부(220)는 비-정사각형의 현재 부호화 단위를 분할하지 않을지 소정의 방법으로 분할할지 여부를 결정할 수 있다. 도 4를 참조하면, 현재 부호화 단위(400 또는 450)의 부호화부(220)는 현재 부호화 단위(400 또는 450)와 동일한 크기를 가지는 부호화 단위(410 또는 460)를 분할하지 않거나, 소정의 분할방법에 따라 분할된 부호화 단위(420a, 420b, 430a, 430b, 430c, 470a, 470b, 480a, 480b, 480c)를 결정할 수 있다. 영상 부호화 장치(200)의 비트스트림 생성부(210)는 이러한 분할 형태를 나타내는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다. 비-정사각형의 부호화 단위가 분할되는 소정의 분할 방법은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
일 실시예에 따라 부호화부(220)는 부호화 단위가 분할되는 형태를 결정할 수 있다. 도 4를 참조하면 부호화부(220)는 현재 부호화 단위(400 또는 450)를 분할하여 현재 부호화 단위에 포함되는 두개의 부호화 단위(420a, 420b, 또는 470a, 470b)를 결정할 수 있고, 비트스트림 생성부(210)는 이러한 분할 형태를 나타내는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다.
일 실시예에 따라 부호화부(220)가 비-정사각형의 형태의 현재 부호화 단위(400 또는 450)를 분할하는 경우, 비-정사각형의 현재 부호화 단위(400 또는 450)의 긴 변의 위치를 고려하여 현재 부호화 단위를 분할할 수 있다. 예를 들면, 부호화부(220)는 현재 부호화 단위(400 또는 450)의 형태를 고려하여 현재 부호화 단위(400 또는 450)의 긴 변을 분할하는 방향으로 현재 부호화 단위(400 또는 450)를 분할하여 복수개의 부호화 단위를 결정할 수 있고, 비트스트림 생성부(210)는 이러한 분할 형태를 나타내는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다.
일 실시예에 따라, 부호화부(220)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있다. 예를 들면, 부호화부(220)는 현재 부호화 단위(400 또는 450)를 3개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)로 분할할 수 있다. 일 실시예에 따라 부호화부(220)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있으며, 결정된 부호화 단위들의 크기 모두가 동일하지는 않을 수 있다. 예를 들면, 결정된 홀수개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c) 중 소정의 부호화 단위(430b 또는 480b)의 크기는 다른 부호화 단위(430a, 430c, 480a, 480c)들과는 다른 크기를 가질 수도 있다. 즉, 현재 부호화 단위(400 또는 450)가 분할되어 결정될 수 있는 부호화 단위는 복수의 종류의 크기를 가질 수 있고, 경우에 따라서는 홀수개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)가 각각 서로 다른 크기를 가질 수도 있다.
일 실시예에 따라 부호화부(220)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있고, 나아가 부호화부(220)는 분할하여 생성되는 홀수개의 부호화 단위들 중 적어도 하나의 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 도 4를 참조하면 부호화부(220)는 현재 부호화 단위(400 또는 450)가 분할되어 생성된 3개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)들 중 중앙에 위치하는 부호화 단위(430b, 480b)에 대한 복호화 과정을 다른 부호화 단위(430a, 430c, 480a, 480c)와 다르게 할 수 있다. 예를 들면, 부호화부(220)는 중앙에 위치하는 부호화 단위(430b, 480b)에 대하여는 다른 부호화 단위(430a, 430c, 480a, 480c)와 달리 더 이상 분할되지 않도록 제한하거나, 소정의 횟수만큼만 분할되도록 제한할 수 있다.
도 5는 일 실시예에 따라 영상 부호화 장치(200)가 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 부호화부(220)는 정사각형 형태의 제1 부호화 단위(500)를 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 일 실시예에 따라 부호화부(220)는 제1 부호화 단위(500)를 수평 방향으로 분할하여 제2 부호화 단위(510)를 결정할 수 있고, 비트스트림 일 실시예에 따라 이용되는 제1 부호화 단위, 제2 부호화 단위, 제3 부호화 단위는 부호화 단위 간의 분할 전후 관계를 이해하기 위해 이용된 용어이다. 예를 들면, 제1 부호화 단위를 분할하면 제2 부호화 단위가 결정될 수 있고, 제2 부호화 단위가 분할되면 제3 부호화 단위가 결정될 수 있다. 이하에서는 이용되는 제1 부호화 단위, 제2 부호화 단위 및 제3 부호화 단위의 관계는 상술한 특징에 따르는 것으로 이해될 수 있다.
일 실시예에 따라 영상 부호화 장치(200)는 결정된 제2 부호화 단위(510)를 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 도 5를 참조하면 부호화부(220)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(500)를 분할하여 결정된 비-정사각형의 형태의 제2 부호화 단위(510)를 적어도 하나의 제3 부호화 단위(520a, 520b, 520c, 520d 등)로 분할하거나 제2 부호화 단위(510)를 분할하지 않을 수 있다. 영상 부호화 장치(200)의 비트스트림 생성부(210)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 포함하는 비트스트림을 생성할 수 있고 부호화부(220)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(500)를 분할하여 다양한 형태의 복수개의 제2 부호화 단위(예를 들면, 510)를 분할할 수 있으며, 제2 부호화 단위(510)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(500)가 분할된 방식에 따라 분할될 수 있다. 일 실시예에 따라, 제1 부호화 단위(500)가 제1 부호화 단위(500)에 대한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제2 부호화 단위(510)로 분할된 경우, 제2 부호화 단위(510) 역시 제2 부호화 단위(510)에 대한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제3 부호화 단위(예를 들면, 520a, 520b, 520c, 520d 등)으로 분할될 수 있다. 따라서 비-정사각형 형태의 부호화 단위에서 정사각형의 부호화 단위가 결정될 수 있고, 이러한 정사각형 형태의 부호화 단위가 재귀적으로 분할되어 비-정사각형 형태의 부호화 단위가 결정될 수도 있다. 도 5를 참조하면, 비-정사각형 형태의 제2 부호화 단위(510)가 분할되어 결정되는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 소정의 부호화 단위(예를 들면, 가운데에 위치하는 부호화 단위 또는 정사각형 형태의 부호화 단위)는 재귀적으로 분할될 수 있다. 일 실시예에 따라 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 하나인 정사각형 형태의 제3 부호화 단위(520c)는 수평 방향으로 분할되어 복수개의 제4 부호화 단위로 분할될 수 있다. 복수개의 제4 부호화 단위 중 하나인 비-정사각형 형태의 제4 부호화 단위(540)는 다시 복수개의 부호화 단위들로 분할될 수 있다. 예를 들면, 비-정사각형 형태의 제4 부호화 단위(540)는 홀수개의 부호화 단위(550a, 550b, 550c)로 다시 분할될 수도 있다.
부호화 단위는 부호화 단위 각각에 관련된 분할 형태 정보 및 블록 형태 정보 중 적어도 하나에 기초하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할에 이용될 수 있는 방법에 대하여는 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 부호화부(220)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제3 부호화 단위(520a, 520b, 520c, 520d 등) 각각을 부호화 단위들로 분할하거나 제2 부호화 단위(510)를 분할하지 않는 것으로 결정할 수 있다. 부호화부(220)는 일 실시예에 따라 비-정사각형 형태의 제2 부호화 단위(510)를 홀수개의 제3 부호화 단위(520b, 520c, 520d)로 분할할 수 있다. 영상 부호화 장치(200)는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 소정의 제3 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 예를 들면 영상 부호화 장치(200)는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 가운데에 위치하는 부호화 단위(520c)에 대하여는 더 이상 분할되지 않는 것으로 제한하거나 또는 설정 가능한 횟수로 분할되어야 하는 것으로 제한할 수 있다. 도 5를 참조하면, 영상 부호화 장치(200)는 비-정사각형 형태의 제2 부호화 단위(510)에 포함되는 홀수개의 제3 부호화 단위(520b, 520c, 520d)들 중 가운데에 위치하는 부호화 단위(520c)는 더 이상 분할되지 않거나, 소정의 분할 형태로 분할(예를 들면 4개의 부호화 단위로만 분할하거나 제2 부호화 단위(510)가 분할된 형태에 대응하는 형태로 분할)되는 것으로 제한하거나, 소정의 횟수로만 분할(예를 들면 n회만 분할, n>0)하는 것으로 제한할 수 있다. 다만 가운데에 위치한 부호화 단위(520c)에 대한 상기 제한은 단순한 실시예들에 불과하므로 상술한 실시예들로 제한되어 해석되어서는 안되고, 가운데에 위치한 부호화 단위(520c)가 다른 부호화 단위(520b, 520d)와 다르게 복호화 될 수 있는 다양한 제한들을 포함하는 것으로 해석되어야 한다.
일 실시예에 따라 영상 부호화 장치(200)의 비트스트림 생성부(210)는 현재 부호화 단위 내의 소정의 위치의 샘플과 관련한 비트스트림과 함께, 현재 부호화 단위를 분할하기 위해 사용된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 포함하는 비트스트림을 생성할 수 있다.
도 6은 일 실시예에 따라 부호화부(220)가 홀수개의 부호화 단위들 중 소정의 부호화 단위를 결정하기 위한 방법을 도시한다. 영상 부호화 장치(200)의 부호화부(220)는 현재 부호화 단위를 다양한 형태 및 크기의 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 도 6을 참조하면, 비트스트림 생성부(210)는 현재 부호화 단위(600)에 포함되는 복수개의 샘플 중 소정 위치의 샘플(예를 들면, 가운데에 위치하는 샘플(640))과 관련된 비트스트림과 함께, 현재 부호화 단위(600)의 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 포함하는 비트스트림을 생성할 수 있다. 다만 이러한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나와 관련된 현재 부호화 단위(600) 내의 소정 위치가 도 6에서 도시하는 가운데 위치로 한정하여 해석되어서는 안되고, 소정 위치에는 현재 부호화 단위(600)내에 포함될 수 있는 다양한 위치(예를 들면, 최상단, 최하단, 좌측, 우측, 좌측상단, 좌측하단, 우측상단 또는 우측하단 등)가 포함될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 영상 부호화 장치(200)는 현재 부호화 단위가 소정의 개수의 부호화 단위들로 분할된 경우 그 중 하나의 부호화 단위를 선택할 수 있다. 복수개의 부호화 단위들 중 하나를 선택하기 위한 방법은 다양할 수 있으며, 이러한 방법들에 대한 설명은 이하의 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 부호화 장치(200)의 부호화부(220)는 현재 부호화 단위를 복수개의 부호화 단위들로 분할하고, 소정 위치의 부호화 단위를 결정할 수 있다.
도 6은 일 실시예에 따라 영상 부호화 장치(200)가 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위한 방법을 도시한다.
일 실시예에 따라 부호화부(220)는 홀수개의 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 홀수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 도 6을 참조하면, 부호화부(220)는 현재 부호화 단위(600)를 분할하여 홀수개의 부호화 단위들(620a, 620b, 620c)을 결정할 수 있다. 부호화부(220)는 홀수개의 부호화 단위들(620a, 620b, 620c)의 위치에 대한 정보를 이용하여 가운데 부호화 단위(620b)를 결정할 수 있다. 예를 들면 부호화부(220)는 부호화 단위들(620a, 620b, 620c)에 포함되는 소정의 샘플의 위치를 나타내는 정보에 기초하여 부호화 단위들(620a, 620b, 620c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 구체적으로, 부호화부(220)는 부호화 단위들(620a, 620b, 620c)의 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보에 기초하여 부호화 단위(620a, 620b, 620c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다.
일 실시예에 따라 부호화 단위(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보는 부호화 단위(620a, 620b, 620c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 포함할 수 있다. 일 실시예에 따라 부호화 단위(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보는 현재 부호화 단위(600)에 포함되는 부호화단위(620a, 620b, 620c)들의 너비 또는 높이를 나타내는 정보를 포함할 수 있고, 이러한 너비 또는 높이는 부호화 단위(620a, 620b, 620c)의 픽쳐 내에서의 좌표 간의 차이를 나타내는 정보에 해당할 수 있다. 즉, 영상 부호화 장치(200)는 부호화 단위(620a, 620b, 620c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 직접이용하거나 좌표간의 차이값을 나타내는 부호화 단위의 너비 또는 높이에 대한 정보를 이용함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다.
일 실시예에 따라, 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 나타내는 정보는 (xa, ya) 좌표를 나타낼 수 있고, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(630b)의 위치를 나타내는 정보는 (xb, yb) 좌표를 나타낼 수 있고, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 위치를 나타내는 정보는 (xc, yc) 좌표를 나타낼 수 있다. 영상 부호화 장치(200)는 부호화 단위(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 좌표를 이용하여 가운데 부호화 단위(620b)를 결정할 수 있다. 예를 들면, 좌측 상단의 샘플(630a, 630b, 630c)의 좌표를 오름차순 또는 내림차순으로 정렬하였을 때, 가운데에 위치하는 샘플(630b)의 좌표인 (xb, yb)를 포함하는 부호화 단위(620b)를 현재 부호화 단위(600)가 분할되어 결정된 부호화 단위(620a, 620b, 620c) 중 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 좌표는 픽쳐 내에서의 절대적인 위치를 나타내는 좌표를 나타낼 수 있고, 나아가 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 기준으로, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(630b)의 상대적 위치를 나타내는 정보인 (dxb, dyb)좌표, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 상대적 위치를 나타내는 정보인 (dxc, dyc)좌표를 이용할 수도 있다. 또한 부호화 단위에 포함되는 샘플의 위치를 나타내는 정보로서 해당 샘플의 좌표를 이용함으로써 소정 위치의 부호화 단위를 결정하는 방법이 상술한 방법으로 한정하여 해석되어서는 안되고, 샘플의 좌표를 이용할 수 있는 다양한 산술적 방법으로 해석되어야 한다.
일 실시예에 따라 영상 부호화 장치(200)는 현재 부호화 단위(600)를 복수개의 부호화 단위(620a, 620b, 620c)로 분할할 수 있고, 부호화 단위(620a, 620b, 620c)들 중 소정의 기준에 따라 부호화 단위를 선택할 수 있다. 예를 들면, 부호화부(220)는 부호화 단위(620a, 620b, 620c) 중 크기가 다른 부호화 단위(620b)를 선택할 수 있다.
일 실시예에 따라 영상 부호화 장치(200)는 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 나타내는 정보인 (xa, ya) 좌표, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(630b)의 위치를 나타내는 정보인 (xb, yb) 좌표, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 위치를 나타내는 정보인 (xc, yc) 좌표를 이용하여 부호화 단위(620a, 620b, 620c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 부호화 장치(200)는 부호화 단위(620a, 620b, 620c)의 위치를 나타내는 좌표인 (xa, ya), (xb, yb), (xc, yc)를 이용하여 부호화 단위(620a, 620b, 620c) 각각의 크기를 결정할 수 있다.
일 실시예에 따라, 영상 부호화 장치(200)는 상단 부호화 단위(620a)의 너비를 xb-xa로 결정할 수 있고 높이를 yb-ya로 결정할 수 있다. 일 실시예에 따라 부호화부(220)는 가운데 부호화 단위(620b)의 너비를 xc-xb로 결정할 수 있고 높이를 yc-yb로 결정할 수 있다. 일 실시예에 따라 부호화부(220)는 하단 부호화 단위의 너비 또는 높이는 현재 부호화 단위의 너비 또는 높이와 상단 부호화 단위(620a) 및 가운데 부호화 단위(620b)의 너비 및 높이를 이용하여 결정할 수 있다. 부호화부(220)는 결정된 부호화 단위(620a, 620b, 620c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 6을 참조하면, 영상 부호화 장치(200)는 상단 부호화 단위(620a) 및 하단 부호화 단위(620c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(620b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 부호화 장치(200)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
다만 부호화 단위의 위치를 결정하기 위하여 고려하는 샘플의 위치는 상술한 좌측 상단으로 한정하여 해석되어서는 안되고 부호화 단위에 포함되는 임의의 샘플의 위치에 대한 정보가 이용될 수 있는 것으로 해석될 수 있다.
일 실시예에 따라 영상 부호화 장치(200)는 현재 부호화 단위의 형태를 고려하여, 현재 부호화 단위가 분할되어 결정되는 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 선택할 수 있다. 예를 들면, 현재 부호화 단위가 너비가 높이보다 긴 비-정사각형 형태라면 부호화부(220)는 수평 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 부호화부(220)는 수평 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다. 현재 부호화 단위가 높이가 너비보다 긴 비-정사각형 형태라면 부호화부(220)는 수직 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 부호화부(220)는 수직 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다.
일 실시예에 따라 영상 부호화 장치(200)는 짝수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 짝수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 부호화부(220)는 현재 부호화 단위를 분할하여 짝수개의 부호화 단위들을 결정할 수 있고 짝수개의 부호화 단위들의 위치에 대한 정보를 이용하여 소정 위치의 부호화 단위를 결정할 수 있다. 이에 대한 구체적인 과정은 도 6에서 상술한 홀수개의 부호화 단위들 중 소정 위치(예를 들면, 가운데 위치)의 부호화 단위를 결정하는 과정과 유사한 과정일 수 있으므로 생략하도록 한다.
일 실시예에 따라, 비-정사각형 형태의 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 현재 부호화 단위의 분할 과정에서 이용된 소정의 정보를 이용할 수 있다. 예를 들면 영상 부호화 장치(200)의 부호화부(220)는 현재 부호화 단위가 복수개로 분할된 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 현재 부호화 단위의 분할 과정에서 이용된 소정의 정보로서 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있고, 이러한 정보는 다.
도 6을 참조하면 영상 부호화 장치(200)의 부호화부(220)는 현재 부호화 단위(600)를 복수개의 부호화 단위들(620a, 620b, 620c)로 분할할 수 있으며, 복수개의 부호화 단위들(620a, 620b, 620c) 중 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있고, 비트스트림 생성부(210)는 현재 부호화 단위(600)의 분할 과정에서 이용된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 포함하는 비트스트림을 생성할 수 있다. 부호화부(220)는 현재 부호화 단위(600)의 분할 과정에서 이용된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나의 비트스트림과 관련된 샘플의 위치를 고려하여, 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 즉, 현재 부호화 단위(600)의 가운데에 위치하는 샘플(640)과 관련된 비트스트림과 함께 현재 부호화 단위(600)의 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 포함하는 비트스트림이 생성될 수 있고, 이 경우 부호화부(220)는 상기 샘플(640)을 포함하는 부호화 단위(620)b를 복수개의 부호화 단위들(620a, 620b, 620c) 중 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 현재 부호화 단위가 분할되어 결정된 복수개의 부호화 단위 중 가운데에 위치하는 부호화 단위로 결정하기 위해 이용되는 정보가, 현재 부호화 단위의 분할 과정에서 이용되었던 블록 형태 정보 및 분할 형태 정보 중 적어도 하나로 한정하여 해석되어서는 안되고, 다양한 종류의 정보가 이용될 수 있다. 이와 관련하여 영상 부호화 장치(200)가 소정 위치의 부호화 단위를 결정하는 과정은, 영상 복호화 장치(100)가 현재 부호화 단위로부터 결정된 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하는 과정에 반대되는 과정일 수 있으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 부호화 장치(200)는 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정할 수 있고, 이러한 적어도 하나의 부호화 단위가 복호화되는 순서를 소정의 블록(예를 들면, 현재 부호화 단위)에 따라 결정할 수 있다.
도 7은 일 실시예에 따라 영상 부호화 장치(200)가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다. 도 7과 관련한 영상 부호화 장치(200)가 복수개의 부호화 단위들을 처리하는 과정은, 도 7과 관련하여 상술한 영상 복호화 장치(100)의 동작과 유사한 과정일 수 있으므로 자세한 설명은 생략하도록 한다.
도 8은 일 실시예에 따라 영상 부호화 장치(200)가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.
일 실시예에 따라 영상 부호화 장치(200)의 부호화부(220)는 현재 부호화 단위가 홀수개의 부호화 단위들로 분할되는 것을 결정할 수 있고, 비트스트림 생성부(210)는 현재 부호화 단위의 형태를 나타내는 블록 형태 정보 및 현재 부호화 단위의 분할 형태(홀수개로 분할됨)를 나타내는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다. 도 8을 참조하면 정사각형 형태의 제1 부호화 단위(800)가 비-정사각형 형태의 제2 부호화 단위(810a, 810b)로 분할될 수 있고, 제2 부호화 단위(810a, 810b)는 각각 독립적으로 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)로 분할될 수 있다. 일 실시예에 따라 부호화부(220)는 제2 부호화 단위 중 좌측 부호화 단위(810a)는 수평 방향으로 분할하여 복수개의 제3 부호화 단위(820a, 820b)를 결정할 수 있고, 우측 부호화 단위(810b)는 홀수개의 제3 부호화 단위(820c, 820d, 820e)로 분할할 수 있다. 도 8과 관련한 영상 부호화 장치(200)가 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정은, 도 8과 관련하여 상술한 영상 복호화 장치(100)의 동작에 반대되는 과정일 수 있으므로 자세한 설명은 생략하도록 한다.
도 9는 일 실시예에 따라 영상 부호화 장치(200)가 제1 부호화 단위(900)를 분할하여 적어도 하나의 부호화 단위를 결정하는 것을 도시한다. 일 실시예에 따라 부호화부(220)는 제1 부호화 단위(900)를 분할할 수 있고, 비트스트림 생성부(210)는 제1 부호화 단위(900)의 형태를 나타내는 블록 형태 정보 및 제1 부호화 단위(900)가 분할되는 형태를 나타내는 분할 형태 정보 중 적어도 하나를 포함하는 비트스트림을 생성할 수 있다. 정사각형 형태의 제1 부호화 단위(900)는 4개의 정사각형 형태를 가지는 부호화 단위로 분할되거나 또는 비-정사각형 형태의 복수개의 부호화 단위로 분할할 수 있다. 예를 들면 도 9를 참조하면, 부호화부(220)는 제1 부호화 단위(900)를 복수개의 비-정사각형의 부호화 단위들로 분할할 수 있고, 이 경우 비트스트림 생성부(210)는 제1 부호화 단위(900)는 정사각형임을 나타내는 블록 형태 정보 및 제1 부호화 단위(900)가 비-정사각형의 부호화 단위로 분할됨을 나타내는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다. 구체적으로, 부호화부(220)는 정사각형 형태의 제1 부호화 단위(900)을 홀수개의 부호화 단위들로서 수직 방향으로 분할되어 결정된 제2 부호화 단위(910a, 910b, 910c) 또는 수평 방향으로 분할되어 결정된 제2 부호화 단위(920a, 920b, 920c)로 분할할 수 있고, 이 경우 비트스트림 생성부(210)는 제1 부호화 단위(900)를 수평 방향 또는 수직 방향으로 분할하여 홀수개의 부호화 단위를 결정하는 것을 나타내는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다. 도 9와 관련한 영상 부호화 장치(200)가 제1 부호화 단위(900)를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정은, 도 9와 관련하여 상술한 영상 복호화 장치(100)의 동작에 반대되는 과정일 수 있으므로 자세한 설명은 생략하도록 한다.
도 10은 일 실시예에 따라 영상 부호화 장치(200)가 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
일 실시예에 따라 부호화부(220) 정사각형 형태의 제1 부호화 단위(1000)를 비-정사각형 형태의 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)로 분할하는 것으로 결정할 수 있다. 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)는 독립적으로 분할될 수 있다. 이에 따라 부호화부(220)는 제2 부호화 단위(1010a, 1010b, 1020a, 1020b) 각각을 복수개의 부호화 단위로 분할하거나 분할하지 않는 것을 결정할 수 있다. 도 10과 관련한 영상 부호화 장치(200)가 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족 시 분할될 수 있는 형태가 제한하는 동작은, 도 10과 관련하여 상술한 영상 복호화 장치(100)의 동작에 반대되는 것일 수 있으므로 자세한 설명은 생략하도록 한다.
도 11은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 부호화 장치(200)가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다. 이와 관련한 영상 부호화 장치(200)의 동작은, 도 11과 관련하여 상술한 영상 복호화 장치(100)의 동작에 반대되는 것일 수 있으므로 자세한 설명은 생략하도록 한다.
도 12는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
일 실시예에 따라 부호화부(220)는 정사각형 형태의 제1 부호화 단위(1200)를 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할할 수 있다. 일 실시예에 따라 비트스트림 생성부(210)는 제1 부호화 단위(1200)가 정사각형 형태임을 나타내는 블록 형태 정보 및 제1 부호화 단위(1200)가 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할됨을 나타내는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다.
일 실시예에 따라 부호화부(220)는 제1 부호화 단위(1200)를 분할하여 제2 부호화 단위(예를 들면, 1210a, 1210b, 1220a, 1220b, 1230a, 1230b, 1230c, 1230d 등)를 결정할 수 있다. 도 12를 참조하면 제1 부호화 단위1200)가 수평 방향 또는 수직 방향만으로 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)는 독립적으로 분할될 수 있다. 예를 들면 부호화부(220)는 제1 부호화 단위(1200)가 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 제1 부호화 단위(1200)가 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 도 10과 관련한 영상 부호화 장치(200)의 동작은, 도 10과 관련하여 상술한 영상 복호화 장치(100)의 동작에 반대되는 것일 수 있으므로 자세한 설명은 생략하도록 한다.
도 13은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다. 영상 부호화 장치(200)의 부호화부(220)가 부호화 단위의 심도를 결정하는 과정은, 도 13과 관련하여 상술한 영상 복호화 장치(100)의 복호화부(120)가 부호화 단위의 심도를 결정하는 과정에 반대되는 것일 수 있으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 부호화 장치(200)는 현재 부호화 단위로부터 분할되어 결정된 복수개의 부호화 단위들을 구분하기 위한 인덱스의 값에 기초하여 특정 분할 형태로 분할된 것인지를 결정할 수 있다. 도 14를 참조하면 영상 부호화 장치(200)는 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)를 분할하여 짝수개의 부호화 단위(1412a, 1412b)를 결정하거나 홀수개의 부호화 단위(1414a, 1414b, 1414c)를 결정할 수 있다. 영상 부호화 장치(200)는 복수개의 부호화 단위 각각을 구분하기 위하여 각 부호화 단위를 나타내는 인덱스(PID)를 이용할 수 있다. 일 실시예에 따라 PID는 각각의 부호화 단위의 소정 위치의 샘플(예를 들면, 좌측 상단 샘플)에서 획득될 수 있다. 도 14와 관련된 영상 부호화 장치(200)의 동작은, 도 14와 관련하여 상술한 영상 복호화 장치(100)의 동작에 반대되는 것일 수 있으므로 자세한 설명은 생략하도록 한다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다. 일 실시예에 따라 부호화부(220)는 부호화 단위의 재귀적인 분할이 시작되는 소정의 데이터 단위로서 상술한 기준 부호화 단위를 이용할 수 있다. 도 15와 관련하여 영상 부호화 장치(200)가 기준 부호화 단위를 이용하는 동작은, 도 15와 관련하여 상술한 영상 복호화 장치(100)가 기준 부호화 단위를 이용하는 동작에 반대되는 것일 수 있으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 부호화 장치(200)의 비트스트림 생성부(210)는 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보 중 적어도 하나를 포함하는 비트스트림을 상기 다양한 데이터 단위마다 생성할 수 있다. 정사각형 형태의 기준 부호화 단위(1500)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 3의 현재 부호화 단위(300)가 분할되는 과정을 통해 상술하였고, 비-정사각형 형태의 기준 부호화 단위(1500)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 4의 현재 부호화 단위(400 또는 450)가 분할되는 과정을 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 부호화부(220)는 소정의 조건에 기초하여 미리 결정되는 일부 데이터 단위에 따라 기준 부호화 단위의 크기 및 형태를 결정하기 위하여, 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용할 수 있다. 즉, 비트스트림 생성부(210)는 상기 다양한 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 최대부호화단위 등) 중 소정의 조건(예를 들면 슬라이스 이하의 크기를 갖는 데이터 단위)을 만족하는 데이터 단위마다, 기준 부호화 단위의 크기 및 형태의 식별을 위한 인덱스를 포함하는 비트스트림을 생성할 수 있다. 부호화부(220)는 인덱스를 이용함으로써 상기 소정의 조건을 만족하는 데이터 단위마다 기준 데이터 단위의 크기 및 형태를 결정할 수 있다.일 실시예에 따라 기준 부호화 단위의 크기 및 형태를 나타내는 인덱스와 관련된 기준 부호화 단위의 크기 및 형태 중 적어도 하나는 미리 결정되어 있을 수 있다. 즉, 부호화부(220)는 미리 결정된 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 인덱스에 따라 선택함으로써, 인덱스 획득의 기준이 되는 데이터 단위에 포함되는 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 결정할 수 있다. 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용하는 부호화부(220)의 동작은, 상술한 복호화부(120)의 동작과 유사한 것일 수 있으므로 자세한 설명은 생략하도록 한다.
도 16은 일 실시예에 따라 픽쳐(1600)에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
일 실시예에 따라 부호화부(220)는 프로세싱 블록의 크기에 대한 정보를 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 부호화부(220)는 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있고, 비트스트림 생성부(210)는 프로세싱 블록의 크기에 대한 정보를 포함하는 비트스트림을 생성할 수 있다. 이러한 프로세싱 블록의 크기는 프로세싱 블록의 크기에 대한 정보가 나타내는 데이터 단위의 소정의 크기일 수 있다.
일 실시예에 따라 영상 부호화 장치(200)의 비트스트림 생성부(210)는 프로세싱 블록의 크기에 대한 정보를 포함하는 비트스트림을 특정의 데이터 단위마다 생성할 수 있다. 예를 들면 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트 등의 데이터 단위마다 프로세싱 블록의 크기에 대한 정보를 포함하는 비트스트림을 생성할 수 있다. 즉, 비트스트림 생성부(210)는 상기 여러 데이터 단위마다 프로세싱 블록의 크기에 대한 정보를 포함하는 비트스트림을 생성할 수 있고, 부호화부(220)는 상기 프로세싱 블록의 크기에 대한 정보를 이용하여 픽쳐를 분할하는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있으며, 이러한 프로세싱 블록의 크기는 기준 부호화 단위의 정수배의 크기일 수 있다.
일 실시예에 따라 부호화부(220)는 픽쳐(1600)에 포함되는 프로세싱 블록(1602, 1612)의 크기를 결정할 수 있다. 예를 들면, 부호화부(220)는 프로세싱 블록의 크기에 대한 정보에 기초하여 프로세싱 블록의 크기를 결정할 수 있다. 도 16을 참조하면, 부호화부(220)는 일 실시예에 따라 프로세싱 블록(1602, 1612)의 가로크기를 기준 부호화 단위 가로크기의 4배, 세로크기를 기준 부호화 단위의 세로크기의 4배로 결정할 수 있다. 부호화부(220)는 적어도 하나의 프로세싱 블록 내에서 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다. 프로세싱 블록과 관련된 부호화부(220)의 동작은, 도 16과 관련하여 상술한 복호화부(120)의 동작과 유사한 것일 수 있으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 부호화 장치(200)의 비트스트림 생성부(210)는 현재 부호화 단위의 형태를 나타내는 블록 형태 정보 또는 현재 부호화 단위를 분할하는 방법을 나타내는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다. 블록 형태 정보 또는 분할 형태 정보는 다양한 데이터 단위와 관련된 비트스트림에 포함될 수 있다. 예를 들면, 영상 부호화 장치(200)의 비트스트림 생성부(210)는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header)에 포함된 블록 형태 정보 또는 분할 형태 정보를 이용할 수 있다. 나아가, 영상 부호화 장치(200)의 비트스트림 생성부(210)는 블록 형태 정보 또는 분할 형태 정보를 나타내는 신택스를 포함하는 비트스트림을 최대 부호화 단위, 기준 부호화 단위, 프로세싱 블록마다 생성할 수 있다.
일 실시예에 따라 부호화부(220)는 부호화 단위가 분할될 수 있는 분할 형태의 종류를 소정의 데이터 단위마다 다르게 결정할 수 있다. 영상 부호화 장치(200)의 부호화부(220)는 일 실시예에 따라 소정의 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스 등)마다 부호화 단위가 분할될 수 있는 형태들의 조합을 다르게 결정할 수 있다.
도 17은 일 실시예에 따라 부호화 단위가 분할될 수 있는 형태의 조합이 픽쳐마다 서로 다른 경우, 각각의 픽쳐마다 결정될 수 있는 부호화 단위들을 도시한다.
도 17을 참조하면, 부호화부(220)는 픽쳐마다 부호화 단위가 분할될 수 있는 분할 형태들의 조합을 다르게 결정할 수 있다. 예를 들면, 부호화부(220)는 영상에 포함되는 적어도 하나의 픽쳐들 중 4개의 부호화 단위로 분할될 수 있는 픽쳐(1700), 2개 또는 4개의 부호화 단위로 분할될 수 있는 픽쳐(1710) 및 2개, 3개 또는 4개의 부호화 단위로 분할될 수 있는 픽쳐(1720)를 이용하여 영상을 복호화 할 수 있다. 부호화부(220)는 픽쳐(1700)를 4개의 정사각형의 부호화 단위로 분할할 수 있다. 부호화부(220)는 픽쳐(1710)를 2개 또는 4개의 부호화 단위로 분할할 수 있다. 부호화부(220)는 픽쳐(1720)를 2개, 3개 또는 4개의 부호화 단위로 분할할 수 있다. 상술한 분할 형태의 조합은 영상 부호화 장치(200)의 동작을 설명하기 위한 실시예에 불과하므로 상술한 분할 형태의 조합은 상기 실시예에 한정하여 해석되어서는 안되며 소정의 데이터 단위마다 다양한 형태의 분할 형태의 조합이 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 영상 부호화 장치(200)의 부호화부(220)는 분할 형태 정보의 조합을 나타내는 인덱스를 이용하여 소정의 데이터 단위마다 부호화 단위가 분할될 수 있는 분할 형태의 조합을 결정할 수 있으며, 이에 따라 소정의 데이터 단위마다 서로 다른 분할 형태의 조합을 이용할 수 있다. 나아가 영상 부호화 장치(200)의 비트스트림 생성부(210)는 분할 형태 정보의 조합을 나타내는 인덱스를 포함하는 비트스트림을 소정의 데이터 단위 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스 등)마다 생성할 수 있다. 예를 들면, 비트스트림 생성부(210)는 분할 형태 정보의 조합을 나타내는 인덱스를 포함하는 시퀀스 파라미터 세트(Sequence Parameter Set), 픽쳐 파라미터 세트(Picture Parameter Set) 또는 슬라이스
도 18, 도 19는 일 실시예에 따라 바이너리(binary)코드로 표현될 수 있는 분할 형태 정보에 기초하여 결정될 수 있는 부호화 단위의 다양한 형태를 도시한다.
일 실시예에 따라 영상 부호화 장치(200)의 부호화부(220)는 부호화 단위를 다양한 형태로 분할할 수 있고, 비트스트림 생성부(210)를 통해 블록 형태 정보 및 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다. 분할될 수 있는 부호화 단위의 형태는 상술한 실시예들을 통해 설명한 형태들을 포함하는 다양한 형태에 해당할 수 있다. 도 18을 참조하면, 부호화부(220)는 분할 형태 정보에 기초하여 정사각형 형태의 부호화 단위를 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할할 수 있고, 비-정사각형 형태의 부호화 단위를 수평 방향 또는 수직 방향으로 분할할 수 있다. 영상 부호화 장치(200)가 이용할 수 있는 분할 형태 정보의 바이너리 코드에 대한 특징은 도 18 및 도 19를 통해 상술한 영상 복호화 장치(100)의 특징에 해당할 수 있으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따른 영상 부호화 장치(200)는, 부호화 단위에 대한 인터 예측 또는 인트라 예측을 수행하여 예측 데이터를 생성하고, 현재 부호화 단위에 포함된 변환 단위에 대해 역변환을 수행하여 레지듀얼 데이터를 생성하며, 생성된 예측 데이터와 레지듀얼 데이터를 이용하여 현재 부호화 단위를 부호화할 수 있다.
일 실시예에 따른 부호화 단위의 예측 모드는 인트라 모드, 인터 모드 및 스킵 모드 중 적어도 하나일 수 있다. 일 실시예에 따라, 부호화 단위 마다 독립적으로 예측이 수행되어 오차가 가장 작은 예측 모드가 선택될 수 있다.
일 실시예에 따른 2Nx2N 형태의 부호화 단위가 분할하여 두 개의 2NxN 또는 두 개의 Nx2N 형태의 부호화 단위들로 분할된 경우, 이들 각각의 부호화 단위에 대해서 인터 모드 예측 및 인트라 모드 예측이 별개로 수행될 수도 있다. 또한, 일 실시예에 따라 영상 부호화 장치(200)의 부호화부(220)는 부호화 단위가 정사각형 형태인 경우뿐만 아니라, 비-정사각형 형태인 경우에도 CU 스킵 모드(skip mode)를 이용하여 부호화 단위를 부호화할 수 있다. 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 결정될 수 있는 정사각형 형태의 부호화 단위뿐만 아니라 비-정사각형 형태의 부호화 단위의 경우에도 CU 스킵 모드를 이용하여 영상을 복호화 할 수 있음에 따라 상대적으로 더 적응적인 스킵 모드의 이용이 가능하게 됨으로써 영상 부/복호화 효율이 향상될 수 있다. 이러한 비-정사각형 형태의 부호화 단위에서 스킵모드를 이용하는 영상 부호화 장치(200)의 특징은 영상 부호화 장치(200)의 스킵모드 이용과 관련하여 상술한 특징과 유사한 것일 수 있으므로 자세한 설명은 생략하도록 한다.
도 22는 일 실시예에 따라 소정의 부호화 방법에 따라 결정된 부호화 단위들 간의 병합(merge) 또는 분할(split)이 수행되는 과정을 도시한다.
일 실시예에 따라 영상 부호화 장치(200)는 상술한 소정의 부호화 방법을 이용하여, 픽쳐를 분할하는 부호화 단위들을 결정할 수 있다. 예를 들면 영상 부호화 장치(200)는 부호화 단위의 분할 정보에 기초하여 현재 심도의 부호화 단위를 결정하거나 또는 하위 심도의 4개의 부호화 단위들로 분할할 수 있다. 상술한바와 같이 영상 부호화 장치(200)는 일 실시예에 따라 현재 부호화 단위는 항상 정사각형 형태를 가지는 것을 나타내는 블록 형태 정보, 현재 부호화 단위는 분할되지 않음을 나타내거나 4개의 정사각형 형태의 부호화 단위들로 분할되는 것을 나타낼 수 있는 분할 형태 정보를 이용하여 부호화 단위를 결정할 수 있다. 도 22를 참조하면, 상술한 소정의 부호화 방법에 따라 결정된 정사각형의 부호화 단위에 따라 픽쳐(2200, 2220)가 분할될 수 있다.
다만, 상술한 소정의 복호화 단위에 따르는 경우, 현재 부호화 단위가 분할될지 여부는 현재 부호화 단위 내에 포함되는 상대적으로 작은 오브젝트(object)가 표현되기에 적합한지 여부에 따라 결정되기 때문에, 픽쳐 내의 큰 오브젝트와 작은 오브젝트가 하나의 부호화 단위를 통해 부호화 되는 것은 불가능할 수 있다. 여기서 오브젝트란, 픽쳐에 포함된 샘플들의 집합으로서, 유사한 샘플값을 가짐으로써 다른 영역과 구분될 수 있는 샘플들의 영역을 의미할 수 있다. 도 22를 참조하면, 영상 부호화 장치(200)는 작은 오브젝트(2221)를 복원하기 위하여 제1 부호화 단위(2222)를 4개의 하위 심도의 부호화 단위로 분할함으로써 작은 오브젝트(2221)의 복호화를 위한 부호화 단위를 결정할 수 있다. 하지만, 큰 오브젝트(2223)가 현재 부호화 단위(2222)에 포함되지 않으므로 큰 오브젝트(2223)가 현재 부호화 단위(2222)를 이용하여 복호화 되기에는 부적합하며, 나아가 작은 오브젝트(2221)를 복호화 하기 위해 현재 부호화 단위(2222)가 분할되었기 때문에 결국 큰 오브젝트(2223)의 복호화를 위해 불필요한 부호화 단위의 분할 과정이 수행되어야 하므로 비효율적이다. 즉, 영상 부호화 장치(200)가 큰 오브젝트(2223)에 대한 부분을 부호화 하기 위하여 하나의 부호화 단위를 이용할 수 있다면 영상 부호화를 효율적으로 수행할 수 있다.
일 실시예에 따라 영상 부호화 장치(200)의 부호화부(220)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 현재 부호화 단위를 분할할 수 있으며, 블록 형태 정보는 정사각형 형태만을 이용하는 것으로 미리 결정되고, 분할 형태 정보는 분할하지 않거나 또는 4개의 정사각형 형태의 부호화 단위로 분할됨을 나타낼 수 있는 것으로 미리 결정될 수 있다. 이는 다양한 실시예를 통해 상술한 소정의 부호화 방법에서 이용되는 부호화 단위 결정 과정에 해당할 수 있다. 이 경우 부호화부(220)는 상기 소정의 부호화 방법을 이용하여 결정된 부호화 단위들을 서로 병합(merge)하거나 결정된 부호화 단위를 분할(split)하기 위하여, 픽쳐에 포함되는 샘플값을 이용할 수 있다. 예를 들면, 부호화부(220)는 유사한 샘플값을 가지는 부분을 검토하여 픽쳐에 포함되는 다양한 오브젝트들을 검출할 수 있으며, 이렇게 검출된 오브젝트들에 대한 부분에 기초하여 부호화 단위들의 병합/분할 과정을 수행할 수 있다.
도 22를 참조하면 일 실시예에 따라 부호화부(220)는 상술한 소정의 부호화 방법을 이용하여 픽쳐(2200)를 분할하는 복수개의 부호화 단위를 결정할 수 있다. 다만, 픽쳐에 포함된 유사한 샘플값을 가지는 부분(2201)이 존재함에도 불구하고, 유사 영역을 하나의 부호화 단위가 아닌 복수개의 부호화 단위로 분할하는 과정이 수행되는 경우가 있을 수 있다. 이 경우 부호화부(220)는 소정의 부호화 방법을 통해 부호화 단위가 결정되었더라도, 이러한 부호화 단위들을 하나의 부호화 단위(2202)로 병합하여 하나의 부호화 단위로서 부호화 할 수 있다. 도 22를 참조하면, 또 다른 실시예로서 부호화부(220)는 상술한 소정의 부호화 방법을 이용하여, 작은 오브젝트(2221)의 부호화를 위한 부호화 단위(2222)를 4개의 부호화 단위로 분할할 수 있다. 이렇게 분할된 부호화 단위들의 경우 검출된 큰 오브젝트(2223)가 모두 포함될 수 없으므로, 부호화부(220)는 유사한 샘플값을 가지는 부분을 포함하는 하나의 부호화 단위로 부호화 단위들을 병합(2225)할 수 있다.
일 실시예에 따라 부호화부(220)는 부호화 단위의 분할 정보를 이용하여 부호화 단위를 분할하지 않거나 4개의 부호화 단위로 분할하는 소정의 부호화 방법을 이용하여 부호화 단위를 결정한 다음, 픽쳐에 포함되는 샘플들의 샘플값을 고려하여 부호화 단위를 다시 분할할 수 있다. 즉, 부호화부(120)는 오브젝트 별로 부호화 단위를 결정하기 위하여, 부호화 단위 간의 병합뿐만 아니라 이미 결정된 부호화 단위를 분할할 수 있다. 도 22를 참조하면, 부호화부(120)는 오브젝트(2223)를 위해 부호화 단위를 병합할 수 있고, 오브젝트(2223)를 위해 최적화된 부호화 단위를 결정하기 위하여 오브젝트(2223)을 위해 병합된 부호화 단위를 다시 분할(2226)할 수 있다. 즉 부호화부(220)는 분할(2226)과정을 통해 오브젝트(2223)가 포함되지 않는 부분을 오브젝트(2223)와는 별개의 부호화 단위(2227)로 결정할 수 있다.
일 실시예에 따른 블록 형태 정보 및 블록 분할 정보에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 과정은, 도 13을 통해 전술한 바와 같다. 일 실시예에 따른 필터링 단위들의 루프 필터링 수행 정보는, 플래그 값이 1인 경우 해당 필터링 단위에 대해 루프 필터링이 수행됨을 나타내며, 0인 경우 루프 필터링이 수행되지 않음을 나타낸다. 표 1을 참조하면, 루프 필터링부(2040, 2070)에 의해 필터링의 대상이 되는 필터링 단위를 결정하기 위한 데이터 단위의 정보들은 필터 정보로서 모두 부호화되어 전송될 수 있다.
일 실시예에 따라 구성된 부호화 단위들은, 원본 영상과의 오차를 최소화하는 형태로 구성된 부호화 단위이므로, 부호화 단위 내에서 공간적 상관도가 높다고 예상된다. 따라서, 일 실시예에 따른 부호화 단위에 기반하여 필터링 단위가 결정됨으로써, 부호화 단위의 결정과 별도로 필터링 단위를 결정하는 동작이 생략될 수도 있다. 또한 이에 따라, 일 실시예에 따른 부호화 단위에 기반하여 필터링 단위를 결정함으로써 필터링 단위의 분할 형태를 결정하기 위한 정보를 생략할 수 있으므로 필터 정보의 전송 비트레이트를 절약할 수 있다.
전술한 실시예에서는 필터링 단위가 일 실시예에 따른 부호화 단위에 기반하여 결정되는 것으로 설명하였지만, 부호화 단위에 기반하여 필터링 단위의 분할을 수행하다가 임의의 심도에서 더 이상 분할하지 않고 해당 심도까지만 필터링 단위의 형태가 결정될 수도 있다.
전술한 실시예에 개시된 필터링 단위의 결정은 루프 필터링 뿐만 아니라, 디블로킹 필터링, 적응적 루프 필터링 등 다양한 실시예에도 적용될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 현재 부호화 단위를 분할할 수 있으며, 블록 형태 정보는 정사각형 형태만을 이용하는 것으로 미리 결정되고, 분할 형태 정보는 분할하지 않거나 또는 4개의 정사각형 형태의 부호화 단위로 분할됨을 나타낼 수 있는 것으로 미리 결정될 수 있다. 즉, 현재 부호화 단위는 상기 블록 형태 정보에 따르면 부호화 단위는 항상 정사각형 형태를 가지고, 상기 분할 형태 정보에 기초하여 분할되지 않거나 4개의 정사각형 형태의 부호화 단위들로 분할될 수 있다. 영상 복호화 장치(100)는 이러한 블록 형태 및 분할 형태만을 이용하는 것으로 미리 결정된 소정의 부호화 방법을 이용하여 생성된 비트스트림을 비트스트림 획득부(120)를 통해 획득할 수 있고, 복호화부(130)는 미리 결정된 블록 형태 및 분할 형태만을 이용할 수 있다. 이러한 경우 영상 복호화 장치(100)는 상술한 소정의 부호화 방법과 유사한 소정의 복호화 방법을 이용함으로써 소정의 부호화 방법과의 호환성 문제를 해결할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 정보가 나타낼 수 있는 다양한 형태들 중 미리 결정된 블록 형태 및 분할 형태만을 이용하는 상술한 소정의 복호화 방법을 이용하는 경우, 블록 형태 정보는 정사각형 형태만을 나타내게 되므로 영상 복호화 장치(100)는 비트스트림으로부터 블록 형태 정보를 획득하는 과정을 생략할 수 있다. 상술한 소정의 복호화 방법을 이용할 것인지 여부를 나타내는 신택스가 이용될 수 있고, 이러한 신택스는 시퀀스, 픽쳐, 슬라이스 단위, 최대부호화단위 등 복수개의 부호화 단위를 포함할 수 있는 다양한 형태의 데이터 단위마다 비트스트림으로부터 획득될 수 있다. 즉, 비트스트림 획득부(120)는 소정의 복호화 방법의 사용 여부를 나타내는 신택스에 기초하여 블록 형태 정보를 나타내는 신택스를 비트스트림으로부터 획득하는지 여부를 결정할 수 있다.
도 23은 일 실시예에 따른 부호화 단위의 Z 스캔 순서에 따른 인덱스를 도시한다.
일 실시예에 따른 영상 복호화 장치(100)는, 상위 데이터 단위에 포함된 하위 데이터 단위들을 Z 스캔 순서에 따라 스캔할 수 있다. 또한, 일 실시예에 따른 영상 복호화 장치(100)는 최대 부호화 단위 또는 프로세싱 블록에 포함되는 부호화 단위 내의 Z 스캔 인덱스에 따라 데이터를 순차적으로 액세스할 수 있다.
일 실시예에 따른 영상 복호화 장치(100)가 기준 부호화 단위를 적어도 하나의 부호화 단위로 분할할 수 있음은 도 3 내지 도 4를 참조하여 전술한 바와 같다. 이 때, 기준 부호화 단위 내에는 정사각형 형태의 부호화 단위들과 비-정사각형 형태의 부호화 단위들이 혼재할 수 있다. 일 실시예에 따른 영상 복호화 장치(100)는, 기준 부호화 단위 내의 각 부호화 단위에 포함된 Z 스캔 인덱스에 따라 데이터 액세스를 수행할 수 있다. 이 때, 기준 부호화 단위 내에 비-정사각형 형태의 부호화 단위가 존재하는지 여부에 따라 Z 스캔 인덱스를 적용하는 방식이 상이해질 수 있다.
일 실시예에 따라, 기준 부호화 단위 내에 비-정사각형 형태의 부호화 단위가 존재하지 않는 경우, 기준 부호화 단위 내의 하위 심도의 부호화 단위들끼리는 연속된 Z 스캔 인덱스를 가질 수 있다. 예를 들어, 일 실시예에 따라 상위 심도의 부호화 단위는 하위 심도의 부호화 단위 4 개를 포함할 수 있다. 여기서, 4 개의 하위 심도의 부호화 단위들은 서로 인접하는 경계가 연속적일 수 있으며, 각각의 하위 심도의 부호화 단위들은 Z 스캔 순서를 나타내는 인덱스에 따라 Z 스캔 순서로 스캔될 수 있다. 일 실시예에 따른 Z 스캔 순서를 나타내는 인덱스는 각 부호화 단위에 대해 Z 스캔 순서에 따라 증가하는 수로 설정될 수 있다. 이 경우, 동일한 심도의 심도별 부호화 단위들끼리 Z 스캔 순서에 따라 스캔이 가능하다.
일 실시예에 따라, 기준 부호화 단위 내에 비-정사각형 형태의 부호화 단위가 적어도 하나 이상 존재하는 경우, 영상 복호화 장치(100)는 기준 부호화 단위 내의 부호화 단위들을 각각 서브 블록들로 분할하여, 분할된 서브 블록들에 대해 Z 스캔 순서에 따른 스캔을 수행할 수 있다. 예를 들어, 기준 부호화 단위 내에 수직 방향 또는 수평 방향의 비-정사각형 형태의 부호화 단위가 존재하는 경우 분할된 서브 블록들을 이용하여 Z 스캔을 수행할 수 있다. 또한, 예를 들어, 기준 부호화 단위 내에서 홀수 개의 부호화 단위들로 분할이 수행된 경우 서브 블록들을 이용하여 Z 스캔을 수행할 수 있다. 서브 블록은, 더 이상 분할되지 않는 부호화 단위 또는 임의의 부호화 단위가 분할된 것으로서, 정사각형 형태일 수 있다. 예를 들어, 정사각형 형태의 부호화 단위로부터 4개의 정사각형 형태의 서브 블록들이 분할될 수 있다. 또한, 예를 들어, 비-정사각형 형태의 부호화 단위로부터는 2 개의 정사각형 형태의 서브 블록들이 분할될 수 있다.
도 23을 참조하여 예를 들면, 일 실시예에 따른 영상 복호화 장치(100)는, 부호화 단위(2300) 내에서 하위 심도의 부호화 단위들(2302, 2304, 2306, 2308, 2310)을 Z 스캔 순서에 따라 스캔할 수 있다. 부호화 단위(2300) 및 부호화 단위(2302, 2304, 2306, 2308, 2310)는, 각각 상대적으로 상위 부호화 단위 및 하위 부호화 단위이다. 부호화 단위(2300)는 수평 방향의 비-정사각형 형태의 부호화 단위(2306, 2310)를 포함한다. 이들 비-정사각형 형태의 부호화 단위들(2306, 2310)은 인접한 정사각형 형태의 부호화 단위(2302, 2304)와의 경계가 불연속적이다. 또한, 부호화 단위(2308)는 정사각형 형태이며, 비-정사각형 형태의 부호화 단위가 홀수 개로 분할 시 중간에 위치한 부호화 단위이다. 비-정사각형 형태의 부호화 단위들(2306, 2310)과 마찬가지로, 부호화 단위(2308)는 인접한 정사각형 형태의 부호화 단위(2302, 2304)와의 경계가 불연속적이다. 부호화 단위(2300) 내에 비-정사각형 형태의 부호화 단위(2306, 2310)가 포함되거나 비-정사각형 형태의 부호화 단위가 홀수 개로 분할 시 중간에 위치한 부호화 단위(2308)가 포함된 경우, 부호화 단위들 간에 인접하는 경계가 불연속적이기 때문에 연속적인 Z 스캔 인덱스가 설정될 수 없다. 따라서, 영상 복호화 장치(100)는 부호화 단위들을 서브 블록들로 분할함으로써 Z 스캔 인덱스를 연속적으로 설정할 수 있다. 또한, 영상 복호화 장치(100)는, 비-정사각형 형태의 부호화 단위(2306, 2310) 또는 홀수 개로 분할된 비-정사각형 형태의 부호화 단위의 중간에 위치한 부호화 단위(2308)에 대해 연속된 Z 스캔을 수행할 수 있다.
도 23에 도시된 부호화 단위(2320)는 부호화 단위(2300) 내의 부호화 단위들(2302, 2304, 2306, 2308, 2310)을 서브 블록들로 분할한 것이다. 서브 블록들 각각에 대해 Z 스캔 인덱스가 설정될 수 있고, 서브 블록들 간의 인접하는 경계는 연속적이므로, 서브 블록들끼리 Z 스캔 순서에 따라 스캔이 가능하다. 예를 들어, 일 실시예에 따른 복호화 장치에서, 부호화 단위(2308)는 서브 블록들(2322, 2324, 2326, 2328)로 분할될 수 있다. 이 때, 서브 블록(2322, 2324)은 서브 블록(2330)에 대한 데이터 처리 이후에 스캔될 수 있으며, 서브 블록(2326, 2328)은 서브 블록(2332)에 대한 데이터 처리 이후에 스캔될 수 있다. 또한, 각각의 서브 블록들끼리 Z 스캔 순서에 따라 스캔될 수 있다.
전술한 실시예에서, 데이터 단위들에 대해 Z 스캔 순서에 따라 스캔하는 것은, 데이터 저장, 데이터 로딩, 데이터 액세스 등을 위한 것일 수 있다.
또한, 전술한 실시예에서는, 데이터 단위들을 Z 스캔 순서에 따라 스캔할 수 있음을 설명하였지만, 데이터 단위들의 스캔 순서는 래스터 스캔, N 스캔, 우상향 대각 스캔, 수평적 스캔, 수직적 스캔 등 다양한 스캔 순서로 수행될 수 있고, Z 스캔 순서에 한정하여 해석되는 것은 아니다.
또한, 전술한 실시예에서는, 기준 부호화 단위 내의 부호화 단위들에 대해 스캔을 수행하는 것으로 설명하였지만, 이에 한정하여 해석되어서는 안되며, 스캔 수행의 대상은 최대 부호화 단위 또는 프로세싱 블록 내의 임의의 블록일 수 있다.
또한, 전술한 실시예에서는, 비-정사각형 형태의 블록이 적어도 하나 이상 존재하는 경우에만 서브 블록들로 분할하여 Z 스캔 순서에 따른 스캔을 수행하는 것으로 설명하였지만, 단순화된 구현을 위해 비-정사각형 형태의 블록이 존재하지 않는 경우에도 서브 블록들을 분할하여 Z 스캔 순서에 따른 스캔을 수행할 수도 있다.
일 실시예에 따른 영상 복호화 장치(100)는, 부호화 단위에 대한 인터 예측 또는 인트라 예측을 수행하여 예측 데이터를 생성하고, 현재 부호화 단위에 포함된 변환 단위에 대해 역변환을 수행하여 레지듀얼 데이터를 생성하며, 생성된 예측 데이터와 레지듀얼 데이터를 이용하여 현재 부호화 단위를 복원할 수 있다.
일 실시예에 따른 부호화 단위의 예측 모드는 인트라 모드, 인터 모드 및 스킵 모드 중 적어도 하나일 수 있다. 일 실시예에 따라, 부호화 단위 마다 독립적으로 예측 모드가 선택될 수 있다.
일 실시예에 따른 2Nx2N 형태의 부호화 단위가 분할하여 두 개의 2NxN 또는 두 개의 Nx2N 형태의 부호화 단위들로 분할된 경우, 이들 각각의 부호화 단위에 대해서 인터 모드 예측 및 인트라 모드 예측이 별개로 수행될 수도 있다. 또한, 일 실시예에 따른 2NxN 또는 Nx2N 형태의 부호화 단위에 대해서는 스킵 모드가 적용될 수도 있다.
한편, 일 실시예에 따른 영상 복호화 장치(100)는, 8x4 또는 4x8 형태의 부호화 단위의 스킵 모드에서 양방향 예측(bi-prediction)의 수행이 허용될 수도 있다. 스킵 모드에서는 부호화 단위에 대해 스킵 모드 정보만을 전송받기 때문에 해당 부호화 단위에 대한 레지듀얼 데이터의 이용이 생략된다. 따라서, 이 경우 역양자화 및 역변환에 대한 오버헤드(overhead)를 절약할 수 있다. 그 대신, 일 실시예에 따른 영상 복호화 장치(100)는 스킵 모드가 적용되는 부호화 단위에 대해 양방향 예측을 허용하여 복호화 효율을 높일 수 있다. 또한, 일 실시예에 따른 영상 복호화 장치(100)는 8x4 또는 4x8 형태의 부호화 단위에 대해 양방향 예측을 허용하되, 움직임 보상 단계에서 보간 탭(interpolation tap) 수를 상대적으로 적게 설정하여 메모리 대역폭을 효율적으로 사용할 수 있다. 일 예로, 8-탭의 보간 필터를 사용하는 대신 8 미만의 탭 수의 보간 필터(예를 들어, 2-탭 보간 필터)를 사용할 수도 있다.
또한, 일 실시예에 따른 영상 복호화 장치(100)는 현재 부호화 단위에 포함된 영역을 미리설정된 형태로 분할(예를 들어, 사선 기반 분할)하여 분할된 각 영역에 대한 인트라 또는 인터 예측 정보를 시그널링할 수도 있다.
일 실시예에 따른 영상 복호화 장치(100)는 인트라 모드를 이용하여 현재 부호화 단위의 예측 샘플을 현재 부호화 단위의 주변 샘플을 이용하여 획득할 수 있다. 이 때, 인트라 예측은 주변의 이미 재구성된 샘플들을 사용하여 예측을 수행하는데 이러한 샘플들을 참조 샘플이라고 한다.
도 24는 일 실시예에 따른 부호화 단위의 인트라 예측을 위한 참조 샘플을 나타내는 도면이다. 도 24를 참조하면, 블록 형태가 비-사각형 형태이고 수평 방향의 길이가 w, 수직 방향의 길이가 h인 현재 부호화 단위(2300)에 대하여, 상단의 참조 샘플(2302)이 w+h 개, 좌측의 참조 샘플(2304)이 w+h 개, 좌측 상단의 참조 샘플(2306)에 한 개로 총 2(w+h)+1 개의 참조 샘플이 필요하다. 참조 샘플의 준비를 위해, 참조 샘플이 존재하지 않는 부분에 대해 패딩을 수행하는 단계를 거치며, 재구성된 참조 샘플에 포함된 양자화 에러를 줄이기 위한 예측 모드별 참조 샘플 필터링 과정을 거칠 수도 있다.
전술한 실시예에서는 현재 부호화 단위의 블록 형태가 비-사각형 형태인 경우의 참조 샘플의 개수를 설명하였으나, 이러한 참조 샘플의 개수는 현재 부호화 단위가 사각형 형태의 블록 형태인 경우에도 동일하게 적용된다.
상술한 다양한 실시예들은 영상 복호화 장치(100)가 수행하는 영상 복호화 방법과 관련된 동작을 설명한 것이다. 이하에서는 이러한 영상 복호화 방법에 역순의 과정에 해당하는 영상 부호화 방법을 수행하는 영상 부호화 장치(200)의 동작을 다양한 실시예를 통해 설명하도록 한다.
도 2는 일 실시예에 따라 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 영상을 부호화 할 수 있는 영상 부호화 장치의 블록도를 도시한다.
도 2를 참조하면, 영상 부호화 장치(200)는 일 실시예에 따라 비디오 픽처로부터 인트라 예측을 위한 데이터 단위들을 결정하는 데이터 단위 결정부 (210), 소정의 예측 정보를 이용하여 제 1 인트라 예측 유형에 따른 제 1 데이터 단위에 대한 제 1 예측값을 생성하고, 데이터 단위에 인접 하는 데이터 단위를 이용하여 제 2 인트라 예측 유형에 따른 제 2 데이터 단위에 대한 제 2 예측값을 생성하고, 제 1 예측값 및 제 2 예측값 중 적어도 하나에 기초하여 결정되는 부호화 정보를 포함하는 비트스트림을 생성하여 비디오 픽처를 부호화하는 비트스트림 생성부(230) 및 부호화부(220)를 포함할 수 있다. 여기서 인트라 예측 유형 정보는 데이터 단위가 제 1 인트라 예측 유형 또는 제 2 인트라 예측 유형에 중 적어도 하나의 유형에 따라 예측되는지 나타내는 정보로서, 제 1 인트라 예측 유형은 주변 데이터 단위의 샘플값이 아닌 다른 정보를 이용하여 데이터 단위를 예측하는 것일 수 있고, 제 2 인트라 예측 유형은 주변 데이터 단위의 샘플값을 이용하여 데이터 단위를 예측하는 것일 수 있다.
일 실시예에 따라 영상 부호화 장치의 데이터 단위 결정부(210)는 데이터 단위가 제 1 인트라 예측 유형 또는 제 2 인트라 예측 유형 중 어떤 유형에 의해 예측되는지 결정할 수 있다. 한편, 예를 들어, 데이터 단위들은 코딩 유닛 (Coding Unit), 예측 유닛 (Prediction Unit), 또는 변환 유닛 (Transform Unit) 중 하나일 수 있다.
일 실시예에 따라 영상 부호화 장치(200)의 부호화부(220)는 제 1 인트라 예측 유형에 따른 제 1 데이터 단위에 대한 제 1 예측값을 생성하고, 제 2 인트라 예측 유형에 따른 제 2 데이터 단위에 대한 제 2 예측값을 생성할 수 있다. 또한, 부호화부(220)는 제 1 예측값 및 제 2 예측값을 이용하여 부호화 정보를 생성할 수 있다. 예를 들어, 제 1 인트라 예측 유형에 따른 예측은 주변 데이터 단위가 아닌 다른 정보를 이용하여 인트라 예측을 수행하는 것일 수 있다. 예를 들어, 제 2 인트라 예측 유형에 따른 예측은 주변 데이터 단위를 이용하여 인트라 예측을 수행하는 것일 수 있다.
일 실시예에 따라 영상 부호화 장치(200)의 비트스트림 생성부(230)는 제 1 예측값 및 제 2 예측값 중 적어도 하나에 기초하여 결정되는 부호화 정보를 포함하는 비트스트림을 생성할 수 있다. 또한, 비트스트림 생성부(230)는 제 1 데이터 단위들을 제 1 인트라 예측 유형에 따라 예측할 것인지, 제 2 인트라 예측 유형에 따라 예측할 것인지 나타내는 인트라 예측 유형 정보를 비트스트림에 포함되게 할 수 있다.
도 3은 일 실시예에 따라 제 1 인트라 예측 유형에 따라 예측되는 제 1 데이터 단위 및 제 2 인트라 예측 유형에 따라 예측되는 제 2 데이터 단위를 결정되는 과정을 도시한다.
일 실시예에 따라 데이터 단위 결정부(210)는 제 1 인트라 예측 유형에 따라 예측되는 제 1 데이터 단위들(310) 및 제 2 인트라 예측 유형에 따라 예측되는 제 2 데이터 단위들(320)을 결정할 수 있다. 즉, 예측되는 데이터 단위가 주변 데이터 단위를 이용하여 예측 되는지 또는 주변 데이터 단위에 대한 정보가 아닌 다른 정보를 이용하여 예측되는지 결정될 수 있다.
일 실시예에 따라, 부호화부(220)는 주변 데이터 단위에 대한 정보가 아닌 다른 정보를 이용하여 데이터 단위의 예측값을 생성할 수 있다. 예를 들어 부호화부(220)는 미리 저장되어 있는 값을 이용하여 데이터 단위의 예측 값을 생성할 수 있다. 예를 들어 미리 정장되어 있는 값은 RDO 결과에 따라 결정될 수 있다.
도 3과 관련하여 상술한 영상 복호화 장치(100)의 동작에 반대되는 과정일 수 있으므로 자세한 설명은 생략하도록 한다.
도 4는 일 실시예에 따라 소정의 예측 정보에 기초한 제 1 인트라 예측 유형에 따라 제 1 데이터 단위를 예측하는 과정을 도시한다.
일 실시예에 따라 부호화부(220)는 제 1 인트라 예측 유형에 따라 예측되는 제 1 데이터 단위들(420)은 주변 데이터 단위에 대한 정보가 아닌 다른 정보를 이용하여 예측될 수 있다. 예를 들어, 제 1 데이터 단위들(420)은 제 1 데이터 단위(420)가 포함된 상위 계층의 데이터 단위에 인접하는 샘플값(410)을 이용하여 예측될 수 있다. 제 1 데이터 단위(420)가 포함된 상위 계층의 데이터 단위에 인접하는 샘플값(410)은 CTU 경계의 주변 픽셀에 대한 정보, 또는 CU 경계의 주변 픽셀에 대한 정보를 포함할 수 있다. CTU 경계의 주변 픽셀에 대한 정보를 이용하여 예측을 수행하는 경우, 예측 대상 단위는 CU, PU, TU, 또는 CTU 일 수 있다. CU 경계의 주변 픽셀에 대한 정보 이용하여 예측을 수행하는 경우, 예측 대상 단위는 PU, TU, 또는 CU 일 수 있다.
도 5는 일 실시예에 따라 인접 하는 데이터 단위들을 이용하여 예측하는 제 2 인트라 예측 유형에 따라 제 2 데이터 단위를 예측하는 과정을 도시한다.
일 실시예에 따라 부호화부(220)는 데이터 단위에 인접하는 데이터 단위들을 이용하여 제 2 인트라 예측 유형에 따라 예측을 수행할 수 있다. 예를 들어, 데이터 단위(510)에 대한 예측을 수행하는 경우, 데이터 단위(510)의 하단에 인접하는 제 1 인트라 예측 유형에 따라 먼저 부호화된 데이터 단위(530)에 대한 정보(511)를 이용할 수 있다. 예를 들어, 데이터 단위(520)에 대한 예측을 수행하는 경우, 데이터 단위(520)의 우측에 인접하는 제 1 인트라 예측 유형에 따라 미리 부호화된 데이터 단위(530)에 대한 정보(521)를 이용할 수 있다.
일 실시예에 따라 부호화부(220)는 데이터 단위(510) 내의 예측되는 픽셀의 위치에 따라 좌측 또는 상단의 거리가 가까운 경우 좌측 및 상단의 샘플값을 이용하여 예측을 수행한다. 또는, 일 실시예에 따라 부호화부(220)는 데이터 단위(510) 내의 예측되는 픽셀의 위치에 따라 우측 또는 하단의 거리가 가까운 경우 우측 및 하단의 샘플값을 이용하여 예측을 수행한다.
도 6과 관련하여 상술한 영상 복호화 장치(100)의 동작에 반대되는 과정일 수 있으므로 자세한 설명은 생략하도록 한다.
도 7은 일 실시예에 따라 데이터 단위에 대하여 제 1 인트라 예측 유형 및 제 2 인트라 예측 유형이 결정되는 과정을 도시한다.
일 실시예 따라 비트스트림 생성부(230)는 각각의 CU, PU 또는 TU 에 대하여 제 1 인트라 예측 유형에 따라 예측값을 생성할 것인지, 또는 제 2 인트라 예측 유형에 따라 예측값을 생성할 것인지 나타내는 인트라 예측 유형 정보를 비트스트림에 포함되게 할 수 있다.
일 실시예에 따라 비트스트림 생성부(230)는 Intra_DC 모드에 대해서는 제 1 인트라 예측 유형에 따라 예측을 수행하고, Intra_DC 모드 외에 다른 모드에 대해서는 제 2 인트라 예측 유형에 따라 예측을 수행하도록 나타내는 인트라 예측 유형 정보를 비트스트림에 포함되게 할 수 있다.
일 실시예에 따라 비트스트림 생성부(230)는 데이터 단위를 제 1 데이터 단위 또는 제 2 데이터 단위 중 어느 하나로 분류할지 나타내는 인트라 예측 유형 정보를 비트스트림에 포함되게 할 수 있다.
도 9 는 일 실시예에 따라 인트라 예측 유형 정보를 이용한 비디오 부호화 방법의 흐름도를 도시한다.
단계 S910 에서 영상 부호화 장치(200)의 데이터 단위의 결정부(210)는 제 1 인트라 예측 유형에 따라 예측되는 제 1 데이터 단위 또는 제 2 인트라 예측 유형에 따라 예측되는 제 2 데이터 단위를 결정할 수 있다. 예를 들어, 제 1 인트라 예측 유형은 데이터 단위에 인접하는 데이터 단위들의 샘플값이 아닌 다른 정보를 이용하여 데이터 단위에 대한 예측을 수행하는 것일 수 있다. 예를 들어, 제 2 인트라 예측 유형은 데이터 단위에 인접하는 데이터 단위들의 샘플값을 이용하여 데이터 단위에 대한 예측을 수행하는 것일 수 있다.
단계 S920 에서 영상 부호화 장치(200)의 부호화부(220)는 제 1 인트라 예측 유형에 따른 제 1 데이터 단위에 대한 제 1 예측값을 생성하는 것일 수 있다.
단계 S930 에서 영상 부호화 장치(200)의 부호화부(220)는 제 2 인트라 예측 유형에 따른 제 2 데이터 단위에 대한 제 2 예측값을 생성하는 것일 수 있다.
단계 S940 에서 영상 부호화 장치(200)의 비트스트림 생성부(230)는 제 1 예측값 및 제 2 예측값 중 적어도 하나에 기초하여 결정되는 부호화 정보를 포함하는 비트스트림을 생성할 수 있다. 부호화부(220)는 비트스트림이 생성된 비디오 픽처를 부호화할 수 있다.
도 10은 일 실시예에 따라 영상 부호화 장치(200)가 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
일 실시예에 따라 부호화부(220) 정사각형 형태의 제1 부호화 단위(1000)를 비-정사각형 형태의 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)로 분할하는 것으로 결정할 수 있다. 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)는 독립적으로 분할될 수 있다. 이에 따라 부호화부(220)는 제2 부호화 단위(1010a, 1010b, 1020a, 1020b) 각각을 복수개의 부호화 단위로 분할하거나 분할하지 않는 것을 결정할 수 있다. 도 10과 관련한 영상 부호화 장치(200)가 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족 시 분할될 수 있는 형태가 제한하는 동작은, 도 10과 관련하여 상술한 영상 복호화 장치(100)의 동작에 반대되는 것일 수 있으므로 자세한 설명은 생략하도록 한다.
도 11은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 부호화 장치(200)가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다. 이와 관련한 영상 부호화 장치(200)의 동작은, 도 11과 관련하여 상술한 영상 복호화 장치(100)의 동작에 반대되는 것일 수 있으므로 자세한 설명은 생략하도록 한다.
도 12는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
일 실시예에 따라 부호화부(220)는 정사각형 형태의 제1 부호화 단위(1200)를 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할할 수 있다. 일 실시예에 따라 비트스트림 생성부(230)는 제1 부호화 단위(1200)가 정사각형 형태임을 나타내는 블록 형태 정보 및 제1 부호화 단위(1200)가 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할됨을 나타내는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다.
일 실시예에 따라 부호화부(220)는 제1 부호화 단위(1200)를 분할하여 제2 부호화 단위(예를 들면, 1210a, 1210b, 1220a, 1220b, 1230a, 1230b, 1230c, 1230d 등)를 결정할 수 있다. 도 12를 참조하면 제1 부호화 단위1200)가 수평 방향 또는 수직 방향만으로 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)는 독립적으로 분할될 수 있다. 예를 들면 부호화부(220)는 제1 부호화 단위(1200)가 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 제1 부호화 단위(1200)가 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 도 10과 관련한 영상 부호화 장치(200)의 동작은, 도 10과 관련하여 상술한 영상 복호화 장치(100)의 동작에 반대되는 것일 수 있으므로 자세한 설명은 생략하도록 한다.
도 13은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다. 영상 부호화 장치(200)의 부호화부(220)가 부호화 단위의 심도를 결정하는 과정은, 도 13과 관련하여 상술한 영상 복호화 장치(100)의 복호화부(130)가 부호화 단위의 심도를 결정하는 과정에 반대되는 것일 수 있으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 부호화 장치(200)는 현재 부호화 단위로부터 분할되어 결정된 복수개의 부호화 단위들을 구분하기 위한 인덱스의 값에 기초하여 특정 분할 형태로 분할된 것인지를 결정할 수 있다. 도 14를 참조하면 영상 부호화 장치(200)는 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)를 분할하여 짝수개의 부호화 단위(1412a, 1412b)를 결정하거나 홀수개의 부호화 단위(1414a, 1414b, 1414c)를 결정할 수 있다. 영상 부호화 장치(200)는 복수개의 부호화 단위 각각을 구분하기 위하여 각 부호화 단위를 나타내는 인덱스(PID)를 이용할 수 있다. 일 실시예에 따라 PID는 각각의 부호화 단위의 소정 위치의 샘플(예를 들면, 좌측 상단 샘플)에서 획득될 수 있다. 도 14와 관련된 영상 부호화 장치(200)의 동작은, 도 14와 관련하여 상술한 영상 복호화 장치(100)의 동작에 반대되는 것일 수 있으므로 자세한 설명은 생략하도록 한다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다. 일 실시예에 따라 부호화부(220)는 부호화 단위의 재귀적인 분할이 시작되는 소정의 데이터 단위로서 상술한 기준 부호화 단위를 이용할 수 있다. 도 15와 관련하여 영상 부호화 장치(200)가 기준 부호화 단위를 이용하는 동작은, 도 15와 관련하여 상술한 영상 복호화 장치(100)가 기준 부호화 단위를 이용하는 동작에 반대되는 것일 수 있으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 부호화 장치(200)의 비트스트림 생성부(230)는 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보 중 적어도 하나를 포함하는 비트스트림을 상기 다양한 데이터 단위마다 생성할 수 있다. 정사각형 형태의 기준 부호화 단위(1500)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 3의 현재 부호화 단위(300)가 분할되는 과정을 통해 상술하였고, 비-정사각형 형태의 기준 부호화 단위(1500)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 4의 현재 부호화 단위(400 또는 450)가 분할되는 과정을 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 부호화부(220)는 소정의 조건에 기초하여 미리 결정되는 일부 데이터 단위에 따라 기준 부호화 단위의 크기 및 형태를 결정하기 위하여, 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용할 수 있다. 즉, 비트스트림 생성부(230)는 상기 다양한 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 최대부호화단위 등) 중 소정의 조건(예를 들면 슬라이스 이하의 크기를 갖는 데이터 단위)을 만족하는 데이터 단위마다, 기준 부호화 단위의 크기 및 형태의 식별을 위한 인덱스를 포함하는 비트스트림을 생성할 수 있다. 부호화부(220)는 인덱스를 이용함으로써 상기 소정의 조건을 만족하는 데이터 단위마다 기준 데이터 단위의 크기 및 형태를 결정할 수 있다. 일 실시예에 따라 기준 부호화 단위의 크기 및 형태를 나타내는 인덱스와 관련된 기준 부호화 단위의 크기 및 형태 중 적어도 하나는 미리 결정되어 있을 수 있다. 즉, 부호화부(220)는 미리 결정된 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 인덱스에 따라 선택함으로써, 인덱스 획득의 기준이 되는 데이터 단위에 포함되는 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 결정할 수 있다. 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용하는 부호화부(220)의 동작은, 상술한 복호화부(130)의 동작과 유사한 것일 수 있으므로 자세한 설명은 생략하도록 한다.
도 16은 일 실시예에 따라 픽쳐(1600)에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
일 실시예에 따라 부호화부(220)는 프로세싱 블록의 크기에 대한 정보를 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 부호화부(220)는 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있고, 비트스트림 생성부(230)는 프로세싱 블록의 크기에 대한 정보를 포함하는 비트스트림을 생성할 수 있다. 이러한 프로세싱 블록의 크기는 프로세싱 블록의 크기에 대한 정보가 나타내는 데이터 단위의 소정의 크기일 수 있다.
일 실시예에 따라 영상 부호화 장치(200)의 비트스트림 생성부(230)는 프로세싱 블록의 크기에 대한 정보를 포함하는 비트스트림을 특정의 데이터 단위마다 생성할 수 있다. 예를 들면 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트 등의 데이터 단위마다 프로세싱 블록의 크기에 대한 정보를 포함하는 비트스트림을 생성할 수 있다. 즉, 비트스트림 생성부(230)는 상기 여러 데이터 단위마다 프로세싱 블록의 크기에 대한 정보를 포함하는 비트스트림을 생성할 수 있고, 부호화부(220)는 상기 프로세싱 블록의 크기에 대한 정보를 이용하여 픽쳐를 분할하는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있으며, 이러한 프로세싱 블록의 크기는 기준 부호화 단위의 정수배의 크기일 수 있다.
일 실시예에 따라 부호화부(220)는 픽쳐(1600)에 포함되는 프로세싱 블록(1602, 1612)의 크기를 결정할 수 있다. 예를 들면, 부호화부(220)는 프로세싱 블록의 크기에 대한 정보에 기초하여 프로세싱 블록의 크기를 결정할 수 있다. 도 16을 참조하면, 부호화부(220)는 일 실시예에 따라 프로세싱 블록(1602, 1612)의 가로크기를 기준 부호화 단위 가로크기의 4배, 세로크기를 기준 부호화 단위의 세로크기의 4배로 결정할 수 있다. 부호화부(220)는 적어도 하나의 프로세싱 블록 내에서 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다. 프로세싱 블록과 관련된 부호화부(220)의 동작은, 도 16과 관련하여 상술한 복호화부(130)의 동작과 유사한 것일 수 있으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 부호화 장치(200)의 비트스트림 생성부(230)는 현재 부호화 단위의 형태를 나타내는 블록 형태 정보 또는 현재 부호화 단위를 분할하는 방법을 나타내는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다. 블록 형태 정보 또는 분할 형태 정보는 다양한 데이터 단위와 관련된 비트스트림에 포함될 수 있다. 예를 들면, 영상 부호화 장치(200)의 비트스트림 생성부(230)는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header)에 포함된 블록 형태 정보 또는 분할 형태 정보를 이용할 수 있다. 나아가, 영상 부호화 장치(200)의 비트스트림 생성부(230)는 블록 형태 정보 또는 분할 형태 정보를 나타내는 신택스를 포함하는 비트스트림을 최대 부호화 단위, 기준 부호화 단위, 프로세싱 블록마다 생성할 수 있다.
일 실시예에 따라 부호화부(220)는 부호화 단위가 분할될 수 있는 분할 형태의 종류를 소정의 데이터 단위마다 다르게 결정할 수 있다. 영상 부호화 장치(200)의 부호화부(220)는 일 실시예에 따라 소정의 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스 등)마다 부호화 단위가 분할될 수 있는 형태들의 조합을 다르게 결정할 수 있다.
도 17은 일 실시예에 따라 부호화 단위가 분할될 수 있는 형태의 조합이 픽쳐마다 서로 다른 경우, 각각의 픽쳐마다 결정될 수 있는 부호화 단위들을 도시한다.
도 17을 참조하면, 부호화부(220)는 픽쳐마다 부호화 단위가 분할될 수 있는 분할 형태들의 조합을 다르게 결정할 수 있다. 예를 들면, 부호화부(220)는 영상에 포함되는 적어도 하나의 픽쳐들 중 4개의 부호화 단위로 분할될 수 있는 픽쳐(1700), 2개 또는 4개의 부호화 단위로 분할될 수 있는 픽쳐(1710) 및 2개, 3개 또는 4개의 부호화 단위로 분할될 수 있는 픽쳐(1720)를 이용하여 영상을 복호화 할 수 있다. 부호화부(220)는 픽쳐(1700)를 4개의 정사각형의 부호화 단위로 분할할 수 있다. 부호화부(220)는 픽쳐(1710)를 2개 또는 4개의 부호화 단위로 분할할 수 있다. 부호화부(220)는 픽쳐(1720)를 2개, 3개 또는 4개의 부호화 단위로 분할할 수 있다. 상술한 분할 형태의 조합은 영상 부호화 장치(200)의 동작을 설명하기 위한 실시예에 불과하므로 상술한 분할 형태의 조합은 상기 실시예에 한정하여 해석되어서는 안되며 소정의 데이터 단위마다 다양한 형태의 분할 형태의 조합이 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 영상 부호화 장치(200)의 부호화부(220)는 분할 형태 정보의 조합을 나타내는 인덱스를 이용하여 소정의 데이터 단위마다 부호화 단위가 분할될 수 있는 분할 형태의 조합을 결정할 수 있으며, 이에 따라 소정의 데이터 단위마다 서로 다른 분할 형태의 조합을 이용할 수 있다. 나아가 영상 부호화 장치(200)의 비트스트림 생성부(230)는 분할 형태 정보의 조합을 나타내는 인덱스를 포함하는 비트스트림을 소정의 데이터 단위 (예를 들면, 시퀀스, 픽쳐, 슬라이스 등)마다 생성할 수 있다. 예를 들면, 비트스트림 생성부(230)는 분할 형태 정보의 조합을 나타내는 인덱스를 포함하는 시퀀스 파라미터 세트(Sequence Parameter Set), 픽쳐 파라미터 세트(Picture Parameter Set) 또는 슬라이스
도 18, 도 19는 일 실시예에 따라 바이너리(binary)코드로 표현될 수 있는 분할 형태 정보에 기초하여 결정될 수 있는 부호화 단위의 다양한 형태를 도시한다.
일 실시예에 따라 영상 부호화 장치(200)의 부호화부(220)는 부호화 단위를 다양한 형태로 분할할 수 있고, 비트스트림 생성부(230)를 통해 블록 형태 정보 및 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다. 분할될 수 있는 부호화 단위의 형태는 상술한 실시예들을 통해 설명한 형태들을 포함하는 다양한 형태에 해당할 수 있다. 도 18을 참조하면, 부호화부(220)는 분할 형태 정보에 기초하여 정사각형 형태의 부호화 단위를 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할할 수 있고, 비-정사각형 형태의 부호화 단위를 수평 방향 또는 수직 방향으로 분할할 수 있다. 영상 부호화 장치(200)가 이용할 수 있는 분할 형태 정보의 바이너리 코드에 대한 특징은 도 18 및 도 19를 통해 상술한 영상 복호화 장치(100)의 특징에 해당할 수 있으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따른 영상 부호화 장치(200)는, 부호화 단위에 대한 인터 예측 또는 인트라 예측을 수행하여 예측 데이터를 생성하고, 현재 부호화 단위에 포함된 변환 단위에 대해 역변환을 수행하여 레지듀얼 데이터를 생성하며, 생성된 예측 데이터와 레지듀얼 데이터를 이용하여 현재 부호화 단위를 부호화할 수 있다.
일 실시예에 따른 부호화 단위의 예측 모드는 인트라 모드, 인터 모드 및 스킵 모드 중 적어도 하나일 수 있다. 일 실시예에 따라, 부호화 단위 마다 독립적으로 예측이 수행되어 오차가 가장 작은 예측 모드가 선택될 수 있다.
일 실시예에 따른 2Nx2N 형태의 부호화 단위가 분할하여 두 개의 2NxN 또는 두 개의 Nx2N 형태의 부호화 단위들로 분할된 경우, 이들 각각의 부호화 단위에 대해서 인터 모드 예측 및 인트라 모드 예측이 별개로 수행될 수도 있다. 또한, 일 실시예에 따라 영상 부호화 장치(200)의 부호화부(220)는 부호화 단위가 정사각형 형태인 경우뿐만 아니라, 비-정사각형 형태인 경우에도 CU 스킵 모드(skip mode)를 이용하여 부호화 단위를 부호화할 수 있다. 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 결정될 수 있는 정사각형 형태의 부호화 단위뿐만 아니라 비-정사각형 형태의 부호화 단위의 경우에도 CU 스킵 모드를 이용하여 영상을 복호화 할 수 있음에 따라 상대적으로 더 적응적인 스킵 모드의 이용이 가능하게 됨으로써 영상 부/복호화 효율이 향상될 수 있다. 이러한 비-정사각형 형태의 부호화 단위에서 스킵모드를 이용하는 영상 부호화 장치(200)의 특징은 영상 부호화 장치(200)의 스킵모드 이용과 관련하여 상술한 특징과 유사한 것일 수 있으므로 자세한 설명은 생략하도록 한다.
도 22는 일 실시예에 따라 소정의 부호화 방법에 따라 결정된 부호화 단위들 간의 병합(merge) 또는 분할(split)이 수행되는 과정을 도시한다.
일 실시예에 따라 영상 부호화 장치(200)는 상술한 소정의 부호화 방법을 이용하여, 픽쳐를 분할하는 부호화 단위들을 결정할 수 있다. 예를 들면 영상 부호화 장치(200)는 부호화 단위의 분할 정보에 기초하여 현재 심도의 부호화 단위를 결정하거나 또는 하위 심도의 4개의 부호화 단위들로 분할할 수 있다. 상술한 바와 같이 영상 부호화 장치(200)는 일 실시예에 따라 현재 부호화 단위는 항상 정사각형 형태를 가지는 것을 나타내는 블록 형태 정보, 현재 부호화 단위는 분할되지 않음을 나타내거나 4개의 정사각형 형태의 부호화 단위들로 분할되는 것을 나타낼 수 있는 분할 형태 정보를 이용하여 부호화 단위를 결정할 수 있다. 도 22를 참조하면, 상술한 소정의 부호화 방법에 따라 결정된 정사각형의 부호화 단위에 따라 픽쳐(2200, 2220)가 분할될 수 있다.
다만, 상술한 소정의 복호화 단위에 따르는 경우, 현재 부호화 단위가 분할될지 여부는 현재 부호화 단위 내에 포함되는 상대적으로 작은 오브젝트(object)가 표현되기에 적합한지 여부에 따라 결정되기 때문에, 픽쳐 내의 큰 오브젝트와 작은 오브젝트가 하나의 부호화 단위를 통해 부호화 되는 것은 불가능할 수 있다. 여기서 오브젝트란, 픽쳐에 포함된 샘플들의 집합으로서, 유사한 샘플값을 가짐으로써 다른 영역과 구분될 수 있는 샘플들의 영역을 의미할 수 있다. 도 22를 참조하면, 영상 부호화 장치(200)는 작은 오브젝트(2221)를 복원하기 위하여 제1 부호화 단위(2222)를 4개의 하위 심도의 부호화 단위로 분할함으로써 작은 오브젝트(2221)의 복호화를 위한 부호화 단위를 결정할 수 있다. 하지만, 큰 오브젝트(2223)가 현재 부호화 단위(2222)에 포함되지 않으므로 큰 오브젝트(2223)가 현재 부호화 단위(2222)를 이용하여 복호화 되기에는 부적합하며, 나아가 작은 오브젝트(2221)를 복호화 하기 위해 현재 부호화 단위(2222)가 분할되었기 때문에 결국 큰 오브젝트(2223)의 복호화를 위해 불필요한 부호화 단위의 분할 과정이 수행되어야 하므로 비효율적이다. 즉, 영상 부호화 장치(200)가 큰 오브젝트(2223)에 대한 부분을 부호화 하기 위하여 하나의 부호화 단위를 이용할 수 있다면 영상 부호화를 효율적으로 수행할 수 있다.
일 실시예에 따라 영상 부호화 장치(200)의 부호화부(220)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 현재 부호화 단위를 분할할 수 있으며, 블록 형태 정보는 정사각형 형태만을 이용하는 것으로 미리 결정되고, 분할 형태 정보는 분할하지 않거나 또는 4개의 정사각형 형태의 부호화 단위로 분할됨을 나타낼 수 있는 것으로 미리 결정될 수 있다. 이는 다양한 실시예를 통해 상술한 소정의 부호화 방법에서 이용되는 부호화 단위 결정 과정에 해당할 수 있다. 이 경우 부호화부(220)는 상기 소정의 부호화 방법을 이용하여 결정된 부호화 단위들을 서로 병합(merge)하거나 결정된 부호화 단위를 분할(split)하기 위하여, 픽쳐에 포함되는 샘플값을 이용할 수 있다. 예를 들면, 부호화부(220)는 유사한 샘플값을 가지는 부분을 검토하여 픽쳐에 포함되는 다양한 오브젝트들을 검출할 수 있으며, 이렇게 검출된 오브젝트들에 대한 부분에 기초하여 부호화 단위들의 병합/분할 과정을 수행할 수 있다.
도 22를 참조하면 일 실시예에 따라 부호화부(220)는 상술한 소정의 부호화 방법을 이용하여 픽쳐(2200)를 분할하는 복수개의 부호화 단위를 결정할 수 있다. 다만, 픽쳐에 포함된 유사한 샘플값을 가지는 부분(2201)이 존재함에도 불구하고, 유사 영역을 하나의 부호화 단위가 아닌 복수개의 부호화 단위로 분할하는 과정이 수행되는 경우가 있을 수 있다. 이 경우 부호화부(220)는 소정의 부호화 방법을 통해 부호화 단위가 결정되었더라도, 이러한 부호화 단위들을 하나의 부호화 단위(2202)로 병합하여 하나의 부호화 단위로서 부호화 할 수 있다. 도 22를 참조하면, 또 다른 실시예로서 부호화부(220)는 상술한 소정의 부호화 방법을 이용하여, 작은 오브젝트(2221)의 부호화를 위한 부호화 단위(2222)를 4개의 부호화 단위로 분할할 수 있다. 이렇게 분할된 부호화 단위들의 경우 검출된 큰 오브젝트(2223)가 모두 포함될 수 없으므로, 부호화부(220)는 유사한 샘플값을 가지는 부분을 포함하는 하나의 부호화 단위로 부호화 단위들을 병합(2225)할 수 있다.
일 실시예에 따라 부호화부(220)는 부호화 단위의 분할 정보를 이용하여 부호화 단위를 분할하지 않거나 4개의 부호화 단위로 분할하는 소정의 부호화 방법을 이용하여 부호화 단위를 결정한 다음, 픽쳐에 포함되는 샘플들의 샘플값을 고려하여 부호화 단위를 다시 분할할 수 있다. 즉, 부호화부(130)는 오브젝트 별로 부호화 단위를 결정하기 위하여, 부호화 단위 간의 병합뿐만 아니라 이미 결정된 부호화 단위를 분할할 수 있다. 도 22를 참조하면, 부호화부(130)는 오브젝트(2223)를 위해 부호화 단위를 병합할 수 있고, 오브젝트(2223)를 위해 최적화된 부호화 단위를 결정하기 위하여 오브젝트(2223)을 위해 병합된 부호화 단위를 다시 분할(2226)할 수 있다. 즉 부호화부(220)는 분할(2226)과정을 통해 오브젝트(2223)가 포함되지 않는 부분을 오브젝트(2223)와는 별개의 부호화 단위(2227)로 결정할 수 있다.
상술한 영상 부호화 장치(200)의 동작을 통해 소정의 부호화 방법에 따라 결정된 부호화 단위들 간의 병합(merge) 또는 분할(split)을 수행한 후 영상에 대한 비트스트림을 생성한 경우, 영상 복호화 장치(100)로서는 이러한 비트스트림을 획득한 후 상술한 영상 부호화 방법의 역순의 동작에 해당하는 영상 복호화 방법을 수행함으로써 영상을 복호화 할 수 있다.
도 23은 일 실시예에 따른 부호화 단위의 Z 스캔 순서에 따른 인덱스를 도시한다.
일 실시예에 따른 영상 부호화 장치(200)의 부호화부(220)는, 상위 데이터 단위에 포함된 하위 데이터 단위들을 Z 스캔 순서에 따라 스캔할 수 있다. 또한, 일 실시예에 따른 영상 부호화 장치(200)는 최대 부호화 단위 또는 프로세싱 블록에 포함되는 부호화 단위 내의 Z 스캔 인덱스에 따라 데이터를 순차적으로 액세스할 수 있다. 일 실시예에 따른 영상 부호화 장치(200)의 부호화부(220)가 기준 부호화 단위를 적어도 하나의 부호화 단위로 분할할 수 있음은 도 3 내지 도 4를 참조하여 전술한 바와 같다. 이 때, 기준 부호화 단위 내에는 정사각형 형태의 부호화 단위들과 비-정사각형 형태의 부호화 단위들이 혼재할 수 있다. 영상 부호화 장치(200)가 부호화 단위의 Z 스캔 순서에 따른 인덱스에 대한 특징은 도 23을 통해 상술한 영상 복호화 장치(100)의 특징과 유사한 특징일 수 있으므로 자세한 설명은 생략하도록 한다.
이제까지 다양한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.

Claims (15)

  1. 비디오 복호화 방법에 있어서,
    비디오 픽처로부터 인트라 예측을 위한 데이터 단위들을 결정하는 단계;
    비트스트림으로부터, 상기 데이터 단위들을 소정의 예측 정보를 이용하여 예측하는 제 1 인트라 예측 유형에 따라 예측할 것인지 상기 데이터 단위들에 인접 하는 데이터 단위들을 이용하여 예측하는 제 2 인트라 예측 유형에 따라 예측할 것인지 나타내는 인트라 예측 유형 정보를 획득하는 단계;
    상기 비트스트림으로부터 획득된 상기 인트라 예측 유형 정보에 기초하여, 상기 제 1 인트라 예측 유형에 따라 예측되는 제 1 데이터 단위들 및 상기 제 2 인트라 예측 유형에 따라 예측되는 제 2 데이터 단위들을 결정하는 단계;
    상기 소정의 예측 정보를 이용하여 상기 제 1 인트라 예측 유형에 따른 상기 제 1 데이터 단위에 대한 제 1 예측값을 생성하는 단계; 및
    상기 데이터 단위에 인접 하는 데이터 단위를 이용하여 상기 제 2 인트라 예측 유형에 따른 상기 제 2 데이터 단위에 대한 제 2 예측값을 생성하는 단계를 포함하는, 상기 비디오 복호화 방법.
  2. 제 1 항에 있어서,
    상기 소정의 예측 정보는 SPS(Sequence Parameter Set), PPS(Picture Parameter Set) 또는 슬라이스 헤더 중 적어도 하나에 포함된, 상기 비디오 복호화 방법.
  3. 제 1 항에 있어서,
    상기 소정의 예측 정보는 상기 제 1 인트라 예측 유형에 따라 예측되는 상기 제 1 데이터 단위가 포함된 상위 계층의 데이터 단위에 인접하는 샘플값을 포함하는, 상기 비디오 복호화 방법.
  4. 제 1 항에 있어서,
    상기 제 2 인트라 예측 유형에 따른 제 2 데이터 단위에 대한 제 2 예측값을 생성하는 단계는 상기 제 2 인트라 예측 유형에 따른 상기 제 2 데이터 단위에 인접하는 좌측 데이터 단위 또는 상단 데이터 단위 중 적어도 하나를 이용하여 예측값을 생성하는 단계를 더 포함하는, 상기 비디오 복호화 방법.
  5. 제 1 항에 있어서,
    상기 제 2 인트라 예측 유형에 따른 제 2 데이터 단위에 대한 제 2 예측값을 생성하는 단계는 상기 제 2 인트라 예측 유형에 따른 상기 제 2 데이터 단위에 인접하는 우측 데이터 단위 또는 하단 데이터 단위 중 적어도 하나를 이용하여 예측값을 생성하는 단계를 더 포함하는, 상기 비디오 복호화 방법.
  6. 제 1 항에 있어서,
    상기 제 2 인트라 예측 유형에 따라 예측되는 상기 제 2 데이터 단위의 상기 제 2 예측값을 필터링 하는 단계를 포함하는, 상기 비디오 복호화 방법.
  7. 제 1 항에 있어서,
    상기 데이터 단위들은 코딩 유닛 (Coding Unit), 예측 유닛 (Prediction Unit), 또는 변환 유닛 (Transform Unit) 중 하나인, 상기 비디오 복호화 방법.
  8. 비디오 부호화 방법에 있어서,
    소정의 예측 정보를 이용하여 예측하는 제 1 인트라 예측 유형에 따른 제 1 데이터 단위들 및 제 2 데이터 단위에 인접 하는 데이터 단위를 이용하여 예측하는 제 2 인트라 예측 유형에 따른 상기 제 2 데이터 단위들을 결정하는 단계;
    상기 소정의 예측 정보를 이용하여 상기 제 1 인트라 예측 유형에 따른 상기 제 1 데이터 단위에 대한 제 1 예측값을 생성하는 단계;
    상기 제 2 데이터 단위에 인접 하는 데이터 단위를 이용하여 상기 제 2 인트라 예측 유형에 따른 상기 제 2 데이터 단위에 대한 제 2 예측값을 생성하는 단계; 및
    상기 제 1 예측값 또는 상기 제 2 예측값 중 적어도 하나에 기초하여 결정되는 부호화 정보를 포함하는 비트스트림을 생성하여 비디오 픽처를 부호화하는 단계를 포함하고,
    상기 비트스트림은 상기 소정의 예측 정보를 포함하는, 상기 비디오 부호화 방법.
  9. 제 8 항에 있어서,
    상기 소정의 예측 정보는 SPS(Sequence Parameter Set), PPS(Picture Parameter Set) 또는 슬라이스 헤더 중 적어도 하나에 포함되는, 상기 비디오 부호화 방법.
  10. 제 8 항에 있어서,
    상기 소정의 예측 정보는 상기 제 1 인트라 예측 유형에 따라 예측되는 상기 제 1 데이터 단위가 포함된 상위 계층의 데이터 단위에 인접하는 샘플값을 포함하는, 상기 비디오 부호화 방법.
  11. 제 8 항에 있어서,
    상기 제 2 인트라 예측 유형에 따른 제 2 데이터 단위에 대한 제 2 예측값을 생성하는 단계는 상기 제 2 인트라 예측 유형에 따른 상기 제 2 데이터 단위에 인접하는 좌측 데이터 단위 또는 상단 데이터 단위 중 적어도 하나를 이용하여 예측값을 생성하는 단계를 더 포함하는, 상기 비디오 부호화 방법.
  12. 제 8 항에 있어서,
    상기 제 2 인트라 예측 유형에 따른 데이터 단위에 대한 제 2 예측값을 생성하는 단계는 상기 제 2 인트라 예측 유형에 따른 상기 제 2 데이터 단위에 인접하는 우측 데이터 단위 또는 하단 데이터 단위 중 적어도 하나를 이용하여 예측값을 생성하는 단계를 더 포함하는, 상기 비디오 부호화 방법.
  13. 제 8 항에 있어서,
    상기 제 2 인트라 예측 유형에 따라 예측되는 상기 제 2 데이터 단위의 상기 제 2 예측값을 필터링 하는 단계를 포함하는, 상기 비디오 부호화 방법.
  14. 제 8 항에 있어서,
    상기 데이터 단위들은 코딩 유닛 (Coding Unit), 예측 유닛 (Prediction Unit), 또는 변환 유닛 (Transform Unit) 중 하나인, 상기 비디오 부호화 방법.
  15. 비디오 복호화 장치에 있어서,
    비디오 픽처로부터 인트라 예측을 위한 데이터 단위들을 결정하는 데이터 단위 결정부;
    비트스트림으로부터, 상기 데이터 단위들을 소정의 예측 정보를 이용하여 예측하는 제 1 인트라 예측 유형에 따라 예측할 것인지 상기 데이터 단위들에 인접 하는 데이터 단위들을 이용하여 예측하는 제 2 인트라 예측 유형에 따라 예측할 것인지 나타내는 인트라 예측 유형 정보를 획득하는 비트스트림 획득부; 및
    상기 비트스트림으로부터 획득된 상기 인트라 예측 유형 정보에 기초하여, 상기 제 1 인트라 예측 유형에 따라 예측되는 제 1 데이터 단위들 및 상기 제 2 인트라 예측 유형에 따라 예측되는 제 2 데이터 단위들을 결정하고, 상기 소정의 예측 정보를 이용하여 상기 제 1 인트라 예측 유형에 따른 상기 제 1 데이터 단위에 대한 제 1 예측값을 생성하며, 상기 데이터 단위에 인접 하는 데이터 단위를 이용하여 상기 제 2 인트라 예측 유형에 따른 상기 제 2 데이터 단위에 대한 제 2 예측값을 생성하는 복호화부를 포함하는, 상기 비디오 복호화 장치.
PCT/KR2016/013529 2015-11-24 2016-11-23 영상을 부호화/복호화 하는 방법 및 그 장치 WO2017090968A1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020187013815A KR20180075557A (ko) 2015-11-24 2016-11-23 영상을 부호화/복호화 하는 방법 및 그 장치
US15/775,220 US20180324441A1 (en) 2015-11-24 2016-11-23 Method for encoding/decoding image and device therefor
CN201680068871.4A CN108293115A (zh) 2015-11-24 2016-11-23 用于对图像进行编码/解码的方法及设备
JP2018525574A JP2018535607A (ja) 2015-11-24 2016-11-23 映像を符号化/復号する方法、及びその装置
EP16868864.6A EP3355579A1 (en) 2015-11-24 2016-11-23 Method for encoding/decoding image and device therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562259174P 2015-11-24 2015-11-24
US62/259,174 2015-11-24

Publications (1)

Publication Number Publication Date
WO2017090968A1 true WO2017090968A1 (ko) 2017-06-01

Family

ID=58764392

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/013529 WO2017090968A1 (ko) 2015-11-24 2016-11-23 영상을 부호화/복호화 하는 방법 및 그 장치

Country Status (6)

Country Link
US (1) US20180324441A1 (ko)
EP (1) EP3355579A1 (ko)
JP (1) JP2018535607A (ko)
KR (1) KR20180075557A (ko)
CN (1) CN108293115A (ko)
WO (1) WO2017090968A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102383104B1 (ko) * 2016-06-24 2022-04-06 주식회사 케이티 비디오 신호 처리 방법 및 장치
EP3499884B1 (en) * 2016-08-08 2022-12-14 LG Electronics Inc. Intra-prediction mode-based video coding methods and video processing apparatus thereof
CN116567235A (zh) * 2016-12-16 2023-08-08 夏普株式会社 图像解码装置
KR102574714B1 (ko) * 2016-12-23 2023-09-06 후아웨이 테크놀러지 컴퍼니 리미티드 미리 결정된 방향성 인트라 예측 모드들의 세트를 확장하기 위한 인트라 예측 장치
US11284076B2 (en) * 2017-03-22 2022-03-22 Electronics And Telecommunications Research Institute Block form-based prediction method and device
US10863175B2 (en) * 2018-03-01 2020-12-08 Panasonic Intellectual Property Corporation Of America Encoder, and decoder, encoding method, decoding method
EP4181512A1 (en) * 2018-05-22 2023-05-17 Panasonic Intellectual Property Corporation of America Non-transitory computer readable medium with encoded video signal
WO2020167097A1 (ko) * 2019-02-15 2020-08-20 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측을 위한 인터 예측 타입 도출
EP3989547A4 (en) * 2019-06-21 2023-04-19 Samsung Electronics Co., Ltd. VIDEO ENCODING METHOD AND DEVICE, AND VIDEO DECODER METHOD AND DEVICE

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110073263A (ko) * 2009-12-21 2011-06-29 한국전자통신연구원 인트라 예측 부호화 방법 및 부호화 방법, 그리고 상기 방법을 수행하는 인트라 예측 부호화 장치 및 인트라 예측 복호화 장치
KR20120005932A (ko) * 2010-07-09 2012-01-17 삼성전자주식회사 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치
JP2014233095A (ja) * 2010-09-28 2014-12-11 サムスン エレクトロニクス カンパニー リミテッド ビデオ符号化方法及びその装置、並びにビデオ復号化方法及びその装置
KR20150037847A (ko) * 2012-06-19 2015-04-08 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
KR20150087826A (ko) * 2010-08-17 2015-07-30 삼성전자주식회사 가변적 트리 구조의 변환 단위를 이용하는 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법 및 그 장치

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100878811B1 (ko) * 2005-05-26 2009-01-14 엘지전자 주식회사 비디오 신호의 디코딩 방법 및 이의 장치
PL2924995T3 (pl) * 2010-07-09 2018-11-30 Samsung Electronics Co., Ltd Sposób dekodowania wideo wykorzystujący łączenie bloków
US9172968B2 (en) * 2010-07-09 2015-10-27 Qualcomm Incorporated Video coding using directional transforms
US9699457B2 (en) * 2011-10-11 2017-07-04 Qualcomm Incorporated Most probable transform for intra prediction coding
US20130107949A1 (en) * 2011-10-26 2013-05-02 Intellectual Discovery Co., Ltd. Scalable video coding method and apparatus using intra prediction mode
US9503715B2 (en) * 2013-08-30 2016-11-22 Qualcomm Incorporated Constrained intra prediction in video coding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110073263A (ko) * 2009-12-21 2011-06-29 한국전자통신연구원 인트라 예측 부호화 방법 및 부호화 방법, 그리고 상기 방법을 수행하는 인트라 예측 부호화 장치 및 인트라 예측 복호화 장치
KR20120005932A (ko) * 2010-07-09 2012-01-17 삼성전자주식회사 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치
KR20150087826A (ko) * 2010-08-17 2015-07-30 삼성전자주식회사 가변적 트리 구조의 변환 단위를 이용하는 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법 및 그 장치
JP2014233095A (ja) * 2010-09-28 2014-12-11 サムスン エレクトロニクス カンパニー リミテッド ビデオ符号化方法及びその装置、並びにビデオ復号化方法及びその装置
KR20150037847A (ko) * 2012-06-19 2015-04-08 엘지전자 주식회사 비디오 신호 처리 방법 및 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3355579A4 *

Also Published As

Publication number Publication date
EP3355579A4 (en) 2018-08-01
EP3355579A1 (en) 2018-08-01
KR20180075557A (ko) 2018-07-04
JP2018535607A (ja) 2018-11-29
CN108293115A (zh) 2018-07-17
US20180324441A1 (en) 2018-11-08

Similar Documents

Publication Publication Date Title
WO2017138791A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2017090968A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치
WO2018012808A1 (ko) 크로마 인트라 예측 방법 및 그 장치
WO2021006692A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2017142327A1 (ko) 인트라 예측오차의 감소를 위한 인트라 예측 방법 및 그 장치
WO2018030599A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2019172676A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2020040619A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2020027551A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2020130730A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2020235951A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2018070552A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치
WO2020096427A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020040623A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2021141451A1 (ko) 양자화 파라미터를 획득하기 위한 비디오 복호화 방법 및 장치, 양자화 파라미터를 전송하기 위한 비디오 부호화 방법 및 장치
WO2017195945A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치
WO2020101429A1 (ko) 양방향 예측을 이용한 영상의 부호화 및 복호화 방법, 및 영상의 부호화 및 복호화 장치
WO2019216712A1 (ko) 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2021049894A1 (ko) 툴 세트를 이용하는 영상 복호화 장치 및 이에 의한 영상 복호화 방법, 및 영상 부호화 장치 및 이에 의한 영상 부호화 방법
WO2019088700A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2020130712A1 (ko) 삼각 예측 모드를 이용하는 영상 부호화 장치 및 영상 복호화 장치, 및 이에 의한 영상 부호화 방법 및 영상 복호화 방법
WO2019209028A1 (ko) 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2019135558A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2019093597A1 (ko) 움직임 벡터 해상도에 기초하여 영상을 부호화하는 장치 및 방법, 및 복호화 장치 및 방법
WO2019066514A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16868864

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2016868864

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15775220

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20187013815

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2018525574

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE