WO2017091007A1 - 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치 - Google Patents

영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치 Download PDF

Info

Publication number
WO2017091007A1
WO2017091007A1 PCT/KR2016/013624 KR2016013624W WO2017091007A1 WO 2017091007 A1 WO2017091007 A1 WO 2017091007A1 KR 2016013624 W KR2016013624 W KR 2016013624W WO 2017091007 A1 WO2017091007 A1 WO 2017091007A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
information
prediction
spatial
motion
Prior art date
Application number
PCT/KR2016/013624
Other languages
English (en)
French (fr)
Inventor
이진영
최기호
이선일
표인지
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020187013814A priority Critical patent/KR20180075556A/ko
Priority to CN201680068544.9A priority patent/CN108293132A/zh
Priority to EP16868903.2A priority patent/EP3355585A1/en
Priority to US15/776,655 priority patent/US20180352221A1/en
Publication of WO2017091007A1 publication Critical patent/WO2017091007A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/533Motion estimation using multistep search, e.g. 2D-log search or one-at-a-time search [OTS]

Definitions

  • the present disclosure relates to a method and apparatus for encoding or decoding an image using various data units included in an image. Specifically, the present disclosure relates to splitting a prediction unit into subunits, and to predicting a prediction unit adjacent to the current unit. Allocating motion related prediction information.
  • the image data is encoded by a codec according to a predetermined data compression standard, for example, the Moving Picture Expert Group (MPEG) standard, and then stored in a recording medium in the form of a bitstream or transmitted through a communication channel.
  • MPEG Moving Picture Expert Group
  • Various data units may be used to compress an image, and there may be an inclusion relationship among these data units.
  • the data unit may be divided by various methods, and the optimized data unit is determined according to the characteristics of the image, thereby encoding or decoding the image.
  • a method of decoding motion information comprising: determining a current prediction unit, obtaining a spatial prediction candidate spatially associated with the current prediction unit, and a temporal prediction candidate temporally associated with the current prediction unit; Dividing into units, obtaining motion related information of the spatial prediction candidates and motion related information of the temporal prediction candidates from the bitstream, and obtaining information for determining the motion related information of the sub-units, and determining the motion related information. Acquiring motion related information of the sub-units using the information for performing the information, wherein the information for determining the motion related information includes spatial information and temporal information, and the spatial information is located on the left side and the upper side of the current prediction unit. Subunits of the spatial prediction candidates
  • a method of decoding motion information may be provided, characterized by indicating a direction of a spatial prediction candidate used, and temporal information indicating a reference prediction unit of a previous picture used for prediction of a current prediction unit.
  • An apparatus for decoding motion information comprising: a prediction unit determiner configured to determine a current prediction unit, a spatial prediction candidate spatially associated with the current prediction unit, and a temporal prediction candidate temporally associated with the current prediction unit, wherein the current prediction unit is one; Information for dividing into the above sub-units, obtaining information for determining the motion-related information of the sub-units from the motion-related information of the spatial prediction candidate and the motion-related information of the temporal prediction candidate from the bitstream, and for determining the motion-related information.
  • the information for determining the motion related information includes spatial information and temporal information
  • the spatial information is a spatial prediction candidate located on the left side and the upper side of the current prediction unit.
  • Ball used in sub-units Characterized in that the pointing direction of the candidate predictions, and temporal information, the decoder of the motion information, characterized in that points to the reference prediction unit of the previous picture is used for prediction of the current prediction unit it may be provided.
  • a method of encoding motion information comprising: obtaining motion information about a current prediction unit by performing motion prediction on a current prediction unit, a spatial prediction candidate spatially related to the current prediction unit, and a temporally related temporal Generating a prediction candidate, dividing a current prediction unit into one or more sub-units, generating information for determining motion-related information of sub-units among the motion-related information of the spatial prediction candidate and the motion-related information of the temporal prediction candidate And encoding motion related information for prediction of sub-units using the generated information, wherein the information for determining motion related information includes spatial information and temporal information, and the spatial information is currently predicted.
  • An apparatus for encoding motion information comprising: a motion information acquisition unit configured to perform motion prediction on a current prediction unit to obtain motion information on the current prediction unit, a spatial prediction candidate spatially associated with a current prediction unit, and Information for generating a temporally related temporal prediction candidate, dividing a current prediction unit into one or more sub-units, and determining motion-related information of sub-units among the motion-related information of the spatial prediction candidate and the motion-related information of the temporal prediction candidate
  • Spatial information includes the left side of the current prediction unit and A direction of the spatial prediction candidate used for the sub units among the spatial prediction candidates located on the side, and the temporal information indicates a reference prediction unit of the previous picture used for the prediction of the current prediction unit
  • An apparatus for encoding information may be provided.
  • FIG. 1 is a block diagram of a motion information decoding apparatus for obtaining motion related information of divided sub-units, according to an exemplary embodiment.
  • FIG. 2 is a block diagram of a motion information encoding apparatus for generating motion related information of divided sub-units, according to an exemplary embodiment.
  • FIG 3 illustrates that a prediction unit is divided into one or more sub units according to an embodiment.
  • FIG. 4 is a diagram for allocating motion related information of a spatial prediction candidate to each sub-unit according to an embodiment.
  • FIG. 5 illustrates determining availability of a spatial prediction candidate spatially associated with a prediction unit, according to an embodiment.
  • FIG. 6 illustrates obtaining motion related information of a reference prediction unit of a previous picture by using temporal information, according to an embodiment.
  • FIG. 7 illustrates obtaining motion related information of one or more spatial prediction candidates adjacent to a sub unit, according to an embodiment.
  • FIG. 8 is a flowchart illustrating a method of decoding motion information for obtaining motion related information of sub-units using information for determining motion related information, according to an exemplary embodiment.
  • FIG. 9 is a flowchart of a motion information encoding method of generating motion related information of sub-units using information for determining motion related information, according to an exemplary embodiment.
  • FIG. 10 illustrates that a form in which a second coding unit may be split is limited when a second coding unit having a non-square shape determined by splitting the first coding unit satisfies a predetermined condition according to an embodiment. .
  • FIG. 11 illustrates a process of splitting a coding unit having a square shape when split type information cannot be divided into four square coding units according to an embodiment.
  • FIG. 12 illustrates that a processing order between a plurality of coding units may vary according to a division process of coding units, according to an embodiment.
  • FIG. 13 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • FIG. 14 illustrates a depth index and a part index (PID) for classifying coding units, which may be determined according to shapes and sizes of coding units, according to an embodiment.
  • PID part index
  • FIG. 15 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • 16 is a diagram of a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture, according to an embodiment.
  • FIG. 17 is a diagram of coding units that may be determined for each picture when a combination of forms in which coding units may be divided is different for each picture, according to an embodiment.
  • FIG. 18 illustrates various forms of coding units that may be determined based on split form information that may be represented by binary codes, according to an embodiment.
  • FIG. 19 illustrates another form of a coding unit that may be determined based on split form information that may be represented by a binary code, according to an embodiment.
  • FIG. 20 shows a block diagram of an image encoding and decoding system for performing loop filtering.
  • FIG. 21 illustrates an example of filtering units included in a maximum coding unit and filtering performance information of a filtering unit, according to an embodiment.
  • 22 illustrates a process of merging or splitting between coding units determined according to a predetermined encoding method, according to an embodiment.
  • FIG. 23 illustrates an index according to a Z scan order of coding units, according to an embodiment.
  • 24 illustrates reference samples for intra prediction of coding units, according to an embodiment.
  • a method of decoding motion information comprising: determining a current prediction unit, obtaining a spatial prediction candidate spatially associated with the current prediction unit and a temporal prediction candidate temporally associated with the current prediction unit, Dividing into sub-units, obtaining information for determining motion-related information of the sub-units from the motion-related information of the spatial prediction candidate and the motion-related information of the temporal prediction candidate, from the bitstream, and determining the motion-related information. Acquiring motion related information of the sub-units using the information for the information, wherein the information for determining the motion related information includes spatial information and temporal information, and the spatial information is spatially located on the left side and the upper side of the current prediction unit. Balls used for subunits of prediction candidates A method of decoding motion information may be provided, wherein the direction of the inter prediction candidate may be indicated, and the temporal information indicates a reference prediction unit of a previous picture used for prediction of the current prediction unit.
  • the obtaining of the spatial prediction candidate and the temporal prediction candidate may include determining a reference prediction unit of a previous picture by using temporal information, dividing the reference prediction unit into one or more reference subunits, and Determining a reference subunit included in one or more reference subunits used for prediction of the current subunit, which is one of the units, and obtaining motion related information of the reference subunit for prediction of the current subunit; Further, wherein the motion-related information for the prediction of the sub-units may include a motion-related information of the reference sub-units, may be provided a method of decoding motion information.
  • the method may include determining availability of motion related information about at least one of a spatial prediction candidate and a temporal prediction candidate, wherein the determining of the availability may include an upper spatial prediction candidate located above a current prediction unit. Is searched according to a predetermined scan order, and the first upper spatial prediction candidate having available motion related information and the upper spatial prediction candidates located to the right of the first upper spatial prediction candidate are used as the available upper spatial prediction candidate of the current prediction unit. Selecting, and searching the left spatial prediction candidate located on the left side of the current prediction unit according to a predetermined scan order to locate the first left spatial prediction candidate and the first left spatial prediction candidate with available motion related information. Current prediction of left spatial prediction candidates A method of decoding motion information may be provided, further comprising selecting as an available left spatial prediction candidate of a unit.
  • the information for determining the motion related information indicates to use a spatial prediction candidate located above the current prediction unit, determining whether there is a spatial prediction candidate available above the sub unit, and the sub unit And if there is no spatial prediction candidate available above, acquiring motion related information of the left spatial prediction candidate of the current prediction unit as motion related information of the sub-unit. Can be.
  • the information for determining the motion related information indicates to use the spatial prediction candidate located on the left side of the current prediction unit, determining whether there is a spatial prediction candidate available on the left side of the sub unit, and the sub unit And if there is no spatial prediction candidate available on the left side, obtaining the motion related information of the upper spatial prediction candidate of the current prediction unit as the motion related information of the sub-unit. Can be.
  • a predetermined weight is applied to the motion related information of the one or more spatial prediction candidates adjacent to the sub unit. And obtaining an average value, wherein acquiring motion related information of the sub-units is to obtain an average value.
  • the method may further include obtaining subblock size information indicating a size of a subblock within a size range of a current prediction unit, and dividing the subblock into subunits may include using subblock size information.
  • a method of decoding motion information may be provided.
  • a method of decoding motion information comprising performing motion compensation on a sub-unit by using obtained motion related information.
  • An apparatus for decoding motion information includes: a prediction unit determiner configured to determine a current prediction unit, a spatial prediction candidate spatially associated with the current prediction unit, and a temporal prediction candidate temporally associated with the current prediction unit; Information for dividing into the above sub-units, obtaining information for determining the motion-related information of the sub-units from the motion-related information of the spatial prediction candidate and the motion-related information of the temporal prediction candidate from the bitstream, and for determining the motion-related information.
  • a decoder to obtain motion related information of the sub-units, wherein the information for determining the motion related information includes spatial information and temporal information, and the spatial information is a spatial prediction candidate located on the left side and the upper side of the current prediction unit.
  • Spatial used for heavy subunits An apparatus for decoding motion information may be provided that indicates a direction of a prediction candidate, and wherein temporal information indicates a reference prediction unit of a previous picture used for prediction of the current prediction unit.
  • the decoder determines a reference prediction unit of a previous picture by using temporal information, divides the reference prediction unit into one or more reference subunits, and predicts the current subunit, which is one of the subunits. Determine a reference subunit included in the one or more reference subunits used, obtain motion related information of the reference subunit for prediction of the current subunit, and the motion related information for prediction of the subunits
  • An apparatus for decoding motion information may be provided that includes motion related information.
  • the decoder determines the availability of motion related information for at least one of the spatial prediction candidate and the temporal prediction candidate, and determining the availability includes scanning the upper spatial prediction candidate located above the current prediction unit by a predetermined scan. Search in order, selecting the first upper spatial prediction candidate having available motion related information and the upper spatial prediction candidate located to the right of the first upper spatial prediction candidate as the available upper spatial prediction candidate of the current prediction unit, The left spatial prediction candidate located to the left of the current prediction unit is searched according to a predetermined scan order, so that the first left spatial prediction candidate having motion related information and the left spatial prediction candidates located in the lower direction of the first left spatial prediction candidate are searched.
  • Availability of current forecast unit An apparatus for decoding motion information may be provided, further characterized by selecting as a possible left spatial prediction candidate.
  • the decoder determines whether there is a spatial prediction candidate available above the sub unit, When there is no spatial prediction candidate available above, the decoding unit may provide the motion information decoding apparatus, wherein the decoding unit obtains the motion related information of the left spatial prediction candidate of the current prediction unit as the motion related information of the sub-unit. have.
  • the decoder determines whether there is a spatial prediction candidate available on the left side of the sub unit, and the sub unit When there is no spatial prediction candidate available on the left side of, the decoding unit may provide the motion information decoding apparatus, wherein the decoding unit obtains the motion related information of the upper spatial prediction candidate of the current prediction unit as the motion related information of the sub-unit. have.
  • a method of encoding motion information comprising: obtaining motion information about a current prediction unit by performing motion prediction on a current prediction unit, a spatial prediction candidate spatially associated with the current prediction unit, and temporally associated Generating a temporal prediction candidate, dividing a current prediction unit into one or more sub-units, information for determining motion-related information of sub-units among the motion-related information of the spatial prediction candidate and the motion-related information of the temporal prediction candidate Generating and encoding motion-related information for prediction of sub-units using the obtained information, wherein the information for determining motion-related information includes a spatial prediction candidate located above a current prediction unit, a current prediction. Spatial prediction candidate, left side of unit A method of encoding motion information may be provided that indicates to use at least one of the one or more spatial prediction candidates adjacent to the above.
  • a motion information acquisition unit for performing motion prediction on a current prediction unit to obtain motion information on the current prediction unit, a spatial prediction candidate spatially associated with the current prediction unit, and A bitstream that generates temporally related temporal prediction candidates, splits the current prediction unit into one or more subunits, and generates information for determining motion related information for prediction of the subunits of the spatial prediction candidate and the temporal prediction candidate.
  • a generation unit and an encoding unit encoding motion-related information for prediction of the sub-units using the obtained information, wherein the information for determining the motion-related information includes a spatial prediction candidate located above the current prediction unit and a current prediction unit. Spatial prediction candidates located on the left side of An apparatus for encoding motion information may be provided that indicates to use at least one of adjacent one or more spatial prediction candidates.
  • part refers to a hardware component, such as software, FPGA or ASIC, and “part” plays certain roles. However, “part” is not meant to be limited to software or hardware.
  • the “unit” may be configured to be in an addressable storage medium and may be configured to play one or more processors.
  • a “part” refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables.
  • the functionality provided within the components and “parts” may be combined into a smaller number of components and “parts” or further separated into additional components and “parts”.
  • the "image” may be a static image such as a still image of a video or may represent a dynamic image such as a video, that is, the video itself.
  • sample means data to be processed as data allocated to a sampling position of an image.
  • pixel values and transform coefficients on a transform region may be samples in an image of a spatial domain.
  • a unit including the at least one sample may be defined as a block.
  • FIG. 1 is a block diagram of an apparatus 100 for decoding motion information for obtaining motion related information of divided sub-units, according to an exemplary embodiment.
  • the apparatus 100 for decoding motion information includes a prediction unit determiner 110 that determines a current prediction unit in a current picture, and a spatial prediction candidate and a temporal spatially associated with the current prediction unit. Obtaining information related to a temporal prediction candidate, dividing a current prediction unit into one or more sub-units, and determining motion-related information of sub-units among motion-related information of the spatial prediction candidate and motion-related information of the temporal prediction candidate.
  • a decoder 120 may be obtained from the bitstream and obtain motion related information of sub-units using information for determining motion related information.
  • the prediction unit may be a data unit for prediction encoding.
  • the prediction unit determiner 110 may determine whether to merge with the neighboring data unit or the spatial prediction candidate for each prediction unit.
  • the spatial prediction candidate is a neighboring data unit adjacent to the current prediction unit, and may be a data unit that may be merged with the current prediction unit, and the spatial prediction candidate group includes at least one data unit that may be merged with the current prediction unit. It may be a data unit group of.
  • the motion related information may include at least one of a reference direction, a reference picture index, a motion vector (MV), a motion vector prediction value (MVP), or a motion vector difference value (MVD).
  • the motion related information may include at least one of a reference direction, a reference picture index, a motion vector prediction value, or a motion vector.
  • the motion related information may include at least one of a reference direction, a reference picture index, a motion vector (MV), and a motion vector difference value.
  • the information for determining the motion related information obtained by the decoder 120 may include spatial information and temporal information.
  • the spatial information may indicate a direction of the spatial prediction candidate used for the sub units among the spatial prediction candidates adjacent to the current prediction unit.
  • the spatial information may indicate the direction of the spatial prediction candidate used for the sub units among the spatial prediction candidates located at the left, the upper side, or the corner of the current prediction unit.
  • the temporal information may indicate a reference prediction unit of a previous picture used for prediction of the current prediction unit.
  • the subunit of the current prediction unit may be predicted using the motion related information of the left spatial prediction candidate indicated by the spatial information. have.
  • the subunit of the current prediction unit may be predicted using the motion related information of the upper spatial prediction candidate indicated by the spatial information. have.
  • the decoder 120 may determine a candidate unit to be merged with the current prediction unit by using the motion vector prediction method of the inter mode. For example, among the spatial prediction candidates that contact all boundaries of the current prediction unit, a plurality of spatial prediction candidates may be determined. According to an embodiment, the decoder 120 may determine the spatial prediction candidate to be used in the sub unit among the determined plurality of spatial prediction candidates using spatial information.
  • the decoder 120 may use one or more neighboring spatial prediction candidates adjacent to the left boundary of the current prediction unit and all neighboring spatial prediction candidates adjacent to the upper boundary by using spatial information.
  • the spatial prediction candidate can be retrieved and determined.
  • the decoder 120 may further use the spatial information to add the upper left spatial prediction candidate and the upper spatial prediction candidate of the current prediction unit to the upper left spatial prediction candidate and the upper right of the current prediction unit.
  • One spatial prediction candidate to be merged with the current prediction unit may be searched and determined from the spatial prediction candidate group including the spatial prediction candidate and the lower right spatial prediction candidate.
  • the decoding unit 120 may determine a spatial prediction candidate of one of the left spatial prediction candidate group, the top spatial prediction candidate group, and the edge spatial prediction candidate group according to a preset method.
  • the decoder 120 may include a spatial prediction candidate having the same reference index as a sub unit of the current prediction unit among the first spatial prediction candidate group, the second spatial prediction candidate group, or the third spatial prediction candidate group. Can be determined as one spatial prediction candidate to be merged.
  • the decoder 120 may determine a neighboring prediction unit in which the prediction mode is inter mode in the spatial prediction candidate group of the upper neighboring prediction units among the first spatial prediction candidate group, the second spatial prediction candidate group, or the third spatial prediction candidate group, respectively. Can be determined as one spatial prediction candidate to be merged with the sub-unit of the current prediction unit.
  • the decoder 120 may select one of the first spatial prediction candidate groups as the left spatial prediction candidate, one of the second spatial prediction candidate groups as the top spatial prediction candidate, and one of the third spatial prediction candidate groups as the edge spatial. It can be determined as a prediction candidate and as one spatial prediction candidate to be merged with the current prediction unit.
  • FIG 3 illustrates that a prediction unit is divided into one or more sub units according to an embodiment.
  • the prediction unit determiner 110 of the apparatus for decoding motion information may determine the current prediction unit 310 of the current picture, and the decoder 120 may determine the current prediction unit 310 as a sub-unit ( 311, 312, 313, and 314.
  • the decoder 120 may obtain subblock size information indicating the size of the subblock within the size range of the current prediction unit, and may divide the current prediction unit into subunits by using the subblock size information. .
  • the sub unit may be a data unit of 32x32, 64x64, 128x128, 256x256, etc. within a size range of the current prediction unit, and may be a square data unit 330 having a square of two horizontal and vertical sizes.
  • the sub unit may be an asymmetric data unit 340 within a size range of the current prediction unit. The asymmetric data unit 340 will be described later.
  • the decoder 120 may determine a spatial prediction candidate adjacent to the current prediction unit 310. For example, the decoder 120 may determine a data unit that is in contact with the current prediction unit as a spatial prediction candidate to be merged with the current prediction unit using the motion vector prediction method of the inter mode. Alternatively, one or more spatial prediction candidates may be determined among the spatial prediction candidates that face all boundaries of the current prediction unit.
  • FIG. 4 is a diagram for allocating motion related information of a spatial prediction candidate to each sub-unit according to an embodiment.
  • the decoder 120 may obtain a spatial prediction candidate to be merged with the current prediction unit including the sub units by using spatial information among information for determining motion related information of the sub units. For example, if the information for determining the motion related information indicates the direction of the spatial prediction candidate located at the bottom left of the current prediction unit, the decoder 120 may determine the motion related information of the spatial prediction candidate 412 located at the bottom left. It may be used as motion related information of the current prediction unit 411. For example, when the motion related information of the spatial prediction candidate is used in the current prediction unit, all of the sub units included in the current prediction unit may use the motion related information of the same spatial prediction candidate.
  • the decoder 120 when the spatial information among the information for determining the motion related information indicates a direction so as to use the spatial prediction candidate located above the current prediction unit, the decoder 120 spatially located above the current prediction unit.
  • the motion related information of the prediction candidate may be used for the sub-unit located below the spatial prediction candidate located above.
  • the decoder 120 when the spatial information indicates to use a spatial prediction candidate located above the current prediction unit, the decoder 120 may include subunits 421 and 422 included in a vertical column among the subunits of the current prediction unit. ) Can use the motion related information 423, 424 of the spatial prediction candidate located above.
  • the first column subunits 421 of the current prediction unit are above the first column subunits 421.
  • the motion related information 423 of the spatial prediction candidate located at may be used, and the second column sub units 422 may be the motion related information 424 of the spatial prediction candidate located above the second column sub units 422. Can be used.
  • the decoder 120 when the spatial information among the information for determining the motion related information indicates a direction to use the spatial prediction candidate located on the left side of the current prediction unit, the decoder 120 spatially located on the left side of the current prediction unit
  • the motion related information of the prediction candidate may be used for the sub-unit located to the right of the spatial prediction candidate located on the left side.
  • the spatial information indicates to use the spatial prediction candidate located on the left side of the current prediction unit
  • the sub units 431 and 432 included in the horizontal row among the sub units of the current prediction unit are located on the left side.
  • the motion related information 433 and 434 of the spatial prediction candidate may be used.
  • the first row subunits 431 of the current prediction unit are left of the first row subunits 431.
  • the motion related information 433 of the spatial prediction candidate located at may be used, and the second row sub units 432 are the motion related information 434 of the spatial prediction candidate located at the left side of the second row sub units 432. Can be used.
  • the spatial information may indicate a direction to use a spatial prediction candidate located to the left or right of the spatial prediction candidate located above the current prediction unit.
  • the spatial information may indicate a direction to use the spatial prediction candidate located at the top or the bottom of the spatial prediction candidate located to the left of the current prediction unit.
  • the spatial information may point to the edge direction to use the spatial prediction candidate adjacent to the edge of the current prediction unit.
  • the spatial information may point according to a direction preset to use at least one of the spatial prediction candidates adjacent to the periphery of the current prediction unit.
  • the direction indicated by the spatial direction in the spatial information may be indicated by a preset index or the like.
  • a predetermined index may be assigned to each of the upper direction, the left direction, the upper left direction, the upper right direction, or the lower left direction, and the spatial information may have an index value corresponding to the corresponding direction.
  • FIG. 5 illustrates determining availability of a spatial prediction candidate spatially associated with a prediction unit, according to an embodiment.
  • the decoder 120 may determine the availability of motion related information for at least one of the spatial prediction candidates based on a predetermined environment 560 of the data unit adjacent to the current prediction unit. For example, the decoder 120 may search the upper spatial prediction candidate located above the current prediction unit according to a predetermined scan order to determine the first upper spatial prediction candidate 520 having the available motion related information. . For example, the decoder 120 determines the first upper spatial prediction candidate 520 that is available and then scans to the right of the first upper spatial prediction candidate 520 to spatially have additionally available motion related information.
  • the prediction candidate 530 can be determined. For example, the decoder 120 determines the first upper spatial prediction candidate 520 that is available and uses the upper spatial prediction candidates 530 that are located to the right of the first upper spatial prediction candidate 520. It can be selected as a prediction candidate.
  • the decoder 120 searches the left spatial prediction candidate located on the left side of the current prediction unit according to a predetermined scan order to determine the first left spatial prediction candidate 540 having the available motion related information.
  • a predetermined scan order to determine the first left spatial prediction candidate 540 having the available motion related information.
  • the decoder 120 determines the first left spatial prediction candidate 540 that is available and then scans to the bottom direction of the first left spatial prediction candidate 540 to spatially have additionally available motion related information.
  • the prediction candidate 550 can be determined.
  • the decoder 120 determines the first left spatial prediction candidate 540 that is available and uses the left spatial prediction candidates 550 that are located below the first left spatial prediction candidate 540. It can be selected as a prediction candidate.
  • the decoder 120 may obtain spatial information based on the upper spatial prediction candidate and the left spatial prediction candidate selected as the available spatial prediction candidates.
  • the information for determining the motion related information may indicate to use at least one of the available spatial prediction candidates.
  • the decoder 120 may apply a predetermined weight to the motion related information of the available spatial prediction candidates and obtain an average value.
  • the decoder 120 may use the average value of the motion related information of the available spatial prediction candidates in the sub units of the current prediction unit.
  • the decoder 120 may obtain motion related information of an available spatial prediction candidate adjacent to the left side of the current prediction unit. For example, when the spatial information indicates a direction to use a spatial prediction candidate located to the left of the current prediction unit, the decoder 120 may scan whether there is a spatial prediction unit available to the left of the sub unit in a predetermined direction. have. If there is a spatial prediction unit available on the left side of the sub unit, the sub units 581 of a predetermined row may use the motion related information of the available spatial prediction candidate located on the left side.
  • the decoder 120 may search whether there is a spatial prediction candidate available on top of the sub-unit of the given row, and The motion related information of the first top spatial prediction candidate may be used for the sub units 582 of a given row.
  • the decoder 120 may obtain motion related information of an available spatial prediction candidate adjacent to an upper end of the current prediction unit. For example, when the spatial information indicates a direction to use a spatial prediction candidate located at the top of the current prediction unit, the decoder 120 may scan whether there is a spatial prediction unit available on the left side of the sub unit in a predetermined direction. have. If there is a spatial prediction unit available at the top of the sub unit, the sub units 591 of the predetermined column may use the motion related information of the available spatial prediction candidate located at the top.
  • the decoder 120 may search whether there is an available spatial prediction candidate to the left of the sub-unit of the column, and use The motion related information of the first possible left spatial prediction candidate may be used for subunits 592 of that column.
  • FIG. 6 illustrates obtaining motion related information of a reference prediction unit of a previous picture by using temporal information, according to an embodiment.
  • the decoder 120 may obtain temporal information indicating a reference prediction unit of a previous picture used for prediction of the current prediction unit.
  • the temporal information may indicate a reference prediction unit of the previous picture used for prediction of the current prediction unit.
  • the decoder 120 may determine the reference prediction unit of the previous picture by using the temporal information.
  • the decoder 120 may divide the reference prediction unit into one or more reference subunits, and determine a reference subunit corresponding to the current subunit used for prediction of the current subunit among the divided reference subunits. have.
  • the decoder 120 may acquire the motion related information of the determined reference subunit, and merge the obtained motion related information of the reference subunit with the current subunit.
  • the decoder 120 may obtain temporal information indicating one or more reference prediction units of one or more previous pictures used for prediction of the current prediction unit. For example, the decoder 120 may determine one or more reference prediction units of one or more previous pictures by using temporal information. The decoder 120 may split one or more reference prediction units into one or more reference subunits, and one or more reference subs corresponding to the current subunit used for prediction of the current subunit among the divided reference subunits. You can determine the units. For example, the decoder 120 may obtain motion related information of one or more reference subunits, obtain an average value by applying weights to the obtained one or more motion related information, and obtain a mean value by applying a weight. Motion-related information may be merged with the current sub-unit.
  • FIG. 7 illustrates obtaining motion related information of one or more spatial prediction candidates adjacent to a sub unit, according to an embodiment.
  • the decoder 120 when the spatial information indicates to use at least one of the spatial prediction candidates adjacent to the sub unit, the decoder 120 applies a weight to the motion related information of the one or more spatial prediction candidates adjacent to the sub unit and averages the average value. Can be obtained.
  • the decoder 120 may merge an average value of one or more spatial prediction candidates with the sub unit.
  • the decoder 120 may spatially predict the candidate or the edge adjacent to the sub unit 712 located at the corner of the prediction unit.
  • the spatial prediction candidate group 711 may be determined, and motion related information of the determined corner spatial prediction candidate group 711 may be obtained.
  • the decoder 120 may apply a predetermined weight to the determined motion related information of the edge spatial prediction candidate group 711 and merge the motion related information to which the predetermined weight is applied to the sub unit 712.
  • the edge spatial prediction candidate group 711 adjacent to the sub unit 712 is adjacent to the edge of the prediction unit when the sub unit 712 is adjacent to the edge of the current prediction unit.
  • the edge spatial prediction candidate group 711 may include at least one of spatial prediction candidates located on the left side of the prediction unit or spatial prediction candidates located on the top of the prediction unit.
  • the number of left spatial prediction candidates included in the corner spatial prediction candidate group 711 may be different from the number of top spatial prediction candidates included in the corner spatial prediction candidate group 711.
  • the decoder 120 may determine the spatial prediction candidate or the top adjacent to the sub unit 722 located at the top of the prediction unit.
  • the spatial prediction candidate group 721 may be determined, and motion related information of the determined top spatial prediction candidate group 721 may be obtained.
  • the decoder 120 may apply a predetermined weight to the determined motion related information of the determined top spatial prediction candidate group 721, and merge the motion related information to which the predetermined weight is applied with the sub unit 722.
  • the top spatial prediction candidate group 721 adjacent to the sub unit 722 is adjacent to the top spatial prediction candidate group 721 when the sub unit 722 is adjacent to the top of the current prediction unit.
  • At least one of the top spatial prediction candidate, the spatial prediction candidate adjacent to the right or left of the top spatial prediction candidate For example, the number of left spatial prediction candidates included in the top spatial prediction candidate group 721 may be different from the number of right spatial prediction candidates included in the top spatial prediction candidate group 721.
  • the decoder 120 may determine the spatial prediction candidate or the left adjacent to the sub unit 732 located to the left of the prediction unit.
  • the spatial prediction candidate group 731 may be determined, and motion related information of the determined left spatial prediction candidate group 731 may be obtained.
  • the decoder 120 may apply a predetermined weight to the determined motion related information of the left spatial prediction candidate group 731 and merge the motion related information to which the predetermined weight is applied to the sub unit 732.
  • the left spatial prediction candidate group 731 adjacent to the sub unit 732 is adjacent to the left spatial prediction candidate group 731 when the sub unit 732 is adjacent to the left side of the current prediction unit.
  • At least one of the left spatial prediction candidate, the spatial prediction candidate adjacent to the top or bottom of the left spatial prediction candidate At least one of the left spatial prediction candidate, the spatial prediction candidate adjacent to the top or bottom of the left spatial prediction candidate.
  • the number of top spatial prediction candidates included in the left spatial prediction candidate group 731 may be different from the number of bottom spatial prediction candidates included in the left spatial prediction candidate group 731.
  • the decoder 120 may surround the sub unit 742 that is not adjacent to the peripheral spatial prediction candidate of the current prediction unit.
  • the sub-unit group 741 or the edge spatial prediction candidate group 743 nearest to the sub-unit may be determined, and motion related information of the determined neighboring sub-unit group 741 or the edge spatial prediction candidate group 743 may be obtained.
  • the decoder 120 may apply a predetermined weight to motion-related information of at least one of the determined neighboring sub-unit group 741 or the edge spatial prediction candidate group 743, and sub-unit the motion-related information to which the predetermined weight is applied. Merge with 742.
  • FIG. 8 is a flowchart illustrating a method of decoding motion information for obtaining motion related information of sub-units using information for determining motion related information, according to an exemplary embodiment.
  • the apparatus 100 for decoding motion information may determine a current prediction unit among the current pictures.
  • the apparatus 100 for decoding motion information may acquire a spatial prediction candidate and a temporally predicted temporal prediction candidate spatially associated with the current prediction unit.
  • the apparatus for decoding motion information may split the current prediction unit into one or more sub units.
  • the apparatus 100 for decoding motion information may obtain information for determining motion related information of sub-units from the motion related information of the spatial prediction candidate and the motion related information of the temporal prediction candidate from the bitstream.
  • the apparatus 100 for decoding motion information may obtain motion related information for prediction of sub units using the obtained information.
  • FIG. 10 illustrates that when a second coding unit having a non-square shape determined by dividing a first coding unit 1000 by the apparatus 100 for decoding motion information satisfies a predetermined condition, It shows that the form that can be divided is limited.
  • the decoder 120 encodes the first coding unit 1000 having a square shape in a non-square shape based on at least one of the block shape information and the split shape information obtained through the bitstream obtainer. It may be determined to divide into units 1010a, 1010b, 1020a, and 1020b. The second coding units 1010a, 1010b, 1020a, and 1020b may be independently divided. Accordingly, the decoder 120 may determine to split or not split into a plurality of coding units based on at least one of block shape information and split shape information related to each of the second coding units 1010a, 1010b, 1020a, and 1020b. have.
  • the decoder 120 divides the left second coding unit 1010a having a non-square shape in a horizontal direction, determined by dividing the first coding unit 1000 in a vertical direction, and then splits the third coding unit 1012a. , 1012b).
  • the decoder 120 splits the left second coding unit 1010a in the horizontal direction
  • the right second coding unit 1010b is horizontally identical to the direction in which the left second coding unit 1010a is divided. It can be restricted so that it cannot be divided. If the right second coding unit 1010b is split in the same direction and the third coding units 1014a and 1014b are determined, the left second coding unit 1010a and the right second coding unit 1010b are each horizontally.
  • the third coding units 1012a, 1012b, 1014a, and 1014b may be determined. However, this is because the decoder 120 divides the first coding unit 1000 into four square second coding units 1030a, 1030b, 1030c, and 1030d based on at least one of the block shape information and the split shape information. This is the same result as that and may be inefficient in terms of image decoding.
  • the decoder 120 divides the second coding unit 1020a or 1020b having a non-square shape, determined by dividing the first coding unit 900 in a horizontal direction, in a vertical direction, to determine a third coding unit ( 1022a, 1022b, 1024a, and 1024b) may be determined.
  • a third coding unit 1022a, 1022b, 1024a, and 1024b
  • the decoder 120 divides one of the second coding units (for example, the upper second coding unit 1020a) in the vertical direction
  • another decoder unit for example, lower coding
  • the unit 1020b may restrict the upper second coding unit 1020a from being split in the vertical direction in the same direction as the split direction.
  • FIG. 11 illustrates a process of splitting a coding unit having a square shape by the apparatus 100 for motion information when the splitting shape information cannot be divided into four square coding units according to an embodiment.
  • the decoder 120 determines the second coding unit 1110a, 1110b, 1120a, 1120b, etc. by dividing the first coding unit 1100 based on at least one of block shape information and split shape information.
  • the split type information may include information about various types in which a coding unit may be split, but the information on various types may not include information for splitting into four coding units having a square shape.
  • the decoder 120 may not divide the first coding unit 1100 having a square shape into the second coding units 1130a, 1130b, 1130c, and 1130d having four square shapes.
  • the decoder 120 may determine the non-square second coding units 1110a, 1110b, 1120a, 1120b, and the like based on the split shape information.
  • the decoder 120 may independently split the non-square second coding units 1110a, 1110b, 1120a, 1120b, and the like.
  • Each of the second coding units 1110a, 1110b, 1120a, 1120b, and the like may be split in a predetermined order through a recursive method, which is based on at least one of block shape information and split shape information 1100. May be a splitting method similar to the method in which?
  • the decoder 120 may split the left second coding unit 1110a in the horizontal direction to determine the third coding units 1112a and 1112b having a square shape, and the right second coding unit 1110b is horizontal.
  • the third coding units 1114a and 1114b having a square shape may be divided in the direction.
  • the decoder 120 may divide the left second coding unit 1110a and the right second coding unit 1110b in the horizontal direction to determine the third coding units 1116a, 1116b, 1116c, and 1116d having a square shape.
  • the coding unit may be determined in the same form as that in which the first coding unit 1100 is divided into four second coding units 1130a, 1130b, 1130c, and 1130d.
  • the decoder 120 may determine the third coding units 1122a and 1122b having a square shape by dividing the upper second coding unit 1120a in the vertical direction, and the lower second coding unit 1120b. Is divided in the vertical direction to determine the third coding units 1124a and 1124b having a square shape. Furthermore, the decoder 120 may divide the upper second coding unit 1120a and the lower second coding unit 1120b in the vertical direction to determine the third coding units 1122a, 1122b, 1124a, and 1124b having a square shape. . In this case, the coding unit may be determined in the same form as that in which the first coding unit 1100 is divided into four second coding units 1130a, 1130b, 1130c, and 1130d.
  • FIG. 12 illustrates that a processing order between a plurality of coding units may vary according to a splitting process of coding units, according to an embodiment.
  • the decoder 120 may split the first coding unit 1200 based on the block shape information and the split shape information.
  • the block shape information indicates a square shape and the split shape information indicates that the first coding unit 1200 is split in at least one of a horizontal direction and a vertical direction
  • the decoder 120 may determine the first coding unit 1200.
  • the second coding unit (eg, 1210a, 1210b, 1220a, 1220b, 1230a, 1230b, 1230c, 1230d, etc.) may be determined by dividing. Referring to FIG.
  • non-square second coding units 1210a, 1210b, 1220a, and 1220b which are determined by dividing the first coding unit 1200 in only the horizontal direction or the vertical direction, respectively, may include block shape information and split shape information for each. It can be divided independently based on.
  • the decoder 120 divides the second coding units 1210a and 1210b generated by splitting the first coding unit 1200 in the vertical direction, respectively, in the horizontal direction to divide the third coding units 1216a, 1216b, and 1216c.
  • the decoder 120 may process coding units in a predetermined order. Features of the processing of coding units according to a predetermined order have been described above with reference to FIG. 7, and thus detailed descriptions thereof will be omitted. Referring to FIG. 12, the decoder 120 splits a first coding unit 1200 having a square shape to form three square third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d. Can be determined.
  • the decoder 120 determines a processing order of the third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d according to a form in which the first coding unit 1200 is divided. Can be.
  • the decoder 120 may divide the second coding units 1210a and 1210b generated by dividing in the vertical direction in the horizontal direction to determine the third coding units 1216a, 1216b, 1216c, and 1216d.
  • the decoder 120 first processes the third coding units 1216a and 1216b included in the left second coding unit 1210a in the vertical direction, and then includes a third included in the right second coding unit 1210b.
  • the third coding units 1216a, 1216b, 1216c, and 1216d may be processed according to an order 1217 of processing the coding units 1216c and 1216d in the vertical direction.
  • the decoder 120 may determine the third coding units 1226a, 1226b, 1226c, and 1226d by dividing the second coding units 1220a and 1220b generated by splitting in the horizontal direction in the vertical direction.
  • the decoder 120 first processes the third coding units 1226a and 1226b included in the upper second coding unit 1220a in a horizontal direction, and then includes a third included in the lower second coding unit 1220b.
  • the third coding units 1226a, 1226b, 1226c, and 1226d may be processed according to an order 1227 of processing the coding units 1226c and 1226d in the horizontal direction.
  • second coding units 1210a, 1210b, 1220a, and 1220b may be divided, respectively, and square third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d may be determined. have.
  • the second coding units 1210a and 1210b that are determined by being split in the vertical direction and the second coding units 1220a and 1220b that are determined by being split in the horizontal direction are divided into different forms, but are determined afterwards.
  • 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d may result in the first coding unit 1200 being split into coding units having the same shape.
  • the decoder 120 splits the coding unit recursively through a different process based on at least one of the block shape information and the split shape information, and as a result, even if the coding units having the same shape are determined, Coding units may be processed in different orders.
  • FIG. 13 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • the decoder 120 may determine the depth of the coding unit according to a predetermined criterion.
  • the predetermined criterion may be the length of the long side of the coding unit.
  • the length of the long side of the current coding unit is divided by 2n (n> 0) times the length of the long side of the coding unit before the split, the depth of the current coding unit is n than the depth of the coding unit before the split. Depth can be determined to increase by.
  • a coding unit having an increased depth is expressed as a coding unit of a lower depth.
  • the decoder 120 may have a square shape based on block shape information indicating a square shape (for example, block shape information may indicate '0: SQUARE').
  • the coding unit 1300 may be divided to determine a second coding unit 1302, a third coding unit 1304, or the like of a lower depth.
  • the second coding unit 1302 determined by dividing the width and height of the first coding unit 1300 by 1/21 times may have a size of NxN. have.
  • the third coding unit 1304 determined by dividing the width and the height of the second coding unit 1302 into half the size may have a size of N / 2 ⁇ N / 2.
  • the width and height of the third coding unit 1304 correspond to 1/22 times the first coding unit 1300.
  • the depth of the first coding unit 1300 is D
  • the depth of the second coding unit 1302 which is 1/21 times the width and the height of the first coding unit 1300 may be D + 1
  • the depth of the third coding unit 1304, which is 1/22 times the width and the height of 1300 may be D + 2.
  • block shape information indicating a non-square shape (e.g., block shape information indicates that the height is a non-square longer than the width '1: NS_VER' or the width is a non-square longer than the height).
  • 2 may indicate NS_HOR ', and the decoder 120 splits the first coding unit 1310 or 1320 having a non-square shape to generate the second coding unit 1312 or 1322 of the lower depth.
  • 3 coding units 1314 or 1324 may be determined.
  • the decoder 120 may determine a second coding unit (eg, 1302, 1312, 1322, etc.) by dividing at least one of a width and a height of the Nx2N size of the first coding unit 1310. That is, the decoder 120 may divide the first coding unit 1310 in the horizontal direction to determine a second coding unit 1302 having an NxN size or a second coding unit 1322 having an NxN / 2 size and horizontally.
  • the second coding unit 1312 having a size of N / 2 ⁇ N may be determined by splitting in the direction and the vertical direction.
  • the decoder 120 may determine a second coding unit (eg, 1302, 1312, 1322, etc.) by dividing at least one of a width and a height of the 2N ⁇ N first coding unit 1320. have. That is, the decoder 120 may divide the first coding unit 1320 in the vertical direction to determine a second coding unit 1302 having an NxN size or a second coding unit 1312 having an N / 2xN size and horizontally.
  • the second coding unit 1322 having the size of NxN / 2 may be determined by splitting in the direction and the vertical direction.
  • the decoder 120 may determine a third coding unit (for example, 1304, 1314, 1324, etc.) by dividing at least one of a width and a height of the NxN-sized second coding unit 1302. have. That is, the decoder 120 divides the second coding unit 1302 in the vertical direction and the horizontal direction to determine the third coding unit 1304 having the size of N / 2 ⁇ N / 2 or the third having the size of N / 22xN / 2.
  • the coding unit 1314 may be determined, or a third coding unit 1324 having a size of N / 2 ⁇ N / 22 may be determined.
  • the decoder 120 splits at least one of the width and the height of the N / 2xN sized second coding unit 1312 to determine a third coding unit (eg, 1304, 1314, 1324, etc.). You can also decide. That is, the decoder 120 splits the second coding unit 1312 in the horizontal direction to form a third coding unit 1304 having a size of N / 2 ⁇ N / 2 or a third coding unit 1324 having a size of N / 2xN / 22.
  • the third coding unit 1314 having the size of N / 22 ⁇ N / 2 may be determined by determining or splitting in the vertical direction and the horizontal direction.
  • the decoder 120 splits at least one of a width and a height of the NxN / 2 sized second coding unit 1314 to determine a third coding unit (eg, 1304, 1314, 1324, etc.). You can also decide. That is, the decoder 120 splits the second coding unit 1312 in the vertical direction to form a third coding unit 1304 having an N / 2xN / 2 size or a third coding unit 1314 having an N / 22xN / 2 size.
  • the third coding unit 1324 having the size of N / 2 ⁇ N / 22 may be determined by determining or splitting in the vertical direction and the horizontal direction.
  • the decoder 120 may divide a coding unit (eg, 1300, 1302, 1304) having a square shape in a horizontal direction or a vertical direction.
  • a coding unit eg, 1300, 1302, 1304 having a square shape in a horizontal direction or a vertical direction.
  • the first coding unit 1300 having a size of 2Nx2N is split in the vertical direction to determine the first coding unit 1310 having the size of Nx2N, or the first coding unit 1320 having a size of 2NxN is determined by splitting in the horizontal direction.
  • the depth of the coding unit determined by splitting the first coding unit 1300, 1302, or 1304 having a size of 2N ⁇ 2N into the horizontal or vertical direction is determined. May be the same as the depth of the first coding unit 1300, 1302, or 1304.
  • the width and height of the third coding unit 1314 or 1324 may correspond to 1/22 times the first coding unit 1310 or 1320.
  • the depth of the first coding unit 1310 or 1320 is D
  • the depth of the second coding unit 1312 or 1314 that is 1/2 the width and height of the first coding unit 1310 or 1320 may be D + 1.
  • the depth of the third coding unit 1314 or 1324 that is 1/22 times the width and the height of the first coding unit 1310 or 1320 may be D + 2.
  • FIG. 14 illustrates a depth and a part index (PID) for classifying coding units, which may be determined according to the shape and size of coding units, according to an embodiment.
  • PID depth and a part index
  • the decoder 120 may determine a second coding unit having various forms by dividing the first coding unit 1400 having a square shape. Referring to FIG. 14, the decoder 120 splits the first coding unit 1400 in at least one of a vertical direction and a horizontal direction according to the split type information, and thereby the second coding unit 1402a, 1402b, 1404a, and 1404b. , 1406a, 1406b, 1406c, 1406d). That is, the decoder 120 may determine the second coding units 1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, and 1406d based on the split shape information about the first coding unit 1400.
  • the second coding units 1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, and 1406d which are determined according to split shape information about the first coding unit 1400 having a square shape, have a long side length. Depth can be determined based on this. For example, since the length of one side of the first coding unit 1400 having a square shape and the length of the long side of the second coding units 1402a, 1402b, 1404a and 1404b of a non-square shape are the same, the first coding unit ( 1400 and the non-square second coding units 1402a, 1402b, 1404a, and 1404b may be regarded as D.
  • the second coding unit 120 may have a square shape. Since the length of one side of the coding units 1406a, 1406b, 1406c, and 1406d is 1/2 times the length of one side of the first coding unit 1400, the depths of the second coding units 1406a, 1406b, 1406c, and 1406d are It may be a depth of D + 1 that is one depth lower than D, which is a depth of the first coding unit 1400.
  • the decoder 120 divides the first coding unit 1410 having a shape whose height is greater than the width in a horizontal direction according to the split shape information, thereby performing a plurality of second coding units 1412a, 1412b, 1414a, and 1414b. 1414c).
  • the decoder 120 splits the first coding unit 1420 having a shape whose width is greater than the height in the vertical direction according to the split shape information to thereby provide a plurality of second coding units 1422a, 1422b, 1424a, and 1424b. 1424c).
  • the second coding units 1412a, 1412b, 1414a, 1414b, 1416a, 1416b, 1416c, and 1416d that are determined according to split shape information about the first coding unit 1410 or 1420 having a non-square shape may be Depth may be determined based on the length of the long side. For example, since the length of one side of the second coding units 1412a and 1412b having a square shape is 1/2 times the length of one side of the first coding unit 1410 having a non-square shape having a height greater than the width, the square is square.
  • the depths of the second coding units 1402a, 1402b, 1404a, and 1404b of the form are D + 1, which is one depth lower than the depth D of the first coding unit 1410 of the non-square form.
  • the decoder 120 may divide the non-square first coding unit 1410 into odd-numbered second coding units 1414a, 1414b, and 1414c based on the split shape information.
  • the odd numbered second coding units 1414a, 1414b, and 1414c may include non-square second coding units 1414a and 1414c and square shape second coding units 1414b.
  • the length of the long side of the second coding units 1414a and 1414c of the non-square shape and the length of one side of the second coding unit 1414b of the square shape is 1 / time of the length of one side of the first coding unit 1410.
  • the depths of the second coding units 1414a, 1414b, and 1414c may be a depth of D + 1 that is one depth lower than the depth D of the first coding unit 1410.
  • the decoder 120 is a coding unit associated with the first coding unit 1420 having a non-square shape having a width greater than the height in a manner similar to the above method of determining depths of the coding units related to the first coding unit 1410. Depth of field can be determined.
  • the decoder 120 in determining an index (PID) for dividing the divided coding units, the decoder 120 based on a size ratio between coding units when the odd-numbered split coding units are not the same size.
  • a coding unit 1414b positioned at the center of odd-numbered split coding units 1414a, 1414b, and 1414c has the same width as the other coding units 1414a and 1414c but has a different height. It may be twice the height of the fields 1414a, 1414c. That is, in this case, the coding unit 1414b located in the center may include two of the other coding units 1414a and 1414c.
  • the decoder 120 may determine whether odd-numbered split coding units are not the same size based on whether there is a discontinuity of an index for distinguishing between the divided coding units.
  • the motion information decoding apparatus 100 may determine whether the motion information is divided into a specific partition type based on a value of an index for distinguishing a plurality of coding units determined by splitting from a current coding unit. Referring to FIG. 14, the motion information decoding apparatus 100 determines an even number of coding units 1412a and 1412b by dividing a first coding unit 1410 having a rectangular shape having a height greater than a width or an odd number of coding units 1414a. 1414b, 1414c). The motion information decoding apparatus 100 may use an index (PID) indicating each coding unit to distinguish each of the plurality of coding units. According to an embodiment, the PID may be obtained from a sample (eg, an upper left sample) at a predetermined position of each coding unit.
  • a sample eg, an upper left sample
  • the apparatus 100 for decoding motion information may determine a coding unit of a predetermined position among coding units determined by splitting by using an index for dividing coding units.
  • the apparatus for decoding motion information 100 may determine the first coding unit 1410. ) May be divided into three coding units 1414a, 1414b, and 1414c.
  • the apparatus 100 for decoding motion information may allocate an index for each of three coding units 1414a, 1414b, and 1414c.
  • the apparatus 100 for decoding motion information may compare an index of each coding unit in order to determine a coding unit among odd-numbered coding units.
  • the decoding apparatus 100 of the motion information determines a coding unit 1414b having an index corresponding to a center value among the indices based on the indexes of the coding units, and a center position among the coding units determined by splitting the first coding unit 1410. It can be determined as a coding unit of. According to an embodiment, when the decoding apparatus 100 determines the indexes for the division of the divided coding units, when the coding units are not the same size, the apparatus 100 may determine the index based on the size ratio between the coding units. Can be. Referring to FIG.
  • the coding unit 1414b generated by dividing the first coding unit 1410 may include the coding units 1414a and 1414c having the same width but different heights as the other coding units 1414a and 1414c. It can be twice the height.
  • the index (PID) of the coding unit 1414b located in the middle is 1, the coding unit 1414c located in the next order may be 3 having an index increased by 2.
  • the motion information decoding apparatus 100 may determine that the motion information is divided into a plurality of coding units including a coding unit having a different size from other coding units.
  • the motion information decoding apparatus 100 may have a coding unit (for example, a middle coding unit) having a predetermined position among the odd coding units.
  • the current coding unit may be divided into different sizes.
  • the motion information decoding apparatus 100 may determine a coding unit having a different size by using an index (PID) for the coding unit.
  • PID index
  • the above-described index, the size or position of the coding unit of the predetermined position to be determined are specific to explain an embodiment and should not be construed as being limited thereto. Various indexes and positions and sizes of the coding unit may be used. Should be interpreted.
  • the decoder 120 may use a predetermined data unit at which recursive division of coding units begins.
  • FIG. 15 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • the predetermined data unit may be defined as a data unit in which a coding unit starts to be recursively divided using at least one of block shape information and split shape information. That is, it may correspond to the coding unit of the highest depth used in the process of determining a plurality of coding units for dividing the current picture.
  • a predetermined data unit will be referred to as a reference data unit.
  • the reference data unit may represent a predetermined size and shape.
  • the reference coding unit may include samples of M ⁇ N. M and N may be the same as each other, and may be an integer represented by a multiplier of two. That is, the reference data unit may represent a square or non-square shape, and then may be divided into integer coding units.
  • the decoder 120 of the motion information decoding apparatus 100 may split the current picture into a plurality of reference data units.
  • the decoder 120 may divide a plurality of reference data units for dividing a current picture by using split information for each reference data unit.
  • the division process of the reference data unit may correspond to the division process using a quad-tree structure.
  • the decoder 120 may predetermine the minimum size of the reference data unit included in the current picture. Accordingly, the decoder 120 may determine a reference data unit having various sizes having a minimum size or more, and determine at least one coding unit using block shape information and split shape information based on the determined reference data unit. Can be.
  • the apparatus 100 for decoding motion information may use a reference coding unit 1500 having a square shape, or may use a reference coding unit 1502 having a non-square shape.
  • the shape and size of the reference coding unit may include various data units (eg, a sequence, a picture, a slice, and a slice segment) that may include at least one reference coding unit. slice segment, maximum coding unit, etc.).
  • the bitstream obtainer of the motion information decoding apparatus 100 may obtain at least one of information about a shape of a reference coding unit and information about a size of a reference coding unit from the bitstream for each of the various data units. have.
  • the process of determining at least one coding unit included in the reference coding unit 1500 having a square shape is described above by splitting the current coding unit 300 of FIG. 3, and the reference coding unit 1500 having a non-square shape has been described. Since the process of determining at least one coding unit included in the above) is described above through the process of splitting the current coding unit 400 or 450 of FIG. 4, a detailed description thereof will be omitted.
  • the decoder 120 may determine an index for identifying the size and shape of the reference coding unit in order to determine the size and shape of the reference coding unit according to some data unit determined in advance based on a predetermined condition. It is available. That is, the bitstream obtaining unit obtains a predetermined condition (for example, a data unit having a size less than or equal to a slice) among the various data units (for example, a sequence, a picture, a slice, a slice segment, a maximum coding unit, etc.) from the bitstream. As a satisfactory data unit, only an index for identifying the size and shape of the reference coding unit may be obtained for each slice, slice segment, maximum coding unit, or the like.
  • a predetermined condition for example, a data unit having a size less than or equal to a slice
  • the various data units for example, a sequence, a picture, a slice, a slice segment, a maximum coding unit, etc.
  • the decoder 120 may determine the size and shape of the reference data unit for each data unit satisfying the predetermined condition by using the index.
  • the index may be obtained and used. In this case, at least one of the size and shape of the reference coding unit associated with an index indicating the size and shape of the reference coding unit may be predetermined.
  • the decoder 120 determines at least one of the size and shape of the reference coding unit included in the data unit, which is the reference for index acquisition, by selecting at least one of the predetermined size and shape of the reference coding unit according to the index. Can be.
  • the decoder 120 may use at least one reference coding unit included in one maximum coding unit. That is, at least one reference coding unit may be included in the maximum coding unit for dividing an image, and the coding unit may be determined through a recursive division process of each reference coding unit. According to an embodiment, at least one of the width and the height of the maximum coding unit may correspond to an integer multiple of at least one of the width and the height of the reference coding unit. According to an embodiment, the size of the reference coding unit may be a size obtained by dividing the maximum coding unit n times according to a quad tree structure.
  • the decoder 120 may determine the reference coding unit by dividing the maximum coding unit n times according to the quad tree structure, and according to various embodiments, the reference coding unit may be included in at least one of block shape information and split shape information. Can be divided based on this.
  • FIG. 16 is a diagram of a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture 1600, according to an exemplary embodiment.
  • the decoder 120 may determine at least one processing block for dividing a picture.
  • the processing block is a data unit including at least one reference coding unit for dividing an image, and the at least one reference coding unit included in the processing block may be determined in a specific order. That is, the determination order of at least one reference coding unit determined in each processing block may correspond to one of various types of order in which the reference coding unit may be determined, and the reference coding unit determination order determined in each processing block. May be different per processing block.
  • the order of determination of the reference coding units determined for each processing block is raster scan, Z-scan, N-scan, up-right diagonal scan, and horizontal scan. It may be one of various orders such as a horizontal scan, a vertical scan, etc., but the order that may be determined should not be construed as being limited to the scan orders.
  • the decoder 120 may determine the size of at least one processing block included in an image by obtaining information about the size of the processing block.
  • the decoder 120 may obtain information about the size of the processing block from the bitstream and determine the size of at least one processing block included in the image.
  • the size of such a processing block may be a predetermined size of a data unit indicated by the information about the size of the processing block.
  • the bitstream obtainer of the motion information decoding apparatus 100 may obtain information about a size of a processing block from a bitstream for each specific data unit.
  • the information about the size of the processing block may be obtained from the bitstream in data units such as an image, a sequence, a picture, a slice, and a slice segment. That is, the bitstream obtainer may obtain information about the size of the processing block from the bitstream for each of the various data units, and the decoder 120 may divide at least one of the pictures by using the information about the size of the acquired processing block.
  • the size of the processing block may be determined, and the size of the processing block may be an integer multiple of the reference coding unit.
  • the decoder 120 may determine the sizes of the processing blocks 1602 and 1612 included in the picture 1600. For example, the decoder 120 may determine the size of the processing block based on the information about the size of the processing block obtained from the bitstream. Referring to FIG. 16, the decoder 120 determines a horizontal size of the processing blocks 1602 and 1612 to be four times the horizontal size of the reference coding unit and four times the vertical size of the reference coding unit, according to an exemplary embodiment. Can be. The decoder 120 may determine an order in which at least one reference coding unit is determined in at least one processing block.
  • the decoder 120 may determine each processing block 1602 and 1612 included in the picture 1600 based on the size of the processing block, and the reference coding unit determiner 12 may process A determination order of at least one reference coding unit included in blocks 1602 and 1612 may be determined.
  • the determination of the reference coding unit may include the determination of the size of the reference coding unit.
  • the decoder 120 may obtain information about a determination order of at least one reference coding unit included in at least one processing block from a bitstream, and based on the obtained determination order An order in which at least one reference coding unit is determined may be determined.
  • the information about the determination order may be defined in an order or direction in which reference coding units are determined in the processing block. That is, the order in which the reference coding units are determined may be independently determined for each processing block.
  • the apparatus 100 for decoding motion information may obtain information on a determination order of a reference coding unit from a bitstream for each specific data unit.
  • the bitstream obtainer may obtain information on the determination order of the reference coding unit from the bitstream for each data unit such as an image, a sequence, a picture, a slice, a slice segment, and a processing block. Since the information about the determination order of the reference coding unit indicates the determination order of the reference coding unit in the processing block, the information about the determination order may be obtained for each specific data unit including an integer number of processing blocks.
  • the apparatus 100 for decoding motion information may determine at least one reference coding unit based on an order determined according to an embodiment.
  • the bitstream obtainer may obtain information about a reference coding unit determination order from the bitstream as information related to the processing blocks 1602 and 1612, and the decoder 120 may process the processing block 1602, An order of determining at least one reference coding unit included in 1612 may be determined, and at least one reference coding unit included in the picture 1600 may be determined according to the determination order of the coding units.
  • the decoder 120 may determine the determination order 1604 and 1614 of at least one reference coding unit associated with each processing block 1602 and 1612. For example, when information on the determination order of the reference coding unit is obtained for each processing block, the reference coding unit determination order associated with each processing block 1602 and 1612 may be different for each processing block.
  • the reference coding units included in the processing block 1602 may be determined according to the raster scan order.
  • the reference coding unit determination order 1614 associated with another processing block 1612 is the reverse order of the raster scan order
  • the reference coding units included in the processing block 1612 may be determined according to the reverse order of the raster scan order.
  • the decoder 120 may decode the determined at least one reference coding unit.
  • the decoder 120 may decode the image based on the reference coding unit determined through the above-described embodiment.
  • the method of decoding the reference coding unit may include various methods of decoding an image.
  • the motion information decoding apparatus 100 may obtain and use block shape information indicating a shape of a current coding unit or split shape information indicating a method of dividing a current coding unit from a bitstream.
  • Block type information or split type information may be included in a bitstream associated with various data units.
  • the apparatus 100 for decoding motion information may include a sequence parameter set, a picture parameter set, a video parameter set, a slice header, and a slice segment header.
  • the block type information or the split type information included in the (slice segment header) may be used.
  • the motion information decoding apparatus 100 may obtain and use syntax related to block shape information or split shape information from the bitstream from the bitstream for each maximum coding unit, reference coding unit, and processing block.
  • the decoder 120 may differently determine the type of division type into which the coding unit may be divided, for each predetermined data unit.
  • the decoder 120 of the motion information decoding apparatus 100 may differently determine a combination of forms in which coding units may be divided for each predetermined data unit (eg, sequence, picture, slice, etc.) according to an embodiment. Can be.
  • FIG. 17 illustrates coding units that may be determined for each picture when a combination of forms in which coding units may be divided is different for each picture, according to an embodiment.
  • the decoder 120 may differently determine a combination of division forms in which a coding unit may be divided for each picture.
  • the decoder 120 may include a picture 1700 that may be split into four coding units among at least one picture included in an image, and a picture 1710 that may be split into two or four coding units. And a picture 1720 that may be divided into two, three, or four coding units, to decode the image.
  • the decoder 120 may use only division type information indicating that the picture 1700 is divided into four square coding units in order to divide the picture 1700 into a plurality of coding units.
  • the decoder 120 may use only partition type information indicating that the picture is divided into two or four coding units to split the picture 1710.
  • the decoder 120 may use only partition type information indicating that the picture is split into two, three, or four coding units in order to split the picture 1720.
  • the combination of the above-described partitioned forms is only an embodiment for explaining the operation of the apparatus 100 for decoding motion information.
  • the above-described combinations of the divided forms should not be construed as being limited to the above-described embodiments, and various forms for each predetermined data unit. It should be construed that a combination of divisional forms of may be used.
  • the bitstream acquisition unit of the motion information decoding apparatus 100 acquires a bitstream including an index indicating a combination of segmentation type information for each predetermined data unit (eg, sequence, picture, slice, etc.). can do.
  • the bitstream obtainer may acquire an index indicating a combination of split type information from a sequence parameter set, a picture parameter set, or a slice header.
  • the decoder 120 of the motion information decoding apparatus 100 may determine a combination of division types in which coding units may be divided for each predetermined data unit by using the obtained index, and thus, each predetermined data unit may be determined. Combinations of other split forms may be used.
  • FIG. 18 illustrates various forms of coding units that may be determined based on split form information that may be represented by binary codes according to an embodiment.
  • the motion information decoding apparatus 100 may divide a coding unit into various forms by using block shape information and partition shape information obtained through a bitstream obtainer.
  • the form of the coding unit that may be split may correspond to various forms including the forms described through the above-described embodiments.
  • the decoder 120 may split a coding unit having a square shape into at least one of a horizontal direction and a vertical direction based on split shape information, and divide the coding unit having a non-square shape into a horizontal direction. Or it can divide in a vertical direction.
  • the split type information of the square coding unit may be represented.
  • the partition type information may be represented by a 2-digit binary code, and a binary code may be allocated to each partition type.
  • the partition type information when the coding unit is not divided, the partition type information may be represented by (00) b, and when the coding unit is split in the horizontal direction and the vertical direction, the partition type information may be represented by (01) b, When the coding unit is split in the horizontal direction, the split type information may be represented by (10) b, and when the coding unit is split in the vertical direction, the split type information may be represented by (11) b.
  • the type of split type that can be represented by the split shape information may be determined according to how many coding units are split. Can be. Referring to FIG. 18, the decoder 120 may split up to three coding units having a non-square shape according to an embodiment. The decoder 120 may split the coding unit into two coding units, and in this case, the split type information may be represented by (10) b. The decoder 120 may divide the coding unit into three coding units, and in this case, the split type information may be represented by (11) b.
  • the decoder 120 may determine not to split the coding unit, and in this case, the split type information may be expressed as (0) b. That is, the decoder 120 may use variable length coding (VLC) instead of fixed length coding (FLC) in order to use a binary code indicating split type information.
  • VLC variable length coding
  • FLC fixed length coding
  • a binary code of split type information indicating that a coding unit is not split may be represented by (0) b. If the binary code of the partition type information indicating that the coding unit is not split is set to (00) b, even if there is no partition type information set to (01) b, all of the binary codes of the 2-bit partition type information are included. Should be used. However, as shown in FIG. 18, in the case of using three split types for a non-square type coding unit, even if the decoder 120 uses one-bit binary code (0) b as split type information. Since the coding unit can be determined not to be divided, the bitstream can be efficiently used. However, the divided form of the non-square-type coding unit indicated by the divided form information is not limited to only the three forms illustrated in FIG. 18 and should be interpreted in various forms including the embodiments described above.
  • FIG. 19 illustrates another form of a coding unit that may be determined based on split form information that may be represented by a binary code, according to an embodiment.
  • the decoder 120 may split a coding unit having a square shape in a horizontal direction or a vertical direction based on split shape information, and may split the coding unit having a non-square shape in a horizontal direction or a vertical direction.
  • the split type information may indicate that a coding unit having a square shape is split in one direction.
  • the binary code of the split type information indicating that the coding unit of the square type is not split may be represented by (0) b. If the binary code of the partition type information indicating that the coding unit is not split is set to (00) b, even if there is no partition type information set to (01) b, all of the binary codes of the 2-bit partition type information are included. Should be used.
  • the coding unit is used. Can determine that is not to be divided, so that the bitstream can be used efficiently.
  • the divided form of the square coding unit represented by the divided form information should not be construed as being limited to only the three forms illustrated in FIG. 19, but should be interpreted in various forms including the embodiments described above.
  • the block type information or the split type information may be represented by using a binary code, and such information may be immediately generated in a bitstream.
  • block type information or partition type information that can be represented by a binary code may be used as a binary code that is not directly generated as a bitstream but input by context adaptive binary arithmetic coding (CABAC).
  • CABAC context adaptive binary arithmetic coding
  • the apparatus 100 for decoding motion information describes a process of obtaining syntax for block type information or split type information through CABAC.
  • a bitstream including a binary code for the syntax may be obtained through a bitstream obtainer.
  • the decoder 120 may inverse binarize the bin string included in the obtained bitstream to detect a syntax element representing the block type information or the split type information.
  • the decoder 120 may obtain a set of binary bin strings corresponding to syntax elements to be decoded, and may decode each bin using probability information, and the decoder 120 may decode the bin. You can iterate until an empty string consisting of equals one of the previously obtained empty strings.
  • the decoder 120 may determine the syntax element by performing inverse binarization of the empty string.
  • the decoder 120 may determine a syntax for an empty string by performing an adaptive binary arithmetic coding process, and the decoder 120 may acquire the bitstream through the bitstream obtainer. We can update the probabilistic model for one bean.
  • the bitstream acquisition unit of the motion information decoding apparatus 100 may obtain a bitstream indicating a binary code indicating partition type information, according to an exemplary embodiment.
  • the decoder 120 may determine the syntax of the partition type information by using the obtained binary code having a size of 1 bit or 2 bits.
  • the decoder 120 may update the probability of each bit of the 2-bit binary code to determine the syntax of the partition type information. That is, the decoder 120 may update the probability of having a value of 0 or 1 when decoding the next bin, depending on which value of the first bin is 0 or 1 of the 2-bit binary code.
  • the decoder 120 may update a probability of bins used in decoding bins of an empty string for syntax, and the decoder 120 may update the bin. It may be determined that a specific bit of the string has the same probability without updating the probability.
  • the decoder 120 does not split the coding unit having a non-square shape.
  • the syntax of the partition type information may be determined using one bin having a value of 0. That is, when the block type information indicates that the current coding unit is a non-square type, the first bin of the empty string for the split type information is 0 when the coding unit of the non-square type is not divided, and two or three It may be 1 when it is divided into coding units. Accordingly, the probability that the first bin of the empty string of the split form information for the non-square coding unit is 0 may be 1/3, and the probability that 1 is 2/3.
  • the decoder 120 may represent only one bit of an empty string having a value of 0, the decoder 120 may indicate split type information. Only when the first bin of 1 is 1, the syntax of the partition type information may be determined by determining whether the second bin is 0 or 1. According to an embodiment, when the first bin of the partition type information is 1, the decoder 120 may determine that the probability that the second bin is 0 or 1 is the same probability and decode the bin.
  • the apparatus 100 for decoding motion information may use various probabilities for each bin in the process of determining the bin of the bin string for the split type information.
  • the decoder 120 may differently determine a probability of a bin with respect to partition type information according to a direction of a non-square block.
  • the decoder 120 may differently determine a probability of a bin with respect to the split shape information according to the width or the length of the long side of the current coding unit.
  • the decoder 120 may differently determine a probability of a bin with respect to the split shape information according to at least one of a shape of a current coding unit and a length of a long side.
  • the decoder 120 may determine the same probability of a bin with respect to split type information for coding units having a predetermined size or more. For example, based on the length of the long side of the coding unit, it may be determined that the coding units having a size of 64 samples or more have the same probability of bins for the split shape information.
  • the decoder 120 may determine an initial probability of bins constituting an empty string of partition type information based on a slice type (eg, an I slice, a P slice, or a B slice).
  • a slice type eg, an I slice, a P slice, or a B slice.
  • 20 is a block diagram of an image encoding and decoding system for performing loop filtering.
  • the encoding stage 2010 of the image encoding and decoding system 2000 transmits an encoded bitstream of an image, and the decoding stage 2050 receives and decodes the bitstream to output a reconstructed image.
  • the encoding stage 2010 may have a configuration similar to the motion information encoding apparatus 200, which will be described later, and the decoding stage 2050 may have a configuration similar to the motion information decoding apparatus 100.
  • the predictive encoding unit 2015 outputs a reference image through inter prediction and intra prediction, and the transform and quantization unit 2020 transforms the quantized residual data between the reference image and the current input image. Quantize this to output it.
  • the entropy encoder 2025 encodes and transforms the quantized transform coefficients and outputs the bitstream.
  • the quantized transform coefficients are restored to the data in the spatial domain through the inverse quantization and inverse transform unit 2030, and the restored spatial data is output as the reconstructed image through the deblocking filtering unit 2035 and the loop filtering unit 2040. do.
  • the reconstructed image may be used as a reference image of the next input image through the prediction encoder 2015.
  • the encoded image data in the bitstream received by the decoder 2050 is reconstructed as residual data in the spatial domain through the entropy decoder 2055 and the inverse quantization and inverse transform unit 2060.
  • the reference image and the residual data output from the predictive decoder 2075 are combined to form image data of the spatial domain, and the deblocking filter 2065 and the loop filter 2070 filter the image data of the spatial domain.
  • the reconstructed image of the current original image can be output by performing.
  • the reconstructed image may be used as the reference image for the next original image by the prediction decoder 2075.
  • the loop filtering unit 2040 of the encoding stage 2010 performs loop filtering using filter information input according to a user input or system setting.
  • the filter information used by the loop filtering unit 2040 is output to the entropy encoder 2010 and transmitted to the decoder 2050 together with the encoded image data.
  • the loop filtering unit 2070 of the decoding unit 2050 may perform loop filtering based on filter information input from the decoding unit 2050.
  • 21 is a diagram illustrating an example of filtering units included in a maximum coding unit and filtering performance information of a filtering unit, according to an embodiment.
  • the data filtering unit of the loop filtering unit 2040 of the encoding end 2010 and the loop filtering unit 2070 of the decoding end 2050 is similar to the coding unit according to the above-described embodiment through FIGS. 3 to 5.
  • the filter information may include block type information and split type information of a data unit to indicate a filtering unit, and loop filtering performance information indicating whether to perform loop filtering on the filtering unit.
  • the filtering units included in the maximum coding unit 2100 may have the same block form and split form as the coding units included in the maximum coding unit 2100. Also, the filtering units included in the maximum coding unit 2100 may be divided based on the sizes of the coding units included in the maximum coding unit 2100. For example, with reference to FIG. 21, the filtering units may include square-shaped filtering units 2140 of depth D, non-square-shaped filtering units 2132 and 2134 of depth D, and square-shaped filtering units of depth D + 1. (2112, 2114, 2116, 2152, 2154, 2164), non-square filtering units of depth D + 1 (2162, 2166), square filtering units of depth D + 2 (2122, 2124, 2126, 2128) ) May be included.
  • Block shape information, split shape information (depth), and loop filtering performance information of the filtering units included in the maximum coding unit 2100 may be encoded as shown in Table 1 below.
  • a process of determining a plurality of coding units by recursively dividing coding units according to block shape information and block splitting information according to an embodiment is as described above with reference to FIG. 13.
  • Loop filtering performance information of the filtering units according to an embodiment indicates that loop filtering is performed on the corresponding filtering unit when the flag value is 1 and loop filtering is not performed on the corresponding filtering unit.
  • information of a data unit for determining a filtering unit to be filtered by the loop filtering units 2040 and 2070 may be encoded and transmitted as filter information.
  • coding units configured according to an embodiment are coding units configured in a form of minimizing an error with an original image, it is expected that spatial correlation is high in the coding unit. Therefore, since the filtering unit is determined based on the coding unit according to an embodiment, the operation of determining the filtering unit separately from the determination of the coding unit may be omitted. Accordingly, since information for determining the division type of the filtering unit may be omitted by determining the filtering unit based on the coding unit, the transmission bit rate of the filter information may be saved.
  • the filtering unit is determined to be determined based on the coding unit according to an embodiment.
  • the filtering unit is split based on the coding unit, and the filtering unit is further divided up to the corresponding depth without further dividing at any depth.
  • the shape of may be determined.
  • the determination of the filtering unit disclosed in the above-described embodiments may be applied to various embodiments, such as deblocking filtering and adaptive loop filtering, as well as loop filtering.
  • the apparatus 100 for decoding motion information may split a current coding unit using at least one of block shape information and split shape information, and the block shape information is previously determined to use only a square shape.
  • the shape information may be previously determined to indicate that the shape information is not divided or may be divided into four square coding units. That is, in the current coding unit, according to the block shape information, the coding unit always has a square shape, and may be divided into four coding units having no square or four square shapes based on the split shape information.
  • the motion information decoding apparatus 100 may obtain a bitstream generated by using a predetermined encoding method determined by using only such a block type and a split type, through a bitstream obtainer, and the decoder 120 may determine a predetermined value.
  • the motion information decoding apparatus 100 may solve a compatibility problem with the predetermined encoding method by using a predetermined decoding method similar to the predetermined encoding method described above.
  • the apparatus 100 for decoding motion information uses the above-described predetermined decoding method using only a predetermined block form and a split form among various forms that can be represented by the block form information and the divided form information, the block form Since the information represents only a square shape, the motion information decoding apparatus 100 may omit the process of obtaining block shape information from the bitstream.
  • a syntax indicating whether to use the above-described predetermined decoding method may be used, and the syntax may include a bitstream for each data unit of various types that may include a plurality of coding units such as a sequence, a picture, a slice unit, and a maximum coding unit. Can be obtained from. That is, the bitstream obtaining unit may determine whether to obtain a syntax indicating the block type information from the bitstream based on the syntax indicating whether a predetermined decoding method is used.
  • FIG. 23 illustrates an index according to a Z scan order of coding units, according to an embodiment.
  • the apparatus 100 for decoding motion information according to an embodiment may scan the lower data units included in the upper data unit according to the Z scan order. Also, the apparatus 100 for decoding motion information according to an embodiment may sequentially access data according to a Z scan index in a maximum coding unit or a coding unit included in a processing block.
  • the motion information decoding apparatus 100 may divide the reference coding unit into at least one coding unit.
  • square coding units and non-square coding units may be mixed in the reference coding unit.
  • the apparatus 100 for decoding motion information according to an embodiment may perform data access according to a Z scan index included in each coding unit in a reference coding unit. In this case, the method of applying the Z scan index may be different depending on whether a non-square type coding unit exists in the reference coding unit.
  • coding units having a lower depth in the reference coding unit may have consecutive Z scan indices.
  • the coding units of the higher depths may include four coding units of the lower depths.
  • the coding units of the four lower depths may be adjacent to each other, and the coding units of the lower depths may be scanned in the Z scan order according to an index indicating the Z scan order.
  • an index indicating a Z scan order may be set to a number that increases according to the Z scan order for each coding unit. In this case, scanning units according to depths of the same depth may be scanned according to a Z scan order.
  • the apparatus 100 for decoding motion information divides the coding units in the reference coding unit into subblocks, respectively. Scans according to the Z scan order may be performed on the subblocks. For example, when a coding unit having a non-square shape in the vertical direction or the horizontal direction exists in the reference coding unit, the Z scan may be performed using the divided subblocks. Also, for example, when splitting is performed in odd coding units within a reference coding unit, a Z scan may be performed using subblocks. The sub block is obtained by dividing a coding unit that is no longer split or an arbitrary coding unit, and may have a square shape. For example, four square subblocks may be split from a square coding unit. Also, for example, two square subblocks may be split from a non-square coding unit.
  • the apparatus 100 for decoding motion information may include encoding units 2302, 2304, 2306, 2308, and 2310 having lower depths in the coding unit 2300. You can scan in the scanning order.
  • the coding unit 2300 and the coding units 2302, 2304, 2306, 2308, and 2310 are relatively higher coding units and lower coding units, respectively.
  • the coding unit 2300 includes coding units 2306 and 2310 having a non-square shape in a horizontal direction. These non-square shaped coding units 2306 and 2310 are discontinuous at boundaries with adjacent square shaped coding units 2302 and 2304.
  • the coding unit 2308 has a square shape, and a coding unit having a non-square shape is an intermediate coding unit when an odd number of coding units are divided. Like the non-square coding units 2306 and 2310, the coding unit 2308 has a discontinuous boundary with adjacent square coding units 2302 and 2304. If coding units 2300 include non-square coding units 2306 and 2310 or non-square coding units are divided into odd numbered coding units 2308, the coding units 2308 may be included. A continuous Z scan index cannot be set because adjacent boundaries are discontinuous. Therefore, the apparatus 100 for decoding motion information may continuously set the Z scan index by dividing coding units into subblocks. In addition, the apparatus 100 for decoding motion information includes a continuous Z with respect to coding units 2308 positioned in the middle of non-square coding units 2306 and 2310 or odd-numbered non-square coding units. You can perform a scan.
  • the coding unit 2320 illustrated in FIG. 23 is obtained by dividing coding units 2302, 2304, 2306, 2308, and 2310 in the coding unit 2300 into subblocks. Since the Z scan index may be set for each of the sub blocks, and adjacent boundaries between the sub blocks are continuous, the sub blocks may be scanned according to the Z scan order.
  • the coding unit 2308 may be divided into sub blocks 2322, 2324, 2326, and 2328.
  • the sub blocks 2322 and 2324 may be scanned after the data processing for the sub block 2330, and the sub blocks 2326 and 2328 may be scanned after the data processing for the sub block 2332.
  • each of the sub blocks may be scanned according to the Z scan order.
  • scanning according to the Z scan order for the data units may be for data storage, data loading, data access, and the like.
  • the data units can be scanned according to the Z scan order, but the scanning order of the data units includes various scan orders such as raster scan, N scan, right upward diagonal scan, horizontal scan, and vertical scan. It can be performed as, and not limited to the Z scan order.
  • the target of the scanning may be a maximum coding unit or any block in a processing block. have.
  • the scan is performed according to the Z scan order by dividing into sub-blocks only when there is at least one non-square type block, but the non-square type is provided for simplified implementation. Even if a block of does not exist, the subblocks may be divided to perform a scan according to the Z scan order.
  • the motion information decoding apparatus 100 may generate prediction data by performing inter prediction or intra prediction on a coding unit, and perform inverse transform on a transform unit included in a current coding unit to perform residual data. And generate the current coding unit by using the generated prediction data and the residual data.
  • the prediction mode of the coding unit may be at least one of an intra mode, an inter mode, and a skip mode. According to an embodiment, a prediction mode may be independently selected for each coding unit.
  • inter mode prediction and intra mode prediction may be performed separately for each coding unit.
  • a skip mode may be applied to coding units of 2NxN or Nx2N form according to an embodiment.
  • the apparatus 100 for decoding motion information may be allowed to perform bi-prediction in a skip mode of an 8x4 or 4x8 type coding unit.
  • the skip mode since only skip mode information is transmitted for a coding unit, use of residual data for the coding unit is omitted.
  • the motion information decoding apparatus 100 may increase bidirectional prediction with respect to a coding unit to which a skip mode is applied to increase decoding efficiency.
  • the apparatus 100 for decoding motion information allows bidirectional prediction with respect to a coding unit having an 8x4 or 4x8 type, but sets a relatively small number of interpolation taps in a motion compensation step so that the memory bandwidth is reduced. Can be used efficiently.
  • an interpolation filter of less than 8 taps eg, a 2-tap interpolation filter
  • the apparatus 100 for decoding motion information divides an area included in a current coding unit into a predetermined form (for example, diagonal-based division), thereby intra or inter prediction information on each divided area. May be signaled.
  • the apparatus 100 for decoding motion information may obtain a prediction sample of the current coding unit using an intra mode using a neighboring sample of the current coding unit. At this time, intra prediction performs prediction using surrounding reconstructed samples, which are called reference samples.
  • FIG. 24 is a diagram illustrating a reference sample for intra prediction of a coding unit, according to an embodiment.
  • a current coding unit 2300 having a non-square block shape, a horizontal length w, a vertical length h, and w + h reference samples 2302 at the top, A total of 2 (w + h) +1 reference samples are required, one w + h reference sample 2304 on the left and one reference reference 2306 on the upper left.
  • padding may be performed on a portion where a reference sample does not exist, and a reference mode filtering process for each prediction mode may be performed to reduce quantization error included in the reconstructed reference sample.
  • the number of reference samples when the block shape of the current coding unit is a non-square shape has been described.
  • the number of the reference samples is equally applied even when the current coding unit is a block shape of a rectangular shape.
  • FIG. 2 is a block diagram of a motion information encoding apparatus for generating motion related information of divided sub-units, according to an exemplary embodiment.
  • the motion information encoding apparatus 200 performs a motion prediction on a current prediction unit to acquire motion information on the current prediction unit, according to an embodiment.
  • a spatial prediction candidate and a temporally related temporal prediction candidate spatially associated with the unit are generated, the current prediction unit is divided into a plurality of sub-units, and motion related information for prediction of the sub-units among the spatial prediction candidate and the temporal prediction candidate is obtained.
  • a bitstream generator 220 to generate information for determining, and an encoder to encode motion related information for prediction of sub-units using the obtained information.
  • the information for determining the motion related information generated by the bitstream generator 220 may include spatial information and temporal information.
  • the spatial information may indicate a direction of the spatial prediction candidate used for the sub units among the spatial prediction candidates located at the left and the upper side of the current prediction unit.
  • the temporal information may indicate a reference prediction unit of a previous picture used for prediction of the current prediction unit.
  • the bitstream generator 220 may determine a candidate unit to be merged with the current prediction unit by using the motion vector prediction method of the inter mode. For example, among the spatial prediction candidates that contact all boundaries of the current prediction unit, a plurality of spatial prediction candidates may be determined. According to an embodiment, the bitstream generator 220 may determine the spatial prediction candidate to be used in the sub unit among the determined plurality of spatial prediction candidates using spatial information.
  • the bitstream generator 220 may be merged with the current prediction unit from among all the neighboring spatial prediction candidates touching the left boundary of the current prediction unit and all the neighboring spatial prediction candidates touching the upper boundary by using the spatial information.
  • One spatial prediction candidate may be searched and determined.
  • the bitstream generator 220 may use the spatial information to add the upper left spatial prediction candidate to the edge of the current prediction unit, in addition to the left spatial prediction candidate and the upper spatial prediction candidate of the current prediction unit,
  • One spatial prediction candidate to be merged with the current prediction unit may be searched and determined from a spatial prediction candidate group including an upper right spatial prediction candidate and a lower right spatial prediction candidate.
  • the method of determining the spatial prediction candidate of one of the left spatial prediction candidate group, the top spatial prediction candidate group, and the edge spatial prediction candidate group by the bitstream generator 220 may be based on a preset method.
  • the bitstream generator 220 may have a spatial index having the same reference index as the sub-unit of the current prediction unit among the first spatial prediction candidate group, the second spatial prediction candidate group, or the third spatial prediction candidate group.
  • the prediction candidates may be retrieved and determined as one spatial prediction candidate to be merged.
  • the bitstream generator 220 may include a neighbor in which the prediction mode is the inter mode in the spatial prediction candidate groups of the upper neighbor prediction units among the first spatial prediction candidate group, the second spatial prediction candidate group, or the third spatial prediction candidate group, respectively.
  • the prediction unit may be searched to determine it as one spatial prediction candidate to be merged with a subunit of the current prediction unit.
  • the bitstream generator 220 may select one of the first spatial prediction candidate groups as the left spatial prediction candidate, one of the second spatial prediction candidate groups as the upper spatial prediction candidate, and select one of the third spatial prediction candidate groups. It can be determined as a corner spatial prediction candidate and as one spatial prediction candidate to be merged with the current prediction unit.
  • FIG 3 illustrates that a prediction unit is divided into one or more sub units according to an embodiment.
  • FIG. 4 illustrates generating motion related information of a spatial prediction candidate in each sub-unit according to an embodiment.
  • the bitstream generator 220 may generate a spatial prediction candidate to be merged with the current prediction unit including the subunits using spatial information among information for determining motion related information of the subunits. .
  • FIG. 5 illustrates determining availability of a spatial prediction candidate spatially associated with a prediction unit, according to an embodiment.
  • FIG. 6 illustrates obtaining motion related information of a reference prediction unit of a previous picture by using temporal information, according to an embodiment.
  • the bitstream generator 220 may generate temporal information indicating a reference prediction unit of a previous picture used for prediction of the current prediction unit. For example, the bitstream generator 220 may determine a reference prediction unit of the previous picture by using temporal information. The bitstream generator 220 may divide the reference prediction unit into one or more reference subunits, and may select a reference subunit corresponding to the current subunit used for prediction of the current subunit among the divided reference subunits. You can decide.
  • the bitstream generator 220 may generate temporal information indicating one or more reference prediction units of one or more previous pictures used for prediction of the current prediction unit.
  • FIG. 7 illustrates obtaining motion related information of one or more spatial prediction candidates adjacent to a sub unit, according to an embodiment.
  • FIG. 9 is a flowchart of a motion information encoding method of generating motion related information of sub-units using information for determining motion related information, according to an exemplary embodiment.
  • the apparatus 200 for encoding motion information may perform motion prediction on the current prediction unit to obtain motion information on the current prediction unit.
  • the apparatus 200 for encoding motion information may generate a spatial prediction candidate and a temporally predicted temporal prediction candidate spatially associated with the current prediction unit.
  • the apparatus 200 for encoding motion information may split the current prediction unit into one or more sub units.
  • the apparatus 200 for encoding motion information may generate information for determining motion related information of sub-units among the motion related information of the spatial prediction candidate and the motion related information of the temporal prediction candidate.
  • the apparatus 200 for encoding motion information may encode motion related information for prediction of sub-units using the generated information.
  • FIG. 10 illustrates that when a second coding unit having a non-square shape determined by dividing the first coding unit 1000 by the encoding apparatus 200 of the motion information satisfies a predetermined condition, the second coding unit may be changed. It shows that the form that can be divided is limited.
  • the encoder 230 may determine that the first coding unit 1000 having a square shape is divided into second coding units 1010a, 1010b, 1020a, and 1020b having a non-square shape.
  • the second coding units 1010a, 1010b, 1020a, and 1020b may be independently divided. Accordingly, the encoder 230 may determine whether to split each of the second coding units 1010a, 1010b, 1020a, and 1020b into a plurality of coding units or not.
  • An operation of restricting a form that may be split when the second coding unit having a non-square shape satisfies a predetermined condition by the apparatus 200 for motion information related to FIG. 10 may be performed by the motion information described above with reference to FIG. 10. Since the operation may be opposite to that of the decoding apparatus 100, a detailed description thereof will be omitted.
  • FIG. 11 illustrates a process of splitting a coding unit having a square shape by the encoding apparatus 200 of the motion information when the split shape information cannot be divided into four square coding units according to an exemplary embodiment. Since the operation of the motion information encoding apparatus 200 related thereto may be the opposite of the operation of the motion information decoding apparatus 100 described above with reference to FIG. 11, a detailed description thereof will be omitted.
  • FIG. 12 illustrates that a processing order between a plurality of coding units may vary according to a splitting process of coding units, according to an embodiment.
  • the encoder 230 may divide the first coding unit 1200 having a square shape into at least one of a horizontal direction and a vertical direction.
  • the bitstream generator 220 divides block shape information indicating that the first coding unit 1200 is square and splits the first coding unit 1200 into at least one of a horizontal direction and a vertical direction. A bitstream including split type information indicating may be generated.
  • the encoder 230 may divide the first coding unit 1200 to determine a second coding unit (eg, 1210a, 1210b, 1220a, 1220b, 1230a, 1230b, 1230c, 1230d, etc.). have.
  • the second coding units 1210a, 1210b, 1220a, and 1220b having a non-square shape determined by splitting the first coding unit 1200 in only the horizontal direction or the vertical direction may be split independently.
  • the encoder 230 divides the second coding units 1210a and 1210b generated by dividing the first coding unit 1200 in the vertical direction, respectively, in the horizontal direction, to thereby separate the third coding units 1216a, 1216b, and 1216c. , 1216d, and the second coding units 1220a and 1220b generated by dividing the first coding unit 1200 in the horizontal direction, respectively, are divided into the third coding units 1226a, 1226b, 1226c, 1226d). Since the operation of the motion information encoding apparatus 200 in relation to FIG. 10 may be opposite to that of the motion information decoding apparatus 100 described above with reference to FIG. 10, a detailed description thereof will be omitted.
  • FIG. 13 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • the encoding unit 230 of the motion information encoding apparatus 200 determines a depth of a coding unit.
  • the encoding apparatus 200 of the motion information may determine whether the motion information is divided into a specific division type based on a value of an index for dividing the plurality of coding units determined by dividing from the current coding unit. Referring to FIG. 14, the motion information encoding apparatus 200 determines an even number of coding units 1412a and 1412b by dividing a first coding unit 1410 having a rectangular shape having a height greater than a width, or an odd number of coding units 1414a. 1414b, 1414c). The encoding apparatus 200 of the motion information may use an index (PID) indicating each coding unit to distinguish each of the plurality of coding units.
  • PID index
  • the PID may be obtained from a sample (eg, an upper left sample) at a predetermined position of each coding unit. Since the operation of the motion information encoding apparatus 200 related to FIG. 14 may be opposite to that of the motion information decoding apparatus 100 described above with reference to FIG. 14, a detailed description thereof will be omitted.
  • FIG. 15 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • the encoder 230 may use the above-described reference coding unit as a predetermined data unit in which recursive division of the coding unit starts.
  • the operation of the motion information encoding apparatus 200 using the reference coding unit may be opposite to the operation of the motion information decoding apparatus 100 described with reference to FIG. 15 using the reference coding unit. Detailed description will be omitted.
  • the bitstream generator 220 of the motion information encoding apparatus 200 may generate a variety of bitstreams including at least one of information about a shape of a reference coding unit and information about a size of a reference coding unit. Can be generated for each data unit.
  • the process of determining at least one coding unit included in the reference coding unit 1500 having a square shape is described above by splitting the current coding unit 300 of FIG. 3, and the reference coding unit 1500 having a non-square shape has been described. Since the process of determining at least one coding unit included in the above) is described above through the process of splitting the current coding unit 400 or 450 of FIG. 4, a detailed description thereof will be omitted.
  • the encoder 230 may determine an index for identifying the size and shape of the reference coding unit in order to determine the size and shape of the reference coding unit according to some data unit that is predetermined based on a predetermined condition. It is available. That is, the bitstream generator 220 may select a predetermined condition (for example, a data unit having a size less than or equal to a slice) among the various data units (for example, a sequence, a picture, a slice, a slice segment, and a maximum coding unit). For each data unit that satisfies, a bitstream including an index for identifying the size and shape of the reference coding unit may be generated.
  • a predetermined condition for example, a data unit having a size less than or equal to a slice
  • the various data units for example, a sequence, a picture, a slice, a slice segment, and a maximum coding unit.
  • the encoder 230 may determine the size and shape of the reference data unit for each data unit satisfying the predetermined condition by using the index. According to an embodiment, at least one of the size and shape of the reference coding unit associated with an index indicating the size and shape of the reference coding unit may be predetermined. That is, the encoder 230 determines at least one of the size and shape of the reference coding unit included in the data unit, which is the reference of the index acquisition, by selecting at least one of the predetermined size and shape of the reference coding unit according to the index. Can be. Since the operation of the encoder 230 using the index for identifying the size and shape of the reference coding unit may be similar to that of the decoder 120 described above, a detailed description thereof will be omitted.
  • FIG. 16 is a diagram of a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture 1600, according to an exemplary embodiment.
  • the encoder 230 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block.
  • the encoder 230 may determine the size of at least one processing block included in the image, and the bitstream generator 220 may generate a bitstream including information about the size of the processing block.
  • the size of such a processing block may be a predetermined size of a data unit indicated by the information about the size of the processing block.
  • the bitstream generator 220 of the motion information encoding apparatus 200 may generate a bitstream including information about a size of a processing block for each specific data unit.
  • a bitstream including information on the size of a processing block may be generated for each data unit such as an image, a sequence, a picture, a slice, and a slice segment. That is, the bitstream generator 220 may generate a bitstream including information about the size of the processing block for each of the various data units, and the encoder 230 may use the information about the size of the processing block.
  • a size of at least one processing block for dividing a picture may be determined, and the size of the processing block may be an integer multiple of a reference coding unit.
  • the encoder 230 may determine the sizes of the processing blocks 1602 and 1612 included in the picture 1600. For example, the encoder 230 may determine the size of the processing block based on the information about the size of the processing block. Referring to FIG. 16, the encoder 230 determines a horizontal size of the processing blocks 1602 and 1612 to be four times the horizontal size of the reference coding unit and four times the vertical size of the reference coding unit, according to an exemplary embodiment. Can be. The encoder 230 may determine an order in which at least one reference coding unit is determined in at least one processing block. An operation of the encoder 230 related to the processing block may be similar to that of the decoder 120 described above with reference to FIG. 16, and thus a detailed description thereof will be omitted.
  • the bitstream generator 220 of the motion information encoding apparatus 200 may include block shape information indicating a shape of a current coding unit or bitstream including split shape information indicating a method of splitting a current coding unit. Can be generated. Block type information or split type information may be included in a bitstream associated with various data units.
  • the bitstream generator 220 of the motion information encoding apparatus 200 may include a sequence parameter set, a picture parameter set, a video parameter set, and a slice header. (slice header), block type information or split type information included in a slice segment header may be used.
  • the bitstream generator 220 of the motion information encoding apparatus 200 may generate a bitstream including syntax indicating block type information or fragment type information for each maximum coding unit, reference coding unit, and processing block. .
  • the encoder 230 may differently determine the type of division type into which the coding unit may be divided, for each predetermined data unit.
  • the encoder 230 of the motion information encoding apparatus 200 may differently determine a combination of forms in which coding units may be divided for each predetermined data unit (eg, sequence, picture, slice, etc.). Can be.
  • FIG. 17 illustrates coding units that may be determined for each picture when a combination of forms in which coding units may be divided is different for each picture, according to an embodiment.
  • the encoder 230 may differently determine a combination of division forms in which a coding unit may be divided for each picture.
  • the encoder 230 may include a picture 1700 that may be divided into four coding units among at least one picture included in an image, and a picture 1710 that may be divided into two or four coding units. And a picture 1720 that may be divided into two, three, or four coding units, to decode the image.
  • the encoder 230 may divide the picture 1700 into four square coding units.
  • the encoder 230 may split the picture 1710 into two or four coding units.
  • the encoder 230 may split the picture 1720 into two, three, or four coding units.
  • the encoder 230 of the encoding apparatus 200 of the motion information may determine a combination of division forms in which a coding unit may be divided according to predetermined data units, by using an index indicating a combination of segmentation information. Accordingly, a combination of different partitioning types may be used for each predetermined data unit.
  • the bitstream generator 220 of the motion information encoding apparatus 200 generates a bitstream including an index indicating a combination of segmentation type information for each predetermined data unit (eg, sequence, picture, slice, etc.). can do.
  • the bitstream generation unit 220 may include a sequence parameter set, a picture parameter set, or a slice including an index indicating a combination of segmentation type information.
  • 18 and 19 illustrate various forms of coding units that may be determined based on split form information that may be represented by binary codes, according to an embodiment.
  • the encoder 230 of the motion information encoding apparatus 200 may divide a coding unit into various forms, and include block shape information and split shape information through the bitstream generator 220. A bitstream can be generated.
  • the form of the coding unit that may be split may correspond to various forms including the forms described through the above-described embodiments. Referring to FIG. 18, the encoder 230 may split a square coding unit into at least one of a horizontal direction and a vertical direction based on split shape information, and may split a non-square coding unit into a horizontal direction. Or it can divide in a vertical direction.
  • the feature of the binary code of the segmentation information that may be used by the motion information encoding apparatus 200 may correspond to the feature of the motion information decoding apparatus 100 described above with reference to FIGS. 18 and 19. Do it.
  • the encoding apparatus 200 of the motion information may generate prediction data by performing inter prediction or intra prediction on a coding unit, and perform inverse transform on a transform unit included in a current coding unit to perform residual data.
  • the current coding unit may be encoded by using the generated prediction data and the residual data.
  • the prediction mode of the coding unit may be at least one of an intra mode, an inter mode, and a skip mode. According to an embodiment, prediction may be independently performed for each coding unit, and thus a prediction mode having the smallest error may be selected.
  • inter mode prediction and intra mode prediction may be performed separately for each coding unit.
  • the encoder 230 of the motion information encoding apparatus 200 may encode using a CU skip mode not only when the coding unit is a square form but also when the coding unit is a non-square form. Units can be encoded.
  • the non-square coding unit can be decoded using the CU skip mode.
  • the feature of the motion information encoding apparatus 200 using the skip mode in the non-square type coding unit may be similar to the above-described feature in connection with the use of the skip mode of the motion information encoding apparatus 200, the detailed description will be provided. Omit it.
  • 22 illustrates a process of merging or splitting between coding units determined according to a predetermined encoding method, according to an embodiment.
  • the motion information encoding apparatus 200 may determine coding units for dividing a picture using the above-described predetermined encoding method. For example, the motion information encoding apparatus 200 may determine a coding unit of a current depth or split it into four coding units of a lower depth based on split information of a coding unit. As described above, the motion information encoding apparatus 200 according to an embodiment may include block shape information indicating that the current coding unit always has a square shape, indicating that the current coding unit is not divided, or coding units having four square shapes. The coding unit may be determined by using the split type information that may indicate splitting into data. Referring to FIG. 22, pictures 2200 and 2220 may be divided according to square coding units determined according to the above-described predetermined coding method.
  • the motion information encoding apparatus 200 may decode the small object 2221 by dividing the first coding unit 2222 into four lower depth coding units to restore the small object 2221.
  • the coding unit may be determined.
  • the large object 2223 is not included in the current coding unit 2222, the large object 2223 is not suitable to be decoded using the current coding unit 2222, and furthermore, to decode the small object 2221. Since the coding unit 2222 is split, an unnecessary splitting process of the coding unit needs to be performed for decoding the large object 2223, which is inefficient. That is, if the encoding apparatus 200 of the motion information may use one coding unit to encode a portion of the large object 2223, image encoding may be efficiently performed.
  • the encoder 230 of the motion information encoding apparatus 200 may split a current coding unit by using at least one of block shape information and split shape information, and the block shape information uses only a square shape.
  • the split shape information may be predetermined or may indicate that the split shape information is not split or divided into four square coding units. This may correspond to a coding unit determination process used in the above-described predetermined encoding method through various embodiments.
  • the encoder 230 may use a sample value included in the picture to merge the coding units determined using the predetermined coding method with each other or to split the coding units determined. For example, the encoder 230 may detect various objects included in the picture by reviewing portions having similar sample values, and performs a merge / split process of coding units based on the portions of the detected objects. Can be done.
  • the encoder 230 may determine a plurality of coding units for dividing the picture 2200 using the above-described predetermined encoding method. However, although the portion 2201 having similar sample values included in the picture exists, a process of dividing the similar region into a plurality of coding units instead of one coding unit may be performed. In this case, even if the coding unit is determined through a predetermined coding method, the encoder 230 may merge the coding units into one coding unit 2202 and encode the coding unit as one coding unit. Referring to FIG.
  • the encoder 230 may split the coding unit 2222 for encoding the small object 2221 into four coding units by using the above-described predetermined coding method. have. In the case of the split coding units, since the detected large object 2223 may not be included in all, the encoder 230 may merge the coding units into a coding unit 2225 including one coding unit having a similar sample value. .
  • the encoder 230 determines a coding unit by using a predetermined coding method that does not divide a coding unit or splits it into four coding units by using split information of a coding unit, and then includes a sample included in a picture.
  • the coding unit may be divided again in consideration of the sample values. That is, the encoder 130 may split not only the merged coding units but also the previously determined coding units in order to determine the coding units for each object. Referring to FIG. 22, the encoder 130 may merge coding units for the object 2223, and the coding unit merged for the object 2223 to determine the coding unit optimized for the object 2223. May be divided again (2226). In other words, the encoder 230 may determine a portion in which the object 2223 is not included as a coding unit 2227 separate from the object 2223 through the division 2226.
  • the decoding apparatus 100 may decode the image by acquiring the bitstream and then performing the image decoding method corresponding to the reverse operation of the image encoding method described above.
  • FIG. 23 illustrates an index according to a Z scan order of coding units, according to an embodiment.
  • the encoder 230 of the motion information encoding apparatus 200 may scan the lower data units included in the higher data unit in the Z scan order. Also, the apparatus 200 for encoding motion information according to an embodiment may sequentially access data according to a Z scan index in a maximum coding unit or a coding unit included in a processing block. As described above with reference to FIGS. 3 to 4, the encoder 230 of the motion information encoding apparatus 200 according to an embodiment may split the reference coding unit into at least one coding unit. In this case, square coding units and non-square coding units may be mixed in the reference coding unit.
  • a feature of the index according to the Z scan order of the coding unit of the motion information encoding apparatus 200 may be similar to that of the apparatus 100 of the motion information decoding apparatus described above with reference to FIG. 23, a detailed description thereof will be omitted. .
  • the above-described embodiments of the present invention can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium.
  • the computer-readable recording medium may include a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.) and an optical reading medium (eg, a CD-ROM, a DVD, etc.).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

일 실시예에 따라 움직임 관련 정보를 결정하기 위한 정보는 공간적 정보 및 시간적 정보를 포함하고, 공간적 정보는 현재 예측 단위의 좌측 및 상측에 위치한 공간적 예측 후보 중 서브 단위들에 이용되는 공간적 예측 후보의 방향을 가리키는 것을 특징으로 하고, 시간적 정보는 현재 예측 단위의 예측을 위해 이용되는 이전 픽처의 참조 예측 단위를 가리키는 것을 특징으로 하는, 움직임 정보의 복호화 방법이 제공될 수 있다. 또한 상술한 부호화 또는 복호화 방법을 수행할 수 있는 부호화 장치 또는 복호화 장치가 제공될 수도 있다.

Description

영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
본 개시는 영상에 포함되는 다양한 데이터 단위를 이용하여 영상을 부호화 또는 복호화 하는 방법 및 장치에 관한 것으로, 구체적으로 예측 단위를 서브 단위로 분할하고, 각각의 서브 단위에 현재 단위에 인접하는 예측 단위의 움직임 관련 예측 정보를 할당하는 것에 관한 것이다.
영상 데이터는 소정의 데이터 압축 표준, 예를 들면 MPEG(Moving Picture Expert Group) 표준에 따른 코덱에 의하여 부호화된 후 비트스트림의 형태로 기록매체에 저장되거나 통신 채널을 통해 전송된다.
고해상도 또는 고화질 영상 컨텐트를 재생, 저장할 수 있는 하드웨어의 개발 및 보급에 따라, 고해상도 또는 고화질 영상 컨텐트를 효과적으로 부호화 또는 복호화 하는 코덱(codec)의 필요성이 증대하고 있다. 부호화된 영상 컨텐트는 복호화됨으로써 재생될 수 있다. 최근에는 이러한 고해상도 또는 고화질 영상 컨텐트를 효과적으로 압축하기 위한 방법들이 실시되고 있다. 예를 들면, 부호화 하려는 영상을 임의적 방법으로 처리하는 과정을 통한 효율적 영상 압축 방법이 실시되고 있다.
영상을 압축하기 위하여 다양한 데이터 단위가 이용될 수 있으며 이러한 데이터 단위들 간에 포함관계가 존재할 수 있다. 이러한 영상 압축에 이용되는 데이터 단위의 크기를 결정하기 위해 다양한 방법에 의해 데이터 단위가 분할될 수 있으며 영상의 특성에 따라 최적화된 데이터 단위가 결정됨으로써 영상의 부호화 또는 복호화가 수행될 수 있다.
종래의 인터 예측 기술에서는 한 블록당 한 개의 움직임 벡터를 할당하고 예측을 수행하여, 블록 내 여러 움직임이 있을 경우 더 작은 블록을 압축하기 때문에 더 많이 비트가 필요하였다. 또한, 동일 블록 내 다른 객체가 있는 경우에도 한 개의 움직임 벡터를 사용하기 때문에 예측 정확도가 떨어지는 문제가 있었다.
일 실시예에 따른 움직임 정보의 복호화 방법에 있어서, 현재 예측 단위를 결정하는 단계, 현재 예측 단위와 공간적으로 연관된 공간적 예측 후보 및 시간적으로 연관된 시간적 예측 후보를 획득하는 단계, 현재 예측 단위를 하나 이상의 서브 단위들로 분할하는 단계, 공간적 예측 후보의 움직임 관련 정보 및 상기 시간적 예측 후보의 움직임 관련 정보 중 상기 서브 단위들의 움직임 관련 정보를 결정하기 위한 정보를 비트스트림으로부터 획득하는 단계, 및 움직임 관련 정보를 결정하기 위한 정보를 이용하여 서브 단위들의 움직임 관련 정보를 획득하는 단계를 포함하고, 움직임 관련 정보를 결정하기 위한 정보는 공간적 정보 및 시간적 정보를 포함하고, 공간적 정보는 현재 예측 단위의 좌측 및 상측에 위치한 공간적 예측 후보 중 서브 단위들에 이용되는 공간적 예측 후보의 방향을 가리키는 것을 특징으로 하고, 시간적 정보는 현재 예측 단위의 예측을 위해 이용되는 이전 픽처의 참조 예측 단위를 가리키는 것을 특징으로 하는 움직임 정보의 복호화 방법이 제공될 수 있다.
일 실시예에 따른 움직임 정보의 복호화 장치 있어서, 현재 예측 단위를 결정하는 예측 단위 결정부, 및 현재 예측 단위와 공간적으로 연관된 공간적 예측 후보 및 시간적으로 연관된 시간적 예측 후보를 획득하고, 현재 예측 단위를 하나 이상의 서브 단위들로 분할하고, 공간적 예측 후보의 움직임 관련 정보 및 시간적 예측 후보의 움직임 관련 정보 중 서브 단위들의 움직임 관련 정보를 결정하기 위한 정보를 비트스트림으로부터 획득하며, 움직임 관련 정보를 결정하기 위한 정보를 이용하여 서브 단위들의 움직임 관련 정보를 획득하는 복호화부를 포함하고, 움직임 관련 정보를 결정하기 위한 정보는 공간적 정보 및 시간적 정보를 포함하고, 공간적 정보는 현재 예측 단위의 좌측 및 상측에 위치한 공간적 예측 후보 중 서브 단위들에 이용되는 공간적 예측 후보의 방향을 가리키는 것을 특징으로 하며, 시간적 정보는 현재 예측 단위의 예측을 위해 이용되는 이전 픽처의 참조 예측 단위를 가리키는 것을 특징으로 하는 움직임 정보의 복호화 장치가 제공될 수 있다.
일 실시예에 따른 움직임 정보의 부호화 방법에 있어서, 현재 예측 단위에 대한 움직임 예측을 수행하여 현재 예측 단위에 대한 움직임 정보를 획득하는 단계, 현재 예측 단위와 공간적으로 연관된 공간적 예측 후보 및 시간적으로 연관된 시간적 예측 후보를 생성하는 단계, 현재 예측 단위를 하나 이상의 서브 단위들로 분할하는 단계, 공간적 예측 후보의 움직임 관련 정보 및 시간적 예측 후보의 움직임 관련 정보 중 서브 단위들의 움직임 관련 정보를 결정하기 위한 정보를 생성하는 단계, 및 생성된 정보를 이용하여 서브 단위들의 예측을 위한 움직임 관련 정보를 부호화하는 단계를 포함하고, 움직임 관련 정보를 결정하기 위한 정보는 공간적 정보 및 시간적 정보를 포함하고, 공간적 정보는 현재 예측 단위의 좌측 및 상측에 위치한 공간적 예측 후보 중 서브 단위들에 이용되는 공간적 예측 후보의 방향을 가리키는 것을 특징으로 하고, 시간적 정보는 현재 예측 단위의 예측을 위해 이용되는 이전 픽처의 참조 예측 단위를 가리키는 것을 특징으로 하는, 움직임 정보의 부호화 방법이 제공될 수 있다.
일 실시예에 따른 움직임 정보의 부호화 장치에 있어서, 현재 예측 단위에 대한 움직임 예측을 수행하여 상기 현재 예측 단위에 대한 움직임 정보를 획득하는 움직임 정보 획득부, 현재 예측 단위와 공간적으로 연관된 공간적 예측 후보 및 시간적으로 연관된 시간적 예측 후보를 생성하고, 현재 예측 단위를 하나 이상의 서브 단위들로 분할하고, 공간적 예측 후보의 움직임 관련 정보 및 시간적 예측 후보의 움직임 관련 정보 중 서브 단위들의 움직임 관련 정보를 결정하기 위한 정보를 생성하는 비트스트림 생성부, 및 생성된 정보를 이용하여 서브 단위들의 예측을 위한 움직임 관련 정보를 부호화하는 부호화부를 포함하고, 움직임 관련 정보를 결정하기 위한 정보는 공간적 정보 및 시간적 정보를 포함하고, 공간적 정보는 현재 예측 단위의 좌측 및 상측에 위치한 공간적 예측 후보 중 서브 단위들에 이용되는 공간적 예측 후보의 방향을 가리키는 것을 특징으로 하고, 시간적 정보는 현재 예측 단위의 예측을 위해 이용되는 이전 픽처의 참조 예측 단위를 가리키는 것을 특징으로 하는 움직임 정보의 부호화 장치가 제공될 수 있다.
본 발명의 다양한 실시 예에 따르면 주변 움직임 벡터들을 이용하여 한 블록 내에 여러 움직임 벡터 또는 변형된 움직임 벡터를 할당함으로써, 효율적인 영상 부호화 및 복호화가 가능하고 복원 영상의 화질 향상이 가능하다.
도 1 은 일 실시예에 따라 분할된 서브 단위들의 움직임 관련 정보를 획득하는 움직임 정보의 복호화 장치의 블록도를 도시한다.
도 2 는 일 실시예에 따라 분할된 서브 단위들의 움직임 관련 정보를 생성하는 움직임 정보의 부호화 장치의 블록도를 도시한다.
도 3 은 일 실시예에 따라 예측 단위가 하나 이상의 서브 단위들로 분할되는 것을 도시한다.
도 4 는 일 실시예에 따라 각각의 서브 단위에 공간적 예측 후보의 움직임 관련 정보를 할당하는 것을 도시한다.
도 5 는 일 실시예에 따라 예측 단위에 공간적으로 연관된 공간적 예측 후보의 이용 가능성을 판단하는 것을 도시한다.
도 6 은 일 실시예에 따라 시간적 정보를 이용하여 이전 픽처의 참조 예측 단위의 움직임 관련 정보를 획득하는 것을 도시한다.
도 7 은 일 실시예에 따라 서브 단위에 인접한 하나 이상의 공간적 예측 후보의 움직임 관련 정보를 획득하는 것을 도시한다.
도 8 은 일 실시예에 따라 움직임 관련 정보를 결정하기 위한 정보를 이용하여 서브 단위들의 움직임 관련 정보를 획득하는 움직임 정보의 복호화 방법의 흐름도를 도시한다.
도 9 는 일 실시예에 따라 움직임 관련 정보를 결정하기 위한 정보를 이용하여 서브 단위들의 움직임 관련 정보를 생성하는 움직임 정보의 부호화 방법의 흐름도를 도시한다.
도 10 은 일 실시예에 따라 제1 부호화 단위가 분할되어 결정된 비-정사각형 형태의 제 2 부호화 단위가 소정의 조건을 만족하는 경우, 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
도 11 은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 정사각형 형태의 부호화 단위가 분할되는 과정을 도시한다
도 12 는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
도 13 은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
도 14 는 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
도 15 는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
도 16 은 일 실시예에 따라 픽쳐에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
도 17 은 일 실시예에 따라 부호화 단위가 분할될 수 있는 형태의 조합이 픽쳐마다 서로 다른 경우, 각각의 픽쳐마다 결정될 수 있는 부호화 단위들을 도시한다.
도 18 은 일 실시예에 따라 바이너리(binary)코드로 표현될 수 있는 분할 형태 정보에 기초하여 결정될 수 있는 부호화 단위의 다양한 형태를 도시한다.
도 19 는 일 실시예에 따라 바이너리 코드로 표현될 수 있는 분할 형태 정보에 기초하여 결정될 수 있는 부호화 단위의 또 다른 형태를 도시한다.
도 20 는 루프 필터링을 수행하는 영상 부호화 및 복호화 시스템의 블록도를 도시한다.
도 21 은 일 실시예에 따른 최대 부호화 단위에 포함되는 필터링 단위들의 일례와 필터링 단위의 필터링 수행 정보를 도시한다.
도 22 는 일 실시예에 따라 소정의 부호화 방법에 따라 결정된 부호화 단위들 간의 병합(merge) 또는 분할(split)이 수행되는 과정을 도시한다.
도 23 은 일 실시예에 따른 부호화 단위의 Z 스캔 순서에 따른 인덱스를 도시한다.
도 24 는 일 실시예에 따른 부호화 단위의 인트라 예측을 위한 참조 샘플을 도시한다.
일 실시예에 따른, 움직임 정보의 복호화 방법에 있어서, 현재 예측 단위를 결정하는 단계, 현재 예측 단위와 공간적으로 연관된 공간적 예측 후보 및 시간적으로 연관된 시간적 예측 후보를 획득하는 단계, 현재 예측 단위를 하나 이상의 서브 단위들로 분할하는 단계, 공간적 예측 후보의 움직임 관련 정보 및 시간적 예측 후보의 움직임 관련 정보 중 서브 단위들의 움직임 관련 정보를 결정하기 위한 정보를 비트스트림으로부터 획득하는 단계, 및 움직임 관련 정보를 결정하기 위한 정보를 이용하여 서브 단위들의 움직임 관련 정보를 획득하는 단계를 포함하고, 움직임 관련 정보를 결정하기 위한 정보는 공간적 정보 및 시간적 정보를 포함하고, 공간적 정보는 현재 예측 단위의 좌측 및 상측에 위치한 공간적 예측 후보 중 서브 단위들에 이용되는 공간적 예측 후보의 방향을 가리키는 것을 특징으로 하고, 시간적 정보는 현재 예측 단위의 예측을 위해 이용되는 이전 픽처의 참조 예측 단위를 가리키는 것을 특징으로 하는, 움직임 정보의 복호화 방법이 제공될 수 있다.
일 실시예에 따른, 공간적 예측 후보 및 시간적 예측 후보를 획득하는 단계는 시간적 정보를 이용하여 이전 픽처의 참조 예측 단위를 결정하는 단계, 참조 예측 단위를 하나 이상의 참조 서브 단위들로 분할하는 단계, 서브 단위들 중 하나인 현재 서브 단위의 예측을 위해 이용되는 하나 이상의 참조 서브 단위들에 포함된 참조 서브 단위를 결정하는 단계, 및 현재 서브 단위의 예측을 위한 참조 서브 단위의 움직임 관련 정보를 획득하는 단계를 더 포함하고, 서브 단위들의 예측을 위한 움직임 관련 정보는 참조 서브 단위의 움직임 관련 정보를 포함하는 것을 특징으로 하는, 움직임 정보의 복호화 방법이 제공될 수 있다.
일 실시예에 따른, 공간적 예측 후보 및 시간적 예측 후보 중 적어도 하나에 대한 움직임 관련 정보의 이용가능성을 판단하는 단계를 포함하고, 이용가능성을 판단하는 단계는 현재 예측 단위의 상측에 위치한 상측 공간적 예측 후보를 소정 스캔 순서에 따라 검색하여, 이용 가능한 움직임 관련 정보를 갖는 최초의 상측 공간적 예측 후보 및 최초의 상측 공간적 예측 후보의 우측 방향에 위치한 상측 공간적 예측 후보들을 현재 예측 단위의 이용 가능한 상측 공간적 예측 후보로 선택하는 단계, 및 현재 예측 단위의 좌측에 위치한 좌측 공간적 예측 후보를 소정 스캔 순서에 따라 검색하여, 이용 가능한 움직임 관련 정보를 갖는 최초의 좌측 공간적 예측 후보 및 최초의 좌측 공간적 예측 후보의 하단 방향에 위치한 좌측 공간적 예측 후보들을 현재 예측 단위의 이용 가능한 좌측 공간적 예측 후보로 선택하는 단계를 더 포함하는 것을 특징으로 하는, 움직임 정보의 복호화 방법이 제공될 수 있다.
일 실시예에 따른, 움직임 관련 정보를 결정하기 위한 정보가 현재 예측 단위의 상측에 위치한 공간적 예측 후보를 이용하도록 가리키는 경우, 서브 단위의 상측에 이용 가능한 공간적 예측 후보가 있는지 판단하는 단계, 및 서브 단위의 상측에 이용 가능한 공간적 예측 후보가 없는 경우, 현재 예측 단위의 좌측 공간적 예측 후보의 움직임 관련 정보를 서브 단위의 움직임 관련 정보로서 획득하는 단계를 포함하는 것을 특징으로 하는, 움직임 정보의 복호화 방법이 제공될 수 있다.
일 실시예에 따른, 움직임 관련 정보를 결정하기 위한 정보가 현재 예측 단위의 좌측에 위치한 공간적 예측 후보를 이용하도록 가리키는 경우, 서브 단위의 좌측에 이용 가능한 공간적 예측 후보가 있는지 판단하는 단계, 및 서브 단위의 좌측에 이용 가능한 공간적 예측 후보가 없는 경우, 현재 예측 단위의 상측 공간적 예측 후보의 움직임 관련 정보를 서브 단위의 움직임 관련 정보로서 획득하는 단계를 포함하는 것을 특징으로 하는, 움직임 정보의 복호화 방법이 제공될 수 있다.
일 실시예에 따른, 움직임 관련 정보를 결정하기 위한 정보가 서브 단위에 인접한 하나 이상의 공간적 예측 후보 중 적어도 하나를 이용하도록 가리키는 경우, 서브 단위에 인접한 하나 이상의 공간적 예측 후보의 움직임 관련 정보에 소정의 가중치를 적용하고 평균값을 획득하는 단계를 포함하고, 서브 단위들의 움직임 관련 정보를 획득하는 것은 평균값을 획득하는 것임을 특징으로 하는, 움직임 정보의 복호화 방법이 제공될 수 있다.
일 실시예에 따른, 현재 예측 단위의 크기 범위 내에서 서브 블록의 크기를 나타내는 서브 블록 크기 정보를 획득하는 단계를 포함하고, 서브 단위들로 분할하는 것은 서브 블록 크기 정보를 이용하는 것을 특징으로 하는, 움직임 정보의 복호화 방법이 제공될 수 있다.
일 실시예에 따른, 획득된 움직임 관련 정보를 이용하여 서브 단위에 대한 움직임 보상을 수행하는 단계를 포함하는 것을 특징으로 하는, 움직임 정보의 복호화 방법이 제공될 수 있다.
일 실시예에 따른, 움직임 정보의 복호화 장치 있어서,현재 예측 단위를 결정하는 예측 단위 결정부, 현재 예측 단위와 공간적으로 연관된 공간적 예측 후보 및 시간적으로 연관된 시간적 예측 후보를 획득하고, 현재 예측 단위를 하나 이상의 서브 단위들로 분할하고, 공간적 예측 후보의 움직임 관련 정보 및 시간적 예측 후보의 움직임 관련 정보 중 서브 단위들의 움직임 관련 정보를 결정하기 위한 정보를 비트스트림으로부터 획득하며, 움직임 관련 정보를 결정하기 위한 정보를 이용하여 서브 단위들의 움직임 관련 정보를 획득하는 복호화부를 포함하고, 움직임 관련 정보를 결정하기 위한 정보는 공간적 정보 및 시간적 정보를 포함하고, 공간적 정보는 현재 예측 단위의 좌측 및 상측에 위치한 공간적 예측 후보 중 서브 단위들에 이용되는 공간적 예측 후보의 방향을 가리키는 것을 특징으로 하며, 시간적 정보는 현재 예측 단위의 예측을 위해 이용되는 이전 픽처의 참조 예측 단위를 가리키는 것을 특징으로 하는, 움직임 정보의 복호화 장치가 제공될 수 있다.
일 실시예에 따라, 복호화부는 시간적 정보를 이용하여 이전 픽처의 참조 예측 단위를 결정하고, 참조 예측 단위를 하나 이상의 참조 서브 단위들로 분할하고, 서브 단위들 중 하나인 현재 서브 단위의 예측을 위해 이용되는 하나 이상의 참조 서브 단위들에 포함된 참조 서브 단위를 결정하며, 현재 서브 단위의 예측을 위한 참조 서브 단위의 움직임 관련 정보를 획득하고, 서브 단위들의 예측을 위한 움직임 관련 정보는 참조 서브 단위의 움직임 관련 정보를 포함하는 것을 특징으로 하는, 움직임 정보의 복호화 장치가 제공될 수 있다.
일 실시예에 따라, 복호화부는 공간적 예측 후보 및 시간적 예측 후보 중 적어도 하나에 대한 움직임 관련 정보의 이용가능성을 판단하고, 이용가능성을 판단하는 것은 현재 예측 단위의 상측에 위치한 상측 공간적 예측 후보를 소정 스캔 순서에 따라 검색하여, 이용 가능한 움직임 관련 정보를 갖는 최초의 상측 공간적 예측 후보 및 최초의 상측 공간적 예측 후보의 우측 방향에 위치한 상측 공간적 예측 후보들을 현재 예측 단위의 이용 가능한 상측 공간적 예측 후보로 선택하며, 현재 예측 단위의 좌측에 위치한 좌측 공간적 예측 후보를 소정 스캔 순서에 따라 검색하여, 이용 가능한 움직임 관련 정보를 갖는 최초의 좌측 공간적 예측 후보 및 최초의 좌측 공간적 예측 후보의 하단 방향에 위치한 좌측 공간적 예측 후보들을 현재 예측 단위의 이용 가능한 좌측 공간적 예측 후보로 선택하는 것을 더 특징으로 하는, 움직임 정보의 복호화 장치가 제공될 수 있다.
일 실시예에 따른, 움직임 관련 정보를 결정하기 위한 정보가 현재 예측 단위의 상측에 위치한 공간적 예측 후보를 이용하도록 가리키는 경우, 복호화부는 서브 단위의 상측에 이용 가능한 공간적 예측 후보가 있는지 판단하고, 서브 단위의 상측에 이용 가능한 공간적 예측 후보가 없는 경우, 복호화부는 현재 예측 단위의 좌측 공간적 예측 후보의 움직임 관련 정보를 서브 단위의 움직임 관련 정보로서 획득하는 것을 특징으로 하는, 움직임 정보의 복호화 장치가 제공될 수 있다.
일 실시예에 따른, 움직임 관련 정보를 결정하기 위한 정보가 현재 예측 단위의 좌측에 위치한 공간적 예측 후보를 이용하도록 가리키는 경우, 복호화부는 서브 단위의 좌측에 이용 가능한 공간적 예측 후보가 있는지 판단하고, 서브 단위의 좌측에 이용 가능한 공간적 예측 후보가 없는 경우, 복호화부는 현재 예측 단위의 상측 공간적 예측 후보의 움직임 관련 정보를 서브 단위의 움직임 관련 정보로서 획득하는 것을 특징으로 하는, 움직임 정보의 복호화 장치가 제공될 수 있다.
일 실시예에 따른, 움직임 정보의 부호화 방법에 있어서, 현재 예측 단위에 대한 움직임 예측을 수행하여 현재 예측 단위에 대한 움직임 정보를 획득하는 단계, 현재 예측 단위와 공간적으로 연관된 공간적 예측 후보 및 시간적으로 연관된 시간적 예측 후보를 생성하는 단계, 현재 예측 단위를 하나 이상의 서브 단위들로 분할하는 단계, 공간적 예측 후보의 움직임 관련 정보 및 시간적 예측 후보의 움직임 관련 정보 중 서브 단위들의 움직임 관련 정보를 결정하기 위한 정보를 생성하는 단계, 및 획득된 정보를 이용하여 서브 단위들의 예측을 위한 움직임 관련 정보를 부호화하는 단계를 포함하고, 움직임 관련 정보를 결정하기 위한 정보는 현재 예측 단위의 상측에 위치한 공간적 예측 후보, 현재 예측 단위의 좌측에 위치한 공간적 예측 후보, 서브 단위에 인접한 하나 이상의 공간적 예측 후보 중 적어도 하나를 이용하도록 가리키는 것을 특징으로 하는, 움직임 정보의 부호화 방법이 제공될 수 있다.
일 실시예에 따른, 움직임 정보의 부호화 장치에 있어서, 현재 예측 단위에 대한 움직임 예측을 수행하여 현재 예측 단위에 대한 움직임 정보를 획득하는 움직임 정보 획득부, 현재 예측 단위와 공간적으로 연관된 공간적 예측 후보 및 시간적으로 연관된 시간적 예측 후보를 생성하고, 현재 예측 단위를 하나 이상의 서브 단위들로 분할하고, 공간적 예측 후보 및 시간적 예측 후보 중 서브 단위들의 예측을 위한 움직임 관련 정보를 결정하기 위한 정보를 생성하는 비트스트림 생성부, 및 획득된 정보를 이용하여 서브 단위들의 예측을 위한 움직임 관련 정보를 부호화하는 부호화부를 포함하고, 움직임 관련 정보를 결정하기 위한 정보는 현재 예측 단위의 상측에 위치한 공간적 예측 후보, 현재 예측 단위의 좌측에 위치한 공간적 예측 후보, 서브 단위에 인접한 하나 이상의 공간적 예측 후보 중 적어도 하나를 이용하도록 가리키는 것을 특징으로 하는, 움직임 정보의 부호화 장치가 제공될 수 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
이하, "영상"은 비디오의 정지영상과 같은 정적 이미지이거나 동영상, 즉 비디오 그 자체와 같은 동적 이미지를 나타낼 수 있다.
이하 "샘플"은, 영상의 샘플링 위치에 할당된 데이터로서 프로세싱 대상이 되는 데이터를 의미한다. 예를 들어, 공간영역의 영상에서 픽셀값, 변환 영역 상의 변환 계수들이 샘플들일 수 있다. 이러한 적어도 하나의 샘플들을 포함하는 단위를 블록이라고 정의할 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
도 1 은 일 실시예에 따라 분할된 서브 단위들의 움직임 관련 정보를 획득하는 움직임 정보의 복호화 장치 (100) 의 블록도를 도시한다.
도 1 을 참조하면, 움직임 정보의 복호화 장치 (100) 는 일 실시예에 따라 현재 픽처에서 현재 예측 단위를 결정하는 예측 단위 결정부 (110), 및 현재 예측 단위와 공간적으로 연관된 공간적 예측 후보 및 시간적으로 연관된 시간적 예측 후보를 획득하고, 현재 예측 단위를 하나 이상의 서브 단위들로 분할하고, 공간적 예측 후보의 움직임 관련 정보 및 시간적 예측 후보의 움직임 관련 정보 중 서브 단위들의 움직임 관련 정보를 결정하기 위한 정보를 비트스트림으로부터 획득하며, 움직임 관련 정보를 결정하기 위한 정보를 이용하여 서브 단위들의 움직임 관련 정보를 획득하는 복호화부 (120) 를 포함할 수 있다.
일 실시예에 따라, 예측 단위는 예측 부호화를 위한 데이터 단위일 수 있다. 또한, 예측 단위 결정부 (110) 는 예측 단위마다 이웃 데이터 단위 또는 공간적 예측 후보와의 병합 여부를 결정할 수 있다. 또한, 공간적 예측 후보는 현재 예측 단위에 인접하는 주변 데이터 단위로서, 현재 예측 단위와 병합될 수 있는 데이터 단위일 수 있고, 공간적 예측 후보군은 현재 예측 단위와 병합될 수 있는 데이터 단위를 포함하는 적어도 하나의 데이터 단위 군일 수 있다.
일 실시예에 따라, 움직임 관련 정보는 참조 방향, 참조 픽쳐 인덱스, 움직임 벡터 (MV), 움직임 벡터 예측값 (MVP), 또는 움직임 벡터 차분값 (MVD) 중 적어도 하나를 포함할 수 있다. 예를 들어, 인터 예측이 머지 모드인 경우 움직임 관련 정보는 참조 방향, 참조 픽쳐 인덱스, 움직임 벡터 예측값 또는 움직임 벡터 중 적어도 하나를 포함할 수 있다. 예를 들어, 인터 예측이 AMVP 모드인 경우 움직임 관련 정보는 참조 방향, 참조 픽쳐 인덱스, 움직임 벡터 (MV), 움직임 벡터 차분값 중 적어도 하나를 포함할 수 있다.
일 실시예에 따라, 복호화부 (120) 가 획득하는 움직임 관련 정보를 결정하기 위한 정보는 공간적 정보 및 시간적 정보를 포함할 수 있다. 일 실시예에 따라, 공간적 정보는 현재 예측 단위에 인접한 공간적 예측 후보 중 서브 단위들에 이용되는 공간적 예측 후보의 방향을 가리킬 수 있다. 예를 들어, 공간적 정보는 현재 예측 단위의 좌측, 상측 또는 모서리에 위치한 공간적 예측 후보 중 서브 단위들에 이용되는 공간적 예측 후보의 방향을 가리킬 수 있다. 일 실시예에 따라, 시간적 정보는 현재 예측 단위의 예측을 위해 이용되는 이전 픽처의 참조 예측 단위를 가리킬 수 있다.
예를 들어, 공간적 정보가 현재 예측 단위의 좌측에 위치한 공간적 예측 후보 중 하나로의 방향을 가리키는 경우, 현재 예측 단위의 서브 단위는 공간적 정보가 가리키는 좌측 공간적 예측 후보의 움직임 관련 정보를 이용하여 예측될 수 있다. 예를 들어, 공간적 정보가 현재 예측 단위의 상측에 위치한 공간적 예측 후보 중 하나로의 방향을 가리키는 경우, 현재 예측 단위의 서브 단위는 공간적 정보가 가리키는 상측 공간적 예측 후보의 움직임 관련 정보를 이용하여 예측될 수 있다.
일 실시예에 따라, 복호화부 (120) 는 인터 모드의 움직임 벡터 예측 방식을 이용하여, 현재 예측 단위와 병합될 후보 단위를 결정할 수 있다. 예를 들어, 현재 예측 단위의 모든 경계에 접하는 공간적 예측 후보 중에서, 복수 개의 공간적 예측 후보가 결정될 수 있다. 일 실시예에 따라, 복호화부 (120) 는 결정된 복수 개의 공간적 예측 후보 중 서브 단위에 이용될 공간적 예측 후보를 공간적 정보를 이용하여 결정할 수 있다.
일 실시예에 따라, 복호화부 (120) 는 공간적 정보를 이용하여 현재 예측 단위의 좌측 경계에 접하는 모든 이웃 공간적 예측 후보 및 상단 경계에 접하는 모든 이웃 공간적 예측 후보 중에서, 현재 예측 단위와 병합될 하나의 공간적 예측 후보를 검색하여 결정할 수 있다.
또한, 일 실시예에 따라, 복호화부 (120) 는 공간적 정보를 이용하여 현재 예측 단위의 좌측 공간적 예측 후보 및 상단 공간적 예측 후보에 추가적으로, 현재 예측 단위의 모서리에 접하는 좌측 상단 공간적 예측 후보, 우측 상단 공간적 예측 후보, 및 우측 하단 공간적 예측 후보를 포함하는 공간적 예측 후보군 중에서 현재 예측 단위와 병합될 하나의 공간적 예측 후보를 검색하여 결정할 수 있다.
일 실시예에 따라, 복호화부 (120) 는 좌측 공간적 예측 후보군, 상단 공간적 예측 후보군, 및 모서리 공간적 예측 후보군 중 하나의 공간적 예측 후보를 결정하는 방식은 미리 설정된 (implicit) 방식에 따를 수 있다. 예를 들어, 미리 설정된 방식에 따라, 복호화부 (120) 는 제 1 공간적 예측 후보군, 제 2 공간적 예측 후보군, 또는 제 3 공간적 예측 후보군 중에서 현재 예측 단위의 서브 단위와 동일한 참조 인덱스를 갖는 공간적 예측 후보를 검색하여, 병합될 하나의 공간적 예측 후보로서 결정할 수 있다.
또한, 예를 들어, 복호화부 (120) 는 제 1 공간적 예측 후보군, 제 2 공간적 예측 후보군, 또는 제 3 공간적 예측 후보군 중에서 각각 상위 이웃 예측 단위들의 공간적 예측 후보군에서 예측 모드가 인터 모드인 이웃 예측 단위를 검색하여, 현재 예측 단위의 서브 단위와 병합될 하나의 공간적 예측 후보로서 결정할 수 있다.
일 실시예에 따라, 복호화부 (120) 는 제 1 공간적 예측 후보군 중 하나를 좌측 공간적 예측 후보로, 제 2 공간적 예측 후보군 중 하나를 상단 공간적 예측 후보로, 제 3 공간적 예측 후보군 중 하나를 모서리 공간적 예측 후보로 결정하고 현재 예측 단위와 병합될 하나의 공간적 예측 후보로서 결정할 수 있다.
도 3 은 일 실시예에 따라 예측 단위가 하나 이상의 서브 단위들로 분할되는 것을 도시한다.
도 3 을 참조하면, 움직임 정보의 복호화 장치의 예측 단위 결정부 (110) 는 현재 픽처의 현재 예측 단위 (310) 를 결정할 수 있고, 복호화부 (120) 는 현재 예측 단위 (310) 를 서브 단위 (311, 312, 313, 314) 로 분할할 수 있다. 또한, 복호화부 (120) 는 현재 예측 단위의 크기 범위 내에서 서브 블록의 크기를 나타내는 서브 블록 크기 정보를 획득할 수 있고, 서브 블록 크기 정보를 이용하여 현재 예측 단위를 서브 단위로 분할할 수 있다.
예를 들어, 서브 단위는 현재 예측 단위의 크기 범위 내에서 32x32, 64x64, 128x128, 256x256 등의 데이터 단위로, 가로 및 세로 크기가 2의 자승인 정사각형의 데이터 단위 (330) 일 수 있다. 또한, 서브 단위는 현재 예측 단위의 크기 범위 내에서 비대칭 형태의 데이터 단위 (340) 일 수 있다. 비대칭 형태의 데이터 단위 (340) 에 대해서는 후술한다.
일 실시예에 따라, 복호화부 (120) 는 현재 예측 단위 (310) 에 인접하는 공간적 예측 후보를 결정할 수 있다. 예를 들어, 복호화부 (120) 는 인터 모드의 움직임 벡터 예측 방식을 이용하여, 현재 예측 단위에 접하는 데이터 단위를 현재 예측 단위와 병합될 공간적 예측 후보로 결정할 수 있다. 또는, 현재 예측 단위의 모든 경계에 접하는 공간적 예측 후보 중에서, 하나 이상의 공간적 예측 후보가 결정될 수 있다.
도 4 는 일 실시예에 따라 각각의 서브 단위에 공간적 예측 후보의 움직임 관련 정보를 할당하는 것을 도시한다.
일 실시예에 따라, 복호화부 (120) 는 서브 단위들의 움직임 관련 정보를 결정하기 위한 정보 중 공간적 정보를 이용하여 서브 단위들을 포함하는 현재 예측 단위와 병합될 공간적 예측 후보를 획득할 수 있다. 예를 들어, 복호화부 (120) 는 움직임 관련 정보를 결정하기 위한 정보가 현재 예측 단위의 좌측 하단에 위치한 공간적 예측 후보 방향을 가리키는 경우, 좌측 하단에 위치한 공간적 예측 후보(412)의 움직임 관련 정보를 현재 예측 단위(411)의 움직임 관련 정보로 이용할 수 있다. 예를 들어, 공간적 예측 후보의 움직임 관련 정보를 현재 예측 단위에 이용하는 경우, 현재 예측 단위에 포함된 서브 단위들은 모두 동일한 공간적 예측 후보의 움직임 관련 정보를 이용할 수 있다.
일 실시예에 따라, 움직임 관련 정보를 결정하기 위한 정보 중 공간적 정보가 현재 예측 단위의 상측에 위치한 공간적 예측 후보를 이용하도록 방향을 가리키는 경우, 복호화부 (120) 는 현재 예측 단위의 상측에 위치한 공간적 예측 후보의 움직임 관련 정보를 상측에 위치한 공간적 예측 후보의 아래에 위치한 서브 단위에 이용할 수 있다. 예를 들어, 공간적 정보가 현재 예측 단위의 상측에 위치한 공간적 예측 후보를 이용하도록 가리키는 경우, 복호화부 (120) 는 현재 예측 단위의 서브 단위들 중 수직 방향의 열에 포함된 서브 단위들(421, 422) 에 상측에 위치한 공간적 예측 후보의 움직임 관련 정보 (423, 424) 를 이용할 수 있다.
예를 들어, 공간적 정보가 현재 예측 단위의 상측에 위치한 공간적 예측 후보를 이용하도록 방향을 가리키는 경우, 현재 예측 단위의 제 1 열 서브 단위들 (421) 은 제 1 열 서브 단위들 (421) 의 상측에 위치한 공간적 예측 후보의 움직임 관련 정보 (423) 를 이용할 수 있고, 제 2 열 서브 단위들 (422) 는 제 2 열 서브 단위들 (422) 의 상측에 위치한 공간적 예측 후보의 움직임 관련 정보 (424) 를 이용할 수 있다.
일 실시예에 따라, 움직임 관련 정보를 결정하기 위한 정보 중 공간적 정보가 현재 예측 단위의 좌측에 위치한 공간적 예측 후보를 이용하도록 방향을 가리키는 경우, 복호화부 (120) 는 현재 예측 단위의 좌측에 위치한 공간적 예측 후보의 움직임 관련 정보를 좌측에 위치한 공간적 예측 후보의 우측에 위치한 서브 단위에 이용할 수 있다. 예를 들어, 공간적 정보가 현재 예측 단위의 좌측에 위치한 공간적 예측 후보를 이용하도록 가리키는 경우, 현재 예측 단위의 서브 단위들 중 수평 방향의 행에 포함된 서브 단위들(431, 432) 은 좌측에 위치한 공간적 예측 후보의 움직임 관련 정보 (433, 434) 를 이용할 수 있다. 예를 들어, 공간적 정보가 현재 예측 단위의 좌측에 위치한 공간적 예측 후보를 이용하도록 방향을 가리키는 경우, 현재 예측 단위의 제 1 행 서브 단위들 (431) 은 제 1 행 서브 단위들 (431) 의 좌측에 위치한 공간적 예측 후보의 움직임 관련 정보 (433) 를 이용할 수 있고, 제 2 행 서브 단위들 (432) 는 제 2 행 서브 단위들 (432) 의 좌측에 위치한 공간적 예측 후보의 움직임 관련 정보 (434) 를 이용할 수 있다.
예를 들어, 공간적 정보는 현재 예측 단위의 상측에 위치한 공간적 예측 후보의 좌측 또는 우측에 위치한 공간적 예측 후보를 이용하도록 방향을 가리킬 수 있다. 또한, 예를 들어, 공간적 정보는 현재 예측 단위의 좌측에 위치한 공간적 예측 후보의 상단 또는 하단에 위치한 공간적 예측 후보를 이용하도록 방향을 가리킬 수 있다. 또한, 예를 들어, 공간적 정보는 현재 예측 단위의 모서리에 인접한 공간적 예측 후보를 이용하도록 모서리 방향을 가리킬 수 있다. 또한, 예를 들어, 공간적 정보는 현재 예측 단위의 주변에 인접한 공간적 예측 후보 중 적어도 하나를 이용하도록 미리 설정된 방향에 따라 가리킬 수 있다.
일 실시예에 따라서, 공간적 정보에서 공간적 방향이 가리키는 방향은 미리 설정된 인덱스 등으로 가리켜질 수 있다. 예를 들어, 상측 방향, 좌측 방향, 좌상측 방향, 우상측 방향, 또는 좌하측 방향 각각에 소정 인덱스가 할당될 수 있고, 공간적 정보는 해당 방향에 대응되는 인덱스 값을 갖을 수 있다.
도 5 는 일 실시예에 따라 예측 단위에 공간적으로 연관된 공간적 예측 후보의 이용 가능성을 판단하는 것을 도시한다.
일 실시예에 따라, 복호화부 (120) 는 현재 예측 단위에 인접한 데이터 단위의 소정의 환경 (560) 에 기초하여 공간적 예측 후보 중 적어도 하나에 대한 움직임 관련 정보의 이용가능성을 판단할 수 있다. 예를 들어, 복호화부 (120) 는 현재 예측 단위의 상측에 위치한 상측 공간적 예측 후보를 소정 스캔 순서에 따라 검색하여, 이용 가능한 움직임 관련 정보를 갖는 최초의 상측 공간적 예측 후보 (520) 를 결정할 수 있다. 예를 들어, 복호화부 (120) 는 이용 가능한 최초의 상측 공간적 예측 후보 (520) 를 결정한 후에 최초의 상측 공간적 예측 후보 (520) 의 우측 방향으로 스캔하여, 추가로 이용 가능한 움직임 관련 정보를 갖는 공간적 예측 후보 (530) 를 결정할 수 있다. 예를 들어, 복호화부 (120) 는 이용 가능한 최초의 상측 공간적 예측 후보 (520) 를 결정하고, 최초의 상측 공간적 예측 후보 (520) 의 우측에 위치한 상측 공간적 예측 후보 (530) 들을 이용 가능한 상측 공간적 예측 후보로 선택할 수 있다.
일 실시예에 따라, 복호화부 (120) 는 현재 예측 단위의 좌측에 위치한 좌측 공간적 예측 후보를 소정 스캔 순서에 따라 검색하여, 이용 가능한 움직임 관련 정보를 갖는 최초의 좌측 공간적 예측 후보 (540) 를 결정할 수 있다. 예를 들어, 복호화부 (120) 는 이용 가능한 최초의 좌측 공간적 예측 후보 (540) 를 결정한 후에 최초의 좌측 공간적 예측 후보 (540) 의 하단 방향으로 스캔하여, 추가로 이용 가능한 움직임 관련 정보를 갖는 공간적 예측 후보 (550) 를 결정할 수 있다. 예를 들어, 복호화부 (120) 는 이용 가능한 최초의 좌측 공간적 예측 후보 (540) 를 결정하고, 최초의 좌측 공간적 예측 후보 (540) 의 하단에 위치한 좌측 공간적 예측 후보 (550) 들을 이용 가능한 좌측 공간적 예측 후보로 선택할 수 있다.
일 실시예에 따라, 복호화부 (120) 는 이용 가능한 공간적 예측 후보로 선택된 상측 공간적 예측 후보 및 좌측 공간적 예측 후보에 기초하여 공간적 정보를 획득할 수 있다. 일 실시예에 따라, 움직임 관련 정보를 결정하기 위한 정보는 이용 가능한 공간적 예측 후보 중 적어도 하나를 이용하도록 가리킬 수 있다. 예를 들어, 복호화부 (120) 는 이용 가능한 공간적 예측 후보의 움직임 관련 정보에 소정의 가중치를 적용하고 평균값을 획득할 수 있다. 예를 들어, 복호화부 (120) 는 이용 가능한 공간적 예측 후보의 움직임 관련 정보의 평균값을 현재 예측 단위의 서브 단위들에 이용할 수 있다.
일 실시예에 따라, 복호화부는 (120) 는 현재 예측 단위의 좌측에 인접한 이용 가능한 공간적 예측 후보의 움직임 관련 정보를 획득할 수 있다. 예를 들어, 공간적 정보가 현재 예측 단위의 좌측에 위치한 공간적 예측 후보를 이용하도록 방향을 가리키는 경우, 복호화부 (120) 는 소정의 방향으로 서브 단위의 좌측에 이용 가능한 공간적 예측 단위가 있는지 스캔 할 수 있다. 서브 단위의 좌측에 이용 가능한 공간적 예측 단위가 있다면, 소정의 행의 서브 단위들 (581) 은 좌측에 위치한 이용 가능한 공간적 예측 후보의 움직임 관련 정보를 이용할 수 있다. 반면, 소정의 행의 서브 단위의 좌측에 이용 가능한 공간적 예측 단위가 없다면, 복호화부 (120) 는 소정의 행의 서브 단위의 상단에 이용 가능한 공간적 예측 후보가 있는지 여부를 검색할 수 있고, 이용 가능한 최초의 상단 공간적 예측 후보의 움직임 관련 정보는 소정의 행의 서브 단위들 (582) 에 이용될 수 있다.
일 실시예에 따라, 복호화부는 (120) 는 현재 예측 단위의 상단에 인접한 이용 가능한 공간적 예측 후보의 움직임 관련 정보를 획득할 수 있다. 예를 들어, 공간적 정보가 현재 예측 단위의 상단에 위치한 공간적 예측 후보를 이용하도록 방향을 가리키는 경우, 복호화부는 (120) 는 소정의 방향으로 서브 단위의 좌측에 이용 가능한 공간적 예측 단위가 있는지 스캔 할 수 있다. 서브 단위의 상단에 이용 가능한 공간적 예측 단위가 있다면, 소정의 열의 서브 단위들 (591) 은 상단에 위치한 이용 가능한 공간적 예측 후보의 움직임 관련 정보를 이용할 수 있다. 반면, 예를 들어, 소정의 열의 서브 단위의 상단에 이용 가능한 공간적 예측 단위가 없다면, 복호화부 (120) 는 그 열의 서브 단위의 좌측에 이용 가능한 공간적 예측 후보가 있는지 여부를 검색할 수 있고, 이용 가능한 최초의 좌측 공간적 예측 후보의 움직임 관련 정보는 그 열의 서브 단위들 (592) 에 이용될 수 있다.
도 6 은 일 실시예에 따라 시간적 정보를 이용하여 이전 픽처의 참조 예측 단위의 움직임 관련 정보를 획득하는 것을 도시한다.
일 실시예에 따라, 복호화부 (120) 는 현재 예측 단위의 예측을 위해 이용되는 이전 픽처의 참조 예측 단위를 가리키는 시간적 정보를 획득할 수 있다. 시간적 정보는 현재 예측 단위의 예측을 위해 이용되는 이전 픽처의 참조 예측 단위를 가리킬 수 있다.예를 들어, 복호화부 (120) 는 시간적 정보를 이용하여 이전 픽처의 참조 예측 단위를 결정할 수 있다. 복호화부 (120) 는 참조 예측 단위를 하나 이상의 참조 서브 단위들로 분할할 수 있고, 분할된 참조 서브 단위들 중 현재 서브 단위의 예측을 위해 이용되는 현재 서브 단위에 대응되는 참조 서브 단위를 결정할 수 있다. 복호화부 (120) 는 결정된 참조 서브 단위의 움직임 관련 정보를 획득할 수 있고, 획득된 참조 서브 단위의 움직임 관련 정보를 현재 서브 단위와 병합 할 수 있다.
일 실시예에 따라, 복호화부 (120) 는 현재 예측 단위의 예측 위해 이용된 하나 이상의 이전 픽처들의 하나 이상의 참조 예측 단위들을 가리키는 시간적 정보를 획득할 수 있다. 예를 들어, 복호화부 (120) 는 시간적 정보를 이용하여 하나 이상의 이전 픽처들의 하나 이상의 참조 예측 단위들을 결정할 수 있다. 복호화부 (120) 는 하나 이상의 참조 예측 단위들을 하나 이상의 참조 서브 단위들로 분할 할 수 있고, 분할된 참조 서브 단위들 중 현재 서브 단위의 예측을 위해 이용되는 현재 서브 단위에 대응되는 하나 이상의 참조 서브 단위들을 결정할 수 있다. 예를 들어, 복호화부 (120) 는 하나 이상의 참조 서브 단위들의 움직임 관련 정보를 획득할 수 있고, 획득된 하나 이상의 움직임 관련 정보를 가중치를 적용하여 평균값을 획득할 수 있으며, 가중치 적용하여 평균값으로 획득된 움직임 관련 정보를 현재 서브 단위와 병합할 수 있다.
도 7 은 일 실시예에 따라 서브 단위에 인접한 하나 이상의 공간적 예측 후보의 움직임 관련 정보를 획득하는 것을 도시한다.
일 실시예에 따라, 공간적 정보는 서브 단위에 인접한 공간적 예측 후보 중 적어도 하나를 이용하도록 가리키는 경우, 복호화부 (120) 는 서브 단위에 인접한 하나 이상의 공간적 예측 후보의 움직임 관련 정보에 가중치를 적용하고 평균값을 획득할 수 있다. 복호화부 (120) 는 하나 이상의 공간적 예측 후보의 평균값을 서브 단위와 병합할 수 있다.
일 실시예에 따라, 공간적 정보가 서브 단위에 인접한 공간적 예측 후보 중 적어도 하나를 이용하도록 가리키는 경우, 복호화부 (120) 는 예측 단위의 모서리에 위치한 서브 단위 (712) 에 인접하는 공간적 예측 후보 또는 모서리 공간적 예측 후보군 (711) 를 결정할 수 있고, 결정된 모서리 공간적 예측 후보군 (711) 의 움직임 관련 정보를 획득할 수 있다. 복호화부 (120) 는 결정된 모서리 공간적 예측 후보군 (711) 의 움직임 관련 정보에 소정의 가중치를 적용할 수 있고, 소정의 가중치가 적용된 움직임 관련 정보를 서브 단위 (712) 와 병합할 수 있다. 예를 들어, 서브 단위 (712) 에 인접하는 모서리 공간적 예측 후보군 (711) 은 서브 단위 (712) 가 현재 예측 단위의 모서리에 인접한 경우, 모서리 공간적 예측 후보군 (711) 은 예측 단위의 모서리에 인접하는 모서리 공간적 예측 후보, 모서리 공간적 예측 후보의 우측 또는 하단에 인접하는 공간적 예측 후보 중 적어도 하나를 포함할 수 있다. 예를 들어, 모서리 공간적 예측 후보군 (711) 은 예측 단위의 좌측에 위치한 공간적 예측 후보들 또는 예측 단위의 상단에 위치한 공간적 예측 후보들 중 적어도 하나 이상을 포함할 수 있다. 예를 들어, 모서리 공간적 예측 후보군 (711) 에 포함된 좌측 공간적 예측 후보의 개수는 모서리 공간적 예측 후보군 (711) 에 포함된 상단 공간적 예측 후보의 개수와 상이할 수 있다.
일 실시예에 따라, 공간적 정보가 서브 단위에 인접한 공간적 예측 후보 중 적어도 하나를 이용하도록 가리키는 경우, 복호화부 (120) 는 예측 단위의 상단에 위치한 서브 단위 (722) 에 인접하는 공간적 예측 후보 또는 상단 공간적 예측 후보군 (721) 를 결정할 수 있고, 결정된 상단 공간적 예측 후보군 (721) 의 움직임 관련 정보를 획득할 수 있다. 복호화부 (120) 는 결정된 상단 공간적 예측 후보군 (721) 의 움직임 관련 정보에 소정의 가중치를 적용할 수 있고, 소정의 가중치가 적용된 움직임 관련 정보를 서브 단위 (722) 와 병합할 수 있다. 예를 들어, 서브 단위 (722) 에 인접하는 상단 공간적 예측 후보군 (721) 은 서브 단위 (722) 가 현재 예측 단위의 상단에 인접한 경우, 상단 공간적 예측 후보군 (721) 은 예측 단위의 바로 상단에 인접하는 상단 공간적 예측 후보, 상단 공간적 예측 후보의 우측 또는 좌측에 인접하는 공간적 예측 후보 중 적어도 하나를 포함할 수 있다. 예를 들어, 상단 공간적 예측 후보군 (721) 에 포함된 좌측 공간적 예측 후보의 개수는 상단 공간적 예측 후보군 (721) 에 포함된 우측 공간적 예측 후보의 개수와 상이할 수 있다.
일 실시예에 따라, 공간적 정보가 서브 단위에 인접한 공간적 예측 후보 중 적어도 하나를 이용하도록 가리키는 경우, 복호화부 (120) 는 예측 단위의 좌측에 위치한 서브 단위 (732) 에 인접하는 공간적 예측 후보 또는 좌측 공간적 예측 후보군 (731) 를 결정할 수 있고, 결정된 좌측 공간적 예측 후보군 (731) 의 움직임 관련 정보를 획득할 수 있다. 복호화부 (120) 는 결정된 좌측 공간적 예측 후보군 (731) 의 움직임 관련 정보에 소정의 가중치를 적용할 수 있고, 소정의 가중치가 적용된 움직임 관련 정보를 서브 단위 (732) 와 병합할 수 있다. 예를 들어, 서브 단위 (732) 에 인접하는 좌측 공간적 예측 후보군 (731) 은 서브 단위 (732) 가 현재 예측 단위의 좌측에 인접한 경우, 좌측 공간적 예측 후보군 (731) 은 예측 단위의 바로 좌측에 인접하는 좌측 공간적 예측 후보, 좌측 공간적 예측 후보의 상단 또는 하단에 인접하는 공간적 예측 후보 중 적어도 하나를 포함할 수 있다. 예를 들어, 좌측 공간적 예측 후보군 (731) 에 포함된 상단 공간적 예측 후보의 개수는 좌측 공간적 예측 후보군 (731) 에 포함된 하단 공간적 예측 후보의 개수와 상이할 수 있다.
일 실시예에 따라, 공간적 정보가 서브 단위에 인접한 공간적 예측 후보 중 적어도 하나를 이용하도록 가리키는 경우, 복호화부 (120) 는 현재 예측 단위의 주변 공간적 예측 후보에 인접하지 않는 서브 단위 (742) 의 주변 서브 단위군 (741) 또는 서브 단위에 가장 인접하는 모서리 공간적 예측 후보군 (743) 를 결정할 수 있고, 결정된 주변 서브 단위군 (741) 또는 모서리 공간적 예측 후보군 (743) 의 움직임 관련 정보를 획득할 수 있다. 복호화부 (120) 는 결정된 주변 서브 단위군 (741) 또는 모서리 공간적 예측 후보군 (743) 중 적어도 하나의 움직임 관련 정보에 소정의 가중치를 적용할 수 있고, 소정의 가중치가 적용된 움직임 관련 정보를 서브 단위 (742) 와 병합할 수 있다.
도 8 은 일 실시예에 따라 움직임 관련 정보를 결정하기 위한 정보를 이용하여 서브 단위들의 움직임 관련 정보를 획득하는 움직임 정보의 복호화 방법의 흐름도를 도시한다.
단계 S810 에서 움직임 정보의 복호화 장치 (100) 는 현재 픽처 중 현재 예측 단위를 결정할 수 있다.
단계 S820 에서 움직임 정보의 복호화 장치 (100) 는 현재 예측 단위와 공간적으로 연관된 공간적 예측 후보 및 시간적으로 연관된 시간적 예측 후보를 획득할 수 있다.
단계 S830 에서 움직임 정보의 복호화 장치 (100) 는 현재 예측 단위를 하나 이상의 서브 단위들로 분할할 수 있다.
단계 S840 에서 움직임 정보의 복호화 장치 (100) 는 공간적 예측 후보의 움직임 관련 정보 및 시간적 예측 후보의 움직임 관련 정보 중 서브 단위들의 움직임 관련 정보를 결정하기 위한 정보를 비트스트림으로부터 획득할 수 있다.
단계 S850 에서 움직임 정보의 복호화 장치 (100) 는 획득된 정보를 이용하여 서브 단위들의 예측을 위한 움직임 관련 정보를 획득할 수 있다.
도 10은 일 실시예에 따라 움직임 정보의 복호화 장치 (100) 가 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
일 실시예에 따라 복호화부 (120)는 비트스트림 획득부를 통해 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(1000)를 비-정사각형 형태의 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)로 분할하는 것으로 결정할 수 있다. 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)는 독립적으로 분할될 수 있다. 이에 따라 복호화부 (120)는 제2 부호화 단위(1010a, 1010b, 1020a, 1020b) 각각에 관련된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 복수개의 부호화 단위로 분할하거나 분할하지 않는 것을 결정할 수 있다. 일 실시예에 따라 복호화부 (120)는 수직 방향으로 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 좌측 제2 부호화 단위(1010a)를 수평 방향으로 분할하여 제3 부호화 단위(1012a, 1012b)를 결정할 수 있다. 다만 복호화부 (120)는 좌측 제2 부호화 단위(1010a)를 수평 방향으로 분할한 경우, 우측 제2 부호화 단위(1010b)는 좌측 제2 부호화 단위(1010a)가 분할된 방향과 동일하게 수평 방향으로 분할될 수 없도록 제한할 수 있다. 만일 우측 제2 부호화 단위(1010b)가 동일한 방향으로 분할되어 제3 부호화 단위(1014a, 1014b)가 결정된 경우, 좌측 제2 부호화 단위(1010a) 및 우측 제2 부호화 단위(1010b)가 수평 방향으로 각각 독립적으로 분할됨으로써 제3 부호화 단위(1012a, 1012b, 1014a, 1014b)가 결정될 수 있다. 하지만 이는 복호화부 (120)가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1000)를 4개의 정사각형 형태의 제2 부호화 단위(1030a, 1030b, 1030c, 1030d)로 분할한 것과 동일한 결과이며 이는 영상 복호화 측면에서 비효율적일 수 있다.
일 실시예에 따라 복호화부 (120)는 수평 방향으로 제1 부호화 단위(900)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1020a 또는 1020b)를 수직 방향으로 분할하여 제3 부호화 단위(1022a, 1022b, 1024a, 1024b)를 결정할 수 있다. 다만 복호화부 (120)는 제2 부호화 단위 중 하나(예를 들면 상단 제2 부호화 단위(1020a))를 수직 방향으로 분할한 경우, 상술한 이유에 따라 다른 제2 부호화 단위(예를 들면 하단 부호화 단위(1020b))는 상단 제2 부호화 단위(1020a)가 분할된 방향과 동일하게 수직 방향으로 분할될 수 없도록 제한할 수 있다.
도 11은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 움직임 정보의 복호화 장치 (100) 가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 복호화부 (120)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1100)를 분할하여 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 결정할 수 있다. 분할 형태 정보에는 부호화 단위가 분할될 수 있는 다양한 형태에 대한 정보가 포함될 수 있으나, 다양한 형태에 대한 정보에는 정사각형 형태의 4개의 부호화 단위로 분할하기 위한 정보가 포함될 수 없는 경우가 있다. 이러한 분할 형태 정보에 따르면, 복호화부 (120)는 정사각형 형태의 제1 부호화 단위(1100)를 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할하지 못한다. 분할 형태 정보에 기초하여 복호화부 (120)는 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 결정할 수 있다.
일 실시예에 따라 복호화부 (120)는 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 각각 독립적으로 분할할 수 있다. 재귀적인 방법을 통해 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등) 각각이 소정의 순서대로 분할될 수 있으며, 이는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1100)가 분할되는 방법에 유사한 분할 방법일 수 있다.
예를 들면 복호화부 (120)는 좌측 제2 부호화 단위(1110a)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1112a, 1112b)를 결정할 수 있고, 우측 제2 부호화 단위(1110b)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1114a, 1114b)를 결정할 수 있다. 나아가 복호화부 (120)는 좌측 제2 부호화 단위(1110a) 및 우측 제2 부호화 단위(1110b) 모두 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1116a, 1116b, 1116c, 1116d)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1100)가 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
또 다른 예를 들면 복호화부 (120)는 상단 제2 부호화 단위(1120a)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1122a, 1122b)를 결정할 수 있고, 하단 제2 부호화 단위(1120b)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1124a, 1124b)를 결정할 수 있다. 나아가 복호화부 (120)는 상단 제2 부호화 단위(1120a) 및 하단 제2 부호화 단위(1120b) 모두 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1122a, 1122b, 1124a, 1124b)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1100)가 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
도 12는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
일 실시예에 따라 복호화부 (120)는 블록 형태 정보 및 분할 형태 정보에 기초하여 제1 부호화 단위(1200)를 분할할 수 있다. 블록 형태 정보가 정사각형 형태를 나타내고, 분할 형태 정보가 제1 부호화 단위(1200)가 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할됨을 나타내는 경우, 복호화부 (120)는 제1 부호화 단위(1200)를 분할하여 제2 부호화 단위(예를 들면, 1210a, 1210b, 1220a, 1220b, 1230a, 1230b, 1230c, 1230d 등)를 결정할 수 있다. 도 12를 참조하면 제1 부호화 단위1200)가 수평 방향 또는 수직 방향만으로 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)는 각각에 대한 블록 형태 정보 및 분할 형태 정보에 기초하여 독립적으로 분할될 수 있다. 예를 들면 복호화부 (120)는 제1 부호화 단위(1200)가 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 제1 부호화 단위(1200)가 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 이러한 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)의 분할 과정은 도 10과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 복호화부 (120)는 소정의 순서에 따라 부호화 단위를 처리할 수 있다. 소정의 순서에 따른 부호화 단위의 처리에 대한 특징은 도 7과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다. 도 12를 참조하면 복호화부 (120)는 정사각형 형태의 제1 부호화 단위(1200)를 분할하여 4개의 정사각형 형태의 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 일 실시예에 따라 복호화부 (120)는 제1 부호화 단위(1200)가 분할되는 형태에 따라 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)의 처리 순서를 결정할 수 있다.
일 실시예에 따라 복호화부 (120)는 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 복호화부 (120)는 좌측 제2 부호화 단위(1210a)에 포함되는 제3 부호화 단위(1216a, 1216b)를 수직 방향으로 먼저 처리한 후, 우측 제2 부호화 단위(1210b)에 포함되는 제3 부호화 단위(1216c, 1216d)를 수직 방향으로 처리하는 순서(1217)에 따라 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 처리할 수 있다.
일 실시예에 따라 복호화부 (120)는 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수직 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있고, 복호화부 (120)는 상단 제2 부호화 단위(1220a)에 포함되는 제3 부호화 단위(1226a, 1226b)를 수평 방향으로 먼저 처리한 후, 하단 제2 부호화 단위(1220b)에 포함되는 제3 부호화 단위(1226c, 1226d)를 수평 방향으로 처리하는 순서(1227)에 따라 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 처리할 수 있다.
도 12를 참조하면, 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)가 각각 분할되어 정사각형 형태의 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)가 결정될 수 있다. 수직 방향으로 분할되어 결정된 제2 부호화 단위(1210a, 1210b) 및 수평 방향으로 분할되어 결정된 제2 부호화 단위(1220a, 1220b)는 서로 다른 형태로 분할된 것이지만, 이후에 결정되는 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)에 따르면 결국 동일한 형태의 부호화 단위들로 제1 부호화 단위(1200)가 분할된 결과가 된다. 이에 따라 복호화부 (120)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 상이한 과정을 통해 재귀적으로 부호화 단위를 분할함으로써 결과적으로 동일한 형태의 부호화 단위들을 결정하더라도, 동일한 형태로 결정된 복수개의 부호화 단위들을 서로 다른 순서로 처리할 수 있다.
도 13은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
일 실시예에 따라 복호화부 (120)는 부호화 단위의 심도를 소정의 기준에 따라 결정할 수 있다. 예를 들면 소정의 기준은 부호화 단위의 긴 변의 길이가 될 수 있다. 복호화부 (120)는 현재 부호화 단위의 긴 변의 길이가 분할되기 전의 부호화 단위의 긴 변의 길이보다 2n (n>0) 배로 분할된 경우, 현재 부호화 단위의 심도는 분할되기 전의 부호화 단위의 심도보다 n만큼 심도가 증가된 것으로 결정할 수 있다. 이하에서는 심도가 증가된 부호화 단위를 하위 심도의 부호화 단위로 표현하도록 한다.
도 13을 참조하면, 일 실시예에 따라 정사각형 형태임을 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는 ′0: SQUARE′를 나타낼 수 있음)에 기초하여 복호화부 (120)는 정사각형 형태인 제1 부호화 단위(1300)를 분할하여 하위 심도의 제2 부호화 단위(1302), 제3 부호화 단위(1304) 등을 결정할 수 있다. 정사각형 형태의 제1 부호화 단위(1300)의 크기를 2Nx2N이라고 한다면, 제1 부호화 단위(1300)의 너비 및 높이를 1/21배로 분할하여 결정된 제2 부호화 단위(1302)는 NxN의 크기를 가질 수 있다. 나아가 제2 부호화 단위(1302)의 너비 및 높이를 1/2크기로 분할하여 결정된 제3 부호화 단위(1304)는 N/2xN/2의 크기를 가질 수 있다. 이 경우 제3 부호화 단위(1304)의 너비 및 높이는 제1 부호화 단위(1300)의 1/22배에 해당한다. 제1 부호화 단위(1300)의 심도가 D인 경우 제1 부호화 단위(1300)의 너비 및 높이의 1/21배인 제2 부호화 단위(1302)의 심도는 D+1일 수 있고, 제1 부호화 단위(1300)의 너비 및 높이의 1/22배인 제3 부호화 단위(1304)의 심도는 D+2일 수 있다.
일 실시예에 따라 비-정사각형 형태를 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는, 높이가 너비보다 긴 비-정사각형임을 나타내는 ′1: NS_VER′ 또는 너비가 높이보다 긴 비-정사각형임을 나타내는 ′2: NS_HOR′를 나타낼 수 있음)에 기초하여, 복호화부 (120)는 비-정사각형 형태인 제1 부호화 단위(1310 또는 1320)를 분할하여 하위 심도의 제2 부호화 단위(1312 또는 1322), 제3 부호화 단위(1314 또는 1324) 등을 결정할 수 있다.
복호화부 (120)는 Nx2N 크기의 제1 부호화 단위(1310)의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1302, 1312, 1322 등)를 결정할 수 있다. 즉, 복호화부 (120)는 제1 부호화 단위(1310)를 수평 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1302) 또는 NxN/2 크기의 제2 부호화 단위(1322)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 N/2xN 크기의 제2 부호화 단위(1312)를 결정할 수도 있다.
일 실시예에 따라 복호화부 (120)는 2NxN 크기의 제1 부호화 단위(1320) 의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1302, 1312, 1322 등)를 결정할 수도 있다. 즉, 복호화부 (120)는 제1 부호화 단위(1320)를 수직 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1302) 또는 N/2xN 크기의 제2 부호화 단위(1312)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 NxN/2 크기의 제2 부호화 단위(1322)를 결정할 수도 있다.
일 실시예에 따라 복호화부 (120)는 NxN 크기의 제2 부호화 단위(1302) 의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 복호화부 (120)는 제2 부호화 단위(1302)를 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304)를 결정하거나 N/22xN/2 크기의 제3 부호화 단위(1314)를 결정하거나 N/2xN/22 크기의 제3 부호화 단위(1324)를 결정할 수 있다.
일 실시예에 따라 복호화부 (120)는 N/2xN 크기의 제2 부호화 단위(1312)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 복호화부 (120)는 제2 부호화 단위(1312)를 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304) 또는 N/2xN/22 크기의 제3 부호화 단위(1324)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/22xN/2 크기의 제3 부호화 단위(1314)를 결정할 수 있다.
일 실시예에 따라 복호화부 (120)는 NxN/2 크기의 제2 부호화 단위(1314)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 복호화부 (120)는 제2 부호화 단위(1312)를 수직 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304) 또는 N/22xN/2 크기의 제3 부호화 단위(1314)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/22크기의 제3 부호화 단위(1324)를 결정할 수 있다.
일 실시예에 따라 복호화부 (120)는 정사각형 형태의 부호화 단위(예를 들면, 1300, 1302, 1304)를 수평 방향 또는 수직 방향으로 분할할 수 있다. 예를 들면, 2Nx2N 크기의 제1 부호화 단위(1300)를 수직 방향으로 분할하여 Nx2N 크기의 제1 부호화 단위(1310)를 결정하거나 수평 방향으로 분할하여 2NxN 크기의 제1 부호화 단위(1320)를 결정할 수 있다. 일 실시예에 따라 심도가 부호화 단위의 가장 긴 변의 길이에 기초하여 결정되는 경우, 2Nx2N 크기의 제1 부호화 단위(1300, 1302 또는 1304)가 수평 방향 또는 수직 방향으로 분할되어 결정되는 부호화 단위의 심도는 제1 부호화 단위(1300, 1302 또는 1304)의 심도와 동일할 수 있다.
일 실시예에 따라 제3 부호화 단위(1314 또는 1324)의 너비 및 높이는 제1 부호화 단위(1310 또는 1320)의 1/22배에 해당할 수 있다. 제1 부호화 단위(1310 또는 1320)의 심도가 D인 경우 제1 부호화 단위(1310 또는 1320)의 너비 및 높이의 1/2배인 제2 부호화 단위(1312 또는 1314)의 심도는 D+1일 수 있고, 제1 부호화 단위(1310 또는 1320)의 너비 및 높이의 1/22배인 제3 부호화 단위(1314 또는 1324)의 심도는 D+2일 수 있다.
도 14는 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
일 실시예에 따라 복호화부 (120)는 정사각형 형태의 제1 부호화 단위(1400)를 분할하여 다양한 형태의 제2 부호화 단위를 결정할 수 있다. 도 14를 참조하면, 복호화부 (120)는 분할 형태 정보에 따라 제1 부호화 단위(1400)를 수직 방향 및 수평 방향 중 적어도 하나의 방향으로 분할하여 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)를 결정할 수 있다. 즉, 복호화부 (120)는 제1 부호화 단위(1400)에 대한 분할 형태 정보에 기초하여 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)를 결정할 수 있다.
일 실시예에 따라 정사각형 형태의 제1 부호화 단위(1400)에 대한 분할 형태 정보에 따라 결정되는 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제1 부호화 단위(1400)의 한 변의 길이와 비-정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 긴 변의 길이가 동일하므로, 제1 부호화 단위(1400)와 비-정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 심도는 D로 동일하다고 볼 수 있다. 이에 반해 복호화부 (120)가 분할 형태 정보에 기초하여 제1 부호화 단위(1400)를 4개의 정사각형 형태의 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)로 분할한 경우, 정사각형 형태의 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)의 한 변의 길이는 제1 부호화 단위(1400)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)의 심도는 제1 부호화 단위(1400)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다.
일 실시예에 따라 복호화부 (120)는 높이가 너비보다 긴 형태의 제1 부호화 단위(1410)를 분할 형태 정보에 따라 수평 방향으로 분할하여 복수개의 제2 부호화 단위(1412a, 1412b, 1414a, 1414b, 1414c)로 분할할 수 있다. 일 실시예에 따라 복호화부 (120)는 너비가 높이보다 긴 형태의 제1 부호화 단위(1420)를 분할 형태 정보에 따라 수직 방향으로 분할하여 복수개의 제2 부호화 단위(1422a, 1422b, 1424a, 1424b, 1424c)로 분할할 수 있다.
일 실시예에 따라 비-정사각형 형태의 제1 부호화 단위(1410 또는 1420)에 대한 분할 형태 정보에 따라 결정되는 제2 부호화 단위(1412a, 1412b, 1414a, 1414b, 1416a, 1416b, 1416c, 1416d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제2 부호화 단위(1412a, 1412b)의 한 변의 길이는 높이가 너비보다 긴 비-정사각형 형태의 제1 부호화 단위(1410)의 한 변의 길이의 1/2배이므로, 정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 심도는 비-정사각형 형태의 제1 부호화 단위(1410)의 심도 D보다 한 심도 하위의 심도인 D+1이다.
나아가 복호화부 (120)가 분할 형태 정보에 기초하여 비-정사각형 형태의 제1 부호화 단위(1410)를 홀수개의 제2 부호화 단위(1414a, 1414b, 1414c)로 분할할 수 있다. 홀수개의 제2 부호화 단위(1414a, 1414b, 1414c)는 비-정사각형 형태의 제2 부호화 단위(1414a, 1414c) 및 정사각형 형태의 제2 부호화 단위(1414b)를 포함할 수 있다. 이 경우 비-정사각형 형태의 제2 부호화 단위(1414a, 1414c)의 긴 변의 길이 및 정사각형 형태의 제2 부호화 단위(1414b)의 한 변의 길이는 제1 부호화 단위(1410)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1414a, 1414b, 1414c)의 심도는 제1 부호화 단위(1410)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다. 복호화부 (120)는 제1 부호화 단위(1410)와 관련된 부호화 단위들의 심도를 결정하는 상기 방식에 유사한 방식으로, 너비가 높이보다 긴 비-정사각형 형태의 제1 부호화 단위(1420)와 관련된 부호화 단위들의 심도를 결정할 수 있다.
일 실시예에 따라 복호화부 (120)는 분할된 부호화 단위들의 구분을 위한 인덱스(PID)를 결정함에 있어서, 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 14를 참조하면, 홀수개로 분할된 부호화 단위들(1414a, 1414b, 1414c) 중 가운데에 위치하는 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1414a, 1414c)의 높이의 두 배일 수 있다. 즉, 이 경우 가운데에 위치하는 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)의 두 개를 포함할 수 있다. 따라서, 스캔 순서에 따라 가운데에 위치하는 부호화 단위(1414b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1414c)는 인덱스가 2가 증가한 3일수 있다. 즉 인덱스의 값의 불연속성이 존재할 수 있다. 일 실시예에 따라 복호화부 (120)는 이러한 분할된 부호화 단위들 간의 구분을 위한 인덱스의 불연속성의 존재 여부에 기초하여 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌지 여부를 결정할 수 있다.
(PID를 이용하여 tri-split 결정)
일 실시예에 따라 움직임 정보의 복호화 장치 (100) 는 현재 부호화 단위로부터 분할되어 결정된 복수개의 부호화 단위들을 구분하기 위한 인덱스의 값에 기초하여 특정 분할 형태로 분할된 것인지를 결정할 수 있다. 도 14를 참조하면 움직임 정보의 복호화 장치 (100) 는 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)를 분할하여 짝수개의 부호화 단위(1412a, 1412b)를 결정하거나 홀수개의 부호화 단위(1414a, 1414b, 1414c)를 결정할 수 있다. 움직임 정보의 복호화 장치 (100) 는 복수개의 부호화 단위 각각을 구분하기 위하여 각 부호화 단위를 나타내는 인덱스(PID)를 이용할 수 있다. 일 실시예에 따라 PID는 각각의 부호화 단위의 소정 위치의 샘플(예를 들면, 좌측 상단 샘플)에서 획득될 수 있다.
일 실시예에 따라 움직임 정보의 복호화 장치 (100) 는 부호화 단위의 구분을 위한 인덱스를 이용하여 분할되어 결정된 부호화 단위들 중 소정 위치의 부호화 단위를 결정할 수 있다. 일 실시예에 따라 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)에 대한 분할 형태 정보가 3개의 부호화 단위로 분할됨을 나타내는 경우 움직임 정보의 복호화 장치 (100) 는 제1 부호화 단위(1410)를 3개의 부호화 단위(1414a, 1414b, 1414c)로 분할할 수 있다. 움직임 정보의 복호화 장치 (100) 는 3개의 부호화 단위(1414a, 1414b, 1414c) 각각에 대한 인덱스를 할당할 수 있다. 움직임 정보의 복호화 장치 (100) 는 홀수개로 분할된 부호화 단위 중 가운데 부호화 단위를 결정하기 위하여 각 부호화 단위에 대한 인덱스를 비교할 수 있다. 움직임 정보의 복호화 장치 (100) 는 부호화 단위들의 인덱스에 기초하여 인덱스들 중 가운데 값에 해당하는 인덱스를 갖는 부호화 단위(1414b)를, 제1 부호화 단위(1410)가 분할되어 결정된 부호화 단위 중 가운데 위치의 부호화 단위로서 결정할 수 있다. 일 실시예에 따라 움직임 정보의 복호화 장치 (100) 는 분할된 부호화 단위들의 구분을 위한 인덱스를 결정함에 있어서, 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 14를 참조하면, 제1 부호화 단위(1410)가 분할되어 생성된 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1414a, 1414c)의 높이의 두 배일 수 있다. 이 경우 가운데에 위치하는 부호화 단위(1414b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1414c)는 인덱스가 2가 증가한 3일수 있다. 이러한 경우처럼 균일하게 인덱스가 증가하다가 증가폭이 달라지는 경우, 움직임 정보의 복호화 장치 (100) 는 다른 부호화 단위들과 다른 크기를 가지는 부호화 단위를 포함하는 복수개의 부호화 단위로 분할된 것으로 결정할 수 있다, 일 실시예에 따라 분할 형태 정보가 홀수개의 부호화 단위로 분할됨을 나타내는 경우, 움직임 정보의 복호화 장치 (100) 는 홀수개의 부호화 단위 중 소정 위치의 부호화 단위(예를 들면 가운데 부호화 단위)가 다른 부호화 단위와 크기가 다른 형태로 현재 부호화 단위를 분할할 수 있다. 이 경우 움직임 정보의 복호화 장치 (100) 는 부호화 단위에 대한 인덱스(PID)를 이용하여 다른 크기를 가지는 가운데 부호화 단위를 결정할 수 있다. 다만 상술한 인덱스, 결정하고자 하는 소정 위치의 부호화 단위의 크기 또는 위치는 일 실시예를 설명하기 위해 특정한 것이므로 이에 한정하여 해석되어서는 안되며, 다양한 인덱스, 부호화 단위의 위치 및 크기가 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 복호화부 (120)는 부호화 단위의 재귀적인 분할이 시작되는 소정의 데이터 단위를 이용할 수 있다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
일 실시예에 따라 소정의 데이터 단위는 부호화 단위가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 재귀적으로 분할되기 시작하는 데이터 단위로 정의될 수 있다. 즉, 현재 픽쳐를 분할하는 복수개의 부호화 단위들이 결정되는 과정에서 이용되는 최상위 심도의 부호화 단위에 해당할 수 있다. 이하에서는 설명 상 편의를 위해 이러한 소정의 데이터 단위를 기준 데이터 단위라고 지칭하도록 한다.
일 실시예에 따라 기준 데이터 단위는 소정의 크기 및 형태를 나타낼 수 있다. 일 실시예에 따라, 기준 부호화 단위는 MxN의 샘플들을 포함할 수 있다. 여기서 M 및 N은 서로 동일할 수도 있으며, 2의 승수로 표현되는 정수일 수 있다. 즉, 기준 데이터 단위는 정사각형 또는 비-정사각형의 형태를 나타낼 수 있으며, 이후에 정수개의 부호화 단위로 분할될 수 있다.
일 실시예에 따라 움직임 정보의 복호화 장치 (100) 의 복호화부 (120)는 현재 픽쳐를 복수개의 기준 데이터 단위로 분할할 수 있다. 일 실시예에 따라 복호화부 (120)는 현재 픽쳐를 분할하는 복수개의 기준 데이터 단위를 각각의 기준 데이터 단위에 대한 분할 정보를 이용하여 분할할 수 있다. 이러한 기준 데이터 단위의 분할 과정은 쿼드 트리(quad-tree)구조를 이용한 분할 과정에 대응될 수 있다.
일 실시예에 따라 복호화부 (120)는 현재 픽쳐에 포함되는 기준 데이터 단위가 가질 수 있는 최소 크기를 미리 결정할 수 있다. 이에 따라, 복호화부 (120)는 최소 크기 이상의 크기를 갖는 다양한 크기의 기준 데이터 단위를 결정할 수 있고, 결정된 기준 데이터 단위를 기준으로 블록 형태 정보 및 분할 형태 정보를 이용하여 적어도 하나의 부호화 단위를 결정할 수 있다.
도 15를 참조하면, 움직임 정보의 복호화 장치 (100) 는 정사각형 형태의 기준 부호화 단위(1500)를 이용할 수 있고, 또는 비-정사각형 형태의 기준 부호화 단위(1502)를 이용할 수도 있다. 일 실시예에 따라 기준 부호화 단위의 형태 및 크기는 적어도 하나의 기준 부호화 단위를 포함할 수 있는 다양한 데이터 단위(예를 들면, 시퀀스(sequence), 픽쳐(picture), 슬라이스(slice), 슬라이스 세그먼트(slice segment), 최대부호화단위 등)에 따라 결정될 수 있다.
일 실시예에 따라 움직임 정보의 복호화 장치 (100) 의 비트스트림 획득부는 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보 중 적어도 하나를 상기 다양한 데이터 단위마다 비트스트림으로부터 획득할 수 있다. 정사각형 형태의 기준 부호화 단위(1500)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 3의 현재 부호화 단위(300)가 분할되는 과정을 통해 상술하였고, 비-정사각형 형태의 기준 부호화 단위(1500)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 4의 현재 부호화 단위(400 또는 450)가 분할되는 과정을 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 복호화부 (120)는 소정의 조건에 기초하여 미리 결정되는 일부 데이터 단위에 따라 기준 부호화 단위의 크기 및 형태를 결정하기 위하여, 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용할 수 있다. 즉, 비트스트림 획득부는 비트스트림으로부터 상기 다양한 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 최대부호화단위 등) 중 소정의 조건(예를 들면 슬라이스 이하의 크기를 갖는 데이터 단위)을 만족하는 데이터 단위로서 슬라이스, 슬라이스 세그먼트, 최대부호화 단위 등 마다, 기준 부호화 단위의 크기 및 형태의 식별을 위한 인덱스만을 획득할 수 있다. 복호화부 (120)는 인덱스를 이용함으로써 상기 소정의 조건을 만족하는 데이터 단위마다 기준 데이터 단위의 크기 및 형태를 결정할 수 있다. 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 상대적으로 작은 크기의 데이터 단위마다 비트스트림으로부터 획득하여 이용하는 경우, 비트스트림의 이용 효율이 좋지 않을 수 있으므로, 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 직접 획득하는 대신 상기 인덱스만을 획득하여 이용할 수 있다. 이 경우 기준 부호화 단위의 크기 및 형태를 나타내는 인덱스와 관련된 기준 부호화 단위의 크기 및 형태 중 적어도 하나는 미리 결정되어 있을 수 있다. 즉, 복호화부 (120)는 미리 결정된 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 인덱스에 따라 선택함으로써, 인덱스 획득의 기준이 되는 데이터 단위에 포함되는 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 결정할 수 있다.
일 실시예에 따라 복호화부 (120)는 하나의 최대 부호화 단위에 포함하는 적어도 하나의 기준 부호화 단위를 이용할 수 있다. 즉, 영상을 분할하는 최대 부호화 단위에는 적어도 하나의 기준 부호화 단위가 포함될 수 있고, 각각의 기준 부호화 단위의 재귀적인 분할 과정을 통해 부호화 단위가 결정될 수 있다. 일 실시예에 따라 최대 부호화 단위의 너비 및 높이 중 적어도 하나는 기준 부호화 단위의 너비 및 높이 중 적어도 하나의 정수배에 해당할 수 있다. 일 실시예에 따라 기준 부호화 단위의 크기는 최대부호화단위를 쿼드 트리 구조에 따라 n번 분할한 크기일 수 있다. 즉, 복호화부 (120)는 최대부호화단위를 쿼드 트리 구조에 따라 n 번 분할하여 기준 부호화 단위를 결정할 수 있고, 다양한 실시예들에 따라 기준 부호화 단위를 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 분할할 수 있다.
도 16은 일 실시예에 따라 픽쳐(1600)에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
일 실시예에 따라 복호화부 (120)는 픽쳐를 분할하는 적어도 하나의 프로세싱 블록을 결정할 수 있다. 프로세싱 블록이란, 영상을 분할하는 적어도 하나의 기준 부호화 단위를 포함하는 데이터 단위로서, 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위는 특정 순서대로 결정될 수 있다. 즉, 각각의 프로세싱 블록에서 결정되는 적어도 하나의 기준 부호화 단위의 결정 순서는 기준 부호화 단위가 결정될 수 있는 다양한 순서의 종류 중 하나에 해당할 수 있으며, 각각의 프로세싱 블록에서 결정되는 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록마다 결정되는 기준 부호화 단위의 결정 순서는 래스터 스캔(raster scan), Z 스캔(Z-scan), N 스캔(N-scan), 우상향 대각 스캔(up-right diagonal scan), 수평적 스캔(horizontal scan), 수직적 스캔(vertical scan) 등 다양한 순서 중 하나일 수 있으나, 결정될 수 있는 순서는 상기 스캔 순서들에 한정하여 해석되어서는 안 된다.
일 실시예에 따라 복호화부 (120)는 프로세싱 블록의 크기에 대한 정보를 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 복호화부 (120)는 프로세싱 블록의 크기에 대한 정보를 비트스트림으로부터 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 이러한 프로세싱 블록의 크기는 프로세싱 블록의 크기에 대한 정보가 나타내는 데이터 단위의 소정의 크기일 수 있다.
일 실시예에 따라 움직임 정보의 복호화 장치 (100) 의 비트스트림 획득부는 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 특정의 데이터 단위마다 획득할 수 있다. 예를 들면 프로세싱 블록의 크기에 대한 정보는 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트 등의 데이터 단위로 비트스트림으로부터 획득될 수 있다. 즉 비트스트림 획득부는 상기 여러 데이터 단위마다 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 획득할 수 있고 복호화부 (120)는 획득된 프로세싱 블록의 크기에 대한 정보를 이용하여 픽쳐를 분할하는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있으며, 이러한 프로세싱 블록의 크기는 기준 부호화 단위의 정수배의 크기일 수 있다.
일 실시예에 따라 복호화부 (120)는 픽쳐(1600)에 포함되는 프로세싱 블록(1602, 1612)의 크기를 결정할 수 있다. 예를 들면, 복호화부 (120)는 비트스트림으로부터 획득된 프로세싱 블록의 크기에 대한 정보에 기초하여 프로세싱 블록의 크기를 결정할 수 있다. 도 16을 참조하면, 복호화부 (120)는 일 실시예에 따라 프로세싱 블록(1602, 1612)의 가로크기를 기준 부호화 단위 가로크기의 4배, 세로크기를 기준 부호화 단위의 세로크기의 4배로 결정할 수 있다. 복호화부 (120)는 적어도 하나의 프로세싱 블록 내에서 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다.
일 실시예에 따라, 복호화부 (120)는 프로세싱 블록의 크기에 기초하여 픽쳐(1600)에 포함되는 각각의 프로세싱 블록(1602, 1612)을 결정할 수 있고, 기준 부호화 단위 결정부(12)는 프로세싱 블록(1602, 1612)에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서를 결정할 수 있다. 일 실시예에 따라 기준 부호화 단위의 결정은 기준 부호화 단위의 크기의 결정을 포함할 수 있다.
일 실시예에 따라 복호화부 (120)는 비트스트림으로부터 적어도 하나의 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서에 대한 정보를 획득할 수 있고, 획득한 결정 순서에 대한 정보에 기초하여 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다. 결정 순서에 대한 정보는 프로세싱 블록 내에서 기준 부호화 단위들이 결정되는 순서 또는 방향으로 정의될 수 있다. 즉, 기준 부호화 단위들이 결정되는 순서는 각각의 프로세싱 블록마다 독립적으로 결정될 수 있다.
일 실시예에 따라 움직임 정보의 복호화 장치 (100) 는 특정 데이터 단위마다 기준 부호화 단위의 결정 순서에 대한 정보를 비트스트림으로부터 획득할 수 있다. 예를 들면, 비트스트림 획득부는 기준 부호화 단위의 결정 순서에 대한 정보를 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 프로세싱 블록 등의 데이터 단위로마다 비트스트림으로부터 획득할 수 있다. 기준 부호화 단위의 결정 순서에 대한 정보는 프로세싱 블록 내에서의 기준 부호화 단위 결정 순서를 나타내므로, 결정 순서에 대한 정보는 정수개의 프로세싱 블록을 포함하는 특정 데이터 단위 마다 획득될 수 있다.
움직임 정보의 복호화 장치 (100) 는 일 실시예에 따라 결정된 순서에 기초하여 적어도 하나의 기준 부호화 단위를 결정할 수 있다.
일 실시예에 따라 비트스트림 획득부는 비트스트림으로부터 프로세싱 블록(1602, 1612)과 관련된 정보로서, 기준 부호화 단위 결정 순서에 대한 정보를 획득할 수 있고, 복호화부 (120)는 상기 프로세싱 블록(1602, 1612)에 포함된 적어도 하나의 기준 부호화 단위를 결정하는 순서를 결정하고 부호화 단위의 결정 순서에 따라 픽쳐(1600)에 포함되는 적어도 하나의 기준 부호화 단위를 결정할 수 있다. 도 16을 참조하면, 복호화부 (120)는 각각의 프로세싱 블록(1602, 1612)과 관련된 적어도 하나의 기준 부호화 단위의 결정 순서(1604, 1614)를 결정할 수 있다. 예를 들면, 기준 부호화 단위의 결정 순서에 대한 정보가 프로세싱 블록마다 획득되는 경우, 각각의 프로세싱 블록(1602, 1612)과 관련된 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록(1602)과 관련된 기준 부호화 단위 결정 순서(1604)가 래스터 스캔(raster scan)순서인 경우, 프로세싱 블록(1602)에 포함되는 기준 부호화 단위는 래스터 스캔 순서에 따라 결정될 수 있다. 이에 반해 다른 프로세싱 블록(1612)과 관련된 기준 부호화 단위 결정 순서(1614)가 래스터 스캔 순서의 역순인 경우, 프로세싱 블록(1612)에 포함되는 기준 부호화 단위는 래스터 스캔 순서의 역순에 따라 결정될 수 있다.
복호화부 (120)는 일 실시예에 따라, 결정된 적어도 하나의 기준 부호화 단위를 복호화할 수 있다. 복호화부 (120)는 상술한 실시예를 통해 결정된 기준 부호화 단위에 기초하여 영상을 복호화 할 수 있다. 기준 부호화 단위를 복호화 하는 방법은 영상을 복호화 하는 다양한 방법들을 포함할 수 있다.
일 실시예에 따라 움직임 정보의 복호화 장치 (100) 는 현재 부호화 단위의 형태를 나타내는 블록 형태 정보 또는 현재 부호화 단위를 분할하는 방법을 나타내는 분할 형태 정보를 비트스트림으로부터 획득하여 이용할 수 있다. 블록 형태 정보 또는 분할 형태 정보는 다양한 데이터 단위와 관련된 비트스트림에 포함될 수 있다. 예를 들면, 움직임 정보의 복호화 장치 (100) 는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header)에 포함된 블록 형태 정보 또는 분할 형태 정보를 이용할 수 있다. 나아가, 움직임 정보의 복호화 장치 (100) 는 최대 부호화 단위, 기준 부호화 단위, 프로세싱 블록마다 비트스트림으로부터 블록 형태 정보 또는 분할 형태 정보와 관련된 신택스를 비트스트림으로부터 획득하여 이용할 수 있다.
일 실시예에 따라 복호화부 (120)는 부호화 단위가 분할될 수 있는 분할 형태의 종류를 소정의 데이터 단위마다 다르게 결정할 수 있다. 움직임 정보의 복호화 장치 (100) 의 복호화부 (120)는 일 실시예에 따라 소정의 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스 등)마다 부호화 단위가 분할될 수 있는 형태들의 조합을 다르게 결정할 수 있다.
도 17은 일 실시예에 따라 부호화 단위가 분할될 수 있는 형태의 조합이 픽쳐마다 서로 다른 경우, 각각의 픽쳐마다 결정될 수 있는 부호화 단위들을 도시한다.
도 17을 참조하면, 복호화부 (120)는 픽쳐마다 부호화 단위가 분할될 수 있는 분할 형태들의 조합을 다르게 결정할 수 있다. 예를 들면, 복호화부 (120)는 영상에 포함되는 적어도 하나의 픽쳐들 중 4개의 부호화 단위로 분할될 수 있는 픽쳐(1700), 2개 또는 4개의 부호화 단위로 분할될 수 있는 픽쳐(1710) 및 2개, 3개 또는 4개의 부호화 단위로 분할될 수 있는 픽쳐(1720)를 이용하여 영상을 복호화 할 수 있다. 복호화부 (120)는 픽쳐(1700)를 복수개의 부호화 단위로 분할하기 위하여, 4개의 정사각형의 부호화 단위로 분할됨을 나타내는 분할 형태 정보만을 이용할 수 있다. 복호화부 (120)는 픽쳐(1710)를 분할하기 위하여, 2개 또는 4개의 부호화 단위로 분할됨을 나타내는 분할 형태 정보만을 이용할 수 있다. 복호화부 (120)는 픽쳐(1720)를 분할하기 위하여, 2개, 3개 또는 4개의 부호화 단위로 분할됨을 나타내는 분할 형태 정보만을 이용할 수 있다. 상술한 분할 형태의 조합은 움직임 정보의 복호화 장치 (100) 의 동작을 설명하기 위한 실시예에 불과하므로 상술한 분할 형태의 조합은 상기 실시예에 한정하여 해석되어서는 안되며 소정의 데이터 단위마다 다양한 형태의 분할 형태의 조합이 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 움직임 정보의 복호화 장치 (100) 의 비트스트림 획득부는 분할 형태 정보의 조합을 나타내는 인덱스를 포함하는 비트스트림을 소정의 데이터 단위 (예를 들면, 시퀀스, 픽쳐, 슬라이스 등)마다 획득할 수 있다. 예를 들면, 비트스트림 획득부는 시퀀스 파라미터 세트(Sequence Parameter Set), 픽쳐 파라미터 세트(Picture Parameter Set) 또는 슬라이스 헤더(Slice Header)에서 분할 형태 정보의 조합을 나타내는 인덱스를 획득할 수 있다. 움직임 정보의 복호화 장치 (100) 의 복호화부 (120)는 획득한 인덱스를 이용하여 소정의 데이터 단위마다 부호화 단위가 분할될 수 있는 분할 형태의 조합을 결정할 수 있으며, 이에 따라 소정의 데이터 단위마다 서로 다른 분할 형태의 조합을 이용할 수 있다.
도 18은 일 실시예에 따라 바이너리(binary)코드로 표현될 수 있는 분할 형태 정보에 기초하여 결정될 수 있는 부호화 단위의 다양한 형태를 도시한다.
일 실시예에 따라 움직임 정보의 복호화 장치 (100) 는 비트스트림 획득부를 통해 획득한 블록 형태 정보 및 분할 형태 정보를 이용하여 부호화 단위를 다양한 형태로 분할할 수 있다. 분할될 수 있는 부호화 단위의 형태는 상술한 실시예들을 통해 설명한 형태들을 포함하는 다양한 형태에 해당할 수 있다.
도 18을 참조하면, 복호화부 (120)는 분할 형태 정보에 기초하여 정사각형 형태의 부호화 단위를 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할할 수 있고, 비-정사각형 형태의 부호화 단위를 수평 방향 또는 수직 방향으로 분할할 수 있다.
일 실시예에 따라 복호화부 (120)가 정사각형 형태의 부호화 단위를 수평 방향 및 수직 방향으로 분할하여 4개의 정사각형의 부호화 단위로 분할할 수 있는 경우, 정사각형의 부호화 단위에 대한 분할 형태 정보가 나타낼 수 있는 분할 형태는 4가지일 수 있다. 일 실시예에 따라 분할 형태 정보는 2자리의 바이너리 코드로써 표현될 수 있으며, 각각의 분할 형태마다 바이너리 코드가 할당될 수 있다. 예를 들면 부호화 단위가 분할되지 않는 경우 분할 형태 정보는 (00)b로 표현될 수 있고, 부호화 단위가 수평 방향 및 수직 방향으로 분할되는 경우 분할 형태 정보는 (01)b로 표현될 수 있고, 부호화 단위가 수평 방향으로 분할되는 경우 분할 형태 정보는 (10)b로 표현될 수 있고 부호화 단위가 수직 방향으로 분할되는 경우 분할 형태 정보는 (11)b로 표현될 수 있다.
일 실시예에 따라 복호화부 (120)는 비-정사각형 형태의 부호화 단위를 수평 방향 또는 수직 방향으로 분할하는 경우 분할 형태 정보가 나타낼 수 있는 분할 형태의 종류는 몇 개의 부호화 단위로 분할하는지에 따라 결정될 수 있다. 도 18을 참조하면, 복호화부 (120)는 일 실시예에 따라 비-정사각형 형태의 부호화 단위를 3개까지 분할할 수 있다. 복호화부 (120)는 부호화 단위를 두 개의 부호화 단위로 분할할 수 있으며, 이 경우 분할 형태 정보는 (10)b로 표현될 수 있다. 복호화부 (120)는 부호화 단위를 세 개의 부호화 단위로 분할할 수 있으며, 이 경우 분할 형태 정보는 (11)b로 표현될 수 있다. 복호화부 (120)는 부호화 단위를 분할하지 않는 것으로 결정할 수 있으며, 이 경우 분할 형태 정보는 (0)b로 표현될 수 있다. 즉, 복호화부 (120)는 분할 형태 정보를 나타내는 바이너리 코드를 이용하기 위하여 고정길이 코딩(FLC: Fixed Length Coding)이 아니라 가변길이 코딩(VLC: Variable Length Coding)을 이용할 수 있다.
일 실시예에 따라 도 18을 참조하면, 부호화 단위가 분할되지 않는 것을 나타내는 분할 형태 정보의 바이너리 코드는 (0)b로 표현될 수 있다. 만일 부호화 단위가 분할되지 않음을 나타내는 분할 형태 정보의 바이너리 코드가 (00)b로 설정된 경우라면, (01)b로 설정된 분할 형태 정보가 없음에도 불구하고 2비트의 분할 형태 정보의 바이너리 코드를 모두 이용하여야 한다. 하지만 도 18에서 도시하는 바와 같이, 비-정사각형 형태의 부호화 단위에 대한 3가지의 분할 형태를 이용하는 경우라면, 복호화부 (120)는 분할 형태 정보로서 1비트의 바이너리 코드(0)b를 이용하더라도 부호화 단위가 분할되지 않는 것을 결정할 수 있으므로, 비트스트림을 효율적으로 이용할 수 있다. 다만 분할 형태 정보가 나타내는 비-정사각형 형태의 부호화 단위의 분할 형태는 단지 도 18에서 도시하는 3가지 형태만으로 국한되어 해석되어서는 안되고, 상술한 실시예들을 포함하는 다양한 형태로 해석되어야 한다.
도 19는 일 실시예에 따라 바이너리 코드로 표현될 수 있는 분할 형태 정보에 기초하여 결정될 수 있는 부호화 단위의 또 다른 형태를 도시한다.
도 19를 참조하면 복호화부 (120)는 분할 형태 정보에 기초하여 정사각형 형태의 부호화 단위를 수평 방향 또는 수직 방향으로 분할할 수 있고, 비-정사각형 형태의 부호화 단위를 수평 방향 또는 수직 방향으로 분할할 수 있다. 즉, 분할 형태 정보는 정사각형 형태의 부호화 단위를 한쪽 방향으로 분할되는 것을 나타낼 수 있다. 이러한 경우 정사각형 형태의 부호화 단위가 분할되지 않는 것을 나타내는 분할 형태 정보의 바이너리 코드는 (0)b로 표현될 수 있다. 만일 부호화 단위가 분할되지 않음을 나타내는 분할 형태 정보의 바이너리 코드가 (00)b로 설정된 경우라면, (01)b로 설정된 분할 형태 정보가 없음에도 불구하고 2비트의 분할 형태 정보의 바이너리 코드를 모두 이용하여야 한다. 하지만 도 19에서 도시하는 바와 같이, 정사각형 형태의 부호화 단위에 대한 3가지의 분할 형태를 이용하는 경우라면, 복호화부 (120)는 분할 형태 정보로서 1비트의 바이너리 코드(0)b를 이용하더라도 부호화 단위가 분할되지 않는 것을 결정할 수 있으므로, 비트스트림을 효율적으로 이용할 수 있다. 다만 분할 형태 정보가 나타내는 정사각형 형태의 부호화 단위의 분할 형태는 단지 도 19에서 도시하는 3가지 형태만으로 국한되어 해석되어서는 안되고, 상술한 실시예들을 포함하는 다양한 형태로 해석되어야 한다.
일 실시예에 따라 블록 형태 정보 또는 분할 형태 정보는 바이너리 코드를 이용하여 표현될 수 있고, 이러한 정보가 곧바로 비트스트림으로 생성될 수 있다. 또한 바이너리 코드로 표현될 수 있는 블록 형태 정보 또는 분할 형태 정보는 바로 비트스트림으로 생성되지 않고 CABAC(context adaptive binary arithmetic coding)에서 입력되는 바이너리 코드로서 이용될 수도 있다.
일 실시예에 따라 움직임 정보의 복호화 장치 (100) 는 CABAC을 통해 블록 형태 정보 또는 분할 형태 정보에 대한 신택스를 획득하는 과정을 설명한다. 비트스트림 획득부를 통해 상기 신택스에 대한 바이너리 코드를 포함하는 비트스트림을 획득할 수 있다. 복호화부 (120)는 획득한 비트스트림에 포함되는 빈 스트링(bin string)을 역 이진화하여 블록 형태 정보 또는 분할 형태 정보를 나타내는 신택스 요소(syntax element)를 검출할 수 있다. 일 실시예에 따라 복호화부 (120)는 복호화할 신택스 요소에 해당하는 바이너리 빈 스트링의 집합을 구하고, 확률 정보를 이용하여 각각의 빈을 복호화할 수 있고, 복호화부 (120)는 이러한 복호화된 빈으로 구성되는 빈 스트링이 이전에 구한 빈 스트링들 중 하나와 같아질 때까지 반복할 수 있다. 복호화부 (120)는 빈 스트링의 역 이진화를 수행하여 신택스 요소를 결정할 수 있다.
일 실시예에 따라 복호화부 (120)는 적응적 이진 산술 코딩(adaptive binary arithmetic coding)의 복호화 과정을 수행하여 빈 스트링에 대한 신택스를 결정할 수 있고, 복호화부 (120)는 비트스트림 획득부를 통해 획득한 빈들에 대한 확률 모델을 갱신할 수 있다. 도 18을 참조하면, 움직임 정보의 복호화 장치 (100) 의 비트스트림 획득부는 일 실시예에 따라 분할 형태 정보를 나타내는 바이너리 코드를 나타내는 비트스트림을 획득할 수 있다. 획득한 1비트 또는 2비트의 크기를 가지는 바이너리 코드를 이용하여 복호화부 (120)는 분할 형태 정보에 대한 신택스를 결정할 수 있다. 복호화부 (120)는 분할 형태 정보에 대한 신택스를 결정하기 위하여, 2비트의 바이너리 코드 중 각각의 비트에 대한 확률을 갱신할 수 있다. 즉, 복호화부 (120)는 2비트의 바이너리 코드 중 첫번째 빈의 값이 0 또는 1 중 어떤 값이냐에 따라, 다음 빈을 복호화 할 때 0 또는 1의 값을 가질 확률을 갱신할 수 있다.
일 실시예에 따라 복호화부 (120)는 신택스를 결정하는 과정에서, 신택스에 대한 빈 스트링의 빈들을 복호화 하는 과정에서 이용되는 빈들에 대한 확률을 갱신할 수 있으며, 복호화부 (120)는 상기 빈 스트링 중 특정 비트에서는 확률을 갱신하지 않고 동일한 확률을 가지는 것으로 결정할 수 있다.
도 18을 참조하면, 비-정사각형 형태의 부호화 단위에 대한 분할 형태 정보를 나타내는 빈 스트링을 이용하여 신택스를 결정하는 과정에서, 복호화부 (120)는 비-정사각형 형태의 부호화 단위를 분할하지 않는 경우에는 0의 값을 가지는 하나의 빈을 이용하여 분할 형태 정보에 대한 신택스를 결정할 수 있다. 즉, 블록 형태 정보가 현재 부호화 단위는 비-정사각형 형태임을 나타내는 경우, 분할 형태 정보에 대한 빈 스트링의 첫번째 빈은, 비-정사각형 형태의 부호화 단위가 분할되지 않는 경우 0이고, 2개 또는 3개의 부호화 단위로 분할되는 경우 1일 수 있다. 이에 따라 비-정사각형의 부호화 단위에 대한 분할 형태 정보의 빈 스트링의 첫번째 빈이 0일 확률은 1/3, 1일 확률은 2/3일 수 있다. 상술하였듯이 복호화부 (120)는 비-정사각형 형태의 부호화 단위가 분할되지 않는 것을 나타내는 분할 형태 정보는 0의 값을 가지는 1비트의 빈 스트링만을 표현될 수 있으므로, 복호화부 (120)는 분할 형태 정보의 첫번째 빈이 1인 경우에만 두번째 빈이 0인지 1인지 판단하여 분할 형태 정보에 대한 신택스를 결정할 수 있다. 일 실시예에 따라 복호화부 (120)는 분할 형태 정보에 대한 첫번째 빈이 1인 경우, 두번째 빈이 0 또는 1일 확률은 서로 동일한 확률인 것으로 보고 빈을 복호화할 수 있다.
일 실시예에 따라 움직임 정보의 복호화 장치 (100) 는 분할 형태 정보에 대한 빈 스트링의 빈을 결정하는 과정에서 각각의 빈에 대한 다양한 확률을 이용할 수 있다. 일 실시예에 따라 복호화부 (120)는 비-정사각형 블록의 방향에 따라 분할 형태 정보에 대한 빈의 확률을 다르게 결정할 수 있다. 일 실시예에 따라 복호화부 (120)는 현재 부호화 단위의 넓이 또는 긴 변의 길이에 따라 분할 형태 정보에 대한 빈의 확률을 다르게 결정할 수 있다. 일 실시예에 따라 복호화부 (120)는 현재 부호화 단위의 형태 및 긴 변의 길이 중 적어도 하나에 따라 분할 형태 정보에 대한 빈의 확률을 다르게 결정할 수 있다.
일 실시예에 따라 복호화부 (120)는 소정 크기 이상의 부호화 단위들에 대하여는 분할 형태 정보에 대한 빈의 확률을 동일한 것으로 결정할 수 있다. 예를 들면, 부호화 단위의 긴 변의 길이를 기준으로 64샘플 이상의 크기의 부호화 단위들에 대하여는 분할 형태 정보에 대한 빈의 확률이 동일한 것으로 결정할 수 있다.
일 실시예에 따라 복호화부 (120)는 분할 형태 정보의 빈 스트링을 구성하는 빈들에 대한 초기 확률은 슬라이스 타입(예를 들면, I 슬라이스, P 슬라이스 또는 B 슬라이스)에 기초하여 결정될 수 있다.
도 20는 루프 필터링을 수행하는 영상 부호화 및 복호화 시스템의 블록도를 나타낸 도면이다.
영상 부호화 및 복호화 시스템(2000)의 부호화단(2010)은 영상의 부호화된 비트스트림을 전송하고, 복호화단(2050)은 비트스트림을 수신하여 복호화함으로써 복원 영상을 출력한다. 여기서 부호화단(2010)은 후술할 움직임 정보의 부호화 장치 (200) 에 유사한 구성일 수 있고, 복호화단(2050)은 움직임 정보의 복호화 장치 (100) 에 유사한 구성일 수 있다.
부호화단(2010)에서, 예측 부호화부(2015)는 인터 예측 및 인트라 예측을 통해 참조 영상을 출력하고, 변환 및 양자화부(2020)는 참조 영상과 현재 입력 영상 간의 레지듀얼 데이터를 양자화된 변환 계수로 양자화하여 출력한다. 엔트로피 부호화부(2025)는 양자화된 변환 계수를 부호화하여 변환하고 비트스트림으로 출력한다. 양자화된 변환 계수는 역양자화 및 역변환부(2030)를 거쳐 공간 영역의 데이터로 복원되고, 복원된 공간 영역의 데이터는 디블로킹 필터링부(2035) 및 루프 필터링부(2040)를 거쳐 복원 영상으로 출력된다. 복원 영상은 예측 부호화부(2015)를 거쳐 다음 입력 영상의 참조 영상으로 사용될 수 있다.
복호화단(2050)으로 수신된 비트스트림 중 부호화된 영상 데이터는, 엔트로피 복호화부(2055) 및 역양자화 및 역변환부(2060)를 거쳐 공간 영역의 레지듀얼 데이터로 복원된다. 예측 복호화부(2075)로부터 출력된 참조 영상 및 레지듀얼 데이터가 조합되어 공간 영역의 영상 데이터가 구성되고, 디블로킹 필터링부(2065) 및 루프 필터링부(2070)는 공간 영역의 영상 데이터에 대해 필터링을 수행하여 현재 원본 영상에 대한 복원 영상을 출력할 수 있다. 복원 영상은 예측 복호화부(2075)에 의해 다음 원본 영상에 대한 참조 영상으로서 이용될 수 있다.
부호화단(2010)의 루프 필터링부(2040)는 사용자 입력 또는 시스템 설정에 따라 입력된 필터 정보를 이용하여 루프 필터링을 수행한다. 루프 필터링부(2040)에 의해 사용된 필터 정보는 엔트로피 부호화부(2010)로 출력되어, 부호화된 영상 데이터와 함께 복호화단(2050)으로 전송된다. 복호화단(2050)의 루프 필터링부(2070)는 복호화단(2050)으로부터 입력된 필터 정보에 기초하여 루프 필터링을 수행할 수 있다.
도 21은 일 실시예에 따른 최대 부호화 단위에 포함되는 필터링 단위들의 일례와 필터링 단위의 필터링 수행 정보를 나타낸 도면이다.
부호화단(2010)의 루프 필터링부(2040) 및 복호화단(2050)의 루프 필터링부(2070)의 필터링 단위가, 도 3 내지 도 5를 통해 전술한 일 실시예에 따른 부호화 단위와 유사한 데이터 단위로 구성된다면, 필터 정보는 필터링 단위를 나타내기 위한 데이터 단위의 블록 형태 정보 및 분할 형태 정보, 그리고 필터링 단위에 대한 루프 필터링 수행 여부를 나타내는 루프 필터링 수행 정보를 포함할 수 있다.
일 실시예에 따른 최대 부호화 단위(2100)에 포함된 필터링 단위들은 최대 부호화 단위(2100)에 포함된 부호화 단위들과 동일한 블록 형태 및 분할 형태를 가질 수 있다. 또한, 일 실시예에 따른 최대 부호화 단위(2100)에 포함된 필터링 단위들은 최대 부호화 단위(2100)에 포함된 부호화 단위들의 크기를 기준으로 분할될 수 있다. 도 21을 참조하여 예를 들면, 필터링 단위들은 심도 D의 정사각형 형태의 필터링 단위(2140), 심도 D의 비-정사각형 형태의 필터링 단위(2132, 2134), 심도 D+1의 정사각형 형태의 필터링 단위(2112, 2114, 2116, 2152, 2154, 2164), 심도 D+1의 비-정사각형 형태의 필터링 단위(2162, 2166), 심도 D+2의 정사각형 형태의 필터링 단위(2122, 2124, 2126, 2128)를 포함할 수 있다.
최대 부호화 단위(2100)에 포함된 필터링 단위들의 블록 형태 정보, 분할 형태 정보(심도) 및 루프 필터링 수행 정보는 아래 표 1과 같이 부호화될 수 있다.
Figure PCTKR2016013624-appb-T000001
일 실시예에 따른 블록 형태 정보 및 블록 분할 정보에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 과정은, 도 13을 통해 전술한 바와 같다. 일 실시예에 따른 필터링 단위들의 루프 필터링 수행 정보는, 플래그 값이 1인 경우 해당 필터링 단위에 대해 루프 필터링이 수행됨을 나타내며, 0인 경우 루프 필터링이 수행되지 않음을 나타낸다. 표 1을 참조하면, 루프 필터링부(2040, 2070)에 의해 필터링의 대상이 되는 필터링 단위를 결정하기 위한 데이터 단위의 정보들은 필터 정보로서 모두 부호화되어 전송될 수 있다.
일 실시예에 따라 구성된 부호화 단위들은, 원본 영상과의 오차를 최소화하는 형태로 구성된 부호화 단위이므로, 부호화 단위 내에서 공간적 상관도가 높다고 예상된다. 따라서, 일 실시예에 따른 부호화 단위에 기반하여 필터링 단위가 결정됨으로써, 부호화 단위의 결정과 별도로 필터링 단위를 결정하는 동작이 생략될 수도 있다. 또한 이에 따라, 일 실시예에 따른 부호화 단위에 기반하여 필터링 단위를 결정함으로써 필터링 단위의 분할 형태를 결정하기 위한 정보를 생략할 수 있으므로 필터 정보의 전송 비트레이트를 절약할 수 있다.
전술한 실시예에서는 필터링 단위가 일 실시예에 따른 부호화 단위에 기반하여 결정되는 것으로 설명하였지만, 부호화 단위에 기반하여 필터링 단위의 분할을 수행하다가 임의의 심도에서 더 이상 분할하지 않고 해당 심도까지만 필터링 단위의 형태가 결정될 수도 있다.
전술한 실시예에 개시된 필터링 단위의 결정은 루프 필터링 뿐만 아니라, 디블로킹 필터링, 적응적 루프 필터링 등 다양한 실시예에도 적용될 수 있다.
일 실시예에 따라 움직임 정보의 복호화 장치 (100) 는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 현재 부호화 단위를 분할할 수 있으며, 블록 형태 정보는 정사각형 형태만을 이용하는 것으로 미리 결정되고, 분할 형태 정보는 분할하지 않거나 또는 4개의 정사각형 형태의 부호화 단위로 분할됨을 나타낼 수 있는 것으로 미리 결정될 수 있다. 즉, 현재 부호화 단위는 상기 블록 형태 정보에 따르면 부호화 단위는 항상 정사각형 형태를 가지고, 상기 분할 형태 정보에 기초하여 분할되지 않거나 4개의 정사각형 형태의 부호화 단위들로 분할될 수 있다. 움직임 정보의 복호화 장치 (100) 는 이러한 블록 형태 및 분할 형태만을 이용하는 것으로 미리 결정된 소정의 부호화 방법을 이용하여 생성된 비트스트림을 비트스트림 획득부를 통해 획득할 수 있고, 복호화부 (120)는 미리 결정된 블록 형태 및 분할 형태만을 이용할 수 있다. 이러한 경우 움직임 정보의 복호화 장치 (100) 는 상술한 소정의 부호화 방법과 유사한 소정의 복호화 방법을 이용함으로써 소정의 부호화 방법과의 호환성 문제를 해결할 수 있다. 일 실시예에 따라 움직임 정보의 복호화 장치 (100) 는 블록 형태 정보 및 분할 형태 정보가 나타낼 수 있는 다양한 형태들 중 미리 결정된 블록 형태 및 분할 형태만을 이용하는 상술한 소정의 복호화 방법을 이용하는 경우, 블록 형태 정보는 정사각형 형태만을 나타내게 되므로 움직임 정보의 복호화 장치 (100) 는 비트스트림으로부터 블록 형태 정보를 획득하는 과정을 생략할 수 있다. 상술한 소정의 복호화 방법을 이용할 것인지 여부를 나타내는 신택스가 이용될 수 있고, 이러한 신택스는 시퀀스, 픽쳐, 슬라이스 단위, 최대부호화단위 등 복수개의 부호화 단위를 포함할 수 있는 다양한 형태의 데이터 단위마다 비트스트림으로부터 획득될 수 있다. 즉, 비트스트림 획득부는 소정의 복호화 방법의 사용 여부를 나타내는 신택스에 기초하여 블록 형태 정보를 나타내는 신택스를 비트스트림으로부터 획득하는지 여부를 결정할 수 있다.
도 23은 일 실시예에 따른 부호화 단위의 Z 스캔 순서에 따른 인덱스를 도시한다.
일 실시예에 따른 움직임 정보의 복호화 장치 (100) 는, 상위 데이터 단위에 포함된 하위 데이터 단위들을 Z 스캔 순서에 따라 스캔할 수 있다. 또한, 일 실시예에 따른 움직임 정보의 복호화 장치 (100) 는 최대 부호화 단위 또는 프로세싱 블록에 포함되는 부호화 단위 내의 Z 스캔 인덱스에 따라 데이터를 순차적으로 액세스할 수 있다.
일 실시예에 따른 움직임 정보의 복호화 장치 (100) 가 기준 부호화 단위를 적어도 하나의 부호화 단위로 분할할 수 있음은 도 3 내지 도 4를 참조하여 전술한 바와 같다. 이 때, 기준 부호화 단위 내에는 정사각형 형태의 부호화 단위들과 비-정사각형 형태의 부호화 단위들이 혼재할 수 있다. 일 실시예에 따른 움직임 정보의 복호화 장치 (100) 는, 기준 부호화 단위 내의 각 부호화 단위에 포함된 Z 스캔 인덱스에 따라 데이터 액세스를 수행할 수 있다. 이 때, 기준 부호화 단위 내에 비-정사각형 형태의 부호화 단위가 존재하는지 여부에 따라 Z 스캔 인덱스를 적용하는 방식이 상이해질 수 있다.
일 실시예에 따라, 기준 부호화 단위 내에 비-정사각형 형태의 부호화 단위가 존재하지 않는 경우, 기준 부호화 단위 내의 하위 심도의 부호화 단위들끼리는 연속된 Z 스캔 인덱스를 가질 수 있다. 예를 들어, 일 실시예에 따라 상위 심도의 부호화 단위는 하위 심도의 부호화 단위 4 개를 포함할 수 있다. 여기서, 4 개의 하위 심도의 부호화 단위들은 서로 인접하는 경계가 연속적일 수 있으며, 각각의 하위 심도의 부호화 단위들은 Z 스캔 순서를 나타내는 인덱스에 따라 Z 스캔 순서로 스캔될 수 있다. 일 실시예에 따른 Z 스캔 순서를 나타내는 인덱스는 각 부호화 단위에 대해 Z 스캔 순서에 따라 증가하는 수로 설정될 수 있다. 이 경우, 동일한 심도의 심도별 부호화 단위들끼리 Z 스캔 순서에 따라 스캔이 가능하다.
일 실시예에 따라, 기준 부호화 단위 내에 비-정사각형 형태의 부호화 단위가 적어도 하나 이상 존재하는 경우, 움직임 정보의 복호화 장치 (100) 는 기준 부호화 단위 내의 부호화 단위들을 각각 서브 블록들로 분할하여, 분할된 서브 블록들에 대해 Z 스캔 순서에 따른 스캔을 수행할 수 있다. 예를 들어, 기준 부호화 단위 내에 수직 방향 또는 수평 방향의 비-정사각형 형태의 부호화 단위가 존재하는 경우 분할된 서브 블록들을 이용하여 Z 스캔을 수행할 수 있다. 또한, 예를 들어, 기준 부호화 단위 내에서 홀수 개의 부호화 단위들로 분할이 수행된 경우 서브 블록들을 이용하여 Z 스캔을 수행할 수 있다. 서브 블록은, 더 이상 분할되지 않는 부호화 단위 또는 임의의 부호화 단위가 분할된 것으로서, 정사각형 형태일 수 있다. 예를 들어, 정사각형 형태의 부호화 단위로부터 4개의 정사각형 형태의 서브 블록들이 분할될 수 있다. 또한, 예를 들어, 비-정사각형 형태의 부호화 단위로부터는 2 개의 정사각형 형태의 서브 블록들이 분할될 수 있다.
도 23을 참조하여 예를 들면, 일 실시예에 따른 움직임 정보의 복호화 장치 (100) 는, 부호화 단위(2300) 내에서 하위 심도의 부호화 단위들(2302, 2304, 2306, 2308, 2310)을 Z 스캔 순서에 따라 스캔할 수 있다. 부호화 단위(2300) 및 부호화 단위(2302, 2304, 2306, 2308, 2310)는, 각각 상대적으로 상위 부호화 단위 및 하위 부호화 단위이다. 부호화 단위(2300)는 수평 방향의 비-정사각형 형태의 부호화 단위(2306, 2310)를 포함한다. 이들 비-정사각형 형태의 부호화 단위들(2306, 2310)은 인접한 정사각형 형태의 부호화 단위(2302, 2304)와의 경계가 불연속적이다. 또한, 부호화 단위(2308)는 정사각형 형태이며, 비-정사각형 형태의 부호화 단위가 홀수 개로 분할 시 중간에 위치한 부호화 단위이다. 비-정사각형 형태의 부호화 단위들(2306, 2310)과 마찬가지로, 부호화 단위(2308)는 인접한 정사각형 형태의 부호화 단위(2302, 2304)와의 경계가 불연속적이다. 부호화 단위(2300) 내에 비-정사각형 형태의 부호화 단위(2306, 2310)가 포함되거나 비-정사각형 형태의 부호화 단위가 홀수 개로 분할 시 중간에 위치한 부호화 단위(2308)가 포함된 경우, 부호화 단위들 간에 인접하는 경계가 불연속적이기 때문에 연속적인 Z 스캔 인덱스가 설정될 수 없다. 따라서, 움직임 정보의 복호화 장치 (100) 는 부호화 단위들을 서브 블록들로 분할함으로써 Z 스캔 인덱스를 연속적으로 설정할 수 있다. 또한, 움직임 정보의 복호화 장치 (100) 는, 비-정사각형 형태의 부호화 단위(2306, 2310) 또는 홀수 개로 분할된 비-정사각형 형태의 부호화 단위의 중간에 위치한 부호화 단위(2308)에 대해 연속된 Z 스캔을 수행할 수 있다.
도 23에 도시된 부호화 단위(2320)는 부호화 단위(2300) 내의 부호화 단위들(2302, 2304, 2306, 2308, 2310)을 서브 블록들로 분할한 것이다. 서브 블록들 각각에 대해 Z 스캔 인덱스가 설정될 수 있고, 서브 블록들 간의 인접하는 경계는 연속적이므로, 서브 블록들끼리 Z 스캔 순서에 따라 스캔이 가능하다. 예를 들어, 일 실시예에 따른 복호화 장치에서, 부호화 단위(2308)는 서브 블록들(2322, 2324, 2326, 2328)로 분할될 수 있다. 이 때, 서브 블록(2322, 2324)은 서브 블록(2330)에 대한 데이터 처리 이후에 스캔될 수 있으며, 서브 블록(2326, 2328)은 서브 블록(2332)에 대한 데이터 처리 이후에 스캔될 수 있다. 또한, 각각의 서브 블록들끼리 Z 스캔 순서에 따라 스캔될 수 있다.
전술한 실시예에서, 데이터 단위들에 대해 Z 스캔 순서에 따라 스캔하는 것은, 데이터 저장, 데이터 로딩, 데이터 액세스 등을 위한 것일 수 있다.
또한, 전술한 실시예에서는, 데이터 단위들을 Z 스캔 순서에 따라 스캔할 수 있음을 설명하였지만, 데이터 단위들의 스캔 순서는 래스터 스캔, N 스캔, 우상향 대각 스캔, 수평적 스캔, 수직적 스캔 등 다양한 스캔 순서로 수행될 수 있고, Z 스캔 순서에 한정하여 해석되는 것은 아니다.
또한, 전술한 실시예에서는, 기준 부호화 단위 내의 부호화 단위들에 대해 스캔을 수행하는 것으로 설명하였지만, 이에 한정하여 해석되어서는 안되며, 스캔 수행의 대상은 최대 부호화 단위 또는 프로세싱 블록 내의 임의의 블록일 수 있다.
또한, 전술한 실시예에서는, 비-정사각형 형태의 블록이 적어도 하나 이상 존재하는 경우에만 서브 블록들로 분할하여 Z 스캔 순서에 따른 스캔을 수행하는 것으로 설명하였지만, 단순화된 구현을 위해 비-정사각형 형태의 블록이 존재하지 않는 경우에도 서브 블록들을 분할하여 Z 스캔 순서에 따른 스캔을 수행할 수도 있다.
일 실시예에 따른 움직임 정보의 복호화 장치 (100) 는, 부호화 단위에 대한 인터 예측 또는 인트라 예측을 수행하여 예측 데이터를 생성하고, 현재 부호화 단위에 포함된 변환 단위에 대해 역변환을 수행하여 레지듀얼 데이터를 생성하며, 생성된 예측 데이터와 레지듀얼 데이터를 이용하여 현재 부호화 단위를 복원할 수 있다.
일 실시예에 따른 부호화 단위의 예측 모드는 인트라 모드, 인터 모드 및 스킵 모드 중 적어도 하나일 수 있다. 일 실시예에 따라, 부호화 단위 마다 독립적으로 예측 모드가 선택될 수 있다.
일 실시예에 따른 2Nx2N 형태의 부호화 단위가 분할하여 두 개의 2NxN 또는 두 개의 Nx2N 형태의 부호화 단위들로 분할된 경우, 이들 각각의 부호화 단위에 대해서 인터 모드 예측 및 인트라 모드 예측이 별개로 수행될 수도 있다. 또한, 일 실시예에 따른 2NxN 또는 Nx2N 형태의 부호화 단위에 대해서는 스킵 모드가 적용될 수도 있다.
한편, 일 실시예에 따른 움직임 정보의 복호화 장치 (100) 는, 8x4 또는 4x8 형태의 부호화 단위의 스킵 모드에서 양방향 예측(bi-prediction)의 수행이 허용될 수도 있다. 스킵 모드에서는 부호화 단위에 대해 스킵 모드 정보만을 전송받기 때문에 해당 부호화 단위에 대한 레지듀얼 데이터의 이용이 생략된다. 따라서, 이 경우 역양자화 및 역변환에 대한 오버헤드(overhead)를 절약할 수 있다. 그 대신, 일 실시예에 따른 움직임 정보의 복호화 장치 (100) 는 스킵 모드가 적용되는 부호화 단위에 대해 양방향 예측을 허용하여 복호화 효율을 높일 수 있다. 또한, 일 실시예에 따른 움직임 정보의 복호화 장치 (100) 는 8x4 또는 4x8 형태의 부호화 단위에 대해 양방향 예측을 허용하되, 움직임 보상 단계에서 보간 탭(interpolation tap) 수를 상대적으로 적게 설정하여 메모리 대역폭을 효율적으로 사용할 수 있다. 일 예로, 8-탭의 보간 필터를 사용하는 대신 8 미만의 탭 수의 보간 필터(예를 들어, 2-탭 보간 필터)를 사용할 수도 있다.
또한, 일 실시예에 따른 움직임 정보의 복호화 장치 (100) 는 현재 부호화 단위에 포함된 영역을 미리설정된 형태로 분할(예를 들어, 사선 기반 분할)하여 분할된 각 영역에 대한 인트라 또는 인터 예측 정보를 시그널링할 수도 있다.
일 실시예에 따른 움직임 정보의 복호화 장치 (100) 는 인트라 모드를 이용하여 현재 부호화 단위의 예측 샘플을 현재 부호화 단위의 주변 샘플을 이용하여 획득할 수 있다. 이 때, 인트라 예측은 주변의 이미 재구성된 샘플들을 사용하여 예측을 수행하는데 이러한 샘플들을 참조 샘플이라고 한다.
도 24는 일 실시예에 따른 부호화 단위의 인트라 예측을 위한 참조 샘플을 나타내는 도면이다. 도 24를 참조하면, 블록 형태가 비-사각형 형태이고 수평 방향의 길이가 w, 수직 방향의 길이가 h인 현재 부호화 단위(2300)에 대하여, 상단의 참조 샘플(2302)이 w+h 개, 좌측의 참조 샘플(2304)이 w+h 개, 좌측 상단의 참조 샘플(2306)에 한 개로 총 2(w+h)+1 개의 참조 샘플이 필요하다. 참조 샘플의 준비를 위해, 참조 샘플이 존재하지 않는 부분에 대해 패딩을 수행하는 단계를 거치며, 재구성된 참조 샘플에 포함된 양자화 에러를 줄이기 위한 예측 모드별 참조 샘플 필터링 과정을 거칠 수도 있다.
전술한 실시예에서는 현재 부호화 단위의 블록 형태가 비-사각형 형태인 경우의 참조 샘플의 개수를 설명하였으나, 이러한 참조 샘플의 개수는 현재 부호화 단위가 사각형 형태의 블록 형태인 경우에도 동일하게 적용된다.
상술한 다양한 실시예들은 움직임 정보의 복호화 장치 (100) 가 수행하는 영상 복호화 방법과 관련된 동작을 설명한 것이다. 이하에서는 이러한 영상 복호화 방법에 역순의 과정에 해당하는 영상 부호화 방법을 수행하는 움직임 정보의 부호화 장치 (200) 의 동작을 다양한 실시예를 통해 설명하도록 한다.
도 2 는 일 실시예에 따라 분할된 서브 단위들의 움직임 관련 정보를 생성하는 움직임 정보의 부호화 장치의 블록도를 도시한다.
도 2 를 참조하면, 움직임 정보의 부호화 장치 (200) 는 일 실시예에 따라 현재 예측 단위에 대한 움직임 예측을 수행하여 현재 예측 단위에 대한 움직임 정보를 획득하는 움직임 정보 획득부 (210), 현재 예측 단위와 공간적으로 연관된 공간적 예측 후보 및 시간적으로 연관된 시간적 예측 후보를 생성하고, 현재 예측 단위를 복수개의 서브 단위들로 분할하고, 공간적 예측 후보 및 시간적 예측 후보 중 서브 단위들의 예측을 위한 움직임 관련 정보를 결정하기 위한 정보를 생성하는 비트스트림 생성부 (220), 및 획득된 정보를 이용하여 서브 단위들의 예측을 위한 움직임 관련 정보를 부호화하는 부호화부를 포함할 수 있다.
일 실시예에 따라, 비트스트림 생성부 (220) 가 생성하는 움직임 관련 정보를 결정하기 위한 정보는 공간적 정보 및 시간적 정보를 포함할 수 있다. 일 실시예에 따라, 공간적 정보는 현재 예측 단위의 좌측 및 상측에 위치한 공간적 예측 후보 중 서브 단위들에 이용되는 공간적 예측 후보의 방향을 가리킬 수 있다. 일 실시예에 따라, 시간적 정보는 현재 예측 단위의 예측을 위해 이용되는 이전 픽처의 참조 예측 단위를 가리킬 수 있다.
일 실시예에 따라, 비트스트림 생성부 (220) 는 인터 모드의 움직임 벡터 예측 방식을 이용하여, 현재 예측 단위와 병합될 후보 단위를 결정할 수 있다. 예를 들어, 현재 예측 단위의 모든 경계에 접하는 공간적 예측 후보 중에서, 복수 개의 공간적 예측 후보가 결정될 수 있다. 일 실시예에 따라, 비트스트림 생성부 (220) 는 결정된 복수 개의 공간적 예측 후보 중 서브 단위에 이용될 공간적 예측 후보를 공간적 정보를 이용하여 결정할 수 있다.
일 실시예에 따라, 비트스트림 생성부 (220) 는 공간적 정보를 이용하여 현재 예측 단위의 좌측 경계에 접하는 모든 이웃 공간적 예측 후보 및 상단 경계에 접하는 모든 이웃 공간적 예측 후보 중에서, 현재 예측 단위와 병합될 하나의 공간적 예측 후보를 검색하여 결정할 수 있다.
또한, 일 실시예에 따라, 비트스트림 생성부 (220) 는 공간적 정보를 이용하여 현재 예측 단위의 좌측 공간적 예측 후보 및 상단 공간적 예측 후보에 추가적으로, 현재 예측 단위의 모서리에 접하는 좌측 상단 공간적 예측 후보, 우측 상단 공간적 예측 후보, 및 우측 하단 공간적 예측 후보를 포함하는 공간적 예측 후보군 중에서 현재 예측 단위와 병합될 하나의 공간적 예측 후보를 검색하여 결정할 수 있다.
일 실시예에 따라, 비트스트림 생성부 (220) 는 좌측 공간적 예측 후보군, 상단 공간적 예측 후보군, 및 모서리 공간적 예측 후보군 중 하나의 공간적 예측 후보를 결정하는 방식은 미리 설정된 (implicit) 방식에 따를 수 있다. 예를 들어, 미리 설정된 방식에 따라, 비트스트림 생성부 (220) 는 제 1 공간적 예측 후보군, 제 2 공간적 예측 후보군, 또는 제 3 공간적 예측 후보군 중에서 현재 예측 단위의 서브 단위와 동일한 참조 인덱스를 갖는 공간적 예측 후보를 검색하여, 병합될 하나의 공간적 예측 후보로서 결정할 수 있다.
또한, 예를 들어, 비트스트림 생성부 (220) 는 제 1 공간적 예측 후보군, 제 2 공간적 예측 후보군, 또는 제 3 공간적 예측 후보군 중에서 각각 상위 이웃 예측 단위들의 공간적 예측 후보군에서 예측 모드가 인터 모드인 이웃 예측 단위를 검색하여, 현재 예측 단위의 서브 단위와 병합될 하나의 공간적 예측 후보로서 결정할 수 있다.
일 실시예에 따라, 비트스트림 생성부 (220) 는 제 1 공간적 예측 후보군 중 하나를 좌측 공간적 예측 후보로, 제 2 공간적 예측 후보군 중 하나를 상단 공간적 예측 후보로, 제 3 공간적 예측 후보군 중 하나를 모서리 공간적 예측 후보로 결정하고 현재 예측 단위와 병합될 하나의 공간적 예측 후보로서 결정할 수 있다.
도 3 은 일 실시예에 따라 예측 단위가 하나 이상의 서브 단위들로 분할되는 것을 도시한다.
도 3 과 관련하여 부호화 동작은 상술한 움직임 정보의 복호화 장치 (100) 의 동작에 반대되는 과정일 수 있으므로 자세한 설명은 생략하도록 한다.
도 4 는 일 실시예에 따라 각각의 서브 단위에 공간적 예측 후보의 움직임 관련 정보를 생성하는 것을 도시한다.
일 실시예에 따라, 비트스트림 생성부 (220) 는 서브 단위들의 움직임 관련 정보를 결정하기 위한 정보 중 공간적 정보를 이용하여 서브 단위들을 포함하는 현재 예측 단위와 병합될 공간적 예측 후보를 생성할 수 있다.
도 4 와 관련하여 부호화 동작은 상술한 움직임 정보의 복호화 장치 (100) 의 동작에 반대되는 과정일 수 있으므로 자세한 설명은 생략하도록 한다.
도 5 는 일 실시예에 따라 예측 단위에 공간적으로 연관된 공간적 예측 후보의 이용 가능성을 판단하는 것을 도시한다.
도 5 와 관련하여 부호화 동작은 상술한 움직임 정보의 복호화 장치 (100) 의 동작에 반대되는 과정일 수 있으므로 자세한 설명은 생략하도록 한다.
도 6 은 일 실시예에 따라 시간적 정보를 이용하여 이전 픽처의 참조 예측 단위의 움직임 관련 정보를 획득하는 것을 도시한다.
일 실시예에 따라, 비트스트림 생성부 (220) 는 현재 예측 단위의 예측을 위해 이용되는 이전 픽처의 참조 예측 단위를 가리키는 시간적 정보를 생성할 수 있다. 예를 들어, 비트스트림 생성부 (220) 는 시간적 정보를 이용하여 이전 픽처의 참조 예측 단위를 결정할 수 있다. 비트스트림 생성부 (220) 는 참조 예측 단위를 하나 이상의 참조 서브 단위들로 분할할 수 있고, 분할된 참조 서브 단위들 중 현재 서브 단위의 예측을 위해 이용되는 현재 서브 단위에 대응되는 참조 서브 단위를 결정할 수 있다.
일 실시예에 따라, 비트스트림 생성부 (220) 는 현재 예측 단위의 예측 위해 이용된 하나 이상의 이전 픽처들의 하나 이상의 참조 예측 단위들을 가리키는 시간적 정보를 생성할 수 있다.
도 6 과 관련하여 부호화 동작은 상술한 움직임 정보의 복호화 장치 (100) 의 동작에 반대되는 과정일 수 있으므로 자세한 설명은 생략하도록 한다.
도 7 은 일 실시예에 따라 서브 단위에 인접한 하나 이상의 공간적 예측 후보의 움직임 관련 정보를 획득하는 것을 도시한다.
도 7 과 관련하여 부호화 동작은 상술한 움직임 정보의 복호화 장치 (100) 의 동작에 반대되는 과정일 수 있으므로 자세한 설명은 생략하도록 한다.
도 9 는 일 실시예에 따라 움직임 관련 정보를 결정하기 위한 정보를 이용하여 서브 단위들의 움직임 관련 정보를 생성하는 움직임 정보의 부호화 방법의 흐름도를 도시한다.
단계 S910 에서 움직임 정보의 부호화 장치 (200) 는 현재 예측 단위에 대한 움직임 예측을 수행하여 상기 현재 예측 단위에 대한 움직임 정보를 획득할 수 있다.
단계 S920 에서 움직임 정보의 부호화 장치 (200) 는 현재 예측 단위와 공간적으로 연관된 공간적 예측 후보 및 시간적으로 연관된 시간적 예측 후보를 생성할 수 있다.
단계 S930 에서 움직임 정보의 부호화 장치 (200) 는 현재 예측 단위를 하나 이상의 서브 단위들로 분할할 수 있다.
단계 S940 에서 움직임 정보의 부호화 장치 (200) 는 공간적 예측 후보의 움직임 관련 정보 및 시간적 예측 후보의 움직임 관련 정보 중 서브 단위들의 움직임 관련 정보를 결정하기 위한 정보를 생성할 수 있다.
단계 S950 에서 움직임 정보의 부호화 장치 (200) 는 생성된 정보를 이용하여 서브 단위들의 예측을 위한 움직임 관련 정보를 부호할 수 있다.
도 10은 일 실시예에 따라 움직임 정보의 부호화 장치 (200) 가 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
일 실시예에 따라 부호화부 (230) 정사각형 형태의 제1 부호화 단위(1000)를 비-정사각형 형태의 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)로 분할하는 것으로 결정할 수 있다. 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)는 독립적으로 분할될 수 있다. 이에 따라 부호화부 (230)는 제2 부호화 단위(1010a, 1010b, 1020a, 1020b) 각각을 복수개의 부호화 단위로 분할하거나 분할하지 않는 것을 결정할 수 있다. 도 10과 관련한 움직임 정보의 부호화 장치 (200) 가 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족 시 분할될 수 있는 형태가 제한하는 동작은, 도 10과 관련하여 상술한 움직임 정보의 복호화 장치 (100) 의 동작에 반대되는 것일 수 있으므로 자세한 설명은 생략하도록 한다.
도 11은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 움직임 정보의 부호화 장치 (200) 가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다. 이와 관련한 움직임 정보의 부호화 장치 (200) 의 동작은, 도 11과 관련하여 상술한 움직임 정보의 복호화 장치 (100) 의 동작에 반대되는 것일 수 있으므로 자세한 설명은 생략하도록 한다.
도 12는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
일 실시예에 따라 부호화부 (230)는 정사각형 형태의 제1 부호화 단위(1200)를 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할할 수 있다. 일 실시예에 따라 비트스트림 생성부 (220)는 제1 부호화 단위(1200)가 정사각형 형태임을 나타내는 블록 형태 정보 및 제1 부호화 단위(1200)가 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할됨을 나타내는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다.
일 실시예에 따라 부호화부 (230)는 제1 부호화 단위(1200)를 분할하여 제2 부호화 단위(예를 들면, 1210a, 1210b, 1220a, 1220b, 1230a, 1230b, 1230c, 1230d 등)를 결정할 수 있다. 도 12를 참조하면 제1 부호화 단위1200)가 수평 방향 또는 수직 방향만으로 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)는 독립적으로 분할될 수 있다. 예를 들면 부호화부 (230)는 제1 부호화 단위(1200)가 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 제1 부호화 단위(1200)가 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 도 10과 관련한 움직임 정보의 부호화 장치 (200) 의 동작은, 도 10과 관련하여 상술한 움직임 정보의 복호화 장치 (100) 의 동작에 반대되는 것일 수 있으므로 자세한 설명은 생략하도록 한다.
도 13은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다. 움직임 정보의 부호화 장치 (200) 의 부호화부 (230)가 부호화 단위의 심도를 결정하는 과정은, 도 13과 관련하여 상술한 움직임 정보의 복호화 장치 (100) 의 복호화부 (120)가 부호화 단위의 심도를 결정하는 과정에 반대되는 것일 수 있으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 움직임 정보의 부호화 장치 (200) 는 현재 부호화 단위로부터 분할되어 결정된 복수개의 부호화 단위들을 구분하기 위한 인덱스의 값에 기초하여 특정 분할 형태로 분할된 것인지를 결정할 수 있다. 도 14를 참조하면 움직임 정보의 부호화 장치 (200) 는 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)를 분할하여 짝수개의 부호화 단위(1412a, 1412b)를 결정하거나 홀수개의 부호화 단위(1414a, 1414b, 1414c)를 결정할 수 있다. 움직임 정보의 부호화 장치 (200) 는 복수개의 부호화 단위 각각을 구분하기 위하여 각 부호화 단위를 나타내는 인덱스(PID)를 이용할 수 있다. 일 실시예에 따라 PID는 각각의 부호화 단위의 소정 위치의 샘플(예를 들면, 좌측 상단 샘플)에서 획득될 수 있다. 도 14와 관련된 움직임 정보의 부호화 장치 (200) 의 동작은, 도 14와 관련하여 상술한 움직임 정보의 복호화 장치 (100) 의 동작에 반대되는 것일 수 있으므로 자세한 설명은 생략하도록 한다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다. 일 실시예에 따라 부호화부 (230)는 부호화 단위의 재귀적인 분할이 시작되는 소정의 데이터 단위로서 상술한 기준 부호화 단위를 이용할 수 있다. 도 15와 관련하여 움직임 정보의 부호화 장치 (200) 가 기준 부호화 단위를 이용하는 동작은, 도 15와 관련하여 상술한 움직임 정보의 복호화 장치 (100) 가 기준 부호화 단위를 이용하는 동작에 반대되는 것일 수 있으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 움직임 정보의 부호화 장치 (200) 의 비트스트림 생성부 (220)는 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보 중 적어도 하나를 포함하는 비트스트림을 상기 다양한 데이터 단위마다 생성할 수 있다. 정사각형 형태의 기준 부호화 단위(1500)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 3의 현재 부호화 단위(300)가 분할되는 과정을 통해 상술하였고, 비-정사각형 형태의 기준 부호화 단위(1500)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 4의 현재 부호화 단위(400 또는 450)가 분할되는 과정을 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 부호화부 (230)는 소정의 조건에 기초하여 미리 결정되는 일부 데이터 단위에 따라 기준 부호화 단위의 크기 및 형태를 결정하기 위하여, 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용할 수 있다. 즉, 비트스트림 생성부 (220)는 상기 다양한 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 최대부호화단위 등) 중 소정의 조건(예를 들면 슬라이스 이하의 크기를 갖는 데이터 단위)을 만족하는 데이터 단위마다, 기준 부호화 단위의 크기 및 형태의 식별을 위한 인덱스를 포함하는 비트스트림을 생성할 수 있다. 부호화부 (230)는 인덱스를 이용함으로써 상기 소정의 조건을 만족하는 데이터 단위마다 기준 데이터 단위의 크기 및 형태를 결정할 수 있다. 일 실시예에 따라 기준 부호화 단위의 크기 및 형태를 나타내는 인덱스와 관련된 기준 부호화 단위의 크기 및 형태 중 적어도 하나는 미리 결정되어 있을 수 있다. 즉, 부호화부 (230)는 미리 결정된 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 인덱스에 따라 선택함으로써, 인덱스 획득의 기준이 되는 데이터 단위에 포함되는 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 결정할 수 있다. 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용하는 부호화부 (230)의 동작은, 상술한 복호화부 (120)의 동작과 유사한 것일 수 있으므로 자세한 설명은 생략하도록 한다.
도 16은 일 실시예에 따라 픽쳐(1600)에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
일 실시예에 따라 부호화부 (230)는 프로세싱 블록의 크기에 대한 정보를 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 부호화부 (230)는 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있고, 비트스트림 생성부 (220)는 프로세싱 블록의 크기에 대한 정보를 포함하는 비트스트림을 생성할 수 있다. 이러한 프로세싱 블록의 크기는 프로세싱 블록의 크기에 대한 정보가 나타내는 데이터 단위의 소정의 크기일 수 있다.
일 실시예에 따라 움직임 정보의 부호화 장치 (200) 의 비트스트림 생성부 (220)는 프로세싱 블록의 크기에 대한 정보를 포함하는 비트스트림을 특정의 데이터 단위마다 생성할 수 있다. 예를 들면 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트 등의 데이터 단위마다 프로세싱 블록의 크기에 대한 정보를 포함하는 비트스트림을 생성할 수 있다. 즉, 비트스트림 생성부 (220)는 상기 여러 데이터 단위마다 프로세싱 블록의 크기에 대한 정보를 포함하는 비트스트림을 생성할 수 있고, 부호화부 (230)는 상기 프로세싱 블록의 크기에 대한 정보를 이용하여 픽쳐를 분할하는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있으며, 이러한 프로세싱 블록의 크기는 기준 부호화 단위의 정수배의 크기일 수 있다.
일 실시예에 따라 부호화부 (230)는 픽쳐(1600)에 포함되는 프로세싱 블록(1602, 1612)의 크기를 결정할 수 있다. 예를 들면, 부호화부 (230)는 프로세싱 블록의 크기에 대한 정보에 기초하여 프로세싱 블록의 크기를 결정할 수 있다. 도 16을 참조하면, 부호화부 (230)는 일 실시예에 따라 프로세싱 블록(1602, 1612)의 가로크기를 기준 부호화 단위 가로크기의 4배, 세로크기를 기준 부호화 단위의 세로크기의 4배로 결정할 수 있다. 부호화부 (230)는 적어도 하나의 프로세싱 블록 내에서 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다. 프로세싱 블록과 관련된 부호화부 (230)의 동작은, 도 16과 관련하여 상술한 복호화부 (120)의 동작과 유사한 것일 수 있으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 움직임 정보의 부호화 장치 (200) 의 비트스트림 생성부 (220)는 현재 부호화 단위의 형태를 나타내는 블록 형태 정보 또는 현재 부호화 단위를 분할하는 방법을 나타내는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다. 블록 형태 정보 또는 분할 형태 정보는 다양한 데이터 단위와 관련된 비트스트림에 포함될 수 있다. 예를 들면, 움직임 정보의 부호화 장치 (200) 의 비트스트림 생성부 (220)는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header)에 포함된 블록 형태 정보 또는 분할 형태 정보를 이용할 수 있다. 나아가, 움직임 정보의 부호화 장치 (200) 의 비트스트림 생성부 (220)는 블록 형태 정보 또는 분할 형태 정보를 나타내는 신택스를 포함하는 비트스트림을 최대 부호화 단위, 기준 부호화 단위, 프로세싱 블록마다 생성할 수 있다.
일 실시예에 따라 부호화부 (230)는 부호화 단위가 분할될 수 있는 분할 형태의 종류를 소정의 데이터 단위마다 다르게 결정할 수 있다. 움직임 정보의 부호화 장치 (200) 의 부호화부 (230)는 일 실시예에 따라 소정의 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스 등)마다 부호화 단위가 분할될 수 있는 형태들의 조합을 다르게 결정할 수 있다.
도 17은 일 실시예에 따라 부호화 단위가 분할될 수 있는 형태의 조합이 픽쳐마다 서로 다른 경우, 각각의 픽쳐마다 결정될 수 있는 부호화 단위들을 도시한다.
도 17을 참조하면, 부호화부 (230)는 픽쳐마다 부호화 단위가 분할될 수 있는 분할 형태들의 조합을 다르게 결정할 수 있다. 예를 들면, 부호화부 (230)는 영상에 포함되는 적어도 하나의 픽쳐들 중 4개의 부호화 단위로 분할될 수 있는 픽쳐(1700), 2개 또는 4개의 부호화 단위로 분할될 수 있는 픽쳐(1710) 및 2개, 3개 또는 4개의 부호화 단위로 분할될 수 있는 픽쳐(1720)를 이용하여 영상을 복호화 할 수 있다. 부호화부 (230)는 픽쳐(1700)를 4개의 정사각형의 부호화 단위로 분할할 수 있다. 부호화부 (230)는 픽쳐(1710)를 2개 또는 4개의 부호화 단위로 분할할 수 있다. 부호화부 (230)는 픽쳐(1720)를 2개, 3개 또는 4개의 부호화 단위로 분할할 수 있다. 상술한 분할 형태의 조합은 움직임 정보의 부호화 장치 (200) 의 동작을 설명하기 위한 실시예에 불과하므로 상술한 분할 형태의 조합은 상기 실시예에 한정하여 해석되어서는 안되며 소정의 데이터 단위마다 다양한 형태의 분할 형태의 조합이 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 움직임 정보의 부호화 장치 (200) 의 부호화부 (230)는 분할 형태 정보의 조합을 나타내는 인덱스를 이용하여 소정의 데이터 단위마다 부호화 단위가 분할될 수 있는 분할 형태의 조합을 결정할 수 있으며, 이에 따라 소정의 데이터 단위마다 서로 다른 분할 형태의 조합을 이용할 수 있다. 나아가 움직임 정보의 부호화 장치 (200) 의 비트스트림 생성부 (220)는 분할 형태 정보의 조합을 나타내는 인덱스를 포함하는 비트스트림을 소정의 데이터 단위 (예를 들면, 시퀀스, 픽쳐, 슬라이스 등)마다 생성할 수 있다. 예를 들면, 비트스트림 생성부 (220)는 분할 형태 정보의 조합을 나타내는 인덱스를 포함하는 시퀀스 파라미터 세트(Sequence Parameter Set), 픽쳐 파라미터 세트(Picture Parameter Set) 또는 슬라이스
도 18, 도 19는 일 실시예에 따라 바이너리(binary)코드로 표현될 수 있는 분할 형태 정보에 기초하여 결정될 수 있는 부호화 단위의 다양한 형태를 도시한다.
일 실시예에 따라 움직임 정보의 부호화 장치 (200) 의 부호화부 (230)는 부호화 단위를 다양한 형태로 분할할 수 있고, 비트스트림 생성부 (220)를 통해 블록 형태 정보 및 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다. 분할될 수 있는 부호화 단위의 형태는 상술한 실시예들을 통해 설명한 형태들을 포함하는 다양한 형태에 해당할 수 있다. 도 18을 참조하면, 부호화부 (230)는 분할 형태 정보에 기초하여 정사각형 형태의 부호화 단위를 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할할 수 있고, 비-정사각형 형태의 부호화 단위를 수평 방향 또는 수직 방향으로 분할할 수 있다. 움직임 정보의 부호화 장치 (200) 가 이용할 수 있는 분할 형태 정보의 바이너리 코드에 대한 특징은 도 18 및 도 19를 통해 상술한 움직임 정보의 복호화 장치 (100) 의 특징에 해당할 수 있으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따른 움직임 정보의 부호화 장치 (200) 는, 부호화 단위에 대한 인터 예측 또는 인트라 예측을 수행하여 예측 데이터를 생성하고, 현재 부호화 단위에 포함된 변환 단위에 대해 역변환을 수행하여 레지듀얼 데이터를 생성하며, 생성된 예측 데이터와 레지듀얼 데이터를 이용하여 현재 부호화 단위를 부호화할 수 있다.
일 실시예에 따른 부호화 단위의 예측 모드는 인트라 모드, 인터 모드 및 스킵 모드 중 적어도 하나일 수 있다. 일 실시예에 따라, 부호화 단위 마다 독립적으로 예측이 수행되어 오차가 가장 작은 예측 모드가 선택될 수 있다.
일 실시예에 따른 2Nx2N 형태의 부호화 단위가 분할하여 두 개의 2NxN 또는 두 개의 Nx2N 형태의 부호화 단위들로 분할된 경우, 이들 각각의 부호화 단위에 대해서 인터 모드 예측 및 인트라 모드 예측이 별개로 수행될 수도 있다. 또한, 일 실시예에 따라 움직임 정보의 부호화 장치 (200) 의 부호화부 (230)는 부호화 단위가 정사각형 형태인 경우뿐만 아니라, 비-정사각형 형태인 경우에도 CU 스킵 모드(skip mode)를 이용하여 부호화 단위를 부호화할 수 있다. 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 결정될 수 있는 정사각형 형태의 부호화 단위뿐만 아니라 비-정사각형 형태의 부호화 단위의 경우에도 CU 스킵 모드를 이용하여 영상을 복호화 할 수 있음에 따라 상대적으로 더 적응적인 스킵 모드의 이용이 가능하게 됨으로써 영상 부/복호화 효율이 향상될 수 있다. 이러한 비-정사각형 형태의 부호화 단위에서 스킵모드를 이용하는 움직임 정보의 부호화 장치 (200) 의 특징은 움직임 정보의 부호화 장치 (200) 의 스킵모드 이용과 관련하여 상술한 특징과 유사한 것일 수 있으므로 자세한 설명은 생략하도록 한다.
도 22는 일 실시예에 따라 소정의 부호화 방법에 따라 결정된 부호화 단위들 간의 병합(merge) 또는 분할(split)이 수행되는 과정을 도시한다.
일 실시예에 따라 움직임 정보의 부호화 장치 (200) 는 상술한 소정의 부호화 방법을 이용하여, 픽쳐를 분할하는 부호화 단위들을 결정할 수 있다. 예를 들면 움직임 정보의 부호화 장치 (200) 는 부호화 단위의 분할 정보에 기초하여 현재 심도의 부호화 단위를 결정하거나 또는 하위 심도의 4개의 부호화 단위들로 분할할 수 있다. 상술한 바와 같이 움직임 정보의 부호화 장치 (200) 는 일 실시예에 따라 현재 부호화 단위는 항상 정사각형 형태를 가지는 것을 나타내는 블록 형태 정보, 현재 부호화 단위는 분할되지 않음을 나타내거나 4개의 정사각형 형태의 부호화 단위들로 분할되는 것을 나타낼 수 있는 분할 형태 정보를 이용하여 부호화 단위를 결정할 수 있다. 도 22를 참조하면, 상술한 소정의 부호화 방법에 따라 결정된 정사각형의 부호화 단위에 따라 픽쳐(2200, 2220)가 분할될 수 있다.
다만, 상술한 소정의 복호화 단위에 따르는 경우, 현재 부호화 단위가 분할될지 여부는 현재 부호화 단위 내에 포함되는 상대적으로 작은 오브젝트(object)가 표현되기에 적합한지 여부에 따라 결정되기 때문에, 픽쳐 내의 큰 오브젝트와 작은 오브젝트가 하나의 부호화 단위를 통해 부호화 되는 것은 불가능할 수 있다. 여기서 오브젝트란, 픽쳐에 포함된 샘플들의 집합으로서, 유사한 샘플값을 가짐으로써 다른 영역과 구분될 수 있는 샘플들의 영역을 의미할 수 있다. 도 22를 참조하면, 움직임 정보의 부호화 장치 (200) 는 작은 오브젝트(2221)를 복원하기 위하여 제1 부호화 단위(2222)를 4개의 하위 심도의 부호화 단위로 분할함으로써 작은 오브젝트(2221)의 복호화를 위한 부호화 단위를 결정할 수 있다. 하지만, 큰 오브젝트(2223)가 현재 부호화 단위(2222)에 포함되지 않으므로 큰 오브젝트(2223)가 현재 부호화 단위(2222)를 이용하여 복호화 되기에는 부적합하며, 나아가 작은 오브젝트(2221)를 복호화 하기 위해 현재 부호화 단위(2222)가 분할되었기 때문에 결국 큰 오브젝트(2223)의 복호화를 위해 불필요한 부호화 단위의 분할 과정이 수행되어야 하므로 비효율적이다. 즉, 움직임 정보의 부호화 장치 (200) 가 큰 오브젝트(2223)에 대한 부분을 부호화 하기 위하여 하나의 부호화 단위를 이용할 수 있다면 영상 부호화를 효율적으로 수행할 수 있다.
일 실시예에 따라 움직임 정보의 부호화 장치 (200) 의 부호화부 (230)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 현재 부호화 단위를 분할할 수 있으며, 블록 형태 정보는 정사각형 형태만을 이용하는 것으로 미리 결정되고, 분할 형태 정보는 분할하지 않거나 또는 4개의 정사각형 형태의 부호화 단위로 분할됨을 나타낼 수 있는 것으로 미리 결정될 수 있다. 이는 다양한 실시예를 통해 상술한 소정의 부호화 방법에서 이용되는 부호화 단위 결정 과정에 해당할 수 있다. 이 경우 부호화부 (230)는 상기 소정의 부호화 방법을 이용하여 결정된 부호화 단위들을 서로 병합(merge)하거나 결정된 부호화 단위를 분할(split)하기 위하여, 픽쳐에 포함되는 샘플값을 이용할 수 있다. 예를 들면, 부호화부 (230)는 유사한 샘플값을 가지는 부분을 검토하여 픽쳐에 포함되는 다양한 오브젝트들을 검출할 수 있으며, 이렇게 검출된 오브젝트들에 대한 부분에 기초하여 부호화 단위들의 병합/분할 과정을 수행할 수 있다.
도 22를 참조하면 일 실시예에 따라 부호화부 (230)는 상술한 소정의 부호화 방법을 이용하여 픽쳐(2200)를 분할하는 복수개의 부호화 단위를 결정할 수 있다. 다만, 픽쳐에 포함된 유사한 샘플값을 가지는 부분(2201)이 존재함에도 불구하고, 유사 영역을 하나의 부호화 단위가 아닌 복수개의 부호화 단위로 분할하는 과정이 수행되는 경우가 있을 수 있다. 이 경우 부호화부 (230)는 소정의 부호화 방법을 통해 부호화 단위가 결정되었더라도, 이러한 부호화 단위들을 하나의 부호화 단위(2202)로 병합하여 하나의 부호화 단위로서 부호화 할 수 있다. 도 22를 참조하면, 또 다른 실시예로서 부호화부 (230)는 상술한 소정의 부호화 방법을 이용하여, 작은 오브젝트(2221)의 부호화를 위한 부호화 단위(2222)를 4개의 부호화 단위로 분할할 수 있다. 이렇게 분할된 부호화 단위들의 경우 검출된 큰 오브젝트(2223)가 모두 포함될 수 없으므로, 부호화부 (230)는 유사한 샘플값을 가지는 부분을 포함하는 하나의 부호화 단위로 부호화 단위들을 병합(2225)할 수 있다.
일 실시예에 따라 부호화부 (230)는 부호화 단위의 분할 정보를 이용하여 부호화 단위를 분할하지 않거나 4개의 부호화 단위로 분할하는 소정의 부호화 방법을 이용하여 부호화 단위를 결정한 다음, 픽쳐에 포함되는 샘플들의 샘플값을 고려하여 부호화 단위를 다시 분할할 수 있다. 즉, 부호화부(130)는 오브젝트 별로 부호화 단위를 결정하기 위하여, 부호화 단위 간의 병합뿐만 아니라 이미 결정된 부호화 단위를 분할할 수 있다. 도 22를 참조하면, 부호화부(130)는 오브젝트(2223)를 위해 부호화 단위를 병합할 수 있고, 오브젝트(2223)를 위해 최적화된 부호화 단위를 결정하기 위하여 오브젝트(2223)를 위해 병합된 부호화 단위를 다시 분할(2226)할 수 있다. 즉 부호화부 (230)는 분할(2226)과정을 통해 오브젝트(2223)가 포함되지 않는 부분을 오브젝트(2223)와는 별개의 부호화 단위(2227)로 결정할 수 있다.
상술한 움직임 정보의 부호화 장치 (200) 의 동작을 통해 소정의 부호화 방법에 따라 결정된 부호화 단위들 간의 병합(merge) 또는 분할(split)을 수행한 후 영상에 대한 비트스트림을 생성한 경우, 움직임 정보의 복호화 장치 (100) 로서는 이러한 비트스트림을 획득한 후 상술한 영상 부호화 방법의 역순의 동작에 해당하는 영상 복호화 방법을 수행함으로써 영상을 복호화 할 수 있다.
도 23은 일 실시예에 따른 부호화 단위의 Z 스캔 순서에 따른 인덱스를 도시한다.
일 실시예에 따른 움직임 정보의 부호화 장치 (200) 의 부호화부 (230)는, 상위 데이터 단위에 포함된 하위 데이터 단위들을 Z 스캔 순서에 따라 스캔할 수 있다. 또한, 일 실시예에 따른 움직임 정보의 부호화 장치 (200) 는 최대 부호화 단위 또는 프로세싱 블록에 포함되는 부호화 단위 내의 Z 스캔 인덱스에 따라 데이터를 순차적으로 액세스할 수 있다. 일 실시예에 따른 움직임 정보의 부호화 장치 (200) 의 부호화부 (230)가 기준 부호화 단위를 적어도 하나의 부호화 단위로 분할할 수 있음은 도 3 내지 도 4를 참조하여 전술한 바와 같다. 이 때, 기준 부호화 단위 내에는 정사각형 형태의 부호화 단위들과 비-정사각형 형태의 부호화 단위들이 혼재할 수 있다. 움직임 정보의 부호화 장치 (200) 가 부호화 단위의 Z 스캔 순서에 따른 인덱스에 대한 특징은 도 23을 통해 상술한 움직임 정보의 복호화 장치 (100) 의 특징과 유사한 특징일 수 있으므로 자세한 설명은 생략하도록 한다.
이제까지 다양한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.

Claims (15)

  1. 움직임 정보의 복호화 방법에 있어서,
    현재 예측 단위를 결정하는 단계;
    상기 현재 예측 단위와 공간적으로 연관된 공간적 예측 후보 및 시간적으로 연관된 시간적 예측 후보를 획득하는 단계;
    상기 현재 예측 단위를 하나 이상의 서브 단위들로 분할하는 단계;
    상기 공간적 예측 후보의 움직임 관련 정보 및 상기 시간적 예측 후보의 움직임 관련 정보 중 현재 서브 단위의 움직임 관련 정보를 결정하기 위한 정보를 비트스트림으로부터 획득하는 단계; 및
    상기 움직임 관련 정보를 결정하기 위한 정보를 이용하여 상기 현재 서브 단위의 움직임 관련 정보를 획득하는 단계를 포함하고,
    상기 움직임 관련 정보를 결정하기 위한 정보는 공간적 정보 및 시간적 정보를 포함하고,
    상기 공간적 정보는 상기 현재 예측 단위에 인접한 공간적 예측 후보 중 상기 서브 단위들에 이용되는 공간적 예측 후보의 방향을 가리키며,
    상기 시간적 정보는 상기 현재 예측 단위의 예측을 위해 이용되는 이전 픽처의 참조 예측 단위를 가리키는 것을 특징으로 하는, 움직임 정보의 복호화 방법.
  2. 제 1 항에 있어서,
    상기 공간적 예측 후보 및 상기 시간적 예측 후보를 획득하는 단계는:
    상기 시간적 정보를 이용하여 상기 이전 픽처의 참조 예측 단위를 결정하는 단계;
    상기 참조 예측 단위를 하나 이상의 참조 서브 단위들로 분할하는 단계;
    상기 서브 단위들 중 하나인 현재 서브 단위의 예측을 위해 이용되는 상기 하나 이상의 참조 서브 단위들에 포함된 참조 서브 단위를 결정하는 단계; 및
    상기 현재 서브 단위의 예측을 위한 상기 참조 서브 단위의 움직임 관련 정보를 획득하는 단계를 더 포함하고,
    상기 현재 서브 단위의 예측을 위한 움직임 관련 정보는 상기 참조 서브 단위의 움직임 관련 정보를 포함하는 것을 특징으로 하는, 상기 움직임 정보의 복호화 방법.
  3. 제 1 항에 있어서,
    상기 공간적 예측 후보 중 적어도 하나에 대한 움직임 관련 정보의 이용가능성을 판단하는 단계를 포함하고, 상기 이용가능성을 판단하는 단계는:
    상기 현재 예측 단위의 상측에 위치한 상측 공간적 예측 후보를 소정 스캔 순서에 따라 검색하여, 이용 가능한 움직임 관련 정보를 갖는 최초의 상측 공간적 예측 후보 및 상기 최초의 상측 공간적 예측 후보의 우측 방향에 위치한 상측 공간적 예측 후보들을 상기 현재 예측 단위의 이용 가능한 상측 공간적 예측 후보로 선택하는 단계; 및
    상기 현재 예측 단위의 좌측에 위치한 좌측 공간적 예측 후보를 소정 스캔 순서에 따라 검색하여, 이용 가능한 움직임 관련 정보를 갖는 최초의 좌측 공간적 예측 후보 및 상기 최초의 좌측 공간적 예측 후보의 하단 방향에 위치한 좌측 공간적 예측 후보들을 상기 현재 예측 단위의 이용 가능한 좌측 공간적 예측 후보로 선택하는 단계를 더 포함하는 것을 특징으로 하는, 상기 움직임 정보의 복호화 방법.
  4. 제 3 항에 있어서,
    상기 움직임 관련 정보를 결정하기 위한 정보가 상기 현재 예측 단위의 상측에 위치한 공간적 예측 후보를 이용하도록 가리키는 경우, 상기 서브 단위의 상측에 이용 가능한 공간적 예측 후보가 있는지 판단하는 단계; 및
    상기 서브 단위의 상측에 이용 가능한 공간적 예측 후보가 없는 경우, 상기 현재 예측 단위의 좌측 공간적 예측 후보의 움직임 관련 정보를 상기 서브 단위의 움직임 관련 정보로서 획득하는 단계를 포함하는 것을 특징으로 하는, 상기 움직임 정보의 복호화 방법.
  5. 제 3 항에 있어서,
    상기 움직임 관련 정보를 결정하기 위한 정보가 상기 현재 예측 단위의 좌측에 위치한 공간적 예측 후보를 이용하도록 가리키는 경우, 상기 서브 단위의 좌측에 이용 가능한 공간적 예측 후보가 있는지 판단하는 단계; 및
    상기 서브 단위의 좌측에 이용 가능한 공간적 예측 후보가 없는 경우, 상기 현재 예측 단위의 상측 공간적 예측 후보의 움직임 관련 정보를 상기 서브 단위의 움직임 관련 정보로서 획득하는 단계를 포함하는 것을 특징으로 하는, 상기 움직임 정보의 복호화 방법.
  6. 제 1 항에 있어서,
    상기 움직임 관련 정보를 결정하기 위한 정보가 상기 서브 단위에 인접한 공간적 예측 후보 중 적어도 하나를 이용하도록 가리키는 경우,
    상기 서브 단위에 인접한 하나 이상의 공간적 예측 후보의 움직임 관련 정보에 소정의 가중치를 적용하고 평균값을 획득하는 단계를 포함하고,
    상기 현재 서브 단위의 움직임 관련 정보를 획득하는 것은 상기 평균값을 획득하는 것임을 특징으로 하는, 상기 움직임 정보의 복호화 방법.
  7. 제 1 항에 있어서,
    상기 현재 예측 단위의 크기 범위 내에서 서브 블록의 크기를 나타내는 서브 블록 크기 정보를 획득하는 단계를 포함하고,
    상기 서브 단위들로 분할하는 것은 상기 서브 블록 크기 정보를 이용하는 것을 특징으로 하는, 움직임 정보의 복호화 방법.
  8. 제 1 항에 있어서,
    상기 획득된 움직임 관련 정보를 이용하여 상기 서브 단위에 대한 움직임 보상을 수행하는 단계를 포함하는 것을 특징으로 하는, 상기 움직임 정보의 복호화 방법.
  9. 움직임 정보의 복호화 장치 있어서,
    현재 예측 단위를 결정하는 예측 단위 결정부; 및
    상기 현재 예측 단위와 공간적으로 연관된 공간적 예측 후보 및 시간적으로 연관된 시간적 예측 후보를 획득하고, 상기 현재 예측 단위를 하나 이상의 서브 단위들로 분할하고, 상기 공간적 예측 후보의 움직임 관련 정보 및 상기 시간적 예측 후보의 움직임 관련 정보 중 현재 서브 단위의 움직임 관련 정보를 결정하기 위한 정보를 비트스트림으로부터 획득하며, 상기 움직임 관련 정보를 결정하기 위한 정보를 이용하여 상기 현재 서브 단위의 움직임 관련 정보를 획득하는 복호화부를 포함하고,
    상기 움직임 관련 정보를 결정하기 위한 정보는 공간적 정보 및 시간적 정보를 포함하고,
    상기 공간적 정보는 상기 현재 예측 단위에 인접한 공간적 예측 후보 중 상기 서브 단위들에 이용되는 공간적 예측 후보의 방향을 가리키며,
    상기 시간적 정보는 상기 현재 예측 단위의 예측을 위해 이용되는 이전 픽처의 참조 예측 단위를 가리키는 것을 특징으로 하는, 움직임 정보의 복호화 장치.
  10. 제 9 항에 있어서,
    상기 복호화부는 상기 시간적 정보를 이용하여 상기 이전 픽처의 참조 예측 단위를 결정하고, 상기 참조 예측 단위를 하나 이상의 참조 서브 단위들로 분할하고, 상기 서브 단위들 중 하나인 현재 서브 단위의 예측을 위해 이용되는 상기 하나 이상의 참조 서브 단위들에 포함된 참조 서브 단위를 결정하며, 상기 현재 서브 단위의 예측을 위한 상기 참조 서브 단위의 움직임 관련 정보를 획득하고,
    상기 현재 서브 단위의 예측을 위한 움직임 관련 정보는 상기 참조 서브 단위의 움직임 관련 정보를 포함하는 것을 특징으로 하는, 상기 움직임 정보의 복호화 장치.
  11. 제 9 항에 있어서,
    상기 복호화부는 상기 공간적 예측 후보 및 상기 시간적 예측 후보 중 적어도 하나에 대한 움직임 관련 정보의 이용가능성을 판단하고, 상기 이용가능성을 판단하는 것은:
    상기 현재 예측 단위의 상측에 위치한 상측 공간적 예측 후보를 소정 스캔 순서에 따라 검색하여, 이용 가능한 움직임 관련 정보를 갖는 최초의 상측 공간적 예측 후보 및 상기 최초의 상측 공간적 예측 후보의 우측 방향에 위치한 상측 공간적 예측 후보들을 상기 현재 예측 단위의 이용 가능한 상측 공간적 예측 후보로 선택하며,
    상기 현재 예측 단위의 좌측에 위치한 좌측 공간적 예측 후보를 소정 스캔 순서에 따라 검색하여, 이용 가능한 움직임 관련 정보를 갖는 최초의 좌측 공간적 예측 후보 및 상기 최초의 좌측 공간적 예측 후보의 하단 방향에 위치한 좌측 공간적 예측 후보들을 상기 현재 예측 단위의 이용 가능한 좌측 공간적 예측 후보로 선택하는 것을 더 특징으로 하는, 상기 움직임 정보의 복호화 장치.
  12. 제 11 항에 있어서,
    상기 움직임 관련 정보를 결정하기 위한 정보가 상기 현재 예측 단위의 상측에 위치한 공간적 예측 후보를 이용하도록 가리키는 경우, 상기 복호화부는 상기 서브 단위의 상측에 이용 가능한 공간적 예측 후보가 있는지 판단하고,
    상기 서브 단위의 상측에 이용 가능한 공간적 예측 후보가 없는 경우, 상기 복호화부는 상기 현재 예측 단위의 좌측 공간적 예측 후보의 움직임 관련 정보를 상기 서브 단위의 움직임 관련 정보로서 획득하는 것을 특징으로 하는, 상기 움직임 정보의 복호화 장치.
  13. 제 11 항에 있어서,
    상기 움직임 관련 정보를 결정하기 위한 정보가 상기 현재 예측 단위의 좌측에 위치한 공간적 예측 후보를 이용하도록 가리키는 경우, 상기 복호화부는 상기 서브 단위의 좌측에 이용 가능한 공간적 예측 후보가 있는지 판단하고,
    상기 서브 단위의 좌측에 이용 가능한 공간적 예측 후보가 없는 경우, 상기 복호화부는 상기 현재 예측 단위의 상측 공간적 예측 후보의 움직임 관련 정보를 상기 서브 단위의 움직임 관련 정보로서 획득하는 것을 특징으로 하는, 상기 움직임 정보의 복호화 장치.
  14. 움직임 정보의 부호화 방법에 있어서,
    현재 예측 단위에 대한 움직임 예측을 수행하여 상기 현재 예측 단위에 대한 움직임 정보를 획득하는 단계;
    상기 현재 예측 단위와 공간적으로 연관된 공간적 예측 후보 및 시간적으로 연관된 시간적 예측 후보를 생성하는 단계;
    상기 현재 예측 단위를 하나 이상의 서브 단위들로 분할하는 단계;
    상기 공간적 예측 후보의 움직임 관련 정보 및 상기 시간적 예측 후보의 움직임 관련 정보 중 현재 서브 단위의 움직임 관련 정보를 결정하기 위한 정보를 생성하는 단계; 및
    상기 생성된 정보를 이용하여 상기 현재 서브 단위의 예측을 위한 움직임 관련 정보를 부호화하는 단계를 포함하고,
    상기 움직임 관련 정보를 결정하기 위한 정보는 공간적 정보 및 시간적 정보를 포함하고,
    상기 공간적 정보는 상기 현재 예측 단위에 인접한 공간적 예측 후보 중 상기 서브 단위들에 이용되는 공간적 예측 후보의 방향을 가리키고,
    상기 시간적 정보는 상기 현재 예측 단위의 예측을 위해 이용되는 이전 픽처의 참조 예측 단위를 가리키는 것을 특징으로 하는, 움직임 정보의 부호화 방법.
  15. 움직임 정보의 부호화 장치에 있어서,
    현재 예측 단위에 대한 움직임 예측을 수행하여 상기 현재 예측 단위에 대한 움직임 정보를 획득하는 움직임 정보 획득부;
    상기 현재 예측 단위와 공간적으로 연관된 공간적 예측 후보 및 시간적으로 연관된 시간적 예측 후보를 생성하고, 상기 현재 예측 단위를 하나 이상의 서브 단위들로 분할하고, 상기 공간적 예측 후보의 움직임 관련 정보 및 상기 시간적 예측 후보의 움직임 관련 정보 중 현재 서브 단위의 움직임 관련 정보를 결정하기 위한 정보를 생성하는 비트스트림 생성부; 및
    상기 생성된 정보를 이용하여 상기 현재 서브 단위의 예측을 위한 움직임 관련 정보를 부호화하는 부호화부를 포함하고,
    상기 움직임 관련 정보를 결정하기 위한 정보는 공간적 정보 및 시간적 정보를 포함하고,
    상기 공간적 정보는 상기 현재 예측 단위에 인접한 공간적 예측 후보 중 상기 서브 단위들에 이용되는 공간적 예측 후보의 방향을 가리키고,
    상기 시간적 정보는 상기 현재 예측 단위의 예측을 위해 이용되는 이전 픽처의 참조 예측 단위를 가리키는 것을 특징으로 하는, 움직임 정보의 부호화 장치.
PCT/KR2016/013624 2015-11-24 2016-11-24 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치 WO2017091007A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020187013814A KR20180075556A (ko) 2015-11-24 2016-11-24 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
CN201680068544.9A CN108293132A (zh) 2015-11-24 2016-11-24 图像编码方法和装置以及图像解码方法和装置
EP16868903.2A EP3355585A1 (en) 2015-11-24 2016-11-24 Image encoding method and device, and image decoding method and device
US15/776,655 US20180352221A1 (en) 2015-11-24 2016-11-24 Image encoding method and device, and image decoding method and device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562259153P 2015-11-24 2015-11-24
US62/259,153 2015-11-24

Publications (1)

Publication Number Publication Date
WO2017091007A1 true WO2017091007A1 (ko) 2017-06-01

Family

ID=58763641

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/013624 WO2017091007A1 (ko) 2015-11-24 2016-11-24 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치

Country Status (5)

Country Link
US (1) US20180352221A1 (ko)
EP (1) EP3355585A1 (ko)
KR (1) KR20180075556A (ko)
CN (1) CN108293132A (ko)
WO (1) WO2017091007A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112753222A (zh) * 2018-09-21 2021-05-04 交互数字Vc控股公司 视频编码和解码中的运动矢量预测

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116684592A (zh) * 2016-08-08 2023-09-01 Lg电子株式会社 视频解码方法、视频信号编码方法及其介质
CN116248870A (zh) 2018-11-08 2023-06-09 Oppo广东移动通信有限公司 视频信号编码/解码方法以及用于所述方法的设备
US11496765B2 (en) 2018-12-21 2022-11-08 Samsung Electronics Co., Ltd. Method and apparatus for decoding video, and method and apparatus for encoding video
US20220124310A1 (en) * 2019-02-21 2022-04-21 Electronics And Telecommunications Research Institute Method and device for encoding/decoding video, and recording medium for storing bitstream
WO2020175914A1 (ko) * 2019-02-26 2020-09-03 주식회사 엑스리스 영상 신호 부호화/복호화 방법 및 이를 위한 장치
US11606574B2 (en) * 2019-05-31 2023-03-14 Apple Inc. Efficient coding of source video sequences partitioned into tiles
WO2021196228A1 (zh) * 2020-04-03 2021-10-07 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器以及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012128453A1 (ko) * 2011-03-21 2012-09-27 엘지전자 주식회사 영상 부호화/복호화 방법 및 장치
KR20140049494A (ko) * 2012-10-12 2014-04-25 한국전자통신연구원 영상의 부호화/복호화 방법 및 이를 이용하는 장치
KR20140089486A (ko) * 2013-01-04 2014-07-15 삼성전자주식회사 스케일러블 비디오의 부호화 및 복호화를 위한 움직임 보상 방법 및 장치
KR20150012223A (ko) * 2013-07-24 2015-02-03 삼성전자주식회사 움직임 벡터 결정 방법 및 그 장치
KR20150105264A (ko) * 2014-03-06 2015-09-16 삼성전자주식회사 서브 블록 기반 예측을 수행하는 인터 레이어 비디오 복호화 방법 및 그 장치 및 서브 블록 기반 예측을 수행하는 인터 레이어 비디오 부호화 방법 및 그 장치

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130003843A1 (en) * 2010-03-12 2013-01-03 Mediatek Singapore Pte. Ltd. Motion Prediction Method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012128453A1 (ko) * 2011-03-21 2012-09-27 엘지전자 주식회사 영상 부호화/복호화 방법 및 장치
KR20140049494A (ko) * 2012-10-12 2014-04-25 한국전자통신연구원 영상의 부호화/복호화 방법 및 이를 이용하는 장치
KR20140089486A (ko) * 2013-01-04 2014-07-15 삼성전자주식회사 스케일러블 비디오의 부호화 및 복호화를 위한 움직임 보상 방법 및 장치
KR20150012223A (ko) * 2013-07-24 2015-02-03 삼성전자주식회사 움직임 벡터 결정 방법 및 그 장치
KR20150105264A (ko) * 2014-03-06 2015-09-16 삼성전자주식회사 서브 블록 기반 예측을 수행하는 인터 레이어 비디오 복호화 방법 및 그 장치 및 서브 블록 기반 예측을 수행하는 인터 레이어 비디오 부호화 방법 및 그 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112753222A (zh) * 2018-09-21 2021-05-04 交互数字Vc控股公司 视频编码和解码中的运动矢量预测

Also Published As

Publication number Publication date
US20180352221A1 (en) 2018-12-06
EP3355585A4 (en) 2018-08-01
KR20180075556A (ko) 2018-07-04
CN108293132A (zh) 2018-07-17
EP3355585A1 (en) 2018-08-01

Similar Documents

Publication Publication Date Title
WO2017091007A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2018070790A1 (ko) 영상의 부호화/복호화 방법 및 장치
WO2017138791A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2018008906A1 (ko) 비디오 신호 처리 방법 및 장치
WO2019103564A1 (ko) 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치
WO2017222325A1 (ko) 비디오 신호 처리 방법 및 장치
WO2018097691A2 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2017122997A1 (ko) 영상 부호화 방법 및 장치와 영상 복호화 방법 및 장치
WO2018106047A1 (ko) 비디오 신호 처리 방법 및 장치
WO2017188780A2 (ko) 영상 신호 부호화/복호화 방법 및 장치
WO2020071873A1 (ko) Mpm 리스트를 사용하는 인트라 예측 기반 영상 코딩 방법 및 그 장치
WO2018080122A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2018008905A1 (ko) 비디오 신호 처리 방법 및 장치
WO2018062788A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2018038554A1 (ko) 이차 변환을 이용한 비디오 신호의 인코딩/디코딩 방법 및 장치
WO2018070550A1 (ko) 픽처 외곽선의 부호화 단위를 부호화 또는 복호화하는 방법 및 장치
WO2018105759A1 (ko) 영상 부호화/복호화 방법 및 이를 위한 장치
WO2017090968A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치
WO2019235822A1 (ko) 어파인 움직임 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치
WO2018062881A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2019182329A1 (ko) 영상 복호화 방법/장치, 영상 부호화 방법/장치 및 비트스트림을 저장한 기록 매체
WO2016122253A1 (ko) 비디오 신호 처리 방법 및 장치
WO2017195945A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치
WO2020017785A1 (ko) 영상 코딩 시스템에서 인트라 예측 관련 정보를 사용하는 영상 디코딩 방법 및 그 장치
WO2019216710A1 (ko) 영상의 부호화 및 복호화를 위한 영상의 분할 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16868903

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2016868903

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20187013814

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE