WO2018074813A1 - Device and method for encoding or decoding image - Google Patents

Device and method for encoding or decoding image Download PDF

Info

Publication number
WO2018074813A1
WO2018074813A1 PCT/KR2017/011457 KR2017011457W WO2018074813A1 WO 2018074813 A1 WO2018074813 A1 WO 2018074813A1 KR 2017011457 W KR2017011457 W KR 2017011457W WO 2018074813 A1 WO2018074813 A1 WO 2018074813A1
Authority
WO
WIPO (PCT)
Prior art keywords
current block
block
information
image
prediction information
Prior art date
Application number
PCT/KR2017/011457
Other languages
French (fr)
Korean (ko)
Inventor
임정연
이선영
손세훈
신재섭
김형덕
이경택
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020170003154A external-priority patent/KR20180042098A/en
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to CN201780063765.1A priority Critical patent/CN109863748A/en
Priority to US16/342,608 priority patent/US20190260990A1/en
Publication of WO2018074813A1 publication Critical patent/WO2018074813A1/en
Priority to US17/109,751 priority patent/US20210092367A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements

Definitions

  • the present invention relates to image encoding or decoding for efficiently encoding an image.
  • moving picture data has a larger amount of data than audio data, still image data, and the like, a large amount of hardware resources including a memory are required to store or transmit itself without processing for compression. Accordingly, when storing or transmitting video data, the video data is compressed and stored or transmitted using an encoder, and the decoder receives the compressed video data, decompresses, and plays the video data.
  • video compression techniques include H.264 / AVC and High Efficiency Video Coding (HEVC), which was established in early 2013, which improved coding efficiency by about 40%.
  • 360 video is a video taken from multiple directions with multiple cameras. Stitching the video output from multiple cameras into a single 2D video to compress and transmit video from multiple scenes. The stitched video is compressed and decoded. Is sent to the device. After decoding the compressed image, the decoding apparatus is reproduced by mapping in 3D.
  • FIG. (A) of FIG. 1 shows a spherical 360 image mapped in 3D
  • FIG. (b) shows a spherical 360 image in an equirectangular format.
  • Such square projection has a disadvantage of severely distorting the pixels by increasing the upper and lower pixels, and increases the data amount and the encoding throughput in the increased portion even when the image is compressed. Accordingly, there is a need for an image compression technology capable of efficiently encoding 360 images.
  • the present invention provides an image encoding or decoding technique for efficiently encoding an image or a 360 image having a high resolution or frame rate.
  • An aspect of the present invention provides a method of encoding prediction information of a current block located on a first surface to be encoded when encoding each surface of a 2D image projected from a 360 image, using neighboring blocks of the current block. Generating prediction information candidates; And encoding a syntax element of the prediction information of the current block by using the prediction information candidates, when the boundary of the current block coincides with the boundary of the first surface. It provides a prediction information encoding method, characterized in that the block adjacent to the current block is set as at least some of the neighboring blocks.
  • Another aspect of the present invention is a method for decoding prediction information of a current block located on a first surface to be decoded in a 360 image encoded as a 2D image, the syntax element for the prediction information of the current block from a bitstream an element); Generating prediction information candidates using neighboring blocks of the current block; And reconstructing prediction information of the current block by using the prediction information candidates and the decoded syntax element, when the boundary of the current block coincides with the boundary of the first surface.
  • the present invention provides a method for decoding prediction information, wherein a block adjacent to the current block is set as at least some of the neighboring blocks.
  • 1 is an exemplary diagram of a rectangular projection format of a 360 image
  • FIG. 2 is a block diagram of an image encoding apparatus according to an embodiment of the present invention.
  • FIG. 3 is an exemplary diagram of block partitioning using a QuadTree plus BinaryTree (QTBT) structure
  • FIG. 4 is an exemplary diagram for a plurality of intra prediction modes
  • 5 is an exemplary diagram of neighboring blocks of a current block
  • 6 is an exemplary diagram for various projection formats of 360 images
  • FIG. 7 is an exemplary diagram for a layout of a cube projection format
  • FIG. 8 is an exemplary diagram for explaining a rearrangement of a layout in a cube projection format
  • FIG. 9 is a block diagram of an apparatus for generating a syntax element for prediction information of a current block in a 360 image according to an embodiment of the present invention.
  • FIG. 10 is an exemplary diagram for describing a method of determining a neighboring block of a current block in a cube format to which a compact layout is applied.
  • FIG. 11 is a diagram illustrating a detailed configuration of an intra predictor of FIG. 2 when the apparatus of FIG. 9 is applied to intra prediction.
  • FIG. 11 is a diagram illustrating a detailed configuration of an intra predictor of FIG. 2 when the apparatus of FIG. 9 is applied to intra prediction.
  • FIG. 12 is an exemplary diagram for explaining a method of setting reference pixels for intra prediction in a cube format
  • FIG. 13 is an exemplary diagram for explaining a method of setting a reference pixel for intra prediction in various projection formats
  • FIG. 14 is a diagram illustrating a detailed configuration of an inter predictor of FIG. 2 when the apparatus of FIG. 9 is applied to inter prediction;
  • 15 is a block diagram illustrating an image decoding apparatus according to an embodiment of the present invention.
  • 16 is a block diagram of an apparatus for decoding prediction information of a current block in a 360 image, according to an embodiment of the present invention.
  • FIG. 17 is a diagram illustrating a detailed configuration of an intra predictor of FIG. 15 when the apparatus of FIG. 16 is applied to intra prediction;
  • FIG. 18 is a diagram illustrating a detailed configuration of the inter prediction unit of FIG. 15 when the apparatus of FIG. 16 is applied to inter prediction.
  • FIG. 2 is a block diagram of an image encoding apparatus according to an embodiment of the present invention.
  • the image encoding apparatus includes a block divider 210, a predictor 220, a subtractor 230, a transformer 240, a quantizer 245, an encoder 250, an inverse quantizer 260, and an inverse transform unit ( 265, an adder 270, a filter unit 280, and a memory 290.
  • each component may be implemented as a hardware chip, or may be implemented in software and implemented so that the microprocessor executes a function of software corresponding to each component.
  • the block dividing unit 210 After dividing each picture constituting the image into a plurality of coding tree units (CTUs), the block dividing unit 210 recursively divides the CTUs using a tree structure.
  • a leaf node in the tree structure becomes a CU (coding unit) which is a basic unit of coding.
  • CU coding unit
  • QT QuadTree
  • QTBT QuadTree
  • BT binaryTree
  • BinaryTree BinaryTree
  • the CTU is first divided into a QT structure.
  • the leaf nodes of the QT may then be further partitioned by BT.
  • the partition information generated by the block divider 210 by dividing the CTU by the QTBT structure is encoded by the encoder 250 and transmitted to the decoding apparatus.
  • a first flag (QT split flag, QT_split_flag) indicating whether a block of a corresponding node is split is encoded. If the first flag is 1, the block of the node is divided into four blocks of the same size. If the first flag is 1, the node is no longer divided by QT.
  • a second flag (BT split flag, BT_split_flag) indicating whether a block of the corresponding node is split is encoded.
  • BT there may be a plurality of partition types. For example, there may be two types of partitioning a block of a node horizontally into two blocks of the same size and a type of partitioning vertically. Alternatively, there may further be a type in which blocks of the corresponding node are further divided into two blocks having an asymmetric shape. The asymmetrical form may include dividing a block of a node into two rectangular blocks having a size ratio of 1: 3, or dividing a block of the node in a diagonal direction.
  • partition type information indicating a partition type of the corresponding block is further encoded.
  • FIG. 3 is an exemplary diagram of block division using a QTBT structure.
  • A of FIG. 3 is an example in which a block is divided by a QTBT structure, and (b) shows it in a tree structure.
  • the solid line indicates the division by the QT structure
  • the dotted line indicates the division by the BT structure.
  • the parenthesis indicates a layer of QT
  • the parenthesis indicates a layer of BT.
  • a number represents partition type information.
  • the block corresponding to the first node of layer 1 of the QT proceeds to BT.
  • the following information may be further encoded.
  • the information is encoded as header information of an image, for example, may be encoded by a sequence parameter set (SPS) or a picture parameter set (PPS).
  • SPS sequence parameter set
  • PPS picture parameter set
  • CTU size the top layer of QTBT, that is, the block size of the root node
  • MinQTSize the minimum block size of leaf nodes allowed in QT
  • MaxBTSize the maximum block size of the root node allowed by BT
  • MaxBTDepth the maximum depth allowed by BT
  • MinBTSize the minimum block size of leaf nodes allowed in BT
  • a block having the same size as MinBTSize in BT is no longer split and no split information (second flag, split type information) regarding BT is also encoded.
  • second flag, split type information the maximum or minimum block size that a loop or leaf node of the QT and BT can have at a high level such as a sequence parameter set (SPS) or a picture parameter set (PPS) can be defined to determine whether the CTU is divided or not.
  • SPS sequence parameter set
  • PPS picture parameter set
  • the amount of coding for the information indicating the partition type can be reduced.
  • the luma component and the chroma component of the CTU may be divided into the same QTBT structure.
  • the present invention is not limited thereto, and the luminance component and the chrominance component may be divided using separate QTBT structures, respectively.
  • a luma component and a chroma component may be divided into different QTBT structures.
  • a block corresponding to a CU to be encoded or decoded is called a 'current block'.
  • the prediction unit 220 generates a prediction block by predicting the current block.
  • the predictor 220 includes an intra predictor 222 and an inter predictor 224.
  • the intra predictor 222 predicts pixels in the current block by using pixels (reference pixels) positioned around the current block in the current picture including the current block. There are a plurality of intra prediction modes according to the prediction direction, and the peripheral pixels to be used and the equations are defined differently according to each prediction mode.
  • FIG. 4 illustrates an example of a plurality of intra prediction modes.
  • the plurality of intra prediction modes may include two non-directional modes (planar mode and DC mode) and 65 directional modes.
  • the intra predictor 222 selects one intra prediction mode from among the plurality of intra prediction modes, and predicts the current block by using a neighboring pixel (reference pixel) and an operation formula determined according to the selected intra prediction mode.
  • Information about the selected intra prediction mode is encoded by the encoder 250 and transmitted to the decoding apparatus.
  • the intra prediction unit 222 may efficiently encode intra prediction mode information indicating which mode of the plurality of intra prediction modes is used as the intra prediction mode of the current block.
  • the most probable mode is selected as the most probable mode (MPM) as the intra prediction mode of.
  • mode information indicating whether the intra prediction mode of the current block is selected from the MPM is generated and transmitted to the encoder 250.
  • the intra prediction mode of the current block is selected from the MPMs
  • the first intra identification information for indicating which mode of the MPMs is selected as the intra prediction mode of the current block is transmitted to the encoder.
  • the second intra identification information for indicating which mode other than the MPM is selected as the intra prediction mode of the current block is transmitted to the encoder.
  • the configuration of the MPM list with six MPMs is described as an example, but the present invention is not limited thereto, and the number of MPMs included in the MPM list may be selected within a range of 3 to 10.
  • the MPM candidate is configured using the intra prediction mode of neighboring blocks of the current block.
  • the neighboring block may be, for example, all or some of the left block L, the upper block A, the lower left block BL, the upper right block AR, and the upper left block AL of the current block. It may include.
  • the left block (L) of the current block means a block including the pixel of the position moved by one pixel to the left from the position of the left bottom pixel in the current block
  • the top block (A) of the current block is the most in the current block It means a block including the pixel of the position moved one pixel upward from the position of the upper right pixel.
  • the lower left block BL means a block including a pixel at a position shifted one pixel upward after one pixel shifted upward from the position of the leftmost lower pixel in the current block
  • the upper right block AR is the rightmost block in the current block. It means the block including the pixel of the position moved by one pixel to the right after moving one pixel upward from the position of the top pixel
  • the upper left block (AL) is left after moving one pixel upward from the position of the leftmost pixel in the current block.
  • the intra prediction mode of these neighboring blocks is included in the MPM list.
  • the intra prediction mode of the valid blocks in the order of the left block L, the top block A, the bottom left block BL, the top right block AR, and the top left block AL is included in the MPM list.
  • the left block (L), the upper block (A), the planar mode, the DC mode, the lower left block (BL) may be added to the MPM list.
  • the MPM list includes only different intra prediction modes. That is, when a duplicated mode is present, only one of them is included in the MPM list.
  • the MPM may be derived by adding -1 or +1 to the directional modes in the list.
  • the number of insufficient modes is added to the MPM list in the order of vertical mode, horizontal mode, diagonal mode, and the like. You may.
  • the inter prediction unit 224 searches for the block most similar to the current block in the coded and decoded reference picture before the current picture, and generates a prediction block for the current block using the searched block. A motion vector corresponding to a displacement between the current block in the current picture and the prediction block in the reference picture is generated.
  • the motion information including the information about the reference picture and the motion vector used to predict the current block is encoded by the encoder 250 and transmitted to the decoding apparatus.
  • the motion information of the current block can be transmitted to the decoding apparatus by encoding information for identifying the neighboring block. This method is called 'merge mode'.
  • the inter prediction unit 224 selects a predetermined number of merge candidate blocks (hereinafter, referred to as 'merge candidates') from neighboring blocks of the current block.
  • All or part of the upper left block AL may be used.
  • a block located within a reference picture (which may be the same as or different from the reference picture used to predict the current block) other than the current picture in which the current block is located may be used as the merge candidate.
  • a co-located block or a block adjacent to a block in the same position as the current block in the reference picture may be further used as a merge candidate.
  • the inter prediction unit 224 constructs a merge list including a predetermined number of merge candidates using these neighboring blocks.
  • the merge candidate to be used as the motion information of the current block is selected from the merge candidates included in the merge list, and merge index information for identifying the selected candidate is generated.
  • the generated merge index information is encoded by the encoder 250 and transmitted to the decoding apparatus.
  • Another way to encode motion information is to encode differential motion vectors.
  • the inter prediction unit 224 derives the predictive motion vector candidates for the motion vector of the current block by using the neighboring blocks of the current block.
  • a neighboring block used to derive the predictive motion vector candidates a left block L, an upper block A, a right upper block AR, and a lower left block adjacent to the current block in the current picture shown in FIG. BL
  • all or part of the upper left block AL may be used.
  • a block located within a reference picture (which may be the same as or different from the reference picture used to predict the current block) that is not the current picture in which the current block is located may be used as a neighboring block used to derive predictive motion vector candidates. It may be.
  • a co-located block or a block adjacent to a block at the same position as the current block in the reference picture may be used.
  • the inter prediction unit 224 derives the predictive motion vector candidates using the motion vectors of the neighboring blocks, and determines the predictive motion vector for the motion vector of the current block using the predictive motion vector candidates.
  • the difference motion vector is calculated by subtracting the predicted motion vector from the motion vector of the current block.
  • the predicted motion vector may be obtained by applying a predefined function (eg, median value, average value calculation, etc.) to the predicted motion vector candidates.
  • a predefined function eg, median value, average value calculation, etc.
  • the image decoding apparatus also knows a predefined function.
  • the image decoding apparatus and the motion vector of the neighboring block are already known. Therefore, the image encoding apparatus does not need to encode information for identifying the predictive motion vector candidate. Therefore, in this case, the information on the differential motion vector and the reference picture used to predict the current block are encoded.
  • the predicted motion vector may be determined by selecting any one of the predicted motion vector candidates.
  • the information for identifying the selected predicted motion vector candidate is further encoded along with the information about the differential motion vector and the reference picture used for predicting the current block.
  • the subtractor 230 subtracts the prediction block generated by the intra predictor 222 or the inter predictor 224 from the current block to generate a residual block.
  • the converter 240 converts the residual signal in the residual block having pixel values of the spatial domain into a transform coefficient of the frequency domain.
  • the transform unit 240 may convert the residual signals in the residual block using the size of the current block as a conversion unit, or divide the residual block into a plurality of smaller subblocks and convert the residual signals in a subblock-sized transform unit. You can also convert. There may be various ways of dividing the residual block into smaller subblocks. For example, it may be divided into sub-blocks of a predetermined same size, or a quadtree (QT) scheme may be used in which the residual block is a root node.
  • QT quadtree
  • the quantization unit 245 quantizes the transform coefficients output from the transform unit 240, and outputs the quantized transform coefficients to the encoder 250.
  • the encoder 250 generates a bitstream by encoding the quantized transform coefficients by using an encoding method such as CABAC.
  • the encoder 250 encodes information such as CTU size, MinQTSize, MaxBTSize, MaxBTDepth, MinBTSize, QT split flag, BT split flag, split type, etc. related to block division, so that the decoding apparatus encodes a block in the same way as the encoding apparatus. Allow splitting.
  • the encoder 250 encodes information about a prediction type indicating whether the current block is encoded by intra prediction or inter prediction, and encodes intra prediction information or inter prediction information according to the prediction type.
  • a syntax element for the intra prediction mode is encoded as intra prediction information.
  • the syntax element for intra prediction mode includes the following.
  • the encoder 250 encodes a syntax element for inter prediction information.
  • the syntax element for inter prediction information includes the following.
  • Mode information indicating whether motion information of the current block is encoded in a merge mode or a mode of encoding a differential motion vector.
  • the encoder 250 uses merge index information indicating the candidate of the merge candidates as a candidate for extracting the motion information of the current block as a syntax element for the motion information.
  • the motion information when the motion information is encoded by the mode for encoding the differential motion vector, the information about the differential motion vector and the information about the reference picture are encoded as syntax elements for the motion information. If the predicted motion vector is determined in such a manner as to select any one of the plurality of predicted motion vector candidates, the syntax element for the motion information further includes predicted motion vector identification information for identifying the selected candidate. Include.
  • the inverse quantizer 260 inversely quantizes the quantized transform coefficients output from the quantizer 245 to generate transform coefficients.
  • the inverse transformer 265 restores the residual block by converting the transform coefficients output from the inverse quantizer 260 from the frequency domain to the spatial domain.
  • the adder 270 reconstructs the current block by adding the reconstructed residual block and the predicted block generated by the predictor 220.
  • the pixels in the reconstructed current block are used as reference pixels when intra prediction of the next order of blocks.
  • the filter unit 280 deblocks and filters the boundary between the reconstructed blocks in order to remove blocking artifacts that occur due to encoding / decoding of blocks. When all the blocks in a picture are reconstructed, the reconstructed picture is used as a reference picture for inter prediction of a block in a picture to be encoded later.
  • the image encoding technique described above is also applied when encoding a 2D image after projecting a 360 image in 2D.
  • Square projection which is a representative projection format used for 360 images, has a disadvantage in that the upper and lower pixels are severely distorted when projecting a 2D image into a 360 image.
  • the present invention seeks to provide an image encoding technique that supports various projection formats.
  • regions not adjacent to each other in the 2D image may be adjacent to each other in the 360 image. For example, the left boundary and the right boundary of the 2D image illustrated in FIG. 1A are adjacent to each other when projected as a 360 image. Accordingly, the present invention provides a method for efficiently encoding an image by reflecting such a feature of a 360 image.
  • Table 1 below shows an example of metadata of 360 images encoded into a bitstream to support various projection formats.
  • the metadata of the 360 video is encoded at any one of a video parameter set (VPS), a sequence parameter set (SPS), a picture pattern set (PPS), and supplementary enhancement information (SEI).
  • VPS video parameter set
  • SPS sequence parameter set
  • PPS picture pattern set
  • SEI supplementary enhancement information
  • This syntax element means an index indicating a projection format of a 360 image.
  • the projection format according to this index value may be defined as shown in Table 2.
  • Square projection is as shown in FIG. 1, and examples of various other projection formats are shown in FIG. 6.
  • This syntax element is a flag indicating whether to change the layout of the 2D image projected from the 360 image. If this flag is 0, a non-compact layout with no change in layout is used. If the flag is 1, a rectangular compact layout with no spaces is used to rearrange each face.
  • FIG. 7 is a diagram illustrating a layout of a cube format.
  • (A) of FIG. 7 shows a non-compact layout without changing the layout, and
  • (b) shows a compact layout with the changed layout.
  • num_face_rows_minus1 represents a value of (number of faces-1) based on the horizontal axis
  • num_face_columns_minus1 represents a value of (number of faces-1) based on the vertical axis.
  • num_face_rows_minus1 is 2
  • num_face_columns_minus1 is 3
  • num_face_rows_minus1 is 1 and num_face_columns_minus1 is 2.
  • the width information of the face (the number of pixels in the width direction) and the height information (the number of pixels in the height direction).
  • the resolution of the face determined by these syntaxes can be sufficiently inferred by num_face_rows_minus1 and num_face_columns_minus1, these syntaxes may not be encoded.
  • This syntax element is an index representing the position of each face in the 360 image. This index can be defined as shown in Table 3.
  • an index value (for example, 6) meaning 'null' is set in the blank area, and encoding for a surface set to null is omitted.
  • the index values for each face are 0 (top), 6 (null), 6 (null), 6 (null), 2 (front) in raster scan order. , 3 (right), 4 (back), 5 (left), 1 (bottom), 6 (null), 6 (null), and 6 (null).
  • This syntax element is an index representing rotation information of each face. Rotating a layout in a 2D layout can increase the association between adjacent faces. For example, in FIG. 8A, the upper boundary of the left plane and the left boundary of the top plane contact each other in a 360 image. Therefore, if left is rotated 270 degrees (-90 degrees) after changing the layout of FIG. 8 (a) to a compact layout as shown in FIG. 7 (b), the left surface as shown in (b) of FIG. Continuity between the top and top surfaces can be maintained. Thus, as a syntax element for the rotation of each side, it defines a face_rotation_ idx. This index may be defined as shown in Table 4.
  • Table 1 illustrates that syntax elements of 1-3) to 1-6) are encoded when the projection format is a cube projection format. It may be extended to other formats such as). In addition, not all of the syntax elements defined in Table 1 should always be encoded. Depending on how far the metadata of the 360 image is defined, some syntax elements may not be encoded. For example, when not applying the compact layout or adopting a technique of rotating a face, syntax elements such as compact_layout_flag and face_rotation_idx may be omitted.
  • an area in which one face or adjacent faces are bound together is treated as a tile or a slice or as a picture.
  • each tile or slice is treated independently because of its low dependency on each other.
  • information of another tile or slice is not used. Therefore, when predicting a block located at a tile or slice boundary, there may not be a neighboring block for the block.
  • Existing video encoding apparatus pads pixel values of neighboring blocks at non-existent positions with predetermined values or regards them as invalid blocks.
  • regions not adjacent to each other in the 2D layout may be adjacent to each other based on the 360 image. Accordingly, the present invention needs to predict the current block to be encoded or encode the prediction information for the current block by reflecting this characteristic of the 360 image.
  • FIG. 9 illustrates an apparatus for generating a syntax element for prediction information of a current block in a 360 image according to an embodiment of the present invention.
  • the apparatus 900 includes a prediction information candidate generator 910 and a syntax generator 920.
  • the prediction information candidate generator 910 generates prediction information candidates using neighboring blocks of the current block located on the first surface of the 2D layout projected from the 360 image.
  • the neighboring blocks are blocks located at predetermined positions around the current block, and as shown in FIG. 5, the left block L, the upper block A, the lower left block BL, the upper right block AR, and the upper left block May include all or part of AL).
  • the neighboring block is determined based on the 360 image rather than the 2D layout. That is, the block adjacent to the current block is determined as the neighboring block based on the 360 image.
  • the prediction information candidate generator 910 may identify a block adjacent to the current block based on the 360 image by using one or more information among the projection format of the 360 image, the face index, and the rotation information of the face. have.
  • the block adjacent to the current block can be identified using only the projection format without using the index of the surface or rotation information of the surface.
  • the block adjacent to the current block can be identified using the index of the plane in addition to the projection format.
  • the block adjacent to the current block can be identified by further using the face rotation information as well as the face index.
  • the prediction information candidate generator 910 identifies the second surface that is first encoded and contacts the boundary of the current block based on the 360 image.
  • whether the boundary of the current block coincides with the boundary of the first surface may be determined by the position of the current block, for example, the position of the leftmost upper pixel in the current block.
  • the second face is identified using one or more of the projection format, face index, and rotation information of the face.
  • the prediction information candidate generator 910 determines a block located on the second surface and adjacent to the current block in the 360 image as the neighboring block of the current block.
  • FIG. 10 is an exemplary diagram for describing a method of determining neighboring blocks of a current block in a cube format to which a compact layout is applied.
  • Fig. 10 the numbers on each side indicate the indexes of the faces, and as shown in Table 3, 0 is the top face, 1 is the bottom face, and 2 is the front face. ), 3 means a right face, 4 means a back face, and 5 means a left face.
  • FIG. 10 (b) when the current block (X) is in contact with the upper boundary of the front face (2), the left peripheral block (L) of the current block is present on the front face (2), but the peripheral block (A) located at the top ) Is not present on the front face (2).
  • FIG. 10 (b) when the current block (X) is in contact with the upper boundary of the front face (2), the left peripheral block (L) of the current block is present on the front face (2), but the peripheral block (A) located at the top ) Is not present on the front face (2).
  • FIG. 10 (b) when the current block (X) is in contact with the upper boundary of the front face (2), the left peripheral block (L) of the current block is present on the front face (2)
  • the encoder 250 of the encoding apparatus illustrated in FIG. 2 may further encode a flag indicating whether reference between different planes is allowed. Determining the neighboring block of the current block based on the 360 image, there is a dependency between each plane may result in a reduction in the execution speed of the encoder and the decoder. In order to prevent this, the above flag may be encoded in a header such as a sequence parameter set (SSP) or a picture parameter set (PPS).
  • SSP sequence parameter set
  • PPS picture parameter set
  • neighboring blocks are determined independently for each face based on the 2D image.
  • the syntax generator 920 encodes a syntax element for the prediction information of the current block by using the prediction information candidates generated by the prediction government candidate generator 910.
  • the prediction information may be inter prediction information or intra prediction information.
  • FIG. 11 is a diagram illustrating a detailed configuration of the intra predictor 222 when the apparatus of FIG. 9 is applied to intra prediction.
  • the intra prediction unit 222 of the present embodiment includes an MPM generator 1110 and a syntax generator 1120, and these components are respectively predicted candidate generator 910 and syntax generator 920 of FIG. 10. Corresponds to.
  • the MPM generator 1110 generates MPMs from the intra prediction mode of the neighboring blocks of the current block to form an MPM list. Since the method of constructing the MPM list has already been described in the intra prediction unit 222 of FIG. 2, further description thereof will be omitted.
  • the MPM generator 1110 determines a block adjacent to the current block as a neighboring block of the current block based on 360 images. For example, as in the example of FIG. 10, when the current block X is in contact with the upper boundary of the front face 2, the upper block A, the upper right block AR, and the upper left block AL exist on the front face 2. I never do that. Therefore, in the 360 image, the upper surface 0 which is in contact with the upper boundary of the front face 2 is identified, and blocks corresponding to the upper block A, the upper right block AR, and the upper left block AL based on the position of the current block. Is identified on the upper surface (0) and used as a peripheral block.
  • the syntax generator 1120 generates a syntax element for the intra prediction mode of the current block by using the MPMs included in the MPM list and outputs the syntax element to the encoder 250. That is, the syntax generator 1120 determines whether the intra prediction mode of the current block is the same as any one of the MPMs in the MPM list, and mode information indicating whether the intra prediction mode of the current block is selected from the MPMs in the MPM list. Create When the intra prediction information of the current block is selected from the MPMs, first identification information indicating which mode of the MPMs is selected as the intra prediction mode of the current block is generated.
  • second identification information indicating the intra prediction mode of the current block is generated among the remaining modes except the MPMs from the plurality of intra prediction modes.
  • the generated mode information, the first identification information and / or the second identification information is output to the encoder 250 and encoded by the encoder 250.
  • the intra predictor 222 may further include a reference pixel generator 1130 and a predictor block generator 1140.
  • the reference pixel generator 1130 sets pixels in the first coded block located around the current block as the reference pixel. For example, in the current block, pixels positioned at the upper and upper right sides and pixels positioned at the upper left, upper left and lower left may be set as reference pixels. The pixels located at the top and top right may include one or more rows of pixels around the current block. The pixels located at the left, upper left and lower left may include one or more rows of pixels around the current block.
  • the reference pixel generator 1130 sets the current block reference pixel based on the 360 image.
  • the principle is as described with reference to FIG.
  • reference pixels exist at the lower left and lower left of the current block X positioned on the front surface 2, but reference pixels do not exist at the upper, upper right and upper left.
  • the upper boundary of the front face 2 that the current block is in contact with the lower boundary of the upper face (0). Therefore, the pixels corresponding to the upper, upper right and upper left sides of the current block are set as reference pixels at the lower boundary of the upper surface 0.
  • FIG. 13 is an exemplary diagram for describing a method of setting reference pixels for intra prediction in various projection formats.
  • a position where a reference pixel does not exist is padded with pixels positioned around a current block based on a 360 image.
  • the padding is determined in consideration of the position where the pixels touch each other in the 360 image.
  • pixels 1 to 8 sequentially positioned from the bottom to the top of the left face on the left boundary in the back face are located at the top of the left face in the right to left direction. Padded sequentially with the surrounding pixels located.
  • the present invention is not limited thereto, and in some cases, reverse padding is also possible.
  • FIGS. 13B pixels 1 to 8 positioned in the bottom boundary in the back face from the bottom to the top are sequentially arranged as peripheral pixels positioned in the upper part of the left face in the left to right direction. It may be padded.
  • the prediction block generator 1140 predicts the current block by using the reference pixels set by the reference pixel generator 1130 and determines an intra prediction mode of the current block.
  • the determined intra prediction mode is input to the MPM generator 1110, and the MPM generator 1110 and the syntax generator 1120 generate syntax elements for the determined intra prediction mode and output them to the encoder.
  • FIG. 14 is a diagram illustrating a detailed configuration of the inter prediction unit 224 when the apparatus of FIG. 9 is applied to inter prediction.
  • the inter prediction unit 224 includes a prediction block generator 1410, a merge candidate generator 1420, and a syntax generator 1430.
  • the merge candidate generator 1420 and the syntax generator 1430 correspond to the prediction information candidate generator 910 and the syntax generator 920 of FIG. 9, respectively.
  • the prediction block generator 1410 searches for a block having a pixel value most similar to that of the current block in the reference picture, and generates a motion vector and a prediction block of the current block.
  • the prediction block is output to the subtractor 230 and the adder 270, and the motion information including the motion vector and the information about the reference picture is output to the syntax generator 1430.
  • the merge candidate generator 1420 generates a merge list including merge candidates using neighboring blocks of the current block. As described above, among the left block (L), the upper block (A), the upper right block (AR), the lower left block (BL), the upper left block (AL) adjacent to the current block shown in FIG. All or part may be used as a neighboring block for generating merge candidates.
  • the merge candidate generator 1420 determines a block adjacent to the current block as the neighboring block based on the 360 image.
  • the merge candidate generator 1420 corresponds to the prediction information candidate generator 910 of FIG. 9. Therefore, since all the functions of the prediction information candidate generator 910 may be applied to the merge candidate generator 1420, a detailed description thereof will be omitted.
  • the syntax generator 1430 generates a syntax element for inter prediction information of the current block by using merge candidates included in the merge list. First, mode information indicating whether to encode motion information of a current block in a merge mode is generated. When the motion information of the current block is encoded in the merge mode, the syntax generator 1430 generates merge index information indicating which merge candidate motion information included in the merge list is set as the motion information of the current block. .
  • the syntax generator 1430 If not encoded in the merge mode, the syntax generator 1430 generates information about the differential motion vector and reference information used for predicting the current block (that is, referred to by the motion vector of the current block).
  • the syntax generator 1430 determines a predicted motion vector with respect to the motion vector of the current block to generate a differential motion vector. As described in the inter prediction unit 224 of FIG. 2, the syntax generator 1430 derives the predictive motion vector candidates using the neighboring blocks of the current block, and uses the predictive motion vector candidates for the motion vector of the current block. The predicted motion vector can be determined. In this case, when the boundary of the current block coincides with the boundary of the first surface on which the current block is located, the block adjacent to the current block is determined as the neighboring block based on the 360 image in the same manner as the merge candidate generator 1420.
  • the syntax generator 1430 selects the candidate selected as the prediction motion vector from the prediction motion vector candidates. Further generating predicted motion vector identification information for identification.
  • the syntax element generated by the syntax generator 1430 is encoded by the encoder 250 and transferred to the decoding apparatus.
  • FIG 15 illustrates an image decoding apparatus according to an embodiment of the present invention.
  • the image decoding apparatus includes a decoder 1510, an inverse quantizer 1520, an inverse transformer 1530, a predictor 1540, an adder 1550, a filter 1560, and a memory 1570.
  • the image decoding apparatus may be implemented by each component as a hardware chip, or may be implemented by software and a microprocessor to execute a function of software corresponding to each component.
  • the decoder 1510 decodes the bitstream received from the image encoding apparatus, extracts information related to block division, determines a current block to be decoded, and includes prediction information and residual signal information necessary for reconstructing the current block. Extract
  • the decoder 1510 extracts information on the CTU size from a Sequence Parameter Set (SPS) or Picture Parameter Set (PPS) to determine the size of the CTU, and divides the picture into a CTU of the determined size.
  • the CTU is determined as the highest layer of the tree structure, that is, the root node, and the CTU is partitioned using the tree structure by extracting partition information about the CTU. For example, when splitting a CTU using a QTBT structure, first, a first flag (QT_split_flag) related to splitting of QT is extracted, and each node is divided into four nodes of a lower layer. For the node corresponding to the leaf node of the QT, the second flag BT_split_flag and the split type information related to the splitting of the BT are extracted to split the corresponding leaf node into the BT structure.
  • SPS Sequence Parameter Set
  • PPS Picture Parameter Set
  • the QT division flag QT_split_flag corresponding to the node of the highest layer of the QTBT structure is extracted. Since the value of the extracted QT split flag QT_split_flag is 1, the node of the highest layer is divided into four nodes of the lower layer (layer 1 of QT). Then, the QT splitting flag QT_split_flag for the first node of layer 1 is extracted. Since the extracted QT split flag (QT_split_flag) has a value of 0, the first node of layer 1 is no longer split into a QT structure.
  • the BT split flag (BT_split_flag) for the first node of (layer 1) split from the root node of BT is extracted. Since the BT split flag BT_split_flag is 1, the split type information of the block of the first node of (layer 1) is extracted. Since the partition type information of the block of the first node of (layer 1) is 1, the block of the first node of (layer 1) is vertically divided. Then, the BT split flag BT_split_flag of the second node of (layer 1) divided from the root node of BT is extracted. Since the BT split flag BT_split_flag is 0, it is no longer split by BT.
  • the decoder 1510 first recursively extracts the QT splitting flag QT_split_flag to split the CTU into a QT structure.
  • the BT split flag (BT_split_flag) is extracted for the leaf node of the QT, and when the BT split flag (BT_split_flag) indicates the split, split type information is extracted.
  • the decoder 1510 may confirm that the CTU is divided into a structure as shown in FIG.
  • the decoder 1510 extracts the information and uses the information when extracting the split information for the QT and BT. Can reflect.
  • the decoder 1510 does not extract the split information (QT split flag) about the QT of the block from the bitstream (that is, the QT split flag of the block does not exist in the bitstream), and automatically extracts the value. Set to zero.
  • the decoder 1510 does not extract the BT split flag for the leaf node having a block larger than MaxBTSize in QT, and automatically sets the BT split flag to 0.
  • the depth of the node of the BT reaches MaxBTDepth, the block of the node is no longer split.
  • the BT partition flag of the corresponding node is not extracted from the bitstream, and its value is automatically set to zero. Also, in BT, blocks having the same size as MinBTSize are no longer split. Accordingly, the decoder 1510 does not extract the BT partition flag of the block having the same size as MinBTSize from the bitstream, and automatically sets the value to zero.
  • the decoder 1510 determines the current block (current block) to be decoded by splitting the tree structure, the decoder 1510 extracts information about a prediction type indicating whether the current block is intra predicted or inter predicted.
  • the decoder 1510 extracts a syntax element for intra prediction information (intra prediction mode) of the current block.
  • mode information indicating whether the intra prediction mode of the current block is selected from the MPMs is extracted.
  • first intra identification information for indicating which mode of the MPMs is selected as the intra prediction mode of the current block is extracted.
  • the second intra for indicating which mode other than the MPM is selected as the intra prediction mode of the current block. Extract identification information.
  • the decoder 1510 extracts a syntax element for the inter prediction information.
  • mode information indicating whether the motion information of the current block is encoded by which of a plurality of encoding modes is extracted.
  • the plurality of encoding modes include a merge mode and a differential motion vector encoding mode.
  • the decoder 1510 extracts merge index information indicating whether to derive the motion vector of the current block from the candidates among the merge candidates as a syntax element for the motion information.
  • the decoder 1510 extracts the information about the differential motion vector and the reference picture to which the motion vector of the current block refers as a syntax element for the motion vector. do.
  • the prediction motion vector identification information is included in the bitstream. Therefore, in this case, not only the information on the differential motion vector and the reference picture but also the predicted motion vector identification information are extracted as syntax elements for the motion vector.
  • the decoder 1510 extracts information on the quantized transform coefficients of the current block as information on the residual signal.
  • the inverse quantization unit 1520 inversely quantizes the quantized transform coefficients, and the inverse transform unit 1530 inversely transforms the inverse quantized transform coefficients from the frequency domain to the spatial domain to generate a residual block for the current block.
  • the predictor 1540 includes an intra predictor 1542 and an inter predictor 1544.
  • the intra predictor 1542 is activated when the intra prediction is the prediction type of the current block
  • the inter predictor 1544 is activated when the intra prediction is the prediction type of the current block.
  • the intra predictor 1542 determines the intra prediction mode of the current block among the plurality of intra prediction modes from the syntax elements for the intra prediction mode extracted from the decoder 1510, and references pixels around the current block according to the intra prediction mode. Predict the current block using
  • the intra prediction unit 1542 constructs an MPM list including a predetermined number of MPMs from neighboring blocks of the current block.
  • the method of constructing the MPM list is the same as that of the intra predictor 222 of FIG. 2.
  • the intra prediction unit 1542 may convert the MPM indicated by the first intra identification information among the MPMs in the MPM list into the intra of the current block. Select the prediction mode.
  • the intra prediction mode of the current block is determined among the remaining intra prediction modes except for the MPMs in the MPM list using the second intra identification information. do.
  • the inter prediction unit 1544 determines motion information of the current block using syntax elements of the intra prediction mode extracted from the decoder 1510, and predicts the current block using the determined motion information.
  • the inter prediction unit 1544 checks mode information in the inter prediction extracted from the decoder 1510.
  • the inter prediction unit 1544 constructs a merge list including a predetermined number of merge candidates using neighboring blocks of the current block.
  • the inter prediction unit 1544 configures the merge list in the same way as the inter prediction unit 224 of the image encoding apparatus.
  • one merge candidate is selected from among the merge candidates in the merge list by using the merge index information transmitted from the decoder 1510.
  • the motion information of the selected merge candidate that is, the motion vector and the reference picture of the merge candidate are set as the motion vector and the reference picture of the current block.
  • the inter prediction unit 1544 derives the predictive motion vector candidates using the motion vectors of the neighboring blocks of the current block, and uses the predictive motion vector candidates to determine the current block. Determine the predicted motion vector for the motion vector of.
  • the inter prediction unit 1544 derives the prediction motion vector candidates in the same manner as the inter prediction unit 224 of the image encoding apparatus. If the image encoding apparatus uses any one of a plurality of prediction motion vector candidates as the prediction motion vector of the current block, the syntax element for the motion information includes the prediction motion vector identification information. Therefore, in this case, the inter prediction unit 1544 may select a candidate indicated by the prediction motion vector identification information among the prediction motion vector candidates as the prediction motion vector.
  • the inter prediction unit may determine the prediction motion vector by applying the same function as the image encoding apparatus.
  • the inter predictor 1544 adds the predicted motion vector and the differential motion vector transmitted from the decoder 1510 to determine the motion vector of the current block.
  • the reference picture referred to by the motion vector of the current block is determined by using information about the reference picture transferred from the decoder 1510.
  • the inter prediction unit 1542 When the motion vector and the reference picture of the current block are determined in the merge mode or the differential motion vector encoding mode, the inter prediction unit 1542 generates the prediction block of the current block using the block indicated by the motion vector in the reference picture. do.
  • the adder 1550 reconstructs the current block by adding the residual block output from the inverse transformer and the prediction block output from the inter predictor or the intra predictor.
  • the pixels in the reconstructed current block are utilized as reference pixels when intra prediction of a block to be decoded later.
  • the filter unit 1560 deblocks and filters the boundary between the reconstructed blocks in order to remove blocking artifacts caused by block-by-block decoding, and stores them in the memory 290. When all the blocks in a picture are reconstructed, the reconstructed picture is used as a reference picture for inter prediction of a block in a picture to be decoded later.
  • the image decoding technique described above is also applied when decoding a 360 image encoded in 2D after being projected in 2D.
  • the metadata of the 360 image is stored at any one of a video parameter set (VPS), a sequence parameter set (SPS), a picture pattern set (PPS), and supplementary enhancement information (SEI). It is encoded. Accordingly, the decoder 1510 extracts metadata of the 360 image at the corresponding position. The extracted metadata is used to reconstruct the 360 image. In particular, the metadata may be used when predicting the current block or decoding the prediction information about the current block.
  • VPS video parameter set
  • SPS sequence parameter set
  • PPS picture pattern set
  • SEI Supplemental Enhancement Information
  • FIG. 16 illustrates an apparatus for determining prediction information of a current block in a 360 image, according to an embodiment of the present invention.
  • the apparatus 1600 includes a prediction information candidate generator 1610 and a prediction information determiner 1620.
  • the prediction information candidate generator 1610 generates prediction information candidates using neighboring blocks of the current block located on the first surface of the 2D layout projected from the 360 image.
  • the prediction information candidate generator 1610 is 360 even though the current block is not adjacent to the current block.
  • a block adjacent to the current block in the image is set as a neighboring block of the current block.
  • the prediction information candidate generator 910 identifies a second surface that is first contacted with the boundary of the current block.
  • the second face is identified using one or more projection formats, face indexes, and rotation information of the face among metadata of the 360 image. Since the prediction information candidate generator 1610 determines a neighboring block of the current block based on the 360 image, the prediction information candidate generator 1610 is the same as that of the prediction information candidate generator 910 of FIG.
  • the prediction information determiner 1620 is a syntax element for the prediction information candidates generated by the prediction information candidate generator 1610 and the prediction information extracted by the decoder 1510, that is, a syntax element or inter for the intra prediction information.
  • the prediction information of the current block is restored using a syntax element for the prediction information.
  • FIG. 17 is a diagram illustrating a detailed configuration of the intra prediction unit 1542 when the apparatus of FIG. 16 is applied to intra prediction.
  • the intra prediction unit 1542 includes an MPM generator 1710, an intra prediction mode determiner 1720, a reference pixel generator 1730, and a prediction block generator 1740. It includes.
  • the MPM generator 1710 and the intra prediction mode determiner 1720 correspond to the prediction information candidate generator 1610 and the prediction information determiner 1620 of FIG. 16, respectively.
  • the MPM generator 1710 constructs an MPM list by deriving MPMs from the intra prediction mode of the neighboring block of the current block.
  • the MPM generator 1710 determines the neighboring block of the current block based on the 360 image rather than the 2D layout. That is, even if there is no neighboring block of the current block in the 2D layout, if there is a block adjacent to the current block in the 360 image, the neighboring block of the current block is set as the block.
  • the method of determining the neighboring block by the MPM generator 1710 is the same as that of the MPM generator 1110 of FIG. 11.
  • the intra prediction mode determiner 1720 determines the intra prediction mode of the current block from the syntax elements for the MPMs in the MPM list generated by the MPM generator 1710 and the intra prediction mode extracted from the decoder 1510. . That is, if the mode information of the intra prediction indicates that the intra prediction mode of the current block is determined from the MPM list, the intra prediction mode determiner 1720 determines the mode identified by the first intra identification information among the MPM candidates included in the MPM list. Determine the intra prediction mode of the current block.
  • the MPM list among a plurality of intra prediction modes that is, all intra prediction modes that can be used for intra prediction of the current block, is determined.
  • the intra prediction mode of the current block is determined using the second intra identification information among the remaining intra prediction modes except for the MPMs.
  • the reference pixel generator 1730 sets pixels in the first decoded block located around the current block as reference pixels. If the boundary of the current block coincides with the boundary of the first surface on which the current block is located, the reference pixel generator 1730 sets the reference pixel based on the 360 image rather than the 2D layout.
  • the method of setting the reference pixel by the reference pixel generator 1730 is the same as the reference pixel generator 1130 of FIG. 11.
  • the prediction block generation unit 1740 selects reference pixels corresponding to the intra prediction mode of the current block among the reference pixels, and predicts the current block by using an expression corresponding to the intra prediction mode of the current block to the selected reference pixels. Create a block.
  • FIG. 18 is a diagram illustrating a detailed configuration of the inter prediction unit 1544 when the apparatus of FIG. 16 is applied to inter prediction.
  • the inter prediction unit 1544 includes a merge candidate generator 1810, a motion vector predictor (MVP) candidate generator 1820, a motion information determiner 1830, and a prediction block.
  • Generation unit 1840 is included.
  • the merge candidate generator 1810 and the MVP candidate generator 1820 correspond to the prediction information candidate generator 1610 of FIG. 16.
  • the motion information determiner 1830 corresponds to the prediction information determiner 1620 of FIG. 16.
  • the merge candidate generator 1810 is activated when the mode information of the inter prediction extracted from the decoder 1510 indicates the merge mode.
  • the merge candidate generator 1810 generates a merge list including merge candidates using neighboring blocks of the current block.
  • the merge candidate generator 1420 determines a block adjacent to the current block as a neighboring block based on the 360 image. That is, in the 2D layout, the block adjacent to the current block is set as the neighboring block of the current block in the 360 image even if the current block is not adjacent to the current block.
  • the merge candidate generator 1810 is the same as the merge candidate generator 1420 of FIG. 14.
  • the MVP candidate generator 1820 is activated when the mode information of the inter prediction extracted from the decoder 1510 indicates a differential motion vector encoding mode.
  • the MVP candidate generator 1820 determines a candidate (predicted motion vector candidate) for the predicted motion vector of the current block by using the motion vectors of neighboring blocks of the current block.
  • the MVP candidate generator 1820 determines the prediction motion vector candidates in the same manner as the syntax generator 1430 determines the prediction motion vector candidates in FIG. 14.
  • the MVP candidate generator 1820 is 360 instead of an image of a 2D layout when the boundary of the current block matches the boundary of the first surface on which the current block is located. A block adjacent to the current block is determined as a neighboring block of the current block based on the image.
  • the motion information determiner 1830 reconstructs the motion information of the current block by using the merge candidates or the predicted motion vector candidates and the motion information syntax element extracted from the decoder 1510 according to the inter prediction mode information. For example, when the inter prediction mode information indicates the merge mode, the motion information determiner 1830 determines a motion vector and a reference picture of the candidate indicated by the merge index information among the merge candidates in the merge list, and the motion vector of the current block. And reference picture. On the other hand, when the inter prediction mode information indicates the differential motion vector encoding mode, the motion information determiner 1830 determines the predicted motion vector for the motion vector of the current block by using the predicted motion vector candidates, and determines the determined predicted motion. The motion vector of the current block is determined by adding the difference motion vector transmitted from the vector and the decoder 1510. Then, the reference picture is determined by using information about the reference picture transferred from the decoder 1510.
  • the prediction block generator 1840 predicts the current block by using the motion vector and the reference picture of the current block determined by the motion information determiner 1830. That is, the prediction block for the current block is generated using the block indicated by the motion vector of the current block in the reference picture.

Abstract

The present invention relates to a method for encoding prediction information of a current block located on a first plane to be encoded when encoding each plane in a two-dimensional image projected from a 360 degrees image and comprises: a step of generating prediction information candidates by using surrounding blocks of a current block; and a step of encoding a syntax element associated with prediction information of the current block by using the prediction information candidates, wherein, if the boundary of the current block matches that of a first plane, blocks adjacent to the current block on the basis of a 360 degrees image, not a two-dimensional image, are configured as at least some of the surrounding blocks.

Description

영상 부호화 또는 복호화하기 위한 장치 및 방법Apparatus and method for image encoding or decoding
본 발명은 영상을 효율적으로 부호화하기 위한 영상 부호화 또는 복호화에 관한 것이다.The present invention relates to image encoding or decoding for efficiently encoding an image.
동영상 데이터는 음성 데이터나 정지 영상 데이터 등에 비하여 데이터량이 많기 때문에, 압축을 위한 처리 없이 그 자체를 저장하거나 전송하기 위해서는 메모리를 포함하여 많은 하드웨어 자원을 필요로 한다. 따라서, 통상적으로 동영상 데이터를 저장하거나 전송할 때에는 부호화기를 사용하여 동영상 데이터를 압축하여 저장하거나 전송하며, 복호화기에서는 압축된 동영상 데이터를 수신하여 압축을 해제하고 재생한다. 이러한 동영상 압축 기술로는 H.264/AVC를 비롯하여, H.264/AVC 약 40% 정도의 부호화 효율을 향상시킨 2013년 초에 제정된 HEVC(High Efficiency Video Coding)가 존재한다. Since moving picture data has a larger amount of data than audio data, still image data, and the like, a large amount of hardware resources including a memory are required to store or transmit itself without processing for compression. Accordingly, when storing or transmitting video data, the video data is compressed and stored or transmitted using an encoder, and the decoder receives the compressed video data, decompresses, and plays the video data. Such video compression techniques include H.264 / AVC and High Efficiency Video Coding (HEVC), which was established in early 2013, which improved coding efficiency by about 40%.
그러나, 영상의 크기 및 해상도, 프레임율이 점차 증가하고 있고, 이에 따라 부호화해야 하는 데이터량도 증가하고 있다. 따라서, 기존의 압축 기술보다 더 부호화 효율이 좋은 압축 기술이 요구된다.However, the size, resolution, and frame rate of an image are gradually increasing, and accordingly, the amount of data to be encoded is also increasing. Therefore, a compression technique with better coding efficiency than a conventional compression technique is required.
또한, 카메라에 의해 생성된 기존의 2D 자연 영상 이외에 게임이나 360도 영상(이하, '360 영상'이라 함) 등의 비디오 콘텐츠에 대한 수요도 갈수록 증가하고 있다. 이러한 게임이나 360 영상은 기존 2D 자연 영상과는 다른 특징을 포함하므로, 2D 영상을 기반으로 하는 기존의 압축 기술로는 압축에 한계가 있다.In addition to the existing 2D natural video generated by the camera, the demand for video content such as games or 360-degree video (hereinafter referred to as "360 video") is increasing. Since such games or 360 images include features different from existing 2D natural images, there is a limit to compression using existing compression techniques based on 2D images.
360 영상은 여러 대의 카메라로 여러 방향에서 촬영한 영상으로, 여러 장면의 영상을 압축, 전송할 수 있도록 여러 카메라에서 출력된 영상을 하나의 2D 영상으로 스티칭(stitching)하며, 스티칭된 영상은 압축되어 복호화 장치로 전송된다. 복호화 장치는 압축된 영상을 복호화한 이후에 3D로 매핑하여 재생된다. 360 video is a video taken from multiple directions with multiple cameras. Stitching the video output from multiple cameras into a single 2D video to compress and transmit video from multiple scenes. The stitched video is compressed and decoded. Is sent to the device. After decoding the compressed image, the decoding apparatus is reproduced by mapping in 3D.
360 영상에 대한 투영 포맷으로 대표적인 것은 도 1에 도시된 바와 같은 정방형 투영(equirectangular projection)이다. 도 1의 (a)는 3D로 매핑된 구(sphere) 모양의 360 영상을, (b)는 구(sphere) 모양의 360 영상을 equirectangular format으로 투영한 결과이다.An example of a projection format for a 360 image is a square projection (equirectangular projection) as shown in FIG. (A) of FIG. 1 shows a spherical 360 image mapped in 3D, and (b) shows a spherical 360 image in an equirectangular format.
이러한 정방형 투영은 위, 아래 부분의 픽셀을 늘려 심하게 왜곡시키는 단점이 있으며, 영상의 압축 시에도 늘어난 부분에 데이터량 증가 및 인코딩 처리량을 늘리는 단점이 있다. 따라서, 360 영상을 효율적으로 부호화할 수 있는 영상 압축 기술이 요구된다.Such square projection has a disadvantage of severely distorting the pixels by increasing the upper and lower pixels, and increases the data amount and the encoding throughput in the increased portion even when the image is compressed. Accordingly, there is a need for an image compression technology capable of efficiently encoding 360 images.
본 발명은 해상도나 프레임율이 높은 영상 또는 360 영상을 효율적으로 부호화하기 위한 영상 부호화 또는 복호화 기술을 제공한다.The present invention provides an image encoding or decoding technique for efficiently encoding an image or a 360 image having a high resolution or frame rate.
본 발명의 일 측면은 360 영상으로부터 투영된 2D 이미지의 각 면을 부호화할 때, 부호화하고자 제1 면에 위치하는 현재블록의 예측정보를 부호화하는 방법에 있어서, 상기 현재블록의 주변블록들을 이용하여 예측정보 후보들을 생성하는 단계; 및 상기 예측정보 후보들을 이용하여 상기 현재블록의 예측정보에 대한 신택스 요소(syntax element)를 부호화하는 단계를 포함하되, 상기 현재블록의 경계가 상기 제1 면의 경계와 일치할 때, 상기 360 영상을 기준으로 상기 현재블록에 인접한 블록을 상기 주변블록들 중 적어도 일부로 설정하는 것을 특징으로 하는 예측정보 부호화 방법을 제공한다.An aspect of the present invention provides a method of encoding prediction information of a current block located on a first surface to be encoded when encoding each surface of a 2D image projected from a 360 image, using neighboring blocks of the current block. Generating prediction information candidates; And encoding a syntax element of the prediction information of the current block by using the prediction information candidates, when the boundary of the current block coincides with the boundary of the first surface. It provides a prediction information encoding method, characterized in that the block adjacent to the current block is set as at least some of the neighboring blocks.
본 발명의 다른 측면은 2D 이미지로 부호화된 360 영상에서 복호화하고자 하는 제1 면에 위치하는 현재블록의 예측정보를 복호화하는 방법에 있어서, 비트스트림으로부터 상기 현재블록의 예측정보에 대한 신택스 요소(syntax element)를 복호화하는 단계; 상기 현재블록의 주변블록들을 이용하여 예측정보 후보들을 생성하는 단계; 및 상기 예측정보 후보들 및 상기 복호화된 신택스 요소를 이용하여 상기 현재블록의 예측정보를 복원하는 단계를 포함하되, 상기 현재블록의 경계가 상기 제1 면의 경계와 일치할 때, 상기 360 영상을 기준으로 상기 현재블록에 인접한 블록을 상기 주변블록들 중 적어도 일부로 설정하는 것을 특징으로 하는 예측정보 복호화 방법을 제공한다.Another aspect of the present invention is a method for decoding prediction information of a current block located on a first surface to be decoded in a 360 image encoded as a 2D image, the syntax element for the prediction information of the current block from a bitstream an element); Generating prediction information candidates using neighboring blocks of the current block; And reconstructing prediction information of the current block by using the prediction information candidates and the decoded syntax element, when the boundary of the current block coincides with the boundary of the first surface. The present invention provides a method for decoding prediction information, wherein a block adjacent to the current block is set as at least some of the neighboring blocks.
본 발명의 또 다른 측면은 2D 이미지로 부호화된 360 영상에서 복호화하고자 하는 제1 면에 위치하는 현재블록의 예측정보를 복호화하는 장치에 있어서, 비트스트림으로부터 상기 현재블록의 예측정보에 대한 신택스 요소(syntax element)를 복호화하는 복호화부; 상기 현재블록의 주변블록들을 이용하여 예측정보 후보들을 생성하는 예측정보 후보 생성부; 및 상기 예측정보 후보들 및 상기 복호화된 신택스 요소를 이용하여 상기 현재블록의 예측정보를 복원하는 예측정보 결정부를 포함하되, 상기 예측정보 후보 생성부는, 상기 현재블록의 경계가 상기 제1 면의 경계와 일치할 때, 상기 360 영상을 기준으로 상기 현재블록에 인접한 블록을 상기 주변블록들 중 적어도 일부로 설정하는 것을 특징으로 하는 예측정보 복호화 장치를 제공한다.According to another aspect of the present invention, there is provided an apparatus for decoding prediction information of a current block located on a first surface to be decoded from a 360 image encoded as a 2D image, wherein a syntax element for the prediction information of the current block from a bitstream ( a decoder for decoding a syntax element; A prediction information candidate generator for generating prediction information candidates using neighboring blocks of the current block; And a prediction information determiner for reconstructing prediction information of the current block by using the prediction information candidates and the decoded syntax element, wherein the prediction information candidate generator comprises: a boundary of the current block and a boundary of the first surface; When there is a match, the apparatus for predicting information decoding comprises setting a block adjacent to the current block as at least some of the neighboring blocks based on the 360 image.
도 1은 360 영상의 정방형 투영(equirectangular projection) 포맷에 대한 예시도,1 is an exemplary diagram of a rectangular projection format of a 360 image;
도 2는 본 발명의 일 실시예에 따른 영상 부호화 장치에 대한 블록도,2 is a block diagram of an image encoding apparatus according to an embodiment of the present invention;
도 3은 QTBT(QuadTree plus BinaryTree) 구조를 이용한 블록 분할의 예시도,3 is an exemplary diagram of block partitioning using a QuadTree plus BinaryTree (QTBT) structure;
도 4는 복수의 인트라 예측 모드에 대한 예시도,4 is an exemplary diagram for a plurality of intra prediction modes;
도 5는 현재블록의 주변블록에 대한 예시도,5 is an exemplary diagram of neighboring blocks of a current block;
도 6은 360 영상의 다양한 투영 포맷에 대한 예시도,6 is an exemplary diagram for various projection formats of 360 images;
도 7은 큐브 투영 포맷의 레이아웃에 대한 예시도,7 is an exemplary diagram for a layout of a cube projection format;
도 8은 큐브 투영 포맷에서 레이아웃의 재배치를 설명하기 위한 예시도,8 is an exemplary diagram for explaining a rearrangement of a layout in a cube projection format;
도 9는 본 발명의 일 실시예에 따른 360 영상에서 현재블록의 예측정보에 대한 신택스 요소를 생성하는 장치의 블록도,9 is a block diagram of an apparatus for generating a syntax element for prediction information of a current block in a 360 image according to an embodiment of the present invention;
도 10은 compact 레이아웃을 적용한 큐브 포맷에서 현재블록의 주변블록을 결정하는 방법을 설명하기 위한 예시도,10 is an exemplary diagram for describing a method of determining a neighboring block of a current block in a cube format to which a compact layout is applied.
도 11은 도 9의 장치를 인트라 예측에 적용한 경우 도 2의 인트라 예측부의 세부 구성을 나타내는 도면,FIG. 11 is a diagram illustrating a detailed configuration of an intra predictor of FIG. 2 when the apparatus of FIG. 9 is applied to intra prediction. FIG.
도 12는 큐브 포맷에서 인트라 예측을 위한 참조픽셀들을 설정하는 방법을 설명하기 위한 예시도,12 is an exemplary diagram for explaining a method of setting reference pixels for intra prediction in a cube format;
도 13은 다양한 투영 포맷에서 인트라 예측을 위한 참조픽셀을 설정하는 방법을 설명하기 위한 예시도,13 is an exemplary diagram for explaining a method of setting a reference pixel for intra prediction in various projection formats;
도 14는 도 9의 장치를 인터 예측에 적용한 경우 도 2의 인터 예측부의 세부 구성을 나타내는 도면,14 is a diagram illustrating a detailed configuration of an inter predictor of FIG. 2 when the apparatus of FIG. 9 is applied to inter prediction;
도 15는 본 발명의 일 실시예에 따른 영상 복호화 장치를 나타내는 블록도,15 is a block diagram illustrating an image decoding apparatus according to an embodiment of the present invention;
도 16은 본 발명의 일 실시예에 따른 360 영상에서 현재블록의 예측정보를 복호화하기 위한 장치의 블록도,16 is a block diagram of an apparatus for decoding prediction information of a current block in a 360 image, according to an embodiment of the present invention;
도 17은 도 16의 장치를 인트라 예측에 적용한 경우 도 15의 인트라 예측부의 세부 구성을 나타내는 도면,17 is a diagram illustrating a detailed configuration of an intra predictor of FIG. 15 when the apparatus of FIG. 16 is applied to intra prediction;
도 18은 도 16의 장치를 인터 예측에 적용한 경우 도 15의 인터 예측부의 세부 구성을 나타내는 도면이다.FIG. 18 is a diagram illustrating a detailed configuration of the inter prediction unit of FIG. 15 when the apparatus of FIG. 16 is applied to inter prediction.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성 요소들에 식별 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through exemplary drawings. In adding an identification code to the components of each drawing, it should be noted that the same components as possible, even if shown on different drawings have the same reference numerals. In addition, in describing the present invention, when it is determined that the detailed description of the related well-known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.
도 2는 본 발명의 일 실시예에 따른 영상 부호화 장치에 대한 블록도이다.2 is a block diagram of an image encoding apparatus according to an embodiment of the present invention.
영상 부호화 장치는 블록 분할부(210), 예측부(220), 감산기(230), 변환부(240), 양자화부(245), 부호화부(250), 역양자화부(260), 역변환부(265), 가산기(270), 필터부(280) 및 메모리(290)를 포함한다. 영상 부호화 장치는 각 구성요소는 하드웨어 칩으로 구현될 수 있으며, 또는 소프트웨어로 구현되고 마이크로프로세서가 각 구성요소에 대응하는 소프트웨어의 기능을 실행하도록 구현될 수도 있다.The image encoding apparatus includes a block divider 210, a predictor 220, a subtractor 230, a transformer 240, a quantizer 245, an encoder 250, an inverse quantizer 260, and an inverse transform unit ( 265, an adder 270, a filter unit 280, and a memory 290. In the image encoding apparatus, each component may be implemented as a hardware chip, or may be implemented in software and implemented so that the microprocessor executes a function of software corresponding to each component.
블록 분할부(210)는 영상을 구성하는 각 픽처(picture)를 복수의 CTU(Coding Tree Unit)으로 분할한 이후에, CTU를 트리 구조(tree structure)를 이용하여 반복적으로(recursively) 분할한다. 트리 구조에서의 리프 노드(leaf node)가 부호화의 기본 단위인 CU (coding unit)가 된다. 트리 구조로는 상위 노드가 네 개의 하위 노드로 분할하는 쿼드트리(QuadTree, QT), 또는 QT 구조 및 상위 노드가 두 개의 하위 노드로 분할하는 바이너리트리(BinaryTree, BT) 구조를 혼용한 QTBT (QuadTree plus BinaryTree) 구조가 사용될 수 있다. After dividing each picture constituting the image into a plurality of coding tree units (CTUs), the block dividing unit 210 recursively divides the CTUs using a tree structure. A leaf node in the tree structure becomes a CU (coding unit) which is a basic unit of coding. As a tree structure, QuadTree (QT), which the parent node splits into four child nodes, or QTBT (QuadTree), which uses a QT structure and a binaryTree (BT) structure that the parent node splits into two child nodes. plus BinaryTree) structure can be used.
QTBT (QuadTree plus BinaryTree) 구조에서, CTU는 먼저 QT 구조로 분할된다. 이후, QT의 리프 노드들은 BT에 의해 추가로 더 분할될 수 있다. 블록 분할부(210)가 QTBT 구조에 의해 CTU를 분할하여 생성하는 분할 정보는 부호화부(250)에 의해 부호화되어 복호화 장치로 전달된다. In a QTBT (QuadTree plus BinaryTree) structure, the CTU is first divided into a QT structure. The leaf nodes of the QT may then be further partitioned by BT. The partition information generated by the block divider 210 by dividing the CTU by the QTBT structure is encoded by the encoder 250 and transmitted to the decoding apparatus.
QT에서는 해당 노드의 블록이 분할 여부를 지시하는 제1 플래그(QT 분할 플래그, QT_split_flag)가 부호화된다. 제1 플래그가 1이면 해당 노드의 블록이 동일 크기의 네 개의 블록으로 분할되고, 0이면 해당 노드는 QT에 의해 더 이상 분할되지 않는다. In QT, a first flag (QT split flag, QT_split_flag) indicating whether a block of a corresponding node is split is encoded. If the first flag is 1, the block of the node is divided into four blocks of the same size. If the first flag is 1, the node is no longer divided by QT.
BT에서는 해당 노드의 블록의 분할 여부를 지시하는 제2 플래그(BT 분할 플래그, BT_split_flag)가 부호화된다. BT 에서는 복수의 분할 타입이 존재할 수 있다. 예컨대, 해당 노드의 블록을 동일 크기의 두 개 블록으로 가로로 분할하는 타입과 세로로 분할하는 타입 두 가지가 존재할 수 있다. 또는, 해당 노드의 블록을 서로 비대칭 형태의 두 개의 블록으로 분할하는 타입이 추가로 더 존재할 수도 있다. 비대칭 형태로는 해당 노드의 블록을 1:3의 크기 비율을 가지는 두 개의 직사각형 블록으로 분할하는 형태를 포함할 수 있고, 또는 해당 노드의 블록을 대각선 방향으로 분할하는 형태를 포함할 수도 있다. 이렇게 BT가 복수의 분할 타입을 가지는 경우에는, 블록이 분할됨을 의미하는 제2 플래그가 부호화되면, 해당 블록의 분할 타입을 지시하는 분할 타입 정보가 추가로 부호화된다.In BT, a second flag (BT split flag, BT_split_flag) indicating whether a block of the corresponding node is split is encoded. In BT, there may be a plurality of partition types. For example, there may be two types of partitioning a block of a node horizontally into two blocks of the same size and a type of partitioning vertically. Alternatively, there may further be a type in which blocks of the corresponding node are further divided into two blocks having an asymmetric shape. The asymmetrical form may include dividing a block of a node into two rectangular blocks having a size ratio of 1: 3, or dividing a block of the node in a diagonal direction. When the BT has a plurality of division types in this manner, when a second flag indicating that a block is divided is encoded, partition type information indicating a partition type of the corresponding block is further encoded.
도 3은 QTBT 구조를 이용한 블록 분할의 예시도이다. 도 3의 (a)는 QTBT 구조에 의해 블록이 분할되는 예시이고, (b)는 이를 트리구조로 표현한 것이다. 도 3에서 실선은 QT 구조에 의한 분할을, 점선은 BT 구조에 의한 분할을 나타낸다. 또한, 도 3 (b)에서 layer 표기와 관련하여, 괄호가 없는 것은 QT의 레이어를, 괄호가 있는 것은 BT의 레이어를 나타낸다. 점선으로 표현된 BT 구조에서 숫자는 분할 타입 정보를 나타낸다.3 is an exemplary diagram of block division using a QTBT structure. (A) of FIG. 3 is an example in which a block is divided by a QTBT structure, and (b) shows it in a tree structure. In FIG. 3, the solid line indicates the division by the QT structure, and the dotted line indicates the division by the BT structure. In addition, in FIG. 3B, the parenthesis indicates a layer of QT, and the parenthesis indicates a layer of BT. In the BT structure represented by a dotted line, a number represents partition type information.
도 3에서, QT의 최상위 레이어인 CTU는 layer 1의 네 개의 노드로 분할된다. 이에 따라 블록 분할부(210)는 CTU가 분할됨을 지시하는 QT 분할 플래그(QT_split_flag = 1)를 생성한다. layer 1의 첫 번째 노드에 해당하는 블록은 더 이상 QT에 의해 분할되지 않다. 따라서, 블록 분할부(210)는 QT_split_flag = 0을 생성한다. In FIG. 3, the CTU, which is the highest layer of QT, is divided into four nodes of layer 1. Accordingly, the block dividing unit 210 generates a QT splitting flag (QT_split_flag = 1) indicating that the CTU is divided. The block corresponding to the first node of layer 1 is no longer divided by QT. Accordingly, the block divider 210 generates QT_split_flag = 0.
이후, QT의 layer 1의 첫 번째 노드에 해당하는 블록은 BT로 진행한다. 본 실시예에서는, BT가 해당 노드의 블록을 동일 크기의 두 개 블록으로 가로로 분할하는 타입과 세로로 분할하는 타입 두 가지가 존재하는 것으로 설명한다. QT의 layer 1의 첫 번째 노드는 BT의 루트 노드(root node, (layer 0))가 된다. BT의 루트 노드에 해당하는 블록은 (layer 1)의 블록으로 더 분할되므로, 블록 분할부(210)는 BT에 의해 분할됨을 지시하는 BT 분할 플래그(BT_split_flag) = 1을 생성한다. 이후, 해당 블록이 가로로 분할되는지 아니면 세로로 분할되는지 여부를 지시하는 분할 타입 정보를 생성한다. 도 3에서 BT의 루트 노드에 해당하는 블록은 세로로 분할되므로 세로 분할을 지시하는 1이 분할 타입 정보로서 생성된다. 루트 노드로부터 분할된 (layer 1)의 블록 중 첫 번째 블록은 추가로 더 분할되고 분할 타입은 세로이므로, BT_split_flag = 1 및 분할 타입 정보 1을 생성한다. 반면, BT의 루트 노드로부터 분할된 (layer 1)의 두 번째 블록은 더 이상 분할되지 않으므로 BT_split_flag = 0을 생성한다. Thereafter, the block corresponding to the first node of layer 1 of the QT proceeds to BT. In the present embodiment, it will be described that there are two types in which the BT divides the block of the node into two blocks of the same size horizontally and vertically. The first node of QT's layer 1 becomes the root node of BT (layer 0). Since the block corresponding to the root node of BT is further divided into blocks of (layer 1), the block dividing unit 210 generates a BT split flag BT_split_flag = 1 indicating that the split is performed by BT. Subsequently, partition type information indicating whether the corresponding block is divided horizontally or vertically is generated. In FIG. 3, the block corresponding to the root node of the BT is vertically divided, so that 1 indicating the vertical division is generated as the partition type information. Since the first block of the block of (layer 1) divided from the root node is further split and the split type is vertical, it generates BT_split_flag = 1 and split type information 1. On the other hand, since the second block of (layer 1) split from the root node of BT is no longer split, BT_split_flag = 0 is generated.
한편, QTBT 구조에 의한 블록 분할에 대한 정보를 효율적으로 복호화 장치로 시그널링하기 위해, 다음의 정보가 추가로 부호화될 수 있다. 이 정보들은 영상의 헤더 정보로서 부호화되는데, 예컨대 SPS (Sequence Parameter Set)이나 PPS (Picture Parameter Set)로 부호화될 수 있다.On the other hand, in order to efficiently signal the information about the block division by the QTBT structure to the decoding apparatus, the following information may be further encoded. The information is encoded as header information of an image, for example, may be encoded by a sequence parameter set (SPS) or a picture parameter set (PPS).
- CTU size: QTBT의 최상위 레이어, 즉, 루트 노드의 블록 크기 CTU size: the top layer of QTBT, that is, the block size of the root node
- MinQTSize: QT에서 허용되는 리프 노드의 최소 블록 크기MinQTSize: the minimum block size of leaf nodes allowed in QT
- MaxBTSize: BT에서 허용되는 루트 노드의 최대 블록 크기MaxBTSize: the maximum block size of the root node allowed by BT
- MaxBTDepth: BT에서 허용되는 최대 심도(Depth)MaxBTDepth: the maximum depth allowed by BT
- MinBTSize: BT에서 허용되는 리프 노드의 최소 블록 크기MinBTSize: the minimum block size of leaf nodes allowed in BT
QT에서 MinQTSize 과 동일한 크기를 가지는 블록은 더 이상 분할되지 않으며, 따라서 해당 블록에 대응하는 QT에 관한 분할 정보(제1 플래그)는 부호화되지 않는다. 또한, QT에서 MaxBTSize보다 큰 크기를 가지는 블록은 BT가 존재하지 않는다. 따라서, 해당 블록에 대응하는 BT에 관한 분할 정보(제2 플래그, 분할 타입 정보)는 부호화되지 않는다. 또한, BT의 해당 노드의 심도(depth)가 MaxBTDepth에 도달하면, 해당 노드의 블록은 더 이상 분할되지 않으며 해당 노드의 BT에 관한 분할 정보(제2 플래그, 분할 타입 정보) 또한 부호화되지 않는다. 또한, BT에서 MinBTSize와 동일한 크기를 가지는 블록은 더 이상 분할되지 않으며 BT에 관한 분할 정보(제2 플래그, 분할 타입 정보) 또한 부호화되지 않는다. 이렇게, QT와 BT의 루프나 리프 노드가 가질 수 있는 최대 또는 최소 블록 크기를 SPS (Sequence Parameter Set)이나 PPS (Picture Parameter Set) 등의 하이 레벨(high level)에서 정의함으로써, CTU의 분할 여부나 분할 타입을 지시하는 정보들에 대한 부호화량을 줄일 수 있다.In QT, a block having the same size as MinQTSize is no longer split, and thus split information (first flag) about QT corresponding to the block is not encoded. In addition, there is no BT in a block having a size larger than MaxBTSize in QT. Therefore, splitting information (second flag, splitting type information) regarding BT corresponding to the block is not encoded. In addition, when the depth of the corresponding node of the BT reaches MaxBTDepth, the block of the corresponding node is no longer split and no splitting information (second flag, split type information) regarding the BT of the corresponding node is not encoded. In addition, a block having the same size as MinBTSize in BT is no longer split and no split information (second flag, split type information) regarding BT is also encoded. In this way, the maximum or minimum block size that a loop or leaf node of the QT and BT can have at a high level such as a sequence parameter set (SPS) or a picture parameter set (PPS) can be defined to determine whether the CTU is divided or not. The amount of coding for the information indicating the partition type can be reduced.
한편, CTU의 휘도(luma) 성분과 색차(chroma) 성분은 동일한 QTBT 구조로 분할될 수 있다. 그러나, 본 발명이 이에 한정되는 것은 아니며 휘도 성분과 색차 성분이 각각 별개의 QTBT 구조를 사용하여 분할될 수 있다. 예컨대, I (Intra) 슬라이스의 경우에는 루마(luma) 성분과 chroma 성분이 서로 다른 QTBT 구조로 분할될 수도 있다.Meanwhile, the luma component and the chroma component of the CTU may be divided into the same QTBT structure. However, the present invention is not limited thereto, and the luminance component and the chrominance component may be divided using separate QTBT structures, respectively. For example, in the case of an I (Intra) slice, a luma component and a chroma component may be divided into different QTBT structures.
이하에서는, 부호화 또는 복호화하고자 하는 CU에 해당하는 블록을 '현재블록'이라 칭한다.Hereinafter, a block corresponding to a CU to be encoded or decoded is called a 'current block'.
예측부(220)는 현재블록을 예측하여 예측블록을 생성한다. 예측부(220)는 인트라 예측부(222)와 인터 예측부(224)를 포함한다. The prediction unit 220 generates a prediction block by predicting the current block. The predictor 220 includes an intra predictor 222 and an inter predictor 224.
인트라 예측부(222)는 현재블록이 포함된 현재 픽처 내에서 현재블록의 주변에 위치한 픽셀(참조 픽셀)들을 이용하여 현재블록 내의 픽셀들을 예측한다. 예측 방향에 따라 복수의 인트라 예측모드가 존재하며, 각 예측모드에 따라 사용할 주변 픽셀과 연산식이 다르게 정의된다.The intra predictor 222 predicts pixels in the current block by using pixels (reference pixels) positioned around the current block in the current picture including the current block. There are a plurality of intra prediction modes according to the prediction direction, and the peripheral pixels to be used and the equations are defined differently according to each prediction mode.
도 4는 복수의 인트라 예측 모드에 대한 예시를 나타낸다. 4 illustrates an example of a plurality of intra prediction modes.
도 4에서 보는 바와 같이, 복수의 인트라 예측 모드는 2개의 비방향성 모드(planar 모드 및 DC 모드)와 65개의 방향성 모드를 포함할 수 있다.As shown in FIG. 4, the plurality of intra prediction modes may include two non-directional modes (planar mode and DC mode) and 65 directional modes.
인트라 예측부(222)는 복수의 인트라 예측 모드 중에서 하나의 인트라 예측 모드를 선택하고, 선택된 인트라 예측 모드에 따라 결정되는 주변 픽셀(참조 픽셀)과 연산식을 사용하여 현재블록을 예측한다. 선택된 인트라 예측 모드에 대한 정보는 부호화부(250)에 의해 부호화되어 복호화 장치로 전달된다.The intra predictor 222 selects one intra prediction mode from among the plurality of intra prediction modes, and predicts the current block by using a neighboring pixel (reference pixel) and an operation formula determined according to the selected intra prediction mode. Information about the selected intra prediction mode is encoded by the encoder 250 and transmitted to the decoding apparatus.
한편, 인트라 예측부(222)는, 복수의 인트라 예측 모드 중 어느 모드가 현재블록의 인트라 예측 모드로 사용되었는지를 지시하는 인트라 예측 모드 정보를 효율적으로 부호화하기 위해, 복수의 인트라 예측 모드 중 현재블록의 인트라 예측 모드로서 가능성이 높은 일부의 모드를 MPM(most probable mode)으로 선택한다. 그리고, 현재블록의 인트라 예측 모드가 MPM 중에서 선택되는지 여부를 지시하는 모드 정보를 생성하여 부호화부(250)로 전달한다. 현재블록의 인트라 예측 모드가 MPM 중에서 선택되는 경우, MPM 중 어느 모드가 현재블록의 인트라 예측 모드로 선택되었는지를 지시하기 위한 제1 인트라 식별정보를 부호화부로 전달한다. 반면 현재블록의 인트라 예측 모드가 MPM 중에서 선택되지 않은 경우, MPM이 아닌 나머지 모드들 중 어느 모드가 현재블록의 인트라 예측 모드로 선택되었는지를 지시하기 위한 제2 인트라 식별정보를 부호화부로 전달한다. Meanwhile, the intra prediction unit 222 may efficiently encode intra prediction mode information indicating which mode of the plurality of intra prediction modes is used as the intra prediction mode of the current block. The most probable mode is selected as the most probable mode (MPM) as the intra prediction mode of. Then, mode information indicating whether the intra prediction mode of the current block is selected from the MPM is generated and transmitted to the encoder 250. When the intra prediction mode of the current block is selected from the MPMs, the first intra identification information for indicating which mode of the MPMs is selected as the intra prediction mode of the current block is transmitted to the encoder. On the other hand, when the intra prediction mode of the current block is not selected from the MPM, the second intra identification information for indicating which mode other than the MPM is selected as the intra prediction mode of the current block is transmitted to the encoder.
이하에서는, MPM 리스트를 구성하는 방법을 설명한다. 본 명세서에서는 6개의 MPM으로 MPM 리스트를 구성하는 것을 예로 설명하나, 본 발명이 이에 한정되는 것은 아니며 MPM 리스트에 포함되는 MPM의 개수는 3개 내지 10개의 범위 내에서 선택될 수 있다.Hereinafter, a method of constructing the MPM list will be described. In the present specification, the configuration of the MPM list with six MPMs is described as an example, but the present invention is not limited thereto, and the number of MPMs included in the MPM list may be selected within a range of 3 to 10.
먼저, 현재블록의 주변블록들의 인트라 예측 모드를 이용하여 MPM 후보를 구성한다. 주변블록은, 예컨대 도 5에 도시된 바와 같이, 현재블록의 좌측블록(L), 상단블록(A), 좌하단블록(BL), 우상단블록(AR), 좌상단블록(AL) 중에서 전부 또는 일부를 포함할 수 있다. 여기서, 현재블록의 좌측블록(L)은 현재블록 내의 최좌측하단 픽셀의 위치에서 왼쪽으로 한 픽셀 이동한 위치의 픽셀을 포함한 블록을 의미하며, 현재블록의 상단블록(A)는 현재블록 내의 최우측상단 픽셀의 위치에서 위쪽으로 한 픽셀 이동한 위치의 픽셀을 포함한 블록을 의미한다. 좌하단블록(BL)은 현재블록 내의 최좌측하단 픽셀의 위치에서 위쪽으로 한 픽셀 이동 후 아래쪽으로 한 픽셀 이동한 위치의 픽셀을 포함한 블록을 의미하고, 우상단블록(AR)은 현재블록 내의 최우측상단 픽셀의 위치에서 위쪽으로 한 픽셀 이동 후 오른쪽으로 한 픽셀 이동한 위치의 픽셀을 포함한 블록을 의미하며, 좌상단블록(AL)은 현재블록 내의 최좌측상단 픽셀의 위치에서 위쪽으로 한 픽셀 이동 후 왼쪽으로 한 픽셀 이동한 위치의 픽셀을 포함한 블록을 의미한다.First, the MPM candidate is configured using the intra prediction mode of neighboring blocks of the current block. The neighboring block may be, for example, all or some of the left block L, the upper block A, the lower left block BL, the upper right block AR, and the upper left block AL of the current block. It may include. Here, the left block (L) of the current block means a block including the pixel of the position moved by one pixel to the left from the position of the left bottom pixel in the current block, the top block (A) of the current block is the most in the current block It means a block including the pixel of the position moved one pixel upward from the position of the upper right pixel. The lower left block BL means a block including a pixel at a position shifted one pixel upward after one pixel shifted upward from the position of the leftmost lower pixel in the current block, and the upper right block AR is the rightmost block in the current block. It means the block including the pixel of the position moved by one pixel to the right after moving one pixel upward from the position of the top pixel, and the upper left block (AL) is left after moving one pixel upward from the position of the leftmost pixel in the current block. This means a block containing the pixel of the position moved by one pixel.
이 주변블록들의 인트라 예측 모드가 MPM 리스트에 포함된다. 여기서, 좌측블록(L), 상단블록(A), 좌하단블록(BL), 우상단블록(AR), 좌상단블록(AL)의 순서로 유효한 블록의 인트라 예측모드가 MPM 리스트에 포함된다. 또는, 이 주변블록들의 인트라 예측 모드들에 planar 모드 및 DC 모드를 추가하여 후보를 구성한 이후에, 좌측블록(L), 상단블록(A), planar 모드, DC 모드, 좌하단블록(BL), 우상단블록(AR), 좌상단블록(AL)의 순으로 유효한 모드가 MPM 리스트에 추가될 수도 있다. The intra prediction mode of these neighboring blocks is included in the MPM list. Here, the intra prediction mode of the valid blocks in the order of the left block L, the top block A, the bottom left block BL, the top right block AR, and the top left block AL is included in the MPM list. Or, after adding the planar mode and the DC mode to the intra prediction modes of the neighboring blocks to form a candidate, the left block (L), the upper block (A), the planar mode, the DC mode, the lower left block (BL), The valid modes in the order of the upper right block AR and the upper left block AL may be added to the MPM list.
MPM 리스트에는 서로 다른 인트라 예측 모드만이 포함된다. 즉, 중복된 모드(duplicated mode)가 존재하는 경우 그 중 하나의 모드만이 MPM 리스트에 포함된다.The MPM list includes only different intra prediction modes. That is, when a duplicated mode is present, only one of them is included in the MPM list.
만약, 리스트 내의 MPM의 개수가 기결정된 개수(예컨대, 6)보다 작은 경우에는, 리스트 내의 방향성 모드들에 -1 또는 +1을 가산하여 MPM을 유도할 수도 있다. 또한, 리스트 내의 MPM의 개수가 기결정된 개수보다 작은 경우에는, 수직 모드(vertical mode), 수직 모드(horizontal mode), 대각선 모드(diagonal mode) 등의 순서로 부족한 개수 만큼의 모드를 MPM 리스트에 추가할 수도 있다.If the number of MPMs in the list is smaller than the predetermined number (eg, 6), the MPM may be derived by adding -1 or +1 to the directional modes in the list. In addition, when the number of MPMs in the list is smaller than the predetermined number, the number of insufficient modes is added to the MPM list in the order of vertical mode, horizontal mode, diagonal mode, and the like. You may.
인터 예측부(224)는 현재 픽처보다 먼저 부호화 및 복호화된 참조 픽처 내에서 현재블록과 가장 유사한 블록을 탐색하고, 그 탐색된 블록을 이용하여 현재블록에 대한 예측블록을 생성한다. 그리고, 현재 픽처 내의 현재블록과 참조 픽처 내의 예측블록 간의 변위(displacement)에 해당하는 움직임벡터(motion vector)를 생성한다. 현재블록을 예측하기 위해 사용된 참조 픽처에 대한 정보 및 움직임벡터에 대한 정보를 포함하는 움직임 정보는 부호화부(250)에 의해 부호화되어 복호화 장치로 전달된다.The inter prediction unit 224 searches for the block most similar to the current block in the coded and decoded reference picture before the current picture, and generates a prediction block for the current block using the searched block. A motion vector corresponding to a displacement between the current block in the current picture and the prediction block in the reference picture is generated. The motion information including the information about the reference picture and the motion vector used to predict the current block is encoded by the encoder 250 and transmitted to the decoding apparatus.
움직임 정보를 부호화하는 데에 소요되는 비트량을 최소화하기 위해 다양한 방법이 사용될 수 있다.Various methods may be used to minimize the amount of bits required to encode motion information.
예컨대, 현재블록의 참조 픽처와 움직임벡터가 주변블록의 참조 픽처 및 움직임벡터와 동일한 경우에는 그 주변블록을 식별할 수 있는 정보를 부호화함으로써, 현재블록의 움직임 정보를 복호화 장치로 전달할 수 있다. 이러한 방법을 '머지 모드 (merge mode)'라 한다.For example, when the reference picture and the motion vector of the current block are the same as the reference picture and the motion vector of the neighboring block, the motion information of the current block can be transmitted to the decoding apparatus by encoding information for identifying the neighboring block. This method is called 'merge mode'.
머지 모드에서, 인터 예측부(224)는 현재블록의 주변블록들로부터 기 결정된 개수의 머지 후보블록(이하, '머지 후보'라 함)들을 선택한다. In the merge mode, the inter prediction unit 224 selects a predetermined number of merge candidate blocks (hereinafter, referred to as 'merge candidates') from neighboring blocks of the current block.
머지 후보를 유도하기 위한 주변블록으로는, 도 5에 도시된 바와 같이, 현재 픽처 내에서 현재블록에 인접한 좌측블록(L), 상단블록(A), 우상단블록(AR), 좌하단블록(BL), 좌상단블록(AL) 중에서 전부 또는 일부가 사용될 수 있다. 또한, 현재블록이 위치한 현재 픽처가 아닌 참조 픽처(현재블록을 예측하기 위해 사용된 참조 픽처와 동일할 수도 있고 다를 수도 있음) 내에 위치한 블록이 머지 후보로서 사용될 수도 있다. 예컨대, 참조 픽처 내에서 현재블록과 동일 위치에 있는 블록(co-located block) 또는 그 동일 위치의 블록에 인접한 블록들이 머지 후보로서 추가로 더 사용될 수 있다. As a neighboring block for deriving a merge candidate, as shown in FIG. 5, a left block L, an upper block A, a right upper block AR, and a lower left block BL that are adjacent to the current block in the current picture. ), All or part of the upper left block AL may be used. In addition, a block located within a reference picture (which may be the same as or different from the reference picture used to predict the current block) other than the current picture in which the current block is located may be used as the merge candidate. For example, a co-located block or a block adjacent to a block in the same position as the current block in the reference picture may be further used as a merge candidate.
인터 예측부(224)는 이러한 주변블록들을 이용하여 기 결정된 개수의 머지 후보를 포함하는 머지 리스트를 구성한다. 머지 리스트에 포함된 머지 후보들 중에서 현재블록의 움직임정보로서 사용할 머지 후보를 선택하고 선택된 후보를 식별하기 위한 머지 인덱스 정보를 생성한다. 생성된 머지 인덱스 정보는 부호화부(250)에 의해 부호화되어 복호화 장치로 전달된다.The inter prediction unit 224 constructs a merge list including a predetermined number of merge candidates using these neighboring blocks. The merge candidate to be used as the motion information of the current block is selected from the merge candidates included in the merge list, and merge index information for identifying the selected candidate is generated. The generated merge index information is encoded by the encoder 250 and transmitted to the decoding apparatus.
움직임 정보를 부호화하는 또 다른 방법은 차분 움직임벡터를 부호화하는 것이다.Another way to encode motion information is to encode differential motion vectors.
이 방법에서, 인터 예측부(224)는 현재블록의 주변블록들을 이용하여 현재블록의 움직임벡터에 대한 예측 움직임벡터 후보들을 유도한다. 예측 움직임벡터 후보들을 유도하기 위해 사용되는 주변블록으로는, 도 5에 도시된 현재 픽처 내에서 현재블록에 인접한 좌측블록(L), 상단블록(A), 우상단블록(AR), 좌하단블록(BL), 좌상단블록(AL) 중에서 전부 또는 일부가 사용될 수 있다. 또한, 현재블록이 위치한 현재 픽처가 아닌 참조 픽처(현재블록을 예측하기 위해 사용된 참조 픽처와 동일할 수도 있고 다를 수도 있음) 내에 위치한 블록이 예측 움직임벡터 후보들을 유도하기 위해 사용되는 주변블록으로서 사용될 수도 있다. 예컨대, 참조 픽처 내에서 현재블록과 동일 위치에 있는 블록(co-located block) 또는 그 동일 위치의 블록에 인접한 블록들이 사용될 수 있다.In this method, the inter prediction unit 224 derives the predictive motion vector candidates for the motion vector of the current block by using the neighboring blocks of the current block. As a neighboring block used to derive the predictive motion vector candidates, a left block L, an upper block A, a right upper block AR, and a lower left block adjacent to the current block in the current picture shown in FIG. BL), all or part of the upper left block AL may be used. In addition, a block located within a reference picture (which may be the same as or different from the reference picture used to predict the current block) that is not the current picture in which the current block is located may be used as a neighboring block used to derive predictive motion vector candidates. It may be. For example, a co-located block or a block adjacent to a block at the same position as the current block in the reference picture may be used.
인터 예측부(224)는 이 주변블록들의 움직임벡터를 이용하여 예측 움직임벡터 후보들을 유도하고, 예측 움직임벡터 후보들을 이용하여 현재블록의 움직임벡터에 대한 예측 움직임벡터를 결정한다. 그리고, 현재블록의 움직임벡터로부터 예측 움직임벡터를 감산하여 차분 움직임벡터를 산출한다. The inter prediction unit 224 derives the predictive motion vector candidates using the motion vectors of the neighboring blocks, and determines the predictive motion vector for the motion vector of the current block using the predictive motion vector candidates. The difference motion vector is calculated by subtracting the predicted motion vector from the motion vector of the current block.
예측 움직임벡터는 예측 움직임벡터 후보들에 기 정의된 함수(예컨대, 중앙값, 평균값 연산 등)를 적용하여 구할 수 있다. 이 경우, 영상 복호화 장치도 기 정의된 함수를 알고 있다. 또한, 예측 움직임벡터 후보를 유도하기 위해 사용하는 주변블록은 이미 부호화 및 복호화가 완료된 블록이므로 영상 복호화 장치도 그 주변블록의 움직임벡터도 이미 알고 있다. 그러므로 영상 부호화 장치는 예측 움직임벡터 후보를 식별하기 위한 정보를 부호화할 필요가 없다. 따라서, 이 경우에는 차분 움직임벡터에 대한 정보와 현재블록을 예측하기 위해 사용한 참조 픽처에 대한 정보가 부호화된다.The predicted motion vector may be obtained by applying a predefined function (eg, median value, average value calculation, etc.) to the predicted motion vector candidates. In this case, the image decoding apparatus also knows a predefined function. In addition, since the neighboring block used to derive the predictive motion vector candidate has already been encoded and decoded, the image decoding apparatus and the motion vector of the neighboring block are already known. Therefore, the image encoding apparatus does not need to encode information for identifying the predictive motion vector candidate. Therefore, in this case, the information on the differential motion vector and the reference picture used to predict the current block are encoded.
한편, 예측 움직임벡터는 예측 움직임벡터 후보들 중 어느 하나를 선택하는 방식으로 결정될 수도 있다. 이 경우에는 차분 움직임벡터에 대한 정보 및 현재블록을 예측하기 위해 사용한 참조 픽처에 대한 정보와 함께, 선택된 예측 움직임벡터 후보를 식별하기 위한 정보가 추가로 부호화된다.Meanwhile, the predicted motion vector may be determined by selecting any one of the predicted motion vector candidates. In this case, the information for identifying the selected predicted motion vector candidate is further encoded along with the information about the differential motion vector and the reference picture used for predicting the current block.
감산기(230)는 현재블록으로부터 인트라 예측부(222) 또는 인터 예측부(224)에 의해 생성된 예측블록을 감산하여 잔차 블록을 생성한다.The subtractor 230 subtracts the prediction block generated by the intra predictor 222 or the inter predictor 224 from the current block to generate a residual block.
변환부(240)는 공간 영역의 픽셀 값들을 가지는 잔차 블록 내의 잔차 신호를 주파수 도메인의 변환 계수로 변환한다. 변환부(240)는 잔차 블록 내의 잔차 신호들을 현재블록의 크기를 변환 단위로 사용하여 변환할 수 있으며, 또는 잔차 블록을 더 작은 복수의 서브블록을 분할하고 서브블록 크기의 변환 단위로 잔차 신호들을 변환할 수도 있다. 잔차 블록을 더 작은 서브블록으로 분할하는 방법은 다양하게 존재할 수 있다. 예컨대, 기정의된 동일한 크기의 서브블록으로 분할할 수도 있으며, 또는 잔차 블록을 루트 노드로 하는 QT(quadtree) 방식의 분할을 사용할 수도 있다. The converter 240 converts the residual signal in the residual block having pixel values of the spatial domain into a transform coefficient of the frequency domain. The transform unit 240 may convert the residual signals in the residual block using the size of the current block as a conversion unit, or divide the residual block into a plurality of smaller subblocks and convert the residual signals in a subblock-sized transform unit. You can also convert. There may be various ways of dividing the residual block into smaller subblocks. For example, it may be divided into sub-blocks of a predetermined same size, or a quadtree (QT) scheme may be used in which the residual block is a root node.
양자화부(245)는 변환부(240)로부터 출력되는 변환 계수들을 양자화하고, 양자화된 변환 계수들을 부호화부(250)로 출력한다.The quantization unit 245 quantizes the transform coefficients output from the transform unit 240, and outputs the quantized transform coefficients to the encoder 250.
부호화부(250)는 양자화된 변환 계수들을 CABAC 등의 부호화 방식을 사용하여 부호화하여 비트스트림을 생성한다. 또한, 부호화부(250)는 블록 분할과 관련된 CTU size, MinQTSize, MaxBTSize, MaxBTDepth, MinBTSize, QT 분할 플래그, BT 분할 플래그, 분할 타입 등의 정보를 부호화하여, 복호화 장치가 부호화 장치와 동일하게 블록을 분할할 수 있도록 한다.The encoder 250 generates a bitstream by encoding the quantized transform coefficients by using an encoding method such as CABAC. In addition, the encoder 250 encodes information such as CTU size, MinQTSize, MaxBTSize, MaxBTDepth, MinBTSize, QT split flag, BT split flag, split type, etc. related to block division, so that the decoding apparatus encodes a block in the same way as the encoding apparatus. Allow splitting.
부호화부(250)는 현재블록이 인트라 예측에 의해 부호화되었는지 아니면 인터 예측에 의해 부호화되었는지 여부를 지시하는 예측 타입에 대한 정보를 부호화하고, 예측 타입에 따라 인트라 예측정보 또는 인터 예측정보를 부호화한다. The encoder 250 encodes information about a prediction type indicating whether the current block is encoded by intra prediction or inter prediction, and encodes intra prediction information or inter prediction information according to the prediction type.
현재블록이 인트라 예측된 경우에는 인트라 예측정보로서 인트라 예측 모드에 대한 신택스 요소(syntax element)를 부호화한다. 인트라 예측 모드에 대한 신택스 요소(syntax element)는 다음을 포함한다.When the current block is intra predicted, a syntax element for the intra prediction mode is encoded as intra prediction information. The syntax element for intra prediction mode includes the following.
(1) 현재블록의 인트라 예측 모드가 MPM 중에서 선택되는지 여부를 지시하는 모드 정보, (1) mode information indicating whether the intra prediction mode of the current block is selected from MPMs,
(2) 현재블록의 인트라 예측 모드가 MPM 중에서 선택되는 경우, MPM 중 어느 모드가 현재블록의 인트라 예측 모드로 선택되었는지를 지시하기 위한 제1 인트라 식별정보, (2) when the intra prediction mode of the current block is selected from the MPMs, first intra identification information for indicating which mode of the MPM is selected as the intra prediction mode of the current block,
(3) 현재블록의 인트라 예측 모드가 MPM 중에서 선택되지 않은 경우, MPM이 아닌 나머지 모드들 중 어느 모드가 현재블록의 인트라 예측 모드로 선택되었는지를 지시하기 위한 제2 인트라 식별정보(3) if the intra prediction mode of the current block is not selected among the MPMs, second intra identification information for indicating which mode other than the MPM is selected as the intra prediction mode of the current block;
한편, 현재블록이 인터 예측된 경우, 부호화부(250)는 인터 예측정보에 대한 신택스 요소를 부호화한다. 인터 예측정보에 대한 신택스 요소는 다음을 포함한다.Meanwhile, when the current block is inter predicted, the encoder 250 encodes a syntax element for inter prediction information. The syntax element for inter prediction information includes the following.
(1) 현재블록의 움직임정보가 머지 모드로 부호화되는지 아니면 차분 움직임벡터를 부호화하는 모드로 부호화되는지 여부를 지시하는 모드 정보(1) Mode information indicating whether motion information of the current block is encoded in a merge mode or a mode of encoding a differential motion vector.
(2) 움직임정보에 대한 신택스 요소 (2) syntax element for motion information
움직임정보가 머지 모드에 의해 부호화되는 경우, 부호화부(250)는 머지 후보들 중 어느 후보가 현재블록의 움직임정보를 추출하기 위한 후보로서 선택되는지를 지시하는 머지 인덱스 정보를 움직임정보에 대한 신택스 요소로 부호화한다. When the motion information is encoded by the merge mode, the encoder 250 uses merge index information indicating the candidate of the merge candidates as a candidate for extracting the motion information of the current block as a syntax element for the motion information. Encode
반면, 움직임정보가 차분 움직임벡터를 부호화하는 모드에 의해 부호화되는 경우, 차분 움직임벡터에 대한 정보 및 참조 픽처에 대한 정보를 움직임정보에 대한 신택스 요소로 부호화한다. 만약, 예측 움직임벡터가 복수의 예측 움직임벡터 후보들 중 어느 하나의 후보를 선택하는 방식으로 결정되는 경우에는, 움직임정보에 대한 신택스 요소는 그 선택된 후보를 식별하기 위한 예측 움직임벡터 식별 정보를 추가로 더 포함한다.On the other hand, when the motion information is encoded by the mode for encoding the differential motion vector, the information about the differential motion vector and the information about the reference picture are encoded as syntax elements for the motion information. If the predicted motion vector is determined in such a manner as to select any one of the plurality of predicted motion vector candidates, the syntax element for the motion information further includes predicted motion vector identification information for identifying the selected candidate. Include.
역양자화부(260)는 양자화부(245)로부터 출력되는 양자화된 변환 계수들을 역양자화하여 변환 계수들을 생성한다. 역변환부(265)는 역양자화부(260)로부터 출력되는 변환 계수들을 주파수 도메인으로부터 공간 도메인으로 변환하여 잔차블록을 복원한다.The inverse quantizer 260 inversely quantizes the quantized transform coefficients output from the quantizer 245 to generate transform coefficients. The inverse transformer 265 restores the residual block by converting the transform coefficients output from the inverse quantizer 260 from the frequency domain to the spatial domain.
가산부(270)는 복원된 잔차블록과 예측부(220)에 의해 생성된 예측블록을 가산하여 현재블록을 복원한다. 복원된 현재블록 내의 픽셀들은 다음 순서의 블록을 인트라 예측할 때 참조 픽셀로서 사용된다.The adder 270 reconstructs the current block by adding the reconstructed residual block and the predicted block generated by the predictor 220. The pixels in the reconstructed current block are used as reference pixels when intra prediction of the next order of blocks.
필터부(280)는 블록 단위의 부호화/복호화로 인해 발생하는 블록킹 현상(blocking artifact)을 제거하기 위해 복원된 블록 간의 경계를 디블록킹 필터링하고 메모리(290)에 저장한다. 한 픽처 내의 모든 블록들이 복원되면, 복원된 픽처는 이후에 부호화하고자 하는 픽처 내의 블록을 인터 예측하기 위한 참조 픽처로 사용된다.The filter unit 280 deblocks and filters the boundary between the reconstructed blocks in order to remove blocking artifacts that occur due to encoding / decoding of blocks. When all the blocks in a picture are reconstructed, the reconstructed picture is used as a reference picture for inter prediction of a block in a picture to be encoded later.
이상에서 설명한 영상 부호화 기술은 360 영상을 2D로 투영한 이후에, 2D 이미지를 부호화할 때에도 적용된다. The image encoding technique described above is also applied when encoding a 2D image after projecting a 360 image in 2D.
360 영상에 사용되는 대표적인 투영 포맷인 정방형 투영(equirectangular projection)은, 2D 이미지를 360 영상으로 투영할 때 위, 아래 부분의 픽셀을 늘려 심하게 왜곡시키는 단점이 있으며, 영상의 압축 시에도 늘어난 부분에 데이터량 증가 및 인코딩 처리량을 늘리는 단점이 있다. 따라서, 본 발명에서는 다양한 투영 포맷을 지원하는 영상 부호화 기술을 제공하고자 한다. 또한, 2D 이미지에서 서로 인접하지 않은 영역도 360 영상에서는 서로 인접하다. 예컨대, 도 1의 (a)에 도시된 2D 이미지의 좌측 경계와 우측 경계는 360 영상으로 투영할 때 서로 인접하게 된다. 따라서, 본 발명에서는 360 영상의 이러한 특징을 반영하여 효율적으로 영상을 부호화할 수 있는 방법을 제공하고자 한다.Square projection (equirectangular projection), which is a representative projection format used for 360 images, has a disadvantage in that the upper and lower pixels are severely distorted when projecting a 2D image into a 360 image. There is a disadvantage of increasing the amount and increasing the encoding throughput. Accordingly, the present invention seeks to provide an image encoding technique that supports various projection formats. Also, regions not adjacent to each other in the 2D image may be adjacent to each other in the 360 image. For example, the left boundary and the right boundary of the 2D image illustrated in FIG. 1A are adjacent to each other when projected as a 360 image. Accordingly, the present invention provides a method for efficiently encoding an image by reflecting such a feature of a 360 image.
360 영상의 위한 메타 데이터(meta data)Meta data for 360 images
아래 표 1은 다양한 투영 포맷을 지원하기 위해 비트스트림으로 부호화되는 360 영상의 메타 데이터의 일례를 나타낸다. Table 1 below shows an example of metadata of 360 images encoded into a bitstream to support various projection formats.
Figure PCTKR2017011457-appb-T000001
Figure PCTKR2017011457-appb-T000001
360 영상의 메타 데이터는 VPS (Video Parameter Set), SPS (Sequence Parameter Set), PPS (Picture Patameter Set), SEI (Supplementary Enhancement Information) 중 어느 하나의 위치에서 부호화된다.The metadata of the 360 video is encoded at any one of a video parameter set (VPS), a sequence parameter set (SPS), a picture pattern set (PPS), and supplementary enhancement information (SEI).
1-1) projection_format_idx1-1) projection_format_idx
이 신택스 요소(syntax element)는 360 영상의 투영 포맷(projection format)을 지시하는 인덱스를 의미한다. 이 인덱스 값에 따른 투영 포맷은 표 2와 같이 정의될 수 있다.This syntax element means an index indicating a projection format of a 360 image. The projection format according to this index value may be defined as shown in Table 2.
IndexIndex Projection format Projection format Description Description
00 ERPERP Equirectangular projectionEquirectangular projection
1One CMPCMP Cube map projection Cube map projection
22 ISP ISP Icosahedron projectionIcosahedron projection
33 OHP OHP Octahedron projectionOctahedron projection
44 EAPEAP Equal-area projectionEqual-area projection
55 TSPTSP Truncated square pyramid projectionTruncated square pyramid projection
66 SSPSSP Segmented sphere projectionSegmented sphere projection
정방형 투영은 도 1에서 보는 바와 같으며, 그 이외의 다양한 투영 포맷의 예시가 도 6에 도시된 바와 같다.Square projection is as shown in FIG. 1, and examples of various other projection formats are shown in FIG. 6.
1-2) compact_layout_flag1-2) compact_layout_flag
이 신택스 요소는 360 영상으로부터 투영된 2D 이미지의 레이아웃(layout)을 변경할지 여부를 지시하는 플래그이다. 이 플래그가 0이면 레이아웃의 변경이 없는 non-compact 레이아웃이 사용되고, 1이면 각 면(face)을 재배치하여 공백이 없는 직사각형 형상의 compact 레이아웃이 사용된다. This syntax element is a flag indicating whether to change the layout of the 2D image projected from the 360 image. If this flag is 0, a non-compact layout with no change in layout is used. If the flag is 1, a rectangular compact layout with no spaces is used to rearrange each face.
도 7은 큐브 포맷의 레이아웃을 예시도이다. 도 7의 (a)는 레이아웃의 변경이 없는 non-compact 레이아웃을, (b)는 레이아웃을 변경한 compact 레이아웃을 나타낸다.7 is a diagram illustrating a layout of a cube format. (A) of FIG. 7 shows a non-compact layout without changing the layout, and (b) shows a compact layout with the changed layout.
1-3) num_face_rows_minus1 및 num_face_columns_minus11-3) num_face_rows_minus1 and num_face_columns_minus1
num_face_rows_minus1 는 가로축을 기준으로 한 (face의 개수 - 1)의 값을 나타내고, num_face_columns_minus1은 세로축을 기준으로 (face의 개수 - 1)의 값을 나타낸다. 예컨대, 도 7 (a)의 경우, num_face_rows_minus1 은 2, num_face_columns_minus1은 3가 되며, 도 7 (b)의 경우, num_face_rows_minus1 은 1, num_face_columns_minus1은 2가 된다.num_face_rows_minus1 represents a value of (number of faces-1) based on the horizontal axis, and num_face_columns_minus1 represents a value of (number of faces-1) based on the vertical axis. For example, in FIG. 7A, num_face_rows_minus1 is 2, num_face_columns_minus1 is 3, and in FIG. 7B, num_face_rows_minus1 is 1 and num_face_columns_minus1 is 2.
1-4) face_width 및 face_height1-4) face_width and face_height
face의 너비 정보(너비 방향으로의 픽셀의 개수) 및 높이 정보(높이 방향으로의 픽셀의 개수)를 의미한다. 다만, 이 신택스들에 의해 결정되는 face의 해상도는 num_face_rows_minus1 및 num_face_columns_minus1에 의해 충분히 유추 가능하므로 이 신택스들은 부호화되지 않을 수도 있다.The width information of the face (the number of pixels in the width direction) and the height information (the number of pixels in the height direction). However, since the resolution of the face determined by these syntaxes can be sufficiently inferred by num_face_rows_minus1 and num_face_columns_minus1, these syntaxes may not be encoded.
1-5) face_idx1-5) face_idx
이 신택스 요소는 360 영상에서 각 면들의 위치를 나타내는 인덱스이다. 이 인덱스는 표3과 같이 정의될 수 있다.This syntax element is an index representing the position of each face in the 360 image. This index can be defined as shown in Table 3.
face_ face_ idxidx locationlocation
00 Top Top
1One
Bottom Bottom
22 Front Front
33 Right Right
44 Back Back
55 Left Left
66 NullNull
도 7 (a)의 non-compact 레이아웃과 같이 공백 영역이 존재하는 경우에는, 'null'을 의미하는 인덱스 값(예컨대, 6)을 공백 영역에 설정하고, null로 설정된 면에 대한 부호화는 생략할 수 있다. 예컨대, 도 7 (a)의 non-compact 레이아웃의 경우, 각 면에 대한 인덱스 값은 래스터 스캔 순서로 0 (top), 6 (null), 6 (null), 6 (null), 2 (front), 3 (right), 4 (back), 5 (left), 1 (bottom), 6 (null), 6 (null), 6 (null)을 가질 수 있다.When there is a blank area as shown in the non-compact layout of FIG. 7 (a), an index value (for example, 6) meaning 'null' is set in the blank area, and encoding for a surface set to null is omitted. Can be. For example, in the non-compact layout of FIG. 7A, the index values for each face are 0 (top), 6 (null), 6 (null), 6 (null), 2 (front) in raster scan order. , 3 (right), 4 (back), 5 (left), 1 (bottom), 6 (null), 6 (null), and 6 (null).
1-6) face_rotation_idx1-6) face_rotation_idx
이 신택스 요소는 각 면의 회전 정보를 의미하는 인덱스이다. 2D 레이아웃에서 레이아웃을 회전시키면 서로 인접한 면 간의 연관성을 높일 수 있다. 예컨대, 도 8의 (a)에서 좌측(Left) 면의 위쪽 경계와 상단(Top) 면의 좌측 경계는 360 영상에서 서로 맞닿는다. 따라서, 도 8의 (a)의 레이아웃을 도 7의 (b)와 같은 compact 레이아웃으로 변경한 이후에 left를 270도(-90도) 회전시키면, 도 8의 (b)에서 보는 바와 같이 좌측 면과 상단 면 간의 연속성을 유지할 수 있다. 따라서, 각 면의 회전에 대한 신택스 요소로서, face_rotation_ idx를 정의한다. 이 인덱스는 표 4와 같이 정의될 수 있다.This syntax element is an index representing rotation information of each face. Rotating a layout in a 2D layout can increase the association between adjacent faces. For example, in FIG. 8A, the upper boundary of the left plane and the left boundary of the top plane contact each other in a 360 image. Therefore, if left is rotated 270 degrees (-90 degrees) after changing the layout of FIG. 8 (a) to a compact layout as shown in FIG. 7 (b), the left surface as shown in (b) of FIG. Continuity between the top and top surfaces can be maintained. Thus, as a syntax element for the rotation of each side, it defines a face_rotation_ idx. This index may be defined as shown in Table 4.
IndexIndex Face rotation in counter-clockwiseFace rotation in counter-clockwise
00 00
1One 9090
22 180180
33 270270
표 1에는 투영 포맷이 큐브 투영 포맷인 경우에 1-3) 내지 1-6)의 신택스 요소들이 부호화되는 것으로 설명하였으나, 이러한 신택스 요소들은 큐브 투영 포맷 이외에 정20면체(icosahedron), 8면체(octahedron) 등 다른 포맷으로도 확장이 가능할 것이다. 또한, 표 1에 정의된 신택스 요소들 모두가 항상 부호화되어야 하는 것은 아니다. 360 영상의 메타데이터를 어디까지 정의하느냐에 따라 일부의 신택스 요소들은 부호화되지 않을 수도 있다. 예컨대, compact 레이아웃을 적용하지 않거나 면을 회전시키는 기술을 채택하지 않는 경우에는, compact_layout_flag, face_rotation_idx 등의 신택스 요소는 생략될 수도 있다.Table 1 illustrates that syntax elements of 1-3) to 1-6) are encoded when the projection format is a cube projection format. It may be extended to other formats such as). In addition, not all of the syntax elements defined in Table 1 should always be encoded. Depending on how far the metadata of the 360 image is defined, some syntax elements may not be encoded. For example, when not applying the compact layout or adopting a technique of rotating a face, syntax elements such as compact_layout_flag and face_rotation_idx may be omitted.
360 영상의 예측360 video prediction
360 영상의 2D 레이아웃에서 하나의 면 또는 서로 인접한 면들을 묶은 영역은 하나의 타일(tile) 또는 슬라이스(slice)로 취급하거나 픽처(picture)로 취급된다. 영상 부호화에서 각 타일 또는 슬라이스들은 서로 간의 의존성(dependency)이 낮기 때문에 독립적으로 취급된다. 각 타일 또는 슬라이스에 포함된 블록을 예측할 때 다른 타일 또는 슬라이스의 정보를 이용하지 않는다. 따라서, 타일 또는 슬라이스 경계에 위치한 블록을 예측하는 경우, 그 블록에 대한 주변블록이 존재하지 않을 수 있다. 기존의 영상 부호화 장치는 존재하지 않는 위치의 주변블록의 픽셀값을 기결정된 값으로 패딩하여 사용하거나, 또는 유효하지 않은 블록으로 간주한다.In a 2D layout of a 360 image, an area in which one face or adjacent faces are bound together is treated as a tile or a slice or as a picture. In image coding, each tile or slice is treated independently because of its low dependency on each other. When predicting a block included in each tile or slice, information of another tile or slice is not used. Therefore, when predicting a block located at a tile or slice boundary, there may not be a neighboring block for the block. Existing video encoding apparatus pads pixel values of neighboring blocks at non-existent positions with predetermined values or regards them as invalid blocks.
그러나, 2D 레이아웃에서 서로 인접하지 않는 영역도 360 영상을 기준으로는 서로 인접할 수 있다. 따라서, 본 발명은 360 영상의 이러한 특징을 반영하여 부호화하고자 하는 현재블록을 예측하거나 또는 그 현재블록에 대한 예측정보를 부호화할 필요가 있다.However, regions not adjacent to each other in the 2D layout may be adjacent to each other based on the 360 image. Accordingly, the present invention needs to predict the current block to be encoded or encode the prediction information for the current block by reflecting this characteristic of the 360 image.
도 9는 본 발명의 일 실시예에 따른 360 영상에서 현재블록의 예측정보에 대한 신택스 요소를 생성하는 장치를 도시한 것이다.9 illustrates an apparatus for generating a syntax element for prediction information of a current block in a 360 image according to an embodiment of the present invention.
본 장치(900)는 예측정보 후보 생성부(910) 및 신택스 생성부(920)를 포함한다.The apparatus 900 includes a prediction information candidate generator 910 and a syntax generator 920.
예측정보 후보 생성부(910)는 360 영상으로부터 투영된 2D 레이아웃의 제1 면에 위치하는 현재블록의 주변블록들을 이용하여 예측정보 후보들을 생성한다. 주변블록들은 현재블록의 주변의 기 지정된 위치에 위치한 블록들로서, 도 5에 바와 같이, 좌측블록(L), 상단블록(A), 좌하단블록(BL), 우상단블록(AR), 좌상단블록(AL) 중 전부 또는 일부를 포함할 수 있다. The prediction information candidate generator 910 generates prediction information candidates using neighboring blocks of the current block located on the first surface of the 2D layout projected from the 360 image. The neighboring blocks are blocks located at predetermined positions around the current block, and as shown in FIG. 5, the left block L, the upper block A, the lower left block BL, the upper right block AR, and the upper left block May include all or part of AL).
현재블록이 제1 면의 경계에 접하는 경우, 즉, 현재블록의 경계가 제1 면의 경계와 일치하는 경우, 기 지정된 위치의 주변블록들 중 일부는 제1 면 내에 존재하지 않을 수 있다. 예컨대, 현재블록이 제1 면의 상단 경계에 접하는 경우, 도 5에서 상단블록(A), 우상단블록(AR) 및 좌상단블록(AL)은 제1 면에 존재하지 않는다. 기존의 영상 부호화에서는 이러한 주변블록들은 유효하지 않은 블록으로 간주되어 사용되지 않았다. 그러나, 본 발명에서는, 현재블록이 제1 면의 경계와 일치하는 경우, 2D 레이아웃 아닌 360 영상을 기준으로 주변블록을 결정한다. 즉, 360 영상을 기준으로 현재블록에 인접한 블록을 주변블록으로 결정한다. 여기서, 예측정보 후보 생성부(910)는 360 영상의 투영 포맷, 면의 인덱스(face index) 및 면의 회전 정보 중 하나 이상의 정보를 이용하여 360 영상을 기준으로 현재블록에 인접한 블록을 식별할 수 있다. 예컨대, 정방형 투영 포맷의 경우에는 면이 1개이므로, 면의 인덱스나 면의 회전 정보를 이용할 필요 없이 투영 포맷만을 이용하여 현재블록에 인접한 블록을 식별할 수 있다. 또한, 정방형 투영 이외에 복수의 면을 가지는 투영 포맷의 경우에는, 투영 포맷 이외에 면의 인덱스를 이용하여 현재블록에 인접한 블록을 식별할 수 있다. 면을 회전시키는 기술을 채택하는 경우에는 면의 인덱스뿐만 아니라 면의 회전 정보를 추가로 더 이용하여 현재블록에 인접한 블록을 식별할 수 있다.When the current block is in contact with the boundary of the first surface, that is, when the boundary of the current block coincides with the boundary of the first surface, some of the neighboring blocks at the predetermined position may not exist in the first surface. For example, when the current block is in contact with the upper boundary of the first surface, the upper block A, the upper right block AR and the upper left block AL are not present in the first surface in FIG. 5. In conventional image coding, these neighboring blocks are considered invalid and have not been used. However, in the present invention, when the current block coincides with the boundary of the first surface, the neighboring block is determined based on the 360 image rather than the 2D layout. That is, the block adjacent to the current block is determined as the neighboring block based on the 360 image. Here, the prediction information candidate generator 910 may identify a block adjacent to the current block based on the 360 image by using one or more information among the projection format of the 360 image, the face index, and the rotation information of the face. have. For example, in the case of the square projection format, since there is only one surface, a block adjacent to the current block can be identified using only the projection format without using the index of the surface or rotation information of the surface. In addition, in the case of a projection format having a plurality of planes in addition to the square projection, the block adjacent to the current block can be identified using the index of the plane in addition to the projection format. In the case of adopting a technique of rotating a face, the block adjacent to the current block can be identified by further using the face rotation information as well as the face index.
예컨대, 예측정보 후보 생성부(910)는, 현재블록의 경계가 제1 면의 경계와 일치하는 경우, 360 영상을 기준으로 현재블록의 경계에 접하고 먼저 부호화된 제2 면을 식별한다. 여기서, 현재블록의 경계가 제1 면의 경계와 일치하는지 여부는 현재블록의 위치, 예컨대, 현재블록 내의 최좌측상단 픽셀의 위치에 의해 결정할 수 있다. 제2 면은 투영 포맷, 면의 인덱스(face index) 및 면의 회전 정보 중 하나 이상의 정보를 이용하여 식별된다. 예측정보 후보 생성부(910)는 제2 면에 위치하고 360 영상에서 현재블록에 인접한 블록을 현재블록의 주변블록으로 결정한다. For example, when the boundary of the current block coincides with the boundary of the first surface, the prediction information candidate generator 910 identifies the second surface that is first encoded and contacts the boundary of the current block based on the 360 image. Here, whether the boundary of the current block coincides with the boundary of the first surface may be determined by the position of the current block, for example, the position of the leftmost upper pixel in the current block. The second face is identified using one or more of the projection format, face index, and rotation information of the face. The prediction information candidate generator 910 determines a block located on the second surface and adjacent to the current block in the 360 image as the neighboring block of the current block.
도 10은 compact 레이아웃을 적용한 큐브 포맷에서 현재블록의 주변블록을 결정하는 방법을 설명하기 위한 예시도이다.10 is an exemplary diagram for describing a method of determining neighboring blocks of a current block in a cube format to which a compact layout is applied.
도 10에서 각 면에 기재된 숫자는 면의 인덱스를 나타낸 것이고, 면의 인덱스는, 표 3에서 보는 바와 같이, 0은 상면(top face), 1은 저면(bottom face), 2는 앞면(front face), 3은 우측면(right face), 4는 뒷면(back face), 5는 좌측면(left face)를 의미한다. 도 10 (b)의 compact 레이아웃에서 현재블록(X)이 앞면(2)의 상부 경계에 접할 때, 현재블록의 좌측 주변블록(L)은 앞면(2)에 존재하지만 상단에 위치한 주변블록(A)은 앞면(2)에 존재하지 않는다. 그러나, 도 10(a)에서 보는 바와 같이, compact 레이아웃을 큐브 포맷에 따라 360 영상으로 투영하는 경우, 현재블록이 접하는 앞면(2)의 상부 경계는 상면(0)의 하부 경계에 접한다. 그리고, 상면(0)의 하부 경계에 현재블록(X)에 인접한 블록(A)가 존재한다. 따라서, 상면(0)의 블록(A)를 현재블록의 주변블록으로 사용한다. In Fig. 10, the numbers on each side indicate the indexes of the faces, and as shown in Table 3, 0 is the top face, 1 is the bottom face, and 2 is the front face. ), 3 means a right face, 4 means a back face, and 5 means a left face. In the compact layout of FIG. 10 (b), when the current block (X) is in contact with the upper boundary of the front face (2), the left peripheral block (L) of the current block is present on the front face (2), but the peripheral block (A) located at the top ) Is not present on the front face (2). However, as shown in FIG. 10 (a), when the compact layout is projected as a 360 image according to a cube format, the upper boundary of the front face 2 that the current block contacts is in contact with the lower boundary of the upper face 0. Then, a block A adjacent to the current block X exists at the lower boundary of the upper surface 0. Therefore, block A of the upper surface 0 is used as a neighboring block of the current block.
한편, 도 2에 도시된 부호화 장치의 부호화부(250)는 서로 다른 면 간의 참조가 허용되는지 여부를 지시하는 플래그를 추가로 더 부호화할 수 있다. 360 영상을 기준으로 현재블록의 주변블록을 결정하는 것은, 각 면 간의 dependency가 존재하여 부호화기 및 복호화기의 실행 속도 감소를 초래할 수 있다. 이를 방지하기 위해 SSP (sequence parameter set) 혹은 PPS (picture parameter set) 등의 헤더에 상기의 플래그를 부호화할 수 있다. 이 때, 예측정보 후보 생성부(910)는 그 플래그가 on(예컨대, 플래그 = 1)이 되면 360 영상을 기준으로 현재블록의 주변블록을 결정하고, off(예컨대, 플래그 = 0)가 되면 360 영상이 아니라 기존과 마찬가지로 2D 이미지를 기준으로 각 면마다 독립적으로 주변블록을 결정한다.Meanwhile, the encoder 250 of the encoding apparatus illustrated in FIG. 2 may further encode a flag indicating whether reference between different planes is allowed. Determining the neighboring block of the current block based on the 360 image, there is a dependency between each plane may result in a reduction in the execution speed of the encoder and the decoder. In order to prevent this, the above flag may be encoded in a header such as a sequence parameter set (SSP) or a picture parameter set (PPS). At this time, the prediction information candidate generator 910 determines the neighboring block of the current block based on the 360 image when the flag is turned on (eg, flag = 1), and when the flag is turned off (eg, flag = 0), the prediction information candidate generator 910 is 360. As in the prior art, instead of the image, neighboring blocks are determined independently for each face based on the 2D image.
신택스 생성부(920)는 예측정부 후보 생성부(910)에 의해 생성된 예측정보 후보들을 이용하여 현재블록의 예측정보에 대한 신택스 요소를 부호화한다. 여기서, 예측정보는 인터 예측정보일 수도 있고 인트라 예측정보일 수도 있다. The syntax generator 920 encodes a syntax element for the prediction information of the current block by using the prediction information candidates generated by the prediction government candidate generator 910. Here, the prediction information may be inter prediction information or intra prediction information.
도 9의 장치가 인트라 예측과 인터 예측에 적용되는 경우에 대한 실시예를 설명한다.An example of a case where the apparatus of FIG. 9 is applied to intra prediction and inter prediction is described.
도 11은 도 9의 장치를 인트라 예측에 적용한 경우 인트라 예측부(222)의 세부 구성을 나타내는 도면이다.FIG. 11 is a diagram illustrating a detailed configuration of the intra predictor 222 when the apparatus of FIG. 9 is applied to intra prediction.
본 실시예의 인트라 예측부(222)는 MPM 생성부(1110) 및 신택스 생성부(1120)를 포함하는데, 이 구성요소들은 각각 도 10의 예측정보 후보 생성부(910) 및 신택스 생성부(920)에 대응한다.The intra prediction unit 222 of the present embodiment includes an MPM generator 1110 and a syntax generator 1120, and these components are respectively predicted candidate generator 910 and syntax generator 920 of FIG. 10. Corresponds to.
MPM 생성부(1110)는, 전술한 바와 같이, 현재블록의 주변블록의 인트라 예측모드로부터 MPM들을 생성하여 MPM 리스트를 구성한다. MPM 리스트를 구성하는 방법은 도 2의 인트라 예측부(222)에서 이미 설명하였으므로, 더 이상의 설명은 생략한다.As described above, the MPM generator 1110 generates MPMs from the intra prediction mode of the neighboring blocks of the current block to form an MPM list. Since the method of constructing the MPM list has already been described in the intra prediction unit 222 of FIG. 2, further description thereof will be omitted.
현재블록의 경계가 현재블록이 위치하는 면의 경계와 동일한 경우, MPM 생성부(1110)는 360 영상을 기준으로 현재블록에 인접한 블록을 현재블록의 주변블록으로 결정하게 된다. 예컨대, 도 10의 예에서와 같이 현재블록(X)이 앞면(2)의 상부 경계에 접하는 경우, 상단블록(A), 우상단블록(AR) 및 좌상단블록(AL)은 앞면(2)에 존재하지 않는다. 따라서, 360 영상에서 앞면(2)의 상부 경계에 접하는 상면(0)을 식별하고, 현재블록의 위치에 근거하여 상단블록(A), 우상단블록(AR) 및 좌상단블록(AL)에 해당하는 블록을 상면(0)에서 식별하여 주변블록으로 사용한다.When the boundary of the current block is the same as the boundary of the plane on which the current block is located, the MPM generator 1110 determines a block adjacent to the current block as a neighboring block of the current block based on 360 images. For example, as in the example of FIG. 10, when the current block X is in contact with the upper boundary of the front face 2, the upper block A, the upper right block AR, and the upper left block AL exist on the front face 2. I never do that. Therefore, in the 360 image, the upper surface 0 which is in contact with the upper boundary of the front face 2 is identified, and blocks corresponding to the upper block A, the upper right block AR, and the upper left block AL based on the position of the current block. Is identified on the upper surface (0) and used as a peripheral block.
신택스 생성부(1120)는 MPM 리스트에 포함된 MPM들을 이용하여 현재블록의 인트라 예측 모드에 대한 신택스 요소를 생성하여 부호화부(250)로 출력한다. 즉, 신택스 생성부(1120)는 현재블록의 인트라 예측 모드가 MPM 리스트 내의 MPM 중 어느 하나와 동일한지를 판단하고, 현재블록의 인트라 예측 모드가 MPM 리스트 내의 MPM들로부터 선택되는지 여부를 지시하는 모드 정보를 생성한다. 현재블록의 인트라 예측 정보가 MPM들로부터 선택되는 경우, MPM들 중 어느 모드가 현재블록의 인트라 예측 모드로 선택되는지를 지시하는 제1 식별정보를 생성한다. 현재블록의 인트라 예측 정보가 MPM들로부터 선택되지 않는 경우, 복수의 인트라 예측 모드로부터 MPM들을 제외한 나머지 모드들 중에서 현재블록의 인트라 예측 모드를 지시하는 제 2 식별정보를 생성한다. 생성된 모드 정보, 제1 식별정보 및/또는 제2 식별정보는 부호화부(250)로 출력되고, 부호화부(250)에 의해 부호화된다.The syntax generator 1120 generates a syntax element for the intra prediction mode of the current block by using the MPMs included in the MPM list and outputs the syntax element to the encoder 250. That is, the syntax generator 1120 determines whether the intra prediction mode of the current block is the same as any one of the MPMs in the MPM list, and mode information indicating whether the intra prediction mode of the current block is selected from the MPMs in the MPM list. Create When the intra prediction information of the current block is selected from the MPMs, first identification information indicating which mode of the MPMs is selected as the intra prediction mode of the current block is generated. When the intra prediction information of the current block is not selected from the MPMs, second identification information indicating the intra prediction mode of the current block is generated among the remaining modes except the MPMs from the plurality of intra prediction modes. The generated mode information, the first identification information and / or the second identification information is output to the encoder 250 and encoded by the encoder 250.
한편, 인트라 예측부(222)는 참조 픽셀 생성부(1130) 및 예측블록 생성부(1140)를 더 포함할 수도 있다. The intra predictor 222 may further include a reference pixel generator 1130 and a predictor block generator 1140.
참조 픽셀 생성부(1130)는 현재블록의 주변의 위치한 먼저 부호화된 블록 내의 픽셀들을 참조 픽셀로 설정한다. 예컨대, 현재블록에서 상단 및 상단우측에 위치하는 픽셀들과 좌측, 좌측상단 및 좌측하단에 위치하는 픽셀들을 참조 픽셀로 설정할 수 있다. 상단 및 상단우측에 위치하는 픽셀은 현재블록 주변의 하나 또는 복수 개 행(row)의 픽셀들을 포함할 수 있다. 좌측, 좌측상단 및 좌측하단에 위치하는 픽셀들은 현재블록 주변의 하나 또는 복수 개 열(row)의 픽셀들을 포함할 수 있다.The reference pixel generator 1130 sets pixels in the first coded block located around the current block as the reference pixel. For example, in the current block, pixels positioned at the upper and upper right sides and pixels positioned at the upper left, upper left and lower left may be set as reference pixels. The pixels located at the top and top right may include one or more rows of pixels around the current block. The pixels located at the left, upper left and lower left may include one or more rows of pixels around the current block.
현재블록의 경계가 현재블록이 위치하는 면의 경계와 일치하는 경우, 참조 픽셀 생성부(1130)는 360 영상을 기준으로 현재블록 참조 픽셀을 설정한다. 원리는 도 10을 통해 설명한 바와 같다. 예컨대, 도 12를 참조하면, 2D 레이아웃에서, 앞면(2)에 위치한 현재블록(X)의 좌측 및 좌측하단에는 참조픽셀들이 존재하지만, 상단, 상단우측 및 좌측상단에는 참조픽셀들이 존재하지 않는다. 그러나, compact 레이아웃을 큐브 포맷에 따라 360 영상으로 투영하는 경우, 현재블록이 접하는 앞면(2)의 상부 경계는 상면(0)의 하부 경계에 접한다. 따라서, 상면(0)의 하부 경계에서 현재블록의 상단, 상단우측 및 좌측상단에 대응하는 픽셀들을 참조 픽셀로 설정한다. When the boundary of the current block coincides with the boundary of the plane on which the current block is located, the reference pixel generator 1130 sets the current block reference pixel based on the 360 image. The principle is as described with reference to FIG. For example, referring to FIG. 12, in the 2D layout, reference pixels exist at the lower left and lower left of the current block X positioned on the front surface 2, but reference pixels do not exist at the upper, upper right and upper left. However, when the compact layout is projected to the 360 image according to the cube format, the upper boundary of the front face 2 that the current block is in contact with the lower boundary of the upper face (0). Therefore, the pixels corresponding to the upper, upper right and upper left sides of the current block are set as reference pixels at the lower boundary of the upper surface 0.
도 13은 다양한 투영 포맷에서 인트라 예측을 위한 참조픽셀을 설정하는 방법을 설명하기 위한 예시도이다. 도 13의 (a) 내지 (e)에서 보는 바와 같이, 참조픽셀이 존재하지 않는 위치는 360 영상을 기준으로 현재블록의 주변에 위치하는 픽셀들로 패딩(padding)된다. 패딩은 360 영상에서 픽셀들이 서로 맞닿는 위치를 고려하여 결정된다. 예컨대, 도 13의 (b)의 큐브 포맷의 경우 뒷면(back face) 내의 좌측 경계에 아래에서 위 방향으로 순차적으로 위치한 1~8번 픽셀들이 오른쪽에서 왼쪽 방향으로 좌측면(left face)의 상단에 위치한 주변 픽셀로 순차적으로 패딩된다. 그러나 본 발명이 이에 한정되는 것은 아니며, 경우에 따라서는 역방향의 패딩도 가능하다. 예컨대, 도 13의 (b)에서 뒷면(back face) 내의 좌측 경계에 아래에서 위 방향으로 위치한 1~8번 픽셀들이 좌에서 우 방향으로 좌측면(left face)의 상단에 위치한 주변 픽셀로 순차적으로 패딩될 수도 있다.13 is an exemplary diagram for describing a method of setting reference pixels for intra prediction in various projection formats. As shown in (a) to (e) of FIG. 13, a position where a reference pixel does not exist is padded with pixels positioned around a current block based on a 360 image. The padding is determined in consideration of the position where the pixels touch each other in the 360 image. For example, in the case of the cube format of FIG. 13B, pixels 1 to 8 sequentially positioned from the bottom to the top of the left face on the left boundary in the back face are located at the top of the left face in the right to left direction. Padded sequentially with the surrounding pixels located. However, the present invention is not limited thereto, and in some cases, reverse padding is also possible. For example, in FIGS. 13B, pixels 1 to 8 positioned in the bottom boundary in the back face from the bottom to the top are sequentially arranged as peripheral pixels positioned in the upper part of the left face in the left to right direction. It may be padded.
예측블록 생성부(1140)는 참조 픽셀 생성부(1130)에 의해 설정된 참조 픽셀들을 이용하여 현재블록을 예측하고 현재블록의 인트라 예측모드를 결정한다. 결정된 인트라 예측 모드는 MPM 생성부(1110)로 입력되고, MPM 생성부(1110) 및 신택스 생성부(1120)는 결정된 인트라 예측 모드에 대한 신택스 요소를 생성하여 부호화부로 출력하게 된다.The prediction block generator 1140 predicts the current block by using the reference pixels set by the reference pixel generator 1130 and determines an intra prediction mode of the current block. The determined intra prediction mode is input to the MPM generator 1110, and the MPM generator 1110 and the syntax generator 1120 generate syntax elements for the determined intra prediction mode and output them to the encoder.
도 14는 도 9의 장치를 인터 예측에 적용한 경우 인터 예측부(224)의 세부 구성을 나타내는 도면이다.FIG. 14 is a diagram illustrating a detailed configuration of the inter prediction unit 224 when the apparatus of FIG. 9 is applied to inter prediction.
도 9의 장치가 인터 예측에 적용되는 경우, 인터 예측부(224)는 예측블록 생성부(1410), 머지 후보 생성부(1420) 및 신택스 생성부(1430)를 포함한다. 머지 후보 생성부(1420) 및 신택스 생성부(1430)는 도 9의 예측정보 후보 생성부(910) 및 신택스 생성부(920)에 각각 대응한다.When the apparatus of FIG. 9 is applied to inter prediction, the inter prediction unit 224 includes a prediction block generator 1410, a merge candidate generator 1420, and a syntax generator 1430. The merge candidate generator 1420 and the syntax generator 1430 correspond to the prediction information candidate generator 910 and the syntax generator 920 of FIG. 9, respectively.
예측블록 생성부(1410)는 참조 픽처 내에서 현재블록의 픽셀값과 가장 유사한 픽셀값을 가지는 블록을 탐색하여 현재블록의 움직임벡터와 예측블록을 생성한다. 그리고 예측블록을 감산기(230) 및 가산기(270)로 출력하고, 움직임벡터와 참조 픽처에 대한 정보를 포함하는 움직임정보를 산택스 생성부(1430)로 출력한다.The prediction block generator 1410 searches for a block having a pixel value most similar to that of the current block in the reference picture, and generates a motion vector and a prediction block of the current block. The prediction block is output to the subtractor 230 and the adder 270, and the motion information including the motion vector and the information about the reference picture is output to the syntax generator 1430.
머지 후보 생성부(1420)는 현재블록의 주변블록을 이용하여 머지 후보들을 포함하는 머지 리스트를 생성한다. 전술한 바와 같이, 도 5에 도시된 도 5에 도시된 현재블록에 인접한 좌측블록(L), 상단블록(A), 우상단블록(AR), 좌하단블록(BL), 좌상단블록(AL) 중에서 전부 또는 일부가 머지 후보들을 생성하기 위한 주변블록으로 사용될 수 있다.The merge candidate generator 1420 generates a merge list including merge candidates using neighboring blocks of the current block. As described above, among the left block (L), the upper block (A), the upper right block (AR), the lower left block (BL), the upper left block (AL) adjacent to the current block shown in FIG. All or part may be used as a neighboring block for generating merge candidates.
현재블록의 경계가 현재블록이 위치한 제1 면의 경계와 일치하는 경우, 머지 후보 생성부(1420)는 360 영상을 기준으로 현재블록에 인접한 블록을 주변블록으로 결정한다. 머지 후보 생성부(1420)는 도 9의 예측정보 후보 생성부(910)에 대응하는 구성이다. 따라서, 예측정보 후보 생성부(910)의 모든 기능이 머지 후보 생성부(1420)에 적용될 수 있으므로, 더 이상의 상세한 설명은 생략한다.When the boundary of the current block coincides with the boundary of the first surface on which the current block is located, the merge candidate generator 1420 determines a block adjacent to the current block as the neighboring block based on the 360 image. The merge candidate generator 1420 corresponds to the prediction information candidate generator 910 of FIG. 9. Therefore, since all the functions of the prediction information candidate generator 910 may be applied to the merge candidate generator 1420, a detailed description thereof will be omitted.
신택스 생성부(1430)는 머지 리스트에 포함된 머지 후보들을 이용하여 현재블록의 인터 예측정보에 대한 신택스 요소를 생성한다. 먼저, 현재블록의 움직임정보를 머지 모드로 부호화할지 여부를 지시하는 모드 정보를 생성한다. 현재블록의 움직임정보가 머지 모드로 부호화되는 경우, 신택스 생성부(1430)는 머지 리스트에 포함된 머지 후보들 중 어떠한 머지 후보의 움직임정보를 현재블록의 움직임정보로 설정할 것인지를 머지 인덱스 정보를 생성한다. The syntax generator 1430 generates a syntax element for inter prediction information of the current block by using merge candidates included in the merge list. First, mode information indicating whether to encode motion information of a current block in a merge mode is generated. When the motion information of the current block is encoded in the merge mode, the syntax generator 1430 generates merge index information indicating which merge candidate motion information included in the merge list is set as the motion information of the current block. .
머지 모드로 부호화되지 않는 경우, 신택스 생성부(1430)는 차분 움직임벡터에 대한 정보와 현재블록을 예측하기 위한 사용한(즉, 현재블록의 움직임벡터가 참조하는) 참조픽처에 대한 정보를 생성한다. If not encoded in the merge mode, the syntax generator 1430 generates information about the differential motion vector and reference information used for predicting the current block (that is, referred to by the motion vector of the current block).
신택스 생성부(1430)는 차분 움직임벡터를 생성하기 위해, 현재블록의 움직임벡터에 대한 예측 움직임벡터를 결정한다. 신택스 생성부(1430)는 도 2의 인터 예측부(224)에서 설명한 바와 같이, 현재블록의 주변블록을 이용하여 예측 움직임벡터 후보들을 유도하고 예측 움직임벡터 후보들을 이용하여 현재블록의 움직임벡터에 대한 예측 움직임벡터를 결정할 수 있다. 이 때 현재블록의 경계가 현재블록이 위치한 제1 면의 경계와 일치하는 경우, 머지 후보 생성부(1420)과 동일한 방식으로 360 영상을 기준으로 현재블록에 인접한 블록을 주변블록으로 결정한다. The syntax generator 1430 determines a predicted motion vector with respect to the motion vector of the current block to generate a differential motion vector. As described in the inter prediction unit 224 of FIG. 2, the syntax generator 1430 derives the predictive motion vector candidates using the neighboring blocks of the current block, and uses the predictive motion vector candidates for the motion vector of the current block. The predicted motion vector can be determined. In this case, when the boundary of the current block coincides with the boundary of the first surface on which the current block is located, the block adjacent to the current block is determined as the neighboring block based on the 360 image in the same manner as the merge candidate generator 1420.
만약, 예측 움직임벡터 후보들 중에서 어느 하나의 후보를 선택하는 방식으로 현재블록의 움직임벡터에 대한 예측 움직임벡터를 결정하는 경우, 신택스 생성부(1430)는 예측 움직임벡터 후보들 중에서 예측 움직임벡터로 선택된 후보를 식별하기 위한 예측 움직임벡터 식별정보를 추가로 생성한다.If the prediction motion vector for the motion vector of the current block is determined by selecting one of the prediction motion vector candidates, the syntax generator 1430 selects the candidate selected as the prediction motion vector from the prediction motion vector candidates. Further generating predicted motion vector identification information for identification.
신택스 생성부(1430)에 의해 생성된 신택스 요소는 부호화부(250)에 의해 부호화되어 복호화 장치로 전달된다.The syntax element generated by the syntax generator 1430 is encoded by the encoder 250 and transferred to the decoding apparatus.
이하에서는 영상 복호화 장치에 대해 설명한다.Hereinafter, an image decoding apparatus will be described.
도 15는 본 발명의 실시예에 따른 영상 복호화 장치를 도시한 것이다.15 illustrates an image decoding apparatus according to an embodiment of the present invention.
영상 복호화 장치는 복호화부(1510), 역양자화부(1520), 역변환부(1530), 예측부(1540), 가산기(1550), 필터부(1560) 및 메모리(1570)를 포함한다. 도 2의 영상 부호화 장치와 마찬가지로, 영상 복호화 장치는 각 구성요소가 하드웨어 칩으로 구현될 수 있으며, 또는 소프트웨어로 구현되고 마이크로프로세서가 각 구성요소에 대응하는 소프트웨어의 기능을 실행하도록 구현될 수도 있다.The image decoding apparatus includes a decoder 1510, an inverse quantizer 1520, an inverse transformer 1530, a predictor 1540, an adder 1550, a filter 1560, and a memory 1570. Like the image encoding apparatus of FIG. 2, the image decoding apparatus may be implemented by each component as a hardware chip, or may be implemented by software and a microprocessor to execute a function of software corresponding to each component.
복호화부(1510)는 영상 부호화 장치로부터 수신한 비트스트림을 복호화하여 블록 분할과 관련된 정보를 추출하여 복호화하고자 하는 현재블록을 결정하고, 현재블록을 복원하기 위해 필요한 예측 정보와 잔차신호에 대한 정보 등을 추출한다.The decoder 1510 decodes the bitstream received from the image encoding apparatus, extracts information related to block division, determines a current block to be decoded, and includes prediction information and residual signal information necessary for reconstructing the current block. Extract
복호화부(1510)는 SPS (Sequence Parameter Set) 또는 PPS (Picture Parameter Set)로부터 CTU size에 대한 정보를 추출하여 CTU의 크기를 결정하고, 픽처를 결정된 크기의 CTU로 분할한다. 그리고 CTU를 트리 구조의 최상위 레이어, 즉, 루트 노드로 결정하고, CTU에 대한 분할 정보를 추출함으로써 CTU를 트리 구조를 이용하여 분할한다. 예컨대, QTBT 구조를 사용하여 CTU를 분할하는 경우, 먼저 QT의 분할과 관련된 제1 플래그(QT_split_flag)를 추출하여 각 노드를 하위 레이어의 네 개의 노드로 분할한다. 그리고, QT의 리프 노드에 해당하는 노드에 대해서는 BT의 분할과 관련된 제2 플래그(BT_split_flag) 및 분할 타입 정보를 추출하여 해당 리프 노드를 BT 구조로 분할한다.The decoder 1510 extracts information on the CTU size from a Sequence Parameter Set (SPS) or Picture Parameter Set (PPS) to determine the size of the CTU, and divides the picture into a CTU of the determined size. The CTU is determined as the highest layer of the tree structure, that is, the root node, and the CTU is partitioned using the tree structure by extracting partition information about the CTU. For example, when splitting a CTU using a QTBT structure, first, a first flag (QT_split_flag) related to splitting of QT is extracted, and each node is divided into four nodes of a lower layer. For the node corresponding to the leaf node of the QT, the second flag BT_split_flag and the split type information related to the splitting of the BT are extracted to split the corresponding leaf node into the BT structure.
도 3의 블록 분할 구조를 예로 들면, QTBT 구조의 최상위 레이어의 노드에 대응하는 QT 분할 플래그(QT_split_flag)를 추출한다. 추출된 QT 분할 플래그(QT_split_flag)의 값은 1이므로, 최상위 레이어의 노드는 하위 레이어(QT의 layer 1)의 네 개의 노드로 분할된다. 그리고, layer 1의 첫 번째 노드에 대한 QT 분할 플래그(QT_split_flag)를 추출한다. 추출된 QT 분할 플래그(QT_split_flag) 값은 0이므로, layer 1의 첫 번째 노드는 더 이상 QT 구조로 분할되지 않는다. Taking the block division structure of FIG. 3 as an example, the QT division flag QT_split_flag corresponding to the node of the highest layer of the QTBT structure is extracted. Since the value of the extracted QT split flag QT_split_flag is 1, the node of the highest layer is divided into four nodes of the lower layer (layer 1 of QT). Then, the QT splitting flag QT_split_flag for the first node of layer 1 is extracted. Since the extracted QT split flag (QT_split_flag) has a value of 0, the first node of layer 1 is no longer split into a QT structure.
QT의 layer 1의 첫 번째 노드는 QT의 리프 노드가 되므로, QT의 layer 1의 첫 번째 노드를 BT의 루트 노드로 하는 BT로 진행한다. BT의 루트 노드, 즉 (layer 0))에 대응하는 BT 분할 플래그(BT_split_flag)를 추출한다. BT 분할 플래그(BT_split_flag)는 1이므로, BT의 루트 노드는 (layer 1)의 두 개의 노드로 분할된다. BT의 루트 노드가 분할되므로, BT의 루트 노드에 대응하는 블록이 세로로 분할되는지 아니면 가로로 분할되는지 여부를 지시하는 분할 타입 정보를 추출한다. 분할 타입 정보가 1이므로, BT의 루트 노드에 대응하는 블록은 세로로 분할된다. 이후, BT의 루트 노드로부터 분할된 (layer 1)의 첫 번째 노드에 대한 BT 분할 플래그(BT_split_flag)를 추출한다. BT 분할 플래그(BT_split_flag)가 1이므로, (layer 1)의 첫 번째 노드의 블록의 분할 타입 정보를 추출한다. (layer 1)의 첫 번째 노드의 블록의 분할 타입 정보가 1이므로 (layer 1)의 첫 번째 노드의 블록은 세로로 분할된다. 이후, BT의 루트 노드로부터 분할된 (layer 1)의 두 번째 노드의 BT 분할 플래그(BT_split_flag)를 추출한다. BT 분할 플래그(BT_split_flag)가 0이므로, 더 이상 BT에 의해 분할되지 않는다.Since the first node of layer 1 of the QT becomes a leaf node of the QT, the node proceeds to BT having the first node of layer 1 of the QT as the root node of the BT. A BT split flag (BT_split_flag) corresponding to the root node of BT, that is, (layer 0), is extracted. Since the BT split flag BT_split_flag is 1, the root node of BT is split into two nodes of (layer 1). Since the root node of the BT is split, split type information indicating whether a block corresponding to the root node of the BT is split vertically or horizontally is extracted. Since the split type information is 1, the block corresponding to the root node of BT is split vertically. Then, the BT split flag (BT_split_flag) for the first node of (layer 1) split from the root node of BT is extracted. Since the BT split flag BT_split_flag is 1, the split type information of the block of the first node of (layer 1) is extracted. Since the partition type information of the block of the first node of (layer 1) is 1, the block of the first node of (layer 1) is vertically divided. Then, the BT split flag BT_split_flag of the second node of (layer 1) divided from the root node of BT is extracted. Since the BT split flag BT_split_flag is 0, it is no longer split by BT.
이렇게, 복호화부(1510)는 먼저 QT 분할 플래그(QT_split_flag)를 반복적으로(recursively) 추출하여 CTU를 QT 구조로 분할한다. 그리고 QT의 리프 노드에 대해서는 BT 분할 플래그(BT_split_flag)를 추출하고, BT 분할 플래그(BT_split_flag)가 분할을 지시하면 분할 타입 정보를 추출한다. 이러한 방식을 통해 복호화부(1510)은 CTU가 도 3의 (a)와 같은 구조로 분할됨을 확인할 수 있다.In this way, the decoder 1510 first recursively extracts the QT splitting flag QT_split_flag to split the CTU into a QT structure. The BT split flag (BT_split_flag) is extracted for the leaf node of the QT, and when the BT split flag (BT_split_flag) indicates the split, split type information is extracted. In this manner, the decoder 1510 may confirm that the CTU is divided into a structure as shown in FIG.
한편, SPS 또는 PPS에 MinQTSize, MaxBTSize, MaxBTDepth, MinBTSize 등의 정보가 추가로 정의되어 있는 경우에는, 복호화부(1510)는 해당 정보를 추출하고 QT 및 BT에 대한 분할 정보를 추출할 때 이 정보를 반영할 수 있다.On the other hand, if information such as MinQTSize, MaxBTSize, MaxBTDepth, MinBTSize, etc. is additionally defined in the SPS or PPS, the decoder 1510 extracts the information and uses the information when extracting the split information for the QT and BT. Can reflect.
예컨대, QT에서 MinQTSize 과 동일한 크기를 가지는 블록은 더 이상 분할되지 않는다. 따라서 복호화부(1510)는 해당 블록의 QT에 관한 분할 정보(QT 분할 플래그)를 비트스트림으로부터 추출하지 않으며(즉, 비트스트림에는 해당 블록의 QT 분할 플래그가 존재하지 않음), 그 값을 자동으로 0으로 설정한다. 또한, QT에서 MaxBTSize보다 큰 크기를 가지는 블록은 BT가 존재하지 않는다. 따라서, 복호화부(1510)는 QT에서 MaxBTSize보다 큰 크기의 블록을 가지는 리프 노드에 대한 BT 분할 플래그가 추출하지 않으며, BT 분할 플래그를 자동으로 0으로 설정한다. 또한, BT의 해당 노드의 심도(depth)가 MaxBTDepth에 도달하면, 해당 노드의 블록은 더 이상 분할되지 않는다. 따라서, 해당 노드의 BT 분할 플래그를 비트스트림으로부터 추출되지 않으며, 그 값을 자동으로 0으로 설정한다. 또한, BT에서 MinBTSize와 동일한 크기를 가지는 블록은 더 이상 분할되지 않는다. 따라서, 복호화부(1510)는 MinBTSize와 동일한 크기를 가지는 블록의 BT 분할 플래그를 비트스트림으로부터 추출되지 않으며, 그 값을 자동으로 0으로 설정한다.For example, blocks having the same size as MinQTSize in QT are no longer split. Therefore, the decoder 1510 does not extract the split information (QT split flag) about the QT of the block from the bitstream (that is, the QT split flag of the block does not exist in the bitstream), and automatically extracts the value. Set to zero. In addition, there is no BT in a block having a size larger than MaxBTSize in QT. Accordingly, the decoder 1510 does not extract the BT split flag for the leaf node having a block larger than MaxBTSize in QT, and automatically sets the BT split flag to 0. In addition, when the depth of the node of the BT reaches MaxBTDepth, the block of the node is no longer split. Therefore, the BT partition flag of the corresponding node is not extracted from the bitstream, and its value is automatically set to zero. Also, in BT, blocks having the same size as MinBTSize are no longer split. Accordingly, the decoder 1510 does not extract the BT partition flag of the block having the same size as MinBTSize from the bitstream, and automatically sets the value to zero.
한편, 복호화부(1510)는 트리 구조의 분할을 통해 복호화하고자 하는 현재블록(현재블록)을 결정하게 되면, 현재블록이 인트라 예측되었는지 아니면 인터 예측되었는지를 지시하는 예측 타입에 대한 정보를 추출한다. On the other hand, when the decoder 1510 determines the current block (current block) to be decoded by splitting the tree structure, the decoder 1510 extracts information about a prediction type indicating whether the current block is intra predicted or inter predicted.
예측 타입 정보가 인트라 예측을 지시하는 경우, 복호화부(1510)는 현재블록의 인트라 예측정보(인트라 예측 모드)에 대한 신택스 요소를 추출한다. 먼저, 현재블록의 인트라 예측 모드가 MPM 중에서 선택되는지 여부를 지시하는 모드 정보를 추출한다. 인트라 모드 부호화 정보가 현재블록의 인트라 예측 모드가 MPM 중에서 선택됨을 지시하는 경우, MPM 중 어느 모드가 현재블록의 인트라 예측 모드로 선택되었는지를 지시하기 위한 제1 인트라 식별정보를 추출한다. 반면, 인트라 모드 부호화 정보가 현재블록의 인트라 예측 모드가 MPM 중에서 선택되지 않음을 지시하는 경우, MPM이 아닌 나머지 모드들 중 어느 모드가 현재블록의 인트라 예측 모드로 선택되었는지를 지시하기 위한 제2 인트라 식별정보를 추출한다.When the prediction type information indicates intra prediction, the decoder 1510 extracts a syntax element for intra prediction information (intra prediction mode) of the current block. First, mode information indicating whether the intra prediction mode of the current block is selected from the MPMs is extracted. When the intra mode encoding information indicates that the intra prediction mode of the current block is selected from the MPMs, first intra identification information for indicating which mode of the MPMs is selected as the intra prediction mode of the current block is extracted. On the other hand, when the intra mode encoding information indicates that the intra prediction mode of the current block is not selected among the MPMs, the second intra for indicating which mode other than the MPM is selected as the intra prediction mode of the current block. Extract identification information.
예측 타입 정보가 인터 예측을 지시하는 경우, 복호화부(1510)는 인터 예측정보에 대한 신택스 요소를 추출한다. 먼저, 현재블록의 움직임정보가 복수의 부호화 모드 중 어느 모드에 의해 부호화되었는지 여부를 지시하는 모드 정보를 추출한다. 여기서, 복수의 부호화 모드는 머지 모드 및 차분 움직임벡터 부호화 모드를 포함한다. 모드 정보가 머지 모드를 지시하는 경우, 복호화부(1510)는 머지 후보들 중 어느 후보로부터 현재블록의 움직임벡터를 유도할지 여부를 지시하는 머지 인덱스 정보를 움직임정보에 대한 신택스 요소로서 추출한다. 반면, 모드 정보가 차분 움직임벡터 부호화 모드를 지시하는 경우, 복호화부(1510)는 차분 움직임벡터에 대한 정보 및 현재블록의 움직임벡터가 참조하는 참조 픽처에 대한 정보를 움직임벡터에 대한 신택스 요소로서 추출한다. 한편, 영상 부호화 장치가 복수의 예측 움직임벡터 후보들 중에서 어느 하나의 후보를 현재블록의 예측 움직임벡터로 사용한 경우에는 예측 움직임벡터 식별정보가 비트스트림에 포함된다. 따라서 이 경우에는, 차분 움직임벡터에 대한 정보와 참조 픽처에 대한 정보뿐만 아니라 예측 움직임벡터 식별정보도 움직임벡터에 대한 신택스 요소로서 추출한다.When the prediction type information indicates inter prediction, the decoder 1510 extracts a syntax element for the inter prediction information. First, mode information indicating whether the motion information of the current block is encoded by which of a plurality of encoding modes is extracted. Here, the plurality of encoding modes include a merge mode and a differential motion vector encoding mode. When the mode information indicates the merge mode, the decoder 1510 extracts merge index information indicating whether to derive the motion vector of the current block from the candidates among the merge candidates as a syntax element for the motion information. On the other hand, when the mode information indicates the differential motion vector encoding mode, the decoder 1510 extracts the information about the differential motion vector and the reference picture to which the motion vector of the current block refers as a syntax element for the motion vector. do. On the other hand, when the image encoding apparatus uses any one of the plurality of prediction motion vector candidates as the prediction motion vector of the current block, the prediction motion vector identification information is included in the bitstream. Therefore, in this case, not only the information on the differential motion vector and the reference picture but also the predicted motion vector identification information are extracted as syntax elements for the motion vector.
한편, 복호화부(1510)는 잔차신호에 대한 정보로서 현재블록의 양자화된 변환계수들에 대한 정보를 추출한다.Meanwhile, the decoder 1510 extracts information on the quantized transform coefficients of the current block as information on the residual signal.
역양자화부(1520)는 양자화된 변환계수들을 역양자화하고 역변환부(1530)는 역양자화된 변환계수들을 주파수 도메인으로부터 공간 도메인으로 역변환하여 잔차신호들을 복원함으로써 현재블록에 대한 잔차블록을 생성한다.The inverse quantization unit 1520 inversely quantizes the quantized transform coefficients, and the inverse transform unit 1530 inversely transforms the inverse quantized transform coefficients from the frequency domain to the spatial domain to generate a residual block for the current block.
예측부(1540)는 인트라 예측부(1542) 및 인터 예측부(1544)를 포함한다. 인트라 예측부(1542)는 현재블록의 예측 타입인 인트라 예측일 때 활성화되고, 인터 예측부(1544)는 현재블록의 예측 타입인 인트라 예측일 때 활성화된다.The predictor 1540 includes an intra predictor 1542 and an inter predictor 1544. The intra predictor 1542 is activated when the intra prediction is the prediction type of the current block, and the inter predictor 1544 is activated when the intra prediction is the prediction type of the current block.
인트라 예측부(1542)는 복호화부(1510)로부터 추출된 인트라 예측 모드에 대한 신택스 요소로부터 복수의 인트라 예측 모드 중 현재블록의 인트라 예측 모드를 결정하고, 인트라 예측 모드에 따라 현재블록 주변의 참조 픽셀들을 이용하여 현재블록을 예측한다. The intra predictor 1542 determines the intra prediction mode of the current block among the plurality of intra prediction modes from the syntax elements for the intra prediction mode extracted from the decoder 1510, and references pixels around the current block according to the intra prediction mode. Predict the current block using
현재블록의 인트라 예측 모드를 결정하기 위해, 인트라 예측부(1542)는 현재블록의 주변블록으로부터 기 결정된 개수의 MPM들을 포함하는 MPM 리스트를 구성한다. MPM 리스트를 구성하는 방법은 도 2의 인트라 예측부(222)와 동일하다. 인트라 예측의 모드 정보가 현재블록의 인트라 예측 모드가 MPM 중에서 선택됨을 지시하는 경우에는, 인트라 예측부(1542)는 MPM 리스트 내의 MPM들 중 제1 인트라 식별정보에 의해 지시되는 MPM을 현재블록의 인트라 예측 모드로 선택한다. 반면, 모드 정보가 현재블록의 인트라 예측 모드가 MPM으로부터 선택되지 않음을 지시하는 경우, 제2 인트라 식별정보를 이용하여 MPM 리스트 내의 MPM들을 제외한 나머지 인트라 예측 모드들 중에서 현재블록의 인트라 예측 모드를 결정한다.In order to determine the intra prediction mode of the current block, the intra prediction unit 1542 constructs an MPM list including a predetermined number of MPMs from neighboring blocks of the current block. The method of constructing the MPM list is the same as that of the intra predictor 222 of FIG. 2. When the mode information of the intra prediction indicates that the intra prediction mode of the current block is selected from the MPMs, the intra prediction unit 1542 may convert the MPM indicated by the first intra identification information among the MPMs in the MPM list into the intra of the current block. Select the prediction mode. On the other hand, if the mode information indicates that the intra prediction mode of the current block is not selected from the MPM, the intra prediction mode of the current block is determined among the remaining intra prediction modes except for the MPMs in the MPM list using the second intra identification information. do.
인터 예측부(1544)는 복호화부(1510)로부터 추출된 인트라 예측 모드에 대한 신택스 요소를 이용하여 현재블록의 움직임정보를 결정하고, 결정된 움직임정보를 이용하여 현재블록을 예측한다.The inter prediction unit 1544 determines motion information of the current block using syntax elements of the intra prediction mode extracted from the decoder 1510, and predicts the current block using the determined motion information.
먼저, 인터 예측부(1544)는 복호화부(1510)로부터 추출된 인터 예측에서의 모드 정보를 확인한다. 모드 정보가 머지 모드를 지시하는 경우, 인터 예측부(1544)는 현재블록의 주변블록을 이용하여 기 결정된 개수의 머지 후보를 포함하는 머지 리스트를 구성한다. 인터 예측부(1544)가 머지 리스트를 구성하는 방법은 영상 부호화 장치의 인터 예측부(224)와 동일하다. 그리고, 복호화부(1510)으로부터 전달된 머지 인덱스 정보를 이용하여 머지 리스트 내의 머지 후보들 중에서 하나의 머지 후보를 선택한다. 그리고 선택된 머지 후보의 움직임정보, 즉, 머지 후보의 움직임벡터와 참조 픽처를 현재블록의 움직임벡터와 참조픽처로 설정한다. First, the inter prediction unit 1544 checks mode information in the inter prediction extracted from the decoder 1510. When the mode information indicates the merge mode, the inter prediction unit 1544 constructs a merge list including a predetermined number of merge candidates using neighboring blocks of the current block. The inter prediction unit 1544 configures the merge list in the same way as the inter prediction unit 224 of the image encoding apparatus. Then, one merge candidate is selected from among the merge candidates in the merge list by using the merge index information transmitted from the decoder 1510. The motion information of the selected merge candidate, that is, the motion vector and the reference picture of the merge candidate are set as the motion vector and the reference picture of the current block.
반면, 모드 정보가 차분 움직임벡터 부호화 모드를 지시하는 경우, 인터 예측부(1544)는 현재블록의 주변블록들의 움직임벡터를 이용하여 예측 움직임벡터 후보들을 유도하고, 예측 움직임벡터 후보들을 이용하여 현재블록의 움직임벡터에 대한 예측 움직임벡터를 결정한다. 인터 예측부(1544)가 예측 움직임벡터 후보들을 유도하는 방법은 영상 부호화 장치의 인터 예측부(224)와 동일하다. 만약, 영상 부호화 장치가 복수의 예측 움직임벡터 후보들 중에서 어느 하나의 후보를 현재블록의 예측 움직임벡터로 사용한 경우에는 움직임정보에 대한 신택스 요소는 예측 움직임벡터 식별정보를 포함한다. 따라서, 이 경우에, 인터 예측부(1544)는 예측 움직임벡터 후보들 중 예측 움직임벡터 식별정보에 의해 지시되는 후보를 예측 움직임벡터로 선택할 수 있다. 그러나, 영상 부호화 장치가 복수의 예측 움직임벡터 후보들에 기 정의된 함수를 사용하여 예측 움직임벡터를 결정한 경우에는, 인터 예측부는 영상 부호화 장치와 동일한 함수를 적용하여 예측 움직임벡터를 결정할 수도 있다. 현재블록의 예측 움직임벡터가 결정되면, 인터 예측부(1544)는 예측 움직임벡터와 복호화부(1510)로부터 전달된 차분 움직임벡터를 가산하여 현재블록의 움직임벡터를 결정한다. 그리고 복호화부(1510)로부터 전달된 참조픽처에 대한 정보를 이용하여 현재블록의 움직임벡터가 참조하는 참조픽처를 결정한다.On the other hand, when the mode information indicates the differential motion vector encoding mode, the inter prediction unit 1544 derives the predictive motion vector candidates using the motion vectors of the neighboring blocks of the current block, and uses the predictive motion vector candidates to determine the current block. Determine the predicted motion vector for the motion vector of. The inter prediction unit 1544 derives the prediction motion vector candidates in the same manner as the inter prediction unit 224 of the image encoding apparatus. If the image encoding apparatus uses any one of a plurality of prediction motion vector candidates as the prediction motion vector of the current block, the syntax element for the motion information includes the prediction motion vector identification information. Therefore, in this case, the inter prediction unit 1544 may select a candidate indicated by the prediction motion vector identification information among the prediction motion vector candidates as the prediction motion vector. However, when the image encoding apparatus determines the prediction motion vector by using a function predefined for the plurality of prediction motion vector candidates, the inter prediction unit may determine the prediction motion vector by applying the same function as the image encoding apparatus. When the predicted motion vector of the current block is determined, the inter predictor 1544 adds the predicted motion vector and the differential motion vector transmitted from the decoder 1510 to determine the motion vector of the current block. The reference picture referred to by the motion vector of the current block is determined by using information about the reference picture transferred from the decoder 1510.
머지 모드 또는 차분 움직임벡터 부호화 모드에서 현재블록의 움직임벡터와 참조픽처가 결정되면, 인터 예측부(1542)는 참조픽처 내에서 움직임벡터가 지시하는 위치의 블록을 이용하여 현재블록의 예측블록을 생성한다.When the motion vector and the reference picture of the current block are determined in the merge mode or the differential motion vector encoding mode, the inter prediction unit 1542 generates the prediction block of the current block using the block indicated by the motion vector in the reference picture. do.
가산기(1550)는 역변환부로부터 출력되는 잔차블록과 인터 예측부 또는 인트라 예측부로부터 출력되는 예측블록을 가산하여 현재블록을 복원한다. 복원된 현재블록 내의 픽셀들은 이후에 복호화할 블록을 인트라 예측할 때의 참조픽셀로서 활용된다.The adder 1550 reconstructs the current block by adding the residual block output from the inverse transformer and the prediction block output from the inter predictor or the intra predictor. The pixels in the reconstructed current block are utilized as reference pixels when intra prediction of a block to be decoded later.
필터부(1560)는 블록 단위의 복호화로 인해 발생하는 블록킹 현상(blocking artifact)를 제거하기 위해 복원된 블록 간의 경계를 디블록킹 필터링하고 메모리(290)에 저장한다. 한 픽처 내의 모든 블록들이 복원되면, 복원된 픽처는 이후에 복호화하고자 하는 픽처 내의 블록을 인터 예측하기 위한 참조 픽처로 사용된다.The filter unit 1560 deblocks and filters the boundary between the reconstructed blocks in order to remove blocking artifacts caused by block-by-block decoding, and stores them in the memory 290. When all the blocks in a picture are reconstructed, the reconstructed picture is used as a reference picture for inter prediction of a block in a picture to be decoded later.
이상에서 설명한 영상 복호화 기술은 2D로 투영된 이후에 2D로 부호화된 360 영상을 복호화할 때에도 적용된다.The image decoding technique described above is also applied when decoding a 360 image encoded in 2D after being projected in 2D.
360 영상의 경우에는, 전술한 바와 같이, VPS (Video Parameter Set), SPS (Sequence Parameter Set), PPS (Picture Patameter Set), SEI (Supplementary Enhancement Information) 중 어느 하나의 위치에 360 영상의 메타 데이터가 부호화되어 있다. 따라서, 복호화부(1510)는 해당 위치에서 360 영상의 메타 데이터를 추출한다. 추출한 메타 데이터는 360 영상을 복원하는 데에 활용된다. 특히, 메타 데이터는 현재블록을 예측하거나 또는 현재블록에 대한 예측정보를 복호화할 때 사용될 수 있다.In the case of the 360 image, as described above, the metadata of the 360 image is stored at any one of a video parameter set (VPS), a sequence parameter set (SPS), a picture pattern set (PPS), and supplementary enhancement information (SEI). It is encoded. Accordingly, the decoder 1510 extracts metadata of the 360 image at the corresponding position. The extracted metadata is used to reconstruct the 360 image. In particular, the metadata may be used when predicting the current block or decoding the prediction information about the current block.
도 16은 본 발명의 일 실시예에 따른 360 영상에서 현재블록의 예측정보를 결정하기 위한 장치를 도시한 것이다.FIG. 16 illustrates an apparatus for determining prediction information of a current block in a 360 image, according to an embodiment of the present invention.
본 장치(1600)는 예측정보 후보 생성부(1610) 및 예측정보 결정부(1620)를 포함한다.The apparatus 1600 includes a prediction information candidate generator 1610 and a prediction information determiner 1620.
예측정보 후보 생성부(1610)는 360 영상으로부터 투영된 2D 레이아웃의 제1 면에 위치하는 현재블록의 주변블록들을 이용하여 예측정보 후보들을 생성한다. 특히, 현재블록의 경계와 제1 면의 경계가 일치하는 경우, 즉, 현재블록이 제1 면의 경계에 접하는 경우, 예측정보 후보 생성부(1610)는 2D 레이아웃에서는 현재블록과 인접하지 않아도 360 영상에서 현재블록에 인접한 블록을 현재블록의 주변블록으로 설정한다. 예컨대, 예측정보 후보 생성부(910)는, 현재블록의 경계가 제1 면의 경계와 일치하는 경우, 현재블록의 경계에 접하고 먼저 부호화된 제2 면을 식별한다. 제2 면은 360 영상의 메타 데이터 중 투영 포맷, 면의 인덱스(face index) 및 면의 회전 정보들을 하나 이상 사용하여 식별된다. 예측정보 후보 생성부(1610)가 360 영상을 기준으로 현재블록의 주변블록을 결정하는 방법은 도 9의 예측정보 후보 생성부(910)과 동일하므로, 더 이상의 상세한 설명은 생략한다.The prediction information candidate generator 1610 generates prediction information candidates using neighboring blocks of the current block located on the first surface of the 2D layout projected from the 360 image. In particular, when the boundary of the current block coincides with the boundary of the first surface, that is, when the current block is in contact with the boundary of the first surface, the prediction information candidate generator 1610 is 360 even though the current block is not adjacent to the current block. A block adjacent to the current block in the image is set as a neighboring block of the current block. For example, when the boundary of the current block coincides with the boundary of the first surface, the prediction information candidate generator 910 identifies a second surface that is first contacted with the boundary of the current block. The second face is identified using one or more projection formats, face indexes, and rotation information of the face among metadata of the 360 image. Since the prediction information candidate generator 1610 determines a neighboring block of the current block based on the 360 image, the prediction information candidate generator 1610 is the same as that of the prediction information candidate generator 910 of FIG.
예측정보 결정부(1620)는 예측정보 후보 생성부(1610)에 의해 생성된 예측정보 후보들 및 복호화부(1510)에 의해 추출된 예측정보에 대한 신택스 요소, 즉 인트라 예측정보에 대한 신택스 요소 또는 인터 예측정보에 대한 신택스 요소를 이용하여 현재블록의 예측정보를 복원한다.The prediction information determiner 1620 is a syntax element for the prediction information candidates generated by the prediction information candidate generator 1610 and the prediction information extracted by the decoder 1510, that is, a syntax element or inter for the intra prediction information. The prediction information of the current block is restored using a syntax element for the prediction information.
이하에서는, 도 16의 장치가 인트라 예측과 인터 예측에 적용된 경우의 실시예를 설명한다.Hereinafter, an embodiment in the case where the apparatus of FIG. 16 is applied to intra prediction and inter prediction is described.
도 17은 도 16의 장치를 인트라 예측에 적용한 경우의 인트라 예측부(1542)의 세부 구성을 나타내는 도면이다.17 is a diagram illustrating a detailed configuration of the intra prediction unit 1542 when the apparatus of FIG. 16 is applied to intra prediction.
도 16의 장치가 인트라 예측에 적용되는 경우, 인트라 예측부(1542)는 MPM 생성부(1710), 인트라 예측모드 결정부(1720), 참조픽셀 생성부(1730) 및 예측블록 생성부(1740)를 포함한다. 여기서, MPM 생성부(1710) 및 인트라 예측모드 결정부(1720)는 각각 도 16의 예측정보 후보 생성부(1610) 및 예측정보 결정부(1620)에 대응한다.When the apparatus of FIG. 16 is applied to intra prediction, the intra prediction unit 1542 includes an MPM generator 1710, an intra prediction mode determiner 1720, a reference pixel generator 1730, and a prediction block generator 1740. It includes. The MPM generator 1710 and the intra prediction mode determiner 1720 correspond to the prediction information candidate generator 1610 and the prediction information determiner 1620 of FIG. 16, respectively.
MPM 생성부(1710)는 현재블록의 주변블록의 인트라 예측모드로부터 MPM들을 유도하여 MPM 리스트를 구성한다. 특히, 현재블록의 경계가 현재블록이 위치하는 제1 면의 경계와 일치하는 경우, MPM 생성부(1710)는 2D 레이아웃이 아닌 360 영상을 기준으로 현재블록의 주변블록을 결정한다. 즉, 2D 레이아웃에서 현재블록의 주변블록이 존재하지 않더라도 360 영상에서 현재블록에 인접한 블록이 존재하면 그 블록을 현재블록의 주변블록을 설정한다. MPM 생성부(1710)가 주변블록을 결정하는 방법은 도 11의 MPM 생성부(1110)과 동일하다.The MPM generator 1710 constructs an MPM list by deriving MPMs from the intra prediction mode of the neighboring block of the current block. In particular, when the boundary of the current block coincides with the boundary of the first surface on which the current block is located, the MPM generator 1710 determines the neighboring block of the current block based on the 360 image rather than the 2D layout. That is, even if there is no neighboring block of the current block in the 2D layout, if there is a block adjacent to the current block in the 360 image, the neighboring block of the current block is set as the block. The method of determining the neighboring block by the MPM generator 1710 is the same as that of the MPM generator 1110 of FIG. 11.
인트라 예측모드 결정부(1720)는 MPM 생성부(1710)에 의해 생성된 MPM 리스트 내의 MPM들과 복호화부(1510)로부터 추출된 인트라 예측모드에 대한 신택스 요소로부터 현재블록의 인트라 예측모드를 결정한다. 즉, 인트라 예측의 모드 정보가 현재블록의 인트라 예측모드가 MPM 리스트로부터 결정됨을 지시하면, 인트라 예측모드 결정부(1720)는 MPM 리스트에 속하는 MPM 후보들 중에서 제1 인트라 식별정보에 의해 식별되는 모드를 현재블록의 인트라 예측모드로 결정한다. 반면, 인트라 예측의 모드 정보가 현재블록의 인트라 예측모드가 MPM 리스트로부터 결정되지 않음을 지시하면, 복수의 인트라 예측모드, 즉, 현재블록의 인트라 예측에 활용될 수 있는 전체 인트라 예측 모드 중에서 MPM 리스트 내의 MPM들을 제외한 나머지 인트라 예측모드들 중에서 제2 인트라 식별정보를 이용하여 현재블록의 인트라 예측모드를 결정한다. The intra prediction mode determiner 1720 determines the intra prediction mode of the current block from the syntax elements for the MPMs in the MPM list generated by the MPM generator 1710 and the intra prediction mode extracted from the decoder 1510. . That is, if the mode information of the intra prediction indicates that the intra prediction mode of the current block is determined from the MPM list, the intra prediction mode determiner 1720 determines the mode identified by the first intra identification information among the MPM candidates included in the MPM list. Determine the intra prediction mode of the current block. On the other hand, if the mode information of the intra prediction indicates that the intra prediction mode of the current block is not determined from the MPM list, the MPM list among a plurality of intra prediction modes, that is, all intra prediction modes that can be used for intra prediction of the current block, is determined. The intra prediction mode of the current block is determined using the second intra identification information among the remaining intra prediction modes except for the MPMs.
참조픽셀 생성부(1730)는 현재블록의 주변의 위치한 먼저 복호화된 블록 내의 픽셀들을 참조 픽셀로 설정한다. 만약, 현재블록의 경계가 현재블록이 위치하는 제1 면의 경계와 일치하는 경우, 참조픽셀 생성부(1730)는 2D 레이아웃이 아닌 360 영상을 기준으로 참조픽셀을 설정한다. 참조픽셀 생성부(1730)가 참조픽셀을 설정하는 방법은 도 11의 참조픽셀 생성부(1130)과 동일하다.The reference pixel generator 1730 sets pixels in the first decoded block located around the current block as reference pixels. If the boundary of the current block coincides with the boundary of the first surface on which the current block is located, the reference pixel generator 1730 sets the reference pixel based on the 360 image rather than the 2D layout. The method of setting the reference pixel by the reference pixel generator 1730 is the same as the reference pixel generator 1130 of FIG. 11.
예측블록 생성부(1740)는 참조픽셀들 중에서 현재블록의 인트라 예측모드에 대응하는 참조픽셀들을 선택하고 선택된 참조픽셀들에 현재블록의 인트라 예측모드에 대응하는 연산식을 사용하여 현재블록에 대한 예측블록을 생성한다.The prediction block generation unit 1740 selects reference pixels corresponding to the intra prediction mode of the current block among the reference pixels, and predicts the current block by using an expression corresponding to the intra prediction mode of the current block to the selected reference pixels. Create a block.
도 18은 도 16의 장치를 인터 예측에 적용하는 경우 인터 예측부(1544)의 세부 구성을 나타내는 도면이다.18 is a diagram illustrating a detailed configuration of the inter prediction unit 1544 when the apparatus of FIG. 16 is applied to inter prediction.
도 16의 장치가 인터 예측에 적용되는 경우, 인터 예측부(1544)는 머지 후보 생성부(1810)와 MVP(motion vector predictor) 후보 생성부(1820), 움직임정보 결정부(1830) 및 예측블록 생성부(1840)를 포함한다. 머지 후보 생성부(1810)과 MVP 후보 생성부(1820)는 도 16의 예측정보 후보 생성부(1610)에 대응한다. 그리고 움직임정보 결정부(1830)는 도 16의 예측정보 결정부(1620)에 대응한다.When the apparatus of FIG. 16 is applied to inter prediction, the inter prediction unit 1544 includes a merge candidate generator 1810, a motion vector predictor (MVP) candidate generator 1820, a motion information determiner 1830, and a prediction block. Generation unit 1840 is included. The merge candidate generator 1810 and the MVP candidate generator 1820 correspond to the prediction information candidate generator 1610 of FIG. 16. The motion information determiner 1830 corresponds to the prediction information determiner 1620 of FIG. 16.
머지 후보 생성부(1810)는 복호화부(1510)로부터 추출된 인터 예측의 모드 정보가 머지 모드를 지시하는 경우에 활성화된다. 머지 후보 생성부(1810)는 현재블록의 주변블록을 이용하여 머지 후보들을 포함하는 머지 리스트를 생성한다. 특히, 현재블록의 경계가 현재블록이 위치한 제1 면의 경계와 일치하는 경우, 머지 후보 생성부(1420)는 360 영상을 기준으로 현재블록에 인접한 블록을 주변블록으로 결정한다. 즉, 2D 레이아웃에서는 현재블록과 인접하지 않아도 360 영상에서 현재블록에 인접한 블록을 현재블록의 주변블록으로 설정한다. 머지 후보 생성부(1810)는 도 14의 머지 후보 생성부(1420)와 동일하다.The merge candidate generator 1810 is activated when the mode information of the inter prediction extracted from the decoder 1510 indicates the merge mode. The merge candidate generator 1810 generates a merge list including merge candidates using neighboring blocks of the current block. In particular, when the boundary of the current block coincides with the boundary of the first surface on which the current block is located, the merge candidate generator 1420 determines a block adjacent to the current block as a neighboring block based on the 360 image. That is, in the 2D layout, the block adjacent to the current block is set as the neighboring block of the current block in the 360 image even if the current block is not adjacent to the current block. The merge candidate generator 1810 is the same as the merge candidate generator 1420 of FIG. 14.
MVP 후보 생성부(1820)는 복호화부(1510)로부터 추출된 인터 예측의 모드 정보가 차분 움직임벡터 부호화 모드를 지시하는 경우에 활성화된다. MVP 후보 생성부(1820)는 현재블록의 주변블록들의 움직임벡터를 이용하여 현재블록의 예측 움직임벡터에 대한 후보(예측 움직임벡터 후보)를 결정한다. MVP 후보 생성부(1820)가 예측 움직임벡터 후보들을 결정하는 방식은 도 14에서 신택스 생성부(1430)가 예측 움직임벡터 후보들을 결정하는 방식과 동일하다. 예컨대, MVP 후보 생성부(1820)는, 도 14의 신택스 생성부(1430)와 마찬가지로, 현재블록의 경계가 현재블록이 위치하는 제1 면의 경계와 일치하는 경우, 2D 레이아웃의 이미지가 아닌 360 영상을 기준으로 현재블록에 인접한 블록을 현재블록의 주변블록으로 결정한다.The MVP candidate generator 1820 is activated when the mode information of the inter prediction extracted from the decoder 1510 indicates a differential motion vector encoding mode. The MVP candidate generator 1820 determines a candidate (predicted motion vector candidate) for the predicted motion vector of the current block by using the motion vectors of neighboring blocks of the current block. The MVP candidate generator 1820 determines the prediction motion vector candidates in the same manner as the syntax generator 1430 determines the prediction motion vector candidates in FIG. 14. For example, like the syntax generator 1430 of FIG. 14, the MVP candidate generator 1820 is 360 instead of an image of a 2D layout when the boundary of the current block matches the boundary of the first surface on which the current block is located. A block adjacent to the current block is determined as a neighboring block of the current block based on the image.
움직임정보 결정부(1830)는 인터 예측의 모드 정보에 따라 머지 후보들 또는 예측 움직임벡터 후보들과 복호화부(1510)로부터 추출된 움직임정보 신택스 요소를 이용하여 현재블록의 움직임정보를 복원한다. 예컨대, 인터 예측의 모드 정보가 머지 모드를 지시하는 경우, 움직임정보 결정부(1830)는 머지 리스트 내의 머지 후보들 중에서 머지 인덱스 정보에 의해 지시되는 후보가 가지는 움직임벡터 및 참조픽처를 현재블록의 움직임벡터와 참조픽처로 설정한다. 반면, 인터 예측의 모드 정보가 차분 움직임벡터 부호화 모드를 지시하는 경우, 움직임정보 결정부(1830)는 예측 움직임벡터 후보들을 이용하여 현재블록의 움직임벡터에 대한 예측 움직임벡터를 결정하고, 결정된 예측 움직임벡터와 복호화부(1510)로부터 전달된 차분 움직임벡터를 가산하여 현재블록의 움직임벡터를 결정한다. 그리고, 복호화부(1510)로부터 전달된 참조픽처에 대한 정보를 이용하여 참조픽처를 결정한다.The motion information determiner 1830 reconstructs the motion information of the current block by using the merge candidates or the predicted motion vector candidates and the motion information syntax element extracted from the decoder 1510 according to the inter prediction mode information. For example, when the inter prediction mode information indicates the merge mode, the motion information determiner 1830 determines a motion vector and a reference picture of the candidate indicated by the merge index information among the merge candidates in the merge list, and the motion vector of the current block. And reference picture. On the other hand, when the inter prediction mode information indicates the differential motion vector encoding mode, the motion information determiner 1830 determines the predicted motion vector for the motion vector of the current block by using the predicted motion vector candidates, and determines the determined predicted motion. The motion vector of the current block is determined by adding the difference motion vector transmitted from the vector and the decoder 1510. Then, the reference picture is determined by using information about the reference picture transferred from the decoder 1510.
예측블록 생성부(1840)는 움직임정보 결정부(1830)에 의해 결정된 현재블록의 움직임벡터와 참조픽처를 이용하여 현재블록을 예측한다. 즉, 참조픽처 내에서 현재블록의 움직임벡터가 지시하는 블록을 이용하여 현재블록에 대한 예측블록을 생성한다.The prediction block generator 1840 predicts the current block by using the motion vector and the reference picture of the current block determined by the motion information determiner 1830. That is, the prediction block for the current block is generated using the block indicated by the motion vector of the current block in the reference picture.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present embodiment, and those skilled in the art to which the present embodiment belongs may make various modifications and changes without departing from the essential characteristics of the present embodiment. Therefore, the present embodiments are not intended to limit the technical idea of the present embodiment but to describe the present invention, and the scope of the technical idea of the present embodiment is not limited by these embodiments. The scope of protection of the present embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present embodiment.
CROSS-REFERENCE TO RELATED APPLICATIONCROSS-REFERENCE TO RELATED APPLICATION
본 특허출원은 2016년 10월 17일 한국에 출원한 특허출원번호 제 10-2016-0134654호와 2017년 01월 09일 한국에 출원한 특허출원번호 제10-2017-0003154호에 대해 미국 특허법 119(a)조(35 U.S.C §119(a))에 따라 우선권을 주장하며, 그 모든 내용은 참고문헌으로 본 특허출원에 병합된다. 아울러, 본 특허출원은 미국 이외에 국가에 대해서도 위와 동일한 이유로 우선권을 주장하며 그 모든 내용은 참고문헌으로 본 특허출원에 병합된다.This patent application is filed with the Korean Patent Application No. 10-2016-0134654 filed in Korea on October 17, 2016 and Patent Application No. 10-2017-0003154 filed in Korea on January 09, 2017. (a) Claims priority under section 35 USC §119 (a), all of which are hereby incorporated by reference in this patent application. In addition, this patent application claims priority to countries other than the United States for the same reasons, all of which are incorporated herein by reference.

Claims (14)

  1. 360 영상으로부터 투영된 2D 이미지의 각 면을 부호화할 때, 부호화하고자 제1 면에 위치하는 현재블록의 예측정보를 부호화하는 방법에 있어서,A method of encoding prediction information of a current block located on a first surface to be encoded when encoding each surface of a 2D image projected from a 360 image,
    상기 현재블록의 주변블록들을 이용하여 예측정보 후보들을 생성하는 단계; 및Generating prediction information candidates using neighboring blocks of the current block; And
    상기 예측정보 후보들을 이용하여 상기 현재블록의 예측정보에 대한 신택스 요소(syntax element)를 부호화하는 단계를 포함하되,Encoding a syntax element for the prediction information of the current block by using the prediction information candidates,
    상기 현재블록의 경계가 상기 제1 면의 경계와 일치할 때, 상기 360 영상을 기준으로 상기 현재블록에 인접한 블록을 상기 주변블록들 중 적어도 일부로 설정하는 것을 특징으로 하는 예측정보 부호화 방법.And when a boundary of the current block coincides with a boundary of the first surface, a block adjacent to the current block is set as at least some of the neighboring blocks based on the 360 image.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 현재블록의 경계가 상기 현재블록이 위치하는 제1 면(face)의 경계와 일치할 때, 상기 주변블록들 중 적어도 일부를 설정하는 것은,When the boundary of the current block coincides with the boundary of the first face on which the current block is located, setting at least some of the neighboring blocks may include:
    상기 360 영상에서 상기 현재블록의 경계에 접하고 먼저 부호화된 제2 면을 식별하는 단계; 및Identifying a second surface that is adjacent to a boundary of the current block and is first encoded in the 360 image; And
    상기 제2 면에 위치하고 상기 360 영상에서 상기 현재블록에 인접한 하나 이상의 블록을 상기 주변블록들 중 적어도 일부로 설정하는 단계Setting one or more blocks on the second surface and adjacent to the current block in the 360 image as at least some of the peripheral blocks
    를 포함하는 것을 특징으로 하는 예측정보 부호화 방법.Prediction information encoding method comprising a.
  3. 제 2 항에 있어서,The method of claim 2,
    상기 현재블록의 경계가 상기 제1 면의 경계와 일치하는지 여부는 상기 현재블록의 위치에 근거하여 판단하는 것을 특징으로 하는 예측정보 부호화 방법.And determining whether the boundary of the current block coincides with the boundary of the first surface based on the position of the current block.
  4. 제 1 항에 있어서,The method of claim 1,
    상기 360 영상을 기준으로 상기 현재블록에 인접한 블록은, 투영 포맷(projection format), 각 면에 대한 인덱스 및 각 면의 회전 정보 중 적어도 하나 이상에 의해 식별되는 것을 특징으로 하는 예측정보 부호화 방법.The block adjacent to the current block based on the 360 image is identified by at least one of a projection format, an index for each surface, and rotation information of each surface.
  5. 제 1 항에 있어서,The method of claim 1,
    상기 예측정보는 인트라 예측 모드이고, 상기 예측정보 후보들은 MPM(most probable mode)들인 것을 특징으로 하는 예측정보 부호화 방법.Wherein the prediction information is an intra prediction mode, and the prediction information candidates are MPMs (most probable modes).
  6. 제 5 항에 있어서,The method of claim 5, wherein
    상기 MPM들은 상기 현재블록의 기 지정된 위치의 주변블록들의 인트라 예측 모드들로부터 유도되고, 상기 기 지정된 위치는 상기 현재블록의 좌측, 상단, 좌하단, 우상단 및 좌상단 중 복수의 위치를 포함하는 것을 특징으로 하는 예측정보 부호화 방법.The MPMs are derived from intra prediction modes of neighboring blocks of a predetermined position of the current block, and the predetermined position includes a plurality of positions of a left side, an upper side, a lower left side, an upper right side, and an upper left side of the current block. A prediction information encoding method.
  7. 제 5 항에 있어서,The method of claim 5, wherein
    상기 현재블록의 예측 정보에 대한 신택스 요소(syntax element)를 부호화하는 단계는,Encoding a syntax element for the prediction information of the current block,
    상기 현재블록의 인트라 예측 모드가 상기 MPM들로부터 선택되는지 여부를 지시하는 모드 정보를 부호화하는 단계;Encoding mode information indicating whether an intra prediction mode of the current block is selected from the MPMs;
    상기 현재블록의 인트라 예측 모드가 상기 MPM들로부터 선택되는 경우, 상기 MPM들 중 어느 모드가 상기 현재블록의 인트라 예측 모드로 선택되는지를 지시하는 제1 인트라 식별정보를 부호화하는 단계; 및If an intra prediction mode of the current block is selected from the MPMs, encoding first intra identification information indicating which mode of the MPMs is selected as the intra prediction mode of the current block; And
    상기 현재블록의 인트라 예측 모드가 상기 MPM들로부터 선택되지 않는 경우, 복수의 인트라 예측 모드로부터 상기 MPM들을 제외한 나머지 모드들 중에서 상기 현재블록의 인트라 예측 모드를 지시하는 제 2 인트라 식별정보를 부호화하는 단계If the intra prediction mode of the current block is not selected from the MPMs, encoding second intra identification information indicating the intra prediction mode of the current block among a plurality of intra prediction modes except for the MPMs;
    를 포함하는 것을 특징으로 하는 예측정보 부호화 방법.Prediction information encoding method comprising a.
  8. 제 1 항에 있어서,The method of claim 1,
    서로 다른 면 간의 참조가 허용되는지 여부를 지시하는 플래그를 부호화하는 단계를 더 포함하고,Encoding a flag indicating whether reference between different planes is allowed,
    상기 플래그가 서로 다른 면 간의 참조가 허용됨을 지시할 때, 상기 360 영상을 기준으로 상기 현재블록에 인접한 블록을 상기 주변블록들 중 적어도 일부로 결정하는 예측정보 부호화 방법.And determining a block adjacent to the current block as at least some of the neighboring blocks based on the 360 image when the flag indicates that reference between different planes is allowed.
  9. 2D 이미지로 부호화된 360 영상에서 복호화하고자 하는 제1 면에 위치하는 현재블록의 예측정보를 복호화하는 방법에 있어서,A method of decoding prediction information of a current block located on a first surface to be decoded from a 360 image encoded as a 2D image,
    비트스트림으로부터 상기 현재블록의 예측정보에 대한 신택스 요소(syntax element)를 복호화하는 단계;Decoding a syntax element for prediction information of the current block from a bitstream;
    상기 현재블록의 주변블록들을 이용하여 예측정보 후보들을 생성하는 단계; 및Generating prediction information candidates using neighboring blocks of the current block; And
    상기 예측정보 후보들 및 상기 복호화된 신택스 요소를 이용하여 상기 현재블록의 예측정보를 복원하는 단계를 포함하되,Restoring prediction information of the current block by using the prediction information candidates and the decoded syntax element,
    상기 현재블록의 경계가 상기 제1 면의 경계와 일치할 때, 상기 360 영상을 기준으로 상기 현재블록에 인접한 블록을 상기 주변블록들 중 적어도 일부로 설정하는 것을 특징으로 하는 예측정보 복호화 방법.And when a boundary of the current block coincides with a boundary of the first surface, a block adjacent to the current block is set as at least some of the neighboring blocks based on the 360 image.
  10. 제 9 항에 있어서,The method of claim 9,
    상기 현재블록의 경계가 상기 제1 면의 경계와 일치할 때, When the boundary of the current block coincides with the boundary of the first surface,
    상기 360 영상에서 상기 현재블록의 경계에 접하고 먼저 부호화된 제2 면을 식별하는 단계; 및Identifying a second surface that is adjacent to a boundary of the current block and is first encoded in the 360 image; And
    상기 제2 면내에 포함되고 상기 360 영상에서 상기 현재블록에 인접한 블록을 상기 주변블록들 중 적어도 일부로 설정하는 단계Setting a block included in the second surface and adjacent to the current block in the 360 image as at least some of the peripheral blocks
    를 포함하는 것을 특징으로 하는 예측정보 복호화 방법.Prediction information decoding method comprising a.
  11. 제 9 항에 있어서,The method of claim 9,
    비트스트림으로부터 투영 포맷(projection format) 정보, 각 면에 대한 인덱스 정보 및 각 면의 회전 정보 중 적어도 하나 이상을 포함하는 상기 360 영상의 메타 데이터를 복호화하는 단계를 더 포함하고,Decoding metadata of the 360 image including at least one of projection format information, index information for each surface, and rotation information of each surface from a bitstream,
    상기 360 영상을 기준으로 상기 현재블록에 인접한 블록은, 투영 포맷(projection format) 정보, 각 면에 대한 인덱스 정보 및 각 면의 회전 정보 중 적어도 하나 이상에 의해 식별되는 것을 특징으로 하는 예측정보 복호화 방법.The block adjacent to the current block based on the 360 image is identified by at least one of projection format information, index information for each surface, and rotation information of each surface. .
  12. 제 1 항에 있어서,The method of claim 1,
    상기 예측정보는 인트라 예측 모드이고, 상기 예측 정보 후보들은 MPM(most probable mode)들인 것을 특징으로 하는 예측정보 복호화 방법.Wherein the prediction information is an intra prediction mode, and the prediction information candidates are MPMs (most probable modes).
  13. 제 1 항에 있어서,The method of claim 1,
    서로 다른 면 간의 참조가 허용되는지 여부를 지시하는 플래그를 부호화하는 단계를 더 포함하고,Encoding a flag indicating whether reference between different planes is allowed,
    상기 플래그가 서로 다른 면 간의 참조가 허용됨을 지시할 때, 상기 360 영상을 기준으로 상기 현재블록에 인접한 블록을 상기 주변블록들 중 적어도 일부로 설정하는 예측정보 복호화 방법.And when the flag indicates that reference between different planes is allowed, setting a block adjacent to the current block as at least some of the neighboring blocks based on the 360 image.
  14. 2D 이미지로 부호화된 360 영상에서 복호화하고자 하는 제1 면에 위치하는 현재블록의 예측정보를 복호화하는 장치에 있어서,An apparatus for decoding prediction information of a current block located on a first surface to be decoded from a 360 image encoded as a 2D image,
    비트스트림으로부터 상기 현재블록의 예측정보에 대한 신택스 요소(syntax element)를 복호화하는 복호화부;A decoder which decodes a syntax element for the prediction information of the current block from a bitstream;
    상기 현재블록의 주변블록들을 이용하여 예측정보 후보들을 생성하는 예측정보 후보 생성부; 및A prediction information candidate generator for generating prediction information candidates using neighboring blocks of the current block; And
    상기 예측정보 후보들 및 상기 복호화된 신택스 요소를 이용하여 상기 현재블록의 예측정보를 복원하는 예측정보 결정부를 포함하되,A prediction information determiner for reconstructing prediction information of the current block by using the prediction information candidates and the decoded syntax element,
    상기 예측정보 후보 생성부는, 상기 현재블록의 경계가 상기 제1 면의 경계와 일치할 때, 상기 360 영상을 기준으로 상기 현재블록에 인접한 블록을 상기 주변블록들 중 적어도 일부로 설정하는 것을 특징으로 하는 예측정보 복호화 장치.The prediction information candidate generator may set a block adjacent to the current block as at least some of the neighboring blocks based on the 360 image when the boundary of the current block coincides with the boundary of the first surface. Prediction information decoding apparatus.
PCT/KR2017/011457 2016-10-17 2017-10-17 Device and method for encoding or decoding image WO2018074813A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201780063765.1A CN109863748A (en) 2016-10-17 2017-10-17 For carrying out coding or decoded device and method to image
US16/342,608 US20190260990A1 (en) 2016-10-17 2017-10-17 Apparatus and method for video encoding or decoding
US17/109,751 US20210092367A1 (en) 2016-10-17 2020-12-02 Apparatus and method for video encoding or decoding

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20160134654 2016-10-17
KR10-2016-0134654 2016-10-17
KR10-2017-0003154 2017-01-09
KR1020170003154A KR20180042098A (en) 2016-10-17 2017-01-09 Apparatus and Method for Video Encoding or Decoding

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/342,608 A-371-Of-International US20190260990A1 (en) 2016-10-17 2017-10-17 Apparatus and method for video encoding or decoding
US17/109,751 Continuation US20210092367A1 (en) 2016-10-17 2020-12-02 Apparatus and method for video encoding or decoding

Publications (1)

Publication Number Publication Date
WO2018074813A1 true WO2018074813A1 (en) 2018-04-26

Family

ID=62019463

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/011457 WO2018074813A1 (en) 2016-10-17 2017-10-17 Device and method for encoding or decoding image

Country Status (1)

Country Link
WO (1) WO2018074813A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020025041A1 (en) * 2018-08-03 2020-02-06 Mediatek Inc. Method and apparatus of enhanced intra block copying mode for video coding
CN112106360A (en) * 2018-05-10 2020-12-18 三星电子株式会社 Video encoding method and apparatus, and video decoding method and apparatus
CN113228658A (en) * 2018-12-14 2021-08-06 中兴通讯股份有限公司 Immersive video bitstream processing

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140085462A (en) * 2011-10-24 2014-07-07 가부시키가이샤 근조 Encoding system and encoding method for video signals
JP2015106846A (en) * 2013-11-29 2015-06-08 富士通株式会社 Dynamic image encoding device, dynamic image encoding method and dynamic image encoding computer program
JP2015159531A (en) * 2014-02-21 2015-09-03 パナソニック株式会社 Image decoding method, image encoding method, image decoding device and image encoding device
KR20160057364A (en) * 2012-01-30 2016-05-23 한국전자통신연구원 Method for encoding/decoding of intra prediction mode and apparatus thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140085462A (en) * 2011-10-24 2014-07-07 가부시키가이샤 근조 Encoding system and encoding method for video signals
KR20160057364A (en) * 2012-01-30 2016-05-23 한국전자통신연구원 Method for encoding/decoding of intra prediction mode and apparatus thereof
JP2015106846A (en) * 2013-11-29 2015-06-08 富士通株式会社 Dynamic image encoding device, dynamic image encoding method and dynamic image encoding computer program
JP2015159531A (en) * 2014-02-21 2015-09-03 パナソニック株式会社 Image decoding method, image encoding method, image decoding device and image encoding device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MA, XIANG ET AL.: "Co-projection-plane Based Motion Compensated Prediction for Cubic Format VR Content", JVET DOCUMENT JVET-D0061, 12 October 2016 (2016-10-12), pages 1 - 4, XP030150294 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112106360A (en) * 2018-05-10 2020-12-18 三星电子株式会社 Video encoding method and apparatus, and video decoding method and apparatus
WO2020025041A1 (en) * 2018-08-03 2020-02-06 Mediatek Inc. Method and apparatus of enhanced intra block copying mode for video coding
US11159788B2 (en) 2018-08-03 2021-10-26 Mediatek Inc. Method and apparatus of enhanced Intra Block Copying mode for video coding
CN113228658A (en) * 2018-12-14 2021-08-06 中兴通讯股份有限公司 Immersive video bitstream processing
CN113228658B (en) * 2018-12-14 2023-10-17 中兴通讯股份有限公司 Immersive video bitstream processing
US11948268B2 (en) 2018-12-14 2024-04-02 Zte Corporation Immersive video bitstream processing

Similar Documents

Publication Publication Date Title
WO2018117706A1 (en) Video signal processing method and device
WO2017022973A1 (en) Inter prediction method and device in video coding system
WO2012023762A2 (en) Method for decoding intra-predictions
WO2012081879A1 (en) Method for decoding inter predictive encoded motion pictures
WO2018062702A1 (en) Intra prediction method and apparatus in image coding system
WO2020197236A1 (en) Image or video coding based on sub-picture handling structure
WO2017188565A1 (en) Image decoding method and device in image coding system
WO2017061671A1 (en) Method and device for coding image on basis of adaptive transformation in image coding system
WO2020189960A1 (en) Method and device for signaling information on chroma format
WO2019194507A1 (en) Image coding method based on affine motion prediction, and device for same
WO2019240425A1 (en) Inter-prediction method and image decoding device
WO2021060938A1 (en) Method for limiting in-loop filter of 360-degree video virtual edge
WO2020149630A1 (en) Method and device for decoding image on basis of cclm prediction in image coding system
WO2016056754A1 (en) Method and device for encoding/decoding 3d video
WO2016056779A1 (en) Method and device for processing camera parameter in 3d video coding
WO2020256506A1 (en) Video encoding/decoding method and apparatus using multiple reference line intra-prediction, and method for transmitting bitstream
WO2020185047A1 (en) Image encoding/decoding method and apparatus for performing intra prediction, and method for transmitting bitstream
WO2018074813A1 (en) Device and method for encoding or decoding image
WO2019009600A1 (en) Image decoding method and apparatus using projection-type based quantisation parameters in image coding system for 360-degree video
WO2018174531A1 (en) Video signal processing method and device
WO2020141884A1 (en) Method and apparatus for coding image by using mmvd based on cpr
WO2020197031A1 (en) Intra prediction method and apparatus based on multi-reference line in image coding system
WO2018174542A1 (en) Video signal processing method and device
WO2021091252A1 (en) Method and device for processing image information for image/video coding
WO2020180044A1 (en) Lmcs-based image coding method and device therefor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17862800

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17862800

Country of ref document: EP

Kind code of ref document: A1