WO2018124720A1 - 360도 이미지를 부호화 또는 복호화하는 방법 및 장치 - Google Patents

360도 이미지를 부호화 또는 복호화하는 방법 및 장치 Download PDF

Info

Publication number
WO2018124720A1
WO2018124720A1 PCT/KR2017/015525 KR2017015525W WO2018124720A1 WO 2018124720 A1 WO2018124720 A1 WO 2018124720A1 KR 2017015525 W KR2017015525 W KR 2017015525W WO 2018124720 A1 WO2018124720 A1 WO 2018124720A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
coding unit
information
degree image
degree
Prior art date
Application number
PCT/KR2017/015525
Other languages
English (en)
French (fr)
Inventor
알쉰엘레나
자하르첸코블라디슬라프
알쉰알렉산더
최광표
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US16/474,389 priority Critical patent/US10931971B2/en
Priority to CN201780087197.9A priority patent/CN110326297B/zh
Priority to KR1020197019239A priority patent/KR20190092485A/ko
Priority to EP17887246.1A priority patent/EP3554081A4/en
Publication of WO2018124720A1 publication Critical patent/WO2018124720A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8451Structuring of content, e.g. decomposing content into time segments using Advanced Video Coding [AVC]

Definitions

  • the present specification relates to a method and an apparatus for image encoding, an image decoding, and more particularly, to a method and apparatus for encoding or decoding a 360 degree image.
  • the image data is encoded by a codec according to a predetermined data compression standard, for example, the Moving Picture Expert Group (MPEG) standard, and then stored in a recording medium in the form of a bitstream or transmitted through a communication channel.
  • MPEG Moving Picture Expert Group
  • VR virtual reality
  • the virtual reality image displayed on the virtual reality device moves according to the line of sight of the user wearing the virtual reality display device, the virtual reality image should include all the images around the user. That is, the virtual reality image provided by the virtual reality device is an image corresponding to all directions around the user, that is, a 360 degree image. Therefore, interest in processing such 360 degree images is increasing along with interest in virtual reality devices.
  • An object of the present invention is to provide a method and apparatus for encoding or decoding a 360 degree image.
  • an image decoding method comprising: decoding a projection image of a 360 degree image from the image data; Converting the projection image into the 360 degree image; Obtaining rotation information of the 360 degree image from the bitstream; And restoring the original 360 degree image by rotating the 360 degree image based on the rotation information.
  • An image decoding apparatus includes a data obtaining unit obtaining rotation information of image data and a 360 degree image from a bitstream; A decoder which decodes the projection image of the 360 degree image from the image data; And a reconstruction unit for converting the projection image into the 360 degree image and restoring the original 360 degree image by rotating the 360 degree image based on the rotation information.
  • An image encoding method includes determining a predetermined angle for rotating an original 360 degree image; Rotating the original 360 degree image based on the predetermined angle; Converting the rotated 360 degree image into a projection image; Encoding the projection image; And generating a bitstream including image data of the encoded projection image and information about the predetermined angle.
  • the image encoding apparatus determines a predetermined angle for rotating the original 360 degree image, rotates the original 360 degree image based on the predetermined angle, and converts the converted 360 degree image into a projection image. part; An encoder which encodes the projection image; And a bitstream generator configured to generate a bitstream including image data of the encoded projection image and information about the predetermined angle.
  • FIG. 1 is a schematic block diagram of an image encoding apparatus 100 according to an embodiment.
  • FIG. 2 is a schematic block diagram of an image decoding apparatus 200 according to an embodiment.
  • FIG. 3 illustrates a 360 degree image according to one embodiment.
  • FIG. 4 illustrates a projection image generated by projecting a 360 degree image using a projection method according to various embodiments.
  • 5A and 5B illustrate projection images corresponding to predetermined angles and 360 degree images for rotating a 360 degree image, according to one embodiment.
  • 6A and 6B illustrate a rotated 360 degree image and a projection image corresponding to the rotated 360 degree image, according to one embodiment.
  • 7A-7D illustrate various embodiments of syntax associated with the rotation of a 360 degree image.
  • FIG. 8 is a flowchart illustrating an image encoding method, according to an exemplary embodiment.
  • FIG. 9 is a flowchart illustrating an image decoding method, according to an exemplary embodiment.
  • FIG. 10 illustrates a process of determining at least one coding unit by dividing a current coding unit according to an embodiment.
  • FIG. 11 is a diagram illustrating a process of dividing a coding unit having a non-square shape and determining at least one coding unit according to an embodiment.
  • FIG. 12 illustrates a process of splitting a coding unit based on at least one of block shape information and split shape information, according to an embodiment.
  • FIG. 13 illustrates a method of determining a predetermined coding unit among odd number of coding units according to an embodiment.
  • FIG. 14 illustrates an order in which a plurality of coding units are processed when a current coding unit is divided and a plurality of coding units are determined according to an embodiment.
  • FIG. 15 illustrates a process of determining that a current coding unit is divided into odd coding units when the coding units cannot be processed in a predetermined order, according to an embodiment.
  • 16 is a diagram illustrating a process of determining at least one coding unit by dividing a first coding unit according to an embodiment.
  • FIG. 17 illustrates that a form in which a second coding unit may be split is limited when the second coding unit having a non-square shape determined by splitting the first coding unit satisfies a predetermined condition according to an embodiment. .
  • FIG. 18 illustrates a process of splitting a coding unit having a square shape when split information cannot be divided into four square coding units according to an embodiment.
  • FIG. 19 illustrates that a processing order between a plurality of coding units may vary according to a splitting process of coding units, according to an embodiment.
  • 20 is a diagram illustrating a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided and a plurality of coding units are determined according to an embodiment.
  • FIG. 21 illustrates a depth index and a part index (PID) for classifying coding units, which may be determined according to shapes and sizes of coding units, according to an embodiment.
  • PID part index
  • FIG. 22 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • FIG. 23 illustrates a processing block serving as a reference for determining a determination order of reference coding units included in a picture, according to an embodiment.
  • An image decoding method includes decoding a projection image of a 360 degree image from the image data; Converting the projection image into the 360 degree image; Obtaining rotation information of the 360 degree image from the bitstream; And restoring the original 360 degree image by rotating the 360 degree image based on the rotation information.
  • the projection image is an isquirectangular projection, an Icosahedral projection, a cubemap projection, an octahedron projection, and It may be an image in which the 360 degree image is projected by using any one of rotated sphere projection.
  • the rotation information may represent a horizontal angle and a vertical angle with respect to the center of the 360 degree image.
  • the rotation information may be a total of 8 bits including 5 bits indicating the horizontal angle and 3 bits indicating the vertical angle.
  • the rotation information may be stored in a video parameter set or a sequence parameter set in the bitstream.
  • the rotation information may be stored in Supplemental enhancement information (SEI) in the bitstream.
  • SEI Supplemental enhancement information
  • the image decoding method may further include obtaining rotation change amount information of the 360 degree image from the bitstream, wherein the 360 degree image is rotated based on the rotation information and the rotation change amount information. Can be.
  • the rotation change amount information may be stored in a picture parameter set in the bitstream.
  • An image decoding apparatus includes a data obtaining unit obtaining rotation information of image data and a 360 degree image from a bitstream; A decoder which decodes the projection image of the 360 degree image from the image data; And a reconstruction unit for converting the projection image into the 360 degree image and restoring the original 360 degree image by rotating the 360 degree image based on the rotation information.
  • An image encoding method includes determining a predetermined angle for rotating an original 360 degree image; Rotating the original 360 degree image based on the predetermined angle; Converting the rotated 360 degree image into a projection image; Encoding the projection image; And generating a bitstream including image data of the encoded projection image and information about the predetermined angle.
  • the predetermined angle may include a horizontal angle and a vertical angle with respect to the center of the 360 degree image.
  • the determining of the predetermined angle for rotating the original 360 degree image may include applying each of the possible rotation angles to the original 360 degree image to obtain the original 360 degree image. Rotating; Converting a 360 degree image rotated according to each of the rotation angles into a projection image; Calculating a coding efficiency of the converted projection image; And determining the predetermined angle among the possible rotation angles based on the calculation result.
  • the image encoding apparatus determines a predetermined angle for rotating the original 360 degree image, rotates the original 360 degree image based on the predetermined angle, and converts the converted 360 degree image into a projection image. part; An encoder which encodes the projection image; And a bitstream generator configured to generate a bitstream including image data of the encoded projection image and information about the predetermined angle.
  • part refers to a hardware component, such as software, FPGA or ASIC, and “part” plays certain roles. However, “part” is not meant to be limited to software or hardware.
  • the “unit” may be configured to be in an addressable storage medium and may be configured to play one or more processors.
  • a “part” refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables.
  • the functionality provided within the components and “parts” may be combined into a smaller number of components and “parts” or further separated into additional components and “parts”.
  • the "image” may be a static image such as a still image of a video or may represent a dynamic image such as a video, that is, the video itself.
  • sample means data to be processed as data allocated to a sampling position of an image.
  • pixel values and transform coefficients on a transform region may be samples in an image of a spatial domain.
  • a unit including the at least one sample may be defined as a block.
  • FIGS. 1 to 23 An image encoding apparatus, an image decoding apparatus, an image encoding method, and an image decoding method according to an embodiment will be described with reference to FIGS. 1 to 23.
  • a method and apparatus for encoding or decoding a 360 degree image according to an embodiment will be described below with reference to FIGS. 1 to 9, and the image decoding apparatus 200 according to an embodiment will be described with reference to FIGS. 10 to 23.
  • a method of determining a data unit that can be used in the decoding process is described below.
  • FIG. 1 is a schematic block diagram of an image encoding apparatus 100 according to an embodiment.
  • the image encoding apparatus 100 includes a converter 110, an encoder 120, and a bitstream generator 130.
  • the conversion unit 110 may determine a predetermined angle for rotating the original 360 degree image.
  • rotating the original 360 degree image by applying each of the possible rotation angles to the original 360 degree image, converting the 360 degree image rotated according to each of the rotation angles, into a projection image, converting The predetermined angle for rotating the original 360 degree image can be determined by calculating the coding efficiency of the projected image, and by determining a predetermined angle among possible rotation angles based on the calculation result.
  • rotating the original 360 degree image by applying each of the possible angles of rotation to the original 360 degree image, converting the 360 degree image rotated according to each of the rotation angles, into a projection image, conversion
  • the predetermined angle for rotating the original 360 degree image can be determined by calculating an image quality of the projected image, and determining a predetermined angle among possible rotation angles based on the calculation result.
  • a predetermined value for calculating the encoding efficiency and image quality of the converted projection image according to the rotation angle of the original 360-degree image, and considering the calculated encoding efficiency and the image quality both to rotate the original 360-degree image The angle can be determined.
  • the predetermined angle may include a horizontal angle and a vertical angle with respect to the center of the 360 degree image.
  • the conversion unit 110 may rotate the original 360 degree image based on a predetermined angle, and convert the rotated 360 degree image into a projection image.
  • the projected images are required ctangular projection, Icosahedral projection, Cubemap projection, Octahedron projection, and Rotated sphere projection. ) May be an image in which a 360 degree image is projected.
  • the bitstream generator 120 may generate a bitstream including image data of the encoded projection image and information about a predetermined angle.
  • the information about the predetermined angle may be stored in the video parameter set or the sequence parameter set in the bitstream.
  • FIG. 2 is a schematic block diagram of an image decoding apparatus 200 according to an embodiment.
  • the image decoding apparatus 200 includes a data acquirer 210, a decoder 220, and a reconstructor 230.
  • the data acquirer 210 parses a bitstream received by the image decoding apparatus 200, obtains rotation information of image data and a 360 degree image, and decodes 220 and reconstructor 230. Will output
  • the rotation information may indicate a horizontal angle and a vertical angle with respect to the center of the 360 degree image.
  • the rotation information may be a total of 8 bits including 5 bits representing a horizontal angle and 3 bits representing a vertical angle.
  • the rotation information may be obtained from a video parameter set or sequence parameter set in the bitstream.
  • the rotation information may be obtained from Supplemental enhancement information (SEI) in the bitstream.
  • SEI Supplemental enhancement information
  • the rotation change amount information of the 360 degree image may be further obtained from the bitstream.
  • Rotational variation amount information may be obtained from a picture parameter set.
  • information on whether the 360-degree image is rotated may be further obtained, and whether to obtain rotation information may be determined according to the information on whether the 360-degree image is rotated.
  • the decoder 220 decodes the projection image of the 360 degree image from the image data.
  • the reconstructor 230 converts the projection image into a 360 degree image.
  • the projected images are required ctangular projection, Icosahedral projection, Cubemap projection, Octahedron projection, and Rotated sphere projection. ) May be an image in which a 360 degree image is projected.
  • the present invention is not limited to the above-described projection method, and various other projection methods may be used.
  • the projection image may be a rectangular image of a plane.
  • the reconstructor 230 restores the original 360 degree image by rotating the 360 degree image based on the rotation information.
  • the 360 degree image may be rotated based on both the rotation information and the rotation change amount information.
  • FIG. 3 illustrates a 360 degree image according to one embodiment.
  • the 360 degree image 320 is an image representing an environment surrounding a specific position 360 degrees around the specific position 310.
  • the 360 degree image 320 may have a spherical shape.
  • an image representing the surrounding environment surrounding the user 360 degrees in the virtual reality may be a 360 degree image.
  • the virtual reality device may provide a 360 degree image to the user, so that even when a user wearing the virtual reality device moves or looks around in the virtual reality, an appropriate image may be provided accordingly.
  • FIG. 4 illustrates a projection image generated by projecting a 360 degree image using a projection method according to various embodiments.
  • the 360 degree image can be converted into a planar image for encoding / decoding because it is difficult to encode itself.
  • the 360-degree image 410 described above with reference to FIG. 3 may be projected through various projection methods and converted into a planar image. As shown in FIG. 4, the 360 degree image 410 may be projected using an isquirectangular projection to be converted into a rectangular projection image 420. In addition, the 360-degree image 410 may be projected using an Icosahedral projection to be converted into a projection image 420 in the form of a dodecahedron.
  • various projection methods can be used to generate the projection image, without being limited to the isotonic and icosahydral projection methods described above.
  • Projections according to various embodiments may be Octahedron projection, Cubemap projection, and Rotated sphere projection, and the shape of the projection image generated according to the projection may be different.
  • the projection image generated according to the rotating sphere projection method may be in the form of a rectangle having a 3: 2 aspect ratio like the cubemap projection method, and is composed of two symmetrical continuous segments divided up and down. The corner area of each segment can be left as is or grayed out in an arc shape.
  • the projection image generated using various projection methods can be reconstructed into a rectangular shape by adding a margin.
  • 5A and 5B illustrate projection images corresponding to predetermined angles and 360 degree images for rotating a 360 degree image, according to one embodiment.
  • the 360 degree image 500 may have an initial origin A located at the top of the 360 degree image 500.
  • a predetermined point B may be selected on the 360 degree image 500 to rotate the 360 degree image.
  • a predetermined angle corresponding to the selected predetermined point B may be determined.
  • the predetermined angle may include a horizontal angle and a vertical angle with respect to the center of the 360 degree image.
  • a horizontal angle ⁇ formed by a predetermined point B and a reference point C representing the front surface with respect to the center may be determined.
  • the horizontal angle ⁇ may be determined within a range of 0 to 360 degrees according to the selected predetermined point B.
  • a vertical angle ⁇ formed by a straight line passing through the predetermined point B and the center may be determined with respect to the straight line passing through the center and the initial origin A of the 360 degree image 500.
  • the vertical angle ⁇ may be determined within a range of 0 to 180 degrees depending on the predetermined point B selected.
  • Information about a predetermined angle may be signaled through the bitstream as rotation information of the 360 degree image 500 to encode / decode the 360 degree image.
  • rotation information of the 360 degree image 500 may be signaled through the bitstream as rotation information of the 360 degree image 500 to encode / decode the 360 degree image.
  • FIGS. 7A-7D Various embodiments of the syntax regarding rotation information of the 360 degree image 500 are described in detail with reference to FIGS. 7A-7D.
  • the relationship between the initial origin A and the predetermined point B on the 360 degree image 500 described above with reference to FIG. 5A is the initial origin A on the corresponding projection image 510.
  • a predetermined point B are shown.
  • the horizontal angle ⁇ and the vertical angle ⁇ with respect to the center of the 360 degree image 500 may correspond to the horizontal distance and the vertical distance between the initial origin A and the predetermined point B on the projection image 510. have.
  • the horizontal length and the vertical length of the projection image 510 may correspond to the total longitude and the full latitude of the 360 degree image 500, respectively.
  • a predetermined point B having a horizontal axis coordinate corresponding to the longitude and a vertical axis coordinate corresponding to the latitude is selected on the corresponding projection image 510.
  • 6A and 6B illustrate a rotated 360 degree image and a projection image corresponding to the rotated 360 degree image, according to one embodiment.
  • a predetermined point B is selected on the 360 degree image 500 for rotation of the 360 degree image, and is 360 degrees as a predetermined angle corresponding to the selected predetermined point B.
  • the horizontal angle ⁇ and the vertical angle ⁇ with respect to the center of the image can be determined.
  • the 360 degree image 600 may be rotated based on the horizontal angle ⁇ and the vertical angle ⁇ .
  • the 360 degree image 600 may be rotated by a horizontal angle ⁇ using a straight line passing through the center of the 360 degree image 600 and the initial origin A as a rotation axis.
  • the 360 degree image 600 may be rotated by the vertical angle ⁇ such that the predetermined point B is at the position of the initial origin A of the uppermost end.
  • a predetermined point B becomes a new origin at the top.
  • the pixel value corresponding to the reference point C representing the front surface may be changed.
  • the content of the 360 degree image does not change with the rotation of the 360 degree image 600.
  • a predetermined point B becomes a new origin of the upper left corner even on the projection image 620 corresponding to the rotated 360 degree image 610.
  • the projection image 620 corresponding to the rotated 360 degree image 610 may be different from the content of the projection image 510 before being rotated, unlike that the content within the 360 degree image does not change as the 360 degree image is rotated.
  • the projected image may be an image in which a 360 degree image is projected by using an isquirectangular projection, in which case the projected image is severely distorted with respect to the 360 degree image from the middle to the upper side and the lower side. Lose.
  • the coding rate may be different for each rotation of the 360-degree image according to the selection of a predetermined point, and the encoding apparatus 100 may be 360 degrees.
  • the optimal rotation angle may be selected by comparing encoding rates for each rotation according to a predetermined angle of the image.
  • 7A-7D illustrate various embodiments of syntax associated with the rotation of a 360 degree image.
  • the bitstream may be configured of Network Abstraction Layer (NAL) units, and at least one of the NAL units may be a video parameter set Raw Byte Sequence Payload (RBSP) region.
  • NAL Network Abstraction Layer
  • RBSP Raw Byte Sequence Payload
  • Information included in the video parameter set may be collectively applied to pictures in a coded video sequence (CVS) including one intra random access point (IRAP) picture and a subsequent picture that is not an IRAP picture.
  • CVS coded video sequence
  • IRAP intra random access point
  • Information included in the video parameter set may be applied to the sequence level of pictures.
  • vps_360_extension_flag which is a 1-bit flag indicating whether an image decoded from a video parameter set RBSP region is a projection image of a 360 degree image. If the value of "vps_360_extension_flag" is 1, the "vps_360_extension ()" syntax is called so that relevant information of the 360 degree image may be subsequently obtained.
  • vps_360_rotation representing rotation information of a 360 degree image includes a total of 8 bits including 5 bits representing a horizontal angle with respect to the center of the 360 degree image and 3 bits representing a vertical angle with respect to the center of the 360 degree image. May be a bit.
  • vps_360_extension_flag may be obtained from the video parameter set RBSP region, and “vps_360_origin_point_shift_flag” may be obtained in the called “vps_360_extension ()” syntax.
  • vps_360_rotation representing rotation information of the 360 degree image
  • vps_360_rotation_latitude representing the vertical angle with respect to the center of the 360 degree image and the center of the 360 degree image
  • Vps_360_rotation_longitude representing the horizontal angle
  • the 360 degree image may be rotated, and the original 360 degree image may be reconstructed.
  • At least one of the NAL units constituting the bitstream may be a picture parameter set Raw Byte Sequence Payload (RBSP) region.
  • RBSP Raw Byte Sequence Payload
  • Information included in a picture parameter set may be applied to a predetermined number of pictures.
  • pps_360_extension_flag which is a 1-bit flag indicating whether an image decoded from the picture parameter set RBSP region is a projection image of a 360 degree image. If the value of "pps_360_extension_flag" is 1, the "pps_360_extension ()" syntax may be called to obtain relevant information of the 360 degree image subsequently.
  • the 1-bit flag “pps_360_delta_shift_present_flag_latitude” and 1-bit flag indicating information about whether there is a rotation change amount with respect to the vertical angle of the 360 degree image and the horizontal of the 360 degree image A 1-bit flag "pps_360_delta_shift_present_flag_longitude” indicating information on whether there is a rotation change amount with respect to an angle may be obtained.
  • the 360 degree image may be rotated according to the acquired rotation information of the 360 degree image, and the amount of rotation may be adjusted for only some pictures based on the rotation change amount information.
  • vr_360_rotation_latitude indicating a vertical angle with respect to the center of the 360 degree image from SEI (Supplemental enhancement information) in the bitstream and a horizontal angle with respect to the center of the 360 degree image "Vr_360_rotation_longitude” may be obtained.
  • SEI Supplemental enhancement information
  • the SEI may include time information and additional information related to the screen representation of the decoded data.
  • FIG. 8 is a flowchart illustrating an image encoding method, according to an exemplary embodiment.
  • step S810 a predetermined angle for rotating the original 360 degree image is determined.
  • rotating the original 360 degree image by applying each of the possible rotation angles to the original 360 degree image, converting the 360 degree image rotated according to each of the rotation angles, into a projection image, converting The predetermined angle for rotating the original 360 degree image can be determined by calculating the coding efficiency of the projected image, and by determining a predetermined angle among possible rotation angles based on the calculation result.
  • rotating the original 360 degree image by applying each of the possible angles of rotation to the original 360 degree image, converting the 360 degree image rotated according to each of the rotation angles, into a projection image, conversion
  • the predetermined angle for rotating the original 360 degree image can be determined by calculating an image quality of the projected image, and determining a predetermined angle among possible rotation angles based on the calculation result.
  • a predetermined value for calculating the encoding efficiency and image quality of the converted projection image according to the rotation angle of the original 360-degree image, and considering the calculated encoding efficiency and the image quality both to rotate the original 360-degree image The angle can be determined.
  • the predetermined angle may include a horizontal angle and a vertical angle with respect to the center of the 360 degree image.
  • the original 360 degree image is rotated based on the predetermined angle, and the rotated 360 degree image is converted into the projection image.
  • the projection image may be an image in which a 360 degree image is projected by using an isquirectangular projection.
  • the projection image is encoded, and a bitstream including image data about the encoded projection image and information about a predetermined angle is generated.
  • the information about the predetermined angle may be stored in the video parameter set or the sequence parameter set in the bitstream.
  • FIG. 9 is a flowchart illustrating an image decoding method, according to an exemplary embodiment.
  • step S910 and S920 image data is obtained from the bitstream, and a projection image of a 360 degree image is decoded from the image data.
  • the projection image is converted into a 360 degree image.
  • the projection image may be an image in which a 360 degree image is projected by using an isquirectangular projection.
  • the projection method is not limited to the above-mentioned isotonic drawing method, and various projection methods may be used.
  • the projection image may be a rectangular image of a plane.
  • step S940 rotation information of a 360 degree image is obtained from the bitstream.
  • the rotation information may indicate a horizontal angle and a vertical angle with respect to the center of the 360 degree image.
  • the rotation information may be a total of 8 bits including 5 bits representing a horizontal angle and 3 bits representing a vertical angle.
  • the rotation information may be obtained from a video parameter set or sequence parameter set in the bitstream.
  • the rotation information may be obtained from Supplemental enhancement information (SEI) in the bitstream.
  • SEI Supplemental enhancement information
  • the rotation change amount information of the 360 degree image may be further obtained from the bitstream.
  • Rotational variation amount information may be obtained from a picture parameter set.
  • information on whether the 360-degree image is rotated may be further obtained, and whether to obtain rotation information may be determined according to the information on whether the 360-degree image is rotated.
  • the 360 degree image is rotated based on the rotation information to restore the original 360 degree image.
  • the 360 degree image may be rotated based on both the rotation information and the rotation change amount information.
  • FIG. 10 illustrates a process of determining, by the image decoding apparatus 200, at least one coding unit by dividing a current coding unit according to an embodiment.
  • the image decoding apparatus 200 may determine a shape of a coding unit by using block shape information, and determine in which form the coding unit is divided by using split shape information. That is, the method of dividing the coding unit indicated by the segmentation form information may be determined according to which block form the block form information used by the image decoding apparatus 200 indicates.
  • the image decoding apparatus 200 may use block shape information indicating that a current coding unit is square. For example, the image decoding apparatus 200 may determine whether to split a square coding unit, to split vertically, to split horizontally, or to split into four coding units according to the split type information.
  • the decoder 1030 may have the same size as the current coding unit 1000 according to the split shape information indicating that the block shape information is not divided.
  • the split coding units 1010a may not be divided, or the split coding units 1010b, 1010c, 1010d, and the like may be determined based on split type information indicating a predetermined division method.
  • the image decoding apparatus 200 determines two coding units 1010b that split the current coding unit 1000 in the vertical direction based on split type information indicating that the image is split in the vertical direction. Can be.
  • the image decoding apparatus 200 may determine two coding units 1010c obtained by dividing the current coding unit 1000 in the horizontal direction, based on the split type information indicating the split in the horizontal direction.
  • the image decoding apparatus 200 may determine four coding units 1010d that divide the current coding unit 1000 in the vertical direction and the horizontal direction based on the split type information indicating that the image decoding apparatus 200 is split in the vertical direction and the horizontal direction.
  • the divided form in which the square coding unit may be divided should not be limited to the above-described form and may include various forms represented by the divided form information. Certain division forms in which a square coding unit is divided will be described in detail with reference to various embodiments below.
  • FIG. 11 illustrates a process of determining, by the image decoding apparatus 200, at least one coding unit by dividing a coding unit having a non-square shape according to an embodiment.
  • the image decoding apparatus 200 may use block shape information indicating that a current coding unit is a non-square shape.
  • the image decoding apparatus 200 may determine whether to divide the current coding unit of the non-square according to the segmentation type information or to split it by a predetermined method. Referring to FIG. 11, when the block shape information of the current coding unit 1100 or 1150 indicates a non-square shape, the image decoding apparatus 200 may not split the current coding unit 1100 according to the split shape information.
  • coding units 1110a, 1120b, 1130a, 1130b, 1130c, 1170a which do not divide the coding units 1110 or 1160 having the same size as that of 1150, or are divided based on the split type information indicating a predetermined division method.
  • 1170b, 1180a, 1180b, and 1180c may be determined.
  • a predetermined division method in which a non-square coding unit is divided will be described in detail with reference to various embodiments below.
  • the image decoding apparatus 200 may determine a shape in which a coding unit is divided using split shape information.
  • the split shape information may include the number of at least one coding unit generated by splitting a coding unit. Can be represented.
  • the image decoding apparatus 200 may determine the current coding unit 1100 or 1150 based on the split type information. By splitting, two coding units 1120a, 11420b, or 1170a and 1170b included in the current coding unit may be determined.
  • the image decoding apparatus 200 when the image decoding apparatus 200 divides the current coding unit 1100 or 1150 of the non-square shape based on the split shape information, the image coding apparatus 200 of the non-square current coding unit 1100 or 1150 may be used.
  • the current coding unit may be split in consideration of the position of the long side.
  • the image decoding apparatus 200 divides the current coding unit 1100 or 1150 in a direction of dividing a long side of the current coding unit 1100 or 1150 in consideration of the shape of the current coding unit 1100 or 1150. To determine a plurality of coding units.
  • the image decoding apparatus 200 may determine an odd number of coding units included in the current coding unit 1100 or 1150. For example, when the split type information indicates that the current coding unit 1100 or 1150 is divided into three coding units, the image decoding apparatus 200 may divide the current coding unit 1100 or 1150 into three coding units 1130a. , 1130b, 1130c, 1180a, 1180b, and 1180c. According to an embodiment, the image decoding apparatus 200 may determine an odd number of coding units included in the current coding unit 1100 or 1150, and not all sizes of the determined coding units may be the same.
  • the size of a predetermined coding unit 1130b or 1180b among the determined odd coding units 1130a, 1130b, 1130c, 1180a, 1180b, and 1180c may be different from other coding units 1130a, 1130c, 1180a, and 1180c. May have That is, the coding unit that may be determined by dividing the current coding unit 1100 or 1150 may have a plurality of types of sizes.
  • the image decoding apparatus 200 may determine an odd number of coding units included in the current coding unit 1100 or 1150.
  • the image decoding apparatus 200 may set a predetermined limit on at least one coding unit among odd-numbered coding units generated by dividing.
  • the image decoding apparatus 200 may be a coding unit positioned at the center of three coding units 1130a, 1130b, 1130c, 1180a, 1180b, and 1180c generated by splitting a current coding unit 1100 or 1150.
  • the decoding process for (1130b, 1180b) may be different from other coding units 1130a, 1130c, 1180a, and 1180c.
  • the image decoding apparatus 200 restricts the coding units 1130b and 1180b positioned in the center from being no longer divided, unlike other coding units 1130a, 1130c, 1180a, and 1180c, or only a predetermined number of times. You can limit it to split.
  • FIG. 12 illustrates a process of splitting a coding unit by the image decoding apparatus 200 based on at least one of block shape information and split shape information, according to an embodiment.
  • the image decoding apparatus 200 may determine to divide or not split the first coding unit 1200 having a square shape into coding units based on at least one of block shape information and split shape information.
  • the image decoding apparatus 200 splits the first coding unit 1200 in the horizontal direction to thereby split the second coding unit. 1210 may be determined.
  • the first coding unit, the second coding unit, and the third coding unit used according to an embodiment are terms used to understand a before and after relationship between the coding units.
  • the first coding unit is split, the second coding unit may be determined.
  • the third coding unit may be determined.
  • the relationship between the first coding unit, the second coding unit, and the third coding unit used is based on the above-described feature.
  • the image decoding apparatus 200 may determine to divide or not split the determined second coding unit 1210 into coding units based on at least one of block shape information and split shape information. Referring to FIG. 12, the image decoding apparatus 200 may determine a second coding unit 1210 having a non-square shape determined by dividing the first coding unit 1200 based on at least one of block shape information and split shape information. It may be divided into at least one third coding unit 1220a, 1220b, 1220c, 1220d, or the like, or may not split the second coding unit 1210.
  • the image decoding apparatus 200 may obtain at least one of the block shape information and the split shape information, and the image decoding apparatus 200 may determine the first coding unit 1200 based on at least one of the obtained block shape information and the split shape information.
  • the unit 1200 may be divided according to the divided manner.
  • the second The coding unit 1210 may also be divided into third coding units (eg, 1220a, 1220b, 1220c, 1220d, etc.) based on at least one of block shape information and split shape information of the second coding unit 1210. have. That is, the coding unit may be recursively divided based on at least one of the partition shape information and the block shape information associated with each coding unit. A method that can be used for recursive division of coding units will be described later through various embodiments.
  • the image decoding apparatus 200 splits each of the third coding units 1220a, 1220b, 1220c, 1220d, etc. into coding units based on at least one of block shape information and split shape information, or performs second encoding. It may be determined that the unit 1210 is not divided. According to an embodiment, the image decoding apparatus 200 may split the second coding unit 1210 having a non-square shape into an odd number of third coding units 1220b, 1220c, and 1220d. The image decoding apparatus 200 may place a predetermined limit on a predetermined third coding unit among the odd number of third coding units 1220b, 1220c, and 1220d.
  • the image decoding apparatus 200 may be limited to no more division or may be divided by a set number of times for the coding unit 1220c positioned in the center of the odd number of third coding units 1220b, 1220c, and 1220d. It can be limited to.
  • the image decoding apparatus 200 may include a coding unit positioned at the center of odd-numbered third coding units 1220b, 1220c, and 1220d included in a second coding unit 1210 having a non-square shape.
  • the 1220c is no longer divided, or is limited to being divided into a predetermined division form (for example, only divided into four coding units or divided into a form corresponding to the divided form of the second coding unit 1210), or It can be limited to dividing only by the number of times (eg, dividing only n times, n> 0).
  • the above limitation on the coding unit 1220c located in the center is merely a mere embodiment and should not be construed as being limited to the above-described embodiments, and the coding unit 1220c located in the center may be different from the coding units 1220b and 1220d. ), It should be interpreted as including various restrictions that can be decoded.
  • the image decoding apparatus 200 may obtain at least one of block shape information and split shape information used to divide a current coding unit at a predetermined position in the current coding unit.
  • FIG. 13 illustrates a method for the image decoding apparatus 200 to determine a predetermined coding unit among odd number of coding units, according to an exemplary embodiment.
  • at least one of the block shape information and the split shape information of the current coding unit 1300 may be a sample of a predetermined position (for example, located at the center of a plurality of samples included in the current coding unit 1300). Sample 1340).
  • a predetermined position in the current coding unit 1300 from which at least one of such block shape information and split shape information may be obtained should not be interpreted as being limited to the center position shown in FIG. 13, and the current coding unit 1300 is located at the predetermined position.
  • the image decoding apparatus 200 may determine whether to divide or not split the current coding unit into coding units having various shapes and sizes by obtaining at least one of block shape information and split shape information obtained from a predetermined position.
  • the image decoding apparatus 200 may select one coding unit from among them. Methods for selecting one of a plurality of coding units may vary, which will be described below through various embodiments.
  • the image decoding apparatus 200 may divide a current coding unit into a plurality of coding units and determine a coding unit of a predetermined position.
  • FIG. 13 illustrates a method for the image decoding apparatus 200 to determine a coding unit at a predetermined position among odd-numbered coding units according to an embodiment.
  • the image decoding apparatus 200 may use information indicating the position of each of the odd coding units to determine a coding unit located in the middle of the odd coding units. Referring to FIG. 13, the image decoding apparatus 200 may determine an odd number of coding units 1320a, 1320b, and 1320c by dividing the current coding unit 1300. The image decoding apparatus 200 may determine the center coding unit 1320b by using information about the positions of the odd number of coding units 1320a, 1320b, and 1320c. For example, the image decoding apparatus 200 determines the positions of the coding units 1320a, 1320b, and 1320c based on information indicating the positions of predetermined samples included in the coding units 1320a, 1320b, and 1320c.
  • the coding unit 1320b positioned at may be determined.
  • the image decoding apparatus 200 may determine the coding units 1320a, 1320b, and 1320c of the coding units 1320a, 1320b, and 1320c based on the information indicating the positions of the samples 1330a, 1330b, and 1330c. By determining the position, the coding unit 1320b positioned in the center may be determined.
  • the information indicating the positions of the samples 1330a, 1330b, and 1330c in the upper left included in the coding units 1320a, 1320b, and 1320c, respectively may be located in the pictures of the coding units 1320a, 1320b, and 1320c. Or it may include information about the coordinates. According to an embodiment, the information indicating the positions of the samples 1330a, 1330b, and 1330c in the upper left included in the coding units 1320a, 1320b, and 1320c, respectively, may be included in the coding units 1320a and 1320b in the current coding unit 1300.
  • the image decoding apparatus 200 may directly use information about the position or coordinates in the pictures of the coding units 1320a, 1320b, and 1320c, or may obtain information about the width or height of the coding unit corresponding to the difference between the coordinates. By using this, the coding unit 1320b located in the center can be determined.
  • the information indicating the position of the sample 1330a at the upper left of the upper coding unit 1320a may indicate (xa, ya) coordinates, and the sample 1330b at the upper left of the middle coding unit 1320b.
  • the information indicating the position of) may indicate the (xb, yb) coordinates, and the information indicating the position of the sample 1330c on the upper left of the lower coding unit 1320c may indicate the (xc, yc) coordinates.
  • the image decoding apparatus 200 may determine the center coding unit 1320b using the coordinates of the samples 1330a, 1330b, and 1330c in the upper left included in the coding units 1320a, 1320b, and 1320c, respectively.
  • a coding unit 1320b including (xb, yb), which is the coordinate of the sample 1330b located in the center May be determined as a coding unit located in the middle of the coding units 1320a, 1320b, and 1320c determined by splitting the current coding unit 1300.
  • the coordinates indicating the positions of the samples 1330a, 1330b, and 1330c at the upper left may indicate coordinates indicating the absolute positions in the picture, and further, the positions of the samples 1330a at the upper left of the upper coding unit 1320a.
  • the (dxb, dyb) coordinate which is information indicating the relative position of the upper left sample 1330b of the middle coding unit 1320b, and the relative position of the upper left sample 1330c of the lower coding unit 1320c.
  • Information (dxc, dyc) coordinates can also be used.
  • the method of determining the coding unit of a predetermined position by using the coordinates of the sample as information indicating the position of the sample included in the coding unit should not be interpreted to be limited to the above-described method, and various arithmetic operations that can use the coordinates of the sample It should be interpreted in a way.
  • the image decoding apparatus 200 may divide the current coding unit 1300 into a plurality of coding units 1320a, 1320b, and 1320c, and may predetermined reference among the coding units 1320a, 1320b, and 1320c. According to the coding unit can be selected. For example, the image decoding apparatus 200 may select coding units 1320b having different sizes from among coding units 1320a, 1320b, and 1320c.
  • the image decoding apparatus 200 may have (xa, ya) coordinates, which are information indicating the position of the sample 1330a on the upper left side of the upper coding unit 1320a, and the sample on the upper left side of the center coding unit 1320b.
  • Coding unit 1320a using (xb, yb) coordinates indicating information of position of (1330b) and (xc, yc) coordinates indicating information of sample 1330c on the upper left of lower coding unit 1320c. 1320b, 1320c) may determine the width or height of each.
  • the image decoding apparatus 200 uses (xa, ya), (xb, yb), and (xc, yc) coordinates indicating the positions of the coding units 1320a, 1320b, and 1320c. ) Each size can be determined.
  • the image decoding apparatus 200 may determine the width of the upper coding unit 1320a as xb-xa and the height as yb-ya. According to an embodiment, the image decoding apparatus 200 may determine the width of the central coding unit 1320b as xc-xb and the height as yc-yb. According to an embodiment, the image decoding apparatus 200 may determine the width or height of the lower coding unit using the width or height of the current coding unit, and the width and height of the upper coding unit 1320a and the center coding unit 1320b. .
  • the image decoding apparatus 200 may determine a coding unit having a different size from other coding units based on the width and the height of the determined coding units 1320a, 1320b, and 1320c. Referring to FIG. 13, the image decoding apparatus 200 may determine a coding unit 1320b as a coding unit having a predetermined position while having a size different from that of the upper coding unit 1320a and the lower coding unit 1320c. However, in the above-described process of determining, by the image decoding apparatus 200, a coding unit having a different size from another coding unit, the coding unit at a predetermined position may be determined using the size of the coding unit determined based on the sample coordinates. In this regard, various processes of determining a coding unit at a predetermined position by comparing the sizes of coding units determined according to predetermined sample coordinates may be used.
  • the position of the sample to be considered for determining the position of the coding unit should not be interpreted as being limited to the upper left side described above, but may be interpreted that information on the position of any sample included in the coding unit may be used.
  • the image decoding apparatus 200 may select a coding unit of a predetermined position among odd-numbered coding units determined by dividing the current coding unit in consideration of the shape of the current coding unit. For example, if the current coding unit has a non-square shape having a width greater than the height, the image decoding apparatus 200 may determine the coding unit at a predetermined position along the horizontal direction. That is, the image decoding apparatus 200 may determine one of the coding units having different positions in the horizontal direction to limit the corresponding coding unit. If the current coding unit has a non-square shape having a height greater than the width, the image decoding apparatus 200 may determine the coding unit at a predetermined position in the vertical direction. That is, the image decoding apparatus 200 may determine one of the coding units having different positions in the vertical direction, and limit the corresponding coding unit.
  • the image decoding apparatus 200 may use information indicating the positions of each of the even coding units in order to determine the coding unit of the predetermined position among the even coding units.
  • the image decoding apparatus 200 may determine an even number of coding units by dividing a current coding unit and determine a coding unit of a predetermined position by using information about the positions of the even coding units.
  • a detailed process for this may be a process corresponding to a process of determining a coding unit of a predetermined position (for example, a middle position) among the odd number of coding units described above with reference to FIG.
  • a predetermined value for a coding unit of a predetermined position in the splitting process is determined to determine a coding unit of a predetermined position among the plurality of coding units.
  • Information is available.
  • the image decoding apparatus 200 may determine the block shape information and the split shape stored in a sample included in the middle coding unit during the splitting process to determine a coding unit positioned among the coding units in which the current coding unit is divided into a plurality. At least one of the information may be used.
  • the image decoding apparatus 200 may split the current coding unit 1300 into a plurality of coding units 1320a, 1320b, and 1320c based on at least one of block shape information and split shape information.
  • a coding unit 1320b positioned in the center of the plurality of coding units 1320a, 1320b, and 1320c may be determined.
  • the image decoding apparatus 200 may determine a coding unit 1320b positioned in the center in consideration of a position where at least one of the block shape information and the split shape information is obtained.
  • At least one of the block shape information and the split shape information of the current coding unit 1300 may be obtained from a sample 1340 positioned in the center of the current coding unit 1300, and the block shape information and the split shape information may be obtained.
  • the coding unit 1320b including the sample 1340 is a coding unit positioned at the center. You can decide.
  • the information used to determine the coding unit located in the middle should not be interpreted as being limited to at least one of the block type information and the split type information, and various types of information may be used in the process of determining the coding unit located in the center. Can be.
  • predetermined information for identifying a coding unit of a predetermined position may be obtained from a predetermined sample included in the coding unit to be determined.
  • the image decoding apparatus 200 may divide a plurality of coding units (eg, divided into a plurality of coding units 1320a, 1320b, and 1320c) determined by splitting a current coding unit 1300.
  • Block shape information obtained from a sample at a predetermined position (for example, a sample located in the center of the current coding unit 1300) in the current coding unit 1300 to determine a coding unit located in the center of the coding units; At least one of the partition type information may be used. .
  • the image decoding apparatus 200 may determine a sample of the predetermined position in consideration of the block block form of the current coding unit 1300, and the image decoding apparatus 200 may determine that the current coding unit 1300 is divided and determined.
  • a coding unit 1320b including a sample from which predetermined information (for example, at least one of block shape information and split shape information) may be obtained may be determined.
  • predetermined information for example, at least one of block shape information and split shape information
  • the image decoding apparatus 200 may determine a sample 1340 positioned in the center of the current coding unit 1300 as a sample from which predetermined information may be obtained.
  • the 200 may set a predetermined limit in the decoding process of the coding unit 1320b including the sample 1340.
  • the position of the sample from which the predetermined information can be obtained should not be interpreted as being limited to the above-described position, but may be interpreted as samples of arbitrary positions included in the coding unit 1320b to be determined for the purpose of limitation.
  • a position of a sample from which predetermined information may be obtained may be determined according to the shape of the current coding unit 1300.
  • the block shape information may determine whether the shape of the current coding unit is square or non-square, and determine the position of a sample from which the predetermined information may be obtained according to the shape.
  • the image decoding apparatus 200 may be positioned on a boundary that divides at least one of the width and the height of the current coding unit in half using at least one of the information on the width and the height on the current coding unit.
  • the sample may be determined as a sample from which predetermined information can be obtained.
  • the image decoding apparatus 200 may select one of samples adjacent to a boundary that divides the long side of the current coding unit in half. May be determined as a sample from which information may be obtained.
  • the image decoding apparatus 200 when the image decoding apparatus 200 divides a current coding unit into a plurality of coding units, at least one of block shape information and split shape information may be used to determine a coding unit of a predetermined position among a plurality of coding units. You can use one.
  • the image decoding apparatus 200 may obtain at least one of block shape information and split shape information from a sample at a predetermined position included in a coding unit, and the image decoding apparatus 200 may divide the current coding unit.
  • the generated plurality of coding units may be divided using at least one of split shape information and block shape information obtained from a sample of a predetermined position included in each of the plurality of coding units.
  • the coding unit may be recursively split using at least one of block shape information and split shape information obtained from a sample of a predetermined position included in each coding unit. Since the recursive division process of the coding unit has been described above with reference to FIG. 12, a detailed description thereof will be omitted.
  • the image decoding apparatus 200 may determine at least one coding unit by dividing a current coding unit, and determine an order in which the at least one coding unit is decoded in a predetermined block (for example, the current coding unit). Can be determined according to
  • FIG. 14 is a diagram illustrating an order in which a plurality of coding units are processed when the image decoding apparatus 200 determines a plurality of coding units by dividing a current coding unit.
  • the image decoding apparatus 200 determines the second coding units 1410a and 1410b by dividing the first coding unit 1400 in the vertical direction according to the block shape information and the split shape information, or the first coding unit.
  • the second coding units 1430a and 1430b may be determined by dividing the 1400 in the horizontal direction, or the second coding units 1450a, 1450b, 1450c and 1450d by dividing the first coding unit 1400 in the vertical and horizontal directions. Can be determined.
  • the image decoding apparatus 200 may determine an order such that the second coding units 1410a and 1410b determined by dividing the first coding unit 1400 in the vertical direction are processed in the horizontal direction 1410c. .
  • the image decoding apparatus 200 may determine the processing order of the second coding units 1430a and 1430b determined by dividing the first coding unit 1400 in the horizontal direction, in the vertical direction 1430c.
  • the image decoding apparatus 200 may process the coding units in which the second coding units 1450a, 1450b, 1450c, and 1450d determined by dividing the first coding unit 1400 in the vertical direction and the horizontal direction are processed.
  • the coding units positioned in the next row may be determined according to a predetermined order (for example, raster scan order or z scan order 1450e).
  • the image decoding apparatus 200 may recursively split coding units.
  • the image decoding apparatus 200 may determine a plurality of coding units 1410a, 1410b, 1430a, 1430b, 1450a, 1450b, 1450c, and 1450d by dividing the first coding unit 1400.
  • Each of the determined coding units 1410a, 1410b, 1430a, 1430b, 1450a, 1450b, 1450c, and 1450d may be recursively divided.
  • the method of dividing the plurality of coding units 1410a, 1410b, 1430a, 1430b, 1450a, 1450b, 1450c, and 1450d may correspond to a method of dividing the first coding unit 1400. Accordingly, the plurality of coding units 1410a, 1410b, 1430a, 1430b, 1450a, 1450b, 1450c, and 1450d may be independently divided into a plurality of coding units. Referring to FIG. 14, the image decoding apparatus 200 may determine the second coding units 1410a and 1410b by dividing the first coding unit 1400 in the vertical direction, and further, respectively, the second coding units 1410a and 1410b. It can be decided to split independently or not.
  • the image decoding apparatus 200 may divide the second coding unit 1410a on the left side into horizontal units and split the second coding unit 1420a and 1420b into the second coding unit 1410b. ) May not be divided.
  • the processing order of coding units may be determined based on a split process of the coding units.
  • the processing order of the divided coding units may be determined based on the processing order of the coding units immediately before being split.
  • the image decoding apparatus 200 may independently determine the order in which the third coding units 1420a and 1420b determined by splitting the second coding unit 1410a on the left side are processed independently of the second coding unit 1410b on the right side. Since the second coding unit 1410a on the left is divided in the horizontal direction to determine the third coding units 1420a and 1420b, the third coding units 1420a and 1420b may be processed in the vertical direction 1420c.
  • the third coding unit included in the second coding unit 1410a on the left side corresponds to the horizontal direction 1410c
  • the right coding unit 1410b may be processed.
  • FIG. 15 illustrates a process of determining that a current coding unit is divided into an odd number of coding units when the image decoding apparatus 200 may not process the coding units in a predetermined order, according to an embodiment.
  • the image decoding apparatus 200 may determine that the current coding unit is divided into odd coding units based on the obtained block shape information and the split shape information.
  • a first coding unit 1500 having a square shape may be divided into second coding units 1510a and 1510b having a non-square shape, and each of the second coding units 1510a and 1510b may be independently formed.
  • the image decoding apparatus 200 may determine a plurality of third coding units 1520a and 1520b by dividing the left coding unit 1510a in the horizontal direction among the second coding units, and may include the right coding unit 1510b. ) May be divided into an odd number of third coding units 1520c, 1520d, and 1520e.
  • the image decoding apparatus 200 determines whether the third coding units 1520a, 1520b, 1520c, 1520d, and 1520e may be processed in a predetermined order to determine whether there are oddly divided coding units. You can decide. Referring to FIG. 15, the image decoding apparatus 200 may determine third coding units 1520a, 1520b, 1520c, 1520d, and 1520e by recursively dividing the first coding unit 1500.
  • the image decoding apparatus 200 may include a first coding unit 1500, a second coding unit 1510a and 1510b, or a third coding unit 1520a, 1520b, 1520c, based on at least one of block shape information and split shape information.
  • the order in which the plurality of coding units included in the first coding unit 1500 are processed may be a predetermined order (for example, a z-scan order 1530), and the image decoding apparatus ( 200 may determine whether the third coding unit 1520c, 1520d, and 1520e determined by splitting the right second coding unit 1510b into an odd number satisfies the condition in which the right coding unit 1510b is processed in the predetermined order.
  • the image decoding apparatus 200 may satisfy a condition that the third coding units 1520a, 1520b, 1520c, 1520d, and 1520e included in the first coding unit 1500 may be processed in a predetermined order. And whether the at least one of the width and the height of the second coding unit 1510a, 1510b is divided in half according to the boundary of the third coding unit 1520a, 1520b, 1520c, 1520d, or 1520e.
  • the third coding units 1520a and 1520b which are determined by dividing the height of the left second coding unit 1510a by the non-square form in half, satisfy the condition, but the right second coding unit 1510b is 3.
  • the third coding units 1520c, 1520d, and 1520e determined by dividing into two coding units may be determined to not satisfy the condition, and the image decoding apparatus 200 determines that the scan sequence is disconnected in the case of dissatisfaction with the condition, and based on the determination result, the right second coding unit 1510b It may be determined to be divided into an odd number of coding units.
  • the image decoding apparatus 200 may set a predetermined restriction on a coding unit of a predetermined position among the divided coding units. Since the above has been described through the embodiments, a detailed description thereof will be omitted.
  • the image decoding apparatus 200 may divide the first coding unit 1600 based on at least one of the block shape information and the split shape information acquired through the receiver 210.
  • the first coding unit 1600 having a square shape may be divided into coding units having four square shapes, or may be divided into a plurality of coding units having a non-square shape.
  • the image decoding apparatus 200 may determine the first coding unit.
  • the image decoding apparatus 200 may form a square first coding unit 1600.
  • the image decoding apparatus 200 may be configured to process the second coding units 1610a, 1610b, 1610c, 1620a, 1620b, and 1620c included in the first coding unit 1600 in a predetermined order.
  • the condition is whether the at least one of the width and height of the first coding unit 1600 is divided in half according to the boundary of the second coding unit (1610a, 1610b, 1610c, 1620a, 1620b, 1620c). It is related to whether or not.
  • a boundary between second coding units 1610a, 1610b, and 1610c which is determined by dividing a square first coding unit 1600 in a vertical direction, divides the width of the first coding unit 1600 in half.
  • the first coding unit 1600 may be determined to not satisfy a condition that may be processed in a predetermined order.
  • the boundary of the second coding units 1620a, 1620b, and 1620c which is determined by dividing the first coding unit 1600 having a square shape in the horizontal direction, does not divide the width of the first coding unit 1600 in half,
  • the one coding unit 1600 may be determined as not satisfying a condition that may be processed in a predetermined order. In case of such a condition dissatisfaction, the image decoding apparatus 200 may determine that the scan order is disconnected, and determine that the first coding unit 1600 is divided into odd coding units based on the determination result.
  • the image decoding apparatus 200 when the image decoding apparatus 200 is divided into an odd number of coding units, the image decoding apparatus 200 may set a predetermined restriction on a coding unit of a predetermined position among the divided coding units. Since the above has been described through the embodiments, a detailed description thereof will be omitted.
  • the image decoding apparatus 200 may determine various coding units by dividing the first coding unit.
  • the image decoding apparatus 200 may split a first coding unit 1600 having a square shape and a first coding unit 1630 or 1650 having a non-square shape into various coding units. .
  • FIG. 17 illustrates that a second coding unit is split when the second coding unit having a non-square shape determined by splitting the first coding unit 1700 according to an embodiment satisfies a predetermined condition. It shows that the form that can be limited.
  • the image decoding apparatus 200 may set the first coding unit 1700 having a square shape based on at least one of the block shape information and the split shape information acquired through the receiver 210, and may include a non-square shape first encoding unit. It may be determined by dividing into two coding units 1710a, 1710b, 1720a, and 1720b. The second coding units 1710a, 1710b, 1720a, and 1720b may be split independently. Accordingly, the image decoding apparatus 200 determines whether to split or not split into a plurality of coding units based on at least one of block shape information and split shape information associated with each of the second coding units 1710a, 1710b, 1720a, and 1720b. Can be.
  • the image decoding apparatus 200 divides the left second coding unit 1710a having a non-square shape in a horizontal direction, determined by dividing the first coding unit 1700 in a vertical direction, and then converts the third coding unit ( 1712a, 1712b) can be determined.
  • the right second coding unit 1710b may have the same horizontal direction as the direction in which the left second coding unit 1710a is divided. It can be limited to not be divided into.
  • the right second coding unit 1710b is divided in the same direction and the third coding units 1714a and 1714b are determined, the left second coding unit 1710a and the right second coding unit 1710b are respectively horizontally aligned.
  • the third coding units 1712a, 1712b, 1714a, and 1714b may be determined by being split independently. However, this means that the image decoding apparatus 200 divides the first coding unit 1700 into four square second coding units 1730a, 1730b, 1730c, and 1730d based on at least one of the block shape information and the split shape information. This is the same result as the above, which may be inefficient in terms of image decoding.
  • the image decoding apparatus 200 splits a second coding unit 1720a or 1720b of a non-square shape determined by dividing the first coding unit 11300 in a horizontal direction into a third coding unit. (1722a, 1722b, 1724a, 1724b) can be determined.
  • a third coding unit (1722a, 1722b, 1724a, 1724b)
  • the image decoding apparatus 200 divides one of the second coding units (for example, the upper second coding unit 1720a) in the vertical direction
  • another image coding unit for example, the lower end
  • the coding unit 1720b may restrict the upper second coding unit 1720a from being split in the vertical direction in the same direction as the split direction.
  • FIG. 18 illustrates a process of splitting a coding unit having a square shape by the image decoding apparatus 200 when the split shape information cannot be divided into four square coding units.
  • the image decoding apparatus 200 divides the first coding unit 1800 based on at least one of the block shape information and the split shape information to divide the second coding units 1810a, 1810b, 1820a, 1820b, and the like. You can decide.
  • the split type information may include information about various types in which a coding unit may be split, but the information on various types may not include information for splitting into four coding units having a square shape.
  • the image decoding apparatus 200 may not divide the square first coding unit 1800 into four square second coding units 1830a, 1830b, 1830c, and 1830d.
  • the image decoding apparatus 200 may determine second non-square second coding units 1810a, 1810b, 1820a, 1820b, and the like based on the segmentation information.
  • the image decoding apparatus 200 may independently split the non-square second coding units 1810a, 1810b, 1820a, 1820b, and the like.
  • Each of the second coding units 1810a, 1810b, 1820a, 1820b, etc. may be divided in a predetermined order through a recursive method, which is based on at least one of the block shape information and the split shape information 1800. ) May be a division method corresponding to the division method.
  • the image decoding apparatus 200 may determine the third coding units 1812a and 1812b having a square shape by dividing the left second coding unit 1810a in the horizontal direction, and the right second coding unit 1810b The third coding units 1814a and 1814b having a square shape may be determined by being split in the horizontal direction. Furthermore, the image decoding apparatus 200 may divide the left second coding unit 1810a and the right second coding unit 1810b in the horizontal direction to determine the third coding units 1816a, 1816b, 1816c, and 1816d having a square shape. have. In this case, the coding unit may be determined in the same form as that in which the first coding unit 1800 is divided into four second coding units 1830a, 1830b, 1830c, and 1830d.
  • the image decoding apparatus 200 may determine the third coding units 1822a and 1822b having a square shape by dividing the upper second coding unit 1820a in the vertical direction, and the lower second coding unit 1820b. ) May be divided in a vertical direction to determine third coding units 1824a and 1824b having a square shape.
  • the image decoding apparatus 200 may divide the upper second coding unit 1820a and the lower second coding unit 1820b in the vertical direction to determine the third coding units 1822a, 1822b, 1824a, and 1824b having a square shape. have.
  • the coding unit may be determined in the same form as that in which the first coding unit 1800 is divided into four second coding units 1830a, 1830b, 1830c, and 1830d.
  • FIG. 19 illustrates that a processing order between a plurality of coding units may vary according to a splitting process of coding units, according to an embodiment.
  • the image decoding apparatus 200 may divide the first coding unit 1900 based on the block shape information and the split shape information.
  • the image decoding apparatus 200 may determine the first coding unit 1900. ) May be determined to determine a second coding unit (eg, 1910a, 1910b, 1920a, 1920b, 1930a, 1930b, 1930c, 1930d, etc.).
  • a second coding unit eg, 1910a, 1910b, 1920a, 1920b, 1930a, 1930b, 1930c, 1930d, etc.
  • non-square-type second coding units 1910a, 1910b, 1920a, and 1920b which are determined by dividing the first coding unit 1900 only in the horizontal direction or the vertical direction, respectively, may include block shape information and split shape information for each. It can be divided independently based on.
  • the image decoding apparatus 200 may divide the second coding units 1910a and 1910b generated by splitting the first coding unit 1900 in the vertical direction, respectively, in the horizontal direction, and then use the third coding unit 1916a, 1916b, 1916c and 1916d, and the second coding units 1920a and 1920b generated by dividing the first coding unit 1900 in the horizontal direction are divided in the horizontal direction, respectively, and the third coding units 1926a, 1926b and 1926c. 1926d). Since the splitting process of the second coding units 1910a, 1910b, 1920a, and 1920b has been described above with reference to FIG. 17, a detailed description thereof will be omitted.
  • the image decoding apparatus 200 may process coding units in a predetermined order. Features of the processing of the coding unit according to the predetermined order have been described above with reference to FIG. 14, and thus a detailed description thereof will be omitted. Referring to FIG. 19, the image decoding apparatus 200 splits a first coding unit 1900 having a square shape, and thus, has four square third coding units 1916a, 1916b, 1916c, 1916d, 1926a, 1926b, 1926c, and 1926d. ) Can be determined.
  • the image decoding apparatus 200 processes the processing sequence of the third coding units 1916a, 1916b, 1916c, 1916d, 1926a, 1926b, 1926c, and 1926d according to the form in which the first coding unit 1900 is divided. You can decide.
  • the image decoding apparatus 200 determines the third coding units 1916a, 1916b, 1916c, and 1916d by dividing the second coding units 1910a and 1910b generated by dividing in the vertical direction, respectively, in the horizontal direction.
  • the image decoding apparatus 200 may first process the third coding units 1916a and 1916b included in the left second coding unit 1910a in the vertical direction, and then include the right second coding unit 1910b.
  • the third coding units 1916a, 1916b, 1916c, and 1916d may be processed according to an order 1917 of processing the third coding units 1916c and 1916d in the vertical direction.
  • the image decoding apparatus 200 determines the third coding units 1926a, 1926b, 1926c, and 1926d by dividing the second coding units 1920a and 1920b generated by splitting in the horizontal direction in the vertical direction.
  • the image decoding apparatus 200 may first process the third coding units 1926a and 1926b included in the upper second coding unit 1920a in the horizontal direction, and then include the lower coding unit 1920b.
  • the third coding units 1926a, 1926b, 1926c, and 1926d may be processed according to an order 1927 of processing the third coding units 1926c and 1926d in the horizontal direction.
  • second coding units 1910a, 1910b, 1920a, and 1920b may be divided, respectively, and square third coding units 1916a, 1916b, 1916c, 1916d, 1926a, 1926b, 1926c, and 1926d may be determined. have.
  • the second coding units 1910a and 1910b determined by dividing in the vertical direction and the second coding units 1920a and 1920b determined by dividing in the horizontal direction are divided into different forms, but are determined after the third coding unit 1916a.
  • the first coding unit 1900 is divided into coding units having the same type.
  • the apparatus 200 for decoding an image recursively splits a coding unit through a different process based on at least one of the block shape information and the split shape information, and as a result, the plurality of pictures having the same shape may be determined. Coding units may be processed in different orders.
  • 20 is a diagram illustrating a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided and a plurality of coding units are determined according to an embodiment.
  • the image decoding apparatus 200 may determine the depth of a coding unit according to a predetermined criterion.
  • the predetermined criterion may be the length of the long side of the coding unit.
  • the depth of the current coding unit is greater than the depth of the coding unit before the split. It can be determined that the depth is increased by n.
  • a coding unit having an increased depth is expressed as a coding unit of a lower depth.
  • the image decoding apparatus 200 may have a square shape, based on block shape information indicating a square shape (for example, block shape information may indicate '0: SQUARE').
  • the first coding unit 2000 may be divided to determine a second coding unit 2002, a third coding unit 2004, and the like of a lower depth.
  • the size of the square shape of the first encoding unit (2000) if it 2Nx2N, the first second encoding unit (2002) is determined by dividing the width and height of 1 to 1/2 of the encoding unit (2000) have a size of NxN Can be.
  • the third coding unit 2004 determined by dividing the width and the height of the second coding unit 2002 into half sizes may have a size of N / 2 ⁇ N / 2.
  • the width and height of the third coding unit 2004 correspond to 1/2 2 times of the first coding unit 2000.
  • the case where the depth of the first encoding unit (2000) the first depth D of the encoding unit (2000) 1 1/2 times the second encoding unit (2002) of the width and height may be in the D + 1, the first encoding
  • the depth of the third coding unit 2004 that is 1/2 2 times the width and the height of the unit 2000 may be D + 2.
  • block shape information indicating a non-square shape (e.g., block shape information indicates that the height is a non-square longer than the width '1: NS_VER' or the width is a non-square longer than the height).
  • 2: may represent NS_HOR ', the image decoding apparatus 200 may split the first coding unit 2010 or 2020 having a non-square shape to form the second coding unit 2012 or 2022 of the lower depth.
  • the third coding unit 2014 or 2024 may be determined.
  • the image decoding apparatus 200 may determine a second coding unit (eg, 2002, 2012, 2022, etc.) by dividing at least one of a width and a height of the Nx2N-sized first coding unit 2010. That is, the image decoding apparatus 200 may determine the second coding unit 2002 having the NxN size or the second coding unit 2022 having the NxN / 2 size by dividing the first coding unit 2010 in the horizontal direction.
  • the second coding unit 2012 having a size of N / 2 ⁇ N may be determined by splitting in the horizontal direction and the vertical direction.
  • the image decoding apparatus 200 determines at least one of a width and a height of a 2N ⁇ N first coding unit 2020 to determine a second coding unit (eg, 2002, 2012, 2022, etc.). It may be. That is, the image decoding apparatus 200 may determine the second coding unit 2002 having the NxN size or the second coding unit 2012 having the N / 2xN size by dividing the first coding unit 2020 in the vertical direction. The second coding unit 2022 having the size of NxN / 2 may be determined by splitting in the horizontal direction and the vertical direction.
  • a second coding unit eg, 2002, 2012, 2022, etc.
  • the image decoding apparatus 200 may determine a third coding unit (eg, 2004, 2014, 2024, etc.) by dividing at least one of a width and a height of the NxN sized second coding unit 2002. It may be. That is, the image decoding apparatus 200 determines the third coding unit 2004 having the size of N / 2 ⁇ N / 2 by dividing the second coding unit 2002 in the vertical direction and the horizontal direction, or N / 2 2 xN / 2 size. The third coding unit 2014 may be determined or the third coding unit 2024 having a size of N / 2 ⁇ N / 2 2 may be determined.
  • a third coding unit eg, 2004, 2014, 2024, etc.
  • the image decoding apparatus 200 divides at least one of a width and a height of the N / 2xN sized second coding unit 2012 to a third coding unit (eg, 2004, 2014, 2024, etc.). May be determined. That is, the image decoding apparatus 200 divides the second coding unit 2012 in the horizontal direction, so that the third coding unit 2004 of size N / 2xN / 2 or the third coding unit of size N / 2xN / 2 2 ( 2024 may be determined or divided into vertical and horizontal directions to determine a third coding unit 2014 having a size of N / 2 2 xN / 2.
  • a third coding unit eg, 2004, 2014, 2024, etc.
  • the image decoding apparatus 200 splits at least one of a width and a height of the NxN / 2 sized second coding unit 2014 to a third coding unit (eg, 2004, 2014, 2024, etc.). May be determined. That is, the image decoding apparatus 200 divides the second coding unit 2012 in the vertical direction to form a third coding unit 2004 of size N / 2 ⁇ N / 2 or a third coding unit size of N / 2 2 xN / 2.
  • the third coding unit 2024 having a size of N / 2 ⁇ N / 2 2 may be determined by determining (2014) or dividing in a vertical direction and a horizontal direction.
  • the image decoding apparatus 200 may split a square coding unit (for example, 2000, 2002, 2004) in a horizontal direction or a vertical direction.
  • the first coding unit 2000 having a size of 2Nx2N is divided in the vertical direction to determine the first coding unit 2010 having the size of Nx2N, or the first coding unit 2020 having a size of 2NxN is determined by splitting in the horizontal direction.
  • the depth of the coding unit determined by splitting the first coding unit 2000, 2002 or 2004 having a size of 2N ⁇ 2N into the horizontal or vertical direction is determined. May be the same as the depth of the first coding unit 2000, 2002, or 2004.
  • it may correspond to 1/2 2 times the third encoding unit (2014 or 2024), the width and height of a first encoding unit (2010 or 2020) of the.
  • the depth of the first coding unit 2010 or 2020 is D
  • the depth of the second coding unit 2012 or 2014 that is 1/2 the width and height of the first coding unit 2010 or 2020 may be D + 1.
  • the depth of the first encoding unit (2010 or 2020) 1/2 2 times the third encoding unit (2014 or 2024) of the width and height may be a D + 2.
  • FIG. 21 illustrates a depth index and a part index (PID) for classifying coding units, which may be determined according to shapes and sizes of coding units, according to an embodiment.
  • PID part index
  • the image decoding apparatus 200 may determine a second coding unit having various forms by dividing the first coding unit 2100 having a square shape. Referring to FIG. 21, the image decoding apparatus 200 divides the first coding unit 2100 in at least one of the vertical direction and the horizontal direction according to the split type information to thereby obtain the second coding units 2102a, 2102b, 2104a, 2104b, 2106a, 2106b, 2106c, 2106d). That is, the image decoding apparatus 200 may determine the second coding units 2102a, 2102b, 2104a, 2104b, 2106a, 2106b, 2106c, and 2106d based on the split shape information about the first coding unit 2100.
  • the second coding units 2102a, 2102b, 2104a, 2104b, 2106a, 2106b, 2106c, and 2106d which are determined according to split shape information about the first coding unit 2100 having a square shape, have a long side length. Depth can be determined based on this. For example, since the length of one side of the first coding unit 2100 having a square shape and the length of the long side of the second coding units 2102a, 2102b, 2104a, and 2104b having a non-square shape are the same, the first coding unit ( 2100 and the depths of the non-square second coding units 2102a, 2102b, 2104a, and 2104b may be regarded as D.
  • the image decoding apparatus 200 divides the first coding unit 2100 into four square coding units 2106a, 2106b, 2106c, and 2106d based on the split form information, Since the length of one side of the two coding units 2106a, 2106b, 2106c, and 2106d is 1/2 times the length of one side of the first coding unit 2100, the depths of the second coding units 2106a, 2106b, 2106c, and 2106d are determined. May be a depth of D + 1 that is one depth lower than D, which is a depth of the first coding unit 2100.
  • the image decoding apparatus 200 divides a first coding unit 2110 having a height greater than a width in a horizontal direction according to split shape information, thereby performing a plurality of second coding units 2112a, 2112b, 2114a, 2114b and 2114c).
  • the image decoding apparatus 200 divides a first coding unit 2120 having a width greater than a height in a vertical direction according to split shape information, and thus includes a plurality of second coding units 2122a, 2122b, 2124a, 2124b, 2124c).
  • the second coding units 2112a, 2112b, 2114a, 2114b, 2116a, 2116b, 2116c, and 2116d that are determined according to split shape information about the first coding unit 2110 or 2120 having a non-square shape may be used. Depth may be determined based on the length of the long side. For example, since the length of one side of the second coding units 2112a and 2112b having a square shape is 1/2 times the length of one side of the first coding unit 2110 having a non-square shape having a height greater than the width, the square is square.
  • the depths of the second coding units 2102a, 2102b, 2104a, and 2104b of the form are D + 1, which is one depth lower than the depth D of the first coding unit 2110 of the non-square form.
  • the image decoding apparatus 200 may divide the non-square first coding unit 2110 into odd second coding units 2114a, 2114b, and 2114c based on the split shape information.
  • the odd numbered second coding units 2114a, 2114b, and 2114c may include non-square second coding units 2114a and 2114c and square shape second coding units 2114b.
  • the length of the long side of the second coding units 2114a and 2114c of the non-square shape and the length of one side of the second coding unit 2114b of the square shape is 1 / time of the length of one side of the first coding unit 2110.
  • the depths of the second coding units 2114a, 2114b, and 2114c may be a depth of D + 1 that is one depth lower than the depth D of the first coding unit 2110.
  • the image decoding apparatus 200 corresponds to the above-described method of determining depths of coding units related to the first coding unit 2110, and is related to the first coding unit 2120 having a non-square shape having a width greater than the height. Depth of coding units may be determined.
  • the image decoding apparatus 200 may determine the size ratio between the coding units when the odd-numbered split coding units are not the same size.
  • the index can be determined based on this.
  • a coding unit 2114b positioned at the center of odd-numbered split coding units 2114a, 2114b, and 2114c may have the same width as the other coding units 2114a and 2114c but have different heights. It may be twice the height of the fields 2114a and 2114c. That is, in this case, the coding unit 2114b positioned in the center may include two of the other coding units 2114a and 2114c.
  • the image decoding apparatus 200 may determine whether odd-numbered split coding units are not the same size based on whether there is a discontinuity of an index for distinguishing between the divided coding units.
  • the image decoding apparatus 200 may determine whether the image decoding apparatus 200 is divided into a specific division type based on a value of an index for dividing the plurality of coding units determined by dividing from the current coding unit. Referring to FIG. 21, the image decoding apparatus 200 determines an even number of coding units 2112a and 2112b by dividing a first coding unit 2110 having a height greater than a width, or an odd number of coding units 2114a and 2114b. , 2114c). The image decoding apparatus 200 may use an index (PID) indicating each coding unit to distinguish each of the plurality of coding units. According to an embodiment, the PID may be obtained from a sample (eg, an upper left sample) at a predetermined position of each coding unit.
  • a sample eg, an upper left sample
  • the image decoding apparatus 200 may determine a coding unit of a predetermined position among coding units determined by splitting by using an index for dividing coding units. According to an embodiment, when the split type information of the first coding unit 2110 having a height greater than the width is divided into three coding units, the image decoding apparatus 200 may determine the first coding unit 2110. It may be divided into three coding units 2114a, 2114b, and 2114c. The image decoding apparatus 200 may allocate an index for each of three coding units 2114a, 2114b, and 2114c. The image decoding apparatus 200 may compare the indices of the respective coding units to determine the coding unit among the oddly divided coding units.
  • the image decoding apparatus 200 encodes a coding unit 2114b having an index corresponding to a center value among the indices based on the indexes of the coding units, and encodes the center position among the coding units determined by splitting the first coding unit 2110. It can be determined as a unit. According to an embodiment, when determining the indexes for distinguishing the divided coding units, when the coding units are not the same size, the image decoding apparatus 200 may determine the index based on the size ratio between the coding units. . Referring to FIG. 21, a coding unit 2114b generated by dividing a first coding unit 2110 may include coding units 2114a and 2114c having the same width but different heights as other coding units 2114a and 2114c.
  • the image decoding apparatus 200 may determine that the image decoding apparatus 200 is divided into a plurality of coding units including a coding unit having a different size from other coding units. In this case, when the split form information is divided into odd coding units, the image decoding apparatus 200 may have a shape that is different in size from coding units having different coding units (for example, middle coding units) at a predetermined position among the odd coding units.
  • the current coding unit can be divided by.
  • the image decoding apparatus 200 may determine a coding unit having a different size by using an index (PID) for the coding unit.
  • PID index
  • the above-described index, the size or position of the coding unit of the predetermined position to be determined are specific to explain an embodiment and should not be construed as being limited thereto. Various indexes and positions and sizes of the coding unit may be used. Should be interpreted.
  • the image decoding apparatus 200 may use a predetermined data unit at which recursive division of coding units begins.
  • FIG. 22 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • the predetermined data unit may be defined as a data unit in which a coding unit starts to be recursively divided using at least one of block shape information and split shape information. That is, it may correspond to the coding unit of the highest depth used in the process of determining a plurality of coding units for dividing the current picture.
  • a predetermined data unit will be referred to as a reference data unit.
  • the reference data unit may represent a predetermined size and shape.
  • the reference coding unit may include samples of M ⁇ N. M and N may be the same as each other, and may be an integer represented by a multiplier of two. That is, the reference data unit may represent a square or non-square shape, and then may be divided into integer coding units.
  • the image decoding apparatus 200 may divide the current picture into a plurality of reference data units. According to an embodiment, the image decoding apparatus 200 may divide a plurality of reference data units for dividing a current picture by using split information for each reference data unit. The division process of the reference data unit may correspond to the division process using a quad-tree structure.
  • the image decoding apparatus 200 may predetermine the minimum size that the reference data unit included in the current picture may have. Accordingly, the image decoding apparatus 200 may determine reference data units having various sizes having a minimum size or more, and determine at least one coding unit using block shape information and split shape information based on the determined reference data units. You can decide.
  • the image decoding apparatus 200 may use a reference coding unit 2200 having a square shape, or may use a reference coding unit 2202 of a non-square shape.
  • the shape and size of the reference coding unit may include various data units (eg, a sequence, a picture, a slice, and a slice segment) that may include at least one reference coding unit. slice segment, maximum coding unit, etc.).
  • the receiver 210 of the image decoding apparatus 200 may obtain at least one of information on the shape of a reference coding unit and information on the size of the reference coding unit from each bitstream in the various data units. .
  • a process of determining at least one coding unit included in the reference coding unit 2200 having a square shape has been described above by splitting the current coding unit 300 of FIG. 10, and refers to the reference coding unit 2200 having a non-square shape. Since the process of determining at least one coding unit included in the above is described above through the process of splitting the current coding unit 1100 or 1150 of FIG. 11, a detailed description thereof will be omitted.
  • the image decoding apparatus 200 may determine the size and shape of the reference coding unit in order to determine the size and shape of the reference coding unit according to some data unit predetermined based on a predetermined condition.
  • a predetermined condition for example, a data unit having a size less than or equal to a slice
  • the various data units eg, sequence, picture, slice, slice segment, maximum coding unit, etc.
  • an index for identifying the size and shape of the reference coding unit may be obtained.
  • the image decoding apparatus 200 may determine the size and shape of the reference data unit for each data unit satisfying the predetermined condition by using the index.
  • the index may be obtained and used. In this case, at least one of the size and shape of the reference coding unit corresponding to the index indicating the size and shape of the reference coding unit may be predetermined.
  • the image decoding apparatus 200 selects at least one of the predetermined size and shape of the reference coding unit according to the index, thereby selecting at least one of the size and shape of the reference coding unit included in the data unit that is the reference for obtaining the index. You can decide.
  • the image decoding apparatus 200 may use at least one reference coding unit included in one maximum coding unit. That is, at least one reference coding unit may be included in the maximum coding unit for dividing an image, and the coding unit may be determined through a recursive division process of each reference coding unit. According to an embodiment, at least one of the width and the height of the maximum coding unit may correspond to an integer multiple of at least one of the width and the height of the reference coding unit. According to an embodiment, the size of the reference coding unit may be a size obtained by dividing the maximum coding unit n times according to a quad tree structure.
  • the image decoding apparatus 200 may determine the reference coding unit by dividing the maximum coding unit n times according to the quad tree structure, and according to various embodiments, at least one of the block shape information and the split shape information according to various embodiments. Can be divided based on.
  • FIG. 23 is a diagram of a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture 2300, according to an exemplary embodiment.
  • the image decoding apparatus 200 may determine at least one processing block for dividing a picture.
  • the processing block is a data unit including at least one reference coding unit for dividing an image, and the at least one reference coding unit included in the processing block may be determined in a specific order. That is, the determination order of at least one reference coding unit determined in each processing block may correspond to one of various types of order in which the reference coding unit may be determined, and the reference coding unit determination order determined in each processing block. May be different per processing block.
  • the order of determination of the reference coding units determined for each processing block is raster scan, Z-scan, N-scan, up-right diagonal scan, and horizontal scan. It may be one of various orders such as a horizontal scan, a vertical scan, etc., but the order that may be determined should not be construed as being limited to the scan orders.
  • the image decoding apparatus 200 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block.
  • the image decoding apparatus 200 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block from the bitstream.
  • the size of such a processing block may be a predetermined size of a data unit indicated by the information about the size of the processing block.
  • the receiver 210 of the image decoding apparatus 200 may obtain information about a size of a processing block from a bitstream for each specific data unit.
  • the information about the size of the processing block may be obtained from the bitstream in data units such as an image, a sequence, a picture, a slice, and a slice segment. That is, the receiver 210 may obtain information about the size of the processing block from the bitstream for each of the various data units, and the image decoding apparatus 200 may at least divide the picture using the information about the size of the acquired processing block.
  • the size of one processing block may be determined, and the size of the processing block may be an integer multiple of the reference coding unit.
  • the image decoding apparatus 200 may determine the sizes of the processing blocks 2302 and 2312 included in the picture 2300. For example, the image decoding apparatus 200 may determine the size of the processing block based on the information about the size of the processing block obtained from the bitstream. Referring to FIG. 23, the image decoding apparatus 200 may have a horizontal size of the processing blocks 2302 and 2312 equal to four times the horizontal size of the reference coding unit and four times the vertical size of the reference coding unit, according to an exemplary embodiment. You can decide. The image decoding apparatus 200 may determine an order in which at least one reference coding unit is determined in at least one processing block.
  • the image decoding apparatus 200 may determine each processing block 2302 and 2312 included in the picture 2300 based on the size of the processing block, and include the processing block 2302 and 2312 in the processing block 2302 and 2312.
  • a determination order of at least one reference coding unit may be determined.
  • the determination of the reference coding unit may include the determination of the size of the reference coding unit.
  • the image decoding apparatus 200 may obtain information about a determination order of at least one reference coding unit included in at least one processing block from a bitstream, and based on the obtained determination order The order in which at least one reference coding unit is determined may be determined.
  • the information about the determination order may be defined in an order or direction in which reference coding units are determined in the processing block. That is, the order in which the reference coding units are determined may be independently determined for each processing block.
  • the image decoding apparatus 200 may obtain information about a determination order of a reference coding unit from a bitstream for each specific data unit.
  • the receiver 210 may obtain information about a determination order of a reference coding unit from a bitstream for each data unit such as an image, a sequence, a picture, a slice, a slice segment, and a processing block. Since the information about the determination order of the reference coding unit indicates the determination order of the reference coding unit in the processing block, the information about the determination order may be obtained for each specific data unit including an integer number of processing blocks.
  • the image decoding apparatus 200 may determine at least one reference coding unit based on the order determined according to the embodiment.
  • the receiver 210 may obtain information on a determination order of a reference coding unit from the bitstream as information related to the processing blocks 2302 and 2312, and the image decoding apparatus 200 may process the processing block ( An order of determining at least one reference coding unit included in 2302 and 2312 may be determined, and at least one reference coding unit included in the picture 2300 may be determined according to the determination order of the coding unit.
  • the image decoding apparatus 200 may determine determination orders 2304 and 2314 of at least one reference coding unit associated with each processing block 2302 and 2312. For example, when information about the determination order of the reference coding unit is obtained for each processing block, the reference coding unit determination order associated with each processing block 2302 and 2312 may be different for each processing block.
  • the reference coding unit included in the processing block 2302 may be determined according to the raster scan order.
  • the reference coding unit determination order 2314 associated with the other processing block 2312 is the reverse order of the raster scan order
  • the reference coding units included in the processing block 2312 may be determined according to the reverse order of the raster scan order.
  • the image decoding apparatus 200 may decode at least one determined reference coding unit according to an embodiment.
  • the image decoding apparatus 200 may decode an image based on the reference coding unit determined through the above-described embodiment.
  • the method of decoding the reference coding unit may include various methods of decoding an image.
  • the image decoding apparatus 200 may obtain and use block shape information indicating a shape of a current coding unit or split shape information indicating a method of dividing a current coding unit from a bitstream.
  • Block type information or split type information may be included in a bitstream associated with various data units.
  • the image decoding apparatus 200 may include a sequence parameter set, a picture parameter set, a video parameter set, a slice header, and a slice segment header. block type information or segmentation type information included in a segment header) may be used.
  • the image decoding apparatus 200 may obtain and use syntax corresponding to the block type information or the split type information from the bit stream from the bit stream for each maximum coding unit, reference coding unit, and processing block.
  • the above-described embodiments of the present invention can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium.
  • the computer-readable recording medium may include a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.) and an optical reading medium (eg, a CD-ROM, a DVD, etc.).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

360도 이미지를 부호화 또는 복호화하는 방법 및 장치가 개시된다. 개시된 일 실시예에 따른 영상 복호화 방법 및 장치는 비트스트림으로부터 영상 데이터를 획득하고, 상기 영상 데이터로부터 360도 이미지의 투영 이미지를 복호화하고, 상기 투영 이미지를 상기 360도 이미지로 변환하고, 상기 비트스트림으로부터 상기 360도 이미지의 회전 정보를 획득하고, 상기 회전 정보에 기초하여 상기 360도 영상을 회전시켜 원본 360도 이미지를 복원한다.

Description

360도 이미지를 부호화 또는 복호화하는 방법 및 장치
본 명세서는 영상 부호화, 영상 복호화 방법 및 장치에 관한 것으로 보다 상세하게는 360도 이미지를 부호화 또는 복호화하는 방법 및 장치에 관한 것이다.
영상 데이터는 소정의 데이터 압축 표준, 예를 들면 MPEG(Moving Picture Expert Group) 표준에 따른 코덱에 의하여 부호화된 후 비트스트림의 형태로 기록매체에 저장되거나 통신 채널을 통해 전송된다.
고해상도 또는 고화질 영상 컨텐트를 재생, 저장할 수 있는 하드웨어의 개발 및 보급에 따라, 고해상도 또는 고화질 영상 컨텐트를 효과적으로 부호화 또는 복호화 하는 코덱(codec)의 필요성이 증대하고 있다. 부호화된 영상 컨텐트는 복호화됨으로써 재생될 수 있다. 최근에는 이러한 고해상도 또는 고화질 영상 컨텐트를 효과적으로 압축하기 위한 방법들이 실시되고 있다. 예를 들면, 부호화 하려는 영상을 임의적 방법으로 처리하는 과정을 통한 효율적 영상 압축 방법이 실시되고 있다.
또한, 최근 가상 현실 관련 기술과 장치가 발전함에 따라, 이를 활용한 가상 현실 장치들이 각광받고 있다. 이러한 가상 현실(Virtual Reality, VR) 장치는 엔터테인먼트, 교육, 사무, 의료 등 다양한 분야에 폭넓게 적용되고 있다.
가상 현실 장치에 디스플레이 되는 가상 현실 이미지는 가상 현실 디스플레이 장치를 착용한 사용자의 시선에 따라 움직이게 되므로, 가상 현실 이미지는 사용자를 둘러싼 주변의 모든 이미지를 포함하여야 한다. 즉, 가상 현실 장치에서 제공하는 가상 현실 이미지는 사용자를 기준으로 주변 모든 방향에 해당하는 이미지, 즉, 360도 이미지이다. 따라서, 가상 현실 장치에 대한 관심과 함께 이러한 360도 이미지의 처리에 대한 관심이 높아지고 있다.
해결하고자 하는 기술적 과제는 360도 이미지를 부호화 또는 복호화하는 방법 및 장치를 제공하는데 있다.
상기 기술적 과제를 해결하기 위한 일 실시예에 따른 영상 복호화 방법은 상기 영상 데이터로부터 360도 이미지의 투영 이미지를 복호화하는 단계; 상기 투영 이미지를 상기 360도 이미지로 변환하는 단계; 상기 비트스트림으로부터 상기 360도 이미지의 회전 정보를 획득하는 단계; 및 상기 회전 정보에 기초하여 상기 360도 영상을 회전시켜 원본 360도 이미지를 복원하는 단계를 포함한다.
일 실시예에 따른 영상 복호화 장치는 비트스트림으로부터 영상 데이터 및 360도 이미지의 회전 정보를 획득하는 데이터 획득부; 상기 영상 데이터로부터 상기 360도 이미지의 투영 이미지를 복호화하는 복호화부; 및 상기 투영 이미지를 상기 360도 이미지로 변환하고, 상기 회전 정보에 기초하여 상기 360도 영상을 회전시켜 원본 360도 영상을 복원하는 복원부를 포함한다.
일 실시예에 따른 영상 부호화 방법은 원본 360도 이미지를 회전시키기 위한 소정 각도를 결정하는 단계; 상기 소정 각도에 기초하여 상기 원본 360도 이미지를 회전시키는 단계; 회전된 360도 이미지를 투영 이미지로 변환하는 단계; 상기 투영 이미지를 부호화하는 단계; 및 부호화된 상기 투영 이미지에 대한 영상 데이터 및 상기 소정 각도에 대한 정보를 포함하는 비트스트림을 생성하는 단계를 포함한다.
일 실시예에 따른 영상 부호화 장치는 원본 360도 이미지를 회전시키기 위한 소정 각도를 결정하고, 상기 소정 각도에 기초하여 상기 원본 360도 이미지를 회전시키고, 회전된 360도 이미지를 투영 이미지로 변환하는 변환부; 상기 투영 이미지를 부호화하는 부호화부; 및 부호화된 상기 투영 이미지에 대한 영상 데이터 및 상기 소정 각도에 대한 정보를 포함하는 비트스트림을 생성하는 비트스트림 생성부를 포함한다.
도 1는 일 실시예에 따른 영상 부호화 장치(100)의 개략적인 블록도를 도시한다.
도 2는 일 실시예에 따른 영상 복호화 장치(200)의 개략적인 블록도를 도시한다.
도 3은 일 실시예에 따른 360도 이미지를 도시한다.
도 4는 다양한 실시예에 따라 투영법을 이용하여 360도 이미지를 투영함에 따라 생성된 투영 이미지를 도시한다.
도 5a 및 5b는 일 실시예에 따른 360도 이미지를 회전시키기 위한 소정 각도 및 360도 이미지에 대응하는 투영 이미지를 도시한다.
도 6a 및 6b는 일 실시예에 따라 회전된 360도 이미지 및 회전된 360도 이미지에 대응하는 투영 이미지를 도시한다.
도 7a 내지 7d는 360도 이미지의 회전과 관련된 신택스의 다양한 실시예을 도시한다.
도 8은 일 실시예에 따른 영상 부호화 방법을 설명하기 위한 흐름도를 도시한다.
도 9는 일 실시예에 따른 영상 복호화 방법을 설명하기 위한 흐름도를 도시한다.
도 10은 일 실시예에 따라 현재 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 11은 일 실시예에 따라 비-정사각형의 형태인 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 12는 일 실시예에 따라 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위가 분할되는 과정을 도시한다.
도 13은 일 실시예에 따라 홀수개의 부호화 단위들 중 소정의 부호화 단위가 결정되는 방법을 도시한다.
도 14는 일 실시예에 따라 현재 부호화 단위가 분할되어 복수개의 부호화 단위들이 결정되는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
도 15는 일 실시예에 따라 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것으로 결정되는 과정을 도시한다.
도 16은 일 실시예에 따라 제1 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 17은 일 실시예에 따라 제1 부호화 단위가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우, 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
도 18은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 정사각형 형태의 부호화 단위가 분할되는 과정을 도시한다
도 19는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
도 20은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
도 21은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
도 22는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
도 23은 일 실시예에 따라 픽쳐에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
일 실시예에 따른 영상 복호화 방법은 상기 영상 데이터로부터 360도 이미지의 투영 이미지를 복호화하는 단계; 상기 투영 이미지를 상기 360도 이미지로 변환하는 단계; 상기 비트스트림으로부터 상기 360도 이미지의 회전 정보를 획득하는 단계; 및 상기 회전 정보에 기초하여 상기 360도 영상을 회전시켜 원본 360도 이미지를 복원하는 단계를 포함한다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 투영 이미지는 등장방형도법(equirectangular projection), 아이코사히드랄 투영법(Icosahedral projection), 큐브맵 투영법(Cubemap projection), 8면체 투영법(Octahedron projection) 및 회전 구체 투영법(Rotated sphere projection) 중 어느 하나를 이용하여 상기 360도 이미지를 투영한 이미지일 수 있다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 회전 정보는 상기 360도 이미지의 중심에 대한 수평 각도 및 수직 각도를 나타낼 수 있다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 회전 정보는 상기 수평 각도를 나타내는 5 비트 및 상기 수직 각도를 나타내는 3 비트를 포함하는 총 8 비트일 수 있다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 회전 정보는 상기 비트스트림 내에서 비디오 파라미터 세트 또는 시퀀스 파라미터 세트에 저장될 수 있다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 회전 정보는 상기 비트스트림 내의 SEI(Supplemental enhancement information)에 저장될 수 있다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 비트스트림으로부터 상기 360도 이미지의 회전 변화량 정보를 획득하는 단계를 더 포함하고, 상기 360도 영상은 상기 회전 정보 및 상기 회전 변화량 정보에 기초하여 회전될 수 있다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 회전 변화량 정보는 상기 비트스트림 내의 픽처 파라미터 세트에 저장될 수 있다.
또한, 일 실시예에 따른 영상 복호화 방법에서, 상기 360도 이미지의 회전 여부에 대한 정보를 획득하는 단계; 및 상기 상기 360도 이미지의 회전 여부에 대한 정보에 따라, 상기 회전 정보의 획득 여부를 결정하는 단계를 더 포함할 수 있다.
일 실시예에 따른 영상 복호화 장치는 비트스트림으로부터 영상 데이터 및 360도 이미지의 회전 정보를 획득하는 데이터 획득부; 상기 영상 데이터로부터 상기 360도 이미지의 투영 이미지를 복호화하는 복호화부; 및 상기 투영 이미지를 상기 360도 이미지로 변환하고, 상기 회전 정보에 기초하여 상기 360도 영상을 회전시켜 원본 360도 영상을 복원하는 복원부를 포함한다.
일 실시예에 따른 영상 부호화 방법은 원본 360도 이미지를 회전시키기 위한 소정 각도를 결정하는 단계; 상기 소정 각도에 기초하여 상기 원본 360도 이미지를 회전시키는 단계; 회전된 360도 이미지를 투영 이미지로 변환하는 단계; 상기 투영 이미지를 부호화하는 단계; 및 부호화된 상기 투영 이미지에 대한 영상 데이터 및 상기 소정 각도에 대한 정보를 포함하는 비트스트림을 생성하는 단계를 포함한다.
또한, 일 실시예에 따른 영상 부호화 방법에서, 상기 소정 각도는 상기 360도 이미지의 중심에 대한 수평 각도 및 수직 각도를 포함할 수 있다.
또한, 일 실시예에 따른 영상 부호화 방법에서, 상기 원본 360도 이미지를 회전시키기 위한 소정 각도를 결정하는 단계는, 상기 원본 360도 이미지에 대해 가능한 회전 각도들 각각을 적용하여 상기 원본 360도 이미지를 회전시키는 단계; 상기 회전 각도들 각각에 따라 회전된 360도 이미지를, 투영 이미지로 변환하는 단계; 변환된 투영 이미지의 부호화 효율을 계산하는 단계; 및 상기 계산 결과에 기초하여 상기 가능한 회전 각도들 중에서 상기 소정 각도를 결정하는 단계를 포함할 수 있다.
일 실시예에 따른 영상 부호화 장치는 원본 360도 이미지를 회전시키기 위한 소정 각도를 결정하고, 상기 소정 각도에 기초하여 상기 원본 360도 이미지를 회전시키고, 회전된 360도 이미지를 투영 이미지로 변환하는 변환부; 상기 투영 이미지를 부호화하는 부호화부; 및 부호화된 상기 투영 이미지에 대한 영상 데이터 및 상기 소정 각도에 대한 정보를 포함하는 비트스트림을 생성하는 비트스트림 생성부를 포함한다.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
이하, "영상"은 비디오의 정지영상와 같은 정적 이미지이거나 동영상, 즉 비디오 그 자체와 같은 동적 이미지를 나타낼 수 있다.
이하 "샘플"은, 영상의 샘플링 위치에 할당된 데이터로서 프로세싱 대상이 되는 데이터를 의미한다. 예를 들어, 공간영역의 영상에서 픽셀값, 변환 영역 상의 변환 계수들이 샘플들일 수 있다. 이러한 적어도 하나의 샘플들을 포함하는 단위를 블록이라고 정의할 수 있다.
아래에서는 첨부한 도면을 참고하여 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
이하 도 1 내지 도 23을 참조하여 일 실시예에 따른 영상 부호화 장치 및 영상 복호화 장치, 영상 부호화 방법 및 영상 복호화 방법이 설명된다. 도 1 내지 도 9를 참조하여 일 실시예에 따라 360도 이미지를 부호화 또는 복호화하는 방법 및 장치가 후술되고, 도 10 내지 도 23을 참조하여 일 실시예에 따른 영상 복호화 장치(200)가 영상을 복호화하는 과정에서 이용할 수 있는 데이터 단위를 결정하는 방법이 후술된다.
이하 도 1 내지 도 9를 참조하여 본 발명의 일 실시예에 따라 360도 이미지를 부호화 또는 복호화하는 방법 및 장치가 상술된다.
도 1은 일 실시예에 따른 영상 부호화 장치(100)의 개략적인 블록도를 도시한다.
일 실시예에 따른 영상 부호화 장치(100)는 변환부(110), 부호화부(120) 및 비트스트림 생성부(130)를 포함한다.
일 실시예에 따라 변환부(110)는 원본 360도 이미지를 회전시키기 위한 소정 각도를 결정할 수 있다.
일 실시예에 따르면, 원본 360도 이미지에 대해 가능한 회전 각도들 각각을 적용하여 원본 360도 이미지를 회전시키는 것, 회전 각도들 각각에 따라 회전된 360도 이미지를, 투영 이미지로 변환하는 것, 변환된 투영 이미지의 부호화 효율을 계산하는 것, 및 계산 결과에 기초하여 가능한 회전 각도들 중에서 소정 각도를 결정하는 것에 의해 원본 360도 이미지를 회전시키기 위한 소정 각도가 결정될 수 있다.
다른 실시예에 따르면, 원본 360도 이미지에 대해 가능한 회전 각도들 각각을 적용하여 원본 360도 이미지를 회전시키는 것, 회전 각도들 각각에 따라 회전된 360도 이미지를, 투영 이미지로 변환하는 것, 변환된 투영 이미지의 이미지 품질을 계산하는 것, 및 계산 결과에 기초하여 가능한 회전 각도들 중에서 소정 각도를 결정하는 것에 의해 원본 360도 이미지를 회전시키기 위한 소정 각도가 결정될 수 있다.
또 다른 실시예에 따르면, 원본 360도 이미지의 회전 각도에 따라 변환된 투영 이미지의 부호화 효율 및 이미지 품질을 계산하고, 계산된 부호화 효율 및 이미지 품질 모두를 고려하여 원본 360도 이미지를 회전시키기 위한 소정 각도가 결정될 수 있다.
일 실시예에 따르면, 소정 각도는 360도 이미지의 중심에 대한 수평 각도 및 수직 각도를 포함할 수 있다.
일 실시예에 따라 변환부(110)는 소정 각도에 기초하여 원본 360도 이미지를 회전시키고, 회전된 360도 이미지를 투영 이미지로 변환할 수 있다. 일 실시예에 따르면, 투영 이미지는 등장방형도법(equirectangular projection), 아이코사히드랄 투영법(Icosahedral projection), 큐브맵 투영법(Cubemap projection), 8면체 투영법(Octahedron projection) 및 회전 구체 투영법(Rotated sphere projection) 중 어느 하나를 이용하여 360도 이미지를 투영한 이미지일 수 있다.
일 실시예에 따라 비트스트림 생성부(120)는 부호화된 투영 이미지에 대한 영상 데이터 및 소정 각도에 대한 정보를 포함하는 비트스트림을 생성할 수 있다. 일 실시예에 따르면, 소정 각도에 대한 정보는 비트스트림 내에서 비디오 파라미터 세트 또는 시퀀스 파라미터 세트에 저장될 수 있다.
도 2는 일 실시예에 따른 영상 복호화 장치(200)의 개략적인 블록도를 도시한다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 영상 복호화 장치(200)는 데이터 획득부(210), 복호화부(220) 및 복원부(230)를 포함한다.
일 실시예에 따른 데이터 획득부(210)는 영상 복호화 장치(200)가 수신한 비트스트림을 파싱하여, 영상 데이터 및 360도 이미지의 회전 정보를 획득하여 복호화부(220) 및 복원부(230)로 출력한다.
일 실시예에 따르면, 회전 정보는 360도 이미지의 중심에 대한 수평 각도 및 수직 각도를 나타낼 수 있다. 일 실시예에 따르면, 회전 정보는 수평 각도를 나타내는 5 비트 및 수직 각도를 나타내는 3 비트를 포함하는 총 8 비트일 수 있다. 일 실시예에 따르면, 회전 정보는 비트스트림 내의 비디오 파라미터 세트 또는 시퀀스 파라미터 세트로부터 획득될 수 있다. 다른 실시예에 따르면, 상기 회전 정보는 상기 비트스트림 내의 SEI(Supplemental enhancement information)로부터 획득될 수 있다.
일 실시예에 따르면, 비트스트림으로부터 회전 정보 이외에 360도 이미지의 회전 변화량 정보가 더 획득될 수 있다. 회전 변화량 정보는 픽처 파라미터 세트로부터 획득될 수 있다.
일 실시예에 따르면, 360도 이미지의 회전 여부에 대한 정보가 더 획득될 수 있고, 360도 이미지의 회전 여부에 대한 정보에 따라, 회전 정보의 획득 여부가 결정될 수 있다.
일 실시예에 따른 복호화부(220)는 영상 데이터로부터 360도 이미지의 투영 이미지를 복호화한다.
일 실시예에 따른 복원부(230)는 투영 이미지를 360도 이미지로 변환한다. 일 실시예에 따르면, 투영 이미지는 등장방형도법(equirectangular projection), 아이코사히드랄 투영법(Icosahedral projection), 큐브맵 투영법(Cubemap projection), 8면체 투영법(Octahedron projection) 및 회전 구체 투영법(Rotated sphere projection) 중 어느 하나를 이용하여 360도 이미지를 투영한 이미지일 수 있다. 다만, 전술한 투영법에 제한되지 않고 그 밖에 다양한 투영법이 이용될 수 있다. 일 실시예에 따르면, 투영 이미지는 평면의 직사각형 이미지일 수 있다.
일 실시예에 따른 복원부(230)는 회전 정보에 기초하여 360도 영상을 회전시켜 원본 360도 영상을 복원한다. 일 실시예에 따르면, 회전 정보 및 회전 변화량 정보 모두에 기초하여 360도 영상이 회전될 수 있다.
도 3은 일 실시예에 따른 360도 이미지를 도시한다.
도 3에 도시한 바와 같이 360도 이미지(320)는 특정 위치(310)를 중심으로 하여 특정 위치를 360도로 둘러싼 주위 환경을 나타내는 이미지이다. 일 실시예에 따르면 360도 이미지(320)는 구 형태일 수 있다. 사용자가 가상 현실 장치를 착용하는 경우, 가상 현실 내에서 사용자를 360도로 둘러싼 주위 환경을 나타내는 이미지가 360도 이미지가 될 수 있다. 가상 현실 장치는 360도 이미지를 사용자에게 제공하여, 가상 현실 장치를 착용한 사용자가 가상 현실 내에서 이동하거나 시선을 돌리는 경우에도 그에 따른 적절한 이미지를 제공할 수 있다.
도 4는 다양한 실시예에 따라 투영법을 이용하여 360도 이미지를 투영함에 따라 생성된 투영 이미지를 도시한다.
360도 이미지는 그 자체를 부호화하는 것이 어렵기 때문에 부호화/복호화를 위해 평면 이미지로 변환될 수 있다. 도 3을 참조하여 상술한 360도 이미지(410)는 다양한 투영법을 통해 투영되어 평면 이미지로 변환될 수 있다. 도 4에 도시된 바와 같이, 360도 이미지(410)는 등장방형도법(equirectangular projection)을 이용하여 투영되어 직사각형 형태의 투영 이미지(420)로 변환될 수 있다. 또한, 360도 이미지(410)는 아이코사히드랄 투영법(Icosahedral projection)을 이용하여 투영되어 정20면체의 전개도 형태의 투영 이미지(420)로 변환될 수 있다. 한편, 도 4에 도시되지 않았지만, 투영 이미지를 생성하기 위해 전술한 등장방형도법 및 아이코사히드랄 투영법에 제한되지 않고 다양한 투영법이 이용될 수 있다. 다양한 실시예에 따른 투영법은 8면체 투영법(Octahedron projection), 큐브맵 투영법(Cubemap projection) 및 회전 구체 투영법(Rotated sphere projection) 일 수 있고, 투영법에 따라 생성되는 투영 이미지의 형태가 상이할 수 있다. 회전 구체 투영법에 따라 생성된 투영 이미지는, 큐브맵 투영법과 같이 3:2 종횡비를 갖는 직사각형 형태일 수 있고, 상하로 나누어진 2 개의 대칭적인 연속 세그먼트로 구성된다. 각각의 세그먼트의 모서리 영역은 그대로 남겨지거나 호 형태로 그레이 처리될 수 있다. 일 실시예에 따르면, 다양한 투영법을 이용하여 생성된 투영 이미지는 여백을 추가함으로써 직사각형 형태로 재구성될 수 있다.
도 5a 및 5b는 일 실시예에 따른 360도 이미지를 회전시키기 위한 소정 각도 및 360도 이미지에 대응하는 투영 이미지를 도시한다.
도 5a에 도시된 바와 같이, 360도 이미지(500)는 360도 이미지(500) 상의 최상단에 위치한 초기 원점(A)을 가질 수 있다. 360도 이미지의 회전을 위해 360도 이미지(500) 상에서 소정 지점(B)이 선택될 수 있다. 선택된 소정 지점(B)에 대응하는 소정 각도가 결정될 수 있다. 소정 각도는 360도 이미지의 중심에 대한 수평 각도 및 수직 각도를 포함할 수 있다.
일 실시예에 따르면, 360도 이미지(500)의 중심을 지나는 수평면 상에서, 중심에 대하여 소정 지점(B)과 정면을 나타내는 기준점(C)이 이루는 수평 각도(α)가 결정될 수 있다. 수평 각도(α)는 선택된 소정 지점(B)에 따라 0 내지 360도의 범위 내에서 결정될 수 있다.
일 실시예에 따르면, 360도 이미지(500) 내부의 중심과 초기 원점(A)을 지나는 직선에 대해 소정 지점(B)과 중심을 지나는 직선이 형성하는 수직 각도(β)가 결정될 수 있다. 수직 각도(β)는 선택된 소정 지점(B)에 따라 0 내지 180도의 범위 내에서 결정될 수 있다.
360도 이미지의 부호화/복호화를 위해 소정 각도에 대한 정보가 360도 이미지(500)의 회전 정보로서 비트스트림을 통해 시그널링될 수 있다. 360도 이미지(500)의 회전 정보에 관한 신택스의 다양한 실시예는 도 7a 내지 7d를 참조하여 상세히 설명한다.
도 5b에 도시된 바와 같이, 도 5a를 참조하여 상술한 360도 이미지(500) 상에서 초기 원점(A)과 소정 지점(B)의 관계는, 대응하는 투영 이미지(510) 상에서 초기 원점(A)과 소정 지점(B)의 관계로 나타난다. 360도 이미지(500)의 중심에 대한 수평 각도(α) 및 수직 각도(β)는, 투영 이미지(510) 상에서 초기 원점(A)과 소정 지점(B) 사이의 수평 거리 및 수직 거리에 대응할 수 있다. 또한, 투영 이미지(510)의 가로 길이와 세로 길이는 각각 360도 이미지(500)의 전체 경도 및 전체 위도에 대응할 수 있다. 360도 이미지(500) 상에서 경도 및 위도를 갖는 소정 지점이 선택되면, 대응하는 투영 이미지(510) 상에서 경도에 해당하는 가로 축 좌표 및 위도에 해당하는 세로 축 좌표를 갖는 소정 지점(B)이 선택될 수 있다.
도 6a 및 6b는 일 실시예에 따라 회전된 360도 이미지 및 회전된 360도 이미지에 대응하는 투영 이미지를 도시한다.
도 5a 및 도 5b를 참조하여 전술한 바와 같이, 360도 이미지의 회전을 위해 360도 이미지(500) 상에서 소정 지점(B)이 선택되고, 선택된 소정 지점(B)에 대응하는 소정 각도로서 360도 이미지의 중심에 대한 수평 각도(α) 및 수직 각도(β)가 결정될 수 있다.
도 6a에 도시된 바와 같이, 360도 이미지(600)는 수평 각도(α) 및 수직 각도(β)에 기초하여 회전될 수 있다. 360도 이미지(600)는 360도 이미지(600) 내부의 중심과 초기 원점(A)을 지나는 직선을 회전 축으로 하여 수평 각도(α) 만큼 회전될 수 있다. 360도 이미지(600)는 소정 지점(B)이 최상단의 초기 원점(A)의 위치에 오도록 수직 각도(β) 만큼 회전될 수 있다. 회전된 360도 이미지(610)는 소정 지점(B)이 최상단의 새로운 원점이 된다. 회전에 따라 정면을 나타내는 기준점(C)에 해당하는 픽셀 값이 변경될 수 있다. 그러나, 360도 이미지(600)의 회전에 따라 360도 이미지의 컨텐츠는 변화하지 않는다.
도 6b에 도시된 바와 같이, 회전된 360도 이미지(610)에 대응하는 투영 이미지(620) 상에서도 소정 지점(B)이 좌측 상단의 새로운 원점이 된다. 360도 이미지의 회전에 따라 360도 이미지 내부의 컨텐츠가 변화하지 않는 것과 다르게, 회전된 360도 이미지(610)에 대응하는 투영 이미지(620)는 회전되기 전의 투영 이미지(510)의 컨텐츠와 상이할 수 있다. 예를 들어, 투영 이미지는 등장방형도법(equirectangular projection)을 이용하여 360도 이미지를 투영한 이미지일 수 있고, 이 경우 투영 이미지는 중간에서부터 상측 및 하측으로 갈수록 360도 이미지에 대한 컨텐츠의 왜곡이 심해진다. 360도 이미지의 회전에 따라 부호화/복호화의 대상이 되는 투영 이미지의 컨텐츠가 상이하기 때문에, 소정 지점의 선택에 따른 360도 이미지의 회전 별로 부호화율이 다를 수 있고, 부호화 장치(100)는 360도 이미지의 소정 각도에 따른 회전 별로 부호화율을 비교하여 최적의 회전 각도를 선택할 수 있다.
도 7a 내지 7d는 360도 이미지의 회전과 관련된 신택스의 다양한 실시예을 도시한다.
일 실시예에 따르면, 비트스트림은 NAL (Network Abstraction Layer) 유닛들로 구성될 수 있고, NAL 유닛들 중 적어도 하나는 비디오 파라미터 세트 RBSP (Raw Byte Sequence Payload) 영역일 수 있다. 비디오 파라미터 세트에 포함된 정보는, 복호화 순서에 따라 하나의 IRAP (intra random access point) 픽처 및 IRAP 픽처가 아닌 후속 픽처를 포함하는 CVS(coded video sequence) 내의 픽처들에 일괄적으로 적용될 수 있다. 비디오 파라미터 세트에 포함된 정보는 픽처들의 시퀀스 레벨에 적용될 수 있다.
도 7a에 도시된 바와 같이, 일 실시예에 따르면, 비디오 파라미터 세트 RBSP 영역으로부터 복호화되는 이미지가 360도 이미지의 투영 이미지인지 여부를 나타내는 1 비트 플래그인 “vps_360_extension_flag”가 획득될 수 있다. “vps_360_extension_flag”의 값이 1 이면, “vps_360_extension()”신택스가 호출되어 360도 이미지의 관련 정보들이 후속하여 획득될 수 있다.
도 7a에 도시된 바와 같이, “vps_360_extension()”신택스가 호출되면, 360도 이미지의 회전 여부에 대한 정보를 나타내는 1 비트 플래그인“vps_360_origin_point_shift_flag”가 획득될 수 있고, “vps_360_origin_point_shift_flag”가 1 인 경우에 360도 이미지의 회전 정보를 나타내는“vps_360_rotation”가 획득될 수 있다.
일 실시예에 따르면, 360도 이미지의 회전 정보를 나타내는“vps_360_rotation”는 360도 이미지의 중심에 대한 수평 각도를 나타내는 5 비트 및 360도 이미지의 중심에 대한 수직 각도를 나타내는 3 비트를 포함하는 총 8 비트일 수 있다.
도 7b를 참조하면, 도 7a에서와 동일하게, 비디오 파라미터 세트 RBSP 영역으로부터 “vps_360_extension_flag”가 획득되고, 호출된 “vps_360_extension()”신택스에서 “vps_360_origin_point_shift_flag”가 획득될 수 있다.
다른 실시예에 따라, 도 7b에 도시된 바와 같이, 360도 이미지의 회전 정보를 나타내는“vps_360_rotation” 대신에, 360도 이미지의 중심에 대한 수직 각도를 나타내는 “vps_360_rotation_latitude” 및 360도 이미지의 중심에 대한 수평 각도를 나타내는 “vps_360_rotation_longitude”가 별개로 획득될 수 있다.
일 실시예에 따르면, 획득된 360도 이미지의 회전 정보에 기초하여, 360도 이미지가 회전될 수 있고, 원본 360도 이미지가 복원될 수 있다.
일 실시예에 따르면, 비트스트림을 구성하는 NAL 유닛들 중 적어도 하나는 픽처 파라미터 세트 RBSP (Raw Byte Sequence Payload) 영역일 수 있다. 픽처 파라미터 세트에 포함된 정보는 소정 개수의 픽처에 적용될 수 있다.
도 7c에 도시된 바와 같이, 일 실시예에 따르면, 픽처 파라미터 세트 RBSP 영역으로부터 복호화되는 이미지가 360도 이미지의 투영 이미지인지 여부를 나타내는 1 비트 플래그인 “pps_360_extension_flag”가 획득될 수 있다. “pps_360_extension_flag”의 값이 1 이면, “pps_360_extension()”신택스가 호출되어 360도 이미지의 관련 정보들이 후속하여 획득될 수 있다.
도 7c에 도시된 바와 같이, “pps_360_extension()”신택스가 호출되면, 360도 이미지의 수직 각도에 대해 회전 변화량이 존재하는지 여부에 대한 정보를 나타내는 1 비트 플래그인“pps_360_delta_shift_present_flag_latitude” 및 360도 이미지의 수평 각도에 대해 회전 변화량이 존재하는지 여부에 대한 정보를 나타내는 1 비트 플래그인“pps_360_delta_shift_present_flag_longitude”가 획득될 수 있다.
도 7c에 도시된 바와 같이, “pps_360_delta_shift_present_flag_latitude” 가 1 인 경우에 360도 이미지의 수직 각도에 대한 회전 변화량 정보를 나타내는“pps_360_delta_rotation_latitude”가 획득될 수 있고, “pps_360_delta_shift_present_flag_longitude” 가 1 인 경우에 360도 이미지의 수평 각도에 대한 회전 변화량 정보를 나타내는“pps_360_delta_rotation_longitude”가 획득될 수 있다.
일 실시예에 따르면, 획득된 360도 이미지의 회전 정보에 따라 360도 이미지가 회전될 수 있고, 회전 변화량 정보에 기초하여 일부 픽처들에 대해서만 회전량이 조정될 수 있다.
도 7d에 도시된 바와 같이, 일 실시예에 따르면, 비트스트림 내의 SEI(Supplemental enhancement information)로부터 360도 이미지의 중심에 대한 수직 각도를 나타내는 “vr_360_rotation_latitude” 및 360도 이미지의 중심에 대한 수평 각도를 나타내는“vr_360_rotation_longitude”가 획득될 수 있다. SEI 는 복호된 데이터의 화면 표현과 관련된 시간 정보 및 부가 정보를 포함할 수 있다.
도 8은 일 실시예에 따른 영상 부호화 방법을 설명하기 위한 흐름도를 도시한다.
단계 S810에서, 원본 360도 이미지를 회전시키기 위한 소정 각도가 결정된다.
일 실시예에 따르면, 원본 360도 이미지에 대해 가능한 회전 각도들 각각을 적용하여 원본 360도 이미지를 회전시키는 것, 회전 각도들 각각에 따라 회전된 360도 이미지를, 투영 이미지로 변환하는 것, 변환된 투영 이미지의 부호화 효율을 계산하는 것, 및 계산 결과에 기초하여 가능한 회전 각도들 중에서 소정 각도를 결정하는 것에 의해 원본 360도 이미지를 회전시키기 위한 소정 각도가 결정될 수 있다.
다른 실시예에 따르면, 원본 360도 이미지에 대해 가능한 회전 각도들 각각을 적용하여 원본 360도 이미지를 회전시키는 것, 회전 각도들 각각에 따라 회전된 360도 이미지를, 투영 이미지로 변환하는 것, 변환된 투영 이미지의 이미지 품질을 계산하는 것, 및 계산 결과에 기초하여 가능한 회전 각도들 중에서 소정 각도를 결정하는 것에 의해 원본 360도 이미지를 회전시키기 위한 소정 각도가 결정될 수 있다.
또 다른 실시예에 따르면, 원본 360도 이미지의 회전 각도에 따라 변환된 투영 이미지의 부호화 효율 및 이미지 품질을 계산하고, 계산된 부호화 효율 및 이미지 품질 모두를 고려하여 원본 360도 이미지를 회전시키기 위한 소정 각도가 결정될 수 있다.
일 실시예에 따르면, 소정 각도는 360도 이미지의 중심에 대한 수평 각도 및 수직 각도를 포함할 수 있다.
단계 S820 및 단계 S830에서, 소정 각도에 기초하여 원본 360도 이미지가 회전되고, 회전된 360도 이미지가 투영 이미지로 변환된다. 일 실시예에 따르면, 투영 이미지는 등장방형도법(equirectangular projection)을 이용하여 360도 이미지를 투영한 이미지일 수 있다.
단계 S840 및 단계 S850에서, 투영 이미지가 부호화되고, 부호화된 투영 이미지에 대한 영상 데이터 및 소정 각도에 대한 정보를 포함하는 비트스트림이 생성된다. 일 실시예에 따르면, 소정 각도에 대한 정보는 비트스트림 내에서 비디오 파라미터 세트 또는 시퀀스 파라미터 세트에 저장될 수 있다.
도 9는 일 실시예에 따른 영상 복호화 방법을 설명하기 위한 흐름도를 도시한다.
단계 S910 및 S920에서, 비트스트림으로부터 영상 데이터가 획득되고, 영상 데이터로부터 360도 이미지의 투영 이미지가 복호화된다.
단계 S930에서, 투영 이미지가 360도 이미지로 변환된다. 일 실시예에 따르면, 투영 이미지는 등장방형도법(equirectangular projection)을 이용하여 360도 이미지를 투영한 이미지일 수 있다. 다만, 투영법은 전술한 등장방형도법에 제한되지 않고 다양한 투영법이 이용될 수 있다. 일 실시예에 따르면, 투영 이미지는 평면의 직사각형 이미지일 수 있다.
단계 S940에서, 비트스트림으로부터 360도 이미지의 회전 정보가 획득된다. 일 실시예에 따르면, 회전 정보는 360도 이미지의 중심에 대한 수평 각도 및 수직 각도를 나타낼 수 있다. 일 실시예에 따르면, 회전 정보는 수평 각도를 나타내는 5 비트 및 수직 각도를 나타내는 3 비트를 포함하는 총 8 비트일 수 있다. 일 실시예에 따르면, 회전 정보는 비트스트림 내의 비디오 파라미터 세트 또는 시퀀스 파라미터 세트로부터 획득될 수 있다. 다른 실시예에 따르면, 상기 회전 정보는 상기 비트스트림 내의 SEI(Supplemental enhancement information)로부터 획득될 수 있다.
일 실시예에 따르면, 비트스트림으로부터 회전 정보 이외에 360도 이미지의 회전 변화량 정보가 더 획득될 수 있다. 회전 변화량 정보는 픽처 파라미터 세트로부터 획득될 수 있다.
일 실시예에 따르면, 360도 이미지의 회전 여부에 대한 정보가 더 획득될 수 있고, 360도 이미지의 회전 여부에 대한 정보에 따라, 회전 정보의 획득 여부가 결정될 수 있다.
단계 S950에서, 회전 정보에 기초하여 360도 영상이 회전되어 원본 360도 이미지가 복원된다. 일 실시예에 따르면, 회전 정보 및 회전 변화량 정보 모두에 기초하여 360도 영상이 회전될 수 있다.
이하, 도 10 내지 도 23을 참조하여 일 실시예에 따른 영상의 데이터 단위를 결정하는 방법이 설명된다.
도 10은 일 실시예에 따라 영상 복호화 장치(200)가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 블록 형태 정보를 이용하여 부호화 단위의 형태를 결정할 수 있고, 분할 형태 정보를 이용하여 부호화 단위가 어떤 형태로 분할되는지를 결정할 수 있다. 즉, 영상 복호화 장치(200)가 이용하는 블록 형태 정보가 어떤 블록 형태를 나타내는지에 따라 분할 형태 정보가 나타내는 부호화 단위의 분할 방법이 결정될 수 있다.
일 실시예에 따라, 영상 복호화 장치(200)는 현재 부호화 단위가 정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 예를 들어 영상 복호화 장치(200)는 분할 형태 정보에 따라 정사각형의 부호화 단위를 분할하지 않을지, 수직으로 분할할지, 수평으로 분할할지, 4개의 부호화 단위로 분할할지 등을 결정할 수 있다. 도 10을 참조하면, 현재 부호화 단위(1000)의 블록 형태 정보가 정사각형의 형태를 나타내는 경우, 복호화부(1030)는 분할되지 않음을 나타내는 분할 형태 정보에 따라 현재 부호화 단위(1000)와 동일한 크기를 가지는 부호화 단위(1010a)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 정보에 기초하여 분할된 부호화 단위(1010b, 1010c, 1010d 등)를 결정할 수 있다.
도 10을 참조하면 영상 복호화 장치(200)는 일 실시예에 따라 수직방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(1000)를 수직방향으로 분할한 두개의 부호화 단위(1010b)를 결정할 수 있다. 영상 복호화 장치(200)는 수평방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(1000)를 수평방향으로 분할한 두개의 부호화 단위(1010c)를 결정할 수 있다. 영상 복호화 장치(200)는 수직방향 및 수평방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(1000)를 수직방향 및 수평방향으로 분할한 네개의 부호화 단위(1010d)를 결정할 수 있다. 다만 정사각형의 부호화 단위가 분할될 수 있는 분할 형태는 상술한 형태로 한정하여 해석되어서는 안되고, 분할 형태 정보가 나타낼 수 있는 다양한 형태가 포함될 수 있다. 정사각형의 부호화 단위가 분할되는 소정의 분할 형태들은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
도 11은 일 실시예에 따라 영상 복호화 장치(200)가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위가 비-정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 영상 복호화 장치(200)는 분할 형태 정보에 따라 비-정사각형의 현재 부호화 단위를 분할하지 않을지 소정의 방법으로 분할할지 여부를 결정할 수 있다. 도 11을 참조하면, 현재 부호화 단위(1100 또는 1150)의 블록 형태 정보가 비-정사각형의 형태를 나타내는 경우, 영상 복호화 장치(200)는 분할되지 않음을 나타내는 분할 형태 정보에 따라 현재 부호화 단위(1100 또는 1150)와 동일한 크기를 가지는 부호화 단위(1110 또는 1160)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 정보에 따라 기초하여 분할된 부호화 단위(1120a, 1120b, 1130a, 1130b, 1130c, 1170a, 1170b, 1180a, 1180b, 1180c)를 결정할 수 있다. 비-정사각형의 부호화 단위가 분할되는 소정의 분할 방법은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
일 실시예에 따라 영상 복호화 장치(200)는 분할 형태 정보를 이용하여 부호화 단위가 분할되는 형태를 결정할 수 있고, 이 경우 분할 형태 정보는 부호화 단위가 분할되어 생성되는 적어도 하나의 부호화 단위의 개수를 나타낼 수 있다. 도 11를 참조하면 분할 형태 정보가 두개의 부호화 단위로 현재 부호화 단위(1100 또는 1150)가 분할되는 것을 나타내는 경우, 영상 복호화 장치(200)는 분할 형태 정보에 기초하여 현재 부호화 단위(1100 또는 1150)를 분할하여 현재 부호화 단위에 포함되는 두개의 부호화 단위(1120a, 11420b, 또는 1170a, 1170b)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)가 분할 형태 정보에 기초하여 비-정사각형의 형태의 현재 부호화 단위(1100 또는 1150)를 분할하는 경우, 비-정사각형의 현재 부호화 단위(1100 또는 1150)의 긴 변의 위치를 고려하여 현재 부호화 단위를 분할할 수 있다. 예를 들면, 영상 복호화 장치(200)는 현재 부호화 단위(1100 또는 1150)의 형태를 고려하여 현재 부호화 단위(1100 또는 1150)의 긴 변을 분할하는 방향으로 현재 부호화 단위(1100 또는 1150)를 분할하여 복수개의 부호화 단위를 결정할 수 있다.
일 실시예에 따라, 분할 형태 정보가 홀수개의 블록으로 부호화 단위를 분할하는 것을 나타내는 경우, 영상 복호화 장치(200)는 현재 부호화 단위(1100 또는 1150)에 포함되는 홀수개의 부호화 단위를 결정할 수 있다. 예를 들면, 분할 형태 정보가 3개의 부호화 단위로 현재 부호화 단위(1100 또는 1150)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(200)는 현재 부호화 단위(1100 또는 1150)를 3개의 부호화 단위(1130a, 1130b, 1130c, 1180a, 1180b, 1180c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위(1100 또는 1150)에 포함되는 홀수개의 부호화 단위를 결정할 수 있으며, 결정된 부호화 단위들의 크기 모두가 동일하지는 않을 수 있다. 예를 들면, 결정된 홀수개의 부호화 단위(1130a, 1130b, 1130c, 1180a, 1180b, 1180c) 중 소정의 부호화 단위(1130b 또는 1180b)의 크기는 다른 부호화 단위(1130a, 1130c, 1180a, 1180c)들과는 다른 크기를 가질 수도 있다. 즉, 현재 부호화 단위(1100 또는 1150)가 분할되어 결정될 수 있는 부호화 단위는 복수의 종류의 크기를 가질 수 있다.
일 실시예에 따라 분할 형태 정보가 홀수개의 블록으로 부호화 단위가 분할되는 것을 나타내는 경우, 영상 복호화 장치(200)는 현재 부호화 단위(1100 또는 1150)에 포함되는 홀수개의 부호화 단위를 결정할 수 있고, 나아가 영상 복호화 장치(200)는 분할하여 생성되는 홀수개의 부호화 단위들 중 적어도 하나의 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 도 11을 참조하면 영상 복호화 장치(200)는 현재 부호화 단위(1100 또는 1150)가 분할되어 생성된 3개의 부호화 단위(1130a, 1130b, 1130c, 1180a, 1180b, 1180c)들 중 중앙에 위치하는 부호화 단위(1130b, 1180b)에 대한 복호화 과정을 다른 부호화 단위(1130a, 1130c, 1180a, 1180c)와 다르게 할 수 있다. 예를 들면, 영상 복호화 장치(200)는 중앙에 위치하는 부호화 단위(1130b, 1180b)에 대하여는 다른 부호화 단위(1130a, 1130c, 1180a, 1180c)와 달리 더 이상 분할되지 않도록 제한하거나, 소정의 횟수만큼만 분할되도록 제한할 수 있다.
도 12는 일 실시예에 따라 영상 복호화 장치(200)가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(1200)를 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 일 실시예에 따라 분할 형태 정보가 수평 방향으로 제1 부호화 단위(1200)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(200)는 제1 부호화 단위(1200)를 수평 방향으로 분할하여 제2 부호화 단위(1210)를 결정할 수 있다. 일 실시예에 따라 이용되는 제1 부호화 단위, 제2 부호화 단위, 제3 부호화 단위는 부호화 단위 간의 분할 전후 관계를 이해하기 위해 이용된 용어이다. 예를 들면, 제1 부호화 단위를 분할하면 제2 부호화 단위가 결정될 수 있고, 제2 부호화 단위가 분할되면 제3 부호화 단위가 결정될 수 있다. 이하에서는 이용되는 제1 부호화 단위, 제2 부호화 단위 및 제3 부호화 단위의 관계는 상술한 특징에 따르는 것으로 이해될 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 결정된 제2 부호화 단위(1210)를 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 도 12를 참조하면 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1200)를 분할하여 결정된 비-정사각형의 형태의 제2 부호화 단위(1210)를 적어도 하나의 제3 부호화 단위(1220a, 1220b, 1220c, 1220d 등)로 분할하거나 제2 부호화 단위(1210)를 분할하지 않을 수 있다. 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 획득할 수 있고 영상 복호화 장치(200)는 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1200)를 분할하여 다양한 형태의 복수개의 제2 부호화 단위(예를 들면, 1210)를 분할할 수 있으며, 제2 부호화 단위(1210)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1200)가 분할된 방식에 따라 분할될 수 있다. 일 실시예에 따라, 제1 부호화 단위(1200)가 제1 부호화 단위(1200)에 대한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제2 부호화 단위(1210)로 분할된 경우, 제2 부호화 단위(1210) 역시 제2 부호화 단위(1210)에 대한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제3 부호화 단위(예를 들면, 1220a, 1220b, 1220c, 1220d 등)으로 분할될 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 관련된 분할 형태 정보 및 블록 형태 정보 중 적어도 하나에 기초하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할에 이용될 수 있는 방법에 대하여는 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제3 부호화 단위(1220a, 1220b, 1220c, 1220d 등) 각각을 부호화 단위들로 분할하거나 제2 부호화 단위(1210)를 분할하지 않는 것으로 결정할 수 있다. 영상 복호화 장치(200)는 일 실시예에 따라 비-정사각형 형태의 제2 부호화 단위(1210)를 홀수개의 제3 부호화 단위(1220b, 1220c, 1220d)로 분할할 수 있다. 영상 복호화 장치(200)는 홀수개의 제3 부호화 단위(1220b, 1220c, 1220d) 중 소정의 제3 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 예를 들면 영상 복호화 장치(200)는 홀수개의 제3 부호화 단위(1220b, 1220c, 1220d) 중 가운데에 위치하는 부호화 단위(1220c)에 대하여는 더 이상 분할되지 않는 것으로 제한하거나 또는 설정 가능한 횟수로 분할되어야 하는 것으로 제한할 수 있다. 도 12를 참조하면, 영상 복호화 장치(200)는 비-정사각형 형태의 제2 부호화 단위(1210)에 포함되는 홀수개의 제3 부호화 단위(1220b, 1220c, 1220d)들 중 가운데에 위치하는 부호화 단위(1220c)는 더 이상 분할되지 않거나, 소정의 분할 형태로 분할(예를 들면 4개의 부호화 단위로만 분할하거나 제2 부호화 단위(1210)가 분할된 형태에 대응하는 형태로 분할)되는 것으로 제한하거나, 소정의 횟수로만 분할(예를 들면 n회만 분할, n>0)하는 것으로 제한할 수 있다. 다만 가운데에 위치한 부호화 단위(1220c)에 대한 상기 제한은 단순한 실시예들에 불과하므로 상술한 실시예들로 제한되어 해석되어서는 안되고, 가운데에 위치한 부호화 단위(1220c)가 다른 부호화 단위(1220b, 1220d)와 다르게 복호화 될 수 있는 다양한 제한들을 포함하는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위를 분할하기 위해 이용되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 현재 부호화 단위 내의 소정의 위치에서 획득할 수 있다.
도 13은 일 실시예에 따라 영상 복호화 장치(200)가 홀수개의 부호화 단위들 중 소정의 부호화 단위를 결정하기 위한 방법을 도시한다. 도 13을 참조하면, 현재 부호화 단위(1300)의 블록 형태 정보 및 분할 형태 정보 중 적어도 하나는 현재 부호화 단위(1300)에 포함되는 복수개의 샘플 중 소정 위치의 샘플(예를 들면, 가운데에 위치하는 샘플(1340))에서 획득될 수 있다. 다만 이러한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나가 획득될 수 있는 현재 부호화 단위(1300) 내의 소정 위치가 도 13에서 도시하는 가운데 위치로 한정하여 해석되어서는 안되고, 소정 위치에는 현재 부호화 단위(1300)내에 포함될 수 있는 다양한 위치(예를 들면, 최상단, 최하단, 좌측, 우측, 좌측상단, 좌측하단, 우측상단 또는 우측하단 등)가 포함될 수 있는 것으로 해석되어야 한다. 영상 복호화 장치(200)는 소정 위치로부터 획득되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 획득하여 현재 부호화 단위를 다양한 형태 및 크기의 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위가 소정의 개수의 부호화 단위들로 분할된 경우 그 중 하나의 부호화 단위를 선택할 수 있다. 복수개의 부호화 단위들 중 하나를 선택하기 위한 방법은 다양할 수 있으며, 이러한 방법들에 대한 설명은 이하의 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(200) 는 현재 부호화 단위를 복수개의 부호화 단위들로 분할하고, 소정 위치의 부호화 단위를 결정할 수 있다.
도 13은 일 실시예에 따라 영상 복호화 장치(200)가 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위한 방법을 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 홀수개의 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 홀수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 도 13을 참조하면, 영상 복호화 장치(200)는 현재 부호화 단위(1300)를 분할하여 홀수개의 부호화 단위들(1320a, 1320b, 1320c)을 결정할 수 있다. 영상 복호화 장치(200)는 홀수개의 부호화 단위들(1320a, 1320b, 1320c)의 위치에 대한 정보를 이용하여 가운데 부호화 단위(1320b)를 결정할 수 있다. 예를 들면 영상 복호화 장치(200)는 부호화 단위들(1320a, 1320b, 1320c)에 포함되는 소정의 샘플의 위치를 나타내는 정보에 기초하여 부호화 단위들(1320a, 1320b, 1320c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(1320b)를 결정할 수 있다. 구체적으로, 영상 복호화 장치(200)는 부호화 단위들(1320a, 1320b, 1320c)의 좌측 상단의 샘플(1330a, 1330b, 1330c)의 위치를 나타내는 정보에 기초하여 부호화 단위(1320a, 1320b, 1320c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(1320b)를 결정할 수 있다.
일 실시예에 따라 부호화 단위(1320a, 1320b, 1320c)에 각각 포함되는 좌측 상단의 샘플(1330a, 1330b, 1330c)의 위치를 나타내는 정보는 부호화 단위(1320a, 1320b, 1320c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 포함할 수 있다. 일 실시예에 따라 부호화 단위(1320a, 1320b, 1320c)에 각각 포함되는 좌측 상단의 샘플(1330a, 1330b, 1330c)의 위치를 나타내는 정보는 현재 부호화 단위(1300)에 포함되는 부호화단위(1320a, 1320b, 1320c)들의 너비 또는 높이를 나타내는 정보를 포함할 수 있고, 이러한 너비 또는 높이는 부호화 단위(1320a, 1320b, 1320c)의 픽쳐 내에서의 좌표 간의 차이를 나타내는 정보에 해당할 수 있다. 즉, 영상 복호화 장치(200)는 부호화 단위(1320a, 1320b, 1320c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 직접이용하거나 좌표간의 차이값에 대응하는 부호화 단위의 너비 또는 높이에 대한 정보를 이용함으로써 가운데에 위치하는 부호화 단위(1320b)를 결정할 수 있다.
일 실시예에 따라, 상단 부호화 단위(1320a)의 좌측 상단의 샘플(1330a)의 위치를 나타내는 정보는 (xa, ya) 좌표를 나타낼 수 있고, 가운데 부호화 단위(1320b)의 좌측 상단의 샘플(1330b)의 위치를 나타내는 정보는 (xb, yb) 좌표를 나타낼 수 있고, 하단 부호화 단위(1320c)의 좌측 상단의 샘플(1330c)의 위치를 나타내는 정보는 (xc, yc) 좌표를 나타낼 수 있다. 영상 복호화 장치(200)는 부호화 단위(1320a, 1320b, 1320c)에 각각 포함되는 좌측 상단의 샘플(1330a, 1330b, 1330c)의 좌표를 이용하여 가운데 부호화 단위(1320b)를 결정할 수 있다. 예를 들면, 좌측 상단의 샘플(1330a, 1330b, 1330c)의 좌표를 오름차순 또는 내림차순으로 정렬하였을 때, 가운데에 위치하는 샘플(1330b)의 좌표인 (xb, yb)를 포함하는 부호화 단위(1320b)를 현재 부호화 단위(1300)가 분할되어 결정된 부호화 단위(1320a, 1320b, 1320c) 중 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 좌측 상단의 샘플(1330a, 1330b, 1330c)의 위치를 나타내는 좌표는 픽쳐 내에서의 절대적인 위치를 나타내는 좌표를 나타낼 수 있고, 나아가 상단 부호화 단위(1320a)의 좌측 상단의 샘플(1330a)의 위치를 기준으로, 가운데 부호화 단위(1320b)의 좌측 상단의 샘플(1330b)의 상대적 위치를 나타내는 정보인 (dxb, dyb)좌표, 하단 부호화 단위(1320c)의 좌측 상단의 샘플(1330c)의 상대적 위치를 나타내는 정보인 (dxc, dyc)좌표를 이용할 수도 있다. 또한 부호화 단위에 포함되는 샘플의 위치를 나타내는 정보로서 해당 샘플의 좌표를 이용함으로써 소정 위치의 부호화 단위를 결정하는 방법이 상술한 방법으로 한정하여 해석되어서는 안되고, 샘플의 좌표를 이용할 수 있는 다양한 산술적 방법으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위(1300)를 복수개의 부호화 단위(1320a, 1320b, 1320c)로 분할할 수 있고, 부호화 단위(1320a, 1320b, 1320c)들 중 소정의 기준에 따라 부호화 단위를 선택할 수 있다. 예를 들면, 영상 복호화 장치(200)는 부호화 단위(1320a, 1320b, 1320c) 중 크기가 다른 부호화 단위(1320b)를 선택할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 상단 부호화 단위(1320a)의 좌측 상단의 샘플(1330a)의 위치를 나타내는 정보인 (xa, ya) 좌표, 가운데 부호화 단위(1320b)의 좌측 상단의 샘플(1330b)의 위치를 나타내는 정보인 (xb, yb) 좌표, 하단 부호화 단위(1320c)의 좌측 상단의 샘플(1330c)의 위치를 나타내는 정보인 (xc, yc) 좌표를 이용하여 부호화 단위(1320a, 1320b, 1320c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(200)는 부호화 단위(1320a, 1320b, 1320c)의 위치를 나타내는 좌표인 (xa, ya), (xb, yb), (xc, yc)를 이용하여 부호화 단위(1320a, 1320b, 1320c) 각각의 크기를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(200)는 상단 부호화 단위(1320a)의 너비를 xb-xa로 결정할 수 있고 높이를 yb-ya로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 가운데 부호화 단위(1320b)의 너비를 xc-xb로 결정할 수 있고 높이를 yc-yb로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 하단 부호화 단위의 너비 또는 높이는 현재 부호화 단위의 너비 또는 높이와 상단 부호화 단위(1320a) 및 가운데 부호화 단위(1320b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(200)는 결정된 부호화 단위(1320a, 1320b, 1320c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 13을 참조하면, 영상 복호화 장치(200)는 상단 부호화 단위(1320a) 및 하단 부호화 단위(1320c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(1320b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(200)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
다만 부호화 단위의 위치를 결정하기 위하여 고려하는 샘플의 위치는 상술한 좌측 상단으로 한정하여 해석되어서는 안되고 부호화 단위에 포함되는 임의의 샘플의 위치에 대한 정보가 이용될 수 있는 것으로 해석될 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위의 형태를 고려하여, 현재 부호화 단위가 분할되어 결정되는 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 선택할 수 있다. 예를 들면, 현재 부호화 단위가 너비가 높이보다 긴 비-정사각형 형태라면 영상 복호화 장치(200)는 수평 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(200)는 수평 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다. 현재 부호화 단위가 높이가 너비보다 긴 비-정사각형 형태라면 영상 복호화 장치(200)는 수직 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(200)는 수직 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 짝수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 짝수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 영상 복호화 장치(200)는 현재 부호화 단위를 분할하여 짝수개의 부호화 단위들을 결정할 수 있고 짝수개의 부호화 단위들의 위치에 대한 정보를 이용하여 소정 위치의 부호화 단위를 결정할 수 있다. 이에 대한 구체적인 과정은 도 13에서 상술한 홀수개의 부호화 단위들 중 소정 위치(예를 들면, 가운데 위치)의 부호화 단위를 결정하는 과정에 대응하는 과정일 수 있으므로 생략하도록 한다.
일 실시예에 따라, 비-정사각형 형태의 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 분할 과정에서 소정 위치의 부호화 단위에 대한 소정의 정보를 이용할 수 있다. 예를 들면 영상 복호화 장치(200)는 현재 부호화 단위가 복수개로 분할된 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 분할 과정에서 가운데 부호화 단위에 포함된 샘플에 저장된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다.
도 13을 참조하면 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 현재 부호화 단위(1300)를 복수개의 부호화 단위들(1320a, 1320b, 1320c)로 분할할 수 있으며, 복수개의 부호화 단위들(1320a, 1320b, 1320c) 중 가운데에 위치하는 부호화 단위(1320b)를 결정할 수 있다. 나아가 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나가 획득되는 위치를 고려하여, 가운데에 위치하는 부호화 단위(1320b)를 결정할 수 있다. 즉, 현재 부호화 단위(1300)의 블록 형태 정보 및 분할 형태 정보 중 적어도 하나는 현재 부호화 단위(1300)의 가운데에 위치하는 샘플(1340)에서 획득될 수 있으며, 상기 블록 형태 정보 및 상기 분할 형태 정보 중 적어도 하나에 기초하여 현재 부호화 단위(1300)가 복수개의 부호화 단위들(1320a, 1320b, 1320c)로 분할된 경우 상기 샘플(1340)을 포함하는 부호화 단위(1320b)를 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 가운데에 위치하는 부호화 단위로 결정하기 위해 이용되는 정보가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나로 한정하여 해석되어서는 안되고, 다양한 종류의 정보가 가운데에 위치하는 부호화 단위를 결정하는 과정에서 이용될 수 있다.
일 실시예에 따라 소정 위치의 부호화 단위를 식별하기 위한 소정의 정보는, 결정하려는 부호화 단위에 포함되는 소정의 샘플에서 획득될 수 있다. 도 13을 참조하면, 영상 복호화 장치(200)는 현재 부호화 단위(1300)가 분할되어 결정된 복수개의 부호화 단위들(1320a, 1320b, 1320c) 중 소정 위치의 부호화 단위(예를 들면, 복수개로 분할된 부호화 단위 중 가운데에 위치하는 부호화 단위)를 결정하기 위하여 현재 부호화 단위(1300) 내의 소정 위치의 샘플(예를 들면, 현재 부호화 단위(1300)의 가운데에 위치하는 샘플)에서 획득되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다. . 즉, 영상 복호화 장치(200)는 현재 부호화 단위(1300)의 블록 블록 형태를 고려하여 상기 소정 위치의 샘플을 결정할 수 있고, 영상 복호화 장치(200)는 현재 부호화 단위(1300)가 분할되어 결정되는 복수개의 부호화 단위(1320a, 1320b, 1320c)들 중, 소정의 정보(예를 들면, 블록 형태 정보 및 분할 형태 정보 중 적어도 하나)가 획득될 수 있는 샘플이 포함된 부호화 단위(1320b)를 결정하여 소정의 제한을 둘 수 있다. 도 13을 참조하면 일 실시예에 따라 영상 복호화 장치(200)는 소정의 정보가 획득될 수 있는 샘플로서 현재 부호화 단위(1300)의 가운데에 위치하는 샘플(1340)을 결정할 수 있고, 영상 복호화 장치(200)는 이러한 샘플(1340)이 포함되는 부호화 단위(1320b)를 복호화 과정에서의 소정의 제한을 둘 수 있다. 다만 소정의 정보가 획득될 수 있는 샘플의 위치는 상술한 위치로 한정하여 해석되어서는 안되고, 제한을 두기 위해 결정하려는 부호화 단위(1320b)에 포함되는 임의의 위치의 샘플들로 해석될 수 있다.
일 실시예에 따라 소정의 정보가 획득될 수 있는 샘플의 위치는 현재 부호화 단위(1300)의 형태에 따라 결정될 수 있다. 일 실시예에 따라 블록 형태 정보는 현재 부호화 단위의 형태가 정사각형인지 또는 비-정사각형인지 여부를 결정할 수 있고, 형태에 따라 소정의 정보가 획득될 수 있는 샘플의 위치를 결정할 수 있다. 예를 들면, 영상 복호화 장치(200)는 현재 부호화 단위의 너비에 대한 정보 및 높이에 대한 정보 중 적어도 하나를 이용하여 현재 부호화 단위의 너비 및 높이 중 적어도 하나를 반으로 분할하는 경계 상에 위치하는 샘플을 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다. 또다른 예를 들면, 영상 복호화 장치(200)는 현재 부호화 단위에 관련된 블록 형태 정보가 비-정사각형 형태임을 나타내는 경우, 현재 부호화 단위의 긴 변을 반으로 분할하는 경계에 인접하는 샘플 중 하나를 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여, 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 부호화 단위에 포함된 소정 위치의 샘플에서 획득할 수 있고, 영상 복호화 장치(200)는 현재 부호화 단위가 분할되어 생성된 복수개의 부호화 단위들을 복수개의 부호화 단위 각각에 포함된 소정 위치의 샘플로부터 획득되는 분할 형태 정보 및 블록 형태 정보 중 적어도 하나를 이용하여 분할할 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 포함된 소정 위치의 샘플에서 획득되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할 과정에 대하여는 도 12를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정할 수 있고, 이러한 적어도 하나의 부호화 단위가 복호화되는 순서를 소정의 블록(예를 들면, 현재 부호화 단위)에 따라 결정할 수 있다.
도 14는 일 실시예에 따라 영상 복호화 장치(200)가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보에 따라 제1 부호화 단위(1400)를 수직 방향으로 분할하여 제2 부호화 단위(1410a, 1410b)를 결정하거나 제1 부호화 단위(1400)를 수평 방향으로 분할하여 제2 부호화 단위(1430a, 1430b)를 결정하거나 제1 부호화 단위(1400)를 수직 방향 및 수평 방향으로 분할하여 제2 부호화 단위(1450a, 1450b, 1450c, 1450d)를 결정할 수 있다.
도 14를 참조하면, 영상 복호화 장치(200)는 제1 부호화 단위(1400)를 수직 방향으로 분할하여 결정된 제2 부호화 단위(1410a, 1410b)를 수평 방향(1410c)으로 처리되도록 순서를 결정할 수 있다. 영상 복호화 장치(200)는 제1 부호화 단위(1400)를 수평 방향으로 분할하여 결정된 제2 부호화 단위(1430a, 1430b)의 처리 순서를 수직 방향(1430c)으로 결정할 수 있다. 영상 복호화 장치(200)는 제1 부호화 단위(1400)를 수직 방향 및 수평 방향으로 분할하여 결정된 제2 부호화 단위(1450a, 1450b, 1450c, 1450d)를 하나의 행에 위치하는 부호화 단위들이 처리된 후 다음 행에 위치하는 부호화 단위들이 처리되는 소정의 순서(예를 들면, 래스터 스캔 순서((raster scan order) 또는 z 스캔 순서(z scan order)(1450e) 등)에 따라 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 부호화 단위들을 재귀적으로 분할할 수 있다. 도 14를 참조하면, 영상 복호화 장치(200)는 제1 부호화 단위(1400)를 분할하여 복수개의 부호화 단위들(1410a, 1410b, 1430a, 1430b, 1450a, 1450b, 1450c, 1450d)을 결정할 수 있고, 결정된 복수개의 부호화 단위들(1410a, 1410b, 1430a, 1430b, 1450a, 1450b, 1450c, 1450d) 각각을 재귀적으로 분할할 수 있다. 복수개의 부호화 단위들(1410a, 1410b, 1430a, 1430b, 1450a, 1450b, 1450c, 1450d)을 분할하는 방법은 제1 부호화 단위(1400)를 분할하는 방법에 대응하는 방법이 될 수 있다. 이에 따라 복수개의 부호화 단위들(1410a, 1410b, 1430a, 1430b, 1450a, 1450b, 1450c, 1450d)은 각각 독립적으로 복수개의 부호화 단위들로 분할될 수 있다. 도 14를 참조하면 영상 복호화 장치(200)는 제1 부호화 단위(1400)를 수직 방향으로 분할하여 제2 부호화 단위(1410a, 1410b)를 결정할 수 있고, 나아가 제2 부호화 단위(1410a, 1410b) 각각을 독립적으로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 좌측의 제2 부호화 단위(1410a)를 수평 방향으로 분할하여 제3 부호화 단위(1420a, 1420b)로 분할할 수 있고, 우측의 제2 부호화 단위(1410b)는 분할하지 않을 수 있다.
일 실시예에 따라 부호화 단위들의 처리 순서는 부호화 단위의 분할 과정에 기초하여 결정될 수 있다. 다시 말해, 분할된 부호화 단위들의 처리 순서는 분할되기 직전의 부호화 단위들의 처리 순서에 기초하여 결정될 수 있다. 영상 복호화 장치(200)는 좌측의 제2 부호화 단위(1410a)가 분할되어 결정된 제3 부호화 단위(1420a, 1420b)가 처리되는 순서를 우측의 제2 부호화 단위(1410b)와 독립적으로 결정할 수 있다. 좌측의 제2 부호화 단위(1410a)가 수평 방향으로 분할되어 제3 부호화 단위(1420a, 1420b)가 결정되었으므로 제3 부호화 단위(1420a, 1420b)는 수직 방향(1420c)으로 처리될 수 있다. 또한 좌측의 제2 부호화 단위(1410a) 및 우측의 제2 부호화 단위(1410b)가 처리되는 순서는 수평 방향(1410c)에 해당하므로, 좌측의 제2 부호화 단위(1410a)에 포함되는 제3 부호화 단위(1420a, 1420b)가 수직 방향(1420c)으로 처리된 후에 우측 부호화 단위(1410b)가 처리될 수 있다. 상술한 내용은 부호화 단위들이 각각 분할 전의 부호화 단위에 따라 처리 순서가 결정되는 과정을 설명하기 위한 것이므로, 상술한 실시예에 한정하여 해석되어서는 안되고, 다양한 형태로 분할되어 결정되는 부호화 단위들이 소정의 순서에 따라 독립적으로 처리될 수 있는 다양한 방법으로 이용되는 것으로 해석되어야 한다.
도 15는 일 실시예에 따라 영상 복호화 장치(200)가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 획득된 블록 형태 정보 및 분할 형태 정보에 기초하여 현재 부호화 단위가 홀수개의 부호화 단위들로 분할되는 것을 결정할 수 있다. 도 15를 참조하면 정사각형 형태의 제1 부호화 단위(1500)가 비-정사각형 형태의 제2 부호화 단위(1510a, 1510b)로 분할될 수 있고, 제2 부호화 단위(1510a, 1510b)는 각각 독립적으로 제3 부호화 단위(1520a, 1520b, 1520c, 1520d, 1520e)로 분할될 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 제2 부호화 단위 중 좌측 부호화 단위(1510a)는 수평 방향으로 분할하여 복수개의 제3 부호화 단위(1520a, 1520b)를 결정할 수 있고, 우측 부호화 단위(1510b)는 홀수개의 제3 부호화 단위(1520c, 1520d, 1520e)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 제3 부호화 단위들(1520a, 1520b, 1520c, 1520d, 1520e)이 소정의 순서로 처리될 수 있는지 여부를 판단하여 홀수개로 분할된 부호화 단위가 존재하는지를 결정할 수 있다. 도 15를 참조하면, 영상 복호화 장치(200)는 제1 부호화 단위(1500)를 재귀적으로 분할하여 제3 부호화 단위(1520a, 1520b, 1520c, 1520d, 1520e)를 결정할 수 있다. 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여, 제1 부호화 단위(1500), 제2 부호화 단위(1510a, 1510b) 또는 제3 부호화 단위(1520a, 1520b, 1520c, 1520d, 1520e)가 분할되는 형태 중 홀수개의 부호화 단위로 분할되는지 여부를 결정할 수 있다. 예를 들면, 제2 부호화 단위(1510a, 1510b) 중 우측에 위치하는 부호화 단위가 홀수개의 제3 부호화 단위(1520c, 1520d, 1520e)로 분할될 수 있다. 제1 부호화 단위(1500)에 포함되는 복수개의 부호화 단위들이 처리되는 순서는 소정의 순서(예를 들면, z-스캔 순서(z-scan order)(1530))가 될 수 있고, 영상 복호화 장치(200)는 우측 제2 부호화 단위(1510b)가 홀수개로 분할되어 결정된 제3 부호화 단위(1520c, 1520d, 1520e)가 상기 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 판단할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 제1 부호화 단위(1500)에 포함되는 제3 부호화 단위(1520a, 1520b, 1520c, 1520d, 1520e)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제3 부호화 단위(1520a, 1520b, 1520c, 1520d, 1520e)의 경계에 따라 제2 부호화 단위(1510a, 1510b)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 예를 들면 비-정사각형 형태의 좌측 제2 부호화 단위(1510a)의 높이를 반으로 분할하여 결정되는 제3 부호화 단위(1520a, 1520b)는 조건을 만족하지만, 우측 제2 부호화 단위(1510b)를 3개의 부호화 단위로 분할하여 결정되는 제3 부호화 단위(1520c, 1520d, 1520e)들의 경계가 우측 제2 부호화 단위(1510b)의 너비 또는 높이를 반으로 분할하지 못하므로 제3 부호화 단위(1520c, 1520d, 1520e)는 조건을 만족하지 못하는 것으로 결정될 수 있고, 영상 복호화 장치(200)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 우측 제2 부호화 단위(1510b)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
도 16은 일 실시예에 따라 영상 복호화 장치(200)가 제1 부호화 단위(1600)를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다. 일 실시예에 따라 영상 복호화 장치(200)는 수신부(210)를 통해 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1600)를 분할할 수 있다. 정사각형 형태의 제1 부호화 단위(1600)는 4개의 정사각형 형태를 가지는 부호화 단위로 분할되거나 또는 비-정사각형 형태의 복수개의 부호화 단위로 분할할 수 있다. 예를 들면 도 16을 참조하면, 블록 형태 정보가 제1 부호화 단위(1600)는 정사각형임을 나타내고 분할 형태 정보가 비-정사각형의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(200)는 제1 부호화 단위(1600)를 복수개의 비-정사각형의 부호화 단위들로 분할할 수 있다. 구체적으로, 분할 형태 정보가 제1 부호화 단위(1600)를 수평 방향 또는 수직 방향으로 분할하여 홀수개의 부호화 단위를 결정하는 것을 나타내는 경우, 영상 복호화 장치(200)는 정사각형 형태의 제1 부호화 단위(1600)을 홀수개의 부호화 단위들로서 수직 방향으로 분할되어 결정된 제2 부호화 단위(1610a, 1610b, 1610c) 또는 수평 방향으로 분할되어 결정된 제2 부호화 단위(1620a, 1620b, 1620c)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 제1 부호화 단위(1600)에 포함되는 제2 부호화 단위(1610a, 1610b, 1610c, 1620a, 1620b, 1620c)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제2 부호화 단위(1610a, 1610b, 1610c, 1620a, 1620b, 1620c)의 경계에 따라 제1 부호화 단위(1600)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 도 16를 참조하면 정사각형 형태의 제1 부호화 단위(1600)를 수직 방향으로 분할하여 결정되는 제2 부호화 단위(1610a, 1610b, 1610c)들의 경계가 제1 부호화 단위(1600)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(1600)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 또한 정사각형 형태의 제1 부호화 단위(1600)를 수평 방향으로 분할하여 결정되는 제2 부호화 단위(1620a, 1620b, 1620c)들의 경계가 제1 부호화 단위(1600)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(1600)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(200)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 제1 부호화 단위(1600)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라, 영상 복호화 장치(200)는 제1 부호화 단위를 분할하여 다양한 형태의 부호화 단위들을 결정할 수 있다.
도 16을 참조하면, 영상 복호화 장치(200)는 정사각형 형태의 제1 부호화 단위(1600), 비-정사각형 형태의 제1 부호화 단위(1630 또는 1650)를 다양한 형태의 부호화 단위들로 분할할 수 있다.
도 17은 일 실시예에 따라 영상 복호화 장치(200)가 제1 부호화 단위(1700)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 수신부(210)를 통해 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(1700)를 비-정사각형 형태의 제2 부호화 단위(1710a, 1710b, 1720a, 1720b)로 분할하는 것으로 결정할 수 있다. 제2 부호화 단위(1710a, 1710b, 1720a, 1720b)는 독립적으로 분할될 수 있다. 이에 따라 영상 복호화 장치(200)는 제2 부호화 단위(1710a, 1710b, 1720a, 1720b) 각각에 관련된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 복수개의 부호화 단위로 분할하거나 분할하지 않는 것을 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 수직 방향으로 제1 부호화 단위(1700)가 분할되어 결정된 비-정사각형 형태의 좌측 제2 부호화 단위(1710a)를 수평 방향으로 분할하여 제3 부호화 단위(1712a, 1712b)를 결정할 수 있다. 다만 영상 복호화 장치(200)는 좌측 제2 부호화 단위(1710a)를 수평 방향으로 분할한 경우, 우측 제2 부호화 단위(1710b)는 좌측 제2 부호화 단위(1710a)가 분할된 방향과 동일하게 수평 방향으로 분할될 수 없도록 제한할 수 있다. 만일 우측 제2 부호화 단위(1710b)가 동일한 방향으로 분할되어 제3 부호화 단위(1714a, 1714b)가 결정된 경우, 좌측 제2 부호화 단위(1710a) 및 우측 제2 부호화 단위(1710b)가 수평 방향으로 각각 독립적으로 분할됨으로써 제3 부호화 단위(1712a, 1712b, 1714a, 1714b)가 결정될 수 있다. 하지만 이는 영상 복호화 장치(200)가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1700)를 4개의 정사각형 형태의 제2 부호화 단위(1730a, 1730b, 1730c, 1730d)로 분할한 것과 동일한 결과이며 이는 영상 복호화 측면에서 비효율적일 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 수평 방향으로 제1 부호화 단위(11300)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1720a 또는 1720b)를 수직 방향으로 분할하여 제3 부호화 단위(1722a, 1722b, 1724a, 1724b)를 결정할 수 있다. 다만 영상 복호화 장치(200)는 제2 부호화 단위 중 하나(예를 들면 상단 제2 부호화 단위(1720a))를 수직 방향으로 분할한 경우, 상술한 이유에 따라 다른 제2 부호화 단위(예를 들면 하단 부호화 단위(1720b))는 상단 제2 부호화 단위(1720a)가 분할된 방향과 동일하게 수직 방향으로 분할될 수 없도록 제한할 수 있다.
도 18은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치(200)가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1800)를 분할하여 제2 부호화 단위(1810a, 1810b, 1820a, 1820b 등)를 결정할 수 있다. 분할 형태 정보에는 부호화 단위가 분할될 수 있는 다양한 형태에 대한 정보가 포함될 수 있으나, 다양한 형태에 대한 정보에는 정사각형 형태의 4개의 부호화 단위로 분할하기 위한 정보가 포함될 수 없는 경우가 있다. 이러한 분할 형태 정보에 따르면, 영상 복호화 장치(200)는 정사각형 형태의 제1 부호화 단위(1800)를 4개의 정사각형 형태의 제2 부호화 단위(1830a, 1830b, 1830c, 1830d)로 분할하지 못한다. 분할 형태 정보에 기초하여 영상 복호화 장치(200)는 비-정사각형 형태의 제2 부호화 단위(1810a, 1810b, 1820a, 1820b 등)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 비-정사각형 형태의 제2 부호화 단위(1810a, 1810b, 1820a, 1820b 등)를 각각 독립적으로 분할할 수 있다. 재귀적인 방법을 통해 제2 부호화 단위(1810a, 1810b, 1820a, 1820b 등) 각각이 소정의 순서대로 분할될 수 있으며, 이는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1800)가 분할되는 방법에 대응하는 분할 방법일 수 있다.
예를 들면 영상 복호화 장치(200)는 좌측 제2 부호화 단위(1810a)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1812a, 1812b)를 결정할 수 있고, 우측 제2 부호화 단위(1810b)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1814a, 1814b)를 결정할 수 있다. 나아가 영상 복호화 장치(200)는 좌측 제2 부호화 단위(1810a) 및 우측 제2 부호화 단위(1810b) 모두 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1816a, 1816b, 1816c, 1816d)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1800)가 4개의 정사각형 형태의 제2 부호화 단위(1830a, 1830b, 1830c, 1830d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
또 다른 예를 들면 영상 복호화 장치(200)는 상단 제2 부호화 단위(1820a)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1822a, 1822b)를 결정할 수 있고, 하단 제2 부호화 단위(1820b)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1824a, 1824b)를 결정할 수 있다. 나아가 영상 복호화 장치(200)는 상단 제2 부호화 단위(1820a) 및 하단 제2 부호화 단위(1820b) 모두 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1822a, 1822b, 1824a, 1824b)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1800)가 4개의 정사각형 형태의 제2 부호화 단위(1830a, 1830b, 1830c, 1830d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
도 19는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
일 실시예에 따라 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보에 기초하여 제1 부호화 단위(1900)를 분할할 수 있다. 블록 형태 정보가 정사각형 형태를 나타내고, 분할 형태 정보가 제1 부호화 단위(1900)가 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할됨을 나타내는 경우, 영상 복호화 장치(200)는 제1 부호화 단위(1900)를 분할하여 제2 부호화 단위(예를 들면, 1910a, 1910b, 1920a, 1920b, 1930a, 1930b, 1930c, 1930d 등)를 결정할 수 있다. 도 19를 참조하면 제1 부호화 단위1900)가 수평 방향 또는 수직 방향만으로 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1910a, 1910b, 1920a, 1920b)는 각각에 대한 블록 형태 정보 및 분할 형태 정보에 기초하여 독립적으로 분할될 수 있다. 예를 들면 영상 복호화 장치(200)는 제1 부호화 단위(1900)가 수직 방향으로 분할되어 생성된 제2 부호화 단위(1910a, 1910b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1916a, 1916b, 1916c, 1916d)를 결정할 수 있고, 제1 부호화 단위(1900)가 수평 방향으로 분할되어 생성된 제2 부호화 단위(1920a, 1920b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1926a, 1926b, 1926c, 1926d)를 결정할 수 있다. 이러한 제2 부호화 단위(1910a, 1910b, 1920a, 1920b)의 분할 과정은 도 17과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(200)는 소정의 순서에 따라 부호화 단위를 처리할 수 있다. 소정의 순서에 따른 부호화 단위의 처리에 대한 특징은 도 14과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다. 도 19를 참조하면 영상 복호화 장치(200)는 정사각형 형태의 제1 부호화 단위(1900)를 분할하여 4개의 정사각형 형태의 제3 부호화 단위(1916a, 1916b, 1916c, 1916d, 1926a, 1926b, 1926c, 1926d)를 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 제1 부호화 단위(1900)가 분할되는 형태에 따라 제3 부호화 단위(1916a, 1916b, 1916c, 1916d, 1926a, 1926b, 1926c, 1926d)의 처리 순서를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 수직 방향으로 분할되어 생성된 제2 부호화 단위(1910a, 1910b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1916a, 1916b, 1916c, 1916d)를 결정할 수 있고, 영상 복호화 장치(200)는 좌측 제2 부호화 단위(1910a)에 포함되는 제3 부호화 단위(1916a, 1916b)를 수직 방향으로 먼저 처리한 후, 우측 제2 부호화 단위(1910b)에 포함되는 제3 부호화 단위(1916c, 1916d)를 수직 방향으로 처리하는 순서(1917)에 따라 제3 부호화 단위(1916a, 1916b, 1916c, 1916d)를 처리할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 수평 방향으로 분할되어 생성된 제2 부호화 단위(1920a, 1920b)를 수직 방향으로 각각 분할하여 제3 부호화 단위(1926a, 1926b, 1926c, 1926d)를 결정할 수 있고, 영상 복호화 장치(200)는 상단 제2 부호화 단위(1920a)에 포함되는 제3 부호화 단위(1926a, 1926b)를 수평 방향으로 먼저 처리한 후, 하단 제2 부호화 단위(1920b)에 포함되는 제3 부호화 단위(1926c, 1926d)를 수평 방향으로 처리하는 순서(1927)에 따라 제3 부호화 단위(1926a, 1926b, 1926c, 1926d)를 처리할 수 있다.
도 19를 참조하면, 제2 부호화 단위(1910a, 1910b, 1920a, 1920b)가 각각 분할되어 정사각형 형태의 제3 부호화 단위(1916a, 1916b, 1916c, 1916d, 1926a, 1926b, 1926c, 1926d)가 결정될 수 있다. 수직 방향으로 분할되어 결정된 제2 부호화 단위(1910a, 1910b) 및 수평 방향으로 분할되어 결정된 제2 부호화 단위(1920a, 1920b)는 서로 다른 형태로 분할된 것이지만, 이후에 결정되는 제3 부호화 단위(1916a, 1916b, 1916c, 1916d, 1926a, 1926b, 1926c, 1926d)에 따르면 결국 동일한 형태의 부호화 단위들로 제1 부호화 단위(1900)가 분할된 결과가 된다. 이에 따라 영상 복호화 장치(200)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 상이한 과정을 통해 재귀적으로 부호화 단위를 분할함으로써 결과적으로 동일한 형태의 부호화 단위들을 결정하더라도, 동일한 형태로 결정된 복수개의 부호화 단위들을 서로 다른 순서로 처리할 수 있다.
도 20은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 부호화 단위의 심도를 소정의 기준에 따라 결정할 수 있다. 예를 들면 소정의 기준은 부호화 단위의 긴 변의 길이가 될 수 있다. 영상 복호화 장치(200)는 현재 부호화 단위의 긴 변의 길이가 분할되기 전의 부호화 단위의 긴 변의 길이보다 2n (n>0) 배로 분할된 경우, 현재 부호화 단위의 심도는 분할되기 전의 부호화 단위의 심도보다 n만큼 심도가 증가된 것으로 결정할 수 있다. 이하에서는 심도가 증가된 부호화 단위를 하위 심도의 부호화 단위로 표현하도록 한다.
도 20을 참조하면, 일 실시예에 따라 정사각형 형태임을 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는 ′0: SQUARE′를 나타낼 수 있음)에 기초하여 영상 복호화 장치(200)는 정사각형 형태인 제1 부호화 단위(2000)를 분할하여 하위 심도의 제2 부호화 단위(2002), 제3 부호화 단위(2004) 등을 결정할 수 있다. 정사각형 형태의 제1 부호화 단위(2000)의 크기를 2Nx2N이라고 한다면, 제1 부호화 단위(2000)의 너비 및 높이를 1/21배로 분할하여 결정된 제2 부호화 단위(2002)는 NxN의 크기를 가질 수 있다. 나아가 제2 부호화 단위(2002)의 너비 및 높이를 1/2크기로 분할하여 결정된 제3 부호화 단위(2004)는 N/2xN/2의 크기를 가질 수 있다. 이 경우 제3 부호화 단위(2004)의 너비 및 높이는 제1 부호화 단위(2000)의 1/22배에 해당한다. 제1 부호화 단위(2000)의 심도가 D인 경우 제1 부호화 단위(2000)의 너비 및 높이의 1/21배인 제2 부호화 단위(2002)의 심도는 D+1일 수 있고, 제1 부호화 단위(2000)의 너비 및 높이의 1/22배인 제3 부호화 단위(2004)의 심도는 D+2일 수 있다.
일 실시예에 따라 비-정사각형 형태를 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는, 높이가 너비보다 긴 비-정사각형임을 나타내는 ′1: NS_VER′ 또는 너비가 높이보다 긴 비-정사각형임을 나타내는 ′2: NS_HOR′를 나타낼 수 있음)에 기초하여, 영상 복호화 장치(200)는 비-정사각형 형태인 제1 부호화 단위(2010 또는 2020)를 분할하여 하위 심도의 제2 부호화 단위(2012 또는 2022), 제3 부호화 단위(2014 또는 2024) 등을 결정할 수 있다.
영상 복호화 장치(200)는 Nx2N 크기의 제1 부호화 단위(2010)의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 2002, 2012, 2022 등)를 결정할 수 있다. 즉, 영상 복호화 장치(200)는 제1 부호화 단위(2010)를 수평 방향으로 분할하여 NxN 크기의 제2 부호화 단위(2002) 또는 NxN/2 크기의 제2 부호화 단위(2022)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 N/2xN 크기의 제2 부호화 단위(2012)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(200)는 2NxN 크기의 제1 부호화 단위(2020) 의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 2002, 2012, 2022 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(200)는 제1 부호화 단위(2020)를 수직 방향으로 분할하여 NxN 크기의 제2 부호화 단위(2002) 또는 N/2xN 크기의 제2 부호화 단위(2012)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 NxN/2 크기의 제2 부호화 단위(2022)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(200)는 NxN 크기의 제2 부호화 단위(2002) 의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 2004, 2014, 2024 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(200)는 제2 부호화 단위(2002)를 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(2004)를 결정하거나 N/22xN/2 크기의 제3 부호화 단위(2014)를 결정하거나 N/2xN/22 크기의 제3 부호화 단위(2024)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 N/2xN 크기의 제2 부호화 단위(2012)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 2004, 2014, 2024 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(200)는 제2 부호화 단위(2012)를 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(2004) 또는 N/2xN/22 크기의 제3 부호화 단위(2024)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/22xN/2 크기의 제3 부호화 단위(2014)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 NxN/2 크기의 제2 부호화 단위(2014)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 2004, 2014, 2024 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(200)는 제2 부호화 단위(2012)를 수직 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(2004) 또는 N/22xN/2 크기의 제3 부호화 단위(2014)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/22크기의 제3 부호화 단위(2024)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 정사각형 형태의 부호화 단위(예를 들면, 2000, 2002, 2004)를 수평 방향 또는 수직 방향으로 분할할 수 있다. 예를 들면, 2Nx2N 크기의 제1 부호화 단위(2000)를 수직 방향으로 분할하여 Nx2N 크기의 제1 부호화 단위(2010)를 결정하거나 수평 방향으로 분할하여 2NxN 크기의 제1 부호화 단위(2020)를 결정할 수 있다. 일 실시예에 따라 심도가 부호화 단위의 가장 긴 변의 길이에 기초하여 결정되는 경우, 2Nx2N 크기의 제1 부호화 단위(2000, 2002 또는 2004)가 수평 방향 또는 수직 방향으로 분할되어 결정되는 부호화 단위의 심도는 제1 부호화 단위(2000, 2002 또는 2004)의 심도와 동일할 수 있다.
일 실시예에 따라 제3 부호화 단위(2014 또는 2024)의 너비 및 높이는 제1 부호화 단위(2010 또는 2020)의 1/22배에 해당할 수 있다. 제1 부호화 단위(2010 또는 2020)의 심도가 D인 경우 제1 부호화 단위(2010 또는 2020)의 너비 및 높이의 1/2배인 제2 부호화 단위(2012 또는 2014)의 심도는 D+1일 수 있고, 제1 부호화 단위(2010 또는 2020)의 너비 및 높이의 1/22배인 제3 부호화 단위(2014 또는 2024)의 심도는 D+2일 수 있다.
도 21은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 정사각형 형태의 제1 부호화 단위(2100)를 분할하여 다양한 형태의 제2 부호화 단위를 결정할 수 있다. 도 21를 참조하면, 영상 복호화 장치(200)는 분할 형태 정보에 따라 제1 부호화 단위(2100)를 수직 방향 및 수평 방향 중 적어도 하나의 방향으로 분할하여 제2 부호화 단위(2102a, 2102b, 2104a, 2104b, 2106a, 2106b, 2106c, 2106d)를 결정할 수 있다. 즉, 영상 복호화 장치(200)는 제1 부호화 단위(2100)에 대한 분할 형태 정보에 기초하여 제2 부호화 단위(2102a, 2102b, 2104a, 2104b, 2106a, 2106b, 2106c, 2106d)를 결정할 수 있다.
일 실시예에 따라 정사각형 형태의 제1 부호화 단위(2100)에 대한 분할 형태 정보에 따라 결정되는 제2 부호화 단위(2102a, 2102b, 2104a, 2104b, 2106a, 2106b, 2106c, 2106d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제1 부호화 단위(2100)의 한 변의 길이와 비-정사각형 형태의 제2 부호화 단위(2102a, 2102b, 2104a, 2104b)의 긴 변의 길이가 동일하므로, 제1 부호화 단위(2100)와 비-정사각형 형태의 제2 부호화 단위(2102a, 2102b, 2104a, 2104b)의 심도는 D로 동일하다고 볼 수 있다. 이에 반해 영상 복호화 장치(200)가 분할 형태 정보에 기초하여 제1 부호화 단위(2100)를 4개의 정사각형 형태의 제2 부호화 단위(2106a, 2106b, 2106c, 2106d)로 분할한 경우, 정사각형 형태의 제2 부호화 단위(2106a, 2106b, 2106c, 2106d)의 한 변의 길이는 제1 부호화 단위(2100)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(2106a, 2106b, 2106c, 2106d)의 심도는 제1 부호화 단위(2100)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 높이가 너비보다 긴 형태의 제1 부호화 단위(2110)를 분할 형태 정보에 따라 수평 방향으로 분할하여 복수개의 제2 부호화 단위(2112a, 2112b, 2114a, 2114b, 2114c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 너비가 높이보다 긴 형태의 제1 부호화 단위(2120)를 분할 형태 정보에 따라 수직 방향으로 분할하여 복수개의 제2 부호화 단위(2122a, 2122b, 2124a, 2124b, 2124c)로 분할할 수 있다.
일 실시예에 따라 비-정사각형 형태의 제1 부호화 단위(2110 또는 2120)에 대한 분할 형태 정보에 따라 결정되는 제2 부호화 단위(2112a, 2112b, 2114a, 2114b, 2116a, 2116b, 2116c, 2116d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제2 부호화 단위(2112a, 2112b)의 한 변의 길이는 높이가 너비보다 긴 비-정사각형 형태의 제1 부호화 단위(2110)의 한 변의 길이의 1/2배이므로, 정사각형 형태의 제2 부호화 단위(2102a, 2102b, 2104a, 2104b)의 심도는 비-정사각형 형태의 제1 부호화 단위(2110)의 심도 D보다 한 심도 하위의 심도인 D+1이다.
나아가 영상 복호화 장치(200)가 분할 형태 정보에 기초하여 비-정사각형 형태의 제1 부호화 단위(2110)를 홀수개의 제2 부호화 단위(2114a, 2114b, 2114c)로 분할할 수 있다. 홀수개의 제2 부호화 단위(2114a, 2114b, 2114c)는 비-정사각형 형태의 제2 부호화 단위(2114a, 2114c) 및 정사각형 형태의 제2 부호화 단위(2114b)를 포함할 수 있다. 이 경우 비-정사각형 형태의 제2 부호화 단위(2114a, 2114c)의 긴 변의 길이 및 정사각형 형태의 제2 부호화 단위(2114b)의 한 변의 길이는 제1 부호화 단위(2110)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(2114a, 2114b, 2114c)의 심도는 제1 부호화 단위(2110)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다. 영상 복호화 장치(200)는 제1 부호화 단위(2110)와 관련된 부호화 단위들의 심도를 결정하는 상기 방식에 대응하는 방식으로, 너비가 높이보다 긴 비-정사각형 형태의 제1 부호화 단위(2120)와 관련된 부호화 단위들의 심도를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 분할된 부호화 단위들의 구분을 위한 인덱스(PID)를 결정함에 있어서, 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 21를 참조하면, 홀수개로 분할된 부호화 단위들(2114a, 2114b, 2114c) 중 가운데에 위치하는 부호화 단위(2114b)는 다른 부호화 단위들(2114a, 2114c)와 너비는 동일하지만 높이가 다른 부호화 단위들(2114a, 2114c)의 높이의 두 배일 수 있다. 즉, 이 경우 가운데에 위치하는 부호화 단위(2114b)는 다른 부호화 단위들(2114a, 2114c)의 두 개를 포함할 수 있다. 따라서, 스캔 순서에 따라 가운데에 위치하는 부호화 단위(2114b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(2114c)는 인덱스가 2가 증가한 3일수 있다. 즉 인덱스의 값의 불연속성이 존재할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 이러한 분할된 부호화 단위들 간의 구분을 위한 인덱스의 불연속성의 존재 여부에 기초하여 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌지 여부를 결정할 수 있다.
(PID를 이용하여 tri-split 결정)
일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위로부터 분할되어 결정된 복수개의 부호화 단위들을 구분하기 위한 인덱스의 값에 기초하여 특정 분할 형태로 분할된 것인지를 결정할 수 있다. 도 21를 참조하면 영상 복호화 장치(200)는 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(2110)를 분할하여 짝수개의 부호화 단위(2112a, 2112b)를 결정하거나 홀수개의 부호화 단위(2114a, 2114b, 2114c)를 결정할 수 있다. 영상 복호화 장치(200)는 복수개의 부호화 단위 각각을 구분하기 위하여 각 부호화 단위를 나타내는 인덱스(PID)를 이용할 수 있다. 일 실시예에 따라 PID는 각각의 부호화 단위의 소정 위치의 샘플(예를 들면, 좌측 상단 샘플)에서 획득될 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 부호화 단위의 구분을 위한 인덱스를 이용하여 분할되어 결정된 부호화 단위들 중 소정 위치의 부호화 단위를 결정할 수 있다. 일 실시예에 따라 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(2110)에 대한 분할 형태 정보가 3개의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(200)는 제1 부호화 단위(2110)를 3개의 부호화 단위(2114a, 2114b, 2114c)로 분할할 수 있다. 영상 복호화 장치(200)는 3개의 부호화 단위(2114a, 2114b, 2114c) 각각에 대한 인덱스를 할당할 수 있다. 영상 복호화 장치(200)는 홀수개로 분할된 부호화 단위 중 가운데 부호화 단위를 결정하기 위하여 각 부호화 단위에 대한 인덱스를 비교할 수 있다. 영상 복호화 장치(200)는 부호화 단위들의 인덱스에 기초하여 인덱스들 중 가운데 값에 해당하는 인덱스를 갖는 부호화 단위(2114b)를, 제1 부호화 단위(2110)가 분할되어 결정된 부호화 단위 중 가운데 위치의 부호화 단위로서 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 분할된 부호화 단위들의 구분을 위한 인덱스를 결정함에 있어서, 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 21를 참조하면, 제1 부호화 단위(2110)가 분할되어 생성된 부호화 단위(2114b)는 다른 부호화 단위들(2114a, 2114c)와 너비는 동일하지만 높이가 다른 부호화 단위들(2114a, 2114c)의 높이의 두 배일 수 있다. 이 경우 가운데에 위치하는 부호화 단위(2114b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(2114c)는 인덱스가 2가 증가한 3일수 있다. 이러한 경우처럼 균일하게 인덱스가 증가하다가 증가폭이 달라지는 경우, 영상 복호화 장치(200)는 다른 부호화 단위들과 다른 크기를 가지는 부호화 단위를 포함하는 복수개의 부호화 단위로 분할된 것으로 결정할 수 있다, 일 실시예에 따라 분할 형태 정보가 홀수개의 부호화 단위로 분할됨을 나타내는 경우, 영상 복호화 장치(200)는 홀수개의 부호화 단위 중 소정 위치의 부호화 단위(예를 들면 가운데 부호화 단위)가 다른 부호화 단위와 크기가 다른 형태로 현재 부호화 단위를 분할할 수 있다. 이 경우 영상 복호화 장치(200)는 부호화 단위에 대한 인덱스(PID)를 이용하여 다른 크기를 가지는 가운데 부호화 단위를 결정할 수 있다. 다만 상술한 인덱스, 결정하고자 하는 소정 위치의 부호화 단위의 크기 또는 위치는 일 실시예를 설명하기 위해 특정한 것이므로 이에 한정하여 해석되어서는 안되며, 다양한 인덱스, 부호화 단위의 위치 및 크기가 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(200)는 부호화 단위의 재귀적인 분할이 시작되는 소정의 데이터 단위를 이용할 수 있다.
도 22는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
일 실시예에 따라 소정의 데이터 단위는 부호화 단위가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 재귀적으로 분할되기 시작하는 데이터 단위로 정의될 수 있다. 즉, 현재 픽쳐를 분할하는 복수개의 부호화 단위들이 결정되는 과정에서 이용되는 최상위 심도의 부호화 단위에 해당할 수 있다. 이하에서는 설명 상 편의를 위해 이러한 소정의 데이터 단위를 기준 데이터 단위라고 지칭하도록 한다.
일 실시예에 따라 기준 데이터 단위는 소정의 크기 및 형태를 나타낼 수 있다. 일 실시예에 따라, 기준 부호화 단위는 MxN의 샘플들을 포함할 수 있다. 여기서 M 및 N은 서로 동일할 수도 있으며, 2의 승수로 표현되는 정수일 수 있다. 즉, 기준 데이터 단위는 정사각형 또는 비-정사각형의 형태를 나타낼 수 있으며, 이후에 정수개의 부호화 단위로 분할될 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 픽쳐를 복수개의 기준 데이터 단위로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(200)는 현재 픽쳐를 분할하는 복수개의 기준 데이터 단위를 각각의 기준 데이터 단위에 대한 분할 정보를 이용하여 분할할 수 있다. 이러한 기준 데이터 단위의 분할 과정은 쿼드 트리(quad-tree)구조를 이용한 분할 과정에 대응될 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 픽쳐에 포함되는 기준 데이터 단위가 가질 수 있는 최소 크기를 미리 결정할 수 있다. 이에 따라, 영상 복호화 장치(200)는 최소 크기 이상의 크기를 갖는 다양한 크기의 기준 데이터 단위를 결정할 수 있고, 결정된 기준 데이터 단위를 기준으로 블록 형태 정보 및 분할 형태 정보를 이용하여 적어도 하나의 부호화 단위를 결정할 수 있다.
도 22를 참조하면, 영상 복호화 장치(200)는 정사각형 형태의 기준 부호화 단위(2200)를 이용할 수 있고, 또는 비-정사각형 형태의 기준 부호화 단위(2202)를 이용할 수도 있다. 일 실시예에 따라 기준 부호화 단위의 형태 및 크기는 적어도 하나의 기준 부호화 단위를 포함할 수 있는 다양한 데이터 단위(예를 들면, 시퀀스(sequence), 픽쳐(picture), 슬라이스(slice), 슬라이스 세그먼트(slice segment), 최대부호화단위 등)에 따라 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(200)의 수신부(210)는 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보 중 적어도 하나를 상기 다양한 데이터 단위마다 비트스트림으로부터 획득할 수 있다. 정사각형 형태의 기준 부호화 단위(2200)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 10의 현재 부호화 단위(300)가 분할되는 과정을 통해 상술하였고, 비-정사각형 형태의 기준 부호화 단위(2200)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 11의 현재 부호화 단위(1100 또는 1150)가 분할되는 과정을 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(200)는 소정의 조건에 기초하여 미리 결정되는 일부 데이터 단위에 따라 기준 부호화 단위의 크기 및 형태를 결정하기 위하여, 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용할 수 있다. 즉, 수신부(210)는 비트스트림으로부터 상기 다양한 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 최대부호화단위 등) 중 소정의 조건(예를 들면 슬라이스 이하의 크기를 갖는 데이터 단위)을 만족하는 데이터 단위로서 슬라이스, 슬라이스 세그먼트, 최대부호화 단위 등 마다, 기준 부호화 단위의 크기 및 형태의 식별을 위한 인덱스만을 획득할 수 있다. 영상 복호화 장치(200)는 인덱스를 이용함으로써 상기 소정의 조건을 만족하는 데이터 단위마다 기준 데이터 단위의 크기 및 형태를 결정할 수 있다. 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 상대적으로 작은 크기의 데이터 단위마다 비트스트림으로부터 획득하여 이용하는 경우, 비트스트림의 이용 효율이 좋지 않을 수 있으므로, 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 직접 획득하는 대신 상기 인덱스만을 획득하여 이용할 수 있다. 이 경우 기준 부호화 단위의 크기 및 형태를 나타내는 인덱스에 대응하는 기준 부호화 단위의 크기 및 형태 중 적어도 하나는 미리 결정되어 있을 수 있다. 즉, 영상 복호화 장치(200)는 미리 결정된 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 인덱스에 따라 선택함으로써, 인덱스 획득의 기준이 되는 데이터 단위에 포함되는 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 하나의 최대 부호화 단위에 포함하는 적어도 하나의 기준 부호화 단위를 이용할 수 있다. 즉, 영상을 분할하는 최대 부호화 단위에는 적어도 하나의 기준 부호화 단위가 포함될 수 있고, 각각의 기준 부호화 단위의 재귀적인 분할 과정을 통해 부호화 단위가 결정될 수 있다. 일 실시예에 따라 최대 부호화 단위의 너비 및 높이 중 적어도 하나는 기준 부호화 단위의 너비 및 높이 중 적어도 하나의 정수배에 해당할 수 있다. 일 실시예에 따라 기준 부호화 단위의 크기는 최대부호화단위를 쿼드 트리 구조에 따라 n번 분할한 크기일 수 있다. 즉, 영상 복호화 장치(200)는 최대부호화단위를 쿼드 트리 구조에 따라 n 번 분할하여 기준 부호화 단위를 결정할 수 있고, 다양한 실시예들에 따라 기준 부호화 단위를 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 분할할 수 있다.
도 23은 일 실시예에 따라 픽쳐(2300)에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
일 실시예에 따라 영상 복호화 장치(200)는 픽쳐를 분할하는 적어도 하나의 프로세싱 블록을 결정할 수 있다. 프로세싱 블록이란, 영상을 분할하는 적어도 하나의 기준 부호화 단위를 포함하는 데이터 단위로서, 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위는 특정 순서대로 결정될 수 있다. 즉, 각각의 프로세싱 블록에서 결정되는 적어도 하나의 기준 부호화 단위의 결정 순서는 기준 부호화 단위가 결정될 수 있는 다양한 순서의 종류 중 하나에 해당할 수 있으며, 각각의 프로세싱 블록에서 결정되는 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록마다 결정되는 기준 부호화 단위의 결정 순서는 래스터 스캔(raster scan), Z 스캔(Z-scan), N 스캔(N-scan), 우상향 대각 스캔(up-right diagonal scan), 수평적 스캔(horizontal scan), 수직적 스캔(vertical scan) 등 다양한 순서 중 하나일 수 있으나, 결정될 수 있는 순서는 상기 스캔 순서들에 한정하여 해석되어서는 안 된다.
일 실시예에 따라 영상 복호화 장치(200)는 프로세싱 블록의 크기에 대한 정보를 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 영상 복호화 장치(200)는 프로세싱 블록의 크기에 대한 정보를 비트스트림으로부터 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 이러한 프로세싱 블록의 크기는 프로세싱 블록의 크기에 대한 정보가 나타내는 데이터 단위의 소정의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(200)의 수신부(210)는 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 특정의 데이터 단위마다 획득할 수 있다. 예를 들면 프로세싱 블록의 크기에 대한 정보는 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트 등의 데이터 단위로 비트스트림으로부터 획득될 수 있다. 즉 수신부(210)는 상기 여러 데이터 단위마다 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 획득할 수 있고 영상 복호화 장치(200)는 획득된 프로세싱 블록의 크기에 대한 정보를 이용하여 픽쳐를 분할하는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있으며, 이러한 프로세싱 블록의 크기는 기준 부호화 단위의 정수배의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 픽쳐(2300)에 포함되는 프로세싱 블록(2302, 2312)의 크기를 결정할 수 있다. 예를 들면, 영상 복호화 장치(200)는 비트스트림으로부터 획득된 프로세싱 블록의 크기에 대한 정보에 기초하여 프로세싱 블록의 크기를 결정할 수 있다. 도 23을 참조하면, 영상 복호화 장치(200)는 일 실시예에 따라 프로세싱 블록(2302, 2312)의 가로크기를 기준 부호화 단위 가로크기의 4배, 세로크기를 기준 부호화 단위의 세로크기의 4배로 결정할 수 있다. 영상 복호화 장치(200)는 적어도 하나의 프로세싱 블록 내에서 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(200)는 프로세싱 블록의 크기에 기초하여 픽쳐(2300)에 포함되는 각각의 프로세싱 블록(2302, 2312)을 결정할 수 있고, 프로세싱 블록(2302, 2312)에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서를 결정할 수 있다. 일 실시예에 따라 기준 부호화 단위의 결정은 기준 부호화 단위의 크기의 결정을 포함할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 비트스트림으로부터 적어도 하나의 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서에 대한 정보를 획득할 수 있고, 획득한 결정 순서에 대한 정보에 기초하여 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다. 결정 순서에 대한 정보는 프로세싱 블록 내에서 기준 부호화 단위들이 결정되는 순서 또는 방향으로 정의될 수 있다. 즉, 기준 부호화 단위들이 결정되는 순서는 각각의 프로세싱 블록마다 독립적으로 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 특정 데이터 단위마다 기준 부호화 단위의 결정 순서에 대한 정보를 비트스트림으로부터 획득할 수 있다. 예를 들면, 수신부(210)는 기준 부호화 단위의 결정 순서에 대한 정보를 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 프로세싱 블록 등의 데이터 단위로마다 비트스트림으로부터 획득할 수 있다. 기준 부호화 단위의 결정 순서에 대한 정보는 프로세싱 블록 내에서의 기준 부호화 단위 결정 순서를 나타내므로, 결정 순서에 대한 정보는 정수개의 프로세싱 블록을 포함하는 특정 데이터 단위 마다 획득될 수 있다.
영상 복호화 장치(200)는 일 실시예에 따라 결정된 순서에 기초하여 적어도 하나의 기준 부호화 단위를 결정할 수 있다.
일 실시예에 따라 수신부(210)는 비트스트림으로부터 프로세싱 블록(2302, 2312)과 관련된 정보로서, 기준 부호화 단위 결정 순서에 대한 정보를 획득할 수 있고, 영상 복호화 장치(200)는 상기 프로세싱 블록(2302, 2312)에 포함된 적어도 하나의 기준 부호화 단위를 결정하는 순서를 결정하고 부호화 단위의 결정 순서에 따라 픽쳐(2300)에 포함되는 적어도 하나의 기준 부호화 단위를 결정할 수 있다. 도 23을 참조하면, 영상 복호화 장치(200)는 각각의 프로세싱 블록(2302, 2312)과 관련된 적어도 하나의 기준 부호화 단위의 결정 순서(2304, 2314)를 결정할 수 있다. 예를 들면, 기준 부호화 단위의 결정 순서에 대한 정보가 프로세싱 블록마다 획득되는 경우, 각각의 프로세싱 블록(2302, 2312)과 관련된 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록(2302)과 관련된 기준 부호화 단위 결정 순서(2304)가 래스터 스캔(raster scan)순서인 경우, 프로세싱 블록(2302)에 포함되는 기준 부호화 단위는 래스터 스캔 순서에 따라 결정될 수 있다. 이에 반해 다른 프로세싱 블록(2312)과 관련된 기준 부호화 단위 결정 순서(2314)가 래스터 스캔 순서의 역순인 경우, 프로세싱 블록(2312)에 포함되는 기준 부호화 단위는 래스터 스캔 순서의 역순에 따라 결정될 수 있다.
영상 복호화 장치(200)는 일 실시예에 따라, 결정된 적어도 하나의 기준 부호화 단위를 복호화할 수 있다. 영상 복호화 장치(200)는 상술한 실시예를 통해 결정된 기준 부호화 단위에 기초하여 영상을 복호화 할 수 있다. 기준 부호화 단위를 복호화 하는 방법은 영상을 복호화 하는 다양한 방법들을 포함할 수 있다.
일 실시예에 따라 영상 복호화 장치(200)는 현재 부호화 단위의 형태를 나타내는 블록 형태 정보 또는 현재 부호화 단위를 분할하는 방법을 나타내는 분할 형태 정보를 비트스트림으로부터 획득하여 이용할 수 있다. 블록 형태 정보 또는 분할 형태 정보는 다양한 데이터 단위와 관련된 비트스트림에 포함될 수 있다. 예를 들면, 영상 복호화 장치(200)는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header)에 포함된 블록 형태 정보 또는 분할 형태 정보를 이용할 수 있다. 나아가, 영상 복호화 장치(200)는 최대 부호화 단위, 기준 부호화 단위, 프로세싱 블록마다 비트스트림으로부터 블록 형태 정보 또는 분할 형태 정보에 대응하는 신택스를 비트스트림으로부터 획득하여 이용할 수 있다.
이제까지 다양한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.

Claims (15)

  1. 비트스트림으로부터 영상 데이터를 획득하는 단계;
    상기 영상 데이터로부터 360도 이미지의 투영 이미지를 복호화하는 단계;
    상기 투영 이미지를 상기 360도 이미지로 변환하는 단계;
    상기 비트스트림으로부터 상기 360도 이미지의 회전 정보를 획득하는 단계; 및
    상기 회전 정보에 기초하여 상기 360도 영상을 회전시켜 원본 360도 이미지를 복원하는 단계를 포함하는, 영상 복호화 방법.
  2. 비트스트림으로부터 영상 데이터를 획득하는 단계;
    상기 영상 데이터로부터 360도 이미지의 투영 이미지를 복호화하는 단계;
    상기 투영 이미지를 상기 360도 이미지로 변환하는 단계;
    상기 비트스트림으로부터 상기 360도 이미지의 회전 정보를 획득하는 단계; 및
    상기 회전 정보에 기초하여 상기 360도 영상을 회전시켜 원본 360도 이미지를 복원하는 단계를 포함하는, 영상 복호화 방법.
  3. 제 1 항에 있어서,
    상기 회전 정보는 상기 360도 이미지의 중심에 대한 수평 각도 및 수직 각도를 나타내는 것을 특징으로 하는, 영상 복호화 방법.
  4. 제 3 항에 있어서,
    상기 회전 정보는 상기 수평 각도를 나타내는 5 비트 및 상기 수직 각도를 나타내는 3 비트를 포함하는 총 8 비트인 것을 특징으로 하는, 영상 복호화 방법.
  5. 제 1 항에 있어서,
    상기 회전 정보는 상기 비트스트림 내에서 비디오 파라미터 세트 또는 시퀀스 파라미터 세트에 저장된 것을 특징으로 하는, 영상 복호화 방법.
  6. 제 1 항에 있어서,
    상기 회전 정보는 상기 비트스트림 내의 SEI(Supplemental enhancement information)에 저장된 것을 특징으로 하는, 영상 복호화 방법.
  7. 제 1 항에 있어서,
    상기 비트스트림으로부터 상기 360도 이미지의 회전 변화량 정보를 획득하는 단계를 더 포함하고,
    상기 360도 영상은 상기 회전 정보 및 상기 회전 변화량 정보에 기초하여 회전되는 것을 특징으로 하는, 영상 복호화 방법.
  8. 제 7 항에 있어서,
    상기 회전 변화량 정보는 상기 비트스트림 내의 픽처 파라미터 세트에 저장된 것을 특징으로 하는, 영상 복호화 방법.
  9. 제 1 항에 있어서,
    상기 360도 이미지의 회전 여부에 대한 정보를 획득하는 단계; 및
    상기 상기 360도 이미지의 회전 여부에 대한 정보에 따라, 상기 회전 정보의 획득 여부를 결정하는 단계를 더 포함하는, 영상 복호화 방법.
  10. 비트스트림으로부터 영상 데이터 및 360도 이미지의 회전 정보를 획득하는 데이터 획득부;
    상기 영상 데이터로부터 상기 360도 이미지의 투영 이미지를 복호화하는 복호화부; 및
    상기 투영 이미지를 상기 360도 이미지로 변환하고, 상기 회전 정보에 기초하여 상기 360도 영상을 회전시켜 원본 360도 영상을 복원하는 복원부를 포함하는, 영상 복호화 장치.
  11. 원본 360도 이미지를 회전시키기 위한 소정 각도를 결정하는 단계;
    상기 소정 각도에 기초하여 상기 원본 360도 이미지를 회전시키는 단계;
    회전된 360도 이미지를 투영 이미지로 변환하는 단계;
    상기 투영 이미지를 부호화하는 단계; 및
    부호화된 상기 투영 이미지에 대한 영상 데이터 및 상기 소정 각도에 대한 정보를 포함하는 비트스트림을 생성하는 단계를 포함하는, 영상 부호화 방법.
  12. 제 11 항에 있어서,
    상기 소정 각도는 상기 360도 이미지의 중심에 대한 수평 각도 및 수직 각도를 포함하는, 영상 부호화 방법.
  13. 제 11 항에 있어서,
    상기 원본 360도 이미지를 회전시키기 위한 소정 각도를 결정하는 단계는,
    상기 원본 360도 이미지에 대해 가능한 회전 각도들 각각을 적용하여 상기 원본 360도 이미지를 회전시키는 단계;
    상기 회전 각도들 각각에 따라 회전된 360도 이미지를, 투영 이미지로 변환하는 단계;
    변환된 투영 이미지의 부호화 효율을 계산하는 단계; 및
    상기 계산 결과에 기초하여 상기 가능한 회전 각도들 중에서 상기 소정 각도를 결정하는 단계를 포함하는, 영상 부호화 방법.
  14. 제 11 항에 있어서,
    상기 투영 이미지는 등장방형도법(equirectangular projection), 아이코사히드랄 투영법(Icosahedral projection), 큐브맵 투영법(Cubemap projection), 8면체 투영법(Octahedron projection) 및 회전 구체 투영법(Rotated sphere projection) 중 어느 하나를 이용하여 상기 360도 이미지를 투영한 이미지인, 영상 부호화 방법.
  15. 제 11 항에 있어서,
    상기 소정 각도에 대한 정보는 상기 비트스트림 내에서 비디오 파라미터 세트 또는 시퀀스 파라미터 세트에 저장된 것을 특징으로 하는, 영상 부호화 방법.
PCT/KR2017/015525 2016-12-27 2017-12-27 360도 이미지를 부호화 또는 복호화하는 방법 및 장치 WO2018124720A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/474,389 US10931971B2 (en) 2016-12-27 2017-12-27 Method and apparatus for encoding and decoding 360-degree image
CN201780087197.9A CN110326297B (zh) 2016-12-27 2017-12-27 用于对360度图像进行编码和解码的方法及装置
KR1020197019239A KR20190092485A (ko) 2016-12-27 2017-12-27 360도 이미지를 부호화 또는 복호화하는 방법 및 장치
EP17887246.1A EP3554081A4 (en) 2016-12-27 2017-12-27 METHOD AND APPARATUS FOR 360-DEGREE IMAGE ENCODING AND DECODING

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662439197P 2016-12-27 2016-12-27
US62/439,197 2016-12-27

Publications (1)

Publication Number Publication Date
WO2018124720A1 true WO2018124720A1 (ko) 2018-07-05

Family

ID=62709776

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/015525 WO2018124720A1 (ko) 2016-12-27 2017-12-27 360도 이미지를 부호화 또는 복호화하는 방법 및 장치

Country Status (5)

Country Link
US (1) US10931971B2 (ko)
EP (1) EP3554081A4 (ko)
KR (1) KR20190092485A (ko)
CN (1) CN110326297B (ko)
WO (1) WO2018124720A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020259476A1 (en) * 2019-06-24 2020-12-30 Huawei Technologies Co., Ltd. Sample distance calculation for geometric partition mode

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019194576A1 (en) * 2018-04-03 2019-10-10 Samsung Electronics Co., Ltd. Methods and apparatus for determining rotation angle for spherical multimedia content

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4355535B2 (ja) * 2003-08-07 2009-11-04 株式会社岩根研究所 360度画像変換処理装置
KR101408426B1 (ko) * 2010-08-31 2014-06-17 가부시키가이샤 히타치 죠호 츠우신 엔지니어링 화상 보정 장치, 보정 화상 생성 방법, 보정 테이블 생성 장치, 보정 테이블 생성 방법, 보정 테이블 생성 프로그램을 기록한 컴퓨터 판독가능한 기록 매체 및 보정 화상 생성 프로그램을 기록한 컴퓨터 판독가능한 기록 매체
KR20140112909A (ko) * 2013-03-14 2014-09-24 삼성전자주식회사 파노라마 영상을 생성하는 전자 장치 및 방법
KR20150010752A (ko) * 2012-07-04 2015-01-28 인텔 코오퍼레이션 파노라마 기반 3d 비디오 코딩
US9436973B2 (en) * 2013-06-24 2016-09-06 Mitsubishi Electric Corporation Coordinate computation device and method, and an image processing device and method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105103192B (zh) * 2013-01-10 2018-09-25 汤姆逊许可公司 用于顶点误差校正的方法和装置
CN105227963B (zh) * 2015-08-31 2018-05-01 暴风集团股份有限公司 对终端进行流媒体采集自动识别方向并调整的方法及系统
KR102157655B1 (ko) * 2016-02-17 2020-09-18 엘지전자 주식회사 360 비디오를 전송하는 방법, 360 비디오를 수신하는 방법, 360 비디오 전송 장치, 360 비디오 수신 장치
WO2017175888A1 (ko) 2016-04-05 2017-10-12 삼성전자 주식회사 이미지 처리 방법 및 장치
US10249019B2 (en) * 2016-05-06 2019-04-02 Mediatek Inc. Method and apparatus for mapping omnidirectional image to a layout output format
CN117201817A (zh) * 2016-09-02 2023-12-08 Vid拓展公司 用于用信号通知360度视频信息的方法和系统
EP3472756B1 (en) * 2016-10-07 2024-07-24 Mediatek Inc. Video encoding method and apparatus with syntax element signaling of employed projection layout and associated video decoding method and apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4355535B2 (ja) * 2003-08-07 2009-11-04 株式会社岩根研究所 360度画像変換処理装置
KR101408426B1 (ko) * 2010-08-31 2014-06-17 가부시키가이샤 히타치 죠호 츠우신 엔지니어링 화상 보정 장치, 보정 화상 생성 방법, 보정 테이블 생성 장치, 보정 테이블 생성 방법, 보정 테이블 생성 프로그램을 기록한 컴퓨터 판독가능한 기록 매체 및 보정 화상 생성 프로그램을 기록한 컴퓨터 판독가능한 기록 매체
KR20150010752A (ko) * 2012-07-04 2015-01-28 인텔 코오퍼레이션 파노라마 기반 3d 비디오 코딩
KR20140112909A (ko) * 2013-03-14 2014-09-24 삼성전자주식회사 파노라마 영상을 생성하는 전자 장치 및 방법
US9436973B2 (en) * 2013-06-24 2016-09-06 Mitsubishi Electric Corporation Coordinate computation device and method, and an image processing device and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3554081A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020259476A1 (en) * 2019-06-24 2020-12-30 Huawei Technologies Co., Ltd. Sample distance calculation for geometric partition mode

Also Published As

Publication number Publication date
EP3554081A4 (en) 2019-12-04
CN110326297A (zh) 2019-10-11
CN110326297B (zh) 2022-12-02
KR20190092485A (ko) 2019-08-07
EP3554081A1 (en) 2019-10-16
US20190342577A1 (en) 2019-11-07
US10931971B2 (en) 2021-02-23

Similar Documents

Publication Publication Date Title
WO2018070550A1 (ko) 픽처 외곽선의 부호화 단위를 부호화 또는 복호화하는 방법 및 장치
WO2017105097A1 (ko) 머지 후보 리스트를 이용한 비디오 복호화 방법 및 비디오 복호화 장치
WO2017122997A1 (ko) 영상 부호화 방법 및 장치와 영상 복호화 방법 및 장치
WO2017142319A1 (ko) 영상 부호화 방법 및 장치와 영상 복호화 방법 및 장치
WO2018070554A1 (ko) 루마 블록 및 크로마 블록을 부호화 또는 복호화하는 방법 및 장치
WO2018221817A1 (ko) 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치
WO2017142326A1 (ko) 비디오 부호화 방법 및 장치, 그 복호화 방법 및 장치
WO2019009449A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치
WO2020184991A1 (ko) Ibc 모드를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2011021838A2 (en) Method and apparatus for encoding video, and method and apparatus for decoding video
WO2018124653A1 (ko) 인트라 예측에서 참조 샘플을 필터링하는 방법 및 장치
WO2015009107A1 (en) Method and apparatus for generating 3k-resolution display image for mobile terminal screen
WO2017105141A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치
WO2017091016A1 (ko) 비디오 복호화 방법 및 장치, 그 부호화 방법 및 장치
WO2021015537A1 (ko) 팔레트 모드의 적용 여부에 따라 크로마 성분 예측 정보를 시그널링 하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2017090961A1 (ko) 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2017082636A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치
WO2018012893A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치
WO2017091001A1 (ko) 픽셀의 기울기에 기초하여 인트라 또는 인터 예측 블록을 후처리하는 방법 및 장치
WO2021194307A1 (ko) 랩-어라운드 움직임 보상에 기반하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020256506A1 (ko) 다중 참조 라인 인트라 예측을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2020180159A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2018124720A1 (ko) 360도 이미지를 부호화 또는 복호화하는 방법 및 장치
WO2017091023A1 (ko) 비디오 복호화 방법 및 장치, 그 부호화 방법 및 장치
WO2021015512A1 (ko) Ibc를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17887246

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20197019239

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2017887246

Country of ref document: EP

Effective date: 20190710