KR20180059348A - Method and apparatus for parallel processing image - Google Patents

Method and apparatus for parallel processing image Download PDF

Info

Publication number
KR20180059348A
KR20180059348A KR1020170143426A KR20170143426A KR20180059348A KR 20180059348 A KR20180059348 A KR 20180059348A KR 1020170143426 A KR1020170143426 A KR 1020170143426A KR 20170143426 A KR20170143426 A KR 20170143426A KR 20180059348 A KR20180059348 A KR 20180059348A
Authority
KR
South Korea
Prior art keywords
perspective
image
processing
processing order
decoding
Prior art date
Application number
KR1020170143426A
Other languages
Korean (ko)
Other versions
KR102011430B1 (en
Inventor
박광훈
윤성재
홍석종
권우원
Original Assignee
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경희대학교 산학협력단 filed Critical 경희대학교 산학협력단
Priority to PCT/KR2017/013284 priority Critical patent/WO2018097577A1/en
Publication of KR20180059348A publication Critical patent/KR20180059348A/en
Application granted granted Critical
Publication of KR102011430B1 publication Critical patent/KR102011430B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

The present disclosure relates to a method and apparatus for encoding/decoding an image that includes a plurality of perspective images. The method of encoding an image according to the present disclosure may include a step of identifying the processing order of a perspective image to be encoded among the plurality of perspective images, a step of determining whether the identified processing order is identical to a predetermined processing order, and a step of converting the perspective image to be encoded when the identified processing order is not the same as the predetermined processing order. It is possible to improve coding/decoding efficiency.

Description

영상 병렬 처리 방법 및 장치{METHOD AND APPARATUS FOR PARALLEL PROCESSING IMAGE}METHOD AND APPARATUS FOR PARALLEL PROCESSING IMAGE < RTI ID = 0.0 >

본 개시는 영상의 부/복호화 방법 및 장치에 관한 것이다.The present disclosure relates to a method and apparatus for image subdivision / decoding.

구체적으로, 본 개시는 가상 현실 영상의 부/복호화 방법 및 장치에 관한 것이며, 보다 구체적으로, 가상 현실 영상의 부/복호화의 병렬 처리 방법 및 장치에 관한 것이다.Specifically, the present disclosure relates to a method and apparatus for attaching / decoding virtual reality images, and more particularly, to a parallel processing method and apparatus for attaching / decoding virtual reality images.

최근 HD(High Definition), UHD(Ultra High Definition) 해상도(1920x1080 혹은 3840x2160)를 가지는 방송 서비스가 국내뿐만 아니라 세계적으로 확대되고 있다. 사용자들은 고해상도, 고화질의 영상에 익숙해지고 있으며 그에 발맞춰서 많은 기관에서는 차세대 영상기기에 대한 개발에 박차를 가하고 있다. Recently, broadcasting services having HD (High Definition) and UHD (Ultra High Definition) resolutions (1920x1080 or 3840x2160) have been expanded not only in the domestic market but also in the world. Users are becoming accustomed to high-resolution, high-definition video, and many organizations are spurring development on next-generation imaging devices.

현재 MPEG(Moving Picture Experts Group)과 VCEG(Video Coding Experts Group)는 공동으로 차세대 비디오 코덱인 HEVC(High Efficiency Video Coding)의 표준화를 완료하였다. 이에 따르면, UHD 영상을 포함한 영상에 대한 압축 효율은 H.264/AVC 대비 2배의 압축 효율을 보인다. 영상의 해상도가 높아지고 기술이 개발됨에 따라 기존에 2D영상 뿐 아니라 스테레오스코픽 영상이나 전방향(360도) 비디오와 같은 실감형 영상에 대한 관심이 높아지고 있다. 이에 따라 많은 기업에서 헤드 마운트 디스플레이나 실감형 영상을 재생할 수 있는 장치가 출시되고 있다.Currently, Moving Picture Experts Group (MPEG) and Video Coding Experts Group (VCEG) jointly completed the standardization of High Efficiency Video Coding (HEVC), the next generation video codec. According to this, the compression efficiency of the image including UHD image is twice as high as that of H.264 / AVC. As the resolution of the image increases and the technology is developed, there is a growing interest in stereoscopic image as well as 2D image, realistic image such as forward (360 degrees) video. As a result, many companies have introduced head-mount displays or devices capable of reproducing realistic images.

본 개시의 기술적 과제는 영상의 부/복호화 효율을 향상시키는 방법 및 장치를 제공하는 것이다.SUMMARY OF THE INVENTION The present invention is directed to a method and apparatus for enhancing image subdivision / decoding efficiency.

본 개시의 다른 기술적 과제는 가상 현실 영상의 부/복호화 효율을 향상시키는 방법 및 장치를 제공하는 것이다.It is another object of the present invention to provide a method and apparatus for improving the efficiency of subtraction / decryption of a virtual reality image.

본 개시의 또 다른 기술적 과제는 가상 현실 영상의 부/복호화를 병렬 처리하기 위한 방법 및 장치를 제공하는 것이다.It is another object of the present invention to provide a method and apparatus for parallel processing of attaching / decrypting a virtual reality image.

본 개시의 또 다른 기술적 과제는 다면체 360도 VR 영상과 같이, 복수의 퍼스펙티브(perspective)를 가진 영상의 부/복호화 속도를 향상시키는 방법 및 장치를 제공하는 것이다.It is another object of the present invention to provide a method and apparatus for improving the speed of attaching / decrypting an image having a plurality of perspectives, such as a polyhedron 360 degree VR image.

본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical objects to be achieved by the present disclosure are not limited to the above-mentioned technical subjects, and other technical subjects which are not mentioned are to be clearly understood from the following description to those skilled in the art It will be possible.

본 개시에 따른, 복수의 퍼스펙티브(perspective) 영상을 포함하는 영상의 부호화 방법은, 상기 복수의 퍼스펙티브 영상 중 부호화 대상 퍼스펙티브 영상의 처리 순서를 식별하는 단계, 상기 식별된 처리 순서가 소정의 처리 순서와 동일한지 여부를 판단하는 단계, 및 상기 식별된 처리 순서가 상기 소정의 처리 순서와 동일하지 않은 경우, 상기 부호화 대상 퍼스펙티브 영상을 변환하는 단계를 포함할 수 있다.According to the present disclosure, there is provided a method of encoding an image including a plurality of perspective images, comprising the steps of: identifying a processing order of a subject perspective image in the plurality of perspective images; And if the identified processing order is not the same as the predetermined processing order, converting the to-be-encoded perspective image.

본 개시에 따른 부호화 방법에 있어서, 상기 처리 순서는 처리 시작 위치와 처리 진행 방향으로 식별되고, 상기 소정의 처리 순서의 처리 시작 위치는 상기 퍼스펙티브 영상의 좌상단 위치이고, 상기 소정의 처리 순서의 처리 진행 방향은 시계 방향일 수 있다.In the coding method according to the present disclosure, the processing sequence is identified as a processing start position and a processing progress direction, and the processing start position of the predetermined processing sequence is the upper left position of the perspective image, The direction may be clockwise.

본 개시에 따른 부호화 방법에 있어서, 상기 변환은 상기 부호화 대상 퍼스펙티브 영상에 대한 대칭 변환 및 이동 변환 중 적어도 하나를 포함할 수 있다.In the encoding method according to the present disclosure, the transform may include at least one of a symmetric transform and a motion transform on the to-be-coded perspective image.

본 개시에 따른 부호화 방법에 있어서, 상기 대칭 변환은 상기 식별된 처리 순서의 처리 진행 방향이 상기 소정의 처리 순서의 처리 진행 방향과 상이할 때 수행될 수 있다.In the encoding method according to the present disclosure, the symmetric transformation may be performed when the processing progress direction of the identified processing sequence is different from the processing progress direction of the predetermined processing sequence.

본 개시에 따른 부호화 방법에 있어서, 상기 대칭 변환은 좌우 대칭 변환, 상하 대칭 변환 및 대각 대칭 변환 중 하나일 수 있다.In the encoding method according to the present disclosure, the symmetric transform may be one of a left-right symmetry transform, a vertically symmetric transform, and a diagonal symmetric transform.

본 개시에 따른 부호화 방법에 있어서, 상기 회전 변환은 상기 식별된 처리 순서의 처리 시작 위치가 상기 소정의 처리 순서의 처리 시작 위치가 상이할 때 수행될 수 있다.In the encoding method according to the present disclosure, the rotation conversion may be performed when the process start position of the identified process sequence is different from the process start position of the predetermined process sequence.

본 개시에 따른 부호화 방법에 있어서, 상기 회전 변환은 상기 부호화 대상 퍼스펙티브 영상의 처리 시작 위치가 상기 소정의 처리 순서의 처리 시작 위치가 동일해지도록 상기 부호화 대상 퍼스펙티브 영상을 회전시키는 변환일 수 있다.In the encoding method according to the present disclosure, the rotation transformation may be a transformation that rotates the to-be-viewed perspective image so that the processing start position of the to-be-encoded perspective image becomes equal to the processing start position of the predetermined processing order.

본 개시에 따른 부호화 방법에 있어서, 상기 부호화 대상 퍼스펙티브 영상을 변환하는 단계는. 상기 부호화 대상 퍼스펙티브 영상을 제1 변환하는 단계, 상기 제1 변환된 부호화 대상 퍼스펙티브 영상의 처리 순서가 상기 소정의 처리 순서와 동일한지 여부를 판단하는 단계 및 상기 제1 변환된 부호화 대상 퍼스펙티브 영상의 처리 순서가 상기 소정의 처리 순서와 동일하지 않은 경우, 상기 제1 변환된 부호화 대상 퍼스펙티브 영상을 제2 변환하는 단계를 포함할 수 있다.In the encoding method according to the present disclosure, the step of converting the subject perspective image includes: Determining whether or not the processing order of the first-subject perspective image is the same as the predetermined processing order; and a step of processing the first converted perspective video And performing a second conversion of the first converted perspective view image if the order is not the same as the predetermined processing order.

본 개시에 따른 부호화 방법에 있어서, 상기 제1 변환은 대칭 변환 및 이동 변환 중 하나이고, 상기 제2 변환은 나머지 다른 하나일 수 있다.In the encoding method according to the present disclosure, the first transformation may be one of a symmetric transformation and a motion transformation, and the second transformation may be the other one.

본 개시에 따른, 복수의 퍼스펙티브(perspective) 영상을 포함하는 영상의 부호화 장치는 변환기를 포함하고, 상기 변환기는, 상기 복수의 퍼스펙티브 영상 중 부호화 대상 퍼스펙티브 영상의 처리 순서를 식별하고, 상기 식별된 처리 순서가 소정의 처리 순서와 동일한지 여부를 판단하고, 상기 식별된 처리 순서가 상기 소정의 처리 순서와 동일하지 않은 경우, 상기 부호화 대상 퍼스펙티브 영상을 변환하도록 구성될 수 있다.According to the present disclosure, an apparatus for encoding an image including a plurality of perspective images includes a converter, wherein the converter identifies a processing sequence of a perspective image to be encoded out of the plurality of perspective images, Determining whether the order is the same as the predetermined processing order, and when the identified processing order is not the same as the predetermined processing order, converting the to-be-viewed perspective image.

본 개시에 따른, 복수의 퍼스펙티브(perspective) 영상을 포함하는 영상의 복호화 방법은, 상기 복수의 퍼스펙티브 영상 중 복호화 대상 퍼스펙티브 영상의 처리 순서를 식별하는 단계, 상기 식별된 처리 순서가 소정의 처리 순서와 동일한지 여부를 판단하는 단계, 및 상기 식별된 처리 순서가 상기 소정의 처리 순서와 동일하지 않은 경우, 상기 복호화 대상 퍼스펙티브 영상을 변환하는 단계를 포함할 수 있다.According to the present disclosure, there is provided a method of decoding an image including a plurality of perspective images, comprising the steps of: identifying a processing order of a perspective perspective image to be decoded among the plurality of perspective images; And if the identified processing order is not the same as the predetermined processing order, transforming the decoding target perspective image.

본 개시에 따른 복호화 방법에 있어서, 상기 처리 순서는 처리 시작 위치와 처리 진행 방향으로 식별되고, 상기 소정의 처리 순서의 처리 시작 위치는 상기 퍼스펙티브 영상의 좌상단 위치이고, 상기 소정의 처리 순서의 처리 진행 방향은 시계 방향일 수 있다.In the decoding method according to the present disclosure, the processing sequence is identified as a processing start position and a processing progress direction, the processing start position of the predetermined processing sequence is the upper left position of the perspective image, The direction may be clockwise.

본 개시에 따른 복호화 방법에 있어서, 상기 변환은 상기 복호화 대상 퍼스펙티브 영상에 대한 대칭 변환 및 이동 변환 중 적어도 하나를 포함할 수 있다.In the decoding method according to the present disclosure, the transform may include at least one of a symmetric transform and a motion transform on the to-be-pasted perspective image.

본 개시에 따른 복호화 방법에 있어서, 상기 대칭 변환은 상기 식별된 처리 순서의 처리 진행 방향이 상기 소정의 처리 순서의 처리 진행 방향과 상이할 때 수행될 수 있다.In the decoding method according to the present disclosure, the symmetric transformation may be performed when the processing progress direction of the identified processing sequence is different from the processing progress direction of the predetermined processing sequence.

본 개시에 따른 복호화 방법에 있어서, 상기 대칭 변환은 좌우 대칭 변환, 상하 대칭 변환 및 대각 대칭 변환 중 하나일 수 있다.In the decoding method according to the present disclosure, the symmetric transform may be one of a left-right symmetric transform, a vertically symmetric transform, and a diagonal symmetric transform.

본 개시에 따른 복호화 방법에 있어서, 상기 회전 변환은 상기 식별된 처리 순서의 처리 시작 위치가 상기 소정의 처리 순서의 처리 시작 위치가 상이할 때 수행될 수 있다.In the decoding method according to the present disclosure, the rotation conversion may be performed when the processing start position of the identified processing order is different from the processing start position of the predetermined processing order.

본 개시에 따른 복호화 방법에 있어서, 상기 회전 변환은 상기 복호화 대상 퍼스펙티브 영상의 처리 시작 위치가 상기 소정의 처리 순서의 처리 시작 위치가 동일해지도록 상기 복호화 대상 퍼스펙티브 영상을 회전시키는 변환일 수 있다.In the decoding method according to the present disclosure, the rotation transformation may be a transformation that rotates the decoding subject perspective image so that the processing start position of the decoding subject perspective image becomes equal to the processing start position of the predetermined processing order.

본 개시에 따른 복호화 방법에 있어서, 상기 복호화 대상 퍼스펙티브 영상을 변환하는 단계는. 상기 복호화 대상 퍼스펙티브 영상을 제1 변환하는 단계, 상기 제1 변환된 복호화 대상 퍼스펙티브 영상의 처리 순서가 상기 소정의 처리 순서와 동일한지 여부를 판단하는 단계, 및 상기 제1 변환된 복호화 대상 퍼스펙티브 영상의 처리 순서가 상기 소정의 처리 순서와 동일하지 않은 경우, 상기 제1 변환된 복호화 대상 퍼스펙티브 영상을 제2 변환하는 단계를 포함할 수 있다.In the decoding method according to the present disclosure, the step of converting the subject image to be decoded includes: Determining whether or not the processing order of the first converted subject perspective image is the same as the predetermined processing order; and a step of determining whether or not the first converted first- And a second conversion of the first converted perspective perspective image if the processing order is not the same as the predetermined processing order.

본 개시에 따른 복호화 방법에 있어서, 상기 제1 변환은 대칭 변환 및 이동 변환 중 하나이고, 상기 제2 변환은 나머지 다른 하나일 수 있다.In the decoding method according to the present disclosure, the first conversion may be one of a symmetric conversion and a shift conversion, and the second conversion may be another one.

본 개시에 따른, 복수의 퍼스펙티브(perspective) 영상을 포함하는 영상의 복호화 장치는 변환기를 포함하고, 상기 변환기는, 상기 복수의 퍼스펙티브 영상 중 복호화 대상 퍼스펙티브 영상의 처리 순서를 식별하고, 상기 식별된 처리 순서가 소정의 처리 순서와 동일한지 여부를 판단하고, 상기 식별된 처리 순서가 상기 소정의 처리 순서와 동일하지 않은 경우, 상기 복호화 대상 퍼스펙티브 영상을 변환하도록 구성될 수 있다.According to the present disclosure, an apparatus for decoding an image including a plurality of perspective images includes a converter, wherein the converter identifies a processing order of the perspective perspective image to be decoded among the plurality of perspective images, Determine whether the order is the same as the predetermined processing order, and convert the to-be-pasted perspective image if the identified processing order is not the same as the predetermined processing order.

본 개시에 따른, 컴퓨터 판독 가능한 기록 매체는, 본 개시에 따른 영상의 부호화 방법 및/또는 장치에 의해 생성된 비트스트림을 저장할 수 있다.According to the present disclosure, a computer-readable recording medium can store a bitstream generated by a method and / or apparatus for encoding an image according to the present disclosure.

본 개시에 따르면, 영상의 부/복호화 효율을 향상시키는 방법 및 장치를 제공할 수 있다.According to the present disclosure, it is possible to provide a method and apparatus for improving the image subdivision / decoding efficiency.

또한, 본 개시에 따르면, 가상 현실 영상의 부/복호화 효율을 향상시키는 방법 및 장치를 제공할 수 있다.Further, according to the present disclosure, a method and an apparatus for improving the sub-decoding efficiency of a virtual reality image can be provided.

또한, 본 개시에 따르면, 가상 현실 영상의 부/복호화를 병렬 처리하는 방법 및 장치를 제공할 수 있다.Furthermore, according to the present disclosure, it is possible to provide a method and apparatus for parallel processing of attaching / decrypting a virtual reality image.

또한, 본 개시에 따르면, 다면체 360도 VR 영상과 같이, 복수의 퍼스펙티브(perspective)를 가진 영상의 부/복호화 속도를 향상시키는 방법 및 장치를 제공할 수 있다.Further, according to the present disclosure, it is possible to provide a method and apparatus for improving the speed of attaching / decrypting an image having a plurality of perspectives, such as a polyhedron 360-degree VR image.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable from the present disclosure are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below will be.

도 1은 360도 비디오를 촬영하기 위한 다양한 종류의 카메라를 예시한 도면이다.
도 2는 360도 비디오를 3차원 공간상에 투영시킨 영상을 예시적으로 도시한 도면이다.
도 3은 본 개시에 따른 영상 부호화 장치의 구조를 예시한 도면이다.
도 4는 본 개시에 따른 영상 복호화 장치의 구조를 예시한 도면이다.
도 5는 다이버전트 카메라 영상 및 컨버전트 카메라 영상을 예시적으로 설명하기 위한 도면이다.
도 6은 영상의 분할을 설명하기 위한 예시도이다.
도 7은 영상 내에서 WPP 처리 순서를 설명하기 위한 도면이다.
도 8은 타일 기반 병렬 처리를 설명하기 위한 도면이다.
도 9는 360도 전방향 비디오를 부/복호화하기 위한 전개도를 예시한 도면이다.
도 10은 360도 전방향 영상을 정육면체에 투영한 경우의 전개도를 설명하기 위한 도면이다.
도 11은 정육면체에 투영되는 전방향 영상을 2차원으로 전개하기 위한 다양한 방식을 설명하기 위한 도면이다.
도 12는 인접한 퍼스펙티브에 속하는 CTU 사이의 의존성을 설명하기 위한 예시도이다.
도 13은 전개 방식에 따른 부/복호화 종료 시점을 설명하기 위한 도면이다.
도 14는 전개도에 따른 영상 처리 시간의 차이를 설명하기 위한 도면이다.
도 15는본 개시에 따른 영상 병렬 처리를 설명하기 위한 개념도이다.
도 16은 본 개시에 따른 영상 병렬 처리를 설명하기 위한 흐름도이다.
도 17은 정육면체 상에서의 전방향 영상의 처리 순서를 예시한 도면이다.
도 18은 도 17의 전방향 영상을 전개한 전개도를 예시한 도면이다.
도 19는 정육면체 전개도 형태의 360도 VR 영상의 일 예이다.
도 20은 도 19의 비디오를 병렬적으로 부/복호화하는 단계(스텝 1)를 설명하기 위한 도면이다.
도 21은 도 19의 비디오를 병렬적으로 부/복호화하는 단계(스텝 2)를 설명하기 위한 도면이다.
도 22는 도 19의 비디오를 병렬적으로 부/복호화하는 단계(스텝 3)를 설명하기 위한 도면이다.
도 23은 퍼스펙티브의 부/복호화 방향을 설명하기 위한 예시도이다.
도 24는 정육면체 전방향 영상에 있어서, 이웃하지 않는 두 개의 퍼스펙티브에 대한 부/복호화 순서를 설명하기 위한 도면이다.
도 25는 정육면체 전방향 영상에 있어서, 마주보는 두 개의 퍼스펙티브의 부/복호화 순서를 설명하기 위한 도면이다.
도 26은 도 25의 (a) 및 (b)에 따른 차이를 설명하기 위한 도면이다.
도 27은 도 25의 (b)에 따른 부/복호화를 설명하기 위한 도면이다.
도 28은 둘 이상의 퍼스펙티브를 참조할 수 있는 퍼스펙티브의 부/복호화를 설명하기 위한 도면이다.
도 29는 하나의 퍼스펙티브를 두 개의 영역으로 분할하고, 각각의 영역을 부/복호화하는 방법을 설명하기 위한 도면이다.
도 30은 둘 이상의 퍼스펙티브를 참조하는 경우의 부/복호화 처리 순서를 설명하기 위한 도면이다.
도 31은 정육면체 전방향 영상의 부/복호화 순서를 설명하기 위한 예시도이다.
도 32는 본 개시에 따른 부호화 장치의 구성을 예시한 도면이다.
도 33은 본 개시에 따른 복호화 장치의 구성을 예시한 도면이다.
도 34는 퍼스펙티브의 처리 순서를 변환하는 방법을 설명하기 위한 예시도이다.
도 35는 33가지 공간적 예측 모드를 예시한 도면이다.
도 36은 이웃 퍼스펙티브의 예측 모드를 참조한 현재 퍼스펙티브의 공간적 예측을 설명하기 위한 예시도이다.
도 37은 현재 블록과 참조 블록의 예측 모드의 차이를 설명하기 위한 도면이다.
도 38은 참조 블록의 방향성 예측 모드의 해석 방법을 설명하기 위한 도면이다.
도 39는 퍼스펙티브의 전개 방식에 따른 방향성 예측 모드의 8 가지 경우를 예시한 도면이다.
도 40은 정육면체 전방향 영상의 공간적 예측에 사용되는 참조 샘플의 위치를 설명하기 위한 도면이다.
도 41은 정육면체 전방향 영상을 전개도상에의 연속성을 활용하여 병렬 처리하는 방법을 설명하기 위한 도면이다.
1 is a diagram illustrating various types of cameras for photographing a 360-degree video.
Fig. 2 is a diagram exemplarily showing an image obtained by projecting 360-degree video onto a three-dimensional space.
3 is a diagram illustrating a structure of an image encoding apparatus according to the present disclosure.
4 is a diagram illustrating a structure of an image decoding apparatus according to the present disclosure.
5 is a diagram for explaining an example of a diversity camera image and a converged camera image.
6 is an exemplary diagram for explaining division of an image.
7 is a diagram for explaining the WPP processing procedure in an image.
8 is a diagram for explaining tile-based parallel processing.
FIG. 9 is a diagram illustrating a developed view for embedding / decoding 360 degrees forward video.
10 is a diagram for explaining a developed view when a 360-degree omnidirectional image is projected on a cube.
11 is a view for explaining various methods for developing an omnidirectional image projected on a cube in two dimensions.
12 is an exemplary diagram for explaining the dependency between CTUs belonging to adjacent perspectives.
FIG. 13 is a diagram for explaining a subdecryption ending point according to a developing method.
14 is a diagram for explaining a difference in image processing time according to a developed view.
15 is a conceptual diagram for explaining image parallel processing according to the present disclosure.
16 is a flowchart for explaining image parallel processing according to the present disclosure.
17 is a diagram illustrating a processing procedure of an omni-directional image on a cube.
FIG. 18 is a view illustrating an exploded view of the forward direction image of FIG. 17; FIG.
19 is an example of a 360 degree VR image in the form of a cube-like developed view.
FIG. 20 is a diagram for explaining a step (step 1) of parallelly embedding / decoding the video of FIG. 19;
FIG. 21 is a diagram for explaining a step (step 2) of parallelly embedding / decoding the video of FIG. 19; FIG.
FIG. 22 is a diagram for explaining a step (step 3) of parallelly embedding / decoding the video of FIG. 19; FIG.
Fig. 23 is an exemplary diagram for explaining the minus / decryption direction of the perspective. Fig.
FIG. 24 is a diagram for explaining a subdecrypting order for two non-neighboring perspectives in a cubic omnidirectional image.
FIG. 25 is a diagram for explaining a subdecoding sequence of two opposite perspectives in a cubic omnidirectional image.
Fig. 26 is a diagram for explaining a difference according to (a) and (b) of Fig. 25;
FIG. 27 is a diagram for explaining the subdecryption according to FIG. 25 (b). FIG.
Fig. 28 is a diagram for explaining the subdecryption of a perspective capable of referring to two or more perspectives. Fig.
FIG. 29 is a diagram for explaining a method of dividing one perspective into two areas, and to embed / decode each area. FIG.
FIG. 30 is a diagram for explaining a negative / decryption processing procedure in the case of referring to two or more perspectives.
31 is an exemplary diagram for explaining a subdecoding sequence of a cubic omni-directional image.
32 is a diagram illustrating a configuration of an encoding apparatus according to the present disclosure;
33 is a diagram illustrating a configuration of a decoding apparatus according to the present disclosure.
34 is an exemplary diagram for explaining a method of converting the processing order of the perspective.
35 is a diagram illustrating 33 spatial prediction modes.
36 is an exemplary diagram for explaining a spatial prediction of a current perspective referring to a prediction mode of a neighboring perspective.
FIG. 37 is a diagram for explaining a difference between prediction modes of a current block and a reference block. FIG.
38 is a diagram for explaining a method of analyzing a directional prediction mode of a reference block.
FIG. 39 is a diagram illustrating eight cases of the directional prediction mode according to the expansion method of the perspective.
40 is a view for explaining the position of a reference sample used for spatial prediction of a cubic omnidirectional image.
41 is a diagram for explaining a method of parallel processing using continuity to a developed image of a cubic omnidirectional image.

이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings, which will be easily understood by those skilled in the art. However, the present disclosure may be embodied in many different forms and is not limited to the embodiments described herein.

본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present disclosure rather unclear. Parts not related to the description of the present disclosure in the drawings are omitted, and like parts are denoted by similar reference numerals.

본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present disclosure, when an element is referred to as being "connected", "coupled", or "connected" to another element, it is understood that not only a direct connection relationship but also an indirect connection relationship May also be included. Also, when an element is referred to as " comprising "or" having "another element, it is meant to include not only excluding another element but also another element .

본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다. In the present disclosure, the terms first, second, etc. are used only for the purpose of distinguishing one element from another, and do not limit the order or importance of elements, etc. unless specifically stated otherwise. Thus, within the scope of this disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly a second component in one embodiment may be referred to as a first component .

본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, the components that are distinguished from each other are intended to clearly illustrate each feature and do not necessarily mean that components are separate. That is, a plurality of components may be integrated into one hardware or software unit, or a single component may be distributed into a plurality of hardware or software units. Thus, unless otherwise noted, such integrated or distributed embodiments are also included within the scope of this disclosure.

본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다.In the present disclosure, the components described in the various embodiments are not necessarily essential components, and some may be optional components. Thus, embodiments consisting of a subset of the components described in one embodiment are also included within the scope of the present disclosure. Also, embodiments that include other elements in addition to the elements described in the various embodiments are also included in the scope of the present disclosure.

이하, 첨부한 도면을 참조하여 본 개시의 실시 예들에 대해서 설명한다.Hereinafter, embodiments of the present disclosure will be described with reference to the accompanying drawings.

본 개시는 영상의 병렬 처리에 관한 것이다. 구체적으로, 본 개시는 다양한 시점을 가진 영상을 병렬적으로 부/복호화함으로써 처리 속도를 높이는 장치에 관한 것이다. 다양한 시점을 가진 영상은 예컨대, 360도 동영상, 전방향 비디오, 다면체 360도 VR 영상 등일 수 있다. 본 개시에 따른 영상의 부/복호화에 있어서, 영상 내 또는 영상 간의 여러 방향으로의 참조가 가능하다는 점이 이용될 수 있다. 본 개시에서, 퍼스펙티브(perspective, 또는 시점)란 비디오를 촬영하는 카메라의 위치 또는 카메라의 방향을 의미할 수 있다.This disclosure relates to parallel processing of images. Specifically, the present disclosure relates to an apparatus for increasing the processing speed by parallelly attaching / decrypting images having various viewpoints. An image having various viewpoints can be, for example, a 360-degree moving image, an omnidirectional video, a polyhedron 360-degree VR image, and the like. In the image subdivision / decoding according to the present disclosure, it is possible to use a reference in various directions in an image or between images. In the present disclosure, perspective, or perspective, may refer to the position of a camera or the direction of a camera that captures video.

기존의 2D 비디오는 고정된 시점을 갖는다. 그러나, 전방향 비디오 또는 360도 비디오는 사용자가 원하는 시점으로 볼 수 있는 비디오를 의미한다. 전방향 비디오 또는 360도 비디오는 여러 대의 카메라, 어안 렌즈 또는 반사경을 이용하여 한 지점으로부터 360도의 모든 방향을 촬영한 뒤 3차원 공간상의 다면체 또는 구에 투영시킴으로써 획득될 수 있다. 전방향 비디오 또는 360도 비디오는 전체 영역 중 사용자가 바라보는 시점에 대응하는 영역만 재생될 수 있다. Conventional 2D video has a fixed viewpoint. However, omni-directional video or 360-degree video means video that can be viewed at a desired point in time. Omni-directional video or 360-degree video can be obtained by taking all directions of 360 degrees from one point using a plurality of cameras, a fish-eye lens, or a reflector, and projecting them onto polyhedrons or spheres in three-dimensional space. The omnidirectional video or the 360-degree video can be reproduced only in the entire area corresponding to the viewpoint of the user.

도 1은 360도 비디오를 촬영하기 위한 다양한 종류의 카메라를 예시한 도면이다. 1 is a diagram illustrating various types of cameras for photographing a 360-degree video.

도 1의 (a)는 여러 대의 카메라를 예시한 것이고, 도 1의 (b)는 어안 렌즈를 예시한 것이다. 도 1의 (c)는 반사경을 예시한 것이다.Fig. 1 (a) illustrates several cameras, and Fig. 1 (b) illustrates a fish-eye lens. Fig. 1 (c) illustrates a reflector.

도 2는 360도 비디오를 3차원 공간상에 투영시킨 영상을 예시적으로 도시한 도면이다. Fig. 2 is a diagram exemplarily showing an image obtained by projecting 360-degree video onto a three-dimensional space.

도 2의 (a)는 360도 영상을 3차원 공간의 다면체에 투영시킨 예를 나타낸다. 도 2의 (b)는 360도 영상을 3차원 공간의 구에 투영시킨 예를 나타낸다. 도 2의 예에서, 음영으로 표시된 부분은 360도 영상 중 재생되는 위치를 가리킨다. 즉, 도 2의 음영 부분은 사용자가 바라보는 시점에 대응하는 영역일 수 있다.2 (a) shows an example in which a 360-degree image is projected onto a polyhedron in a three-dimensional space. 2 (b) shows an example in which a 360-degree image is projected onto a sphere in a three-dimensional space. In the example of FIG. 2, the shaded area indicates the position where the 360-degree image is reproduced. That is, the shaded portion in FIG. 2 may be an area corresponding to a point of view of the user.

전방향 비디오(360도 비디오)를 압축 부호화하기 위해, 2D 비디오를 압축 부호화하기 위한 방법 및 장치가 사용될 수 있다. To compression-encode omnidirectional video (360-degree video), a method and apparatus for compression-encoding 2D video may be used.

도 3 및 4는 본 개시에 따른 영상 부호화 장치 및 복호화 장치의 구조를 예시한 도면이다.3 and 4 are views illustrating a structure of an image encoding apparatus and a decoding apparatus according to the present disclosure.

도 3의 영상 부호화 장치는 입력 영상을 수신하여 부호화함으로써 비트스트림을 생성할 수 있다. 영상 부호화 장치는 복원 픽쳐 버퍼(301), 화면 간 예측부(302), 화면 내 예측부(303), 스위치(304), 감산기(305), 변환부(306), 양자화부(307), 부호화부(308), 역양자화부(309), 역변환부(310) 및/또는 가산기(311)를 포함할 수 있다.The image encoding apparatus of FIG. 3 can generate a bitstream by receiving an input image and encoding the input image. The image encoding apparatus includes a reconstruction picture buffer 301, an inter picture prediction unit 302, an intra prediction unit 303, a switch 304, a subtracter 305, a transform unit 306, a quantization unit 307, An inverse transform unit 308, an inverse quantization unit 309, an inverse transform unit 310, and / or an adder 311. [

입력 영상은 블록 단위로 부호화될 수 있다. 현재 블록은 이미 부/복호화된 영상에 기초하여 화면 내 예측 또는 화면 간 예측될 수 있다. The input image can be encoded in block units. The current block can be predicted intra-picture or inter-picture based on the already coded / decoded image.

현재 블록이 화면 내 예측되는 경우, 스위치(304)는 화면 내 예측부(303)로 전환될 수 있다. 화면 내 예측부(303)는 현재 픽쳐 내의 이미 부/복호화된 영역을 참조하여 현재 블록을 예측할 수 있다. 현재 블록이 화면 간 예측되는 경우, 스위치(304)는 화면 간 예측부(302)로 전환될 수 있다. 화면 간 예측부(302)는 이미 부/복호화되어 복원 픽쳐 버퍼(301)에 저장된 적어도 하나의 픽쳐를 참조하여 현재 블록을 예측할 수 있다. When the current block is intra-picture predicted, the switch 304 can be switched to the intra-picture prediction unit 303. [ The intra prediction unit 303 can predict the current block by referring to the already coded / decoded area in the current picture. When the current block is inter-picture predicted, the switch 304 can be switched to the inter-picture predicting unit 302. [ The inter-picture prediction unit 302 can predict a current block by referring to at least one picture already stored in the reconstruction picture buffer 301 after being added / decoded.

화면 내 예측 또는 화면 간 예측에 의해 생성된 현재 블록의 예측 블록은 감산기(305)로 전송될 수 있다. 감산기(305)는 현재 블록과 현재 블록의 예측 블록 간의 차분 블록을 생성할 수 있다. 생성된 차분 블록에 대해 변환부(306)에서의 변환 및/또는 양자화부(307)에서의 양자화가 수행될 수 있다. 변환 및/또는 양자화를 거친 차분 계수(residual coefficient)는 부호화부(308)에서 부호화될 수 있다. 부호화부(308)는 예컨대, 심볼의 발생 확률에 기초한 엔트로피 부호화를 수행할 수 있다.The prediction block of the current block generated by intra-picture prediction or inter-picture prediction can be transmitted to the subtractor 305. [ The subtractor 305 may generate a difference block between the current block and the prediction block of the current block. The conversion in the conversion unit 306 and / or the quantization in the quantization unit 307 can be performed on the generated difference block. The residual coefficients that have undergone transformation and / or quantization can be encoded in the encoding unit 308. [ The encoding unit 308 can perform entropy encoding based on, for example, the probability of occurrence of a symbol.

변환 및/또는 양자화된 차분 블록에 대해 역양자화부(309)에서의 역양자화 및/또는 역변환부(310)에서의 역변환이 수행될 수 있다. 역양자화 및/또는 역변환된 차분 블록은 가산기(311)로 전송될 수 있다. 가산기(311)는 전송받은 차분 블록을 현재 블록의 예측 블록과 가산하여 현재 블록을 복원할 수 있다. 복원된 블록을 포함하는 복원 픽쳐는 복원 픽쳐 버퍼(301)에 저장될 수 있다.The inverse quantization in the inverse quantization unit 309 and / or the inverse transformation in the inverse transformation unit 310 may be performed on the transformed and / or quantized difference block. The inverse quantized and / or inverse transformed difference block may be sent to the adder 311. The adder 311 may add the transmitted difference block to the prediction block of the current block to restore the current block. The restored picture including the restored block may be stored in the restored picture buffer 301. [

도 4의 영상 복호화 장치는 비트스트림을 수신하여 복호화함으로써 복원 영상을 생성할 수 있다. 영상 복호화 장치는 복호화부(401), 역양자화부(402), 역변환부(403), 가산기(404), 화면 간 예측부(405), 화면 내 예측부(406), 스위치(407) 및/또는 복원 픽쳐 버퍼(408)를 포함할 수 있다.The image decoding apparatus of FIG. 4 can generate a reconstructed image by receiving and decoding a bitstream. The video decoding apparatus includes a decoding unit 401, an inverse quantization unit 402, an inverse transformation unit 403, an adder 404, an inter picture prediction unit 405, an intra prediction unit 406, a switch 407, and / Or a reconstructed picture buffer 408.

복호화부(401)는 비트스트림을 복호화하여 현재 블록의 차분 블록을 생성할 수 있다. 복호화부(401)는 예컨대, 심볼의 발생 확률에 기초한 엔트로피 복호화를 수행할 수 있다. 차분 블록은 변환 및/또는 양자화된 차분 계수를 포함할 수 있다.The decoding unit 401 may generate a difference block of a current block by decoding the bitstream. The decoding unit 401 can perform entropy decoding based on, for example, the probability of occurrence of a symbol. The difference block may comprise transformed and / or quantized difference coefficients.

변환 및/또는 양자화된 차분 계수를 포함하는 차분 블록에 대해 역양자화부(402)에서의 역양자화 및/또는 역변환부(403)에서의 역변환이 수행될 수 있다. 역양자화 및/또는 역변환된 차분 블록은 가산기(404)로 전송될 수 있다. 가산기(404)는 전송받은 차분 블록을 현재 블록의 예측 블록과 가산하여 현재 블록을 복원할 수 있다. 복원된 블록을 포함하는 복원 픽쳐는 복원 픽쳐 버퍼(408)에 저장될 수 있다.The inverse quantization in the inverse quantization unit 402 and / or the inverse transformation in the inverse transformation unit 403 may be performed on the difference block including the transformed and / or quantized difference coefficient. The inverse quantized and / or inverse transformed differential block may be sent to the adder 404. The adder 404 may add the transmitted difference block to the prediction block of the current block to restore the current block. The reconstructed picture including the reconstructed block may be stored in the reconstructed picture buffer 408.

가산기(404)로 입력되는 현재 블록의 예측 블록은 이미 복호화된 영상에 기초하여 생성될 수 있다. 현재 블록이 화면 내 예측되는 경우, 스위치(407)는 화면 내 예측부(406)로 전환될 수 있다. 화면 내 예측부(406)는 현재 픽쳐 내의 이미 부/복호화된 영역을 참조하여 현재 블록을 예측할 수 있다. 현재 블록이 화면 간 예측되는 경우, 스위치(407)는 화면 간 예측부(405)로 전환될 수 있다. 화면 간 예측부(405)는 이미 부/복호화되어 복원 픽쳐 버퍼(408)에 저장된 적어도 하나의 픽쳐를 참조하여 현재 블록을 예측할 수 있다. The prediction block of the current block input to the adder 404 may be generated based on the already decoded image. When the current block is predicted on the screen, the switch 407 can be switched to the intra prediction unit 406. [ The intra prediction unit 406 can predict the current block by referring to the already-coded / decoded area in the current picture. When the current block is inter-picture predicted, the switch 407 can be switched to the inter-picture predicting unit 405. The inter-picture prediction unit 405 can predict a current block by referring to at least one picture that has already been coded / decoded and stored in the reconstruction picture buffer 408.

본 개시에 따른 부/복호화 방법은 전방향(360도) 비디오 외에도 실감 미디어 영상에 적용될 수 있다. 실감 미디어 영상은 다이버전트(Divergent) 카메라 영상, 컨버전트(Convergent) 카메라 영상 등을 포함할 수 있다. The sub-decoding method according to the present disclosure can be applied to realistic media images in addition to forward (360) video. The realistic media image may include a divergent camera image, a convergent camera image, and the like.

도 5는 다이버전트 카메라 영상 및 컨버전트 카메라 영상을 예시적으로 설명하기 위한 도면이다. 5 is a diagram for explaining an example of a diversity camera image and a converged camera image.

다이버전트 카메라 영상은 여러 대의 카메라(C1, C2, C3)를 이용하여 획득한 다양한 방향의 영상(W1, W2, W3)을 포함할 수 있다. 컨버전트 카메라 영상은 여러 대의 카메라(C1 내지 C4)를 이용하여 획득한 특정 방향의 영상(W, W2, W3, W4)을 포함할 수 있다.The divergent camera image may include images W1, W2, and W3 in various directions obtained using a plurality of cameras C1, C2, and C3. Convergent camera images may include images W, W2, W3 and W4 in a specific direction obtained using a plurality of cameras C1 to C4.

동영상 부호화 장치는 정지 영상 또는 동영상을 압축할 수 있다. 동영상 부호화 장치는 영상 전체를 하나의 처리 단위로 압축하는 프레임(Frame) 기반 압축 또는 영상을 특정 블록 단위로 나누어서 처리하는 블록(Block) 기반 압축 등을 수행할 수 있다. 프레임 기반 압축을 수행하는 영상 부/복호화 장치는 예측 기술을 적용하기 어렵고, 많은 메모리와 계산량을 요구하는 문제점이 있다. 따라서, 대부분의 영상 부/복호화 장치들은 블록 기반 압축을 수행하고 있다. The moving picture encoding apparatus can compress a still image or a moving image. The moving picture encoding apparatus can perform frame based compression for compressing an entire image in one processing unit or block based compression for processing an image in units of specific blocks. The image coding / decoding apparatus for performing frame-based compression has a problem that it is difficult to apply a prediction technique and requires a large amount of memory and a calculation amount. Therefore, most image decoding / decoding devices are performing block-based compression.

블록 기반 압축은 예컨대, 영상을 큰 블록 단위인 부호화 트리 유닛(Coding Tree Unit, CTU)으로 분할하여 수행할 될 수 있다. CTU들은 순차 주사 순서로 부/복호화될 수 있다. 순차 주사 순서는 래스터 스캔 순서 또는 Z 스캔 순서일 수 있다. 예컨대, CTU는 보다 작은 블록 단위인 코딩 유닛(Coding Unit, CU)로 분할된 후 부/복호화될 수 있다. 이러한 방식은 영상의 특성에 따라 블록의 크기를 보다 정밀하게 조정할 수 있으므로, 압축 효율면에서 유리하다. The block-based compression can be performed, for example, by dividing an image into a large-block unit Coding Tree Unit (CTU). CTUs can be coded / decoded in progressive scan order. The progressive scan sequence may be a raster scan sequence or a Z scan sequence. For example, the CTU may be divided into a coding unit (CU), which is a smaller block unit, and then added / decoded. This method is advantageous in terms of compression efficiency because the block size can be adjusted more precisely according to the characteristics of the image.

도 6은 영상의 분할을 설명하기 위한 예시도이다.6 is an exemplary diagram for explaining division of an image.

도 6의 (a)는 한 영상을 CTU 단위로 나눈 모습을 나타낸다. 도 6의 (a)를 참조하면, 각각의 CTU는 순차 주사 순서에 따라, CTU A에서 CTU K의 순서로 부/복호화될 수 있다. 6 (a) shows a state in which one image is divided into CTU units. Referring to Fig. 6 (a), each CTU can be decoded in the order of CTU A to CTU K according to the progressive scanning order.

블록 기반 동영상 압축 장치는 영상 내의 이웃 블록 간 상관도를 이용하여 중복되는 정보를 없앰으로써, 전송할 정보의 양을 줄여, 압축 효율을 높일 수 있다. 도 6의 (a)를 참조하면, CTU F의 부/복호화가 시작되는 시점에서는 이웃 CTU인 B, C, D, E의 부/복호화가 완료되어 있다. 따라서 이웃 CTU의 정보들을 이용하여 CTU F의 압축 효율을 높일 수 있다. 이는 CTU F를 복호화하기 위해서는 CTU B, C, D, E의 복호화가 완료되어 있어야함을 의미할 수도 있다.The block-based moving picture compression apparatus eliminates redundant information by using the degree of correlation between neighboring blocks in an image, thereby reducing the amount of information to be transmitted and improving compression efficiency. Referring to FIG. 6A, the neighboring CTUs B, C, D, and E have been subdivided and decoded at the time when CTU F starts to be subdivided / decoded. Therefore, the compression efficiency of the CTU F can be increased by using information of neighboring CTUs. This may mean that the decoding of CTU B, C, D, E must be completed in order to decode CTU F.

도 6의 (b)는 CTU를 재귀적으로 분할하는 예를 나타낸다. 전술한 바와 같이, CTU는 복수의 CU들로 분할될 수 있고, 이 때, 재귀적인 분할이 적용될 수 있다. 재귀적인 분할을 위해 예컨대, 쿼드 트리 분할이 이용될 수 있다. 도 6의 (b)에 도시된 예에서와 같이, CTU F는 4개의 CU로 분할될 수 있다. 이 때, CTU F의 분할 여부를 지시하는 분할 플래그는 1일 수 있다. 분할된 각 CU는 Z 스캔 순서로 부/복호화될 수 있다. 또한, 각 CU는 다시 4개의 CU로 분할될 수 있다. 또는 각 CU는 해당 깊이에서 분할이 중단될 수 있다. 각 CU의 분할 플래그는 해당 CU의 분할 여부를 나타낼 수 있다. 이와 같은, 재귀적 분할은 분할 플래그 값 또는 영상에서 명시된 분할 허용 최대 깊이에 이르러 중단될 수 있다. 도 6의 (b)에 도시된 바와 같이, CTU F는 4개의 CU로 분할되고 Z스캔 순으로 첫번째, 두번째 및 세번째 CU는 분할되지 않을 수 있다. 또한, 4번째 CU F1은 다시 4개의 CU로 분할될 수 있다. CU F1을 분할하여 생성된 4개의 CU 중 Z스캔 순서로 첫번째, 두번째 및 세번째 CU는 분할되지 않을 수 있다. 또한, 네번째 CU F2는 다시 4개의 CU로 분할될 수 있다. 도 6의 (b)에 예시된 분할 구조를 통해 영상 안에서 예측 블록의 크기를 조정할 수 있게 되어 예측의 효율을 향상시킬 수 있다.6 (b) shows an example of recursively dividing the CTU. As described above, the CTU can be divided into a plurality of CUs, where recursive partitioning can be applied. For recursive partitioning, for example, quadtree partitioning may be used. As in the example shown in FIG. 6 (b), the CTU F can be divided into four CUs. At this time, the division flag indicating whether CTU F is divided may be 1. Each divided CU can be added / decoded in Z scan order. In addition, each CU can be further divided into four CUs. Alternatively, each CU can be interrupted at its depth. The division flag of each CU may indicate whether the corresponding CU is divided or not. Such recursive partitioning can be stopped by the partition flag value or the maximum allowable division depth specified in the image. As shown in FIG. 6 (b), the CTU F may be divided into four CUs, and the first, second and third CUs may not be divided in Z scan order. In addition, the fourth CU F1 can be further divided into four CUs. The first, second and third CUs in the Z scan order among the four CUs generated by dividing the CU F1 may not be divided. In addition, the fourth CU F2 can be further divided into four CUs. The size of the prediction block can be adjusted in the image through the divided structure illustrated in FIG. 6 (b), and the efficiency of prediction can be improved.

영상의 부/복호화 속도를 향상시키기 위해 WPP(Wavefront Parallel Processing) 및/또는 타일(Tile) 기반 부/복호화가 이용될 수 있다. Wavefront 기술은 픽셀 정보에 대한 의존성이 해결될 경우 병렬 처리를 시작하는 기술이다. 도 6의 (a)를 참조하면, CTU D는 상단 행의 CTU인 B의 부/복호화가 완료되면 픽셀 정보 대한 의존성이 해결될 수 있다. 따라서, CTU B의 정보를 이용한 예측 알고리즘을 적용할 수 있다. 마찬가지로 CTU H는 상단 행의 CTU E의 부/복호화가 완료되면 픽셀 정보에 대한 의존성이 해결될 수 있다. 따라서, CTU E의 정보를 이용한 예측 알고리즘을 적용할 수 있다. 하지만 픽셀 정보 의존성을 고려하여 영상을 병렬적으로 부/복호화 하더라도 엔트로피 코딩은 병렬적으로 진행하지 못하고 순차 주사 순서로 실행이 된다. 따라서, 엔트로피 코딩이 부/복호화시 병렬 처리의 병목 지점이 되고 있다. 이러한 문제점은 WPP의 적용에 의해 해결될 수 있다. WPP는 추가적으로 엔트로피 코딩에 대해서도 병렬적인 부/복호화를 지원할 수 있다. 이를 위하여 각 CTU의 행 단위로 서브 비트스트림을 생성하고 해당 서브 비트스트림들의 위치를 슬라이스 헤더에 전송해 줌으로써 각 서브 비트스트림에 대해서 병렬적인 엔트로피 코딩을 가능하게 해준다. 즉 WPP를 통해 각 행마다 엔트로피 코딩을 독립적으로 사용할 수 있다. Wavefront parallel processing (WPP) and / or tile-based subtraction / decryption may be used to improve the speed of image subtraction / decoding. Wavefront technology is a technology that starts parallel processing when dependence on pixel information is resolved. Referring to FIG. 6 (a), CTU D can solve the dependency on pixel information when the B / C decoding, which is the CTU of the upper row, is completed. Therefore, a prediction algorithm using information of CTU B can be applied. Likewise, CTU H can resolve the dependence on the pixel information once the top row CTU E has been subdivided / decoded. Therefore, a prediction algorithm using information of CTU E can be applied. However, entropy coding can not be performed in parallel even if images are parallelly added / decoded in consideration of pixel information dependency, and they are executed in a sequential scanning order. Therefore, entropy coding is becoming a bottleneck in parallel processing during subtraction / decryption. This problem can be solved by applying WPP. WPP can additionally support parallel concatenation / decryption for entropy coding. For this purpose, a sub-bit stream is generated in units of rows of each CTU and the positions of the sub-bit streams are transmitted to the slice header, thereby enabling parallel entropy coding for each sub-bit stream. That is, entropy coding can be used independently for each row through WPP.

WPP에서는 엔트로피 코딩의 부호화 효율 저하를 최소화하는 동시에 병렬 부/복호화를 지원하기 위해, 하단 행은 상단 행의 2번째 블록이 완성될 시점에서 엔트로피 문맥 모델을 획득하고 부/복호화를 시작한다. 현재 블록과 이웃 블록은 상관도가 높다. 따라서, 각 행에서 완전히 초기화된 문맥 모델을 사용하는 것보다 업데이트된 문맥 정보를 이웃 블록으로부터 획득하여, 현재 행의 문맥 모델을 초기화하는 것이 부/복호화기의 압축 효율을 높이는데 더 유리하다. In WPP, to minimize the degradation of coding efficiency of entropy coding and to support parallel partitioning / decoding, the bottom row acquires an entropy context model at the time when the second block of the upper row is completed and starts subdecryption. The current block and neighboring blocks are highly correlated. Thus, rather than using a fully initialized context model in each row, it is more advantageous to obtain updated context information from the neighboring block and initialize the context model of the current row to increase the compression efficiency of the sub-decoder.

도 7은 영상 내에서 WPP 처리 순서를 설명하기 위한 도면이다. 7 is a diagram for explaining the WPP processing procedure in an image.

도 7의 영상내 블록은 CTU를 의미한다. 블록 내 숫자는 각 CTU의 처리 순서를 의미한다. 도 7의 화살표는 상단 행의 문맥 정보를 획득하여 현재 행의 문맥 모델을 초기화는 것을 나타낸다.The block in the image of Fig. 7 means CTU. The number in the block indicates the processing order of each CTU. The arrow in Fig. 7 indicates that the context information of the upper row is acquired and the context model of the current row is initialized.

도 7에 있어서, 음영처리된 CTU는 부호화 및/또는 복호화가 완료된 CTU를 나타낸다. 또한, 음영처리되지 않은 CTU는 아직 부호화 및/또는 복호화가 시작되지 않은 CTU를 나타낸다.In Fig. 7, the shaded CTU represents a CTU that has been encoded and / or decoded. Also, a non-shadowed CTU represents a CTU that has not yet been encoded and / or decoded.

도 8은 타일 기반 병렬 처리를 설명하기 위한 도면이다. 8 is a diagram for explaining tile-based parallel processing.

도 8에 도시된 바와 같이, 한 픽쳐는 직사각형 모양을 갖는 여러 개의 타일(예컨대, 6개의 타일)로 분할될 수 있다. 각각의 타일은 서로 독립적인 영역으로 부/복호화될 수 있다. 각각의 타일에 포함된 CTU 들은 순차 주사 순서대로 부/복호화가 수행될 수 있다. 즉, 타일 기반 병렬 처리의 경우, 타일의 경계에 위치하는 블록들은 이웃하는 타일에 속하는 블록의 픽셀 값이나 움직임 벡터와 같은 정보를 사용하지 않고 부호화 또는 복호화될 수 있다. 따라서, 타일을 이용할 경우, 슬라이스의 경우와 유사하게, 각 타일 영역을 동시에 인코딩하거나 디코딩할 수 있다. As shown in FIG. 8, one picture may be divided into several tiles (e.g., six tiles) having a rectangular shape. Each tile can be subdivided into regions independent of each other. The CTUs included in each tile can be subdivided / decoded in order of sequential scanning. That is, in the case of tile-based parallel processing, blocks located at the boundary of a tile can be encoded or decoded without using information such as a pixel value or a motion vector of a block belonging to a neighboring tile. Thus, when using tiles, similar to the case of slices, each tile area can be encoded or decoded simultaneously.

타일 분할 정보는 예컨대, 픽쳐 파라미터 셋(Picture Parameter Set, PPS)을 통해 시그널링될 수 있다. 타일 분할 정보는 각 타일의 시작점에 관한 정보를 포함할 수 있다. 또는 타일 분할 정보는 픽쳐를 분할하는 하나 이상의 수직 경계선 및/또는 하나 이상의 수평 경계선에 관한 정보를 포함할 수 있다. 또는 타일 분할 정보는 픽쳐를 균등한 크기의 타일로 분할할 지에 관한 정보를 포함할 수 있다. The tile segmentation information may be signaled, for example, via a Picture Parameter Set (PPS). The tile partition information may include information about a starting point of each tile. Or tile segmentation information may include information about one or more vertical boundaries and / or one or more horizontal boundaries that divide the picture. Or tile segmentation information may include information about whether to partition the picture into tiles of equal size.

도 9는 360도 전방향 비디오를 부/복호화하기 위한 전개도를 예시한 도면이다.FIG. 9 is a diagram illustrating a developed view for embedding / decoding 360 degrees forward video.

360도 전방향 비디오의 영상은 도 9에 도시된 바와 같이, 다면체의 전개도, 또는 구를 펼친 등장방형(Equirectangular) 형태로 투영되어 처리될 수 있다. 영상을 재생할 때는 해당 영상이 다면체, 또는 구에 투영되고 사용자는 다면체 또는 구의 중심에서 영상을 시청하는 형태로 재생될 수 있다. 예컨대, 도 2에 도시된 바와 같이, 사용자의 시점은 다면체 또는 구의 중심에 있는 것으로 가정할 수 있다.An image of the 360-degree omnidirectional video can be projected and processed in an expanded view of a polyhedron or an equirectangular form in which a sphere is expanded, as shown in FIG. When an image is reproduced, the image is projected on a polyhedron or a sphere, and the user can reproduce the image in the form of viewing the image from the center of the polyhedron or sphere. For example, as shown in FIG. 2, it can be assumed that the viewpoint of the user is at the center of a polyhedron or a sphere.

도 10은 360도 전방향 영상을 정육면체에 투영한 경우의 전개도를 설명하기 위한 도면이다.10 is a diagram for explaining a developed view when a 360-degree omnidirectional image is projected on a cube.

도 10에 도시된 예에서와 같이, 360도 전방향 영상이 정육면체에 투영될 경우, 영상의 정보는 6개의 면 P1, P2, P3, P4, P5 및 P6 별로 저장될 수 있다. 또한, 영상이 재생이 될 때는 도 10의 (a)에 도시된 예에서와 같이, 6개 면의 각각의 영상을 3차원 공간의 정육면체에 투영시켜 재생할 수 있다. 여기서 시청자의 위치는 정육면체의 중심에 있으며, 각 면들은 눈이 바라보는 시점의 위치 및/또는 방향(퍼스펙티브, Perspective)이 될 수 있다. 예를 들어, 도 10에 도시된 예에서, 퍼스펙티브 P4가 정육면체의 정면, 퍼스펙티브 P1이 정육면체의 위쪽이라고 한다면 퍼스펙티브 P2는 정육면체의 뒤쪽, 퍼스펙티브 P3는 정육면체의 왼쪽, 퍼스펙티브 P5는 정육면체의 오른쪽, 퍼스펙티브 P6는 정육면체의 아래쪽에 해당될 수 있다. As in the example shown in FIG. 10, when a 360-degree omnidirectional image is projected on the cube, the image information can be stored for each of the six planes P1, P2, P3, P4, P5 and P6. When an image is reproduced, as in the example shown in Fig. 10A, each of the six images can be reproduced by being projected onto a cube of a three-dimensional space. Here, the position of the viewer is at the center of the cube, and each of the faces can be the position and / or direction (perspective) of the viewpoint of the eye. For example, in the example shown in Fig. 10, if the perspective P4 is the front face of the cube, the perspective P1 is the upper side of the cube, the perspective P2 is the back of the cube, the perspective P3 is the left side of the cube, the perspective P5 is the cube, May correspond to the lower side of the cube.

다면체에 투영되는 전방향 영상은 다면체를 어떻게 전개하느냐에 따라 다양한 전개도로 표현될 수 있다. 도 11은 정육면체에 투영되는 전방향 영상을 2차원으로 전개하기 위한 다양한 방식을 설명하기 위한 도면이다.An omnidirectional image projected on a polyhedron can be expressed in various developed views depending on how the polyhedron is developed. 11 is a view for explaining various methods for developing an omnidirectional image projected on a cube in two dimensions.

예컨대, 도 11에 도시된 예에서와 같이, 11가지 전개 방식이 존재할 수 있다. 또는 도 11에 도시된 전개도를 상/하/좌/우로 대칭시켜 얻어진 전개도를 다른 형태의 전개도로 취급할 수도 있다. For example, as in the example shown in Fig. 11, there may be eleven modes of deployment. Alternatively, the developed view obtained by symmetrically projecting the developed view shown in Fig. 11 up / down / left / right may be treated as another developed view.

각 퍼스펙티브를 독립적으로 부/복호화하는 경우, 도 11에 도시된 전개도는 영상이 어디에 위치하는지에 대한 정보 이외에 별다른 의미가 없을 수 있다. 하지만, 퍼스펙티브간 영상 정보의 연속성을 이용하여 순차 주사 순으로 부/복호화를 처리하게 되면 전개도의 형태에 따라 부/복호화 속도에 차이가 발생할 수 있다. In the case of independently embedding / decoding each perspective, the developed view shown in FIG. 11 may have no meaning other than information on where the image is located. However, if sub-decoding is performed in the order of sequential scanning using the continuity of image information between perspectives, there may be a difference in the sub-decoding speed depending on the type of the developed scene.

이하에서, 전개도에 따른 부/복호화 속도의 차이에 대해 상세히 설명한다.Hereinafter, the difference in the subdecryption rate according to the developed view will be described in detail.

도 12는 인접한 퍼스펙티브에 속하는 CTU 사이의 의존성을 설명하기 위한 예시도이다. 도 12에서, A, B, C, D, E, F의 각각은 전개도 상에 전개되는 퍼스펙티브들의 위치를 나타내고 굵은 선은 퍼스펙티브간의 경계를 나타낸다. 각 퍼스펙티브 내부의 작은 사각형은 영상 처리의 단위가 되는 블록(예컨대, CTU)를 나타낸다. 12 is an exemplary diagram for explaining the dependency between CTUs belonging to adjacent perspectives. In FIG. 12, each of A, B, C, D, E, and F represents the position of the deployed perspectives on the developed view, and the thick line represents the boundary between perspectives. A small rectangle inside each perspective represents a block (e.g., CTU) that is a unit of image processing.

WPP 병렬 처리를 통해서 해당 영상을 부/복호화 할 경우, 퍼스펙티브 E의 CTU e1은 퍼스펙티브 B의 CTU b1 및 퍼스펙티브 D의 CTU d2에 대해 의존성을 갖는다. 따라서, 퍼스펙티브 B의 CTU b1 및 퍼스펙티브 D의 CTU d2의 부/복호화가 완료되어야 퍼스펙티브 E의 CTU e1의 부/복호화가 가능해진다. 마찬가지 이유로 퍼스펙티브 C의 CTU c1 및 퍼스펙티브 E의 CTU e2의 부/복호화가 완료되어야 퍼스펙티브 F의 CTU f1의 부/복호화가 가능하진다. When the image is added / decoded through WPP parallel processing, CTU e1 of perspective E has dependency on CTU b1 of perspective B and CTU d2 of perspective D. Therefore, the subdecryption of the CTU b1 of the perspective B and the CTU d2 of the perspective D are completed, so that the CTU e1 of the perspective E can be subdivided / decrypted. For the same reason, the subdecryption of CTU c1 of perspective C and CTU e2 of perspective E must be completed before subtraction / decryption of CTU f1 of perspective F is possible.

전방향 영상의 경우 전개도에 따라서 영상의 특정 위치에 정보가 존재하지 않을 수 있다. 예를 들어, 전개도에 따라 도 12에 도시된 퍼스펙티브 D의 영상 존재하지 않을 수 있다. 하지만 기존 WPP 병렬 처리 방식으로는 퍼스펙티브 D의 영상이 존재하지 않더라도 퍼스펙티브 E의 부/복호화는 퍼스펙티브 B의 CTU b1의 부/복호화가 완료된 후 시작될 수 있다. 따라서, 전체 영상의 부/복호화 처리 시간은 퍼스펙티브 D의 영상가 존재할 때와 차이가 없다. 하지만, 전개도 상으로 퍼스펙티브 F의 영상이 없을 경우 퍼스펙티브 E의 영상의 부/복호화 처리가 끝나면 전체 영상의 부/복호화가 완료될 수 있다. In the case of omnidirectional images, information may not exist at a specific position of the image depending on the developed view. For example, the image of the perspective D shown in Fig. 12 may not exist depending on the developed view. However, in the conventional WPP parallel processing method, the partial decoding of the perspective E can be started after the subtraction / decoding of the perspective B is performed, even if the perspective D image does not exist. Therefore, the sub / decryption processing time of the entire image is not different from when the perspective image D exists. However, if there is no perspective F image on the developed view, the sub-decoding of the entire image can be completed when the image of the perspective E is decoded / decoded.

도 13은 전개 방식에 따른 부/복호화 종료 시점을 설명하기 위한 도면이다.FIG. 13 is a diagram for explaining a subdecryption ending point according to a developing method.

도 13의 (a)는 부/복호화 순서상 마지막 퍼스펙티브가 도 12의 D 위치에 있는 경우를 도시한 도면이다. 도 13의 (b)는 마지막 퍼스펙티브가 도 12의 E 위치에 있는 경우를 도시한 도면이다. 도 13의 (a) 및 (b)에 있어서, 굵은 선은 퍼스펙티브 사이의 경계를 나타낸다. 또한, 각 퍼스펙티브 내의 작은 사각형은 CTU를 나타낸다. 또한, 각 CTU 내부의 숫자는 해당 CTU의 부/복호화 순서를 나타낸다.FIG. 13A is a diagram showing a case where the last perspective is the D position in FIG. 12 in the sub-decoding order. FIG. 13B is a diagram showing a case where the last perspective is at the position E in FIG. 12. FIG. In Figs. 13A and 13B, a thick line indicates a boundary between perspectives. Also, the small rectangle in each perspective represents the CTU. In addition, the numbers inside each CTU indicate the order in which the corresponding CTU is added / decoded.

각 CTU의 부/복호화 처리 시간이 동일하다고 가정할 때, 도 13의 (a)의 경우 23번째 CTU를 처리할 때 전체 영상의 부/복호화가 완료됨을 알 수 있다. 또한, 도 13의 (b) 경우 28번째 CTU를 처리할 때 전체 영상의 부/복호화가 완료됨을 확인할 수 있다. 전술한 바와 같이, 좌상단에서 우하단의 순서로 부/복호화를 수행하는 WPP 방식을 이용하면, 영상에 포함된 퍼스펙티브의 개수가 동일하더라도 전체 영상의 부/복호화가 완료되는 시점이 다름을 알 수 있다. 즉, 퍼스펙티브의 위치(또는 전개 방식)가 부/복호화 처리 속도에 영향을 줄 수 있다. Assuming that the sub-decode processing time of each CTU is the same, in the case of FIG. 13 (a), it is understood that the sub-decode of the entire image is completed when the 23rd CTU is processed. 13 (b), it can be confirmed that the entire image is added / decoded when the 28th CTU is processed. As described above, when the WPP method for performing the subtraction / decimation in the order from the upper left to the lower right is used, it can be seen that the time at which the entire image is added / decoded is different even if the number of perspectives included in the image is the same . That is, the position (or deployment method) of the perspective may affect the subdecryption processing speed.

WPP를 이용한 부/복호화 처리 순서는 영상 정보 의존성에 의해 결정될 수 있다. 즉, CTU의 처리는 위쪽 행의 2개의 CTU가 처리되어야 시작될 수 있다. 각 CTU의 부/복호화 처리 시간이 동일하다고 가정하면, 위와 같은 의존성으로 인해 행(row)당 지연은 2개의 CTU를 처리하는 시간이 된다. 또한, CTU의 처리는 좌측에 인접한 1개의 CTU가 처리되어야 시작될 수 있으므로, 열(column)당 지연은 1개의 CTU를 처리하는 시간이 된다. The order of addition / decryption processing using WPP can be determined by image information dependency. That is, the processing of the CTU can be started only when two CTUs in the upper row have been processed. Assuming that the subtotal processing time of each CTU is the same, the delay per row becomes the time to process two CTUs due to the above dependency. Also, since the processing of the CTU can be started when one CTU adjacent to the left side is processed, the delay per column becomes the time to process one CTU.

도 14는 전개도에 따른 영상 처리 시간의 차이를 설명하기 위한 도면이다.14 is a diagram for explaining a difference in image processing time according to a developed view.

도 14의 (a)를 참조하면, 각 시점(퍼스펙티브)은 5×5개의 CTU를 가진다. 마지막 시점은 4번째 행 3번째 열에 위치하고, 마지막 CTU는 20번째 행, 15번째 열에 위치한다. 전술한 바와 같이, 행당 2개의 CTU, 열 당 1개의 CTU 지연이 발생한다. 따라서, 마지막 CTU는 (2 × 20(행) - 1) + (1 × 15(열) - 1)번째에 처리된다. 결국, 도 14의 (a)에서, 마지막 CTU는 53번째에 완료됨을 확인할 수 있다. 따라서, 1개의 CTU의 처리 시간을 t(CTU)라고 하면, 도 14의 (a)의 전개도에 따른 전체 영상의 처리에 소요되는 시간은 53*t(CTU)가 된다. Referring to Fig. 14 (a), each viewpoint (perspective) has 5 x 5 CTUs. The last point is located in the third row of the fourth row, and the last CTU is located in the 20th row and the 15th column. As described above, there are two CTUs per row, one CTU delay per row. Therefore, the last CTU is processed in (2 x 20 (row) - 1) + (1 x 15 (column) - 1) th. As a result, in FIG. 14 (a), it can be confirmed that the last CTU is completed at the 53rd time. Therefore, if the processing time of one CTU is t (CTU), the time required for the processing of the entire image according to the developed view of Fig. 14 (a) is 53 * t (CTU).

도 14의 (b)는 시점당 5×5개의 CTU를 가진 전방향 영상의 또 다른 전개도를 예시한 도면이다. 도 14의 (b)를 참조하면, 전개도의 오른쪽 하단에 위치한 CTU는 15번째 행, 5번째 열 및 10번째 행, 20번째 열의 2군데에 존재한다. 각각의 경우에 대해서 처리 시간을 계산해보면 15번째 행, 5번째 열의 CTU는 (2 × 15(행) - 1) + (1 × 5(열) -1) = 33번째에 처리된다. 10번째 행, 20번째 열의 CTU는 (2 × 10(행) - 1) + (1 × 20(열) -1) = 38번째에 처리된다. 따라서, 전체 영상의 처리에 소요되는 시간은 38*t(CTU)가 된다. 전술한 바와 같이, 같은 크기의 정육면체의 전개도지만 어떻게 전개되느냐에 따라서 WPP의 처리 속도에 차이가 있음을 알 수 있다.FIG. 14 (b) is a diagram illustrating another developed view of an omnidirectional image having 5 × 5 CTUs per viewpoint. Referring to FIG. 14B, the CTU located at the lower right of the developed view exists in 15th row, 5th column, 10th row and 20th column. If the processing time is calculated for each case, the CTUs in the 15th row and the 5th column are processed in the (33) th row (2 x 15 (row) -1) + (1 x 5 (column) -1). The CTUs of the 10th row and the 20th column are processed in the (38th) (2 占 10 (rows) -1) + (1 占 20 (columns) -1). Therefore, the time required for processing the entire image is 38 * t (CTU). As described above, it can be seen that the processing speed of the WPP differs depending on how the cube of the same size is developed but how it is developed.

인접한 CTU 사이의 의존성에 의해 발생하는 처리 시간의 지연은, 타일 기반 기술을 적용하여 완화시킬 수 있다. 즉, 각각의 면(즉, 서로 다른 퍼스펙티브를 갖는 영역)을 독립적 타일로 취급하여 병렬적으로 부/복호화하는 것이다. 각 퍼스펙티브를 독립적 타일로 병렬 처리하는 경우, 전체 영상의 처리 시간은 하나의 퍼스펙티브를 처리하는 시간(예컨대, 도 14의 예에서는 25*t(CTU))으로 단축될 수 있다. 타일 기반의 병렬 부/복호화는 사용자가 일정 거리를 두고 시청하게 되는 영상에 유용하게 적용될 수 있다. 하지만, 360도 VR 영상과 같은 실감형 영상의 경우, 사용자는 영상의 일부를 매우 근접한 위치에서 시청할 수 있으므로, 기존 영상들 보다 훨씬 큰 해상도를 가져야 한다. 특히, 360도 VR 영상의 경우, 몰입도가 매우 중요하므로, 영상 재생시 픽셀이 보이지 않을 정도의 고화질이 요구된다. The delay in processing time caused by the dependency between adjacent CTUs can be mitigated by applying a tile based technique. That is, each surface (i.e., a region having different perspective) is treated as an independent tile and is concatenated / decoded. In the case of parallel processing of each perspective into independent tiles, the processing time of the entire image can be shortened to a time for processing one perspective (e.g., 25 * t (CTU) in the example of Fig. 14). The tile-based parallel division / decryption can be usefully applied to an image that a user views at a certain distance. However, in the case of a realistic image such as a 360-degree VR image, a user can view a part of the image at a very close position, and therefore, the resolution must be much larger than that of existing images. Particularly, in the case of a 360-degree VR image, the degree of immersion is very important, so that a high image quality is required such that a pixel can not be seen during image reproduction.

타일 기반 기술을 사용하면, 각 타일이 독립적으로 처리되므로, 예측에 활용할 수 있는 참조 영역이 줄어들고, 압축 효율이 낮아지게 된다. 따라서, 압축 효율이 크게 요구되는 360도 전방향 영상에는 타일 기반 기술을 그대로 적용하는 것이 적합하지 않을 수 있다.Using the tile-based technique, each tile is treated independently, reducing the reference area that can be used for prediction and reducing the compression efficiency. Therefore, it may not be appropriate to apply the tile-based technology to the 360-degree omnidirectional image, which requires a large compression efficiency.

따라서, 360도 VR 영상의 병렬 처리를 위해서는 퍼스펙티브간의 의존성을 이용한 부/복호화가 중요하다. 도 13 및 도 14를 참조하여, 360도 VR 영상의 처리를 위해 다양한 전개 방식이 적용될 수 있고, 각 전개도상에서 인접한 퍼스펙티브간 의존성을 이용하여 병렬 처리를 수행할 수 있음을 설명하였다. 그러나, 전개도상에서의 퍼스펙티브간 연속성만을 고려하게 되면, 전체 영상 처리 시간을 단축하는 것은 한계가 있다. 예컨대, 360도 VR 영상의 전개도는 도 10에 도시된 바와 같이, 3차원으로 연결된 퍼스펙티브들을 펴서 만들어진 것이다. 따라서, 다면체상에서는 퍼스펙티브의 변의 개수만큼 인접한 퍼스펙티브가 존재한다. 즉, 전개도 상에서 이용할 수 있는 인접 퍼스펙티브의 수보다 다면체 상에서 이용할 수 있는 인접 퍼스펙티브의 수가 더 많다.Therefore, for parallel processing of 360-degree VR images, it is important to use the dependency between the perspectives to decode. 13 and 14, it has been described that various development methods can be applied for the processing of a 360-degree VR image, and parallel processing can be performed using the dependencies between adjacent perspectives on each developed view. However, if only continuity between perspectives on a developed view is taken into consideration, there is a limit to shorten the entire image processing time. For example, a developed view of a 360-degree VR image is created by spreading three-dimensionally connected perspectives, as shown in FIG. Therefore, on the polyhedron, there are perspectives adjacent to the number of sides of the perspective. That is, the number of adjacent perspectives available on the polyhedron is greater than the number of adjacent perspectives available on the developed view.

이하에서는 360도 VR 영상의 특성을 고려한, 영상의 병렬 부/복호화 방법 및 장치를 설명한다. 구체적으로, 본 개시에 따르면, 360도 비디오(전방향 비디오)와 같은 복수의 퍼스펙티브를 가진 영상에서 각 퍼스펙티브간의 연속성이 하나 이상 존재함을 이용하여 부/복호화의 병렬적 처리를 보다 효율적으로 처리할 수 있다.Hereinafter, a description will be given of a method and an apparatus for parallel division / decoding of images considering the characteristics of a 360 degree VR image. Specifically, according to the present disclosure, it is possible to more efficiently handle the parallel processing of subtitling / deciphering using one or more continuity between perspectives in an image having a plurality of perspectives such as 360-degree video (forward video) .

도 10의 (a)에 도시된 예에서와 같이, 360도 전방향 영상은 정육면체와 같은 여러 퍼스펙티브를 가진 다면체의 전개도에 저장이 된다. 전개도상에서는, 도 10의 (c)에 도시된 예에서와 같이, 퍼스펙티브 P1은하나의 퍼스펙티브와 인접하고 있다. 그러나, 실제로는 도 10의 (a)에 도시된 예에서와 같이, 각 퍼스펙티브는 좌우상하 방향으로 네 개의 퍼스펙티브와 인접하고 있다. 이는 기존의 왼쪽 상단에서 오른쪽 하단의 순차 주사 방향과 다른 방향으로 영상 정보의 부/복호화가 진행될 수 있음을 의미한다. 또한, 3차원 공간상에서 이웃하지 않는 퍼스펙티브간에는 영상간 연속성이 없기 때문에 의존성이 존재하지 않는다. 즉, 이웃하지 않는 퍼스펙티브들은 서로 참조하지 않기 때문에, 병렬적으로 부/복호화를 진행해도 예측 효율이 떨어지지 않는다. 연속되는 퍼스펙티브가 여러 방향으로 존재하여 부/복호화 방향이 여러 방향으로 가능하다는 점과, 영상간 연관성이 서로 없는 퍼스펙티브가 하나 이상 존재한다는 특성을 활용하여 부/복호화 병렬 처리를 진행함으로써, 압축 효율의 손실을 최소화 하면서 처리 속도를 높일 수 있다.As in the example shown in FIG. 10A, the 360-degree omnidirectional image is stored in a developed view of a polyhedron having various perspectives such as a cube. On the developed view, as in the example shown in FIG. 10 (c), the perspective P1 is adjacent to the perspective of the bottom. However, in reality, as in the example shown in Fig. 10A, each perspective is adjacent to four perspectives in the left-right and up-down directions. This means that the image information can be encoded / decoded in a direction different from the progressive scanning direction of the upper left to lower right of the conventional art. In addition, there is no dependency between non-neighboring perspectives in three-dimensional space because there is no continuity between images. That is, since non-neighboring perspectives do not refer to each other, the prediction efficiency does not deteriorate even if the decoding is performed in parallel. Decryption parallel processing is performed by utilizing the characteristic that there are continuous perspectives in various directions and that the direction of subdecryption is possible in various directions and that one or more perspectives having no correlation between images exist, The processing speed can be increased while minimizing the loss.

도 15는본 개시에 따른 영상 병렬 처리를 설명하기 위한 개념도이다.15 is a conceptual diagram for explaining image parallel processing according to the present disclosure.

도 16은 본 개시에 따른 영상 병렬 처리를 설명하기 위한 흐름도이다.16 is a flowchart for explaining image parallel processing according to the present disclosure.

도 17은 정육면체 상에서의 전방향 영상의 처리 순서를 예시한 도면이다.17 is a diagram illustrating a processing procedure of an omni-directional image on a cube.

도 18은 도 17의 전방향 영상을 전개한 전개도를 예시한 도면이다.FIG. 18 is a view illustrating an exploded view of the forward direction image of FIG. 17; FIG.

도 15, 도 17 및 도 18에서 같은 알파벳이 기재된 면들은 서로 참조하지 않는 시점들을 의미한다. 예를 들어 A와 A'는 서로 참조하지 않는 시점들을 나타낸다. B와 B'는 A, A' 시점을 제외한 나머지 시점들 중 서로 참조하지 않는 시점들을 나타낸다. C, C'는 위의 시점들을 제외한 시점들 중 서로 참조하지 않는 시점들을 나타낸다. 서로 참조하지 않는 시점들은 병렬적으로 부/복호화될 수 있다. In FIGS. 15, 17, and 18, the faces having the same alphabets refer to the points that are not referred to each other. For example, A and A 'represent points of time that do not refer to each other. B and B 'represent points of time other than A and A' that are not referred to each other. C, and C 'represent points in time that do not refer to each other, except for the above points. Points that do not refer to each other can be concatenated and decoded.

도 15에서, 시점과 시점을 연결하는 화살표는 시점간 참조 관계를 나타낸다. 예를 들어 시점 A와 시점 B를 연결한 화살표는 시점 B의 부/복호화시 시점 A를 참조한다는 것을 의미한다. 스레드의 개수는 병렬적으로 부/복호화할 수 있는 시점의 개수에 의해 결정될 수 있다. 예를 들어 병렬적으로 부/복호화할 수 있는 시점의 개수가 N개라면 N개 이상의 스레드가 사용될 수 있다. In Fig. 15, an arrow connecting the viewpoint and the viewpoint represents a reference relationship between the viewpoints. For example, the arrow connecting the viewpoint A and the viewpoint B refers to the viewpoint A during the subdecryption of the viewpoint B. The number of threads can be determined by the number of time points that can be added / decoded in parallel. For example, if there are N number of viewpoints that can be concatenated and decoded, N or more threads can be used.

도 15를 참조하여, 본 개시에 따른 부/복호화 방법을 설명한다. 도 15의 (a)를 참조하면, 먼저 시점 A 및 시점 A와 동시에 부/복호화할 수 있는 하나 이상의 시점들을 병렬로 부/복호화할 수 있다. 예컨대, 시점 A와 시점 A'는 연속성이 없으므로, 병렬 처리될 수 있다. 도 15의 (b)를 참조하면, 도 15의 (a)에서 처리되는 시점들(A, A')의 일부 또는 전부가 부/복호화된 후, 이 시점들(A. A')을 참조하는 시점 B 및 시점 B와 동시에 부/복호화할 수 있는 하나 이상의 시점들을 병렬로 부/복호화할 수 있다. 예컨대, 시점 B와 시점 B'는 연속성이 없으므로, 병렬 처리될 수 있다. 도 15의 (c)를 참조하면, 같은 방식으로 시점 C 및 시점 C와 동시에 부/복호화할 수 있는 하나 이상의 시점들을 병렬로 부/복호화할 수 있다. 이와 같은 방식으로 나머지 시점들도 병렬로 부/복호화가 가능한 시점들끼리 묶어 부/복호화할 수 있다.With reference to FIG. 15, the subdecryption method according to the present disclosure will be described. Referring to FIG. 15 (a), one or more viewpoints which can be simultaneously decoded at the same time as the viewpoint A and the viewpoint A can be added / decoded in parallel. For example, since the point A and the point A 'have no continuity, they can be processed in parallel. Referring to (b) of FIG. 15, after some or all of the time points A and A 'processed in (a) of FIG. 15 are added / decoded, Decode one or more viewpoints which can be concurrently concatenated with the viewpoint B and the viewpoint B in parallel. For example, since the point of time B and the point of time B 'have no continuity, they can be processed in parallel. Referring to (c) of FIG. 15, one or more viewpoints that can be simultaneously decoded at the time point C and at the same time as the point-in-time C can be added / decoded in parallel. In this way, the remaining viewpoints can be concatenated and decoded at the time points that can be added / decoded in parallel.

도 15를 참조하여 설명한 방법은 도 16의 흐름도로 나타낼 수 있다.The method described with reference to Fig. 15 can be represented by the flowchart of Fig.

도 16의 단계 S1610에서, 하나의 퍼스펙티브 또는 이웃하지 않는 둘 이상의 퍼스펙티브에 대한 부/복호화를 시작할 수 있다.In step S1610 of FIG. 16, the subdecryption for one perspective or two or more non-neighboring perspectives may begin.

단계 S1620에서, 부/복호화가 시작된 퍼스펙티브에 대한 부/복호화가 진행될 수 있다. 부/복호화는 각 퍼스펙티브에 포함된 부호화 단위(예컨대, CTU 단위)로 진행될 수 있다.In step S1620, the subdecryption for the perspective in which the subdecryption is started can be proceeded. The addition / decryption may proceed with the encoding units included in each perspective (e.g., in CTU units).

단계 S1630에서, 모든 퍼스펙티브에 대한 부/복호화가 완료되었는지 판단할 수 있다. 모든 퍼스펙티브에 대한 부/복호화가 완료되었으면(단계 S1630에서 Yes), 영상 부/복호화를 종료할 수 있다.In step S1630, it can be determined whether subdecryption for all perspectives has been completed. If the addition / decoding of all the perspectives has been completed (Yes in step S1630), the video / decoding can be terminated.

모든 퍼스펙티브에 대한 부/복호화가 완료되지 않았으면(단계 S1630에서 No), 단계 S1640에서, 부/복호화가 진행중인 또는 완료된 퍼스펙티브에 의해 의존성이 해결된 이웃 퍼스펙티브가 존재하는지 여부를 판단할 수 있다. 의존성이 해결된 이웃 퍼스펙티브가 존재하지 않는다면(단계 S1640에서, No), 단계 S1620에서, 부/복호화가 진행중인 퍼스펙티브에 대한 부/복호화를 계속 진행할 수 있다.If the subdecryption for all the perspectives has not been completed (No at step S1630), at step S1640, it can be determined whether there is a neighborhood perspective whose dependency has been solved by the partial / decrypted or completed perspective at step S1640. If there are no neighboring perspectives for which the dependency has been resolved (No at step S1640), at step S1620, the subdecryption for the perspective undergoing subdecryption can continue.

의존성이 해결된 이웃 퍼스펙티브가 존재한다면(단계 S1640에서, Yes), 단계 S1650에서, 상기 이웃 퍼스펙티브에 대한 부/복호화를 시작할 수 있다.If there is a neighboring perspective for which the dependency has been resolved (Yes at step S1640), then at step S1650, subdecryption for the neighboring perspective may begin.

이후, 단계 S1620에서, 부/복호화가 시작된 복수의 퍼스펙티브에 대한 부/복호화가 계속 진행될 수 있다. 상기 단계 S1620 내지 S1650은 모든 퍼스펙티브들에 대한 부/복호화가 완료될 때까지 반복될 수 있다.Thereafter, in step S1620, the subdecryption for the plurality of perspectives in which the subdecryption is started can be continued. The steps S1620 to S1650 may be repeated until the subdecryption for all the perspectives is completed.

도 19는 정육면체 전개도 형태의 360도 VR 영상의 일 예이다.19 is an example of a 360 degree VR image in the form of a cube-like developed view.

도 20 내지 도 22는 도 19의 비디오를 병렬적으로 부/복호화하는 단계를 설명하기 위한 도면이다. 도 20 내지 도 22를 참조하는 이하의 설명에 있어서, 각 퍼스펙티브를 나타내는 기호는 도 18에 도시된 해당 퍼스펙티브의 기호와 같다. 도 21 및 도 22에 도시된 화살표는 퍼스펙티브간의 참조 관계를 나타낸다.Figs. 20 to 22 are diagrams for explaining steps of parallelly embedding / decoding the video of Fig. 19; Fig. In the following description with reference to Figs. 20 to 22, the symbols representing the respective perspectives are the same as those of the corresponding perspective shown in Fig. The arrows shown in Figs. 21 and 22 show reference relationships between perspectives.

먼저, 도 20에 도시된 바와 같이, 서로 이웃하지 않는 퍼스펙티브 A 및/또는 A'는 병렬적으로 부/복호화될 수 있다. First, as shown in Fig. 20, non-neighboring perspectives A and / or A 'can be added / decoded in parallel.

그 후, 도 21에 도시된 바와 같이, 퍼스펙티브 A 및/또는 A'를 참조하여 퍼스펙티브 B 및/또는 B'를 병렬적으로 부/복호화할 수 있다. 퍼스펙티브 B 및/또는 B'의 부/복호화는 퍼스펙티브 A 및/또는 A'와의 의존성이 해결되면 시작될 수 있다. 즉, 퍼스펙티브 A 및/또는 A'의 부/복호화가 일부 또는 전부 수행되었을 때 퍼스펙티브 B 및/또는 B'의 부/복호화가 시작될 수 있다. 도 21에 도시된 바와 같이, 퍼스펙티브 B 및/또는 B'는 퍼스펙티브 A 및/또는 A'를 참조하여 부/복호화될 수 있다. 퍼스펙티브 B 및/또는 B'는 각각 퍼스펙티브 A 및/또는 A'와 인접한 경계 부분에서, 퍼스펙티브 A 및/또는 A'의 부/복호화에 따라 의존성이 해결된 부분부터 부/복호화될 수 있다. Then, as shown in Fig. 21, perspective B and / or B 'can be concatenated / decoded with reference to perspective A and / or A'. The subdecryption of Perspective B and / or B 'can be started when the dependence on Perspective A and / or A' is solved. That is, the partial decoding of the perspective B and / or B 'can be started when the partial decoding of the perspective A and / or A' is partially or completely performed. As shown in FIG. 21, perspective B and / or B 'can be added / decoded with reference to perspective A and / or A'. Perspective B and / or B 'can be added / decoded at the boundary portion adjacent to the perspective A and / or A', respectively, from the portion where the dependency has been resolved according to the negative / decryption of the perspective A and / or A '.

예컨대, 퍼스펙티브 B의 상단 경계는 퍼스펙티브 A의 좌측 경계와 인접한다. 따라서, 퍼스펙티브 A의 두번째 행, 첫번째 열의 블록이 부/복호화되면, 퍼스펙티브 B의 첫번째 행, 첫번째 열의 블록에 대한 부/복호화가 시작될 수 있다. 이 경우, 퍼스펙티브 A를 참조하는 퍼스펙티브 B의 부/복호화는 래스터 스캔 순서에 따라 수행될 수 있다.For example, the upper boundary of perspective B is adjacent to the left boundary of perspective A. Thus, when the block in the second row, first column of perspective A is negative / decoded, the decoding / decoding of the block in the first row, first column of perspective B can be started. In this case, subtraction / decoding of perspective B referring to perspective A can be performed in accordance with the raster scan order.

또한, 예컨대, 퍼스펙티브 B의 하단 경계는 퍼스펙티브 A'의 좌측 경계와 인접한다. 따라서, 퍼스펙티브 A'의 두번째 행, 첫번째 열의 블록이 부/복호화되면, 퍼스펙티브 B의 마지막 행, 마지막 열의 블록에 대한 부/복호화가 시작될 수 있다. 이 경우, 퍼스펙티브 A'를 참조하는 퍼스펙티브 B의 부/복호화는 역래스터 스캔 순서(예컨대, 우하단에서 좌상단의 순서)에 따라 수행될 수 있다.Also, for example, the lower boundary of perspective B is adjacent to the left boundary of perspective A '. Thus, when the block of the second row, the first column of the perspective A 'is negative / decoded, the decoding / decoding of the block of the last row and the last column of perspective B can be started. In this case, subtraction / decoding of perspective B referring to perspective A 'may be performed in accordance with an inverse raster scan order (e.g., from bottom right to top left).

퍼스펙티브 A 및/또는 A'를 참조하여 퍼스펙티브 B 및/또는 B'를 부/복호화할 경우, 참조되는 블록의 정보는 그대로 이용될 수도 있고, 현재 부/복호화가 진행중인 시점에 따라 적절한 변형을 거친 후 이용될 수도 있다.When the perspective B and / or B 'are mined / decoded referring to the perspective A and / or A', the information of the referenced block may be used as it is, or may be transformed May be used.

그 후, 도 22에 도시된 바와 같이, 일부 또는 전부에 대해 부/복호화가 완료된 퍼스펙티브 A, A', B 및/또는 B'를 참조하여 퍼스펙티브 C 및/또는 C'를 부/복호화할 수 있다. 도 22에서는 퍼스펙티브 A 및/또는 A'를 참조하여 퍼스펙티브 C 및/또는 C'를 부/복호화하는 경우가 도시되었다. 그러나 이에 한정되지 않으며, 예컨대, 퍼스펙티브 B 및/또는 B'를 참조하여 퍼스펙티브 C 및/또는 C'를 부/복호화할 수도 있다. 또는 퍼스펙티브 C 및/또는 C'는 퍼스펙티브 A, A', B 및 B' 중 하나 이상의 퍼스펙티브를 참조하여 부/복호화될 수 있다. 이 경우, 참조되는 블록은 현재 부/복호화가 진행중인 시점에 따라 적절히 변형된 후 참조될 수 있다. Then, referring to the perspective A, A ', B and / or B' which have been partially / decrypted for some or all, the perspective C and / or C 'can be subtracted / decoded . In Fig. 22, the case where the perspective C and / or C 'is subtracted by referring to the perspective A and / or A' is shown. However, the present invention is not limited thereto. For example, perspective C and / or C 'may be subdivided by referring to perspective B and / or B'. Or perspective C and / or C 'can be added / decoded with reference to one or more perspectives of the perspectives A, A', B and B '. In this case, the referenced block may be referenced after being appropriately modified according to the point in time at which the current subdecryption is in progress.

정육면체의 경우는 도 20 내지 도 22에 도시된 3단계로 360도 VR 영상의 부/복호화가 종료될 수 있다. 그러나, 정팔면체나 정이십면체의 경우는 아직 부/복호화가 완료되지 않은 퍼스펙티브가 존재할 수 있다. 따라서 모든 퍼스펙티브의 부/복호화가 완료될 때까지 상기 과정을 반복할 수 있다.In the case of the cube, the addition / decryption of the 360-degree VR image may be terminated in the three steps shown in FIGS. 20 to 22. FIG. However, in the case of a regular octahedron or a regular dichroic body, there may be a perspective in which the addition / decryption has not been completed yet. Thus, the above process can be repeated until all the perspectives have been subdivided / decoded.

전술한 바와 같이, 전방향 영상의 각 퍼스펙티브는 복수의 퍼스펙티브와 연속성을 가지고 있다. 또한 각 퍼스펙티브는 적어도 하나의 퍼스펙티브와 연속성을 갖지 않을 수 있다. 본 개시는 이를 이용하여 전방향 영상의 퍼스펙티브들을 병렬적으로 부/복호화할 수 있다. As described above, each perspective of an omnidirectional image has continuity with a plurality of perspectives. Also, each perspective may not have continuity with at least one perspective. The present disclosure can use this to parallelize the decoding of the perspectives of the omnidirectional image.

또한, 전술한 방법에 더하여, 각 퍼스펙티브마다 WPP 기반 기술을 적용하면, 높은 압축 효율을 유지하면서 병렬적으로 더욱 빠르게 처리할 수 있다. 그러나, 도 7을 참조하여 설명한 바와 같이, 각 퍼스펙티브의 왼쪽 상단 블록으로부터 오른쪽 하단 블록의 방향으로 각 행을 병렬적으로 처리하면, 각 퍼스펙티브의 왼쪽 상단 블록의 의존성이 해결될 때까지 해당 퍼스펙티브의 부/복호화는 시작될 수 없다. Further, in addition to the above-described method, applying WPP-based technology to each perspective enables processing in parallel and faster while maintaining a high compression efficiency. However, as described with reference to Fig. 7, when each row is processed in parallel from the upper left block to the lower right block of each perspective, the dependency of the upper left block of each perspective is solved, Decryption can not be started.

도 23은 퍼스펙티브의 부/복호화 방향을 설명하기 위한 예시도이다.Fig. 23 is an exemplary diagram for explaining the minus / decryption direction of the perspective. Fig.

도 23을 참조하면, 정육면체 전방향 영상에서 퍼스펙티브 P2와 P4를 WPP 기반 기술을 이용하여 병렬적으로 부/복호화를 진행해도 퍼스펙티브 P6의 WPP 기반 부/복호화를 시작하려면 퍼스펙티브 P4의 부/복호화가 거의 완료되야 한다. 즉, 퍼스펙티브 P4의 마지막 행의 CTU 2개가 부/복호화되어야 퍼스펙티브 P6의 부/복호화를 시작할 수 있다. 23, even if the perspective P 2 and P 4 are parallelly subdivided using the WPP-based technique in the cube facial omnidirectional image, the minus / decryption of the perspective P 4 is almost in order to start the WPP-based partial decoding of the perspective P 6 It must be completed. That is, two CTUs of the last row of the perspective P4 must be added / decoded to start the decoding / decoding of the perspective P6.

그러나, 전방향 영상에서는 각 퍼스펙티브의 모든 변이 다른 퍼스펙티브와 연결되어 있다. 따라서, 퍼스펙티브 P6의 부/복호화 순서를 조정하면, 보다 빨리 퍼스펙티브 P6의 부/복호화를 시작할 수 있다. 예컨대, 도 23에 도시된 예에서와 같이 퍼스펙티브 P2의 부/복호화를 우하단 블록에서 좌상단 블록으로 진행할 경우 퍼스펙티브 P6의 왼쪽 하단 CTU의 의존성은 퍼스펙티브 P2의 2개의 CTU 만 부/복호화되면 해결될 수 있다. 퍼스펙티브 P6의 좌하단 CTU의 의존성이 해결되면, 퍼스펙티브 P6에 대한 WPP는 좌하단 블록에서 우상단 블록으로 진행될 수 있다. However, in an omnidirectional image, all sides of each perspective are connected to different perspectives. Therefore, by adjusting the subdecryption sequence of perspective P6, subdecryption of perspective P6 can be started sooner. For example, as in the example shown in FIG. 23, when the subdecryption of the perspective P2 is performed from the lower right block to the upper left block, the dependency of the lower left CTU of the perspective P6 can be solved by only two CTUs of the perspective P2 have. Once the dependency of the bottom left CTU of perspective P6 is solved, the WPP for perspective P6 can proceed from the bottom left block to the top right block.

WPP 기반 부/복호화를 진행할 때, 이웃 퍼스펙티브의 픽셀 정보를 활용할 수 있고, 또한, 이웃 퍼스펙티브에서 업데이트된 엔트로피 문맥을 가져와서 엔트로피 문맥 모델을 초기화할 수도 있다.도 23에 도시된 예에서 실선 화살표는 엔트로피 문맥을 가져와 초기화하는 방향을 나타낸다. 도 23에 도시된 바와 같이, 이웃한 퍼스펙시브 간에 정보의 참조가 가능하다.In performing the WPP-based sub-decryption, the pixel information of the neighboring perspective may be utilized, and the entropy context model may be initialized by retrieving the updated entropy context from the neighboring perspective. In the example shown in FIG. 23, Indicates the direction in which the entropy context is taken and initialized. As shown in FIG. 23, reference of information between adjacent perpectives is possible.

이하에서, 도 23을 참조하여, 본 개시에 따른 부/복호화 방법을 보다 구체적으로 설명한다.Hereinafter, with reference to FIG. 23, the sub-decoding method according to the present disclosure will be described in more detail.

먼저, 하나의 퍼스펙티브 또는 이웃하지 않는 둘 이상의 퍼스펙티브에 대한 부/복호화를 시작할 수 있다. 각 퍼스펙티브 내에서는 도 7을 참조하여 설명한 순서로 부/복호화가 수행될 수 있다. 예컨대, 퍼스펙티브 P2 및 P4는 서로 이웃하지 않으므로, 병렬적으로 부/복호화가 시작될 수 있다. 이 때, 보다 효율적인 부/복호화를 위해, 퍼스펙티브 P2와 P4는 각각 다른 순서로 부/복호화될 수 있다.First, we can start subdecryption on one perspective or on two or more non-neighboring perspectives. In each perspective, subdecryption can be performed in the order described with reference to FIG. For example, since the perspectives P2 and P4 are not adjacent to each other, subdecryption can be started in parallel. At this time, for more efficient subdecryption, the perspectives P2 and P4 can be added / decoded in different order.

도 24는 정육면체 전방향 영상에 있어서, 이웃하지 않는 두 개의 퍼스펙티브에 대한 부/복호화 순서를 설명하기 위한 도면이다. 도 24의 (b) 및 (c)에서 작은 블록들은 퍼스펙티브 P4와 P2를 구성하는 영상 블록(예컨대, CTU)들을 의미하며 블록안의 숫자는 해당 블록의 처리 순서를 나타낸다. 또한, 점선 화살표는 각 퍼스펙티브에서 한 행의 처리 방향을 보여주며 각 블록(CTU)은 동일 행의 이전 열의 엔트로피 컨텍스트를 업데이트하여 사용할 수 있다.FIG. 24 is a diagram for explaining a subdecrypting order for two non-neighboring perspectives in a cubic omnidirectional image. In FIGS. 24B and 24C, small blocks represent image blocks (for example, CTUs) constituting the perspectives P4 and P2, and numbers in the blocks indicate the processing order of the corresponding blocks. In addition, the dotted arrow shows the processing direction of one row in each perspective, and each block (CTU) can be used by updating the entropy context of the previous column of the same row.

도 24의 (a)에 도시된 바와 같이, 퍼스펙티브 P2와 P4는 서로 이웃하지 않으므로, 서로 참조하지 않는다. 따라서, 퍼스펙티브 P2와 P4는 독립적으로 부/복호화될 수 있다.As shown in (a) of FIG. 24, the perspectives P2 and P4 are not adjacent to each other, so they are not referred to each other. Thus, the perspectives P2 and P4 can be independently decoded / decoded.

도 24의 (b)에 도시된 바와 같이, 예를 들어, 퍼스펙티브 P4에 대해서는 통상의 래스터 스캔 순서에 따라 좌상단에서 우하단의 순서로 부/복호화가 진행될 수 있다. 이 때, 퍼스펙티브 P2에 대해서도 통상의 래스터 스캔 순서가 적용될 수 있다. 또는 도 24의 (c)에 도시된 바와 같이, 퍼스펙티브 P2에 대해서는 우하단에서 좌상단의 순서로 부/복호화가 진행될 수 있다. As shown in (b) of FIG. 24, for example, the perspective decoding can be performed in the order from upper left to lower right in accordance with the normal raster scanning order for the perspective P4. At this time, a normal raster scan order can also be applied to the perspective P2. As shown in FIG. 24 (c), for the perspective P2, the subdecryption can proceed from the lower right end to the upper left end.

이 후, 퍼스펙티브 P2 및/또는 P4의 부/복호화가 일부 또는 전부 수행되면, 의존성이 해결된 이웃 퍼스펙티브의 부/복호화를 시작할 수 있다. 이 때, 이웃 퍼스펙티브의 WPP 처리 방향은 참조 퍼스펙티브에 적용된 WPP 처리 방향에 기초하여 결정될 수 있다. 예컨대, 도 23에 있어서, 퍼스펙티브 P4의 첫번째 행, 두번째 열의 블록의 부/복호화가 완료되면, 퍼스펙티브 P1의 마지막 행, 첫번째 열의 블록의 부/복호화가 시작될 수 있다. 이 때, 퍼스펙티브 P1의 부/복호화는 좌하단에서 우상단의 순서로 진행될 수 있다. Thereafter, when the partial decoding of the perspectives P2 and / or P4 is partially or completely performed, the subdecryption of the neighboring perspectives in which the dependency is solved can be started. At this time, the WPP processing direction of the neighboring perspective can be determined based on the WPP processing direction applied to the reference perspective. For example, in Fig. 23, when the subdecryption of the block in the first row and the second column of the perspective P4 is completed, the subdecryption of the block in the last row and the first column of the perspective P1 can be started. At this time, the sub-decoding of the perspective P1 can proceed from the bottom left to the top right.

또한, 퍼스펙티브 P2의 마지막 행, 마지막 두번째 열의 블록의 부/복호화가 완료되면, 퍼스펙티브 P6의 마지막 행, 첫번째 열의 블록의 부/복호화가 시작될 수 있다. 이 때, 퍼스펙티브 P6의 부/복호화는 좌하단에서 우상단의 순서로 진행될 수 있다.Further, when the subdecoding of the block in the last row and the last column in the perspective P2 is completed, the decoding / decoding of the block in the last row and the first column of the perspective P6 can be started. At this time, the subdivision / decoding of the perspective P6 can proceed from the bottom left to the top right.

계속해서, 현재까지 부/복호화가 진행된 퍼스펙티브(들)와의 의존성이 해결된 이웃 퍼스펙티브에 대한 부/복호화가 시작될 수 있다. 이 때, WPP의 진행 방향은 하나 이상의 참조 퍼스펙티브들 중 의존성이 더 빠르게 해결되는 퍼스펙티브에 맞추어 결정될 수 있다. 두 개 이상의 참조 퍼스펙티브들의 의존성이 동시에 해결되면, 현재 퍼스펙티브의 부/복호화는 여러 변에서 동시에 진행될 수 있다. 이 경우, 현재 퍼스펙티브를 분할하여 처리할 수 있다.Subsequently, subdecryption for the neighboring perspective in which the dependency with the perspective (s) to which the addition / decryption has been performed is solved can be started. At this time, the direction of the WPP can be determined in accordance with a perspective in which dependencies among one or more reference perspectives are resolved more quickly. If the dependencies of two or more reference perspectives are solved at the same time, subtraction / decoding of the current perspective can proceed simultaneously on several sides. In this case, the current perspective can be divided and processed.

도 23을 참조하면, 퍼스펙티브 P2의 마지막 두번째 열, 마지막 행의 블록의 부/복호화가 완료되면, 퍼스펙티브 P3의 마지막 행, 첫번째 열의 블록의 부/복호화가 시작될 수 있다. 또한, 퍼스펙티브 P4의 두번째 행, 첫번째 열의 블록의 부/복호화가 완료되면, 퍼스펙티브 P3의 첫번째 행, 마지막 열의 블록의 부/복호화가 시작될 수 있다. 즉, 퍼스펙티브 P3의 부/복호화는 복수의 퍼스펙티브를 참조하여 여러 변에서 동시에 진행될 수 있다. 이 때, 퍼스펙티브 P3의 부/복호화 순서는 이웃 퍼스펙티브들(P1, P2, P4, P6) 중 적어도 하나를 고려하여 결정될 수 있다. 이 때, 가장 빨리 부/복호화가 완료될 수 있는 방향으로 퍼스펙티브 P3의 부/복호화 순서가 결정될 수 있다. Referring to FIG. 23, when the subdecoding / decoding of the block in the last second column and the last row in the perspective P2 is completed, the decoding / decoding of the block in the last row and the first column of the perspective P3 can be started. Further, when the addition / decryption of the block of the second row and the first column of the perspective P4 is completed, the subdecryption of the block of the first row and the last column of the perspective P3 can be started. That is, the sub-decoding of the perspective P3 can be carried out simultaneously on several sides with reference to a plurality of perspectives. At this time, the minus / decode order of the perspective P3 can be determined in consideration of at least one of the neighboring perspectives P1, P2, P4, and P6. At this time, the subdecrypting order of the perspective P3 can be determined in the direction in which the embedding / decoding can be completed as soon as possible.

도 23 및 24를 참조하여 설명한 방법은 모든 시점들의 부/복호화가 완료될 때까지 반복될 수 있다. The method described with reference to FIGS. 23 and 24 can be repeated until the subdecryption of all the time points is completed.

도 24에 도시된 예에서 퍼스펙티브 P4의 부/복호화는 전개도 상에서 좌상단에서 우하단으로 진행되고, 퍼스펙티브 P2의 부/복호화는 우하단에서 좌상단으로 진행된다. 이는 보다 효율적인 병렬리를 위해 병렬 처리되는 데이터의 양을 잘 분배하기 위함이다. In the example shown in Fig. 24, the subdecryption of the perspective P4 proceeds from the upper left to the lower right on the developed view, and the subdecryption of the perspective P2 proceeds from the lower right to the upper left. This is to better distribute the amount of data being processed in parallel for more efficient parallelism.

도 25는 정육면체 전방향 영상에 있어서, 마주보는 두 개의 퍼스펙티브의 부/복호화 순서를 설명하기 위한 도면이다.FIG. 25 is a diagram for explaining a subdecoding sequence of two opposite perspectives in a cubic omnidirectional image.

3차원 공간에서 서로 마주보는 위치의 두 개의 퍼스펙티브의 부/복호화 순서는 도 25의 (a)에 도시된 바와 같이, 상하좌우 모두 서로 역방향으로 설정될 수 있다. 또는 도 25의 (b)에 도시된 바와 같이, 좌우로 동일한 방향으로 설정될 수도 있다. The sub-decoding order of the two perspectives facing each other in the three-dimensional space can be set to the opposite direction to each other as shown in Fig. 25 (a). Or may be set in the same direction to the left and right as shown in Fig. 25 (b).

도 26은 도 25의 (a) 및 (b)에 따른 차이를 설명하기 위한 도면이다.Fig. 26 is a diagram for explaining a difference according to (a) and (b) of Fig. 25;

도 25의 (a)에 도시된 바와 같이 퍼스펙티브 P4와 P2의 부/복호화가 상하좌우 대칭의 위치에서 시작되면, 도 26의 (b)에 도시된 바와 같이, 퍼스펙티브 P2와 P1의 CTU 열 처리 순서는 퍼스펙티브 P2와 P1이 만나는 변에서 서로 반대 방향이 된다. 이는 퍼스펙티브 P6과 P4가 만나는 변에서도 마찬가지이다. 두 개의 퍼스펙티브가 인접하는 변에서 각 퍼스펙티브의 처리 방향이 반대가 되면, 이웃한 퍼스펙티브의 정보를 효율적으로 활용할 없다. 즉, 이웃 퍼스펙티브와의 처리 순서가 반대가 되므로, 이웃 퍼스펙티브의 참조 행에 대한 부/복호화가 완료될 때까지 지연이 발생하게 된다.As shown in Fig. 25A, when the affixing / decoding of the perspectives P4 and P2 is started at symmetrical positions in the up, down, left, and right directions, as shown in Fig. 26 (b) Are opposite to each other at the sides where the perspectives P2 and P1 meet. This is true of the sides where the perspectives P6 and P4 meet. When two perspectives are opposite in the processing direction of each perspective on the adjacent side, the information of neighboring perspectives can not be utilized efficiently. That is, the processing order with respect to the neighborhood perspective is reversed, so that a delay occurs until the decoding of the reference row of the neighboring perspective is completed.

도 25의 (b)에 도시된 바와 같이 퍼스펙티브 P4와 P2의 부/복호화가 좌우로 동일한 방향으로 진행되면, 도 26의 (c)에 도시된 바와 같이, 퍼스펙티브 P2와 P1이 만나는 변에서 퍼스펙티브 P2와 P1의 CTU 열 처리 방향은 같아진다. 이는 퍼스펙티브 P6와 P4가 만나는 변에서도 마찬가지이다. 따라서, 퍼스펙티브 P1 및 P6의 마지막 행의 부/복호화가 시작되는 시점과 참조 영역으로 사용될 퍼스펙티브 P4 및 P2의 마지막 행 CTU 2개가 완료되는 시점이 서로 맞아 떨어지므로 지연이 발생하지 않게 된다. 도 27은 도 25의 (b)에 따른 부/복호화를 설명하기 위한 도면이다.As shown in Fig. 26 (b), when the side / decryption of the perspectives P4 and P2 proceed in the same direction from left to right, as shown in Fig. 26 (c), the perspectives P2 And the CTU heat treatment direction of P1 are the same. This is true of the sides where perspectives P6 and P4 meet. Therefore, the delay does not occur since the time at which the sub-decoding of the last row of the perspectives P1 and P6 is started and the time at which the last row CTU of the perspectives P4 and P2, which will be used as the reference area, are completed. FIG. 27 is a diagram for explaining the subdecryption according to FIG. 25 (b). FIG.

전술한 바와 같이, 퍼스펙티브 P2와 P4의 각각에서 2개의 CTU가 처리되면 이웃 퍼스펙티브의 WPP를 통한 부/복호화가 가능하다. 퍼스펙티브 P1은 퍼스펙티브 P4와 연속성을 가지고 있으므로 도 27의 (b)에 도시된 바와 같이, 퍼스펙티브 P4의 첫 행 두번째 CTU의 부/복호화가 완료되면 퍼스펙티브 P1의 첫 CTU의 의존성이 해결된다. 따라서 퍼스펙티브 P4로부터 엔트로피 컨텍스트를 가져와 초기화하여 사용할 수 있다. As described above, if two CTUs are processed in each of the perspectives P2 and P4, it is possible to perform decoding via the WPP of the neighboring perspective. Since the perspective P1 has continuity with the perspective P4, the dependency of the first CTU of the perspective P1 is solved when the subtraction / decoding of the first row and second CTU of the perspective P4 is completed, as shown in Fig. 27 (b). Therefore, an entropy context can be obtained from the perspective P4 and initialized and used.

마찬가지로, 퍼스펙티브 P6도 퍼스펙티브 P2의 2번째 CTU가 부/복호화 완료된 시점에서 부/복호화가 시작될 수 있다. 도 27의 (c)에 도시된 바와 같이 퍼스펙티브 P2가 처리되는 방향에 맞추어서 퍼스펙티브 P6에 대해서도 WPP가 진행될 수 있다. 도 27의 (b) 및 (c)에 있어서, 실선 화살표는 엔트로피 문맥을 가져와 초기화하는 방향을 나타낸다. 점선 화살표는 각 행에서의 CTU의 처리 방향을 나타낸다. Likewise, the perspective P6 can also start subdecryption at the time when the second CTU of the perspective P2 has been added / decoded. As shown in FIG. 27 (c), the WPP can also be performed for the perspective P6 in accordance with the direction in which the perspective P2 is processed. 27 (b) and (c), the solid line arrow indicates the direction in which the entropy context is taken and initialized. The dashed arrows indicate the processing direction of the CTU in each row.

도 27의 (b) 및 (c)에 도시된 바와 같이, 다른 퍼스펙티브로부터 엔트로피 문맥을 가져올 수 있다. 엔트로피 문맥의 참조는 도 32 및 도 33을 참조하여 후술할 문맥추출기를 통해 수행될 수 있다.As shown in Figures 27 (b) and (c), an entropy context may be taken from another perspective. The reference of the entropy context may be performed through the context extractor described later with reference to FIGS. 32 and 33. FIG.

도 28은 둘 이상의 퍼스펙티브를 참조할 수 있는 퍼스펙티브의 부/복호화를 설명하기 위한 도면이다.Fig. 28 is a diagram for explaining the subdecryption of a perspective capable of referring to two or more perspectives. Fig.

도 27에 도시된 바와 같이, 퍼스펙티브 P3 및 P5의 경우 이웃하는 퍼스펙티브들이 모두 부/복호화되고 있다. 따라서 이웃 퍼스펙티브들을 모두 활용하여 병렬 처리를 수행함으로써 부/복호화 효율을 향상시킬 수 있다. As shown in Fig. 27, in the case of perspectives P3 and P5, neighboring perspectives are all being subdivided / decoded. Therefore, the sub-decoding efficiency can be improved by performing parallel processing using all of the neighboring perspectives.

도 28에 도시된 바와 같이, 퍼스펙티브 P3 및 P5는 이웃하는 퍼스펙티브 P1, P2, P4 및/또는 P6의 정보를 활용할 수 있다. 도 28에 사용된 실선 화살표 및 점선 화살표는 도 27에 사용된 실선 화살표 및 점선 화살표와 같은 의미로 사용된다. 즉, 실선 화살표는 엔트로피 정보(예컨대, 엔트로피 문맥, 엔트로피 컨텍스트 테이블 등)를 가져오는 방향을 의미한다. 또한, 점선 화살표는 각 퍼스펙티브에서의 WPP를 통한 행단위 처리 방향을 의미한다. 각 퍼스펙티브 안의 CTU 블록 내의 숫자는 부/복호화 처리 순서를 의미한다.As shown in FIG. 28, the perspectives P3 and P5 can utilize the information of the neighboring perspectives P1, P2, P4 and / or P6. The solid-line arrows and the dotted-line arrows used in Fig. 28 have the same meanings as the solid-line arrows and the dotted-line arrows used in Fig. That is, the solid line arrow indicates a direction in which entropy information (for example, entropy context, entropy context table, etc.) is obtained. In addition, the dotted arrows indicate the row processing direction through WPP in each perspective. The number in the CTU block in each perspective indicates the order of the sub-decryption processing.

도 28에 도시된 바와 같이, 퍼스펙티브 P3 또는 퍼스펙티브 P5의 경우 이웃 퍼스펙티브의 부/복호화에 따라, 둘 이상의 방향으로 동시에 의존성이 해결될 수 있다. 부/복호화 순서에 따르면, 퍼스펙티브 P2 및 P4가 퍼스펙티브 P1 및 P6보다 부/복호화가 먼저 시작된다. 따라서, 퍼스펙티브 P3 및 P5의 부/복호화에 필요한 의존성이 퍼스펙티브 P2 및 P4에 의해 먼저 해결될 수 있다. 따라서 퍼스펙티브 P3 및/또는 P5는 퍼스펙티브 P2 및 P4 중 하나를 선택하여 WPP 처리 방향을 결정할 수 있다. 또는, 두 개의 퍼스펙티브를 모두 활용하기 위하여 퍼스펙티브 P3 및/또는 P5를 두 개의 영역으로 분할하고, 분할된 각각의 영역에 대해 퍼스펙티브 P2 및 P4에 따른 WPP 처리 방향을 결정할 수 있다. As shown in Fig. 28, dependencies can be solved simultaneously in two or more directions, depending on the sub-decoding of the neighboring perspective in the case of the perspective P3 or the perspective P5. According to the minus / decryption sequence, the perspectives P2 and P4 start minus / decryption first than the perspectives P1 and P6. Therefore, the dependencies required for the subdecryption of the perspectives P3 and P5 can be solved first by the perspectives P2 and P4. Thus, the perspectives P3 and / or P5 can select one of the perspectives P2 and P4 to determine the WPP processing direction. Alternatively, the perspective P3 and / or P5 may be divided into two regions to utilize both perspectives, and the WPP processing direction according to perspectives P2 and P4 may be determined for each divided region.

예컨대, 퍼스펙티브 P3의 부/복호화는 퍼스펙티브 P2와의 의존성이 해결된 후 수행될 수 있다. 이 경우, 퍼스펙티브 P2의 두 개의 CTU(1, 3)에 기초하여 퍼스펙티브 P3의 CTU(8)이 부/복호화될 수 있다. 또는 퍼스펙티브 P2 및 P4의 CTU가 각각 두 개씩 부/복호화된 시점에서, 퍼스펙티브 P3의 부/복호화가 양방향에서 시작될 있다. 이 경우, 퍼스펙티브 P2 및 P4의 부/복호화에 의해 의존성이 해결된 퍼스펙티브 P3의 두 개의 CTU의 부/복호화가 병렬적으로 시작될 수 있다. 병렬적으로 부/복호화한다는 의미는, 퍼스펙티브 P3가 양 방향에서 서로 독립적으로 부/복호화됨을 의미한다. 따라서, 병렬적인 부/복호화는 동시에 수행될 수도 있고 그렇지 않을 수도 있다.For example, the subdecryption of the perspective P3 can be performed after the dependence on the perspective P2 has been resolved. In this case, the CTU 8 of the perspective P3 can be added / decoded based on the two CTUs 1, 3 of the perspective P2. Or at the point when two CTUs of the perspectives P2 and P4 are respectively added / decoded, the decoding / decoding of the perspective P3 starts in both directions. In this case, the subdecryption of the two CTUs of the perspective P3 whose dependence is solved by the sub-decoding of the perspectives P2 and P4 can be started in parallel. Parallel concatenated / decoded means that the perspective P3 is added / decoded independently of each other in both directions. Thus, parallel concatenation / decoding may or may not be performed at the same time.

도 29는 하나의 퍼스펙티브를 두 개의 영역으로 분할하고, 각각의 영역을 부/복호화하는 방법을 설명하기 위한 도면이다.FIG. 29 is a diagram for explaining a method of dividing one perspective into two areas, and to embed / decode each area. FIG.

도 29의 (a)는 하나의 퍼스펙티브를 A와 B의 영역으로 나눈 것을 나타내며, 도 29의 (b)는 퍼스펙티브를 동일한 크기의 영역으로 나눈 후 WPP 처리하는 것을 나타낸다. 도 29의 (c)는 퍼스펙티브를 각각 다른 크기의 영역으로 나눈 후 WPP 처리하는 것을 나타낸다. 도 29의 실선 화살표 및 점선 화살표의 의미는 도 27 및 도 28을 참조하여 설명한 바와 동일하다.Figure 29 (a) shows one perspective divided by regions A and B, and Figure 29 (b) shows WPP processing after dividing the perspective into areas of equal size. FIG. 29 (c) shows WPP processing after dividing the perspective into regions of different sizes. The meanings of the solid line arrows and the dotted line arrows in Fig. 29 are the same as those described with reference to Figs. 27 and 28.

상기 A 영역 및 B 영역은 제1 영역 및 제2 영역으로 나타낼 수 있다. 제1 영역 및 제2 영역은 각각 인접한 퍼스펙티브의 부/복호화 진행 정도에 기초하여 부/복호화될 수 있다. 예컨대, 제1 영역과 제1 퍼스펙티브가 인접한 경우, 제1 퍼스펙티브의 부/복호화에 의해 의존성이 해결된 제1 영역의 블록부터 부/복호화될 수 있다. 제1 영역에 포함된 블록들의 부/복호화 방향은 제1 퍼스펙티브에 대한 부/복호화 방향에 기초하여 결정될 수 있다. 예컨대, 제1 영역 및 제1 퍼스펙티브에 대한 부/복호화 방향은 서로 직교하는 방향일 수 있다.The A region and the B region may be represented by a first region and a second region. The first area and the second area may be subdivided / decoded based on the degree of subdecryption of the adjacent perspective, respectively. For example, when the first area and the first perspective are adjacent to each other, a block of the first area whose dependency is solved by sub-decoding of the first perspective can be added / decoded. Decoding directions of the blocks included in the first area may be determined based on the subdecryption direction for the first perspective. For example, the subregions / decryption directions for the first area and the first perspective may be directions orthogonal to each other.

하나의 퍼스펙티브를 두 개의 영역으로 분할하는 방법은 도 29를 참조하여 설명한 실시예로 한정되지 않는다. 예컨대, 도 29에 도시되지 않은 형태 또는 크기로 분할될 수도 있다. 하나의 퍼스펙티브를 두 개의 영역으로 분할하는 방법은 비트스트림을 통해 시그널링되거나 부호화기와 복호화기에서 미리 정의될 수 있다.The method of dividing one perspective into two regions is not limited to the embodiment described with reference to Fig. For example, it may be divided into shapes or sizes not shown in Fig. A method of dividing a perspective into two regions may be signaled through a bitstream or predefined in an encoder and decoder.

퍼스펙티브 P3 및/또는 P5와 연속성을 가진 이웃 CTU들은 퍼스펙티브 P2 및/또는 P6에서 열이 아닌 하나의 행에 포함될 수 있다. 전술한 바와 같이, WPP 처리할 경우 하단 행의 부/복호화는 상단 행의 CTU 2열의 부/복호화가 완료되어야 시작될 수 있으므로, 2*t(CTU)씩 행당 지연이 발생한다. 참조 퍼스펙티브의 부/복호화 지연이 행당 2*t(CTU)씩 발생하므로, 도 28의 (a)에 도시된 바와 같이, 퍼스펙티브 P3에 대해서도, 각 열당 1*t(CTU)가 아닌 2*t(CTU)의 지연이 발생한다. Neighbor CTUs having continuity with perspectives P3 and / or P5 may be included in one row rather than columns in perspectives P2 and / or P6. As described above, when the WPP process is performed, the lower row subdivision / decoding can be started after the subtitling / decoding of the CTU 2 column of the upper row is completed, so that a delay occurs per row by 2 * t (CTU). 28 (a), the perspective P3 has 2 * t (CTU) instead of 1 * t (CTU) for each column because the sub / CTU) occurs.

도 30은 둘 이상의 퍼스펙티브를 참조하는 경우의 부/복호화 처리 순서를 설명하기 위한 도면이다.FIG. 30 is a diagram for explaining a negative / decryption processing procedure in the case of referring to two or more perspectives.

둘 이상의 퍼스펙티브를 참조할 수 있는 경우, 참조되는 둘 이상의 퍼스펙티브의 부/복호화 진행 정도에 기초하여 현재 퍼스펙티브에 대한 부/복호화를 수행할 수 있다. 예컨대, 제1 퍼스펙티브의 부/복호화에 의해 의존성이 해결되더라도, 제2 퍼스펙티브의 부/복호화에 의해 의존성이 해결될 때까지 기다린 후, 현재 퍼스펙티브의 부/복호화를 시작할 수 있다. 하나의 퍼스펙티브를 참조하는 경우와 비교하여, 둘 이상의 퍼스펙티브를 참조하면, 지연이 발생할 수 있다. 그러나, 둘 이상의 블록을 참조할 수 있으므로, 부호화 효율의 향상을 기대할 수 있다.If more than two perspectives can be referenced, subdecryption on the current perspective can be performed based on the degree of subdecryption of the two or more perspectives being referenced. For example, even if the dependency is solved by sub-decoding of the first perspective, it is possible to wait until the dependency is solved by the sub-decoding of the second perspective, and then start sub-decoding of the current perspective. Referring to two or more perspectives, as compared to when referring to a perspective, a delay may occur. However, since two or more blocks can be referred to, improvement in coding efficiency can be expected.

전술한 바와 같이, 퍼스펙티브 P3의 첫 행의 부/복호화 처리에 열당 지연이 2*t(CTU)씩 발생한다. 따라서, 도 30의 (a)에 도시된 바와 같이, 퍼스펙티브 P3의 왼쪽 최하단 CTU(4)의 부/복호화가 완료된다 하더라도 그 다음 열의 CTU(6)를 바로 부/복호화할 수가 없다. 열당 2*t(CTU)의 지연이 발생하므로, 퍼스펙티브 P3의 각각의 CTU의 의존성이 해결될 때마다 부/복호화를 시작할 경우, 퍼스펙티브 P3의 처리 순서상 첫 행의 마지막 CTU는 11번째로 부/복호화될 수 있다. As described above, a delay per column is generated by 2 * t (CTU) in the subdecryption processing of the first row of the perspective P3. Therefore, as shown in Fig. 30 (a), even if the subtraction / decoding of the leftmost lowermost CTU 4 of the perspective P3 is completed, the CTU 6 of the next column can not be immediately decoded / decoded. Since the delay of 2 * t (CTU) per column occurs, when the subdecryption is started each time the dependency of each CTU of the perspective P3 is solved, the last CTU of the first row in the processing sequence of perspective P3 becomes the 11th negative / Lt; / RTI >

이 경우, 도 30의 (b)에 도시된 바와 같이, 퍼스펙티브 P3의 첫 행의 마지막 CTU가 11번째로 부/복호화되는 점을 고려하여, 퍼스펙티브 P3의 첫 행의 첫 번째 CTU의 부/복호화 시작 시점을 7번째로 결정할 수 있다. 도 30의 (b)와 같이, 퍼스펙티브 P3의 첫번째 CTU의 부/복호화 시작 시점을 늦추더라도, 첫 행의 마지막 CTU의 부/복호화 시작 시점은 변경되지 않으므로, 전체 영상의 병렬 처리 시간에는 영향을 주지 않을 수 있다.In this case, considering the fact that the last CTU of the first row of the perspective P3 is subtracted and / or decoded for the 11th time as shown in Fig. 30 (b), the sub-decoding start of the first CTU of the first row of the perspective P3 The point of time can be determined as the seventh. As shown in FIG. 30 (b), even if the start / end point of the first CTU of the perspective P3 is delayed, the start / end point of the last CTU of the first row is not changed. .

또한, 도 30의 (b)에 도시된 순서에 따라 퍼스펙티브 P3를 처리할 경우, 참조할 수 있는 이웃 CTU가 많아진다는 장점이 있다. 즉, 퍼스펙티브 P3의 첫번째 CTU의 부/복호화에 있어서, 퍼스펙티브 P6의 두번째 행의 CTU(5, 빗금친 부분)의 픽셀 정보는 물론 엔트로피 컨텍스트도 이용할 수 있게 된다. Further, when the perspective P3 is processed according to the procedure shown in FIG. 30 (b), there is an advantage that the number of neighboring CTUs that can be referred to is increased. That is, in the subdecryption of the first CTU of the perspective P3, the entropy context as well as the pixel information of the CTU (5, hatched portion) of the second row of the perspective P6 are available.

또한, 도 30의 (c)에 도시된 바와 같이, 퍼스펙티브 P3의 부/복호화를 1*t(CTU)만큼 더 지연시키면, 이웃 퍼스펙티브 P1의 CTU(11, 빗금친 영역)도 참조할 수 있다. 이는 퍼스펙티브 P1과 P2의 CTU처리 시간이 단지 2*t(CTU)만큼 차이나기 때문이다. 따라서, 퍼스펙티브 P3의 경우, 도 30의 (c)에 도시된 예에서와 같이 퍼스펙티브 P3의 부/복호화 시작 시점을 첫 행의 마지막 CTU의 오른쪽 CTU(이웃 퍼스펙티브에 속한)의 처리 시점을 기준으로 결정할 수 있다. 30 (c), if the addition / decryption of the perspective P3 is further delayed by 1 * t (CTU), the CTU 11 (hatched area) of the neighboring perspective P1 can also be referred to. This is because the CTU processing times of the perspectives P1 and P2 differ by only 2 * t (CTU). Therefore, in the case of perspective P3, as in the example shown in FIG. 30C, the subdecryption start time of perspective P3 is determined based on the processing time of the right CTU (belonging to the neighborhood perspective) of the last CTU of the first row .

도 30의 (c)는 도 30의 (b)의 경우보다 약간의 지연이 더 발생할 수 있다. 그러나, 보다 많은 영역을 참조할 수 있게 되므로, 부/복호화 효율이 향상될 수 있다. 30 (c) may cause slightly more delay than the case of FIG. 30 (b). However, since more areas can be referred to, the subdecryption efficiency can be improved.

본 개시에 있어서, 인접한 블록, CTU 및/또는 퍼스펙티브로부터 참조할 수 있는 정보는 픽셀 정보, 엔트로피 문맥, 엔트로피 컨텍스트 테이블 등으로 기재하고 있다. 그러나, 이에 한정되지 않으며, 인접한 영역의 부/복호화 정보를 모두 참조할 수 있다. 예컨대, 참조할 수 있는 정보는 단순히 영상에 존재하는 픽셀 정보 외에도 공간적 예측에 활용한 예측 모드, 시간적 예측에 활용한 움직임 벡터, 머지 인덱스, 양자화 파라미터 정보, 인루프 필터 정보, 필터 계수 정보 등 부/복호화 과정에서 생성되거나 사용되는 모든 정보를 포함한다.In this disclosure, information that can be referred to from adjacent blocks, CTUs, and / or perspectives is described as pixel information, entropy context, entropy context table, and the like. However, the present invention is not limited to this, and it is possible to refer to all the sub-decode information of the adjacent area. For example, in addition to the pixel information existing in the image, the information that can be referred to may be simply a prediction mode used for spatial prediction, a motion vector used for temporal prediction, merge index, quantization parameter information, in-loop filter information, And includes all information generated or used in the decoding process.

정육면체가 아닌, 정팔면체나 정이십면체 영상의 경우에 대해서, 정육면체를 고려하여 설명한 상기 단계들이 반복적으로 수행될 수 있음은 전술한 바와 같다.As described above, in the case of a regular octahedron or a regular trilinear image other than a cube, the above-described steps described in consideration of a cube can be repeatedly performed.

도 31은 정육면체 전방향 영상의 부/복호화 순서를 설명하기 위한 예시도이다.31 is an exemplary diagram for explaining a subdecoding sequence of a cubic omni-directional image.

도 23 내지 도 30을 참조하여 설명한 순서에 따라 정육면체 전방향 영상의 부/복호화를 수행하는 경우, 도 31에 도시된 순서에 따라 부/복호화가 진행될 수 있다.When carrying out the subdecryption of the cube omni-directional image according to the procedure described with reference to Figs. 23 to 30, the subdecryption can proceed according to the procedure shown in Fig.

도 31의 (a)는 전개도 상에서의 부/복호화 순서를 예시한 도면이다. 도 31의 (a)에 사용된 실선 및 점선 화살표는 도 27 등에 사용된 실선 및 점선 화살표와 동일한 의미를 가진다. FIG. 31 (a) is a diagram illustrating an example of a subdecryption sequence on a developed view. The solid and dashed arrows used in FIG. 31 (a) have the same meaning as the solid and dotted arrows used in FIG. 27 and the like.

도 31의 (b) 및 (c)는 정육면체 상에서, 부/복호화가 진행되는 순서를 예시적으로 나타낸다. 도 31의 (b) 및 (c)의 작은 블록은 부호화 단위 블록(예컨대, CTU)을 의미하고, 숫자는 해당 블록이 처리되는 순서를 의미한다. 음영처리된 블록은 부/복호화가 완료된 블록을 의미하고, 음영처리되지 않은 블록은 아직 부/복호화가 시작되지 않은 블록을 의미한다. 31 (b) and 31 (c) illustrate the order in which the subdecryption is progressed on the cube. 31 (b) and (c) refer to an encoding unit block (for example, CTU), and numerals represent the order in which the blocks are processed. The shaded block means the block in which the addition / decryption has been completed, and the non-shaded block means the block in which the addition / decryption has not yet started.

전술한 바와 같이, 본 개시에 따라 전방향 영상의 부/복호화를 수행할 때, 퍼스펙티브마다 WPP 처리 순서가 달라질 수 있다. 또는 하나의 퍼스펙티브에 대해 동시에 여러 방향에서 부/복호화가 시작될 수도 있다. 하나의 전방향 영상에 포함된 복수의 퍼스펙티브의 각각의 처리 방향이 달라지면, 동일한 구성의 장치로 모든 퍼스펙티브를 부/복호화하지 못하고 각각의 퍼스펙티브의 부/복호화 방향을 고려하여, 별도의 부/복호화 장치를 따로 제공해 주어야 한다는 문제점이 발생할 수 있다.As described above, when performing the min / decode of the omnidirectional image according to the present disclosure, the WPP processing order may vary from perspective to perspective. Or decoding / decoding may be started in many directions simultaneously for one perspective. If the processing directions of a plurality of perspectives included in one omnidirectional image are different, it is not possible to embed / decode all the perspectives into devices having the same configuration, and in consideration of the subdecoding direction of each perspective, It is necessary to provide a separate service.

도 32는 본 개시에 따른 부호화 장치의 구성을 예시한 도면이다.32 is a diagram illustrating a configuration of an encoding apparatus according to the present disclosure;

도 33은 본 개시에 따른 복호화 장치의 구성을 예시한 도면이다. 33 is a diagram illustrating a configuration of a decoding apparatus according to the present disclosure.

도 32의 부호화 장치는 변환 및 분배기(3201), 영상 정보 변환기(3202), 문맥 정보 추출기(3203) 및 복수의 부호화기를 포함하여 구성될 수 있다. 도 32의 부호화 장치는 입력 영상을 부호화함으로써 비트스트림을 생성할 수 있다. 입력 영상은 전방향 영상일 수 있으며, 각각의 부호화기는 전방향 영상을 구성하는 복수의 퍼스펙티브 중 하나의 퍼스펙티브를 부호화할 수 있다. 부호화기의 각각은 부호화 처리기, 복원픽쳐 버퍼 및/또는 엔트로피 부호기를 포함하며, 도 3의 부호화 장치에 해당할 수 있다.32 may include a transform and distributor 3201, an image information converter 3202, a context information extractor 3203, and a plurality of encoders. The encoding apparatus of FIG. 32 can generate a bitstream by encoding an input image. The input image may be an omnidirectional image, and each of the encoders may encode a perspective of one of a plurality of perspectives constituting an omnidirectional image. Each of the encoders includes an encoding processor, a reconstructed picture buffer, and / or an entropy encoder, and may correspond to the encoding apparatus of FIG.

도 33의 복호화 장치는 영상 정보 변환기(3301), 문맥 정보 추출기(3302), 변환 및 통합기(3303) 및 복수의 복호화기를 포함하여 구성될 수 있다. 도 33의 복호화 장치는 비트스트림을 복호화함으로써 영상을 출력할 수 있다. 출력 영상은 전방향 영상일 수 있으며, 각각의 복호화기는 전방향 영상을 구성하는 복수의 퍼스펙티브 중 하나의 퍼스펙티브를 복호화할 수 있다. 복호화기의 각각은 복호화 처리기, 엔트로피 복호기 및/또는 복원픽쳐 버퍼를 포함하며, 도 4의 복호화 장치에 해당할 수 있다.The decoding apparatus of FIG. 33 may include an image information converter 3301, a context information extractor 3302, a transformer and integrator 3303, and a plurality of decoders. The decoding apparatus of FIG. 33 can output an image by decoding the bit stream. The output image may be an omni-directional image, and each decoder may decode a perspective of one of a plurality of perspectives constituting an omnidirectional image. Each of the decoders includes a decoding processor, an entropy decoder, and / or a restored picture buffer, and may correspond to the decoding apparatus of FIG.

만약, 각각의 퍼스펙티브의 부/복호화 방향에 따라, 별도의 부/복호화기가 필요하다면, 도 32 및 도 33의 복수의 부호화기 및 복수의 복호화기의 각각은 서로 다른 구성을 갖게 되므로, 장치 구성의 복잡도가 증가하게 된다. 따라서, 각각의 퍼스펙티브의 처리 방향이 다르더라도 동일한 구성의 부호화기 또는 복호화기에 의해 처리될 수 있도록 추가적인 구성이 필요하다. 이를 위해, 본 개시에 따른 부호화기는 변환 및 분배기(3201) 및/또는 영상 정보 변환기(3202)를 더 포함할 수 있다. 또한, 본 개시에 따른 복호화기는 영상 정보 변환기(3301) 및/또는 변환 및 통합기(3302)를 더 포함할 수 있다.If a different subdecoder is required depending on the subdecryption direction of each perspective, the plurality of encoders and the plurality of decoders of FIGS. 32 and 33 have different configurations, . Therefore, even if the processing direction of each perspective is different, an additional configuration is required so that it can be processed by an encoder or a decoder having the same configuration. To this end, the encoder according to the present disclosure may further include a transform and distributor 3201 and / or an image information transformer 3202. In addition, the decoder according to the present disclosure may further include an image information converter 3301 and / or a transformer and integrator 3302.

전방향 영상을 구성하는 각각의 퍼스펙티브를 병렬 처리하기 위해서, 도 32의 변환 및 분배기(3201)는 각 퍼스펙티브의 영상 정보를 하나 이상의 부호화 처리기로 전송할 수 있다. 영상 정보의 전송 전에 각 퍼스펙티브의 처리 방향이 소정의 처리 방향과 일치하도록 영상 정보를 수정할 수 있다. 소정의 처리 방향은 예컨대, 래스터 스캔 순서일 수 있으나, 이에 한정되지 않으며, 모든 퍼스펙티브에 공통으로 적용되는 처리 방향으로서 미리 결정된 것이거나 시그널링되는 것일 수 있다.In order to parallelly process the respective perspectives constituting the omnidirectional image, the transform and distributor 3201 of Fig. 32 can transmit image information of each perspective to one or more encoding processors. The image information can be modified so that the processing direction of each perspective matches the predetermined processing direction before transmission of the image information. The predetermined processing direction may be, for example, a raster scanning order, but is not limited thereto, and may be predetermined or signaled as the processing direction commonly applied to all the perspectives.

변환 및 분배기(3201)는 아래와 같이 동작할 수 있다.The transform and distributor 3201 may operate as follows.

먼저, 입력 영상이 복수의 퍼스펙티브를 통합된 형태로 포함하고 있으면, 입력 영상을 각 퍼스펙티브 별로 분할한다(스텝 1). 전방향 영상은 각각의 퍼스펙티브 별로 따로 저장되거나 하나의 전개도 형태로 통합되어 저장될 수 있다. 이때, 하나의 전개도 형태로 저장되어 있을 경우 병렬 처리를 위해 퍼스펙티브 별로 분할한다. 각각의 퍼스펙티브들은 각각의 부호화 처리기로 전송될 수 있다.First, if the input image includes a plurality of perspectives in an integrated form, the input image is divided for each perspective (step 1). The omni-directional images can be stored separately for each perspective or can be integrated and stored in the form of a single developed view. At this time, if it is stored in the form of one developed view, it is divided per perspective for parallel processing. Each of the perspectives can be sent to each encoding processor.

다음으로, 퍼스펙티브 내의 CTU 처리 순서가 반시계 방향일 경우 시계 방향이 되도록 대칭 영상을 생성한다(스텝 2). 도 34는 퍼스펙티브의 처리 순서를 변환하는 방법을 설명하기 위한 예시도이다. 도 34의 (a), (b) 및 (c)의 각각은 CTU의 처리 순서가 반시계 방향인 퍼스펙티브 P6의 처리 순서를 시계 방향이 되도록 변환하는 실시예를 도시한다. Next, if the CTU processing order in the perspective is counterclockwise, a symmetric image is generated so as to be clockwise (step 2). 34 is an exemplary diagram for explaining a method of converting the processing order of the perspective. Each of (a), (b) and (c) in FIG. 34 shows an embodiment for converting the processing order of the perspective P6, which is the counterclockwise processing order of the CTU, to be clockwise.

도 34의 (a)에서는 스테이지(stage) 1의 퍼스펙티브 P6을 좌우로 대칭하여, 스테이지 2의 대칭 퍼스펙티브를 생성할 수 있다. 도 34의 (b)에서는 스테이지 1의 퍼스펙티브 P6을 상하로 대칭시킴으로써, 스테이지 2의 대칭 퍼스펙티브를 생성할 수 있다. 또한, 도 34의 (c)에서는 스테이지 1의 퍼스펙티브 P6을 대각으로 대칭시킴으로써, 스테이지 2의 대칭 퍼스펙티브를 생성할 수 있다. 도 34의 (a), (b) 및 (c)의 각각에 있어서, 스테이지 2의 대칭 퍼스펙티브의 CTU의 처리 순서는 시계 방향으로 변환됨을 알 수 있다. In Figure 34 (a), the perspective P6 of the stage 1 can be symmetrically left and right to create a symmetrical perspective of the stage 2. [ In Fig. 34 (b), the symmetric perspective of the stage 2 can be generated by symmetry of the perspective P6 of the stage 1 up and down. 34C, a symmetric perspective of the stage 2 can be generated by symmetrically mirroring the perspective P6 of the stage 1 in a diagonal direction. In each of FIGS. 34 (a), (b) and (c), it can be seen that the processing order of the CTU of the symmetry perspective of stage 2 is converted clockwise.

마지막으로, 스테이지 2의 대칭 퍼스펙티브의 부/복호화 시작 위치가 좌측 상단에 오도록 퍼스펙티브의 중앙을 기준으로 영상을 회전시킨다(스텝 3). 도 34의 (a)의 경우, 부/복호화 시작 위치가 우하단에 위치하므로, 스테이지 2의 대칭 퍼스펙티브를 180도 회전시킬 수 있다. 도 34의 (b)의 경우, 부/복호화 시작 위치가 좌상단에 위치하므로 스테이지 2의 대칭 퍼스펙티브를 회전시킬 필요가 없다. 도 34의 (c)의 경우, 부/복화화 시작 위치가 좌하단에 위치하므로, 스테이지 2의 대칭 퍼스펙티브를 시계방향으로 90도 회전시킬 수 있다. 스테이지 2의 대칭 퍼스펙티브의 회전에 의해 스테이지 3의 퍼스펙티브가 생성될 수 있다.Finally, the image is rotated on the basis of the center of the perspective so that the sub / decoding start position of the symmetry perspective of the stage 2 is on the upper left side (step 3). In the case of (a) in FIG. 34, since the sub-decoding start position is located at the lower right end, the symmetry perspective of the stage 2 can be rotated 180 degrees. In the case of FIG. 34 (b), since the sub-decode start position is located at the upper left end, there is no need to rotate the stage 2 symmetry perspective. In the case of (c) in FIG. 34, since the sub / demodulation start position is located at the lower left end, the symmetry perspective of the stage 2 can be rotated clockwise by 90 degrees. A perspective of stage 3 can be generated by rotation of the symmetry perspective of stage 2. [

만약 스테이지 1의 퍼스펙티브 내의 CTU의 처리 순서가 시계 방향일 경우, 상기 대칭은 수행되지 않을 수 있으며, 예컨대, 회전만이 수행될 수 있다. 전술한 바와 같이, 퍼스펙티브를 대칭 및/또는 회전시킴으로써, 퍼스펙티브의 부/복호화 처리 순서를 소정의 순서로 일치시킬 수 있다. 도 34를 참조하여 설명한 위의 예시는 각 퍼스펙티브의 부/복호화가 왼쪽 상단에서 시작할 수 있도록 만든 방법의 예이다. 또한, 상기 대칭 및/또는 회전은 매트릭스로 표현될 수 있다. 또한, 상기 대칭 및 회전은 매트릭스 곱의 형태로 표현되어 한번의 연산으로 수행될 수도 있다.If the processing order of CTUs in the perspective of stage 1 is clockwise, the symmetry may not be performed and only rotation, for example, may be performed. As described above, by performing symmetry and / or rotation of the perspective, it is possible to match the affine / decryption processing order of the perspective in a predetermined order. The above example described with reference to FIG. 34 is an example of how the subdecryption of each perspective can be started from the upper left corner. In addition, the symmetry and / or rotation may be represented by a matrix. Also, the symmetry and rotation may be expressed in the form of a matrix multiplication and may be performed by a single operation.

도 34를 참조하여 설명한 각각의 실시예는 퍼스펙티브 내의 CTU 처리 순서를 소정의 순서에 일치시키기 위한 실시예의 일부이다. 즉, 도 34를 참조하여 설명한 실시예들 이외의 방법을 적용하여, CTU 처리 순서를 일치시킬 수 있다. 예컨대, 도 34를 참조하여 설명한 실시예와는 달리, 먼저 퍼스펙티브를 회전시킨 후 대칭시킴으로써 CTU 처리 순서를 일치시킬 수도 있다. 즉, 도 34의 (a)의 경우, 스테이지 1의 퍼스펙티브를 180도 회전시킨 후, 회전된 퍼스펙티브를 좌우로 대칭시킴으로써, 스테이지 3의 퍼스펙티브를 획득할 수 있다.Each of the embodiments described with reference to FIG. 34 is a part of an embodiment for matching the CTU processing order in the perspective to a predetermined order. That is, the CTU processing sequence can be matched by applying a method other than the embodiments described with reference to FIG. For example, unlike the embodiment described with reference to FIG. 34, the CTU processing sequence may be matched by rotating the perspective first and then symmetrically. That is, in the case of FIG. 34 (a), perspective of stage 3 can be obtained by rotating the perspective of stage 1 180 degrees and then symmetrically rotating the rotated perspective.

그 외에도, 회전과 대칭을 동시에 적용하는 방법도 고려될 수 있다. 또한, 회전과 대칭 이외에, 스테이지 1의 퍼스펙티브의 처리 순서와 스테이지 3의 퍼스펙티브의 처리 순서 사이에 매핑 정보를 이용하여 퍼스펙티브를 변환할 수도 있다. 예컨대, 상기 매핑 정보는 스테이지 1의 퍼스펙티브의 처리 순서를 식별하기 위한 정보와 상기 스테이지 1의 퍼스펙티브에 대한 변환 정보를 포함할 수 있다. 예컨대, 상기 변환 정보는 상기 스테이지 1의 퍼스펙티브를 스테이지 3의 퍼스펙티브로 변환하기 위한 정보일 수 있다. 예컨대, 상기 변환 정보는 스테이지 1의 CTU와 스테이지 3의 CTU 사이의 대응 관계에 관한 정보일 수 있다. 상기 대응 관계는 스테이지 1의 CTU의 위치와 이에 대응하는 스테이지 3의 CTU의 위치일 수 있다. 상기 CTU의 위치는 소정의 스캔 순서에 따른 순서로 나타낼 수 있다. 상기 소정의 스캔 순서는 예컨대, 래스터 스캔 순서일 수 있다. 또는 상기 CTU의 위치는 퍼스펙티브의 소정의 코너를 기준으로 한 2차원 좌표일 수 있다. 상기 소정의 코너는 예컨대 퍼스펙티브의 좌상단 코너일 수 있다.In addition, a method of simultaneously applying rotation and symmetry can be considered. In addition to the rotation and the symmetry, the perspective may be converted using the mapping information between the processing order of the perspective of stage 1 and the processing order of the perspective of stage 3. For example, the mapping information may include information for identifying a processing order of the stage 1's perspective and conversion information for the perspective of the stage 1. For example, the conversion information may be information for converting the perspective of the stage 1 into the perspective of the stage 3. For example, the conversion information may be information regarding the correspondence between the CTUs of the stage 1 and the CTUs of the stage 3. The correspondence may be the position of the CTU of stage 1 and the position of the CTU of stage 3 corresponding thereto. The positions of the CTUs may be indicated in an order according to a predetermined scan order. The predetermined scan order may be, for example, a raster scan order. Or the position of the CTU may be a two-dimensional coordinate with respect to a predetermined corner of the perspective. The predetermined corner may be, for example, the upper left corner of the perspective.

도 34를 참조하여 설명한 예에서, 입력 퍼스펙티브의 CTU 처리 순서가 소정의 처리 순서와 다를 때, 대칭 및/또는 회전을 수행하여 퍼스펙티브를 변환한다. 그러나, 입력 퍼스펙티브를 변환하지 않고, 부/복호화기의 처리 순서를 변형할 수도 있다. 예컨대, 입력 퍼스펙티브가 도 34의 (a)의 퍼스펙티브와 같고, 소정의 처리 순서가 래스터 스캔 순서라고 할 때, 부/복호화기는 입력 퍼스펙티브의 좌하단 CTU부터 시작하여 반시계 방향으로 부/복호화를 수행하도록 구성할 수도 있다. 이 때, 스테이지 1의 퍼스펙티브의 처리 순서와 스테이지 3의 퍼스펙티브의 처리 순서 사이의 전술한 매핑 정보가 이용될 수 있다.In the example described with reference to FIG. 34, when the CTU processing order of the input perspective is different from the predetermined processing order, symmetry and / or rotation are performed to convert the perspective. However, the processing order of the subdecoder may be modified without converting the input perspective. For example, when the input perspective is the same as the perspective of FIG. 34 (a), and the predetermined processing order is the raster scan order, the sub-decoder performs subtraction / decryption in the counterclockwise direction starting from the lower left CTU of the input perspective . At this time, the above-described mapping information between the processing order of the perspective of stage 1 and the processing order of the perspective of stage 3 can be used.

전술한 바와 같이, 퍼스펙티브에 포함된 블록을 처리할 때, 이웃 퍼스펙티브에 포함된 블록의 영상 정보를 참조할 수 있다. 여기서 영상 정보란, 전술한 바와 같이, 단순히 영상에 존재하는 픽셀 정보 외에도 공간적 예측에 활용한 예측 모드, 시간적 예측에 활용한 움직임 벡터, 머지 인덱스, 양자화 파라미터 정보, 인루프 필터 정보, 필터 계수 정보 등 부/복호화 과정에서 생성되거나 사용되는 모든 정보를 포함할 수 있다. As described above, when processing a block included in the perspective, the image information of the block included in the neighboring perspective can be referred to. As described above, in addition to the pixel information existing in the image, the image information may include a prediction mode used for spatial prediction, a motion vector used for temporal prediction, merge index, quantization parameter information, in-loop filter information, And may include any information that is generated or used during the subtraction / decryption process.

그러나, 3차원 공간상의 영상을 전개도상에 표현하는 과정에서 퍼스펙티브 간의 위치 및 방향에 차이가 발생한다. 따라서, 서로 다른 퍼스펙티브간 예측에 활용할 수 있는 영상 정보를 공유하기 위해서는 각 퍼스펙티브의 전개도상의 방향에 맞게 영상 정보를 변환하는 과정이 필요하다. 또한, 도 34를 참조하여 설명한 바와 같이, 퍼스펙티브의 부/복호화 처리 순서를 좌상단에서 우하단으로 일치시키기 위한 대칭 및/또는 회전 변환을 수행함에 따라 영상 정보를 변환할 필요가 있다. However, in the process of expressing an image on a three-dimensional space, the position and direction of the perspective are different. Therefore, in order to share image information that can be used for different perspective predictions, it is necessary to convert the image information according to the direction of the developed view of each perspective. As described with reference to Fig. 34, it is necessary to convert the image information by performing symmetric and / or rotational transformation for matching the affine / decode processing order of the perspective from the upper left corner to the lower right corner.

복호화기는 부호화기가 사용한 전개도에 관한 정보 및/또는 각각의 퍼스펙티브에 적용된 변환에 관한 정보 등에 기초하여 참조하게 될 영상 정보의 변환 방법을 결정할 수 있다. 부/복호화기는 전개도에 관한 정보, 각 퍼스펙티브의 전개도 상에서의 위치에 관한 정보 및/또는 각 퍼스펙티브에 적용된 변환에 관한 정보를 사전에 약속할 수 있다. 또는 상기 정보의 전부 또는 일부는 비트스트림을 통해 명시적으로 또는 암묵적으로 시그널링될 수 있다. 또는 복호화기는 부/복호화에 관한 다른 신택스 또는 변수에 기초하여 상기 정보의 일부 또는 전부를 유도할 수도 있다. The decoder can determine a conversion method of the video information to be referred to based on the information on the developed view used by the encoder and / or the information on the transform applied to each perspective. The subscriber / decoder can pre-promise information about the developed view, information about the location on the developed view of each perspective, and / or information about the transformations applied to each perspective. Or all or part of the information may be signaled explicitly or implicitly through the bitstream. Or the decoder may derive some or all of the information based on other syntax or variables relating to the subdecryption.

전술한 영상 정보의 변환은 도 32의 영상 정보 변환기(3202) 및 도 33의 영상 정보 변환기(3301)에 의해 수행될 수 있다. The above-described conversion of the image information can be performed by the image information converter 3202 of FIG. 32 and the image information converter 3301 of FIG. 33.

부/복호화기가 서로 약속한 한가지 방식을 사용할 수 있는 경우, 비디오 파라미터 셋(Video Parameter Set, VPS) 또는 시퀀스 파라미터 셋(Sequence Parameter Set, SPS)과 같은 영상 헤더에 플래그 정보를 포함시켜 약속한 방식의 사용 여부를 시그널링할 수 있다. If the subscriber / decoder can use one promised method, the flag information is included in an image header such as a Video Parameter Set (VPS) or a Sequence Parameter Set (SPS) You can signal whether it is used or not.

부호화기가 복수의 전개도 중 어떤 전개도를 이용할지 또는 변환 및 분배기(3201)에서 처리되는 퍼스펙티브의 처리 순서가 가변적인 경우, 부호화시 사용된 전개도의 종류 또는 퍼스펙티브의 처리 순서에 관한 정보는 복호기로 명시적으로 시그널링될 수 있다. 또는 부/복호화기가 상기 정보 등에 대한 룩업 테이블을 공유하는 경우, 룩업 테이블의 인덱스를 시그널링할 수도 있다. If the encoder uses a certain developed view among the plurality of developed views or if the processing order of the perspective processed by the transformer and distributor 3201 is variable, information on the type of developed view used in encoding or the processing order of perspectives is explicitly Lt; / RTI > Or the index of the look-up table when the sub-decoder shares a look-up table for the information or the like.

도 33의 변환 및 통합기(3303)는 도 32의 변환 및 분배기(3201)의 과정을 반대로 수행할 수 있다. 보다 구체적으로 아래의 과정을 수행할 수 있다.The transforming and combining unit 3303 of FIG. 33 can reverse the process of the transforming and distributing unit 3201 of FIG. More specifically, the following process can be performed.

먼저, 부호화 장치에서 해당 퍼스펙티브 영상에 대해 회전을 적용했을 경우, 부호화 장치에서 회전된 각도만큼 영상을 반대 방향으로 회전시킬 수 있다(스텝 1).First, when a rotation is applied to the perspective image in the encoding apparatus, the encoding apparatus can rotate the image in the opposite direction by the rotated angle (step 1).

해당 퍼스펙티브 영상에 대해 회전이 적용되었는지의 여부 및/또는 회전 각도는 비트스트림을 통해 시그널링될 수 있다. 상기 회전 적용 여부 및/또는 회전 각도는 직접적으로 부/복호화될 수 있다. 예컨대, 회전 적용 여부를 나타내는 플래그 및 회전 각도에 관한 구문 요소가 부/복호화될 수 있다. Whether the rotation has been applied to the perspective image and / or the rotation angle can be signaled through the bitstream. The rotation application and / or rotation angle can be directly added / decoded. For example, a flag indicating whether or not the rotation is applied and a syntax element related to the rotation angle can be added / decoded.

회전 각도는 퍼스펙티브 영상의 형태에 따라 제한된 개수가 존재할 수 있다. 예컨대, 퍼스펙티브 영상이 사각형일 경우 회전 각도는 90도, 180도 및 270도 중 하나일 수 있다. 따라서, 회전 각도에 관한 구문 요소는 3가지 경우 중 한가지를 지시하는 정보일 수 있다. There may be a limited number of rotation angles depending on the shape of the perspective image. For example, if the perspective image is a rectangle, the rotation angle may be one of 90 degrees, 180 degrees, and 270 degrees. Thus, the syntax element for the angle of rotation may be information indicating one of three cases.

또는 2 비트의 구문 요소를 이용할 경우, 예컨대, 비트열 “00”은 “회전되지 않음”, 비트열 “01”은 “90도 회전됨”, 비트열 “10”은 “180도 회전됨”, 비트열 “11”은 “270도 회전됨”을 나타낼 수도 있다. 상기 비트열과 그에 대응하는 의미는 부/복호화기에서 기설정되어, 예컨대, 테이블의 형태로 저장될 수 있다.Bit string " 00 " is " not rotated ", bit string " 01 " is " rotated 90 degrees ", bit string " 10 & And the bit string " 11 " may indicate " rotated 270 degrees ". The bit string and its corresponding meaning can be pre-set in the subdecoder and stored, for example, in the form of a table.

퍼스펙티브 영상이 n 각형일 경우, 회전이 적용되지 않는 1가지 경우와 회전이 적용되는 n-1가지의 경우가 존재할 수 있다. 상기 n-1가지의 경우는 각각 회전 각도가 상이한 경우를 의미할 수 있다. 즉, 퍼스펙티브 영상이 n 각형일 경우, 회전 변환에 관한 정보는 n가지 경우 중 한가지를 지시하는 정보일 수 있다. 따라서, log2n 비트의 구문 요소를 이용하여, 회전 적용 여부 및 회전 각도에 관한 정보가 부/복호화될 수 있다.If the perspective image is n-angular, there may be one case where rotation is not applied and n-1 cases where rotation is applied. In the case of (n-1) kinds, it may mean that the rotation angles are different from each other. That is, when the perspective image is n-angular, the information on the rotation transformation may be information indicating one of n cases. Therefore, using the log 2 n bit syntax element, information on whether or not the rotation is applied and information about the rotation angle can be added / decoded.

다음으로, 부호화 장치에서 해당 퍼스펙티브 영상에 대해 대칭을 적용했을 경우 부호화 장치에서 사용했던 중앙선을 기준으로 대칭 영상을 생성할 수 있다(스텝 2).Next, when the encoding apparatus applies the symmetry to the perspective image, the symmetric image can be generated based on the center line used in the encoding apparatus (step 2).

해당 퍼스펙티브 영상에 대해 대칭이 적용되었는지의 여부 및/또는 대칭에 사용된 중앙선에 관한 정보는 비트스트림을 통해 시그널링될 수 있다. 상기 대칭 적용 여부 및/또는 중앙선에 관한 정보는 직접적으로 부/복호화될 수 있다. 예컨대, 대칭 적용 여부를 나타내는 플래그 및 중앙선에 관한 구문 요소가 부/복호화될 수 있다.Information about whether the symmetry is applied to the perspective image and / or the center line used for symmetry can be signaled through the bitstream. Information on whether or not the symmetry is applied and / or the center line can be directly added / decoded. For example, a flag indicating whether symmetry is applied or not and a syntax element relating to a center line may be added / decoded.

이용 가능한 중앙선의 개수는 제한될 수 있다. 예컨대, 부/복호화기는 이용 가능한 중앙선의 개수를 미리 약속할 수 있다. 또는 이용 가능한 중앙선의 개수가 시그널링될 수도 있다.The number of available centerlines may be limited. For example, the subdecoder may preliminarily promise the number of available centerlines. Or the number of available centerlines may be signaled.

예컨대, 중앙선이 수직선, 수평선, 대각선의 3가지 중 하나일 경우, 중앙선에 관한 정보는 3가지 경우 중 한가지를 지시하는 정보일 수 있다.For example, when the center line is one of three kinds of vertical lines, horizontal lines, and diagonal lines, the information about the center line may be information indicating one of three cases.

또는 2 비트의 구문 요소를 이용할 경우, 예컨대, 비트열 “00”은 “대칭되지 않음”, 비트열 “01”은 “수직선을 이용하여 대칭됨”, 비트열 “10”은 “수평선을 이용하여 대칭됨”, 비트열 “11”은 “대각선을 이용하여 대칭됨”을 나타낼 수도 있다. 상기 비트열과 그에 대응하는 의미는 부/복호화기에서 기설정되어, 예컨대, 테이블의 형태로 저장될 수 있다.The bit string " 00 " is " not symmetrical ", the bit string " 01 " is " symmetrical using a vertical line ", the bit string " 10 " Symmetric ", and the bit string " 11 " may indicate " symmetric using diagonal lines ". The bit string and its corresponding meaning can be pre-set in the subdecoder and stored, for example, in the form of a table.

다음으로, 복수의 퍼스펙티브가 합쳐진 하나의 전개도를 생성할 경우 스텝 1 및/또는 스텝 2를 거친 퍼스펙티브 영상들을 전개도에 맞게 하나로 통합할 수 있다.Next, when one developed view in which a plurality of perspectives are combined is generated, the perspective images passed through Step 1 and / or Step 2 can be integrated into one according to the developed view.

스텝 1 및 스텝 2는 부호화 장치의 변환 및 분배기(3201)가 사용한 연산을 역으로 적용함으로서 수행될 수 있다. 복호화 장치의 사용자가 복수의 퍼스펙티브를 합친 하나의 전개도를 요구할 경우 스텝 3이 수행될 수 있다.Steps 1 and 2 can be performed by applying the operation used by the transformer and distributor 3201 of the encoding apparatus inversely. Step 3 may be performed if the user of the decoding apparatus requests one developed view of a plurality of perspectives combined.

전술한 바와 같이, 퍼스펙티브 간 예측에 활용할 수 있는 픽셀 정보를 공유하기 위해서는 3차원 공간의 영상을 전개도상에 표현하면서 발생하는 퍼스펙티브 간의 위치 차이 및/또는 퍼스펙티브의 부/복호화 처리 순서를 소정의 순서로 일치시키기 위한 변환을 고려하여, 픽셀 정보를 보정할 수 있다.As described above, in order to share the pixel information that can be utilized in inter-perspective prediction, the position difference between the perspectives generated by expressing the image of the three-dimensional space on the developed image and / or the sub- The pixel information can be corrected in consideration of the conversion for matching.

또한, 예측에 사용되는 인접 퍼스펙티브의 영상 정보를 원활히 참조하기 위해서는, 인접 퍼스펙티브의 영상 정보를 수정(modify)할 필요가 있다.Further, in order to smoothly refer to the image information of the adjacent perspective used for the prediction, it is necessary to modify the image information of the adjacent perspective.

예컨대, 시간적 예측에 사용하는 움직임 벡터의 경우, 전개도 상에서의 퍼스펙티브 간의 위치 차이 및/또는 부/복호화 처리 순서를 소정의 순서로 일치시키지 위한 변환을 고려한 보정과 마찬가지로, 대칭 및/또는 회전 변환을 수행하여 수정될 수 있다.For example, in the case of a motion vector used for temporal prediction, symmetric and / or rotational transformation is performed in the same manner as the correction considering the positional difference between perspectives on the developed view and / or the transformation for matching the sub-decoding processing order in a predetermined order .

그러나, 공간적 예측 모드의 수정은 상기 방법으로는 해결되지 않을 수 있다. 그 이유에 대해서는 후술한다. 화면내 예측을 수행하기 위해, 예컨대, 현재 블록의 좌하단, 좌단, 상단, 우상단의 인접 픽셀 정보를 이용할 수 있다. 또한, 방향성 예측 모드로서, 도 35에 도시된 바와 같이, 33가지의 예측 모드가 이용될 수 있다. 또는, 보다 세밀한 방향성을 지원하기 위해, 더 많은 방향성 예측 모드가 이용될 수도 있다. However, the modification of the spatial prediction mode may not be solved by the above method. The reason will be described later. In order to perform intra prediction, for example, adjacent pixel information at the lower left, upper left, upper and upper right of the current block can be used. Further, as the directional prediction mode, as shown in Fig. 35, 33 prediction modes can be used. Alternatively, more directional prediction modes may be used to support more precise directionality.

영상의 부/복호화를 좌상단에서 우하단으로 진행하면, 특정 방향에만 픽셀 정보가 존재한다. 따라서, 참조할 수 있는 방향성 예측 모드는 좌하단, 좌단, 상단 및/또는 우상단의 예측 모드일 수 있다. 또한, 움직임 벡터와 다르게 공간적 예측의 방향에 따른 모드 번호가 저장이 된다. 따라서, 모드 번호가 실제 공간적 예측의 방향과 매칭이 안될 수도 있다. 따라서 퍼스펙티브가 대칭이나 회전으로 변환될 경우 이웃 블록의 예측 정보를 그대로 활용할 수 없다. If image subdivision / decoding is performed from the upper left to the lower right, pixel information exists only in a specific direction. Therefore, the directional prediction mode that can be referred to may be the prediction mode of the lower left, left, upper, and / or upper right. In addition, a mode number according to the direction of the spatial prediction is stored unlike the motion vector. Therefore, the mode number may not match the direction of the actual spatial prediction. Therefore, when the perspective is converted into symmetry or rotation, the prediction information of the neighboring block can not be utilized as it is.

도 36은 이웃 퍼스펙티브의 예측 모드를 참조한 현재 퍼스펙티브의 공간적 예측을 설명하기 위한 예시도이다.36 is an exemplary diagram for explaining a spatial prediction of a current perspective referring to a prediction mode of a neighboring perspective.

도 36의 (a)는 정육면체 전방향 영상의 전개도 상에서, 퍼스펙티브 P2의 블록 A, 퍼스펙티브 P6의 블록 B의 위치를 나타낸다. 도 36의 (b)는 전개도 상에서의 위치 차이를 고려하여, 퍼스펙티브 P2 및 퍼스펙티브 P6의 위치를 보정한 후의 블록 A와 B의 위치를 나타낸다. 도 36의 (c)는 퍼스펙티브 P6의 의 부/복호화 처리 순서를 소정의 방향, 예컨대, 좌상단에서 우하단으로 일치시키는 보정 후의 블록 A와 B의 위치를 나타낸다. 36 (a) shows the position of the block A of the perspective P2 and the position of the block B of the perspective P6 on the developed view of the cubic omnidirectional image. Figure 36 (b) shows the positions of the blocks A and B after correcting the positions of the perspectives P2 and the perspective P6 in consideration of the positional difference on the developed view. FIG. 36C shows the positions of the blocks A and B after the correction in which the order of decoding / decoding of the perspective P6 is made to coincide with a predetermined direction, for example, from the upper left corner to the lower right corner.

도 36의 (c)의 퍼스펙티브 P6은 도 32의 변환 및 분배기(3201)를 통해 좌상단에서 우하단의 순서로 부호화될 수 있다. 따라서, 블록 B는 도 35에 예시한 화면 내 예측 모드를 이용하여 예측될 수 있다. 하지만, 도 36의 (c)의 블록 A의 부호화 완료된 픽셀 정보는 블록 B가 참조할 수 있도록 변환된 것이다. 그러나, 픽셀 정보 외의 다른 영상 정보들은 변환 전의 것이므로, 블록 B가 그대로 이용할 수 없다. 따라서 다른 영상 정보들에 대해서도, 픽셀 정보를 변환한 것에 대응되는 변환 과정을 수행할 필요가 있다. 이때, 픽셀 정보의 변환은 예컨대, 도 34를 참조하여 설명한 바와 같다. The perspective P6 in FIG. 36C can be encoded in the order from the top left to the bottom right through the conversion and distributor 3201 in FIG. Therefore, the block B can be predicted using the intra prediction mode illustrated in FIG. However, the encoded pixel information of the block A of FIG. 36 (c) is converted so that the block B can refer to it. However, since the image information other than the pixel information is before conversion, the block B can not be used as it is. Therefore, it is also necessary to perform the conversion process corresponding to the conversion of the pixel information with respect to other image information. At this time, the conversion of the pixel information is as described with reference to Fig. 34, for example.

그러나, 화면 내 예측의 경우, 방향성에 관해 모드 번호가 사용되기 때문에 변환 과정을 거친 후에는, 방향성에 관한 모드 번호가 동일하지 않거나 존재하지 않는 경우가 발생할 수 있다. However, in the case of the intra prediction, since the mode number is used for the directionality, after the conversion process, the mode number for the directionality may not be the same or may not exist.

현재 블록(예컨대, 도 36의 블록 B)과 참조 블록(예컨대, 도 36의 블록 A)에 가용한 공간적 예측의 방향성이 동일하면, 변환에 의해 변경된 모드 번호의 수정만 필요할 수 있다. 하지만, 현재 블록의 예측 모드에 대응되는 모드가 참조 블록에 대해서는 존재하지 않을 수도 있다. If the directionality of the spatial prediction available for the current block (e.g., block B in FIG. 36) and the reference block (e.g., block A in FIG. 36) is the same, only the modification of the mode number changed by the transformation may be required. However, the mode corresponding to the prediction mode of the current block may not exist for the reference block.

도 37은 현재 블록과 참조 블록의 예측 모드의 차이를 설명하기 위한 도면이다. FIG. 37 is a diagram for explaining a difference between prediction modes of a current block and a reference block. FIG.

도 37의 (a)는 도 36의 (c)에 도시된 블록 A 및 블록 B에 가용한 방향성 예측 모드를 예시적으로 나타낸다. 도 37의 (a)에 도시된 바와 같이, 블록 B의 변환에 따라 블록 A가 변환되면서, 모드 번호 26외에는 블록 B가 예측에 활용할 수 있는 모드가 블록 A에 대해 없음을 알 수 있다. 하지만, 블록 A의 예측 방향 자체는 블록 B의 예측 방향의 부/복호화에 유용할 수 있다. 따라서 블록 A의 모드 번호를 블록 B가 사용할 수 있도록 해석하면, Most Probable Mode(MPM)등의 예측 기술의 효율을 향상시킬 수 있다. FIG. 37A exemplarily shows a directional prediction mode available for the block A and the block B shown in FIG. 36C. As shown in FIG. 37 (a), block A is transformed according to the transformation of block B, and it can be seen that a mode that block B can utilize for prediction other than block A is other than mode number 26. However, the prediction direction itself of the block A may be useful for the sub-decoding of the prediction direction of the block B. Therefore, by interpreting the mode number of the block A so that the block B can use it, the efficiency of the prediction technique such as the Most Probable Mode (MPM) can be improved.

방향성 예측 모드의 해석은 다음과 같이 수행될 있다. 참조 블록의 예측 방향이 소정의 처리 순서(예컨대, 순차 주사 순서)에 따른 방향성 모드(예컨대, 도 35를 참조하여 설명한 방향성 모드)중에 존재하는 경우, 참조 블록의 방향성 예측 모드는 참조 블록의 예측 방향에 할당된 모드 번호로 해석할 수 있다. 예컨대, 도 37의 (a)에서, 참조 블록 A의 예측 방향이 우상단 방향인 경우, 우상단 방향은 도 35에 도시된 방향성 모드 중에 포함된다. 따라서, 이 경우, 참조 블록 A의 방향성 예측 모드는 '34'로 해석될 수 있다. The interpretation of the directional prediction mode can be performed as follows. When the prediction direction of the reference block is present in a directional mode (for example, the directional mode described with reference to FIG. 35) according to a predetermined processing order (for example, a progressive scanning order), the directional prediction mode of the reference block is a prediction direction As shown in FIG. For example, in Fig. 37A, when the prediction direction of the reference block A is the upper right direction, the upper right direction direction is included in the directional mode shown in Fig. Therefore, in this case, the directional prediction mode of the reference block A can be interpreted as '34'.

만약, 참조 블록의 예측 방향이 소정의 처리 순서(예컨대, 순차 주사 순서)에 따른 방향성 모드 중에 존재하지 않는 경우, 즉, 아래쪽 방향 또는 오른쪽 방향일 경우, 참조 블록의 예측 방향에 180도 대칭되는 예측 방향에 할당된 모드 번호로 해석할 수 있다. 예컨대, 도 37의 (a)에서, 참조 블록 A의 예측 방향이 오른쪽 방향인 경우, 오른쪽 방향은 도 35에 도시된 방향성 모드 중에 포함되지 않는다. 따라서, 이 경우, 참조 블록 A의 방향성 예측 모드는, 오른쪽 방향에 180도 대칭되는 왼쪽 방향에 할당된 모드 번호인 '10'으로 해석될 수 있다. If the prediction direction of the reference block does not exist in the directional mode according to a predetermined processing order (for example, a progressive scanning order), that is, in the downward direction or the right direction, Direction can be interpreted as a mode number assigned to the direction. For example, in Fig. 37 (a), when the prediction direction of the reference block A is the right direction, the right direction is not included in the directional mode shown in Fig. Therefore, in this case, the directional prediction mode of the reference block A can be interpreted as a mode number " 10 " assigned to the left direction that is 180 degrees symmetrical in the right direction.

도 37의 (b)는 도 37의 (a)의 하단 방향성(실선 화살표)을 상단 방향성(점선 화살표)으로 해석하는 예를 나타낸다. 도 37의 (b)의 방향성 모드 중 2번 모드는 기존 방향성 모드 중에 포함된다. 따라서, 180도 대칭해서 해석되지 않을 수 있다. 37B shows an example in which the bottom directionality (solid line arrow) in FIG. 37A is interpreted as the upward direction (dotted line arrow). The mode 2 of the directional mode of FIG. 37 (b) is included in the existing directional mode. Therefore, 180 degrees may not be symmetrically interpreted.

도 37의 (c)는 도 37의 (a)의 오른쪽 방향성(실선 화살표)을 왼쪽 방향성(점선 화살표)으로 해석하는 예를 나타낸다. 도 37의 (c)의 방향성 모드 중 34번 모드는 기존 방향성 모드 중에 포함된다. 따라서, 180도 대칭해서 해석되지 않을 수 있다.37C shows an example in which the right directionality (solid line arrow) in FIG. 37A is interpreted as left directionality (broken line arrow). The 34th mode of the directional mode of FIG. 37 (c) is included in the existing directional mode. Therefore, 180 degrees may not be symmetrically interpreted.

도 38은 참조 블록의 방향성 예측 모드의 해석 방법을 설명하기 위한 도면이다.38 is a diagram for explaining a method of analyzing a directional prediction mode of a reference block.

단계 S3810에서, 참조 블록의 영상 정보를 변환할 수 있다. 참조 블록의 영상 정보의 변환은 현재 블록에 맞추어 수행될 수 있다. 예컨대, 현재 블록의 변환을 고려하여, 또는 현재 블록과 참조 블록이 포함되는 퍼스펙티브의 차이를 고려하여 수행될 수 있다.In step S3810, the image information of the reference block can be converted. Conversion of the image information of the reference block can be performed in accordance with the current block. For example, considering the conversion of the current block, or considering the difference between the current block and the perspective including the reference block.

단계 S3820에서, 해석되지 않은 참조 블록의 방향성 예측 모드가 현재 블록에 대해 가용한지 판단할 수 있다. 예컨대, 현재 블록에 대해 가용한 방향성 예측 모드 중에 상기 해석되지 않은 참조 블록의 방향성 예측 모드가 포함되면, 참조 블록의 해당 방향성 예측 모드는 현재 블록에 대해 가용한 것으로 판단할 수 있다.In step S3820, it may be determined whether the directional prediction mode of the uninterpreted reference block is available for the current block. For example, if the directional prediction mode of the uninterpreted reference block is included in the available directional prediction mode for the current block, the corresponding directional prediction mode of the reference block can be determined to be available for the current block.

참조 블록의 방향성 예측 모드가 현재 블록에 대해 가용하지 않다면(단계 S3820에서 No), 단계 S3830에서, 참조 블록의 해당 방향성 예측 모드에 180도 대칭되는 모드를 생성할 수 있다. 이후, 단계 S3840에서, 참조 블록의 방향성 예측 모드를 해석할 수 있다. 예컨대, 참조 블록의 방향성 예측 모드는, 단계 S3830에서 생성된 참조 블록의 방향성 예측 모드와 같은 방향성을 갖는 현재 블록의 모드로 해석될 수 있다.If the directional prediction mode of the reference block is not available for the current block (No at step S3820), at step S3830, a mode that is 180 degrees symmetric to the corresponding directional prediction mode of the reference block may be generated. Thereafter, in step S3840, the directional prediction mode of the reference block can be interpreted. For example, the directional prediction mode of the reference block may be interpreted as a mode of the current block having the same directionality as the directional prediction mode of the reference block generated in step S3830.

참조 블록의 방향성 예측 모드가 현재 블록에 대해 가용하다면(단계 S3820에서 Yes), 단계 S3840에서, 참조 블록의 방향성 예측 모드는, 참조 블록의 방향성 예측 모드와 같은 방향성을 갖는 현재 블록의 모드로 해석될 수 있다.If the directional prediction mode of the reference block is available for the current block (Yes at step S3820), at step S3840, the directional prediction mode of the reference block is interpreted as a mode of the current block having the same directionality as the directional prediction mode of the reference block .

단계 S3850에서, 참조 블록의 모든 방향성 예측 모드가 해석되었는지 판단할 수 있다. 참조 블록의 방향성 예측 모드 중 해석되지 않은 모드가 있으면, 단계 S3820으로 이동하여 상기 과정이 반복될 수 있다.In step S3850, it may be determined whether all the directional prediction modes of the reference block have been interpreted. If there is an uninterpreted mode among the directional prediction modes of the reference block, the process may be repeated at step S3820.

도 35에 도시된 예측 모드를 가정하면, 정육면체 전방향 영상의 각 퍼스펙티브가 어떤 전개도를 이용하여 전개되느냐에 따라, 참조 블록의 방향성 예측 모드는 예컨대, 도 39에 도시된 8가지의 경우 중 하나일 수 있다. Assuming the prediction mode shown in FIG. 35, the directional prediction mode of the reference block may be, for example, one of the eight cases shown in FIG. 39, depending on which development view is used to develop each perspective of the cubic all- .

도 39에 도시된 8가지 경우 중, 현재 블록과 같은 경우(예컨대, 도 39의 (a)의 경우)를 제외하고는, 참조 블록의 방향성 모드를 현재 블록에 맞춰 해석할 필요가 있다. 참조 블록의 방향성 모드의 해석은 도 37을 참조하여 설명한 바와 같이 수행될 수 있다. 또는 부/복호화 장치가 공유하는 룩업 테이블(해석 테이블)을 참조함으로써 참조 블록의 방향성 모드를 해석할 수 있다. 테이블을 참조하는 경우, 참조 블록이 도 39의 8가지 경우 중 어디에 해당하는지를 결정할 필요가 있다. 이는 비트스트림을 통해 시그널링될 수 있다. 또는 사용된 전개도에 관한 정보, 기타 부/복호화 정보에 기초하여 유도될 수도 있다. Among the eight cases shown in Fig. 39, it is necessary to interpret the directional mode of the reference block in accordance with the current block, except for the case of the current block (for example, in the case of (a) of Fig. 39). The interpretation of the directional mode of the reference block can be performed as described with reference to FIG. Alternatively, the directional mode of the reference block can be interpreted by referring to a lookup table (analysis table) shared by the sub / decoding apparatus. When referring to a table, it is necessary to determine which of the eight cases of Fig. 39 the reference block corresponds to. Which can be signaled via a bitstream. Or information on the developed view used, and other partial / decoded information.

아래의 표 1은 방향성 모드 해석 테이블의 일례이다. 표 1은 33개의 방향성에 대한 테이블이다. 그러나, 방향성의 개수는 이에 한정되지 않는다. Table 1 below is an example of the directional mode interpretation table. Table 1 is a table of 33 directions. However, the number of directions is not limited thereto.

해석 모드(a)Analysis mode (a) (b)(b) (c)(c) (d)(d) (e)(e) (f)(f) (g)(g) (h)(h) 22 1818 1818 3434 ** ** 3434 22 33 1919 1717 3333 1919 1717 33 3333 44 2020 1616 3232 2020 1616 44 3232 55 2121 1515 3131 2121 1515 55 3131 66 2222 1414 3030 2222 1414 66 3030 77 2323 1313 2929 2323 1313 77 2929 88 2424 1212 2828 2424 1212 88 2828 99 2525 1111 2727 2525 1111 99 2727 1010 2626 1010 2626 2626 1010 1010 2626 1111 2727 99 2525 2727 99 1111 2525 1212 2828 88 2424 2828 88 1212 2424 1313 2929 77 2323 2929 77 1313 2323 1414 3030 66 2222 3030 66 1414 2222 1515 3131 55 2121 3131 55 1515 2121 1616 3232 44 2020 3232 44 1616 2020 1717 3333 33 1919 3333 33 1717 1919 1818 2, 342, 34 2, 342, 34 1818 2, 342, 34 2, 342, 34 1818 1818 1919 33 3333 1717 33 3333 1919 1717 2020 44 3232 1616 44 3232 2020 1616 2121 55 3131 1515 55 3131 2121 1515 2222 66 3030 1414 66 3030 2222 1414 2323 77 2929 1313 77 2929 2323 1313 2424 88 2828 1212 88 2828 2424 1212 2525 99 2727 1111 99 2727 2525 1111 2626 1010 2626 1010 1010 2626 2626 1010 2727 1111 2525 99 1111 2525 2727 99 2828 1212 2424 88 1212 2424 2828 88 2929 1313 2323 77 1313 2323 2929 77 3030 1414 2222 66 1414 2222 3030 66 3131 1515 2121 55 1515 2121 3131 55 3232 1616 2020 44 1616 2020 3232 44 3333 1717 1919 33 1717 1919 3333 33 3434 ** ** 22 ** 1818 22 3434

또한, 공간적 예측시 퍼스펙티브의 차이를 고려하여, 영상 정보를 보정할 필요가 있다. 도 40은 정육면체 전방향 영상의 공간적 예측에 사용되는 참조 샘플의 위치를 설명하기 위한 도면이다. 도 40에서 점선 박스는 각 CTU(블록 A, B 및 C)의 공간적 예측에 사용되는 참조 샘플의 위치를 나타낸다. 도 40의 (a)에 도시된 바와 같이, 정육면체 전방향 영상의 공간적 예측을 수행할 때, 전개도 상에서 참조 샘플의 존재하지 않는 경우가 있다. 예컨대, 도 40의 (a)에 도시된 좌상단 CTU(블록 A)의 경우, 좌상단 참조 샘플(X)이 존재하지 않는다. 또한, 우단 CTU(블록 B)와 하단 CTU(블록 C)의 경우, 퍼스펙티브 간의 차이에 의해, 올바른 참조 샘플이 선택되지 않을 수 있다. 전술한 바와 같이, 참조 샘플이 존재하지 않는 경우 및/또는 퍼스펙티브 간의 차이로 인해 픽셀 정보의 보정이 필요한 경우, 공간적 예측을 수행할 때, 이웃 퍼스펙티브의 샘플 값을 이용하여, 존재하지 않는 샘플 값을 유도하거나, 또는 현재 퍼스펙티브에 맞게 이웃 퍼스펙티브를 변환해서 참조 샘플을 결정할 수 있다. In addition, it is necessary to correct the image information in consideration of the perspective difference in the spatial prediction. 40 is a view for explaining the position of a reference sample used for spatial prediction of a cubic omnidirectional image. In Figure 40, the dashed box represents the location of the reference samples used for spatial prediction of each CTU (blocks A, B, and C). As shown in FIG. 40 (a), when performing spatial prediction of a cubic omnidirectional image, there may be no reference sample on the developed view. For example, in the case of the upper left CTU (block A) shown in FIG. 40A, the upper left reference sample X does not exist. Also, in the case of the rightmost CTU (block B) and the bottom CTU (block C), a correct reference sample may not be selected due to the difference between perspectives. As described above, when performing spatial prediction, when there is no reference sample and / or correction of pixel information is required due to the difference between perspectives, the sample value of the neighboring perspective is used to calculate the non- Or by transforming the neighborhood perspective to the current perspective to determine a reference sample.

예컨대, 도 40의 (a)의 블록 A의 참조 샘플(X)는 퍼스펙티브 P1과 P2의 영상 정보를 보간함으로써 생성할 수 있다. 또한, 퍼스펙티브 P3와 시점이 서로 다른 퍼스펙티브 P4 및/또는 P6의 경우, 시점 보정을 통하여 올바른 참조 샘플을 생성할 수 있다.For example, the reference sample X of the block A in FIG. 40 (a) can be generated by interpolating the image information of the perspectives P1 and P2. Further, in the case of perspectives P4 and / or P6 different from the perspective P3, it is possible to generate a correct reference sample through the viewpoint correction.

도 41은 정육면체 전방향 영상을 전개도상에의 연속성을 활용하여 병렬 처리하는 방법을 설명하기 위한 도면이다. 41 is a diagram for explaining a method of parallel processing using continuity to a developed image of a cubic omnidirectional image.

도 41에 사용된 두 개의 정육면체 전개도는 도 11의 (a) 및 (e)와 같다. 도 41에 도시된 예에서, 각 퍼스펙티브는 5x5 CTU를 포함하며, 각 CTU 내의 숫자는 WPP 처리 순서를 나타낸다. 부/복호화의 처리는 도 41의 (a)의 빗금친 블록 a1 및 a2로부터 시작될 수 있다. 3 차원이 아닌 단순 전개도상에서는 퍼스펙티브 A와 B는 서로 참조하지 않을 수 있다. 도 41의 (a)의 블록 a1 과 a2의 위치에서 동시에 부/복호화가 시작되어도, 블록 a2가 속한 행의 처리가 블록 a1이 속한 열에 다다랐을 때는 의존성이 해결된 상태이기 때문에 의존성에 의한 지연이 발생하지 않는다. The two cube-shaped developed views used in Fig. 41 are shown in Figs. 11 (a) and (e). In the example shown in FIG. 41, each perspective includes 5x5 CTUs, and the numbers in each CTU represent the WPP processing order. The addition / decryption processing can be started from the hatched blocks a1 and a2 in Fig. 41 (a). Perspectives A and B may not refer to each other on a simple flat rather than a three-dimensional view. When the processing of the row to which the block a2 belongs reaches the column to which the block a1 belongs, even if the sub-decoding starts simultaneously at the positions of the blocks a1 and a2 in Fig. 41A, the dependency is solved, I never do that.

마찬가지로, 도 41의 (b)의 경우에도, 블록 b1과 b2의 위치에서 동시에 부/복호화가 시작되어도, 블록 b2가 속한 행의 처리가 블록 b1이 속한 열에 다다랐을 때는 의존성이 해결된 상태이므로, 의존성에 의한 지연이 발생하지 않는다.Similarly, even in the case of FIG. 41B, since the dependence is solved when the processing of the row to which the block b2 belongs reaches the column to which the block b1 belongs, even if the subdecryption starts simultaneously at the positions of the blocks b1 and b2, There is no delay caused by < / RTI >

도 41에 도시된 예에서는, 부호화기는 전개도상에서 둘 이상의 위치에서 부/복호화를 개시하게 된다. 따라서, 예컨대, 부호화기는 블록 a1 및 a2에 대한 두 개의 엔트로피 정보(예컨대, 엔트로피 문맥 테이블)를 사용할 수 있다. 복호화기는 부호화기에서 사용된 방식을 알아야 복호화를 수행할 수 있다. 따라서, 부호화기에서 사용한 엔트로피 정보, 부호화 개시 시점 및/또는 전개도에 관한 정보 등은 비트스트림을 통해 시그널링될 수 있다. 또는 룩업 테이블을 참조함으로써 수행될 수 있다. 또는 다른 부호화 파라미터 및/또는 내부 변수에 기초하여 유도할 수 있다.In the example shown in FIG. 41, the encoder starts subtraction / decoding at two or more positions on the developed view. Thus, for example, the encoder may use two entropy information (e.g., an entropy context table) for blocks a1 and a2. The decoder needs to know the method used in the encoder to perform decoding. Therefore, the entropy information used in the encoder, the information on the start time and / or the development start time of the encoding, and the like can be signaled through the bit stream. Or by referring to a look-up table. Or other coding parameters and / or internal variables.

본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Although the exemplary methods of this disclosure are represented by a series of acts for clarity of explanation, they are not intended to limit the order in which the steps are performed, and if necessary, each step may be performed simultaneously or in a different order. In order to implement the method according to the present disclosure, the illustrative steps may additionally include other steps, include the remaining steps except for some steps, or may include additional steps other than some steps.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.The various embodiments of the disclosure are not intended to be all-inclusive and are intended to illustrate representative aspects of the disclosure, and the features described in the various embodiments may be applied independently or in a combination of two or more.

또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. In the case of hardware implementation, one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays A general processor, a controller, a microcontroller, a microprocessor, and the like.

본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.The scope of the present disclosure is to be accorded the broadest interpretation as understanding of the principles of the invention, as well as software or machine-executable instructions (e.g., operating system, applications, firmware, Instructions, and the like are stored and are non-transitory computer-readable medium executable on the device or computer.

Claims (21)

복수의 퍼스펙티브(perspective) 영상을 포함하는 영상의 부호화 방법에 있어서,
상기 복수의 퍼스펙티브 영상 중 부호화 대상 퍼스펙티브 영상의 처리 순서를 식별하는 단계;
상기 식별된 처리 순서가 소정의 처리 순서와 동일한지 여부를 판단하는 단계; 및
상기 식별된 처리 순서가 상기 소정의 처리 순서와 동일하지 않은 경우,
상기 부호화 대상 퍼스펙티브 영상을 변환하는 단계를 포함하는 부호화 방법.
A method of encoding an image including a plurality of perspective images,
Identifying a processing order of a perspective image to be coded among the plurality of perspective images;
Determining whether the identified processing order is the same as a predetermined processing order; And
If the identified processing order is not the same as the predetermined processing order,
And converting the perspective image to be coded.
제1항에 있어서,
상기 처리 순서는 처리 시작 위치와 처리 진행 방향으로 식별되고,
상기 소정의 처리 순서의 처리 시작 위치는 상기 퍼스펙티브 영상의 좌상단 위치이고, 상기 소정의 처리 순서의 처리 진행 방향은 시계 방향인 부호화 방법.
The method according to claim 1,
The processing sequence is identified as a processing start position and a processing progress direction,
Wherein the processing start position of the predetermined processing order is the upper left position of the perspective image and the processing progress direction of the predetermined processing order is a clockwise direction.
제2항에 있어서,
상기 변환은 상기 부호화 대상 퍼스펙티브 영상에 대한 대칭 변환 및 이동 변환 중 적어도 하나를 포함하는 부호화 방법.
3. The method of claim 2,
Wherein the transformation includes at least one of a symmetric transformation and a motion transformation for the perspective image to be encoded.
제3항에 있어서,
상기 대칭 변환은 상기 식별된 처리 순서의 처리 진행 방향이 상기 소정의 처리 순서의 처리 진행 방향과 상이할 때 수행되는 부호화 방법.
The method of claim 3,
Wherein the symmetric transformation is performed when the process progress direction of the identified process sequence differs from the process progress direction of the predetermined process sequence.
제3항에 있어서,
상기 대칭 변환은 좌우 대칭 변환, 상하 대칭 변환 및 대각 대칭 변환 중 하나인 부호화 방법.
The method of claim 3,
Wherein the symmetric transform is one of a left-right symmetry transform, a vertically symmetric transform, and a diagonal symmetric transform.
제3항에 있어서,
상기 회전 변환은 상기 식별된 처리 순서의 처리 시작 위치가 상기 소정의 처리 순서의 처리 시작 위치가 상이할 때 수행되는 부호화 방법.
The method of claim 3,
Wherein the rotation conversion is performed when the processing start position of the identified processing sequence is different from the processing start position of the predetermined processing sequence.
제6항에 있어서,
상기 회전 변환은 상기 부호화 대상 퍼스펙티브 영상의 처리 시작 위치가 상기 소정의 처리 순서의 처리 시작 위치가 동일해지도록 상기 부호화 대상 퍼스펙티브 영상을 회전시키는 변환인 부호화 방법.
The method according to claim 6,
Wherein the rotation transformation is a transformation that rotates the subject perspective image so that the processing start position of the subject perspective image becomes equal to the processing start position of the predetermined processing order.
제1항에 있어서,
상기 부호화 대상 퍼스펙티브 영상을 변환하는 단계는.
상기 부호화 대상 퍼스펙티브 영상을 제1 변환하는 단계;
상기 제1 변환된 부호화 대상 퍼스펙티브 영상의 처리 순서가 상기 소정의 처리 순서와 동일한지 여부를 판단하는 단계; 및
상기 제1 변환된 부호화 대상 퍼스펙티브 영상의 처리 순서가 상기 소정의 처리 순서와 동일하지 않은 경우,
상기 제1 변환된 부호화 대상 퍼스펙티브 영상을 제2 변환하는 단계를 포함하는 부호화 방법.
The method according to claim 1,
Wherein the step of transforming the subject perspective image comprises:
A first transforming the perspective image to be encoded;
Determining whether the processing order of the first converted perspective image is the same as the predetermined processing order; And
If the processing order of the first converted subject perspective image is not the same as the predetermined processing order,
And a second transforming the first converted perspective image to be encoded.
제8항에 있어서,
상기 제1 변환은 대칭 변환 및 이동 변환 중 하나이고, 상기 제2 변환은 나머지 다른 하나인 부호화 방법.
9. The method of claim 8,
Wherein the first transform is one of a symmetric transform and a motion transform, and the second transform is the other one.
복수의 퍼스펙티브(perspective) 영상을 포함하는 영상의 부호화 장치에 있어서,
상기 부호화 장치는 변환기를 포함하고,
상기 변환기는,
상기 복수의 퍼스펙티브 영상 중 부호화 대상 퍼스펙티브 영상의 처리 순서를 식별하고, 상기 식별된 처리 순서가 소정의 처리 순서와 동일한지 여부를 판단하고, 상기 식별된 처리 순서가 상기 소정의 처리 순서와 동일하지 않은 경우, 상기 부호화 대상 퍼스펙티브 영상을 변환하도록 구성된 부호화 장치.
An apparatus for encoding an image including a plurality of perspective images,
Wherein the encoding apparatus includes a converter,
The converter comprising:
And a determination unit configured to identify a processing sequence of the perspective image of the plurality of perspective images and determine whether or not the identified processing sequence is the same as the predetermined processing sequence and determine whether the identified processing sequence is the same as the predetermined processing sequence And convert the to-be-encoded perspective image.
복수의 퍼스펙티브(perspective) 영상을 포함하는 영상의 복호화 방법에 있어서,
상기 복수의 퍼스펙티브 영상 중 복호화 대상 퍼스펙티브 영상의 처리 순서를 식별하는 단계;
상기 식별된 처리 순서가 소정의 처리 순서와 동일한지 여부를 판단하는 단계; 및
상기 식별된 처리 순서가 상기 소정의 처리 순서와 동일하지 않은 경우,
상기 복호화 대상 퍼스펙티브 영상을 변환하는 단계를 포함하는 복호화 방법.
A method of decoding an image including a plurality of perspective images,
Identifying a processing order of the perspective perspective image among the plurality of perspective images;
Determining whether the identified processing order is the same as a predetermined processing order; And
If the identified processing order is not the same as the predetermined processing order,
And converting the perspective perspective image to be decoded.
제11항에 있어서,
상기 처리 순서는 처리 시작 위치와 처리 진행 방향으로 식별되고,
상기 소정의 처리 순서의 처리 시작 위치는 상기 퍼스펙티브 영상의 좌상단 위치이고, 상기 소정의 처리 순서의 처리 진행 방향은 시계 방향인 복호화 방법.
12. The method of claim 11,
The processing sequence is identified as a processing start position and a processing progress direction,
Wherein the processing start position of the predetermined processing order is the upper left position of the perspective image and the processing progress direction of the predetermined processing order is clockwise.
제12항에 있어서,
상기 변환은 상기 복호화 대상 퍼스펙티브 영상에 대한 대칭 변환 및 이동 변환 중 적어도 하나를 포함하는 복호화 방법.
13. The method of claim 12,
Wherein the transformation includes at least one of a symmetric transformation and a motion transformation on the perspective perspective image to be decoded.
제13항에 있어서,
상기 대칭 변환은 상기 식별된 처리 순서의 처리 진행 방향이 상기 소정의 처리 순서의 처리 진행 방향과 상이할 때 수행되는 복호화 방법.
14. The method of claim 13,
Wherein the symmetric transformation is performed when the process progress direction of the identified process sequence is different from the process progress direction of the predetermined process sequence.
제13항에 있어서,
상기 대칭 변환은 좌우 대칭 변환, 상하 대칭 변환 및 대각 대칭 변환 중 하나인 복호화 방법.
14. The method of claim 13,
Wherein the symmetric transform is one of a left-right symmetry transform, a vertically symmetric transform, and a diagonal symmetric transform.
제13항에 있어서,
상기 회전 변환은 상기 식별된 처리 순서의 처리 시작 위치가 상기 소정의 처리 순서의 처리 시작 위치가 상이할 때 수행되는 복호화 방법.
14. The method of claim 13,
Wherein the rotation conversion is performed when a processing start position of the identified processing order is different from a processing start position of the predetermined processing order.
제16항에 있어서,
상기 회전 변환은 상기 복호화 대상 퍼스펙티브 영상의 처리 시작 위치가 상기 소정의 처리 순서의 처리 시작 위치가 동일해지도록 상기 복호화 대상 퍼스펙티브 영상을 회전시키는 변환인 복호화 방법.
17. The method of claim 16,
Wherein the rotation transformation is a transformation to rotate the decoding subject perspective image so that a processing start position of the decoding subject perspective image becomes equal to a processing start position of the predetermined processing order.
제11항에 있어서,
상기 복호화 대상 퍼스펙티브 영상을 변환하는 단계는.
상기 복호화 대상 퍼스펙티브 영상을 제1 변환하는 단계;
상기 제1 변환된 복호화 대상 퍼스펙티브 영상의 처리 순서가 상기 소정의 처리 순서와 동일한지 여부를 판단하는 단계; 및
상기 제1 변환된 복호화 대상 퍼스펙티브 영상의 처리 순서가 상기 소정의 처리 순서와 동일하지 않은 경우,
상기 제1 변환된 복호화 대상 퍼스펙티브 영상을 제2 변환하는 단계를 포함하는 복호화 방법.
12. The method of claim 11,
Wherein the converting the perspective perspective image comprises:
A first transforming the perspective perspective image to be decoded;
Determining whether the processing order of the first converted subject perspective image is the same as the predetermined processing order; And
If the processing order of the first converted perspective perspective image is not the same as the predetermined processing order,
And a second transforming the first transformed perspective perspective image.
제18항에 있어서,
상기 제1 변환은 대칭 변환 및 이동 변환 중 하나이고, 상기 제2 변환은 나머지 다른 하나인 복호화 방법.
19. The method of claim 18,
Wherein the first transform is one of a symmetric transform and a motion transform, and the second transform is the other one.
복수의 퍼스펙티브(perspective) 영상을 포함하는 영상의 복호화 장치에 있어서,
상기 복호화 장치는 변환기를 포함하고,
상기 변환기는,
상기 복수의 퍼스펙티브 영상 중 복호화 대상 퍼스펙티브 영상의 처리 순서를 식별하고, 상기 식별된 처리 순서가 소정의 처리 순서와 동일한지 여부를 판단하고, 상기 식별된 처리 순서가 상기 소정의 처리 순서와 동일하지 않은 경우, 상기 복호화 대상 퍼스펙티브 영상을 변환하도록 구성된 복호화 장치.
An apparatus for decoding an image including a plurality of perspective images,
Wherein the decoding apparatus includes a converter,
The converter comprising:
And a determination step of determining whether or not the identified processing order is the same as the predetermined processing order, and if the identified processing order is not the same as the predetermined processing order And to convert the perspective perspective image to be decoded.
복수의 퍼스펙티브(perspective) 영상을 포함하는 영상의 부호화 방법에 의해 생성된 비트스트림을 저장한 컴퓨터 판독 가능한 기록 매체로서,
상기 영상의 부호화 방법은,
상기 복수의 퍼스펙티브 영상 중 부호화 대상 퍼스펙티브 영상의 처리 순서를 식별하는 단계;
상기 식별된 처리 순서가 소정의 처리 순서와 동일한지 여부를 판단하는 단계; 및
상기 식별된 처리 순서가 상기 소정의 처리 순서와 동일하지 않은 경우,
상기 부호화 대상 퍼스펙티브 영상을 변환하는 단계를 포함하는 기록 매체.
A computer-readable recording medium storing a bitstream generated by a method of encoding an image including a plurality of perspective images,
A method of encoding an image,
Identifying a processing order of a perspective image to be coded among the plurality of perspective images;
Determining whether the identified processing order is the same as a predetermined processing order; And
If the identified processing order is not the same as the predetermined processing order,
And converting the perspective image to be coded.
KR1020170143426A 2016-11-25 2017-10-31 Method and apparatus for parallel processing image KR102011430B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/013284 WO2018097577A1 (en) 2016-11-25 2017-11-21 Parallel image processing method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160158621 2016-11-25
KR1020160158621 2016-11-25

Publications (2)

Publication Number Publication Date
KR20180059348A true KR20180059348A (en) 2018-06-04
KR102011430B1 KR102011430B1 (en) 2019-08-16

Family

ID=62628018

Family Applications (5)

Application Number Title Priority Date Filing Date
KR1020170083179A KR102004247B1 (en) 2016-11-25 2017-06-30 Method and apparatus for parallel processing image
KR1020170103895A KR102011428B1 (en) 2016-11-25 2017-08-17 Method and apparatus for parallel processing image
KR1020170139101A KR102011429B1 (en) 2016-11-25 2017-10-25 Method and apparatus for parallel processing image
KR1020170143426A KR102011430B1 (en) 2016-11-25 2017-10-31 Method and apparatus for parallel processing image
KR1020170147172A KR102011431B1 (en) 2016-11-25 2017-11-07 Method and apparatus for parallel processing image

Family Applications Before (3)

Application Number Title Priority Date Filing Date
KR1020170083179A KR102004247B1 (en) 2016-11-25 2017-06-30 Method and apparatus for parallel processing image
KR1020170103895A KR102011428B1 (en) 2016-11-25 2017-08-17 Method and apparatus for parallel processing image
KR1020170139101A KR102011429B1 (en) 2016-11-25 2017-10-25 Method and apparatus for parallel processing image

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020170147172A KR102011431B1 (en) 2016-11-25 2017-11-07 Method and apparatus for parallel processing image

Country Status (1)

Country Link
KR (5) KR102004247B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102130784B1 (en) * 2018-11-23 2020-07-06 (주)텔리언 Transmitting System for multi-directional View Video Data

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130130283A (en) * 2012-05-22 2013-12-02 에이알비전 (주) System for generating a frontal-view image for augmented reality based on the gyroscope of smart phone and method therefor
JP2015146620A (en) * 2006-07-06 2015-08-13 トムソン ライセンシングThomson Licensing Method and apparatus for decoupling frame number and/or picture order count (poc) for multi-view video encoding and decoding

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ZA200805337B (en) * 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
JP5243612B2 (en) * 2008-10-02 2013-07-24 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Intermediate image synthesis and multi-view data signal extraction
KR102492490B1 (en) * 2011-11-11 2023-01-30 지이 비디오 컴프레션, 엘엘씨 Efficient Multi-View Coding Using Depth-Map Estimate and Update
CN117956142A (en) * 2013-04-08 2024-04-30 Ge视频压缩有限责任公司 Multi-view decoder
US9936207B2 (en) * 2013-10-14 2018-04-03 Qualcomm Incorporated Indication of parallel processing in video coding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015146620A (en) * 2006-07-06 2015-08-13 トムソン ライセンシングThomson Licensing Method and apparatus for decoupling frame number and/or picture order count (poc) for multi-view video encoding and decoding
KR20130130283A (en) * 2012-05-22 2013-12-02 에이알비전 (주) System for generating a frontal-view image for augmented reality based on the gyroscope of smart phone and method therefor

Also Published As

Publication number Publication date
KR20180059336A (en) 2018-06-04
KR20180059345A (en) 2018-06-04
KR102011430B1 (en) 2019-08-16
KR102011431B1 (en) 2019-08-16
KR102011428B1 (en) 2019-08-16
KR102011429B1 (en) 2019-08-16
KR102004247B1 (en) 2019-07-29
KR20180059350A (en) 2018-06-04
KR20180059339A (en) 2018-06-04

Similar Documents

Publication Publication Date Title
US10528004B2 (en) Methods and apparatus for full parallax light field display systems
US20240073535A1 (en) Image data encoding/decoding method and apparatus
US11431902B2 (en) Method and apparatus for reconstructing 360-degree image according to projection format
US10484682B2 (en) Reference picture derivation and motion compensation for 360-degree video coding
TWI656785B (en) Video encoding method and apparatus and associated video decoding method and apparatus
US20230362410A1 (en) Method and apparatus of encoding/decoding image data based on tree structure-based block division
KR20160003334A (en) Method and apparatus of texture image compression in 3d video coding
US20230336764A1 (en) Method and device for inducing motion information between temporal points of sub prediction unit
US10863198B2 (en) Intra-prediction method and device in image coding system for 360-degree video
JP7507296B2 (en) Image encoding/decoding method and device based on wraparound motion compensation, and recording medium storing bitstream
WO2019161062A1 (en) Motion compensation for cubemap packed frames
WO2019160795A1 (en) Intra prediction for 360-degree video
JP7488355B2 (en) Image encoding/decoding method and device based on wraparound motion compensation, and recording medium storing bitstream
KR102443381B1 (en) Method and apparatus for processing a video signal
KR102004247B1 (en) Method and apparatus for parallel processing image
CN111713106A (en) Signaling 360 degree video information
KR20180107007A (en) Method and apparatus for processing a video signal

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right