KR20170059902A - Method and apparatus for encoding/dicoding a multi-perspective video - Google Patents

Method and apparatus for encoding/dicoding a multi-perspective video Download PDF

Info

Publication number
KR20170059902A
KR20170059902A KR1020160155997A KR20160155997A KR20170059902A KR 20170059902 A KR20170059902 A KR 20170059902A KR 1020160155997 A KR1020160155997 A KR 1020160155997A KR 20160155997 A KR20160155997 A KR 20160155997A KR 20170059902 A KR20170059902 A KR 20170059902A
Authority
KR
South Korea
Prior art keywords
image
viewpoint
reference picture
difference
images
Prior art date
Application number
KR1020160155997A
Other languages
Korean (ko)
Inventor
방건
권우원
이광순
허남호
박광훈
윤성재
허영수
홍석종
Original Assignee
한국전자통신연구원
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원, 경희대학교 산학협력단 filed Critical 한국전자통신연구원
Publication of KR20170059902A publication Critical patent/KR20170059902A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

The present invention relates to a method and an apparatus for coding and decoding a multi-view video, and more particularly, to a method and an apparatus for generating a reference image of a multi-view video. To this end, the method for coding an image comprises the steps of: converting a second image into the first point of view when a first image having a first point of view and the second image having a different point of view exist; generating a reference image by adding the second image to one surface of the first image; and storing the reference image to a reference picture list. Therefore, the coding and decoding efficiency of the multi-view video can be improved.

Description

다시점 비디오의 부호화/복호화 방법 및 장치{METHOD AND APPARATUS FOR ENCODING/DICODING A MULTI-PERSPECTIVE VIDEO}TECHNICAL FIELD [0001] The present invention relates to a method and an apparatus for encoding / decoding multi-view video,

본 개시는 영상 부호화/복호화 방법 및 장치에 관한 것이며, 보다 구체적으로는 다시점 비디오의 참조 영상을 생성하는 방법 및 장치에 관한 것이다.The present disclosure relates to an image encoding / decoding method and apparatus, and more particularly, to a method and apparatus for generating a reference image of multi-view video.

기술 발전으로 인해, 고해상도/고화질의 방송서비스 등이 일반화됨에 따라, HD(High Definition) 해상도를 넘어 이에 4배 이상의 해상도를 갖는 UHD(Ultra High Definition)에 대한 관심이 증대되고 있다. Due to technological advances, high-definition / high-definition broadcast services have become common, and interest in UHD (Ultra High Definition) having resolution over 4 times higher than HD (high definition) resolution is increasing.

이러한 추세에 맞춰, 기존 2차원 영상에 더하여, 스테레오스코픽 영상 이나 전방향 비디오 등 실감형 영상에 대한 관심도 높아지고 있다. 새로운 미디어가 개발됨에 따라, 헤드 마운트 디스플레이 등 실감형 영상을 재생할 수 있는 장치가 속속들이 출시되고 있으나, 아직까지 실감형 미디어는 2차원 영상과 동일한 방법으로 부호화/복호화되고 있다. 이에 따라, 실감형 미디어의 압축 효율을 재고하기 위해, 실감형 미디어의 특성에 맞는 압축 방식이 개발되어야 할 것이다.In accordance with this tendency, interest in realistic images such as stereoscopic images and omnidirectional videos is increasing in addition to existing two-dimensional images. With the development of new media, devices capable of reproducing realistic images such as a head mount display are being marketed extensively, but realistic media are still being encoded / decoded in the same way as two-dimensional images. Accordingly, in order to reconsider the compression efficiency of the real-sensible media, a compression method suited to the characteristics of real-sensible media should be developed.

본 개시의 기술적 과제는 다시점 비디오의 부호화/복호화 효율을 개선하기 위한 방법 및 장치를 제공하기 위한 것이다.SUMMARY OF THE INVENTION The present invention is directed to a method and apparatus for improving the coding / decoding efficiency of multi-view video.

구체적으로, 본 개시의 기술적 과제는 시점이 다른 영상들을 하나의 시점으로 통일한 뒤, 시점이 통일된 영상을 합한 참조 픽처를 이용하여 부호화/복호화를 수행하는 방법 및 장치를 제공하기 위한 것이다.In particular, the technical object of the present invention is to provide a method and an apparatus for performing encoding / decoding using a reference picture in which unified viewpoints are merged into one viewpoint, and then the unified viewpoints are combined.

본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical objects to be achieved by the present disclosure are not limited to the above-mentioned technical subjects, and other technical subjects which are not mentioned are to be clearly understood from the following description to those skilled in the art It will be possible.

본 개시의 일 양상에 따르면, 제1 시점을 갖는 제1 영상과 다른 시점을 갖는 제2 영상이 존재하는 경우, 상기 제2 영상을 상기 제1 시점으로 변환하는 단계, 상기 제1 영상의 일면에 상기 제2 영상을 부가하여 참조 영상을 생성하는 단계, 및 상기 참조 영상을 참조 픽처 리스트에 저장하는 단계를 포함하는 영상 부호화 방법이 개시된다.According to an aspect of the present disclosure, there is provided a method for converting a first image having a first viewpoint into a first viewpoint when a first image having a first viewpoint and a second image having a different viewpoint exist, Generating a reference image by adding the second image, and storing the reference image in a reference picture list.

본 개시의 일 양상에 따르면, 제1 시점을 갖는 제1 영상과 다른 시점을 갖는 제2 영상이 존재하는 경우, 상기 제2 영상을 상기 제1 시점으로 변환하는 단계, 상기 제1 영상의 일면에 상기 제2 영상을 부가하여 참조 영상을 생성하는 단계, 및 상기 참조 영상을 참조 픽처 리스트에 저장하는 단계를 포함하는 영상 복호화 방법이 개시된다.According to an aspect of the present disclosure, there is provided a method for converting a first image having a first viewpoint into a first viewpoint when a first image having a first viewpoint and a second image having a different viewpoint exist, Generating a reference image by adding the second image, and storing the reference image in a reference picture list.

상기 영상 부호화 방법 및 상기 영상 복호화 방법에는 다음의 사항이 공통적으로 적용될 수 있다. The following aspects may be commonly applied to the image encoding method and the image decoding method.

상기 변환 영상은, 상기 제1 영상 및 상기 제2 영상 간의 시점 차이에 기초하여 생성되고, 상기 시점 차이는, 상기 제1 영상 및 상기 제2 영상 간의 거리 차이 또는 각도 차이 중 적어도 하나를 포함할 수 있다.Wherein the transformed image is generated based on a viewpoint difference between the first image and the second image, and the viewpoint difference may include at least one of a distance difference or an angle difference between the first image and the second image have.

상기 시점 차이는, 상기 제1 영상 및 상기 제2 영상을 포함하는 전방향 영상의 특성에 기초하여 결정될 수 있다.The viewpoint difference may be determined based on characteristics of an omnidirectional image including the first image and the second image.

상기 전방향 영상이 정다면체로 투영되는 경우, 상기 제1 영상 및 상기 제2 영상 간 각도 차이는 상기 정다면체의 내각으로 결정될 수 있다.When the omnidirectional image is projected onto the regular polyhedron, the angle difference between the first image and the second image may be determined as the interior angle of the regular polyhedron.

상기 시점 차이는 상기 제1 영상을 촬영하는데 이용된 제1 카메라 및 상기 제2 영상을 촬영하는데 이용된 제2 카메라 사이의 거리 및 각도 차를 기초로 획득될 수 있다.The viewpoint difference may be obtained based on a distance between the first camera used to photograph the first image and a second camera used to photograph the second image and an angle difference.

상기 제2 영상이 부가될 위치는 상기 제1 영상 및 상기 제2 영상을 포함하는 정다면체의 특성에 따라 결정될 수 있다.The position to which the second image is to be added may be determined according to characteristics of the regular polyhedron including the first image and the second image.

상기 참조 픽처는 상기 제1 영상 및 상기 제2 영상에 대응하는 시간대 정보와 함께 상기 참조 픽처 리스트에 저장될 수 있다.The reference picture may be stored in the reference picture list together with the time zone information corresponding to the first video and the second video.

본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.The features briefly summarized above for this disclosure are only exemplary aspects of the detailed description of the disclosure which follow, and are not intended to limit the scope of the disclosure.

본 개시에 따르면, 다시점 비디오의 부호화/복호화 효율을 개선할 수 있는 방법 및 장치가 제공될 수 있다.According to the present disclosure, a method and apparatus capable of improving the coding / decoding efficiency of multi-view video can be provided.

구체적으로, 본 개시에 따르면, 시점이 다른 영상들을 하나의 시점으로 통일한 뒤, 시점이 통일된 영상을 합한 참조 픽처를 이용하여 부호화/복호화를 수행하는 방법 및 장치가 제공될 수 있다.Specifically, according to the present disclosure, a method and apparatus for performing encoding / decoding using a reference picture in which images with different viewpoints are unified into one viewpoint and then combined with unified viewpoints can be provided.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable from the present disclosure are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below will be.

도 1은 전방향 비디오를 생성하기 위한 카메라들을 예시한 도면이다.
도 2는 전방향 비디오가 2차원으로 전개된 예를 나타낸 도면이다.
도 3은 전방향 비디오가 전개될 수 있는 다면체 전개도를 예시한 도면이다.
도 4는 전방향 비디오가 투영될 수 있는 다면체를 예시한 도면이다.
도 5는 전방향 비디오가 재생되는 동안, 특정 시간대 특정 시점의 영상이 표시되는 예를 나타낸 도면이다.
도 6은 시간적 예측 방법을 설명하기 위한 도면이다.
도 7은 전방향 비디오에서 비선형 움직임이 발생하는 예를 나타낸 도면이다.
도 8은 이웃 영역의 퍼스펙티브를 변환하여 참조 영상을 생성하는 예를 설명하기 위한 도면이다.
도 9는 본 발명에 따른 변환 확장 영상을 생성하는 과정을 나타낸 흐름도이다.
도 10은 다면체로 투영되는 전방위 영상의 퍼스펙티브 차이를 예시한 도면이다.
도 11은 영상 간 퍼스펙티브 차이를 산출하기 위한 예를 설명하기 위한 도면이다.
도 12는 타 영상의 퍼스펙티브에 맞춰 영상이 변환되는 예를 설명하기 위한 도면이다.
도 13 및 도 14는 정육면체의 특정 면을 기준으로 참조 영상을 생성하는 예를 도시한 도면이다.
도 15는 다이버전트 영상을 예시한 도면이다.
도 16은 다이버전트 영상에 대한 참조 영상을 생성하는 예를 도시한 도면이다.
도 17은 퍼스펙티브의 기준이 되는 영상과 변환 영상을 합쳐 참조 영상을 생성하는 예를 나타낸 도면이다.
도 18은 컨버전트 영상을 예시한 도면이다.
도 19는 변환 영상이 시간적 예측에 필수적인 영역을 포함하는지 여부를 예시한 도면이다.
도 20은 컨버전트 영상에 대한 참조 영상을 생성하는 예를 도시한 도면이다.
도 21은 퍼스펙티브의 기준이 되는 영상과 변환 영상을 합쳐 참조 영상을 생성하는 예를 나타낸 도면이다.
도 22는 정육면체 형태로 전개되는 전방향 영상에 대한 참조 영상 리스트가 생성되는 예를 도시한 도면이다.
도 23은 다이버전트 영상에 대한 참조 영상 리스트가 생성되는 예를 도시한 도면이다.
도 24는 컨버전트 영상에 대한 참조 영상 리스트가 생성되는 예를 도시한 도면이다.
도 25는 본 발명에 따라 참조 영상을 생성하는 경우와 그렇지 않은 경우를 비교하기 위한 도면이다.
도 26은 본 발명의 적용 여부에 따른 부호화 양상을 예시한 도면이다.
도 27은 본 발명에 따른 부호화기의 구성을 도시한 블록도이다.
도 28은 본 발명에 따른 복호화기의 구성을 도시한 블록도이다.
도 29는 본 발명에 따른 참조 영상 확장부의 블록도이다.
1 is a diagram illustrating cameras for generating omnidirectional video.
2 is a diagram showing an example in which omnidirectional video is developed in two dimensions.
3 is a diagram illustrating a polyhedron developed view in which omni-directional video can be developed.
4 is a diagram illustrating a polyhedron on which omnidirectional video can be projected.
FIG. 5 is a diagram illustrating an example in which an image at a specific time point during a specific time period is displayed while omnidirectional video is being reproduced.
6 is a diagram for explaining a temporal prediction method.
7 is a diagram showing an example in which nonlinear motion occurs in forward video.
8 is a diagram for explaining an example of generating a reference image by transforming the perspective of the neighboring region.
9 is a flowchart illustrating a process of generating a transformed extension image according to the present invention.
10 is a view illustrating perspective differences of omniazimetric images projected in a polyhedron.
11 is a diagram for explaining an example for calculating a perspective difference between images.
12 is a diagram for explaining an example in which an image is converted in accordance with the perspective of another image.
13 and 14 are diagrams illustrating an example of generating a reference image based on a specific surface of a cube.
15 is a diagram illustrating a diversity image.
16 is a diagram illustrating an example of generating a reference image for a diversity image.
FIG. 17 is a diagram showing an example of generating a reference image by combining a reference image and a transformed image.
18 is a diagram illustrating a convergent image.
19 is a diagram illustrating whether or not a transformed image includes an area essential for temporal prediction.
20 is a diagram illustrating an example of generating a reference image for a convergent image.
FIG. 21 is a diagram showing an example of generating a reference image by combining a perspective image and a transformed image.
22 is a view showing an example in which a reference image list for an omnidirectional image developed in the form of a cube is generated.
23 is a diagram showing an example in which a reference image list for a diversity image is generated.
24 is a diagram showing an example in which a reference image list for a convergent image is generated.
25 is a diagram for comparing a case where a reference image is generated according to the present invention and a case where a reference image is not generated according to the present invention.
26 is a diagram illustrating an encoding aspect according to whether the present invention is applied or not.
27 is a block diagram showing a configuration of an encoder according to the present invention.
28 is a block diagram showing a configuration of a decoder according to the present invention.
29 is a block diagram of a reference image expansion unit according to the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다. 후술하는 예시적 실시예들에 대한 상세한 설명은, 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 실시예를 실시할 수 있기에 충분하도록 상세히 설명된다. 다양한 실시예들은 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 실시예의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 예시적 실시예들의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. In the drawings, like reference numerals refer to the same or similar functions throughout the several views. The shape and size of the elements in the figures may be exaggerated for clarity. The following detailed description of exemplary embodiments refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments. These embodiments are described in sufficient detail to enable those skilled in the art to practice the embodiments. It should be understood that the various embodiments are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the location or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the embodiments. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the exemplary embodiments is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained.

본 발명에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.The terms first, second, etc. in the present invention may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

본 발명의 어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.Whenever an element of the invention is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may be present in between It should be understood. On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.The components shown in the embodiments of the present invention are shown separately to represent different characteristic functions and do not mean that each component is composed of separate hardware or software constituent units. That is, each constituent unit is included in each constituent unit for convenience of explanation, and at least two constituent units of the constituent units may be combined to form one constituent unit, or one constituent unit may be divided into a plurality of constituent units to perform a function. The integrated embodiments and separate embodiments of the components are also included within the scope of the present invention, unless they depart from the essence of the present invention.

본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 발명에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 즉, 본 발명에서 특정 구성을 "포함"한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present invention, the term "comprises" or "having ", etc. is intended to specify that there is a feature, number, step, operation, element, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof. In other words, the description of "including" a specific configuration in the present invention does not exclude a configuration other than the configuration, and means that additional configurations can be included in the practice of the present invention or the technical scope of the present invention.

본 발명의 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.Some of the elements of the present invention are not essential elements that perform essential functions in the present invention, but may be optional elements only for improving performance. The present invention can be implemented only with components essential for realizing the essence of the present invention, except for the components used for the performance improvement, and can be implemented by only including the essential components except the optional components used for performance improvement Are also included in the scope of the present invention.

이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략하고, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein has been omitted for the sake of clarity and conciseness. And redundant descriptions are omitted for the same components.

기존 2차원 비디오는 고정된 시점으로 비디오가 재생되었던 반면, 전방향 비디오(또는 360도 비디오)는 사용자가 원하는 시점으로 비디오를 재생할 수 있다. 전방향 비디오를 생성하기 위해, 도 1에 도시된 다양한 종류의 카메라가 이용될 수 있다. 도 1의 (a)에 도시된 여러대의 카메라를 이용하거나, 도 1의 (b)에 도시된 어안 렌즈를 이용하거나, 도 1의 (c)에 도시된 반사경 등을 이용하여, 한 지점으로부터 3차원 공간(예를 들어, 360도 방향)에 대해 촬영을 진행한 뒤, 촬영된 3차원 영상을 다면체 또는 구 등 입체 도형의 모습으로 투영시킬 수 있다. 입체 도형에 투영된 영상으로부터, 2차원 공간 상에 전개되는 2차원 영상을 획득할 수 있다. 일 예로, 도 2의 (a) 및 (b)에서는, 구 형태의 3차원 영상으로부터, 정육면체의 전개도 형태로 전개된 2차원 영상이 획득되는 예를 나타낸다.Conventional two-dimensional video is played back at a fixed point in time, while omnidirectional video (or 360-degree video) can be played back at a desired point in time. To generate omnidirectional video, various types of cameras shown in Fig. 1 may be used. A plurality of cameras shown in Fig. 1 (a), a fisheye lens shown in Fig. 1 (b), or a reflector shown in Fig. 1 (c) Dimensional space (for example, in a 360-degree direction), and project the captured three-dimensional image in the form of a three-dimensional figure such as a polyhedron or a sphere. A two-dimensional image developed on the two-dimensional space can be obtained from the image projected on the three-dimensional figure. For example, FIGS. 2A and 2B show an example in which a two-dimensional image developed in the form of a developed view of a cube is obtained from a three-dimensional image in the form of a sphere.

도 2에 도시된 예에 그치지 않고, 전방향 영상은 다양한 다각형의 전개도 형태로 투영될 수 있다. 일 예로, 도 3에 도시된 예에서와 같이, 전방향 영상은, 정사면체, 정육면체, 정팔면체, 정십이면체 또는 정이십면체 등 다양한 입체 도형의 전개도 형태로 투영될 수 있다.2, the omnidirectional image can be projected in the form of an expanded view of various polygons. As an example, as in the example shown in Fig. 3, the omnidirectional image can be projected in the form of an expanded view of various stereoscopic shapes such as a tetrahedron, a cube, an octahedron, a dodecahedron, or a regular dodecahedron.

후술되는 실시예들에서, '영상'은 3D 비디오의 임의의 프레임 또는 임의 시점을 갖는 일부 영역을 일부 영역을 의미하는 것으로 가정한다. 일 예로, 전방향 비디오의 임의의 프레임이 도 2의 (b)에 도시된 예에서와 같이, 정육면체 형태로 전개되는 경우, 해당 프레임을 일컬어 '영상'이라 할 수도 있고, 상기 프레임 내 특정 시점을 갖는 일부 영역(즉, 정육면체의 일면)을 일컬어 '영상'이라 할 수도 있다.In the following embodiments, 'image' is assumed to mean a certain area of some frame or any frame of 3D video. For example, when an arbitrary frame of the forward video is developed in the form of a cube, as in the example shown in FIG. 2B, the frame may also be referred to as an 'image' (I.e., one side of a cube) may also be referred to as an " image ".

비디오가 재생되는 경우, 2차원 영상은 다시 다면체 또는 구 등 3차원 공간에 재구성될 수 있다. 도 4에서는, 2차원 영상이 정사면체, 정육면체, 정팔면체, 정십이면체 또는 정이십면체 등의 형태로 3차원 공간에 재구성되는 예가 도시되었다. 이때, 3차원으로 투영된 전체 영상 중 특정 시간대에 사용자가 바라보는 특정 지점 또는 사용자에 의해 선택된 특정 지점에 대응하는 영역이 표시될 수 있다. When the video is reproduced, the two-dimensional image can be reconstructed again into a three-dimensional space such as a polyhedron or a sphere. In FIG. 4, an example is shown in which a two-dimensional image is reconstructed into a three-dimensional space in the form of a regular tetrahedron, a cube, an octahedron, a regular tetrahedron, or a regular hexahedron. At this time, a specific point viewed by the user or a region corresponding to a specific point selected by the user may be displayed in a specific time among the entire images projected in three dimensions.

도 5는 전방향 비디오가 재생되는 동안, 특정 시간대 특정 시점의 영상이 표시되는 예를 나타낸 도면이다. 도 5의 (a) 및 (b)는 외부에서 전방향 영상을 바라보았을 때 개념도를 타나낸 것이고, 도 5의 (c)는 전방향 영상을 시청하는 사용자를 중심으로 전방향 영상을 도시한 개념도이다.FIG. 5 is a diagram illustrating an example in which an image at a specific time point during a specific time period is displayed while omnidirectional video is being reproduced. 5 (a) and 5 (b) illustrate a concept diagram when viewing an omnidirectional image from the outside, and Fig. 5 (c) to be.

도 5의 (a) 및 (c)는 2차원 영상이 정육면체 형태로 재구성된 예를 나타내고, 도 5의 (b)는 2차원 영상이 구 형태로 재구성된 예를 나타낸다.5 (a) and 5 (c) show an example in which a two-dimensional image is reconstructed into a cube shape, and FIG. 5 (b) shows an example in which a two-dimensional image is reconstructed into a sphere shape.

비디오 재생 시, 3차원으로 재구성된 영상의 전체 영역 중 사용자의 시점이 향하거나 사용자에 의해 선택된 일부분이 재생될 수 있다. 일 예로, 도 5의 (a) 및 (b)에서 빗금친 영역은 3차원으로 재구성된 영상 중 사용자 시점이 향하는 부분 또는 사용자에 의해 선택된 부분을 나타낸 것이다. 이 경우, 전방향 영상 중 사용자의 시점이 향하는 부분 또는 사용자에 의해 선택된 부분에 대응하는 영역이 출력될 수 있다. 일 예로, 사용자를 기준으로 보았을 때, 사용자는 도 5의 (c)에 도시된 예에서와 같이, 전방향 영상의 전체 영역 중 일부분만을 시청할 수 있게 된다.At the time of video reproduction, a part of the entire region of the reconstructed image that is reconstructed in three dimensions can be reproduced at a user's point of view or selected by the user. For example, the hatched area in FIGS. 5A and 5B represents a portion of the reconstructed image in three dimensions, which is directed toward the user viewpoint or selected by the user. In this case, a portion of the omnidirectional image facing the user's viewpoint or a region corresponding to the portion selected by the user may be output. For example, when the user is viewed as a reference, the user can view only a part of the entire area of the omnidirectional image, as in the example shown in Fig. 5 (c).

상술한 바와 같이, 전방향 영상은 2차원 공간에 투영된 뒤 다시 3차원 형태로 재구성되는 바, 전방향 비디오의 부호화/복호화는 2D 비디오의 부호화/복호화와 동일한 방법으로 이루어질 수 있다. 일 예로, 2D 비디오의 부호화/복호화에 이용되는 시간적 예측(Inter Prediction) 방법이 전방향 영상의 부호화/복호화에도 이용될 수 있다. 여기서, 시간적 예측 방법은 근접한 시간 차이를 갖는 영상 간의 상관관계가 높음을 기초로, 참조 영상으로부터 현재 영상을 예측하는 방법을 의미한다. As described above, since the omnidirectional image is projected in the two-dimensional space and then reconstructed in the three-dimensional form, the encoding / decoding of the omnidirectional video can be performed in the same manner as the encoding / decoding of the 2D video. For example, a temporal prediction (Inter Prediction) method used for encoding / decoding 2D video can be used for encoding / decoding of an omnidirectional image. Here, the temporal prediction method refers to a method of predicting a current image from a reference image based on a high correlation between images having close temporal differences.

일 예로, 도 6은 시간적 예측 방법을 설명하기 위한 도면이다.For example, FIG. 6 is a diagram for explaining a temporal prediction method.

도 6에서 (a)는 현재 영상을 예측하기 위해 이용되는 참조 영상(Reference Frame)을 나타내고, (b)는 부호화/복호화 대상 블록을 포함하는 현재 영상(Current Frame)을 나타낸다. 현재 영상에 포함된 부호화/복호화 대상 블록 'B'를 예측하는데 있어서, 참조 영상에 포함된 블록 'A'를 이용할 수 있다면, 현재 영상의 블록 B에 대한 영상 정보를 모두 부호화할 필요는 없다. 이에 따라, 시간적 예측을 이용할 경우, 영상 블록별 부호화할 정보량을 크게 줄일 수 있어, 영상 압축의 효율을 높일 수 있게 된다.6A shows a reference frame used to predict a current image, and FIG. 6B shows a current frame including a current block to be encoded / decoded. If the block 'A' contained in the reference image can be used in predicting the current block B 'to be coded / decoded, it is not necessary to encode all the image information for the block B of the current image. Accordingly, when temporal prediction is used, the amount of information to be encoded for each image block can be greatly reduced, and the efficiency of image compression can be increased.

다만, 전방향 비디오의 경우 단일 영상 내 복수의 퍼스펙티브(Perspective, 시점)가 존재하기 때문에, 각 퍼스펙티브의 경계에서 비선형 변화가 감지되고, 이에 따라 시간적 예측 효율이 감소하는 문제가 발생할 수 있다.However, in the case of omnidirectional video, since there are a plurality of perspectives in a single image, a nonlinear change is detected at the boundary of each perspective, which may cause a problem of a decrease in temporal prediction efficiency.

일 예로, 도 7은 전방향 비디오에서 비선형 움직임이 발생하는 예를 나타낸 도면이다.For example, FIG. 7 shows an example in which nonlinear motion occurs in forward video.

전방향 비디오의 단일 영상을 정육면체의 전개도에 투영한다고 가정하였을 때, 도 7의 (a)에 도시된 예에서와 같이, 해당 영상은 여섯개의 면(P1~P6)을 갖는다. 아울러, 각각의 면은 서로 다른 퍼스펙티브(Perspective)를 갖는다. Assuming that a single image of the omnidirectional video is projected onto the developed view of the cube, the image has six planes P1 to P6, as in the example shown in Fig. 7 (a). In addition, each face has a different perspective.

영상에 투영된 사물의 모양 또한 퍼스펙티브에 따라 달라질 수 있다. 이에 따라, 서로 다른 퍼스펙티브를 갖는 두 면의 경계에서는, 비선형적 움직임이 발생할 수 있다. 일 예로, 도 7의 (b) 에서는, 점선으로 표시된 경계선을 기준으로 인접 위치하는 P3면 및 P4면, P4면 및 P1면 등에서 비선형적 움직임이 발생하는 것을 예시하였다.The shape of the object projected on the image may also vary depending on the perspective. Thus, nonlinear motion can occur at the boundaries of two surfaces having different perspectives. For example, in FIG. 7 (b), nonlinear motion occurs on the P3 surface, the P4 surface, the P4 surface, the P1 surface, and the like that are located adjacent to the boundary line indicated by the dotted line.

이에 따라, 특정 면에 포함된 블록의 시간적 예측이, 참조 영상 내 특정 면과 다른 면에 포함된 블록을 이용하여 수행된다면, 참조 영상 내 특정 면과 동일한 면에 포함된 블록을 이용하여 시간적 예측을 수행하는 것에 비해 부호화 효율이 크게 감소하게 될 것이다.Accordingly, if temporal prediction of a block included in a specific plane is performed using a block included in a plane different from the specific plane in the reference image, temporal prediction using a block included in the same plane as the specific plane in the reference image is performed The encoding efficiency will be greatly reduced as compared with the performance.

위처럼, 시간적 참조 영상을 이용하여, 현재 영상을 예측하는 것이 적합하지 않을 경우, 인트라 블록 코딩 또는 인트라 예측(Intra Prediction)(또는 공간적 예측)을 사용할 수도 있는데, 시간적 예측 대신 공간적 예측을 사용하게 됨에 따라, 압축 효율이 떨어지는 문제점이 발생하게 된다.As described above, if it is not suitable to predict a current image using a temporal reference image, intra-block coding or intra prediction (or spatial prediction) may be used. Instead of temporal prediction, spatial prediction is used Accordingly, there arises a problem that the compression efficiency is lowered.

일반적인 2D 비디오의 경우, 임의 수치의 초당 프레임수를 만족할 시, 영상 내 선형적으로 이동하는 물체의 움직임을 프레임간 예측을 통해 효과적으로 부호화 및 압축할 수 있다. 그러나, 전방향 비디오의 경우, 상술한 예시에서와 같이, 프레임 내 영역의 위치에 따라 퍼스펙티브가 변화하므로, 현실에서의 선형적 움직임이 비선형적으로 왜곡되는 현상이 발생하게 된다.In the case of general 2D video, when the number of frames per second is satisfied, motion of an object moving linearly in an image can be efficiently encoded and compressed through inter-frame prediction. However, in the case of omnidirectional video, the perspective changes according to the position of the intra-frame area as in the above-described example, so that the linear motion in the real world is distorted non-linearly.

이에 따라, 경계에 인접한 경계 블록들의 시간적 예측 효율 저하에 따른 문제점을 해소하기 위해, 본 발명에서는 퍼스펙티브가 변화하는 경계면에서 나타나는 비선형 움직임을 선형적으로 수정함으로써, 퍼스펙티브 변화에 의해 시간적 예측 효율이 떨어지는 문제점을 해소하고자 한다. 일 예로, 도 7의 (c)에서는, P1면 및 P4면의 경계에서 나타난 비선형 왜곡 및 P3 경계 및 P4 경계에서 나타난 비선형 왜곡이 선형적으로 수정되는 것이 나타나 있다. Accordingly, in order to solve the problem of temporal prediction efficiency deterioration of boundary blocks adjacent to the boundary, the present invention linearly corrects nonlinear motion appearing at a boundary where a perspective changes, . For example, in FIG. 7 (c), it is shown that the nonlinear distortion at the boundary between the P1 and P4 planes and the nonlinear distortion at the boundary between P3 and P4 are corrected linearly.

위와 같이, 본 발명은 전방향 비디오 등 다양한 퍼스펙티브를 가진 동영상에서, 여러 개의 퍼스펙티브가 합쳐진 영상 내 위치상 연속된 퍼스펙티브가 하나 이상 존재하는 경우 또는 단일 퍼스펙티브를 가진 여러 영상 간 위치상 연속된 퍼스펙티브가 하나 이상 존재하는 경우, 퍼스펙티브가 다른 이웃 영역(혹은, 이웃 영상)을 변환함으로써, 예측 효율을 높이는 방법을 제안한다.As described above, the present invention is applicable to a moving picture having various perspectives such as an omnidirectional video, a case in which there are one or more successive perspectives on positions in an image in which a plurality of perspectives are combined, The neighboring region (or neighboring image) of the perspective is transformed to improve the prediction efficiency.

이하, 전방향 비디오의 부호화 방법을 중심으로 본 발명을 설명할 것이나, 본 발명은 전방향 비디오 이외의 다양한 종류의 실감 미디어에 적용될 수 있다 할 것이다. 실감 미디어는 전방향 비디오 이외에도, 다이버전트(Divergent) 비디오 및 컨버전트(Convergent) 비디오 등을 포함할 수 있다. 다이버전트 비디오는 여러대의 카메라가 다양한 방향의 영상을 촬영함으로써 생성되는 영상을 의미하고, 컨버전트 비디오는 여러대의 카메라가 특정 방향의 영상을 촬영함으로써 생성되는 영상을 의미한다. 아울러, 전방향 비디오의 부호화 과정을 중심으로 설명하나, 후술되는 실시예들이 복호화 과정에서도 동일 또는 역순으로 수행될 수 있음은 자명하다 할 것이다.Hereinafter, the present invention will be described focusing on an omnidirectional video coding method, but the present invention can be applied to various kinds of realistic media other than omnidirectional video. The realistic media may include divergent video and convergent video as well as omnidirectional video. Divergent video refers to an image generated by multiple cameras capturing images in various directions. Convergent video refers to an image generated by multiple cameras capturing images in specific directions. In addition, although the description will be made mainly on the encoding process of omnidirectional video, it will be apparent that the embodiments described below can be performed in the same or reverse order in the decoding process.

도 8은 이웃 영역의 퍼스펙티브를 변환하여 참조 영상을 생성하는 예를 설명하기 위한 도면이다.8 is a diagram for explaining an example of generating a reference image by transforming the perspective of the neighboring region.

위치상 연속된 퍼스펙티브가 존재하는 경우, 영상 내 퍼스펙티브가 바뀌는 경계 부분에서는 시간적 예측의 효율이 저하될 수 있다. 이는 예측을 위해 사용되는 참조 영상 내 참조 영역이 이웃 영역의 정보를 포함하지 않기 때문이다. 참조 영역이 이웃 영역에 대한 정보를 포함하더라도, 현재 블록과 퍼스펙티브가 달라, 참조 영상으로 사용하기 부적합하다.When there is a continuous perspective on the position, the efficiency of the temporal prediction may deteriorate at the boundary portion where the intra-picture perspective changes. This is because the reference area in the reference image used for the prediction does not include the information of the neighboring area. Even if the reference area includes information on the neighboring area, the current block and the perspective are different, and it is not suitable for use as a reference image.

일 예로, 도 8에 도시된 예에서, 현재 영상의 일부 영역(C1)을 복원하는데, 이웃 영역의 정보를 포함하지 않는 영역(즉, P1)만을 사용하는 경우, 현재 영상(C1)을 완벽히 복원하기 어렵다. 현재 영상을 복원하는데, 이웃 영역의 정보를 포함하는 영역(즉, P1과 P2를 합한 O)을 이용한다 하더라도, 현재 영상과 새롭게 확장된 P2 영역 사이의 퍼스펙티브가 달라, 현재 영상(C1)을 완벽하기 복원하기 어렵다.For example, in the example shown in FIG. 8, when only a region C1 that does not include the information of the neighboring region is used to restore a portion C1 of the current image, the current image C1 is completely restored It is difficult to do. Even if the area including the information of the neighboring area (i.e., the sum of P1 and P2) is used to restore the current image, the perspective between the current image and the newly extended P2 area is different, It is difficult to restore.

이에, 참조 영역과 퍼스펙티브가 다른 이웃 영역을 변환한 뒤, 참조 영역과 변환된 이웃 영역을 합하여 변환된 확장 영역을 포함하는 참조 영상을 생성함으로써, 시간적 예측시 부호화 효율 향상을 도모할 수 있다. Thus, the reference area and the neighboring area having different perspectives are transformed, and then the reference area and the transformed neighboring area are combined to generate a reference image including the transformed extended area, thereby improving coding efficiency in temporal prediction.

구체적으로, 도 8의 (a)에 도시된 예에서와 같이, 참조 영역과 이웃 영역간에는 경계면에서의 퍼스펙티브 변화에 의해 이미지가 왜곡(즉, 꺽여 보임)될 수 있다. 그러나, 도 8의 (b)에 도시된 예에서와 같이, 이웃 영역을 참조 영역의 퍼스펙티브에 맞춰 변환할 경우, 경계면에서의 왜곡이 줄어들게 된다. 이에 따라, 도 8의 (b)에 도시된 예에서와 같이, 참조 영역과 퍼스펙티브가 다른 이웃 영역을 변환한 영상(TR)을 생성한 뒤, 참조 영역(P1)과 변환된 이웃 영역(TR)을 합쳐 획득된 변환 확장 영상(P1과 TR을 합한 R)을 이용하여 현재 영상(C1)을 예측하는 경우 예측 정확성을 보다 높일 수 있다.Specifically, as in the example shown in Fig. 8A, the image may be distorted (i.e., skewed) by the perspective change at the interface between the reference area and the neighboring area. However, as in the example shown in Fig. 8 (b), when the neighboring area is converted to match the perspective of the reference area, the distortion at the boundary is reduced. Thus, as in the example shown in FIG. 8B, after generating the image TR in which the reference region and the neighboring region having different perspectives are transformed, the reference region P1 and the transformed neighboring region TR are generated, The prediction accuracy can be improved when the current image C1 is predicted using the transformed extension image (R obtained by adding P1 and TR).

변환 확장 영상을 획득하기 위해, 크게 다음의 단계들이 수행될 수 있다.In order to obtain the transformed extension image, the following steps can be largely performed.

제1 단계. 영상간의 방향 및 거리 관계 산출Step 1. Calculate direction and distance relation between images

제2 단계. 영상간의 관계식을 이용하여 각 퍼스펙티브에서의 변환 영상 생성Step 2. Generate transformed image in each perspective using relational expression between images

제3 단계. 기존 참조 영상의 퍼스펙티브 위치에 맞게 변환 영상을 참조 영상에 확장Step 3. The transformed image is extended to the reference image according to the perspective of the existing reference image

제4 단계. 변환 확장된 영상을 참조 영상 리스트에 삽입Step 4. Insert transformed image into reference image list

제1 단계는 영상의 특징 (예를 들어, 정육면체 영상의 고유 속성) 또는 영상 데이터 외 추가 데이터(예를 들어, 다이버전트 영상의 경우 각 영상의 시야각, 퍼스펙티브 간의 각도 차이 및 거리 차이 등)을 통하여 영상간의 방향 및 거리 관계를 산출하는 단계에서, 영상 간의 방향 및 거리 관계는 도 8의 (a)에서 θ 및 d로 예시되어 있다.In the first step, the feature of the image (for example, the intrinsic property of the cube image) or the additional data other than the image data (for example, in the case of the divergent image, the angle of view of each image, the angle difference between perspectives, In the step of calculating the direction and the distance relation between images, the direction and the distance relation between images are illustrated as? And d in (a) of Fig.

제2 단계는 첫번째 단계에서 산출한 영상간 방향 및 거리 차이에 기초하여 이웃 영상의 변환 영상을 생성하는 단계이다. 본 단계에서, 참조 영상의 확장 영역인 이웃 영상이 참조 영상의 퍼스펙티브에 맞게 수정될 수 있다. 여기서, 참조 영상의 퍼스펙티브에 맞게 이웃 영상을 수정한다는 것은, 이웃 영상을 참조 영상과 같은 퍼스펙티브 공간에 있도록 변환하는 것을 의미한다.The second step is to generate a transformed image of the neighboring image based on the direction and distance difference between images calculated in the first step. In this step, the neighboring image, which is the extended region of the reference image, can be modified to match the perspective of the reference image. Here, the modification of the neighboring image in accordance with the perspective of the reference image means that the neighboring image is transformed to be in the same perspective space as the reference image.

제3 단계는 변환 영상과 참조 영상을 기초로 변환 확장 영상을 생성하는 단계이다. 구체적으로, 변환 영상이 참조 영상과 연속되도록, 변환 영상 및 참조 영상을 합함으로써, 변환 확장 영상을 생성할 수 있다.The third step is to generate a transformed extension image based on the transformed image and the reference image. Specifically, the transformed extension image can be generated by adding the transformed image and the reference image so that the transformed image is continuous with the reference image.

제4 단계는 생성된 변환 확장 영상을 참조 영상 리스트에 저장하는 단계이다. 변환 확장 영상을 참조 영상 리스트에 저장함으로써, 복호화/부호화 대상 영상의 시간적 예측을 위해 이용할 수 있다.Step 4 is a step of storing the generated transformed extension image in the reference image list. By storing the transformed extension image in the reference image list, it can be used for temporal prediction of the decoded / encoded image.

위와 같이 변환 영상 및 참조 영상을 합하여 시간적 예측에 적합한 영상을 생성함으로써, 전방향 비디오의 부호화/복호화 효율을 향상시킬 수 있다. 도 9의 흐름도를 통해 상술한 단계들에 대해 보다 상세히 살펴보기로 한다.By combining the transformed image and the reference image as described above to generate an image suitable for temporal prediction, the encoding / decoding efficiency of the forward video can be improved. The above-described steps will be described in more detail through the flow chart of FIG.

도 9는 본 발명에 따른 변환 확장 영상을 생성하는 과정을 나타낸 흐름도이다.9 is a flowchart illustrating a process of generating a transformed extension image according to the present invention.

도 9를 참조하면, 먼저, 퍼스펙티브가 다른 영상들이 공간적으로 연속하여 존재하는지 여부를 판단할 수 있다(S910). 퍼스펙티브가 다른 영상들이 공간적으로 연속하여 존재하는지 여부는 영상에 부가되는 데이터(예를 들어, 메타 데이터) 또는 다시점 영상의 특성(예를 들어, 다면체의 전개도는 고정된 개수의 퍼스펙티브를 가짐)을 통해 확인할 수 있다. 일 예로, 영상이 다면체 전개도로 투영되는 경우, 퍼스펙티브가 다른 영상들이 공간적으로 연속하여 존재하는 것이라 판단될 수 있다.Referring to FIG. 9, it can be determined whether the perspective images are spatially continuous (S910). Whether or not the perspectives of other images are spatially contiguous can be determined by comparing the characteristics of the data (e.g., metadata) added to the image or the multi-view image (for example, the developed view of the polyhedron has a fixed number of perspectives) . For example, when an image is projected onto a polyhedral development view, it can be judged that the perspective images are spatially continuous.

퍼스펙티브가 다른 영상들이 공간적으로 연속하여 존재하는 경우, 퍼스펙티브가 다른 영상 간 퍼스펙티브 차이를 획득할 수 있다(S920). 여기서, 퍼스펙티브 차이는 각도 차이 및 위치 차이 중 적어도 하나를 포함할 수 있다. 각도는 3차원 공간에 표시하기 위한 오일러 각 또는 그 부분집합을 의미하고, 위치는 3차원 공간 위치좌표 또는 그 부분집합을 의미한다.If the perspectives of other images exist spatially consecutively, Perspective can obtain different perspective differences between images (S920). Here, the perspective difference may include at least one of an angular difference and a position difference. The angle means an Euler angle or a subset thereof for displaying in a three-dimensional space, and the position means a three-dimensional space position coordinate or a subset thereof.

다면체로 투영되는 전방위 영상의 경우, 퍼스펙티브가 다른 영상 간 각도차이가 고정된 값을 갖는다. 아울러, 다면체로 투영되는 전방위 영상의 경우 퍼스펙티브가 다른 영상들이 경계에서 연속되기 때문에, 거리 차이도 없다고 볼 수 있다.In the case of omni-directional images projected in a polyhedron, the angular difference between the different perspectives has a fixed value. In addition, in the case of omni-directional images projected in a polyhedron, images with different perspectives are continuous at the boundary, so that there is no difference in distance.

일 예로, 도 10은 다면체로 투영되는 전방위 영상의 퍼스펙티브 차이를 예시한 도면이다. 도 10의 (a)에 도시된 예에서, 전방위 영상이 정육면체에 투영되는 경우, 두 영상(P1, P2)의 각도 차이는 90도로 고정되어 있고, 두 영상(P1, P2)은 경계를 기준으로 연속하는 바, 두 영상의 거리 차이는 0으로 유도될 수 있다.For example, FIG. 10 is a diagram illustrating the perspective difference of the omniazimetric image projected in a polyhedron. In the example shown in FIG. 10A, when the omnidirectional image is projected on the cube, the angular difference between the two images P1 and P2 is fixed at 90 degrees, and the two images P1 and P2 are based on the boundary The successive bars, the distance difference of the two images, can be derived as zero.

도 10의 (b)에 도시된 예에서와 같이, 전방위 영상이 정십이면체에 투영되는 경우, 두 영상(P3, P4)의 각도 차이는 90도로 고정되어 있고, 두 영상(P3, P4)은 경계를 기준으로 연속하는 바, 두 영상의 거리 차이는 0으로 유도될 수 있다.10 (b), when the omnidirectional image is projected on the dodice, the angular difference between the two images P3 and P4 is fixed at 90 degrees, and the two images P3 and P4 are The distance difference between the two images can be derived as 0, which is continuous with respect to the boundary.

도 10의 (c)에 도시된 예에서와 같이, 전방위 영상이 구에 투영되는 경우, 두 영상(P5, P6)의 각도 차이는 구의 특성에 의해 연산될 수는 없다. 두 영상의 각도 차이(θ3)는 도 11의 (a)를 통해 후술될 카메라간 각도 차에 의해 연산될 수 있다. 다만, 두 영상(P5, P6)은 연속하여 존재하는 바, 두 영상의 거리 차이는 0으로 유도될 수 있다.10 (c), when the omni-directional image is projected on the sphere, the angular difference between the two images P5 and P6 can not be calculated by the sphere characteristic. The angle difference 3 between the two images can be calculated by the inter-camera angle difference described later with reference to FIG. 11 (a). However, since the two images P5 and P6 exist continuously, the distance difference between the two images can be derived to be zero.

위처럼, 전방위 영상이 구와 같은 비 다면체로 투영되거나, 각 영상의 배치에 있어서 일정한 규칙이 존재하지 않는 경우, 카메라들의 위치, 카메라들의 시야각, 카메라간 각도 등을 통해 영상간 퍼스펙티브 차이가 산출될 수 있다. As described above, when the omni-directional image is projected as a non-polyhedral object such as a sphere, or when there is no rule in the arrangement of each image, the perspective difference between images can be calculated through the positions of the cameras, the viewing angles of the cameras, have.

일 예로, 도 11은 영상 간 퍼스펙티브 차이를 산출하기 위한 예를 설명하기 위한 도면이다. For example, FIG. 11 is a diagram for explaining an example for calculating a perspective difference between images.

전방위 영상이 비다면체로 투영되거나, 각 영상간 배치가 불규칙적인 경우, 두 영상의 퍼스펙티브 차이(즉, 위치 차이(d2) 및 각도 차이(θ4))는, 카메라들(C1, C2)의 위치, 카메라들간의 위치 차이(d1), 카메라들 간의 각도 차이(θ3) 및 각 카메라의 시야각(θ1, θ2) 중 적어도 하나에 기초하여 계산될 수 있다. 여기서, 위치는 3차원 공간 상의 위치 좌표(예컨대, 도 11(b)의 (x, y, z))를 가리키고, 각도란 3차원 공간에 표시하기 위한 오일러 각도(예를 들어, 도 11(b)의 (a, b, r))를 의미할 수 있다. 위와 같은 정보는 각 영상에 부가되는 메타 데이터의 형태로 부호화 또는 시그널링될 수 있다.The perspective difference (i.e., the position difference d2 and the angular difference? 4) of the two images is determined by the position of the cameras C1 and C2 and the position of the cameras C1 and C2 when the omnidirectional image is projected as a non- Can be calculated based on at least one of the position difference d1 between the cameras, the angle difference? 3 between the cameras, and the viewing angles? 1 and? 2 of each camera. 11 (b) (x, y, z), and the angle refers to an Euler angle for displaying in the three-dimensional space (for example, (A, b, r)) of the image data. The above information may be encoded or signaled in the form of metadata added to each image.

퍼스펙티브가 다른 영상 간 퍼스펙티브 차이가 산출되면, 산출된 퍼스펙티브 차이를 기준으로, 퍼스펙티브가 다른 영상들을 동일한 퍼스펙티브로 변환할 수 있다(S930). 일 예로, 퍼스펙티브가 다른 두 영상에 대해, 두 영상 중 어느 하나를 다른 영상의 퍼스펙티브에 맞춰 변환하는 과정이 수행될 수 있다.When perspective differences among different perspectives are calculated, images having different perspectives can be converted to the same perspective based on the calculated perspective differences (S930). As an example, for two different perspective images, a process of converting either of the two images to a different perspective of the other image may be performed.

도 12는 타 영상의 퍼스펙티브에 맞춰 영상이 변환되는 예를 설명하기 위한 도면이다.12 is a diagram for explaining an example in which an image is converted in accordance with the perspective of another image.

도 12의 (a)는 전방위 영상이 정육면체로 전개된 예를 나타낸 도면이고, 도 12의 (b)는 정육면체의 상단부(예를 들어, P1) 또는 하단부(예를 들어, P6)로부터 정육면체를 바라보았을 때의 평면도이다. FIG. 12A is a view showing an example in which an omnidirectional image is developed into a cube, FIG. 12B is a view showing an example of a cube obtained by looking at a cube from an upper end (for example, P1) This is a plan view when viewed.

전방위 영상이 도 12의 (a)에 도시된 예에서와 같이, 정육면체로 전개된다고 가정하였을 때, 현재 영상의 P4 면에 포함된 영역은, 참조 영상의 P4 면에 포함된 참조 영역을 통해 예측되는 것이 바람직할 것이다. 다만, 현재 영상의 P4 면에 포함된 영역을 참조 영상의 P3 면을 이용하여 예측하고자 하는 경우, P4 면과 P3 면은 퍼스펙티브가 서로 달라, 예측의 효율성이 떨어지는 문제점이 발생할 수 있다. 이에 따라, 참조 영상을 저장할 때, P3 면을 P4 면의 퍼스펙티브에 맞춰 변환하는 과정을 수행할 필요가 있다.Assuming that the omni-directional image is developed into a cube as in the example shown in Fig. 12A, the region included in the P4 plane of the current image is predicted through the reference region included in the P4 plane of the reference image Lt; / RTI > However, when the region included in the P4 plane of the current image is to be predicted using the P3 plane of the reference image, the perspective of the P4 plane and the P3 plane may be different from each other, and the efficiency of prediction may be inferior. Accordingly, when storing the reference image, it is necessary to perform a process of converting the P3 plane to the perspective of the P4 plane.

일 예로, 도 12의 (b)에 도시된 예에서, P3 면에 포함된 위치 x를 P4와 같은 퍼스펙티브를 갖는 위치 y에 투영함으로써, P3 면을 P4 면의 퍼스펙티브에 맞춰 변환할 수 있다. 이때, P3 면과 P4 면의 퍼스펙티브 차이는 간략히 다음 수학식 1에 의해 간략화될 수도 있다. For example, in the example shown in FIG. 12 (b), by projecting the position x included in the plane P3 to the position y having a perspective such as P4, the plane P3 can be converted into the perspective of the plane P4. At this time, the perspective difference between the P3 plane and the P4 plane may be briefly simplified by the following equation (1).

Figure pat00001
Figure pat00001

상기 수학식 1에서, a는 정육면체의 한 변의 길이를 나타낸다. P3 면을 P4 면의 퍼스펙티브에 맞춰 변환한 참조 영상을 이용하여, 현재 영상의 P4 면을 예측할 경우, 참조 영상의 P3 면과 현재 영상의 P4 면 사이의 퍼스펙티브를 통일시킬 수 있는 바, 예측시 왜곡을 줄일 수 있게 된다.In Equation (1), a represents the length of one side of the cube. The perspective between the P3 plane of the reference image and the P4 plane of the current image can be unified when the P4 plane of the current image is predicted using the reference image transformed from the P3 plane to the perspective of the P4 plane, .

공간적으로 이웃하는 시점이 다른 영상이 추가 존재하는 경우, 위 원리에 따라 이웃 영상의 변환이 추가적으로 수행될 수 있다(S940).If another image is spatially neighboring, the neighboring image may be further transformed according to the above principle (S940).

특정 영상의 퍼스펙티브를 기준으로 이웃 영상들이 변환되었을 때, 특정 영상과 변환된 이웃 영상들을 합하여 참조 영상을 생성할 수 있다(S950).When the neighboring images are transformed based on the perspective of the specific image, the reference image can be generated by combining the specific image and the transformed neighboring images (S950).

일 예로, 전방향 영상이 정육면체 형상을 갖는 경우, 정육 면체의 특정 면과 이웃하는 복수의 이웃 면을 특정 면의 퍼스펙티브에 맞춰 변환하고, 특정 면과 변환된 복수의 이웃 면을 합하여 참조 영상이 생성될 수 있다.For example, when the omnidirectional image has a cube shape, a plurality of neighboring faces neighboring the specific face of the cube are converted to fit the perspective of the specific face, and a reference image is generated by combining the specific face and the plurality of converted neighboring faces .

일 예로, 도 13 및 도 14는 정육면체의 특정 면을 기준으로 참조 영상을 생성하는 예를 도시한 도면이다. 도 13의 (a)를 참조하면, P4 면을 기준으로, P4 면은, P1, P3, P5 및 P6 면과 이웃하고 있다. 이에 따라, P4 면의 퍼스펙티브에 맞춰, P1, P3, P5 및 P6면을 변환하여, T1, T3, T5 및 T6를 생성하고, P4 면과 생성된 변환 영상 T1, T3, T5, T6를 합함으로써 참조 영상을 생성할 수 있다.For example, FIGS. 13 and 14 illustrate examples of generating a reference image based on a specific surface of a cube. Referring to FIG. 13A, the P4 plane is adjacent to the P1, P3, P5, and P6 planes with respect to the P4 plane. Accordingly, P1, P3, P5 and P6 planes are transformed in accordance with the perspective of the P4 plane to generate T1, T3, T5 and T6, and the P4 plane and the generated transformed images T1, T3, T5 and T6 are summed A reference image can be generated.

이때, P4 면과 이웃하는 이웃 면의 전체 영역이 변환 대상으로 설정될 수도 있으나, 부호화기에서 설정한 일부 영역(예를 들어, 검색 범위(Search Range)) 만이 변환 대상으로 설정될 수도 있다.At this time, the entire area of the neighboring plane neighboring the P4 plane may be set as a conversion target, but only a certain area (e.g., a search range) set by the encoder may be set as a conversion target.

도 13의 (b)는, 이웃 면의 전체 영역이 변환 대상인 경우 참조 영상이 생성되는 예를 나타낸 도면이고, 도 13의 (c)는, 이웃 면의 일부 영역이 변환 대상인 경우 참조 영상이 생성되는 예를 나타낸 도면이다.13B is a diagram showing an example in which a reference image is generated when the entire area of the neighboring area is to be transformed. FIG. 13C shows a case where a reference image is generated when a partial area of the neighboring area is to be transformed Fig.

전체 또는 그 일부가 변환된 영상은 퍼스펙티브의 기준이 되는 영상에 맞춰 그 위치가 결정된다. 다면체로 투영되는 영상의 경우, 다면체 특성에 맞춰 변환 영상의 위치가 결정된다. 변환 영상은 그 위치에 맞춰 퍼스펙티브의 기준이 되는 영상과 합쳐질 수 있다. The entire or a part of the converted image is determined in accordance with the image which is the reference of the perspective. In the case of an image projected in a polyhedron, the position of the converted image is determined according to the polyhedron characteristic. The converted image can be combined with the reference image of the perspective according to its position.

일 예로, 도 14의 (a)에 도시된 (a) 및 (b)에 도시된 예에서, T1, T3, T5 및 T6 영상의 위치는 퍼스펙티브의 기준이 되는 영상 P4에 맞춰 상대적으로 위치가 결정된다. 즉, 각각의 변환 영상 T1, T3, T5 및 T6는, P4의 퍼스펙티브에 맞춰 투영된 위치에서 P4와 합쳐지게 된다.For example, in the example shown in FIGS. 14A and 14B, the positions of the images T1, T3, T5, and T6 are determined relative to the image P4 as the reference of the perspective do. That is, each of the transformed images T1, T3, T5, and T6 is combined with P4 at the projected position in accordance with the perspective of P4.

도 14의 (c) 및 (d)는, P4와 변환 영상 T1, T3, T5 및 T6가 합쳐져 생성된 참조 영상 R4를 예시한 도면이다. 도 14의 (c)는 이웃 영상의 변환 가능한 전체 영역이 P4의 퍼스펙티브에 맞춰 투영된 경우를 예시한 도면이고, 도 14의 (d)는 이웃 영상의 일부 영역의 P4의 퍼스펙티브에 맞춰 투영된 경우를 예시한 도면이다.FIGS. 14C and 14D are views illustrating a reference image R4 generated by combining P4 and transformed images T1, T3, T5, and T6. 14C is a diagram illustrating a case where the entire convertible area of the neighboring image is projected in accordance with the perspective of P4, and FIG. 14D is a diagram illustrating a case in which the entire area of the neighboring image is projected in accordance with the perspective of P4 Fig.

다이버전트 영상은 복수 카메라의 촬영 방향이 퍼지는 형태를 띨 때 촬영된 영상을 의미한다. 이에 따라, 다이버전트 영상 역시 퍼스펙티브가 다른 복수의 영상을 포함할 수 있다. 일 예로, 도 15는 다이버전트 영상을 예시한 도면이다. 도 15에 도시된 예에서, 카메라 C1는 제1 방향 W1을 촬영하고, 카메라 C2는 제2 방향 W2를 촬영하며, 카메라 C3는 제3 방향 W3을 촬영하는 것으로 예시되었다. 이에 따라, P1, P2 및 P3를 포함하는 다이버전트 영상이 생성되는 것으로 예시되었다. Divergent images are images taken when a shooting direction of a plurality of cameras is spread. Accordingly, the diversity image may include a plurality of images having different perspectives. For example, FIG. 15 is a diagram illustrating a diversity image. In the example shown in Fig. 15, the camera C1 photographs the first direction W1, the camera C2 photographs the second direction W2, and the camera C3 photographs the third direction W3. Thus, a diversity image including P1, P2, and P3 is illustrated as being generated.

다이버전트 영상도 다면체와 마찬가지로, 영상간 각도 및 위치 차이를 기초로 변환이 수행될 수 있다. 단, 다이버전트 영상은 다면체와는 달리 각 영상의 배치에 일정한 규칙이 없으므로, 영상의 특성만으로, 퍼스펙티브가 다른 영상 간 각도 차이 및 거리 차이를 알 수는 없다. 따라서, 다이버전트 영상의 퍼스펙티브 차이는 영상에 부가되는 추가 데이터(예를 들어, 메타 데이터)를 통해 부호화/시그널링될 수 있다.Like the polyhedron, the divergent image can be transformed based on the angles and positional differences between images. However, unlike a polyhedron, divergent images do not have a certain rule for the arrangement of the respective images. Therefore, it is impossible to know the angular difference and the difference in distance between images having different perspectives only by the characteristics of the image. Thus, the perspective difference of the diversity image may be encoded / signaled through additional data (e.g., metadata) added to the image.

영상 간의 퍼스펙티브 차이를 획득한 이후, 앞서 설명한 다면체와 동일한 방식으로 참조 영상이 생성될 수 있다.After obtaining the perspective difference between images, a reference image can be generated in the same manner as the above-described polyhedron.

일 예로, 도 16은 다이버전트 영상에 대한 참조 영상을 생성하는 예를 도시한 도면이다. 도 16의 (a)를 참조하면, P1 영상과 퍼스펙티브가 다른 P2 영상이 존재하는 것으로 도시되었다. P1을 기준으로 참조 영상을 생성하는 경우, P2의 전체 영역 또는 일부 영역을 P1의 퍼스펙티브에 맞춰 변환하고, 변환된 영상을 P1과 합쳐 참조 영상을 생성할 수 있다. 도 16의 (b)은, P2의 전체 영역을 변환함으로써 생성된 T2 및 P1을 합쳐 참조 영상이 생성되는 예를 나타낸 것이고, 도 16의 (c)는 P2의 일부 영역(예를 들어, 검색 범위(search range))을 변환함으로써 생성된 T'2 및 P1을 합쳐 참조 영상이 생성되는 예를 나타낸 것이다.For example, FIG. 16 shows an example of generating a reference image for a diversity image. Referring to FIG. 16 (a), it is shown that a P2 image having a different perspective from the P1 image exists. In the case of generating a reference image with reference to P1, it is possible to convert the entire region or a partial region of P2 to match the perspective of P1, and add the converted image to P1 to generate a reference image. 16B shows an example in which a reference image is generated by combining T2 and P1 generated by converting the entire area of P2, and FIG. 16C shows an example in which a partial area of P2 (for example, (search range)), and a reference image is generated by combining T'2 and P1.

다이버전트 영상의 경우, 퍼스펙티브의 기준이 되는 영상을 중심으로 변환 영상의 위치가 결정될 수 있다. 이때, 변환 영상의 위치는 각 영상의 위치 정보를 기초로 결정될 수 있다. 변환 영상의 위치가 결정되면, 퍼스펙티브의 기준이 되는 영상과 변환 영상을 합하여 참조 영상이 생성될 수 있다.In the case of the diversity image, the position of the transformed image can be determined with respect to the image serving as the reference of the perspective. At this time, the position of the transformed image can be determined based on the position information of each image. When the position of the transformed image is determined, a reference image can be generated by adding the transformed image and the reference image.

일 예로, 도 17은 퍼스펙티브의 기준이 되는 영상과 변환 영상을 합쳐 참조 영상을 생성하는 예를 나타낸 도면이다. 도 17에 도시된 예에서, P2 영상을 변환함으로써 생성된 T2는, 다이버전트의 기준이 되는 영상 P1을 중심으로 오른쪽에 위치하는 것으로 예시되었다. 이에 따라, P1 영상의 우측에 변환 영상 T2의 적어도 일부를 생성함으로써, 참조 영상 R1을 생성할 수 있다.For example, FIG. 17 is a diagram illustrating an example of generating a reference image by combining a reference image and a transformed image. In the example shown in Fig. 17, T2 generated by converting the P2 image is illustrated as being located on the right side of the image P1 as the reference of the diversity. Thus, by generating at least a part of the transformed image T2 on the right side of the P1 image, the reference image R1 can be generated.

컨버전트 영상은 복수 카메라의 촬영 방향이 어느 한 곳을 향해 수렴하는 형태를 띨 때 촬영되는 영상을 의미한다. 컨버전트 영상 역시 퍼스펙티브가 다른 복수의 영상을 포함할 수 있다. 일 예로, 도 18은 컨버전트 영상을 예시한 도면이다. 도 18에 도시된 예에서, 카메라, C1, C2, C3 및 C4의 촬영 방향 W1, W2, W3 및 W4는 한 점을 향하는 것으로 예시되었다. 이 결과, P1, P2, P3 및 P4를 포함하는 컨버전트 영상이 생성되는 것으로 예시되었다.The convergent image refers to an image that is captured when the photographing directions of a plurality of cameras converge toward one place. The convergent image may also include a plurality of images having different perspectives. For example, FIG. 18 is a diagram illustrating a converter image. In the example shown in Fig. 18, the photographing directions W1, W2, W3 and W4 of the camera, C1, C2, C3 and C4 are illustrated as facing one point. As a result, a convergent image including P1, P2, P3, and P4 is generated.

컨버전트 영상도 다면체와 마찬가지로, 영상간 각도 및 위치 차이를 기초로 2D 변환될 수 있다. 다만, 컨버전트 영상 역시 다면체와는 달리 각 영상의 배치에 일정한 규칙이 없으므로, 영상의 특성만으로 퍼스펙티브가 다른 영상 간 간도 차이 및 거리 차이를 알 수 없다. 따라서, 컨버전트 영상의 퍼스펙티브 차이는 영상이 부가되는 추가 데이터(예를 들어, 메타 데이터)를 통해 부호화/시그널링될 수 있다.Convergent images can also be 2D converted based on angle and position differences between images, as in polyhedrons. However, unlike the polyhedron, the convergent image does not have a certain rule for the arrangement of the respective images, so that the difference in distance between the images and the difference in distance between different perspectives can not be known only by the characteristics of the image. Thus, the perspective difference of the converged image may be encoded / signaled through additional data (e.g., metadata) to which the image is appended.

컨버전트 영상은, 다면체 혹은 다이버전트 영상과는 달리, 영상의 시점이 특정 방향을 향한다. 이에 따라, 컨버전트 영상은 위치가 연속되면서 같은 방향으로 확장된 영상을 복수개 포함할 수 있다. 이에 따라, 컨버전트 영상의 참조 영상을 생성할 시, 동위치에 변환이 가능한 이웃 영상들이 여러 개 존재한다는 특징이 있다. 이 경우, 특정 영상 및 특정 영상에 동위치에 존재하는 이웃 영상들 중 적어도 일부를 변환함으로써 생성된 변환 영상에 기초하여, 참조 영상이 생성될 수 있다.Unlike a polyhedral or divergent image, the viewpoint of a convergent image is oriented in a specific direction. Accordingly, the convergent image may include a plurality of images extended in the same direction while the positions are continuous. Accordingly, when generating a reference image of a convergent image, there are several neighboring images that can be converted to the same position. In this case, a reference image can be generated based on the transformed image generated by transforming at least a part of the neighboring images existing in the same position in the specific image and the specific image.

컨버전트 영상과 같이 퍼스펙티브가 다른 영상간의 위치 차이가 크지 않은 경우, 다면체 혹은 다이버전트 영상과는 달리, 생성된 변환 영상은 다음의 양상을 띨 수 있다. Unlike a polyhedral or divergent image, when the positional difference between images having different perspectives is not large, such as a convergent image, the generated converted image may have the following pattern.

첫번째 양상은, 특정 영상의 퍼스펙티브에 맞춰 변환된 이웃 영상이 특정 영상과 중첩되지 않는 영역을 충분히 포함하고 있는 경우이다. 바꿔 말하면, 특정 영역에 부가되는 확장 영역(즉, 변환된 이웃 영상 중 특정 영상과 중첩되지 않는 부분)이 필수 정보(예를 들어, 시간적 예측에 필요한 영역)를 포함하는 경우이다. 이 때에는, 앞서 다면체 혹은 다이버전트 영상에서 참조 영상을 생성하는 것과 동일한 방법이 적용될 수 있다.The first aspect is that a neighboring image converted to a perspective of a specific image includes a region that does not overlap with a specific image. In other words, an extended area added to a specific area (i.e., a part of the converted neighboring image that does not overlap with a specific image) includes essential information (for example, an area necessary for temporal prediction). In this case, the same method as that for generating the reference image in the polyhedron or divergent image may be applied.

두번째 양상은, 특정 영상의 퍼스펙티브에 맞춰 변환된 이웃 영상이 특정 영상과 대부분 중첩되는 경우이다. 바꿔 말하면, 특정 영역에 부가되는 확장 영역이 충분한 추가 정보(예를 들어, 시간적 예측에 필요한 영역)을 포함하지 않는 경우이다. 특정 영역에 부가되는 확장 영역이 충분한 추가 정보를 포함하지 않는다면, 시간적 예측에 참조 영상을 사용하기 어렵다.The second aspect is that the neighboring image converted to the perspective of the specific image is mostly overlapped with the specific image. In other words, an extended area added to a specific area does not include sufficient additional information (for example, an area required for temporal prediction). It is difficult to use a reference image for temporal prediction if the extended area added to the specific area does not include sufficient additional information.

도 19를 참조하여, 각 양상에 대해 보다 상세히 살펴보기로 한다.Referring to Fig. 19, each aspect will be described in more detail.

도 19는 변환 영상이 시간적 예측에 필수적인 영역을 포함하는지 여부를 예시한 도면이다.19 is a diagram illustrating whether or not a transformed image includes an area essential for temporal prediction.

설명의 편의를 위해, 컨버전트 영상은 도 19의 (a)에 도시된 예에서와 같이, 복수의 영상(P1, P2, P3...PN)을 포함하는 것으로 가정한다. 도 19의 (b)는 P1 영상에 이웃하는 P2 영상을 P1 영상의 퍼스펙티브에 맞춰 변환하는 예를 도시한 도면이다. 도 19의 (b)에 도시된 예에서와 같이, P1 영상에 이웃하는 적어도 하나의 영상을 P1 영상의 퍼스펙티브에 맞춰 변환함으로써, P1 영상에 대한 참조 영상을 생성할 수 있다. 이때, 변환된 이웃 영상들은 P1 영상과의 중첩 정도에 따라 필수 영역을 온전히 포함할 수도 있고, 필수 영역을 온전히 포함하지 못할 수도 있다. 일 예로, 도 19의 (c)에서는, P2 영상으로부터 변환된 영상 T2는 필수 영역(예를 들어, 검색 범위(Search Range))보다 작은 영역을 포함하나, P3 영상으로부터 변환된 영상 T3는 필수 영역을 포함하는 것으로 예시되었다.For convenience of explanation, it is assumed that the convergent image includes a plurality of images P1, P2, P3 ... PN, as in the example shown in Fig. 19 (a). FIG. 19B is a diagram showing an example of converting a P2 image neighboring the P1 image to a perspective of the P1 image. As in the example shown in FIG. 19 (b), a reference image for the P1 image can be generated by converting at least one image neighboring the P1 image to a perspective of the P1 image. At this time, the converted neighboring images may completely include the required area or not completely include the required area according to the degree of overlap with the P1 image. For example, in FIG. 19C, the image T2 converted from the P2 image includes an area smaller than a required area (for example, a search range) . ≪ / RTI >

도 19의 (c)에 도시된 T2 영상과 같이, 변환된 영상이 필요한 최소한의 영역을 포함하지 않는다면, 시간적 예측에 이용하기 어려울 수 있다. 이 경우, 변환된 이웃 영역의 픽셀값을 이용하여, 시간적 예측을 수행하는데 모자란 영역을 패딩하여, 참조 영상을 생성할 수 있다. 즉, 시간적 예측에 이용하기 위해 필수적으로 포함되어야 하는 영역 중 이웃 영상의 변환분으로부터 획득할 수 없는 영역을 변환된 이웃 영역의 엣지 샘플을 이용하여 패딩할 수 있다.As in the case of the T2 image shown in (c) of FIG. 19, if the transformed image does not include the minimum area required, it may be difficult to use it for temporal prediction. In this case, the reference image can be generated by padding the insufficient area to perform the temporal prediction using the pixel value of the transformed neighboring area. That is, an area that can not be obtained from the conversion of the neighboring image among the areas that are necessarily included for temporal prediction can be padded using the edge sample of the converted neighboring area.

도 20은 컨버전트 영상에 대한 참조 영상을 생성하는 예를 도시한 도면이다. 도 19의 (c)에 도시된 변환 영상 T2를 통해 설명한 바와 같이, P2 영상에 대해 P1과 중첩되는 부분을 제외한 잔여 영역이 충분히 넓지 않은 경우, P2를 변환한 영상 T2 역시 시간적 예측에 사용하기 위한 필수 영역을 포함하지 않게 될 수 있다. 이 경우, 도 20의 (a) 및 (b)에 도시된 예에서와 같이, T2 영상의 엣지 샘플을 이용하여, 예측에 이용하기 위해 필요한 영역을 패딩할 수 있다.20 is a diagram illustrating an example of generating a reference image for a convergent image. As described with reference to the transformed image T2 shown in FIG. 19 (c), when the residual region excluding the portion overlapping P1 with respect to the P2 image is not sufficiently wide, the image T2 obtained by transforming P2 is also used for temporal prediction It may not include the required area. In this case, as in the example shown in Figs. 20A and 20B, an edge sample of the T2 image can be used to pad an area necessary for prediction.

도 20의 (a)는 P2 영상을 오른쪽으로 변환 확장 시, 오른쪽 엣지 샘플을 이용하여 잔여 영역을 패딩하는 예를 나타낸 것이고, 도 20의 (b)는 P2 영상을 위쪽으로 변환 확장 시, 위쪽 엣지 샘플을 이용하여 잔여 영역을 패딩하는 예를 나타낸 것이다.FIG. 20A shows an example of padding the remaining area using the right edge sample when the P2 image is converted to the right and FIG. 20B shows an example of padding the remaining area using the right edge sample. And the remaining area is padded using the sample.

도 20에서는 컨버전트 영상을 예로 들어 설명하였으나, 컨버전트 영상뿐만 아니라, 전방향 영상 또는 다이버전트 영상 등에 있어서도 변환된 영상이 예측 이용에 필요한 영역을 충분히 포함하고 있지 않은 경우 적용될 수 있다 할 것이다.In FIG. 20, a convergent image has been described as an example. However, the present invention can be applied not only to a convergent image but also to an omnidirectional image or a diversity image if the converted image does not sufficiently include a region necessary for prediction use.

컨버전트 영상의 경우, 퍼스펙티브의 기준이 되는 영상을 중심으로 변환 영상의 위치가 결정될 수 있다. 이때, 변환 영상의 위치는 각 영상의 위치 정보를 기초로 결정될 수 있다. 컨버전트 영상의 경우 동일 위치로 확장되는 여러 변환영상을 획득할 수 있으므로, 퍼스펙티브의 기준이 되는 영상과 각각의 변환 영상을 합쳐 적어도 하나 이상의 참조 영상을 생성할 수 있다.In the case of the convergent image, the position of the transformed image can be determined centering on the image that is the reference of the perspective. At this time, the position of the transformed image can be determined based on the position information of each image. In the case of the convergent image, since a plurality of transformed images extending to the same position can be obtained, at least one reference image can be generated by combining the transformed image and the reference image.

일 예로, 도 21은 퍼스펙티브의 기준이 되는 영상과 변환 영상을 합쳐 참조 영상을 생성하는 예를 나타낸 도면이다. 도 21에 도시된 예에서, P2 영상을 변환함으로써 생성된 T2와 P1 영상을 합쳐 참조 영상 R1을 생성하고, P3 영상을 변환함으로써 생성된 T3와 P1 영상을 합쳐 참조 영상 R2를 생성할 수 있다. 이와 같은 방식으로, P1 영상을 기준으로, N개의 변환 영상에 대해 N-1개의 변환 영상이 생성될 수 있다.For example, FIG. 21 is a diagram showing an example of generating a reference image by combining a reference image and a transformed image as perspectives. In the example shown in FIG. 21, a reference image R1 is generated by combining T2 and P1 images generated by transforming a P2 image, and a reference image R2 can be generated by combining T3 and P1 images generated by transforming a P3 image. In this manner, N-1 transformed images can be generated for N transformed images based on the P1 image.

참조 영상이 생성되면, 참조 영상은 참조 영상 리스트에 저장될 수 있다(S960). 아울러, 공간적으로 연속하는 퍼스펙티브가 다른 영상이 존재하지 않는 경우(S910), 현재 영상을 참조 영상으로 참조 픽처 리스트에 저장할 수 있다(S960).When the reference image is generated, the reference image may be stored in the reference image list (S960). If there is no other video in the spatially continuous perspective (S910), the current image can be stored as a reference picture in the reference picture list (S960).

생성된 참조 영상을 참조 영상 리스트에 저장하는 경우, 참조 영상은 동일한 시간대를 기준으로 그룹화되어 저장될 수 있다.When the generated reference images are stored in the reference image list, the reference images can be grouped and stored based on the same time period.

도 22는 정육면체 형태로 전개되는 전방향 영상에 대한 참조 영상 리스트가 생성되는 예를 도시한 도면이다.22 is a view showing an example in which a reference image list for an omnidirectional image developed in the form of a cube is generated.

전방위 영상이 정육면체로 전개됨을 가정할 경우, 특정 시간대의 퍼스펙티브의 기준이 되는 영상에 대해 하나의 참조 영상이 생성될 수 있다. 특정 시간대에서 퍼스펙티브의 기준이 될 수 있는 영상은 총 6개 이므로, 특정 시간대에 최대 6개의 참조 영상이 생성될 수 있다. 이에 따라, 특정 시간의 복수의 참조 영상은 그룹화되어 저장될 수 있다.Assuming that the omni-directional image is developed as a cube, one reference image can be generated for the reference image of the perspective of the specific time period. Since there are a total of six images that can be the reference of a perspective in a specific time period, a maximum of six reference images can be generated in a specific time period. Accordingly, a plurality of reference images at a specific time can be grouped and stored.

일 예로, t0 시간대의 전방위 영상에 대해, 총 6개의 참조 영상(P1의 퍼스펙티브를 기준으로 생성된 참조 영상 R1, P2의 퍼스펙티브를 기준으로 생성된 참조 영상 R2,...P6의 퍼스펙티브를 기준으로 생성된 참조 영상 R6)이 생성될 수 있다. t0 시간대를 기준으로 생성된 참조 영상은 하나의 그룹으로 그룹화되어 저장될 수 있다. 이와 마찬가지로, t1, t2, ...tN 등 참조 영상 리스트는 소정 시간대를 기준으로 그룹화되어 리스트에 저장될 수 있다.For example, with respect to the omni-directional image in the time t0, a total of six reference images (based on the perspective of the reference images R2, ..., P6 generated based on the perspectives of the reference images R1, P2 generated based on the perspective of P1) The generated reference image R6) can be generated. The reference images generated based on the time slot t0 may be grouped into one group and stored. Likewise, reference image lists such as t1, t2, ..., tN can be grouped based on a predetermined time period and stored in a list.

도 23은 다이버전트 영상에 대한 참조 영상 리스트가 생성되는 예를 도시한 도면이다.23 is a diagram showing an example in which a reference image list for a diversity image is generated.

다이버전트 영상의 경우, 특정 시간대의 퍼스펙티브의 기준이 되는 영상에 대해 하나의 참조 영상이 생성될 수 있다. 퍼스펙티브의 기준이 되는 영상의 수는 다이버전트 영상을 촬영하는 카메라 수에 의해 결정되므로, 특정 시간대에 카메라 수 만큼 참조 영상이 생성될 수 있을 것이다. 다면체로 전개되는 전방위 영상과 마찬가지로, 다이버전트 영상의 특정 시간대의 복수의 참조 영상이 그룹화되어 저장될 수 있다.In the case of a diversity image, one reference image can be generated for an image that is a reference of a perspective of a specific time period. Since the number of images to be the reference of the perspective is determined by the number of cameras that capture the diversity image, a reference image can be generated by the number of cameras in a specific time period. A plurality of reference images in a specific time zone of the diversity image can be grouped and stored, as in the case of an omni-directional image developed in a polyhedron.

일 예로, t0 시간대의 다이버전트 영상에 대해, 총 3개의 참조 영상(P1의 퍼스펙티브를 기준으로 생성된 참조 영상 R1, P2의 퍼스펙티브를 기준으로 생성된 참조 영상 R2 및 P3의 퍼스펙티브를 기준으로 생성된 참조 영상 R3)이 생성되었다고 가정하였을 경우, t0 시간대를 기준으로 생성된 3개의 참조 영상이 하나의 그룹으로 그룹화되어 저장될 수 있다. 이와 마찬가지로, t1, t2, ...tN 등 참조 영상 리스트는 소정 시간대를 기준으로 그룹화되어 리스트에 저장될 수 있다.For example, for a diversity image of the time t0, a total of three reference images (generated from the perspective of the reference images R2 and P3 generated based on the perspectives of the reference images R1 and P2 generated based on the perspective of the reference images P1 If the reference image R3 is generated, the three reference images generated based on the time t0 may be grouped into one group and stored. Likewise, reference image lists such as t1, t2, ..., tN can be grouped based on a predetermined time period and stored in a list.

도 24는 컨버전트 영상에 대한 참조 영상 리스트가 생성되는 예를 도시한 도면이다.24 is a diagram showing an example in which a reference image list for a convergent image is generated.

컨버전트 영상의 경우, 특정 시간대의 퍼스펙티브의 기준이 되는 영상에 대해 적어도 하나 이상의 참조 영상이 생성될 수 있다. 일 예로, 퍼스펙티브의 기준이 되는 영상이 P1 영상일 때, P1 영상 및 P2 영상에 기초하여 제1 참조 영상 R1을 생성하고, P1 영상 및 P3 영상에 기초하여 제2 참조 영상이 생성될 수 있다. 컨버전트 영상의 참조 영상도, 전방위 영상과 마찬가지로, 특정 시간대에 생성된 복수의 참조 영상이 그룹화되어 저장될 수 있다.In the case of a convergent image, at least one reference image may be generated for an image that is a reference of a perspective of a specific time period. For example, when the reference image is a P1 image, the first reference image R1 may be generated based on the P1 image and the P2 image, and the second reference image may be generated based on the P1 image and the P3 image. The reference image of the convergent image can also be grouped and stored as a plurality of reference images generated in a specific time zone, like the omnidirectional image.

일 예로, t0 시간대의 컨버전트 영상에 대해, P1의 퍼스펙티브를 기준으로 생성된 N개의 참조 영상, P2의 퍼스펙티브를 기준으로 생성된 N개의 참조 영상, ... PN의 퍼스펙티브를 기준으로 생성된 N개의 참조 영상 등이 존재할 수 있다. 이 경우, t0 시간대를 기준으로 생성된 복수의 참조 영상이 하나의 그룹으로 그룹화되어 저장될 수 있다. 이와 마찬가지로, t1, t2, ...tN 등 참조 영상 리스트는 소정 시간대를 기준으로 그룹화되어 리스트에 저장될 수 있다.For example, for a convergent image at time t0, N reference images generated based on the perspective of P1, N reference images generated based on the perspective of P2, ..., N generated based on the perspectives of PN Reference images may be present. In this case, a plurality of reference images generated based on the time slot t0 may be grouped into one group and stored. Likewise, reference image lists such as t1, t2, ..., tN can be grouped based on a predetermined time period and stored in a list.

도 22 내지 도 24에서는 복수의 참조 영상이 시간대를 기준으로 그룹화되어 저장되는 것으로 예시되었다. 도시된 예와 달리, 복수의 참조 영상은 퍼스펙티브 기준이 되는 영상을 기준으로 그룹화되어 저장될 수도 있다 할 것이다.22 to 24 illustrate that a plurality of reference images are grouped and stored based on time zones. Unlike the illustrated example, a plurality of reference images may be grouped and stored based on an image serving as a perspective reference.

참조 영상을 선택하기 위해, 참조 영상을 선택하기 위한 정보가 부호화/시그널링될 수 있다. 이때, 참조 영상을 선택하기 위한 정보는 참조 영상이 포함된 시간에 대한 정보 또는 해당 시간대에 포함된 복수의 참조 영상 중 적어도 하나를 식별하기 위한 정보 중 적어도 하나를 포함할 수 있다.To select a reference image, information for selecting a reference image may be encoded / signaled. At this time, the information for selecting a reference image may include at least one of information about a time when the reference image is included or information for identifying at least one of a plurality of reference images included in the corresponding time zone.

도 22를 예로 들어, 참조 영상을 선택하기 위한 정보가 t0 시간 대의 P1의 퍼스펙티브를 기준으로 생성된 참조 영상을 가리키고 있다면, 해당 시간대의 해당 참조 영상이 시간적 예측을 위해 이용될 수 있을 것이다.Taking FIG. 22 as an example, if the information for selecting a reference image indicates a reference image generated based on the perspective of P1 at time t0, a corresponding reference image in the corresponding time zone may be used for temporal prediction.

다른 예로, 특정 시간대에 포함된 복수의 참조 영상 중 어떤 것을 선택할 것인지는, 현재 부호화/복호화하고자 하는 영역의 위치를 기초로 선택될 수 있다. 예를 들어, 현재 부호화/복호화하고자 하는 영역이 정육면체의 P6 면에 포함되어 있다면, 부호화기 및 복호화기는 P6의 퍼스펙티브를 기준으로 생성된 참조 영상을 시간적 예측에 이용할 수 있다.As another example, the selection of a plurality of reference images included in a specific time zone can be selected based on the position of an area to be currently encoded / decoded. For example, if the current region to be encoded / decoded is included in the P6 plane of the cube, the encoder and decoder can use the reference image generated based on the perspective of P6 for temporal prediction.

상술한 바와 같이, 공간적으로 이웃하는 영상 간 퍼스펙티브가 다를 경우, 영상의 경계를 기준으로 투영된 사물의 모양이 퍼스펙티브에 따라 달라지는 왜곡이 발생할 수 있다. 위와 같이, 영상 간 경계에서 왜곡으로 인한 부호화/복호화 효율을 저하하기 위해, 참조에 사용할 임의 시점 영상에 대해, 임의 영상(또는 영역)의 퍼스펙티브에 맞춰 이에 이웃하는 영상(또는 영역)을 변환과정을 거침으로써, 부호화/복호화 효율을 향상시킬 수 있다. As described above, when the perspective between spatially neighboring images is different, a distortion may occur in which the shape of the projected object varies depending on perspectives based on the boundary of the image. In order to reduce coding / decoding efficiency due to distortion at the boundary between images, a process of converting a neighboring image (or region) in accordance with a perspective of an arbitrary image (or region) By doing so, the encoding / decoding efficiency can be improved.

도 25는 본 발명에 따라 참조 영상을 생성하는 경우와 그렇지 않은 경우를 비교하기 위한 도면이다.25 is a diagram for comparing a case where a reference image is generated according to the present invention and a case where a reference image is not generated according to the present invention.

도 25의 (a)에 도시된 예에서와 같이, 이웃 영상을 변환하지 않은 채 시간적 예측을 사용한다면, 면의 경계에서 퍼스펙티브 차에 의한 왜곡이 발생하게 된다. 도 25의 (a)에서는 P6 면의 경계에서, 비선형적 왜곡이 발생하는 것이 도시되어 있다. 이에 따라, 특정 영상의 경계 부분을 기초로 시간적 예측을 수행하고자 하는 경우, 퍼스펙티브 차이로 인해 시간적 예측 효율이 감소하는 문제점이 발생할 수 있다.If temporal prediction is used without transforming the neighboring image as in the example shown in Fig. 25A, distortion due to the perspective difference occurs at the boundary of the plane. In Fig. 25 (a), nonlinear distortion occurs at the boundary of the P6 plane. Accordingly, when temporal prediction is to be performed based on a boundary portion of a specific image, temporal prediction efficiency may be reduced due to differences in perspectives.

그러나, 도 25의 (b)에 도시된 예에서와 같이, 이웃 영상을 변환하여, 참조 영상을 생성하고, 생성된 참조 영상을 기초로 시간적 예측을 사용한다면, 면의 경계에서의 왜곡을 현저히 줄일 수 있다. 도 25의 (b)에 도시된 예에서는 P6 면의 경계에 존재했던 비선형 변화가 선형적으로 변환된 것이 예시되었다. 이에 따라, 특정 영상의 경계 기분을 기초로 시간적 예측을 수행한다 하더라도, 퍼스펙티브 차이에 따른 왜곡이 적어 시간적 예측 효율을 향상시킬 수 있게 된다.However, as in the example shown in FIG. 25 (b), if a neighboring image is transformed to generate a reference image and temporal prediction is used based on the generated reference image, the distortion at the boundary of the plane is significantly reduced . In the example shown in FIG. 25 (b), nonlinear changes existing on the boundary of the P6 plane are linearly transformed. Accordingly, even if the temporal prediction is performed based on the boundary of a specific image, the temporal prediction efficiency can be improved due to less distortion due to the perspective difference.

위처럼, 이웃 영상이 변환되지 않은 채 시간적 예측을 수행하는 경우, 영상의 부호화/복호화시 영상의 경계에 위치한 블록을 기초로 시간적 예측을 수행하기 어렵다. 이에 따라, 이웃 영상이 변환되지 않은 상태에서, 퍼스펙티브가 변화하는 경계에 인접한 경계 블록들은, 시간적 예측보다 공간적 예측을 통해 부호화되는 것이 일반적이다.As described above, when the temporal prediction is performed without converting the neighboring image, it is difficult to perform temporal prediction based on the block located at the boundary of the image when encoding / decoding the image. Accordingly, in a state in which the neighboring image is not transformed, boundary blocks adjacent to the boundary where the perspective changes are generally encoded through spatial prediction rather than temporal prediction.

그러나, 본 발명에서 제안한 바와 같이, 이웃 영상을 변환하여 생성된 참조 영상을 기초로 시간적 예측을 수행하는 경우, 영상의 부호화/복호화시 영상의 경계에 위치한 블록을 기초로 시간적 예측을 수행할 수 있게 된다. 이에 따라, 퍼스펙티브가 변화하는 경계에 인접한 경계 블록들 역시 시간적 예측을 통해 부호화/복호화될 수 있어 영상 압축 효율이 높아질 수 있다.However, as described in the present invention, when temporal prediction is performed based on a reference image generated by transforming a neighboring image, temporal prediction can be performed based on a block located at a boundary of the image during encoding / decoding of the image do. Accordingly, the boundary blocks adjacent to the boundary in which the perspective changes can also be encoded / decoded through temporal prediction, so that the image compression efficiency can be enhanced.

일 예로, 도 26은 본 발명의 적용 여부에 따른 부호화 양상을 예시한 도면이다. 도 26의 (a)에 도시된 예에서와 같이, 본 발명이 적용되지 않은 상태에서, 퍼스펙티브가 변화하는 경계에 위치한 블록들은 일반적으로 인트라 예측을 통해 부호화된다. 그러나, 도 26의 (b)에 도시된 예에서와 같이, 본 발명이 적용된다면, 퍼스펙티브가 변화하는 경계에 위치한 블록들도 시간적 예측에 의해 부호화될 수 있다.For example, FIG. 26 is a diagram illustrating an encoding aspect according to whether or not the present invention is applied. As in the example shown in Fig. 26 (a), in a state where the present invention is not applied, blocks located at the boundary where the perspective changes are generally encoded through intraprediction. However, as in the example shown in Fig. 26 (b), if the present invention is applied, blocks located at the boundary where the perspective changes can also be coded by temporal prediction.

본 발명에 따르면, 예측에 이용될 영상을 확장할 것인지 여부는, 부호화 파라미터로 부호화되어, 비트스트림에 의해 시그널링될 수 있다. 일 예로, 예측에 이용될 영상을 확장할 것인지 여부는 1비트의 플래그에 의해 부호화 및 시그널링될 수 있다. 해당 플래그가 예측에 이용될 영상을 확장할 것임을 가리키는 경우, 특정 영상의 퍼스펙티브에 맞춰 이웃 영상을 변환한 뒤, 특정 영상과 이웃 영상을 합하여 참조 영상을 생성하는 방법이 적용될 수 있다. 반면, 해당 플래그가 예측에 이용될 영상을 확장할 것임을 가리키지 않는 경우, 퍼스펙티브에 기초한 변환 및 특정 영상을 확장하는 과정 등은 수행되지 않을 것이다.According to the present invention, whether or not to expand an image to be used for prediction can be encoded with encoding parameters and signaled by a bitstream. As an example, whether to expand the image to be used for prediction can be encoded and signaled by a 1-bit flag. If the flag indicates that the image to be used for prediction is to be extended, a method of generating a reference image by converting a neighboring image according to a perspective of a specific image and then summing a specific image and a neighboring image may be applied. On the other hand, if the flag does not indicate that the image to be used for prediction is to be expanded, a perspective-based conversion and a process of expanding a specific image, etc., will not be performed.

이때, 예측에 이용될 영상을 확장할 것인지 여부는, 파라미터 세트, 픽처 단위, 슬라이스 단위 또는 부호화 대상 유닛 단위로 시그널링될 수 있다. 하기 표 1은 예측에 이용될 영상을 확장할 것인지 여부를 나타내는 정보가 VPS를 통해 시그널링되는 예를 나타낸 것이고, 표 2는 상기 정보가 SPS를 통해 시그널링되는 예를 나타낸 것이다.At this time, whether or not to expand the image to be used for prediction can be signaled by a parameter set, a picture unit, a slice unit, or a unit to be coded. Table 1 shows an example in which information indicating whether or not to expand an image to be used for prediction is signaled through the VPS, and Table 2 shows an example in which the information is signaled through the SPS.

seq_parameter_set_rbsp( ) { seq_parameter_set_rbsp () { DescriptorDescriptor vps_video_parameter_set_idvps_video_parameter_set_id u(4)u (4) vps_reserved_three_2bitsvps_reserved_three_2bits u(2)u (2) vps_max_layers_minus1vps_max_layers_minus1 u(6)u (6) ... perspective_reference_picture_enabled_flagperspective_reference_picture_enabled_flag u(1)u (1) ...

seq_parameter_set_rbsp( ) { seq_parameter_set_rbsp () { DescriptorDescriptor sps_video_parameter_set_idsps_video_parameter_set_id u(4)u (4) sps_max_sub_layers_minus1sps_max_sub_layers_minus1 u(3)u (3) sps_temporal_id_nesting_flagsps_temporal_id_nesting_flag u(1)u (1) ... perspective_reference_picture_enabled_flagperspective_reference_picture_enabled_flag u(1)u (1) ...

상기 표 1 및 표 2에서, 'perspective_reference_picture_enabled_flag'는 예측에 이용될 영상을 확장할 것인지 여부를 타나낸다. 본 발명에서 제안하는 바와 같이, 영상에 이용될 영상을 확장하고자 하는 경우, 'perspective_reference_picture_enabled_flag'는 '1'로 설정되고, 영상에 이용될 영상을 확장하지 않기로 하는 경우, 'perspective_reference_picture_enabled_flag'는 '0'으로 설정될 수 있다. 또는, 영상에 이용될 영상을 확장할지 여부는 설명한 예와 반대의 값으로 설정될 수도 있다.In Table 1 and Table 2, 'perspective_reference_picture_enabled_flag' indicates whether to expand the image to be used for prediction. The perspective_reference_picture_enabled_flag 'is set to' 1 'and the perspective_reference_picture_enabled_flag is set to' 0 'when the image to be used for the image is not to be expanded, as suggested in the present invention. Can be set. Alternatively, whether to expand the image to be used for the image may be set to a value opposite to the example described above.

'perspective_reference_picture_enabled_flag'가 '1'인 경우, 참조 영상을 구성할 때 영상의 방향과 위치를 고려한 확장된 참조영상이 생성될 수 있다. 아울러, 확장된 참조 영상을 기초로 예측이 수행될 수 있다. When 'perspective_reference_picture_enabled_flag' is '1', an extended reference image can be generated considering the direction and position of the image when constructing the reference image. In addition, prediction can be performed based on the extended reference image.

본 발명에 따른 부호화기 및 복호화기의 구성에 대해서는 도 27 및 도 28을 참조하여 상세히 설명하기로 한다.The configuration of the encoder and the decoder according to the present invention will be described in detail with reference to FIG. 27 and FIG.

도 27은 본 발명에 따른 부호화기의 구성을 도시한 블록도이다.27 is a block diagram showing a configuration of an encoder according to the present invention.

부호화기는 전방향 영상의 전개도, 컨버전트 카메라 영상, 다이버전트 영상을 부호화하는 장치를 의미한다. 부호화기는 투영부(100), 화면 간 예측부(110), 화면 내 예측부(120), 변환부(130), 양자화부(140), 엔트로피 부호화부(150), 역양자화부(160), 역변환부(170), 참조 영상 확장부(180) 및 복원 픽처 버퍼(190)를 포함할 수 있다.The encoder means a device for encoding the developed view of the omnidirectional image, the converged camera image, and the divergent image. The encoder includes a projection unit 100, an inter picture prediction unit 110, an intra prediction unit 120, a transform unit 130, a quantization unit 140, an entropy coding unit 150, an inverse quantization unit 160, An inverse transform unit 170, a reference image extending unit 180, and a restored picture buffer 190. [

부호화기는 입력 영상에 대해 화면 내 예측 모드(또는 공간적 모드) 및/또는 화면 간 예측 모드(또는 시간적 모드)로 부호화를 수행할 수 있다. 또한, 부호화기는 입력 영상에 대한 부호화를 통해 비트스트림을 생성할 수 있고, 생성된 비트스트림을 출력할 수 있다. 예측 모드로 화면 내 예측 모드가 사용되는 경우 스위치는 화면 내 예측으로 전환될 수 있고, 예측 모드로 화면 간 예측 모드가 사용되는 경우 스위치는 화면 간 예측으로 전환될 수 있다. 여기서 화면 내 예측 모드는 인트라 예측 모드(즉, 공간적 예측 모드)를 의미할 수 있으며, 화면 간 예측 모드는 인터 예측 모드(즉, 시간적 예측 모드)를 의미할 수 있다. The encoder can perform encoding on an input image in an intra prediction mode (or a spatial mode) and / or an inter prediction mode (or temporal mode). Also, the encoder can generate a bitstream by encoding the input image, and output the generated bitstream. When the intra prediction mode is used in the prediction mode, the switch can be switched to intra prediction, and when the inter prediction mode is used in the prediction mode, the switch can be switched to inter prediction. Here, the intra prediction mode may mean an intra prediction mode (i.e., a spatial prediction mode), and the inter prediction mode may mean an inter prediction mode (i.e., a temporal prediction mode).

부호화기는 입력 영상의 입력 블록에 대한 예측 신호를 생성할 수 있다. 블록 단위의 예측 신호는 예측 블록이라 칭해질 수 있다. 또한, 부호화기는 예측 블록이 생성된 후, 입력 블록 및 예측 블록의 차분(residual)을 부호화할 수 있다. 입력 영상은 현재 부호화의 대상인 현재 영상으로 칭해질 수 있다. 입력 블록은 현재 부호화의 대상인 현재 블록 혹은 부호화 대상 블록으로 칭해질 수 있다.The encoder may generate a prediction signal for an input block of the input image. The prediction signal in block units can be referred to as a prediction block. Also, after the prediction block is generated, the encoder can code the residual of the input block and the prediction block. The input image can be referred to as the current image which is the object of the current encoding. The input block may be referred to as the current block or the current block to be coded.

투영부(100)는 전방향 영상 또는 다이버전트 영상 등을 등장방형 또는 다면체의 전개도 등 2차원 형태로 투영하는 역할을 수행한다. 이를 통해, 불규칙적인 각도와 위치를 갖는 여러 개의 영상이 다면체의 전개도에 맞는 2차원 영상으로 변환될 수 있다. 투영부는 카메라들의 위치 및 각도 등을 이용하여, 전방향 영상 또는 다이버전트 영상 등을 2차원 영상으로 변환할 수도 있다.The projection unit 100 serves to project an omnidirectional image or a divergent image in a two-dimensional form such as an expansion plan or an expanded view of a polyhedron. Thus, several images having irregular angles and positions can be converted into two-dimensional images corresponding to the developed view of the polyhedron. The projection unit may convert an omnidirectional image or a divergent image into a two-dimensional image using the positions and angles of the cameras.

예측 모드가 인트라 모드인 경우, 화면 내 예측부(120)는 현재 블록의 주변에 이미 부호화된 블록의 픽셀 값을 참조 화소로서 이용할 수 있다. 화면 내 예측부(120)는 참조 화소를 이용하여 공간적 예측을 수행할 수 있고, 공간적 예측을 통해 입력 블록에 대한 예측 샘플들을 생성할 수 있다. When the prediction mode is the intra mode, the intra prediction unit 120 can use the pixel value of the block already coded around the current block as a reference pixel. The intra prediction unit 120 can perform spatial prediction using reference pixels and generate prediction samples for an input block through spatial prediction.

예측 모드가 인터 모드인 경우, 화면 간 예측부(110)는, 움직임 예측 과정에서 참조 영상으로부터 입력 블록과 가장 매치가 잘 되는 영역을 검색할 수 있고, 검색된 영역을 이용하여 움직임 벡터를 도출할 수 있다. 참조 영상은 참조 픽처 버퍼(190)에 저장될 수 있다.If the prediction mode is the inter mode, the inter-picture prediction unit 110 can search the reference picture for the best match with the input block in the motion estimation process, and derive the motion vector using the searched area have. The reference picture may be stored in the reference picture buffer 190.

감산기는 입력 블록 및 예측 블록의 차분을 사용하여 잔여 블록(residual block)을 생성할 수 있다. 잔여 블록은 잔여 신호로 칭해질 수도 있다.The subtractor may generate a residual block using the difference between the input block and the prediction block. The residual block may be referred to as a residual signal.

변환부(130)는 잔여 블록에 대해 변환(transform)을 수행하여 변환 계수(transform coefficient)를 생성할 수 있고, 변환 계수를 출력할 수 있다. 여기서, 변환 계수는 잔여 블록에 대한 변환을 수행함으로써 생성된 계수 값일 수 있다. 변환 생략(transform skip) 모드가 적용되는 경우, 변환부(130)는 잔여 블록에 대한 변환을 생략할 수도 있다.The transforming unit 130 may perform a transform on the residual block to generate a transform coefficient and output the transform coefficient. Here, the transform coefficient may be a coefficient value generated by performing a transform on the residual block. When the transform skip mode is applied, the transforming unit 130 may skip transforming the residual block.

변환 계수에 양자화를 적용함으로써 양자화된 변환 계수 레벨(transform coefficient level)이 생성될 수 있다. 이하, 실시예들에서는 양자화된 변환 계수 레벨도 변환 계수로 칭해질 수 있다.A quantized transform coefficient level can be generated by applying quantization to the transform coefficients. Hereinafter, in the embodiments, the quantized transform coefficient level may also be referred to as a transform coefficient.

양자화부(140)는 변환 계수를 양자화 매개변수에 따라 양자화함으로써 양자화된 변환 계수 레벨(transform coefficient level)을 생성할 수 있고, 양자화된 변환 계수 레벨을 출력할 수 있다. 이때, 양자화부(140)에서는 양자화 행렬을 사용하여 변환 계수를 양자화할 수 있다.The quantization unit 140 may generate a quantized transform coefficient level by quantizing the transform coefficient according to the quantization parameter, and output the quantized transform coefficient level. At this time, the quantization unit 140 can quantize the transform coefficient using the quantization matrix.

엔트로피 부호화부(150)는, 양자화부(140)에서 산출된 값들 또는 부호화 과정에서 산출된 부호화 파라미터(Coding Parameter) 값들 등에 대하여 확률 분포에 따른 엔트로피 부호화를 수행함으로써 비트스트림(bitstream)을 생성할 수 있고, 비트스트림을 출력할 수 있다. 엔트로피 부호화부(150)는 영상의 픽셀의 정보 외에 영상의 복호화를 위한 정보에 대한 엔트로피 부호화를 수행할 수 있다. 예를 들면, 영상의 복호화를 위한 정보는 구문 요소(syntax element) 등을 포함할 수 있다. The entropy encoding unit 150 can generate a bitstream by performing entropy encoding based on the values calculated by the quantization unit 140 or the coding parameters calculated in the encoding process according to the probability distribution And can output a bit stream. The entropy encoding unit 150 may perform entropy encoding on information for decoding an image in addition to information on pixels of the image. For example, the information for decoding the image may include a syntax element or the like.

부호화기가 인터 예측을 통한 부호화를 수행할 경우, 부호화된 현재 영상은 이후에 처리되는 다른 영상(들)에 대하여 참조 영상으로서 사용될 수 있다. 따라서, 부호화기는 부호화된 현재 영상을 다시 복호화할 수 있고, 복호화된 영상을 참조 영상으로 저장할 수 있다. 복호화를 위해 부호화된 현재 영상에 대한 역양자화 및 역변환이 처리될 수 있다.When the encoder performs encoding with inter prediction, the encoded current image can be used as a reference image for another image (s) to be processed later. Accordingly, the encoder can decode the encoded current image again, and store the decoded image as a reference image. The inverse quantization and inverse transform of the current encoded image for decoding can be processed.

양자화된 계수는 역양자화부(160)에서 역양자화(dequantization)될 수 있고. 역변환부(170)에서 역변환(inverse transform)될 수 있다. 역양자화 및 역변환된 계수는 가산기(175)를 통해 예측 블록과 합해질 수 있다. 역양자화 및 역변환을 통해 생성된 잔차 블록을 예측 블록과 합함으로써 복원 블록(reconstructed block) 이 생성될 수 있다.The quantized coefficients can be dequantized in the inverse quantization unit 160. And may be inverse transformed by the inverse transform unit 170. The dequantized and inverse transformed coefficients may be summed with the prediction block via an adder 175. A reconstructed block can be generated by adding the residual block generated through the inverse quantization and inverse transform to the prediction block.

도시되지는 않았지만, 복원 블록은 필터부를 거칠 수 있다. 필터부는 디블록킹 필터(deblocking filter), 샘플 적응적 오프셋(Sample Adaptive Offset; SAO), 적응적 루프 필터(Adaptive Loop Filter; ALF) 중 적어도 하나 이상을 복원 블록 또는 복원 영상에 적용할 수 있다. 필터부는 인루프 필터(in-loop filter)로 칭해질 수도 있다.Although not shown, the restoration block may be routed through the filter portion. The filter unit may apply at least one of a deblocking filter, a sample adaptive offset (SAO), and an adaptive loop filter (ALF) to a reconstructed block or reconstructed image. The filter portion may also be referred to as an in-loop filter.

참조 영상 확장부(180)는 복원된 전방향 영상, 다이버전트 영상 또는 컨버전트 영상이 포함하는 영상 각각의 퍼스펙티브에 맞춰 참조 영상을 생성하는 역할을 수행한다. 참조 영상 확장부를 통해 생성된 참조 영상은 시간대별 또는 퍼스펙티브 별로 그룹화되어 참조 픽처 버퍼(190)에 저장될 수 있다. 참조 영상 확장부에 대해서는 도 29를 참조하여 보다 상세히 설명하기로 한다.The reference image extension unit 180 generates a reference image according to perspectives of the restored forward direction image, diversity image, or image included in the convergent image. The reference images generated through the reference image expanding unit may be grouped by time period or perspective and stored in the reference picture buffer 190. The reference image expanding unit will be described in more detail with reference to FIG.

도 28은 본 발명에 따른 복호화기의 구성을 도시한 블록도이다. 28 is a block diagram showing a configuration of a decoder according to the present invention.

도 28을 참조하면, 복호화기는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 화면 내 예측부(240), 화면 간 예측부(250), 참조 영상 확장부(260) 및 참조 픽처 버퍼(270)를 포함할 수 있다.28, the decoder includes an entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 230, an intra prediction unit 240, an inter prediction unit 250, a reference image expansion unit 260 And a reference picture buffer 270. [

복호화기는 부호화기에서 출력된 비트스트림을 수신할 수 있다. 복호화기는 비트스트림에 대하여 인트라 모드 또는 인터 모드로 복호화를 수행할 수 있다. 또한, 복호화기는 복호화를 통해 복원 영상을 생성할 수 있고, 복원 영상을 출력할 수 있다.The decoder may receive the bit stream output from the encoder. The decoder may perform decoding in an intra mode or an inter mode with respect to the bit stream. Also, the decoder can generate a reconstructed image through decoding and output a reconstructed image.

복호화에 사용되는 예측 모드가 인트라 모드인 경우 스위치가 인트라로 전환될 수 있다. 복호화에 사용되는 예측 모드가 인터 모드인 경우 스위치가 인터로 전환될 수 있다.When the prediction mode used for decoding is the intra mode, the switch can be switched to intra. When the prediction mode used for decoding is the inter mode, the switch can be switched to the inter.

복호화기는 입력된 비트스트림으로부터 복원된 잔여 블록(reconstructed residual block)을 획득할 수 있고, 예측 블록을 생성할 수 있다. 복원된 잔여 블록 및 예측 블록이 획득되면, 복호화기는 복원된 잔여 블록과 및 예측 블록을 더함으로써 복호화 대상 블록인 복원 블록을 생성할 수 있다. 복호화 대상 블록은 현재 블록으로 칭해질 수 있다.The decoder can obtain a reconstructed residual block from the input bitstream, and can generate a prediction block. Once the restored residual block and the prediction block are obtained, the decoder can generate a restoration block, which is a block to be decoded, by adding the restored residual block and the prediction block. The block to be decoded can be referred to as a current block.

엔트로피 복호화부(210)는 비트스트림에 대한 확률 분포에 따른 엔트로피 복호화를 수행함으로써 심볼들을 생성할 수 있다. 생성된 심볼들은, 양자화된 변환 계수 레벨(transform coefficient level) 형태의 심볼 및 영상 데이터의 복호화를 위해 필요한 정보를 포함할 수 있다. 여기에서, 엔트로피 복호화 방법은 상술된 엔트로피 부호화 방법과 유사할 수 있다. 예를 들면, 엔트로피 복호화 방법은 상술된 엔트로피 부호화 방법의 역과정일 수 있다.The entropy decoding unit 210 may generate the symbols by performing entropy decoding according to the probability distribution of the bitstream. The generated symbols may include a symbol in the form of a quantized transform coefficient level and information necessary for decoding the image data. Here, the entropy decoding method may be similar to the above-described entropy encoding method. For example, the entropy decoding method may be the inverse of the above-described entropy encoding method.

엔트로피 복호화부(210)는 변환 계수 레벨을 복호화하기 위해 변환 계수 스캐닝(Transform Coefficient Scanning) 방법을 통해 1차원의 벡터 형태 계수를 2차원의 블록 형태로 변경할 수 있다. 예를 들어, 업라이트(up right) 스캐닝을 이용하여 블록의 계수를 스캔함으로써 2차원 블록 형태로 변경시킬 수 있다. 변환 유닛의 크기 및 화면 내 예측 모드에 따라 업라이트 스캔 대신 수직 스캔, 수평 스캔이 사용될 수도 있다. 즉, 변환 유닛의 크기 및 화면 내 예측 모드에 따라 업라이트 스캔, 수직 방향 스캔 및 수평 방향 스캔 중 어떠한 스캔 방법이 사용될지 여부를 결정할 수 있다.The entropy decoding unit 210 may change the one-dimensional vector form factor into a two-dimensional block form through a transform coefficient scanning method to decode the transform coefficient level. For example, it can be changed into a two-dimensional block form by scanning the coefficients of the block using up right scanning. Depending on the size of the conversion unit and the intra prediction mode, vertical scanning and horizontal scanning may be used instead of the upright scanning. That is, depending on the size of the conversion unit and the intra prediction mode, it is possible to determine whether any of the up scan, vertical scan and horizontal scan is to be used.

양자화된 변환 계수 레벨은 역양자화부(220)에서 역양자화될 수 있고, 역변환부(230)에서 주파수 영역에서 공간 영역으로 역변환될 수 있다. 양자화된 변환 계수 레벨이 역양자화 및 역변환 된 결과로서, 복원된 잔여 블록이 생성될 수 있다. 이때, 역양자화부(220)는 양자화된 변환 계수 레벨에 양자화 행렬을 적용할 수 있다.The quantized transform coefficient levels can be inversely quantized in the inverse quantization unit 220 and inversely transformed from the frequency domain into the spatial domain in the inverse transform unit 230. As a result of the dequantized and inverse transformed quantized transform coefficient levels, the reconstructed residual block can be generated. At this time, the inverse quantization unit 220 may apply the quantization matrix to the quantized transform coefficient levels.

인트라 모드가 사용되는 경우, 화면 내 예측부(240)는, 공간 영역에서, 복호화 대상 블록 주변의 이미 복호화된 블록의 픽셀 값을 이용하는 공간적 예측을 수행함으로써 예측 블록을 생성할 수 있다.When the intra mode is used, the intra prediction unit 240 can generate a prediction block by performing spatial prediction using the pixel value of the already decoded block around the decoding target block in the spatial domain.

인터 모드가 사용되는 경우, 화면 간 예측부(250)는, 공간 영역에서, 움직임 벡터 및 참조 픽처 버퍼(270)에 저장되어 있는 참조 영상을 이용하는 움직임 보상을 수행함으로써 예측 블록을 생성할 수 있다. 상기 화면 간 예측부(250)는 움직임 벡터의 값이 정수 값을 가지지 않을 경우에 참조 영상 내의 일부 영역에 대해 보간 필터(Interpolation Filter)를 적용하여 예측 블록을 생성할 수 있다. 움직임 보상을 수행하기 위해 부호화 유닛을 기준으로 해당 부호화 유닛에 포함된 예측 유닛의 움직임 보상 방법이 스킵 모드(Skip Mode), 머지 모드(Merge 모드), AMVP 모드(AMVP Mode), 현재 픽쳐 참조 모드 중 어떠한 방법인지 여부를 판단할 수 있고, 각 모드에 따라 움직임 보상을 수행할 수 있다. 여기서, 현재 픽쳐 참조 모드는 복호화 대상 블록이 속한 현재 픽쳐 내의 기-복원된 영역을 이용한 예측 모드를 의미할 수 있다. 상기 기-복원된 영역은 복호화 대상 블록에 인접하지 않은 영역일 수 있다. 상기 기-복원된 영역을 특정하기 위해 현재 픽쳐 참조 모드를 위한 소정의 벡터가 이용될 수도 있다. 복호화 대상 블록이 현재 픽쳐 참조 모드로 부호화된 블록인지 여부를 나타내는 플래그 혹은 인덱스가 시그날링될 수도 있고, 복호화 대상 블록의 참조 영상 색인을 통해 유추될 수도 있다. 현재 픽쳐 참조 모드를 위한 현재 픽쳐는 복호화 대상 블록을 위한 참조 영상 리스트 내에서 고정된 위치(예를 들어, refIdx=0인 위치 또는 가장 마지막 위치)에 존재할 수 있다. 또는, 참조 영상 리스트 내에 가변적으로 위치할 수도 있으며, 이를 위해 현재 픽쳐의 위치를 나타내는 별도의 참조 영상 색인이 시그날링될 수도 있다.When the inter mode is used, the inter-picture prediction unit 250 can generate a prediction block by performing motion compensation using a motion vector and a reference picture stored in the reference picture buffer 270 in the spatial domain. The inter picture prediction unit 250 may generate a prediction block by applying an interpolation filter to a part of the reference image when the value of the motion vector does not have an integer value. A motion compensation method of a prediction unit included in a coding unit based on a coding unit to perform motion compensation includes a skip mode, a merge mode, an AMVP mode, a current picture reference mode It is possible to determine whether there is any method, and motion compensation can be performed according to each mode. Here, the current picture reference mode may refer to a prediction mode using the preexisting reconstructed area in the current picture to which the current block to be decoded belongs. The pre-decompressed area may be an area not adjacent to the decoding target block. A predetermined vector for the current picture reference mode may be used to specify the priori-reconstructed region. A flag or an index indicating whether the current block to be decoded is a block coded in the current picture reference mode may be signaled or may be inferred through a reference picture index of the current block to be decoded. The current picture for the current picture reference mode may be in a fixed position (e.g., the position where refIdx = 0 or the last position) in the reference picture list for the block to be decoded. Alternatively, it may be variably located within the reference picture list, and for this purpose, a separate reference picture index indicating the location of the current picture may be signaled.

복원된 잔여 블록 및 예측 블록은 가산기를 통해 더해질 수 있다. 도시되지는 않았지만, 복원된 잔여 블록 및 예측 블록이 더해짐에 따라 생성된 블록은 필터부를 거칠 수 있다. 필터부는 디블록킹 필터, 샘플 적응적 오프셋 및 적응적 루프 필터 중 적어도 하나 이상을 복원 블록 또는 복원 영상에 적용할 수 있다. The restored residual block and the prediction block may be added through an adder. Although not shown, as the restored residual block and the prediction block are added, the generated block may go through the filter portion. The filter unit may apply at least one of a deblocking filter, a sample adaptive offset, and an adaptive loop filter to a restoration block or restored image.

참조 영상 확장부(260)는 복원된 전방향 영상, 다이버전트 영상 또는 컨버전트 영상이 포함하는 영상 각각의 퍼스펙티브에 맞춰 참조 영상을 생성하는 역할을 수행한다. 참조 영상 확장부를 통해 생성된 참조 영상은 시간대별 또는 퍼스펙티브 별로 그룹화되어 참조 픽처 버퍼(270)에 저장될 수 있다. 참조 영상 확장부에 대해서는 도 29를 참조하여 보다 상세히 설명하기로 한다.The reference image extension unit 260 generates a reference image in accordance with perspectives of the restored forward direction image, the diversity image, or the image included in the convergent image. The reference images generated through the reference image expanding unit may be grouped by time period or perspective and stored in the reference picture buffer 270. The reference image expanding unit will be described in more detail with reference to FIG.

도 29는 본 발명에 따른 참조 영상 확장부의 블록도이다.29 is a block diagram of a reference image expansion unit according to the present invention.

도 29를 참조하면, 참조 영상 확장부는, 변환부(310), 확장부(320) 및 참조영상 리스트 생성부(330)를 포함할 수 있다.Referring to FIG. 29, the reference image extension unit may include a transform unit 310, an extension unit 320, and a reference image list generation unit 330.

변환부(310)는 예측에 이용될 영상에 시간축이 동일하고 위치상 연속된 퍼스펙티브가 다른 영상이 존재하는지 여부를 확인하고, 존재하는 경우, 이를 예측으로 쓰일 영상의 퍼스펙티브에 맞춰 변환하는 역할을 수행한다. 일 예로, 정육면체의 전개도 형태의 2D 영상에 대해, 변환부는 퍼스펙티브가 다른 공간적으로 이웃하는 영상들 중 적어도 하나의 퍼스펙티브에 맞춰 다른 영상들을 변환하는 역할을 수행할 수 있다.The conversion unit 310 checks whether or not an image having the same temporal axis and the same positional continuity exists in the image to be used for prediction and converts the image according to the perspective of the image to be used as a prediction if it exists do. For example, for a 2D image in the form of an expanded view of a cube, the transformer may serve to transform other images according to the perspective of at least one of the other spatially neighboring images.

확장부(320)는 예측에 쓰일 영상과 변환부에서 변환된 영상을 합하는 역할을 수행한다. 즉, 확장부에 의해, 예측에 쓰일 영상(즉, 참조 영상)의 크기는 변환된 영상의 합산분 만큼 증가할 수 있다. 이때, 변환된 영상이 확장되는 위치는 영상의 특성 또는 영상의 위치에 기초하여 결정될 수 있다.The expansion unit 320 serves to sum images to be used for prediction and images converted by the conversion unit. That is, the size of the image to be used for prediction (that is, the reference image) can be increased by the sum of the converted images by the extension unit. At this time, the position at which the converted image is expanded can be determined based on the characteristics of the image or the position of the image.

참조 영상 리스트 생성부(330)는 예측에 쓰일 영상과 변환된 영상을 합하여 생성된 참조 영상을 참조 영상 리스트에 추가하는 역할을 수행한다. 참조 영상은 시간축에 맞춰 참조 영상 리스트에 입력될 수 있다. The reference image list generator 330 adds the reference image generated by adding the converted image and the image to be used for prediction to the reference image list. The reference image can be input to the reference image list in accordance with the time axis.

이상 설명된 본 발명에 따른 실시예들을 통해 기술된 구성요소들(components)은 DSP (Digital Signal Processor), 프로세서(processor), 제어부(controller), asic (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array)와 같은 프로그램 가능 논리 요소(programmable logic element), 다른 전자기기 및 이들의 조합 중 적어도 하나에 의해 구현될 수 있다. 이상 설명된 본 발명에 따른 실시예들을 통해 설명된 적어도 하나의 기능 또는 프로세스들은 소프트웨어로 구현되고 소프트웨어는 기록 매체에 기록될 수 있다. 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 본 발명의 실시예를 통해 설명된 구성 요소, 기능 및 프로세스 등은 하드웨어 및 소프트웨어의 조합을 통해 구현될 수도 있다.The components described in the exemplary embodiments of the present invention may be implemented by a digital signal processor (DSP), a processor, a controller, an application specific integrated circuit (ASIC), a field programmable gate Programmable logic elements, such as an array, other electronic devices, and combinations thereof. At least one of the functions or processes described through the embodiments of the present invention described above may be implemented in software and the software may be recorded in a recording medium. Examples of the recording medium include magnetic media such as a hard disk, a floppy disk and a magnetic tape, optical recording media such as CD-ROM and DVD, magneto-optical media such as a floptical disk, And hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for performing the processing according to the present invention, and vice versa. The components, functions, processes, and the like described through the embodiments of the present invention may be implemented through a combination of hardware and software.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, Those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be construed as being limited to the above-described embodiments, and all of the equivalents or equivalents of the claims, as well as the following claims, I will say.

100 : 투영부
110 : 화면 간 예측부
120 : 화면 내 예측부
130 : 변환부
140 : 양자화부
150 : 엔트로피 부호화부
160 : 역양자화부
170 : 역변환부
180 : 참조 영상 확장부
190 : 복원 픽처 버퍼
210 : 엔트로피 복호화부
220 : 역양자화부
230 : 역변환부
240 : 화면 내 예측부
250 : 화면 간 예측부
260 : 참조 영상 확장부
270 : 참조 픽처 버퍼
100:
110: inter picture prediction unit
120: intra picture prediction unit
130:
140: Quantization unit
150: Entropy coding unit
160: Inverse quantization unit
170: Inverse transform unit
180: reference image expanding section
190: Restored picture buffer
210: Entropy decoding unit
220: Inverse quantization unit
230: Inverse transform unit
240: intra picture prediction unit
250: inter picture prediction unit
260: reference image expanding section
270: reference picture buffer

Claims (17)

제1 시점을 갖는 제1 영상과 다른 시점을 갖는 제2 영상이 존재하는 경우, 상기 제2 영상을 상기 제1 시점으로 변환하는 단계;
상기 제1 영상의 일면에 상기 제2 영상을 부가하여 참조 영상을 생성하는 단계; 및
상기 참조 영상을 참조 픽처 리스트에 저장하는 단계
를 포함하는 영상 부호화 방법.
Converting the second image to the first viewpoint when a first image having a first viewpoint and a second viewpoint having a different viewpoint exist;
Generating a reference image by adding the second image to one surface of the first image; And
Storing the reference picture in a reference picture list
/ RTI >
제1항에 있어서,
상기 변환 영상은, 상기 제1 영상 및 상기 제2 영상 간의 시점 차이에 기초하여 생성되고,
상기 시점 차이는, 상기 제1 영상 및 상기 제2 영상 간의 거리 차이 또는 각도 차이 중 적어도 하나를 포함하는 것을 특징으로 하는, 영상 부호화 방법.
The method according to claim 1,
Wherein the converted image is generated based on a viewpoint difference between the first image and the second image,
Wherein the viewpoint difference includes at least one of a distance difference or an angle difference between the first image and the second image.
제2항에 있어서,
상기 시점 차이는, 상기 제1 영상 및 상기 제2 영상을 포함하는 전방향 영상의 특성에 기초하여 결정되는 것을 특징으로 하는, 영상 부호화 방법.
3. The method of claim 2,
Wherein the viewpoint difference is determined based on characteristics of an omnidirectional image including the first image and the second image.
제3항에 있어서,
상기 전방향 영상이 정다면체로 투영되는 경우, 상기 제1 영상 및 상기 제2 영상 간 각도 차이는 상기 정다면체의 내각으로 결정되는 것을 특징으로 하는, 영상 부호화 방법.
The method of claim 3,
Wherein the angle difference between the first image and the second image is determined as the inner angle of the regular polyhedron when the forward image is projected to the regular polyhedron.
제2항에 있어서,
상기 시점 차이는 상기 제1 영상을 촬영하는데 이용된 제1 카메라 및 상기 제2 영상을 촬영하는데 이용된 제2 카메라 사이의 거리 및 각도 차를 기초로 연산되는 것을 특징으로 하는, 영상 부호화 방법.
3. The method of claim 2,
Wherein the viewpoint difference is calculated based on a distance and an angle difference between a first camera used to photograph the first image and a second camera used to photograph the second image.
제1항에 있어서,
상기 제2 영상이 부가될 위치는 상기 제1 영상 및 상기 제2 영상을 포함하는 정다면체의 특성에 따라 결정되는 것을 특징으로 하는, 영상 부호화 방법.
The method according to claim 1,
Wherein a position to which the second image is to be added is determined according to characteristics of a regular polyhedron including the first image and the second image.
제1항에 있어서,
상기 참조 픽처는 상기 제1 영상 및 상기 제2 영상에 대응하는 시간대 정보와 함께 상기 참조 픽처 리스트에 저장되는 것을 특징으로 하는, 영상 부호화 방법.
The method according to claim 1,
Wherein the reference picture is stored in the reference picture list together with time-slot information corresponding to the first video and the second video.
제1 시점을 갖는 제1 영상과 다른 시점을 갖는 제2 영상이 존재하는 경우, 상기 제2 영상을 상기 제1 시점으로 변환하는 단계;
상기 제1 영상의 일면에 상기 제2 영상을 부가하여 참조 영상을 생성하는 단계; 및
상기 참조 영상을 참조 픽처 리스트에 저장하는 단계
를 포함하는 영상 복호화 방법.
Converting the second image to the first viewpoint when a first image having a first viewpoint and a second viewpoint having a different viewpoint exist;
Generating a reference image by adding the second image to one surface of the first image; And
Storing the reference picture in a reference picture list
And decodes the decoded image.
제8항에 있어서,
상기 변환 영상은, 상기 제1 영상 및 상기 제2 영상 간의 시점 차이에 기초하여 생성되고,
상기 시점 차이는, 상기 제1 영상 및 상기 제2 영상 간의 거리 차이 또는 각도 차이 중 적어도 하나를 포함하는 것을 특징으로 하는, 영상 복호화 방법.
9. The method of claim 8,
Wherein the converted image is generated based on a viewpoint difference between the first image and the second image,
Wherein the viewpoint difference includes at least one of a distance difference or an angle difference between the first image and the second image.
제9항에 있어서,
상기 시점 차이는, 상기 제1 영상 및 상기 제2 영상을 포함하는 전방향 영상의 특성에 기초하여 결정되는 것을 특징으로 하는, 영상 복호화 방법.
10. The method of claim 9,
Wherein the viewpoint difference is determined based on characteristics of an omnidirectional image including the first image and the second image.
제10항에 있어서,
상기 전방향 영상이 정다면체로 투영되는 경우, 상기 제1 영상 및 상기 제2 영상 간 각도 차이는 상기 정다면체의 내각으로 결정되는 것을 특징으로 하는, 영상 복호화 방법.
11. The method of claim 10,
Wherein the angle difference between the first image and the second image is determined as the inner angle of the regular polyhedron when the forward image is projected to the regular polyhedron.
제10에 있어서,
상기 시점 차이는 상기 제1 영상을 촬영하는데 이용된 제1 카메라 및 상기 제2 영상을 촬영하는데 이용된 제2 카메라 사이의 거리 및 각도 차를 기초로 연산되는 것을 특징으로 하는, 영상 복호화 방법.
The method according to claim 10,
Wherein the viewpoint difference is calculated based on a distance and an angle difference between a first camera used to photograph the first image and a second camera used to photograph the second image.
제8항에 있어서,
상기 제2 영상이 부가될 위치는 상기 제1 영상 및 상기 제2 영상을 포함하는 정다면체의 특성에 따라 결정되는 것을 특징으로 하는, 영상 복호화 방법.
9. The method of claim 8,
Wherein the position to which the second image is to be added is determined according to characteristics of a regular polyhedron including the first image and the second image.
제8항에 있어서,
상기 참조 픽처는 상기 제1 영상 및 상기 제2 영상에 대응하는 시간대 정보와 함께 상기 참조 픽처 리스트에 저장되는 것을 특징으로 하는, 영상 복호화 방법.
9. The method of claim 8,
Wherein the reference picture is stored in the reference picture list together with the time zone information corresponding to the first video and the second video.
제14항에 있어서,
현재 블록의 참조 픽처를 특정하는 참조 픽처 인덱스에 기초하여, 상기 참조 픽처 리스트로부터 적어도 하나의 참조 픽처를 선택하는 단계; 및
상기 선택된 참조 픽처를 기초로 상기 현재 블록에 대한 화면 간 예측을 수행하는 단계
를 포함하되,
상기 참조 픽처 리스트는 상기 현재 블록의 참조 픽처에 대응하는 시간대 정보를 포함하는 것을 특징으로 하는, 영상 복호화 방법.
15. The method of claim 14,
Selecting at least one reference picture from the reference picture list based on a reference picture index specifying a reference picture of a current block; And
Performing inter-picture prediction on the current block based on the selected reference picture
, ≪ / RTI &
Wherein the reference picture list includes time zone information corresponding to a reference picture of the current block.
제1 시점을 갖는 제1 영상과 다른 시점을 갖는 제2 영상이 존재하는 경우, 상기 제2 영상을 상기 제1 시점으로 변환하는 변환부;
상기 제1 영상의 일면에 상기 제2 영상을 부가하여 참조 영상을 생성하는 확장부; 및
상기 참조 영상을 참조 픽처 리스트에 저장하는 참조 영상 리스트 생성부
를 포함하는 영상 부호화 장치.
A conversion unit converting the second image to the first viewpoint when a first image having a first viewpoint and a second viewpoint having a different viewpoint exist;
An extension unit for adding a second image to one side of the first image to generate a reference image; And
A reference picture list generating unit for storing the reference pictures in a reference picture list,
And an image encoding device.
제1 시점을 갖는 제1 영상과 다른 시점을 갖는 제2 영상이 존재하는 경우, 상기 제2 영상을 상기 제1 시점으로 변환하는 변환부;
상기 제1 영상의 일면에 상기 제2 영상을 부가하여 참조 영상을 생성하는 확장부; 및
상기 참조 영상을 참조 픽처 리스트에 저장하는 참조 영상 리스트 생성부
를 포함하는 영상 복호화 장치.

A conversion unit converting the second image to the first viewpoint when a first image having a first viewpoint and a second viewpoint having a different viewpoint exist;
An extension unit for adding a second image to one side of the first image to generate a reference image; And
A reference picture list generating unit for storing the reference pictures in a reference picture list,
And decodes the decoded image.

KR1020160155997A 2015-11-23 2016-11-22 Method and apparatus for encoding/dicoding a multi-perspective video KR20170059902A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150164057 2015-11-23
KR20150164057 2015-11-23

Publications (1)

Publication Number Publication Date
KR20170059902A true KR20170059902A (en) 2017-05-31

Family

ID=59052760

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160155997A KR20170059902A (en) 2015-11-23 2016-11-22 Method and apparatus for encoding/dicoding a multi-perspective video

Country Status (1)

Country Link
KR (1) KR20170059902A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018124821A1 (en) * 2017-01-02 2018-07-05 주식회사 케이티 Method and apparatus for processing video signals
WO2019009667A1 (en) * 2017-07-06 2019-01-10 가온미디어 주식회사 Method for processing synchronised image, and apparatus therefor
KR20190108721A (en) * 2018-03-15 2019-09-25 세종대학교산학협력단 Multi-view capturing apparatus and method using single 360-degree camera and planar mirrors
KR20200116224A (en) * 2019-04-01 2020-10-12 재단법인 다차원 스마트 아이티 융합시스템 연구단 360 degree image storing method and rendering method using viewpoint transformation

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018124821A1 (en) * 2017-01-02 2018-07-05 주식회사 케이티 Method and apparatus for processing video signals
WO2019009667A1 (en) * 2017-07-06 2019-01-10 가온미디어 주식회사 Method for processing synchronised image, and apparatus therefor
KR20190108721A (en) * 2018-03-15 2019-09-25 세종대학교산학협력단 Multi-view capturing apparatus and method using single 360-degree camera and planar mirrors
KR20200116224A (en) * 2019-04-01 2020-10-12 재단법인 다차원 스마트 아이티 융합시스템 연구단 360 degree image storing method and rendering method using viewpoint transformation

Similar Documents

Publication Publication Date Title
US10701396B2 (en) Multi-viewpoint video encoding/decoding method
US12015854B2 (en) Image data encoding/decoding method and apparatus
US20240187647A1 (en) Method and apparatus of encoding/decoding image data based on tree structure-based block division
US11831914B2 (en) Method and apparatus of encoding/decoding image data based on tree structure-based block division
KR20180073499A (en) Method and apparatus for processing a video signal
US20220038709A1 (en) Video Coding Based on Global Motion Compensated Motion Vectors
KR20170059902A (en) Method and apparatus for encoding/dicoding a multi-perspective video
KR20180082955A (en) Method and apparatus for processing a video signal
KR20180080120A (en) Method and apparatus for processing a video signal
US12035049B2 (en) Image data encoding/decoding method and apparatus
KR20170059901A (en) Method for encoding/dicoding a multi-perspective video
KR20200085678A (en) Motion information prediction method and apparatus for distortion due to projection formation conversion

Legal Events

Date Code Title Description
A201 Request for examination