KR20150102748A - A Method And Apparatus For Deriving Temporal Inter-View Motion Information Of Sub-Prediction Unit - Google Patents

A Method And Apparatus For Deriving Temporal Inter-View Motion Information Of Sub-Prediction Unit Download PDF

Info

Publication number
KR20150102748A
KR20150102748A KR1020150029060A KR20150029060A KR20150102748A KR 20150102748 A KR20150102748 A KR 20150102748A KR 1020150029060 A KR1020150029060 A KR 1020150029060A KR 20150029060 A KR20150029060 A KR 20150029060A KR 20150102748 A KR20150102748 A KR 20150102748A
Authority
KR
South Korea
Prior art keywords
merge candidate
prediction
inter
view
picture
Prior art date
Application number
KR1020150029060A
Other languages
Korean (ko)
Other versions
KR102395974B1 (en
Inventor
방건
이광순
허남호
박광훈
허영수
Original Assignee
한국전자통신연구원
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원, 경희대학교 산학협력단 filed Critical 한국전자통신연구원
Publication of KR20150102748A publication Critical patent/KR20150102748A/en
Application granted granted Critical
Publication of KR102395974B1 publication Critical patent/KR102395974B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • H04N13/0048
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

The present invention provides a method for encoding a 3D image which includes the steps of: deriving a merge candidate; determining whether the change of the priority of the merge candidate is necessary; changing the priority of the merge candidate if the change of the priority is necessary; and adding the merge candidate on a merge candidate list based on the changed priority of the merge candidate.

Description

서브 예측 유닛 단위의 시간적인 시점 간 움직임 정보 유도의 방법 및 장치{A Method And Apparatus For Deriving Temporal Inter-View Motion Information Of Sub-Prediction Unit}[0001] The present invention relates to a method and an apparatus for deriving motion information between temporal viewpoints in units of sub-prediction units,

본 발명은 영상 부호화/복호화 방법 및 이를 이용하는 장치에 관한 것으로서, 보다 구체적으로는 인터 뷰 예측에서 병합 움직임 후보 리스트를 재정렬하는 부호화/복호화 방법 및 이를 이용하는 장치에 관한 것이다.
More particularly, the present invention relates to a coding / decoding method for rearranging merged motion candidate lists in inter-view prediction and an apparatus using the same.

정보 통신 산업의 지속적인 발달은 HD(High Definition) 해상도를 가지는 방송 서비스의 세계적인 확산을 야기시켰으며, 이로 인해 많은 사용자들은 HD 영상에 익숙해지게 되었다. The continued development of the information and communications industry has led to the worldwide spread of high definition (HD) resolution broadcast services, which has led many users to become accustomed to HD video.

HD화질에 익숙해진 사용자들은 더욱 더 높은 화질과 높은 해상도를 가지는 영상을 원하게 되었으며, 사용자들의 수요를 충족시키기 위해 많은 기관들이 차세대 영상 기기에 대한 개발에 박차를 가하였다. 이로 인하여, 오늘날에는 FHD(Full HD) 및 UHD(Ultra High Definition)가 지원되는 영상을 접할 수 있게 되었다.Users who are accustomed to HD picture quality want images with higher image quality and higher resolution, and many organizations have spurred development on next generation imaging equipment to meet the demand of users. As a result, it is now possible to access images that support FHD (Full HD) and UHD (Ultra High Definition).

사용자들은 높은 화질과 높은 해상도를 가지는 영상뿐만 아니라, 입체감을 느낄 수 있는 3차원 영상을 원하게 되었다. 다양한 기관들은 사용자들의 수요를 충족시켜 주기 위하여 3차원 영상을 개발하기에 이르렀다. Users want 3-D images that can feel stereoscopic images as well as images with high image quality and high resolution. Various organizations have developed 3D images to meet the needs of users.

하지만, 3차원 영상은 실제 영상(texture) 정보뿐만 아니라 깊이 맵(depth map) 정보까지 포함하기 때문에, 2차원 영상보다 많은 데이터를 포함한다. 따라서, 기존의 영상 부호화/복호화 과정에 따라 3차원 영상을 부호화/복호화 할 경우에는 충분한 부호화/복호화 효율이 나오지 않은 문제점이 있다.
However, since the 3D image includes not only the texture information but also the depth map information, the 3D image includes more data than the 2D image. Therefore, there is a problem in that sufficient coding / decoding efficiency is not obtained when the three-dimensional image is encoded / decoded according to the conventional image encoding / decoding process.

본 발명이 해결하고자 하는 과제는 머지 후보 리스트의 효율적인 생성 방법 및 이를 이용하는 장치를 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide an efficient generation method of a merge candidate list and an apparatus using the same.

본 발명이 해결하고자 하는 다른 과제는 머지 후보를 머지 후보 리스트에 삽입 시, 머지 후보의 우선 순위를 변경하는 방법 및 이를 이용하는 장치를 제공하는 것이다.Another object of the present invention is to provide a method for changing a priority of a merge candidate when inserting a remainder candidate into a merge candidate list and a device using the merge candidate.

본 발명이 해결하고자 하는 또 다른 과제는 머지 후보를 머지 후보 리스트에 삽입 시, 머지 후보의 우선 순위를 변경하여 머지 후보 리스트의 0번 인덱스가 최적의 후보로 선택될 확률을 높이는 방법 및 이를 이용하는 장치를 제공하는 것이다.Another object of the present invention is to provide a method for increasing the probability that an index 0 is selected as an optimal candidate by changing a priority of a merge candidate when inserting a remainder candidate into a merge candidate list, .

본 발명이 해결하고자 하는 또 다른 과제는 머지 후보를 머지 후보 리스트에 삽입 시, 머지 후보의 우선 순위를 변경하여 머지 후보 리스트의 0번 인덱스가 최적의 후보로 선택될 확률을 높임으로써 엔트로피 부호화의 효율을 증가시키는 방법 및 이를 이용하는 장치를 제공하는 것이다.
Another object of the present invention is to improve the efficiency of entropy coding by changing the priority of the merge candidate and increasing the probability that the index 0 of the merge candidate list is selected as the best candidate when inserting the merge candidate into the merge candidate list And a device using the same.

본 발명의 일 실시예에 따르면, 머지 후보를 유도하는 단계, 머지 후보의 우선 순위에 대한 변경이 필요한지 여부를 결정하는 단계, 머지 후보의 우선 순위에 대한 변경이 필요한 경우, 머지 후보의 우선 순위를 변경하는 단계 및 상기 머지 후보를 변경된 머지 후보의 우선 순위에 기반하여 머지 후보 리스트에 추가하는 단계를 포함하는 3차원 영상 부호화 방법을 제공한다.According to an embodiment of the present invention, there is provided a method for managing a merge candidate, the method comprising: deriving a merge candidate; determining whether a change in priority of the merge candidate is necessary; And adding the merge candidate to the merge candidate list based on the priority of the modified merge candidate.

본 발명의 다른 실시예에 따르면, 머지 후보를 유도하는 단계, 머지 후보의 우선 순위에 대한 변경이 필요한지 여부를 결정하는 단계, 머지 후보의 우선 순위에 대한 변경이 필요한 경우, 머지 후보의 우선 순위를 변경하는 단계 및 상기 머지 후보를 변경된 머지 후보의 우선 순위에 기반하여 머지 후보 리스트에 추가하는 단계를 포함하는 3차원 영상 복호화 방법을 제공한다.According to another embodiment of the present invention, there is provided a method for managing a merge candidate, the method comprising: deriving a merge candidate; determining whether a change in priority of the merge candidate is necessary; And adding the merge candidate to the merge candidate list based on the priority of the changed merge candidate.

본 발명의 또 다른 실시예에 따르면, 머지 후보를 유도하는 유도부, 및 머지 후보의 우선 순위에 대한 변경이 필요한 경우, 머지 후보의 우선 순위를 변경하고, 상기 머지 후보를 변경된 머지 후보의 우선 순위에 기반하여 머지 후보 리스트에 추가하는 생성부를 포함하는 3차원 영상 부호화 장치를 제공한다.According to another embodiment of the present invention, when changing a priority of a merge candidate and an inducing unit for deriving a merge candidate, the priority of the merge candidate is changed, and the merge candidate is changed to the priority of the changed merge candidate And a generation unit for adding the generated candidate candidate list to the merge candidate list.

본 발명의 또 다른 실시예에 따르면, 머지 후보를 유도하는 유도부, 및 머지 후보의 우선 순위에 대한 변경이 필요한 경우, 머지 후보의 우선 순위를 변경하고, 상기 머지 후보를 변경된 머지 후보의 우선 순위에 기반하여 머지 후보 리스트에 추가하는 생성부를 포함하는 3차원 영상 복호화 장치를 제공한다.
According to another embodiment of the present invention, when changing a priority of a merge candidate and an inducing unit for deriving a merge candidate, the priority of the merge candidate is changed, and the merge candidate is changed to the priority of the changed merge candidate Based on the merged candidate list, and adding the merged candidate list to the merge candidate list.

본 발명에 따르면, 머지 후보 리스트의 효율적인 생성을 할 수 있다.According to the present invention, it is possible to efficiently generate a merge candidate list.

본 발명에 따르면, 머지 후보를 머지 후보 리스트에 삽입 시, 머지 후보의 우선 순위를 변경할 수 있다.According to the present invention, when the merge candidate is inserted into the merge candidate list, the priority order of merge candidate can be changed.

본 발명에 따르면, 머지 후보를 머지 후보 리스트에 삽입 시, 머지 후보의 우선 순위를 변경하여 머지 후보 리스트의 0번 인덱스가 최적의 후보로 선택될 확률을 높일 수 있다.According to the present invention, when inserting a merge candidate into a merge candidate list, the priority of the merge candidate can be changed to increase the probability that the zero index of the merge candidate list is selected as the best candidate.

본 발명에 따르면, 머지 후보를 머지 후보 리스트에 삽입 시, 머지 후보의 우선 순위를 변경하여 머지 후보 리스트의 0번 인덱스가 최적의 후보로 선택될 확률을 높임으로써 엔트로피 부호화의 효율을 증가시킬 수 있다.
According to the present invention, when inserting a merge candidate into a merge candidate list, the efficiency of entropy encoding can be increased by changing the priority of the merge candidate to increase the probability that the 0 index of the merge candidate list is selected as the best candidate .

도 1은 3차원 비디오 시스템의 기본 구조를 개략적으로 도시한 것이다.
도 2는 “balloons” 영상의 실제 영상과 깊이 정보 맵 영상의 일례를 나타내는 도면이다.
도 3은 영상을 부호화 및 복호화할 때 영상의 분할 구조를 개략적으로 나타내는 도면이다.
도 4는 부호화 유닛(CU)이 포함할 수 있는 예측 유닛(PU)의 형태를 도시한 것이다.
도 5는 3차원 비디오 코덱(codec)에서 시점간 예측(inter view prediction)의 구조를 나타내는 일례다.
도 6은 3차원 비디오 인코더 및/또는 디코더에서 실제 영상(texture view)과 깊이 정보 맵(depth view)을 부호화 및/또는 복호화하는 과정을 나타낸 일례다.
도 7은 비디오 인코더의 일 실시예에 따른 구성을 나타내는 블록도이다.
도 8은 비디오 디코더의 일 실시예에 따른 구성을 나타내는 블록도이다.
도 9는 3차원 비디오 코덱에 대한 예측 구조의 일례를 나타내는 도면이다.
도 10은 현재 블록에 대한 병합 움직임(merge) 리스트(list)를 구성하는 데 사용되는 주변 블록들을 나타낸 일례다.
도 11은 인터 예측에 있어서, 병합 움직임 후보 리스트를 구성하는 방법에 관한 순서도이다.
도 12는 3차원 영상 부호화/복호화에 있어서, Hierarchical-B 구조를 개략적으로 도시한 것이다.
도 13은 본 발명의 일 실시예에 따른 머지 후보의 우선 순위를 변경하여 머지 후보 리스트를 생성하는 순서도이다.
도 14는 본 발명의 다른 실시예에 따른 머지 후보의 우선 순위를 변경하여 머지 후보 리스트를 생성하는 순서도이다.
도 15는 본 발명의 또 다른 실시예에 따른 머지 후보의 우선 순위를 변경하여 머지 후보 리스트를 생성하는 순서도이다.
도 16은 본 발명의 또 다른 실시예에 따른 머지 후보의 우선 순위를 변경하여 머지 후보 리스트를 생성하는 순서도이다.
도 17은 본 발명의 또 다른 실시예에 따른 머지 후보의 우선 순위를 변경하여 머지 후보 리스트를 생성하는 순서도이다.
도 18은 본 발명의 일 실시예에 따른 인터 예측부의 구조를 개략적으로 도시한 블록도이다.
1 schematically shows a basic structure of a three-dimensional video system.
2 is a diagram showing an example of an actual image of a "balloons" image and an image of a depth information map.
3 is a diagram schematically showing a divided structure of an image when encoding and decoding an image.
Fig. 4 shows a form of a prediction unit (PU) that the encoding unit (CU) can include.
FIG. 5 shows an example of a structure of inter view prediction in a three-dimensional video codec.
FIG. 6 shows an example of a process of encoding and / or decoding a texture view and a depth view in a 3D video encoder and / or decoder.
7 is a block diagram illustrating a configuration according to an embodiment of a video encoder.
8 is a block diagram illustrating a configuration according to an embodiment of the video decoder.
9 is a diagram showing an example of a prediction structure for a three-dimensional video codec.
FIG. 10 shows an example of neighboring blocks used to construct a merge list for the current block.
11 is a flowchart of a method of constructing a merged motion candidate list in inter prediction.
12 schematically shows a hierarchical-B structure in 3D image coding / decoding.
13 is a flowchart for generating a merge candidate list by changing a priority of a merge candidate according to an embodiment of the present invention.
14 is a flowchart for generating a merge candidate list by changing a priority of a merge candidate according to another embodiment of the present invention.
15 is a flowchart for generating a merge candidate list by changing a priority of a merge candidate according to another embodiment of the present invention.
16 is a flowchart for generating a merge candidate list by changing a priority of merge candidates according to another embodiment of the present invention.
17 is a flowchart for generating a merge candidate list by changing a priority of a merge candidate according to another embodiment of the present invention.
18 is a block diagram schematically illustrating the structure of an inter-prediction unit according to an embodiment of the present invention.

이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present disclosure rather unclear.

어떤 구성 요소가 다른 구성 요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 아울러, 본 발명에서 특정 구성을 “포함”한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함 될 수 있음을 의미한다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . In addition, the content of " comprising " a specific configuration in the present invention does not exclude a configuration other than the configuration, and means that additional configurations can be included in the practice of the present invention or the technical scope of the present invention .

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

또한, 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위 에 포함된다.In addition, the components shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that the components are composed of separate hardware or software constituent units. That is, each constituent unit is included in each constituent unit for convenience of explanation, and at least two constituent units of the constituent units may be combined to form one constituent unit, or one constituent unit may be divided into a plurality of constituent units to perform a function. The integrated embodiments and separate embodiments of the components are also included within the scope of the present invention, unless they depart from the essence of the present invention.

또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부 만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.
In addition, some of the components are not essential components to perform essential functions in the present invention, but may be optional components only to improve performance. The present invention can be implemented only with components essential for realizing the essence of the present invention, except for the components used for the performance improvement, and can be implemented by only including the essential components except the optional components used for performance improvement Are also included in the scope of the present invention.

3차원 비디오는 3차원 입체 디스플레이 장치를 통해 사용자에게 실 세계에서 보고 느끼는 것과 같은 입체감을 제공한다. 이와 관련하여, ISO/IEC의 MPEG(Moving Picture Experts Group)와 ITU-T의 VCEG(Video Coding Experts Group)의 공동 표준화 그룹인 JCT-3V(The Joint Collaborative Team on 3D Video Coding Extension Development)에서는 3차원 비디오 표준화가 진행 중이다.
3D video provides a three-dimensional stereoscopic display device that gives the user the same stereoscopic feel as they would see and feel in the real world. In this regard, Joint Collaborative Team on 3D Video Coding Extension Development (JCT-3V), a joint standardization group of ISO / IEC's Moving Picture Experts Group (MPEG) and ITU-T VCEG (Video Coding Experts Group) Video standardization is in progress.

도 1은 3차원 비디오 시스템의 기본 구조를 개략적으로 도시한 것이다.1 schematically shows a basic structure of a three-dimensional video system.

도 1을 참조하면, 3차원 비디오(3D video; 3DV) 시스템은 송신측(sender) 및 수신측(receiver)을 포함할 수 있다. 이때, 도 1의 3차원 비디오 시스템은 3차원 비디오 표준에서 고려하고 있는 기본적인 3차원 비디오 시스템일 수 있으며, 3차원 비디오 표준은 실제 영상과 실제 영상에 대응되는 깊이 정보 맵을 이용하여, 스테레오스코픽 영상뿐만 아니라 오토스테레오스코픽(autostereoscopic) 영상의 재생을 지원할 수 있는 진보된 데이터 형식과 그에 관련된 기술에 대한 표준을 포함할 수 있다.Referring to FIG. 1, a 3D video (3DV) system may include a sender and a receiver. The 3D video system of FIG. 1 may be a basic 3D video system considered in the 3D video standard. The 3D video standard may use a depth information map corresponding to the real video and the real video to generate a stereoscopic video As well as advanced data formats that can support the playback of autostereoscopic images and standards for related technologies.

송신측은 다시점(multi-view)의 영상 콘텐츠를 생성할 수 있다. 구체적으로, 송신측에서는 스테레오 카메라 및 다시점 카메라를 이용하여 비디오 정보를 생성하고, 깊이 정보 카메라를 이용하여 깊이 정보 맵(depth map, 또는 depth view)을 생성할 수 있다. 또한, 송신측에서는 변환기를 이용하여 2차원 영상을 3차원 영상으로 변환할 수도 있다. 송신측에서는 생성된 비디오 정보와 깊이 정보 맵 등을 이용하여 N(N≥2) 시점(view)(즉, 다시점)의 영상 콘텐츠를 생성할 수 있다. 이때, N 시점의 영상 콘텐츠에는 N 시점의 비디오 정보와 그것의 깊이 정보 맵(Depth-map) 정보 그리고 카메라 관련 부가 정보 등이 포함될 수 있다. N 시점의 영상 콘텐츠는 3차원 비디오 인코더에서 다시점 비디오 부호화 방법을 사용하여 압축될 수 있으며, 압축된 영상 콘텐츠(비트스트림)는 네트워크를 통해 수신측의 단말로 전송될 수 있다.The transmitting side can generate multi-view video content. Specifically, the transmitting side can generate video information using a stereo camera and a multi-view camera, and generate a depth map (depth map) using a depth information camera. Further, on the transmitting side, a two-dimensional image can be converted into a three-dimensional image using a converter. The transmitting side can generate the image content of N (N? 2) view (i.e., the multi-viewpoint) using the generated video information and the depth information map. At this time, the video content at time N may include video information at time N, depth-map information thereof, and camera-related additional information. The video content at the time point N can be compressed using the multi-view video encoding method in the three-dimensional video encoder, and the compressed video content (bit stream) can be transmitted to the reception-side terminal through the network.

수신측(receiver)은 송신측으로부터 수신된 영상 콘텐츠를 복호화하여 다시점(multi-view)의 영상을 제공할 수 있다. 구체적으로, 수신측에서는 비디오 디코더(예를 들어, 3차원 비디오 디코더, 스테레오 비디오 디코더, 2차원 비디오 디코더 등)에서 다시점 비디오 복호화 방법을 사용하여 전송 받은 비트스트림을 복호화함으로써 N 시점의 영상을 복원할 수 있다. 이때, 복원된 N 시점의 영상과 깊이 정보 맵 기반 랜더링(DIBR; Depth-Image-Based Rendering) 과정을 이용하여 N 시점 이상의 가상 시점 영상들이 생성될 수도 있다. 생성된 N 시점 이상의 가상 시점 영상들은 다양한 입체 디스플레이 장치(예를 들어, N-시점 디스플레이, 스테레오 디스플레이, 2차원 디스플레이 등)에 맞게 재생되어 사용자에게 입체감이 있는 영상을 제공하게 된다.
The receiver can decode the image content received from the transmitter and provide a multi-view image. Specifically, on the receiving side, a bitstream transmitted using a multi-view video decoding method is decoded in a video decoder (for example, a three-dimensional video decoder, a stereo video decoder, a two-dimensional video decoder, etc.) . At this time, virtual view images having N or more viewpoints may be generated using the reconstructed N view image and the depth information-based Rendering (DIBR) process. The generated virtual viewpoint images are reproduced in accordance with various stereoscopic display devices (for example, an N-view display, a stereo display, a two-dimensional display, etc.) to provide stereoscopic images to the user.

도 2는 “balloons” 영상의 실제 영상과 깊이 정보 맵 영상의 일례를 나타내는 도면이다.2 is a diagram showing an example of an actual image of a "balloons" image and an image of a depth information map.

도 2의 (a)는 국제 표준화 기구인 MPEG의 3차원 비디오 부호화 표준에서 사용 중인 “balloons” 영상을 나타낸 것이다. 도 2의 (b)는 도 2의 (a)에 도시된 “balloons” 영상에 대한 깊이 정보 맵 영상을 나타낸 것이다. 도 2의 (b)에 도시된 깊이 정보 맵 영상은 화면에 보이는 깊이 정보를 화소당 8비트로 표현한 것이다.Figure 2 (a) shows a "balloons" image being used in the 3D standardization of MPEG, an international standardization organization. FIG. 2B shows a depth information map image for the "balloons" image shown in FIG. 2A. The depth information map image shown in (b) of FIG. 2 represents depth information on the screen in 8 bits per pixel.

깊이 정보 맵(depth map)은 가상 시점 영상을 생성하는데 사용되며, 깊이 정보 맵은 실세계에서 카메라와 실제 사물(object) 간의 거리(실사 영상과 동일한 해상도로 각 화소에 해당하는 깊이 정보)를 일정한 비트수로 표현한 것이다. 이때, 깊이 정보 맵은 깊이 정보 맵 카메라를 이용하거나, 실제 일반 영상(Texture)을 이용하여 획득할 수 있다.The depth map is used to generate a virtual view image. The depth information map is a map of the distance between the camera and the actual object in the real world (depth information corresponding to each pixel at the same resolution as the real image) It is expressed in numbers. At this time, the depth information map can be acquired by using a depth information map camera or by using an actual general image (texture).

깊이 정보 맵 카메라를 이용하여 획득한 깊이 정보 맵은 주로 정지된 객체나 장면에서 신뢰성 높은 깊이 정보를 제공하나, 일정한 거리 이내에서만 깊이 정보 맵 카메라가 작동한다는 문제점이 있다. 이때, 깊이 정보 맵 카메라는 레이저(laser)나 구조화된 광선(structured light) 기법 또는 TFL(Time-of-Flight of Light)에 기초한 깊이 측정기법을 사용할 수 있다.The depth information map obtained by using the depth information map camera mainly provides reliable depth information in a stopped object or a scene, but the depth information map camera operates only within a certain distance. At this time, the depth information map camera can use a laser or a structured light technique or a depth measurement technique based on Time-of-Flight of Light (TFL).

깊이 정보 맵은 실제 일반 영상(Texture)과 변이 벡터(Disparity Vector)를 이용하여 생성될 수도 있다. 변이 벡터는 두 일반 영상 간의 시점 차이를 나타내는 정보를 의미한다. 변이 벡터는 현재 시점에서의 임의의 한 화소를 다른 시점에서의 화소들과 비교하여 가장 유사한 화소를 찾았을 때, 현재 시점에서의 임의의 한 화소와 다른 시점에서의 화소(현재 시점에서의 임의의 한 화소와 가장 유사한 화소) 간의 거리를 통해 획득할 수 있다.The depth information map may be generated using the actual texture (texture) and the disparity vector (Disparity Vector). The disparity vector is information indicating the time difference between two general images. The variation vector is obtained by comparing an arbitrary one pixel at the current time with the pixels at the other time and finding the most similar pixel, A pixel most similar to a pixel).

실제 영상과 그것의 깊이 정보 맵은 하나의 카메라뿐만 아니라 여러 개의 카메라에서 획득된 영상일 수 있다. 여러 개의 카메라에서 획득된 영상은 독립적으로 부호화될 수 있고, 일반적인 2차원 비디오 부호화/복호화 코덱을 사용하여 부호화/복호화될 수도 있다. 또한, 여러 개의 카메라에서 획득된 영상은 시점 간의 상관성이 존재하므로, 여러 개의 카메라에서 획득된 영상은 부호화 효율을 높이기 위하여 서로 다른 시점들 간의 예측을 사용하여 부호화될 수 있다.
The actual image and its depth information map may be images obtained from multiple cameras as well as one camera. The images obtained from the plurality of cameras can be independently encoded and can be encoded / decoded using a general two-dimensional video encoding / decoding codec. Also, since images obtained from a plurality of cameras have correlation between views, images obtained from a plurality of cameras can be encoded using prediction between different viewpoints in order to increase the coding efficiency.

도 3은 영상을 부호화 및 복호화할 때 영상의 분할 구조를 개략적으로 나타내는 도면이다.3 is a diagram schematically showing a divided structure of an image when encoding and decoding an image.

영상을 효율적으로 분할하기 위해 부호화 유닛(Coding Unit: CU)별로 부호화 및 복호화를 수행할 수 있다. 유닛은 구문 요소(syntax element)와 영상 샘플들이 포함된 블록을 합쳐서 일컫는 말이다. 유닛이 분할된다는 것은 유닛에 해당하는 블록을 분할한다는 것을 의미할 수 있다.It is possible to perform coding and decoding for each coding unit (CU) in order to efficiently divide an image. A unit is a combination of syntax elements and blocks containing image samples. When a unit is divided, it may mean that a block corresponding to the unit is divided.

도 3을 참조하면, 영상(300)을 최대 부호화 유닛(Largest Coding Unit; LCU)(이하, LCU라 함) 단위로 순차적으로 분할한 후, LCU 마다 분할 구조를 결정한다. 본 명세서에서, LCU는 코딩 트리 유닛(Coding Tree Unit, CTU)과 동일한 의미로 사용될 수 있다. 분할 구조는 LCU(310) 내에서 영상을 효율적으로 부호화하기 위한 부호화 유닛(이하, CU라 함)의 분포를 의미하며, 이러한 분포는 하나의 CU를 그 가로 크기 및 세로 크기의 절반으로 감소된 4개의 CU로 분할할지 여부에 따라 결정될 수 있다. 분할된 CU는 동일한 방식으로 분할된 CU에 대해서 그 가로 크기 및 세로 크기가 절반씩 감소된 4개의 CU로 재귀적으로 분할될 수 있다.Referring to FIG. 3, the image 300 is sequentially divided into units of a maximum coding unit (LCU) (LCU), and a divided structure is determined for each LCU. In this specification, an LCU can be used in the same sense as a coding tree unit (CTU). The division structure means a distribution of a coding unit (hereinafter referred to as a CU) for efficiently encoding an image in the LCU 310. This distribution is a distribution of four CUs reduced to half of the horizontal size and the vertical size Quot; CU " A partitioned CU can be recursively partitioned into four CUs whose halftone and vertical sizes are reduced by half for CUs partitioned in the same manner.

이때, CU의 분할은 미리 정의된 깊이까지 재귀적으로 분할될 수 있다. 깊이 정보는 CU의 크기를 나타내는 정보로서, 각 CU마다 저장될 수 있. 예컨대, LCU의 깊이는 0이고, SCU(Smallest Coding Unit)의 깊이는 미리 정의된 최대 깊이일 수 있다. 여기서, LCU는 상술한 바와 같이 최대 크기를 가지는 부호화 유닛이며, SCU(Smallest Coding Unit)는 최소 크기를 가지는 부호화 유닛이다. At this time, the division of the CU can be recursively divided to a predetermined depth. The depth information is information indicating the size of the CU, which can be stored for each CU. For example, the depth of the LCU may be zero and the depth of the Smallest Coding Unit (SCU) may be a predefined maximum depth. Here, the LCU is a coding unit having a maximum size as described above, and the SCU (Smallest Coding Unit) is a coding unit having a minimum size.

LCU(310)로부터 가로 및 세로 크기의 절반으로 분할을 수행할 때마다 CU의 깊이는 1씩 증가한다. 예를 들어, 특정 깊이 L에서 CU의 크기가 2Nx2N라면, 분할이 수행되지 않는 경우에 CU의 크기는 여전히 2Nx2N이며, 분할이 수행되는 경우에 CU의 크기는 NxN이 된다. 이때, NxN 크기 CU의 깊이는 깊이 L+1이 된다. 즉, CU의 크기에 대응하는 N의 크기는 깊이가 1씩 증가할 때마다 절반으로 감소한다. The depth of the CU increases by one each time the LCU 310 divides into halves and halves. For example, if the size of the CU is 2Nx2N at a certain depth L, the size of the CU is still 2Nx2N when the division is not performed, and the size of the CU is NxN when the division is performed. At this time, the depth of the NxN size CU becomes the depth L + 1. That is, the size of N corresponding to the size of the CU decreases by half every time the depth increases by one.

도 3을 참조하면, 최소 깊이가 0인 LCU의 크기는 64x64 화소들이고, 최대 깊이가 3인 SCU의 크기는 8x8 화소들일 수 있다. 이때, 64x64 화소들의 CU(LCU)의 깊이는 0, 32x32 화소들의 CU의 깊이는 1, 16x16 화소들의 CU의 깊이는 2, 8x8 화소들의 CU(SCU)의 깊이는 3으로 표현될 수 있다. Referring to FIG. 3, the size of the LCU having the minimum depth of 0 is 64x64 pixels, and the size of the SCU having the maximum depth of 3 may be 8x8 pixels. At this time, the depth of CU (LCU) of 64x64 pixels is 0, the depth of CU of 32x32 pixels is 1, the depth of CU of 16x16 pixels is 2, and the depth of CU (SCU) of 8x8 pixels is 3.

또한, 특정 CU를 분할할지에 대한 정보는 CU마다 1비트의 분할 정보를 통해 표현될 수 있다. 이 분할 정보는 SCU를 제외한 모든 CU에 포함될 수 있으며, 예컨대 CU를 분할하지 않을 경우에는 분할 정보에 0을 저장할 수 있고, CU를 분할할 경우에는 분할 정보에 1을 저장할 수 있다.
In addition, information on whether to divide a specific CU can be expressed through division information of 1 bit for each CU. This division information can be included in all the CUs except for the SCU. For example, when the CU is not divided, 0 can be stored in the division information, and when the CU is divided, 1 can be stored in the division information.

도 4는 부호화 유닛(CU)이 포함할 수 있는 예측 유닛(PU)의 형태를 도시한 것이다.Fig. 4 shows a form of a prediction unit (PU) that the encoding unit (CU) can include.

LCU로부터 분할된 CU 중 더 이상 분할(split)되지 않는 CU는 하나 이상의 예측 유닛으로 분할 또는 파티셔닝(partitioning)될 수 있다.A CU that is no longer split among the CUs segmented from the LCU may be partitioned or partitioned into one or more prediction units.

예측 유닛(이하, PU라 함)은 예측을 수행하는 기본 단위로서, 스킵(skip) 모드, 인터(inter) 모드, 인트라(intra) 모드 중 어느 하나로 부호화 및 복호화되며, 각 모드에 따라서 다양한 형태로 파티션될 수 있다.The prediction unit (hereinafter, referred to as PU) is a basic unit for performing prediction, and is encoded and decoded in any one of a skip mode, an inter mode, and an intra mode. It can be partitioned.

도 4를 참조하면, 스킵 모드의 경우, CU의 파티션 없이, CU와 동일한 크기를 갖는 2Nx2N 모드(410)를 지원할 수 있다.Referring to FIG. 4, in the skip mode, the 2Nx2N mode 410 having the same size as the CU can be supported without partitioning the CU.

인터 모드의 경우, CU에 대하여 8가지의 파티션된 형태, 예컨대 2Nx2N 모드(410), 2NxN 모드(415), Nx2N 모드(420), NxN 모드(425), 2NxnU 모드(430), 2NxnD 모드(435), nLx2N 모드(440), nRx2N 모드(445)를 지원할 수 있다.In the case of the inter mode, there are eight partitioned forms for the CU, such as 2Nx2N mode 410, 2NxN mode 415, Nx2N mode 420, NxN mode 425, 2NxnU mode 430, 2NxnD mode 435 ), nLx2N mode 440, and nRx2N mode 445, for example.

인트라 모드의 경우, CU에 대하여 2Nx2N 모드(410), NxN 모드(425)를 지원할 수 있다.
In the case of the intra mode, the 2Nx2N mode 410 and the NxN mode 425 can be supported for the CU.

도 5는 3차원 비디오 코덱(codec)에서 시점 간 예측(inter view prediction)의 구조를 나타내는 일례다.FIG. 5 shows an example of a structure of inter view prediction in a three-dimensional video codec.

시점 1(View 1)과 시점 2(View 2)는 시점 0(View 0)을 참조 영상으로 사용하여 시점 간 예측을 수행할 수 있으며, 부호화 순서는 시점 1(View 1)과 시점 2(View 2)보다 시점 0(View 0)이 먼저 부호화되어야 한다. View 1 and View 2 can perform inter-view prediction using View 0 as a reference image and the coding order is View 1 and View 2 (View 0) must be encoded first.

이때, 시점 0(View 0)은 다른 시점과 상관없이 독립적으로 부호화될 수 있으므로 독립적인 시점(Independent View)이라고 한다. 반면, 시점 1(View 1)과 시점 2(View 2)는 시점 0(View 0)을 참조 영상으로 사용하여 부호화되므로 의존적인 시점(Dependent View)라고 한다. 독립적인 시점 영상은 일반적인 2차원 비디오 코덱을 사용하여 부호화 될 수 있다. 반면, 의존적인 시점 영상은 시점 간 예측을 수행하여야 하므로, 시점 간 예측 과정이 포함된 3차원 비디오 코덱을 사용하여 부호화될 수 있다.At this time, View 0 can be independently encoded regardless of other viewpoints, so it is referred to as an independent view. On the other hand, View 1 and View 2 are referred to as Dependent View because they are encoded using View 0 as a reference image. The independent viewpoint image can be encoded using a general two-dimensional video codec. On the other hand, since the dependent view image needs to perform the inter-view prediction, it can be encoded using the 3D video codec including the inter-view prediction process.

또한, 시점 1(View 1)과 시점 2(View 2)의 부호화 효율을 증가시키기 위하여 시점 1(View 1)과 시점 2(View 2)는 깊이 정보 맵을 이용하여 부호화될 수 있다. 예를 들어, 실제 영상과 그것의 깊이 정보 맵을 부호화할 때, 실제 영상과 깊이 정보 맵은 서로 독립적으로 부호화 및/또는 복호화될 수 있다. 또는 실제 영상과 깊이 정보 맵을 부호화할 때, 실제 영상과 깊이 정보 맵은 도 6과 같이 서로 의존적으로 부호화 및/또는 복호화될 수 있다.
Also, in order to increase the coding efficiency of View 1 and View 2, View 1 and View 2 can be encoded using a depth information map. For example, when coding the actual image and its depth information map, the actual image and depth information map can be encoded and / or decoded independently of each other. Or when the actual image and the depth information map are encoded, the actual image and the depth information map may be encoded and / or decoded depending on each other as shown in FIG.

도 6은 3차원 비디오 인코더 및/또는 디코더에서 실제 영상(texture view)과 깊이 정보 맵(depth view)을 부호화 및/또는 복호화하는 과정을 나타낸 일례다.FIG. 6 shows an example of a process of encoding and / or decoding a texture view and a depth view in a 3D video encoder and / or decoder.

도 6을 참조하면, 3차원 비디오 인코더는 실제 영상(texture view)을 부호화하는 실제 영상 인코더(texture encoder)와 깊이 정보 맵(depth view)을 부호화하는 깊이 정보 맵 인코더(depth encoder)를 포함할 수 있다. Referring to FIG. 6, a 3D video encoder may include a texture encoder for encoding a texture view and a depth encoder for encoding a depth view. have.

이때, 실제 영상 인코더는 깊이 정보 맵 인코더에 의해 부호화된 깊이 정보 맵을 이용하여 실제 영상을 부호화할 수 있다. 반대로, 깊이 정보 맵 인코더는 실제 영상 인코더에 의해 부호화된 실제 영상을 이용하여 깊이 정보 맵을 부호화할 수 있다.At this time, the actual image encoder can encode the real image using the depth information map encoded by the depth information map encoder. Conversely, the depth information map encoder can encode the depth information map using the actual image encoded by the actual image encoder.

3차원 비디오 디코더는 실제 영상을 복호화하는 실제 영상 디코더(texture decoder)와 깊이 정보 맵을 복호화하는 깊이 정보 맵 디코더(depth decoder)를 포함할 수 있다. The 3D video decoder may include an actual image decoder for decoding an actual image and a depth decoder for decoding a depth information map.

이때, 실제 영상 디코더는 깊이 정보 맵 디코더에 의해 복호화된 깊이 정보 맵을 이용하여 실제 영상을 복호화할 수 있다. 반대로, 깊이 정보 맵 디코더는 실제 영상 디코더에 의해 복호화된 실제 영상을 이용하여 깊이 정보 맵을 복호화할 수 있다.
At this time, the actual image decoder can decode the real image using the depth information map decoded by the depth information map decoder. In contrast, the depth information map decoder can decode the depth information map using the actual image decoded by the actual image decoder.

도 7은 비디오 인코더의 일 실시예에 따른 구성을 나타내는 블록도이다.7 is a block diagram illustrating a configuration according to an embodiment of a video encoder.

도 7은 멀티 뷰 구조에 대해 적용 가능한 비디오 인코더의 일 실시예를 나타내며, 멀티 뷰 구조에 대한 비디오 인코더는 단일 뷰 구조에 대한 비디오 인코더를 확장(extension)하여 구현될 수 있다. 이때, 도 7의 비디오 인코더는 도 6의 실제 영상 인코더 및/또는 깊이 정보 맵 인코더에서 사용될 수 있으며, 인코더는 부호화 장치를 의미할 수 있다.FIG. 7 shows an embodiment of a video encoder applicable to a multi-view structure, and a video encoder for a multi-view structure may be implemented by extending a video encoder for a single view structure. At this time, the video encoder of FIG. 7 may be used in the real image encoder and / or depth information map encoder of FIG. 6, and the encoder may mean an encoding device.

도 7을 참조하면, 비디오 인코더(700)는 인터 예측부(710), 인트라 예측부(720), 스위치(715), 감산기(725), 변환부(730), 양자화부(740), 엔트로피 부호화부(750), 역양자화부(760), 역변환부(770), 가산기(775), 필터부(780) 및 참조 픽처 버퍼(790)를 포함한다.7, the video encoder 700 includes an inter prediction unit 710, an intra prediction unit 720, a switch 715, a subtractor 725, a transform unit 730, a quantization unit 740, An inverse quantization unit 760, an inverse transform unit 770, an adder 775, a filter unit 780, and a reference picture buffer 790.

비디오 인코더(700)는 입력 영상에 대해 인트라(intra) 모드 또는 인터(inter) 모드로 부호화를 수행하고 비트스트림(bitstream)을 출력할 수 있다.The video encoder 700 may encode an input image in an intra mode or an inter mode and output a bitstream.

인트라 예측(intra prediction)은 화면 내 예측(intra picture prediction)을 의미하며, 인터 예측(inter prediction)은 화면 간 (inter picture) 예측 또는 뷰 간 (inter-view) 예측을 의미한다. 인트라 모드인 경우 스위치(715)가 인트라 모드로 전환되고, 인터 모드인 경우 스위치(715)가 인터 모드로 전환된다. Intra prediction refers to intra picture prediction, and inter prediction refers to inter picture prediction or inter-view prediction. In the intra mode, the switch 715 is switched to the intra mode, and in the inter mode, the switch 715 is switched to the inter mode.

비디오 인코더(700)는 입력 픽처의 블록(현재 블록)에 대한 예측 블록을 생성한 후, 현재 블록과 예측 블록의 차분을 부호화할 수 있다.The video encoder 700 may generate a prediction block for a block of the input picture (current block), and then may code the difference between the current block and the prediction block.

인트라 모드인 경우, 인트라 예측부(720)는 현재 블록 주변의 이미 부호화된 블록의 화소값을 참조 화소로 이용할 수 있다. 인트라 예측부(720)는 참조 화소를 이용하여 현재 블록에 대한 예측 샘플들을 생성할 수 있다.In the intra mode, the intraprediction unit 720 can use the pixel value of the already coded block around the current block as a reference pixel. The intra prediction unit 720 may generate prediction samples for the current block using the reference pixels.

인터 모드인 경우, 인터 예측부(710)는, 참조 픽처 버퍼(790)에 저장되어 있는 참조 픽처에서 입력 블록(현재 블록)에 대응하는 참조 블록을 특정하는 움직임 벡터를 구할 수 있다. 인터 예측부(710)는 움직임 벡터와 참조 픽처 버퍼(790)에 저장되어 있는 참조 픽처를 이용하여 움직임 보상을 수행함으로써 현재 블록에 대한 예측 블록을 생성할 수 있다. In the inter mode, the inter-prediction unit 710 can obtain a motion vector that specifies a reference block corresponding to an input block (current block) in a reference picture stored in the reference picture buffer 790. [ The inter prediction unit 710 can generate a prediction block for a current block by performing motion compensation using a motion vector and a reference picture stored in the reference picture buffer 790. [

멀티 뷰 구조에서, 인터 모드에서 적용되는 인터 예측은 인터 뷰 예측을 포함할 수 있다. 인터 예측부(710)는 참조 뷰의 픽처를 샘플링하여 인터 뷰 참조 픽처를 구성할 수도 있다. 인터 예측부(710)는 인터 뷰 참조 픽처를 포함하는 참조 픽처 리스트를 이용하여 인터 뷰 예측을 수행할 수 있다. 뷰 간의 참조 관계는 뷰 간의 의존성을 특정하는 정보를 통해 시그널링될 수 있다.In a multi-view structure, inter prediction that is applied in inter mode may include inter-view prediction. The inter prediction unit 710 may construct an inter-view reference picture by sampling a picture of the reference view. The inter prediction unit 710 can perform the inter-view prediction using the reference picture list including the inter-view reference pictures. A reference relationship between views can be signaled through information that specifies dependencies between views.

한편, 현재 뷰의 픽처와 참조 뷰의 픽처가 동일 사이즈인 경우에 상기 참조 뷰 픽처에 적용되는 샘플링은 참조 뷰 픽처로부터의 샘플 복사 또는 보간에 의한 참조 샘플의 생성을 의미할 수 있다. 현재 뷰 픽처와 참조 뷰 픽처의 해상도가 상이한 경우에 상기 참조 뷰 픽처에 적용되는 샘플링은 업샘플링 또는 다운샘플링을 의미할 수 있다. 예컨대, 뷰 간 해상도가 다른 경우에는 참조 뷰의 복원된 픽처를 업샘플링하여 인터 뷰 참조 픽처가 구성될 수도 있다. On the other hand, when the picture of the current view and the picture of the reference view are the same size, sampling applied to the reference view picture may mean generation of a reference sample by copying or interpolation from the reference view picture. The sampling applied to the reference view picture may mean upsampling or downsampling when the resolution of the current view picture and the reference view picture are different. For example, if the resolution between views is different, an inter-view reference picture may be constructed by up-sampling the reconstructed picture of the reference view.

어떤 뷰의 픽처를 이용하여 인터 뷰 참조 픽처를 구성할 것인지는 부호화 비용(coding cost) 등을 고려하여 결정될 수 있다. 인코더는 인터 뷰 참조 픽처로 사용될 픽처가 속하는 뷰(view)를 특정하는 정보를 복호화 장치로 전송할 수 있다. Which picture of a view is used to construct an inter-view reference picture can be determined in consideration of coding cost and the like. The encoder may transmit to the decoding apparatus information specifying a view to which a picture to be used as an inter-view reference picture belongs.

또한, 인터 뷰 예측에 있어서 참조되는 뷰, 즉 참조 뷰 내에서 현재 블록의 예측에 이용되는 픽처는 현재 픽처(현재 뷰 내 예측 대상 픽처)와 동일 AU(Access Unit)의 픽처일 수 있다. The picture referred to in the inter-view prediction, that is, the picture used for prediction of the current block in the reference view may be a picture of the same Access Unit (AU) as the current picture (the current picture to be predicted).

감산기(725)는 현재 블록과 예측 블록의 차분에 의해 레지듀얼 블록(residual block, 레지듀얼 신호)을 생성할 수 있다. The subtractor 725 can generate a residual block (residual signal) by a difference between the current block and the prediction block.

변환부(730)는 레지듀얼 블록에 대해 변환(transform)을 수행하여 변환 계수(transform coefficient)를 출력할 수 있다. 변환 생략(transform skip) 모드가 적용되는 경우에, 변환부(730)는 레지듀얼 블록에 대한 변환을 생략할 수도 있다. The transforming unit 730 may perform a transform on the residual block to output a transform coefficient. In the case where the transform skip mode is applied, the transforming unit 730 may omit the transform for the residual block.

양자화부(740)는 변환 계수를 양자화 파라미터에 따라 양자화하여 양자화된 계수(quantized coefficient)를 출력할 수 있다. The quantization unit 740 may quantize the transform coefficient according to the quantization parameter to output a quantized coefficient.

엔트로피 부호화부(750)는, 양자화부(740)에서 산출된 값들 또는 부호화 과정에서 산출된 부호화 파라미터 값 등을 확률 분포에 따라 엔트로피 부호화하여 비트스트림을 출력할 수 있다. 엔트로피 부호화부(750)는 비디오의 화소 정보 외에 비디오 디코딩을 위한 정보(예컨대, 신택스 엘리먼트(syntax element) 등)을 엔트로피 부호화 할 수도 있다. The entropy encoding unit 750 can output the bitstream by entropy encoding the values calculated by the quantization unit 740 or the encoding parameter values calculated in the encoding process according to the probability distribution. The entropy encoding unit 750 may entropy-encode information (e.g., a syntax element) for video decoding in addition to the pixel information of the video.

부호화 파라미터는 부호화 및 복호화에 필요한 정보로서, 신택스 엘리먼트와 같이 인코더에서 부호화되어 복호화 장치로 전달되는 정보뿐만 아니라, 부호화 혹은 복호화 과정에서 유추될 수 있는 정보를 포함할 수도 있다. The encoding parameter is information necessary for encoding and decoding, and may include not only information encoded in an encoder such as a syntax element and transmitted to a decoding apparatus, but also information that can be inferred in a coding or decoding process.

레지듀얼 신호는 원신호와 예측 신호의 차이를 의미할 수 있고, 또한 원신호와 예측 신호의 차이가 변환(transform)된 형태의 신호 또는 원신호와 예측 신호의 차이가 변환되고 양자화된 형태의 신호를 의미할 수도 있다. 블록 단위에서, 레지듀얼 신호는 레지듀얼 블록이라 할 수 있다.The residual signal may be a difference between the original signal and the prediction signal, and may be a signal in which the difference between the original signal and the prediction signal is transformed, or a difference between the original signal and the prediction signal is converted and the quantized signal . In block units, the residual signal may be referred to as a residual block.

엔트로피 부호화가 적용되는 경우, 높은 발생 확률을 갖는 심볼에 적은 수의 비트가 할당되고 낮은 발생 확률을 갖는 심볼에 많은 수의 비트가 할당되어 심볼이 표현됨으로써, 부호화 대상 심볼들에 대한 비트열의 크기가 감소될 수 있다. 따라서 엔트로피 부호화를 통해서 영상 부호화의 압축 성능이 높아질 수 있다.When entropy coding is applied, a small number of bits are allocated to a symbol having a high probability of occurrence, and a large number of bits are allocated to a symbol having a low probability of occurrence, so that the size of a bit string for the symbols to be coded Can be reduced. Therefore, the compression performance of the image encoding can be enhanced through the entropy encoding.

엔트로피 부호화를 위해 지수 골룸(exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding) 또는 CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 부호화 방법이 사용될 수 있다. 예를 들어, 엔트로피 부호화부(750)는 가변 길이 부호화(VLC: Variable Lenghth Coding/Code) 테이블을 이용하여 엔트로피 부호화를 수행할 수 있다. 또한 엔트로피 부호화부(750)는 대상 심볼의 이진화(binarization) 방법 및 대상 심볼/빈(bin)의 확률 모델(probability model)을 도출한 후, 도출된 이진화 방법 또는 확률 모델을 사용하여 엔트로피 부호화를 수행할 수도 있다.For entropy encoding, an encoding method such as exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), or Context-Adaptive Binary Arithmetic Coding (CABAC) may be used. For example, the entropy encoding unit 750 may perform entropy encoding using a Variable Length Coding / Code (VLC) table. Further, the entropy encoding unit 750 derives a binarization method of a target symbol and a probability model of a target symbol / bin, and then performs entropy encoding using the derived binarization method or probability model You may.

양자화된 계수는 역양자화부(760)에서 역양자화되고 역변환부(770)에서 역변환될 수 있다. 역양자화, 역변환된 계수는 가산기(775)를 통해 예측 블록과 더해지고 복원 블록이 생성될 수 있다. The quantized coefficients can be inversely quantized in the inverse quantization unit 760 and inversely transformed in the inverse transformation unit 770. The inverse quantized and inverse transformed coefficients are added to the prediction block through the adder 775, and a reconstruction block can be generated.

복원 블록은 필터부(780)를 거치고, 필터부(780)는 디블록킹 필터(deblocking filter), SAO(Sample Adaptive Offset), ALF(Adaptive Loop Filter) 중 적어도 하나 이상을 복원 블록 또는 복원 픽처에 적용할 수 있다. 필터부(780)를 거친 복원 블록은 참조 영상 버퍼(790)에 저장될 수 있다.
The restoration block passes through a filter unit 780 and the filter unit 780 applies at least one of a deblocking filter, a sample adaptive offset (SAO), and an adaptive loop filter (ALF) can do. The reconstruction block through the filter unit 780 may be stored in the reference image buffer 790.

도 8은 비디오 디코더의 일 실시예에 따른 구성을 나타내는 블록도이다.8 is a block diagram illustrating a configuration according to an embodiment of the video decoder.

도 8은 멀티 뷰 구조에 대해 적용 가능한 비디오 디코더의 일 실시예를 나타내며, 멀티 뷰 구조에 대한 비디오 디코더는 단일 뷰 구조에 대한 비디오 디코더를 확장(extension)하여 구현될 수 있다. FIG. 8 shows an embodiment of a video decoder applicable to a multi-view structure, and a video decoder for a multi-view structure may be implemented by extending a video decoder for a single view structure.

이때, 도 8의 비디오 디코더는 도 6의 실제 영상 디코더 및/또는 깊이 정보 맵 디코더에서 사용될 수 있다. 설명의 편의를 위해, 본 명세서에서는 ‘복호화’와 ‘디코딩’가 혼용되거나 ‘복호화 장치’와 ‘디코더’가 혼용될 수도 있다.At this time, the video decoder of Fig. 8 can be used in the actual picture decoder and / or depth information map decoder of Fig. For convenience of explanation, 'decryption' and 'decoding' may be used in combination or 'decryption device' and 'decoder' may be used in combination.

도 8을 참조하면, 상기 비디오 디코더(800)는 엔트로피 복호화부(810), 역양자화부(820), 역변환부(830), 인트라 예측부(840), 인터 예측부(850), 필터부(860) 및 참조 픽처 버퍼(870)를 포함한다.8, the video decoder 800 includes an entropy decoding unit 810, an inverse quantization unit 820, an inverse transform unit 830, an intra prediction unit 840, an inter prediction unit 850, 860 and a reference picture buffer 870.

비디오 디코더(800)는 인코더에서 출력된 비트스트림을 입력 받아 인트라 모드 또는 인터 모드로 복호화를 수행하고 재구성된 영상, 즉 복원 영상을 출력할 수 있다. The video decoder 800 receives the bit stream output from the encoder and decodes the bit stream into an intra mode or an inter mode, and outputs a reconstructed image, that is, a reconstructed image.

인트라 모드인 경우 스위치가 인트라 예측을 위해 전환되고, 인터 모드인 경우 스위치가 인터 예측을 위해 전환될 수 있다. In the intra mode, the switch is switched for intra prediction, and in the inter mode, the switch can be switched for inter prediction.

비디오 디코더(800)는 입력 받은 비트스트림으로부터 복원된 레지듀얼 블록(residual block)을 얻고 예측 블록을 생성한 후 복원된 레지듀얼 블록과 예측 블록을 더하여 재구성된 블록, 즉 복원 블록을 생성할 수 있다.The video decoder 800 may obtain a residual block reconstructed from the input bitstream, generate a prediction block, and add the reconstructed residual block and the prediction block to generate a reconstructed block, i.e., a reconstructed block .

엔트로피 복호화부(810)는, 입력된 비트스트림을 확률 분포에 따라 엔트로피 복호화하여, 양자화된 계수(quantized coefficient)와 신택스 엘리먼트 등의 정보를 출력할 수 있다.The entropy decoding unit 810 can entropy-decode the input bitstream according to the probability distribution, and output information such as quantized coefficients and syntax elements.

양자화된 계수는 역양자화부(820)에서 역양자화되고 역변환부(830)에서 역변환 된다. 양자화된 계수를 역양자화/역변환하여, 복원된 레지듀얼 블록(residual block)이 생성될 수 있다.The quantized coefficients are inversely quantized in the inverse quantization unit 820 and inversely transformed in the inverse transformation unit 830. The reconstructed residual block can be generated by inverse-quantizing / inverse-transforming the quantized coefficients.

인트라 모드인 경우, 인트라 예측부(840)는 현재 블록 주변의 이미 부호화된 블록의 화소값을 이용하여 현재 블록에 대한 예측 블록을 생성할 수 있다.In the intra mode, the intra prediction unit 840 can generate a prediction block for the current block using the pixel value of the already coded block around the current block.

인터 모드인 경우, 인터 예측부(850)는 움직임 벡터 및 참조 픽처 버퍼(870)에 저장되어 있는 참조 픽처를 이용하여 움직임 보상을 수행함으로써 현재 블록에 대한 예측 블록을 생성할 수 있다.In the inter mode, the inter-prediction unit 850 can generate a prediction block for a current block by performing motion compensation using a motion vector and a reference picture stored in the reference picture buffer 870.

멀티 뷰 구조의 경우, 인터 모드에서 적용되는 인터 예측은 인터 뷰 예측을 포함할 수 있다. 인터 예측부(850)는 참조 뷰의 픽처를 샘플링하여 인터 뷰 참조 픽처를 구성할 수 있다. 인터 예측부(850)는 인터 뷰 참조 픽처를 포함하는 참조 픽처 리스트를 이용하여 인터 뷰 예측을 수행할 수 있다. 뷰 간의 참조 관계는 뷰 간의 의존성을 특정하는 정보를 통해 시그널링될 수 있다.In the case of a multi-view structure, inter prediction that is applied in the inter mode may include inter-view prediction. The inter prediction unit 850 may construct a picture of an inter-view reference by sampling a picture of the reference view. The inter-prediction unit 850 can perform the inter-view prediction using the reference picture list including the inter-view reference pictures. A reference relationship between views can be signaled through information that specifies dependencies between views.

한편, 현재 뷰 픽처(현재 픽처)와 참조 뷰 픽처가 동일 사이즈인 경우에 상기 참조 뷰 픽처에 적용되는 샘플링은 참조 뷰 픽처로부터의 샘플 복사 또는 보간에 의한 참조 샘플의 생성을 의미할 수 있다. 현재 뷰 픽처와 참조 뷰 픽처의 해상도가 상이한 경우에 상기 참조 뷰 픽처에 적용되는 샘플링은 업샘플링 또는 다운샘플링을 의미할 수 있다.On the other hand, if the current view picture (current picture) and the reference view picture are of the same size, sampling applied to the reference view picture may mean generation of a reference sample by copying or interpolation from the reference view picture. The sampling applied to the reference view picture may mean upsampling or downsampling when the resolution of the current view picture and the reference view picture are different.

예컨대, 뷰 간 해상도가 다른 경우에 뷰 간에 인터 뷰 예측이 적용된다면, 참조 뷰의 복원된 픽처를 업샘플링하여 인터 뷰 참조 픽처가 구성될 수 있다.For example, if inter-view prediction is applied between views when the inter-view resolution is different, an inter-view reference picture may be constructed by up-sampling the reconstructed picture of the reference view.

이때, 인터 뷰 참조 픽처로 사용될 픽처가 속하는 뷰를 특정하는 정보는 인코더로부터 디코더로 전송될 수 있다.At this time, the information specifying the view to which the picture to be used as the inter-view reference picture belongs may be transmitted from the encoder to the decoder.

또한, 인터 뷰 예측에 있어서 참조되는 뷰, 즉 참조 뷰 내에서 현재 블록의 예측에 이용되는 픽처는 현재 픽처(현재 뷰 내 예측 대상 픽처)와 동일 AU(Access Unit)의 픽처일 수 있다.The picture referred to in the inter-view prediction, that is, the picture used for prediction of the current block in the reference view may be a picture of the same Access Unit (AU) as the current picture (the current picture to be predicted).

복원된 레지듀얼 블록과 예측 블록은 가산기(855)에서 더해져서, 복원 블록이 생성된다. 다시 말하면, 레지듀얼 샘플과 예측 샘플이 더해져서 복원된 샘플 또는 복원된 픽처가 생성된다.The restored residual block and the prediction block are added by the adder 855, and a restoration block is generated. In other words, the residual sample and the prediction sample are added together to generate a reconstructed sample or reconstructed picture.

복원된 픽처는 필터부(860)에서 필터링 된다. 필터부(860)는 디블록킹 필터, SAO, ALF 중 적어도 하나 이상을 복원 블록 또는 복원 픽처에 적용할 수 있다. 필터부(860)는 재구성된(modified) 혹은 필터링된(filtered) 복원 픽처(reconstructed picture)를 출력한다. 복원 영상은 참조 픽처 버퍼(870)에 저장되어 인터 예측에 사용될 수 있다.The restored picture is filtered by the filter unit 860. The filter unit 860 may apply at least one of the deblocking filter, SAO, and ALF to the restoration block or the restored picture. The filter unit 860 outputs a reconstructed picture that has been modified or filtered. The reconstructed image is stored in the reference picture buffer 870 and can be used for inter prediction.

도 7과 도 8에서는 각각의 모듈들이 서로 다른 기능을 수행하는 것으로 설명하였으나, 본 발명은 이에 한정되지 않으며, 하나의 모듈에서 둘 이상의 기능을 수행할 있다. 예컨대, 도 7과 도 8에서 인트라 예측부와 인터 예측부의 동작은 하나의 모듈(예측부)에서 수행될 수도 있다.In FIGS. 7 and 8, each of the modules performs different functions. However, the present invention is not limited thereto, and one module may perform two or more functions. For example, in FIGS. 7 and 8, operations of the intra prediction unit and the inter prediction unit may be performed in one module (prediction unit).

한편, 도 7 및 도 8에서는 하나의 인코더/디코더가 멀티 뷰에 대한 부호화/복호화를 모두 처리하는 것으로 설명하였으나, 이는 설명의 편의를 위한 것으로서, 인코더/디코더는 뷰별로 구성될 수도 있다.7 and 8, one encoder / decoder processes all of the encoding / decoding for multi-view. However, this is for convenience of explanation, and the encoder / decoder may be configured for each view.

이 경우, 현재 뷰의 인코더/디코더는 다른 뷰의 정보를 이용하여 현재 뷰의 부호화/복호화를 수행할 수 있다. 예컨대, 현재 뷰의 예측부(인터 예측부)는 다른 뷰의 픽셀 정보 또는 복원된 픽처 정보를 이용하여 현재 블록에 대한 인트라 예측 또는 인터 예측을 수행할 수도 있다.In this case, the encoder / decoder of the current view can perform encoding / decoding of the current view using information of another view. For example, the prediction unit (inter prediction unit) of the current view may perform intra prediction or inter prediction on the current block using pixel information of another view or reconstructed picture information.

여기서는, 뷰 간의 예측만을 예로서 설명하였으나, 인코더/디코더는 뷰별로 구성되든, 하나의 장치가 멀티 뷰를 처리하든 상관없이, 다른 뷰의 정보를 이용하여 현재 레이어에 대한 부호화/복호화를 수행할 수 있다.Here, only the prediction between views is described as an example. However, the encoder / decoder can encode / decode the current layer using information of another view, regardless of whether the encoder / have.

본 발명에서 뷰에 관한 설명은 스케일러빌러티를 지원하는 레이어(layer)에 대해서도 동일하게 적용될 수 있다. 예컨대, 본 발명에서 뷰(view)는 레이어(layer)일 수도 있다.
The description of the view in the present invention can be similarly applied to a layer supporting scalability. For example, in the present invention, a view may be a layer.

도 9는 3차원 비디오 코덱에 대한 예측 구조의 일례를 나타내는 도면이다. 설명의 편의상 도 9에서는 3대의 카메라에서 획득한 실제 영상과 실제 영상에 대응되는 깊이 정보 맵을 부호화하기 위한 예측 구조를 나타낸다.9 is a diagram showing an example of a prediction structure for a three-dimensional video codec. For ease of explanation, FIG. 9 shows a prediction structure for encoding a depth information map corresponding to an actual image and an actual image acquired from three cameras.

도 9에서는 3대의 카메라에서 획득된 3개의 실제 영상은 시점(view)에 따라 T0, T1, T2로 나타내었고, 실제 영상에 대응되는 3개의 깊이 정보 맵은 시점(view)에 따라 각각 D0, D1, D2로 나타내었다. 여기서, T0와 D0는 시점 0(View 0)에서 획득한 영상이고, T1와 D1는 시점 1(View 1)에서 획득한 영상이며, T2와 D2는 시점 2(View 2)에서 획득한 영상이다. 이때, 도 9에 도시된 사각형은 영상(픽처)를 나타낸다.In FIG. 9, the three actual images obtained from the three cameras are represented by T0, T1, and T2 according to the view, and the three depth information maps corresponding to the actual image are represented by D0 and D1 , And D2. Here, T0 and D0 are images acquired at View 0, T1 and D1 are images acquired at View 1, and T2 and D2 are images acquired at View 2, respectively. At this time, the rectangle shown in Fig. 9 represents an image (picture).

각 영상(픽처)는 부호화/복호화 타입에 따라 I 픽처(Intra Picture), P 픽처(Uni-prediction Picture), B 픽처(Bi-prediction Picture)로 나뉘어지며, 각 픽처는 각 픽처의 부호화/복호화 타입에 따라 부호화/복호화될 수 있다. I 픽처에서는 인터 예측 없이 영상 자체를 부호화하고, P 픽처에서는 단방향에 존재하는 참조 영상만을 이용하여 인터 예측을 하며, B 픽처에서는 양방향에 존재하는 참조 영상을 이용하여 인터 예측을 수행할 수 있다. 이때, 도 9의 화살표는 예측 방향을 나타낸다. 즉, 예측 방향에 따라 실제 영상과 그것의 깊이 정보 맵은 서로 의존적으로 부호화/복호화될 수 있다.
Each picture is divided into an I picture (Intra Picture), a P picture (Uni-prediction Picture), and a B picture (Bi-prediction Picture) according to the coding / decoding type. Each picture is coded / decoded As shown in FIG. In the I-picture, the video itself is encoded without inter-prediction. In the P-picture, the inter-prediction is performed using only the reference image existing in the unidirection, and the inter-prediction is performed using the reference pictures existing in both directions in the B-picture. At this time, the arrows in Fig. 9 indicate the prediction direction. That is, the actual image and its depth information map can be encoded / decoded depending on each other depending on the prediction direction.

인터 예측을 통해 영상의 부호화/복호화를 수행하기 위해서는 현재 블록의 움직임 정보가 필요하다. 현재 불륵의 움직임 정보를 유추하는 방법으로는 현재 블록과 인접한 블록의 움직임 정보를 이용하는 방법, 동일한 시점 내에서 시간적 상관성을 이용하는 방법, 또는 인접한 시점에서 시점 간 상관성을 이용하는 방법이 있으며, 상술한 인터 예측 방법은 한 픽처에서 혼용되어 사용될 수 있다. 여기서, 현재 블록은 예측이 수행되는 블록을 말한다. 움직임 정보는 움직임 벡터, 참조 영상 번호 및/또는 예측 방향(예컨대, 단방향 예측인지 양방향 예측인지, 시간적 상관성을 이용하는지, 또는 시점 간 상관성을 이용하는지 여부 등)을 의미할 수도 있다.In order to perform encoding / decoding of an image through inter prediction, motion information of the current block is required. As a method for deriving motion information of the current block, there are a method of using motion information of a block adjacent to the current block, a method of using temporal correlation within the same point of time, or a method of using inter-view correlation at an adjacent point. The method can be used interchangeably in one picture. Here, the current block refers to a block on which prediction is performed. The motion information may mean a motion vector, a reference picture number, and / or a prediction direction (e.g., whether unidirectional prediction, bi-directional prediction, temporal correlation, or inter-view correlation).

이때, 예측 방향은 참조 픽쳐 목록(Reference Picture List: RefPicList)의 사용에 따라 크게 단방향 예측과 양방향 예측으로 나누어 질 수 있다. 단방향 예측은 순 방향 참조 픽쳐 목록 (LIST 0, L0)을 사용하는 순방향 예측(Pred_L0: Prediction L0)과 역 방향 참조 픽쳐 목록 (LIST 1, L1)을 사용하는 역방향 예측(Pred_L1: Prediction L1)으로 구분된다. 또한, 양방향 예측(Pred_BI: Prediction BI)은 순방향 참조 픽쳐 목록(LIST 0)과 역방향 참조 픽쳐 목록(LIST 1)을 모두 사용하여, 순방향 예측과 역방향 예측이 모두 존재하는 것을 말할 수 있으며, 순방향 참조 픽쳐 목록 (LIST 0)을 역방향 참조 픽쳐 목록 (LIST 1)에 복사하여 순방향 예측이 두 개 존재하는 경우도 양 방향 예측에 포함할 수 있다.At this time, the prediction direction can be largely divided into unidirectional prediction and bidirectional prediction according to use of a reference picture list (Ref PictureList). The unidirectional prediction is divided into forward prediction (Pred_L0) using the forward reference picture list (LIST0, L0) and backward prediction (Pred_L1: Prediction L1) using the backward reference picture list (LIST1, do. The bidirectional prediction (Pred_BI) can be used to indicate that both the forward reference picture list (LIST0) and the backward reference picture list (LIST1) are both forward prediction and backward prediction. The list (LIST 0) is copied to the reverse reference picture list (LIST 1), and two forward predictions can be included in the bi-directional prediction.

예측 방향 여부는 predFlagL0, predFlagL1를 사용하여 정의할 수 있다. 이때, predFlagL0는 순방향 참조 픽쳐 목록(List 0)의 사용 여부를 지시하는 지시자이며, predFlagL1는 역방향 참조 픽쳐 목록(List 1)의 사용 여부를 지시하는 지시자에 해당된다. 예컨대, 단방향 예측이고 순방향 예측일 경우에는 predFlagL0가 '1'이 되고 predFlagL1은 '0'이 될 수 있고, 단방향 예측이고 역방향 예측일 경우에는 predFlagL0가 '0'이 되고 predFlagL1이 '1'이 될 수 있으며, 양방향 예측일 경우에는 predFlagL0가 '1'이 되고 predFlagL1이 '1'이 될 수 있다.
The prediction direction can be defined using predFlagL0, predFlagL1. At this time, predFlagL0 is an indicator for indicating whether to use the forward reference picture list (List 0), and predFlagL1 corresponds to an indicator for indicating whether to use the backward reference picture list (List 1). For example, in the case of unidirectional prediction and forward prediction, predFlagL0 may be '1' and predFlagL1 may be '0'. In case of unidirectional prediction and backward prediction, predFlagL0 may be '0' and predFlagL1 may be ' In the case of bi-directional prediction, predFlagL0 may be '1' and predFlagL1 may be '1'.

도 10은 현재 블록에 대한 머지 후보 리스트(merge candidate list)를 구성하는 데 사용되는 주변 블록들을 나타낸 일례다.FIG. 10 shows an example of neighboring blocks used to construct a merge candidate list for a current block.

머지 모드(merge mode)는 인터 예측을 수행하는 방법 중 하나이며, 머지 모드에서는 현재 블록의 움직임 정보(예를 들어, 움직임 벡터, 참조 픽처 리스트, 참조 픽처 인덱스 중 적어도 하나)로서 현재 블록의 주변 블록의 움직임 정보를 이용할 수 있다. 이때, 주변 블록의 움직임 정보를 현재 블록의 움직임 정보로 사용하는 것을 머징(merging), 움직임 병합(motion merging) 또는 병합 움직임 (merging motion)이라고 한다. The merge mode is one of the methods for performing inter prediction. In the merge mode, the merge mode is used as the motion information of the current block (e.g., at least one of a motion vector, a reference picture list, and a reference picture index) Can be used. Here, using motion information of a neighboring block as motion information of a current block is called merging, motion merging, or merging motion.

머지 모드에서는 부호화 유닛(Coding Unit: CU, 이하 ‘CU’라 함) 단위의 병합 움직임(merging)과 예측 유닛(Prediction Unit: PU, 이하 ‘PU’라 함) 단위의 병합 움직임이 가능하다. In the merge mode, a merging motion in units of a coding unit (CU) (hereinafter referred to as a 'CU') and a merging motion in units of a prediction unit (PU) are possible.

블록 단위(예컨대, CU 또는 PU)(이하, 설명의 편의를 위해 ‘블록’이라 함) 로 병합 움직임을 수행하는 경우에는, 블록 파티션(partition)별로 병합 움직임을 수행할지 여부에 관한 정보와 현재 블록에 인접한 주변 블록 중 어떤 블록과 병합 움직임을 할 것인지에 대한 정보가 필요하다. In the case of performing a merge movement with a block unit (for example, a CU or a PU) (hereinafter referred to as a 'block' for convenience of explanation), information about whether to perform a merge movement for each block partition, It is necessary to provide information on which of the neighboring blocks adjacent to the block should be merged.

병합 움직임을 수행하기 위해서 머지 후보 리스트(merging candidate list)를 구성할 수 있다.A merging candidate list can be constructed to perform the merging motion.

머지 후보 리스트는 움직임 정보들의 리스트를 나타내며, 머지 모드가 수행되기 전에 생성될 수 있다. 여기서, 머지 후보 리스트의 움직임 정보는 현재 블록에 인접한 주변 블록의 움직임 정보이거나, 이미 머지 후보 리스트에 존재하는 움직임 정보들을 조합하여 만든 새로운 움직임 정보일 수도 있다. 주변 블록의 움직임 정보(예컨대, 움직임 벡터 및/또는 참조 픽처 인덱스)는 주변 블록에 의해 특정되는 혹은 주변 블록에 저장된(주변 블록의 디코딩에 사용된) 움직임 정보일 수 있다.The merge candidate list represents a list of motion information and may be generated before the merge mode is performed. Here, the motion information of the merge candidate list may be motion information of neighboring blocks adjacent to the current block, or may be new motion information created by combining motion information existing in the merge candidate list. Motion information (e.g., a motion vector and / or a reference picture index) of a neighboring block may be motion information specified by a neighboring block or stored in neighboring blocks (used for decoding a neighboring block).

이때, 주변 블록은 도 10에 도시된 바와 같이, 현재 블록과 공간적(spatial)으로 인접하여 위치한 주변 블록(neighboring block)(A, B, C, D, E)과, 현재 블록과 시간적(temporal)으로 대응하는 동일 위치의 후보 블록(co-located block)(H 혹은 M)을 포함할 수 있다. 동일 위치의 후보 블록은 현재 블록을 포함하는 현재 픽처와 시간적으로 대응하는 동일 위치의 픽처(co-located picture) 내 대응 위치의 블록을 말한다. 동일 위치의 픽처 내 H 블록이 가용하면 H 블록을 동일 위치의 후보 블록으로 결정하고, H 블록이 가용하지 않으면 동일 위치의 픽처 내 M 블록을 동일 위치의 후보 블록으로 결정할 수 있다.10, neighboring blocks A, B, C, D, and E are located adjacent to the current block in a spatial manner, neighboring blocks A, B, C, D, and E, (H or M) at the same position corresponding to the corresponding block. A candidate block at the same position refers to a block at a corresponding position in a co-located picture corresponding to the current picture temporally corresponding to the current block. If the intra-picture H block in the same position is available, the H block is determined to be a candidate block at the same position. If the H block is not available, the intra-picture intra-picture block at the same position can be determined as a candidate block at the same position.

머지 후보 리스트의 구성시, 주변 블록(A, B, C, D, E) 및 동일 위치의 후보 블록(H 혹은 M)의 움직임 정보가 현재 블록의 머지 후보 리스트를 구성하는 머지 후보(merge candidate)로 이용될 수 있는지 여부가 판단된다. 즉, 현재 블록의 인터 예측에 이용 가능한 블록의 움직임 정보가 머지 후보로서 머지 후보 리스트에 추가될 수 있다. The motion information of the neighboring blocks A, B, C, D, and E and the candidate block H or M of the same position are merged candidates constituting the merge candidate list of the current block, It is judged whether or not it can be used as That is, the motion information of blocks available for inter prediction of the current block may be added to the merge candidate list as merge candidates.

예컨대, X 블록에 대한 머지 후보 리스트를 구성하는 방법으로, 1) 우선 주변 블록 A가 사용 가능한 경우, 주변 블록 A를 머지 후보 리스트에 포함한다. 2) 이후, 주변 블록 B의 움직임 정보가 주변 블록 A의 움직임 정보와 동일하지 않을 경우에만 주변 블록 B를 머지 후보 리스트에 포함한다. 3) 동일한 방법으로 주변 블록 C의 움직임 정보가 주변 블록 B의 움직임 정보와는 다를 경우에만 주변 블록 C를 머지 후보 리스트에 포함하고, 4) 주변 블록 D의 움직임 정보가 주변 블록 C의 움직임 정보와는 다를 경우에만 주변 블록 D를 머지 후보 리스트에 포함한다. 아울러, 5) 주변 블록 E의 움직임 정보가 주변 블록 D의 움직임 정보와 다를 경우에만 주변 블록 E를 머지 후보 리스트에 포함하고, 6) 마지막으로, 머지 후보 리스트에는 주변 블록 H(혹은 M)를 포함시킨다. 즉, 각각의 주변 블록은 A→B→C→D→E→H(혹은 M) 블록 순서로 머지 후보 리스트에 추가될 수 있다. 여기서, 동일한 움직임 정보는 동일한 움직임 벡터, 동일한 참조 픽쳐, 및 동일한 예측 방향(단방향, 양방향)을 사용하는 것을 의미할 수 있다.For example, as a method of constructing a merge candidate list for an X block, 1) first, if neighboring block A is available, neighboring block A is included in the merge candidate list. 2), the neighboring block B is included in the merge candidate list only when the motion information of the neighboring block B is not the same as the motion information of the neighboring block A. 3) Including the neighboring block C in the merge candidate list only when the motion information of the neighboring block C is different from the motion information of the neighboring block B in the same manner, and 4) Only the neighboring block D is included in the merge candidate list. (5) Include the neighboring block E in the merge candidate list only if the motion information of the neighboring block E is different from the motion information of the neighboring block D. (6) Finally, the neighboring block H includes the neighboring block H . That is, each neighboring block may be added to the merge candidate list in order of A, B, C, D, E, and H (or M) blocks. Here, the same motion information may mean using the same motion vector, the same reference picture, and the same prediction direction (unidirectional, bidirectional).

여기서는, 주변 블록을 머지 후보로서 머지 후보 리스트에 추가한다는 표현과 주변 블록의 움직임 정보를 머지 후보로서 머지 후보 리스트에 추가한다는 표현을 혼용하였으나, 이는 설명의 편의를 위한 것으로서, 두 표현은 실질적으로 상이하지 않다. 예컨대, 머지 후보로서의 주변 블록은 해당 블록의 움직임 정보를 의미한다고 할 수 있다.
Here, a combination of adding a neighboring block to a merge candidate list as a merge candidate and adding the motion information of a neighboring block to a merge candidate list as a merge candidate is mixed, but this is for convenience of explanation, I do not. For example, a neighboring block as a merge candidate may be referred to as motion information of the corresponding block.

도 11은 인터 예측에 있어서, 병합 움직임 후보 리스트를 구성하는 방법에 관한 순서도이다.11 is a flowchart of a method of constructing a merged motion candidate list in inter prediction.

도 11을 참조하면, 인터 예측부에서는 병합 움직임 후보 즉, 머지 후보를 유도한다(S1100). 머지 후보에는 상술한 바와 같이 비디오 부호화/복호화 대상 블록의 움직임 정보를 효율적으로 부호화 하기 위하여, 주변의 움직임 정보가 이용될 수 있다. 3차원 비디오 부호화/복호화에서, 주변의 움직임 정보는 모션 파라미터 상속(Motion Parameter Inheritance, MPI), 인터 뷰 머지 후보(inter-view merging candidate, IvMC), A1, B1, B0, 인터 뷰 변이 벡터 후보(inter-view disparity vector candidate, IvDC), 뷰 합성 예측(View synthesis prediction, VSP), A0, B2, 쉬프트 인터 뷰(ShiftIV), Col, Bi 및 Zero 후보일 수 있다.Referring to FIG. 11, the inter-prediction unit derives a merged motion candidate, that is, a merge candidate (S1100). As described above, in order to efficiently encode motion information of a video encoding / decoding target block, neighboring motion information may be used in the remainder candidate. In 3D video coding / decoding, neighboring motion information includes motion parameter inheritance (MPI), inter-view merging candidate (IvMC), A1, B1, B0, View synthesis prediction (VSP), A0, B2, Shift Interview (Shift IV), Col, Bi, and Zero candidates for the inter-view disparity vector candidates IvDC.

이때, MPI는 상술한 실제 영상의 움직임 정보를 상속하는 움직임 정보를 의미하고, IvMC는 시점 간 머지를 이용하는 움직임 정보를 의미하며, A1은 상술한 바와 같이 예측 대상 블록의 좌측에 위치한 블록의 움직임 정보를 의미한다. 또한, B1은 상술한 바와 같이 예측 대상 블록의 상측에 위치한 블록의 움직임 정보를 의미하고, B0는 상술한 바와 같이 예측 대상 블록의 우상측에 위치한 블록의 움직임 정보를 의미하며, IvDC는 상술한 변이 벡터를 이용(즉, 시차를 이용)하여 유도된 움직임 정보를 의미한다. 아울러, VSP는 시점을 합성하여 유도한 움직임 정보를 의미하고, A0은 상술한 바와 같이 예측 대상 블록의 좌하측에 위치한 블록의 움직임 정보를 의미하며, B2는 상술한 바와 같이 예측 대상 블록의 좌상측에 위치한 블록의 움직임 정보를 의미하고, ShiftIV는 보정된 시차를 이용하여 유도된 움직임 정보를 의미한다. Col은 상술한 바와 같이 현재 블록을 포함하는 현재 픽처와 시간적으로 대응하는 동일 위치의 픽처(co-located picture) 내 대응 위치의 블록을 통해 유도된 움직임 정보이고, Bi는 양방향을 이용하여 유도된 움직임 후보를 의미하며, Zero는 영 벡터를 의미한다.Herein, MPI denotes motion information inheriting motion information of the actual image, IvMC denotes motion information using a merge between views, and A1 denotes motion information of the block located on the left side of the predicted block, . As described above, B1 means motion information of a block located on the upper side of the prediction target block, B0 means motion information of a block located on the upper right side of the prediction target block as described above, IvDC indicates the above- Means motion information derived by using a vector (i.e., using a parallax). A0 denotes motion information of a block located on the lower left side of the predicted block, and B2 denotes motion information of a block located on the upper left side of the predicted block as described above. And Shift IV denotes motion information derived using the corrected time difference. Col is motion information derived through a block at a corresponding position in a co-located picture temporally corresponding to a current picture including a current block, Bi is a motion induced using a bidirectional motion, And Zero means a zero vector.

이후, 인터 예측부에서는 유도된 머지 후보들이 머지 후보 리스트에 삽입된다(S1110). 인터 예측부에서는 엔트로피 부호화 효율을 증가시키기 위하여, 유도된 병합 움직임 후보들 중에서 통계적으로 가장 선택이 많이 되는 순서대로 머지 후보들이 리스트에 추가된다. 즉, 통계적으로 가장 선택이 많이 되는 머지 후보가 머지 후보 리스트의 첫 번째 위치에 삽입되며, 통계적으로 두 번째로 선택이 많이 되는 머지 후보가 머지 후보 리스트의 두 번째 위치에 삽입되고, 이후에도 인터 예측부에서는 통계적 정보에 기반하여, 통계적으로 많이 선택되는 머지 후보를 순서대로 머지 후보 리스트에 추가시키는 과정을 수행한다.Thereafter, the derived merge candidates are inserted into the merge candidate list in step S1110. In order to increase the entropy coding efficiency, the inter-prediction unit adds the merge candidates to the list in order of statistically most selected among the derived merging motion candidates. That is, the merge candidate having the statistically greatest selection is inserted at the first position of the merge candidate list, the merge candidate having the second largest selection is inserted at the second position of the merge candidate list, , The process of adding the statistically selected merge candidates to the merge candidate list in order is performed based on the statistical information.

예를 들어, 3차원 비디오 부호화/복호화에서, 인터 예측부에서는 머지 후보가 MPI, IvMC, A1, B1, B0, IvDC, VSP, A0, B2, ShiftIV, Col, Bi, Zero 후보의 순서대로 머지 후보 리스트에 삽입될 수 있다. For example, in the three-dimensional video coding / decoding, the inter-prediction unit calculates the merged candidate in the order of MPI, IvMC, A1, B1, B0, IvDC, VSP, A0, B2, ShiftIV, Col, Bi, Can be inserted into the list.

<표 1><Table 1>

Figure pat00001
Figure pat00001

표 1은 텍스처에서 머지 후보가 선택되는 비율의 일 예이다. 표 1의 후보는 각각 상술한 MPI, IvMC, A1, B1, B0, IvDC, VSP, A0, B2, ShiftIV, Col, Bi, Zero 후보에 해당하며, 표 1에는 MPI, IvMC, A1, B1, B0, IvDC, VSP, A0, B2, ShiftIV, Col, Bi, Zero 후보 각각이 선택되는 비율과, 엔트로피 부호화시 MPI, IvMC, A1, B1, B0, IvDC, VSP, A0, B2, ShiftIV, Col, Bi, Zero 후보의 평균 값이 나타나 있다. 이때, 텍스처에서는 MPI 후보가 사용되지 않으므로 IvMC가 0번째 인덱스를 차지하며, IvMC가 가장 높은 비율로 선택된다.Table 1 is an example of the percentage of merge candidates selected in the texture. The candidates in Table 1 correspond to the MPI, IvMC, A1, B1, B0, IvDC, VSP, A0, B2, ShiftIV, Col, Bi, Zero candidates described above, and MPI, IvMC, A1, B1, B0 IvMC, A1, B1, B0, IvDC, VSP, A0, B2, ShiftIV, Col, Bi in the entropy encoding, and the ratio in which the IvDC, VSP, A0, B2, ShiftIV, Col, Bi, , And the average value of the Zero candidates. At this time, since MPI candidates are not used in texture, IvMC occupies the 0th index, and IvMC is selected as the highest ratio.

예컨대 표 1에서와 같이 IvMC가 선택되는 확률은 78%일 때, 3차원 영상 부호화/복호화 시 IvMC를 0번째 인덱스로 설정하여 엔트로피 부호화/복호화 할 경우에는 가장 많이 선택되는 머지 후보에 가장 적은 비트를 할당하게 되므로, 부호화/복호화 효율이 좋아지게 된다. 이후, 대체적으로 A1, B1, B0, IvDC, VSP, A0, B2, ShiftIV, Col, Bi, Zero 후보의 순으로 엔트로피 부호화가 되며, 이는 대체적으로 각각의 머지 후보가 선택되는 비율 순으로 엔트로피 부호화를 수행하게 되어 부호화/복호화 효율이 향상되게 된다.
For example, as shown in Table 1, when the probability that IvMC is selected is 78%, when IvMC is set to the 0-th index in the 3-dimensional image coding / decoding and entropy encoding / decoding is performed, the least number of bits The coding / decoding efficiency is improved. Then, entropy encoding is performed in the order of A1, B1, B0, IvDC, VSP, A0, B2, ShiftIV, Col, Bi, and Zero candidates. Encoding / decoding efficiency is improved.

도 12는 3차원 영상 부호화/복호화에 있어서, Hierarchical-B 구조를 개략적으로 도시한 것이다.12 schematically shows a hierarchical-B structure in 3D image coding / decoding.

도 12를 참조하면, R0……R3로 표기 된 사각형들은 참조 시점의 픽처들을 의미하며, C0……C3로 표기 된 사각형들은 현재 시점의 픽처들을 의미한다. 화살표는 움직임 정보의 참조 구조를 의미하며, Hierarchical-B 구조에서는 화살표의 종료부에 대한 픽처를 부호화 시, 화살표의 시작부에 대한 픽처의 움직임 정보가 참조될 수 있다. R과 C 뒤의 숫자는 레벨(level)을 의미하며, 레벨이 낮을수록 참조 픽처 간 거리가 높아질 수 있다. 이때, 낮은 레벨에서는 참조 픽처 간 거리가 최대 8이 될 수 있고, 레벨이 낮은 픽처일 수록 참조할 픽처의 움직임 정보와 현재 픽처의 움직임 정보 간의 오차가 커지기 때문에 IvMC후보의 정확도가 떨어질 수 있다. 아울러, Hierarchical-B 구조에서는, IvMC 후보를 유도 시 점선으로 표기 된 구조로 움직임 정보가 참조될 수 있다.Referring to Figure 12, ... The rectangles denoted by R3 are pictures at the reference point, and C0 ... ... The rectangles denoted by C3 denote pictures at the current point in time. In the hierarchical-B structure, motion information of a picture at the start of an arrow can be referred to when coding a picture for an end portion of an arrow. The numbers after R and C mean level, and the lower the level, the higher the distance between reference pictures. At this time, the distance between the reference pictures can be maximum 8 at the low level, and the error between the motion information of the picture to be referred to and the motion information of the current picture to be referred to becomes larger as the picture of lower level becomes low, so that the accuracy of the IvMC candidate may be lowered. In addition, in the hierarchical-B structure, motion information can be referred to as a structure indicated by a dotted line when IvMC candidates are derived.

<표 2><Table 2>

Figure pat00002
Figure pat00002

표 2는 Hierarchical-B 구조에서, 시간 방향의 프레임 간 거리가 큰 경우, 실제 영상에서 머지 후보가 선택되는 비율의 일 예이다. 예컨대, 엔트로피 부호화시 주로 0의 값을 가지는 IvMC 후보가 선택되는 비율이 2%에 불과하고, 머지 후보로서 가장 많이 선택되는 A1 후보의 평균 0.4일 경우에는 3차원 영상 부호화/복호화 효율의 저하를 가져오게 된다. 즉, A1 후보가 0으로 엔트로피 부호화될 경우에는 데이터의 충분한 압축을 가져올 수 있었음에도 불구하고, A1 후보가 10번 중 6번은 0으로, 4번은 1로 엔트로피 부호화 되어 영상 부호화/복호화 효율이 저하되는 문제점이 발생할 수도 있게 된다.
Table 2 shows an example of the ratio of selecting merge candidates in the real image when the inter-frame distance in the temporal direction is large in the hierarchical-B structure. For example, in the entropy encoding, the ratio of selecting IvMC candidates having a value of 0 is merely 2%, and when the average of the A1 candidates selected most frequently as merge candidates is 0.4, the efficiency of the three-dimensional image encoding / decoding decreases It comes. That is, when the A1 candidate is entropy-coded with 0, although the data can be sufficiently compressed, the A1 candidate is entropy-coded by 6 of 0 and 4 by 1, and the image encoding / decoding efficiency is lowered A problem may arise.

표 2에서 설명한 문제점뿐만 아니라, 깊이 맵의 정확도에 따라 발생하는 후보 선택 비율의 차이로 인한 문제점 또한 존재할 수 있다. 3차원 비디오 부호화에서는 깊이 맵을 활용하여 시차 정보를 유도할 수 있다. 이 때, 깊이 맵의 정확도가 높은 시퀀스에서는 IVDC, VSP, IVSHIFT와 같이 시차정보를 활용하는 후보의 선택률이 증가하지만 반대로 깊이 맵의 정확도가 낮다면 IVDC, VSP, IVSHIFT 후보의 선택률이 감소하고, 대신 도 12에서 실선으로 표기 된 화살표대로 시점 내에서 현재 픽처와 동일한 위치의 참조 픽처 내의 블록의 움직임 정보를 사용하는 COL 후보의 선택률이 증가할 수 있다. 이로 인하여, 상술한 바와 같이 머지 후보에 할당되는 머지 후보 리스트의 인덱스와 머지 후보가 선택되는 비율의 차이로 인해 엔트로피 부호화/복호화의 비효율로 인하여 영상 부호화/복호화 효율의 저하가 발생할 수 있다.
In addition to the problems described in Table 2, there may also be a problem due to differences in candidate selection ratios that occur depending on the accuracy of the depth map. In 3D video coding, parallax information can be derived using depth map. In this case, the selectivity of the candidates utilizing the parallax information such as IVDC, VSP, and IVSHIFT increases in a sequence having a high accuracy of the depth map. On the contrary, if the accuracy of the depth map is low, the selectivity of IVDC, VSP, and IVSHIFT candidates decreases, The selectivity of the COL candidate using the motion information of the block in the reference picture at the same position as the current picture within the viewpoint may increase as indicated by the solid line in Fig. Due to the inefficiency of the entropy encoding / decoding due to the difference between the index of the merge candidate list allocated to the merge candidate and the ratio of merge candidates selected as described above, the image encoding / decoding efficiency may be degraded.

상술한 바와 같이, 머지 후보들의 선택률은 영상 부호화/복호화 상황에 따라 변하므로 머지 후보의 우선순위에 기반하여 머지 후보 리스트를 생성하는 기존의 방법은 엔트로피 부호화의 효율을 극대화 시킬 수 없다. 따라서, 머지 후보 시의 엔트로피 부호화 효율을 증가시키기 위해, 적응적인 후보 우선순위를 사용하여 자주 사용되는 머지 후보들이 머지 후보 리스트의 0번 인덱스부근에 집중되게 삽입되도록 하는 영상 부호화/복호화 방법 및 이를 이용하는 장치가 필요하다.As described above, since the selectivity of the merge candidates changes according to the image encoding / decoding situation, the existing method of generating the merge candidate list based on the merge candidate priorities can not maximize the efficiency of entropy encoding. Accordingly, in order to increase the entropy encoding efficiency at the merge candidate, an image encoding / decoding method in which frequently used merge candidates are inserted intensively in the vicinity of the 0 index of the merge candidate list by using an adaptive candidate priority, and A device is needed.

머지 후보들의 선택 비율의 분포에 영향을 줄 수 있는 주요 변수들은 시점 번호, 프레임이 깊이 맵인지 여부, 참조 프레임과의 시간 방향 거리, 또는 슬라이스의 종류와 같으며, 이와 같은 정보들을 활용하여 인터 예측부는 머지 후보의 우선순위를 적응적으로 조절하여 머지 후보를 머지 후보 리스트에 삽입할 수 있다.
The main variables that can influence the distribution of the selection ratios of the merge candidates are the view number, whether the frame is a depth map, the temporal distance from the reference frame, or the type of the slice. The department can adaptively adjust the priority of the merge candidate to insert the merge candidate into the merge candidate list.

도 13은 본 발명의 일 실시예에 따른 머지 후보의 우선 순위를 변경하여 머지 후보 리스트를 생성하는 순서도이다.13 is a flowchart for generating a merge candidate list by changing a priority of a merge candidate according to an embodiment of the present invention.

도 13을 참조하면, 인터 예측부에서는 병합 움직임 후보 즉, 머지 후보가 유도된다(S1300). 머지 후보가 유도되는 구체적인 과정은 상술한 바와 같으며, 머지 후보로는 상술한 바와 같이 MPI, IvMC, A1, B1, B0, IvDC, VSP, A0, B2, ShiftIV, Col, Bi, Zero 후보가 각각 선택될 수 있다.Referring to FIG. 13, in the inter-prediction unit, a merged motion candidate, that is, a merge candidate is derived (S1300). The concrete procedure for inducing the merge candidate is as described above. As described above, candidates for MPI, IvMC, A1, B1, B0, IvDC, VSP, A0, B2, ShiftIV, Col, Bi, Can be selected.

이후, 인터 예측부에서는, 현재 상황에서 머지 후보가 머지 리스트에 삽입되는 순위의 변경 즉, 머지 후보에 대한 우선 순위의 변경이 필요한지 여부에 대해 판단된다(S1310).Thereafter, the inter-prediction unit determines whether it is necessary to change the order in which the remainder candidate is inserted into the merge list in the current situation, that is, to change the priority of the remainder candidate (S1310).

머지 후보에 대한 우선 순위의 변경이 필요한 경우, 인터 예측부에서는 머지 후보의 우선 순위가 변경된다(S1330). 예컨대, Hierarchical-B 구조에서, 시간 방향의 프레임 간 거리가 큰 경우, IvMC 후보의 우선순위를 뒤로 이동시키는 방법이 사용될 수 있다.If it is necessary to change the priority for the merge candidate, the inter prediction unit changes the priority order of the merge candidate (S1330). For example, in the hierarchical-B structure, when the inter-frame distance in the temporal direction is large, a method of moving the priority of the IvMC candidate back can be used.

머지 후보의 우선 순위가 변경된 경우, 변경된 머지 후보의 순서대로 머지 후보 리스트가 생성 즉, 변경된 머지 후보가 머지 후보 리스트에 추가된다(S1340).If the priority of the merge candidate is changed, a merge candidate list is generated in the order of the changed merge candidates, that is, the changed merge candidate is added to the merge candidate list (S1340).

만약, 머지 후보에 대한 우선 순위의 변경이 필요하지 않은 경우, 인터 예측부에서는 기존의 머지 후보의 우선 순위가 사용된다(S1320). 이후, 인터 예측부에서는 머지 후보의 순서대로 머지 후보 리스트가 생성 즉, 기존의 순서대로 머지 후보가 머지 후보 리스트에 추가된다(S1340).
If it is not necessary to change the priority of the merge candidate, the priority of the existing merge candidate is used in the inter-prediction unit (S1320). Then, in the inter prediction unit, a merge candidate list is generated in the order of merge candidates, that is, merge candidates are added to the merge candidate list in the existing order (S1340).

도 14는 본 발명의 다른 실시예에 따른 머지 후보의 우선 순위를 변경하여 머지 후보 리스트를 생성하는 순서도이다.14 is a flowchart for generating a merge candidate list by changing a priority of a merge candidate according to another embodiment of the present invention.

도 14에서는 현재 픽처의 POC(Picture Order Count, 재생 순서를 의미하는 픽처 번호)와 부호화 할 PU의 참조 픽처의 POC 간의 절대 오차가 8 이상일 때, IvMC 후보의 우선순위가 2로 변경된다. 이때, curPOC는 현재 픽처의 POC, RefPOC는 현재 PU(예측 유닛)의 참조 픽처의 POC를 의미한다.In Fig. 14, when the absolute error between the POC of the current picture (Picture Order Count, picture number indicating the reproduction order) and the POC of the reference picture of the PU to be encoded is 8 or more, the priority order of the IvMC candidate is changed to 2. In this case, curPOC is the POC of the current picture, and RefPOC is the POC of the reference picture of the current PU (prediction unit).

구체적으로, 인터 예측부에서는 병합 움직임 후보 즉, 머지 후보가 유도된다(S1400). 이때, 머지 후보로는 상술한 바와 같이 MPI, IvMC, A1, B1, B0, IvDC, VSP, A0, B2, ShiftIV, Col, Bi, Zero 후보가 각각 선택될 수 있다.Specifically, the merged motion candidate, that is, the merge candidate is derived in the inter prediction unit (S1400). In this case, MPI, IvMC, A1, B1, B0, IvDC, VSP, A0, B2, ShiftIV, Col, Bi, Zero candidates can be selected as the merge candidate.

이후, 인터 예측부에서는 현재 픽처의 POC와 참조 픽처의 POC의 차이에 대한 절대 값이 8보다 크거나 같은지를 판단한다(S1410).Then, the inter-prediction unit determines whether the absolute value of the difference between the POC of the current picture and the POC of the reference picture is greater than or equal to eight (S1410).

현재 픽처의 POC와 참조 픽처의 POC의 차이에 대한 절대 값이 8보다 크거나 같은 경우, 인터 예측부에서는 IvMC 후보의 우선 순위가 2로 변경된다(S1430).If the absolute value of the difference between the POC of the current picture and the POC of the reference picture is equal to or greater than 8, the priority of the IvMC candidate is changed to 2 in the inter-prediction unit (S1430).

인터 예측부에서 IvMC 후보의 우선 순위가 2로 변경된 경우, 인터 예측부에서는 변경된 머지 후보가 머지 후보 리스트에 삽입된다(S1440).When the priority of the IvMC candidate is changed to 2 in the inter-prediction unit, the inter-prediction unit inserts the modified merge candidate into the merge candidate list (S1440).

만약, 현재 픽처의 POC와 참조 픽처의 POC의 차이에 대한 절대 값이 8보다 크거나 같지 않은 경우, 인터 예측부에서는 기존의 머지 후보에 대한 순위를 사용한다(S1420). 이후, 인터 예측부에서는 기존의 머지 후보의 순서대로 머지 후보가 머지 후보 리스트에 삽입된다(S1440).If the absolute value of the difference between the POC of the current picture and the POC of the reference picture is not greater than or equal to 8, the inter prediction unit uses the ranking of the existing merge candidate (S1420). Then, in the inter prediction unit, the merge candidate is inserted into the merge candidate list in the order of existing merge candidates (S1440).

아래, 표 3은 IvMC 후보의 우선순위를 POC 차이에 따라 변경하는 장치의 구동 과정을 나타낸다.Table 3 below shows the driving process of the apparatus for changing the priority of IvMC candidates according to the POC difference.

<표 3><Table 3>

Figure pat00003
Figure pat00003

도 15는 본 발명의 또 다른 실시예에 따른 머지 후보의 우선 순위를 변경하여 머지 후보 리스트를 생성하는 순서도이다.15 is a flowchart for generating a merge candidate list by changing a priority of a merge candidate according to another embodiment of the present invention.

도 15를 참조하면, 인터 예측부에서는 병합 움직임 후보 즉, 머지 후보가 유도된다(S1500). 이때, 머지 후보로는 상술한 바와 같이 MPI, IvMC, A1, B1, B0, IvDC, VSP, A0, B2, ShiftIV, Col, Bi, Zero 후보가 각각 선택될 수 있다.Referring to FIG. 15, the merged motion candidate, that is, merge candidate is derived in the inter prediction unit (S1500). In this case, MPI, IvMC, A1, B1, B0, IvDC, VSP, A0, B2, ShiftIV, Col, Bi, Zero candidates can be selected as the merge candidate.

이후, 인터 예측부에서는 시퀀스의 깊이 맵에 대한 정확도가 임계치 이상인지 여부를 판단한다(S1510). 이때, 깊이 맵의 정확도를 판단하는 기준은 Col 후보와 시차 정보를 활용하는 후보 간의 선택 비율을 상대적으로 비교하는 방법이 있다. 아울러, 부호화를 수행하는 사용자가 직접 판단하여 시퀀스의 파타미터로 부호화 하여 전송하는 방법이 있다. 예컨대 3D-HEVC의 경우, SPS 또는 VPS와 같은 High-level Syntax를 통하여 전송할 수 있다.Then, the inter-prediction unit determines whether the accuracy of the depth map of the sequence is equal to or greater than a threshold (S1510). In this case, the criterion for determining the accuracy of the depth map is a method of relatively comparing the selection ratio between the Col candidate and the parallax information candidate. In addition, there is a method of directly determining by the user performing encoding, encoding the encoded data by a parameter of a sequence, and transmitting the encoded data. For example, in the case of 3D-HEVC, it can be transmitted through high-level syntax such as SPS or VPS.

시퀀스의 깊이 맵에 대한 정확도가 임계치 이상인 경우, 인터 예측부에서는 Col 후보의 우선 순위가 4로 변경된다(S1530).If the accuracy of the depth map of the sequence is equal to or greater than the threshold value, the priority of the Col candidate is changed to 4 in the inter-prediction unit (S1530).

인터 예측부에서 Col 후보의 우선 순위가 4로 변경된 경우, 인터 예측부에서는 변경된 머지 후보가 머지 후보 리스트에 삽입된다(S1540).If the priority of the Col candidate is changed to 4 in the inter-prediction unit, the inter-prediction unit inserts the modified merge candidate into the merge candidate list (S1540).

만약, 시퀀스의 깊이 맵에 대한 정확도가 임계치보자 작은 경우, 인터 예측부에서는 기존의 머지 후보에 대한 순위를 사용한다(S1520). 이후, 인터 예측부에서는 기존의 머지 후보의 순서대로 머지 후보가 머지 후보 리스트에 삽입된다(S1540).If the accuracy of the depth map of the sequence is smaller than the threshold value, the inter prediction unit uses the rank of the existing merge candidate (S1520). Thereafter, in the inter prediction unit, the merge candidate is inserted into the merge candidate list in the order of existing merge candidates (S1540).

아래, 표 4은 깊이 맵의 정확도에 따라 우선순위가 변경되는 장치의 구동 과정을 나타낸다.Table 4 below shows the driving process of the apparatus whose priority is changed according to the accuracy of the depth map.

<표 4><Table 4>

Figure pat00004
Figure pat00004

표 5는 3D-HEVC에서 SPS 또는 VPS와 같은 High-level Syntax를 통하여 깊이 맵의 정확도 수치를 부호화 하여 전송하는 방법의 일 예이다. 이때, 표 5에서는 VPS에 “depth_accuracy”라는 syntax가 추가되었다.Table 5 shows an example of a method of encoding and transmitting an accuracy value of a depth map through a high-level syntax such as SPS or VPS in a 3D-HEVC. At this time, in Table 5, the syntax of "depth_accuracy" is added to the VPS.

<표 5><Table 5>

Figure pat00005
Figure pat00005

Figure pat00006

Figure pat00006

도 16은 본 발명의 또 다른 실시예에 따른 머지 후보의 우선 순위를 변경하여 머지 후보 리스트를 생성하는 순서도이다.16 is a flowchart for generating a merge candidate list by changing a priority of merge candidates according to another embodiment of the present invention.

도 16을 참조하면, 인터 예측부에서는 슬라이스 단위로 특정 상태에 대한 후보 우선순위 정보가 저장되어, 해당 상태와 동일한 다음 번 슬라이스 부호화 시 저장 된 우선 순위가 사용될 수 있다. 즉, 인터 예측부에서는 임의 회 이상의 부호화 결과에 기반한 머지 후보 선택 비율의 통계에 기반하여, 선택 비율이 높은 후보의 순서대로 머지 후보의 우선 순위가 결정될 수 있다. 이때, 특정 상태라는 것은 참조 픽처와의 거리가 특정 값일 수도 있고, 또는 P, B와 같은 슬라이스 종류를 의미할 수 있으며, 특정 상태는 그 밖의 임의의 특징일 수도 있다. 슬라이스 부호화가 종료된 후, 현재 슬라이스에서 사용 된 우선순위와 실제 후보들의 선택 비율의 순서가 일치하지 않는다면, 현재 상태에 대한 후보의 우선 순위가 재정렬되어, 현재 상태와 동일한 다음 번 슬라이스 부호화 시 적용될 수 있다.Referring to FIG. 16, in the inter-prediction unit, candidate priority information for a specific state is stored in slice units, and the priority stored in the next slice coding, which is the same as the corresponding state, can be used. That is, in the inter-prediction unit, the priority of the merge candidate can be determined in the order of the candidates having the high selection ratio, based on the statistics of the merge candidate selection ratios based on the encoding results of a certain number or more. In this case, the specific state may be a specific value of the distance from the reference picture, or a slice type such as P and B, and the specific state may be any other feature. If the order of the selection ratios of the current candidate and the current candidate does not match after the slice coding ends, the priorities of the candidate candidates for the current state are rearranged so that they can be applied to the next slice coding, have.

구체적으로, 인터 예측부에서는 머지 후보의 우선 순위가 교체된다(S1600). 이때, 머지 후보의 우선 순위는 임의 회 이상의 부호화 결과에 기반한 머지 후보 선택 비율을 사용할 수 있다.Specifically, in the inter prediction unit, the priority order of the merge candidate is changed (S1600). In this case, the merge candidate may use the merge candidate selection ratio based on the encoding result at least a certain number of times.

이후, 인터 예측부에서는 현재 슬라이스에 대한 부호화를 수행한다(S1610).Thereafter, the inter prediction unit performs coding on the current slice (S1610).

슬라이스에 대한 부호화가 수행된 후, 인터 예측부에서는 실제로 선택되는 머지 후보에 대한 비율의 통계와 머지 후보들의 우선 순위가 대응되는지 여부를 판단한다(S1620).After the slice is encoded, the inter-prediction unit determines whether the statistics of the ratio to the merge candidate actually selected and the priority of the merge candidates correspond (S1620).

인터 예측부에서 실제로 선택되는 머지 후보에 대한 비율의 통계와 머지 후보들의 우선 순위가 대응되지 않는 경우, 인터 예측부에서는 현재 상태에 대한 머지 후보의 우선순위가 재정렬 된다(S1630).If the statistics of the ratio to the merge candidate actually selected by the inter-prediction unit does not correspond to the priority of the merge candidates, the inter-prediction unit rearranges the priorities of merge candidates for the current state (S1630).

<표 6><Table 6>

Figure pat00007
Figure pat00007

표 6은 특정 상태에 대한 후보 선택 비율의 통계를 사용할 때의 구동 과정이다. 표 6의 3에서, 현재 슬라이스 부호화 결과가 아닌, 현재 상태와 동일한 기존까지의 모든 슬라이스의 부호화 결과가 활용될 수도 있으며, 또는 임의 범위의 부호화 결과가 활용될 수 있다. 표 6의 3-B에서 현재 상태에 대한 후보 우선 순위가 수정될 때, 선택 비율 결과와 일치하도록 후보 우선 순위가 수정될 수 있으며, 또는 선택 비율 결과와 기존에 저장 되어있는 후보 우선 순위에 각각 가중치를 적용하여, 슬라이스 부호화의 반복에 따라 점진적으로 우선 순위가 변경되도록 할 수도 있다.
Table 6 shows the driving process when using statistics of candidate selection ratios for specific states. In Table 6, the encoding result of all the slices that are the same as the current state, not the current slice encoding result, may be used, or a range of encoding results may be utilized. When the candidate priorities for the current state are modified in 3-B of Table 6, the candidate priorities may be modified to match the selected ratio results, or the selected ratio results and the previously stored candidate priorities may be weighted , And the priority may be gradually changed in accordance with the repetition of the slice encoding.

도 17은 본 발명의 또 다른 실시예에 따른 머지 후보의 우선 순위를 변경하여 머지 후보 리스트를 생성하는 순서도이다.17 is a flowchart for generating a merge candidate list by changing a priority of a merge candidate according to another embodiment of the present invention.

도 17을 참조하면, 영상 부호화 시 후보 우선 순위가 변동 되는 경우, 우선 순위 정보를 외부로 전송할 수 있다. Referring to FIG. 17, when the candidate priority is changed during image encoding, priority information can be transmitted to the outside.

구체적으로, 인터 예측부에서는 머지 후보의 우선 순위가 교체된다(S1700). 이때, 머지 후보의 우선 순위는 임의 회 이상의 부호화 결과에 기반한 머지 후보 선택 비율을 사용할 수 있다.Specifically, the priority of the merge candidate is changed in the inter-prediction unit (S1700). In this case, the merge candidate may use the merge candidate selection ratio based on the encoding result at least a certain number of times.

이후, 인터 예측부에서는 현재 슬라이스에 대한 부호화를 수행한다(S1710).Thereafter, the inter prediction unit performs coding on the current slice (S1710).

슬라이스에 대한 부호화가 수행된 후, 인터 예측부에서는 실제로 선택되는 머지 후보에 대한 비율의 통계와 머지 후보들의 우선 순위가 대응되는지 여부를 판단한다(S1720).After the slice is encoded, the inter-prediction unit determines whether the statistics of the ratio to the merge candidate actually selected and the priority of the merge candidates correspond (S1720).

인터 예측부에서 실제로 선택되는 머지 후보에 대한 비율의 통계와 머지 후보들의 우선 순위가 대응되지 않는 경우, 인터 예측부에서는 현재 상태에 대한 머지 후보의 우선순위가 재정렬 된다(S1730).If the statistics of the ratio to the merge candidate actually selected by the inter-prediction unit does not correspond to the priority of the merge candidates, the inter-prediction unit rearranges the priorities of merge candidates for the current state (S1730).

인터 예측부에서 현재 상태에 대한 머지 후보의 우선순위가 재정렬 된 후, 슬라이스 헤더에는 변경된 우선 순위 정보가 포함되어 부호화 될 수 있다(S1740).After the inter-prediction unit rearranges the priority of the merge candidate for the current state, the changed priority information is included in the slice header and can be encoded (S1740).

표 7은 특정 상태에 대한 후보 우선 순위의 갱신 정보가 부호화된 일 예다. 특정 상태에 대한 후보 우선 순위의 갱신 정보는 “merging_cand_priority_change_flag” 플래그를 이용하여, 부보화 될 수 있다. 만약, merging_cand_priority_change_flag 플래그가 1이라면, 갱신 된 병합 후보들의 우선 순위가 순서대로 부호화 된다. 이때, i 번째 후보의 우선 순위는 merging_cand_priority[ i ]로 부호화 된다. 아울러, 머지 후보에 대한 우선 순위의 갱신 정보는 슬라이스 헤더가 아닌 다른 종류의 헤더 내에서 부호될 수도 있다.Table 7 shows an example in which the update information of the candidate priority for a specific state is encoded. The update information of the candidate priority for the specific state can be appended using the &quot; merging_cand_priority_change_flag &quot; flag. If the merging_cand_priority_change_flag flag is 1, the priority order of the updated merge candidates is encoded in order. At this time, the priority of the i-th candidate is encoded as merging_cand_priority [i]. In addition, the priority update information for the merge candidate may be coded in a header of a different type than the slice header.

<표 7><Table 7>

Figure pat00008
Figure pat00008

Figure pat00009
Figure pat00009

Figure pat00010
Figure pat00010

Figure pat00011

Figure pat00011

도 18은 본 발명의 일 실시예에 따른 인터 예측부의 구조를 개략적으로 도시한 블록도이다.18 is a block diagram schematically illustrating the structure of an inter-prediction unit according to an embodiment of the present invention.

도 18을 참조하면, 인터 예측부(1800)는 움직임 후보 유도부(1810) 및 후보 리스트 생성부(1820)를 포함할 수 있다. 이때, 인터 예측부(1800)는 상술한 부호화 장치 또는 복호화 장치에 포함될 수 있다.Referring to FIG. 18, the inter-prediction unit 1800 may include a motion candidate inducing unit 1810 and a candidate list generating unit 1820. At this time, the inter prediction unit 1800 may be included in the coding apparatus or the decoding apparatus described above.

움직임 후보 유도부(1810)는 머지 후보에 대한 유도부를 의미할 수 있으며, 움직임 후보 유도부는 인터 예측에서 현재 블록의 주변에 위치한 블록의 움직임 정보 즉, 머지 후보를 유도할 수 있다. 이때, 머지 후보를 유도하는 구체적인 방법은 상술한 바와 같다.The motion candidate induction unit 1810 may refer to an induction unit for the merge candidate, and the motion candidate induction unit may derive motion information of a block located in the vicinity of the current block, i.e., merge candidate in inter prediction. At this time, the concrete method for deriving the merge candidate is as described above.

후보 리스트 생성부(1820)는 머지 후보에 대한 리스트 즉, 머지 후보 리스트를 생성할 수 있으며, 후보 리스트 생성부(1820)에서 머지 후보를 생성하는 구체적인 방법은 상술한 바와 같다.
The candidate list generation unit 1820 can generate a list of merge candidates, that is, a merge candidate list, and the concrete method of generating merge candidates in the candidate list generation unit 1820 is as described above.

상술한 실시예들에서, 방법들은 일련의 단계 또는 유닛으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.In the above-described embodiments, although the methods are described on the basis of a flowchart as a series of steps or units, the present invention is not limited to the order of the steps, and some steps may occur in different orders or simultaneously . It will also be understood by those skilled in the art that the steps depicted in the flowchart illustrations are not exclusive and that other steps may be included or that one or more steps in the flowchart may be deleted without affecting the scope of the invention You will understand.

상술한 실시예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.The above-described embodiments include examples of various aspects. While it is not possible to describe every possible combination for expressing various aspects, one of ordinary skill in the art will recognize that other combinations are possible. Accordingly, it is intended that the invention include all alternatives, modifications and variations that fall within the scope of the following claims.

상술한 본 발명에 따른 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.The method according to the present invention may be implemented as a program for execution on a computer and stored in a computer-readable recording medium. Examples of the computer-readable recording medium include a ROM, a RAM, a CD- , A floppy disk, an optical data storage device, and the like, and may also be implemented in the form of a carrier wave (for example, transmission over the Internet).

컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer readable recording medium may be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner. And, functional programs, codes and code segments for implementing the above method can be easily inferred by programmers of the technical field to which the present invention belongs.

또한, 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해 되어서는 안 될 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the invention as defined by the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.

Claims (1)

머지 후보를 유도하는 단계;
머지 후보의 우선 순위에 대한 변경이 필요한지 여부를 결정하는 단계;
머지 후보의 우선 순위에 대한 변경이 필요한 경우, 머지 후보의 우선 순위를 변경하는 단계; 및
상기 머지 후보를 변경된 머지 후보의 우선 순위에 기반하여 머지 후보 리스트에 추가하는 단계
를 포함하는 3차원 영상 부호화 방법.
Deriving a merge candidate;
Determining whether a change to the priority of the merge candidate is needed;
Changing a priority of the remainder candidate when the change of the priority of the remainder candidate is needed; And
Adding the merge candidate to the merge candidate list based on the priority of the modified merge candidate
Dimensional image encoding method.
KR1020150029060A 2014-02-28 2015-03-02 A Method And Apparatus For Deriving Temporal Inter-View Motion Information Of Sub-Prediction Unit KR102395974B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20140024484 2014-02-28
KR1020140024484 2014-02-28

Publications (2)

Publication Number Publication Date
KR20150102748A true KR20150102748A (en) 2015-09-07
KR102395974B1 KR102395974B1 (en) 2022-05-10

Family

ID=54243424

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150029060A KR102395974B1 (en) 2014-02-28 2015-03-02 A Method And Apparatus For Deriving Temporal Inter-View Motion Information Of Sub-Prediction Unit

Country Status (1)

Country Link
KR (1) KR102395974B1 (en)

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Jin Yougn Lee et al, 3D-CE2.h related results on disparity vector derivation, JCT-3V of ITU-T and ISO/IEC, JCT3V-C0097 (2013.01.10.).* *
Li Zhang et al, Test Model 7 of 3D-HEVC and MV-HEVC, JCT-3V of ITU-T and ISO/IEC, JCT3V-G1005 (2014.02.14.)* *

Also Published As

Publication number Publication date
KR102395974B1 (en) 2022-05-10

Similar Documents

Publication Publication Date Title
KR102378459B1 (en) Apparatus And Method For Eliminating Redundancy Of View Synthesis Prediction Candidate In Merge Mode
KR102321413B1 (en) A Method And Apparatus For Deriving Motion Information Of Sub-Prediction Unit
KR102395974B1 (en) A Method And Apparatus For Deriving Temporal Inter-View Motion Information Of Sub-Prediction Unit
KR102424941B1 (en) Apparatus And Method For Adaptably Selecting Merging Candidates In 3 Dimensional Image Encoding And Decoding
KR102378087B1 (en) Apparatus And Method For Deriving Merge Candidate Using Disparity Vector
KR101672008B1 (en) Method And Apparatus For Estimating Disparity Vector

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant