KR20140124043A - A method of determining structure for separating prediction unit and an apparatus using it - Google Patents

A method of determining structure for separating prediction unit and an apparatus using it Download PDF

Info

Publication number
KR20140124043A
KR20140124043A KR20130040858A KR20130040858A KR20140124043A KR 20140124043 A KR20140124043 A KR 20140124043A KR 20130040858 A KR20130040858 A KR 20130040858A KR 20130040858 A KR20130040858 A KR 20130040858A KR 20140124043 A KR20140124043 A KR 20140124043A
Authority
KR
South Korea
Prior art keywords
determining
image
object information
depth information
prediction block
Prior art date
Application number
KR20130040858A
Other languages
Korean (ko)
Inventor
김경용
박광훈
배동인
이윤진
허영수
Original Assignee
인텔렉추얼디스커버리 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔렉추얼디스커버리 주식회사 filed Critical 인텔렉추얼디스커버리 주식회사
Priority to KR20130040858A priority Critical patent/KR20140124043A/en
Publication of KR20140124043A publication Critical patent/KR20140124043A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

A method for determining a prediction block split structure according to an embodiment of the present invention comprises the steps of: receiving image data including depth information; generating object information based on the depth information included in the image data; and determining a prediction block split structure for the image data based on the object information.

Description

깊이 정보를 이용한 예측 블록 분할 구조 결정 방법 및 장치 {A method of determining structure for separating prediction unit and an apparatus using it}[0001] The present invention relates to a method and a device for determining a prediction block division structure using depth information,

본 발명은 깊이 정보 영상을 이용하여 영상을 효율적으로 부호화 및 복호화하는 방법에 관한 것이다.The present invention relates to a method of efficiently encoding and decoding an image using a depth information image.

3차원 비디오는 3차원 입체 디스플레이 장치를 통해 사용자에게 실세계에서 보고 느끼는 것과 같은 입체감을 생생하게 제공한다. 이와 관련된 연구로써 ISO/IEC의 MPEG(Moving Picture Experts Group)과 ITU-T의 VCEG(Video Coding Experts Group)의 공동 표준화 그룹인 JCT-3V(The Joint Collaborative Team on 3D Video Coding Extension Development)에서 3차원 비디오 표준이 진행 중이다. 3차원 비디오 표준은 실제 영상과 그것의 깊이 정보 맵을 이용하여 스테레오스코픽 영상뿐만 아니라 오토 스테레오스코픽 영상의 재생 등을 지원할 수 있는 진보된 데이터 형식과 그에 관련된 기술에 대한 표준을 포함하고 있다.3D video provides users with a stereoscopic effect as if they are seeing and feeling in the real world through a 3D stereoscopic display device. As a result of this research, the Joint Collaborative Team on 3D Video Coding Extension Development (JCT-3V), a joint standardization group of ISO / IEC Moving Picture Experts Group (MPEG) and ITU-T VCEG (Video Coding Experts Group) Video standards are in progress. The 3D video standard includes standards for advanced data formats and related technologies that can support playback of autostereoscopic images as well as stereoscopic images using real images and their depth information maps.

본 발명에서는 깊이 정보 영상을 이용하여 효율적인 부호화 예측 블록의 분할 구조를 결정하는 방법을 제안한다.In the present invention, a method of determining a partition structure of an efficient encoded prediction block using a depth information image is proposed.

상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 분할 구조 결정 방법은, 깊이 정보를 포함하는 영상 데이터를 수신하는 단계; 상기 영상 데이터에 포함된 깊이 정보에 기초하여 객체 정보를 생성하는 단계; 및 상기 객체 정보에 기초하여 상기 영상 데이터에 대한 예측 블록 분할 구조를 결정하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of determining a divided structure, the method including: receiving image data including depth information; Generating object information based on depth information included in the image data; And determining a prediction block division structure for the image data based on the object information.

본 발명은 일반 영상의 부호화 효율을 향상 시킬 수 있다. 깊이 정보를 이용하여 실제 영상을 부호화하는 방법에 이용하여, 실제 영상에 대한 부호화 효율을 증가시키고 복잡도를 감소시키는 효과가 있다. The present invention can improve the coding efficiency of a general image. There is an effect of increasing the coding efficiency and decreasing the complexity of the actual image by using the method of coding the actual image using the depth information.

도 1은 3차원 비디오 시스템의 기본 구조와 데이터 형식에 대한 일 예를 나타내는 도면이다.
도 2는 실제 영상과 깊이 정보 맵 영상에 대한 일 예를 나타내는 도면이다.
도 3은 영상 부호화 장치의 구성에 대한 일 예를 나타내는 블록도이다.
도 4는 3차원 비디오 부호화/복호화 장치의 구성에 대한 일 예를 나타내는 블록도이다.
도 5는 비트스트림의 구성에 대한 일실시예를 나타내는 도면이다.
도 6은 부호화를 위해 영상을 복수의 유닛들로 분할하는 방법에 대한 일 예를 나타내는 도면이다.
도 7은 영상을 복수의 예측 유닛들로 분할하는 방법에 대한 일 예를 나타내는 도면이다.
도 8은 부호화 결과에 따른 블록의 분할 구조에 대한 일 예를 나타내는 도면이다.
도 9는 객체 정보에 따른 가변 분할 구조에 대한 일실시예를 나타내는 도면이다.
도 10은 세로방향 PU 분할 구조에 대한 일실시예를 나타내는 도면이다.
도 11은 가로방향 PU 분할 구조에 대한 일실시예를 나타내는 도면이다.
도 12는 PU 분할 구조에서 p값을 결정하는 방법에 대한 일실시예를 설명하기 위한 도면이다.
도 13은 객체정보에 기반하여 PU 분할 구조를 결정하는 방법에 대한 일실시예를 나타내는 도면이다.
도 14는 본 발명의 또 다른 실시예에 따른 PU 및 TU 분할 구조를 나타내는 도면이다.
1 is a diagram showing an example of a basic structure and a data format of a 3D video system.
2 is a view showing an example of an actual image and a depth information map image.
3 is a block diagram showing an example of the configuration of the image encoding apparatus.
4 is a block diagram illustrating an example of a configuration of a 3D video encoding / decoding apparatus.
5 is a diagram showing an embodiment of the configuration of a bit stream.
6 is a diagram showing an example of a method of dividing an image into a plurality of units for encoding.
7 is a diagram showing an example of a method of dividing an image into a plurality of prediction units.
8 is a diagram showing an example of a block division structure according to a coding result.
9 is a view showing an embodiment of a variable division structure according to object information.
10 is a view showing an embodiment of a longitudinal direction PU division structure.
11 is a diagram showing an embodiment of a horizontal direction PU division structure.
12 is a diagram for explaining an embodiment of a method for determining a p value in a PU division structure.
13 is a diagram showing an embodiment of a method for determining a PU division structure based on object information.
FIG. 14 is a diagram showing a PU and TU division structure according to another embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the invention. Thus, those skilled in the art will be able to devise various apparatuses which, although not explicitly described or shown herein, embody the principles of the invention and are included in the concept and scope of the invention. Furthermore, all of the conditional terms and embodiments listed herein are, in principle, intended only for the purpose of enabling understanding of the concepts of the present invention, and are not intended to be limiting in any way to the specifically listed embodiments and conditions .

또한, 본 발명의 원리, 관점 및 실시예들 뿐만 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.It is also to be understood that the detailed description, as well as the principles, aspects and embodiments of the invention, as well as specific embodiments thereof, are intended to cover structural and functional equivalents thereof. It is also to be understood that such equivalents include all elements contemplated to perform the same function irrespective of the currently known equivalents as well as the equivalents to be developed in the future, i.e., the structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, it should be understood that the block diagrams herein represent conceptual views of exemplary circuits embodying the principles of the invention. Similarly, all flowcharts, state transition diagrams, pseudo code, and the like are representative of various processes that may be substantially represented on a computer-readable medium and executed by a computer or processor, whether or not the computer or processor is explicitly shown .

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functions of the various elements shown in the figures, including the functional blocks depicted in the processor or similar concept, may be provided by use of dedicated hardware as well as hardware capable of executing software in connection with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.Also, the explicit use of terms such as processor, control, or similar concepts should not be interpreted exclusively as hardware capable of running software, and may be used without limitation as a digital signal processor (DSP) (ROM), random access memory (RAM), and non-volatile memory. Other hardware may also be included.

본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims hereof, the elements represented as means for performing the functions described in the detailed description include all types of software including, for example, a combination of circuit elements performing the function or firmware / microcode etc. , And is coupled with appropriate circuitry to execute the software to perform the function. It is to be understood that the invention defined by the appended claims is not to be construed as encompassing any means capable of providing such functionality, as the functions provided by the various listed means are combined and combined with the manner in which the claims require .

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: There will be. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시예를 상세히 설명하기로 한다.Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1는 3차원 비디오 시스템의 기본 구조와 데이터 형식에 대한 일 예를 도시한 것이다.FIG. 1 shows an example of a basic structure and a data format of a 3D video system.

3차원 비디오 표준에서 고려하고 있는 기본적인 3차원 비디오 시스템은 도 1과 같고, 도 1에서 도시하듯 3차원 비디오 표준에서 사용 중인 깊이 정보 영상은 일반 영상과 함께 부호화되어 비트스트림으로 단말에 전송된다. 송신 측에서는 스테레오 카메라, 깊이 정보 카메라, 다시점 카메라, 2차원 영상을 3차원 영상으로 변환 등을 이용하여 N(N≥2) 시점의 영상 콘텐츠를 획득한다. 획득된 영상 콘텐츠에는 N 시점의 비디오 정보와 그것의 깊이 정보 맵(Depth-map) 정보 그리고 카메라 관련 부가정보 등이 포함될 수 있다. N 시점의 영상 콘텐츠는 다시점 비디오 부호화 방법을 사용하여 압축되며, 압축된 비트스트림은 네트워크를 통해 단말로 전송된다. 수신 측에서는 전송받은 비트스트림을 다시점 비디오 복호화 방법을 사용하여 복호화하여 N 시점의 영상을 복원한다. 복원된 N 시점의 영상은 깊이 정보 맵 기반 랜더링(DIBR; Depth-Image-Based Rendering) 과정에 의해 N 시점 이상의 가상시점 영상들을 생성한다. 생성된 N 시점 이상의 가상시점 영상들은 다양한 입체 디스플레이 장치에 맞게 재생되어 사용자에게 입체감이 있는 영상을 제공하게 된다.The basic three-dimensional video system considered in the three-dimensional video standard is as shown in FIG. 1. As shown in FIG. 1, the depth information image being used in the three-dimensional video standard is encoded together with a general image and transmitted to the terminal as a bit stream. On the transmitting side, the image content of N (N ≥ 2) viewpoints is acquired by using a stereo camera, a depth information camera, a multi-view camera, and a two-dimensional image into a three-dimensional image. The obtained image content may include video information of the N view point, its depth map information, camera-related additional information, and the like. The video content at time point N is compressed using the multi-view video encoding method, and the compressed bitstream is transmitted to the terminal through the network. The receiving side decodes the transmitted bit stream using the multi-view video decoding method, and restores the N view image. The reconstructed N-view image generates virtual view images at N or more viewpoints by a depth-image-based rendering (DIBR) process. The generated virtual viewpoint images are reproduced in accordance with various stereoscopic display devices to provide stereoscopic images to the user.

가상시점 영상을 생성하는데 사용되는 깊이 정보 맵은 실세계에서 카메라와 실제 사물(object) 간의 거리(실사 영상과 동일한 해상도로 각 화소에 해당하는 깊이 정보)를 일정한 비트수로 표현한 것이다. 깊이 정보 맵의 예로써, 도 2는 국제 표준화 기구인 MPEG의 3차원 비디오 부호화 표준에서 사용 중인 "balloons" 영상(도 2 (a))과 그것의 깊이 정보 맵(도 2 (b))을 보여주고 있다. 실제 도 2의 깊이 정보 맵은 화면에 보이는 깊이 정보를 화소당 8비트로 표현한 것이다.The depth information map used to generate the virtual viewpoint image is a representation of the distance between the camera and the actual object in the real world (depth information corresponding to each pixel at the same resolution as the real image) in a fixed number of bits. As an example of a depth information map, FIG. 2 shows a "balloons" image (FIG. 2 (a)) and its depth information map (FIG. 2 (b)) being used in the MPEG standard of 3D video coding standard Giving. The depth information map shown in FIG. 2 actually represents depth information on the screen in 8 bits per pixel.

실제 영상과 그것의 깊이 정보 맵을 부호화하는 방법의 일예로, 현재까지 개발된 비디오 부호화 표준 중에서 최고의 부호화 효율을 가지는 MPEG(Moving Picture Experts Group)과 VCEG(Video Coding Experts Group)에서 공동으로 표준화를 진행 중인 HEVC(High Efficiency Video Coding)를 이용하여 부호화를 수행할 수 있다. HEVC의 부호화 구조도의 일 예는 도 3과 같다. 도 3에서와 같이 HEVC에는 부호화 단위 및 구조, 화면 간(Inter) 예측, 화면 내(Intra) 예측, 보간(Interpolation), 필터링(filtering), 변환(Transform) 방법 등 다양한 새로운 알고리즘들을 포함하고 있다. As an example of a method of encoding an actual image and its depth information map, the Moving Picture Experts Group (MPEG) and the Video Coding Experts Group (VCEG) having the highest coding efficiency among the video coding standards developed so far jointly standardize Encoding can be performed using HEVC (High Efficiency Video Coding). An example of the coding structure of HEVC is shown in FIG. As shown in FIG. 3, the HEVC includes various new algorithms such as coding unit and structure, inter prediction, intra prediction, interpolation, filtering, and transform.

도 3은 영상 부호화 장치의 구성에 대한 일 예를 블록도로 도시한 것으로, HEVC 코덱에 따른 부호화 장치의 구성을 나타낸 것이다.3 is a block diagram showing an example of the configuration of the image encoding apparatus, and shows the configuration of an encoding apparatus according to the HEVC codec.

실제 영상과 그것의 깊이 정보 맵을 부호화할 때, 서로 독립적으로 부호화/복호화할 수 있다. 또한 실제 영상과 깊이 정보 맵을 부호화할 때, 도 4와 같이 서로 의존적으로 부호화/복호화 할 수 있다. 일 실시 예로, 이미 부호화된/복호화된 깊이 정보맵을 이용하여 실제 영상을 부호화/복호화할 수 있으며, 반대로 이미 부호화된/복호화된 실제 영상을 이용하여 깊이 정보맵을 부호화/복호화할 수 있다. When the actual image and its depth information map are encoded, they can be independently encoded / decoded. When the actual image and the depth information map are encoded, they can be encoded / decoded in dependence on each other as shown in FIG. In one embodiment, an actual image can be encoded / decoded using an already-encoded / decoded depth information map, and conversely, a depth information map can be encoded / decoded using an already encoded / decoded real image.

도 4는 3차원 비디오 부호화/복호화 장치의 구성에 대한 일 예를 블록도로 도시한 것이다.FIG. 4 is a block diagram illustrating an example of a configuration of a 3D video encoding / decoding apparatus.

3차원 비디오 코덱에서는 실제 영상과 그것의 깊이 정보 영상의 부호화된 비트스트림을 하나의 비트스트림으로 다중화될 수 있다.
In the 3D video codec, the encoded bit stream of the real image and its depth information image can be multiplexed into one bit stream.

도 5는 비트스트림의 구성에 대한 일실시예를 도시한 것이다.FIG. 5 shows an embodiment of the configuration of a bitstream.

도 5를 참조하면, 실제 영상과 그것의 깊이 정보 영상의 부호화된 비트스트림을 독립적으로 구성하여 하나의 비트스트림으로 다중화할 수 있다. 도 5에서 통합 헤더(Header) 정보에는 실제 영상과 그것의 깊이 정보 영상의 복호화 및 가상 시점 영상을 생성하는데 필요한 파라미터에 대한 정보가 포함될 수 있다. 깊이 정보 영상의 헤더(Header) 정보에는 깊이 정보 영상의 복호화 및 가상 시점 영상의 생성에 필요한 파라미터에 대한 정보가 포함될 수 있다. 실제 영상의 헤더(Header) 정보에는 일반 영상의 복호화에 필요한 파라미터에 대한 정보가 포함될 수 있다.Referring to FIG. 5, an encoded bit stream of an actual image and its depth information image can be independently constructed and multiplexed into a single bit stream. In FIG. 5, the integrated header information may include information on parameters necessary for decoding the actual image and its depth information image and generating the virtual view image. The header information of the depth information image may include information on parameters necessary for decoding the depth information image and generating the virtual viewpoint image. Header information of an actual image may include information on parameters necessary for decoding a general image.

실제 영상과 그것의 깊이 정보 영상은 큰 상관성을 가지므로, 3차원 비디오 코덱에서 부호화기/복호화기 모두에서 이용할 수 있는 깊이 정보 영상을 고려한 알고리즘 개발을 제안할 수 있겠다.Since the actual image and its depth information image have a great correlation, it is possible to suggest an algorithm considering the depth information image which can be used in both the encoder / decoder in the 3D video codec.

3차원 비디오 코덱에서 깊이 정보 이용을 반영하지 않고 설계된 알고리즘들을 개선하여, 깊이 정보 영상을 이용한 3차원 비디오 코덱에서의 영상 부호화 방법을 제안한다. 본 발명의 기본 컨셉은, 3차원 비디오 코덱에서 부호화 효율을 극대화시키기 위해서, 깊이 정보 카메라에서 획득한 깊이 정보 영상을 활용하여 실제 영상을 부호화하는 데 활용하는데 있다. In this paper, we propose a video coding method in 3D video codec using depth information image. The basic concept of the present invention is to utilize a 3D video codec to encode an actual image using a depth information image acquired by a depth information camera in order to maximize a coding efficiency.

일 실시 예로, 깊이 정보 영상을 활용하여 일반 영상의 객체들을 구분하여 부호화할 경우, 일반 영상에 대한 부호화 효율을 크게 증가시킬 수 있다. 여기서 객체들이란, 여러 개의 객체를 의미하여 배경 영상을 포함할 수 있으며, 블록기반 부호화 코덱에서 블록 내에는 여러 개의 객체가 존재할 수 있으며, 깊이 정보 영상으로 기반으로 해당 객체마다 각각 다른 부호화 방법들이 적용될 수 있다.
In one embodiment, when the objects of a general image are classified and encoded using the depth information image, the coding efficiency for a general image can be greatly increased. In the block-based encoding codec, a plurality of objects may exist in the block. Different encoding methods are applied to the objects based on the depth information image. .

HEVC의 경우, 부호화를 수행할 때 영상을 코딩 유닛(CU: Coding Unit, 이하 'CU')의 기본 단위인 LCU(LCU: Largest Coding Unit) 단위로 나누어 부호화를 수행한다.In the case of HEVC, the coding is performed by dividing an image into units of LCU (LCU: Largest Coding Unit), which is a basic unit of a coding unit (CU).

여기서, CU는 기존의 비디오 코덱인 H.264/AVC에서의 기본 블록인 매크로블록(MB: Macro Block, 이하 'MB')과 유사한 역할을 하지만, 16x16의 고정 크기를 갖는 MB와 달리 CU는 가변적으로 크기를 정할 수 있다. 또한 부호화를 위해 분할된 LCU는 영상의 효율적인 부호화를 위해 다시 LCU 보다 작은 크기를 갖는 여러 CU로 분할될 수 있다.Here, the CU plays a role similar to a macro block (MB), which is a basic block in H.264 / AVC, which is a conventional video codec, but unlike an MB having a fixed size of 16x16, You can set the size to. In addition, the divided LCU for encoding can be divided into several CUs having a smaller size than the LCU for efficient encoding of the image.

도 6은 부호화를 위해 영상을 복수의 유닛들로 분할하는 방법에 대한 일 예를 도시한 것으로, 64x64 크기의 LCU를 복수의 CU들로 분할하는 방법에 대한 예이다.FIG. 6 shows an example of a method of dividing an image into a plurality of units for encoding, and is an example of a method of dividing a 64x64 LCU into a plurality of CUs.

도 6을 참조하면, LCU에 대한 분할 구조는 여러 크기를 갖는 CU로 결정되는데, 이러한 CU의 분포는 LCU 크기로부터 가로 세로 절반씩 감소한 4개의 CU로 분할 여부를 판별한 뒤 결정된다. 또한, 분할된 CU는 같은 방식으로 가로 세로 절반씩 감소한 4개의 CU로 재귀적으로 분할할 수 있으며, CU의 분할은 미리 정의된 깊이까지 분할을 수행한다.Referring to FIG. 6, the partition structure for the LCU is determined as a CU having various sizes. The distribution of the CUs is determined after determining whether or not the CUs are divided into four CUs, which are reduced in half by half from the LCU size. In addition, the divided CUs can be recursively divided into four CUs, which are reduced by half the length in the same manner, and the CUs are divided up to a predetermined depth.

도 7은 영상을 복수의 예측 유닛들로 분할하는 방법에 대한 일 예를 도시한 것이다.FIG. 7 shows an example of a method of dividing an image into a plurality of prediction units.

도 7을 참조하면, CU 구조를 정사각형 크기의 2Nx2N으로 나타내고 있으며, CU 내에서 분할되는 예측 구조로 예측 유닛(PU: Prediction Unit, 이하 'PU')을 나타내고 있다.Referring to FIG. 7, a CU structure is represented by 2Nx2N of a square size, and a prediction unit (PU) is shown as a prediction structure divided in the CU.

PU는 CU 단위로 인트라 또는 인터 모드로 부호화를 수행할 때, 더욱 효율적인 부호화를 위해 결정되는 구조이다. 이는 CU 단위로의 부호화 수행에서 정확한 예측을 할 수 없는 경우 CU 내에 PU 단위로 나누어서 각각의 PU를 독립적으로 예측하여 부호화하기 위함이다.The PU is a structure determined for more efficient encoding when performing encoding in intra or inter mode in units of CU. This is to predict and encode each PU independently by dividing it into PU units in the CU when accurate prediction can not be performed in the encoding in the unit of CU.

PU 분할 구조를 결정하는 과정에서 예측하려는 현재 블록에 대해 도 7에 도시한 모든 PU 분할 구조로 예측하여 예측 치가 현재 블록과 제일 근접한 블록을 갖는 PU 분할 구조로 결정된다.In the process of determining the PU division structure, the PU division structure shown in FIG. 7 is predicted for the current block to be predicted, and the predicted value is determined as a PU division structure having the block closest to the current block.

하지만, 이러한 과정은 주변 블록에 대해 객체 정보를 고려하지 않고 있다.However, this process does not consider object information for neighboring blocks.

이는 당연한데, 2차원 영상의 경우, Depth 카메라가 없다면 2차원 영상 분석을 통하여 영상내의 객체정보를 추출해내야 하므로, 현존하는 2차원 비디오 코딩 방법에는 객체기반 코딩 방법이 전혀 탑재되어 있지 않기 때문이다. This is because, in the case of a two-dimensional image, object information in an image must be extracted through a two-dimensional image analysis if there is no depth camera, and therefore, the existing two-dimensional video coding method is not equipped with an object-based coding method at all.

하지만 Depth 카메라를 이용하여 객체정보를 고려할 수 있다면, 2차원 영상 코딩을 위하여 PU 분할 구조 결정을 다음과 같이 할 수 있다.However, if the object information can be considered using the Depth camera, the PU division structure can be determined as follows for the 2D image coding.

도 8은 부호화 결과에 따른 블록의 분할 구조에 대한 일 예를 도시한 것으로, HEVC 표준화 실험 영상 중 하나를 HEVC 레퍼런스 소프트웨어 HM 7.0을 통해 부호화한 결과로 임의 LCU에 대한 분할 구조를 나타낸 것이다.FIG. 8 shows an example of a divided structure of blocks according to a result of encoding. As a result of encoding one of the HEVC standardization experiment images through the HEVC reference software HM 7.0, the divided structure for an arbitrary LCU is shown.

도 8에서 점선으로 표현된 블록 A, B, C는 각각 분할 구조 2NxN, nRx2N, 2NxN 으로, 객체의 경계를 따라서 분할 구조가 결정됨을 알 수 있다. 따라서, PU 분할 구조 결정에 객체 정보를 이용하는 방법을 제안해 볼 수 있다.In FIG. 8, the blocks A, B, and C represented by the dotted lines have the divided structures 2NxN, nRx2N, and 2NxN, respectively, and the division structure is determined along the boundaries of the objects. Therefore, we can propose a method to use object information for PU partition structure determination.

또한, 도 7에 도시된 바와 같이, 현재 분할 구조는 대칭 구조로는 2NxN, Nx2N 비대칭 구조로는 nLx2N, nRx2N, 2NxnU, 2NxnD이 있는데 이 분할 구조만으로는 객체의 경계를 표현하는데 한계가 있다.Also, as shown in FIG. 7, the present partition structure has 2NxN as a symmetric structure, and nLx2N, nRx2N, 2NxnU, and 2NxnD as Nx2N asymmetric structures.

이러한 이유로 경계에 따른 적합한 블록의 크기를 표현하기 위해 다양한 크기를 갖는 분할 구조의 추가가 요구된다.
For this reason, it is required to add a partition structure having various sizes in order to express the size of a suitable block along the boundary.

깊이 정보를 이용한 PU 분할 구조PU partition structure using depth information

제안하는 추가 분할 구조는 블록을 세로방향으로 블록을 분할하는 Nx2N, nLx2N, nRx2N의 확장형 nPx2N, 가로방향으로 블록을 분할하는 2NxN, 2NxnU, 2NxnD의 확장형 2NxnP가 있다.The proposed additional partitioning structure is an extended type nPx2N of Nx2N, nLx2N, nRx2N, which divides the block in the vertical direction, and an extended type 2NxnP of 2NxN, 2NxnU, 2NxnD, which divides the block in the horizontal direction.

도 9는 객체 정보에 따른 가변 분할 구조에 대한 일실시예를 도시한 것이다.FIG. 9 shows an embodiment of a variable division structure according to object information.

도 9를 참조하면, 제안하는 세로방향 분할 구조 nPx2N는 객체 정보에 의해 블록을 세로방향으로 나누는 경우에 있어 적합한 구조이며, 가로방향 분할 구조 2NxnP는 객체 정보에 의해 블록을 가로방향으로 나누는 경우에 있어 적합한 구조이다.Referring to FIG. 9, the proposed vertical division structure nPx2N is a structure suitable for dividing a block in the vertical direction by object information, and the horizontal division structure 2NxnP divides a block in the horizontal direction by object information It is a suitable structure.

본 발명에서는 객체 정보를 고려한 추가적인 PU 분할 구조 nPx2N과 2NxnP를 제안한다. 객체 정보에 따라 그것에 적합한 PU 분할 구조를 제안함으로써 분할 구조 결정 과정에서의 코딩 복잡도를 감소시키며 더 정확한 PU 분할 구조를 결정하게 함으로써 코딩 효율을 높일 수 있다. In the present invention, additional PU division structures nPx2N and 2NxnP considering object information are proposed. By proposing a PU partition structure suitable for the object information according to the object information, the coding complexity in the partition structure determination process is reduced and the more accurate PU partition structure is determined, thereby improving the coding efficiency.

이러한 제안 방법은 영상 부호화 시 그것의 깊이 정보가 있으면 그로부터 객체 정보를 얻어 수행할 수 있는데, 앞장에서 언급하였듯 깊이 정보 획득이 용이해지는 코딩 환경으로의 변화 상황에서 필요로 개발되어야 하는 알고리즘이라 할 수 있다.This proposed method can obtain the object information from the depth information of the image coding, and as mentioned in the previous section, it can be said that it needs to be developed in the situation of changing into the coding environment where the depth information can be easily acquired have.

제안하는 HEVC에서 PU 분할 구조는 세로방향 분할 구조 nPx2N 와 가로방향 분할 구조 2NxnP 이다.In the proposed HEVC, the PU partition structure is a vertically partitioned structure nPx2N and a horizontally partitioned structure 2NxnP.

도 10은 세로방향 PU 분할 구조에 대한 일실시예를 도시한 것이다.FIG. 10 illustrates an embodiment of a longitudinal PU partitioning structure.

세로방향 분할 구조 nPx2N은 블록 내의 객체 분포가 세로방향으로 나누어지는 경우에 대한 구조이다.Vertical division structure nPx2N is a structure for the case where the object distribution in the block is divided in the vertical direction.

여기서, 객체 분포가 세로방향으로 나누어지는 경우는 도 10에서와 같이 블록을 4등분으로 나누어 가정하면 임의의 한 객체 분포가 세로선 또는 대각선으로 나눌 수 있는 경우를 말한다.Here, when the object distribution is divided into longitudinal directions, it is assumed that an arbitrary one object distribution can be divided into a vertical line or a diagonal line assuming that the block is divided into four equal parts as shown in FIG.

도 11은 가로방향 PU 분할 구조에 대한 일실시예를 도시한 것이다.Figure 11 shows an embodiment of a lateral PU partitioning structure.

가로방향 분할 구조 2NxnP는 블록 내의 객체 분포가 가로방향으로 나누어지는 경우에 대한 구조이다. 여기서, 객체 분포가 가로방향으로 나누어지는 경우는 도 9에서와 같이 블록을 4등분으로 나누어 가정하면 임의의 한 객체 분포가 가로선 또는 대각선으로 나눌 수 있는 경우를 말한다.Horizontal division structure 2NxnP is a structure for the case where the object distribution in the block is divided into the horizontal direction. Here, when the object distribution is divided into the horizontal direction, it is a case that an arbitrary one object distribution can be divided into a horizontal line or a diagonal line, assuming that the block is divided into four equal parts as shown in FIG.

도 12는 PU 분할 구조에서 p값을 결정하는 방법에 대한 일실시예를 설명하기 위해 도시한 것이다.12 is a view for explaining an embodiment of a method of determining a p value in a PU division structure.

도 12를 참조하면, 세로방향 분할 구조 nPx2N에서 p 값 결정은 p=1 또는 임의 값부터 시작하여 객체 분포의 끝까지 1 또는 임의의 단위로 증가하여 최선의 예측 값을 갖는 값을 찾아 결정한다.Referring to FIG. 12, the determination of the p value in the longitudinal partitioning structure nPx2N is performed by starting from p = 1 or an arbitrary value, and increasing to 1 or an arbitrary unit from the end of the object distribution to find a value having the best predicted value.

마찬가지로, 가로방향 분할 구조 2NxnP에서 p 값도 p=1 또는 임의 값부터 시작하여 객체 분포의 끝까지 1 또는 임의의 단위로 증가하여 최선의 예측 값을 갖는 값을 찾아 결정한다.Likewise, in the horizontal direction division structure 2NxnP, the p value also increases from 1 or an arbitrary value to 1 or an arbitrary unit from the end of the object distribution to find a value having the best prediction value.

본 발명의 일실시예에 따른 PU 분할 구조 결정 방법은 객체 정보를 기반으로 추가되는 분할 구조를 적용하여 결정하는 방법이다.The PU division structure determination method according to an exemplary embodiment of the present invention is a method of determining a PU division structure by applying a division structure added based on object information.

예측 블록이 동일 객체로 이루어지는 경우 기존의 PU 분할 구조에서 최선의 분할 구조를 선택하고, 예측 블록이 동일 객체가 아닌 경우에 있어 세로방향으로 나누어지는 경우는 2Nx2N, NxN, nPx2N 중에서 선택하고, 가로방향으로 나누어지는 경우는 2Nx2N, NxN, 2NxnP 중에서 선택하고 세로방향 또는 가로방향으로 나눌 수 없는 경우에는 기존의 PU 분할 구조에서 선택한다.When the prediction block is composed of the same object, the best division structure is selected in the existing PU division structure. In the case where the prediction block is not the same object, the division is performed in the direction of 2Nx2N, NxN, and nPx2N, , 2Nx2N, NxN, 2NxnP are selected, and when it can not be divided into the vertical direction or the horizontal direction, it is selected from the existing PU division structure.

도 13은 객체정보에 기반하여 PU 분할 구조를 결정하는 방법에 대한 일실시예를 도시한 것이다.FIG. 13 shows an embodiment of a method for determining a PU division structure based on object information.

도 13을 참조하여 본 발명의 일실시예에 따른 PU 분할 구조 결정 방법을 설명하면 다음과 같다.A method of determining a PU division structure according to an embodiment of the present invention will be described with reference to FIG.

(1) 예측 블록에 대한 객체 정보를 읽어온다. (1) Read the object information for the prediction block.

(2) 예측 블록의 객체 정보가 동일 객체인 경우 (3)의 과정을 수행하고 그렇지 않은 경우 (4)의 과정을 수행한다. (2) The process of (3) is performed when the object information of the prediction block is the same object. Otherwise, the process of (4) is performed.

(3) 분할 구조 2Nx2N, NxN, 2NxN, Nx2N, nLx2N, nRx2N, 2NxnU, 2NxnD를 후보로 하여 율-왜곡 측정을 통해 최선의 예측 값을 갖는 분할 구조를 선택하고 종료한다.(3) The division structure having the best predicted value is selected through the rate-distortion measurement while the divided structures 2Nx2N, NxN, 2NxN, Nx2N, nLx2N, nRx2N, 2NxnU and 2NxnD are candidates.

(4) 예측 블록이 객체 정보에 따라 세로방향으로 나누어지는 경우에는 분할 구조 2Nx2N, NxN, nPx2N를 후보로 하고 가로방향으로 나누어지는 경우에는 2Nx2N, NxN, 2NxnP를 후보로 하여 율-왜곡 측정을 통해 최선의 예측 값을 갖는 분할 구조를 선택하고 종료한다. 세로방향 또는 가로방향으로 나눌 수 없는 경우에는 (3)의 과정을 수행하고 종료한다.(4) When the prediction block is divided vertically according to object information, 2Nx2N, NxN, 2NxnP are candidates for 2Nx2N, NxN, and nPx2N as candidates, and 2Nx2N, The segmentation structure having the best predicted value is selected and terminated. If it can not be divided into the vertical direction or the horizontal direction, the process of (3) is performed and the process is terminated.

도 14는 본 발명의 또 다른 실시예에 따른 PU 및 TU 분할 구조를 나타내는 도면이다.FIG. 14 is a diagram showing a PU and TU division structure according to another embodiment of the present invention.

도 14를 참조하면, 기존의 사각형 형태가 아닌 직사각형 형태의 변환(Transform) 및 양자화(Quantization) 방법으로, 앞서 제안한 추가 PU 분할 구조에 따른 변환 및 양자화 방법이다.Referring to FIG. 14, a transformation and quantization method according to the above-described additional PU division structure is performed in a rectangle type transform and quantization method that is not a conventional rectangular shape.

제안하는 방법은 도 14에서와 같이 PU 분할 구조가 nPx2N 또는 2NxnP와 같이 결정되는 경우, TU의 구조도 그에 맞추어 결정하여 변환 및 양자화될 수 있다.When the PU partition structure is determined as nPx2N or 2NxnP as shown in FIG. 14, the proposed method can be determined and transformed and quantized according to the structure of the TU.

PU에 대한 분할 구조가 nPx2N 또는 2NxnP로 결정된 경우 그 블록에 대한 TU 구조는 기존의 TU 구조 및 도 14에서와 같이 추가 TU 구조를 후보로 하여 결정하고 변환 및 양자화를 수행한다.
If the partition structure for the PU is determined to be nPx2N or 2NxnP, the TU structure for the block is determined as the existing TU structure and the additional TU structure as shown in FIG. 14, and the transformation and quantization are performed.

상술한 방법들은 모두 블록 크기 혹은 CU 깊이 등에 따라 적용 범위를 달리할 수 있다. 이렇게 적용 범위를 결정하는 변수(즉, 크기 혹은 깊이 정보)는 부호화기 및 복호화기가 미리 정해진 값을 사용하도록 설정할 수도 있고, 프로파일 또는 레벨에 따라 정해진 값을 사용하도록 할 수 도 있고, 부호화기가 변수 값을 비트스트림에 기재하면 복호화기는 비트스트림으로부터 이 값을 구하여 사용할 수도 있다. CU 깊이에 따라 적용 범위를 달리하는 할 때는 아래 표에 예시한 바와 같이, 방식A) 주어진 깊이 이상의 깊이에만 적용하는 방식, 방식B) 주어진 깊이 이하에만 적용하는 방식, 방식C) 주어진 깊이에만 적용하는 방식이 있을 수 있다. All of the above methods can be applied differently depending on the block size or the CU depth. The variable (i.e., size or depth information) for determining the coverage can be set to use a predetermined value by the encoder or decoder, use a predetermined value according to the profile or level, If the bit stream is described, the decoder may use this value from the bit stream. If the application range is different according to the CU depth, as shown in the table below, the method A) applies only to a depth above a given depth, B) the method applied only to a given depth or less, C) There can be a way.

표 1은 주어진 CU 깊이가 2인 경우, 본 발명의 방법들을 적용하는 범위 결정 방식의 예를 나타낸다. (O: 해당 깊이에 적용, X: 해당 깊이에 적용하지 않음.)Table 1 shows an example of the range determination method applying the methods of the present invention when the given CU depth is 2. (O: applied to the depth, X: not applied to the depth.)

적용범위를 나타내는 CU 깊이CU depth indicating coverage 방법AMethod A 방법BMethod B 방법CMethod C 00 XX OO XX 1One XX OO XX 22 OO OO OO 33 OO XX XX 44 OO XX XX

모든 깊이에 대하여 본 발명의 방법들을 적용하지 않는 경우는 임의의 지시자(flag)를 사용하여 나타낼 수도 있고, CU 깊이의 최대값보다 하나 더 큰 값을 적용범위를 나타내는 CU 깊이 값으로 시그널링 함으로써 표현할 수도 있다. When the methods of the present invention are not applied to all the depths, they may be indicated by using an optional flag, or a value one greater than the maximum value of the CU depth may be expressed by signaling with a CU depth value indicating the application range have.

또한 상술한 방법은 휘도 블록의 크기에 따라 색차 블록에 다르게 적용할 수 있으며, 또한, 휘도 신호영상 및 색차 영상에 다르게 적용할 수 있다.In addition, the above-described method can be applied to color difference blocks differently depending on the size of a luminance block, and can be applied to a luminance signal image and a chrominance image differently.

휘도블록크기Luminance block size 색차블록크기Color difference block size 휘도 적용Apply brightness 색차 적용Color difference application 방법들Methods 4(4x4, 4x2, 2x4)4 (4x4, 4x2, 2x4) 2(2x2)2 (2x2) O or XO or X O or XO or X 가 1, 2, ..1, 2, ... 4(4x4, 4x2, 2x4)4 (4x4, 4x2, 2x4) O or XO or X O or XO or X 나 1, 2, ..I, 1, 2, ... 8(8x8, 8x4, 4x8, 2x8 등)8 (8x8, 8x4, 4x8, 2x8, etc.) O or XO or X O or XO or X 다 1, 2, ..Every 1, 2, .. 16(16x16, 16x8, 4x16, 2x16 등)16 (16x16, 16x8, 4x16, 2x16, etc.) O or XO or X O or XO or X 라 1, 2, ..La 1, 2, .. 32(32x32)32 (32x32) O or XO or X O or XO or X 마 1, 2, ..Ma 1, 2, .. 8(8x8, 8x4, 2x8 등)8 (8x8, 8x4, 2x8, etc.) 2(2x2)2 (2x2) O or XO or X O or XO or X 바 1, 2, ..Bars 1, 2, .. 4(4x4, 4x2, 2x4)4 (4x4, 4x2, 2x4) O or XO or X O or XO or X 사 1, 2, ..Four, two, ... 8(8x8, 8x4, 4x8, 2x8 등)8 (8x8, 8x4, 4x8, 2x8, etc.) O or XO or X O or XO or X 아 1, 2, ..Oh, 1, 2, .. 16(16x16, 16x8, 4x16, 2x16 등)16 (16x16, 16x8, 4x16, 2x16, etc.) O or XO or X O or XO or X 자 1, 2, ..1, 2, ... 32(32x32)32 (32x32) O or XO or X O or XO or X 카 1, 2, ..Car 1, 2, .. 16(16x16, 8x16, 4x16 등)16 (16x16, 8x16, 4x16, etc.) 2(2x2)2 (2x2) O or XO or X O or XO or X 타 1, 2, ..1, 2, .. 4(4x4, 4x2, 2x4)4 (4x4, 4x2, 2x4) O or XO or X O or XO or X 파 1, 2, ..Wave 1, 2, .. 8(8x8, 8x4, 4x8, 2x8 등)8 (8x8, 8x4, 4x8, 2x8, etc.) O or XO or X O or XO or X 하 1, 2, ..1, 2, .. 16(16x16, 16x8, 4x16, 2x16 등)16 (16x16, 16x8, 4x16, 2x16, etc.) O or XO or X O or XO or X 개 1, 2, ..Dogs 1, 2, ... 32(32x32)32 (32x32) O or XO or X O or XO or X 내 1, 2, ..My 1, 2, ..

표 2는 방법들의 조합의 일예를 나타낸다.Table 2 shows an example of a combination of methods.

표 2의 변형된 방법들 중에서 방법 "사 1"을 살펴보면, 휘도블록의 크기가 8(8x8, 8x4, 2x8 등)인 경우이고, 그리고 색차 블록의 크기가 4(4x4, 4x2, 2x4)인 경우에 명세서의 방법을 휘도 신호 및 색차 신호에 적용할 수 있다.Among the modified methods of Table 2, when the method of "Issue 1 " is the case where the size of the luminance block is 8 (8x8, 8x4, 2x8, etc.) and the size of the color difference block is 4 (4x4, 4x2, 2x4) The method of the present invention can be applied to a luminance signal and a color difference signal.

위의 변형된 방법들 중에서 방법 "파 2"을 살펴보면, 휘도블록의 크기가 16(16x16, 8x16, 4x16 등)인 경우이고, 그리고 색차 블록의 크기가 4(4x4, 4x2, 2x4)인 경우에 명세서의 방법을 휘도 신호에 적용하고 색차 신호에는 적용하지 않을 수 있다.Among the above modified methods, the method "wave 2" is a case where the size of a luminance block is 16 (16 × 16, 8 × 16, 4 × 16, etc.) and the size of a color difference block is 4 (4 × 4, 4 × 2, 2 × 4) The method of the specification may be applied to the luminance signal and not to the color difference signal.

또 다른 변형된 방법들로 휘도 신호에만 명세서의 방법이 적용되고 색차 신호에는 적용되지 않을 수 있다. 반대로 색차 신호에만 명세서의 방법이 적용되고 휘도 신호에는 적용되지 않을 수 있다.In another modified method, the method of the specification is applied only to the luminance signal and may not be applied to the color difference signal. Conversely, the method of the specification is applied only to the color difference signal, and may not be applied to the luminance signal.

상술한 본 발명에 따른 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.The method according to the present invention may be implemented as a program for execution on a computer and stored in a computer-readable recording medium. Examples of the computer-readable recording medium include a ROM, a RAM, a CD- , A floppy disk, an optical data storage device, and the like, and may also be implemented in the form of a carrier wave (for example, transmission over the Internet).

컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer readable recording medium may be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner. And, functional programs, codes and code segments for implementing the above method can be easily inferred by programmers of the technical field to which the present invention belongs.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해 되어서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It should be understood that various modifications may be made by those skilled in the art without departing from the spirit and scope of the present invention.

Claims (10)

깊이 정보를 포함하는 영상 데이터를 수신하는 단계;
상기 영상 데이터에 포함된 깊이 정보에 기초하여 객체 정보를 생성하는 단계; 및
상기 객체 정보에 기초하여 상기 영상 데이터에 대한 예측 블록 분할 구조를 결정하는 단계를 포함하는 예측 블록 분할 구조 결정 방법.
Receiving image data including depth information;
Generating object information based on depth information included in the image data; And
And determining a prediction block division structure for the image data based on the object information.
제1항에 있어서,
상기 예측 블록 분할 구조를 결정하는 단계는 상기 객체 정보에 기초하여 가변 분할 구조를 적응적으로 결정하는 단계를 포함하는 예측 블록 분할 구조 결정 방법.
The method according to claim 1,
Wherein the step of determining the prediction block division structure includes adaptively determining a variable division structure based on the object information.
제1항에 있어서,
상기 예측 블록 분할 구조를 결정하는 단계는 상기 객체 정보에 기초하여 세로 방향 또는 세로 방향 중 어느 하나의 분할 구조를 결정하는 단계를 포함하는 예측 블록 분할 구조 결정 방법.
The method according to claim 1,
Wherein the step of determining the prediction block division structure includes the step of determining any one of a longitudinal direction and a longitudinal direction based on the object information.
제1항에 있어서,
상기 예측 블록 분할 구조를 결정하는 단계는 상기 예측 블록이 동일 객체로 이루어지지 않고, 세로방향으로 나누어지는 경우 2Nx2N, NxN, nPx2N 중에서 선택하는 단계를 포함하는 예측 블록 분할 구조 결정 방법.
The method according to claim 1,
Wherein the step of determining the predictive block division structure includes the step of selecting 2Nx2N, NxN, and nPx2N when the prediction block is not formed of the same object but is divided in the vertical direction.
제1항에 있어서,
상기 예측 블록 분할 구조를 결정하는 단계는 상기 예측 블록이 동일 객체로 이루어지지 않고, 가로방향으로 나누어지는 경우 2Nx2N, NxN, 2NxnP 중에서 선택하는 단계를 포함하는 예측 블록 분할 구조 결정 방법.
The method according to claim 1,
Wherein the step of determining the predictive block division structure includes the step of selecting 2Nx2N, NxN, 2NxnP when the prediction block is not formed of the same object but is divided into the horizontal direction.
깊이 정보를 포함하는 영상 데이터를 수신하는 수신부;
상기 영상 데이터에 포함된 깊이 정보에 기초하여 객체 정보를 생성하는 객체 정보 생성부; 및
상기 객체 정보에 기초하여 상기 영상 데이터에 대한 예측 블록 분할 구조를 결정하는 구조 결정부를 포함하는 예측 블록 분할 구조 결정 장치.
A receiving unit for receiving image data including depth information;
An object information generating unit for generating object information based on depth information included in the image data; And
And a structure determination unit for determining a prediction block division structure for the image data based on the object information.
제6항에 있어서,
상기 구조 결정부는 상기 객체 정보에 기초하여 가변 분할 구조를 적응적으로 결정하는 예측 블록 분할 구조 결정 장치.
The method according to claim 6,
Wherein the structure determination unit adaptively determines a variable division structure based on the object information.
제6항에 있어서,
상기 구조 결정부는 상기 객체 정보에 기초하여 세로 방향 또는 세로 방향 중 어느 하나의 분할 구조를 결정하는 예측 블록 분할 구조 결정 장치.
The method according to claim 6,
Wherein the structure determination unit determines one of a longitudinal direction and a longitudinal direction based on the object information.
제6항에 있어서,
상기 구조 결정부는 상기 예측 블록이 동일 객체로 이루어지지 않고, 세로방향으로 나누어지는 경우 2Nx2N, NxN, nPx2N 중에서 선택하는 예측 블록 분할 구조 결정 장치.
The method according to claim 6,
Wherein the structure determining unit selects 2Nx2N, NxN, and nPx2N when the prediction block is not made up of the same object but divided in the vertical direction.
제6항에 있어서,
상기 구조를 결정부는 상기 예측 블록이 동일 객체로 이루어지지 않고, 가로방향으로 나누어지는 경우 2Nx2N, NxN, 2NxnP 중에서 선택하는 예측 블록 분할 구조 결정 장치.
The method according to claim 6,
Wherein the structure determining unit selects 2Nx2N, NxN, and 2NxnP when the prediction block is not formed of the same object but is divided in the horizontal direction.
KR20130040858A 2013-04-15 2013-04-15 A method of determining structure for separating prediction unit and an apparatus using it KR20140124043A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130040858A KR20140124043A (en) 2013-04-15 2013-04-15 A method of determining structure for separating prediction unit and an apparatus using it

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130040858A KR20140124043A (en) 2013-04-15 2013-04-15 A method of determining structure for separating prediction unit and an apparatus using it

Publications (1)

Publication Number Publication Date
KR20140124043A true KR20140124043A (en) 2014-10-24

Family

ID=51994410

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130040858A KR20140124043A (en) 2013-04-15 2013-04-15 A method of determining structure for separating prediction unit and an apparatus using it

Country Status (1)

Country Link
KR (1) KR20140124043A (en)

Similar Documents

Publication Publication Date Title
KR102378459B1 (en) Apparatus And Method For Eliminating Redundancy Of View Synthesis Prediction Candidate In Merge Mode
KR102250092B1 (en) Method and apparatus for multi-view video encoding, method and apparatus for multi-view video decoding
KR102446602B1 (en) A Method And Apparatus For Deriving Motion Information Of Sub-Prediction Unit
KR20160072102A (en) Method predicting view synthesis in multi-view video coding and method for constituting merge candidate list by using same
KR20200130453A (en) Inter prediction mode based image processing method and apparatus therefor
KR102658929B1 (en) Method for processing image on basis of inter-prediction mode and apparatus therefor
US9838712B2 (en) Method of signaling for depth-based block partitioning
JP6571646B2 (en) Multi-view video decoding method and apparatus
KR20140124919A (en) A method for adaptive illuminance compensation based on object and an apparatus using it
KR20140124434A (en) A method of encoding and decoding depth information map and an apparatus using it
KR20140124043A (en) A method of determining structure for separating prediction unit and an apparatus using it
TW201336318A (en) Image encoding device, image encoding method, image encoding program, image decoding device, image decoding method, and image decoding program
WO2015141977A1 (en) 3d video encoding/decoding method and device
RU2784379C1 (en) Method for image decoding, method for image encoding and machine-readable information carrier
RU2785479C1 (en) Image decoding method, image encoding method and machine-readable information carrier
RU2784483C1 (en) Method for image decoding, method for image encoding and machine-readable information carrier
RU2784475C1 (en) Method for image decoding, method for image encoding and machine-readable information carrier
KR102378087B1 (en) Apparatus And Method For Deriving Merge Candidate Using Disparity Vector
KR20150010249A (en) Method and apparatus for improving memory efficiency through deriving limited motion information
KR20140124040A (en) A method for encoding/decoding and an apparatus using it
KR20140124433A (en) A method of encoding and decoding depth information map and an apparatus using it
KR20140124432A (en) A method of encoding and decoding depth information map and an apparatus using it
KR20160002194A (en) Adaptive merging candidate selection method and apparatus
KR20140124045A (en) A method for adaptive illuminance compensation based on object and an apparatus using it

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal
E601 Decision to refuse application