KR102129271B1 - Method and apparatus for encoding of video using depth image - Google Patents

Method and apparatus for encoding of video using depth image Download PDF

Info

Publication number
KR102129271B1
KR102129271B1 KR1020160023072A KR20160023072A KR102129271B1 KR 102129271 B1 KR102129271 B1 KR 102129271B1 KR 1020160023072 A KR1020160023072 A KR 1020160023072A KR 20160023072 A KR20160023072 A KR 20160023072A KR 102129271 B1 KR102129271 B1 KR 102129271B1
Authority
KR
South Korea
Prior art keywords
depth
lcu
information
determining
image
Prior art date
Application number
KR1020160023072A
Other languages
Korean (ko)
Other versions
KR20160030146A (en
Inventor
박광훈
김태욱
이윤진
Original Assignee
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경희대학교 산학협력단 filed Critical 경희대학교 산학협력단
Publication of KR20160030146A publication Critical patent/KR20160030146A/en
Application granted granted Critical
Publication of KR102129271B1 publication Critical patent/KR102129271B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/395Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume with depth sampling, i.e. the volume being constructed from a stack or sequence of 2D image planes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

깊이 정보를 이용한 비디오 부호화 방법 및 장치를 개시한다. 일 실시예에 따른 깊이 정보를 이용한 영상 부호화 방법은, 현재 최대 코딩 유닛(LCU: Largest Coding Unit)의 깊이 값 분포 정보를 추출하는 단계; 상기 깊이 값 분포 정보에 기초하여 상기 LCU의 분할 구조 후보들을 예측하는 단계; 및 코딩 효율 및 화질 정보 중 적어도 어느 하나에 기초하여 상기 LCU의 분할 구조 후보들 중 최적 분할 구조를 결정하는 단계를 포함한다.Disclosed is a video encoding method and apparatus using depth information. An image encoding method using depth information according to an embodiment may include extracting depth value distribution information of a current largest coding unit (LCU); Predicting split structure candidates of the LCU based on the depth value distribution information; And determining an optimal partitioning structure among candidate partitioning structures of the LCU based on at least one of coding efficiency and image quality information.

Description

깊이 정보를 이용한 비디오 부호화 방법 및 장치{METHOD AND APPARATUS FOR ENCODING OF VIDEO USING DEPTH IMAGE}METHOD AND APPARATUS FOR ENCODING OF VIDEO USING DEPTH IMAGE}

본 발명은 깊이 정보를 이용한 비디오 부호화에 관한 것으로, 깊이 정보를 이용하여 객체 정보를 유도하고 영상을 효율적으로 부호화하는 방법 및 장치에 관한 것이다.The present invention relates to video encoding using depth information, and to a method and apparatus for deriving object information using depth information and efficiently encoding an image.

깊이 정보 영상은 3차원 비디오 부호화에서 널리 활용되고 있으며, Xbox 게임기에서의 키넥트(Kinect) 카메라, 인텔 SENZ3D 웹캠, IPad에서의 iSense 3D 스캐너, 구글 Tango 스마트폰 등과 같은 새로운 입력장치들에 구비된 깊이 정보 카메라는 여러 다양한 3D 및 2D 응용 어플리케이션에서 활용될 수 있다.Depth information images are widely used in 3D video encoding, and are equipped with new input devices such as Kinect cameras on Xbox gaming machines, Intel SENZ3D webcams, iSense 3D scanners on iPads, and Google Tango smartphones. Information cameras can be used in many different 3D and 2D applications.

한편, 깊이 정보 카메라의 대중화 및 보급으로 2D/3D 응용 어플리케이션은 더욱 다양한 2D/3D 응용 서비스를 통해 대중화가 진행 중에 있으며, 그에 따라 향후 멀티미디어 카메라 시스템에 깊이 정보 카메라가 포함되어 다양한 정보의 활용이 가능하다.On the other hand, with the popularization and dissemination of depth information cameras, 2D/3D application applications are being popularized through more various 2D/3D application services, and accordingly, depth information cameras may be included in the multimedia camera system to utilize various information. Do.

미국공개특허 제20140085416호(발명의 명칭: Method and apparatus of texture image compress in 3d video coding)US Publication No. 20140085416 (Invention name: Method and apparatus of texture image compress in 3d video coding) 한국공개특허 제2012-0137305호(발명의 명칭: 블록 분할 방법 및 이러한 방법을 사용하는 장치)Korean Patent Publication No. 2012-0137305 (Invention name: block division method and apparatus using such method) 한국공개특허 제2014-0048784호(발명의 명칭: 제한적 깊이정보값을 공유하여 움직임 정보를 유도하는 방법 및 장치)Korean Patent Publication No. 2014-0048784 (Name of invention: Method and apparatus for deriving motion information by sharing limited depth information value)

본 발명의 목적은 2차원 비디오 부호화시 깊이 정보를 이용함으로써 성능 열화가 없고 효율적인 부호화가 가능한 영상 부호화 방법 및 장치를 제공하는 것이다.An object of the present invention is to provide an image encoding method and apparatus capable of efficient encoding without performance degradation by using depth information in 2D video encoding.

일 실시예에 따른 깊이 정보를 이용한 영상 부호화 방법은, 현재 최대 코딩 유닛(LCU: Largest Coding Unit)의 깊이 값 분포 정보를 추출하는 단계; 상기 깊이 값 분포 정보에 기초하여 상기 LCU의 분할 구조 후보들을 예측하는 단계; 및 코딩 효율 및 화질 정보 중 적어도 어느 하나에 기초하여 상기 LCU의 분할 구조 후보들 중 최적 분할 구조를 결정하는 단계를 포함한다. An image encoding method using depth information according to an embodiment may include extracting depth value distribution information of a current largest coding unit (LCU); Predicting split structure candidates of the LCU based on the depth value distribution information; And determining an optimal partitioning structure among candidate partitioning structures of the LCU based on at least one of coding efficiency and image quality information.

다른 일 실시예에 따른 깊이 정보를 이용한 영상 부호화 방법은, 현재 최대 코딩 유닛(LCU: Largest Coding Unit)의 깊이 값 분포 정보를 추출하는 단계; 상기 LCU 에 포함되는 CU의 깊이 값 분포 정보에 기초하여 상기 CU의 객체 구조를 예측하는 단계; 및 상기 CU의 객체 구조 예측에 기초하여 율 왜곡 비용 연산 중 일부를 생략하고 상기 LCU의 분할 구조 후보들 중 최적 분할 구조를 결정하는 단계를 포함한다. An image encoding method using depth information according to another embodiment includes: extracting depth value distribution information of a current largest coding unit (LCU); Predicting the object structure of the CU based on the depth value distribution information of the CU included in the LCU; And omitting some of the rate distortion cost calculation based on the object structure prediction of the CU and determining an optimal partition structure among the partition structure candidates of the LCU.

또 다른 일 실시예에 따른 깊이 정보를 이용한 영상 부호화 방법은, 깊이 영상으로부터 현재 코딩 유닛(CU: Coding Unit)의 깊이 값 분포 정보를 추출하는 단계; 및 상기 깊이 값 분포 정보에 기초하여 상기 현재 CU가 단일 객체로 이루어지는 지를 확인하고, 상기 현재 CU가 단일 객체로 이루어지는지의 여부에 따라 상기 현재 CU의 분할 구조를 예측하는 단계를 포함한다. An image encoding method using depth information according to another embodiment may include extracting depth value distribution information of a current coding unit (CU) from a depth image; And checking whether the current CU is made of a single object based on the depth value distribution information, and predicting a split structure of the current CU according to whether the current CU is made of a single object.

일 실시예에 따른 깊이 정보를 이용한 영상 부호화 장치는, 깊이 영상으로부터 현재 최대 코딩 유닛(LCU: Largest Coding Unit)의 깊이 값 분포 정보를 추출하는 깊이값 추출부; 상기 깊이 값 분포 정보에 기초하여 상기 LCU의 분할 구조 후보들을 예측하는 분할구조 예측부; 및 코딩 효율 및 화질 정보 중 적어도 어느 하나에 기초하여 상기 LCU의 분할 구조 후보들 중 최적 분할 구조를 결정하는 최적 분할구조 결정부를 포함한다. An image encoding apparatus using depth information according to an embodiment includes: a depth value extraction unit for extracting depth value distribution information of a current largest coding unit (LCU) from a depth image; A split structure prediction unit predicting split structure candidates of the LCU based on the depth value distribution information; And an optimal partitioning structure determining unit that determines an optimal partitioning structure among candidates of partitioning structures of the LCU based on at least one of coding efficiency and image quality information.

다른 일 실시예에 따른 깊이 정보를 이용한 영상 부호화 장치는, 깊이 영상으로부터 현재 최대 코딩 유닛(LCU: Largest Coding Unit)의 깊이 값 분포 정보를 추출하는 깊이값 추출부; 상기 LCU 에 포함되는 CU의 깊이 값 분포 정보에 기초하여 상기 CU의 객체 구조를 예측하는 객체구조 예측부; 및 상기 CU의 객체 구조 예측에 기초하여 율 왜곡 비용 연산 중 일부를 생략하고 상기 LCU의 분할 구조 후보들 중 최적 분할 구조를 결정하는 최적 분할구조 결정부를 포함한다. An image encoding apparatus using depth information according to another embodiment includes a depth value extraction unit for extracting depth value distribution information of a current largest coding unit (LCU) from a depth image; An object structure prediction unit for predicting the object structure of the CU based on the depth value distribution information of the CU included in the LCU; And an optimal partitioning structure determining unit which omits some of the rate distortion cost calculation based on the object structure prediction of the CU and determines the optimal partitioning structure among the partitioning structure candidates of the LCU.

또 다른 일 실시예에 따른 깊이 정보를 이용한 영상 부호화 장치는, 깊이 영상으로부터 현재 최대 코딩 유닛(LCU: Largest Coding Unit)의 깊이 값 분포 정보를 추출하는 깊이값 추출부; 및 상기 깊이 값 분포 정보에 기초하여 상기 현재 CU가 단일 객체로 이루어지는 지를 확인하고, 상기 현재 CU가 단일 객체로 이루어지는지의 여부에 따라 상기 현재 CU의 분할 구조를 예측하는 분할구조 예측부를 포함한다. An image encoding apparatus using depth information according to another embodiment includes: a depth value extraction unit for extracting depth value distribution information of a current largest coding unit (LCU) from a depth image; And a split structure prediction unit that checks whether the current CU is made of a single object based on the depth value distribution information, and predicts a split structure of the current CU according to whether the current CU is made of a single object.

본 발명의 실시예에 따르면, 깊이 정보 카메라에서 획득한 깊이 정보 영상을 이용해 2차원 일반 영상을 부호화함으로써, 2D 영상에 대한 효율적인 부호화를 수행할 수 있다.According to an embodiment of the present invention, it is possible to perform efficient encoding for a 2D image by encoding a 2D general image using a depth information image obtained from a depth information camera.

도 1은 일반 영상 및 일반 영상의 깊이 정보 맵에 대한 예시도이다.
도 2는 키넥트 입력 장치의 예시도이다.
도 3은 웹캠 제품을 나타낸다.
도 4는 iSense 3D 스캐너 장치를 나타낸다.
도 5는 구글 Tango 스마트폰을 나타낸다.
도 6은 HEVC 부호화 장치를 설명하기 위한 도면이다.
도 7은 스마트 폰에서 HEVC 인코더가 적용된 영상 부호화의 예를 설명하기 위한 도면이다.
도 8은 스마트 폰에서 깊이 영상이 포함된 HEVC의 예를 설명하기 위한 도면이다.
도 9는 영상의 복수의 유닛들로 분할하는 예들을 나타낸다.
도 10은 LCU 단위로 CU 분할 구조를 결정하는 예를 나타낸다.
도 11은 영상을 복수의 예측 유닛들로 분할하는 예를 설명하기 위한 도면이다.
도 12는 일반 영상의 예를 나타내는 도면이다.
도 13은 도 12의 일반 영상에 대한 깊이 정보 맵의 예를 나타내는 도면이다.
도 14는 본 발명의 일 실시예에 따른 영상 부호화 방법을 나타낸다.
도 15는 본 발명의 다른 일 실시예에 따른 영상 부호화 방법을 나타낸다.
도 16는 본 발명의 또 다른 일 실시예에 따른 영상 부호화 방법을 나타낸다.
도 17은 본 발명의 실시예에 따른 LCU 단위 최적 CU 분할 구조 결정 방법을 설명하기 위한 흐름도이다.
도 18은 본 발명의 일 실시예에 따른 CU 분할 조기 종료 과정을 설명하기 위한 흐름도이다.
도 19는 CU의 깊이 값 분포 예들을 나타내는 도면이다.
도 20은 본 발명의 일 실시예에 따른 CU 분할 조기 종료 과정의 다른 예를 설명하기 위한 흐름도이다.
도 21은 CU의 객체 구성의 다양한 예를 설명하기 위한 도면이다.
도 22 및 도 23은 본 발명의 실시예에 따른 영상 부호화 방법들을 설명하기 위한 도면이다.
도 24는 본 발명의 일 실시예에 따른 분할 구조 결정 간소화 과정을 설명하기 위한 도면이다.
도 25는 본 발명의 일 실시예에 따른 분할 구조 결정 간소화 과정의 다른 예를 설명하기 위한 도면이다.
도 26은 본 발명의 일 실시예에 따른 영상 부호화 장치의 구성을 설명하기 위한 도면이다.
1 is an exemplary view of a general image and a depth information map of the general image.
2 is an exemplary view of a Kinect input device.
3 shows a webcam product.
4 shows an iSense 3D scanner device.
5 shows a Google Tango smartphone.
6 is a diagram for explaining an HEVC encoding apparatus.
FIG. 7 is a diagram for explaining an example of video encoding in which a HEVC encoder is applied in a smart phone.
8 is a diagram for describing an example of HEVC including a depth image in a smart phone.
9 shows examples of dividing an image into a plurality of units.
10 shows an example of determining a CU partitioning structure in units of LCUs.
11 is a diagram for explaining an example of dividing an image into a plurality of prediction units.
12 is a diagram showing an example of a general video.
13 is a diagram illustrating an example of a depth information map for the general image of FIG. 12.
14 shows an image encoding method according to an embodiment of the present invention.
15 illustrates a video encoding method according to another embodiment of the present invention.
16 shows a video encoding method according to another embodiment of the present invention.
17 is a flowchart illustrating a method for determining an optimal CU partitioning structure for each LCU according to an embodiment of the present invention.
18 is a flow chart for explaining the CU termination early termination process according to an embodiment of the present invention.
19 is a diagram illustrating examples of depth value distribution of a CU.
20 is a flowchart for explaining another example of the CU split early termination process according to an embodiment of the present invention.
21 is a view for explaining various examples of object configuration of the CU.
22 and 23 are diagrams for describing image encoding methods according to an embodiment of the present invention.
24 is a view for explaining a process of simplifying the partition structure determination according to an embodiment of the present invention.
25 is a view for explaining another example of the process of simplifying the partition structure determination according to an embodiment of the present invention.
26 is a view for explaining the configuration of an image encoding apparatus according to an embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the present invention. Therefore, those skilled in the art may implement various principles included in the concept and scope of the present invention and implement the principles of the present invention, although not explicitly described or illustrated in the present specification. In addition, all conditional terms and examples listed herein are in principle intended only for the purpose of understanding the concept of the present invention, and are not limited to the examples and states specifically listed as such. Should be.

예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.For example, it should be understood that the block diagrams herein represent conceptual views of exemplary circuits embodying the principles of the invention. Similarly, all flow diagrams, state transition diagrams, pseudo-codes, etc. are understood to represent various processes performed by a computer or processor, whether or not the computer or processor is clearly depicted, which may be substantially represented on a computer-readable medium. Should be.

이하, 첨부된 도면을 참조하여 본 발명에 따른 실시예들을 상세히 설명하기로 한다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 일반 영상 및 일반 영상의 깊이 정보 맵에 대한 예시도이다. 도 2는 키넥트 입력 장치의 예시도이다. 1 is an exemplary view of a general image and a depth information map of the general image. 2 is an exemplary view of a Kinect input device.

도 1을 참조하면, 도 1의 (A)는 카메라를 통해 실제 촬영한 영상이고, (B)는 실제 영상에 대한 깊이 영상, 즉 깊이 정보 영상(또는 깊이 정보 맵)을 나타낸다. 깊이 정보(Depth Information)는 카메라와 실제 사물간의 거리를 나타내는 정보를 의미한다. Referring to FIG. 1, (A) of FIG. 1 is an image actually photographed through a camera, and (B) represents a depth image of an actual image, that is, a depth information image (or depth information map). Depth information refers to information representing a distance between a camera and an actual object.

이러한 깊이 정보 영상은 주로 3차원 가상 시점 영상을 생성하는데 활용되며, 실제 이와 관련된 연구로 ISO/IEC의 MPEG(Moving Picture Experts Group)과 ITU-T의 VCEG(Video Coding Experts Group)의 공동 표준화 그룹인 JCT-3V(The Joint Collaborative Team on 3D Video Coding Extension Development)에서 3차원 비디오 표준화가 현재 진행 중에 있다. This depth information image is mainly used to create a 3D virtual view image. In fact, research related to this is a joint standardization group of Moving Picture Experts Group (MPEG) of ISO/IEC and Video Coding Experts Group (VCEG) of ITU-T. Three-dimensional video standardization is currently underway in The Joint Collaborative Team on 3D Video Coding Extension Development (JCT-3V).

3차원 비디오 표준은 일반 영상과 그것의 깊이 정보 영상을 이용하여 스테레오스코픽 영상뿐만 아니라 오토스테레오스코픽 영상의 재생등을 지원할 수 있는 진보된 데이터 형식과 그에 관련된 기술에 대한 표준을 포함하고 있다.The 3D video standard includes standards for advanced data formats and related technologies that can support not only stereoscopic images but also autostereoscopic images using normal images and their depth information images.

2010년 11월 마이크로소프트는 XBOX-360 게임 디바이스의 새로운 입력장치로 키넥트(Kinect) 센서를 출시하였는데, 이 장치는 사람의 동작을 인지하여 컴퓨터 시스템에 연결하는 장치로 도 2에서 보듯 RGB 카메라뿐 아니라 3D Depth 센서를 포함하여 이루어져 있다. 또한, 키넥트는 영상 장치로도 RGB 영상 및 최대 640x480 깊이 정보 맵(Depth Map)을 생성해 연결된 컴퓨터에 제공할 수 있다. 이외에도 2014년 인텔은 노트북용으로 320x240 Depth 센서가 장착된 720p CREATIVE SENZ3D 웹캠을 발표하였고, 애플은 RGB 카메라와 Depth 센서를 이용한 iPad 용 3D 스캐너로 iSense를 출시하였고, 구글은 Depth 센서가 장착된 Tango 스마트폰을 발표하였다.In November 2010, Microsoft released a Kinect sensor as a new input device for the XBOX-360 gaming device, which recognizes human motion and connects it to a computer system. It is not made up of 3D depth sensors. In addition, Kinect can generate RGB images and up to 640x480 depth maps as an imaging device and provide them to connected computers. In 2014, Intel announced the 720p CREATIVE SENZ3D webcam with 320x240 depth sensor for laptops, Apple released iSense as a 3D scanner for iPad with RGB camera and depth sensor, and Google launched Tango Smart with depth sensor Phone announced.

도 3은 웹캠 제품을 나타낸다. 3 shows a webcam product.

도 3을 참조하면, CREATIVE SENZ3D 웹캠을 나타내고 있으며, 도 3의 (A)는 SENZ3D 웹캠제품을 나타내고, (B)는 SENZ3D 웹캠 프로토타입을 나타낸다. Referring to FIG. 3, a CREATIVE SENZ3D webcam is shown, FIG. 3A shows a SENZ3D webcam product, and (B) shows a SENZ3D webcam prototype.

도 4는 iSense 3D 스캐너 장치를 나타내고, 도 5는 구글 Tango 스마트폰을 나타낸다. FIG. 4 shows the iSense 3D scanner device, and FIG. 5 shows the Google Tango smartphone.

도 4의 (A)는 iSense 제품을 나타내고, (B)는 iSense를 통한 스캐닝 처리의 예를 나타낸다. 도 5의 (A)는 구글 Tango 스마트폰 제품을 나타내고, (B)는 구글 Tango 스마트폰 프로토타입을 나타낸다. 4A shows an iSense product, and (B) shows an example of a scanning process through iSense. 5A shows a Google Tango smartphone product, and (B) shows a Google Tango smartphone prototype.

키넥트, iSense 3D 스캐너, 인텔 SENZ3D 웹캠과 같은 영상 장비 및 구글 Tango 스마트폰의 출현은 고가의 2차원 및 3차원 게임이나 영상 서비스와 같은 다양한 응용 어플리케이션을 대중적으로 즐길 수 있게 되는 계기가 되었으며, 깊이 정보 카메라 또는 센서가 부착된 비디오 장치가 대중화가 되고 있음을 보여주고 있다.The emergence of Kinect, iSense 3D scanners, imaging equipment such as the Intel SENZ3D webcam, and Google Tango smartphones have made it a popular opportunity to enjoy a wide range of expensive 2D and 3D games and various application applications such as video services. It is showing that information cameras or video devices with sensors are becoming popular.

이처럼 앞으로의 비디오 시스템이 2차원 일반 영상을 위한 서비스뿐 만 아니라 일반 영상 카메라에 Depth 카메라가 결합되어 2차원과 3차원 응용 영상 서비스가 기본적으로 제공되는 형태 또는 핸드헬드(handheld) 시스템에서의 입력 보조장치의 형태로 발전할 것으로 예상된다.In this way, the future video system is not only a service for 2D general video, but also a Depth camera combined with a general video camera, so that 2D and 3D applied video services are basically provided, or input assistance in a handheld system is provided. It is expected to develop in the form of a device.

일반 카메라와 Depth 카메라가 기본적으로 결합된 비디오 시스템은 3차원 비디오 코덱에서 깊이 정보를 이용하는 것뿐 아니라, 2차원 비디오 코덱에서도 깊이 정보를 이용하는 새로운 방법이라 할 수 있겠다. A video system in which a general camera and a depth camera are basically combined is not only a depth information in a 3D video codec, but also a new method of using depth information in a 2D video codec.

또한, 깊이 정보 카메라가 포함된 카메라 시스템에서 일반 영상의 부호화는 기존 비디오 코덱을 그대로 사용하여 부호화될 수 있다. 여기서 기존의 비디오 코덱의 일예로, MPEG-1, MPEG-2, MPEG-4, H.261, H.262, H.263, H.264/AVC, MVC, SVC, HEVC, SHVC, 3D-AVC, 3D-HEVC, VC-1, VC-2, VC-3 등으로 부호화 될 수 있으며, 그외 다양한 코덱으로 부호화될 수 있다.In addition, in a camera system including a depth information camera, encoding of a general image may be performed using an existing video codec as it is. Here, as an example of the existing video codec, MPEG-1, MPEG-2, MPEG-4, H.261, H.262, H.263, H.264/AVC, MVC, SVC, HEVC, SHVC, 3D-AVC , 3D-HEVC, VC-1, VC-2, VC-3, etc., and various other codecs.

도 6은 HEVC 부호화 장치를 설명하기 위한 도면이다. 6 is a diagram for explaining an HEVC encoding apparatus.

실제 영상과 그것의 깊이 정보 맵을 부호화하는 방법의 일예로, 현재까지 개발된 비디오 부호화 표준 중에서 최고의 부호화 효율을 가지는 MPEG(Moving Picture Experts Group)과 VCEG(Video Coding Experts Group)에서 공동으로 표준화를 완료한 HEVC(High Efficiency Video Coding)를 이용하여 부호화를 수행할 수 있다. HEVC의 부호화 구조도의 일 예는 도 6과 같다. 도 6에서와 같이 HEVC에는 부호화 단위 및 구조, 화면 간(Inter) 예측, 화면 내(Intra) 예측, 보간(Interpolation), 필터링(filtering), 변환(Transform) 방법 등 다양한 새로운 알고리즘들을 포함하고 있다. 도 6은 영상 부호화 장치의 구성에 대한 일 예를 블록도로 도시한 것으로, HEVC 코덱에 따른 부호화 장치의 구성을 나타낸 것이다.As an example of a method of encoding a real image and its depth information map, jointly completed standardization by the Moving Picture Experts Group (MPEG) and Video Coding Experts Group (VCEG), which have the highest coding efficiency among the video coding standards developed to date. Coding may be performed using a High Efficiency Video Coding (HEVC). An example of the HEVC coding structure is illustrated in FIG. 6. As shown in FIG. 6, HEVC includes various new algorithms such as coding units and structures, inter prediction, intra prediction, interpolation, filtering, and transformation methods. 6 is a block diagram showing an example of a configuration of an image encoding apparatus, and shows a configuration of an encoding apparatus according to the HEVC codec.

이때, 도 6의 필터부와 참조영상 버퍼 사이에는 SAO(Sample Adaptive Offset)이 구비될 수 있다. SAO는 코딩 에러를 보상하기 위해 화소값에 적정 오프셋(offset) 값을 더해줄 수 있다.In this case, a sample adaptive offset (SAO) may be provided between the filter unit of FIG. 6 and the reference image buffer. The SAO can add an appropriate offset value to the pixel value to compensate for the coding error.

HEVC는 인터 예측 부호화, 즉 화면 간 예측 부호화를 수행하므로, 현재 부호화된 영상은 참조 영상으로 사용되기 위해 복호화되어 저장될 필요가 있다. 따라서 양자화된 계수는 역양자화부에서 역양자화되고 역변환부에서 역변환된다. 역양자화, 역변환된 계수는 가산기(175)를 통해 예측 블록과 더해지고 복원 블록이 생성된다. 필터부를 거친 복원 블록은 참조 영상 버퍼에 저장된다.HEVC performs inter-prediction coding, that is, inter-prediction coding, so the currently coded image needs to be decoded and stored in order to be used as a reference image. Therefore, the quantized coefficients are inversely quantized in an inverse quantization unit and inversely transformed in an inverse transformation unit. The inverse quantized and inverse transformed coefficients are added to the prediction block through the adder 175 and a reconstructed block is generated. The reconstructed block that has passed through the filter unit is stored in a reference image buffer.

도 7은 스마트 폰에서 HEVC 인코더가 적용된 영상 부호화의 예를 설명하기 위한 도면이다. 도 8은 스마트 폰에서 깊이 영상이 포함된 HEVC의 예를 설명하기 위한 도면이다.FIG. 7 is a diagram for explaining an example of video encoding in which a HEVC encoder is applied in a smart phone. 8 is a diagram for describing an example of HEVC including a depth image in a smart phone.

도 7을 참조하면, HEVC 인코더가 적용된 스마트폰에서의 일반적인 형태는, 스마트폰을 통해 촬영된 영상을 HEVC 인코더를 이용해 부호화 하고, 부호화 된 영상을 가지고 서비스를 제공 받는 형태일 수 있다. Referring to FIG. 7, a general form in a smartphone to which a HEVC encoder is applied may be a form in which an image captured through a smartphone is encoded using a HEVC encoder and a service is provided with the encoded image.

하지만 Depth 카메라가 포함된 스마트폰을 통해 영상을 촬영한다면 도 8과 같이 일반 영상(Texture)과 깊이 영상(Depth)이 독립적으로 생산되고, 깊이 정보를 이용하여 일반 영상과의 상관성을 이용하여 최적화를 통한 HEVC 인코더를 통해서 복잡도 감소를 통해 더욱 향상된 부호화 영상을 얻을 수 있다.However, if an image is taken through a smartphone including a depth camera, a normal image (texture) and a depth image (depth) are independently produced as shown in FIG. 8, and optimization is performed using correlation with the normal image using depth information. Through the HEVC encoder through, it is possible to obtain an improved encoded image through complexity reduction.

종래기술 특허문헌 1인 미국공개특허 제20140085416호는 깊이 맵(Depth map)으로부터 현재 블록의 객체에 대한 정보를 확인하여 블록을 병합(merge)하는 구성을 개시하고 있으나, 깊이 정보를 이용하여 어떻게 코딩 유닛을 분할하여 부호화할 것인가에 대해서는 전혀 개시하지 못하고 있다. US Patent Publication No. 20140085416, which is a prior art patent document 1, discloses a configuration of merging a block by checking information about an object of a current block from a depth map, but how to code using depth information It has not been disclosed at all whether to divide and code the unit.

또한, 종래기술 특허문헌 2인 한국공개특허 제2012-0137305호 및 특허문헌 3인 한국공개특허 제2014-0048784호는 깊이 정보를 이용하는 내용을 개시하지 못하거나 CU의 분할 구조를 예측하기 위한 구성을 명확하게 제시하지 못하고 있다. In addition, Korean Patent Application Publication No. 2012-0137305 (Patent Document 2) and Korean Patent Publication No. 2014-0048784 (Patent Document 3) do not disclose content using depth information or construct a structure for predicting the partitioning structure of a CU. It is not clearly presented.

도 9는 영상의 복수의 유닛들로 분할하는 예들을 나타낸다. 9 shows examples of dividing an image into a plurality of units.

고효율 비디오 코딩 방식은 부호화를 수행할 때 영상을 코딩 유닛(CU: Coding Unit, 이하 'CU')의 기본 단위인 LCU(LCU: Largest Coding Unit) 단위로 나누어 부호화를 수행한다.In the high-efficiency video coding method, encoding is performed by dividing an image into LCU (Large Coding Unit) units, which is a basic unit of a coding unit (CU).

여기서, CU는 기존의 비디오 코덱인 H.264/AVC에서의 기본 블록인 매크로블록(MB: Macro Block, 이하 'MB')과 유사한 역할을 하지만, 16x16의 고정 크기를 갖는 MB와 달리 CU는 가변적으로 크기를 정할 수 있다. 또한 부호화를 위해 분할된 LCU는 영상의 효율적인 부호화를 위해 다시 LCU 보다 작은 크기를 갖는 여러 CU로 분할될 수 있다.Here, the CU plays a role similar to the basic block of the existing video codec H.264/AVC, the macro block (MB: Macro Block,'MB'), but unlike the MB having a fixed size of 16x16, the CU is variable You can set the size. Also, the LCU divided for encoding may be divided into several CUs having a smaller size than the LCU for efficient encoding of an image.

도 9를 참조하면, 64x64 크기의 LCU는 다양한 방식으로 복수의 CU들로 분할될 수 있다. Referring to FIG. 9, an LCU having a size of 64x64 may be divided into a plurality of CUs in various ways.

도 9의 (A)는 분할 깊이 값이 0인 64x64 크기의 LCU를 분할 깊이 1인 32x32 크기의 CU들로 분할한 예를 나타낸다.FIG. 9A shows an example of dividing a 64x64 LCU having a split depth value of 0 into 32x32 CUs having a split depth of 1.

도 9의 (B)는 32x32 크기의 CU들 중 하나를 분할 깊이 2로 분할한 예를 나타내고, (C)는 32x32 크기의 CU들 중 두개를 분할 깊이 2로 분할한 예를 나타낸다. FIG. 9B shows an example in which one of the 32x32 sized CUs is divided into a split depth of 2, and (C) shows an example in which two of the 32x32 sized CUs are split in a split depth of 2.

도 9의 (D)는 분할깊이 3으로 분할된 CU들을 포함하는 예를 나타낸다. 9(D) shows an example including CUs divided by a split depth of 3.

따라서, LCU 또는 CU의 분할구조 후보들은 다양한 방식으로 존재할 수 있다. Accordingly, candidates for split structure of the LCU or CU may exist in various ways.

LCU 분할 구조는 부호화 단위의 분할 정보이다. 위와 같이 다양한 LCU 분할 구조를 생성하여 LCU 분할 구조 후보에 저장한 뒤, 최적의 LCU 분할 구조를 결정하는 단계에서 LCU 단위로 LCU 분할 구조 후보 중 하나의 분할 구조를 최적의 LCU 분할 구조로서 선택하게 된다. 이러한 방법을 사용함으로써 LCU 단위로 영상의 특성에 맞게 적응적인 LCU 분할 구조를 기초로 부호화를 수행함으로써 부호화 효율 및 화질 측면에서 효율적인 부호화를 수행할 수 있다는 장점이 있다.The LCU splitting structure is split information of coding units. After generating various LCU partition structures as described above and storing them in LCU partition structure candidates, in the step of determining the optimal LCU partition structure, one of the LCU partition structure candidates is selected as the optimal LCU partition structure in LCU units. . By using this method, it is possible to perform efficient encoding in terms of encoding efficiency and image quality by performing encoding based on an LCU splitting structure that is adaptive to the characteristics of an image in units of LCU.

도 10은 LCU 단위로 CU 분할 구조를 결정하는 예를 나타낸다. 10 shows an example of determining a CU partitioning structure in units of LCUs.

HEVC의 인코더에서는 영상의 특성에 따라 LCU 내의 부호화 단위의 분할 방법을 다르게 결정할 수 있다. 즉, 최적의 LCU 분할 구조를 결정하기 위해 다양한 경우의 분할 구조를 부호화할 수 있는데 최적의 LCU 분할 구조를 결정하기 위한 방법으로 각각의 분할 깊이마다 모든 부호화 단위의 예측 모드(Intra, Inter 모드 등)를 사용하여 부호화를 수행한 뒤, 부호화되는 비트량과 화질에 따라 해당 부호화 단위의 예측 모드를 결정하는 방법을 사용할 수 있다. In the HEVC encoder, a method of dividing a coding unit in an LCU may be differently determined according to characteristics of an image. That is, in order to determine the optimal LCU splitting structure, a plurality of splitting structures can be coded. As a method for determining the optimal LCU splitting structure, prediction modes of all coding units for each splitting depth (Intra, Inter mode, etc.) After encoding is performed, a method of determining a prediction mode of a corresponding coding unit may be used according to the amount of encoded bits and image quality.

예를 들어 도 9에서처럼, 깊이 0인 64x64 부호화 단위로 Intra 모드와 Inter 모드 등으로 각각 부호화를 수행한 뒤 최적의 모드를 저장해두고, 64x64 크기의 부호화 단위를 4개로 분할하여 각각의 32x32 크기의 부호화 단위로 Intra 모드와 Inter 모드 등으로 각각 부호화를 재귀적으로 수행할 수 있다. 이 때 분할된 4개의 32x32 크기의 부호화 단위는 각각 독립적으로 예측 모드가 선택될 수 있다. 또한 32x32 크기의 부호화 단위 내에서도 16x16 크기의 부호화 단위 4개로 분할하여 부호화를 수행한다. 이렇게 재귀적인 방식으로 해당 부호화 단위를 분할하여 부호화를 수행한 뒤, 비트량과 화질 측면에서 가장 효율적인 부호화 단위의 분할 구조를 결정한다. For example, as illustrated in FIG. 9, encoding is performed in Intra mode and Inter mode with 64x64 coding units having a depth of 0, and then an optimal mode is stored, and 64x64 coding units are divided into four to encode each 32x32 size. As a unit, encoding can be recursively performed in Intra mode and Inter mode, respectively. In this case, the prediction units may be independently selected for each of the 4 coding units having a size of 32x32. Also, encoding is performed by dividing into 4 coding units having a size of 16x16 even within a coding unit having a size of 32x32. In this way, after coding is performed by dividing the corresponding coding unit in a recursive manner, a split structure of the most efficient coding unit in terms of bit amount and image quality is determined.

예를 들어, 부호화한 4개의 32x32 크기의 부호화 단위의 비트량과 화질이 64x64 크기의 부호화 단위로 부호화를 한 경우보다 효율적일 경우, 해당 부호화 단위는 32x32 크기의 부호화 단위 4개로 분할된다고 결정한다. 인코더(영상 부호화기)에서 영상을 부호화할 때 LCU가 분할될 수 있는 모든 경우의 수에 대하여 최적의 부호화 단위 분포를 찾게 되는데, 이는 인코더의 계산 복잡도를 높이는 요인으로 작용한다. For example, when the bit amount and picture quality of the four encoded 32x32 sized coding units are more efficient than the case of 64x64 sized coding units, it is determined that the coding unit is divided into four 32x32 sized coding units. When encoding an image in an encoder (image encoder), the optimal coding unit distribution is found for the number of cases in which the LCU can be split, which acts as a factor to increase the computational complexity of the encoder.

효율적인 압축 성능을 위해 많은 경우의 수에 대해 부호화 효율을 판단할 수록 계산 복잡도가 증가하는 현상이 발생한다.For efficient compression performance, as the coding efficiency is determined for a large number of cases, a computational complexity increases.

도 11은 영상을 복수의 예측 유닛들로 분할하는 예를 설명하기 위한 도면이다. 11 is a diagram for explaining an example of dividing an image into a plurality of prediction units.

도 11을 참조하면, CU의 기본 구조는 정사각형 크기의 2Nx2N으로 나타낼 수 있다. Referring to FIG. 11, the basic structure of a CU may be represented by 2Nx2N having a square size.

CU 내에서 분할되는 예측 구조로 예측 유닛(PU: Prediction Unit, 이하 'PU')들을 나타내고 있다. Prediction unit (PU: Prediction Unit, hereinafter referred to as'PU') is a prediction structure divided within a CU.

도 11에서 참조부호 1110은 대칭적 분할 구조로 SMP(Symmetric Motion Partitioning)의 예를 나타내고, 참조부호 1120은 상하 또는 좌우의 대칭적 분할 구조로 2NxN 과 Nx2N 구조의 예를 나타내고 있다. In FIG. 11, reference numeral 1110 denotes an example of Symmetric Motion Partitioning (SMP) as a symmetrical partitioning structure, and reference numeral 1120 denotes an example of 2NxN and Nx2N structures as symmetrical partitioning structures of up and down or left and right.

그리고 참조부호 1130은 비대칭 분할 구조로 AMP(Asymmetric Motion Partitioning)의 예로서, 2NxnU, 2NxnD, nLx2N, nRx2N의 예를 나타내고 있다. 이때, n은 정수이고, U, D, L, R은 각각 정수 또는 유리수일 수 있다. In addition, reference numeral 1130 denotes an example of 2NxnU, 2NxnD, nLx2N, and nRx2N as examples of Asymmetric Motion Partitioning (AMP) in an asymmetric partitioning structure. At this time, n is an integer, U, D, L, R may be an integer or rational number, respectively.

PU는 CU 단위로 인트라 또는 인터 모드로 부호화를 수행할 때, 더욱 효율적인 부호화를 위해 결정되는 구조이다. 이는 CU 단위로의 부호화 수행에서 정확한 예측을 할 수 없는 경우 CU 내에 PU 단위로 나누어서 각각의 PU를 독립적으로 예측하여 부호화하기 위함이다. PU 분할 구조를 결정하는 과정에서 예측하려는 현재 블록에 대해 도 11에 도시한 모든 PU 분할 구조로 예측하여 예측 치가 현재 블록과 제일 근접한 블록을 갖는 PU 분할 구조로 결정될 수 있다. PU is a structure that is determined for more efficient encoding when encoding is performed in intra or inter mode on a CU basis. This is to predict and encode each PU independently by dividing it into PU units in the CU when accurate prediction cannot be performed when performing coding in a CU unit. In the process of determining the PU partition structure, the current block to be predicted may be predicted by all the PU partition structures shown in FIG. 11, and the predicted value may be determined as a PU partition structure having a block closest to the current block.

도 9 내지 도 11의 분할 구조 결정 및 PU 분할 구조 결정은 주변 블록에 대해 객체 정보를 고려하지 않고 있다. 이는 당연한데, 2차원 영상의 경우, Depth 카메라가 없다면 2차원 영상 분석을 통하여 영상내의 객체정보를 추출해내야 하므로, 현존하는 2차원 비디오 부호화 방법에는 객체 정보를 이용하는 방법이 전혀 탑재되어 있지 않기 때문이다.The split structure determination and the PU split structure determination of FIGS. 9 to 11 do not consider object information with respect to neighboring blocks. This is natural, because in the case of a 2D image, if there is no depth camera, the object information in the image must be extracted through 2D image analysis. Therefore, the method of using object information is not installed in the existing 2D video encoding method.

같은 이유로, HEVC 경우, 분할 구조 결정 방법에서도 객체정보를 이용하는 부호화 방법이 전혀 탑재되어 있지 않다. 하지만 Depth 카메라를 이용하여 객체정보를 고려할 수 있다면, 분할 구조 결정 방법에 있어서 해당 CU의 객체 구성 정보에 따른 상관성을 알 수 있어 효율적인 예측으로 분할 구조를 결정할 수 있다면, 부호화 복잡도를 효율적으로 감소시킨다.For the same reason, in the case of HEVC, no coding method using object information is installed in the split structure determination method. However, if object information can be considered using a depth camera, in a method for determining a structure of a partition, if a correlation can be determined according to object configuration information of a corresponding CU, and a structure can be determined by efficient prediction, encoding complexity is effectively reduced.

이에, 깊이 정보를 분할 구조 결정 방법에 이용하는 경우 해당 CU의 객체 정보 또는 객체 영역의 구성을 판단하여 해당 영역에 대해서 효율적인 분할 구조를 예측하는 경우 부호화 복잡도를 효율적으로 감소할 수 있다.Accordingly, when depth information is used in a method of determining a split structure, coding complexity can be effectively reduced when an effective split structure is predicted for a corresponding region by determining object information or a configuration of an object region of the corresponding CU.

도 12는 일반 영상의 예를 나타내는 도면이다. 도 13은 도 12의 일반 영상에 대한 깊이 정보 맵의 예를 나타내는 도면이다. 12 is a diagram showing an example of a general video. 13 is a diagram illustrating an example of a depth information map for the general image of FIG. 12.

도 12와 도 13에서 도시하듯 객체 경계 영역에 해당하는 부분은 복잡한 CU 분할 구조를 가지고 있을 확률이 크며, 객체 내부 또는 배경 영역으로 판단되어지는 곳에서는 비교적 단순한 분할 구조를 가지고 있을 확률이 크다. As shown in FIGS. 12 and 13, the part corresponding to the object boundary area has a high probability of having a complex CU partitioning structure, and it is highly likely to have a relatively simple partitioning structure where it is determined to be an object interior or background area.

따라서 깊이 정보를 이용하여 현재 부호화 하는 영역에 대한 객체 정보를 얻는 경우에 있어서 현재 부호화 영역이 다수의 CU로 구성되는 복잡한 분할 구조로 결정하거나 또는 소수의 CU로 구성되는 단순한 분할 구조로 결정하는 높은 확률의 예측을 할 수 있다. 이를 통해 확률이 낮은 분할 구조 결정을 제한함으로써 연산량을 줄 일 수 있다. 본 발명에서 제안되는 방법은 분할 구조 결정에서 깊이 정보를 이용하여 확률이 높은 분할 구조를 예측하여 부호화 할 수 있다. Therefore, when obtaining object information for a region to be currently coded using depth information, a high probability is determined that the current coding region is determined by a complex partitioning structure composed of a plurality of CUs or a simple partitioning structure composed of a few CUs. Can make predictions. Through this, it is possible to reduce the amount of computation by limiting the determination of the partition structure with low probability. The method proposed in the present invention can predict and encode a split structure having a high probability using depth information in determining a split structure.

종래기술에 따른 2차원 비디오 코덱은, 깊이 정보 이용을 전혀 반영하지 않고 알고리즘들이 설계되어 있다. 하지만, 실제 영상과 그것의 깊이 정보 영상은 큰 상관성을 가지므로, 깊이 정보를 2차원 영상을 부호화하는 데 활용할 수 있다는 것에 착안하여 깊이 정보를 고려한 알고리즘 개발로 2차원 비디오 부호화에서의 깊이 정보 이용방법을 고려할 수 있다. In the 2D video codec according to the prior art, algorithms are designed without reflecting the use of depth information at all. However, since the actual image and its depth information image have a great correlation, the method of using depth information in 2D video encoding by developing an algorithm that considers the depth information, considering that depth information can be used to encode a 2D image You can consider

본 발명의 기본적인 원리는 2차원 비디오 코덱에서 효율적인 부호화를 위해서, 깊이 정보 카메라에서 획득한 깊이 정보를 이용하여 실제 영상을 부호화하는 데 활용하기위해 움직임 예측 방법에서의 깊이 정보를 이용하는 것이다. The basic principle of the present invention is to use depth information in a motion prediction method for efficient encoding in a 2D video codec and to use it to encode a real image using depth information obtained from a depth information camera.

예를 들어, 깊이 정보 영상을 활용하여 일반 영상의 객체들을 구분하여 부호화할 경우, 일반 영상에 대한 부호화 복잡도를 크게 감소시킬 수 있다. For example, when the objects of the general image are classified and coded by using the depth information image, the coding complexity for the general image can be greatly reduced.

여기서 객체들이란, 여러 개의 객체를 의미하여 배경 영상을 포함할 수 있으며, 블록기반 부호화 코덱에서 블록 내에는 여러 개의 객체가 존재할 수 있으며, 깊이 정보 영상으로 기반으로 해당 객체마다 각각 다른 부호화 방법들이 적용될 수 있다.Here, the objects mean multiple objects, and may include a background image. In a block-based encoding codec, multiple objects may exist in a block, and different encoding methods may be applied to each object based on the depth information image. Can.

도 14는 본 발명의 일 실시예에 따른 영상 부호화 방법을 나타낸다. 14 shows an image encoding method according to an embodiment of the present invention.

도 14를 참조하면, 1410단계에서 영상 부호화 장치는 깊이 영상으로부터 현재 최대 코딩 유닛(LCU: Largest Coding Unit)의 깊이 값 분포 정보를 추출한다. Referring to FIG. 14, in step 1410, the image encoding apparatus extracts depth value distribution information of a current largest coding unit (LCU) from a depth image.

이때, 깊이 값 분포 정보는 예를 들어 도 19의 (A) 또는 (B)와 같이 CU의 깊이 정보 맵일 수 있고, 정규화된 값으로 나타낼 수 있다. 예를 들어, 도 19의 (B)에서 M1의 정규화된 깊이 값은 9이고, M2의 정규화된 깊이 값은 7이고, M3의 정규화된 깊이 값은 1일 수 있다. At this time, the depth value distribution information may be a depth information map of the CU, for example, as shown in (A) or (B) of FIG. 19, and may be represented as a normalized value. For example, in FIG. 19B, the normalized depth value of M1 is 9, the normalized depth value of M2 is 7, and the normalized depth value of M3 may be 1.

1420단계에서 영상 부호화 장치는 깊이 값 분포 정보에 기초하여 상기 LCU의 분할 구조 후보들을 예측한다. In step 1420, the image encoding apparatus predicts the split structure candidates of the LCU based on the depth value distribution information.

이때, LCU의 분할 구조 후보들을 예측하는 1420단계는 현재 LCU에 포함되는 CU의 깊이 값 분포 정보를 확인하는 과정 및 CU의 깊이 값 분포 정보에 기초하여 상기 CU가 단일 객체로 이루어지는 지를 확인하고, 상기 CU가 단일 객체로 이루어진 경우 상기 CU의 분할 구조 후보 예측을 종료하는 과정을 포함할 수 있다. At this time, step 1420 of predicting the split structure candidates of the LCU is a process of checking the depth value distribution information of the CU currently included in the LCU and checking whether the CU is made of a single object based on the depth value distribution information of the CU, and the When the CU is composed of a single object, a process of ending prediction of the partition structure candidate prediction of the CU may be included.

1430단계에서 영상 부호화 장치는 코딩 효율 및 화질 정보 중 적어도 어느 하나에 기초하여 상기 LCU의 분할 구조 후보들 중 최적 분할 구조를 결정한다.In step 1430, the video encoding apparatus determines an optimal split structure among the split structure candidates of the LCU based on at least one of coding efficiency and image quality information.

이때, 최적 분할 구조를 결정하는 1430단계에서 영상 부호화 장치는, 깊이 값 분포 정보에 기초하여 상기 CU의 객체 구조를 예측하고, 상기 CU의 객체 구조 예측에 기초하여 율 왜곡 비용 연산 중 일부를 생략하고 최적 분할 구조를 결정할 수 있다. At this time, in step 1430 of determining the optimal split structure, the video encoding apparatus predicts the object structure of the CU based on the depth value distribution information, and omits some of the rate distortion cost calculation based on the object structure prediction of the CU The optimal partitioning structure can be determined.

도 15는 본 발명의 다른 일 실시예에 따른 영상 부호화 방법을 나타낸다.15 illustrates a video encoding method according to another embodiment of the present invention.

도 15를 참조하면, 1510단계에서 영상 부호화 장치는 현재 최대 코딩 유닛(LCU: Largest Coding Unit)의 깊이 값 분포 정보를 추출한다. Referring to FIG. 15, in step 1510, the image encoding apparatus extracts depth value distribution information of a current largest coding unit (LCU).

1520단계에서 영상 부호화 장치는 LCU 에 포함되는 CU의 깊이 값 분포 정보에 기초하여 상기 CU의 객체 구조를 예측한다. In operation 1520, the image encoding apparatus predicts the object structure of the CU based on the depth value distribution information of the CU included in the LCU.

이때, 객체 구조의 예측은 CU의 깊이 값 분포 정보로부터 CU내의 객체 구조가 단일객체인지, 상하로 나뉘는 구성인지, 좌우로 나뉘는 구조인지를 추정할 수 있다. 예를 들어, 도 21의 CU의 깊이 값 분포가 (C)와 같은 경우, CU의 중심을 기준으로 좌측과 우측에 각각 동일한 깊이 값이 기 설정된 숫자 이상 분포하는 경우 객체 구조가 좌우로 나누어진 구조로 예측될 수 있다. 이때, 기 설정된 숫자는 시스템에서 허용되는 정확도에 따라 설정될 수 있다. At this time, the prediction of the object structure may estimate whether the object structure in the CU is a single object, a configuration divided up or down, or a structure divided left and right from the depth value distribution information of the CU. For example, when the depth value distribution of the CU of FIG. 21 is equal to (C), when the same depth value is distributed over a predetermined number on the left and right sides based on the center of the CU, the object structure is divided into left and right structures. Can be predicted as At this time, the preset number may be set according to the accuracy allowed by the system.

이때, CU의 중심은 상하 객체 구조 판단시는 가로축 중심, 좌우 객체 구조 판단 시는 세로 축 중심일 수 있다. At this time, the center of the CU may be the center of the horizontal axis when determining the upper and lower object structures, and the center of the vertical axis when determining the left and right object structures.

또 다른 예로, CU의 가로축 중심을 기준으로 좌측 및 우측의 깊이 값들의 최대값 및 최소값이 특정 값 보다 작은 경우를 기준으로 객체 구조를 판단할 수 도 있다. As another example, an object structure may be determined based on a case in which the maximum and minimum values of the depth values of the left and right sides are smaller than a specific value based on the center of the horizontal axis of the CU.

1530단계에서 영상 부호화 장치는 CU의 객체 구조 예측에 기초하여 율 왜곡 비용 연산 중 일부를 생략하고 상기 LCU의 분할 구조 후보들 중 최적 분할 구조를 결정한다. In step 1530, the video encoding apparatus omits some of the rate distortion cost calculation based on the object structure prediction of the CU and determines an optimal segmentation structure among the segmentation candidates of the LCU.

율 왜곡 비용 연산 중 생략되는 연산의 구체적인 예들은 도 21에 도시된 예들을 통해 설명하기로 한다. Specific examples of the operation omitted from the rate distortion cost operation will be described through examples shown in FIG. 21.

도 16는 본 발명의 또 다른 일 실시예에 따른 영상 부호화 방법을 나타낸다.16 shows a video encoding method according to another embodiment of the present invention.

도 16을 참조하면, 1610단계에서 영상 부호화 장치는 깊이 영상으로부터 현재 코딩 유닛(CU: Coding Unit)의 깊이 값 분포 정보를 추출한다. Referring to FIG. 16, in step 1610, the image encoding apparatus extracts depth value distribution information of a current coding unit (CU) from a depth image.

이때, 현재 CU의 분할 구조를 예측하는 1610 단계는, 현재 CU가 단일 객체로 이루어진 경우 상기 현재 CU를 분할하지 않는 것으로 결정하는 과정을 포함한다. In this case, step 1610 of predicting a split structure of the current CU includes determining that the current CU is not split when the current CU is composed of a single object.

따라서, 도 16에 도시된 실시예에 따르면, 깊이 정보를 통해서 어떤 CU가 단일 객체를 가진다고 판단이 될 때, 그 CU를 더 이상 분할하지 않는 것으로 분할 구조 후보를 결정함으로써, 부호화 복잡도를 감소할 수 있다.Therefore, according to the embodiment illustrated in FIG. 16, when it is determined through a depth information that a CU has a single object, coding complexity may be reduced by determining a partition structure candidate as not to further divide the CU. have.

1620단계에서 영상 부호화 장치는 깊이 값 분포 정보에 기초하여 상기 현재 CU가 단일 객체로 이루어지는 지를 확인하고, 상기 현재 CU가 단일 객체로 이루어지는지의 여부에 따라 상기 현재 CU의 분할 구조를 예측한다. In step 1620, the image encoding apparatus determines whether the current CU is composed of a single object based on depth value distribution information, and predicts a split structure of the current CU according to whether the current CU is composed of a single object.

이때, 현재 CU의 분할 구조를 예측하는 1620단계는 현재 CU의 크기가 기 설정된 값 이상이고, 상기 현재 CU가 단일 객체로 이루어진 것으로 예측되고 상기 CU의 부호화 모드가 스킵 모드인 경우 상기 현재 CU를 분할하지 않는 것으로 결정하는 과정을 포함할 수 있다. At this time, in step 1620 of predicting the split structure of the current CU, if the size of the current CU is greater than or equal to a preset value, and the current CU is predicted to be composed of a single object, and the encoding mode of the CU is a skip mode, the current CU is split. And determining not to.

이때, 현재 CU의 분할 구조를 예측하는 1620단계는 현재 CU의 크기가 기 설정된 값 보다 작고, 기 현재 CU가 단일 객체로 이루어진 것으로 예측되고, 상기 CU의 참조 CU의 크기가 상기 기 설정된 값 이상이고 상기 참조 CU가 스킵 모드로 부호화 되는 경우 상기 CU를 분할하지 않는 것으로 결정하는 과정을 포함할 수 있다. At this time, in step 1620 of predicting the split structure of the current CU, the size of the current CU is smaller than a preset value, the current CU is predicted to be composed of a single object, and the size of the reference CU of the CU is greater than or equal to the preset value. When the reference CU is encoded in the skip mode, it may include determining that the CU is not split.

이때, 현재 CU가 단일 객체로 이루어지는 지의 여부는 상기 CU의 네 모서리 깊이 값에 의해 결정될 수 있으며, 깊이 값 분포를 기초로 단일 객체 여부를 판단하는 다양한 예들은 도 18 내지 도 20을 통해 상세히 설명하기로 한다. At this time, whether the current CU is composed of a single object may be determined by the depth value of the four corners of the CU, and various examples of determining whether a single object is based on the depth value distribution will be described in detail with reference to FIGS. 18 to 20. Shall be

도 17은 본 발명의 실시예에 따른 LCU 단위 최적 CU 분할 구조 결정 방법을 설명하기 위한 흐름도이다. 17 is a flowchart illustrating a method for determining an optimal CU partitioning structure for each LCU according to an embodiment of the present invention.

도 17은 도 14에 도시된 LCU 단위 분할 구조 결정 과정을 보다 상세히 나타내는 흐름도이다. 17 is a flowchart illustrating in more detail the process of determining the LCU unit division structure shown in FIG. 14.

예를 들어, 도 14의 1410단계는 도 17의 1701단계 및 1703단계를 포함할 수 있다. 또한, 도 14의 1420단계는 도 17의 1705단계 내지 1710단계, 1750단계 및 1760단계를 포함할 수 있다. For example, step 1410 of FIG. 14 may include steps 1701 and 1703 of FIG. 17. Also, step 1420 of FIG. 14 may include steps 1705 to 1710, 1750 and 1760 of FIG. 17.

1705단계에서 영상 부호화 장치는 CU 단위 재귀 프로세스를 시작하고, 1707단계에서 현재 CU의 참조 CU의 깊이 정보나 부호화 모드 등의 LCU 정보를 추출하고, 현재 분할 깊이의 CU를 부호화하고 최적의 CU 후보에 저장할 수 있다. 예를 들어 현재 분할 깊이의 CU는 도 9의 (A)일 수 있다.In step 1705, the image encoding apparatus starts a CU unit recursion process, and in step 1707, LCU information such as depth information or a coding mode of a reference CU of a current CU is extracted, a CU of a current split depth is encoded, and an optimal CU candidate is obtained. Can be saved. For example, the CU of the current division depth may be (A) of FIG. 9.

1710단계에서 영상 부호화 장치는 깊이 정보를 이용한 CU 분할 조기 종료 과정을 수행할 수 있다. 이때, CU 분할 조기 종료 과정은 도 14, 도 18 및 도 20에 도시된 분할 구조 후보 예측 과정일 수 있다.In step 1710, the image encoding apparatus may perform an early termination process of CU segmentation using depth information. At this time, the CU split early termination process may be a split structure candidate prediction process illustrated in FIGS. 14, 18, and 20.

1710단계의 분할 조기 종료 과정 수행을 통해 CU를 분할하는 것으로 결정될 수 있고, 이때 1750단계에서 도 9의 (B)와 같이 CU를 분할 깊이가 1 증가한 4개의 CU 로분할 할 수 있다.It may be determined to divide the CU by performing the partitioning early termination process in step 1710, and in step 1750, the CU may be divided into four CUs having an increase in the division depth by 1 as shown in FIG. 9(B).

만일, CU 단위 재귀 프로세스를 거쳐 CU 분할 구조 후보가 도 9의 (A), (B), (C)로 결정된 경우, 영상 부호화 장치는 각각의 분할 구조 후보에 대한 코딩 효율 등을 고려하여 1730단계에서 최적의 CU 분할 구조를 결정할 수 있다. If, after the CU unit recursive process, the CU split structure candidate is determined as (A), (B), and (C) of FIG. 9, the video encoding apparatus considers coding efficiency for each split structure candidate in step 1730. Can determine the optimal CU partitioning structure.

최적의 CU 분할 구조가 결정되면, 1740단계에서 CU 단위 재귀 프로세스는 종료될 수 있다.When the optimal CU partitioning structure is determined, in step 1740, the CU unit recursion process may end.

도 18은 본 발명의 일 실시예에 따른 CU 분할 조기 종료 과정을 설명하기 위한 흐름도이다. 18 is a flow chart for explaining the CU termination early termination process according to an embodiment of the present invention.

도 18을 참조하면, 현재 LCU의 깊이 정보를 추출하는 1801단계는 도 14의 1410단계 또는 도 17의 1701단계와 동일한 단계일 수 있다. Referring to FIG. 18, step 1801 of extracting depth information of the current LCU may be the same step as step 1410 of FIG. 14 or step 1701 of FIG. 17.

1810단계에서 현재 코딩 유닛(CU: Coding Unit)을 선택하고, 현재 CU의 크기가 32x32 이상인지, 예를 들어 현재 CU의 크기가 64x64 또는 32x32인지를 판단한다. In step 1810, a current coding unit (CU) is selected, and it is determined whether the size of the current CU is 32x32 or more, for example, whether the size of the current CU is 64x64 or 32x32.

현재 CU의 크기가 32x32 이상이면 1811단계를 수행하고, 그렇지 않으면 1820단계를 수행한다.If the size of the current CU is 32x32 or more, step 1811 is performed; otherwise, step 1820 is performed.

1811단계에서 현재 CU가 단일 객체로 이루어지고, 현재 CU의 부호화 모드가 스킵 모드인지를 판단한다. 만일 현재 CU가 단일 객체로 이루어지고, CU의 부호화 모드가 스킵 모드이면 1813단계에서 현재 CU를 분할하지 않는다는 정보를 저장하고 CU 분할 조기 종료 과정 수행을 종료할 수 있다. In step 1811, it is determined whether the current CU consists of a single object and the current CU encoding mode is a skip mode. If the current CU is composed of a single object, and the encoding mode of the CU is a skip mode, in step 1813, information indicating that the current CU is not split may be stored and execution of the early termination of the CU partitioning process may be terminated.

1811단계에서 현재 CU가 단일 객체로 이루어지지 않는 것으로 판단되거나 현재 CU의 부호화 모드가 스킵 모드가 아닌 경우 현재 CU를 분할한다는 정보를 저장하고 CU 분할 조기 종료 과정 수행을 종료할 수 있다.In step 1811, if it is determined that the current CU is not composed of a single object, or if the current CU encoding mode is not a skip mode, information indicating that the current CU is split may be stored and the execution of the early termination of the CU partitioning process may be terminated.

1820단계에서 영상 부호화 장치는 현재 LCU 및 현재 CU가 단일 객체로 구성되는지를 판단한다. 만일 현재 LCU 또는 현재 CU가 단일 객체로 이루어지지 않는 것으로 판단되면 1830단계에서 현재 CU를 분할한다는 정보를 저장하고 CU 분할 조기 종료 과정 수행을 종료할 수 있다.In operation 1820, the video encoding apparatus determines whether the current LCU and the current CU are composed of a single object. If it is determined that the current LCU or the current CU does not consist of a single object, in step 1830, information for dividing the current CU may be stored, and execution of the early termination process of partitioning the CU may be terminated.

1820단계의 판단결과 현재 LCU 또는 현재 CU가 단일 객체로 구성되지 않는 것으로 판단되면, 1840단계에서 참조 CU의 깊이 정보를 추출하고 1841단계를 수행한다. If it is determined in step 1820 that the current LCU or the current CU is not composed of a single object, in step 1840, depth information of the reference CU is extracted and step 1841 is performed.

1841단계에서 영상 부호화 장치는 참조 CU의 크기가 32x32 이상(예를 들어 참조 CU의 크기가 64x64 또는 32x32인 경우)이고 참조 CU의 부호화 모드가 스킵 모드인지를 판단한다. In step 1841, the video encoding apparatus determines whether the size of the reference CU is 32x32 or more (for example, when the size of the reference CU is 64x64 or 32x32) and whether the encoding mode of the reference CU is a skip mode.

1841단계에서 참조 CU의 크기가 32x32 이상이고 참조 CU의 부호화 모드가 스킵 모드인 경우, 1843단계에서 현재 CU를 분할하지 않는다는 정보를 저장하고 CU 분할 조기 종료 과정 수행을 종료할 수 있다.If the size of the reference CU is greater than or equal to 32x32 in step 1841 and the encoding mode of the reference CU is skip mode, information indicating that the current CU is not split is stored in step 1843 and the execution of the early termination of the CU partitioning process can be ended.

예를 들어, 현재 CU의 크기가 32x32보다 작은 크기를 가지는 CU일 때, 현재 CU가 깊이 정보를 통해 단일 객체로 구성되었다고 판단 되고, 참조 LCU 역시 깊이 정보를 통해 단일 객체로 구성되었다고 판단 되며, 참조 CU(L0에 위치한)의 크기가 64x64 또는 32x32이며 Skip 모드로 부호화 되었다면, 현재 CU 역시 큰 크기로 구성되는 CU 즉, 단순한 분할 구조일 확률이 크다고 예측함으로써, 현재 CU를 더 이상 분할하지 않을 수 있다. For example, when the size of the current CU is a CU having a size smaller than 32x32, it is determined that the current CU is composed of a single object through depth information, and the reference LCU is also determined to be composed of a single object through depth information. If the size of the CU (located at L0) is 64x64 or 32x32 and is encoded in Skip mode, the current CU may not be further partitioned by predicting that the CU is also composed of a large size, that is, a probability of a simple partitioning structure is large. .

1841단계의 판단결과 참조 CU의 크기가 32x32 이상이 아니거나 참조 CU의 부호화 모드가 스킵 모드가 아닌 경우 1830단계를 수행한다. If the size of the reference CU is not greater than 32x32 or the encoding mode of the reference CU is not a skip mode, the operation 1830 is performed.

이때, 스킵 모드는 원본 영상에 대한 예측영상 또는 참조 영상과의 차분신호(또는 차분영상)를 부호화하지 않거나 복호화 단으로 전송하지 않는 부호화 모드일 수 있다. In this case, the skip mode may be an encoding mode in which a differential signal (or a differential image) from a prediction image or a reference image for an original image is not encoded or transmitted to a decoding stage.

이때, CU가 단일 객체로 이루어지는지의 여부는 CU의 깊이 값 분포 정보에 포함된 최대값 및 최소값의 차가 기 설정된 값 이하이면, 상기 CU가 단일 객체로 이루어지는 것으로 판단될 수 있다. At this time, whether the CU is made of a single object or not, if the difference between the maximum and minimum values included in the depth value distribution information of the CU is equal to or less than a preset value, it can be determined that the CU is made of a single object.

따라서, 도 18에 도시된 1810단계 내지 1843단계를 참조하면, 일 실시예에 따른 LCU의 분할 구조 후보들을 예측하는 단계는, 현재 LCU에 포함되는 CU의 크기, 상기 CU의 깊이 값 분포 정보에 포함된 최대값 및 최소값의 차, 상기 CU의 부호화 모드가 스킵 모드인지 여부 중 적어도 하나를 고려하여 상기 CU의 분할 여부를 결정하는 과정을 포함할 수 있다. Accordingly, referring to steps 1810 to 1843 illustrated in FIG. 18, the step of predicting the split structure candidates of the LCU according to an embodiment is included in information about the size of the CU included in the current LCU and the depth value distribution information of the CU And determining whether to divide the CU by considering at least one of a difference between a maximum value and a minimum value, and whether the CU encoding mode is a skip mode.

도 19는 CU의 깊이 값 분포 예들을 나타내는 도면이다. 19 is a diagram illustrating examples of distribution of depth values of a CU.

일 실시예에 따른 영상 부호화 방법에 있어서, CU 또는 블록이 동일한 단일 객체로 이루어지는지를 판단하는 방법의 예로써, CU 또는 블록의 네 모서리 위치의 깊이 값을 이용할 수 있다. In an image encoding method according to an embodiment, as an example of a method of determining whether a CU or block is composed of the same single object, a depth value of four corner positions of a CU or block may be used.

도 19를 참조하면, 영상 부호화 장치는 (A)와 같은 CU 깊이 값 분포를 깊이 값의 변화가 크지 않고 고른 것으로 판단할 수 있다. Referring to FIG. 19, the apparatus for encoding an image may determine that the distribution of the CU depth value as shown in (A) is selected without changing the depth value.

반면, 영상 부호화 장치는 도 19의 (B)와 같은 CU 깊이 값 분포를 깊이 값의 변화가 크기 때문에 단일 객체로 이루어지지 않는 것으로 판단할 수 있다. On the other hand, the image encoding apparatus may determine that the CU depth value distribution as shown in FIG. 19B is not composed of a single object because the depth value change is large.

도 19의 (B)를 참조하면, CU 내에 중간 부분과 모서리 부분이 깊이 값의 변화가 매우 크다는 것을 볼 수 있는데, 이러한 경우 네 모서리의 깊이 값 중 최대값과 최소값의 차이가 크다는 것을 알 수 있다. 따라서 이러한 CU는 단일 객체로 이루어져 있을 확률이 낮기 때문에 CU 분할을 수행할 수 있다. Referring to (B) of FIG. 19, it can be seen that the change of the depth value of the middle portion and the edge portion in the CU is very large. In this case, it can be seen that the difference between the maximum value and the minimum value among the depth values of the four edges is large. . Therefore, since such a CU has a low probability of being composed of a single object, CU partitioning can be performed.

영상 부호화 장치는 CU의 네 모서리 깊이 값들 중 최대값 및 최소값의 차가 기 설정된 기준값 이하이면 상기 CU가 단일 객체로 이루어지는 것으로 판단할 수 있다. The video encoding apparatus may determine that the CU is composed of a single object when the difference between the maximum and minimum values among the four corner depth values of the CU is equal to or less than a preset reference value.

이때, 예를 들어 도 19의 (A)에서 M1의 정규화된 깊이 값은 9이고, M2 및 M3의 정규화된 깊이 값은 7이고, M4의 정규화된 깊이 값은 7일 수 있다.In this case, for example, in FIG. 19A, the normalized depth value of M1 is 9, the normalized depth value of M2 and M3 is 7, and the normalized depth value of M4 may be 7.

또한, 도 19의 (B)에서 M1의 정규화된 깊이 값은 9이고, M2 및 M4의 정규화된 깊이 값은 7이고, M3의 정규화된 깊이 값은 1일 수 있다.In addition, in FIG. 19B, the normalized depth value of M1 is 9, the normalized depth value of M2 and M4 is 7, and the normalized depth value of M3 may be 1.

이때, 도 19의 (A)의 경우 CU 네 모서리의 깊이 값의 최대값 및 최소값의 차가 2이고, 도 19의 (B)의 경우 CU 네 모서리의 깊이 값의 최대값 및 최소값의 차가 8이다.At this time, in FIG. 19A, the difference between the maximum and minimum values of the depth values of the four corners of the CU is 2, and in the case of FIG. 19B, the difference between the maximum and minimum values of the depth values of the four corners of the CU is 8.

따라서, 기 설정된 기준값이 5인 경우, 도 19의 (A)는 단일 객체로 이루어지는 것으로 결정되고, 도 19의 (B)는 단일 객체로 이루어지지 않는 것으로 결정될 수 있다. Accordingly, when the preset reference value is 5, it can be determined that (A) of FIG. 19 consists of a single object, and (B) of FIG. 19 does not consist of a single object.

도 20은 본 발명의 일 실시예에 따른 CU 분할 조기 종료 과정의 다른 예를 설명하기 위한 흐름도이다.20 is a flowchart for explaining another example of the CU split early termination process according to an embodiment of the present invention.

도 20을 참조하면, 2010단계에서 영상 부호화 장치는 현재 CU가 32x32 이상인지를 판단한다. 2010단계의 조건을 만족하면 2020단계가 수행되고, 그렇지 않은 경우 2050단계가 수행된다. Referring to FIG. 20, in step 2010, the video encoding apparatus determines whether the current CU is 32x32 or more. If the conditions of step 2010 are satisfied, step 2020 is performed, otherwise step 2050 is performed.

2020단계에서 영상 부호화 장치는, CU의 크기가 길 설정된 값 이상이고 상기 CU의 네 모서리 깊이 값들 중 최대값 및 최소값의 차가 기 설정된 기준값 이하이고 상기 CU가 스킵 모드로 부호화되는지를 판단한다. In step 2020, the image encoding apparatus determines whether the size of the CU is greater than or equal to a preset value, the difference between the maximum and minimum values of the four corner depth values of the CU is equal to or less than a preset reference value, and whether the CU is encoded in a skip mode.

이때, 기 설정된 기준값은 5일 수 있다. At this time, the preset reference value may be 5.

2020단계의 조건을 만족하는 경우 현재 CU를 분할하지 않는다는 정보를 저장하고 CU 분할 조기 종료 과정을 종료할 수 있다. If the condition of 2020 is satisfied, information indicating that the current CU is not partitioned may be stored, and the CU partition early termination process may be terminated.

따라서, 일 실시예에 따른 LCU의 분할 구조 후보들을 예측하는 단계는, CU의 크기가 길 설정된 값 이상이고 상기 CU의 네 모서리 깊이 값들 중 최대값 및 최소값의 차가 기 설정된 기준값 이하이고 상기 CU가 스킵 모드로 부호화 되는 경우 상기 CU를 분할하지 않는 것으로 결정하는 과정을 포함할 수 있다. Accordingly, in the step of predicting the split structure candidates of the LCU according to an embodiment, the size of the CU is greater than or equal to a long set value, and the difference between the maximum and minimum values among the four corner depth values of the CU is less than a preset reference value and the CU is skipped When it is coded in a mode, it may include determining that the CU is not split.

2020 단계의 조건을 만족하지 않는 경우 CU를 분할한다는 정보를 저장하고 CU 분할 조기 종료 과정을 종료할 수 있다.If the conditions of the 2020 step are not satisfied, information indicating that the CU is split may be stored and the early termination of the CU partitioning process may be terminated.

2050단계에서 영상 부호화 장치는, CU의 크기가 길 설정된 값 보다 작고 상기 LCU 및 상기 CU 각각의 네 모서리 깊이 값이 모두 같은 값인지를 판단한다. In step 2050, the image encoding apparatus determines whether the size of the CU is smaller than a long set value and that the four corner depth values of the LCU and the CU are all the same value.

2050단계의 조건을 만족하면, 2060단계를 수행하고 그렇지 않은 경우 2080단계를 수행한다. If the condition of step 2050 is satisfied, step 2060 is performed, otherwise step 2080 is performed.

2060단계 및 2070단계에서 영상 부호화 장치는 참조 CU의 깊이 정보를 추출하고, 참조 CU의 크기가 32x32 이상인지와 참조 CU의 부호화 모드가 스킵 모드인지를 판단한다. In steps 2060 and 2070, the image encoding apparatus extracts depth information of the reference CU, and determines whether the size of the reference CU is 32x32 or more and whether the encoding mode of the reference CU is a skip mode.

2070단계의 조건을 만족하면 2090단계를 수행하고, 그렇지 않은 경우 2080단계를 수행한다. If the condition of step 2070 is satisfied, step 2090 is performed, otherwise step 2080 is performed.

따라서, 일 실시예에 따른 LCU의 분할 구조 후보들을 예측하는 단계는, CU의 크기가 길 설정된 값 보다 작고 상기 LCU 및 상기 CU 각각의 네 모서리 깊이 값이 모두 같은 값이고, 상기 CU의 참조 CU의 크기가 상기 기 설정된 값 이상이고 상기 참조 CU가 스킵 모드로 부호화 되는 경우 상기 CU를 분할하지 않는 것으로 결정하는 과정을 포함할 수 있다. Therefore, in the step of predicting the split structure candidates of the LCU according to an embodiment, the size of the CU is smaller than a long set value, and the four corner depth values of each of the LCU and the CU are the same value, and the reference CU of the CU When the size is greater than or equal to the preset value and the reference CU is encoded in the skip mode, it may include determining that the CU is not split.

도 21은 CU의 객체 구성의 다양한 예를 설명하기 위한 도면이다. 21 is a view for explaining various examples of object configuration of the CU.

본 발명의 일 실시예에 따르면, 깊이 정보를 통해 CU의 객체 구성을 판단하고, 분할 구조 결정에서의 분할 구조 모드 예측에 필요한 율왜곡(RD-Cost, 이하 RD-Cost) 연산을 간소화 할 수 있다. According to an embodiment of the present invention, the object structure of the CU is determined through depth information, and the rate distortion (RD-Cost, hereinafter referred to as RD-Cost) operation required for the prediction of the divided structure mode in determining the divided structure can be simplified. .

CU의 깊이 값 분포 정보를 이용하면, CU의 객체 구성 정보 예측할 수 있기 때문에, 임의의 조건을 만족시키는 경우에 대해 AMP(Asymmetric Motion Partitioning) RD-Cost 연산을 수행하지 않음으로써 모드 예측의 결정을 간소화 시킬 수 있다.Using the depth value distribution information of the CU, since the object configuration information of the CU can be predicted, the determination of the mode prediction is simplified by not performing an Asymmetric Motion Partitioning (AMP) RD-Cost operation for a case that satisfies any condition. I can do it.

예를 들어, 도 21의 (A)와 같이 단일 객체 구성으로 이루어지는 CU의 경우에, 해당 CU의 분할 구조 모드가 AMP 중 하나로 선택될 확률이 낮다. 따라서, 이 경우 2NxnU, 2NxnD, nLx2N, nRx2N에 대한 RD-Cost 연산을 수행하지 않을 수 있다. For example, in the case of a CU consisting of a single object configuration as shown in (A) of FIG. 21, the probability that the split structure mode of the CU is selected as one of the AMPs is low. Therefore, in this case, RD-Cost calculation may not be performed for 2NxnU, 2NxnD, nLx2N, and nRx2N.

따라서, 본 발명의 일 실시예에 따른 최적 분할 구조 예측 단계 또는 분할 구조 결정 간소화 과정에서, CU의 객체 구조가 단일객체로 이루어지는 것으로 예측되는 경우 CU의 비대칭 모션 분할(AMP: Asymmetric Motion Partition)에 대한 율 왜곡 연산은 생략될 수 있다.Accordingly, in the optimal partitioning structure prediction step or the process of simplifying the partitioning structure determination according to an embodiment of the present invention, when the object structure of the CU is predicted to consist of a single object, asymmetric motion partition (AMP) for the CU Rate distortion calculation can be omitted.

또한, 도 21의 (B)와 같이 CU의 구성이 상하로 나누어져 객체로 구성되는 경우에는 CU의 위쪽과 아래쪽이 다른 객체로 이루어져 있을 확률이 높으므로, nLx2N, nRx2N에 대한 RD-Cost 연산을 수행하지 않을 수 있다. In addition, when the composition of the CU is divided into upper and lower parts as shown in FIG. 21(B), since there is a high probability that the upper and lower parts of the CU are composed of different objects, RD-Cost operations for nLx2N and nRx2N are performed. It may not.

따라서, 본 발명의 일 실시예에 따른 최적 분할 구조 예측 단계 또는 분할 구조 결정 간소화 과정에서, CU의 객체 구조가 상하로 나누어진 구조로 예측되는 경우 CU의 비대칭 모션 분할(AMP: Asymmetric Motion Partition)에 대한 율 왜곡 연산 들 중 좌우 분할과 관련된 연산은 생략될 수 있다. Therefore, in the optimal partitioning structure prediction step or the process of simplifying the partitioning structure determination according to an embodiment of the present invention, when the object structure of the CU is predicted to be a divided structure up and down, asymmetric motion partitioning (AMP) of the CU is performed. Among the rate distortion operations for Korea, operations related to left and right division may be omitted.

또한, 도 21의 (C)와 같이 CU의 구성이 좌우로 나누어져 객체로 구성되는 경우에는 CU의 왼쪽과 오른쪽이 다른 객체로 이루어져 있을 확률이 높으므로, 2NxnU, 2NxnD 에 대한 RD-Cost 연산을 수행하지 않을 수 있다. Also, as shown in (C) of FIG. 21, when the CU is divided into left and right, and is composed of objects, there is a high probability that the left and right sides of the CU are composed of different objects, so RD-Cost operations for 2NxnU and 2NxnD are performed It may not.

따라서, 본 발명의 일 실시예에 따른 최적 분할 구조 예측 단계 또는 분할 구조 결정 간소화 과정에서, CU의 객체 구조가 좌우로 나누어진 구조로 예측되는 경우 CU의 비대칭 모션 분할(AMP: Asymmetric Motion Partition)에 대한 율 왜곡 연산 들 중 상하 분할과 관련된 연산은 생략될 수 있다. Therefore, in the optimal partitioning structure prediction step or the process of simplifying the partitioning structure determination according to an embodiment of the present invention, when the object structure of the CU is predicted to be divided into left and right structures, asymmetric motion partition (AMP) of the CU is used. Among the rate distortion operations for Korea, operations related to the top and bottom division may be omitted.

도 22 및 도 23은 본 발명의 실시예에 따른 영상 부호화 방법들을 설명하기 위한 도면이다. 22 and 23 are diagrams for describing image encoding methods according to an embodiment of the present invention.

도 22를 참조하면, 2201단계, 2203단계 및 2205단계는 각각 도 17의 1701단계, 1703단계 및 1705단계와 동일함을 알 수 있다. Referring to FIG. 22, it can be seen that steps 2201, 2203, and 2205 are the same as steps 1701, 1703, and 1705 of FIG. 17, respectively.

또한, 깊이 정보를 이용한 분할 구조 결정 간소화 과정 수행 단계인 2210단계를 제외하면 나머지 단계들 2220단계 내지 2270단계는 도 17의 1709단계 내지 1760단계과 동일함을 알 수 있다. In addition, it can be seen that the remaining steps 2220 to 2270 are the same as steps 1709 to 1760 of FIG. 17 except for step 2210, which is a step of performing a simplified structure determination process using depth information.

이때, 깊이 정보를 이용한 분할 구조 결정 간소화 과정 수행 단계인 2210단계는 도 24에 도시된 과정 또는 도 25에 도시된 과정을 포함할 수 있다. In this case, step 2210, which is a step of simplifying the partition structure determination using depth information, may include the process illustrated in FIG. 24 or the process illustrated in FIG. 25.

도 23을 참조하면, LCU 단위 전체 분할 구조 결정 과정에서 깊이 정보를 이용한 분할 구조 결정 간소화 과정을 수행한 후, 2320단계를 거쳐 2330단계에서 깊이 정보를 이용한 CU 분할 조기 종료 과정을 수행할 수 있음을 알 수 있다. Referring to FIG. 23, after performing a process of simplifying the partition structure determination using depth information in the process of determining the entire partition structure of the LCU unit, it is possible to perform an early termination process of CU partition using depth information in step 2320 through step 2320. Able to know.

이때, 2310 단계에서 영상 부호화 장치는 CU의 객체 구조에 따라 생략되는 연산만을 저장한 후 2320단계 내지 2260단계를 수행할 수 있다. At this time, in step 2310, the image encoding apparatus may perform steps 2320 to 2260 after storing only the operations that are omitted according to the object structure of the CU.

예를 들어, CU의 객체 구조에 따라 생략되는 율 왜곡 연산이 "비대칭 모션 분할(AMP: Asymmetric Motion Partition)에 대한 율 왜곡 연산 들 중 좌우 분할과 관련된 연산"인 경우, 영상 부호화 장치는 2350단계에서 생략되는 연산을 고려하여 CU분할 구조 후보들 중 최적의 CU 분할 구조를 결정할 수 있다. For example, if the rate distortion operation that is omitted according to the object structure of the CU is "the operation related to the left and right division among rate distortion operations for the asymmetric motion partition (AMP)", the image encoding apparatus in step 2350. The optimal CU partitioning structure may be determined among CU partitioning structure candidates in consideration of the omitted operation.

도 24는 본 발명의 일 실시예에 따른 분할 구조 결정 간소화 과정을 설명하기 위한 도면이다. 24 is a view for explaining a process of simplifying the partition structure determination according to an embodiment of the present invention.

도 24를 참조하면, 2510단계에서 영상 부호화 장치는 현재 CU가 단일 객체로 구성된다고 판단할 수 있다. 2410 단계의 조건을 만족하면 2420단계가 수행되고 그렇지 않은 경우 2430단계가 수행될 수 있다. Referring to FIG. 24, in operation 2510, the image encoding apparatus may determine that the current CU is composed of a single object. If the condition of step 2410 is satisfied, step 2420 may be performed, otherwise, step 2430 may be performed.

2410단계의 조건을 만족하는 경우 2420단계에서 AMP RD cost 연산을 skip하는 것으로 결정하고 분할 구조 모두 결정을 완료할 수 있다. If the condition of step 2410 is satisfied, it is determined in step 2420 that the AMP RD cost operation is skipped, and the determination of all partition structures can be completed.

2430단계에서 영상 부호화 장치는 현재 CU 객체 구성이 상하로 나뉘어져 있는지를 판단하고, 조건을 만족하는 경우 2440단계에서 nLx2N, nRx2N 율 왜곡 코스트 연산을 스킵하는 것으로 결정할 수 있다. In step 2430, the image encoding apparatus may determine whether the current CU object configuration is divided up and down, and if the conditions are satisfied, it may be determined in step 2440 to skip the calculation of the rate distortion cost of nLx2N and nRx2N.

영상 부호화 장치는 2450단계에서 CU 객체 구성이 좌우로 나뉘어져 있는지를 판단하고 이를 만족하는 경우 2460단계에서 2NxnU, 2NxnD 율 왜곡 코스트 연산을 스킵하는 것으로 결정할 수 있다.In step 2450, the image encoding apparatus may determine whether the CU object configuration is divided into left and right, and if satisfied, the 2NxnU and 2NxnD rate distortion cost calculation may be skipped in step 2460.

도 25는 본 발명의 일 실시예에 따른 분할 구조 결정 간소화 과정의 다른 예를 설명하기 위한 도면이다. 25 is a view for explaining another example of the process of simplifying the partition structure determination according to an embodiment of the present invention.

도 25는 CU의 깊이 값 분포를 통해 CU의 객체 구성을 예측하는 일 예를 나타낸다. 25 shows an example of predicting an object configuration of a CU through a distribution of depth values of the CU.

예를 들어, 2510단계에서 영상 부호화 장치는 CU의 네 모서리 깊이 값이 모두 같으면, CU가 단일 객체로 구성되는 것으로 판단하여 2420단계와 동일한 2520단계를 수행한다. For example, in step 2510, if the four corner depth values of the CU are all the same, the image encoding apparatus determines that the CU is composed of a single object, and performs step 2520, which is the same as step 2420.

또한, 2530단계에서 영상 부호화 장치는 CU의 네 모서리 깊이 값이 모두 같지는 않지만 CU의 위쪽 두 모서리의 깊이 값이 서로 같고, 아래 쪽 두 모서리의 깊이 값이 서로 같은 경우 CU의 객체 구성이 상하로 나뉘는 것으로 판단하여 2440단계와 동일한 2540단계를 수행한다. In addition, in step 2530, the image encoding apparatus does not have the same depth values of the four corners of the CU, but when the depth values of the upper two corners are the same and the depth values of the lower two corners are the same, the object configuration of the CU is divided up and down. It is determined that step 2540, which is the same as step 2440, is performed.

또한, 2550단계에서 영상 부호화 장치는 2510단계 및 2530단계의 조건을 만족하지는 않지만 CU의 왼쪽 모서리의 깊이 값이 서로 같고 오른쪽 두 모서리의 깊이 값이 서로 같은 경우 CU의 객체 구성이 좌우로 나뉘는 것으로 판단하여 2560단계를 수행할 수 있다. Also, in step 2550, the image encoding apparatus does not satisfy the conditions of steps 2510 and 2530, but when the depth values of the left corners of the CU are the same and the depth values of the two right corners are the same, it is determined that the object configuration of the CU is divided into left and right. Step 2560 may be performed.

도 26은 본 발명의 일 실시예에 따른 영상 부호화 장치의 구성을 설명하기 위한 도면이다. 26 is a view for explaining the configuration of an image encoding apparatus according to an embodiment of the present invention.

도 26에 도시된 영상 부호화 장치는 본 발명의 실시예에 따른 영상 부호화 방법을 수행할 수 있다. The image encoding apparatus illustrated in FIG. 26 may perform an image encoding method according to an embodiment of the present invention.

도 26을 참조하면, 영상 부호화 장치(2600)는 깊이 값 추출부(2610), 분할구조 예측부(2620) 및 최적 분할구조 결정부(2630)을 포함할 수 있다. 또한, 영상 부호화 장치(2600)는 객체구조 예측부(2640)를 더 포함할 수 있다. Referring to FIG. 26, the image encoding apparatus 2600 may include a depth value extraction unit 2610, a split structure prediction unit 2620, and an optimal split structure determination unit 2630. Also, the image encoding apparatus 2600 may further include an object structure prediction unit 2640.

깊이 값 추출부(2610)는 깊이 영상으로부터 현재 최대 코딩 유닛(LCU: Largest Coding Unit)의 깊이 값 분포 정보를 추출한다. The depth value extractor 2610 extracts depth value distribution information of a current largest coding unit (LCU) from a depth image.

분할구조 예측부(2620)는 깊이 값 분포 정보에 기초하여 상기 LCU의 분할 구조 후보들을 예측한다. 이때, LCU의 분할 구조 후보들의 예측은 도 17의 깊이 정보를 이용한 CU 분할 조기 종료 과정 수행 1710단계일 수 있다. The split structure prediction unit 2620 predicts split structure candidates of the LCU based on the depth value distribution information. In this case, prediction of candidates for the split structure of the LCU may be performed in step 1710 of an early termination process of a CU partition using depth information of FIG. 17.

또한, 분할구조 예측부(2620)는 깊이 값 분포 정보에 기초하여 상기 현재 CU가 단일 객체로 이루어지는 지를 확인하고, 상기 현재 CU가 단일 객체로 이루어지는지의 여부에 따라 상기 현재 CU의 분할 구조를 예측한다. In addition, the split structure prediction unit 2620 determines whether the current CU is made of a single object based on depth value distribution information, and predicts the split structure of the current CU according to whether the current CU is made of a single object. .

최적 분할구조 결정부(2630)는 코딩 효율 및 화질 정보 중 적어도 어느 하나에 기초하여 상기 LCU의 분할 구조 후보들 중 최적 분할 구조를 결정한다. The optimal split structure determining unit 2630 determines an optimal split structure among split structure candidates of the LCU based on at least one of coding efficiency and image quality information.

객체구조 예측부(2640)는 LCU 에 포함되는 CU의 깊이 값 분포 정보에 기초하여 상기 CU의 객체 구조를 예측한다. 이때, 최적 분할구조 결정부(2630)는 CU의 객체 구조 예측에 기초하여 율 왜곡 비용 연산 중 일부를 생략하고 상기 LCU의 분할 구조 후보들 중 최적 분할 구조를 결정한다. The object structure prediction unit 2640 predicts the object structure of the CU based on the depth value distribution information of the CU included in the LCU. At this time, the optimal partition structure determining unit 2630 omits some of the rate distortion cost calculation based on the object structure prediction of the CU and determines the optimal partition structure among the partition structure candidates of the LCU.

[표 1]은 도 25에 도시된 실시예를 HEVC에 적용한 실험 결과를 나타낸다. [Table 1] shows the experimental results of applying the embodiment shown in Figure 25 to HEVC.

실험 결과를 통하여 주관적 화질에서의 동일한 품질로 영상 품질의 큰 열화 없이 부호화 복잡도가 감소됨을 확인할 수 있다. Through the experimental results, it can be seen that the coding complexity is reduced without significant deterioration of the image quality with the same quality in the subjective image quality.

[표 1][Table 1]

Figure 112016018992976-pat00001
Figure 112016018992976-pat00001

본 발명의 실시예들에 있어서, 대상 범위 또는 적용 범위는 블록 크기 혹은 CU의 분할 깊이 등에 따라 가변될 수 있다.In embodiments of the present invention, a target range or an application range may be varied according to a block size or a division depth of a CU.

이때, 적용 범위를 결정하는 변수(즉, 크기 혹은 깊이 정보)는 부호화기 및 복호화기가 미리 정해진 값을 사용하도록 설정할 수도 있고, 프로파일 또는 레벨에 따라 정해진 값을 사용하도록 할 수 도 있고, 부호화기가 변수 값을 비트스트림에 기재하면 복호화기는 비트스트림으로부터 이 값을 구하여 사용할 수도 있다. CU 분할 깊이에 따라 적용 범위를 달리하는 할 때는 [표 2]에 예시한 바와 같다. 방식A는 미리 설정된 깊이값 이상의 깊이에만 적용하는 방식일 수 있으며, 방식B는 미리 설정된 깊이값 이하에만 적용하는 방식일 수 있고, 방식C는 미리 설정된 깊이값에만 적용하는 방식이 있을 수 있다.At this time, the variable (that is, size or depth information) that determines the coverage may be set such that the encoder and decoder use a predetermined value, or may use a predetermined value according to a profile or level, and the encoder may use a variable value If is written in the bitstream, the decoder may obtain and use this value from the bitstream. When the coverage is different according to the CU division depth, it is as illustrated in [Table 2]. Method A may be a method that applies only to a depth greater than or equal to a preset depth value, Method B may be a method that applies only to a predetermined depth value or less, and Method C may have a method that applies only to a preset depth value.

[표 2][Table 2]

Figure 112016018992976-pat00002
Figure 112016018992976-pat00002

[표 2]는 주어진 CU 분할 깊이가 2인 경우, 본 발명의 방법들을 적용하는 적용 범위 결정 방식의 예를 나타낸다. (O: 해당 깊이에 적용, X: 해당 깊이에 적용하지 않음.)[Table 2] shows an example of a method for determining an application range in which the methods of the present invention are applied when a given CU division depth is 2. (O: Applies to the depth, X: Does not apply to the depth.)

모든 깊이에 대하여 본 발명의 방법들을 적용하지 않는 경우는 임의의 지시자(flag)를 사용하여 비트스트림에 나타낼 수도 있고, CU 깊이의 최대값보다 하나 더 큰 값을 적용범위를 나타내는 CU 깊이 값으로 시그널링 함으로써 표현할 수도 있다. When the methods of the present invention are not applied to all depths, an arbitrary flag may be used to indicate the bitstream, and a value greater than the maximum value of the CU depth is signaled as a CU depth value indicating the coverage. It can also be expressed by

또한 상술한 각 방법들은 휘도 블록의 크기에 따라 색차 블록에 다르게 적용될 수 있으며, 휘도 신호영상 및 색차 영상에도 다르게 적용될 수 있다.In addition, each of the above-described methods may be differently applied to the color difference block according to the size of the luminance block, and may be differently applied to the luminance signal image and the color difference image.

[표 3]은 각 방법을 조합하는 경우, 휘도 블록의 크기 및 색차 블록에 따라 다르게 적용되는 예를 나타낸다.[Table 3] shows an example that is applied differently according to the size of the luminance block and the color difference block when each method is combined.

[표 3][Table 3]

Figure 112016018992976-pat00003
Figure 112016018992976-pat00003

[표 3]의 변형된 방법들 중에서 방법 사 1 을 살펴보면, 휘도블록의 크기가 8(8x8, 8x4, 2x8 등)인 경우이고, 그리고 색차 블록의 크기가 4(4x4, 4x2, 2x4)인 경우에 본 발명의 실시 예에 따른 머지 리스트 구성 방법을 휘도 신호 및 색차 신호에 적용할 수 있다.Looking at Method 4 among the modified methods in [Table 3], the luminance block size is 8 (8x8, 8x4, 2x8, etc.), and the color difference block size is 4 (4x4, 4x2, 2x4). The method of constructing a merge list according to an embodiment of the present invention can be applied to a luminance signal and a color difference signal.

위의 변형된 방법들 중에서 방법 파 2 을 살펴보면, 휘도블록의 크기가 16(16x16, 8x16, 4x16 등)인 경우이고, 그리고 색차 블록의 크기가 4(4x4, 4x2, 2x4)인 경우에 본 발명의 실시 예에 따른 머지 리스트 구성 방법을 휘도 신호에 적용하고 색차 신호에는 적용하지 않을 수 있다.Looking at method wave 2 among the above modified methods, the present invention is when the size of the luminance block is 16 (16x16, 8x16, 4x16, etc.), and the size of the color difference block is 4 (4x4, 4x2, 2x4). The method of constructing a merge list according to an embodiment may be applied to a luminance signal and not to a color difference signal.

또 다른 변형된 방법들로 휘도 신호에만 본 발명의 실시 예에 따른 머지 리스트 구성 방법이 적용되고 색차 신호에는 적용되지 않을 수 있다. 반대로 색차 신호에만 본 발명의 실시 예에 따른 머지 리스트 구성 방법이 적용되고 휘도 신호에는 적용되지 않을 수 있다.In another modified method, a merge list construction method according to an embodiment of the present invention is applied only to a luminance signal, and may not be applied to a color difference signal. Conversely, the merge list construction method according to an embodiment of the present invention is applied only to the color difference signal, and may not be applied to the luminance signal.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or combinations of hardware components and software components. For example, the devices and components described in the embodiments include, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors (micro signal processors), microcomputers, field programmable arrays (FPAs), It may be implemented using one or more general purpose computers or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. Further, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include. For example, the processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and/or data may be interpreted by a processing device, or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the signal wave being transmitted. The software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. Includes hardware devices specifically configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language code that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by a limited embodiment and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques are performed in a different order than the described method, and/or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, proper results can be achieved even if replaced or substituted by equivalents.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (20)

현재 최대 코딩 유닛(LCU: Largest Coding Unit)의 깊이 값 분포 정보를 추출하는 단계;
상기 깊이 값 분포 정보에 기초하여 상기 현재 LCU에 포함되는 CU가 단일 객체로 이루어지는 지를 확인하고, 상기 CU가 단일 객체로 이루어지는 지의 여부에 따라 상기 LCU의 분할 구조 후보들을 예측하는 단계; 및
상기 깊이 값 분포 정보에 기초하여 상기 CU의 객체 구조를 예측하고, 상기 CU의 객체 구조 예측에 기초하여 상기 LCU의 분할 구조 후보들 중 최적 분할 구조를 결정하는 단계
를 포함하는 깊이 정보를 이용한 영상 부호화 방법.
Extracting depth value distribution information of a current largest coding unit (LCU);
Determining whether a CU included in the current LCU consists of a single object based on the depth value distribution information and predicting split structure candidates of the LCU according to whether the CU consists of a single object; And
Predicting the object structure of the CU based on the depth value distribution information, and determining an optimal segmentation structure among candidates of the segmentation structure of the LCU based on the object structure prediction of the CU
Image encoding method using depth information comprising a.
제1항에 있어서,
상기 CU가 단일 객체로 이루어진 경우 상기 CU의 분할 구조 후보 예측을 종료하는 단계
를 포함하는 깊이 정보를 이용한 영상 부호화 방법.
According to claim 1,
When the CU consists of a single object, ending prediction of the partition structure candidate of the CU.
Image encoding method using depth information comprising a.
제2항에 있어서,
상기 CU가 단일 객체로 이루어지는 지 여부는,
상기 CU의 깊이 값 분포 정보에 포함된 최대값 및 최소값의 차가 기 설정된 값 이하이면, 상기 CU가 단일 객체로 이루어지는 것으로 판단하는
깊이 정보를 이용한 영상 부호화 방법.
According to claim 2,
Whether the CU consists of a single object,
If the difference between the maximum and minimum values included in the depth value distribution information of the CU is equal to or less than a preset value, it is determined that the CU is composed of a single object.
Image coding method using depth information.
제2항에 있어서,
상기 CU가 단일 객체로 이루어지는 지 여부는,
상기 CU의 네 모서리 깊이 값들 중 최대값 및 최소값의 차가 기 설정된 기준값 이하이면 상기 CU가 단일 객체로 이루어지는 것으로 판단하는
깊이 정보를 이용한 영상 부호화 방법.
According to claim 2,
Whether the CU consists of a single object,
If the difference between the maximum and minimum values of the four corner depth values of the CU is equal to or less than a preset reference value, it is determined that the CU is composed of a single object.
Image coding method using depth information.
현재 최대 코딩 유닛(LCU: Largest Coding Unit)의 깊이 값 분포 정보를 추출하는 단계;
상기 깊이 값 분포 정보에 기초하여 상기 LCU의 분할 구조 후보들을 예측하는 단계; 및
상기 깊이 값 분포 정보에 기초하여 상기 LCU에 포함되는 CU의 객체 구조를 예측하고, 상기 CU의 객체 구조 예측에 기초하여 상기 LCU의 분할 구조 후보들 중 최적 분할 구조를 결정하는 단계를 포함하고,
상기 LCU의 분할 구조 후보들을 예측하는 단계는,
상기 LCU에 포함되는 CU의 크기, 상기 CU의 깊이 값 분포 정보에 포함된 최대값 및 최소값의 차, 상기 CU의 부호화 모드가 스킵 모드인지 여부 중 적어도 하나를 고려하여 상기 CU의 분할 여부를 결정하는 과정을 포함하는
깊이 정보를 이용한 영상 부호화 방법.
Extracting depth value distribution information of a current largest coding unit (LCU);
Predicting split structure candidates of the LCU based on the depth value distribution information; And
And predicting an object structure of a CU included in the LCU based on the depth value distribution information, and determining an optimal segmentation structure among candidates of the segmentation structures of the LCU based on the object structure prediction of the CU,
Predicting the split structure candidates of the LCU,
Determining whether to divide the CU by considering at least one of a size of a CU included in the LCU, a difference between a maximum value and a minimum value included in the depth value distribution information of the CU, and whether the encoding mode of the CU is a skip mode Course containing
Image coding method using depth information.
현재 최대 코딩 유닛(LCU: Largest Coding Unit)의 깊이 값 분포 정보를 추출하는 단계;
상기 깊이 값 분포 정보에 기초하여 상기 LCU의 분할 구조 후보들을 예측하는 단계; 및
상기 깊이 값 분포 정보에 기초하여 상기 LCU에 포함되는 CU의 객체 구조를 예측하고, 상기 CU의 객체 구조 예측에 기초하여 상기 LCU의 분할 구조 후보들 중 최적 분할 구조를 결정하는 단계를 포함하고,
상기 LCU의 분할 구조 후보들을 예측하는 단계는,
상기 CU의 크기가 기 설정된 값 이상이고 상기 CU의 네 모서리 깊이 값들 중 최대값 및 최소값의 차가 기 설정된 기준값 이하이고 상기 CU가 스킵 모드로 부호화 되는 경우 상기 CU를 분할하지 않는 것으로 결정하는 과정을 포함하는
깊이 정보를 이용한 영상 부호화 방법.
Extracting depth value distribution information of a current largest coding unit (LCU);
Predicting split structure candidates of the LCU based on the depth value distribution information; And
And predicting an object structure of a CU included in the LCU based on the depth value distribution information, and determining an optimal segmentation structure among candidates of the segmentation structures of the LCU based on the object structure prediction of the CU,
Predicting the split structure candidates of the LCU,
And determining that the CU is not split when the size of the CU is greater than a preset value and the difference between the maximum and minimum values among the four corner depth values of the CU is less than or equal to a preset reference value and the CU is encoded in a skip mode. doing
Image coding method using depth information.
현재 최대 코딩 유닛(LCU: Largest Coding Unit)의 깊이 값 분포 정보를 추출하는 단계;
상기 깊이 값 분포 정보에 기초하여 상기 LCU의 분할 구조 후보들을 예측하는 단계; 및
상기 깊이 값 분포 정보에 기초하여 상기 LCU에 포함되는 CU의 객체 구조를 예측하고, 상기 CU의 객체 구조 예측에 기초하여 상기 LCU의 분할 구조 후보들 중 최적 분할 구조를 결정하는 단계를 포함하고,
상기 LCU의 분할 구조 후보들을 예측하는 단계는,
상기 CU의 크기가 기 설정된 값 보다 작고 상기 LCU 및 상기 CU 각각의 네 모서리 깊이 값이 모두 같은 값이고, 상기 CU의 참조 CU의 크기가 상기 기 설정된 값 이상이고 상기 참조 CU가 스킵 모드로 부호화 되는 경우 상기 CU를 분할하지 않는 것으로 결정하는 과정을 포함하는
깊이 정보를 이용한 영상 부호화 방법.
Extracting depth value distribution information of a current largest coding unit (LCU);
Predicting split structure candidates of the LCU based on the depth value distribution information; And
And predicting an object structure of a CU included in the LCU based on the depth value distribution information, and determining an optimal segmentation structure among candidates of the segmentation structures of the LCU based on the object structure prediction of the CU,
Predicting the split structure candidates of the LCU,
The size of the CU is smaller than a preset value, all four corner depth values of the LCU and the CU are the same value, the size of the reference CU of the CU is greater than the preset value, and the reference CU is encoded in a skip mode. And determining that the CU is not divided.
Image coding method using depth information.
제1항에 있어서,
상기 최적 분할 구조를 결정하는 단계는,
상기 CU의 객체 구조 예측에 기초하여 율 왜곡 비용 연산 중 일부를 생략하고 최적 분할 구조를 결정하는 것을 특징으로 하는
깊이 정보를 이용한 영상 부호화 방법.
According to claim 1,
Determining the optimal division structure,
Based on the object structure prediction of the CU, it is characterized in that a part of the rate distortion cost calculation is omitted and an optimal division structure is determined
Image coding method using depth information.
삭제delete 제8항에 있어서,
상기 최적 분할 구조를 결정하는 단계는,
상기 CU의 객체 구조가 단일객체로 이루어지는 것으로 예측되는 경우, 상기 CU의 비대칭 모션 분할(AMP: Asymmetric Motion Partition)에 대한 율 왜곡 연산을 생략하는 것을 특징으로 하는
깊이 정보를 이용한 영상 부호화 방법.
The method of claim 8,
Determining the optimal division structure,
When it is predicted that the object structure of the CU is composed of a single object, rate distortion calculation for asymmetric motion partition (AMP) of the CU is omitted.
Image coding method using depth information.
제8항에 있어서,
상기 최적 분할 구조를 결정하는 단계는,
상기 CU의 객체 구조가 상하로 나누어진 구조로 예측되는 경우, 상기 CU의 비대칭 모션 분할(AMP: Asymmetric Motion Partition)에 대한 율 왜곡 연산 들 중 좌우 분할과 관련된 연산을 생략하는 것을 특징으로 하는
깊이 정보를 이용한 영상 부호화 방법.
The method of claim 8,
Determining the optimal division structure,
When the object structure of the CU is predicted to be a structure divided up and down, the operation related to the left and right division among the rate distortion operations for the asymmetric motion partition (AMP) of the CU is omitted.
Image coding method using depth information.
제8항에 있어서,
상기 최적 분할 구조를 결정하는 단계는,
상기 CU의 객체 구조가 좌우로 나누어진 구조로 예측되는 경우, 상기 CU의 비대칭 모션 분할(AMP: Asymmetric Motion Partition)에 대한 율 왜곡 연산 들 중 상하 분할과 관련된 연산을 생략하는 것을 특징으로 하는
깊이 정보를 이용한 영상 부호화 방법.
The method of claim 8,
Determining the optimal division structure,
When the object structure of the CU is predicted to be divided into left and right structures, among the rate distortion operations for the asymmetric motion partition (AMP) of the CU, the operation related to the upper and lower partitions is omitted.
Image coding method using depth information.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 깊이 영상으로부터 현재 최대 코딩 유닛(LCU: Largest Coding Unit)의 깊이 값 분포 정보를 추출하는 깊이값 추출부;
상기 깊이 값 분포 정보에 기초하여 상기 현재 LCU에 포함되는 CU가 단일 객체로 이루어지는 지를 확인하고, 상기 CU가 단일 객체로 이루어지는 지의 여부에 따라 상기 LCU의 분할 구조 후보들을 예측하는 분할구조 예측부; 및
상기 깊이 값 분포 정보에 기초하여 상기 CU의 객체 구조를 예측하고, 상기 CU의 객체 구조 예측에 기초하여 상기 LCU의 분할 구조 후보들 중 최적 분할 구조를 결정하는 최적 분할구조 결정부
를 포함하는 깊이 정보를 이용한 영상 부호화 장치.
A depth value extraction unit for extracting depth value distribution information of a current largest coding unit (LCU) from the depth image;
A split structure prediction unit that checks whether a CU included in the current LCU consists of a single object based on the depth value distribution information, and predicts split structure candidates of the LCU according to whether the CU consists of a single object; And
An optimal partitioning structure determination unit that predicts an object structure of the CU based on the depth value distribution information and determines an optimal partitioning structure among candidates of partitioning structures of the LCU based on the object structure prediction of the CU
Video encoding apparatus using depth information including.
제18항에 있어서,
상기 최적 분할구조 결정부는,
상기 CU의 객체 구조 예측에 기초하여 율 왜곡 비용 연산 중 일부를 생략하고 상기 LCU의 분할 구조 후보들 중 최적 분할 구조를 결정하는
를 포함하는 깊이 정보를 이용한 영상 부호화 장치.
The method of claim 18,
The optimal division structure determining unit,
Based on the object structure prediction of the CU, omitting some of the rate distortion cost calculation and determining an optimal partitioning structure among the partitioning structure candidates of the LCU
Video encoding apparatus using depth information including.
제19항에 있어서,
상기 최적 분할구조 결정부는,
상기 CU의 객체 구조가 단일객체로 이루어지는 것으로 예측되는 경우, 상기 CU의 비대칭 모션 분할(AMP: Asymmetric Motion Partition)에 대한 율 왜곡 연산을 생략하는 것을 특징으로 하는
깊이 정보를 이용한 영상 부호화 장치.
The method of claim 19,
The optimal division structure determining unit,
When it is predicted that the object structure of the CU is composed of a single object, rate distortion calculation for asymmetric motion partition (AMP) of the CU is omitted.
Image encoding device using depth information.
KR1020160023072A 2014-03-28 2016-02-26 Method and apparatus for encoding of video using depth image KR102129271B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140037276 2014-03-28
KR20140037276 2014-03-28

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020140059064A Division KR101603413B1 (en) 2014-03-28 2014-05-16 Method and apparatus for encoding of video using depth image

Publications (2)

Publication Number Publication Date
KR20160030146A KR20160030146A (en) 2016-03-16
KR102129271B1 true KR102129271B1 (en) 2020-07-02

Family

ID=54347087

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020140059064A KR101603413B1 (en) 2014-03-28 2014-05-16 Method and apparatus for encoding of video using depth image
KR1020160023072A KR102129271B1 (en) 2014-03-28 2016-02-26 Method and apparatus for encoding of video using depth image

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020140059064A KR101603413B1 (en) 2014-03-28 2014-05-16 Method and apparatus for encoding of video using depth image

Country Status (2)

Country Link
KR (2) KR101603413B1 (en)
CN (1) CN106165425B (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101603413B1 (en) * 2014-03-28 2016-03-28 경희대학교 산학협력단 Method and apparatus for encoding of video using depth image
US10904581B2 (en) 2016-11-08 2021-01-26 Kt Corporation Method and apparatus for processing video signal
KR102163007B1 (en) * 2018-08-23 2020-10-07 인하대학교 산학협력단 Method and Apparatus for Adjusted Prediction Mode Decision Scheme to Speed Up of Low Contrast Video Encoding

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101603413B1 (en) * 2014-03-28 2016-03-28 경희대학교 산학협력단 Method and apparatus for encoding of video using depth image

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101768207B1 (en) * 2010-01-19 2017-08-16 삼성전자주식회사 Method and apparatus for encoding/decoding motion vector based on reduced motion vector predictor candidates
KR102063285B1 (en) 2011-06-10 2020-01-08 경희대학교 산학협력단 Methods of spliting block and apparatuses for using the same
US20130039417A1 (en) 2011-08-08 2013-02-14 General Instrument Corporation Residual tree structure of transform unit partitioning
JP2013085096A (en) * 2011-10-07 2013-05-09 Sony Corp Image processing device and method
KR102039039B1 (en) * 2012-06-28 2019-10-31 연세대학교 산학협력단 Method and Apparatus for image encoding
KR20140048783A (en) 2012-10-09 2014-04-24 한국전자통신연구원 Method and apparatus for deriving motion information by sharing depth information value
CN104202612B (en) * 2014-04-15 2018-11-02 清华大学深圳研究生院 The division methods and method for video coding of coding unit based on quaternary tree constraint

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101603413B1 (en) * 2014-03-28 2016-03-28 경희대학교 산학협력단 Method and apparatus for encoding of video using depth image

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
T-W. Kim. Thesis for the Degree of Master. Fast encoding algorithm using Depth Information of Depth map for High efficiency video coding. Kyung Hee Univ. Feb. 2014, pp.1-55*
배동인. 깊이 정보를 이용한 HEVC의 인코더 고속화 방법. 경희대학교 석사학위논문. 2013년 2월. pp.1-59

Also Published As

Publication number Publication date
KR101603413B1 (en) 2016-03-28
KR20150114356A (en) 2015-10-12
CN106165425B (en) 2019-03-19
KR20160030146A (en) 2016-03-16
CN106165425A (en) 2016-11-23

Similar Documents

Publication Publication Date Title
US10674179B2 (en) Method and apparatus for encoding of video using depth information
CN108353165B (en) Method and apparatus for encoding/decoding image using geometrically modified picture
KR102576194B1 (en) Method for processing image on basis of inter-prediction mode and device therefor
KR102658929B1 (en) Method for processing image on basis of inter-prediction mode and apparatus therefor
US20200228831A1 (en) Intra prediction mode based image processing method, and apparatus therefor
KR102445899B1 (en) Video coding method and apparatus using sub-block level intra prediction
US20220078483A1 (en) Method and device for processing video signal by using intra-prediction
KR102129273B1 (en) Method and apparatus for encoding of 2demensional video using depth image
WO2019194502A1 (en) Inter prediction mode based image processing method and apparatus therefor
KR102129271B1 (en) Method and apparatus for encoding of video using depth image
CN111903123A (en) Image processing method based on inter prediction mode and apparatus therefor
CN112567749A (en) Method and apparatus for processing video signal using affine motion prediction
US10021391B2 (en) Method and apparatus for encoding of video using depth information
US10051287B2 (en) Method and apparatus for encoding of video using depth information
KR101603412B1 (en) Method and apparatus for encoding of video using depth image
RU2795696C2 (en) Image encoding transformation based on internal prediction
RU2781079C1 (en) Transformation when encoding images based on internal prediction
RU2792223C1 (en) Information coding regarding a set of transformation kernels
CN113273210B (en) Method and apparatus for compiling information about consolidated data
KR20140124432A (en) A method of encoding and decoding depth information map and an apparatus using it
KR20140124043A (en) A method of determining structure for separating prediction unit and an apparatus using it

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right