KR101603414B1 - Method and apparatus for encoding of 2demensional video using depth image - Google Patents

Method and apparatus for encoding of 2demensional video using depth image Download PDF

Info

Publication number
KR101603414B1
KR101603414B1 KR1020140059065A KR20140059065A KR101603414B1 KR 101603414 B1 KR101603414 B1 KR 101603414B1 KR 1020140059065 A KR1020140059065 A KR 1020140059065A KR 20140059065 A KR20140059065 A KR 20140059065A KR 101603414 B1 KR101603414 B1 KR 101603414B1
Authority
KR
South Korea
Prior art keywords
current
depth
motion
motion search
value
Prior art date
Application number
KR1020140059065A
Other languages
Korean (ko)
Other versions
KR20150114357A (en
Inventor
박광훈
김태욱
이윤진
Original Assignee
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경희대학교 산학협력단 filed Critical 경희대학교 산학협력단
Priority to US14/631,419 priority Critical patent/US9769498B2/en
Priority to CN201580017311.1A priority patent/CN106134198B/en
Priority to CN201910116808.9A priority patent/CN109714601B/en
Priority to PCT/KR2015/002854 priority patent/WO2015147514A1/en
Publication of KR20150114357A publication Critical patent/KR20150114357A/en
Application granted granted Critical
Publication of KR101603414B1 publication Critical patent/KR101603414B1/en
Priority to US15/679,326 priority patent/US10051287B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Abstract

깊이정보를 이용한 비디오 부호화 장치 및 그 방법을 개시한다. 일 실시예에 따른 깊이 정보를 이용한 영상 부호화 방법은, 현재 코딩 유닛(CU: Coding Unit)의 객체 정보에 기초하여, 상기 현재 CU의 움직임 벡터 계산을 위한 전체 움직임 탐색 영역에서 움직임 탐색 범위를 결정하는 단계; 및 상기 움직임 탐색 범위 내의 움직임 정보에 기초하여 상기 현재 CU의 최적 움직임 벡터를 결정하는 단계를 포함한다.A video encoding apparatus using depth information and a method thereof are disclosed. According to an exemplary embodiment of the present invention, a method of coding an image using depth information includes: determining a motion search range in an entire motion search area for motion vector calculation of the current CU based on object information of a current coding unit (CU) step; And determining an optimal motion vector of the current CU based on motion information within the motion search range.

Description

깊이 정보를 이용한 비디오 부호화 장치 및 그 방법{METHOD AND APPARATUS FOR ENCODING OF 2DEMENSIONAL VIDEO USING DEPTH IMAGE}Technical Field [0001] The present invention relates to a video encoding apparatus and a video encoding apparatus using depth information,

본 발명은 깊이 정보를 이용한 비디오 부호화에 관한 것으로, 깊이 정보를 이용하여 객체 정보를 유도하고 영상을 효율적으로 부호화하는 방법 및 장치에 관한 것이다.The present invention relates to video encoding using depth information, and more particularly, to a method and apparatus for efficiently encoding an image by deriving object information using depth information.

깊이 정보 영상은 3차원 비디오 부호화에서 널리 활용되고 있으며, Xbox 게임기에서의 키넥트(Kinect) 카메라, 인텔 SENZ3D 웹캠, IPad에서의 iSense 3D 스캐너, 구글 Tango 스마트폰 등과 같은 새로운 입력장치들에 구비된 깊이 정보 카메라는 여러 다양한 3D 및 2D 응용 어플리케이션에서 활용될 수 있다.Depth information images are widely used in 3D video encoding and have depths in new input devices such as Kinect cameras on Xbox game machines, Intel SENZ3D webcams, iSense 3D scanners on IPad, Google Tango smartphones, Information cameras can be used in many different 3D and 2D application applications.

한편, 깊이 정보 카메라의 대중화 및 보급으로 2D/3D 응용 어플리케이션은 더욱 다양한 2D/3D 응용 서비스를 통해 대중화가 진행 중에 있으며, 그에 따라 향후 멀티미디어 카메라 시스템에 깊이 정보 카메라가 포함되어 다양한 정보의 활용이 가능하다.On the other hand, 2D / 3D application applications are popularized with more 2D / 3D application services due to popularization and diffusion of depth information cameras, so that multimedia camera systems can be used for various information including depth camera. Do.

미국공개특허 제20140085416호(발명의 명칭: Method and apparatus of texture image compress in 3d video coding)US Patent Publication No. 20140085416 entitled " Method and apparatus for compressing texture image in 3d video coding " 한국공개특허 제2012-0137305호(발명의 명칭: 블록 분할 방법 및 이러한 방법을 사용하는 장치)Korean Patent Publication No. 2012-0137305 (entitled " Method for dividing a block and apparatus using such a method) 한국공개특허 제2014-0048784호(발명의 명칭: 제한적 깊이정보값을 공유하여 움직임 정보를 유도하는 방법 및 장치)Korean Patent Publication No. 2014-0048784 entitled " Method and Apparatus for Deriving Motion Information by Sharing Limited Depth Information Value "

본 발명의 목적은 2차원 비디오 부호화시 깊이 정보를 이용함으로써 성능 열화가 없고 효율적인 부호화가 가능한 영상 부호화 방법 및 장치를 제공하는 것이다.An object of the present invention is to provide an image encoding method and apparatus capable of efficient encoding without deterioration in performance by using depth information in two-dimensional video encoding.

일 실시예에 따른 깊이 정보를 이용한 영상 부호화 방법은, 현재 코딩 유닛(CU: Coding Unit)의 객체 정보에 기초하여, 상기 현재 CU의 움직임 벡터 계산을 위한 전체 움직임 탐색 영역에서 움직임 탐색 범위를 결정하는 단계; 및 상기 움직임 탐색 범위 내의 움직임 정보에 기초하여 상기 현재 CU의 최적 움직임 벡터를 결정하는 단계를 포함한다. According to an exemplary embodiment of the present invention, a method of coding an image using depth information includes: determining a motion search range in an entire motion search area for motion vector calculation of the current CU based on object information of a current coding unit (CU) step; And determining an optimal motion vector of the current CU based on motion information within the motion search range.

다른 일 실시예에 따른 깊이 정보를 이용한 영상 부호화 방법은, 현재 코딩 유닛(CU: Coding Unit)의 움직임 벡터 계산을 위한 전체 움직임 탐색 영역을 확인하는 단계; 깊이 영상으로부터 추출되는 상기 현재 CU의 깊이 정보에 따라 현재 움직임 탐색 위치에서의 움직임 탐색 여부를 결정하는 단계; 및 결정된 움직임 탐색 여부를 고려하여 상기 현재 CU의 최적 움직임 벡터를 결정하는 단계를 포함한다. According to another embodiment of the present invention, there is provided a method of encoding an image using depth information, comprising: identifying an entire motion search area for motion vector calculation of a current coding unit (CU); Determining whether or not to search for a motion at the current motion search position according to the depth information of the current CU extracted from the depth image; And determining an optimal motion vector of the current CU considering a determined motion search.

일 실시예에 따른 깊이 정보를 이용한 영상 부호화 장치는, 현재 코딩 유닛(CU: Coding Unit)의 객체 정보에 기초하여, 상기 현재 CU의 움직임 벡터 계산을 위한 전체 움직임 탐색 영역에서 움직임 탐색 범위를 결정하는 움직임 탐색 범위 결정부; 및 상기 움직임 탐색 범위 내의 움직임 정보에 기초하여 상기 현재 CU의 최적 움직임 벡터를 결정 움직임 벡터 결정부를 포함한다.The apparatus for coding an image using depth information according to an embodiment determines a motion search range in an entire motion search area for motion vector calculation of the current CU based on object information of a current coding unit (CU) A motion search range determination unit; And a motion vector determination unit for determining an optimal motion vector of the current CU based on motion information within the motion search range.

다른 일 실시예에 따른 깊이 정보를 이용한 영상 부호화 장치는, 현재 코딩 유닛(CU: Coding Unit)의 움직임 벡터 계산을 위한 전체 움직임 탐색 영역을 확인하고, 깊이 영상으로부터 추출되는 상기 현재 CU의 깊이 정보에 따라 현재 움직임 탐색 위치에서의 움직임 탐색 여부를 결정하는 움직임 탐색 여부 결정부; 및 상기 움직임 탐색 범위 내의 움직임 정보에 기초하여 상기 현재 CU의 최적 움직임 벡터를 결정하는 움직임 벡터 결정부를 포함한다.  The apparatus for encoding an image using depth information according to another embodiment confirms the entire motion search area for motion vector calculation of a current coding unit (CU) and stores the depth information of the current CU extracted from the depth image A motion search determination unit for determining whether or not to search for a motion in the current motion search position; And a motion vector determination unit for determining an optimal motion vector of the current CU based on motion information within the motion search range.

본 발명의 실시예에 따르면, 깊이 정보 카메라에서 획득한 깊이 정보 영상을 이용해 2차원 일반 영상을 부호화함으로써, 2D 영상에 대한 효율적인 부호화를 수행할 수 있다.According to an embodiment of the present invention, a 2D general image is encoded using a depth information image acquired from a depth information camera, thereby efficiently encoding 2D images.

도 1은 일반 영상 및 일반 영상의 깊이 정보 맵에 대한 예시도이다.
도 2는 키넥트 입력 장치의 예시도이다.
도 3은 웹캠 제품을 나타낸다.
도 4는 iSense 3D 스캐너 장치를 나타낸다.
도 5는 구글 Tango 스마트폰을 나타낸다.
도 6은 HEVC 부호화 장치를 설명하기 위한 도면이다.
도 7은 스마트 폰에서 HEVC 인코더가 적용된 영상 부호화의 예를 설명하기 위한 도면이다.
도 8은 스마트 폰에서 깊이 영상이 포함된 HEVC의 예를 설명하기 위한 도면이다.
도 9는 영상의 복수의 유닛들로 분할하는 예들을 나타낸다.
도 10은 종래 기술에 따른 참조 블록으로부터 현재 블록의 움직임 정보를 구하는 방법의 예를 나타낸다.
도 11은 종래 기술에 따른 움직임 벡터를 구하는 방법의 예를 나타낸다.
도 12는 깊이 영상의 예들을 나타낸다.
도 13은 본 발명의 일 실시예에 따른 움직임 벡터 결정 방법을 설명하기 위한 흐름도이다.
도 14는 본 발명의 다른 일 실시예에 따른 움직임 벡터 결정 방법을 설명하기 위한 흐름도이다.
도 15는 본 발명의 일 실시예에 따른 움직임 탐색 방법의 예를 설명하기 위한 도면이다.
도 16은 본 발명의 일 실시예에 따른 깊이 정보를 이용한 움직임 탐색 방법의 예를 설명하기 위한 도면이다.
도 17은 본 발명의 일 실시예에 따른 영상 부호화 장치의 구성을 설명하기 위한 도면이다.
도 18은 CU의 깊이 값 분포 예들을 나타내는 도면이다.
1 is an exemplary view of a depth information map of a general image and a general image.
Figure 2 is an illustration of a Kinect input device.
Figure 3 shows a webcam product.
Figure 4 shows an iSense 3D scanner device.
Figure 5 shows a Google Tango smartphone.
6 is a diagram for explaining an HEVC encoding apparatus.
7 is a diagram for explaining an example of image encoding using a HEVC encoder in a smartphone.
8 is a view for explaining an example of an HEVC including a depth image in a smartphone.
Fig. 9 shows examples of dividing into a plurality of units of an image.
10 shows an example of a method for obtaining motion information of a current block from a reference block according to the related art.
Fig. 11 shows an example of a method of obtaining a motion vector according to the prior art.
Figure 12 shows examples of depth images.
13 is a flowchart illustrating a motion vector determination method according to an embodiment of the present invention.
14 is a flowchart illustrating a motion vector determination method according to another embodiment of the present invention.
15 is a diagram for explaining an example of a motion search method according to an embodiment of the present invention.
16 is a view for explaining an example of a motion search method using depth information according to an embodiment of the present invention.
17 is a diagram for explaining a configuration of an image encoding apparatus according to an embodiment of the present invention.
18 is a diagram showing examples of depth value distribution of CU.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the invention. Thus, those skilled in the art will be able to devise various apparatuses which, although not explicitly described or shown herein, embody the principles of the invention and are included in the concept and scope of the invention. Furthermore, all of the conditional terms and embodiments listed herein are, in principle, intended only for the purpose of enabling understanding of the concepts of the present invention, and are not intended to be limiting in any way to the specifically listed embodiments and conditions .

예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.For example, it should be understood that the block diagrams herein represent conceptual aspects of exemplary circuits embodying the principles of the invention. Similarly, all flowcharts, state transition diagrams, pseudo code, and the like are representative of various processes that may be substantially represented on a computer-readable medium and executed by a computer or processor, whether or not the computer or processor is explicitly shown .

이하, 첨부된 도면을 참조하여 본 발명에 따른 실시예들을 상세히 설명하기로 한다.
Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 일반 영상 및 일반 영상의 깊이 정보 맵에 대한 예시도이다. 도 2는 키넥트 입력 장치의 예시도이다. 1 is an exemplary view of a depth information map of a general image and a general image. Figure 2 is an illustration of a Kinect input device.

도 1을 참조하면, 도 1의 (A)는 카메라를 통해 실제 촬영한 영상이고, (B)는 실제 영상에 대한 깊이 영상, 즉 깊이 정보 영상(또는 깊이 정보 맵)을 나타낸다. 깊이 정보(Depth Information)는 카메라와 실제 사물간의 거리를 나타내는 정보를 의미한다. Referring to FIG. 1, FIG. 1 (A) shows an image actually photographed through a camera, and FIG. 1 (B) shows a depth image of a real image, that is, a depth information image (or a depth information map). Depth Information means information indicating the distance between a camera and an actual object.

이러한 깊이 정보 영상은 주로 3차원 가상 시점 영상을 생성하는데 활용되며, 실제 이와 관련된 연구로 ISO/IEC의 MPEG(Moving Picture Experts Group)과 ITU-T의 VCEG(Video Coding Experts Group)의 공동 표준화 그룹인 JCT-3V(The Joint Collaborative Team on 3D Video Coding Extension Development)에서 3차원 비디오 표준화가 현재 진행 중에 있다. This depth information image is mainly used to generate three-dimensional virtual viewpoint images. As a result of this study, a joint standardization group of ISO / IEC Moving Picture Experts Group (MPEG) and ITU-T VCEG (Video Coding Experts Group) 3D video standardization is currently underway in JCT-3V (Joint Collaborative Team on 3D Video Coding Extension Development).

3차원 비디오 표준은 일반 영상과 그것의 깊이 정보 영상을 이용하여 스테레오스코픽 영상뿐만 아니라 오토스테레오스코픽 영상의 재생등을 지원할 수 있는 진보된 데이터 형식과 그에 관련된 기술에 대한 표준을 포함하고 있다.The 3D video standard includes standards for advanced data formats and related technologies that can support stereoscopic images as well as stereoscopic images using general images and their depth information images.

2010년 11월 마이크로소프트는 XBOX-360 게임 디바이스의 새로운 입력장치로 키넥트(Kinect) 센서를 출시하였는데, 이 장치는 사람의 동작을 인지하여 컴퓨터 시스템에 연결하는 장치로 도 2에서 보듯 RGB 카메라뿐 아니라 3D Depth 센서를 포함하여 이루어져 있다. 또한, 키넥트는 영상 장치로도 RGB 영상 및 최대 640x480 깊이 정보 맵(Depth Map)을 생성해 연결된 컴퓨터에 제공할 수 있다. 이외에도 2014년 인텔은 노트북용으로 320x240 Depth 센서가 장착된 720p CREATIVE SENZ3D 웹캠을 발표하였고, 애플은 RGB 카메라와 Depth 센서를 이용한 iPad 용 3D 스캐너로 iSense를 출시하였고, 구글은 Depth 센서가 장착된 Tango 스마트폰을 발표하였다.In November 2010, Microsoft released Kinect sensor as a new input device for XBOX-360 game devices. It is a device that recognizes human motion and connects it to a computer system. As shown in Figure 2, But also includes a 3D Depth sensor. In addition, the Kincet can generate RGB images and depth information maps (Depth Map) up to 640x480 with the image device and provide them to the connected computer. In 2014, Intel announced a 720p CREATIVE SENZ3D webcam with a 320x240 depth sensor for laptops. Apple released iSense as a 3D scanner for iPad with RGB camera and Depth sensor, and Google launched Tango Smart Phone.

도 3은 웹캠 제품을 나타낸다. Figure 3 shows a webcam product.

도 3을 참조하면, CREATIVE SENZ3D 웹캠을 나타내고 있으며, 도 3의 (A)는 SENZ3D 웹캠제품을 나타내고, (B)는 SENZ3D 웹캠 프로토타입을 나타낸다. Referring to FIG. 3, a CREATIVE SENZ3D webcam is shown, wherein FIG. 3A shows a SENZ3D webcam product and FIG. 3B shows a SENZ3D webcam prototype.

도 4는 iSense 3D 스캐너 장치를 나타내고, 도 5는 구글 Tango 스마트폰을 나타낸다. Figure 4 shows an iSense 3D scanner device, and Figure 5 shows a Google Tango smartphone.

도 4의 (A)는 iSense 제품을 나타내고, (B)는 iSense를 통한 스캐닝 처리의 예를 나타낸다. 도 5의 (A)는 구글 Tango 스마트폰 제품을 나타내고, (B)는 구글 Tango 스마트폰 프로토타입을 나타낸다. 4 (A) shows an iSense product, and (B) shows an example of a scanning process through iSense. FIG. 5A shows a Google Tango smartphone product, and FIG. 5B shows a Google Tango smartphone prototype.

키넥트, iSense 3D 스캐너, 인텔 SENZ3D 웹캠과 같은 영상 장비 및 구글 Tango 스마트폰의 출현은 고가의 2차원 및 3차원 게임이나 영상 서비스와 같은 다양한 응용 어플리케이션을 대중적으로 즐길 수 있게 되는 계기가 되었으며, 깊이 정보 카메라 또는 센서가 부착된 비디오 장치가 대중화가 되고 있음을 보여주고 있다.The advent of visual devices such as Kinect, iSense 3D Scanner, Intel SENZ3D webcam, and Google Tango smartphone has made it possible to popularize a variety of applications such as high-end 2D and 3D games and video services, An information camera or a video device with a sensor is being popularized.

이처럼 앞으로의 비디오 시스템이 2차원 일반 영상을 위한 서비스뿐 만 아니라 일반 영상 카메라에 Depth 카메라가 결합되어 2차원과 3차원 응용 영상 서비스가 기본적으로 제공되는 형태 또는 핸드헬드(handheld) 시스템에서의 입력 보조장치의 형태로 발전할 것으로 예상된다.As such, the future video system is not only a service for two-dimensional general video, but also a type in which a two-dimensional and three-dimensional application video service is basically provided by combining a general video camera with a depth camera, or an input assistance in a handheld system It is expected to develop in the form of devices.

일반 카메라와 Depth 카메라가 기본적으로 결합된 비디오 시스템은 3차원 비디오 코덱에서 깊이 정보를 이용하는 것뿐 아니라, 2차원 비디오 코덱에서도 깊이 정보를 이용하는 새로운 방법이라 할 수 있겠다. A video system in which a general camera and a depth camera are fundamentally combined is a new method of using depth information in a two-dimensional video codec as well as using depth information in a three-dimensional video codec.

또한, 깊이 정보 카메라가 포함된 카메라 시스템에서 일반 영상의 부호화는 기존 비디오 코덱을 그대로 사용하여 부호화될 수 있다. 여기서 기존의 비디오 코덱의 일예로, MPEG-1, MPEG-2, MPEG-4, H.261, H.262, H.263, H.264/AVC, MVC, SVC, HEVC, SHVC, 3D-AVC, 3D-HEVC, VC-1, VC-2, VC-3 등으로 부호화 될 수 있으며, 그외 다양한 코덱으로 부호화될 수 있다.
Also, in a camera system including a depth information camera, general image encoding can be performed using the existing video codec as it is. AVC, MVC, SVC, HEVC, SHVC, 3D-AVC, MPEG-2, MPEG-4, H.261, H.262, H.263, H.264 / AVC, , 3D-HEVC, VC-1, VC-2, VC-3, and the like, and can be encoded with various other codecs.

도 6은 HEVC 부호화 장치를 설명하기 위한 도면이다. 6 is a diagram for explaining an HEVC encoding apparatus.

실제 영상과 그것의 깊이 정보 맵을 부호화하는 방법의 일예로, 현재까지 개발된 비디오 부호화 표준 중에서 최고의 부호화 효율을 가지는 MPEG(Moving Picture Experts Group)과 VCEG(Video Coding Experts Group)에서 공동으로 표준화를 완료한 HEVC(High Efficiency Video Coding)를 이용하여 부호화를 수행할 수 있다. HEVC의 부호화 구조도의 일 예는 도 6과 같다. 도 6에서와 같이 HEVC에는 부호화 단위 및 구조, 화면 간(Inter) 예측, 화면 내(Intra) 예측, 보간(Interpolation), 필터링(filtering), 변환(Transform) 방법 등 다양한 새로운 알고리즘들을 포함하고 있다. 도 6은 영상 부호화 장치의 구성에 대한 일 예를 블록도로 도시한 것으로, HEVC 코덱에 따른 부호화 장치의 구성을 나타낸 것이다.As an example of a method of encoding an actual image and its depth information map, the Moving Picture Experts Group (MPEG) and the Video Coding Experts Group (VCEG), which have the highest coding efficiency among the video coding standards developed so far, Encoding can be performed using one HEVC (High Efficiency Video Coding). An example of a coding structure of HEVC is shown in Fig. As shown in FIG. 6, the HEVC includes various new algorithms such as coding unit and structure, inter prediction, intra prediction, interpolation, filtering, and transform. 6 is a block diagram showing an example of the configuration of the image encoding apparatus, and shows the configuration of an encoding apparatus according to the HEVC codec.

이때, 도 6의 필터부와 참조영상 버퍼 사이에는 SAO(Sample Adaptive Offset)이 구비될 수 있다. SAO는 코딩 에러를 보상하기 위해 화소값에 적정 오프셋(offset) 값을 더해줄 수 있다.At this time, SAO (Sample Adaptive Offset) may be provided between the filter unit of FIG. 6 and the reference image buffer. The SAO may add a proper offset value to the pixel value to compensate for coding errors.

HEVC는 인터 예측 부호화, 즉 화면 간 예측 부호화를 수행하므로, 현재 부호화된 영상은 참조 영상으로 사용되기 위해 복호화되어 저장될 필요가 있다. 따라서 양자화된 계수는 역양자화부에서 역양자화되고 역변환부에서 역변환된다. 역양자화, 역변환된 계수는 가산기(175)를 통해 예측 블록과 더해지고 복원 블록이 생성된다. 필터부를 거친 복원 블록은 참조 영상 버퍼에 저장된다.
Since the HEVC performs inter prediction coding, i.e., inter prediction coding, the currently encoded image needs to be decoded and stored for use as a reference image. Accordingly, the quantized coefficients are inversely quantized in the inverse quantization unit and inversely transformed in the inverse transformation unit. The inverse quantized and inverse transformed coefficients are added to the prediction block through the adder 175 and a reconstruction block is generated. The reconstruction block that has passed through the filter section is stored in the reference image buffer.

도 7은 스마트 폰에서 HEVC 인코더가 적용된 영상 부호화의 예를 설명하기 위한 도면이다. 도 8은 스마트 폰에서 깊이 영상이 포함된 HEVC의 예를 설명하기 위한 도면이다.7 is a diagram for explaining an example of image encoding using a HEVC encoder in a smartphone. 8 is a view for explaining an example of an HEVC including a depth image in a smartphone.

도 7을 참조하면, HEVC 인코더가 적용된 스마트폰에서의 일반적인 형태는, 스마트폰을 통해 촬영된 영상을 HEVC 인코더를 이용해 부호화 하고, 부호화 된 영상을 가지고 서비스를 제공 받는 형태일 수 있다. Referring to FIG. 7, a general form in a smartphone to which an HEVC encoder is applied may be a form in which an image photographed through a smartphone is encoded using an HEVC encoder, and a service is provided with a coded image.

하지만 Depth 카메라가 포함된 스마트폰을 통해 영상을 촬영한다면 도 8과 같이 일반 영상(Texture)과 깊이 영상(Depth)이 독립적으로 생산되고, 깊이 정보를 이용하여 일반 영상과의 상관성을 이용하여 최적화를 통한 HEVC 인코더를 통해서 복잡도 감소를 통해 더욱 향상된 부호화 영상을 얻을 수 있다.However, if an image is captured through a smart phone including a Depth camera, the texture and the depth are independently generated as shown in FIG. 8, and the optimization is performed using the correlation with the general image using the depth information Through the HEVC encoder through the reduction of the complexity can get better images.

종래기술 특허문헌 1인 미국공개특허 제20140085416호는 깊이 맵(Depth map)으로부터 현재 블록의 객체에 대한 정보를 확인하여 블록을 병합(merge)하는 구성을 개시하고 있으나, 깊이 정보를 이용하여 어떻게 현재 CU의 움직임 벡터를 구할 것인가에 대해서는 전혀 개시하지 못하고 있다. US Patent Publication No. 20140085416 of Patent Document 1 discloses a structure for merging blocks by checking information about an object of a current block from a depth map. However, It is impossible to start the motion vector of the CU at all.

또한, 종래기술 특허문헌 2인 한국공개특허 제2012-0137305호 및 특허문헌 3인 한국공개특허 제2014-0048784호는 깊이 정보를 이용하는 내용을 개시하지 못하거나 CU의 분할 구조를 예측할 때 움직임 벡터를 구하기 위한 연산량을 줄이기 위한 구성을 명확하게 제시하지 못하고 있다.
Korean Patent Laid-Open Publication No. 2012-0137305 and Patent Laid-Open Publication No. 2014-0048784 disclose a method of extracting a motion vector when the contents using the depth information can not be disclosed or when the division structure of the CU is predicted It is not clear how to reduce the computational complexity.

도 9는 영상의 복수의 유닛들로 분할하는 예들을 나타낸다. Fig. 9 shows examples of dividing into a plurality of units of an image.

고효율 비디오 코딩 방식은 부호화를 수행할 때 영상을 코딩 유닛(CU: Coding Unit, 이하 'CU')의 기본 단위인 LCU(LCU: Largest Coding Unit) 단위로 나누어 부호화를 수행한다.The high-efficiency video coding scheme performs coding by dividing an image into LCU (LCU: Largest Coding Unit) units, which is a basic unit of a coding unit (CU) when performing coding.

여기서, CU는 기존의 비디오 코덱인 H.264/AVC에서의 기본 블록인 매크로블록(MB: Macro Block, 이하 'MB')과 유사한 역할을 하지만, 16x16의 고정 크기를 갖는 MB와 달리 CU는 가변적으로 크기를 정할 수 있다. 또한 부호화를 위해 분할된 LCU는 영상의 효율적인 부호화를 위해 다시 LCU 보다 작은 크기를 갖는 여러 CU로 분할될 수 있다.Here, the CU plays a role similar to a macro block (MB), which is a basic block in H.264 / AVC, which is a conventional video codec, but unlike an MB having a fixed size of 16x16, You can set the size to. In addition, the divided LCU for encoding can be divided into several CUs having a smaller size than the LCU for efficient encoding of the image.

도 9를 참조하면, 64x64 크기의 LCU는 다양한 방식으로 복수의 CU들로 분할될 수 있다. Referring to FIG. 9, a 64x64 LCU may be divided into a plurality of CUs in various manners.

도 9의 (A)는 분할 깊이 값이 0인 64x64 크기의 LCU를 분할 깊이 1인 32x32 크기의 CU들로 분할한 예를 나타낸다.9A shows an example in which a 64x64 LCU having a division depth value of 0 is divided into 32x32 CUs having a division depth of 1. FIG.

도 9의 (B)는 32x32 크기의 CU들 중 하나를 분할 깊이 2로 분할한 예를 나타내고, (C)는 32x32 크기의 CU들 중 두개를 분할 깊이 2로 분할한 예를 나타낸다. FIG. 9B shows an example of dividing one of CUs having a size of 32x32 by a division depth 2, and FIG. 9C shows an example of dividing two of 32x32 CUs into a division depth 2.

도 9의 (D)는 분할깊이 3으로 분할된 CU들을 포함하는 예를 나타낸다. FIG. 9D shows an example including CUs divided by the division depth 3.

따라서, LCU 또는 CU의 분할구조 후보들은 다양한 방식으로 존재할 수 있다. Thus, the LCU or CU partition structure candidates may exist in various ways.

LCU 분할 구조는 부호화 단위의 분할 정보이다. 위와 같이 다양한 LCU 분할 구조를 생성하여 LCU 분할 구조 후보에 저장한 뒤, 최적의 LCU 분할 구조를 결정하는 단계에서 LCU 단위로 LCU 분할 구조 후보 중 하나의 분할 구조를 최적의 LCU 분할 구조로 선택하게 된다. 이러한 방법을 사용함으로써 LCU 단위로 영상의 특성에 맞게 적응적인 LCU 분할 구조를 기초로 부호화를 수행함으로써 부호화 효율 및 화질 측면에서 효율적인 부호화를 수행할 수 있다는 장점이 있다.
The LCU division structure is division information of the encoding unit. In the step of determining the optimal LCU partition structure after creating the various LCU partition structures as described above and storing them in the candidate LCU partition structure, one of the LCU partition structure candidates is selected as the optimal LCU partition structure in units of LCU . By using this method, encoding is performed on the basis of an LCU divided structure adaptive to the characteristics of an image in units of LCU, thereby effectively encoding in terms of encoding efficiency and image quality.

종래기술에 따른 2차원 비디오 코덱은, 깊이 정보 이용을 전혀 반영하지 않고 알고리즘들이 설계되어 있다. 하지만, 실제 영상과 그것의 깊이 정보 영상은 큰 상관성을 가지므로, 깊이 정보를 2차원 영상을 부호화하는 데 활용할 수 있다는 것에 착안하여 깊이 정보를 고려한 알고리즘 개발로 2차원 비디오 부호화에서의 깊이 정보 이용방법을 고려할 수 있다. In the conventional two-dimensional video codec, algorithms are designed without reflecting the use of depth information at all. However, since the actual image and its depth information image have a large correlation, it is possible to utilize the depth information to encode the two-dimensional image, Can be considered.

본 발명의 기본적인 원리는 2차원 비디오 코덱에서 효율적인 부호화를 위해서, 깊이 정보 카메라에서 획득한 깊이 정보를 이용하여 실제 영상을 부호화하는 데 활용하기위해 움직임 예측 방법에서의 깊이 정보를 이용하는 것이다. The basic principle of the present invention is to use the depth information in the motion estimation method to efficiently use the depth information obtained from the depth information camera for encoding in the 2D video codec.

예를 들어, 깊이 정보 영상을 활용하여 일반 영상의 객체들을 구분하여 부호화할 경우, 일반 영상에 대한 부호화 복잡도를 크게 감소시킬 수 있다. For example, when the objects of the general image are classified by using the depth information image, the coding complexity of the general image can be greatly reduced.

여기서 객체들이란, 여러 개의 객체를 의미하여 배경 영상을 포함할 수 있으며, 블록기반 부호화 코덱에서 블록 내에는 여러 개의 객체가 존재할 수 있으며, 깊이 정보 영상으로 기반으로 해당 객체마다 각각 다른 부호화 방법들이 적용될 수 있다.
In the block-based encoding codec, a plurality of objects may exist in the block. Different encoding methods are applied to the objects based on the depth information image. .

도 10은 종래 기술에 따른 참조 블록으로부터 현재 블록의 움직임 정보를 구하는 방법의 예를 나타낸다. 10 shows an example of a method for obtaining motion information of a current block from a reference block according to the related art.

도 10을 참조하면, 움직임 정보인 MV(Motion Vector; 움직임 벡터)는 도 10의 (A)에 도시한 바와 같이 현재 예측하려는 "Current block"과 참조 영상에서 제일 근접한 블록과의 거리를 구해 획득될 수 있다. Referring to FIG. 10, a motion vector (MV), which is motion information, is obtained by finding a distance between a current block to be currently predicted and a block closest to the reference video, as shown in FIG. 10A .

이때, 도 10의 (B)를 참조하면, 움직임 정보인 MVP(Motion Vector Predictor)는 현재 블록의 주변 블록들(A, B, C, D)을 통해 결정될 수 있고, MVD(Motion Vector Difference)는 MVP를 통해 구해 질 수 있다. Referring to FIG. 10B, MVP (Motion Vector Predictor), which is motion information, can be determined through neighboring blocks A, B, C and D of the current block, and MVD (Motion Vector Difference) MVP. ≪ / RTI >

이때, 구해진 MVD는 비디오 부호화 과정에 이용될 수 있다.
At this time, the obtained MVD can be used for the video encoding process.

도 11은 종래 기술에 따른 움직임 벡터를 구하는 방법의 예를 나타낸다. Fig. 11 shows an example of a method of obtaining a motion vector according to the prior art.

도 11은 HEVC 부호화 과정에서 현재 코딩 유닛(CU: Coding Unit, 이하 CU)에 대한 화면 간 예측의 움직임 정보의 부호화에서 MV를 구하는 방법을 예시한다. FIG. 11 illustrates a method of obtaining MVs in coding motion information of inter-picture prediction for a current coding unit (CU) in the HEVC coding process.

도 11의 (A)는 HEVC에서 MV를 구하는 흐름도이고, (B)는 움직임 탐색 방법을 예시한다. 11 (A) is a flowchart for obtaining MV in the HEVC, and FIG. 11 (B) illustrates a motion search method.

도 11을 참조하면, 참조 프레임으로부터 움직임 탐색 영역 안의 위치들에 다이아몬드 탐색 방법을 이용하여 1차로 현재 CU와 제일 근접한 블록이 존재하는 위치를 찾고 2차로 2포인트 탐색 방법을 이용하여 해당 위치를 중심으로 세밀하게 주변 위치들과 비교하여 최적의 MV를 구할 수 있다. Referring to FIG. 11, a location where a block closest to a current CU exists is firstly located at positions in a motion search area from a reference frame using a diamond search method, and a search is performed using a two- It is possible to obtain an optimal MV by finely comparing with neighboring positions.

도 11의 (B)에서, 현재 CU의 탐색 시작 위치를 1번으로 하여 다이아몬드 탐색 방법에 의해 4번의 최적의 위치를 찾고, 해당 지점으로 2포인트 탐색 방법을 이용하여 5번 위치를 이용하여 최적의 MV를 구할 수 있다. 11 (B), the optimal search position of the current CU is set to 1, and the optimum position of 4 is found by the diamond search method. By using the 5-point search method using the 2-point search method, MV can be obtained.

HEVC에서 움직임 탐색 방법의 경우 움직임 탐색 영역 안의 위치에 대해서 일률적으로 탐색 알고리즘에 방법에 의해 해당 위치로부터의 MV를 모두 구해 그 중에 최적의 MV를 선택한다. 이러한 방법은 MV를 구하는 블록과 탐색 영역 안의 위치들과의 상관성을 모르기 때문에 모든 위치에 대해 MV를 구하는 방법을 이용하는 것이다. 또한 MV를 구하는 CU와 탐색 영역에서의 상관성이 없는 위치들에 대해서 불필요한 계산을 증가시켜 부호화 복잡도를 증가시키는 원인이 된다. In case of motion search method in HEVC, all the MVs from the corresponding position are obtained uniformly for the position in the motion search area by the search algorithm, and the optimal MV is selected therefrom. In this method, since the correlation between the block for obtaining MV and the positions in the search area is not known, a method of obtaining MVs for all positions is used. Also, it increases the coding complexity by increasing the unnecessary calculation for the positions where there is no correlation between the CU for MV and the search area.

상기의 MV를 구하는 이러한 과정은 주변 블록에 대해 객체 정보를 고려하지 않고 있다. 이는 당연한데, 2차원 영상의 경우, 깊이 카메라가 없다면 2차원 영상 분석을 통하여 영상내의 객체정보를 추출해내야 하므로, 현존하는 2차원 비디오 부호화 방법에는 객체정보를 이용하는 방법이 전혀 탑재되어 있지 않기 때문이다.This process of obtaining the MV does not consider the object information for the neighboring blocks. This is because, in the case of two-dimensional images, if there is no depth camera, the object information in the image must be extracted through the two-dimensional image analysis. Therefore, there is no method using the object information in the existing two-dimensional video coding method.

같은 이유로, HEVC 경우, 화면 내 움직임 예측에서의 MV를 구하는 방법에서도 객체정보를 이용하는 부호화 방법이 전혀 탑재되어 있지 않다. 하지만 Depth 카메라를 이용하여 객체정보를 고려할 수 있다면, 움직임 예측에 있어서 해당 CU와 탐색 영역에서의 상관성을 알 수 있어 탐색 하는 영역을 설정할 수 있다면, 부호화 복잡도를 효율적으로 감소시킨다.For the same reason, in the case of HEVC, there is no coding method using object information even in the method of obtaining MV in intra-picture motion prediction. However, if the object information can be considered using the Depth camera, it is possible to know the correlation between the CU and the search area in the motion prediction, and if the search area can be set, the coding complexity is effectively reduced.

따라서, 깊이 정보를 움직임 탐색에 이용하는 경우 해당 CU와 동일한 객체 영역을 판단하여 해당 영역에 대해서 움직임 탐색 범위를 제한하는 경우 부호화 복잡도를 효율적으로 감소할 수 있다.
Therefore, when the depth information is used for motion search, the same object area as the corresponding CU is determined, and if the motion search range is limited for the corresponding area, the coding complexity can be efficiently reduced.

도 12는 깊이 영상의 예들을 나타낸다. Figure 12 shows examples of depth images.

도 12의 (A)는 예를 들어 깊이 카메라로부터 획득된 84번째 영상 프레임의 깊이 영상이고, (B)는 예를 들어 깊이 카메라로부터 획득된 83번째 영상 프레임의 깊이 영상일 수 있다. 12A is a depth image of the 84th image frame obtained from the depth camera, and FIG. 12B is a depth image of the 83rd image frame obtained from the depth camera, for example.

도 12의 (A)를 현재 영상이라 하면, 현재 CU가 단일 객체를 가질 때, 도 12의 (B)와 같은 참조 프레임으로부터 움직임 탐색을 하는 데 있어서 깊이 정보를 이용하여 움직임 탐색 영역에 있는 동일 객체 영역을 판단할 수 있다. 12 (A) is a current image. When the current CU has a single object, in searching for a motion from the reference frame as shown in FIG. 12 (B), the same object The area can be judged.

현재 CU와 동일 객체 영역의 경우에는 최적의 MV를 가질 확률이 높고, 그렇지 않은 경우에는 최적의 MV를 가지지 않을 확률이 높다. 따라서 현재 CU의 동일 객체 영역이 판단되면, 움직임 탐색 영역 중 현재 CU와 동일 객체 영역이 아닌 영역에 대해서는 움직임 탐색을 수행하지 않음으로써 움직임 탐색에 필요한 연산량을 줄일 수 있다. In the case of the same object area as the current CU, there is a high probability of having an optimal MV, otherwise, there is a high probability of not having an optimal MV. Accordingly, when the same object region of the current CU is determined, the motion search is not performed for the region of the motion search region that is not the same object region as the current CU, thereby reducing the amount of calculation required for motion search.

본 발명에서 제안되는 방법은 블록에 대한 움직임 예측에서 탐색 범위 결정에서 깊이 정보를 이용하여 동일 객체 영역을 판단하여 움직임 정보를 부호화하는 것이다.
The method proposed in the present invention is to encode motion information by determining the same object region using depth information in the search range determination in motion prediction for a block.

도 13은 본 발명의 일 실시예에 따른 움직임 벡터 결정 방법을 설명하기 위한 흐름도이다. 13 is a flowchart illustrating a motion vector determination method according to an embodiment of the present invention.

도 13을 참조하면 1310단계에서 영상 부호화 장치는 현재 코딩 유닛(CU: Coding Unit)의 객체 정보에 기초하여, 상기 현재 CU의 움직임 벡터 계산을 위한 전체 움직임 탐색 영역에서 움직임 탐색 범위를 결정한다. Referring to FIG. 13, in step 1310, the image encoding apparatus determines a motion search range in the entire motion search area for motion vector calculation of the current CU based on object information of a current coding unit (CU).

예를 들어, 현재 CU의 움직임 벡터 계산을 위한 전체 움직임 탐색 영역은 도 12의 (B)에 도시된 "탐색 영역"일 수 있다. For example, the entire motion search area for motion vector calculation of the current CU may be the "search area" shown in Fig. 12B.

이때, 움직임 탐색 범위는 현재 CU를 구성하는 객체와 동일 객체 영역일 수 있다. 따라서, 예를 들어, 움직임 탐색 범위는 도 12의 (B)에서 "탐색 X" 부분을 제외한 "탐색 O" 부분일 수 있다. At this time, the motion search range may be the same object region as the object constituting the current CU. Thus, for example, the motion search range may be the "search O" portion excluding the "search X" portion in FIG. 12B.

움직임 탐색 범위를 결정하는 1310단계는, 깊이 영상으로부터 현재 코딩 유닛(CU: Coding Unit)의 깊이 정보를 확인하는 과정을 포함할 수 있다. The step of determining a motion search range 1310 may include a step of checking depth information of a current coding unit (CU) from the depth image.

또한, 움직임 탐색 범위를 결정하는 1310단계는, 깊이 정보에 기초하여 상기 현재 CU의 객체 정보를 결정하고, CU의 객체 정보에 기초하여 상기 현재 CU가 단일객체로 이루어지는 지를 판단하고, 현재 CU가 단일객체로 이루어지는 경우 상기 전체 움직임 탐색 영역 중 상기 CU의 단일 객체와 동일하지 않은 영역을 상기 움직임 탐색 범위에서 제외하는 과정을 포함할 수 있다. The motion search range determination step 1310 determines object information of the current CU based on the depth information, determines whether the current CU is composed of a single object based on object information of the CU, And excluding an area that is not the same as a single object of the CU among the entire motion search area when the object is composed of the motion search area.

이때, 객체 정보는 깊이 영상을 라벨링 알고리즘에 의해 라벨링한 객체 정보 영상의 라벨 값 또는 상기 깊이 영상으로부터 획득되는 깊이 값 분포 정보일 수 있다. 예를 들어, 라벨링 알고리즘은 Watersherd 라벨링 알고리즘일 수 있다. At this time, the object information may be the label value of the object information image labeled by the labeling algorithm or the depth value distribution information obtained from the depth image. For example, the labeling algorithm may be a Watersherd labeling algorithm.

이때, 깊이 값 분포는 CU는 예를 들어, 도 18에 도시한 바와 같이 획득될수 있다. At this time, the depth value distribution can be obtained as shown in FIG. 18, for example.

예를 들어, 현재 CU의 깊이 값 분포 정보에 포함된 최대값 및 최소값의 차가 기 설정된 값 미만이면, 상기 현재 CU가 단일 객체로 이루어지는 것으로 판단될 수 있다. For example, if the difference between the maximum value and the minimum value included in the depth value distribution information of the current CU is less than the preset value, it can be determined that the current CU is composed of a single object.

움직임 탐색 범위를 결정하는 1310단계는, 현재 CU의 크기 및 상기 현재 CU의 깊이 값 분포 정보에 포함된 최대값 및 최소값에 기초하여 상기 현재 CU가 단일 객체로 이루어지는 지를 판단하는 과정을 포함할 수 있다. 예를 들어, 1310단계는 도 16의 1610단계 및 1620단계를 포함할 수 있다. The step of determining a motion search range may include determining whether the current CU is composed of a single object based on a maximum value and a minimum value included in the current CU size and the depth value distribution information of the current CU . For example, step 1310 may include steps 1610 and 1620 of FIG.

1320단계에서 영상 부호화 장치는 움직임 탐색 범위 내의 움직임 정보에 기초하여 상기 현재 CU의 최적 움직임 벡터를 결정한다. In operation 1320, the image encoding apparatus determines an optimal motion vector of the current CU based on motion information within a motion search range.

이때, 현재 CU의 최적 움직임 벡터를 결정하는 방법은 도 12의 (B)에서 "탐색 X" 부분을 제외한 "탐색 O" 부분에 대해 도 10 내지 도 11에서 설명한 방법일 수 있다.
At this time, a method for determining the optimal motion vector of the current CU may be the method described in FIGS. 10 to 11 for the "search O" portion except for the "search X" portion in FIG. 12 (B).

도 14는 본 발명의 다른 일 실시예에 따른 움직임 벡터 결정 방법을 설명하기 위한 흐름도이다.14 is a flowchart illustrating a motion vector determination method according to another embodiment of the present invention.

도 14를 참조하면, 1410단계에서 영상 부호화 장치는 현재 코딩 유닛(CU: Coding Unit)의 움직임 벡터 계산을 위한 전체 움직임 탐색 영역을 확인한다. Referring to FIG. 14, in step 1410, the image encoding apparatus identifies an entire motion search area for motion vector calculation of a current coding unit (CU).

1420단계에서 깊이 영상으로부터 추출되는 상기 현재 CU의 깊이 정보에 따라 현재 움직임 탐색 위치에서의 움직임 탐색 여부를 결정한다. In step 1420, it is determined whether or not to search for a motion in the current motion search position according to the depth information of the current CU extracted from the depth image.

이때, 움직임 탐색 여부를 결정하는 1420단계는 현재 CU의 크기 및 상기 현재 CU의 깊이 값 분포 정보에 포함된 최대값 및 최소값에 기초하여 상기 현재 CU가 단일 객체로 이루어지는 지를 판단하는 과정을 포함할 수 있다. In operation 1420, it is determined whether the current CU is a single object based on a maximum value and a minimum value included in the current CU size and the depth value distribution information of the current CU. have.

또한, 움직임 탐색 여부를 결정하는 1420단계에서 영상 부호화 장치는, 현재 CU의 크기가 기설정된 값 이상이고 상기 현재 CU의 네 모서리 깊이 값들 중 최대값 및 최소값의 차가 기 설정된 기준값 이하이면, 상기 현재 CU의 네 모서리 깊이 값들 중 어느 하나를 저장한 후, 현재 움직임 탐색 위치의 깊이 값이 상기 저장된 값과 같으면 현재 위치를 탐색하는 것으로 결정하고, 상기 현재 움직임 탐색 위치의 깊이 값이 상기 저장된 값과 다르면 현재 위치를 탐색하지 않는 것으로 결정할 수 있다. If the difference between the maximum value and the minimum value of the four corner depth values of the current CU is less than a preset reference value in step 1420, the image encoding apparatus determines that the current CU And if the depth value of the current motion search location differs from the stored value, it is determined that the current location is searched if the depth value of the current motion search location is equal to the stored value, It can be determined not to search the location.

또한, 움직임 탐색 여부를 결정하는 1420단계에서 영상 부호화 장치는, 현재 CU의 크기가 기설정된 값 보다 작고 상기 현재 CU의 네 모서리 깊이 값들이 모두 같은 값이면, 상기 현재 CU의 네 모서리 깊이 값들 중 어느 하나를 저장한 후, 상기 현재 움직임 탐색 위치의 깊이 값이 상기 저장된 값과 같으면 현재 위치를 탐색하는 것으로 결정하고, 상기 현재 움직임 탐색 위치의 깊이 값이 상기 저장된 값과 다르면 현재 위치를 탐색하지 않는 것으로 결정할 수 있다. If the current CU size is smaller than the predetermined value and the four corner depth values of the current CU are all the same, the image encoding apparatus determines whether the four corner depth values of the current CU are equal to each other And if the depth value of the current motion search location differs from the stored value, the current location is not searched for, and if the depth value of the current motion search location is different from the stored value, You can decide.

1430단계에서 결정된 움직임 탐색 여부를 고려하여 상기 현재 CU의 최적 움직임 벡터를 결정한다.
The optimum motion vector of the current CU is determined in consideration of whether or not the motion search is determined in step 1430.

도 15는 본 발명의 일 실시예에 따른 움직임 탐색 방법의 예를 설명하기 위한 도면이다. 15 is a diagram for explaining an example of a motion search method according to an embodiment of the present invention.

1510단계에서 영상 부호화 장치는 움직임 탐색 영역으로부터 탐색을 시작하고, 1520단계에서 현재 CU 가 단일 객체 영역으로 구성되었는지를 판단하여, 단일 구성 객체 영역으로 구성된 경우 1530단계를 수행하고, 그렇지 않은 경우 1550단계에서 종래 기술에 따른 기존의 움직임 탐색 방법을 적용하여 움직임 벡터를 계산할 수 있다. In step 1510, the image encoding apparatus starts searching from the motion search area. In step 1520, it is determined whether the current CU is configured as a single object area. If the CU is configured as a single object area, step 1530 is performed. Otherwise, The conventional motion search method according to the conventional art can be applied to calculate a motion vector.

1530단계에서 영상 부호화 장치는 참조 프레임 위치에서의 객체와 현재 CU의 객체가 동일 객체 영역일 경우 또는 동일 객체로 판단되는 경우에는 1550단계에서 해당 위치에서 움직임 벡터를 계산하고, 그렇지 않은 경우에는 1540단계에서 현재 위치에서 움직임 벡터를 구하지 않는다는 정보를 저장하고 움직임 탐색 과정을 종료할 수 있다.
If the object at the reference frame position and the object at the current CU are in the same object region or in the same object at step 1530, the motion vector is calculated at the corresponding position at step 1550. If not, Information indicating that the motion vector is not obtained at the current position may be stored and the motion search process may be terminated.

도 16은 본 발명의 일 실시예에 따른 깊이 정보를 이용한 움직임 탐색 방법의 예를 설명하기 위한 도면이다. 16 is a view for explaining an example of a motion search method using depth information according to an embodiment of the present invention.

도 16에 도시된 방법은 동일 객체 여부 판단 및 현재 위치에서의 움직임 탐색 여부를 결정하는 예를 나타낸다. The method shown in FIG. 16 shows an example of determining whether the same object is present and whether or not to search for a motion at the current position.

1610단계에서 영상 부호화 장치는, 현재 CU의 크기가 64x64 또는 32x32인지 확인하고 32x32 이상이면 1620단계를 수행하고, 그렇지 않은 경우 1640단계를 수행한다. In step 1610, the image encoding apparatus checks whether the current size of the CU is 64x64 or 32x32. If the size of the current CU is 32x32 or larger, step 1620 is performed. Otherwise, step 1640 is performed.

1620단계에서 깊이 값 분포 정보로부터 현재 CU의 네 모서리의 깊이 값 중 최대값과 최소값의 차이가 5 미만인지를 판단한다. 이때, 최대값과 최소값의 차이가 5 미만이면 1630단계를 수행하고, 그렇지 않은 경우 1680단계를 수행한다. It is determined in step 1620 whether the difference between the maximum value and the minimum value of the depth values of the four corners of the current CU is less than 5 from the depth value distribution information. If the difference between the maximum value and the minimum value is less than 5, step 1630 is performed. Otherwise, step 1680 is performed.

1630단계에서 영상부호화 장치는 현재 CU의 네 모서리 중 좌상단 깊이 값을 저장하고 1670단계를 수행한다. In step 1630, the image encoding apparatus stores the upper left depth value among the four corners of the current CU, and performs step 1670.

1640단계에서 영상 부호화 장치는 현재 CU의 크기가 16x16인지 확인하고 16x16이면 1650단계를 수행하고, 그렇지 않은 경우 1680단계를 수행한다. In step 1640, the image encoding apparatus checks whether the size of the current CU is 16x16. If the size of the current CU is 16x16, step 1650 is performed. Otherwise, step 1680 is performed.

1650단계에서 현재 CU의 네 모서리의 깊이 값이 모두 같은지를 확인하고 모두 같은 경우 1660단계를 수행하고, 그렇지 않은 경우 1680단계를 수행한다. If it is determined in step 1650 that the depth values of the four corners of the current CU are all the same, step 1660 is performed. Otherwise, step 1680 is performed.

1660단계에서 영상부호화 장치는 현재 CU의 네 모서리 중 어느 한 값을 저장하고 1670단계를 수행한다.In step 1660, the image encoding apparatus stores one of the four corners of the current CU and performs step 1670. FIG.

1670단계에서 영상 부호화 장치는 현재 움직임 탐색 위치의 깊이 값이 이전(1630단계 또는 1660단계)에 저장된 값과 같은지를 확인한다. In step 1670, the image encoding apparatus checks whether the depth value of the current motion search location is equal to the previous value stored in step 1630 or 1660.

이때, 현재 움직임 탐색 위치, 즉 현재 움직임 탐색 포인트에서의 깊이 값이 이전에 저장된 값과 같은 경우 1680 단계에서 현재 위치의 움직임 정보를 탐색하고, 그렇지 않은 경우 1690단계에서 현재 위치의 움직임 정보를 탐색하지 않는 것으로 결정하고 움직임 탐색 과정을 종료할 수 있다.
If the current motion search position, i.e., the depth value at the current motion search point is the same as the previously stored value, the motion information of the current position is searched in step 1680, and if not, the motion information of the current position is searched in step 1690 And the motion search process can be terminated.

도 17은 본 발명의 일 실시예에 따른 영상 부호화 장치의 구성을 설명하기 위한 도면이다.17 is a diagram for explaining a configuration of an image encoding apparatus according to an embodiment of the present invention.

도 17을 참조하면, 영상 부호화 장치(1700)는 도 13 내지 도 16의 방법을 수행할 수 있다. Referring to FIG. 17, the image encoding apparatus 1700 may perform the method of FIGS.

영상 부호화 장치(1700)는 움직임 탐색 범위 결정부(1710), 움직임 탐색 여부 결정부(1720) 및 움직임 벡터 결정부(1730)을 포함할 수 있다. The image encoding apparatus 1700 may include a motion search range determination unit 1710, a motion search determination unit 1720, and a motion vector determination unit 1730.

예를 들어, 영상 부호화 장치(1700)는 움직임 탐색 범위 결정부(1710) 및 움직임 탐색 여부 결정부(1720)로 구성될 수 있다. 또한, 영상 부호화 장치(1700)는 움직임 탐색 여부 결정부(1720) 및 움직임 벡터 결정부(1730)로 구성될 수 도 있다. For example, the image encoding apparatus 1700 may include a motion search range determination unit 1710 and a motion search determination unit 1720. In addition, the image encoding apparatus 1700 may include a motion search determination unit 1720 and a motion vector determination unit 1730.

움직임 탐색 범위 결정부(1710)는 현재 코딩 유닛(CU: Coding Unit)의 객체 정보에 기초하여, 상기 현재 CU의 움직임 벡터 계산을 위한 전체 움직임 탐색 영역에서 움직임 탐색 범위를 결정한다. The motion search range determining unit 1710 determines the motion search range in the entire motion search area for calculating the motion vector of the current CU based on the object information of the current coding unit (CU).

이때, 움직임 탐색 범위는 상기 현재 CU를 구성하는 객체와 동일 객체 영역일 수 있다. At this time, the motion search range may be the same object region as the object constituting the current CU.

움직임 탐색 범위 결정부(1710)는 현재 CU가 단일객체로 이루어지는 경우, 상기 전체 움직임 탐색 영역 중 상기 CU의 단일 객체와 동일하지 않은 영역을 상기 움직임 탐색 범위에서 제외할 수 있다. The motion search range determination unit 1710 may exclude, from the motion search range, an area that is not the same as the single object of the CU among the entire motion search areas, if the current CU is a single object.

움직임 탐색 범위 결정부(1710)는 현재 CU의 크기 및 상기 현재 CU의 깊이 값 분포 정보에 포함된 최대값 및 최소값에 기초하여 상기 현재 CU가 단일 객체로 이루어지는 지를 판단할 수 있다. The motion search range determination unit 1710 may determine whether the current CU is composed of a single object based on the maximum value and the minimum value included in the current CU size and the depth value distribution information of the current CU.

움직임 탐색 여부 결정부(1720)는 현재 코딩 유닛(CU: Coding Unit)의 움직임 벡터 계산을 위한 전체 움직임 탐색 영역을 확인하고, 깊이 영상으로부터 추출되는 상기 현재 CU의 깊이 정보에 따라 현재 움직임 탐색 위치에서의 움직임 탐색 여부를 결정한다. The motion search determination unit 1720 determines an entire motion search area for calculating a motion vector of a current coding unit (CU), and determines whether the current motion search location is a current motion search location based on the depth information of the current CU Or not.

움직임 탐색 여부 결정부(1720)는 현재 CU의 크기가 기설정된 값 이상이고 상기 현재 CU의 네 모서리 깊이 값들 중 최대값 및 최소값의 차가 기 설정된 기준값 이하이면, 상기 현재 CU의 네 모서리 깊이 값들 중 어느 하나를 저장한다. If the difference between the maximum value and the minimum value of the four corner depth values of the current CU is equal to or less than a preset reference value, the motion search determination unit 1720 determines which of four corner depth values of the current CU Save one.

또한, 움직임 탐색 여부 결정부(1720)는 현재 CU의 크기가 기설정된 값 보다 작고 상기 현재 CU의 네 모서리 깊이 값들이 모두 같은 값이면, 상기 현재 CU의 네 모서리 깊이 값들 중 어느 하나를 저장한다. The motion search determination unit 1720 stores any one of the four corner depth values of the current CU if the current CU size is smaller than the predetermined value and the four corner depth values of the current CU are all the same value.

움직임 탐색 여부 결정부(1720)는 현재 움직임 탐색 위치의 깊이 값이 상기 저장된 값과 같으면 현재 위치를 탐색하는 것으로 결정하고, 상기 현재 움직임 탐색 위치의 깊이 값이 상기 저장된 값과 다르면 현재 위치를 탐색하지 않는 것으로 결정할 수 있다. If the depth value of the current motion search location differs from the stored value, the motion search determination unit 1720 searches for the current location, if the depth value of the current motion search location is equal to the stored value. It can be determined that it is not.

움직임 벡터 결정부(1730)는 움직임 탐색 범위 내의 움직임 정보에 기초하여 상기 현재 CU의 최적 움직임 벡터를 결정한다.
The motion vector determination unit 1730 determines an optimal motion vector of the current CU based on the motion information in the motion search range.

도 18은 CU의 깊이 값 분포 예들을 나타내는 도면이다.18 is a diagram showing examples of depth value distribution of CU.

일 실시예에 따른 영상 부호화 방법에 있어서, CU 또는 블록이 동일한 단일 객체로 이루어지는지를 판단하는 방법의 예로써, CU 또는 블록의 네 모서리 위치의 깊이 값을 이용할 수 있다. As an example of a method of determining whether a CU or a block is composed of the same single object in the image encoding method according to the embodiment, a depth value of a CU or four corner positions of a block may be used.

도 18을 참조하면, 영상 부호화 장치는 (A)와 같은 CU 깊이 값 분포를 깊이 값의 변화가 크지 않고 고른 것으로 판단할 수 있다. Referring to FIG. 18, the image encoding apparatus can determine that the CU depth value distribution such as (A) is selected with a small change in the depth value.

반면, 영상 부호화 장치는 도 18의 (B)와 같은 CU 깊이 값 분포를 깊이 값의 변화가 크기 때문에 단일 객체로 이루어지지 않는 것으로 판단할 수 있다. On the other hand, the image encoding apparatus can determine that the CU depth value distribution as shown in FIG. 18 (B) is not formed as a single object because the depth value changes greatly.

도 18의 (B)를 참조하면, CU 내에 중간 부분과 모서리 부분이 깊이 값의 변화가 매우 크다는 것을 볼 수 있는데, 이러한 경우 네 모서리의 깊이 값 중 최대값과 최소값의 차이가 크다는 것을 알 수 있다. 따라서 이러한 CU는 단일 객체로 이루어져 있을 확률이 낮기 때문에 CU 분할을 수행할 수 있다. Referring to FIG. 18B, it can be seen that the depth value of the middle portion and the corner portion in the CU change is very large. In this case, it can be seen that the difference between the maximum value and the minimum value is large among the depth values of the four corners . Therefore, it is possible to perform CU segmentation because the probability that such a CU is composed of a single object is low.

영상 부호화 장치는 CU의 네 모서리 깊이 값들 중 최대값 및 최소값의 차가 기 설정된 기준값 이하이면 상기 CU가 단일 객체로 이루어지는 것으로 판단할 수 있다. The image encoding apparatus can determine that the CU is a single object if the difference between the maximum value and the minimum value of the four corner depth values of the CU is less than a preset reference value.

이때, 예를 들어 도 18의 (A)에서 M1의 정규화된 깊이 값은 9이고, M2 및 M3의 정규화된 깊이 값은 7이고, M4의 정규화된 깊이 값은 7일 수 있다.In this case, for example, in FIG. 18A, the normalized depth value of M1 is 9, the normalized depth values of M2 and M3 are 7, and the normalized depth value of M4 may be 7.

또한, 도 18의 (B)에서 M1의 정규화된 깊이 값은 9이고, M2 및 M4의 정규화된 깊이 값은 7이고, M3의 정규화된 깊이 값은 1일 수 있다.Also, in FIG. 18 (B), the normalized depth value of M1 is 9, the normalized depth value of M2 and M4 is 7, and the normalized depth value of M3 may be 1.

이때, 도 18의 (A)의 경우 CU 네 모서리의 깊이 값의 최대값 및 최소값의 차가 2이고, 도 18의 (B)의 경우 CU 네 모서리의 깊이 값의 최대값 및 최소값의 차가 8이다.18A, the difference between the maximum value and the minimum value of the depth value of the four corners of the CU is 2, and the difference between the maximum value and the minimum value of the depth value of the four corners of the CU is 8 in FIG. 18B.

따라서, 기 설정된 기준값이 5인 경우, 도 18의 (A)는 단일 객체로 이루어지는 것으로 결정되고, 도 18의 (B)는 단일 객체로 이루어지지 않는 것으로 결정될 수 있다.
Therefore, when the preset reference value is 5, it can be determined that FIG. 18A is composed of a single object, and FIG. 18B is not composed of a single object.

[표 1]은 도 16에 도시된 실시예를 HEVC에 적용한 실험 결과를 나타낸다. Table 1 shows experimental results of applying the embodiment shown in FIG. 16 to HEVC.

실험 결과를 통하여 주관적 화질에서의 동일한 품질로 영상 품질의 큰 열화 없이 부호화 복잡도가 감소됨을 확인할 수 있다.Experimental results show that the coding complexity is reduced without degradation of image quality with the same quality in subjective image quality.

Figure 112014046209460-pat00001

Figure 112014046209460-pat00001

본 발명의 실시예들에 있어서, 대상 범위 또는 적용 범위는 블록 크기 혹은 CU의 분할 깊이 등에 따라 가변될 수 있다.In the embodiments of the present invention, the object range or the application range may vary depending on the block size or the division depth of the CU.

이때, 적용 범위를 결정하는 변수(즉, 크기 혹은 깊이 정보)는 부호화기 및 복호화기가 미리 정해진 값을 사용하도록 설정할 수도 있고, 프로파일 또는 레벨에 따라 정해진 값을 사용하도록 할 수 도 있고, 부호화기가 변수 값을 비트스트림에 기재하면 복호화기는 비트스트림으로부터 이 값을 구하여 사용할 수도 있다. CU 분할 깊이에 따라 적용 범위를 달리하는 할 때는 [표 2]에 예시한 바와 같다. 방식A는 미리 설정된 깊이값 이상의 깊이에만 적용하는 방식일 수 있으며, 방식B는 미리 설정된 깊이값 이하에만 적용하는 방식일 수 있고, 방식C는 미리 설정된 깊이값에만 적용하는 방식이 있을 수 있다.In this case, the variable (i.e., size or depth information) for determining the application range may be set to use a predetermined value by the encoder or the decoder, use a predetermined value according to the profile or level, Is described in the bit stream, the decoder may obtain the value from the bit stream and use it. When the application range is changed according to the CU division depth, it is as shown in [Table 2]. The method A may be a method which applies only to a depth of a predetermined depth value or more, the method B may be a method which applies only to a predetermined depth value or less, and the method C may have a method of applying only a predetermined depth value.

[표 2][Table 2]

Figure 112014046209460-pat00002
Figure 112014046209460-pat00002

[표 2]는 주어진 CU 분할 깊이가 2인 경우, 본 발명의 방법들을 적용하는 적용 범위 결정 방식의 예를 나타낸다. (O: 해당 깊이에 적용, X: 해당 깊이에 적용하지 않음.)Table 2 shows an example of a method of determining the application range to which the methods of the present invention are applied when the given CU division depth is 2. (O: applied to the depth, X: not applied to the depth.)

모든 깊이에 대하여 본 발명의 방법들을 적용하지 않는 경우는 임의의 지시자(flag)를 사용하여 비트스트림에 나타낼 수도 있고, CU 깊이의 최대값보다 하나 더 큰 값을 적용범위를 나타내는 CU 깊이 값으로 시그널링 함으로써 표현할 수도 있다. In the case where the methods of the present invention are not applied to all the depths, an arbitrary indicator may be used to indicate in the bitstream, and a value one greater than the maximum value of the CU depth may be used as the CU depth value indicating the coverage, .

또한 상술한 각 방법들은 휘도 블록의 크기에 따라 색차 블록에 다르게 적용될 수 있으며, 휘도 신호영상 및 색차 영상에도 다르게 적용될 수 있다.In addition, each of the above-described methods can be applied to the color difference block differently depending on the size of the luminance block, and can be applied to the luminance signal image and the color difference image.

[표 3]은 각 방법을 조합하는 경우, 휘도 블록의 크기 및 색차 블록에 따라 다르게 적용되는 예를 나타낸다.[Table 3] shows an example in which different methods are applied depending on the size of the luminance block and the color difference block.

[표 3][Table 3]

Figure 112014046209460-pat00003
Figure 112014046209460-pat00003

[표 3]의 변형된 방법들 중에서 방법 사 1 을 살펴보면, 휘도블록의 크기가 8(8x8, 8x4, 2x8 등)인 경우이고, 그리고 색차 블록의 크기가 4(4x4, 4x2, 2x4)인 경우에 본 발명의 실시 예에 따른 머지 리스트 구성 방법을 휘도 신호 및 색차 신호에 적용할 수 있다.Among the modified methods of Table 3, Method 1 is the case where the size of the luminance block is 8 (8x8, 8x4, 2x8, etc.) and the size of the color difference block is 4 (4x4, 4x2, 2x4) The method of constructing a merge list according to an embodiment of the present invention can be applied to a luminance signal and a color difference signal.

위의 변형된 방법들 중에서 방법 파 2 을 살펴보면, 휘도블록의 크기가 16(16x16, 8x16, 4x16 등)인 경우이고, 그리고 색차 블록의 크기가 4(4x4, 4x2, 2x4)인 경우에 본 발명의 실시 예에 따른 머지 리스트 구성 방법을 휘도 신호에 적용하고 색차 신호에는 적용하지 않을 수 있다.Among the above-mentioned modified methods, in the method wave 2, when the luminance block size is 16 (16x16, 8x16, 4x16, etc.) and the color difference block size is 4 (4x4, 4x2, 2x4) The merge list construction method according to the embodiment of the present invention may be applied to the luminance signal and not to the color difference signal.

또 다른 변형된 방법들로 휘도 신호에만 본 발명의 실시 예에 따른 머지 리스트 구성 방법이 적용되고 색차 신호에는 적용되지 않을 수 있다. 반대로 색차 신호에만 본 발명의 실시 예에 따른 머지 리스트 구성 방법이 적용되고 휘도 신호에는 적용되지 않을 수 있다.
In another modified method, the merge list construction method according to the embodiment of the present invention is applied only to the luminance signal, and may not be applied to the color difference signal. Conversely, the merge list construction method according to the embodiment of the present invention is applied only to the color difference signal, and may not be applied to the luminance signal.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (17)

현재 코딩 유닛(CU: Coding Unit)의 객체 정보에 기초하여, 상기 현재 CU의 움직임 벡터 계산을 위한 전체 움직임 탐색 영역에서 움직임 탐색 범위를 결정하는 단계; 및
상기 움직임 탐색 범위 내의 움직임 정보에 기초하여 상기 현재 CU의 최적 움직임 벡터를 결정하되, 상기 현재 CU의 크기 및 상기 현재 CU의 깊이 값 분포 정보에 포함된 최대값 및 최소값에 기초하여 상기 현재 CU가 단일 객체로 이루어지는 지를 판단하는 단계
를 포함하는 깊이 정보를 이용한 영상 부호화 방법.
Determining a motion search range in an entire motion search area for motion vector calculation of the current CU based on object information of a current coding unit (CU); And
Based on a maximum value and a minimum value included in the current CU size and the depth value distribution information of the current CU based on the motion information in the motion search range, Object
The depth information including the depth information.
제1항에 있어서,
상기 움직임 탐색 범위는 상기 현재 CU를 구성하는 객체와 동일 객체 영역임을 특징으로 하는
깊이 정보를 이용한 영상 부호화 방법.
The method according to claim 1,
Wherein the motion search range is the same object area as the object constituting the current CU
Image coding method using depth information.
현재 코딩 유닛(CU: Coding Unit)의 객체 정보에 기초하여, 상기 현재 CU의 움직임 벡터 계산을 위한 전체 움직임 탐색 영역에서 움직임 탐색 범위를 결정하는 단계; 및
상기 움직임 탐색 범위 내의 움직임 정보에 기초하여 상기 현재 CU의 최적 움직임 벡터를 결정하는 단계를 포함하고,
상기 움직임 탐색 범위를 결정하는 단계는,
깊이 영상으로부터 현재 코딩 유닛(CU: Coding Unit)의 깊이 정보를 확인하는 단계;
상기 깊이 정보에 기초하여 상기 현재 CU의 객체 정보를 결정하는 단계;
상기 CU의 객체 정보에 기초하여 상기 현재 CU가 단일객체로 이루어지는 지를 판단하는 단계; 및
상기 현재 CU가 단일객체로 이루어지는 경우, 상기 전체 움직임 탐색 영역 중 상기 CU의 단일 객체와 동일하지 않은 영역을 상기 움직임 탐색 범위에서 제외하는 단계를 포함하는
깊이 정보를 이용한 영상 부호화 방법.
Determining a motion search range in an entire motion search area for motion vector calculation of the current CU based on object information of a current coding unit (CU); And
And determining an optimal motion vector of the current CU based on motion information in the motion search range,
Wherein the step of determining the motion search range comprises:
Checking depth information of a current coding unit (CU) from a depth image;
Determining object information of the current CU based on the depth information;
Determining whether the current CU is a single object based on object information of the CU; And
If the current CU is a single object, excluding a region of the entire motion search region that is not the same as a single object of the CU from the motion search range
Image coding method using depth information.
제1항 내지 제3항 중 어느 한 항에 있어서,
상기 객체 정보는 깊이 영상을 라벨링 알고리즘에 의해 라벨링한 객체 정보 영상의 라벨 값 또는 상기 깊이 영상으로부터 획득되는 깊이 값 분포 정보임을 특징으로 하는
깊이 정보를 이용한 영상 부호화 방법.
4. The method according to any one of claims 1 to 3,
Wherein the object information is a label value of an object information image labeled by a labeling algorithm or a depth value distribution information obtained from the depth image,
Image coding method using depth information.
제4항에 있어서,
상기 현재 CU의 깊이 값 분포 정보에 포함된 최대값 및 최소값의 차가 기 설정된 값 미만이면, 상기 현재 CU가 단일 객체로 이루어지는 것으로 판단되는 것을 특징으로 하는
깊이 정보를 이용한 영상 부호화 방법.
5. The method of claim 4,
If the difference between the maximum value and the minimum value included in the depth value distribution information of the current CU is less than a preset value, it is determined that the current CU is a single object
Image coding method using depth information.
삭제delete 삭제delete 현재 코딩 유닛(CU: Coding Unit)의 움직임 벡터 계산을 위한 전체 움직임 탐색 영역을 확인하는 단계;
깊이 영상으로부터 추출되는 상기 현재 CU의 깊이 정보에 따라 현재 움직임 탐색 위치에서의 움직임 탐색 여부를 결정하는 단계; 및
결정된 움직임 탐색 여부를 고려하여 상기 현재 CU의 최적 움직임 벡터를 결정하는 단계를 포함하고,
상기 현재 움직임 탐색 위치에서의 움직임 탐색 여부를 결정하는 단계는,
상기 현재 CU의 크기 및 상기 현재 CU의 깊이 값 분포 정보에 포함된 최대값 및 최소값에 기초하여 상기 현재 CU가 단일 객체로 이루어지는 지를 판단하는 과정을 포함하는
깊이 정보를 이용한 영상 부호화 방법.
Identifying an entire motion search area for motion vector calculation of a current coding unit (CU);
Determining whether or not to search for a motion at the current motion search position according to the depth information of the current CU extracted from the depth image; And
And determining an optimal motion vector of the current CU in consideration of the determined motion search,
Wherein the step of determining whether to search for a motion at the current motion search position comprises:
Determining whether the current CU is a single object based on a maximum value and a minimum value included in the current CU size and the depth value distribution information of the current CU;
Image coding method using depth information.
현재 코딩 유닛(CU: Coding Unit)의 움직임 벡터 계산을 위한 전체 움직임 탐색 영역을 확인하는 단계;
깊이 영상으로부터 추출되는 상기 현재 CU의 깊이 정보에 따라 현재 움직임 탐색 위치에서의 움직임 탐색 여부를 결정하는 단계; 및
결정된 움직임 탐색 여부를 고려하여 상기 현재 CU의 최적 움직임 벡터를 결정하는 단계를 포함하고,
상기 현재 움직임 탐색 위치에서의 움직임 탐색 여부를 결정하는 단계는,
상기 현재 CU의 크기가 기설정된 값 이상이고 상기 현재 CU의 네 모서리 깊이 값들 중 최대값 및 최소값의 차가 기 설정된 기준값 이하이면, 상기 현재 CU의 네 모서리 깊이 값들 중 어느 하나를 저장하는 단계; 및
상기 현재 움직임 탐색 위치의 깊이 값이 상기 저장된 값과 같으면 현재 위치를 탐색하는 것으로 결정하고, 상기 현재 움직임 탐색 위치의 깊이 값이 상기 저장된 값과 다르면 현재 위치를 탐색하지 않는 것으로 결정하는 단계
를 포함하는 깊이 정보를 이용한 영상 부호화 방법.
Identifying an entire motion search area for motion vector calculation of a current coding unit (CU);
Determining whether or not to search for a motion at the current motion search position according to the depth information of the current CU extracted from the depth image; And
And determining an optimal motion vector of the current CU in consideration of the determined motion search,
Wherein the step of determining whether to search for a motion at the current motion search position comprises:
Storing one of the four corner depth values of the current CU if the size of the current CU is greater than or equal to a predetermined value and the difference between the maximum and minimum values of the four corner depths of the current CU is less than a preset reference value; And
Determining that the current position is searched if the depth value of the current motion search position is equal to the stored value and determining that the current position is not searched if the depth value of the current motion search position is different from the stored value
The depth information including the depth information.
현재 코딩 유닛(CU: Coding Unit)의 움직임 벡터 계산을 위한 전체 움직임 탐색 영역을 확인하는 단계;
깊이 영상으로부터 추출되는 상기 현재 CU의 깊이 정보에 따라 현재 움직임 탐색 위치에서의 움직임 탐색 여부를 결정하는 단계; 및
결정된 움직임 탐색 여부를 고려하여 상기 현재 CU의 최적 움직임 벡터를 결정하는 단계를 포함하고,
상기 현재 움직임 탐색 위치에서의 움직임 탐색 여부를 결정하는 단계는,
상기 현재 CU의 크기가 기설정된 값 보다 작고 상기 현재 CU의 네 모서리 깊이 값들이 모두 같은 값이면, 상기 현재 CU의 네 모서리 깊이 값들 중 어느 하나를 저장하는 단계; 및
상기 현재 움직임 탐색 위치의 깊이 값이 상기 저장된 값과 같으면 현재 위치를 탐색하는 것으로 결정하고, 상기 현재 움직임 탐색 위치의 깊이 값이 상기 저장된 값과 다르면 현재 위치를 탐색하지 않는 것으로 결정하는 단계
를 포함하는 깊이 정보를 이용한 영상 부호화 방법.
Identifying an entire motion search area for motion vector calculation of a current coding unit (CU);
Determining whether or not to search for a motion at the current motion search position according to the depth information of the current CU extracted from the depth image; And
And determining an optimal motion vector of the current CU in consideration of the determined motion search,
Wherein the step of determining whether to search for a motion at the current motion search position comprises:
Storing one of the four corner depth values of the current CU if the size of the current CU is less than a preset value and the four corner depth values of the current CU are all the same value; And
Determining that the current position is searched if the depth value of the current motion search position is equal to the stored value and determining that the current position is not searched if the depth value of the current motion search position is different from the stored value
The depth information including the depth information.
현재 코딩 유닛(CU: Coding Unit)의 객체 정보에 기초하여, 상기 현재 CU의 움직임 벡터 계산을 위한 전체 움직임 탐색 영역에서 움직임 탐색 범위를 결정하는 움직임 탐색 범위 결정부; 및
상기 움직임 탐색 범위 내의 움직임 정보에 기초하여 상기 현재 CU의 최적 움직임 벡터를 결정하되, 상기 현재 CU가 단일객체로 이루어지는 경우 상기 전체 움직임 탐색 영역 중 상기 CU의 단일 객체와 동일하지 않은 영역을 상기 움직임 탐색 범위에서 제외하는 움직임 벡터 결정부
를 포함하는 깊이 정보를 이용한 영상 부호화 장치.
A motion search range determining unit that determines a motion search range in the entire motion search area for motion vector calculation of the current CU based on object information of a current coding unit (CU); And
Determining an optimal motion vector of the current CU based on the motion information in the motion search range, and if the current CU is a single object, The motion vector decision unit
The depth information including the depth information.
제11항에 있어서,
상기 움직임 탐색 범위는 상기 현재 CU를 구성하는 객체와 동일 객체 영역임을 특징으로 하는
깊이 정보를 이용한 영상 부호화 장치.
12. The method of claim 11,
Wherein the motion search range is the same object area as the object constituting the current CU
Image encoding apparatus using depth information.
삭제delete 제11항에 있어서,
상기 움직임 탐색 범위 결정부는,
상기 현재 CU의 크기 및 상기 현재 CU의 깊이 값 분포 정보에 포함된 최대값 및 최소값에 기초하여 상기 현재 CU가 단일 객체로 이루어지는 지를 판단하는
깊이 정보를 이용한 영상 부호화 장치.
12. The method of claim 11,
Wherein the motion search range determination unit
Determines whether the current CU is a single object based on a maximum value and a minimum value included in the current CU size and the depth value distribution information of the current CU
Image encoding apparatus using depth information.
삭제delete 현재 코딩 유닛(CU: Coding Unit)의 움직임 벡터 계산을 위한 전체 움직임 탐색 영역을 확인하고, 깊이 영상으로부터 추출되는 상기 현재 CU의 깊이 정보에 따라 현재 움직임 탐색 위치에서의 움직임 탐색 여부를 결정하는 움직임 탐색 여부 결정부; 및
상기 현재 CU의 최적 움직임 벡터를 결정하는 움직임 벡터 결정부를 포함하고,
상기 움직임 탐색 범위 결정부는, 상기 현재 CU의 크기가 기설정된 값 이상이고 상기 현재 CU의 네 모서리 깊이 값들 중 최대값 및 최소값의 차가 기 설정된 기준값 이하이면, 상기 현재 CU의 네 모서리 깊이 값들 중 어느 하나를 저장하고, 상기 현재 CU의 크기가 기설정된 값 보다 작고 상기 현재 CU의 네 모서리 깊이 값들이 모두 같은 값이면, 상기 현재 CU의 네 모서리 깊이 값들 중 어느 하나를 저장하는
깊이 정보를 이용한 영상 부호화 장치.
A motion search area for determining a motion search area in a current motion search position in accordance with depth information of the current CU extracted from a depth image, Determination part; And
And a motion vector determination unit for determining an optimal motion vector of the current CU,
Wherein the motion search range determination unit determines the motion search range of the current CU based on the current depth of the current CU when the current CU size is equal to or greater than a preset value and the difference between the maximum value and the minimum value of the four corner depth values of the current CU is less than a preset reference value And stores any one of the four corner depth values of the current CU if the current CU size is less than a predetermined value and all the four corner depth values of the current CU are the same value
Image encoding apparatus using depth information.
제16항에 있어서,
상기 움직임 탐색 범위 결정부는,
상기 현재 움직임 탐색 위치의 깊이 값이 상기 저장된 값과 같으면 현재 위치를 탐색하는 것으로 결정하고, 상기 현재 움직임 탐색 위치의 깊이 값이 상기 저장된 값과 다르면 현재 위치를 탐색하지 않는 것으로 결정하는
깊이 정보를 이용한 영상 부호화 장치.
17. The method of claim 16,
Wherein the motion search range determination unit
If the depth value of the current motion search location is equal to the stored value, it is determined to search for the current location, and if the depth value of the current motion search location is different from the stored value,
Image encoding apparatus using depth information.
KR1020140059065A 2014-03-28 2014-05-16 Method and apparatus for encoding of 2demensional video using depth image KR101603414B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US14/631,419 US9769498B2 (en) 2014-03-28 2015-02-25 Method and apparatus for encoding of video using depth information
CN201580017311.1A CN106134198B (en) 2014-03-28 2015-03-24 Utilize the video coding apparatus and its method of depth information
CN201910116808.9A CN109714601B (en) 2014-03-28 2015-03-24 Video encoding apparatus using depth information and method thereof
PCT/KR2015/002854 WO2015147514A1 (en) 2014-03-28 2015-03-24 Apparatus for encoding video using depth information and method therfor
US15/679,326 US10051287B2 (en) 2014-03-28 2017-08-17 Method and apparatus for encoding of video using depth information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140037277 2014-03-28
KR20140037277 2014-03-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020160023073A Division KR102129273B1 (en) 2014-03-28 2016-02-26 Method and apparatus for encoding of 2demensional video using depth image

Publications (2)

Publication Number Publication Date
KR20150114357A KR20150114357A (en) 2015-10-12
KR101603414B1 true KR101603414B1 (en) 2016-03-15

Family

ID=54347088

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020140059065A KR101603414B1 (en) 2014-03-28 2014-05-16 Method and apparatus for encoding of 2demensional video using depth image
KR1020160023073A KR102129273B1 (en) 2014-03-28 2016-02-26 Method and apparatus for encoding of 2demensional video using depth image

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020160023073A KR102129273B1 (en) 2014-03-28 2016-02-26 Method and apparatus for encoding of 2demensional video using depth image

Country Status (2)

Country Link
KR (2) KR101603414B1 (en)
CN (1) CN106134198B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160030147A (en) * 2014-03-28 2016-03-16 경희대학교 산학협력단 Method and apparatus for encoding of 2demensional video using depth image

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107295336B (en) * 2017-06-21 2019-10-29 鄂尔多斯应用技术学院 Adaptive fast coding dividing elements method and device based on image correlation
CN112601093A (en) * 2021-03-01 2021-04-02 浙江智慧视频安防创新中心有限公司 Video coding and decoding method and device
CN112601092A (en) * 2021-03-01 2021-04-02 浙江智慧视频安防创新中心有限公司 Video coding and decoding method and device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101337345B1 (en) 2012-01-27 2013-12-06 한양대학교 산학협력단 Encoder and method for skipping sub-pel motion estimation

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2480422B (en) * 2010-02-25 2014-07-09 Imagination Tech Ltd Object tracking using graphics engine derived vectors in a motion estimation system
JP4806088B1 (en) * 2010-06-28 2011-11-02 シャープ株式会社 Image conversion apparatus, image conversion apparatus control method, image conversion apparatus control program, and recording medium
KR102063285B1 (en) 2011-06-10 2020-01-08 경희대학교 산학협력단 Methods of spliting block and apparatuses for using the same
WO2012171477A1 (en) * 2011-06-15 2012-12-20 Mediatek Inc. Method and apparatus of texture image compression in 3d video coding
KR102039039B1 (en) * 2012-06-28 2019-10-31 연세대학교 산학협력단 Method and Apparatus for image encoding
KR20140048783A (en) 2012-10-09 2014-04-24 한국전자통신연구원 Method and apparatus for deriving motion information by sharing depth information value
KR101603414B1 (en) * 2014-03-28 2016-03-15 경희대학교 산학협력단 Method and apparatus for encoding of 2demensional video using depth image
CN104202612B (en) * 2014-04-15 2018-11-02 清华大学深圳研究生院 The division methods and method for video coding of coding unit based on quaternary tree constraint

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101337345B1 (en) 2012-01-27 2013-12-06 한양대학교 산학협력단 Encoder and method for skipping sub-pel motion estimation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
깊이 정보를 이용한 HEVC의 인코더 고속화 방법, 경희대학교 대학원 컴퓨터 공학과 석사학위논문(2013.02.28.)*

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160030147A (en) * 2014-03-28 2016-03-16 경희대학교 산학협력단 Method and apparatus for encoding of 2demensional video using depth image
KR102129273B1 (en) * 2014-03-28 2020-07-02 경희대학교 산학협력단 Method and apparatus for encoding of 2demensional video using depth image

Also Published As

Publication number Publication date
KR20150114357A (en) 2015-10-12
CN106134198A (en) 2016-11-16
KR20160030147A (en) 2016-03-16
KR102129273B1 (en) 2020-07-02
CN106134198B (en) 2019-03-12

Similar Documents

Publication Publication Date Title
US10674179B2 (en) Method and apparatus for encoding of video using depth information
KR101571341B1 (en) Methods and apparatus for implicit block segmentation in video encoding and decoding
KR20210010633A (en) Inter prediction method based on history-based motion vector and apparatus therefor
KR102576194B1 (en) Method for processing image on basis of inter-prediction mode and device therefor
US20140044347A1 (en) Mage coding apparatus, image coding method, image coding program, image decoding apparatus, image decoding method, and image decoding program
KR102129273B1 (en) Method and apparatus for encoding of 2demensional video using depth image
JP7432035B2 (en) Video decoding method and device for deriving weight index information for generating predictive samples
TWI511531B (en) Video coding apparatus, video coding method, and video coding program
CN112385213A (en) Method of processing image based on inter prediction mode and apparatus for the same
CN114009047A (en) Signaling method and apparatus for merging data syntax in video/image coding system
WO2019194502A1 (en) Inter prediction mode based image processing method and apparatus therefor
KR102129271B1 (en) Method and apparatus for encoding of video using depth image
CN111903123A (en) Image processing method based on inter prediction mode and apparatus therefor
JP2010193401A (en) Image encoding method and apparatus
US10051287B2 (en) Method and apparatus for encoding of video using depth information
US10021391B2 (en) Method and apparatus for encoding of video using depth information
KR101603412B1 (en) Method and apparatus for encoding of video using depth image
RU2789454C2 (en) Video or image encoding based on in-block coding

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190107

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200128

Year of fee payment: 5