KR20160064844A - Method and apparatus for depth map based block partitioning - Google Patents

Method and apparatus for depth map based block partitioning Download PDF

Info

Publication number
KR20160064844A
KR20160064844A KR1020140169039A KR20140169039A KR20160064844A KR 20160064844 A KR20160064844 A KR 20160064844A KR 1020140169039 A KR1020140169039 A KR 1020140169039A KR 20140169039 A KR20140169039 A KR 20140169039A KR 20160064844 A KR20160064844 A KR 20160064844A
Authority
KR
South Korea
Prior art keywords
block
motion compensation
partition
filtering
pixels
Prior art date
Application number
KR1020140169039A
Other languages
Korean (ko)
Inventor
이충구
이용재
김휘
Original Assignee
(주)휴맥스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)휴맥스 filed Critical (주)휴맥스
Priority to KR1020140169039A priority Critical patent/KR20160064844A/en
Publication of KR20160064844A publication Critical patent/KR20160064844A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Abstract

A block partitioning method of a three-dimensional image comprising an object region and a background region includes a step of merging two motion compensation blocks by extracting an object and a background from motion compensation blocks on the basis of a dividing mask as to each motion compensation block comprising the object region and the background region. A partition boundary pixel of the merged block is obtained using multiple pixels near a partition boundary. In case of obtaining a partition boundary pixel of the merged block of the three-dimensional image, encoding efficiency can be increased by applying simple filtering.

Description

깊이맵 기반 블록 파티션 방법 및 장치{METHOD AND APPARATUS FOR DEPTH MAP BASED BLOCK PARTITIONING}[0001] METHOD AND APPARATUS FOR DEPTH MAP BASED BLOCK PARTITIONING [0002]

본 발명은 3차원 영상 복호화 방법 및 장치에 관한 것으로, 보다 상세하게는 3차원 영상의 블록 파티션 방법에 관한 것이다.The present invention relates to a three-dimensional image decoding method and apparatus, and more particularly, to a three-dimensional block partitioning method.

일반적으로 영상 압축 방법에서는 압축 효율을 높이기 위해 픽쳐들의 중복도를 제거하는 화면간 예측(inter prediction) 및 화면내 예측(intra prediction) 기술을 이용한다. Generally, in an image compression method, intra prediction and intra prediction techniques are used to remove redundancy of pictures in order to increase compression efficiency.

화면간 예측을 이용해 영상을 부호화하는 방법은 픽처들 사이의 시간적인 중복성(spatial redundancy)을 제거하여 영상을 압축하는 방법으로서 대표적으로 움직임 보상 예측 부호화 방법이 있다. A method of coding an image using inter-view prediction is a method of compressing an image by eliminating temporal redundancy between pictures. Typically, there is a motion compensation predictive encoding method.

움직임 보상 예측 부호화는 현재 부호화되는 픽처의 앞 및/또는 뒤에 위치하는 적어도 하나의 참조 픽처에서 현재 부호화되는 블록과 유사한 영역을 검색하여 움직임 벡터(MV: Motion Vector)를 생성하고, 생성된 움직임 벡터를 이용하여 움직임 보상을 수행하여 얻어지는 예측 블록과 현재 예측 유닛의 잔여값(residue)을 DCT(Discrete Cosine Transform) 변환하고 양자화한 후 엔트로피 부호화하여 전송한다. The motion compensation predictive coding is performed by searching a region similar to a current coded block in at least one reference picture located before and / or after a currently coded picture to generate a motion vector (MV) And DCT (Discrete Cosine Transform) transforms residual quantities of the prediction block and the current prediction unit, which are obtained by performing motion compensation, and quantizes them, and then entropy-encodes and quantizes them.

움직임 보상 화면간 예측의 경우, 하나의 픽처를 소정 크기를 가지는 복수의 블록(block)으로 구분하여 움직임 벡터(MV)를 생성하고, 생성된 움직임 벡터를 이용하여 움직임 보상을 수행한다. 움직임 보상을 수행하여 얻어지는 각각의 예측 블록에 대한 개별적인 움직임 파라미터는 디코더로 전송된다. In the case of motion compensated inter-picture prediction, a motion vector MV is generated by dividing one picture into a plurality of blocks having a predetermined size, and motion compensation is performed using the generated motion vector. The individual motion parameters for each prediction block obtained by performing motion compensation are transmitted to the decoder.

3차원 영상의 경우, 영상의 특성상 각 픽셀이 화소 정보뿐만 아니라 깊이(depth) 정보를 포함하고 있으며, 인코더에서 깊이 정보를 구해 디코더로 다시점 비디오 영상 정보 및 깊이 정보를 전송한다. 깊이 정보를 갖는 3차원 영상의 경우 부호화 장치에서 효율적으로 깊이 정보를 부호화하기 위한 방법 및 복호화 장치에서 깊이 정보를 효율적으로 복원하기 위한 방법이 필요하다.In the case of a 3D image, each pixel includes not only pixel information but also depth information in the characteristics of the image, and the encoder obtains depth information and transmits the point video image information and the depth information to the decoder. In the case of a three-dimensional image having depth information, a method for efficiently encoding depth information in a coding apparatus and a method for efficiently restoring depth information in a decoding apparatus are needed.

본 발명의 목적은 3차원 영상에 적용할 수 있는 깊이 기반 블록 파티셔닝(Depth-based block partitioning)시 부호화 효율을 높이기 위한 깊이 기반 블록 파티셔닝 방법을 제공하는 것이다. It is an object of the present invention to provide a depth-based block partitioning method for enhancing coding efficiency in depth-based block partitioning that can be applied to a three-dimensional image.

상기한 목적을 달성하기 위한 일 측면에 따르면, 객체 영역과 배경 영역으로 이루어진 3차원 영상의 블록 파티션 방법은 객체 영역과 배경 영역으로 이루어진 움직임 보상 블록들 각각에 대하여 분할 마스크에 기초하여 상기 움직임 보상 블록들로부터 객체와 배경을 추출하여 2개의 움직임 보상 블록들을 병합하는 단계를 포함하되, 상기 병합된 블록의 파티션(partition) 경계 픽셀은 파티션 경계 근처의 복수의 픽셀들을 사용하여 구한다. 상기 필터링은 병합된 블록내의 경계 픽셀들의 휘도(luminance) 및 색차(chrominance) 성분 중 적어도 하나에 대해 수행될 수 있다. 상기 필터링은 임의 형태를 가지는 블록 파티셔닝에 대해 적용할 수 있다. 상기 필터링은 2NxN, Nx2N, NxN, 및 비대칭 파티션 모드(Asymmetric Partition mode) 중 적어도 하나에 대해 적용할 수 있다. 상기 병합된 블록의 파티션(partition) 경계 픽셀은 파티션 경계 근처의 복수의 픽셀들을 사용하여 필터링을 함으로써 구할 수 있다. 상기 병합된 블록의 파티션(partition) 경계 픽셀은 파티션 경계 근처의 복수의 픽셀들의 평균값을 이용하여 구할 수 있다. According to an aspect of the present invention, there is provided a method of partitioning a three-dimensional image comprising an object region and a background region, the method comprising the steps of: And merging the two motion compensation blocks by extracting an object and a background from the merged block, wherein the partition boundary pixels of the merged block are obtained using a plurality of pixels near the partition boundary. The filtering may be performed on at least one of the luminance and chrominance components of the boundary pixels in the merged block. The filtering can be applied for any type of block partitioning. The filtering may be applied to at least one of 2NxN, Nx2N, NxN, and Asymmetric Partition mode. The partition boundary pixels of the merged block can be obtained by filtering using a plurality of pixels near the partition boundary. Partition boundary pixels of the merged block can be obtained using an average value of a plurality of pixels near the partition boundary.

본 발명의 일실시예에 따른 깊이 기반 블록 파티셔닝(Depth-based block partitioning) 방법에 따르면, 3차원 영상의 병합된 블록의 파티션(partition) 경계 픽셀을 구할 경우 간단한 필터링을 적용함으로써 부호화 효율을 높일 수 있다. According to the depth-based block partitioning method according to an embodiment of the present invention, when partition pixels of a partition of a merged block of a three-dimensional image are obtained, simple filtering is applied to increase the coding efficiency have.

도 1은 본 발명의 일실시예에 따른 깊이 기반 블록 파티셔닝(Depth-based block partitioning) 방법을 설명하기 위한 개념도이다.
도 2는 본 발명의 다른 실시예에 따른 깊이 기반 블록 파티셔닝(Depth-based block partitioning) 방법을 설명하기 위한 개념도이다.
FIG. 1 is a conceptual diagram illustrating a depth-based block partitioning method according to an embodiment of the present invention. Referring to FIG.
2 is a conceptual diagram illustrating a depth-based block partitioning method according to another embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be interpreted in an ideal or overly formal sense unless explicitly defined in the present application Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the present invention, the same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.

본 발명의 일실시예에 따른 깊이 기반 블록 파티셔닝(Depth-based block partitioning)은 블록을 객체 영역(object region)과 배경 영역(background region)으로 분할하고, 대응 텍스춰 블록(collocated texture block)에 대한 임의 형태의 블록 파티셔닝은 해당 깊이 블록(depth block)에 의해 계산된 이진 분할 마스크(binary segmentation mask)로부터 도출될 수 있다. 여기서, 텍스춰(texture)는 3차원 영상의 칼라(color)를 의미한다. Depth-based block partitioning according to an embodiment of the present invention divides a block into an object region and a background region, and creates a random block for a collocated texture block The type of block partitioning can be derived from a binary segmentation mask computed by the corresponding depth block. Here, a texture means a color of a three-dimensional image.

도 1은 본 발명의 일실시예에 따른 깊이 기반 블록 파티셔닝(Depth-based block partitioning) 방법을 설명하기 위한 개념도이다. FIG. 1 is a conceptual diagram illustrating a depth-based block partitioning method according to an embodiment of the present invention. Referring to FIG.

도 1을 참조하면, 먼저, 객체(110)와 배경(120)은 분할 마스크(segmentation mask)에 의해 분할되고, 그 다음 하나의 블록당 객체와 배경에 초점을 맞춘 움직임 보상이 수행된다. 상기 움직임 보상 블록들 각각은 객체 영역과 배경 영역으로 이루어진다. 마지막으로, 상기 객체 영역과 배경 영역은 상기 분할 마스크에 기초하여 상기 블록으로부터 상기 객체와 상기 배경을 추출함으로써 2개의 움직임 보상 블록들을 병합할 수 있다. Referring to FIG. 1, an object 110 and a background 120 are divided by a segmentation mask, and motion compensation is performed focusing on an object and a background per block. Each of the motion compensation blocks includes an object area and a background area. Finally, the object region and the background region may merge the two motion compensation blocks by extracting the object and the background from the block based on the division mask.

이때, 병합된 블록의 파티션(partition) 근처의 객체 픽셀과 배경 픽셀의 경우, 해당 픽셀과 다른 블록의 대응되는(collocated) 픽셀의 평균값(averaging value)이 사용될 수 있다. At this time, in the case of the object pixel and the background pixel near the partition of the merged block, an averaging value of the collocated pixel of the corresponding pixel and another block may be used.

도 1을 참조하여 구체적으로 설명하면, 병합된 블록의 파티션(partition) 경계 근처의 객체 픽셀(131)의 경우, 객체 픽셀(111)과 다른 블록의 대응되는(collocated) 픽셀(112) 두개의 평균값(averaging value)을 구해 파티션 근처 객체 픽셀(131)을 구할 수 있다. 1, in the case of the object pixel 131 near the partition boundary of the merged block, the average value of two pixel values of the object pixel 111 and the collocated pixels 112 of the other block the object pixel 131 near the partition can be obtained by obtaining an averaging value.

도 2는 본 발명의 다른 실시예에 따른 깊이 기반 블록 파티셔닝(Depth-based block partitioning) 방법을 설명하기 위한 개념도이다. 2 is a conceptual diagram illustrating a depth-based block partitioning method according to another embodiment of the present invention.

도 2를 참조하면, 먼저, 객체(210)와 배경(220)은 분할 마스크(segmentation mask)에 의해 분할되고, 그 다음 하나의 블록당 객체와 배경에 초점을 맞춘 움직임 보상이 수행된다. 상기 움직임 보상 블록들 각각은 객체 영역과 배경 영역으로 이루어진다. 마지막으로, 상기 객체 영역과 배경 영역은 상기 분할 마스크에 기초하여 상기 블록으로부터 상기 객체와 상기 배경을 추출함으로써 2개의 움직임 보상 블록들을 병합할 수 있다. Referring to FIG. 2, first, the object 210 and the background 220 are divided by a segmentation mask, and motion compensation is performed focusing on a background and an object per block. Each of the motion compensation blocks includes an object area and a background area. Finally, the object region and the background region may merge the two motion compensation blocks by extracting the object and the background from the block based on the division mask.

이때, 병합된 블록의 파티션(partition) 경계 근처의 객체 픽셀과 배경 픽셀의 경우, 해당 픽셀과 다른 블록의 대응되는(collocated) 픽셀(들)을 이용하여 간단한 필터링을 사용하여 경계 픽셀들을 구할 수 있다. At this time, in the case of the object pixel and the background pixel near the partition boundary of the merged block, the boundary pixels can be obtained using simple filtering using the corresponding (collocated) pixel (s) of the corresponding pixel and another block .

도 2를 참조하여 구체적으로 설명하면, 병합된 블록(merged block)의 파티션(partition) 경계 근처의 제1 픽셀 p(312), 제2 픽셀 q(313)의 경우, 경계 근처의 픽셀 p-1(311), p(312), q(313), q-1(314)를 이용하여 필터링을 적용함으로써 병합된 블록의 파티션 근처 픽셀들을 구할 수 있다. 여기서, 필터링은 병합후 블록내의 경계 픽셀들의 휘도(luminance) 및 색차(chrominance) 성분 모두에 대해 수행될 수도 있고, 또는 필터링은 병합후 블록내의 경계 픽셀들의 휘도(luminance) 및 색차(chrominance) 성분 중 어느 하나에 대해서만 수행될 수도 있다.2, in the case of the first pixel p (312) and the second pixel q (313) near the partition boundary of the merged block, pixels p-1 The pixels near the partition of the merged block can be obtained by applying the filtering using the pixel 311, p 312, q 313, and q-1 314. Here, the filtering may be performed on both the luminance and chrominance components of the boundary pixels in the merged block, or the filtering may be performed on the luminance and chrominance components of the boundary pixels in the merged block, It may be performed only for one.

병합된 블록의 파티션 근처에 존재하는 픽셀들의 필터링 후의 픽셀값은 하기의 계산식을 적용하여 구할 수 있다.The pixel value after filtering of the pixels existing near the partition of the merged block can be obtained by applying the following equation.

[수학식 1][Equation 1]

p'=((p-1) + (p) << 1 + (q)) >>2, q' = ((p) + (q) <<1 + (q-1)) >> 2q '= ((p) + (q) << 1 + (q-1)) >> 2

(여기서, <<는 쉬프트 연산으로 2N을 곱하는 효과와 동일하고, >>는 쉬프트 연산으로 2N을 나누는 효과와 동일함)
(Where << is the same as the effect of multiplying 2 N by the shift operation, >> is the same effect of dividing 2 N by the shift operation)

본 발명의 실시예에 따른 깊이 기반 블록 파티셔닝(Depth-based block partitioning) 방법의 필터링 방법은 전술한 임의 형태의 블록 파티셔닝뿐만 아니라 파티션 모드, 예를 들어 2NxN, Nx2N, NxN, 또는 비대칭 파티션 모드(Asymmetric Partition mode)에도 확장 적용될 수 있다. The filtering method of the depth-based block partitioning method according to the embodiment of the present invention is not limited to the above-described arbitrary type of block partitioning but also to a partition mode, for example, 2NxN, Nx2N, NxN, or asymmetric partition mode Partition mode).

도 3은 본 발명의 다른 실시예에 따른 깊이 기반 블록 파티셔닝(Depth-based block partitioning)시 Nx2N, Nx2N 파티션 모드에 적용할 경우의 필터링을 설명하기 위한 개념도이다. 3 is a conceptual diagram for explaining filtering applied to Nx2N and Nx2N partition modes in depth-based block partitioning according to another embodiment of the present invention.

도 3을 참조하면, 병합된 블록(merged block)의 파티션(partition) 경계 근처의 픽셀 p, 픽셀 q의 경우, 경계 근처의 픽셀 p-1, p, q, q-1를 이용하여 필터링을 적용함으로써 병합된 블록의 파티션 근처 픽셀들을 구할 수 있다. 여기서, 필터링은 병합후 블록내의 경계 픽셀들의 휘도(luminance) 및 색차(chrominance) 성분 모두에 대해 수행될 수도 있고, 또는 필터링은 병합후 블록내의 경계 픽셀들의 휘도(luminance) 및 색차(chrominance) 성분 중 어느 하나에 대해서만 수행될 수도 있다.Referring to FIG. 3, in the case of a pixel p and a pixel q near a partition boundary of a merged block, filtering is performed using pixels p-1, p, q and q-1 near the boundary Thereby obtaining pixels near the partition of the merged block. Here, the filtering may be performed on both the luminance and chrominance components of the boundary pixels in the merged block, or the filtering may be performed on the luminance and chrominance components of the boundary pixels in the merged block, It may be performed only for one.

병합된 블록의 파티션 근처에 존재하는 픽셀들의 필터링 후의 픽셀값은 하기의 계산식을 적용하여 구할 수 있다. The pixel value after filtering of the pixels existing near the partition of the merged block can be obtained by applying the following equation.

[수학식 2]&Quot; (2) &quot;

p'=((p-1) + (p) << 1 + (q)) >>2, q' = ((p) + (q) <<1 + (q-1)) >> 2q '= ((p) + (q) << 1 + (q-1)) >> 2

(여기서, <<는 쉬프트 연산으로 2N을 곱하는 효과와 동일하고, >>는 쉬프트 연산으로 2N을 나누는 효과와 동일함)(Where << is the same as the effect of multiplying 2 N by the shift operation, >> is the same effect of dividing 2 N by the shift operation)

이상 도면 및 실시예를 참조하여 설명하였지만, 본 발명의 보호범위가 상기 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the inventions as defined by the following claims It will be understood that various modifications and changes may be made thereto without departing from the spirit and scope of the invention.

Claims (6)

객체 영역과 배경 영역으로 이루어진 3차원 영상의 블록 파티션 방법에 있어서,
객체 영역과 배경 영역으로 이루어진 움직임 보상 블록들 각각에 대하여 분할 마스크에 기초하여 상기 움직임 보상 블록들로부터 객체와 배경을 추출하여 2개의 움직임 보상 블록들을 병합하는 단계를 포함하되,
상기 병합된 블록의 파티션(partition) 경계 픽셀은 파티션 경계 근처의 복수의 픽셀들을 사용하여 구하는 것을 특징으로 하는 3차원 영상의 블록 파티션 방법.
A block partitioning method of a three-dimensional image comprising an object area and a background area,
And merging the two motion compensation blocks by extracting an object and a background from the motion compensation blocks based on the division mask for each of the motion compensation blocks composed of the object region and the background region,
Wherein a partition boundary pixel of the merged block is obtained using a plurality of pixels near a partition boundary.
제1항에 있어서,
상기 필터링은 병합된 블록내의 경계 픽셀들의 휘도(luminance) 및 색차(chrominance) 성분 중 적어도 하나에 대해 수행되는 것을 특징으로 하는 3차원 영상의 블록 파티션 방법.
The method according to claim 1,
Wherein the filtering is performed on at least one of a luminance and a chrominance component of boundary pixels in the merged block.
제1항에 있어서,
상기 필터링은 임의 형태를 가지는 블록 파티셔닝에 대해 적용하는 것을 특징으로 하는 3차원 영상의 블록 파티션 방법.
The method according to claim 1,
Wherein the filtering is applied to block partitioning having an arbitrary shape.
제1항에 있어서,
상기 필터링은 2NxN, Nx2N, NxN, 및 비대칭 파티션 모드(Asymmetric Partition mode) 중 적어도 하나에 대해 적용하는 것을 특징으로 하는 3차원 영상의 블록 파티션 방법.
The method according to claim 1,
Wherein the filtering is applied to at least one of 2NxN, Nx2N, NxN, and an asymmetric partition mode.
제1항에 있어서, 상기 병합된 블록의 파티션(partition) 경계 픽셀은 파티션 경계 근처의 복수의 픽셀들을 사용하여 필터링을 함으로써 구하는 것을 특징으로 하는 3차원 영상의 블록 파티션 방법.2. The method of claim 1, wherein the partition boundary pixels of the merged block are obtained by filtering using a plurality of pixels near a partition boundary. 제1항에 있어서, 상기 병합된 블록의 파티션(partition) 경계 픽셀은 파티션 경계 근처의 복수의 픽셀들의 평균값을 이용하여 구하는 것을 특징으로 하는 3차원 영상의 블록 파티션 방법.The method of claim 1, wherein the partition boundary pixels of the merged block are obtained using an average value of a plurality of pixels near a partition boundary.
KR1020140169039A 2014-11-28 2014-11-28 Method and apparatus for depth map based block partitioning KR20160064844A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140169039A KR20160064844A (en) 2014-11-28 2014-11-28 Method and apparatus for depth map based block partitioning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140169039A KR20160064844A (en) 2014-11-28 2014-11-28 Method and apparatus for depth map based block partitioning

Publications (1)

Publication Number Publication Date
KR20160064844A true KR20160064844A (en) 2016-06-08

Family

ID=56193796

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140169039A KR20160064844A (en) 2014-11-28 2014-11-28 Method and apparatus for depth map based block partitioning

Country Status (1)

Country Link
KR (1) KR20160064844A (en)

Similar Documents

Publication Publication Date Title
US20200288138A1 (en) Method and Apparatus for Encoding and Decoding a Texture Block Using Depth Based Block Partitioning
KR101844705B1 (en) Depth aware enhancement for stereo video
EP2938069B1 (en) Depth-image decoding method and apparatus
US11800150B2 (en) Method for deriving a motion vector
KR101642205B1 (en) Determining boundary strength values for deblocking filtering for video coding
EP3349464B1 (en) Multi-view signal codec
CN107431806B (en) Method for processing video signal and apparatus therefor
KR102169608B1 (en) Method and apparatus for encoding and decoding video to enhance intra prediction process speed
KR102250092B1 (en) Method and apparatus for multi-view video encoding, method and apparatus for multi-view video decoding
US20150172714A1 (en) METHOD AND APPARATUS of INTER-VIEW SUB-PARTITION PREDICTION in 3D VIDEO CODING
KR20120000485A (en) Apparatus and method for depth coding using prediction mode
KR102179383B1 (en) Method and apparatus for determining merge mode
KR20140120900A (en) Multi-hypothesis disparity vector construction in 3d video coding with depth
KR20160096624A (en) Signaling of simplified depth coding (sdc) for depth intra- and inter-prediction modes in 3d video coding
KR20150132308A (en) Predictor for depth map intra coding
KR20150036261A (en) Apparatus for coding a bit stream representing a three-dimensional video
JP6571646B2 (en) Multi-view video decoding method and apparatus
KR102105323B1 (en) A method for adaptive illuminance compensation based on object and an apparatus using it
JP2015128252A (en) Prediction image generating method, prediction image generating device, prediction image generating program, and recording medium
KR20160064844A (en) Method and apparatus for depth map based block partitioning
Gu et al. Low complexity Bi-Partition mode selection for 3D video depth intra coding
KR20140051789A (en) Methods for performing inter-view motion prediction in 3d video and methods for determining inter-view merging candidate
KR20160064845A (en) Method and apparatus for sub-predition unit level inter-view motion predition for depth coding
KR20150026924A (en) Methods and Apparatus for depth quadtree prediction
Liu et al. Depth Map Coding Based on Arbitrarily Shaped Region

Legal Events

Date Code Title Description
N231 Notification of change of applicant
WITN Withdrawal due to no request for examination