WO2018128379A1 - 어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치 - Google Patents

어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치 Download PDF

Info

Publication number
WO2018128379A1
WO2018128379A1 PCT/KR2018/000109 KR2018000109W WO2018128379A1 WO 2018128379 A1 WO2018128379 A1 WO 2018128379A1 KR 2018000109 W KR2018000109 W KR 2018000109W WO 2018128379 A1 WO2018128379 A1 WO 2018128379A1
Authority
WO
WIPO (PCT)
Prior art keywords
motion vector
control point
current block
block
pixel
Prior art date
Application number
PCT/KR2018/000109
Other languages
English (en)
French (fr)
Inventor
이재호
김승환
임재현
Original Assignee
엘지전자(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자(주) filed Critical 엘지전자(주)
Priority to US16/475,538 priority Critical patent/US10873744B2/en
Publication of WO2018128379A1 publication Critical patent/WO2018128379A1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/547Motion estimation performed in a transform domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Abstract

본 발명은, 어파인 예측 모드를 이용하여 현재 블록을 포함하는 비디오 신호를 처리하는 방법에 있어서, 상기 현재 블록의 적어도 2개의 제어점에 인접한 픽셀 또는 블록의 움직임 벡터를 이용하여 움직임 벡터 쌍 (motion vector pair)의 후보 리스트를 생성하는 단계, 여기서 상기 제어점은 상기 현재 블록의 코너 픽셀을 의미하고, 상기 움직임 벡터 쌍은 상기 현재 블록의 좌상측 코너 픽셀 및 우상측 코너 픽셀의 움직임 벡터를 나타냄; 상기 움직임 벡터 쌍의 발산값 (divergence value)에 기초하여 기설정된 개수의 움직임 벡터 쌍의 최종 후보 리스트를 결정하는 단계, 여기서 상기 최종 후보 리스트는 발산값이 작은 순서대로 결정되고, 상기 발산값은 움직임 벡터들의 방향의 유사성을 나타내는 값임; 상기 최종 후보 리스트로부터 율 -왜곡 비용에 기초하여 상기 현재 블록의 제어점 움직임 벡터를 결정하는 단계; 및 상기 제어점 움직임 벡터에 기초하여 상기 현재 블록의 움직임 벡터 예측자를 생성하는 단계를 포함하는 것을 특징으로 하는 방법을 제공한다.

Description

【명세서】
【발명의 명칭】
어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치
【기술분야】
본 발명은 비디오 신호의 인코딩 /디코딩 방법 및 장치에 관한 것이며, 보다 구체적으로 어파인 예측을 위한 제어점 움직임 백터 (control point motion vector)를 결정하는 방법 및 장치에 관한 것이다.
【배경기술】
압축 부호화란 디지털화한 정보를 통신 회선을 통해 전송하거나, 저장 매체에 적합한 형태로 저장하기 위한 일련의 신호 처리 기술을 의미한다. 영상, 이미지, 음성 등의 미디어가 압축 부호화의 대상이 될 수 있으며, 특히 영상을 대상으로 압축 부호화를 수행하는 기술을 비디오 영상 압축이라고 일컫는다. 차세대 비디오 컨텐츠는 고해상도 (high spatial resolution), 고프레임율 (high frame rate) 및 영상 표현의 고차원화 (high dimensionality of scene representation)라는 특징을 갖게 될 것이다. 그러한 컨텐츠를 처리하기 위해서는 메모리 저장 (memory storage), 메모리 액세스율 (memory access rate) 및 처리 전력 (processing power) 측면에서 엄청난 증가를 가져올 것이다.
따라서, 차세대 비디오 컨텐츠를 보다 효율적으로 처리하기 위한 코딩 를을 디자인할 필요가 있다.
【발명의 상세한 설명】
【기술적 과제】
본 발명은 보다 효율적으로 비디오 신호를 인코딩, 디코딩하는 방법을 제안하고자 한다.
또한, 본 발명은 어파인 예측 (affme prediction)을 위한 제어점 움직임 백터 (control point motion vector) 또는 제어 블록 움직임 백터 (control block motion vector)를 결정하는 방법을 제안하고자 한다.
또한, 본 발명은 최적의 제어점 움직임 백터 (control point motion vector) 또는 제어 블록 움직임 백터 (control block motion vector)를 시그널링 (signalling)하는 방법을 제안하고자 한다.
또한, 본 발명은 4xN 또는 Nx4 블톡에서 코너 포인트 (corner point)를 포함하는 블톡의 어파인 예측 모호성 (affme prediction ambiguity)를 정의하고 이를 해결하는 방법을 제안하고자 한다.
또한, 본 발명은, 위 방법들을 모든 크기의 블록에 동일하게 적용하는 방법을 제안하고자 한다.
【기술적 해결방법】
상기의 기술적 과제를 해결하기 위해,
본 발명은, 어파인 예측 (affine prediction)을 위한 제어점 움직임 백터 (control point motion vector) 또는 제어 블톡 움직임 백터 (control block motion vector)를 결정하는 방법을 제공한다.
또한, 본 발명은 최적의 제어점 움직임 백터 (control point motion vector) 또는 제어 블톡 움직임 백터 (control block motion vector)를 시그널링 (signalling)하는 방법을 제공한다.
또한, 본 발명은 4xN 또는 Nx4 블톡에서 코너 포인트 (corner point)를 포함하는 블록의 어파인 예측 모호성 (affme prediction ambiguity)를 정의하고 이를 해결하는 방법을 제공한다.
또한, 본 발명은, 위 방법들을 모든 크기의 블록에 동일하게 적용하는 방법을 제공한다.
[발명의 효과】
본 발명은 어파인 예측 (affine prediction)을 위한 제어점 움직임 백터 (control point motion vector) 또는 제어 블록 움직임 백터 (control block motion vector)를 결정하는 방법을 제공함으로서, 코너 픽셀 또는 코너 블록 (corner block)의 움직임 백터 (motion vector)를 보다 정확하게 결정할 수 있고, 그에 따라 보다 정확한 움직임 백터 필드 (motion vector field)를 생성할 수 있다.
또한, 블록의 높이 또는 너비 (height or width)가 4인 경우 발생될 수 있는 어파인 예측 모호성 (affine prediction ambiguity)을 해결할 수 있고, 이를 통해 어파인 예측 (affine prediction)의 성능을 향상시킬 수 있다.
또한, 본 발명은 최적의 제어점 움직임 백터 (control point motion vector) 또는 제어 블록 움직임 백터 (control block motion vector)를 시그널링 (signalling)하는 방법을 제공함으로서 보다 효율적인 코딩이 수행할 수 있다.
【도면의 간단한 설명】
도 1은 본 발명이 적용되는 실시예로서, 비디오 신호의 인코딩이 수행되는 인코더의 개략적인 블록도를 나타낸다.
도 2는 본 발명이 적용되는 실시예로서, 비디오 신호의 디코딩이 수행되는 디코더의 개략적인 블록도를 나타낸다.
도 3은 본 발명이 적용될 수 있는 실시예로서, QTBT(QuadTree Binary Tree, 이하 'QTBT,라 함) 블록 분할 구조를 설명하기 위한 도면이다. 도 4는 본 발명이 적용되는 실시예로서, 인터 예측 모드를 설명하기 위한 도면이다.
도 5는 본 발명이 적용되는 실시예로서, 어파인 움직임 모델 (affine motion model)을 설명하기 위한 도면이다.
도 6 및 도 7은 본 발명이 적용되는 실시예들로서, 제어점 움직임 백터 (control point motion vector)를 이용한 어파인 움직임 예측 방법을 설명하기 위한 도면이다.
도 8은 본 발명이 적용되는 실시예로서, 코딩 블톡의 움직임 백터 집합을 나타내는 움직임 백터 필드 (motion vector field)를 설명하기 위한 도면이다.
도 9는 본 발명이 적용되는 실시예로서, 어파인 예측 (affine prediction)을 위해 제어점 움직임,백터 (control point motion vector)를 결정하는 과정을 설명하기 위한 도면이다.
도 10은 본 발명이 적용되는 실시예로서, 어파인 예측 (affine prediction)을 위해 제어 블특 움직임 백터 (control block motion vector)를 이용하는 방법을 설명하기 위한 도면이다.
도 11은 본 발명이 적용되는 실시예로서, 코딩 블록의 높이 또는 너비가 4인 경우 제어점 움직임 백터 (control point motion vector)를 결정하는 방법을 설명하기 위한 도면이다.
도 12는 본 발명이 적용되는 실시예로서, Nx4 블톡 또는 4xN 블록에 대해 어파인 예측 (affine prediction)을 수행하는 방법을 설명하기 위한 도면이다.
도 13은 본 발명이 적용되는 실시예로서, 인터 예측 모드에 따라 비디오 신호를 디코딩하는 과정을 설명하는 흐름도이다. 도 14는 본 발명이 적용되는 실시예로서, 어파인 예측 모드를 이용하여 현재 블록을 포함하는 비디오 신호를 처리하는 과정을 설명하는 흐름도이다. 【발명의 실시를 위한 최선의 형태】
본 발명은, 어파인 예측 모드를 이용하여 현재 블록을 포함하는 비디오 신호를 처리하는 방법에 있어서, 상기 현재 블록의 적어도 2개의 제어점에 인접한 픽셀 또는 블톡의 움직임 백터를 이용하여 움직임 백터 쌍 (motion vector pair)의 후보 리스트를 생성하는 단계, 여기서 상기 제어점은 상기 현재 블록의 코너 픽셀을 의미하고, 상기 움직임 백터 쌍은 상기 현재 블록의 좌상측 코너 픽셀 및 우상측 코너 픽셀의 움직임 백터를 나타냄; 상기 움직임 백터 쌍의 발산값 (divergence value)에 기초하여 기설정된 개수의 움직임 백터 쌍의 최종 후보 리스트를 결정하는 단계, 여기서 상기 최종 후보 리스트는 발산값이 작은 순서대로 결정되고, 상기 발산값은 움직임 백터들의 방향의 유사성을 나타내는 값임; 상기 최종 후보 리스트로부터 율 -왜곡 비용에 기초하여 상기 현재 블록의 제어점 움직임 백터를 결정하는 단계; 및 상기 제어점 움직임 백터에 기초하여 상기 현재 블록의 움직임 백터 예측자를 생성하는 단계를 포함하는 것을 특징으로 하는 방법을 제공한다.
본 발명에서, 상기 제어점은 상기 현재 블록의 좌상측 코너 픽셀, 우상측 코너 픽셀, 좌하측 코너 픽셀 또는 우하측 코너 픽셀 중 적어도 2개를 포함하고, 상기 후보 리스트는 상기 좌상측 코너 픽셀, 상기 우상측 코너 픽셀 및 상기 좌하측 코너 픽셀에 인접한 픽셀들 또는 블록들에 의해 구성되는 것을 특징으로 한다.
본 발명에서, 상기 후보 리스트는 상기 좌상측 코너 픽셀의 대각 인접 픽샐 (A), 상측 인접 픽셀 (B) 및 좌측 인접 픽셀 (C)의 움직임 백터들, 상기 우상측 코너 픽셀의 상측 인접 픽셀 (D) 및 대각 인접 픽셀 (E)의 움직임 백터들, 및 상기 좌하측 코너 픽셀의 좌측 인접 픽셀 (F) 및 대각 인접 픽셀 (G)의 움직임 백터들에 기초하여 생성되는 것을 특징으로 한다.
본 발명에서, 상기 방법은, 상기 후보 리스트의 움직임 백터 쌍이 2개보다 작은 경우, AMVP 후보 리스트를 상기 후보 리스트에 추가하는 단계를 더 포함하는 것을 특징으로 한다.
본 발명에서, 상기 방법은, 상기 어파인 예측 모드가 수행되는지 여부를 나타내는 예측 모드 또는 플래그 정보를 시그널링하는 단계를 더 포함하고, 상기 어파인 예측 모드는 상기 현재 블록의 제어점 움직임 백터를 이용하여 픽셀 또는 서브 블톡 단위로 움직임 백터를 유도하는 모드를 나타내는 것을 특징으로 한다. 이 경우, 디코더는 상기 예측 모드 또는 플래그 정보를 수신하고, 상기 예측 모드 또는 상기 플래그 정보에 따라 상기 어파인 예측 모드를 수행하고, 상기 어파인 예측 모드에 따라 움직임 백터를 유도할 수 있다.
본 발명에서, 상기 현재 블록이 Nx4 크기인 경우, 상기 현재 블록의 제어점 움직임 백터는 상기 현재 블록 내 좌측 서브 블록 및 우측 서브 블톡의 중앙 위치를 기준으로 유도된 움직임 백터로 결정되고, 상기 현재 블록이 4xN 크기인 경우, 상기 현재 블록의 제어점 움직임 백터는 상기 현재 블록 내 상측 서브 블톡 및 하측 서브 블록의 증앙 위치를 기준으로 유도된 움직임 백터로 결정되는 것을 특징으로 한다.
본 발명에서, 상기 현재 블록이 Nx4 크기인 경우, 상기 현재 블톡 내 좌측 서브 블록의 제어점 움직임 백터는 제 1제어점 움직임 백터와 제 3제어점 움직임 백터의 평균값에 의해 결정되고, 우측 서브 블록의 제어점 움직임 백터는 제 2제어점 움직임 백터와 제 4제어점 움직임 백터의 평균값에 의해 결정되며, 상기 현재 블록이 4xN 크기인 경우, 상기 현재 블록 내 상측 서브 블록의 제어점 움직임 백터는 제 1제어점 움직임 백터와 제 2제어점 움직임 백터의 평균값에 의해 결정되고, 하측 서브 블록의 제어점 움직임 백터는 제 3제어점 움직임 백터와 제 4제어점 움직임 백터의 평균값에 의해 결정되는 것을 특징으로 한다.
본 발명은, 어파인 예측 모드를 이용하여 현재 블록을 포함하는 비디오 신호를 처리하는 장치에 있어서, 상기 현재 블록의 적어도 2개의 제어점에 인접한 픽셀 또는 블록의 움직임 백터를 이용하여 움직임 백터 쌍 (motion vector pair)의 후보 리스트를 생성하고, 상기 움직임 백터 쌍의 발산값 (divergence value)에 기초하여 기설정된 개수의 움직임 백터 쌍의 최종 후보 리스트를 결정하고, 상기 최종 후보 리스트로부터 율 -왜곡 비용에 기초하여 상기 현재 블록의 제어점 움직임 백터를 결정하며, 상기 제어점 움직임 백터에 기초하여 상기 현재 블록의 움직임 백터 예측자를 생성하는 인터 예측부를 포함하되, 상기 제어점은 상기 현재 블록의 코너 픽샐을 의미하고, 상기 움직임 백터 쌍은 상기 현재 블록의 좌상측 코너 픽셀 및 우상측 코너 픽셀의 움직임 백터를 나타내고, 상기 최종 후보 리스트는 발산값이 작은 순서대로 결정되고, 상기 발산값은 움직임 백터들의 방향의 유사성을 나타내는 것을 특징으로 하는 장치를 제공한다.
본 발명에서, 상기 인터 예측부는, 상기 후보 리스트의 움직임 백터 쌍이 2개보다 작은 경우, AMVP 후보 리스트를 상기 후보 리스트에 추가하는 것을 특징으로 한다.
본 발명에서, 디코더의 인터 예측부는, 어파인 예측 모드가 수행되는지 여부를 나타내는 예측 모드 또는 플래그 정보를 수신하고, 상기 인터 예측부는 상기 예측 모드 또는 상기 플래그 정보에 따라 상기 어파인 예측 모드를 수행하고, 상기 어파인 예측 모드에 따라 움직임 백터를 유도할 수 있다. 여기서, 상기 어파인 예측 모드는 상기 현재 블록의 제어점 움직임 백터를 이용하여 픽셀 또는 서브 블톡 단위로 움직임 백터를 유도하는 모드를 나타내는 것을 특징으로 한다.
【발명의 실시를 위한 형태】
이하, 첨부된 도면을 참조하여 본 발명의 실시예의 구성과 그 작용을 설명하며 , 도면에 의해서 설명되는 본 발명의 구성과 작용은 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기슬적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.
아울러, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어를 사용하여 설명한다. 그러한 경우에는 해당 부분의 상세 설명에서 그 의미를 명확히 기재하므로, 본 발명의 설명에서 사용된 용어의 명칭만으로 단순 해석되어서는 안 될 것이며 그 해당 용어의 의미까지 파악하여 해석되어야 함을 밝혀두고자 한다.
또한, 본 발명에서 사용되는 용어들은 발명을 설명하기 위해 선택된 일반적인 용어들이나, 유사한 의미를 갖는 다른 용어가 있는 경우 보다 적절한 해석을 위해 대체 가능할 것이다. 예를 들어, 신호, 데이터, 샘플, 픽쳐, 프레임, 블록 등의 경우 각 코딩 과정에서 적절하게 대체되어 해석될 수 있을 것이다. 또한, 파티셔닝 (partitioning), 분해 (decomposition), 스플리팅 (splitting) 및 분할 (division) 둥의 경우에도 각 코딩 과정에서 적절하게 대체되어 해석될 수 있을 것이다. 도 1은 본 발명이 적용되는 실시예로서, 비디오 신호의 인코딩이 수행되는 인코더의 개략적인 블록도를 나타낸다.
도 1을 참조하면, 인코더 (100)는 영상 분할부 (1 10), 변환부 (120), 양자화부 (130), 역양자화부 (140), 역변환부 (150), 필터링부 (160), 복호 픽쳐 버퍼 (DPB: Decoded Picture Buffer) (170), 인터 예측부 (180), 인트라 예측부 (185) 및 엔트로피 인코딩부 (190)를 포함하여 구성될 수 있다.
영상 분할부 (1 10)는 인코더 (100)에 입력된 입력 영상 (Input image) (또는, 픽쳐, 프레임)를 하나 이상의 처리 유닛으로 분할할 수 있다. 예를 들어, 상기 처리 유닛은 코딩 트리 유닛 (CTU: Coding Tree Unit), 코딩 유닛 (CU: Coding Unit), 예측 유닛 (PU: Prediction Unit) 또는 변환 유닛 (TU: Transform Unit)일 수 있다.
다만, 상기 용어들은 본 발명에 대한 설명의 편의를 위해 사용할 뿐이며, 본 발명은 해당 용어의 정의에 한정되지 않는다. 또한, 본 명세서에서는 설명의 편의를 위해, 비디오 신호를 인코딩 또는 디코딩하는 과정에서 이용되는 단위로써 코딩 유닛이라는 용어를 사용하지만, 본 발명은 그에 한정되지 않으며 발명 내용에 따라 적절하게 해석 가능할 것이다.
인코더 (100)는 입력 영상 신호에서 인터 예측부 (180) 또는 인트라 예측부 (185)로부터 출력된 예측 신호 (prediction signal)를 감산하여 레지듀얼 신호 (residual signal)를 생성할 수 있고, 생성된 레지듀얼 신호는 변환부 (120)로 전송된다. 변환부 (120)는 레지듀얼 신호에 변환 기법올 적용하여 변환 계수 (transform coefficient)를 생성할 수 있다. 변환 과정은 정사각형의 동일한 크기를 갖는 픽셀 블록에 적용될 수도 있고, 정사각형이 아닌 가변 크기의 블록에도 적용될 수 있다.
양자화부 (130)는 변환 계수를 양자화하여 엔트로피 인코딩부 (190)로 전송하고, 엔트로피 인코딩부 (190)는 양자화된 신호 (quantized signal)를 엔트로피 코딩하여 비트스트림으로 출력할 수 있다.
양자화부 (130)로부터 출력된 양자화된 신호 (quantized signal)는 예측 신호를 생성하기 위해 이용될 수 있다. 예를 들어, 양자화된 신호 (quantized signal)는 루프 내의 역양자화부 (140) 및 역변환부 (150)를 통해 역양자화 및 역변환을 적용함으로써 레지듀얼 신호를 복원할 수 있다. 복원된 레지듀얼 신호를 인터 예측부 (180) 또는 인트라 예측부 (185)로부터 출력된 예측 신호 (prediction signal)에 더함으로써 복원 신호 (reconstructed signal)가 생성될 수 있다.
한편, 위와 같은 압축 과정에서 인접한 블톡들이 서로 다른 양자화 파라미터에 의해 양자화됨으로써 블록 경계가 보이는 열화가 발생될 수 있다. 이러한 현상을 블록킹 열화 (blocking artifacts)라고 하며, 이는 화질을 평가하는 중요한 요소 중의 하나이다. 이러한 열화를 줄이기 위해 필터링 과정을 수행할 수 있다. 이러한 필터링 과정을 통해 블록킹 열화를 제거함과 동시에 현재 픽쳐에 대한 오차를 줄임으로써 화질을 향상시킬 수 있게 된다.
필터링부 (160)는 복원 신호에 필터링을 적용하여 이를 재생 장치로 출력하거나 복호 픽쳐 버퍼 (170)에 전송한다. 복호 픽쳐 버퍼 (170)에 전송된 필터링된 신호는 인터 예측부 (180)에서 참조 픽쳐로 사용될 수 있다. 이처럼, 필터링된 픽쳐를 화면간 예측 모드에서 참조 픽쳐로 이용함으로써 화질 뿐만 아니라 부호화 효을도 향상시킬 수 있다.
복호 픽쳐 버퍼 (170)는 필터링된 픽쳐를 인터 예측부 (180)에서의 참조 픽쳐로 사용하기 위해 저장할 수 있다.
인터 예측부 (180)는 복원 픽쳐 (reconstructed picture)를 참조하여 시간적 중복성 및 /또는 공간적 증복성을 제거하기 위해 시간적 예측 및 /또는 공간적 예측을 수행한다. 여기서, 예측을 수행하기 위해 이용되는 참조 픽쳐는 이전 시간에 부호화 /복호화 시 블특 단위로 양자화와 역양자화를 거친 변환된 신호이기 때문에, 블로킹 아티팩트 (blocking artifact)나 링잉 아티팩트 (ringing artifact)가 존재할 수 있다.
따라서, 인터 예측부 (180)는 이러한 신호의 불연속이나 양자화로 인한 성능 저하를 해결하기 위해, 로우패스 필터 (lowpass filter)를 적용함으로써 픽셀들 사이의 신호를 서브 픽셀 단위로 보간할 수 있다. 여기서, 서브 픽셀은 보간 필터를 적용하여 생성된 가상의 픽셀을 의미하고, 정수 픽셀은 복원된 픽쳐에 존재하는 실제 픽셀을 의미한다. 보간 방법으로는 선형 보간, 양선형 보간 (bilinear interpolation), 위너 필터 (wiener filter) 등이 적용될 수 있다.
보간 필터는 복원 픽쳐 (reconstructed picture)에 적용되어 예측의 정밀도를 향상시킬 수 있다. 예를 들어, 인터 예측부 (180)는 정수 픽셀에 보간 필터를 적용하여 보간 픽셀을 생성하고, 보간 픽셀들 (interpolated pixels)로 구성된 보간 블록 (interpolated block)을 예측 블록 (prediction block)으로 사용하여 예측을 수행할 수 있다.
인트라 예측부 (185)는 현재 부호화를 진행하려고 하는 블톡의 주변에 있는 샘플들을 참조하여 현재 블록을 예측할 수 있다. 상기 인트라 예측부 (185)는 인트라 예측을 수행하기 위해 다음과 같은 과정을 수행할 수 있다. 먼저, 예측 신호를 생성하기 위해 필요한 참조 샘플을 준비할 수 있다. 그리고, 준비된 참조 샘플을 이용하여 예측 신호를 생성할 수 있다. 이후, 예측 모드를 부호화하게 된다. 이때, 참조 샘플은 참조 샘플 패딩 및 /또는 참조 샘플 필터링을 통해 준비될 수 있다. 참조 샘플은 예측 및 복원 과정을 거쳤기 때문에 양자화 에러가 존재할 수 있다. 따라서, 이러한 에러를 줄이기 위해 인트라 예측에 이용되는 각 예측 모드에 대해 참조 샘플 필터링 과정이 수행될 수 있다.
상기 인터 예측부 (180) 또는 상기 인트라 예측부 (185)를 통해 생성된 예측 신호 (prediction signal)는 복원 신호를 생성하기 위해 이용되거나 레지듀얼 신호를 생성하기 위해 이용될 수 있다. 도 2는 본 발명이 적용되는 실시예로서, 비디오 신호의 디코딩이 수행되는 디코더의 개략적인 블록도를 나타낸다.
도 2를 참조하면, 디코더 (200)는 파싱부 (미도시), 엔트로피 디코딩부 (210), 역양자화부 (220), 역변환부 (230), 필터링부 (240), 복호 픽쳐 버퍼 (DPB: Decoded Picture Buffer Unit) (250), 인터 예측부 (260), 인트라 예측부 (265) 및 복원부 (미도시)를 포함하여 구성될 수 있다.
다른 예로, 상기 디코더 (200)는 파싱부 (미도시), 블록 분할 결정부 (미도시) 및 디코딩부 (미도시)를 포함하는 것으로 간단히 표현될 수도 있다. 이때, 본 발명에서 적용되는 실시예들은 상기 파싱부 (미도시), 블록 분할 결정부 (미도시) 및 디코딩부 (미도시)를 통해 수행될 수 있다. 디코더 (200)는 도 1의 인코더 (100)로부터 출력된 신호를 수신할 수 있고, 파싱부 (미도시)를 통해 신택스 엘리먼트를 파싱 또는 획득할 수 있다. 파싱 또는 획득된 신호는 엔트로피 디코딩부 (210)를 통해 엔트로피 디코딩될 수 있다.
역양자화부 (220)에서는 양자화 스텝 사이즈 정보를 이용하여 엔트로피 디코딩된 신호로부터 변환 계수 (transform coefficient)를 획득한다.
역변환부 (230)에서는 변환 계수를 역변환하여 레지듀얼 신호 (residual signal)를 획득하게 된다.
복원부 (미도시)는 획득된 레지듀얼 신호를 인터 예측부 (260) 또는 인트라 예측부 (265)로부터 출력된 예측 신호 (prediction signal)에 더함으로써 복원 신호 (reconstructed signal)를 생성한다.
필터링부 (240)는 복원 신호 (reconstructed signal)에 필터링을 적용하여 이를 재생 장치로 출력하거나 복호 픽쳐 버퍼부 (250)에 전송한다. 복호 픽쳐 버퍼부 (250)에 전송된 필터링된 신호는 인터 예측부 (260)에서 참조 픽쳐로 사용될 수 있다.
본 명세서에서, 인코더 (100)의 필터링부 (160), 인터 예측부 (180) 및 인트라 예측부 (185)에서 설명된 실시예들은 각각 디코더의 필터링부 (240), 인터 예측부 (260) 및 인트라 예측부 (265)에도 동일하게 적용될 수 있다.
상기 디코더 (200)를 통해 출력된 복원 영상 신호 (reconstructed video signal)는 재생 장치를 통해 재생될 수 있다. 도 3은 본 발명이 적용되는 실시예로서, QTBT(QuadTree BinaryTree, 이하 'QTBT'라 함) 블록 분할 구조를 설명하기 위한 도면이다. 춰드트리와 이진트리 (ΌΤΒΤ: Quad-Tree Binary-Tree)
QTBT는 쿼드트리 (quadtree) 구조와 이진트리 (binarytree) 구조가 결합된 코딩 블록의 구조를 말한다. 구체적으로, QTBT 블록 분할 구조에서는 영상을 CTU 단위로 코딩하며, CTU는 쿼드트리 (quadtree) 형태로 분할되고, 쿼드트리의 리프 노드 (leaf node)는 추가적으로 이진트리 (binarytree) 형태로 분할된다.
이하에서는, 도 3을 참조하여 QTBT 구조와 이를 지원하는 분할 플래그 (split flag) 신택스에 대하여 설명한다.
상기 도 3을 참조하면, 현재 블록은 QTBT 구조로 분할될 수 있다. 즉, CTU는 먼저 쿼드트리 형태로 계층적으로 분할될 수 있다. 그리고, 쿼드트리 형태로 더 이상 분할되지 않는 쿼드트리의 리프 노드 (leaf node)는 이진 트리 형태로 계층적으로 분할될 수 있다.
인코더는 QTBT 구조에서 쿼드트리의 분할 여부 결정올 위하여 분할 플래그를 시그널링할 수 있다. 이때, 쿼드트리 분할은 MinQTLumalSlice, MinQTChromalSlice 또는 MinQTNonlSlice 값에 의해 조정 (또는 제한)될 수 있다. 여기서, MinQTLumalSlice는 I-슬라이스에서 루마 (luma)성분의 쿼드트리 리프 노드의 최소 크기를 나타내고, MinQTLumaChromalSlice는 I-슬라이스에서 크로마 (chroma) 성분의 쿼드트리 리프 노드의 최소 크기를 나타내고, MinQTNonlSlice는 비 I-슬라이스 (non I-slice)에서 쿼드트리 리프 노드의 최소 크기를 나타낸다.
QTBT의 쿼드트리 구조에서는 I-슬라이스에서 루마 성분과 크로마 성분이 서로 독립적인 분할 구조를 가질 수 있다. 예를 들어, QTBT 구조에서 I- 슬라이스의 경우, 루마 성분과 크로마 성분의 분할 구조는 서로 다르게 결정될 수 있다. 이와 같은 분할 구조를 지원하기 위하여, MinQTLumalSlice와 MinQTChromalSlice는 서로 다른 값을 가질 수 있다.
다른 예로, QTBT 의 비 I-슬라이스에서 쿼드트리 구조는 루마 성분과 크로마 성분의 분할 구조가 동일하게 결정될 수 있다. 예를 들어, 비 I- 슬라이스의 경우, 루마 성분과 크로마 성분의 워드트리 분할 구조는 MinQTNonlSlice 값에 의해 조정될 수 있다.
QTBT 구조에서 쿼드트리의 리프 노드는 이진트리 형태로 분할될 수 있다. 이때, 이진 트리 분할은 MaxBTDepth, MaxBTDepthlSliceL 및 MaxBTDepthlSliceC에 의해 조정 (또는 제한)될 수 있다. 여기서, MaxBTDepth는 비 I-슬라이스에서 쿼드트리의 리프 노드를 기준으로 이진트리 분할의 최대 깊이 (depth)를 나타내고, MaxBTDepthlSliceL는 I-슬라이스에서 루마 성분의 이진트리 분할의 최대 깊이를 나타내고, MaxBTDepthlSliceC는 I-슬라이스에서 크로마 성분의 이진트리 분할의 최대 깊이를 나타낸다.
또한, QTBT의 I-슬라이스에서 루마 성분과 크로마 성분이 서로 다른 구조를 가질 수 있기 때문에, I-슬라이스에서 MaxBTDepthlSliceL와 MaxBTDepthlSliceC는 서로 다른 값을 가질 수 있다.
또한, QTBT의 BT는 가로 또는 세로 방향으로 분할될 수 있다. 따라서, BT 분할 여부를 나타내는 BT 분할 플래그 (예를 들어, BinarySplitFlag) 뿐만 아니라 BT 분할될 때 어떤 방향으로 분할할 것인지에 대한 분할 방향 정보 (예를 들어, BTSplitMode)를 시그널링할 필요가 있다.
일실시예로, QTBT 구조는 BT 분할 플래그 (BinarySplitFlag)가 0이 아닌 경우, 분할 방향 정보 (BTSplitMode)를 시그널링할 수 있다. 예를 들어, BTSplitMode가 0인 경우 가로로 분할하고 BTSplitMode가 1인 경우 세로로 분할할 수 있다.
한편, QTBT의 분할 구조의 경우, 쿼드트리 구조와 이진트리 구조를 함께 사용할 수 있으며, 이 경우 다음과 같은 규칙이 적용될 수 있다.
첫째, MaxBTSize는 MaxQTSize보다 작거나 같다. 여기서, MaxBTSize는 이진트리 분할의 최대 크기를 나타내고, MaxQTSize 는 쿼드트리 분할의 최대 크기를 나타낸다.
둘째, QT의 리프 노드 (Leaf node)가 BT의 루트 (root)가 된다.
셋째, 한 번 BT로 분할되면 다시 QT로 분할 될 수 없다
넷째, BT는 수직 분할 (Vertical Split) 및 수평 분할 (Horizontal Split)을 정의한다.
다섯째, MaxQTDepth, MaxBTDepth를 미리 정의한다. 여기서, MaxQTDepth 는 쿼드트리 분할의 최대 깊이 (depth)를 나타내고, MaxBTDepth는 이진트리 분할의 최대 깊이 (depth)를 나타낸다.
여섯째, MaxBTSize, MinQTSize 는 슬라이스 타입 (slice type)에 따라 달라질 수 있다. 도 4는 본 발명이 적용되는 실시예로서, 인터 예측 모드를 설명하기 위한 도면이다.
인터 예측 모드
본 발명이 적용되는 인터 예측 모드에서는 움직임 정보의 양을 즐이기 위하여 머지 (Merge) 모드, AMVP(Advanced Motion Vector Prediction) 모드 또는 어파인 모드가 이용될 수 있다. 여기서, 상기 어파인 모드는 어파인 움직임 모델을 이용한 모드로 어파인 머지 모드 또는 어파인 인터 모드 중 적어도 하나를 포함할 수 있다.
1) 머지 (Merge)모드
머지 (Merge) 모드는 공간적 (spatially) 또는 시간적 (temporally)으로 이웃하는 블록으로부터 움직임 파라미터 (또는 정보)를 도출하는 방법을 의미한다.
머지 모드에서 이용 가능한 후보의 세트는 공간적으로 이웃하는 후보 (spatial neighbor candidates), 시간적 푸보 (temporal candidates) 및 생성된 루보 (generated, candidates)로 구성된다.
도 4(a)를 참조하면, {Al, Bl, BO, AO, B2}의 순서에 따라 각 공간적 후보 블록이 이용 가능한지 여부가 판단된다. 이때, 후보 블록이 인트라 예측 모드로 인코딩되어 움직임 정보가 존재하지 않는 경우 또는 후보 블록이 현재 픽쳐 (또는 슬라이스)의 밖에 위치하는 경우에는 해당 후보 블록은 이용할 수 없다.
공간적 후보의 유효성의 판단 후, 현재 처리 블록의 후보 블록에서 불필요한 후보 블록을 제외함으로써 공간적 머지 후보가 구성될 수 있다. 예를 들어, 현재 예측 블톡의 후보 블록이 동일 코딩 블록 내 첫 번째 예측 블록인 경우 해당 후보 블록을 제외하고 또한 동일한 움직임 정보를 가지는 후보 블록들을 제외할 수 있다.
공간적 머지 후보 구성이 완료되면, {TO, T1 }의 순서에 따라 시간적 머지 후보 구성 과정이 진행된다.
시간적 후보 구성에 있어서, 참조 픽쳐의 동일 위치 (collocated) 블록의 우하단 (right bottom) 블록 (TO)이 이용 가능한 경우, 해당 블록을 시간적 머지 후보로 구성한다. 동일 위치 (collocated) 블록은 선택된 참조 픽쳐에서 현재 처.리 블록에 대웅되는 위치에 존재하는 블록을 의미한다. 반면, 그렇지 않은 경우, 동일 위치 (collocated) 블록의 중앙 (center)에 위치하는 블록 (T1)을 시간적 머지 후보로 구성한다.
머지 후보의 최대 개수는 슬라이스 헤더에서 특정될 수 있다. 머지 후보의 개수가 최대 개수보다 큰 경우, 최대 개수 보다 작은 개수의 공간적 후보와 시간적 후보가 유지된다. 그렇지 않은 경우, 머지 후보의 개수는 후보 개수가 최대 개수가 될 때까지 현재까지 추가된 후보들을 조합하여 추가적인 머지 후보 (즉, 조합된 쌍예즉 머지 早보 (combined bi-predictive merging candidates))가 생성된다.
인코더에서는 위와 같은 방법으로 머지 후보 리스트를 구성하고, 움직임 추정 (Motion Estimation)을 수행함으로써 머지 후보 리스트에서 선택된 후보 블록 정보를 머지 인텍스 (merge index) (예를 들어, mergeᅳ idx[x0][y0]')로써 디코더에게 시그널링한다. 도 4(b)에서는 머지 후보 리스트에서 B1 블록이 선택된 경우를 예시하고 있으며, 이 경우, 머지 인덱스 (merge index)로 "인덱스 l(Index 1)"이 디코더로 시그널링될 수 있다.
디코더에서는 인코더와 동일하게 머지 후보 리스트를 구성하고, 머지 후보 리스트에서 인코더로부터 수신한 머지 인덱스 (merge index)에 해당하는 후보 블톡의 움직임 정보로부터 현재 블록에 대한 움직임 정보를 도출한다. 그리고, 디코더는 도출한 움직임 정보를 기반으로 현재 처리 블록에 대한 예측 블록을 생성한다. 2) AMVP(Advanced Motion Vector Prediction) 모드
AMVP 모드는 주변 블록으로부터 움직임 백터 예측 값을 유도하는 방법을 의미한다. 따라서, 수평 및 수직 움직임 백터 차분 값 (MVD: motion vector difference), 참조 인텍스 및 인터 예측 모드가 디코더로 시그널링된다. 수평 및 수직 움직임 백터 값은 유도된 움직임 백터 예측 값과 인코더로부터 제공된 움직임 백터 차분 값 (MVD: motion vector difference)를 이용하여 계산된다.
즉, 인코더에서는 움직임 백터 예측값 후보 리스트를 구성하고, 움직임 추정 (Motion Estimation)을 수행함으로써 움직임 백터 예측값 후보 리스트에서 선택된 움직임 참조 플래그 (즉, 후보 블록 정보) (예를 들어, mvp— lXJlag[xO][yO]')를 디코더에게 시그널링한다. 디코더에서는 인코더와 동일하게 움직임 백터 예측값 후보 리스트를 구성하고, 움직임 백터 예측값 후보 리스트에서 인코더로부터 수신한 움직임 참조 플래그에서 지시된 후보 블록의 움직임 정보를 이용하여 현재 처리 블록의 움직임 백터 예측값올 도출한다. 그리고, 디코더는 도출된 움직임 백터 예측값과 인코더로부터 전송된 움직임 백터 차분값을 이용하여 현재 처리 블톡에 대한 움직임 백터값올 획득하게 된다. 그리고, 디코더는 도출한 움직임 정보를 기반으로 현재 처리 블록에 대한 예측 블록을 생성한다 (즉, 움직임 보상).
AMVP 모드의 경우, 앞서 도 4에서 5개의 이용 가능한 후보들 중에서 2개의 공간적 움직임 후보가 선택된다. 첫 번째 공간적 움직임 후보는 좌측에 위치한 {AO, Al } 세트로부터 선택되고, 두 번째 공간적 움직임 후보는 상위에 위치한 {BO, Bl, B2} 세트로부터 선택된다. 이때, 이웃한 후보 블록의 참조 인덱스가 현재 예측 블록과 동일하지 않은 경우, 움직임 백터가 스케일링된다. 공간적 움직임 후보의 탐색 결과 선택된 후보 개수가 2개라면 후보 구성을 종료하나, 2개 미만인 경우 시간적 움직임 후보가 추가된다.
디코더 (예를 들어, 인터 예측부)는 처리 블톡 (예를 들어, 예측 유닛)에 대한 움직임 파라미터를 디코딩한다.
예를 들어, 처리 블특이 머지 모드를 이용하는 경우, 디코더는 인코더로부터 시그널링된 머지 인덱스를 디코딩할 수 있다ᅳ 그리고, 머지 인덱스에서 지시된 후보 블록의 움직임 파라미터로부터 현재 처리 블록의 움직임 파라미터를 도출할 수 있다.
또한, 처리 블록이 AMVP 모드가 적용된 경우, 디코더는 인코더로부터 시그널링된 수평 및 수직 움직임 백터 차분 값 (MVD: motion vector difference), 참조 인덱스 및 인터 예측 모드를 복호화할 수 있다. 그리고, 움직임 참조 플래그로부터 지시된 후보 블록의 움직임 파라미터로부터 움직임 백터 예측값을 도출하고, 움직임 백터 예측값과 수신한 움직임 백터 차분 값을 이용하여 현재 처리 블록의 움직임 백터값을 도출할 수 있다.
디코더는 디코딩된 움직임 파라미터 (또는 정보)를 이용하여 예측 유닛에 대한 움직임 보상을 수행한다.
즉, 인코더 /디코더에서는 복호화된 움직임 파라미터를 이용하여, 이전에 디코딩된 픽쳐로부터 현재 유닛의 영상을 예측하는 움직임 보상 (motion compensation)을 수행한다. 도 5는 본 발명이 적용되는 실시예로서, 어파인 움직임 모델 (affine motion model)을 설명하기 위한 도면이다.
일반적인 영상 부호화 기술은 코딩 블록의 움직임을 표현하기 위하여 병진 움직임 모델 (translation motion model)을 사용한다. 여기서, 병진 움직임 모델 (translation motion model)은 평행 이동된 블특 기반의 예측 방법을 나타낸다. 즉, 코딩 블록의 움직임 정보는 하나의 움직임 백터를 이용하여 표현된다. 그러나 : 실제 코딩 블록 내에서 각 픽셀별 최적의 움직임 백터는 서로 다를 수 있다. 만약, 적은 정보만으로 픽샐별 또는 서브 블록 단위별로 최적의 움직임 백터를 결정할 수 있다면 코딩 효율을 높일 수 있다.
따라서, 본 발명은 인터 예측의 성능을 높이기 위해 평행 이동된 블톡 기반의 예측 방법뿐만 아니라, 영상의 다양한 움직임을 반영한 인터 예측 기반 영상 처리 방법을 제안한다.
또한, 본 발명은 서브 블톡 또는 픽셀 단위의 움직임 정보를 반영하도록 하여 예측의 정확도를 높이고 압축 성능을 높이는 방법을 제안한다.
또한, 본 발명은 어파인 움직임 모델 (affme motion model)을 사용하여 코딩 /디코딩을 수행하는 어파인 움직임 예측 방법에 대해 제안한다. 어파인 움직임 모델은 제어점의 움직임 백터를 이용하여 픽셀 단위 또는 서브 블톡 단위로 움직임 백터를 유도하는 예측 방법을 나타낸다.
도 5를 참조하면, 영상의 왜곡올 움직임 정보로서 표현하기 위해 다양한 방법이 사용될 수 있으며, 특히 어파인 움직임 모델은 도 5에 도시된 4가지 움직임을 표현할 수 있다.
예를 들어, 어파인 움직임 모델은 영상의 이동 (translate), 영상의 확대 /축소 (scale), 영상의 회전 (rotate), 영상의 비뚤림 (shear)를 비롯하여 유발되는 임의의 영상 왜곡을 모델링할 수 있다.
어파인 움직임 모델은 다양한 방법으로 표현될 수 있으나, 그 중에서 본 발명에서는 블톡의 특정 기준점 (또는 기준 픽셀 /샘플)에서의 움직임 정보를 활용하여 왜곡을 표시 (또는 식별)하고, 이를 이용하여 인터 예측을 수행하는 방법을 제안한다. 여기서, 기준점은 제어점 (CP: Control Point)(또는 제어 픽샐, 제어 샘플)이라고 지칭될 수 있으며, 이러한 기준점에서의 움직임 백터는 제어점 움직임 백터 (CPMV: Control Point Motion Vector)라고 지칭될 수 있다. 이러한 제어점의 개수에 따라 표현할 수 있는 왜곡의 정도가 달라질 수 있다.
어파인 움직임 모델은 다음 수학식 1과 같이 6개의 파라미터 (a, b, c, d, e, f)를 이용하여 표현될 수 있다.
【수학식 1】 vx = a * x + b * y + c
vy = d * X + e * y + f 여기서, (x,y)는 코딩 블록의 좌상측 픽셀의 위치를 나타낸다. 그리고, v_x 및 v_y는 각각 (x,y) 에서의 움직임 백터를 나타낸다. 도 6 및 도 7은 본 발명이 적용되는 실시예들로서, 제어점 움직임 백터 (control point motion vector)를 이용한 어파안 움직임 예측 방법을 설명하기 위한 도면이다.
도 6을 참조하면, 현재 블록 (601)의 좌상측 제어점 (control point) (CP0) (602) (이하, 제 1 제어점이라 함), 우상측 제어점 (control point) (CP (603)(이하, 제 2 제어점이라 함) 및 좌하측 제어점 (control point) (CP2) (604)(이하, 제 3 제어점이라 함)은 각각 독립적인 움직임 정보를 가질 수 있다. 이를 각각 CP0, CP,, CP2 이라 표현할 수 있다. 그러나, 이는 본 발명의 일실시예에 해당하고, 본 발명은 이에 한정되지 않는다. 예를 들어, 우하측 제어점, 센터 제어점, 그외 서브 블록의 위치별 제어점 등 다양하게 제어점을 정의할 수 있다.
본 발명의 일실시예로, 상기 저 11 제어점 내지 제 3 제어점 중 적어도 하나는 현재 블록에 포함된 픽셀일 수 있다. 또는, 다른 예로, 상기 제 1 제어점 내지 제 3 제어점 중 적어도 하나는 현재 블록에 포함되지 않는 현재 블록에 인접한 픽셀일 수 있다.
상기 제어점들 중 하나 이상의 제어점의 움직임 정보를 이용하여 현재 블록 (601)의 픽셀 별 또는 서브 블록 별 움직임 정보가 유도될 수 있다. 예를 들어, 현재 블록 (601)의 좌상측 제어점 (602), 우상측 제어점 (603) 및 좌하측 제어점 (604)의 움직임 백터를 이용한 어파인 움직임 모델은 다음 수학식 2와 같이 정의될 수 있다.
【수학식 2】 x w h υΛ
Vy一 w * x h * y + v y
여기서, ^ 를 좌상측 제어점 (602)의 움직임 백터, 를 우상측 제어점 (603)의 움직임 백터, ^를 좌하측 제어점 (604)의 움직임 백터라고 할 때, v^ = {Vox. v0y), vl = {vlx, vly}, T2 = {v2x, v2y] 로 정의될 수 있다. 그리고, 수학식 2에서 w는 현재 블록 (601)의 너비 (width), h는 현재 블톡 (601)의 높이 (height)를 나타낸다. 그리고, ^ = { , ^}는 {x,y} 위치의 움직임 백터를 나타낸다. 본 발명의 다른 일실시예로, 어파인 움직임 모델이 표현할 수 있는 움직임 중 병진 (translation), 스케일 (scale), 회전 (rotate)의 3가지 움직임을 표현하는 어파인 움직임 모델을 정의할 수 있다. 본 명세서에서는 이를 간이 어파인 움직임 모델 (simplified affine motion model) 또는 간이 어파인 움직임 모델 (similarity affine motion model)이라 부르기로 한다.
상기 간이 어파인 움직임 모델은 다음 수학식 3과 같이 4개의 파라미터 (a, b, c, d)를 이용하여 표현될 수 있다.
【수학식 3] vx = a * x— b * y + c
vy = b * x + a * y + d 여기서, 는 각각 {x,y} 위치의 움직임 백터를 나타낸다. 이와 같이
4개의 파라미터를 이용하는 어파인 움직임 모델을 AF4라 부를 수 있다. 본 발명은 이에 한정되지 않으며, 6개의 파라미터를 이용하는 경우에는 AF6라 하며, 위 실시예들을 동일하게 적용할 수 있다.
상기 도 7을 살펴보면, ^를 현재 블톡의 좌상측 제어점 (701)의 움직임 백터, 를 우상측 제어점 (702)의 움직임 백터라고 할 때, ^ ^^! ) , ^ = {^;c, vly}로 정의될 수 있다. 이때, AF4의 어파인 움직임 모델을 다음의 수학식 4와 같이 정의될 수 있다.
【수학식 4】
Figure imgf000026_0001
수학식 4에서 w는 현재 블록의 너비 (width), h는 현재 블록의 높이 (height)를 나타낸다. 그리고, = { , uy}는 각각 {x,y} 위치의 움직임 백터를 나타낸다.
인코더 또는 디코더는 제어점 움직임 백터 (예를 들어, 좌상측 제어점 (701) 및 우상측 제어점 (702)의 움직임 백터)를 이용하여 각 픽셀 위치의 움직임 백터를 결정 (또는 유도)할 수 있다.
본 발명에서, 어파인 움직임 예측을 통해 결정되는 움직임 백터들의 집합을 어파인 움직임 백터 필드로 정의할 수 있다. 상기 어파인 움직임 백터 필드는 상기 수학식 1 내지 4 중 적어도 하나를 이용하여 결정될 수 있다.
부호화 /복호화 과정에서 어파인 움직임 예측을 통한 움직임 백터는 픽셀 단위 또는 미리 정의된 (또는 미리 설정된) 블록 (또는 서브 블록) 단위로 결정될 수 있다. 예를 들어, 픽셀 단위로 결정되는 경우 블록 내 각 픽셀을 기준으로 움직임 백터가 유도될 수 있고, 서브 블톡 단위로 결정되는 경우 현재 블록 내 각 서브 블록 단위를 기준으로 움직임 백터가 유도될 수 있다. 다른 예로, 서브 블록 단위로 결정되는 경우, 움직임 백터는 좌상측 픽셀 또는 중앙 픽셀을 기준으로 해당 서브 블록의 움직임 백터가 유도될 수 있다.
이하, 본 발명의 설명에 있어 설명의 편의를 위해, 어파인 움직임 예측을 통한 움직임 백터가 4x4 블록 단위로 결정되는 경우를 위주로 설명하나, 본 발명은 이에 한정되는 것은 아니며, 본 발명은 픽셀 단위 또는 다른 크기의 블톡 단위로 적용될 수 있다. 도 8은 본 발명이 적용되는 실시예로서, 코딩 블록의 움직임 백터 집합을 나타내는 움직임 백터 필드 (motion vector field)를 설명하기 위한 도면이다. 상기 도 8을 참조하면, 현재 블록의 크기가 16x16 인 경우를 가정한다. 인^더 또는 디코더는 현재 블록의 좌상측 제어점 (801) 및 우상측 제어점 (802)의 움직임 백터를 이용하여 이용하여 4x4 서브 블록 단위로 움직임 백터를 결정할 수 있다. 그리고, 각 서브 블록의 중앙 픽셀 값을 기준으로 해당 서브 블특의 움직임 백터가 결정될 수 있다.
상기 도 7에서, 각 서브 블록의 중앙에 표시된 화살표는 어파인 움직임 모델 (Affin motion model)에 의해 획득된 움직임 백터를 나타낸다.
어파인 움직임 예측은 어파인 머지 모드 (이하, 'AF 머지 모드,라 함)와 어파인 인터 모드 (이하, 'AF 인터 모드,라 함)로 이용될 수 있다. AF 머지 모드는 스킵 모드 또는 머지 모드와 유사하게 움직임 백터 차이 (motion vector difference)를 부호화하지 않고, 2개의 제어점 움직임 백터를 유도하여 부호화 또는 복호화하는 방법이다. AF 인터 모드는 제어점 움직임 백터 예측자 (motion vector predictor)와 제어점 움직임 백터를 결정한 후, 그 차이에 해당하는 제어점 움직임 백터 차이 (control point motion vector difference)를 부호화 또는 복호화 방법이다. 이 경우, AF4의 경우에는 2개의 제어점의 움직임 백터 차이가 전송되고, AF6의 경우에는 3개의 제어점의 움직임 백터 차이가 전송된다. 도 9는 본 발명이 적용되는 실시예로서, 어파인 예측 (affine prediction)을 위해 제어점 움직임 백터 (control point motion vector)를 결정하는 과정을 설명하기 위한 도면이다.
본 발명이 적용되는 인코더 또는 디코더는 어파인 예측 (affme prediction)올 위해 제어점 움직임 백터 (control point motion vector)를 결정할 수 있다. 이는 다음과 같은 과정에 따른다.
일실시예로, AF 인터 모드에서 제어점 움직임 백터 예측값올 유도하는 방법을 제안한다. 제어점 움직임 백터 예측 값은 제 1 제어점 및 제 2 제어점의 2개의 움직임 백터 쌍으로 구성될 수 있고, 2개의 제어점 움직임 백터 예측값의 후보 리스트가 구성될 수 있다. 여기서, 인코더는 2개의 후보들 중 최적의 제어점 움직임 백터 예측값을 나타내는 인텍스를 시그널링할 수 있다.
먼저, 상기 인코더 또는 디코더는 2개의 제어점에 기초하여 어파인 예측 (affine prediction)을 위한 움직임 백터 후보 리스트를 결정할 수 있다. 현재 블록의 좌상측 픽셀 (또는 블록)의 움직임 백터를 vo, 우상측 픽셀 (블록)의 움직임 백터를 vl 이라 하면, 움직임 백터 쌍 (motion vector pair)은 (νθ, vl)으로 표현할 수 있다. 예를 들어, 상기 도 9를 참고하면, (v0, vl)의 후보 리스트는 각각 좌상측 픽셀 (또는 블록)및 우상측 픽셀 (또는 블록)에 인접한 픽샐 (또는 블록)의 움직임 백터로 구성될 수 있다. 구체적 예로, νθ의 후보 리스트는 좌상측 픽셀 (또는 블록)에 인접한 A, B, C 픽셀 (또는 블록)들의 움직임 백터들로 구성될 수 있고, vl의 후보 라스트는 우상측 픽셀 (또는 블록)에 인접한 D, E 픽샐 (또는 블록)들의 움직임 백터들로 구성될 수 있다. 이는 다음 수학식 5와 같이 표현될 수 있다.
【수학식 5】
{Oo' v = {VA' VB' VC}, ^ = {vD,vE}} 여기서, VA, VB, VC, VD, VE는 각각 A, B, C, D, E 픽샐 (또는 블록)의 움직임 백터를 나타낸다. 다른 일실시예로, 인코더 또는 디코더는 3개의 제어점에 기초하여 어파인 예측 (affine prediction)을 위한 움직임 백터 후보 리스트를 결정할 수 있다. 예를 들어, 상기 도 9를 살펴보면, (vO, vl, v2)의 움직임 백터 후보 리스트를 결정하기 위해 3개의 제어점의 움직임 백터들 (vO, vl, v2) 을 고려할 수 있다. 즉, (vO, vl, v2)의 움직임 백터 후보 리스트는 좌상측 픽셀 (또는 블록), 우상측 픽셀 (또는 블록) 및 좌하측 픽셀 (또는 블록)에 인접한 픽셀 (또는 블록)의 움직임 백터로 구성될 수 있다. 상기 3개의 제어점의 움직임 백터들 (vO, vl, v2) 은 다음 수학식 6과 같이 표현될 수 있다.
【수학식 6】
ίθοΆ,
Figure imgf000030_0001
= {vD vE}, v2 = {vF vG}} 여기서, VA, VB, VC, VD, VE, VF, Vg 는 각각 A, B, C, D, E, F, G 픽씰 (또는 블록)의 움직임 백터를 나타낸다. 상기 인코더 또는 디코더는 움직임 백터들 (vO, vl) 또는 (vO, vl, v2)에 대해 백터의 발산값 (divergence value of vector)을 계산하여, 상기 발산값이 작은 순서대로 분류한 후 상위 2개 (가장 작은 2개의 값들)의 후보를 이용할 수 있다. 여기서, 발산값은 움직임 백터들의 방향의 유사성을 나타내는 값으로, 상기 발산값이 작을수록 움직임 백터들은 서로 유사한 방향을 갖는 것을 의미할 수 있다. 다만, 본 발명은 이에 한정되지 않으며, 발산값들 증 상위 1개, 3개 또는 4개를 이용할 수도 있으며, 이는 제어점을 몇 개 이용하는지에 따라 그 실시예는 다양하게 적용될 수 있다. 상기 발산값은 아래 수학식 7에 의해 정의될 수 있다. 【수학식 7]
DV = \ (vlx - vOx) * h - (v2y - vOy) * w\ + \ (vly - vOy) * h + (v2x一 vOx) * w\ 여기서, h, w 는 각각 현재 블톡의 높이 (height), 너비 (width)를 나타내고, (vOx) , {vlx) , (v2x) 는 각각 현재 블톡의 좌상측 픽셀 (또는 블톡), 우상측 픽셀 (또는 블록), 좌하측 픽셀 (또는 블록)의 움직임 백터의 X성분을 나타내고,
(U0y) , {Vly) , {V2y) 는 각각 현재 블톡의 좌상측 픽셀 (또는 블록), 우상측 픽셀 (또는 블톡), 좌하측 픽셀 (또는 블톡)의 움직임 백터의 y성분을 나타낸다ᅳ 다른 실시예로, v2 , v3는 v0 , \^에 따라 어파인 움직임 모델 (affine motion model)에 의해 유도된 값으로 재정의하여 사용할 수 있다. 상기와 같이, 움직임 백터 후보로 발산값이 가장 작은 2개가 결정되면, 상기 인코더 또는 디코더는 상기 2개의 움직임 백터 후보에 대해 율 -왜곡 비용 (Rate-Distortion cost) 을 확인하고, 율 -왜곡 비용 결과에 기초하여 제어점 움직임 백터를 결정할 수 있다. 상기 결정된 제어점 움직임 백터는 움직임 백터 예측자로 유도되거나 시그널링될 수 있다. 한편, 상기 움직임 백터 후보의 개수가 2보다 작은 경우, AMVP(Advanced Motion Vector Prediction) 후보 리스트를 이용할 수 있다. 예를 들어, 인코더 또는 디코더는 AMVP 후보 리스트의 후보를 상기 움직임 백터 후보 리스트에 추가할 수 있다. 구체적 예로, 상기 움직임 백터 후보 리스트의 후보가 0개인 경우, 상기 인코더 또는 디코더는 AMVP 후보 리스트의 상위 2개의 후보를 후보 리스트에 추가할 수 있다. 상기 움직임 백터 후보 리스트의 후보가 1개인 경우, 상기 인코더 또는 디코더는 AMVP 후보 리스트의 첫번째 후보를 상기 움직임 백터 후보 리스트에 추가할 수 있다. 여기서, 상기 AMVP 후보 리스트는 앞서 도 4에서 설명한 실시예들이 적용될 수 있다. . 위와 같은 과정을 통해 제어점 움직임 백터가 결정되면, 상기 결정된 제어점 움직임 백터는 움직임 백터 예측자로 유도되거나 시그널링될 수 있다.
도 10은 본 발명이 적용되는 실시예로서, 어파인 예측 (affine prediction)을 위해 제어 블톡 움직임 백터 (control block motion vector)를 이용하는 방법을 설명하기 위한 도면이다. 본 실시예는 어파인 예측을 위해 제어 블톡 움직임 백터 (control block motion vector)를 이용하는 방법을 제안한다. 제어 블톡 (Control block)은 도 10과 같이 현재 블록의 코너에 있는 4x4 서브 블록 (sub-block) CB0, CB1 으로 정의될 수 있으나, 본 발명은 이에 한정되지 않으며, 좌상측 코너 블록, 우상측 코너 블록, 좌하측 코너 블록, 우하측 코너 블록 또는 센터 블록 중 적어도 하나가 이용될 수 있다. 이하, 실시예에서는 좌상측 코너 블록과 우상측 코너 블록 CBO, CB1을 기준으로 설명하지만, 다른 실시예들도 동일하게 적용될 수 있다. 제어 블톡 움직임 백터 v0, vl은 해당 블록 위치의 이웃 블록 A, B, C, D, E의 움직임 백터에 기초하여 다음 수학식 8의 어파인 움직임 모델에 의해 유도될 수 있다.
【수학식 8】
(" - vi.x-vi.x , Y vi,y-vi.y , . ,
γχ - w * χ +
Figure imgf000032_0001
여기서, ί, j는 이웃 블록을 나타내고, w, h는 i, j 블록과 제어 블록의 중앙값을 기준으로 하는 가상의 블특의 너비 (width), 높이 (height)를 나타낸다. 상기 수학식을 통해 결정된 제어 블록 움직임 백터에 기초하여 움직임 백터 필드 (Motion Vector Field)를 결정할 수 있다. 도 11은 본 발명이 적용되는 실시예로서, 코딩 블특위 높이 또는 너비가 4인 경우 제어점 움직임 백터 (control point motion vector)를 결정하는 방법을 설명하기 위한 도면이다.
본 실시예는 현재 블록의 너비 (width) 또는 높이 (height)가 4인 경우 제어점 움직임 백터 (control point motion vector)를 결정하는 방법을 제안한다.
도 11(a)에서와 같이, 코너점 (corner point)를 포함한 서브 블록 (sub-block) (CBO, CBl, CB2, CB3)의 경우 서브 블록의 중앙값을 기준으로 하여 유도된 움직임 백터 대신 제어점 움직임 백터 (V0 & VI) 또는 제어점 움직임 백터에 의해 유도된 코너점 움직임 백터 (corner point motion vector) (V2 & V3)를 MVF로 이용할 수 있다. 여기서, 상기 코너점 움직임 백터도 상기 제어점 움직임 백터로 볼 수 있다.
도 1 1(b)와 같이, 현재 블록의 높이가 4인 경우 (혹은 너비가 4인 경우) 1개의 서브 블특이 2개의 제어점 (control point)를 공유하고 결국 CB0의 경우 V2를 CB1의 경우 V3를 MVF로 이용할 수 있다. 그러나, 이와 같이 2개의 제어점 (control point)를 공유하는 블록에 대해 어파인 예측 (affine prediction)을 수행할 경우 인코더와 디코더 간에 불일치 (mismatch)가 발생할 수 있다.
따라서, 본 발명은 제어점 (control point) 대신 제어 블록 (control block)의 개념을 이용하여 현재 블록의 높이 또는 너비가 4인 경우 하나의 제어 블록 움직임 백터를 이용하는 방법을 제공한다.
다른 실시예로, 본 발명은 어파인 예측 (affine prediction)을 위한 제어점 움직임 백터를 결정하는 방법을 제공한다.
먼저, 인코더 또는 디코더는 제어 블록 움직임 백터 V0의 2개 후보를 결정할 수 있다.
예를 들어, 상기 도 9를 살펴보면, 상기 인코더 또는 디코더는 블록 A의 움직임 백터 V_A와 블록 B의 움직임 백터 V_B를 입력으로 하는 어파인 움직임 모델 (Affine motion model)에 기초하여 첫번째 후보 V0_1을 결정할 수 있다. 그리고 상기 인코더 또는 디코더는 블록 A의 움직임 백터 V— A와 블록 C의 움직임 백터 v_C를 입력으로 하는 어파인 움직임 모델 (Affine motion model)에 따라 두번째 후보 V0_2을 결정할 수 있다.
이후, 상기 인코더 또는 디코더는 제어 블록 움직임 백터 VI의 후보를 결정할 수 있다. 이때, 상기 인코더 또는 디코더는 블록 D와 블록 E의 움직임 백터 v_D와 v_E를 입력으로 하는 어파인 움직임 모델 (Affine motion model)에 따라 VI을 결정할 수 있다.
상기 인코더 또는 디코더는 제어 블록 움직임 백터 쌍 {VOJ, VI }과 {V0— 2, VI } 중 어파인 예측 (affine prediction)에 사용할 제어 블록 움직임 백터를 결정할 수 있다. 여기서, 상기 결정된 제어 블록 움직임 백터는 이용 가능한 이웃 블록의 수에 따라 적응적으로 시그널링되거나, 또는 유도될 수 있다.
다른 실시예로, 본 발명은 제어 블록 움직임 백터를 결정하는 또 다른 방법을 제공한다. 인코더 또는 디코더는 제어 블록 움직임 백터 V0의 3개 후보를 결정할 수 있다.
먼저, 상기 인코더 또는 디코더는 블록 A의 움직임 백터 v_A와 블록 B의 움직임 백터 V— B를 입력으로 하는 어파인 움직임 모델 (Affme motion model)에 따라 첫번째 후보 V으 1을 결정할 수 있다. 상기 인코더 또는 디코더는 블록 A의 움직임 백터 V一 A와 블록 C의 움직임 백터 V— c를 입력으로 하는 어파인 움직임 모델에 따라 두번째 후보 V0— 2을 결정할 수 있다. 상기 인코더 또는 디코더는 블록 A의 움직임 백터 V— A와 블톡 B의 움직임 백터 V_B, 블록 c의 움직임 백터 v :를 입력으로 하는 어파인 움직임 모델에 따라 세번째 후보 V0_3을 결정할 수 있다. 이때, 다음 수학식 9와 같이 6 파라미터 어파인 모델 (6 parameter Affine model)이 이용될 수 있다.
【수학식 9】
Figure imgf000035_0001
여기서, i, j, k는 이웃 블록을 나타내고, w, h는 i, j, k 블록과 제어 블록의 중앙값을 기준으로 하는 가상의 블특의 너비 (width), 높이 (height)를 나타낸다. 그리고, 상기 인코더 또는 디코더는 제어 블톡 움직임 백터 VI의 후보를 결정할 수 있다. 이때, 블록 D와 블록 E의 움직임 백터 v_D와 v_E를 입력으로 하는 어파인 움직임 모델에 따라 VI을 결정할 수 있다. 상기 인코더 또는 디코더는 제어 블톡 움직임 백터 쌍들 {V0_1 , VI }, {VO— 2, VI },또는 {VO— 3, VI } 증 어파인 예측에 사용할 제어 블록 움직임 백터를 결정할 수 있다. 상기 결정된 제어 블록 움직임 백터는 이용가능한 이웃 블록의 수에 따라 적웅적으로 시그널링되거나,또는 유도될 수 있다.
다른 실시예로, 본 발명은 제어 블록 움직임 백터를 시그널링하는 구체적인 방법올 제공한다.
예를 들어, 3개의 제어 블록 움직임 백터 쌍을 발산값 (divergence value)이 작은 순서대로 분류한 후 제일 작은 값을 가지는 제어 블록 움직임 백터 쌍 (control block motion vector pair)에 0을 할당하고, 나머지 제어 블톡 움직임 백터 쌍에 10 혹은 11 비트를 할당할 수 있다.
또는, 제일 작은 값을 가지는 제어 블특 움직임 백터 쌍에 0을 할당하고, 두번째 작은 값을 가지는 제어 블록 움직임 백터 쌍에 1을 할당할 수 있다. 도 12는 본 발명이 적용되는 실시예로서, Nx4 블톡 또는 4xN 블톡에 대해 어파인 예측 (affme prediction)을 수행하는 방법을 설명하기 위한 도면이다.
상기 도 12에서와 같이 코딩 블톡의 크기가 4xN 또는 Nx4 인 경우 코너점 (corner point)를 포함하는 서브 블특 (sub-block)은 2개만 존재하는 반면 코너점 움직임 백터 (control point motion vector)는 4개가 존재한다. 이러한 경우를 어파인 예측 모호성 (Affine prediction ambiguity)이라고 정의할 수 있다.
앞서 살펴본 도 11(a)에서와 같이, CBO, CB1, CB2, CB3 순서로 제어점 움직임 백터 (control point motion vector) VO, VI, V2, V3를 저장하기 때문에, 도 12(a)의 Nx4 블록에서 CB— L과 CB R^ 최종적으로 V2와 V3를 움직임 백터 필드 (Motion Vector Field)에 저장하여 사용한다. 또한, 4xN 블톡에서는 CB— U와 CB— B에 V1, V3를 움직임 백터 필드 (Motion Vector Field)에 저장하여 사용한다.
Nx4 또는 4xN 블록에 대한 어파인 예측 (affine prediction)은 AF 머지 모드 (AF_MERGE)에서 수행되고 AF 인터 모드 (AFJNTER)에서는 수행되지 않는데, 실제 AF 인터 모드에서 부호화를 수행한 경우 인코더와 디코더 사이에 불일치 (mismatch)가 발생하는 문제점이 있다. 따라서, 본 발명은 이를 해결하기 위한 다양한 실시예들을 제공한다.
(실시예 1)
본 발명의 일실시예는, Nx4 또는 4xN 블록에 대한 어파인 예측 방법에 대해 제안한다. 어파인 예측 모호성 (Affine prediction ambiguity) 문제를 해결하기 위해 Nx4 또는 4χΝ 블특에서는 제어점 (control point)를 포함하는 블록 (CB) 에서 VO, VI, V2, V3 대신 어파인 움직임 모델 (affine motion model)에 의해 각 서브 블록 (sub-block)의 중앙 위치 기준으로 유도된 움직임 백터를 움직임 백터 필드 (Motion Vector Field)에 저장하여 사용할 수 있다. 예를 들어, Nx4 블톡의 CB_L, CB— R의 경우 V0과 VI을 입력으로 하는 어파인 움직임 모델 (affine motion model)에 의해 유도된 CB— L, 8_11의 중앙 위치 기준의 움직임 백터를 움직임 백터 필드 (Motion Vector Field)에 그대로 사용할 수 있다.
(실시예 2)
본 발명의 일실시예는, AF 머지 모드 (AFᅳ MERGE) 부호화에 사용하는 이웃 어파인 블록이 실시예 1로 코딩된 경우 현재 블톡의 AF 머지 모드 (AFᅳ MERGE)를 위한 제어점 움직임 백터를 유도하는 방법을 제공한다. 예를 들어, CB— L 또는 CBJJ의 중앙 위치 좌표를 (0, 0) 으로 가정하여 어파인 움직임 모델 (affine motion model)에 의해 유도된 움직임 백터를 현재 블록의 제어점 움직임 백터로 결정할 수 있다.
(실시예 3)
다른 예로, 본 명세서에서 설명하는 실시예들은 Nx4 및 4xN 크기뿐 아니라 모든 크기 블록에서 동일하게 적용될 수 있다.
(실시예 4)
다른 예로, 본 발명은 Nx4 또는 4xN 블록의 어파인 예측 모호성 (affine prediction ambiguity)를 해결하기 위한 방법을 제공한다.
예를 들어, Nx4 블톡의 경우 ^ 은 V0을 08_1은 VI을 움직임 백터 필드 (Motion Vector Field)에 저장하고, 움직임 백터 및 제어점 움직임 백터로 사용한다. 또한, 4xN 블톡의 경우 CBJJ는 V0을 움직임 백터 필드 (Motion Vector Field)에 저장하고, 8_8는 V2 를 움직임 백터 필드 (Motion Vector Field)에 저장하여 움직임 백터 및 제어점 움직임 백터로 사용한다.
(실시예 5)
다른 예로, 본 발명은 AF 머지 모드 (AF_MERGE) 부호화에 사용하는 이웃 어파인 블록이 실시예 4로 코딩된 경우 현재 블특의 AF 머지 모드 (AF— MERGE)를 위한 제어점 움직임 백터를 유도하는 방법을 제공한다.
상기 실시예 1에서의 CBJ^l V0 위치 (Nx4 블톡) 혹은 CBJJ의 V0 위치 (4xN 블록) 좌표를 (0, 0) 으로 가정하여 어파인 움직임 모델 (affine motion model)에 의해 유도된 움직임 백터를 현재 블록의 제어점 움직임 백터로 결정할 수 있다 ·
(실시예 6) 다른 예로, 본 발명은 Nx4 또는 4xN 블록의 경우 CB가 포함하는 제어점 움직임 백터의 평균값을 움직임 백터 필드 (Motion Vector Field)에 저장하고 제어점 움직임 백터로 사용하는 방법을 제공한다.
예를 들어, Nx4 블록의 경우 CB— L은 V0과 V2의 평균값을, 8_1의 경우 VI과 V3의 평균값을 사용할 수 있다. 그리고, 4xN 블록의 경우 CB J는 V0와 VI의 평균값을, CB— B의 경우 V2와 V3의 평균값을 사용할 수 있다.
(실시예 7)
다른 예로, 본 발명은 AF 머지 모드 (AF— MERGE) 부호화에 사용하는 이웃 어파인 블록이 실시예 6으로 코딩된 경우 현재 블록의 AF 머지 모드 (AF_MERGE)를 위한 제어점 움직임 백터를 유도하는 방법올 제공한다. 예를 들어, CB_L 혹은 CB— U의 중앙 위치 좌표를 (0, 0) 으로 가정하여 어파인 움직임 모델 (affine motion model)에 의해 유도된 움직임 백터를 현재 블록의 제어점 움직임 백터로 결정할 수 있다.
(실시예 8)
상기 실시예들 6, 7은 Nx4 및 4xN 크기뿐 아니라 모든 크기 블록에서 동일하게 적용될 수 있다. 도 13은 본 발명이 적용되는 실시예로서, 인터 예측 모드에 따라 비디오 신호를 디코딩하는 과정을 설명하는 흐름도이다.
디코더는 현재 블록을 포함하는 비디오 신호骨 수신할 수 있다 (S1310). 상기 디코더는 상기 현재 블록에 AF 머지 모드가 적용되는지 여부를 확인할 수 있다 (S1320). S1320 단계의 확인 결과, 상기 현재 블록에 AF 머지 모드가 적용되는 경우, AF 머지 모드에 기초하여 디코딩를 수행할 수 있다 (S 1330). 상기 AF 머지 모드가 적용되는 경우, 상기 디코더는 상기 현재 블록의 제어점 움직임 백터의 후보 리스트를 생성하고 인코더로부터 수신된 인텍스 (또는 플래그) 값에 기초하여 결정되는 움직임 백터를 움직임 백터 예측자로 이용할 수 있다.
S1320 단계의 확인 결과, 상기 현재 블록에 상기 AF 머지 모드가 적용되지 않는 경우, 상기 디코더는 상기 AF 인터 모드가 적용되는지 여부를 확인할 수 있다 (S1340). S1340 단계의 확인 결과, 상기 현재 블록에 상기 AF 인터 모드가 적용되는 경우, 상기 디코더는 상기 AF 인터 모드에 기초하여 디코딩을 수행할 수 있다 (S 1350). 상기 AF 인터 모드가 적용되는 경우, 상기 디코더는 제어점 움직임 백터와후보 리스트를 생성하고, 인코더로부터 수신된 인덱스 (또는 풀래그) 값을 이용하여 움직임 백터 예측자를 결정한 후, 인코더로부터 수신된 움직임 백터 예측자의 차분값올 합산하여 제어점 움직임 백터를 결정할 수 있다.
S1340 단계의 확인 결과, 상기 현재 블톡에 상기 AF 인터 모드가 적용되지 않는 경우, 상기 디코더는 상기 AF 머지 모드 및 상기 AF 인터 모드 이외의 예측 모드에 기초하여 디코딩을 수행할 수 있다 (S 1360). 도 14는 본 발명이 적용되는 실시예로서, 어파인 예측 모드를 이용하여 현재 블톡을 포함하는 비디오 신호를 처리하는 과정을 설명하는 흐름도이다.
본 발명은, 어파인 예측 모드를 이용하여 현재 블록을 포함하는 비디오 신호를 처리하는 방법을 제공한다.
먼저, 비디오 신호 처리 장치는 현재 블록의 적어도 2개의 제어점에 인접한 픽셀 또는 블록의 움직임 백터를 이용하여 움직임 백터 쌍 (motion vector pair)의 후보 리스트를 생성할 수 있다 (S1410). 여기서, 상기 제어점은 상기 현재 블록의 코너 픽셀을 의미하고, 상기 움직임 백터 쌍은 상기 현재 블록의 좌상측 코너 픽셀 및 우상측 코너 픽샐의 움직임 백터를 나타낸다.
일실시예로, 상기 제어점은 상기 현재 블록의 좌상측 코너 픽셀, 우상측 코너 픽셀, 좌하측 코너 픽셀 또는 우하측 코너 픽셀 중 적어도 2개를 포함하고, 상기 후보 리스트는 상기 좌상측 코너 픽셀, 상기 우상측 코너 픽셀 및 상기 좌하측 코너 픽셀에 인접한 픽셀들 또는 블록들에 의해 구성될 수 있다.
일실시예로, 상기 후보 리스트는 상기 좌상측 코너 픽샐의 대각 인접 픽샐 (A), 상측 인접 픽셀 (B) 및 좌측 인접 픽샐 (C)의 움직임 백터들, 상기 우상측 코너 픽셀의 상측 인접 픽셀 (D) 및 대각 인접 픽셀 (E)의 움직임 백터들, 및 상기 좌하측 코너 픽샐의 좌측 인접 픽셀 (F) 및 대각 인접 픽셀 (G)의 움직임 백터들에 기초하여 생성될 수 있다.
일실시예로, 상기 방법은, 상기 후보 리스트의 움직임 백터 쌍이 2개보다 작은 경우, AMVP 후보 리스트를 상기 후보 리스트에 추가하는 단계를 더 포함할 수 있다.
일실시예로, 상기 현재 블록이 Nx4 크기인 경우, 상기 현재 블톡의 제어점 움직임 백터는 상기 현재 블록 내 좌측 서브 블록 및 우측 서브 블록의 중앙 위치를 기준으로 유도된 움직임 백터로 결정되고, 상기 현재 블록이 4xN 크기인 경우, 상기 현재 블록의 제어점 움직임 백터는 상기 현재 블톡 내 상측 서브 블록 및 하측 서브 블톡의 중앙 위치를 기준으로 유도된 움직임 백터로 결정되는 것을 특징으로 한다.
일실시예로, 상기 현재 블특이 Nx4 크기인 경우, 상기 현재 블록 내 좌측 서브 블록의 제어점 움직임 백터는 저 11제어점 움직임 백터와 제 3제어점 움직임 백터의 평균값에 의해 결정되고, 우측 서브 블록의 제어점 움직임 백터는 제 2제어점 움직임 백터와 제 4제어점 움직임 백터의 평균값에 의해 결정되며, 상기 현재 블록이 4xN 크기인 경우, 상기 현재 블록 내 상측 서브 블톡의 제어점 움직임 백터는 제 1제어점 움직임 백터와 제 2제어점 움직임 백터의 평균값에 의해 결정되고, 하측 서브 블특의 제어점 움직임 백터는 제 3제어점 움직임 백터와 제 4제어점 움직임 백터의 평균값에 의.해 결정되는 것을 특징으로 한다.
다른 일실시예로, 상기 방법은, 상기 어파인 예측 모드가 수행되는지 여부를 나타내는 예측 모드 또는 플래그 정보를 시그널링할 수 있다.
이 경우, 디코더는 상기 예측 모드 또는 플래그 정보를 수신하고, 상기 예측 모드 또는 상기 풀래그 정보에 따라 상기 어파인 예측 모드를 수행하고, 상기 어파인 예측 모드에 따라 움직임 백터를 유도할 수 있다. 여기서, 상기 어파인 예측 모드는 상기 현재 블특의 제어점 움직임 백터를 이용하여 픽셀 또는 서브 블톡 단위로 움직임 백터를 유도하는모드를 나타내는 것을 특징으로 한다. 한편, 상기 비디오 신호 처리 장치는 상기 움직임 백터 쌍의 발산값 (divergence value)에 기초하여 기설정된 개수의 움직임 백터 쌍의 최종 후보 리스트를 결정할 수 있다 (S1420). 여기서, 상기 최종 후보 리스트는 발산값이 작은 순서대로 결정되고, 상기 발산값은 움직임 백터들의 방향의 유사성을 나타내는 값을 의미한다.
상기 비디오 신호 처리 장치는 상기 최종 후보 리스트로부터 율 -왜곡 비용에 기초하여 상기 현재 블록의 제어점 움직임 백터를 결정할 수 있다 (S1430). 상기 비디오 신호 처리 장치는 상기 제어점 움직임 백터에 기초하여 상기 현재 블록의 움직임 백터 예측자를 생성할수 있다 (S1440). 상기 기술된 것과 같이, 본 발명에서 설명한 실시예들은 프로세서, 마이크로 프로세서, 컨트를러 또는 칩 상에서 구현되어 수행될 수 있다. 예를 들어, 상기 도 1 및 도 2에서 도시한 기능 유닛들은 컴퓨터, 프로세서, 마이크로 프로세서, 컨트를러 또는 칩 상에서 구현되어 수행될 수 있다.
또한, 본 발명이 적용되는 디코더 및 인코더는 멀티미디어 방송 송수신 장치, 모바일 통신 단말, 홈 시네마 비디오 장치, 디지털 시네마 비디오 장치, 감시용 카메라, 비디오 대화 장치, 비디오 통신과 같은 실시간 통신 장치, 모바일 스트리밍 장치, 저장 매체, 캠코더, 주문형 비디오 (VoD) 서비스 제공 장치, 인터넷 스트리밍 서비스 제공 장치, 3차원 (3D) 비디오 장치, 화상 전화 비디오 장치, 및 의료용 비디오 장치 등에 포함될 수 있으며, 비디오 신호 및 데이터 신호를 처리하기 위해 사용될 수 있다.
또한, 본 발명이 적용되는 처리 방법은 컴퓨터로 실행되는 프로그램의 형태로 생산될 수 있으며, 컴퓨터가 판독할 수 있는 기록 매체에 저장될 수 있다. 본 발명에 따른 데이터 구조를 가지는 멀티미디어 데이터도 또한 컴퓨터가 판독할 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 판독할 수 있는 기록 매체는 컴퓨터로 읽을 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 상기 컴퓨터가 판독할 수 있는 기록 매체는, 예를 들어, 블루레이 디스크 (BD), 범용 직렬 버스 (USB), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크 및 광학적 데이터 저장 장치를 포함할 수 있다. 또한, 상기 컴퓨터가 판독할 수 있는 기록 매체는 반송파 (예를 들어, 인터넷올 통한 전송)의 형태로 구현된 미디어를 포함한다. 또한, 인코딩 방법으로 생성된 비트 스트림이 컴퓨터가 판독할 수 있는 기록 매체에 저장되거나 유무선 통신 네트워크를 통해 전송될 수 있다.
【산업상 이용가능성】
이상, 전술한 본 발명의 바람직한 실시예는, 예시의 목적을 위해 개시된 것으로, 당업자라면 이하 첨부된 특허청구범위에 개시된 본 발명의 기술적 사상과 그 기술적 범위 내에서, 다양한 다른 실시예들을 개량, 변경, 대체 또는 부가 등이 가능할 것이다.

Claims

【청구의 범위】
【청구항 1】
어파인 예측 모드를 이용하여 현재 블록을 포함하는 비디오 신호를 처리하는 방법에 있어서, 상기 현재 블록의 적어도 2개의 제어점에 인접한 픽셀 또는 블록의 움직임 백터를 이용하여 움직임 백터 쌍 (motion vector pair)의 후보 리스트를 생성하는 단계, 여기서 상기 제어점은 상기 현재 블록의 코너 픽셀을 의미하고, 상기 움직임 백터 쌍은 상기 현재 블록의 좌상측 코너 픽셀 및 우상측 코너 픽샐의 움직임 백터를 나타냄; 상기 움직임 백터 쌍의 발산값 (divergence value)에 기초하여 기설정된 개수의 움직임 백터 쌍의 최종 후보 리스트를 결정하는 단계, 여기서 상기 최종 후보 리스트는 발산값이 작은 순서대로 결정되고, 상기 발산값은 움직임 백터들의 방향의 유사성을 나타내는 값임;
상기 최종 후보 리스트로부터 율 -왜곡 비용에 기초하여 상기 현재 블록의 제어점 움직임 백터를 결정하는 단계; 및
상기 제어점 움직임 백터에 기초하여 상기 현재 블록의 움직임 백터 예측자를 생성하는 단계
를 포함하는 것을 특징으로 하는 방법.
【청구항 2】
저 1 1항에 있어서,
상기 제어점은 상기 현재 블특의 좌상측 코너 픽셀, 우상측 코너 픽셀, 좌하측 코너 픽셀 또는 우하측 코너 픽셀 중 적어도 2개를 포함하고, 상기 후보 리스트는 상기 좌상측 코너 픽셀, 상기 우상측 코너 픽셀 및 상기 좌하측 코너 픽샐에 인접한 픽셀들 또는 블톡들에 의해 구성되는 것을 특징으로 하는 방법.
【청구항 3]
제 2항에 있어서,
상기 후보 리스트는 상기 좌상측 코너 픽셀의 대각 인접 픽셀 (A), 상측 인접 픽셀 (B) 및 좌측 인접 픽셀 (C)의 움직임 백터들, 상기 우상측 코너 픽셀의 상측 인접 픽셀 (D) 및 대각 인접 픽셀 (E)의 움직임 백터들, 및 상기 좌하측 코너 픽샐의 좌측 인접 픽셀 (F) 및 대각 인접 픽셀 (G)의 움직임 백터들에 기초하여 생성되는 것을 특징으로 하는 방법.
【청구항 4】
제 1항에 있어서, 상기 방법은,
상기 후보 리스트의 움직임 백터 쌍이 2개보다 작은 경우, AMVP 후보 리스트를 상기 후보 리스트에 추가하는 단계
를 더 포함하는 것을 특징으로 하는 방법.
【청구항 5]
제 1항에 있어서, 상기 방법은,
상기 어파인 예측 모드가 수행되는지 여부를 나타내는 예측 모드 또는 플래그 정보를 시그널링하는 단계를 더 포함하고,
상기 어파인 예측 모드는 상기 현재 블록의 제어점 움직임 백터를 이용하여 픽샐 또는 서브 블록 단위로 움직임 백터를 유도하는 모드를 나타내는 것을 특징으로 하는 방법.
【청구항 6】
제 1항에 있어서,
상기 현재 블톡이 Nx4 크기인 경우, 상기 현재 블특의 제어점 움직임 백터는 상기 현재 블록 내 좌측 서브 블톡 및 우측 서브 블록의 중앙 위치를 기준으로 유도된 움직임 백터로 결정되고,
상기 현재 블록이 4xN 크기인 경우, 상기 현재 블록의 제어점 움직임 백터는 상기 현재 블록 내 상측 서브 블록 및 하측 서브 블록의 중앙 위치를 기준으로 유도된 움직임 백터로 결정되는 것을 특징으로 하는 방법.
【청구항 7】
제 1항에 있어서,
상기 현재 블록이 Nx4 크기인 경우, 상기 현재 블록 내 좌측 서브 블록의 제어점 움직임 백터는 제 1제어점 움직임 백터와 제 3제어점 움직임 백터의 평균값에 의해 결정되고, 우측 서브 블록의 제어점 움직임 백터는 제 2제어점 움직임 백터와 제 4제어점 움직임 백터의 평균값에 의해 결정되며,
상기 현재 블록이 4xN 크기인 경우, 상기 현재 블록 내 상측 서브 블록의 제어점 움직임 백터는 제 1제어점 움직임 백터와 제 2제어점 움직임 백터의 평균값에 의해 결정되고, 하측 서브 블특의 제어점 움직임 백터는 제 3제어점 움직임 백터와 제 4제어점 움직임 백터의 평균값에 의해 결정되는 것을 특징으로 하는 방법.
【청구항 8】
어파인 예측 모드를 이용하여 현재 블록을 포함하는 비디오 신호를 처리하는 장치에 있어서, 상기 현재 블록의 적어도 2개의 제어점에 인접한 픽셀 또는 블록의 움직임 백터를 이용하여 움직임 백터 쌍 (motion vector pair)의 후보 리스트를 생성하고, 상기 움직임 백터 쌍의 발산값 (divergence value)에 기초하여 기설정된 개수의 움직임 백터 쌍의 최종 후보 리스트를 결정하고, 상기 최종 후보 리스트로부터 율 -왜곡 비용에 기초하여 상기 현재 블톡의 제어점 움직임 백터를 결정하며, 상기 제어점 움직임 백터에 기초하여 상기 현재 블록의 움직임 백터 예측자를 생성하는 인터 예측부
를 포함하되,
상기 제어점은 상기 현재 블록의 코너 픽셀을 의미하고,
상기 움직임 백터 쌍은 상기 현재 블록의 좌상측 코너 픽셀 및 우상측 코너 픽셀의 움직임 백터를 나타내고,
상기 최종 후보 리스트는 발산값이 작은 순서대로 결정되고, 상기 발산값은 움직임 백터들의 방향의 유사성을 나타내는 것을 특징으로 하는 장치.
【청구항 9】
제 8항에 있어서,
상기 제어점은 상기 현재 블특의 좌상측 코너 픽셀, 우상측 코너 픽셀, 좌하측 코너 픽샐 또는 우하측 코너 픽셀 증 적어도 2개를 포함하고,
상기 후보 리스트는 상기 좌상측 코너 픽샐, 상기 우상측 코너 픽셀 및 상기 좌하측 코너 픽셀에 인접한 픽셀들 또는 블록들에 의해 구성되는 것을 특징으로 하는 장치.
【청구항 10】
저 19항에 있어서, 상기 후보 리스트는 상기 좌상측 코너 픽셀의 대각 인접 픽샐 (A), 상측 인접 픽셀 (B) 및 좌측 인접 픽셀 (C)의 움직임 백터들, 상기 우상측 코너 픽셀의 상측 인접 픽셀 (D) 및 대각 인접 픽셀 (E)의 움직임 백터들, 및 상기 좌하측 코너 픽셀의 좌측 인접 픽셀 (F) 및 대각 인접 픽셀 (G)의 움직임 백터들에 기초하여 생성되는 것을 특징으로 하는 장치.
【청구항 11】
저 18항에 있어서, 상기 인터 예측부는,
상기 후보 리스트의 움직임 백터 쌍이 2개보다 작은 경우, AMVP 후보 리스트를 상기 후보 리스트에 추가하는 것을 특징으로 하는 장치.
【청구항 12】
제 8항에 있어서, 상기 장치는,
상기 어파인 예측 모드가 수행되는지 여부를 나타내는 예측 모드 또는 플래그 정보를 시그널링하고,
상기 어파인 예측 모드는 상기 현재 블록의 제어점 움직임 백터를 이용하여 픽셀 또는 서브 블톡 단위로 움직임 백터를 유도하는 모드를 나타내는 것을 특징으로 하는 장치.
【청구항 13]
저) 8항에 있어서,
상기 현재 블록이 Nx4 크기인 경우, 상기 현재 블록의 제어점 움직임 백터는 상기 현재 블록 내 좌측 서브 블톡 및 우측 서브 블록의 중앙 위치를 기준으로 유도된 움직임 백터로 결정되고,
상기 현재 블록이 4xN 크기인 경우, 상기 현재 블록의 제어점 움직임 백터는 상기 현재 블록 내 상측 서브 블록 및 하측 서브 블록의 중앙 위치를 기준으로 유도된 움직임 백터로 결정되는 것을 특징으로 하는 장치.
【청구항 14]
제 8항에 있어서,
상기 현재 블록이 Nx4 크기인 경우, 상기 현재 블록 내 좌측 서브 블록의 제어점 움직임 백터는 제 1제어점 움직임 백터와 제 3제어점 움직임 백터의 평균값에 의해 결정되고, 우측 서브 블록의 제어점 움직임 백터는 제 2제어점 움직임 백터와 제 4제어점 움직임 백터의 평균값에 의해 결정되며,
상기 현재 블록이 4xN 크기인 경우, 상기 현재 블록 내 상측 서브 블록의 제어점 움직임 백터는 제 1제어점 움직임 백터와 제 2제어점 움직임 백터의 평균값에 의해 결정되고, 하측 서브 블록의 제어점 움직임 백터는 제 3제어점 움직임 백터와 제 4제어점 움직임 백터의 평균값에 의해 결정되는 것을 특징으로 하는 장치.
PCT/KR2018/000109 2017-01-03 2018-01-03 어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치 WO2018128379A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/475,538 US10873744B2 (en) 2017-01-03 2018-01-03 Method and device for processing video signal by means of affine prediction

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762441591P 2017-01-03 2017-01-03
US201762441592P 2017-01-03 2017-01-03
US62/441592 2017-01-03
US62/441591 2017-01-03

Publications (1)

Publication Number Publication Date
WO2018128379A1 true WO2018128379A1 (ko) 2018-07-12

Family

ID=62789359

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/000109 WO2018128379A1 (ko) 2017-01-03 2018-01-03 어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치

Country Status (2)

Country Link
US (1) US10873744B2 (ko)
WO (1) WO2018128379A1 (ko)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110730353A (zh) * 2018-07-16 2020-01-24 腾讯美国有限责任公司 视频解码方法和装置、计算机设备、存储介质
WO2020050695A1 (ko) * 2018-09-06 2020-03-12 엘지전자 주식회사 영상 코딩 시스템에서 머지 후보 리스트를 사용하는 움직임 예측에 기반한 영상 디코딩 방법 및 장치
WO2020055107A1 (ko) * 2018-09-10 2020-03-19 엘지전자 주식회사 영상 코딩 시스템에서 어파인 mvp 후보 리스트를 사용하는 어파인 움직임 예측에 기반한 영상 디코딩 방법 및 장치
WO2020112451A1 (en) * 2018-11-27 2020-06-04 Interdigital Vc Holdings, Inc. Combining affine candidates
CN111357291A (zh) * 2018-10-23 2020-06-30 北京字节跳动网络技术有限公司 从相邻块推导运动信息
CN111526362A (zh) * 2019-02-01 2020-08-11 华为技术有限公司 帧间预测方法和装置
WO2020231144A1 (ko) * 2019-05-12 2020-11-19 엘지전자 주식회사 어파인 tmvp를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
CN112840646A (zh) * 2018-08-28 2021-05-25 高通股份有限公司 仿射运动预测
CN112956190A (zh) * 2018-09-17 2021-06-11 高通股份有限公司 仿射运动预测
CN113170163A (zh) * 2018-09-24 2021-07-23 高通股份有限公司 用于视频译码中最坏情况下带宽减少的限制
RU2800679C2 (ru) * 2018-09-10 2023-07-26 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ и устройство декодирования изображения на основе предсказания аффинного движения с использованием списка кандидатов аффинного mvp в системе кодирования изображения
US11750836B2 (en) 2018-09-13 2023-09-05 Interdigital Vc Holdings, Inc. Virtual temporal affine candidates
US11895313B2 (en) 2018-07-17 2024-02-06 Huawei Technologies Co., Ltd. Motion model signaling

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106331722B (zh) 2015-07-03 2019-04-26 华为技术有限公司 图像预测方法和相关设备
CN110870314B (zh) * 2017-06-26 2024-04-02 交互数字Vc控股公司 用于运动补偿的多个预测器候选
KR20190090728A (ko) * 2018-01-25 2019-08-02 주식회사 윌러스표준기술연구소 서브블록 기반의 모션 보상을 이용한 비디오 신호 처리 방법 및 장치
WO2019147403A1 (en) 2018-01-29 2019-08-01 Interdigital Vc Holdings, Inc. Encoding and decoding with refinement of the reconstructed picture
US10728542B2 (en) * 2018-04-09 2020-07-28 Tencent America LLC Methods and apparatuses for sub-block motion vector prediction
WO2019234607A1 (en) 2018-06-05 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Interaction between ibc and affine
EP3788782A1 (en) 2018-06-21 2021-03-10 Beijing Bytedance Network Technology Co. Ltd. Sub-block mv inheritance between color components
TWI739120B (zh) 2018-06-21 2021-09-11 大陸商北京字節跳動網絡技術有限公司 合併仿射模式與非合併仿射模式的統一拘束
US20200021836A1 (en) * 2018-07-10 2020-01-16 Tencent America LLC Method and apparatus for ordering and selection of affine merge candidates in motion compensation
US11140398B2 (en) * 2018-08-20 2021-10-05 Mediatek Inc. Methods and apparatus for generating affine candidates
TWI818086B (zh) 2018-09-24 2023-10-11 大陸商北京字節跳動網絡技術有限公司 擴展Merge預測
US10896494B1 (en) 2018-09-27 2021-01-19 Snap Inc. Dirty lens image correction
US11212521B2 (en) * 2018-11-07 2021-12-28 Avago Technologies International Sales Pte. Limited Control of memory bandwidth consumption of affine mode in versatile video coding
CN112997480B (zh) 2018-11-10 2023-08-22 北京字节跳动网络技术有限公司 成对平均候选计算中的取整
JP2022532702A (ja) 2019-05-17 2022-07-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ ビデオコーディングシステムおよびビデオコーディング方法
CN114071147B (zh) * 2020-07-29 2023-04-11 四川大学 一种基于双线性模型的vvc运动补偿方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09121353A (ja) * 1995-10-26 1997-05-06 Hitachi Ltd 画像符号化装置
JPH09172644A (ja) * 1995-10-18 1997-06-30 Sharp Corp アフィン変換による動き補償フレーム間予測方式を用いた動画像符号化・復号化装置
KR20080088299A (ko) * 2007-03-29 2008-10-02 삼성전자주식회사 움직임 모델 파라메터의 부호화, 복호화 방법 및 움직임모델 파라메터를 이용한 영상의 부호화, 복호화 방법 및장치
KR20090083290A (ko) * 2008-01-29 2009-08-03 한국전자통신연구원 어파인 변환 기반의 움직임 보상을 이용한 비디오 부호화 및 복호화 방법 및 장치
WO2015099816A1 (en) * 2012-11-13 2015-07-02 Intel Corporation Content adaptive dominant motion compensated prediction for next generation video coding

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102121558B1 (ko) * 2013-03-15 2020-06-10 삼성전자주식회사 비디오 이미지의 안정화 방법, 후처리 장치 및 이를 포함하는 비디오 디코더

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09172644A (ja) * 1995-10-18 1997-06-30 Sharp Corp アフィン変換による動き補償フレーム間予測方式を用いた動画像符号化・復号化装置
JPH09121353A (ja) * 1995-10-26 1997-05-06 Hitachi Ltd 画像符号化装置
KR20080088299A (ko) * 2007-03-29 2008-10-02 삼성전자주식회사 움직임 모델 파라메터의 부호화, 복호화 방법 및 움직임모델 파라메터를 이용한 영상의 부호화, 복호화 방법 및장치
KR20090083290A (ko) * 2008-01-29 2009-08-03 한국전자통신연구원 어파인 변환 기반의 움직임 보상을 이용한 비디오 부호화 및 복호화 방법 및 장치
WO2015099816A1 (en) * 2012-11-13 2015-07-02 Intel Corporation Content adaptive dominant motion compensated prediction for next generation video coding

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110730353A (zh) * 2018-07-16 2020-01-24 腾讯美国有限责任公司 视频解码方法和装置、计算机设备、存储介质
CN110730353B (zh) * 2018-07-16 2023-03-17 腾讯美国有限责任公司 视频解码方法和装置、计算机设备、存储介质
US11895313B2 (en) 2018-07-17 2024-02-06 Huawei Technologies Co., Ltd. Motion model signaling
CN112840646A (zh) * 2018-08-28 2021-05-25 高通股份有限公司 仿射运动预测
CN112640459A (zh) * 2018-09-06 2021-04-09 Lg电子株式会社 图像编码系统中基于使用合并候选列表的运动预测的图像解码方法和设备
WO2020050695A1 (ko) * 2018-09-06 2020-03-12 엘지전자 주식회사 영상 코딩 시스템에서 머지 후보 리스트를 사용하는 움직임 예측에 기반한 영상 디코딩 방법 및 장치
US11877005B2 (en) 2018-09-06 2024-01-16 Lg Electronics, Inc. Image decoding method and apparatus based on motion prediction using merge candidate list in image coding system
US11849143B2 (en) 2018-09-06 2023-12-19 Lg Electronics Inc. Image decoding method and apparatus based on motion prediction using merge candidate list in image coding system
CN112640459B (zh) * 2018-09-06 2023-07-28 Lg电子株式会社 图像编码系统中基于使用合并候选列表的运动预测的图像解码方法和设备
RU2800679C2 (ru) * 2018-09-10 2023-07-26 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ и устройство декодирования изображения на основе предсказания аффинного движения с использованием списка кандидатов аффинного mvp в системе кодирования изображения
KR20230042387A (ko) * 2018-09-10 2023-03-28 엘지전자 주식회사 영상 코딩 시스템에서 어파인 mvp 후보 리스트를 사용하는 어파인 움직임 예측에 기반한 영상 디코딩 방법 및 장치
US10841576B2 (en) 2018-09-10 2020-11-17 Lg Electronics Inc. Affine motion prediction-based image decoding method and apparatus using affine MVP candidate list in image coding system
WO2020055107A1 (ko) * 2018-09-10 2020-03-19 엘지전자 주식회사 영상 코딩 시스템에서 어파인 mvp 후보 리스트를 사용하는 어파인 움직임 예측에 기반한 영상 디코딩 방법 및 장치
KR102630797B1 (ko) * 2018-09-10 2024-01-29 엘지전자 주식회사 영상 코딩 시스템에서 어파인 mvp 후보 리스트를 사용하는 어파인 움직임 예측에 기반한 영상 디코딩 방법 및 장치
RU2768957C1 (ru) * 2018-09-10 2022-03-25 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ и устройство декодирования изображения на основе предсказания аффинного движения с использованием списка кандидатов аффинного MVP в системе кодирования изображения
US11303887B2 (en) 2018-09-10 2022-04-12 Lg Electronics Inc. Affine motion prediction-based image decoding method and apparatus using affine MVP candidate list in image coding system
KR102408695B1 (ko) * 2018-09-10 2022-06-14 엘지전자 주식회사 영상 코딩 시스템에서 어파인 mvp 후보 리스트를 사용하는 어파인 움직임 예측에 기반한 영상 디코딩 방법 및 장치
KR20220083857A (ko) * 2018-09-10 2022-06-20 엘지전자 주식회사 영상 코딩 시스템에서 어파인 mvp 후보 리스트를 사용하는 어파인 움직임 예측에 기반한 영상 디코딩 방법 및 장치
KR102510771B1 (ko) * 2018-09-10 2023-03-16 엘지전자 주식회사 영상 코딩 시스템에서 어파인 mvp 후보 리스트를 사용하는 어파인 움직임 예측에 기반한 영상 디코딩 방법 및 장치
KR20200060508A (ko) * 2018-09-10 2020-05-29 엘지전자 주식회사 영상 코딩 시스템에서 어파인 mvp 후보 리스트를 사용하는 어파인 움직임 예측에 기반한 영상 디코딩 방법 및 장치
US11722659B2 (en) 2018-09-10 2023-08-08 Lg Electronics Inc. Affine motion prediction-based image decoding method and apparatus using affine MVP candidate list in image coding system
US11750836B2 (en) 2018-09-13 2023-09-05 Interdigital Vc Holdings, Inc. Virtual temporal affine candidates
CN112956190A (zh) * 2018-09-17 2021-06-11 高通股份有限公司 仿射运动预测
CN112956190B (zh) * 2018-09-17 2024-04-02 高通股份有限公司 仿射运动预测
CN113170163A (zh) * 2018-09-24 2021-07-23 高通股份有限公司 用于视频译码中最坏情况下带宽减少的限制
CN111373754A (zh) * 2018-10-23 2020-07-03 北京字节跳动网络技术有限公司 仿射编码的自适应控制点选择
CN111357291A (zh) * 2018-10-23 2020-06-30 北京字节跳动网络技术有限公司 从相邻块推导运动信息
WO2020112451A1 (en) * 2018-11-27 2020-06-04 Interdigital Vc Holdings, Inc. Combining affine candidates
CN111526362B (zh) * 2019-02-01 2023-12-29 华为技术有限公司 帧间预测方法和装置
CN111526362A (zh) * 2019-02-01 2020-08-11 华为技术有限公司 帧间预测方法和装置
WO2020231144A1 (ko) * 2019-05-12 2020-11-19 엘지전자 주식회사 어파인 tmvp를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법

Also Published As

Publication number Publication date
US10873744B2 (en) 2020-12-22
US20190342547A1 (en) 2019-11-07

Similar Documents

Publication Publication Date Title
WO2018128379A1 (ko) 어파인 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치
US20190335170A1 (en) Method and apparatus for processing video signal by means of affine prediction
US11190799B2 (en) Intra-prediction mode-based image processing method and apparatus therefor
US10880552B2 (en) Method and apparatus for performing optimal prediction based on weight index
US10848759B2 (en) Intra prediction mode-based image processing method and apparatus therefor
US20200154124A1 (en) Image decoding method based on inter prediction and image decoding apparatus therefor
WO2018048265A1 (ko) 향상된 옵티컬 플로우 움직임 백터를 이용하여 비디오 신호를 처리하는 방법 및 장치
US20180249156A1 (en) Method for processing image based on joint inter-intra prediction mode and apparatus therefor
KR20190053238A (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US20190215531A1 (en) Method and apparatus for performing prediction using template-based weight
US10681371B2 (en) Method and device for performing deblocking filtering
US11006109B2 (en) Intra prediction mode based image processing method, and apparatus therefor
KR20190029732A (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
KR102351029B1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US20190200011A1 (en) Intra-prediction mode-based image processing method and apparatus therefor
US20200053387A1 (en) Inter prediction mode-based image processing method and apparatus therefor
KR102070431B1 (ko) 쌍방향 예측 및 블록 병합을 제한하는 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
KR102617235B1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US11089317B2 (en) Method and apparatus for processing video signal using affine prediction
US11758170B2 (en) Method and device for processing video signal by using affine motion prediction
US20200244989A1 (en) Method and device for inter-prediction mode-based image processing
US11606566B2 (en) Method for processing image on basis of inter-prediction mode and apparatus therefor
KR20190096432A (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US10687073B2 (en) Method for encoding/decoding image and device therefor
US20200154103A1 (en) Image processing method on basis of intra prediction mode and apparatus therefor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18735951

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18735951

Country of ref document: EP

Kind code of ref document: A1