KR102622150B1 - 양방향 인터 예측 방법 및 장치 - Google Patents

양방향 인터 예측 방법 및 장치 Download PDF

Info

Publication number
KR102622150B1
KR102622150B1 KR1020237013341A KR20237013341A KR102622150B1 KR 102622150 B1 KR102622150 B1 KR 102622150B1 KR 1020237013341 A KR1020237013341 A KR 1020237013341A KR 20237013341 A KR20237013341 A KR 20237013341A KR 102622150 B1 KR102622150 B1 KR 102622150B1
Authority
KR
South Korea
Prior art keywords
reference frame
motion vector
picture block
current picture
motion information
Prior art date
Application number
KR1020237013341A
Other languages
English (en)
Other versions
KR20230054916A (ko
Inventor
환방 천
하이타오 양
장러 천
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20230054916A publication Critical patent/KR20230054916A/ko
Application granted granted Critical
Publication of KR102622150B1 publication Critical patent/KR102622150B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

본 출원의 실시예는 비디오 픽처 코딩 기술의 분야에 관한 것으로, 코딩 효율을 향상시키기 위한 양방향 인터 예측 방법 및 장치를 개시한다. 본 방법은, 지시 정보를 획득하는 단계 - 상기 지시 정보는 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하도록 지시하는 데 사용되고, 제1 움직임 정보는 제1 방향에서의 현재 픽처 블록의 움직임 정보이고, 제2 움직임 정보는 제2 방향에서의 현재 픽처 블록의 움직임 정보임 -; 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하는 단계; 및 제1 움직임 정보 및 제2 움직임 정보에 기초하여 현재 픽처 블록의 예측 샘플을 결정하는 단계를 포함한다.

Description

양방향 인터 예측 방법 및 장치{BIDIRECTIONAL INTER-FRAME PREDICTION METHOD AND DEVICE}
본 출원은 "양방향 프레임 간 예측 방법 및 장치"의 명칭을 가지고 2018년 3월 29일에 출원된 중국특허출원 제201810274457.X호를 우선권으로 주장하며, 그것은 전체로서 본 명세서에 통합된다.
본 출원의 실시예들은 비디오 픽처 코딩 기술의 분야에 관한 것으로서, 구체적으로는 양방향 인터 예측 방법 및 장치에 관한 것이다.
비디오 코딩 기술에서, 현재 픽처 블록의 예측 픽처 블록은 오직 하나의 참조 픽처 블록에 기초하여 생성되거나(일방향 인터 예측이라고 함), 또는 현재 픽처 블록의 예측 픽처 블록은 적어도 2개의 참조 픽처 블록에 기초하여 생성(양방향 인터 예측이라고 함)될 수 있다. 적어도 2개의 참조 픽처 블록은 동일한 참조 프레임 또는 상이한 참조 프레임으로부터의 것일 수 있다.
디코더 및 인코더가 동일한 참조 픽처 블록을 사용할 수 있도록 하기 위해, 인코더는 비트스트림 내에 각 픽처 블록의 움직임 정보를 디코더에 보내야 한다. 일반적으로, 현재 픽처 블록의 움직임 정보는 참조 프레임 인덱스 값, 움직임 벡터 예측자(MVP: Motion Vector Predictor) 플래그, 및 움직임 벡터 차(MVD: Motion Vector Difference)를 포함한다. 디코더는 그 참조 프레임 인덱스 값, MVP 플래그 및 MVD에 기초하여, 선택된 참조 프레임 내에서 정확한 참조 픽처 블록을 찾을 수 있다.
이에 따라, 양방향 인터 예측에서는, 인코더가 각 방향에서 각 픽처 블록의 움직임 정보를 디코더에 보내야 한다. 결과적으로, 움직임 정보가 상대적으로 큰 전송 자원을 차지한다. 이로 인해 전송 자원의 효과적인 이용, 전송 레이트, 그리고 코딩 압축 효율을 저하시킨다.
본 출원의 실시예들은, 움직임 정보가 상대적으로 큰 전송 자원을 차지함으로써 전송 자원의 효과적인 활용, 전송 레이트 및 코딩 압축 효율이 저하되는 문제를 해결하기 위한, 양방향 인터 예측 방법 및 장치를 제공한다.
본 출원의 실시예들은, 움직임 정보가 상대적으로 큰 전송 자원을 차지함으로써 전송 자원의 효과적인 활용, 전송 레이트 및 코딩 압축 효율이 저하되는 문제를 해결하기 위한, 양방향 인터 예측 방법 및 장치를 제공한다.
상술한 목적으로 달성하기 위해, 다음과 같은 기술적 해결책이 본 출원의 실시예에서 사용된다.
제1 측면에 따르면, 양방향 인터 예측 방법이 제공된다. 이 방법은: 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하도록 지시하는 데 사용되는 지시 정보를 획득하는 단계 - 제1 움직임 정보는 제1 방향에서의 현재 픽처 블록의 움직임 정보이고, 제2 움직임 정보는 제2 방향에서의 현재 픽처 블록의 움직임 정보임 -; 제1 움직임 정보를 획득하는 단계; 획득된 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하는 단계; 및 획득된 제1 움직임 정보 및 결정된 제2 움직임 정보에 기초하여 현재 픽처 블록의 예측 샘플을 결정하는 단계를 포함한다.
본 출원에서 제공된 양방향 인터 예측 방법에 따르면, 지시 정보가 획득된 후, 제2 움직임 정보가 제1 움직임 정보에 기초하여 결정된다. 이런 방식에서는, 비트스트림이 지시 정보 및 제1 움직임 정보만 포함할 필요가 있고, 제2 움직임 정보는 더 이상 포함할 필요가 없다. 비트스트림이 각 방향의 각 픽처 블록의 움직임 정보를 포함하는 종래 기술에 비해, 본 출원에서 제공되는 양방향 인터 예측 방법은 비트스트림에 포함되는 움직임 정보를 효과적으로 감소시키고, 전송 자원의 효과적인 활용, 전송 레이트 및 코딩 레이트를 향상시킨다.
선택적으로, 본 출원의 가능한 구현예에서, " 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하는 단계"를 위한 방법은: 제1 움직임 정보에서 제1 참조 프레임의 인덱스 값을 획득하고, 제1 참조 프레임의 인덱스 값 및 제1 참조 프레임 리스트에 기초하여 제1 참조 프레임의 시퀀스 번호를 결정하는 단계 - 제1 참조 프레임은 제1 방향에서의 현재 픽처 블록의 참조 프레임이고, 제1 참조 프레임의 인덱스 값은 제1 참조 프레임 리스트 내의 제1 참조 프레임의 번호임 -; 제2 참조 프레임의 인덱스 값을 획득하고, 제2 참조 프레임의 인덱스 값 및 제2 참조 프레임 리스트에 기초하여 제2 참조 프레임의 시퀀스 번호를 결정하는 단계 - 제2 참조 프레임은 제2 방향에서의 현재 픽처 블록의 참조 프레임이고, 제2 참조 프레임의 인덱스 값은 제2 참조 프레임 리스트 내의 제2 참조 프레임의 번호임 -; 제1 움직임 정보 내에 있는 제1 움직임 벡터 예측자 플래그 및 제1 움직임 벡터 차에 기초하여 제1 움직임 벡터를 결정하는 단계 - 제1 움직임 벡터는 제1 방향에서의 현재 픽처 블록의 움직임 벡터임 -; 및 다음 수식:
에 따라 제2 움직임 정보 내의 제2 움직임 벡터를 도출하는 단계를 포함하는 것이다.
위 수식에서, mv_IY는 제2 움직임 벡터를 나타내고, POC_Cur은 현재 프레임의 시퀀스 번호를 나타내고, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내고, POC_listY는 제2 참조 프레임의 시퀀스 번호를 나타내고, mv_IX는 제1 움직임 벡터를 나타내며, 제2 움직임 벡터는 제2 방향에서의 현재 픽처 블록의 움직임 벡터이다.
선택적으로, 본 출원의 또 다른 가능한 구현예에서, " 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하는 단계"를 위한 방법은: 제1 움직임 정보에서 제1 참조 프레임의 인덱스 값을 획득하는 단계 - 제1 참조 프레임은 제1 방향에서의 현재 픽처 블록의 참조 프레임이고, 제1 참조 프레임의 인덱스 값은 제1 참조 프레임 리스트 내의 제1 참조 프레임의 번호임 -; 제2 참조 프레임의 인덱스 값을 획득하는 단계 - 제2 참조 프레임은 제2 방향에서의 현재 픽처 블록의 참조 프레임이고, 제2 참조 프레임의 인덱스 값은 제2 참조 프레임 리스트 내의 제2 참조 프레임의 번호임 -; 제1 움직임 정보 내에 있는 제1 움직임 벡터 예측자 플래그 및 제1 움직임 벡터 차에 기초하여 제1 움직임 벡터를 결정하는 단계 - 제1 움직임 벡터는 제1 방향에서의 현재 픽처 블록의 움직임 벡터임 -; 및 제1 참조 프레임이 현재 픽처 블록의 순방향 참조 프레임(forward reference frame)이면서 제2 참조 프레임이 현재 픽처 블록의 역방향 참조 프레임(backward reference frame)인 경우, 또는 제1 참조 프레임이 현재 픽처 블록의 역방향 참조 프레임이면서 제2 참조 프레임은 현재 픽처 블록의 순방향 참조 프레임인 경우, 또는 제1 참조 프레임 및 제2 참조 프레임이 각각 현재 픽처 블록의 순방향 참조 프레임인 경우, 또는 제1 참조 프레임 및 제2 참조 프레임이 각각 현재 픽처 블록의 역방향 참조 프레임인 경우, 다음 수식:
에 따라 제2 움직임 정보 내의 제2 움직임 벡터를 도출하는 단계를 포함하는 것이다.
이 수식에서, mv_IY는 제2 움직임 벡터를 나타내고, mv_IX는 제1 움직임 벡터를 나타내며, 제2 움직임 벡터는 제2 방향에서의 현재 픽처 블록의 움직임 벡터이다.
"제1 참조 프레임이 현재 픽처 블록의 순방향 참조 프레임이면서 제2 참조 프레임이 현재 픽처 블록의 역방향 참조 프레임인 것"과 ""제1 참조 프레임이 현재 픽처 블록의 역방향 참조 프레임이면서 제2 참조 프레임은 현재 픽처 블록의 순방향 참조 프레임인 것" 양쪽 모두,
수식 로 나타내어지거나, 또는 수식 로 나타내어질 수 있다.
또한, "제1 참조 프레임 및 제2 참조 프레임이 각각 현재 픽처 블록의 순방향 참조 프레임인 것"과 "제1 참조 프레임 및 제2 참조 프레임이 각각 현재 픽처 블록의 역방향 참조 프레임인 것" 양쪽 모두, 수식 로 나타내어질 수 있다.
POC_Cur은 현재 프레임의 시퀀스 번호를 나타내고, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내며, POC_listY는 제2 참조 프레임의 시퀀스 번호를 나타낸다.
선택적으로, 본 출원의 또 다른 가능한 구현예에서, " 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하는 단계"를 위한 방법은: 제1 움직임 정보 내에 있는 제1 움직임 벡터 차 및 제1 참조 프레임의 인덱스 값을 획득하고, 제1 참조 프레임의 인덱스 값 및 제1 참조 프레임 리스트에 기초하여 제1 참조 프레임의 시퀀스 번호를 결정하는 단계 - 제1 참조 프레임은 제1 방향에서의 현재 픽처 블록의 참조 프레임이고, 제1 참조 프레임의 인덱스 값은 제1 참조 프레임 리스트 내의 제1 참조 프레임의 번호임 -; 제2 참조 프레임의 인덱스 값을 획득하고, 제2 참조 프레임의 인덱스 값 및 제2 참조 프레임 리스트에 기초하여 제2 참조 프레임의 시퀀스 번호를 결정하며, 제2 참조 프레임의 인덱스 값 및 제2 후보 예측된 움직임 벡터 리스트(candidate predicted motion vector list)에 기초하여 제2 예측된 움직임 벡터(predicted motion vector)를 결정하는 단계 - 제2 예측된 움직임 벡터는 제2 방향에서의 현재 픽처 블록의 예측된 움직임 벡터이고, 제2 참조 프레임은 제2 방향에서의 현재 픽처 블록의 참조 프레임이며, 제2 참조 프레임의 인덱스 값은 제2 참조 프레임 리스트 내의 제2 참조 프레임의 번호임 -; 다음 수식:
에 따라, 제2 움직임 정보 내의 제2 움직임 벡터 차를 계산하는 단계 - 여기서, mvd_IY는 제2 움직임 벡터 차를 나타내고, POC_Cur은 현재 프레임의 시퀀스 번호를 나타내고, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내고, POC_listY는 제2 참조 프레임의 시퀀스 번호를 나타내고, mvd_IX는 제1 움직임 벡터 차를 나타냄 -; 및 제2 예측된 움직임 벡터 및 제2 움직임 벡터 차에 기초하여 제2 움직임 벡터를 결정하는 단계 - 제2 움직임 벡터는 제2 방향에서의 현재 픽처 블록의 움직임 벡터임 -를 포함하는 것이다.
선택적으로, 본 출원의 또 다른 가능한 구현예에서, " 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하는 단계"를 위한 방법은: 제1 움직임 정보 내에 있는 제1 움직임 벡터 및 제1 참조 프레임의 인덱스 값을 획득하는 단계 - 제1 참조 프레임은 제1 방향에서의 현재 픽처 블록의 참조 프레임이고, 제1 참조 프레임의 인덱스 값은 제1 참조 프레임 리스트 내의 제1 참조 프레임의 번호임 -; 제2 참조 프레임의 인덱스 값을 획득하고, 제2 참조 프레임의 인덱스 값 및 제2 후보 예측된 움직임 벡터 리스트에 기초하여 제2 예측된 움직임 벡터를 결정하는 단계 - 제2 예측된 움직임 벡터는 제2 방향에서의 현재 픽처 블록의 예측된 움직임 벡터이고, 제2 참조 프레임은 제2 방향에서의 현재 픽처 블록의 참조 프레임이며, 제2 참조 프레임의 인덱스 값은 제2 참조 프레임 리스트 내의 제2 참조 프레임의 번호임 -; 제1 참조 프레임이 현재 픽처 블록의 순방향 참조 프레임이면서 제2 참조 프레임이 현재 픽처 블록의 역방향 참조 프레임인 경우, 또는 제1 참조 프레임이 현재 픽처 블록의 역방향 참조 프레임이면서 제2 참조 프레임이 현재 픽처 블록의 순방향 참조 프레임인 경우, 또는 제1 참조 프레임 및 제2 참조 프레임이 각각 현재 픽처 블록의 순방향 참조 프레임인 경우, 또는 제1 참조 프레임 및 제2 참조 프레임이 각각 현재 픽처 블록의 역방향 참조 프레임인 경우, 다음 수식:
에 따라 제2 움직임 정보 내의 제2 움직임 벡터 차를 계산하는 단계 - 여기서, mvd_IY는 제2 움직임 벡터 차를 나타내고, mvd_IX는 제1 움직임 벡터 차를 나타냄 -; 및 제2 예측된 움직임 벡터 및 제2 움직임 벡터 차에 기초하여 제2 움직임 벡터를 결정하는 단계 - 제2 움직임 벡터는 제2 방향에서의 현재 픽처 블록의 움직임 벡터임 -를 포함하는 것이다.
마찬가지로,
"제1 참조 프레임이 현재 픽처 블록의 순방향 참조 프레임이면서 제2 참조 프레임이 현재 픽처 블록의 역방향 참조 프레임인 것"과 ""제1 참조 프레임이 현재 픽처 블록의 역방향 참조 프레임이면서 제2 참조 프레임은 현재 픽처 블록의 순방향 참조 프레임인 것" 양쪽 모두,
수식 로 나타내어지거나, 또는 수식 로 나타내어질 수 있다. 이것은 본 출원에서 구체적으로 한정되는 것은 아니다.
"제1 참조 프레임 및 제2 참조 프레임이 각각 현재 픽처 블록의 순방향 참조 프레임인 것"과 "제1 참조 프레임 및 제2 참조 프레임이 각각 현재 픽처 블록의 역방향 참조 프레임인 것" 양쪽 모두, 수식 로 나타내어질 수 있다.
POC_Cur은 현재 프레임의 시퀀스 번호를 나타내고, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내며, POC_listY는 제2 참조 프레임의 시퀀스 번호를 나타낸다.
본 출원에서 제공하는 양방향 인터 예측 방법은: 제1 움직임 벡터에 기초하여 제2 움직임 벡터를 결정하는 것이거나, 또는 제1 움직임 벡터 차에 기초하여 제2 움직임 벡터 차를 결정하고 그 제2 움직임 벡터 차에 기초하여 제2 움직임 벡터를 결정하는 것일 수 있다.
선택적으로, 본 출원의 또 다른 가능한 구현에에서, "제2 참조 프레임의 인덱스 값을 획득하기" 위한 방법은: 수식 에 따라, 현재 프레임의 시퀀스 번호 및 제1 참조 프레임의 시퀀스 번호에 기초하여 제1 시퀀스 번호를 계산하는 단계 - 여기서, POC_Cur은 현재 프레임의 시퀀스 번호를 나타내고, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내며, POC_listY0는 제1 시퀀스 번호를 나타냄 -; 및 제2 참조 프레임 리스트가 제1 시퀀스 번호를 포함하는 경우, 제2 참조 프레임의 인덱스 값으로서, 제2 참조 프레임 리스트에서 제1 시퀀스 번호가 나타내는 참조 프레임의 번호를 결정하는 단계를 포함하는 것이다.
선택적으로, 본 출원의 또 다른 가능한 구현에에서, "제2 참조 프레임의 인덱스 값을 획득하기" 위한 방법은: 수식 에 따라 현재 프레임의 시퀀스 번호 및 제1 참조 프레임의 시퀀스 번호에 기초하여 제2 시퀀스 번호를 계산하는 단계 - 여기서, 는 제2 시퀀스 번호를 나타냄 -; 및 제2 참조 프레임 리스트가 제2 시퀀스 번호를 포함하는 경우, 제2 참조 프레임의 인덱스 값으로서, 제2 참조 프레임 리스트에서 제2 시퀀스 번호가 나타내는 참조 프레임의 번호를 결정하는 단계를 포함하는 것이다.
선택적으로, 본 출원의 또 다른 가능한 구현에에서, "제2 참조 프레임의 인덱스 값을 획득하기" 위한 방법은: 수식 에 따라, 제1 참조 프레임의 시퀀스 번호 및 현재 프레임의 시퀀스 번호에 기초하여 제3 시퀀스 번호를 계산하는 단계 - 여기서, 는 제3 시퀀스 번호임 -; 및 제2 참조 프레임의 인덱스 값으로서, 제2 참조 프레임 리스트에서 제3 시퀀스 번호가 나타내는 참조 프레임의 번호를 결정하는 단계를 포함하는 것이다.
선택적으로, 본 출원의 또 다른 가능한 구현에에서, "제2 참조 프레임의 인덱스 값을 획득하기" 위한 방법은: 수식 에 따라 제1 참조 프레임의 시퀀스 번호와 현재 프레임의 시퀀스 번호에 기초하여 제1 시퀀스 번호를 계산하는 것이고, POC_Cur은 현재 프레임의 시퀀스 번호를 나타내고, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내며, POC_listY0는 제1 시퀀스 번호를 나타낸다. 제2 참조 프레임 리스트가 제1 시퀀스 번호를 포함하는 경우, 제2 참조 프레임에서 제2 시퀀스 번호가 나타내는 참조 프레임의 번호가 제2 참조 프레임의 인덱스 값으로서 결정된다. 제2 참조 프레임 리스트가 제1 시퀀스 번호를 포함하지 않는 경우, 제2 시퀀스 번호는 수식 에 따라 제1 참조 프레임의 시퀀스 번호 및 현재 프레임의 시퀀스 번호에 기초하여 계산되고, , 는 제2 시퀀스 번호를 나타낸다. 제2 참조 프레임 리스트가 제2 참조 번호를 포함하는 경우, 제2 참조 프레임 리스트에서 제2 시퀀스 번호가 나타내는 참조 프레임의 번호가 제2 참조 프레임의 인덱스 값으로서 결정된다. 제2 참조 프레임 리스트가 제2 시퀀스 번호를 포함하지 않는 경우, 제3 시퀀스 번호가 수식 에 따라 제1 참조 프레임의 시퀀스 번호 및 현재 프레임의 시퀀스 번호에 기초하여 계산되고, 는 제3 시퀀스 번호이고, 제2 참조 프레임 리스트에서 제3 시퀀스 번호가 나타내는 참조 프레임의 번호가 제2 참조 프레임의 인덱스 값으로서 결정된다.
선택적으로, 본 출원의 또 다른 가능한 구현예에서, "제2 참조 프레임의 인덱스 값을 획득하기" 위한 방법은 비트스트림을 파싱하여 제2 참조 프레임의 인덱스 값을 획득하는 것이다.
본 출원에서 "제2 참조 프레임의 인덱스 값을 획득하기" 위한 여러 방법이 있을 수 있다는 것을 알 수 있다. 제2 참조 프레임의 인덱스 값을 획득하기 위해 사용되는 구체적인 방법은 실제 요건에 따라 결정되거나 또는 미리 설정될 수 있다.
제2 측면에 따르면, 양방향 인터 예측 장치가 제공된다. 양방향 인터 예측 장치는 획득 유닛 및 결정 유닛을 포함한다.
구체적으로, 획득 유닛은, 지시 정보를 획득하고 제1 움직임 정보를 획득하도록 구성되며, 지시 정보는 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하도록 지시하는 데 사용되고, 제1 움직임 정보는 제1 방향에서의 현재 픽처 블록의 움직임 정보이고, 제2 움직임 정보는 제2 방향에서의 현재 픽처 블록의 움직임 정보이다. 결정 유닛은, 획득 유닛에 의해 획득된 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하고, 제1 움직임 정보 및 제2 움직임 정보에 기초하여 현재 픽처 블록의 예측 샘플을 결정하도록 구성된다.
선택적으로, 본 출원의 가능한 구현예에서, 결정 유닛은 구체적으로, 제1 움직임 정보에서 제1 참조 프레임의 인덱스 값을 획득하고, 제1 참조 프레임의 인덱스 값 및 제1 참조 프레임 리스트에 기초하여 제1 참조 프레임의 시퀀스 번호를 결정하며 - 제1 참조 프레임은 제1 방향에서의 현재 픽처 블록의 참조 프레임이고, 제1 참조 프레임의 인덱스 값은 제1 참조 프레임 리스트 내의 제1 참조 프레임의 번호임 -; 제2 참조 프레임의 인덱스 값을 획득하고, 제2 참조 프레임의 인덱스 값 및 제2 참조 프레임 리스트에 기초하여 제2 참조 프레임의 시퀀스 번호를 결정하며 - 제2 참조 프레임은 제2 방향에서의 현재 픽처 블록의 참조 프레임이고, 제2 참조 프레임의 인덱스 값은 제2 참조 프레임 리스트 내의 제2 참조 프레임의 번호임 -; 제1 움직임 정보 내에 있는 제1 움직임 벡터 예측자 플래그 및 제1 움직임 벡터 차에 기초하여 제1 움직임 벡터를 결정하고 - 제1 움직임 벡터는 제1 방향에서의 현재 픽처 블록의 움직임 벡터임 -; 그리고 다음 수식:
에 따라 제2 움직임 정보 내의 제2 움직임 벡터를 도출하도록 구성되고,
여기서, mv_IY는 제2 움직임 벡터를 나타내고, POC_Cur은 현재 프레임의 시퀀스 번호를 나타내고, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내고, POC_listY는 제2 참조 프레임의 시퀀스 번호를 나타내고, mv_IX는 제1 움직임 벡터를 나타내며, 제2 움직임 벡터는 제2 방향에서의 현재 픽처 블록의 움직임 벡터이다.
선택적으로, 본 출원의 또 다른 구현예에서, 결정 유닛은 구체적으로, 제1 움직임 정보에서 제1 참조 프레임의 인덱스 값을 획득하고 - 제1 참조 프레임은 제1 방향에서의 현재 픽처 블록의 참조 프레임이고, 제1 참조 프레임의 인덱스 값은 제1 참조 프레임 리스트 내의 제1 참조 프레임의 번호임 -; 제2 참조 프레임의 인덱스 값을 획득하며 - 제2 참조 프레임은 제2 방향에서의 현재 픽처 블록의 참조 프레임이고, 제2 참조 프레임의 인덱스 값은 제2 참조 프레임 리스트 내의 제2 참조 프레임의 번호임 -; 제1 움직임 정보 내에 있는 제1 움직임 벡터 예측자 플래그 및 제1 움직임 벡터 차에 기초하여 제1 움직임 벡터를 결정하고 - 제1 움직임 벡터는 제1 방향에서의 현재 픽처 블록의 움직임 벡터임 -; 및 제1 참조 프레임이 현재 픽처 블록의 순방향 참조 프레임(forward reference frame)이면서 제2 참조 프레임이 현재 픽처 블록의 역방향 참조 프레임(backward reference frame)인 경우, 또는 제1 참조 프레임이 현재 픽처 블록의 역방향 참조 프레임이면서 제2 참조 프레임은 현재 픽처 블록의 순방향 참조 프레임인 경우, 또는 제1 참조 프레임 및 제2 참조 프레임이 각각 현재 픽처 블록의 순방향 참조 프레임인 경우, 또는 제1 참조 프레임 및 제2 참조 프레임이 각각 현재 픽처 블록의 역방향 참조 프레임인 경우, 다음 수식:
에 따라 제2 움직임 정보 내의 제2 움직임 벡터를 도출하도록 구성되고, 여기서, mv_IY는 제2 움직임 벡터를 나타내고, mv_IX는 제1 움직임 벡터를 나타내며, 제2 움직임 벡터는 제2 방향에서의 현재 픽처 블록의 움직임 벡터이다.
선택적으로, 본 출원의 또 다른 가능한 구현예에서, 결정 유닛은 구체적으로, 제1 움직임 정보 내에 있는 제1 움직임 벡터 차 및 제1 참조 프레임의 인덱스 값을 획득하고, 제1 참조 프레임의 인덱스 값 및 제1 참조 프레임 리스트에 기초하여 제1 참조 프레임의 시퀀스 번호를 결정하며 - 제1 참조 프레임은 제1 방향에서의 현재 픽처 블록의 참조 프레임이고, 제1 참조 프레임의 인덱스 값은 제1 참조 프레임 리스트 내의 제1 참조 프레임의 번호임 -; 제2 참조 프레임의 인덱스 값을 획득하고, 제2 참조 프레임의 인덱스 값 및 제2 참조 프레임 리스트에 기초하여 제2 참조 프레임의 시퀀스 번호를 결정하며, 제2 참조 프레임의 인덱스 값 및 제2 후보 예측된 움직임 벡터 리스트에 기초하여 제2 예측된 움직임 벡터를 결정하며 - 제2 예측된 움직임 벡터는 제2 방향에서의 현재 픽처 블록의 예측된 움직임 벡터이고, 제2 참조 프레임은 제2 방향에서의 현재 픽처 블록의 참조 프레임이며, 제2 참조 프레임의 인덱스 값은 제2 참조 프레임 리스트 내의 제2 참조 프레임의 번호임 -; 다음 수식:
에 따라, 제2 움직임 정보 내의 제2 움직임 벡터 차를 계산하고 - 여기서, mvd_IY는 제2 움직임 벡터 차를 나타내고, POC_Cur은 현재 프레임의 시퀀스 번호를 나타내고, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내고, POC_listY는 제2 참조 프레임의 시퀀스 번호를 나타내고, mvd_IX는 제1 움직임 벡터 차를 나타냄 -; 그리고 제2 예측된 움직임 벡터 및 제2 움직임 벡터 차에 기초하여 제2 움직임 벡터를 결정하도록 구성되고, 제2 움직임 벡터는 제2 방향에서의 현재 픽처 블록의 움직임 벡터이다.
선택적으로, 본 출원의 또 다른 가능한 구현예에서, 결정 유닛은 구체적으로, 제1 움직임 정보 내에 있는 제1 움직임 벡터 및 제1 참조 프레임의 인덱스 값을 획득하고 - 제1 참조 프레임은 제1 방향에서의 현재 픽처 블록의 참조 프레임이고, 제1 참조 프레임의 인덱스 값은 제1 참조 프레임 리스트 내의 제1 참조 프레임의 번호임 -; 제2 참조 프레임의 인덱스 값을 획득하고, 제2 참조 프레임의 인덱스 값 및 제2 후보 예측된 움직임 벡터 리스트에 기초하여 제2 예측된 움직임 벡터를 결정하며 - 제2 예측된 움직임 벡터는 제2 방향에서의 현재 픽처 블록의 예측된 움직임 벡터이고, 제2 참조 프레임은 제2 방향에서의 현재 픽처 블록의 참조 프레임이며, 제2 참조 프레임의 인덱스 값은 제2 참조 프레임 리스트 내의 제2 참조 프레임의 번호임 -; 제1 참조 프레임이 현재 픽처 블록의 순방향 참조 프레임이면서 제2 참조 프레임이 현재 픽처 블록의 역방향 참조 프레임인 경우, 또는 제1 참조 프레임이 현재 픽처 블록의 역방향 참조 프레임이면서 제2 참조 프레임이 현재 픽처 블록의 순방향 참조 프레임인 경우, 또는 제1 참조 프레임 및 제2 참조 프레임이 각각 현재 픽처 블록의 순방향 참조 프레임인 경우, 또는 제1 참조 프레임 및 제2 참조 프레임이 각각 현재 픽처 블록의 역방향 참조 프레임인 경우, 다음 수식:
에 따라 제2 움직임 정보에서 제2 움직임 벡터 차를 계산하고 - 여기서, mvd_IY는 제2 움직임 벡터 차를 나타내고, mvd_IX는 제1 움직임 벡터 차를 나타냄 -; 그리고 제2 예측된 움직임 벡터 및 제2 움직임 벡터 차에 기초하여 제2 움직임 벡터를 결정하도록 구성되고, 제2 움직임 벡터는 제2 방향에서의 현재 픽처 블록의 움직임 벡터이다.
선택적으로, 본 출원의 또 다른 가능한 구현예에서, 획득 유닛은 구체적으로, 수식 에 따라, 현재 프레임의 시퀀스 번호 및 제1 참조 프레임의 시퀀스 번호에 기초하여 제1 시퀀스 번호를 계산하고 - 여기서, POC_Cur은 현재 프레임의 시퀀스 번호를 나타내고, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내며, POC_listY0는 제1 시퀀스 번호를 나타냄 -; 그리고 제2 참조 프레임 리스트가 제1 시퀀스 번호를 포함하는 경우, 제2 참조 프레임의 인덱스 값으로서, 제2 참조 프레임 리스트에서 제1 시퀀스 번호가 나타내는 참조 프레임의 번호를 결정하도록 구성된다.
선택적으로, 본 출원의 또 다른 가능한 구현예에서, 획득 유닛은 구체적으로, 수식 에 따라 현재 프레임의 시퀀스 번호 및 제1 참조 프레임의 시퀀스 번호에 기초하여 제2 시퀀스 번호를 계산하고 - 여기서, 는 제2 시퀀스 번호를 나타냄 -; 그리고 제2 참조 프레임 리스트가 제2 시퀀스 번호를 포함하는 경우, 제2 참조 프레임의 인덱스 값으로서, 제2 참조 프레임 리스트에서 제2 시퀀스 번호가 나타내는 참조 프레임의 번호를 결정하도록 구성된다.
선택적으로, 본 출원의 또 다른 가능한 구현예에서, 획득 유닛은 구체적으로, 수식 에 따라, 제1 참조 프레임의 시퀀스 번호 및 현재 프레임의 시퀀스 번호에 기초하여 제3 시퀀스 번호를 계산하고 - 여기서, 는 제3 시퀀스 번호임 -; 그리고 제2 참조 프레임의 인덱스 값으로서, 제2 참조 프레임 리스트에서 제3 시퀀스 번호가 나타내는 참조 프레임의 번호를 결정하도록 구성된다.
제3 측면에 따르면, 양방향 인터 예측 방법이 제공된다. 양방향 인터 예측 방법을 위한 여러 구현예가 있다.
일 구현예는, 비트스트림을 파싱(parsing)하여 제1 식별자를 획득하고 - 제1 식별자는 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정할지를 지시하는 데 사용되고, 제1 움직임 정보는 제1 방향에서의 현재 픽처 블록의 움직임 정보이고, 제2 움직임 정보는 제2 방향에서의 현재 픽처 블록의 움직임 정보임 -; 제1 식별자의 값이 미리 설정된 제1 값이면, 제1 움직임 정보를 획득하고, 제1 움직임 정보에 기초하여 제2 움직임 정보를 획득하며; 그리고 제1 움직임 정보 및 제2 움직임 정보에 기초하여 현재 픽처 블록의 예측 샘플(prediction samples)을 결정하는 것이다.
또 다른 구현예는, 비트스트림을 파싱하여 제2 식별자를 획득하고 - 제2 식별자는 움직임 정보 도출 알고리즘(motion information derivation algorithm)을 이용하여 현재 픽처 블록의 움직임 정보를 계산할지를 지시하는 데 사용됨 -; 제2 식별자의 값이 미리 설정된 제2 값이면, 제3 식별자를 획득하며 - 제3 식별자는 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정할지를 지시하는 데 사용되고, 제1 움직임 정보는 제1 방향에서의 현재 픽처 블록의 움직임 정보이고, 제2 움직임 정보는 제2 방향에서의 현재 픽처 블록의 움직임 정보임 -; 제3 식별자의 값이 미리 설정된 제3 값이면, 제1 움직임 정보를 획득하고, 제1 움직임 정보에 기초하여 제2 움직임 정보를 획득하며; 그리고 제1 움직임 정보 및 제2 움직임 정보에 기초하여 현재 픽처 블록의 예측 샘플을 결정하는 것이다.
또 다른 구현예는, 비트스트림을 파싱하여 제2 식별자를 획득하고 - 제2 식별자는 움직임 정보 도출 알고리즘(motion information derivation algorithm)을 이용하여 현재 픽처 블록의 움직임 정보를 계산할지를 지시하는 데 사용됨 -; 제2 식별자의 값이 미리 설정된 제2 값이면, 제1 움직임 정보를 획득하고, 제1 움직임 정보에 기초하여 제2 움직임 정보를 획득하며 - 제1 움직임 정보는 제1 방향에서의 현재 픽처 블록의 움직임 정보이고, 제2 움직임 정보는 제2 방향에서의 현재 픽처 블록의 움직임 정보임 -; 그리고 제1 움직임 정보 및 제2 움직임 정보에 기초하여 현재 픽처 블록의 예측 샘플을 결정하는 것이다.
또 다른 구현예는, 비트스트림을 파싱하여 제4 식별자를 획득하고 - 제4 식별자는 움직임 정보 도출 알고리즘을 이용하여 현재 픽처 블록의 움직임 정보를 계산할지를 지시하는 데 사용됨 -; 제4 식별자의 값이 미리 설정된 제4 값이면, 제1 참조 프레임 리스트 및 제2 참조 프레임 리스트에 기초하여 제1 참조 프레임의 인덱스 값 및 제2 참조 프레임의 인덱스 값을 결정하며 - 제1 참조 프레임 리스트는 제1 방향에서의 현재 픽처 블록의 참조 프레임 리스트이고, 제2 참조 프레임 리스트는 제2 방향에서의 현재 픽처 블록의 참조 프레임 리스트이며, 제1 참조 프레임은 제1 방향에서의 현재 픽처 블록의 참조 프레임이고, 제2 참조 프레임은 제2 방향에서의 현재 픽처 블록의 참조 프레임임 -; 제1 움직임 벡터 차 및 제1 움직임 벡터 예측자 플래그를 획득하고, 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하고 - 제1 움직임 정보는 제1 참조 프레임의 인덱스 값, 제1 움직임 벡터 차, 및 제1 움직임 벡터 예측자 플래그를 포함하고, 제2 움직임 정보는 제2 방향에서의 현재 픽처 블록의 움직임 정보임 -; 및 제1 움직임 정보 및 제2 움직임 정보에 기초하여 현재 픽처 블록의 예측 샘플을 결정하는 것이다.
또 다른 구현예는, 비트스트림의 파싱하여 제1 식별자를 획득하고 - 제1 식별자는 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정할지를 지시하는 데 사용되고, 제1 움직임 정보는 제1 방향에서의 현재 픽처 블록의 움직임 정보이고, 제2 움직임 정보는 제2 방향에서의 현재 픽처 블록의 움직임 정보임 -; 제1 식별자의 값이 미리 설정된 제8 값이면, 제5 식별자를 획득하고 - 제5 식별자는 제2 움직임 정보에 기초하여 제1 움직임 정보를 결정할지 지시하기 위해 사용됨 -; 제5 식별자가 미리 설정된 제5 값이면, 제2 움직임 정보를 획득하고, 제2 움직임 정보에 기초하여 제1 움직임 정보를 결정하고; 그리고 제1 움직임 정보 및 제2 움직임 정보에 기초하여 현재 픽처 블록의 예측 샘플을 결정하는 것이다.
또 다른 구현예는, 비트스트림의 파싱하여 제2 식별자를 획득하고 - 제2 식별자는 움직임 정보 도출 알고리즘을 이용하여 현재 픽처 블록의 움직임 정보를 계산할지 지시하는 데 사용됨 -; 제2 식별자가 미리 설정된 제2 값이면, 제3 식별자를 획득하고 - 제3 식별자는 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정할지 지시하는 데 사용되고, 제1 움직임 정보는 제1 방향에서의 현재 픽처 블록의 움직임 정보이고, 제2 움직임 정보는 제2 방향에서의 현재 픽처 블록의 움직임 정보임 -; 제3 식별자의 값이 미리 설정된 제6 값이면, 제2 움직임 정보를 획득하고, 제2 움직임 정보에 기초하여 제1 움직임 정보를 결정하고; 그리고 제1 움직임 정보 및 제2 움직임 정보에 기초하여 현재 픽처 블록의 예측 샘플을 결정하는 것이다.
제1 식별자 내지 제4 식별자에 대한 구체적인 설명에 대해서는 이하를 참조할 수 있다.
본 출원에서 제공된 양방향 인터 예측 방법에서, 비트스트림을 파싱하여 식별자를 획득한 후, 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정할지는 그 식별자의 값에 기초하여 결정된다. 제1 움직임 정보에 기초하여 제2 움직임 정보가 결정되어야 한다고 결정된 후, 제1 움직임 정보가 획득되고, 그런 다음 제2 움직임 정보가 획득된 제1 움직임 정보에 기초하여 결정된다. 이 방식에서는, 비트스트림이 오직 대응하는 식별자 및 제1 움직임 정보만 포함하면 되고, 제2 움직임 정보는 더 이상 포함할 필요가 없다. 비트스트림이 각 방향에서의 각 픽처 블록의 움직임 정보를 포함하는 종래 기술에 비해, 본 출원에서 제공된 양방향 인터 예측 방법은 비트스트림에 포함되는 움직임 정보를 효과적으로 감소시키고, 전송 자원의 효과적인 활용, 전송 레이트 및 코딩 레이트를 향상시킨다.
제4 측면에 따르면, 양방향 인터 예측 장치가 제공된다. 이 양방향 인터 예측 장치는 획득 유닛 및 결정 유닛을 포함한다.
구체적으로, 일 구현예에서, 획득 유닛은, 비트스트림을 파싱(parsing)하여 제1 식별자를 획득하고, 제1 식별자의 값이 미리 설정된 제1 값이면, 제1 움직임 정보를 획득하도록 구성되고, 제1 식별자는 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정할지를 지시하는 데 사용되고, 제1 움직임 정보는 제1 방향에서의 현재 픽처 블록의 움직임 정보이고, 제2 움직임 정보는 제2 방향에서의 현재 픽처 블록의 움직임 정보이다. 결정 유닛은, 획득 유닛에 의해 획득된 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하고, 제1 움직임 정보 및 제2 움직임 정보에 기초하여 현재 픽처 블록의 예측 샘플(prediction samples)을 결정하도록 구성된다.
또 다른 구현예에서, 획득 유닛은, 비트스트림을 파싱하여 제2 식별자를 획득하고, 제2 식별자의 값이 미리 설정된 제2 값이면, 제3 식별자를 획득하며, 제3 식별자의 값이 미리 설정된 제3 값이면, 제1 움직임 정보를 획득하도록 구성되고, 제2 식별자는 움직임 정보 도출 알고리즘(motion information derivation algorithm)을 이용하여 현재 픽처 블록의 움직임 정보를 계산할지를 지시하는 데 사용되고, 제3 식별자는 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정할지를 지시하는 데 사용되고, 제1 움직임 정보는 제1 방향에서의 현재 픽처 블록의 움직임 정보이고, 제2 움직임 정보는 제2 방향에서의 현재 픽처 블록의 움직임 정보이다. 결정 유닛은 획득 유닛에 의해 획득된 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하고, 제1 움직임 정보 및 제2 움직임 정보에 기초하여 현재 픽처 블록의 예측 샘플을 결정하도록 구성된다.
또 다른 구현예에서, 획득 유닛은 비트스트림을 파싱하여 제2 식별자를 획득하고, 제2 식별자의 값이 미리 설정된 제2 값이면, 제1 움직임 정보를 획득하도록 구성되고, 제2 식별자는 움직임 정보 도출 알고리즘을 이용하여 현재 픽처 블록의 움직임 정보를 계산할지를 지시하는 데 사용된다. 결정 유닛은, 획득 유닛에 의해 획득된 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하고, 제1 움직임 정보 및 제2 움직임 정보에 기초하여 현재 픽처 블록의 예측 샘플을 결정하도록 구성되고, 제1 움직임 정보는 제1 방향에서의 현재 픽처 블록의 움직임 정보이고, 제2 움직임 정보는 제2 방향에서의 현재 픽처 블록의 움직임 정보이다.
또 다른 구현예에서, 획득 유닛은, 비트스트림을 파싱하여 제4 식별자를 획득하도록 구성되고, 제4 식별자는 움직임 정보 도출 알고리즘을 이용하여 현재 픽처 블록의 움직임 정보를 계산할지를 지시하는 데 사용된다. 결정 유닛은 제4 식별자의 값이 미리 설정된 제4 값이면, 제1 참조 프레임 리스트 및 제2 참조 프레임 리스트에 기초하여 제1 참조 프레임의 인덱스 값 및 제2 참조 프레임의 인덱스 값을 결정하도록 구성되고, 제1 참조 프레임 리스트는 제1 방향에서의 현재 픽처 블록의 참조 프레임 리스트이고, 제2 참조 프레임 리스트는 제2 방향에서의 현재 픽처 블록의 참조 프레임 리스트이며, 제1 참조 프레임은 제1 방향에서의 현재 픽처 블록의 참조 프레임이고, 제2 참조 프레임은 제2 방향에서의 현재 픽처 블록의 참조 프레임이다. 획득 유닛은 추가로 제1 움직임 벡터 차 및 제1 움직임 벡터 예측자 플래그를 획득하도록 구성된다. 결정 유닛은 추가로 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하고, 제1 움직임 정보 및 제2 움직임 정보에 기초하여 현재 픽처 블록의 예측 샘플을 결정하도록 구성되고, 제1 움직임 정보는 제1 참조 프레임의 인덱스 값, 제1 움직임 벡터 차, 및 제1 움직임 벡터 예측자 플래그를 포함하고, 제2 움직임 정보는 제2 방향에서의 현재 픽처 블록의 움직임 정보이다.
제5 측면에 따르면, 단말이 제공된다. 이 단말은 하나 이상의 프로세서, 메모리, 및 통신 인터페이스를 포함한다. 메모리와 통신 인터페이스는 하나 이상의 프로세서에 연결된다. 메모리는 컴퓨터 프로그램 코드를 저장하도록 구성된다. 컴퓨터 프로그램 코드는 명령을 포함한다. 하나 이상의 프로세서가 그 명령을 실행하는 때, 단말은 제1 측면 또는 제1 측면의 가능한 구현예들 중 하나에 따른 양방향 인터 예측 방법을 수행하거나 또는 제3 측면 또는 제3 측면의 가능한 구현예들 중 어느 하나에 따른 양방향 인터 예측 방법을 수행한다.
제7 측면에 따르면, 비디오 디코더가 제공되고, 이것은 비휘발성 저장 매체 및 중앙 처리 유닛을 포함한다. 비휘발성 저장 매체는 실행 가능한 프로그램을 저장한다. 중앙 처리 유닛은 비휘발성 저장 매체에 연결되고, 실행 가능한 프로그램을 실행하여 제1 측면 또는 제1 측면의 가능한 구현예들 중 어느 하나에 따른 양방향 인터 예측 방법을 수행하거나 또는 제3 측면 또는 제3 측면의 가능한 구현예들 중 어느 하나에 따른 양방향 인터 예측 방법을 수행한다.
제7 측면에 따르면, 디코더가 제공된다. 이 디코더는 제2 측면에서의 양방향 인터 예측 장치 및 재구성 모듈을 포함하고, 재구성 모듈은 양방향 인터 예측 장치가 획득한 예측 샘플들에 기초하여 현재 픽처 블록의 재구성된 샘플 값을 결정하도록 구성된다. 또는 이 디코더는 제4 측면에서의 양방향 인터 예측 장치 및 재구성 모듈을 포함하고, 재구성 모듈은 양방향 인터 예측 장치가 획득한 예측 샘플들에 기초하여 현재 픽처 블록의 재구성된 샘플 값을 결정하도록 구성된다.
제8 측면에 따르면, 컴퓨터 판독 가능한 저장 매체가 제공된다. 컴퓨터 판독 가능한 저장 매체는 명령을 저장한다. 이 명령이 제5 측면의 단말에서 실행된 때, 이 단말은 제1 측면 또는 제1 측면의 가능한 구현예 중 어느 하나에 따른 양방향 인터 예측 방법을 수행하도록 이네이블되거나, 또는 제3 측면 또는 제3 측면의 가능한 구현예 중 어느 하나에 따른 양방향 인터 예측 방법을 수행하도록 이네이블된다.
제9 측면에 따르면, 명령을 포함하는 컴퓨터 프로그램 제품이 제공된다. 컴퓨터 프로그램 제품이 제5 측면의 단말에서 실행된 때, 그 단말은 제1 측면 또는 제1 측면의 가능한 구현예 중 어느 하나에 따른 양방향 인터 예측 방법을 수행하도록 이네이블되거나, 또는 제3 측면 또는 제3 측면의 가능한 구현예 중 어느 하나에 따른 양방향 인터 예측 방법을 수행하도록 이네이블된다.
본 출원에서, 양방항 인터 예측 장치의 이름은 장치나 기능 모듈에 대해 제한을 가하지 않는다. 실제 구현에서, 이 장치나 기능 모듈은 다른 이름을 가질 수도 있다. 만일 그 장치나 기능 모듈의 기능이 본 출원에서의 기능과 유사하면, 그 장치나 기능 모듈은 본 출원의 청구범위 또는 그 균등의 범위에 포함된다.
제5 측면 내지 제9 측면, 그리고 제5 측면 내지 제9 측면의 구현예들에 대한 보다 상세한 설명은, 제1 측면 및 제1 측면의 구현예에 대한 상세한 설명 또는 제3 측면 또는 제3 측면의 구현예에 대한 상세한 설명을 참조할 수 있다. 또, 제5 측면 내지 제9 측면, 그리고 제5 측면 내지 제9 측면의 구현예들에 대한 유리한 효과에 대해, 제1 측면 및 제1 측면의 구현예에 대한 유리한 효과의 분석 또는 제3 측면 또는 제3 측면의 구현예에 대한 유리한 효과의 분석을 참조할 수 있으므로, 여기서 그 상세에 대해서는 다시 설명하지 않는다.
본 출원에서 이들 측면들과 다른 측면들은 이하의 설명에서 보다 간결하고 이해하기 쉬울 것이다.
도 1은 본 출원의 실시예에 따른 비디오 코딩 시스템의 개략 구조도이다.
도 2는 본 출원의 실시예에 따른 비디오 인코더의 개략 구조도이다.
도 3은 본 출원의 실시예에 따른 비디오 디코더의 개략 구조도이다.
도 4는 본 출원의 실시예에 따른 양방향 인터 예측 방법의 개략 흐름도이다.
도 5는 본 출원의 실시예에 따른 양방향 인터 예측 장치의 제1 개략 구조도이다.
도 6은 본 출원의 실시예에 따른 양방향 인터 예측 장치의 제2 개략 구조도이다.
본 출원의 명세서, 청구범위, 및 첨부 도면에서 "제1", "제2", "제3", "제4", "제5" 등은 상이한 대상을 구분하기 위한 것이며 특정 순서를 나타내는 것은 아니다.
본 출원의 실시예에서, "예", "예시" 또는 "예컨대"는 예시, 예증, 설명을 한다는 것을 나타낸다. 본 출원의 실시예에서 "예", "예시" 또는 "예컨대"로서 설명되는 실시예 또는 설계 방식은 모두 다른 실시예 또는 설계 방식보다 더 나은 장점을 가지거나 더 바람직한 것으로서 설명되어서는 안 된다. 정확하게는, "예", "예시" 또는 "예컨대" 등의 사용은 구체적인 방법에서 관련된 개념을 제시하기 위한 것이다.
본 출원의 실시예의 이해를 돕기 위해, 본 출원의 실시예에서의 관련 요소를 먼저 여기서 설명한다.
픽처 인코딩(picture encoding): 픽처 시퀀스를 비트스트림으로 압축하는 프로세스
픽처 디코딩(picture decoding): 비트스트림을 특정 구문 규칙(syntax rule) 및 특정 처리 방법에 따라 재구성된 픽처로 재구성하는 프로세스
현재, 비디오 픽처 인코딩 프로세스는 다음과 같다. 먼저 인코더가 오리지널 픽처의 프레임을 서로 중첩하지 않는 여러 부분으로 분할한다. 여기서 각 부분은 픽처 블록으로 사용된다. 그런 다음, 인코더는 각 픽처 블록에 대해 예측(Prediction), 변환(Transform), 및 양자화(Quantization)를 수행하여, 픽처 블록에 대응하는 비트스트림을 획득한다. 여기서, 예측은 픽처 블록의 예측 블록을 획득하기 위해 사용되며, 이로써 픽처 블록과 그 픽처 블록의 예측 블록 간의 차(또는 잔차(residual) 또는 잔차 블록이라고도 함)만 인코딩하여 전송함으로써 전송 오버헤드를 감소시킬 수 있다. 마지막으로, 인코더는 픽처 블록에 대응하는 비트스트림을 디코더에 보낸다.
이에 대응하여, 비트스트림을 수신한 후, 디코더는 비디오 디코딩 프로세스를 수행한다. 구체적으로, 디코더는 수신한 비트스트림에 대해 예측, 역양자화, 및 역변환을 수행하여 재구성된 픽처 블록(또는 재구성 후 픽처 블록이라고도 한다)을 획득한다. 이 프로세스는 픽처 재구성 프로세스라고도 한다. 그런 다음, 디코더는 각 픽처 블록의 재구성된 블록을 오리지널 픽처로 조립하여 오리지널 픽처의 재구성된 픽처를 획득하고, 그 재구성된 픽처를 재생한다.
기존의 비디오 픽처 코딩 기술은 인트라 예측 및 인터 예측을 포함한다. 인트라 예측은 현재 프레임과 그 현재 프레임의 참조 프레임 간의 상호관계를 이용하여 픽처 블록을 코딩/디코딩함으로써 이루어지는 예측이다. 현재 프레임은 하나 이상의 참조 프레임을 가질 수 있다. 구체적으로, 현재 픽처 블록의 예측 픽처 블록은 현재 픽처 블록의 참조 프레임 내의 샘플들에 기초하여 생성된다.
일반적으로, 현재 픽처 블록의 예측 픽처 블록은 오직 하나의 참조 픽처 블록에 기초하여서만 생성되거나, 현재 픽처 블록의 예측 픽처 블록은 적어도 2개의 참조 픽처 블록에 기초하여 생성될 수 있다. 참조 픽처 블록에 기초하여 현재 픽처 블록의 예측 픽처 블록을 생성하는 것을 일방향 예측이라고 하고, 적어도 2개의 픽처 블록에 기초하여 현재 픽처 블록의 예측 픽처 블록을 생성하는 것을 양방향 예측이라고 한다. 양방향 인터 예측에서 적어도 2개의 참조 픽처 블록은 동일한 참조 프레임 또는 상이한 참조 프레임으로부터 온 것일 수 있다. 다시 말해, 본 출원에서 "방향"은 일반화된 정의이다. 본 출원에서 일 방향은 하나의 참조 픽처 블록에 대응한다. 이하에서 제1 방향 및 제2 방향은 상이한 참조 픽처 블록에 대응한다. 2개의 참조 픽처 블록은 현재 픽처 블록의 순방향 참조 프레임/역방향 참조 프레임에 포함되어 있을 수도 있다. 또는 하나의 참조 픽처 블록은 현재 픽처 블록의 순방향 참조 프레임에 포함되고, 다른 참조 픽처 블록은 현재 픽처 블록의 역방향 참조 프레임에 포함되어 있을 수 있다.
선택적으로, 양방향 인터 예측은, 현재 비디오 프레임 및 현재 비디오 프레임 전에 인코딩되고 재생되는 비디오 프레임 간의 상호관계, 및 현재 비디오 프레임 및 현재 비디오 프레임 전에 인코딩되고 현재 비디오 프레임 후에 재생되는 비디오 프레임 간의 상호관계를 이용하여 수행되는 인터 예측일 수 있다.
양방향 인터 예측은 순방향 인터 예측과 역방향 인터 예측으로 통상 불리는 2개 방향에서의 인터 예측을 포함한다. 순방향 인터 예측은 현재 비디오 프레임과 이 현재 비디오 프레임에 앞서 인코딩되고 재생되는 비디오 프레임 간의 상호관계를 이용하여 수행된다. 역방향 인터 예측은 현재 비디오 프레임과 이 현재 비디오 프레임 전에 인코딩되고 현재 비디오 프레임 후에 재생되는 비디오 프레임 간의 상호관계를 이용하여 수행된다.
순방향 인터 예측은 순방향 참조 프레임 리스트 L0에 대응하고, 역방향 인터 예측은 역방향 참조 프레임 리스트 L1에 대응한다. 2개의 참조 프레임 리스트는 동일 수량의 참조 프레임 또는 상이한 수량의 참조 프레임을 포함할 수 있다.
움직임 보상(MC: Motion Compensation)은 참조 픽처 블록을 이용하여 현재 픽처 블록을 예측하는 프로세스이다.
대부분의 인코딩 프레임워크에서, 비디오 시퀀스는 일련의 픽처를 포함하고, 픽처는 적어도 하나의 슬라이스로 분할되며, 각 슬라이스는 또한 픽처 블록으로 분할된다. 비디오 인코딩/디코딩은 픽처 블록에 의해 수행된다. 인코딩/디코딩 처리는 픽처의 좌상 코너 위치에서 시작하여 왼쪽에서 오른쪽으로 그리고 위에서 아래 열로 한 행(row)씩 수행된다. 여기서, 픽처 블록은 비디오 코딩 표준 H.264에서의 매크로 블록(MB: Macro Block)일 수도 있고, 또는 고효율 비디오 코딩(HEVC: High Efficiency Video Coding) 표준에서의 코딩 유닛(CU: Coding Unit)일 수도 있다. 이것은 본 출원의 실시예에서 특별히 한정되지 않는다.
본 출원에서, 인코딩/디코딩되고 있는 픽처 블록을 현재 픽처 블록이라고 하고, 현재 픽처 블록이 위치한 픽처를 현재 프레임이라고 한다.
일반적으로, 현재 프레임은 일방향 예측 프레임(P 프레임)이거나, 또는 양방향 예측 프레임(B 프레임)일 수 있다. 현재 프레임이 P 프레임인 경우, 현재 프레임은 하나의 참조 프레임 리스트를 가진다. 현재 프레임이 B 프레임인 경우, 현재 프레임은 2개의 참조 프레임 리스트를 가지고, 이 2개의 리스트는 통상 L0 및 L1로 각각 지칭된다. 각 참조 프레임 리스트는 현재 프레임의 참조 프레임으로서 사용되는 적어도 하나의 재구성된 프레임을 포함한다. 이 참조 프레임은 현재 프레임의 인터 예측을 위한 참조 샘플을 제공하는 데 사용된다.
현재 프레임에서, 현재 픽처 블록의 이웃하는 픽처 블록(예컨대, 현재 블록의 왼쪽, 위쪽, 오른쪽)이 이미 인코딩/디코딩되었을 수 있고, 재구성된 픽처가 획득된다. 이웃하는 픽처 블록을 재구성된 픽처 블록이라고도 한다. 재구성된 픽처 블록의 재구성된 샘플 및 코딩 모드와 같은 정보가 사용 가능하게 된다.
현재 프레임이 인코딩/디코딩되기에 앞서 인코딩/디코딩된 프레임을 재구성된 프레임이라고 한다.
움직임 벡터(MV, Motion Vector)는 인터 예측 프로세스에서 중요한 파라미터이고, 현재 픽처 블록에 대한 인코딩된 픽처 블록의 공간적 변이(spatial displacement)를 나타낸다. 통상, 움직임 벡터는 움직임 탐색과 같은 움직임 추정(ME, Motion Estimation) 방법을 이용하여 획득될 수 있다. 예비적인 인터 예측 기술(preliminary inter prediction technology)에서, 인코더는 비트스트림 내에서 현재 픽처 블록의 움직임 벡터를 전송하고, 이로써 디코더는 현재 픽처 블록의 예측 샘플을 재생하여, 재구성된 블록을 획득한다. 인코딩 효율을 더욱 향상시키기 위해, 참조 움직임 벡터를 이용하여 움직임 벡터를 차분을 이용하여 인코딩(differentially encoding)하는 방법이 후에 제공되는데, 구체적으로, 오직 움직임 벡터 차(MVD, Motion Vector Difference)만이 인코딩된다.
디코더 및 인코더가 도일한 참조 픽처 블록을 이용할 수 있도록 하기 위해, 인코더는 각 픽처 블록의 움직임 정보를 비트스트림 내에서 디코더에 보낼 필요가 있다. 인코더가 각 픽처 블록의 움직임 벡터를 바로 인코딩하면, 큰 전송 자원이 소비된다. 공간적으로 이웃하는 픽처 블록의 움직임 벡터는 강하게 상호 연관되어 있고, 현재 픽처 블록의 움직임 벡터는 인코딩된 이웃 픽처 블록의 움직임 벡터에 기초하여 예측될 수 있다. 예측을 통해 획득된 움직임 벡터를 MVP라고 하며, 현재 픽처 블록과 MVP 간의 차를 MVD라고 한다.
비디오 코딩 표준 H.264에서는, 예측 정밀도를 향상시키기 위해 움직임 추정 프로세스에서 복수 참조 프레임 예측을 사용한다. 구체적으로, 복수의 재구성된 프레임을 저장하는 버퍼가 생성되고, 그 버터 내의 모든 재구성된 프레임은 움직임 보상을 위해 최적의 참조 픽처 블록을 위해 탐색 되며, 이로써 시간적 리던던시(temporal redundency)를 더 잘 제거할 수 있다. 비디오 코딩 표준 H.264에서는, 인터 예측에 2개의 버터를 사용한다: 참조 프레임 리스트 0(참조 리스트 0) 및 참조 프레임 리스트 1(참조 리스트 1). 각 리스트 내에서의 최적 참조 블록이 위치한 참조 프레임이 인덱스 값에 의해 표시되는데, 즉, ref_idx_l0 및 ref_idx_l1이다. 각 참조 프레임 리스트에서, 참조 픽처 블록의 움직임 정보는 참조 프레임 인덱스 값(ref_idx_l0 또는 ref_idx_l1), MVP 플래그, 및 MVD를 포함한다. 디코더는 참조 프레임 인덱스 값, MVP 플래그, MVD에 기초하여 선택된 참조 프레임 내에서 올바른 참조 픽처 블록을 찾을 수 있다.
현재, HEVC 표준에서 자주 사용되는 인터 예측 모드는 AMVP(Advanced Motion Vector Prediction), 병합(Merge) 모드, 비전환 움직임 모델 예측 모드(non-translational motion model prediction mode)이다.
AMVP 모드에서, 인코더는 현재 픽처 블록에 공간적으로 시간적으로 인접한 인코딩된 픽처 블록의 움직임 벡터를 이용하여 후보 움직임 벡터 리스트를 구성하고, 후보 움직임 벡터 리스트 내의 최적 움직임 벡터를 레이트-왜곡 비용(rate-distortion cost)에 기초하여 현재 픽처 블록의 MVP로서 결정한다. 추가로, 인코더는 MVP를 중심으로 이웃에서 움직임 탐색을 수행하여, 현재 픽처 블록의 움직임 벡터를 획득한다. 인코더는 후보 움직임 벡터 리스트 내에서의 MVP의 인덱스 값(즉, MVP 플래그), 참조 프레임 인덱스 값 및 MVD를 디코더에 전송한다.
병합 모드에서, 인코더는 현재 픽처 블록에 공간적으로 또는 시간적으로 인접하는 인코딩된 픽처 블록의 움직임 정보를 이용하여 후보 움직임 정보 리스트를 구성하고, 레이트-왜곡 비용에 기초하여 현재 픽처 블록의 움직임 정보로서 후보 움직임 정보 리스트 내에서 최적 움직임 정보를 결정한다. 인코더는 후보 움직임 정보 리스트 내의 최적 움직임 정보의 위치의 인덱스 값을 디코더에 전송한다.
비전환 움직임 모델 예측 모드에서는, 인코더 및 디코더가 동일한 움직임 모델을 이용하여 현재 픽처 블록의 모든 서브블록의 움직임 정보를 도출하고, 모든 버스블록의 움직임 정보에 기초한 움직임 보상을 수행하여 예측 픽처 블록을 획득한다. 이것은 예측 효율을 향상시킨다. 인코더 및 디코더에 의해 자주 사용되는 움직임 모델은 4-파라미터 아핀 모델(affine model), 6-파라미터 아핀 모델, 또는 8-파라미터 바이리니어 모델(bilinear model)이다.
예컨대, 4-파라미터 아핀 변환 모델은 현재 픽처 블록의 좌상 코너에 있는 샘플에 대한 2개의 샘플의 좌표 및 그 2개의 샘플의 움직임 벡터에 의해 나타내어질 수 있다. 여기서, 움직임 모델 파라미터를 나타내기 위해 사용하는 샘플을 제어점이라고 한다. 현재 픽처 블록의 좌상 코너(0,0)에 있는 샘플 및 현재 픽처 블록의 우상 코너(W,0)에 있는 샘플이 제어점이고, 헌재 픽처 블록의 좌상 코너 및 우상 코더의 샘플들의 움직임 벡터들은 각각 이고, 현재 픽처 블록의 각 서브블록의 움직임 정보는 다음 수신 (1)에 따라 획득된다. 이하의 수신 (1)에서, 는 현재 픽처 블록의 좌상 코너에 있는 샘플에 대한 서브블록의 좌표이고, 는 그 서브블록의 움직임 벡터이며, W는 현재 픽처 블록의 폭이다.
(1)
예컨대, 6-파라미터 아핀 변환 모델은 현재 픽처 블록의 좌상 코너에 있는 샘플에 대한 3개의 샘플의 좌표 및 3개의 샘플의 움직임 벡터를 이용하여 나타내어진다. 현재 픽처 블록의 좌상 코너(0,0)의 샘플, 현재 픽처 블록의 우상 코너(W,0)의 샘플, 및 현재 픽처 블록의 좌하 코너(0,H)의 샘플, 그리고 현재 픽처 블록의 좌상 코너, 우상 코너, 및 좌하 코너의 샘플들의 움직임 벡터들이 각각, , , 및 이면, 현재 픽처 블록의 각 서브블록의 움직임 정보는 다음 수식 (2)에 따라 획득된다. 다음 수식 (2)에서, 는 현재 픽처 블록의 좌상 코너의 샘플에 대한 서브블록의 좌표이고, 는 그 서브블록의 움직임 벡터이며, W 및 H는 각각 현재 픽처 블록의 폭 및 높이이다.
(2)
예컨대, 8-파라미터 바이리니어 모델은 현재 픽처 블록의 좌상 코너의 샘플에 대한 4개의 샘플의 좌표 및 그 4개의 샘플의 움직임 벡터를 이용하여 나타내어질 수 있다. 현재 픽처 블록의 좌상 코너(0,0)의 샘플, 현재 픽처 블록의 우상 코너(W,0)의 샘플, 현재 픽처 블록의 좌하 코너(0,H)의 샘플, 및 현재 픽처 블록의 우하 코너(W,H)의 샘플이 제어점이고, 현재 픽처 블록의 좌상 코너, 우상 코너, 좌하 코너, 우하 코너의 샘플들의 움직임 벡터들이 각각, , , , 및 이면, 현재 픽처 블록의 각 서브블록의 움직임 정보는 다음 수식 (3)에 따라 획득된다. 다음 수식 (3)에서, 는 현재 픽처 블록의 좌상 코너의 샘플에 대한 서브블록의 좌표이고, 는 그 서브블록의 움직임 벡터이며, W 및 H는 각각 현재 픽처 블록의 폭 및 높이이다.
(3)
상술한 인터 예측 모드 중 어느 하나에서, 인터 예측이 양방향 인터 예측이면, 인코더가 각 방향에서의 각 픽처 블록의 움직임 정보를 디코더에 보내야 한다는 것을 알 수 있다. 결과적으로, 움직임 정보는 상대적으로 큰 전송 자원을 점유한다. 이로 인해 전송 자원의 효과적인 이용, 전송 레이트, 및 코딩 압축 효율을 저하시킨다.
이러한 문제를 해결하기 위해, 본 출원은 양방항 인터 예측 방법을 제공한다. 이 양방향 인터 예측 방법에서는, 인코더가 제1 방향에서의 현재 픽처 블록의 움직임 정보를 디코더에 보내고, 디코더는, 제1 방향에서의 현재 픽처 블록의 움직임 정보를 수신한 후, 제1 방향에서의 현재 픽처 블록의 움직임 정보에 기초하여 제2 방향에서의 현재 픽처 블록의 움직임 정보를 계산한다. 이런 식으로, 제1 방향에서의 현재 픽처 블록의 움직임 정보 및 제2 방향에서의 현재 픽처 블록의 움직임 정보에 기초하여 현재 픽처 블록의 예측 샘플들이 계산될 수 있다.
본 출원에서 제공되는 양방향 인터 예측 방법은 양방향 인터 예측 장치, 비디오 코딩 장치, 비디오 코덱, 또는 다른 비디오 코딩 기능을 가진 장치에 의해 수행된다.
본 출원에서 제공되는 양방향 인터 예측 방법은 비디오 코딩 시스템에 적용 가능하다. 비디오 코딩 시스템에서는, 비디오 인코더(100) 및 비디오 디코더(200)가 본 출원에서 제공된 양방향 인터 예측 방법의 예에 따라 현재 픽처 블록의 움직임 정보를 계산하도록 구성된다. 구체적으로, 제2 방향에서의 현재 픽처 블록의 움직임 정보는 제1 방향에서의 현재 픽처 블록의 움직임 정보에 기초하여 계산되고, 이로써 현재 픽처 블록의 예측 샘플들이 제1 방향에서의 현재 픽처 블록의 움직임 정보 및 제2 방향에서의 현재 픽처 블록의 움직임 정보에 기초하여 결정된다. 이러한 방식에서, 비디오 인코더(100) 및 비디오 디코더(200) 간에는 제1 방향에서의 현재 픽처 블록의 움직임 정보만이 전송될 필요가 있다. 이것은 전송 자원 이용 및 코딩 압축 효율을 효과적으로 향상시킨다.
도 1은 비디오 코딩 시스템(1)의 구조를 보여준다. 도 1에 도시된 바와 같이, 비디오 코딩 시스템(1)은 발원지 장치(10) 및 목적지 장치(20)를 포함한다. 발원지 장치(10)는 인코딩된 비디오 데이터를 생성한다. 발원지 장치(10)를 비디오 인코딩 장치 또는 비디오 인코딩 기기라고도 한다. 목적지 장치(20)는 발원지 장치(10)에 의해 생성된 인코딩된 비디오 데이터를 디코딩한다. 목적지 장치(20)를 또한 비디오 디코딩 장치 또는 비디오 디코딩 기기라고도 한다. 발원지 장치(10) 및/또는 목적지 장치(20)는 적어도 하나의 프로세서와, 그 적어도 하나의 프로세서에 연결된 메모리를 포함할 수 있다. 메모리는, 제한되는 것은 아니지만, ROM, RAM, EEPROM, 플래시 메모리, 또는 컴퓨터에 의해 액세스될 수 있는 데이터 구조 또는 명령의 형태로 필요한 프로그램 코드를 저장하도록 구성된 다른 어떤 형태의 매체일 수 있다. 이것은 본 출원에 특히 한정되는 것은 아니다.
발원지 장치(10) 및 목적지 장치(20)는, 데스크톱 컴퓨터, 모바일 컴퓨팅 장치, 노트북(예컨대, 랩톱) 컴퓨터, 태블릿 컴퓨터, 셋톱 박스, 스마트폰과 같은 핸드헬드 전화기, 텔레비전세트, 카메라, 디스플레이 장치, 디지털 미디어 플레이어, 비디오 게임 콘솔, 차량 탑재 컴퓨터 또는 이와 유사한 장치를 포함하는 다양한 장치를 포함할 수 있다.
목적지 장치(20)는 링크(30)를 통해 발원지 장치(10)로부터 인코딩된 비디오 데이터를 수신할 수 있다. 링크(30)는 인코딩된 비디오 데이터를 발원지 장치(10)로부터 목적지 장치(20)로 전송할 수 있는 하나 이상의 매체 및/또는 장치를 포함할 수 있다. 예컨대, 링크(30)는 발원지 장치(10)가 실시간으로 목적지 장치(20)에 인코딩된 비디오 데이터를 직접 전송할 수 있도록 하는 하나 이상의 통신 매체를 포함할 수 있다. 이 예에서, 발원지 장치(10)는 통신 표준(예컨대, 무선 통신 프로토콜)에 따라 인코딩된 비디오 데이터를 변조하고, 변조된 비디오 데이터를 목적지 장치(20)에 전송할 수 있다. 하나 이상의 통신 매체는 무선 및/또는 유선 통신 매체로서, 예컨대, 무선 주파수(RF) 스펙트럼, 또는 하나 이상의 물리 전송 케이블을 포함할 수 있다. 하나 이상의 통신 매체는 패킷-기반 네트워크의 일부를 구성할 수 있고, 패킷-기반 네트워크는, 예컨대, LAN, WAN, 또는 글로벌 네트워크(예컨대 인터넷)이다. 하나 이상의 통신 매체는 라우터, 스위치, 기지국, 또는 발원지 장치(10)에서 목적지 장치(20)로의 통신을 구현하는 다른 장치를 포함할 수 있다.
또 다른 예에서, 인코딩된 비디오 데이터는 출력 인터페이스(140)를 통해 저장 장치(40)로 출력될 수 있다. 마찬가지로, 인코딩된 비디오 데이터는 입력 인터페이스(240)를 통해 저장 장치(40)로부터 액세스될 수 있다. 저장 장치(40)는 블루레이 디스크, DVD, CD-ROM, 플래시 메모리, 또는 인코딩된 비디오 데이터를 저장하도록 구성된 다른 적절한 디지털 저장 매체와 같은 여러 종류의 로컬 액세스 가능한 데이터 자장 매체를 포함할 수 있다.
또 다른 예에서, 저장 장치(40)는 파일 서버 또는 발원지 장치(10)에 의해 생성된 인코딩된 비디오 데이터를 저장하는 다른 중간 저장 장치에 대응할 수 있다. 이 예에서, 목적지 장치(20)는 스트리밍 전송 또는 다운로딩을 통해 저장 장치(40)로부터 저장된 비디오 데이터를 획득할 수 있다. 파일 서버는 인코딩된 비디오 데이터를 저장하고 인코딩된 비디오 데이터를 목적지 장치(20)에 전송할 수 있는 서버라면 어떤 형태라도 된다. 예컨대, 파일 서버는 WWW 서버(예컨대 웹사이트에 사용되는), FTP 서버, NAS 장치 및 로컬 디스크 드라이브를 포함할 수 있다.
목적지 장치(20)는 임의의 표준 데이터 연결(예컨대 인터넷 연결)을 통해 인코딩된 비디오 데이터에 액세스할 수 있다. 예시적인 형태의 데이터 연결은 파일 서버에 저장된 인코딩된 비디오 데이터에 액세스하기에 적합한 무선 채널 또는 유선 연결(예컨대, 케이블 모뎀), 또는 그 조합을 포함한다. 인코딩된 비디오 데이터는 파일 서버에서 스트리밍 방식으로, 또는 다운로딩을 통해, 또는 그 조합으로 전송될 수 있다.
본 출원의 양방향 인터 예측 방법은 무선 애플리케이션 시나리오에 한정되지 않는다. 예컨대, 본 출원의 양방향 인터 예측 방법은 다음의 애플리케이션, 즉 공중 텔레비전 방송(over-the-air television broadcasting), 케이블 텔레비전 전송, 위성 텔레비전 전송, 스트리밍 비디오 전송(예컨대, 인터넷을 통해), 데이터 저장 매체에 저장된 비디오 데이터의 인코딩, 데이터 자장 매체에 저장된 비디오 데이터의 디코딩, 또는 다른 애플리케이션과 같은 다수의 멀티미디어 애플리케이션을 지원하기 위한 비디오 코딩에 적용될 수 있다. 몇몇 예에서, 비디오 코딩 시스템(1)은 일방향 또는 양방향 비디오 전송을 지원하도록 구성될 수도 있고, 스트리밍 비디오 전송, 비디오 재생, 비디오 방송 및/또는 비디오 전화와 같은 애플리케이션을 지원하도록 구성될 수 있다.
도 1에 도시된 비디오 코딩 시스템(1)은 단지 비디오 코딩 시스템의 일례에 불과하고, 본 출원에서의 비디오 코딩 시스템을 한정하는 것이 아님을 밝혀둔다. 본 출원에서 제공되는 양방향 인터 예측 방법은 또한, 인코딩 장치와 디코딩 장치 간에 데이터 통신이 없는 시나리오에도 적용될 수 있다. 다른 예에서, 인코딩할 비디오 데이터 또는 인코딩된 비디오 데이터가 로컬 메모리에서 조회되거나, 스트리밍 방식으로 네트워크상에서 전송될 수 있거나 기타 등등의 경우가 있을 수 있다. 비디오 디코딩 장치는 또한 메모리로부터 인코딩된 비디오 데이터를 획득하고, 그 인코딩된 비디오 데이터를 디코딩할 수 있다.
도 1에서, 발원지 장치(10)는 비디오 소스(101), 비디오 인코더(102), 및 출력 인터페이스(103)를 포함한다. 어떤 예에서는, 출력 인터페이스(103)는 레귤레이터/복조기 (모뎀) 및/또는 전송기를 포함할 수 있다. 비디오 소스(101)는 비디오 촬상 장치(예컨대, 카메라), 미리 촬상된 비디오 데이터를 포함하는 비디오 아치브(archive), 및/또는 비디오 데이터를 생성하기 위한 컴퓨터 그래픽 시스템, 또는 이들 비디오 데이터 소스의 조합을 포함할 수 있다.
비디오 인코더(102)는 비디오 소스(101)로부터의 비디오 데이터를 인코딩할 수 있다. 어떤 예에서, 발원지 장치(10)는 인코딩된 비디오 데이터를 출력 인터페이스(103)를 통해 목적지 장치(20)로 바로 전송한다. 다른 예에서, 다르게는 인코딩된 비디오 데이터가 저장 장치(40)에 저장될 수 있고, 이로써 이후에 목적지 장치(20)가 디코딩 및/또는 재생을 위해 인코딩된 비디오 데이터에 액세스할 수 있다.
도 1의 예에서, 목적지 장치(20)는 디스플레이 장치(201), 비디오 디코더(202) 및 입력 인터페이스(203)를 포함한다. 어떤 예에서, 입력 인터페이스(203)는 수신기 및/또는 모뎀을 포함한다. 입력 인터페이스(203)는 링크(30)를 통해 및/또는 저장 장치(40)로부터 인코딩된 비디오 데이터를 수신할 수 있다. 디스플레이 장치(201)는 목적지 장치(20)와 통합되거나 또는 목적지 장치(20) 외부에 배치될 수 있다. 통상, 디스플레이 장치(201)는 디코딩된 비디오 데이터를 표시한다. 디스플레이 장치(201)는 여러 타입의 디스플레이 장치를 포함할 수 있는데, 예컨대, LCD, 플라즈마 디스플레이, 유기 발광 다이오드 디스플레이, 또는 임의의 종류의 디스플레이 장치가 있다.
선택적으로, 비디오 인코더(102)와 비디오 디코더(202)는 각각 오디오 인코더 및 오디오 디코더와 통합될 수 있고, 공통의 데이터 스트림 또는 별도의 데이터 스트림 내의 오디오와 비디오 모두를 인코딩하기 위해, 적절한 멀티플렉서-디멀티플렉서 유닛 또는 다른 하드웨어 및 소프트웨어를 포함할 수 있다.
비디오 인코더(102) 및 비디오 디코더(202)는 적어도 하나의 마이크로프로세서, 디지털 신호 처리기(DSP, Digital Signal Processor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array), 이산 로직(discrete logic), 하드웨어 또는 이들의 임의의 조합을 포함할 수 있다. 본 출원에서 제공되는 양방향 인터 예측 방법이 소프트웨어를 이용하여 구현되면, 그 소프트웨어를 위해 사용되는 명령은 적절한 비휘발성 컴퓨터 판독 가능한 저장 매체에 저장되고, 적어도 하나의 프로세서는 그 명령을 하드웨어에서 실행하여 본 출원을 구현하는 데 사용된다. 이상의 것들 중 어느 것이든(하드웨어, 소프트웨어, 하드웨어와 소프트웨어의 조합 등을 포함하여) 적어도 하나의 프로세서로서 간주될 수 있다. 비디오 인코더(102)는 인코더 내에 포함될 수 있고, 비디오 디코더(202)는 디코더 내에 포함될 수 있으며, 인코더 또는 디코더는 대응하는 장치 내의 인코더/디코더(코덱) 조합의 일부일 수 있다.
본 출원에서 비디오 인코더(102) 및 비디오 디코더(202)는 비디오 압축 표준(예컨대, HEVC)에 따른 동작을 수행할 수도 있고, 다른 산업 표준에 따른 동작을 수행할 수도 있다. 이것은 본 출원에서 특히 한정되지 않는다.
비디오 인코더(102)는, 현재 픽처 블록에 대해 양방향 움직임 추정을 수행하여, 제1 방향에서의 현재 픽처 블록의 움직임 정보를 결정하고, 제1 방향에서의 현재 픽처 블록의 움직임 정보에 기초하여 제2 방향에서의 현재 픽처 블록의 움직임 정보를 계산하도록 구성된다. 여기서, 비디오 인코더(102)는 제1 방향에서의 현재 픽처 블록의 움직임 정보 및 제2 방향에서의 현재 픽처 블록의 움직임 정보에 기초하여 현재 픽처 블록의 예측 픽처 블록을 결정한다. 또한, 비디오 인코더(102)는, 현재 픽처 블록과 이 현재 픽처 블록의 예측 픽처 블록 간의 잔차(residual)에 대해 변환 및 양자화와 같은 동작을 수행하여, 비트스트림을 생성하고, 이 비트스트림을 비디오 디코더(202)에 보낸다. 비트스트림은 제1 방향에서의 현재 픽처 블록의 움직임 정보와, 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하도록 지시하는 데 사용되는 지시 정보를 포함한다. 이 지시 정보는 상이한 식별자들을 이용하여 나타내어질 수 있다. 지시 정보를 나타내는 방법에 대해, 이하의 설명을 참조할 수 있다.
선택적으로, 제1 방향에서의 현재 픽처 블록의 움직임 정보에 기초하여 제2 방향에서의 현재 픽처 블록의 움직임 정보를 계산하기 위한, 비디오 인코더(102)에 의해 사용되는 방법은: 비디오 인코더(102)가 제1 방향에서의 현재 픽처 블록의 움직임 벡터에 기초하여 제2 방향에서의 현재 픽처 블록의 움직임 벡터를 결정하거나; 또는 비디오 인코더(102)가 제1 방향에서의 현재 픽처 블록의 움직임 벡터 차에 기초하여 제2 방향에서의 현재 픽처 블록의 움직임 벡터 차를 결정하고, 제2 방향에서의 현재 픽처 블록의 움직임 벡터 차와 제2 방향에서의 현재 픽처 블록의 예측된 움직임 벡터에 기초하여, 제2 방향에서의 현재 픽처 블록의 움직임 벡터를 결정하는 것이다.
도 4를 참조한다. 비디오 디코더(202)는: 비트스트림을 획득하고, 그 비트스트림을 파싱하여, 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하도록, 다시 말해 한 방향에서의 움직임 정보에 기초하여 다른 방향에서의 움직임 정보를 도출 및 계산할 것을 결정하도록 지시하는 데 사용되는 지시 정보를 획득하며(S400) - 여기서 제1 움직임 정보는 제1 방향에서의 현재 픽처 블록의 움직임 정보이고, 제2 움직임 정보는 제2 방향에서의 현재 픽처 블록의 움직임 정보이며, 제1 방향과 제2 방향은 상이함 -; 제1 움직임 정보를 획득하고(S401); 획득한 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하고(S402); 제1 움직임 정보 및 제2 움직임 정보에 기초하여 현재 픽처 블록의 예측 샘플을 결정(S403)하도록 구성된다.
제1 방향에서의 현재 픽처 블록의 움직임 정보에 기초하여 제2 방향에서의 현재 픽처 블록의 움직임 정보를 계산하기 위한, 비디오 디코더(202)가 사용하는 방법은: 비디오 디코더(202)가 제1 방향에서의 현재 픽처 블록의 움직임 벡터에 기초하여 제2 방향에서의 현재 픽처 블록의 움직임 벡터를 결정하거나; 또는 비디오 디코더(202)가 제1 방향에서의 현재 픽처 블록의 움직임 벡터 차에 기초하여 제2 방향에서의 현재 픽처 블록의 움직임 벡터 차를 결정하고, 제2 방향에서의 현재 픽처 블록의 움직임 벡터 차 및 제2 방향에서의 현재 픽처 블록의 예측된 움직임 벡터에 기초하여 제2 방향에서의 현재 픽처 블록의 움직임 벡터를 결정하는 것일 수 있다.
도 2는 본 출원의 일 실시예에 따른 비디오 인코더(102)의 개략 구조도이다. 도 2에 도시된 바와 같이, 비디오 인코더(102)는 비디오를 후처리 엔티티(41)에 출력하도록 구성된다. 후처리 엔티티(41)는 비디오 인코더(102)로부터의 인코딩된 비디오 데이터를 처리할 수 있는 비디오 엔티티의 일례를 나타내며, 예컨대 MANE(media aware network element) 또는 슬라이싱 장치/에디팅 장치이다. 어떤 경우, 후처리 엔티티(41)는 네트워크 엔티티의 일례일 수 있다. 어떤 비디오 인코딩 시스템에서, 후처리 엔티티(41) 및 비디오 인코더(102)는 별개의 장치의 구성요소일 수 있다. 다른 경우, 후처리 엔티티(41)에 대해 설명된 기능이 비디오 인코더(102)를 포함하는 동일 장치에 의해 수행될 수 있다. 일례에서, 후처리 엔티티(41)는 도 1의 저장 장치(40)의 일례이다.
비디오 인코더(102)는 제1 방향에서의 현재 픽처 블록의 움직임 정보에 기초하여 제2 방향에서의 현재 픽처 블록의 움직임 정보를 도출하고 계산하고, 또한 제1 방향에서의 현재 픽처 블록의 움직임 정보 및 제2 방향에서의 현재 픽처 블록의 움직임 정보에 기초하여 현재 픽처 블록의 예측 픽처 블록을 결정하여, 양방향 인터 예측 인코딩을 완성한다.
도 2에 도시된 바와 같이, 비디오 인코더(102)는 변환기(301), 양자화기(302), 엔트로피 인코더(303), 필터(306), 메모리(307), 예측 처리 유닛(308), 감산기(312)를 포함한다. 예측 처리 유닛(308)은 인트라 예측기(309) 및 인터 예측기(310)를 포함한다. 픽처 블록을 재구성하기 위해, 비디오 인코더(102)는 또한 역양자화기(304), 역변환기(305), 및 합산기(311)를 포함한다. 필터(306)는 하나 이상의 루프 필터, 예컨대, 디블로킹 필터(deblocking filter), 적응형 루프 필터(adaptive loop filter), 및 샘플 적응형 오프셋 필터(sample adaptive offset filter)를 나타내도록 특정될 수 있다.
메모리(307)는 비디오 인코더(102)의 구성요소에 의해 인코딩되는 비디오 데이터를 저장한다. 메모리(307)에 저장된 비디오 데이터는 비디오 소스(101)로부터 얻어질 수 있다. 메모리(307)는 인트라 또는 인터 모드에서 비디오 데이터를 인코딩하기 위해 비디오 인코더(102)에 의해 사용되는 참조 비디오 데이터를 저장하는 참조 픽처 메모리일 수 있다. 메모리(307)는 SDRAM(synchronous RAM), MRAM(magnetoresistive RAM), RRAM(resistive RAM), 또는 다른 타입의 메모리 장치를 포함하는 DRAM일 수 있다.
비디오 인코더(102)는 비디오 데이터를 수신하고 비디오 데이터 메모리에 그 비디오 데이터를 저장한다. 파티셔닝 유닛(partitioning unit)은 비디오 데이터를 여러 픽처 블록으로 나누고, 이들 픽처 블록들은 다시 더 작은 블록으로 분할되며, 예컨대 사진트리(quad-tree) 구조 또는 이진트리(binary-tree) 구조에 따른 픽처 블록 분할이다. 이 분할은 또한 슬라이스, 타일, 또는 다른 더 큰 유닛으로의 분할을 포함할 수 있다. 비디오 인코더(102)는 통상 인코딩할 비디오 슬라이스 내의 픽처 블록을 인코딩하기 위한 구성요소이다. 슬라이스는 복수의 픽처 블록으로 분할된다(그리고 타일이라고 부르기도 하는 픽처 블록 세트로 분할되기도 한다).
예측 처리 유닛(308) 내의 인트라 예측기(309)는, 공간적 리던던시를 제거하기 위해, 현재 픽처 블록과 같은 프레임 또는 슬라이스 내의 하나 이상의 이웃하는 픽처 블록에 대비하여 현재 픽처 블록에 대한 인트라 예측 인코딩을 수행할 수 있다. 예측 처리 유닛(308) 내의 인터 예측기(310)는 시간적 리던던시를 제거하기 위해, 하나 이상의 참조 픽처 내의 하나 이상의 예측 픽처 블록에 대비하여 현재 픽처 블록에 대한 인터 예측 인코딩을 수행할 수 있다.
예측 처리 유닛(308)은, 감산기(312)가 잔차 블록을 생성할 수 있게 인트라 코딩되고 인터 코딩된, 획득한 픽처 블록을 제공하고, 또 합산기(311)가 참조 픽처로서 사용되는 인코딩된 블록을 재구성할 수 있게 잔차 블록을 제공할 수 있다.
예측 처리 유닛(308)이 인터 예측 및 인트라 예측을 통해 현재 픽처 블록의 예측 픽처 블록을 생성한 후, 비디오 인코더(102)는, 인코딩할 현재 픽처 블록에서 예측 픽처 블록을 빼는 것에 의해 잔차 픽처 블록을 생성한다. 감산기(312)는 이 빼기 연산을 수행하는 하나 이상의 구성요소를 나타낸다. 잔차 블록 내의 잔차 비디오 데이터는 하나 이상의 변환 유닛(TU, Transform Unit)에 포함되고 변환기(301)에 적용된다. 변환기(301)는 잔차 비디오 데이터를 이산 코사인 변환(DCT)과 같은 변환 또는 개념적으로 유사한 변환을 통해 잔차 변환 계수로 변환한다. 변환기(301)는 잔차 비디오 데이터를 샘플 값 도메인에서 변환 도메인, 예컨대 주파수 도메인으로 변환한다.
변환기(301)는 획득된 변환 계수를 양자화기(302)로 보낸다. 양자화기(302)는 변환 계수를 양자화하여 비트 레이트를 더욱 줄인다. 어떤 예에서, 양자화기(302)는 또한 양자화된 변환 계수를 포함하는 행렬을 스캔한다. 다르게는, 엔트로피 인코더(303)가 스캐닝을 수행할 수 있다.
양자화 후, 엔트로피 인코더(303)는 양자화된 변환 계수에 대해 엔트로피 코딩을 수행한다. 예컨대, 엔트로피 인코더(303)는 CAVLC(context-adaptive variable-length coding), CABAC(context based adaptive binary arithmetic coding) 또는 다른 엔트로피 코딩 방법이나 기술을 수행할 수 있다. 엔트로피 인코더(303)가 엔트로피 코딩을 수행한 후, 인코딩된 비트스트림은 비디오 디코더(202)로 보내지거나, 또는 나중에 보내거나 또는 나중에 비디오 디코더(202)에 의해 조회될 수 있도록 보관(archive)될 수 있다. 엔트로피 인코더(303)는 또한 인코딩할 현재 픽처 블록의 구문 요소(syntactic element)에 대해 엔트로피 코딩을 수행할 수 있다.
역양자화기(304) 및 역변환기(305)는 각각 역양자화 및 역변환을 수행하여, 샘플 도메인 내에서 잔차 블록을 재구성하는데, 예컨대 이것은 참조 픽처의 참조 블록으로서 사용된다. 합산기(311)는 재구성된 잔차 블록을 인터 예측기(310) 또는 인트라 예측기(309)에 의해 생성된 예측 픽처 블록에 가산하여, 재구성된 픽처 블록을 재구성한다. 픽처 블록의 예측 픽처 블록은 픽처 블록의 참조 픽처 블록을 처리(예컨대 보간(interpolating)과 같은 처리)하여 획득될 수 있다.
비디오 스트림을 인코딩하기 위해 비디오 인코더(102)의 다른 구조적 변형예들이 사용될 수 있다. 예컨대, 일부 픽처 블록 또는 픽처 프레임에 대해, 비디오 인코더(102)는 잔차 신호를 직접 양자화할 수 있고, 이에 따라, 변환기(301) 및 역변환기(305)에 의한 처리는 필요하지 않게 된다. 다르게는, 일부 픽처 블록 또는 픽처 프레임에 대해, 비디오 인코더(102)는 잔차 데이터를 생성하지 않으며, 이에 따라 변환기(301) 및 양자화기(302), 역양자화기(304), 및 역변환기(305)는 필요하지 않게 된다. 다르게는, 비디오 인코더(102)는 재구성된 픽처 블록을 참조 블록으로서 바로 저장할 수 있고, 이에 따라 필터(306)에 의한 처리가 필요하지 않게 된다. 다르게는, 비디오 인코더(102)에서 양자화기(302) 및 역양자화기(304)가 결합될 수 있다.
도 3은 본 출원의 일 실시예에 따른 비디오 디코더(202)의 개략 구조도이다. 도 3에 도시된 바와 같이, 비디오 디코더(202)는 엔트로피 디코더(401), 역양자화기(402), 역변환기(403), 필터(404), 메모리(405), 예측 처리 유닛(406), 및 합산기(409)를 포함한다. 예측 처리 유닛(406)은 인트라 예측기(407) 및 인터 예측기(408)를 포함한다. 어떤 예에서, 비디오 디코더(202)는 도 2에서의 비디오 인코더(102)에 대해 설명한 인코딩 프로세스를 대략 역으로 하는 디코딩 프로세스를 수행할 수 있다.
디코딩 프로세스에서, 비디오 디코더(202)는 비디오 인코더(102)로부터 비트스트림을 수신한다. 비디오 디코더(202)는 네트워크 엔티티(42)로부터 비디오 데이터를 수신할 수 있고, 선택적으로 비디오 데이터를 비디오 데이터 메모리(도시되지 않음)에 저장할 수 있다. 비디오 데이터 메모리는 비디오 디코더(202)의 구성요소에 의해 디코딩될 비디오 데이터, 예컨대 인코딩된 비트스트림을 저장한다. 비디오 데이터 메모리에 저장된 비디오 데이터는, 예컨대, 유선 또는 무선 네트워크 통신을 통해 카메라 또는 저장 장치(40)와 같은 로컬 비디오 소스로부터 획득되거나 또는 물리 데이터 저장 매체에 액세스하여 획득될 수 있다. 비디오 데이터 메모리가 도 3에 도시되어 있지는 않지만, 비디오 데이터 메모리 및 메모리(405)는 동일한 메모리일 수도 있고, 별개로 구성된 메모리일 수도 있다. 비디오 데이터 메모리 및 메모리(405) 각각은, 예컨대, SDRAM, MRAM, RRAM, 또는 다른 형태의 메모리 장치를 포함하는 DRAM과 같은, 여러 형태의 메모리 장치 중 임의의 하나에 의해 구축될 수 있다. 여러 예에서, 비디오 데이터 메모리는 비디오 디코더(202)의 다른 구성요소와 함께 칩에 집적될 수도 있고, 다른 구성요소에 대해 칩 밖에 배치될 수도 있다.
네트워크 엔티티(42)는, 예컨대 서버, MANE, 비디오 에디터/슬라이서, 또는 상술한 기술 중 하나 이상을 구현하도록 구성된 다른 유사한 장치일 수 있다. 네트워크 엔티티(42)는, 예컨대, 비디오 인코더(102)와 같은 비디오 인코더를 포함할 수도 있고 포함하지 않을 수도 있다. 네트워크 엔티티(42)는 비트스트림을 비디오 디코더(22)에 보내고, 네트워크 엔티티(42)는 본 출원에서 설명한 기술들 중 일부를 구현할 수 있다. 일부 비디오 디코딩 시스템에서, 네트워크 엔티티(42) 및 비디오 디코더(202)는 분리된 장치의 구성요소일 수 있다. 다른 경우에, 네트워크 엔티티(42)에 대해 설명된 기능들이 비디오 디코더(202)를 포함하는 동일 장치에 의해 수행될 수 있다. 어떤 경우에는, 네트워크 엔티티(42)가 도 1의 저장 장치(40)의 예일 수 있다.
비디오 디코더(202)의 엔트로피 디코더(401)는 비트스트림에 대해 엔트로피 디코딩을 수행하여, 양자화된 계수 및 몇몇 구문 요소를 생성한다. 엔트로피 디코더(401)는 구문 요소를 필터(404)에 전달한다. 비디오 디코더(202)는 구문 요소들 또는 하나의 구문 요소를 비디오 슬라이스 레벨에서 및/또는 픽처 블록 레벨에서 수신할 수 있다. 본 출원에서, 일례로서, 구문 요소(syntactic element)는 현재 픽처 블록과 관련된 지시 정보를 포함할 수 있고, 지시 정보는 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하도록 지시하는 데 사용된다. 추가로, 어떤 예에서는, 비디오 인코더(102)가, 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정할지 지시하는 특정 구문 요소를 통지하는 신호를 전송할 수도 있다.
역양자화기(402)는 비트스트림 내에 제공되고 엔트로피 디코드(401)에 의해 디코딩된 양자화된 변환 계수에 대해 역양자화를 수행한다. 역양자화 프로세스는: 비디오 슬라이스 내 각 픽처 블록에 대해 비디오 인코더(102)에 의해 계산된 양자화 파라미터를 이용하여 적용할 양자화 정도(quantization degree)를 결정하고, 마찬가지로 적용할 역양자화 정도를 결정하는 것을 포함한다. 역변환(403)은 역DCT, 역정수변환(inverse integer transform), 또는 개념적으로 유사한 역변환 프로세스와 같은 역변환을 변환 계수에 대해 수행하여, 샘플 도메인 잔차 블록을 생성한다.
예측 처리 유닛(406)은 현재 픽처 블록에 대한 예측 픽처 블록 또는 현재 픽처 블록의 서브블록에 대한 예측 픽처 블록을 생성하고, 비디오 디코더(202)는 역변환기(403)로부터의 잔차 블록을 예측 처리 유닛(406)에 의해 생성된 대응하는 예측 픽처 블록과 더해서 재구성된 블록, 다시 말해 디코딩된 픽처 블록을 획득한다. 합산기(409)(재구성기(409)라고도 한다)는 더하기 연산을 수행하는 컴포넌트를 나타낸다. 필요에 따라, 필터(디코딩 루프 내에서 또는 디코딩 루프 뒤에)를 추가로 사용하여 샘플을 스무드하게 하거나(smoothen), 또는 다른 방법으로 비디오 품질을 향상시킬 수 있다. 필터(404)는 하나 이상의 루프 필터, 예컨대, 디블록킹(deblocking) 필터, 적응형 루프 필터(ALF: adaptive loop filter), 및 샘플 적응형 오프셋(SAO: sample adaptive offset) 필터일 수 있다.
다른 다양한 구조의 비디오 디코더(202)를 사용하여 비트스트림을 디코딩할 수 있다는 점을 이해해야 한다. 예컨대, 일부 픽처 블록이나 픽처 프레임에 대해, 비디오 디코더(202)의 엔트로피 디코더(401)가 디코딩을 통해 양자화된 계수를 획득하지 않고, 이에 따라 역양자화기(402) 및 역변환기(403)에 의한 처리가 필요하지 않게 된다. 예컨대, 비디오 디코더(202) 내의 역양자화기(402) 및 역변환기(403)는 통합될 수 있다.
도 1에 도시된 비디오 코딩 시스템(1), 도 2에 도시된 비디오 인코더(102) 및 도 3에 도시된 비디오 디코더(202)에 기초하여, 이하에서는 본 출원에서 제공된 양방향 인터 예측 방법을 보다 상세하게 설명한다.
도 4는 본 출원의 실시예에 따른 양방향 인터 예측 방법의 개략 흐름도이다. 도 4에 도시된 방법은 양방향 인터 예측 장치에 의해 수행된다. 양방향 인터 예측 장치는 도 1의 비디오 디코더(202)일 수 있다. 도 4에 대해, 양방향 예측 장치가 비디오 디코더(202)인 예를 가지고 설명한다.
도 4에 도시된 바와 같이, 본 출원의 실시예인 양방향 예측 방법은 다음 단계를 포함한다.
S400: 비디오 디코더(202)가 획득된 비트스트림을 파싱하고 지시 정보를 획득한다.
선택적으로, 비디오 디코더(202)는 비트스트림을 파싱하여, 그 비트스트림 내의 구문 요소(syntactic element)의 값에 기초하여 현재 프레임의 현재 픽처 블록에 대해 인터 예측을 수행하기 위해 사용된 인터 예측 모드를 결정한다. 인터 예측 모드가 양방향 인터 예측 모드인 경우, 비디오 디코더(202)는 지시 정보를 획득한다.
비디오 디코더(202)는 비디오 인코더(102)가 전송한 인코딩된 비트스트림을 수신하거나, 또는 저장 장치(40)로부터 인코딩된 비트스트림을 획득할 수 있다.
선택적으로, 본 출원의 본 실시예에서 비디오 디코더(202)는 구문 요소(inter_pred_idc)의 값에 기초하여, 현재 프레임 내의 현재 픽처 블록에 대해 인터 예측을 수행하기 위해 사용된 인터 예측 모드를 결정한다. 상술한 설명으로부터, 인터 예측은 일방향 인터 예측 및 양방향 인터 예측을 포함한다. 선택적으로, 구문 요소(inter_pred_idc)의 값이 0이면, 비디오 디코더(202)는 현재 프레임 내의 현재 픽처 블록에 대해 인터 예측을 수행하기 위해 사용된 인터 예측 모드가 순방향 인터 예측인 것으로 결정한다. 구문 요소(inter_pred_idc)의 값이 1인 경우, 비디오 디코더(202)는 현재 프레임 내의 현재 픽처 블록에 대해 인터 예측을 수행하기 위해 사용된 인터 예측 모드가 역방향 인터 예측인 것으로 결정한다. 구문 요소(inter_pred_idc)의 값이 2인 경우, 비디오 디코더(202)는 현재 프레임 내의 현재 픽처 블록에 대해 인터 예측을 수행하기 위해 사용된 인터 예측 모드가 양방향 인터 예측인 것으로 결정한다.
선택적으로, 구문 요소(inter_pred_idc)의 값이 2인 것으로 결정한 후, 비디오 디코더(202)는 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하도록 지시하는 데 사용되는 지시 정보를 획득한다. 제1 움직임 정보는 제1 방향에서의 현재 픽처 블록의 움직임 정보이고, 제2 움직임 정보는 제2 방향에서의 현재 픽처 블록의 움직임 정보이며, 제1 방향 및 제2 방향은 서로 다르다.
본 출원에서 픽처 블록은 비디오 인코딩 또는 비디오 디코딩을 수행하기 위한 기본 단위이며, 예컨대, 코딩 유닛(CU: coding unit)이거나, 또는 예측 동작을 수행하기 위한 기본 단위, 예컨대, 예측 유닛(PU: prediction unit)일 수 있다. 그러나 본 출원의 본 실시예에서 이들에 구체적으로 한정되는 것은 아니다.
픽처 블록이 비디오 인코딩 또는 비디오 디코딩을 수행하는 기본 단위인 경우, 본 출원의 본 실시예에서 현재 픽처 블록은 적어도 하나의 서브블록을 포함한다. 이에 따라, 제1 움직임 정보는 제1 방향에서의 현재 픽처 블록의 적어도 하나의 서브블록 각각의 움직임 정보를 포함하고, 제2 움직임 정보는 제2 방향에서의 현재 픽처 블록의 적어도 하나의 서브블록 각각의 움직임 정보를 포함하며, 지시 정보는, 제1 방향에서의 서브블록의 움직임 정보에 기초하여 제2 방향에서의 서브블록의 움직임 정보를 결정하도록 지시하는 데 사용된다.
비디오 디코더(202)는 여러 방법으로 지시 정보를 획득할 수 있다.
제1 구현예에서, 비디오 디코더(202)는 제1 식별자를 파싱한다. 제1 식별자의 값이 미리 설정된 제1 값인 경우, 비디오 디코더(202)는 제1 움직임 정보를 파싱하기로 결정하고, 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정한다. 다시 말해, 비디오 디코더(202)는 지시 정보를 획득한다. 제1 식별자의 값이 미리 설정된 제8 값인 경우, 비디오 디코더(202)는 비트스트림을 파싱하여 제5 식별자를 획득한다. 제5 식별자의 값이 미리 설정된 제5 값인 경우, 비디오 디코더(202)는 제2 움직임 정보를 파싱하기로 결정하고, 제2 움직임 정보에 기초하여 제2 움직임 정보를 계산한다. 제5 식별자의 값이 미리 설정된 제9 값인 경우, 비디오 디코더(202)는 제1 움직임 정보 및 제2 움직임 정보를 획득한다. 미리 설정된 제1 값 및 미리 설정된 제5 값은 같을 수도 있고 서로 다를 수도 있다. 이것은 본 출원의 본 실시예에서 한정되는 것은 아니다.
예컨대, 제1 식별자는 mv_derived_flag_I0이고, 제5 식별자는 mv_derived_flag_i1이며, 미리 설정된 제1 값 및 미리 설정된 제5 값은 모두 1이며, 미리 설정된 제8 값 및 미리 설정된 제9 값은 0이다. 비디오 디코더(202)는 먼저 mv_derived_flag_I0을 파싱한다. mv_derived_flag_I0의 값이 1이면, 비디오 디코더(202)는 제1 움직임 정보를 파싱하고, 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정한다. mv_derived_flag_I0의 값이 0이면, 비디오 디코더(202)는 mv_derived_flag_I1을 파싱한다. mv_derived_flag_I1의 값이 1이면, 비디오 디코더(202)는 제2 움직임 정보를 파싱하고, 제2 움직임 정보에 기초하여 제1 움직임 정보를 계산한다. mv_derived_flag_I0의 값 및 mv_derived_flag_I1의 값 모두가 0인 경우, 비디오 디코더(202)는 제1 움직임 정보 및 제2 움직임 정보를 파싱한다.
제2 구현예에서, 비디오 디코더(202)는 제2 식별자를 파싱한다. 제2 식별자의 값이 미리 설정된 제2 값인 경우, 비디오 디코더(202)는 움직임 정보 도출 알고리즘(motion information derivation algorithm)을 이용하여 현재 픽처 블록의 움직임 정보를 계산하기로 결정한다. 그런 다음, 비디오 디코더(202)는 제3 식별자를 파싱한다. 제3 식별자의 값이 미리 설정된 값이면, 비디오 디코더(202)는 제1 움직임 정보를 파싱하기로 결정하고, 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정한다. 다시 말해, 비디오 디코더(202)는 지시 정보를 획득한다. 제3 식별자의 값이 미리 설정된 제6 값인 경우, 비디오 디코더(202)는 제2 움직임 정보를 파싱하기로 결정하고, 제2 움직임 정보에 기초하여 제1 움직임 정보를 계산한다.
예컨대, 제2 식별자는 derived_mv_flag이고, 제3 식별자는 derived_mv_direction이며, 미리 설정된 제3 값은 1이고, 미리 설정된 제6 값은 0이다. 비디오 디코더(202)는 먼저 dervied_mv_flag를 파싱한다. derived_mv_flag의 값이 1이면, 비디오 디코더(202)는 움직임 정보 도출 알고리즘을 이용하여 현재 픽처 블록의 움직임 정보를 계산하기로 결정한다. derived_mv_flag의 값이 0이면, 비디오 디코더(202)는 제1 움직임 정보 및 제2 움직임 정보를 파싱한다. derived_mv_direction의 값이 1이면, 비디오 디코더(202)는 제1 움직임 정보를 파싱하고, 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정한다. derived_mv_direction의 값이 0이면, 비디오 디코더(202)는 제2 움직임 정보를 파싱하고, 제2 움직임 정보에 기초하여 제1 움직임 정보를 계산한다.
제3 구현에에서, 비디오 디코더(202)는 제2 식별자를 파싱한다. 제2 식별자의 값이 미리 설정된 제2 값이면, 비디오 디코더(202)는 움직임 정보 도출 알고리즘을 이용하여 현재 픽처 블록의 움직임 정보를 계산하기로 결정한다. 그런 다음, 비디오 디코더(202)는 미리 설정된 도출된 방향(derived direction)에 기초하여, 제1 움직임 정보를 파싱하기로 결정하고, 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정한다. 다시 말해, 비디오 디코더(202)는 지시 정보를 획득한다. 다시 말해, 본 구현예에서는, "제1 움직임 정보에 기초하여 제2 움직임 정보를 결정한다는 것"이 미리 설정된다. 제2 식별자의 값이 미리 설정된 제7 값이면, 비디오 디코더(202)는 제1 움직임 정보 및 제2 움직임 정보를 파싱한다.
예컨대, 제2 식별자는 derived_mv_flag이고, 미리 설정된 제2 값은 1이며, 미리 설정된 제7 값은 0이다. 비디오 디코더(202)는 derived_mv_flag를 파싱한다. derived_mv_flag의 값이 1이면, 비디오 디코더(202)는 움직임 정보 도출 알고리즘을 이용하여 현재 픽처 블록의 움직임 정보를 계산하기로 결정한다. 또한, 비디오 디코더(202)는 제1 움직임 정보를 파싱하기로 결정하고, 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정한다. derived_mv_flag의 값이 0이면, 비디오 디코더(202)는 제1 움직임 정보 및 제2 움직임 정보를 파싱한다.
제4 구현에에서, 비디오 디코더(202)는 제4 식별자(예컨대, mv_derived_flag_I0)를 파싱한다. 제4 식별자의 값이 미리 설정된 제4 값이면, 비디오 디코더(202)는 움직임 정보 도출 알고리즘을 이용하여 현재 픽처 블록의 움직임 정보를 계산하기로 결정하고, 제1 참조 프레임 리스트 및 제2 참조 프레임 리스트에 기초하여 변수 dervied_ref_num를 계산한다. 이 변수는 제1 참조 프레임 및 제2 참조 프레임에 의해 구성될 수 있는 미러형(mirroed)/선형(linear) 참조 프레임 쌍의 수량을 나타낸다. 참조 프레임 쌍의 수량이 1이면, 비디오 디코더(202)는 직접 참조 프레임 인덱스 값을 결정한다. 그런 다음, 비디오 디코더(202)는 미리 설정된 도출된 방향에 기초하여 제1 움직임 정보를 파싱하고, 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정한다. 다시 말해, 비디오 디코더(202)는 지시 정보를 획득한다. 제1 참조 프레임 리스트는 제1 방향에서의 현재 픽처 블록의 참조 프레임 리스트이고, 제2 참조 프레임 리스트는 제2 방향에서의 현재 픽처 블록의 참조 프레임 리스트이며, 제1 참조 프레임은 제1 방향에서의 현재 픽처 블록의 참조 프레임이고, 제2 참조 프레임은 제2 방향에서의 현재 픽처 블록의 참조 프레임이다. 본 출원의 본 실시예에서 참조 프레임 인덱스 값은 대응하는 참조 프레임 리스트 내의 참조 프레임의 번호이다.
예컨대, 현재 프레임의 시퀀스 번호는 4이고, 제1 참조 프레임 리스트는 {2,0}이며, 제2 참조 프레임 리스트는 {6,7}이고, 이하의 조건 B 또는 조건 C에 기초하여, 제1 참조 프레임 리스트에서 시퀀스 번호가 2인 참조 프레임과 제2 참조 프레임 리스트에서 시퀀스 번호가 6인 참조 프레임이 참조 프레임 쌍을 이룰 수 있다고 결정한다. 이 경우, 제1 참조 프레임의 인덱스 값 및 제2 참조 프레임의 인덱스 값은 모두 0이다.
예컨대, 현재 프레임의 시퀀스 번호는 4이고, 제1 참조 프레임 리스트는 {2,0}이며, 제2 참조 프레임 리스트는 {6,7}이며, 이하의 조건 B 또는 조건 C에 기초하여, 제1 참조 프레임 리스트에서 시퀀스 번호가 2인 참조 프레임과 제2 참조 프레임 리스트에서 시퀀스 번호가 6인 참조 프레임이 참조 프레임 쌍을 이룰 수 있고, 또 제1 참조 프레임 리스트에서 시퀀스 번호가 0인 참조 프레임과 제2 참조 프레임 리스트에서 시퀀스 번호가 7인 참조 프레임도 참조 프레임 쌍을 이룰 수 있다고 결정한다. 이 경우, 비디오 디코더(202)는 참조 프레임 인덱스 값을 파싱할 필요가 있다.
나아가, 인터 예측 모드가 양방향 인터 예측 모드인 것으로 결정한 때, 비디오 디코더(202)는 나아가 현재 프레임의 피처 정보가 미리 설정된 조건을 충족하는지를 결정한다. 여기서, 현재 프레임의 피처 정보가 미리 설정된 조건을 충족하면, 비디오 디코더(202)는 지시 정보를 획득한다. 구체적으로, S401의 프로세스가 다음과 같이 된다: 인터 예측 모드가 양방향 인터 예측 모드이고 현재 프레임의 피처 정보가 미리 설정된 제1 조건을 충족하는 것으로 결정한 때 비디오 디코더(202)가 지시 정보를 획득한다.
현재 프레임의 피처 정보는 시퀀스 번호, 시간적 레벨 ID(TID: temporal level ID), 또는 참조 프레임의 수량 중 적어도 하나를 포함한다. 비디오 디코더(202)에 의해 획득된 비트스트림은 시퀀스 파라미터 세트(SPS: sequence parameter set), 픽처 파라미터 세트(PPS, picture parameter set), 슬라이스 헤더(slice header), 또는 슬라이스 세그먼트 헤더(slice segment header), 및 인코딩된 픽처 데이터를 포함한다. 그러면, 비디오 디코더(202)는 현재 프레임의 피처 정보를 획득하기 위해 비트스트림을 파싱한다.
미리 설정된 조건은 다음 조건 중 적어도 하나를 포함한다:
조건 A: 현재 픽처 블록이 적어도 2개의 참조 프레임을 가진다.
조건 B: 현재 프레임의 시퀀스 번호, 제1 참조 프레임의 시퀀스 번호, 제2 참조 프레임의 시퀀스 번호가 다음 수식을 만족한다:
이 수식에서, POC_Cur은 현재 프레임의 시퀀스 번호를 나타내고, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내며, POC_listY는 제2 참조 프레임의 시퀀스 번호를 나타내고, 제1 참조 프레임은 제1 방향에서의 현재 픽처 블록의 참조 프레임이고, 제2 참조 프레임은 제2 방향에서의 현재 픽처 블록의 참조 프레임이다.
조건 C: 현재 프레임의 시퀀스 번호, 제1 참조 프레임의 시퀀스 번호, 제2 참조 프레임의 시퀀스 번호가 다음 수식을 만족한다:
이 수식에서, POC_Cur은 현재 프레임의 시퀀스 번호를 나타내고, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내며, POC_listY는 제2 참조 프레임의 시퀀스 번호를 나타내고, 제1 참조 프레임은 제1 방향에서의 현재 픽처 블록의 참조 프레임이고, 제2 참조 프레임은 제2 방향에서의 현재 픽처 블록의 참조 프레임이다.
조건 D: 현재 프레임의 TID가 미리 설정된 값과 같거나 그보다 크다.
본 출원의 본 실시예에서 미리 설정된 조건은 미리 설정되거나 또는 더 상위의 계층 구문, 예컨대 SPS, PPS, 슬라이스 헤더 또는 슬라이스 세그먼트 헤더와 같은 파라미터 세트에 특정되어 있을 수 있다. 이것은 본 출원의 본 실시예에서 한정되는 것은 아니다.
구체적으로, 조건 B(또는 조건 C)에서, 비디오 디코더(202)는 제1 참조 프레임 리스트 및 제2 참조 프레임 리스트 각각으로부터 하나의 참조 프레임 시퀀스 번호를 획득하고, 획득한 참조 프레임 시퀀스 번호와 현재 프레임의 시퀀스 번호가 조건 B 또는 조건 C를 충족하는지 결정한다. 조건 B(또는 조건 C)가 충족되면 지시 정보를 획득한다.
본 출원의 본 실시예에서, 인터 예측 모드가 양방향 인터 예측 모드이고 또 현재 프레임의 피처 정보가 미리 설정된 조건을 충족하는 것으로 결정한 때, 비디오 디코더(202)가 지시 정보를 획득하기 위해 사용하는 방법은, 인터 예측 모드가 양방향 인터 예측 모드인 것으로 결정한 때 비디오 디코더(202)가 지시 정보를 획득하기 위해 사용하는 방법과 동일하다.
상술한 설명에 기초하여, 표 1은, 비디오 디코더(202)가 인터 예측 모드가 양방향 인터 예측 모드이고 또 현재 프레임의 피처 정보가 미리 설정된 조건을 충족하는 것으로 결정한 때, 제1 구현예에서의 지시 정보를 획득하는 경우에 사용되는 구문 표(syntac table)이다.
표 1에서, x0 및 y0는 각각 현재 픽처 블록의 좌상 코너에 대한 현재 픽처 블록에서의 서브블록의 수평 좌표 오프셋 및 수직 좌표 오프셋을 나타내고, nPbW는 현재 픽처 블록의 폭을 나타내며, nPbH는 현재 픽처 블록의 높이를 나타낸다. inter_pred_idc[x0][y0]의 값이 PRED_L0인 경우, 이것은 현재 서브블록의 인터 예측이 순방향 예측임을 나타낸다. inter_pred_idc[x0][y0]의 값이 PRD_L1인 경우, 이것은 현재 서브블록의 인터 예측이 역방향 예측임을 나타낸다. inter_pred_idc[x0][y0]의 값이 PRED_BI인 경우, 이것은 현재 서브블록의 인터 예측이 양방향 예측임을 나타낸다.
양방향 인터 예측(즉, inter_pred_idc[x0][y0]==PRED_BI)의 경우, 미리 설정된 조건(들)이 충족되면, mb_derived_flag_I0[x0][y0]가 파싱된다. mv_derived_flag_I0의 값이 미리 설정된 제1 값이 아니면, mb_derived_flag_I1[x0][y0]가 파싱된다. mv_derived_flag_I0의 값이 미리 설정된 제1 값이거나 또는 mv_derived_flag_I1[x0][y0]의 값이 미리 설정된 제5 값인 경우, 현재 픽처 블록의 서브블록의 움직임 정보가 결정되는데, 구체적으로 참조 프레임 인덱스 값 ref_idx_l0[x0][y0], 움직임 벡터 예측자 플래그 mvp_l0_flag[x0][y0], 및 움직임 벡터 차 mvd_coding( x0,y0,0)가 결정된다.
표 1
prediction_unit(x0, y0, nPbW, nPbH) {
...
/* motion vector coding */
if( slice_type==B )
inter_pred_idc[x0][y0]
if( inter_pred_idc[x0][y0]==PRED_L0 ) {
if( num_ref_idx_l0_active_minus1 > 0 )
ref_idx_l0[x0][y0]
mvd_coding( x0, y0, 0 )
mvp_l0_flag[x0][y0]
}
if( inter_pred_idc[x0][y0]==PRED_L1 ) {
if( num_ref_idx_l1_active_minus1 > 0 )
ref_idx_l1[x0][y0]
mvd_coding( x0, y0, 1)
mvp_l1_flag[x0][y0]
}
if( inter_pred_idc[x0][y0]==PRED_BI ) {
if( conditions ) {
mv_derived_flag_l0[x0][y0]
if( !mv_derived_flag_l0[x0][y0]) {
mv_derived_flag_l1[x0][y0]
}
if( !mv_derived_flag_l0[x0][y0]) {
if( num_ref_idx_l0_active_minus1 > 0 )
ref_idx_l0[x0][y0]
mvd_coding( x0, y0, 0 )
mvp_l0_flag[x0][y0]
}
if( !mv_derived_flag_l1[x0][y0]) {
if( num_ref_idx_l1_active_minus1 > 0 )
ref_idx_l1[x0][y0]
mvd_coding(x0, y0, 0 )
mvp_l1_flag[x0][y0]
}
}
상술한 설명에 기초하여, 표 2는 비디오 디코더(202)가 인터 예측 모드가 양방향 인터 예측 모드이고 또 현재 프레임의 피처 정보가 미리 설정된 조건을 충족하는 것으로 결정한 때, 제3 구현예에서의 지시 정보를 획득하는 경우에 사용되는 구문 표(syntac table)이다.
표 2에서, 양방향 인터 예측(다시 말해 inter_pred_idc[x0][y0]==PRED_BI)의 경우, 미리 설정된 조건(들)이 충족되면, derived_mv_flag[x0][y0]가 파싱된다. derived_mv_flag[x0][y0]의 값이 미리 설정된 제2 값이면, 현재 픽처 블록의 서브블록의 움직임 정보가 결정되는데, 구체적으로는, 참조 프레임 인덱스 값 ref_idx_lx[x0][y0], 움직임 벡터 예측자 플래그 mvp_lx_flag[x0][y0], 및 움직임 벡터 차 mvd_coding( x0,y0,x)가 결정된다.
표 2
prediction_unit(x0, y0, nPbW, nPbH) {
...
/* motion vector coding */
if( slice_type==B )
inter_pred_idc[x0][y0]
if( inter_pred_idc[x0][y0]==PRED_L0 ) {
if( num_ref_idx_l0_active_minus1 > 0 )
ref_idx_l0[x0][y0]
mvd_coding( x0, y0, 0 )
mvp_l0_flag[x0][y0]
}
if( inter_pred_idc[x0][y0]==PRED_L1 ) {
if( num_ref_idx_l1_active_minus1 > 0 )
ref_idx_l1[x0][y0]
mvd_coding( x0, y0, 1)
mvp_l1_flag[x0][y0]
}
if( inter_pred_idc[x0][y0]==PRED_BI ) {
if( conditions ) {
derived_mv_flag[ x0 ][ y0 ]
if( derived_mv_flag[x0][y0] ) {
if( num_ref_idx_lx_active_minus1 > 0 )
ref_idx_lx[ x0 ][ y0 ]
mvd_coding( x0, y0, x )
mvp_lx_flag[ x0 ][ y0 ]
} else {
...
}
}
상술한 설명에 기초하여, 표 3은 비디오 디코더(202)가 인터 예측 모드가 양방향 인터 예측 모드이고 또 현재 프레임의 피처 정보가 미리 설정된 제1 조건을 충족하는 것으로 결정한 때, 제4 구현예에서의 지시 정보를 획득하는 경우에 사용되는 구문 표(syntac table)이다.
표 3에서, 양방향 인터 예측(다시 말해 inter_pred_idc[x0][y0]==PRED_BI)의 경우, 미리 설정된 조건(들)이 충족되면, derived_mv_flag[x0][y0]가 파싱된다. derived_mv_flag[x0][y0]의 값이 미리 설정된 제4 값이면, derived_ref_num가 결정되고, derived_ref_num이 1보다 크면 현재 픽처 블록의 서브블록의 움직임 정보가 결정되는데, 구체적으로는, 참조 프레임 인덱스 값 ref_idx_lx[x0][y0], 움직임 벡터 예측자 플래그 mvp_lx_flag[x0][y0], 및 움직임 벡터 차 mvd_coding( x0,y0,x)가 결정된다.
표 3
prediction_unit(x0, y0, nPbW, nPbH) {
...
/* motion vector coding */
if( slice_type==B )
inter_pred_idc[x0][y0]
if( inter_pred_idc[x0][y0]==PRED_L0 ) {
if( num_ref_idx_l0_active_minus1 > 0 )
ref_idx_l0[x0][y0]
mvd_coding( x0, y0, 0 )
mvp_l0_flag[x0][y0]
}
if( inter_pred_idc[x0][y0]==PRED_L1 ) {
if( num_ref_idx_l1_active_minus1 > 0 )
ref_idx_l1[x0][y0]
mvd_coding( x0, y0, 1)
mvp_l1_flag[x0][y0]
}
if( inter_pred_idc[x0][y0]==PRED_BI ) {
if( conditions ) {
derived_mv_flag[x0][y0]
if( derived_mv_flag[x0][y0] ) {
if( num_ref_idx_lx_active_minus1 > 0 && derived_ref_num > 1)
*ref_idx_lx[x0][y0]
mvd_coding(x0, y0, x )
mvp_lx_flag[x0][y0]
} else {
...
}
}
제1 식별자, 제2 식별자, 제3 식별자, 및 제4 식별자는 모두 미리 설정될 수도 있고, 또는 상위 계층 구문에서, 예컨대, SPS, PPS, 슬라이스 헤더, 또는 슬라이스 세그먼트 헤더와 같은 파라미터 세트에서 특정될 수 있다. 이것은 본 출원의 본 실시예에서 한정되는 것은 아니다.
비디오 디코더(202)는, 인터 예측 모드가 양방향 인터 예측 모드이고, 현재 프레임의 피처 정보가 미리 설정된 조건을 충족하면, 지시 정보를 획득한다. 이로써 비디오 디코더(202)의 디코딩 레이트가 향상되고 정보 리던던시가 감소한다.
S401: 비디오 디코더(202)가 제1 움직임 정보를 획득한다.
선택적으로, 비디오 디코더(202)는 비트스트림을 파싱하여 제1 참조 프레임의 인덱스 값, 제1 움직임 벡터 예측자 플래그, 및 제1 움직임 벡터 차를 획득한다. 즉, 제1 움직임 정보를 획득한다. 제1 움직임 벡터 예측자 플래그는, 제1 후보 움직임 벡터 리스트 내의 제1 예측된 움직임 벡터의 인덱스 값을 지시하는 데 사용되는 것이고, 제1 예측된 움직임 벡터는 제1 방향에서의 현재 픽처 블록의 예측된 움직임 벡터이고, 제1 움직임 벡터 차는 제1 예측된 움직임 벡터 및 제2 움직임 벡터 간의 차이며, 제1 움직임 벡터는 제1 방향에서의 현재 픽처 블록의 움직임 벡터이다.
표 1 내지 표 3에 도시된 구문 표 각각에서, 비디오 디코더(202)는 제1 방향에서의 현재 픽처 블록의 서브블록의 움직임 정보를 결정한다.
S402: 비디오 디코더(202)가 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정한다.
제1 구현예에서, 비디오 디코더(202)가 제2 움직임 정보를 결정하기 위해 사용하는 방법은 다음과 같다: 비디오 디코더(202)가 제1 움직임 정보에서 제1 참조 프레임의 인덱스 값을 선택하고, 제1 참조 프레임의 인덱스 값 및 제1 참조 프레임 리스트에 기초하여 제1 참조 프레임의 시퀀스 번호를 결정하며; 미리 설정된 수식에 따라 제1 참조 프레임의 시퀀스 번호와 현재 프레임의 시퀀스 번호에 기초하여 제2 참조 프레임의 시퀀스 번호를 계산하고; 제2 참조 프레임의 시퀀스 번호와 제2 참조 프레임 리스트에 기초하여 제2 참조 프레임의 인덱스 값을 결정하며; 제2 참조 프레임의 인덱스 값 및 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정한다.
여기서, 미리 설정된 수식이란 일 수 있다. POC_Cur은 현재 프레임의 시퀀스 번호를 나타내고, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내며, POC_listY는 제2 참조 프레임의 시퀀스 번호를 나타낸다.
예컨대, 현재 프레임의 시퀀스 번호가 4이고, 제1 참조 프레임의 시퀀스 번호는 2이고, 제2 참조 프레임 리스트가 [6,8]이고, 수식 에 따라 제2 참조 프레임의 시퀀스 번호가 6인 것으로 결정되면, 비디오 디코더(202)는 제2 참조 프레임의 인덱스 값 ref_IY_idx은 0인 것으로 결정한다.
선택적으로, 다르게는 미리 설정된 수식이 일 수 있다. 제2 참조 프레임 리스트에서의 복수의 참조 프레임 시퀀스 번호가 이 수식을 충족하면, 비디오 디코더(202)는 먼저 최솟값 를 가진 참조 프레임을 선택하고, 그런 다음 최솟값 를 가진 참조 프레임을 선택하여, 제2 참조 프레임의 인덱스 값을 결정한다. abs는 절대값 함수이다.
예컨대, 현재 프레임의 시퀀스 번호가 4이고, 제1 참조 프레임의 시퀀스 번호가 2이고, 제2 참조 프레임 리스트가 [5,7,8]이고, 수식 에 따라, 제2 참조 프레임의 시퀀스 번호가 5인 것으로 결정되면, 비디오 디코더(202)는 제2 참조 프레임의 인덱스 값 ref_IY_idx는 0인 것으로 결정한다.
선택적으로, 미리 설정된 수식은, 다르게는, 일 수 있다. 제2 참조 프레임 리스트 내의 복수의 참조 프레임 시퀀스 번호가 이 수식을 만족하는 경우, 비디오 디코더(202)는 먼저 최솟값 를 가진 참조 프레임을 선택하고, 그런 다음 최솟값 를 가진 참조 프레임을 선택하여, 제2 참조 프레임의 인덱스 값을 결정한다. abs는 절대값 함수이다.
예컨대, 현재 프레임의 시퀀스 번호가 4이고, 제1 참조 프레임의 시퀀스 번호가 2이고, 제2 참조 프레임 리스트가 [3,2,1,0]이고, 수식 에 따라, 제2 참조 프레임의 시퀀스 번호가 3인 것으로 결정되면, 비디오 디코더(202)는 제2 참조 프레임의 인덱스 값 ref_IY_idx는 0인 것으로 결정한다.
선택적으로, 미리 설정된 수식은, 다르게는, , 및 일 수 있다. 이 경우, 비디오 디코더(202)가 제2 참조 프레임의 인덱스 값을 결정하기 위해 사용하는 방법은 구체적으로 다음과 같다: 수식 를 이용하여 제1 참조 프레임의 시퀀스 번호 및 현재 프레임의 시퀀스 번호에 기초하여 제1 시퀀스 번호를 계산하고 - 여기서, POC_Cur은 현재 프레임의 시퀀스 번호를 나타내고, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내며, POC_listY0은 제1 시퀀스 번호를 나타냄 -; 제2 참조 프레임 리스트가 제1 시퀀스 번호를 포함하는 경우, 제2 참조 프레임의 인덱스 값으로서, 제2 참조 프레임 리스트 내에서 제1 시퀀스 번호에 의해 나타내어지는 참조 프레임의 번호를 결정하거나; 또는 제2 참조 프레임 리스트가 제1 시퀀스 번호를 포함하지 않는 경우, 를 이용하여 제1 참조 프레임의 시퀀스 번호 및 현재 프레임의 시퀀스 번호에 기초하여 제2 시퀀스 번호를 계산하고 - 여기서, POC_listY0'는 제2 시퀀스 번호를 나타냄 -, 제2 참조 프레임의 인덱스 값으로서, 제2 참조 프레임 리스트 내에서 제2 시퀀스 번호에 의해 나타내어지는 참조 프레임의 번호를 결정하거나, 또는 제2 참조 프레임 리스트가 제2 시퀀스 번호를 포함하지 않는 경우, 수식 를 이용하여 제1 참조 프레임의 시퀀스 번호 및 현재 프레임의 시퀀스 번호에 기초하여 제3 시퀀스 번호를 계산하고 - 여기서, POC_listY0"는 제3 참조 번호를 나타냄 -, 그리고 제2 참조 프레임의 인덱스 값으로서, 제2 참조 프레임 리스트 내에서 제3 시퀀스 번호에 의해 나타내어지는 참조 프레임의 번호를 결정한다.
제2 구현예에서, 제2 움직임 정보를 결정하기 위해 비디오 디코더(202)가 사용하는 방법은 다음과 같다: 비디오 디코더(202)가 비트스트림을 파싱하여 제2 참조 프레임의 인덱스 값을 획득하고, 제1 움직임 정보 및 제2 참조 프레임의 인덱스 값에 기초하여 제2 움직임 정보를 결정한다. 제2 참조 프레임의 인덱스 값은 미리 설정될 수도 있고, 파라미터 세트 내에, 예컨대, SPS, PPS, 슬라이스 헤더, 또는 슬라이스 세그먼트 헤더 내에서 특정될 수도 있다. 이것은 본 출원의 본 실시예에서 한정되지 않는다.
제1 구현예 및 제2 구현예 모두에서, 비디오 디코더(202)는 제1 움직임 정보 및 제2 참조 프레임의 인덱스 값에 기초하여 제2 움직임 정보를 결정한다는 것을 알 수 있다.
선택적으로, 비디오 디코더(202)는 제2 방향에서의 현재 픽처 블록의 모든 움직임 정보를 계산하거나, 또는 제2 방향에서의 현재 픽처 블록의 일부 움직임 정보를 계산할 수 있다.
이하에서는 비디오 디코더(202)가 제1 움직임 정보 및 제2 참조 프레임의 인덱스 값에 기초하여 제2 움직임 정보를 결정하는 프로세스를 설명한다.
선택적으로, 비디오 디코더(202)가 제1 움직임 정보 및 제2 참조 프레임의 인덱스 값에 기초하여 제2 움직임 정보를 결정하기 위해 사용하는 방법은 다음과 같다: 제1 움직임 정보에서의 제1 참조 프레임의 인덱스 값을 획득하고, 제1 참조 프레임 리스트 및 제1 참조 프레임의 인덱스 값에 기초하여 제1 참조 프레임의 시퀀스 번호를 결정하며; 제2 참조 프레임의 인덱스 값을 획득하고, 제2 참조 프레임 리스트 및 제2 참조 프레임의 인덱스 값에 기초하여 제2 참조 프레임의 시퀀스 번호를 결정하고; 제1 움직임 정보 내에 있는 제1 움직임 벡터 플래그 및 제1 움직임 벡터 차에 기초하여 제1 움직임 벡터(제1 방향에서의 현재 픽처 블록의 움직임 벡터)를 결정하고; 다음 수식에 따라 제2 움직임 정보의 제2 움직임 벡터를 도출한다.
위 수식에서, mv_IY는 제2 움직임 벡터를 나타내고, POC_Cur은 현재 프레임의 시퀀스 번호를 나타내며, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내고, POC_listY는 제2 참조 프레임의 시퀀스 번호를 나타내며, mv_IX는 제1 움직임 벡터를 나타내고, 제2 움직임 벡터는 제2 방향에서의 현재 픽처 블록의 움직임 벡터이다.
비디오 디코더(202)는, 인코더가 AMVP 모드 또는 병합 모드(merge mode)로 후보 움직임 정보 리스트를 구축하는 것과 같은 방식으로 후보 움직임 정보를 구축하고, 제1 움직임 벡터 예측 플래그에 기초하여 후보 움직임 정보 리스트 내의 제1 예측된 움직임 벡터를 결정한다. 이 방식에서, 비디오 디코더(202)는 제1 움직임 벡터로서 제1 예측된 움직임 벡터와 제1 움직임 벡터 차의 합을 결정할 수 있다.
선택적으로, 제1 참조 프레임이 현재 픽처 블록의 순방향 참조 프레임이고, 제2 참조 프레임이 현재 픽처 블록의 역방향 참조 프레임인 경우, 또는 제1 참조 프레임이 현재 픽처 블록의 역방향 참조 프레임이고 제2 참조 프레임이 현재 픽처 블록의 순방향 참조 프레임인 경우, 또는 제1 참조 프레임 및 제2 참조 프레임 각각이 현재 픽처 블록의 순방향 참조 프레임인 경우, 또는 제1 참조 프레임 및 제2 참조 프레임 각각이 현재 픽처 블록의 역방향 참조 프레임인 경우, 비디오 디코더(202)는 mv_IY=-mv_IX를 바로 설정할 수 있다.
예컨대, "제1 참조 프레임은 현재 픽처 블록의 순방향 참조 프레임이고 제2 참조 프레임은 현재 픽처 블록의 역방향 참조 프레임인 경우"와 "제1 참조 프레임은 현재 픽처 블록의 역방향 참조 프레임이고 제2 참조 프레임은 현재 픽처 블록의 순방향 참조 프레임인 경우" 모두 수식 를 이용하여 나타내어지거나 또는 수식 를 이용하여 나타내어질 수 있다.
"제1 참조 프레임 및 제2 참조 프레임 각각이 현재 픽처 블록의 순방향 참조 프레임인 경우" 및 "제1 참조 프레임 및 제2 참조 프레임 각각이 현재 픽처 블록의 역방향 참조 프레임인 경우" 모두, 수식 에 의해 나타내어질 수 있다.
선택적으로, 비디오 디코더(202)가 제2 참조 프레임의 인덱스 값 및 제2 움직임 정보에 기초하여 제2 움직임 정보를 결정하기 위해 사용하는 방법은 다음과 같다: 제1 움직임 정보 내에 있는 제1 움직임 벡터 차 및 제1 참조 프레임의 인덱스 값을 획득하고, 제1 참조 프레임의 인덱스 값 및 제1 참조 프레임 리스트에 기초하여 제1 참조 프레임의 시퀀스 번호를 결정하고; 제2 참조 프레임의 인덱스 값을 획득하고, 제2 참조 프레임의 인덱스 값 및 제2 참조 프레임 리스트에 기초하여 제2 참조 프레임의 시퀀스 번호를 결정하며, 제2 참조 프레임의 시퀀스 번호 및 제2 후보 예측된 움직임 벡터 리스트에 기초하여 제2 예측된 움직임 벡터를 결정하고 - 여기서, 제2 예측된 움직임 벡터는 제2 방향에서의 현재 픽처 블록의 예측된 움직임 벡터임 -; 다음 수식에 따라 제2 움직임 정보의 제2 움직임 벡터 차를 도출하고
- 여기서, mvd_IY는 제2 움직임 벡터 차를 나타내고, POC_Cur은 현재 프레임의 시퀀스 번호를 나타내며, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내고, POC_listY는 제2 참조 프레임의 시퀀스 번호를 나타내며, mvd_IX는 제1 움직임 벡터 차를 나타냄 -; 제2 예측된 움직임 벡터 및 제2 움직임 벡터 차에 기초하여 제2 움직임 벡터를 결정한다 - 여기서, 제2 움직임 벡터는 제2 방향에서의 현재 픽처 블록의 움직임 벡터임 -.
선택적으로, 제1 참조 프레임이 현재 픽처 블록의 순방향 참조 프레임이고, 제2 참조 프레임이 현재 픽처 블록의 역방향 참조 프레임인 경우, 또는 제1 참조 프레임이 현재 픽처 블록의 역방향 참조 프레임이고 제2 참조 프레임이 현재 픽처 블록의 순방향 참조 프레임인 경우, 또는 제1 참조 프레임 및 제2 참조 프레임 각각이 현재 픽처 블록의 순방향 참조 프레임인 경우, 또는 제1 참조 프레임 및 제2 참조 프레임 각각이 현재 픽처 블록의 역방향 참조 프레임인 경우, 비디오 디코더(202)는 직접 mvd_IY=-mvd_IX로 설정할 수 있다.
예컨대, , 또는 , 또는 인 경우, 비디오 디코더(202)는 직접 mvd_IY=-mvd_IX로 설정한다.
S403: 비디오 디코더(202)는 제1 움직임 정보 및 제2 움직임 정보에 기초하여 현재 픽처 블록의 예측 샘플을 결정한다.
선택적으로, 비디오 디코더(202)는 S402에서 제1 움직임 벡터 및 제2 움직임 벡터를 결정한다. 이 방식에서, 비디오 디코더(202)는 제1 움직임 벡터 및 제1 참조 프레임 리스트에 기초하여 제1 참조 픽처 블록을 결정하고, 제2 움직임 벡터 및 제2 참조 프레임 리스트에 기초하여 제2 참조 픽처 블록을 결정할 수 있다. 나아가, 비디오 디코더(202)는 제1 참조 픽처 블록 및 제2 참조 픽처 블록에 기초하여 현재 픽처 블록의 예측 샘플을 결정한다. 다시 말해, 비디오 디코더(202)는 움직임 보상 프로세스를 완성한다.
비디오 디코더(202)가 제1 참조 픽처 블록 및 제2 참조 픽처 블록에 기초하여 현재 픽처 블록의 예측 샘플을 결정하기 위해 사용하는 방법은 임의의 기존의 방법을 참고할 수 있다. 이것은 본 출원의 본 실시예에서 특히 한정되는 것은 아니다.
본 출원의 본 실시예에서 제공되는 양방향 인터 예측 방법에서, 비디오 디코더(202)는 인코딩된 비트스트림에서 오직 제1 움직임 정보만을 획득할 수 있다. 제1 움직임 정보를 획득한 후, 비디오 디코더(202)는 제1 움직임 정보에 기초하여 제2 움직임 정보를 계산하고, 나아가 제1 움직임 정보 및 제2 움직임 정보에 기초하여 현재 픽처 블록의 예측 샘플을 결정한다. 본 출원에서 제공된 방법에 따르면, 더 이상 모든 방향에서의 각 픽처 블록의 움직임 정보가 전송될 필요는 없고, 이것은 종래 기술과 다른 점이다. 이로써 전송되는 움직임 정보의 양을 효과적으로 줄일 수 있고, 전송 자원의 효과적인 이용, 전송 레이트 및 코딩 압축 효율을 개선시킬 수 있다.
도 4에서의 양방향 인터 예측 방법은 현재 픽처 블록에 대해 설명되며, 즉 인터 예측은 AMVP 모드에 기초하여 현재 픽처 블록에 대해 수행되는 것으로 이해될 수 있다.
본 출원에서 제공되는 양방향 인터 예측 방법은 또한 비병진(non-translational) 움직임 모델 예측 모드, 예컨대, 4-파라미터 아핀 변환 움직임 모델, 6-파라미터 아핀 변환 움직임 모델, 또는 8-파라미터 바이리니어 움직임 모델에 적용될 수 있다. 이 시나리오에서, 현재 픽처 블록은 적어도 하나의 서브블록을 포함하고, 현재 픽처 블록의 움직임 정보는 현재 픽처 블록의 모든 서브블록 각각의 움직임 정보를 포함한다. 비디오 디코더(202)가 각 서브블록의 움직임 정보(제1 방향에서의 움직임 정보 및 제2 방향에서의 움직임 정보)를 결정하기 위해 사용하는 방법은 비디오 디코더(202)가 현재 픽처 블록의 움직임 정보를 결정하기 위해 사용하는 방법과 유사하다.
비병진 움직임 모델 예측 모드에서, 비디오 디코더(202)는 다음 수식:
에 따라 제1 방향에서의 i번째 제어점의 움직임 벡터에 기초하여 제2 방향에서의 i번째 제어점의 움직임 벡터를 계산한다.
상술한 수식에서, mvi_IY는 제2 방향에서의 i번째 제어점의 움직임 벡터를 나타내고, mvi_IX는 제1 방향서의 i번째 제어점의 움직임 벡터를 나타내며, POC_Cur은 현재 프레임의 시퀀스 번호를 나타내고, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내고, POC_listY는 제2 참조 프레임의 시퀀스 번호를 나타낸다.
이에 따라, 비디오 디코더(202)는 다음 수식:
을 이용하여 제1 방향에서의 i번째 제어점의 움직임 벡터 차에 기초하여 제2 방향에서의 i번째 제어점의 움직임 벡터 차를 계산한다.
상술한 수식에서, mvi_IY는 제2 방향에서의 i번째 제어점의 움직임 벡터를 나타내고, mvi_IX는 제1 방향에서의 i번째 제어점의 움직임 벡터를 나타내며, POC_Cur은 현재 프레임의 시퀀스 번호를 나타내고, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내고, POC_listY는 제2 참조 프레임의 시퀀스 번호를 나타낸다.
비디오 디코더(202)와 비교하여, 본 출원의 본 실시예에서의 비디오 인코더(102)는 현재 픽처 블록에 대해 양방향 움직임 추정을 수행하여, 제1 방향에서의 현재 픽처 블록의 움직임 정보를 결정하고, 제1 방향에서의 현재 픽처 블록의 움직임 정보에 기초하여 제2 방향에서의 현재 픽처 블록의 움직임 정보를 계산한다. 이러한 방식에서, 비디오 인코더(102)는 제1 방향에서의 현재 픽처 블록의 움직임 정보 및 제2 방향에서의 현재 픽처 블록의 움직임 정보에 기초하여 현재 픽처 블록의 예측 픽처 블록을 결정한다. 그런 다음, 비디오 인코더(102)는 현재 픽처 블록의 예측 픽처 블록 및 현재 픽처 블록 간의 잔차에 대해 변환 및 양자화와 같은 동작을 수행하여 비트스트림을 생성하고, 그 비트스트림을 비디오 디코더(202)에 보낸다. 비트스트림은 제1 방향에서의 현재 픽처 블록의 움직임 정보를 포함한다.
비디오 인코더(102)가 제1 방향에서의 현재 픽처 블록의 움직임 정보에 기초하여 제2 방향에서의 현재 픽처 블록의 움직임 정보를 계산하기 위해 사용하는 방법에 대해, 비디오 디코더(202)가 제1 움직임 정보에 기초하여 제2 움직임 정보를 결정하기 위해 사용하는 방법을 참조할 수 있다. 다시 말해, S402에 대한 설명을 참조할 수 있다. 따라서 상세한 설명에 대해서는 본 출원에서 다시 설명하지 않는다.
결론적으로, 본 출원에서 제공되는 양방향 인터 예측 방법에 따르면, 양방향 인터 예측 동안, 더 이상 모든 방향에서의 각 픽처 블록의 움직임 정보가 전송될 필요가 없으며, 한 방향에서의 움직임 정보만 전송되면 된다. 이로써, 전송되는 움직임 정보의 양을 감소시킬 수 있고, 전송 자원의 효과적 이용, 전송 레이트 및 코딩 압축 효율을 개선시킬 수 있다.
본 출원의 일 실시예는 양방향 인터 예측 장치를 제공한다. 양방향 인터 예측 장치는 비디오 디코더일 수 있다. 구체적으로, 양방향 인터 예측 장치는 상술한 양방향 인터 예측 방법에서 비디오 디코더(202)가 수행하는 단계들을 수행하도록 구성된다. 본 출원에서 제공된 양방향 인터 예측 장치는 대응하는 단계를 위한 모듈을 포함할 수 있다.
본 출원의 실시예들에서, 양방향 인터 예측 장치는 상술한 방법 예들에 기초한 기능 모듈로 분할될 수 있다. 예컨대, 각 기능 모듈은 대응하는 기능에 따라 분할함으로써 얻어지거나, 둘 이상의 기능이 하나의 처리 모듈에 통합될 수 있다. 통합 모듈은 하드웨어의 형태로 구현될 수도 있고, 또는 소프트웨어 기능 모듈의 형태로 구현될 수도 있다. 본 출원의 실시예에서, 모듈 분할은 예시적이며, 단지 논리적 기능 분할일 뿐이다. 실제 구현에서, 다른 분할 방식을 사용할 수도 있다.
대응하는 기능에 따른 분할로 각 기능 모듈을 획득한 경우, 도 5는 상술한 실시예에서의 양방향 인터 예측 장치의 가능한 개략 구조도이다. 도 5에 도시된 바와 같이, 양방향 인터 예측 장치(5)는 획득 유닛(50) 및 결정 유닛(51)을 포함한다.
획득 모듈(50)은 양방향 인터 예측 장치가 상술한 실시예에서 S400, S401 등을 수행하는 것을 지원하도록 구성되거나, 및/또는 본 명세서에서 설명한 기술의 다른 프로세스에서 사용된다.
결정 유닛(51)은 양방향 인터 예측 장치가 상술한 실시예에서 S402, 403 등을 수행하는 것을 지원하도록 구성되거나, 및/또는 본 명세서에서 설명한 기술의 다른 프로세스에서 사용된다.
상술한 방법 실시예에서의 단계에 대한 모든 관련 내용이 대응하는 기능 모듈의 설명에서 인용될 수 있다. 상세에 대해서는 여기에 다시 설명하지 않는다.
확실한 것은, 본 출원의 본 실시예에서 제공된 양방향 인터 예측 장치가, 한정되는 것은 아니지만, 상술한 모듈을 포함한다는 것이다. 예컨대, 양방향 인터 예측 장치가 추가로 저장 유닛(52)을 포함할 수 있다.
저장 유닛(52)은 양방향 인터 예측 장치의 프로그램 코드 및 데이터를 저장하도록 구성된다.
통합 유닛이 사용되는 경우, 도 6은 본 출원의 실시예들에서 제공되는 양방향 인터 예측 장치의 개략적인 구조도이다. 도 6에 도시된 바와 같이, 양방향 인터 예측 장치(6)는 처리 모듈(60) 및 통신 모듈(61)을 포함한다. 처리 모듈(60)은 양방향 인터 예측 장치의 동작을 제어하고 관리하도록 구성되는데, 예컨대, 획득 유닛(50) 및 결정 유닛(51)에 의해 수행되는 단계들을 수행하도록 구성되거나, 및/또는 본 명세서에서 설명하는 기술의 다른 프로세스를 수행하도록 구성된다. 통신 모듈(61)은 양방향 인터 예측 장치와 다른 장치 간의 상호작용을 지원하도록 구성된다. 도 6에 도시된 바와 같이, 양방향 인터 예측 장치는 추가로 저장 모듈(62)을 포함할 수 있다. 저장 모듈(62)은 양방향 인터 예측 장치의 프로그램 코드 및 데이터를 저장, 예컨대, 저장 유닛(52)에 의해 저장되는 것을 저장하도록 구성된다.
처리 모듈(60)은 프로세서 또는 컨트롤러일 수 있으며, 예컨대, 중앙 처리 유닛(CPU), 범용 프로세서, 디지털 신호 프로세서(DSP), ASIC, FPGA, 또는 다른 프로그래머블 로직 장치, 트랜지스터 로직 장치, 하드웨어 컴포넌트, 또는 이들의 조합일 수 있다. 프로세서 또는 컨트롤러는 본 출원에서 개시된 내용을 참조하여 설명된 다양한 예시적인 논리 블록, 모듈, 회로일 수 있다. 프로세서는, 다르게는, 연산 기능을 구현하기 위한 조합, 예컨대, 하나 이상의 프로세서의 조합, 또는 DSP와 마이크로 프로세서의 조합일 수 있다. 통신 모듈(61)은 송수신기, RF 회로, 통신 인터페이스 등일 수 있다. 저장 모듈(62)은 메모리일 수 있다.
상술한 방법 실시예들에서의 시나리오의 모든 관련 내용은 대응하는 기능 모듈의 기능 설명에 대해 인용될 수 있다. 따라서 상세에 대해 여기서 다시 설명하지 않는다.
양방향 인터 예측 장치(5) 및 양방향 인터 예측 장치(6) 모두 도 4에 도시된 양방향 인터 예측 방법을 수행할 수 있다. 구체적으로, 양방향 인터 예측 장치(5) 및 양방향 인터 예측 장치(6)는 비디오 디코딩 장치 또는 비디오 코딩 기능을 가진 다른 장치일 수 있다. 양방향 인터 예측 장치(5) 및 양방향 인터 예측 장치(6)는 디코딩 프로세스에서 픽처 예측을 수행하도록 구성될 수 있다.
본 출원은 또한 단말을 제공한다. 단말은 하나 이상의 프로세서, 메모리 및 통신 인터페이스를 포함한다. 메모리 및 통신 인터페이스는 하나 이상의 프로세서에 연결된다. 메모리는 컴퓨터 프로그램 코드를 저장하도록 구성된다. 컴퓨터 프로그램 코드는 명령을 포함한다. 하나 이상의 프로세서가 명령을 수행한 때, 단말은 본 출원의 실시예들에서 양방향 인터 예측 방법을 수행한다.
단말은 비디오 표시 장치, 스마트폰, 휴대형 컴퓨터, 또는 비디오를 처리하거나 표시할 수 있는 다른 장치일 수 있다.
본 출원은 또한 비휘발성 저장 매체 및 중앙 처리 유닛을 포함하는 비디오 디코더를 제공한다. 비휘발성 저장 매체는 실행 가능한 프로그램을 저장한다. 중앙 처리 유닛은 비휘발성 저장 매체에 연결되고, 실행 가능한 프로그램을 실행하여 본 출원의 실시예에서의 양방향 인터 예측 방법을 수행한다.
본 출원은 또한 디코더를 제공한다. 디코더는 본 출원의 실시예에서의 양방향 인터 예측 장치(양방향 인터 예측 장치(5) 및 양방향 인터 예측 장치(6)), 및 재구성 모듈을 포함한다. 재구성 모듈은 양방향 인터 예측 장치에 의해 획득된 예측 샘플들에 기초하여 현재 픽처 블록의 재구성된 샘플 값을 결정하도록 구성된다.
본 출원의 또 다른 실시예는 컴퓨터 판독 가능한 저장 매체를 제공한다. 컴퓨터 판독 가능한 저장 매체는 하나 이상의 프로그램 코드를 포함한다. 이 하나 이상의 프로그램 코드는 명령을 포함한다. 단말의 프로세서가 이 프로그램 코드를 실행하면, 단말은 도 4에 도시된 양방향 인터 예측 방법을 수행한다.
본 출원의 또 다른 실시예에서, 컴퓨터 프로그램 제폼이 제공된다. 컴퓨터 프로그램 제품은 컴퓨터 실행 가능한 명령을 포함한다. 컴퓨터 실행 가능한 명령은 컴퓨터 판독 가능한 저장 매체에 저장된다. 단말의 적어도 하나의 프로세서는 컴퓨터 판독 가능한 저장 매체로부터 컴퓨터 실행 가능한 명령을 판독한다. 적어도 하나의 프로세서는 그 컴퓨터 실행 가능한 명령을 실행하여, 단말이 도 4에 도시된 양방향 인터 예측 방법에서의 비디오 디코더(202)에 의해 수행되는 단계들을 수행할 수 있게 한다.
상술한 실시예들의 전체 또는 일부는 소프트웨어, 하드웨어, 펌웨어, 또는 이들의 조합에 의해 구현될 수 있다. 소프트웨어 프로그램을 사용하여 실시예를 구현하는 경우, 그 실시예는 전체 또는 일부가 컴퓨터 프로그램 제품의 형태로 구현될 수 있다. 컴퓨터 프로그램 제품은 하나 이상의 컴퓨터 명령을 포함한다. 컴퓨터 프로그램 명령이 컴퓨터에서 로딩되고 실행되는 때, 본 출원의 실시예에 따른 처리 절차 또는 기능 전체 또는 일부가 재생된다.
컴퓨터는 범용 컴퓨터, 특수 목적 컴퓨터, 컴퓨터 네트워크 또는 다른 프로그래머블 장치일 수 있다. 컴퓨터 명령은 컴퓨터 판독 가능한 저장 매체에 저장되거나 컴퓨터 판독 가능한 저장 매체로부터 다른 컴퓨터 판독 가능한 저장 매체로 전송될 수 있다. 예컨대, 컴퓨터 명령은 웹사이트, 컴퓨터, 서버 또는 데이터 센터로부터 다른 웹사이트, 컴퓨터, 서버 또는 데이터 센터로, 유선(예컨대, 동축 케이블, 광 섬유, 또는 디지털 가입자선(DSL, Digital Subscriber Line)) 또는 무선(예컨대, 적외선, 또는 마이크로파) 방식으로 전송될 수 있다. 컴퓨터 판독 가능한 저장 매체는 컴퓨터에 의해 액세스 가능한 임의의 사용 가능한 매체이거나, 또는 서버 또는 데이터 센터, 하나 이상의 사용 가능한 매체를 통합한 데이터 저장 장치일 수 있다. 사용 가능한 매체란, 자기 매체(예컨대, 플로피 디스크, 하드 디스크, 또는 자기 테이프), 광학 매체(예컨대, DVD), 반도체 매체(예컨대, SSD(solid state di나) 등일 수 있다.
구현예에 대한 상술한 설명은, 설명의 간략함과 편의를 위해, 상술한 기능 모듈의 분할이 예시적인 것임을 통상의 기술자라면 쉽게 이해할 것이다. 실제 적용에서, 상술한 기능들은 상이한 기능 모듈에 할당될 수 있고, 요건에 따라 구현될 수 있다. 즉, 장치의 내부 구조는 상술한 기능의 전부 또는 일부를 구현하기 위해 상이한 기능 모듈로 분할될 수 있다.
본 출원에서 제공된 여러 실시예에서, 개시된 장치 및 방법은 다른 방식으로 구현될 수도 있음을 이해해야 한다. 예컨대, 상술한 장치 실시예는 단지 예시일 뿐이다. 예컨대, 모듈 또는 유닛 분할은 단지 논리 기능 분할이며 실제 구현에서 다르게 분할될 수 있다. 예컨대, 복수의 유닛 또는 컴포넌트는 다른 장치에 결합 또는 통합될 수 있거나, 또는 일부 특징은 무시되거나 수행되지 않을 수 있다. 또한, 표시되거나 설명된 상호 연결 또는 직접적인 결합 또는 통신 연결은 임의의 인터페이스를 통해 구현될 수 있다. 전기적, 기계적 또는 다른 형태로 장치들 또는 유닛들 간에 간접적인 결합 또는 통신 연결을 구현할 수 있다.
별개의 부분으로 설명된 유닛들은 물리적으로 분리될 수도 아닐 수도 있고, 유닛으로 표시된 부분들은 하나 이상의 물리적 유닛일 수도 있고, 하나의 장소에 위치할 수도 있고, 또는 다른 장소에 분산되어 있을 수도 있다. 그 유닛들의 전부 또는 일부는 실시예의 기술적 해결 수단의 목적을 달성하기 위해 실제 요건에 따라 선택될 수 있다.
또한, 본 출원의 실시예에서의 기능 유닛은 하나의 처리 유닛에 통합되거나, 또는 유닛 각각이 물리적으로 독단적으로 존재하거나, 또는 둘 이상의 유닛이 하나의 유닛으로 통합될 수 있다. 통합된 유닛은 하드웨어로 구현될 수도 있고, 또는 소프트웨어 기능 유닛의 형태로 구현될 수도 있다.
통합 유닛이 소프트웨어 기능 유닛의 형태로 구현되고 독립적인 제품으로서 판매 또는 사용되는 경우, 이 통합 유닛은 판독 가능한 저장 매체 내에 저장될 수 있다. 이와 같은 이해에 기초하면, 본 출원의 실시예에서의 기술적 해결 수단은 필수적으로, 종래 기술에 대해 공헌하는 부분, 또는 기술적 해결 수단의 전부 또는 일부가 소프트웨어 제품의 형태로 구현될 수 있다. 소프트웨어 제품은 저장 매체에 저장되고, 장치(단일 칩 마이크로컴퓨터, 칩 등) 또는 프로세서에 명령하여 본 출원의 실시예에서 설명된 방법의 단계 중 일부 또는 전부를 수생하도록 하는 여러 명령을 포함한다. 상술한 저장 매체는, 프로그램 코드를 저장할 수 있다면 어떤 매체든 포함하며, 예컨대, USB 플래시 드라이브, 제거 가능한 하드 디스크, ROM, RAM, 자기 디스크 또는 광학 디스크이다.
상술한 설명은 단지 본 출원의 특정 구현예에 불과하며, 본 출원의 보호 범위를 제한하는 것이 아니다. 본 출원에서 개시된 기술적 범위 내에서의 변형 또는 대체는 본 출원의 보호 범위에 포함되어야 한다. 따라서, 본 출원의 보호 범위는 청구범위의 보호 범위에 의해 정해져야 한다.

Claims (17)

  1. 양방향 인터 예측에 적용되는 인코딩 방법으로서,
    현재 픽처 블록의 제1 움직임 벡터 차이를 결정하는 단계;
    제1 식별자를 결정하는 단계 - 상기 제1 식별자의 값이 제1 값인 경우, 상기 제1 식별자는 상기 현재 픽처 블록의 제2 움직임 벡터 차이가 인 경우의 제1 움직임 벡터 차이에 기초하는 것을 나타내는 데 사용되고, 상기 제1 움직임 벡터 차이는 제1 방향에서 상기 현재 픽처 블록의 움직임 정보에 속하고, 상기 제2 움직임 벡터 차이는 제2 방향에서 상기 현재 픽처 블록의 움직임 정보에 속하고, POC_Cur은 현재 프레임의 시퀀스 번호를 나타내고, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내고, POC_listY는 제2 참조 프레임의 시퀀스 번호를 나타내고, 상기 제1 참조 프레임은 상기 제1 방향에서의 상기 현재 픽처 블록의 참조 프레임이며, 상기 제2 참조 프레임은 상기 제2 방향에서의 상기 현재 픽처 블록의 참조 프레임임 -; 및
    상기 제1 식별자 및 상기 제1 움직임 벡터 차이를 비트스트림으로 인코딩하는 단계
    를 포함하고,
    상기 제2 움직임 벡터 차이는 다음 수식:

    에 따라 획득되고,
    는 상기 제2 움직임 벡터 차이를 나타내고, 는 상기 제1 움직임 벡터 차이를 나타내는, 인코딩 방법.
  2. 제1항에 있어서,
    상기 현재 픽처 블록의 제1 움직임 벡터 차이를 결정하는 단계는,
    제1 움직임 벡터를 결정하고, 제1 예측된 움직임 벡터를 획득하는 단계; 및
    상기 제1 움직임 벡터 및 상기 제1 예측된 움직임 벡터에 기초하여 상기 제1 움직임 벡터 차이를 결정하는 단계
    를 포함하는, 인코딩 방법.
  3. 제2항에 있어서,
    제2 예측된 움직임 벡터를 획득하는 단계;
    상기 제2 예측된 움직임 벡터와 상기 제2 움직임 벡터 차이에 기초하여 제2 움직임 벡터를 결정하는 단계; 및
    상기 제1 움직임 벡터와 상기 제2 움직임 벡터에 기초하여 상기 현재 픽처 블록의 예측 샘플을 결정하는 단계
    를 더 포함하고,
    상기 제1 예측된 움직임 벡터와 상기 제1 움직임 벡터는 상기 제1 방향에 대응하고, 상기 제2 예측된 움직임 벡터와 상기 제2 움직임 벡터는 상기 제2 방향에 대응하는, 인코딩 방법.
  4. 제3항에 있어서,
    상기 현재 픽처 블록은 상기 제1 방향에서 제1 참조 프레임 리스트와 상기 제2 방향에서 제2 참조 프레임 리스트를 포함하고,
    상기 제1 움직임 벡터와 상기 제2 움직임 벡터에 기초하여 상기 현재 픽처 블록의 예측 샘플을 결정하는 단계는,
    상기 제1 참조 프레임 리스트의 참조 프레임 인덱스와 상기 제2 참조 프레임 리스트의 참조 프레임 인덱스를 획득하는 단계;
    상기 제1 참조 프레임 리스트의 참조 프레임 인덱스, 상기 제1 움직임 벡터 및 상기 제1 참조 프레임 리스트에 기초하여 제1 참조 픽처 블록을 결정하는 단계;
    상기 제2 참조 프레임 리스트의 참조 프레임 인덱스, 상기 제2 움직임 벡터 및 상기 제2 참조 프레임 리스트에 기초하여 제2 참조 픽처 블록을 결정하는 단계; 및
    상기 제1 참조 픽처 블록과 상기 제2 참조 픽처 블록에 기초하여 상기 현재 픽처 블록의 예측 샘플을 결정하는 단계
    를 포함하는, 인코딩 방법.
  5. 제1항에 있어서,
    상기 제1 식별자를 비트스트림으로 인코딩하는 단계 전에, 상기 현재 픽처 블록이 위치하는 현재 프레임의 시퀀스 번호가 미리 설정된 조건을 만족한다고 결정하는 단계
    를 더 포함하고,
    상기 미리 설정된 조건은 상기 현재 프레임의 시퀀스 번호가 제1 참조 프레임의 시퀀스 번호와 제2 참조 프레임의 시퀀스 번호 사이에 있고, 상기 제1 참조 프레임이 상기 제1 참조 프레임 리스트에 속하며, 상기 제2 참조 프레임이 상기 제2 참조 프레임 리스트에 속하는 조건을 포함하는, 인코딩 방법.
  6. 제1항에 있어서,
    상기 제1 식별자의 값이 제2 값인 경우, 상기 현재 픽처 블록의 제2 움직임 벡터 차이를 결정하고, 다른 제2 움직임 벡터 차이를 상기 비트스트림으로 인코딩하는 단계
    를 더 포함하는 인코딩 방법.
  7. 양방향 인터 예측 인코딩 장치로서,
    현재 픽처 블록의 제1 움직임 벡터 차이를 결정하도록 구성된 획득 유닛;
    제1 식별자를 결정하도록 구성된 결정 유닛 - 상기 제1 식별자의 값이 제1 값인 경우, 상기 제1 식별자는 상기 현재 픽처 블록의 제2 움직임 벡터 차이가 인 경우의 제1 움직임 벡터 차이에 기초하여 결정될 수 있음을 나타내는 데 사용되고, 상기 제1 움직임 벡터 차이는 제1 방향에서 상기 현재 픽처 블록의 움직임 정보에 속하고, 상기 제2 움직임 벡터 차이는 제2 방향에서 상기 현재 픽처 블록의 움직임 정보에 속하고, POC_Cur은 현재 프레임의 시퀀스 번호를 나타내고, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내고, POC_listY는 제2 참조 프레임의 시퀀스 번호를 나타내고, 상기 제1 참조 프레임은 상기 제1 방향에서의 상기 현재 픽처 블록의 참조 프레임이며, 상기 제2 참조 프레임은 상기 제2 방향에서의 상기 현재 픽처 블록의 참조 프레임임 -; 및
    상기 제1 식별자 및 상기 제1 움직임 벡터 차이를 비트스트림으로 인코딩하도록 구성된 인코딩 유닛
    을 포함하고,
    상기 결정 유닛은 구체적으로, 다음 수식:

    에 따라 상기 제2 움직임 벡터 차이를 획득하도록 구성되고,
    는 상기 제2 움직임 벡터 차이를 나타내고, 는 상기 제1 움직임 벡터 차이를 나타내는, 양방향 인터 예측 인코딩 장치.
  8. 제7항에 있어서,
    상기 획득 유닛은 구체적으로,
    제1 움직임 벡터를 결정하고, 제1 예측된 움직임 벡터를 획득하고;
    상기 제1 움직임 벡터 및 상기 제1 예측된 움직임 벡터에 기초하여 상기 제1 움직임 벡터 차이를 결정하도록 구성되는, 양방향 인터 예측 인코딩 장치.
  9. 제8항에 있어서,
    상기 획득 유닛은 또한, 제2 예측된 움직임 벡터를 획득하고, 상기 제2 예측된 움직임 벡터와 상기 제2 움직임 벡터 차이에 기초하여 제2 움직임 벡터를 결정하도록 구성되고,
    상기 양방향 인터 예측 인코딩 장치는 상기 제1 움직임 벡터 및 상기 제2 움직임 벡터에 기초하여 상기 현재 픽처 블록의 예측 샘플을 결정하도록 구성된 예측 유닛을 더 포함하고,
    상기 제1 예측된 움직임 벡터와 상기 제1 움직임 벡터는 상기 제1 방향에 대응하고, 상기 제2 예측된 움직임 벡터와 상기 제2 움직임 벡터는 상기 제2 방향에 대응하는, 양방향 인터 예측 인코딩 장치.
  10. 제9항에 있어서,
    상기 현재 픽처 블록은 상기 제1 방향에서 제1 참조 프레임 리스트와 상기 제2 방향에서 제2 참조 프레임 리스트를 포함하고,
    상기 예측 유닛은 구체적으로,
    상기 제1 참조 프레임 리스트의 참조 프레임 인덱스와 상기 제2 참조 프레임 리스트의 참조 프레임 인덱스를 획득하고;
    상기 제1 참조 프레임 리스트의 참조 프레임 인덱스, 상기 제1 움직임 벡터 및 상기 제1 참조 프레임 리스트에 기초하여 제1 참조 픽처 블록을 결정하고;
    상기 제2 참조 프레임 리스트의 참조 프레임 인덱스, 상기 제2 움직임 벡터 및 상기 제2 참조 프레임 리스트에 기초하여 제2 참조 픽처 블록을 결정하며;
    상기 제1 참조 픽처 블록과 상기 제2 참조 픽처 블록에 기초하여 상기 현재 픽처 블록의 예측 샘플을 결정하도록 구성되는, 양방향 인터 예측 인코딩 장치.
  11. 제7항에 있어서,
    상기 인코딩 유닛이 상기 제1 식별자를 비트스트림으로 인코딩하기 전에, 상기 현재 픽처 블록이 위치하는 현재 프레임의 시퀀스 번호가 미리 설정된 조건을 만족한다고 결정하도록 구성된 판단 유닛을 포함하고,
    상기 미리 설정된 조건은 상기 현재 프레임의 시퀀스 번호가 제1 참조 프레임의 시퀀스 번호와 제2 참조 프레임의 시퀀스 번호 사이에 있고, 상기 제1 참조 프레임이 상기 제1 참조 프레임 리스트에 속하며, 상기 제2 참조 프레임이 상기 제2 참조 프레임 리스트에 속하는 조건을 포함하는, 양방향 인터 예측 인코딩 장치.
  12. 제7항에 있어서,
    상기 획득 유닛은 또한, 상기 제1 식별자의 값이 제2 값인 경우, 상기 현재 픽처 블록의 제2 움직임 벡터 차이를 결정하고, 다른 제2 움직임 벡터 차이를 상기 비트스트림으로 인코딩하도록 구성되는, 양방향 인터 예측 인코딩 장치.
  13. 저장 매체로서,
    상기 저장 매체는 제1항 내지 제6항 중 어느 한 항에 따른 인코딩 방법을 사용하여 생성된 비트스트림을 포함하는, 저장 매체.
  14. 프로세서, 메모리, 통신 인터페이스 및 버스를 포함하는 이미지 처리 장치로서,
    상기 프로세서는 상기 버스를 사용하여 상기 메모리와 상기 통신 인터페이스에 연결되고,
    상기 메모리는 명령어를 저장하도록 구성되고,
    상기 프로세서는 상기 명령어를 실행하도록 구성되고, 상기 프로세서가 상기 메모리에 저장된 명령어를 실행할 때, 상기 프로세서는 제1항 내지 제6항 중 어느 한 항에 따른 인코딩 방법을 수행할 수 있는, 이미지 처리 장치.
  15. 비디오 신호에 대한 인코딩된 비트스트림을 저장하는 저장 매체로서,
    상기 인코딩된 비트스트림은 복수의 구문 요소를 포함하고,
    상기 복수의 구문 요소는 제1 식별자 및 제1 움직임 벡터 차이를 포함하고,
    상기 제1 식별자의 값이 제1 값인 경우, 상기 제1 식별자는 현재 픽처 블록의 제2 움직임 벡터 차이가 인 경우의 제1 움직임 벡터 차이에 기초하여 결정될 수 있음을 나타내는 데 사용되고, 상기 제1 움직임 벡터 차이는 제1 방향에서 상기 현재 픽처 블록의 움직임 정보에 속하고, 상기 제2 움직임 벡터 차이는 제2 방향에서 상기 현재 픽처 블록의 움직임 정보에 속하고, POC_Cur은 현재 프레임의 시퀀스 번호를 나타내고, POC_listX는 제1 참조 프레임의 시퀀스 번호를 나타내고, POC_listY는 제2 참조 프레임의 시퀀스 번호를 나타내고, 상기 제1 참조 프레임은 상기 제1 방향에서의 상기 현재 픽처 블록의 참조 프레임이며, 상기 제2 참조 프레임은 상기 제2 방향에서의 상기 현재 픽처 블록의 참조 프레임이고,
    상기 제2 움직임 벡터 차이는 다음 수식:

    에 따라 획득되고,
    는 상기 제2 움직임 벡터 차이를 나타내고, 는 상기 제1 움직임 벡터 차이를 나타내는, 저장 매체.
  16. 삭제
  17. 삭제
KR1020237013341A 2018-03-29 2019-01-11 양방향 인터 예측 방법 및 장치 KR102622150B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN201810274457.X 2018-03-29
CN201810274457.XA CN110324637B (zh) 2018-03-29 2018-03-29 一种双向帧间预测方法及装置
PCT/CN2019/071471 WO2019184556A1 (zh) 2018-03-29 2019-01-11 一种双向帧间预测方法及装置
KR1020207029639A KR102525178B1 (ko) 2018-03-29 2019-01-11 양방향 인터 예측 방법 및 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020207029639A Division KR102525178B1 (ko) 2018-03-29 2019-01-11 양방향 인터 예측 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20230054916A KR20230054916A (ko) 2023-04-25
KR102622150B1 true KR102622150B1 (ko) 2024-01-05

Family

ID=68062196

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020207029639A KR102525178B1 (ko) 2018-03-29 2019-01-11 양방향 인터 예측 방법 및 장치
KR1020237013341A KR102622150B1 (ko) 2018-03-29 2019-01-11 양방향 인터 예측 방법 및 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020207029639A KR102525178B1 (ko) 2018-03-29 2019-01-11 양방향 인터 예측 방법 및 장치

Country Status (14)

Country Link
US (3) US11350122B2 (ko)
EP (1) EP3771211A4 (ko)
JP (2) JP7143435B2 (ko)
KR (2) KR102525178B1 (ko)
CN (6) CN112040244B (ko)
AU (1) AU2019240981B2 (ko)
BR (1) BR112020018923A2 (ko)
CA (1) CA3095220C (ko)
MX (1) MX2020010174A (ko)
PH (1) PH12020551544A1 (ko)
RU (1) RU2762262C1 (ko)
SG (1) SG11202009509VA (ko)
WO (1) WO2019184556A1 (ko)
ZA (1) ZA202006408B (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112040244B (zh) 2018-03-29 2021-06-29 华为技术有限公司 一种双向帧间预测方法及装置
CN113709488B (zh) * 2020-06-30 2023-02-28 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN114071159B (zh) * 2020-07-29 2023-06-30 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器及计算机可读存储介质
CN116320428A (zh) * 2021-12-20 2023-06-23 维沃移动通信有限公司 帧间预测方法及终端

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160286230A1 (en) * 2015-03-27 2016-09-29 Qualcomm Incorporated Motion information derivation mode determination in video coding

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2354253T3 (es) * 2002-10-04 2011-03-11 Lg Electronics Inc. Método para extraer vectores de movimiento de modo directo.
CN1225127C (zh) * 2003-09-12 2005-10-26 中国科学院计算技术研究所 一种用于视频编码的编码端/解码端双向预测方法
US8917769B2 (en) 2009-07-03 2014-12-23 Intel Corporation Methods and systems to estimate motion based on reconstructed reference frames at a video decoder
KR20110071047A (ko) * 2009-12-20 2011-06-28 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
EP2528332A4 (en) 2010-01-19 2015-08-05 Samsung Electronics Co Ltd METHOD AND DEVICE FOR CODING / DECODING PICTURES USING A MOTION VECTOR OF A PREVIOUS BLOCK AS A MOTION VECTOR OF THE PRESENT BLOCK
JP5281597B2 (ja) * 2010-02-04 2013-09-04 日本電信電話株式会社 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム
US9503743B2 (en) * 2010-05-12 2016-11-22 Thomson Licensing Methods and apparatus for uni-prediction of self-derivation of motion estimation
CN105744282B (zh) * 2010-05-26 2018-10-23 Lg电子株式会社 用于处理视频信号的方法和设备
US9398308B2 (en) * 2010-07-28 2016-07-19 Qualcomm Incorporated Coding motion prediction direction in video coding
US9148666B2 (en) * 2011-02-09 2015-09-29 Lg Electronics Inc. Method for storing motion information and method for inducing temporal motion vector predictor using same
US9288501B2 (en) * 2011-03-08 2016-03-15 Qualcomm Incorporated Motion vector predictors (MVPs) for bi-predictive inter mode in video coding
WO2013006386A1 (en) 2011-07-01 2013-01-10 General Instrument Corporation Motion vector prediction design simplification
CN107277533B (zh) * 2011-10-28 2020-04-24 三星电子株式会社 帧间预测的方法及其装置和运动补偿的方法及其装置
JP2013106312A (ja) * 2011-11-16 2013-05-30 Jvc Kenwood Corp 画像符号化装置、画像符号化方法及び画像符号化プログラム
CN103188490A (zh) * 2011-12-29 2013-07-03 朱洪波 视频编码中的合并补偿模式
WO2013109124A1 (ko) 2012-01-19 2013-07-25 삼성전자 주식회사 쌍방향 예측 및 블록 병합을 제한하는 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2013157791A1 (ko) 2012-04-15 2013-10-24 삼성전자 주식회사 인터 예측의 참조영상을 결정하는 방법과 그 장치
RU2647674C1 (ru) 2012-07-02 2018-03-16 Самсунг Электроникс Ко., Лтд. Способ и устройство для кодирования видео и способ и устройство для декодирования видео, определяющие список опорных изображений внешнего прогнозирования в зависимости от размера блока
JP6120707B2 (ja) * 2013-07-08 2017-04-26 ルネサスエレクトロニクス株式会社 動画像符号化装置およびその動作方法
CN104427345B (zh) * 2013-09-11 2019-01-08 华为技术有限公司 运动矢量的获取方法、获取装置、视频编解码器及其方法
CN111193930B (zh) * 2013-12-16 2021-11-30 浙江大学 一种前向双假设编码图像块的编解码方法和装置
GB2524476B (en) 2014-03-14 2016-04-27 Canon Kk Method, device and computer program for optimizing transmission of motion vector related information when transmitting a video stream
EP3202143B8 (en) 2014-11-18 2019-09-25 MediaTek Inc. Method of bi-prediction video coding based on motion vectors from uni-prediction and merge candidate
EP3316580A4 (en) * 2015-10-13 2018-09-26 Samsung Electronics Co., Ltd. Method and device for encoding or decoding image
CN109076213A (zh) * 2016-04-28 2018-12-21 Lg 电子株式会社 基于间预测模式的图像处理方法及其装置
CN109196864B (zh) 2016-05-24 2023-07-11 韩国电子通信研究院 图像编码/解码方法和用于所述方法的记录介质
US10462462B2 (en) * 2016-09-29 2019-10-29 Qualcomm Incorporated Motion vector difference coding technique for video coding
US20180192071A1 (en) * 2017-01-05 2018-07-05 Mediatek Inc. Decoder-side motion vector restoration for video coding
CN112040244B (zh) * 2018-03-29 2021-06-29 华为技术有限公司 一种双向帧间预测方法及装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160286230A1 (en) * 2015-03-27 2016-09-29 Qualcomm Incorporated Motion information derivation mode determination in video coding

Also Published As

Publication number Publication date
EP3771211A1 (en) 2021-01-27
KR20230054916A (ko) 2023-04-25
CN117528116A (zh) 2024-02-06
CN117560506A (zh) 2024-02-13
CN112040244A (zh) 2020-12-04
CN113315975A (zh) 2021-08-27
JP7143435B2 (ja) 2022-09-28
ZA202006408B (en) 2022-09-28
US11838535B2 (en) 2023-12-05
US11350122B2 (en) 2022-05-31
BR112020018923A2 (pt) 2020-12-29
EP3771211A4 (en) 2021-05-05
JP2021519548A (ja) 2021-08-10
US20220256184A1 (en) 2022-08-11
US20220286703A1 (en) 2022-09-08
CN117560505A (zh) 2024-02-13
WO2019184556A1 (zh) 2019-10-03
JP2022179516A (ja) 2022-12-02
SG11202009509VA (en) 2020-10-29
CN112040244B (zh) 2021-06-29
CA3095220A1 (en) 2019-10-03
CA3095220C (en) 2023-12-12
KR102525178B1 (ko) 2023-04-21
CN110324637B (zh) 2023-11-17
KR20200131317A (ko) 2020-11-23
US20210021853A1 (en) 2021-01-21
AU2019240981A1 (en) 2020-10-15
RU2762262C1 (ru) 2021-12-17
CN110324637A (zh) 2019-10-11
AU2019240981B2 (en) 2023-02-02
PH12020551544A1 (en) 2021-06-07
CN113315975B (zh) 2022-12-06
US11924458B2 (en) 2024-03-05
MX2020010174A (es) 2020-10-28

Similar Documents

Publication Publication Date Title
KR102622150B1 (ko) 양방향 인터 예측 방법 및 장치
US11659161B2 (en) Reference frame obtaining method and apparatus applied to bidirectional inter prediction
KR20210022101A (ko) 모션 벡터 예측 방법 및 관련 장치
RU2818520C2 (ru) Способ и устройство двунаправленного интер-предсказания
CN115442616A (zh) 视频解码方法及装置

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant