KR102261696B1 - Fruc 를 위한 저 복잡도 설계 - Google Patents

Fruc 를 위한 저 복잡도 설계 Download PDF

Info

Publication number
KR102261696B1
KR102261696B1 KR1020207010389A KR20207010389A KR102261696B1 KR 102261696 B1 KR102261696 B1 KR 102261696B1 KR 1020207010389 A KR1020207010389 A KR 1020207010389A KR 20207010389 A KR20207010389 A KR 20207010389A KR 102261696 B1 KR102261696 B1 KR 102261696B1
Authority
KR
South Korea
Prior art keywords
motion vector
vector information
starting
initial position
candidate list
Prior art date
Application number
KR1020207010389A
Other languages
English (en)
Other versions
KR20200058445A (ko
Inventor
웨이-정 치엔
샤오-창 추앙
샹 리
지안레 천
리 장
마르타 카르체비츠
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20200058445A publication Critical patent/KR20200058445A/ko
Application granted granted Critical
Publication of KR102261696B1 publication Critical patent/KR102261696B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

비디오 데이터를 디코딩하는 방법은, 프로세싱 회로부에서 구현된 비디오 디코더에 의해, 현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하는 단계를 포함한다. 그 방법은, 비디오 디코더에 의해, 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보를 수신하는 단계를 포함하고, 시작 모션 벡터 정보는 레퍼런스 프레임에서의 초기 포지션을 표시한다. 그 방법은, 비디오 디코더에 의해, 양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 초기 포지션으로부터 탐색 범위 내에 있는 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 모션 벡터 정보를 결정하기 위해 시작 모션 벡터 정보를 정세하는 단계를 포함한다. 그 방법은, 비디오 디코더에 의해, 정세된 모션 벡터 정보에 기초하여 예측 블록을 생성하는 단계, 및 비디오 디코더에 의해, 예측 블록에 기초하여 현재 프레임을 디코딩하는 단계를 포함한다.

Description

FRUC 를 위한 저 복잡도 설계
본 출원은 2018년 9월 14일자로 출원된 미국 특허출원 제16/131,860호를 우선권 주장하고, 2017년 10월 11일자로 출원된 미국 가특허출원 제62/571,161호의 이익을 주장하며, 이들 출원들의 전체 내용들은 본 명세서에 참조로 통합된다.
기술분야
본 개시는 비디오 인코딩 및 디코딩에 관한 것이다.
디지털 비디오 능력들은 디지털 텔레비전들, 디지털 직접 브로드캐스트 시스템들, 무선 브로드캐스트 시스템들, 개인용 디지털 보조기들 (PDA들), 랩탑 또는 데스크탑 컴퓨터들, 태블릿 컴퓨터들, e-북 리더들, 디지털 카메라들, 디지털 레코딩 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 디바이스들, 비디오 게임 콘솔들, 셀룰러 또는 위성 무선 전화기들, 소위 "스마트 폰들", 비디오 텔레컨퍼런싱 디바이스들, 비디오 스트리밍 디바이스들 등을 포함한, 광범위한 디바이스들에 통합될 수 있다. 디지털 비디오 디바이스들은 MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264/MPEG-4, 파트 10, 어드밴스드 비디오 코딩 (AVC), ITU-T H.265, 고효율 비디오 코딩 (HEVC) 표준에 의해 정의된 표준들, 및 그러한 표준들의 확장들에서 설명된 기법들과 같은 비디오 압축 기법들을 구현한다. 비디오 디바이스들은 그러한 비디오 압축 기법들을 구현함으로써 디지털 비디오 정보를 더 효율적으로 송신, 수신, 인코딩, 디코딩, 및/또는 저장할 수도 있다.
비디오 압축 기법들은 비디오 시퀀스들에 내재한 리던던시를 감소 또는 제거하기 위해 공간 (인트라-픽처) 예측 및/또는 시간 (인터-픽처) 예측을 수행한다. 블록 기반 비디오 코딩에 대해, 비디오 슬라이스 (즉, 비디오 프레임 또는 비디오 프레임의 일부) 는 비디오 블록들로 파티셔닝될 수도 있으며, 이 비디오 블록들은 또한 트리블록들, 코딩 유닛들 (CU들) 및/또는 코딩 노드들로서 지칭될 수도 있다. 픽처의 인트라-코딩된 (I) 슬라이스에서의 비디오 블록들은 동일 픽처의 이웃 블록들에서의 레퍼런스 샘플들에 대한 공간 예측을 이용하여 인코딩된다. 픽처의 인터-코딩된 (P 또는 B) 슬라이스에서의 비디오 블록들은 동일 픽처의 이웃 블록들에서의 레퍼런스 샘플들에 대한 공간 예측, 또는 다른 레퍼런스 픽처들에서의 레퍼런스 샘플들에 대한 시간 예측을 이용할 수도 있다. 공간 또는 시간 예측은 코딩될 블록에 대한 예측 블록을 발생시킨다. 잔차 데이터는 코딩될 오리지널 블록과 예측 블록 간의 픽셀 차이들을 나타낸다. 인터-코딩된 블록은 예측 블록을 형성하는 레퍼런스 샘플들의 블록을 포인팅하는 모션 벡터, 및 코딩된 블록과 예측 블록 간의 차이를 표시하는 잔차 데이터에 따라 인코딩된다. 인트라-코딩된 블록은 인트라-코딩 모드 및 잔차 데이터에 따라 인코딩된다. 추가의 압축을 위해, 잔차 데이터는 픽셀 도메인으로부터 변환 도메인으로 변환되어, 잔차 변환 계수들을 발생시킬 수도 있으며, 그 다음, 이 잔차 변환 계수들은 양자화될 수도 있다.
일반적으로, 본 개시는 프레임 레이트 상향 변환 (FRUC) 을 위한 기존의 기법들에 대한 개선들과 관련된 기법들을 기술한다. 미국특허 공개공보 US-2016-0286230호는 FRUC 에 기초한 기법들을 기술한다. 저 복잡도 FRUC 를 위한 본 개시의 기법들은 고효율 비디오 코딩 (HEVC) 과 같은 임의의 기존의 비디오 코덱들에 적용될 수도 있거나, 또는 현재 개발 중인 다용도 비디오 코딩 표준과 같은 미래의 비디오 코딩 표준들을 위한 효율적인 코딩 툴일 수도 있다. 더 구체적으로, 본 개시는 FRUC 를 위한 탐색 동작들을 수행하기 위해 외부 메모리로부터 사용되는 레퍼런스 샘플들의 양을 감소시키는 것과 관련된 기법들을 기술한다.
일 예에 있어서, 비디오 데이터를 디코딩하는 방법은, 프로세싱 회로부에서 구현된 비디오 디코더에 의해, 현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하는 단계, 비디오 디코더에 의해, 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보를 수신하는 단계로서, 시작 모션 벡터 정보는 레퍼런스 프레임에서의 초기 포지션을 표시하는, 상기 시그널링 정보를 수신하는 단계, 비디오 디코더에 의해, 양측성 (bilateral) 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 초기 포지션으로부터 탐색 범위 내에 있는 레퍼런스 프레임에서의 정세된 (refined) 포지션을 표시하는 정세된 모션 벡터 정보를 결정하기 위해 시작 모션 벡터 정보를 정세하는 단계, 비디오 디코더에 의해, 정세된 모션 벡터 정보에 기초하여 예측 블록을 생성하는 단계, 및 비디오 디코더에 의해, 예측 블록에 기초하여 현재 프레임을 디코딩하는 단계를 포함한다.
다른 예에 있어서, 비디오 데이터를 디코딩하기 위한 디바이스는 비디오 데이터를 저장하도록 구성된 메모리 및 프로세싱 회로부를 포함한다. 프로세싱 회로부는 현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하고, 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보를 수신하는 것으로서, 시작 모션 벡터 정보는 레퍼런스 프레임에서의 초기 포지션을 표시하는, 상기 시그널링 정보를 수신하고, 양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 초기 포지션으로부터 탐색 범위 내에 있는 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 모션 벡터 정보를 결정하기 위해 시작 모션 벡터 정보를 정세하고, 정세된 모션 벡터 정보에 기초하여 예측 블록을 생성하고, 그리고 예측 블록에 기초하여 현재 프레임을 디코딩하도록 구성된다.
다른 예에 있어서, 비일시적인 컴퓨터 판독가능 컴퓨터 판독가능한 매체는 하나 이상의 명령들로 구성되고, 하나 이상의 명령들은, 실행될 경우, 하나 이상의 프로세서들로 하여금 현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하게 하고, 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보를 수신하게 하는 것으로서, 시작 모션 벡터 정보는 레퍼런스 프레임에서의 초기 포지션을 표시하는, 상기 시그널링 정보를 수신하게 하고, 양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 초기 포지션으로부터 탐색 범위 내에 있는 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 모션 벡터 정보를 결정하기 위해 시작 모션 벡터 정보를 정세하게 하고, 정세된 모션 벡터 정보에 기초하여 예측 블록을 생성하게 하고, 그리고 예측 블록에 기초하여 현재 프레임을 디코딩하게 한다.
다른 예에 있어서, 디바이스는 현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하고, 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보를 수신하는 것으로서, 시작 모션 벡터 정보는 레퍼런스 프레임에서의 초기 포지션을 표시하는, 상기 시그널링 정보를 수신하고, 양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 초기 포지션으로부터 탐색 범위 내에 있는 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 모션 벡터 정보를 결정하기 위해 시작 모션 벡터 정보를 정세하고, 정세된 모션 벡터 정보에 기초하여 예측 블록을 생성하고, 그리고 예측 블록에 기초하여 현재 프레임을 디코딩하는 수단을 포함한다.
다른 예에 있어서, 비디오 데이터를 인코딩하는 방법은, 프로세싱 회로부에서 구현된 비디오 인코더에 의해, 현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하는 단계, 비디오 인코더에 의해, 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 선택하는 단계로서, 시작 모션 벡터 정보는 레퍼런스 프레임에서의 초기 포지션을 표시하는, 상기 시작 모션 벡터 정보를 선택하는 단계, 비디오 인코더에 의해, 양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 초기 포지션으로부터 탐색 범위 내에 있는 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 모션 벡터 정보를 결정하기 위해 시작 모션 벡터 정보를 정세하는 단계, 비디오 인코더에 의해, 정세된 모션 벡터 정보에 기초하여 예측 블록을 생성하는 단계, 비디오 인코더에 의해, 예측 블록에 기초하여 비디오 데이터의 현재 블록에 대한 잔차 샘플 값들을 생성하는 단계, 및 비디오 인코더에 의해, 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보 및 잔차 샘플 값들의 표시를 출력하는 단계를 포함한다.
다른 예에 있어서, 비디오 데이터를 인코딩하기 위한 디바이스는 비디오 데이터를 저장하도록 구성된 메모리 및 프로세싱 회로부를 포함한다. 프로세싱 회로부는, 현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하고, 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 선택하는 것으로서, 시작 모션 벡터 정보는 레퍼런스 프레임에서의 초기 포지션을 표시하는, 상기 시작 모션 벡터 정보를 선택하고, 양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 초기 포지션으로부터 탐색 범위 내에 있는 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 모션 벡터 정보를 결정하기 위해 시작 모션 벡터 정보를 정세하고, 정세된 모션 벡터 정보에 기초하여 예측 블록을 생성하고, 예측 블록에 기초하여 비디오 데이터의 현재 블록에 대한 잔차 샘플 값들을 생성하고, 그리고 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보 및 잔차 샘플 값들의 표시를 출력하도록 구성된다.
다른 예에 있어서, 비일시적인 컴퓨터 판독가능 컴퓨터 판독가능한 매체는 하나 이상의 명령들로 구성되고, 하나 이상의 명령들은, 실행될 경우, 하나 이상의 프로세서들로 하여금 현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하게 하고, 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 선택하게 하는 것으로서, 시작 모션 벡터 정보는 레퍼런스 프레임에서의 초기 포지션을 표시하는, 상기 시작 모션 벡터 정보를 선택하게 하고, 양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 초기 포지션으로부터 탐색 범위 내에 있는 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 모션 벡터 정보를 결정하기 위해 시작 모션 벡터 정보를 정세하게 하고, 정세된 모션 벡터 정보에 기초하여 예측 블록을 생성하게 하고, 예측 블록에 기초하여 비디오 데이터의 현재 블록에 대한 잔차 샘플 값들을 생성하게 하고, 그리고 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보 및 잔차 샘플 값들의 표시를 출력하게 한다.
다른 예에 있어서, 디바이스는 현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하고, 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 선택하는 것으로서, 시작 모션 벡터 정보는 레퍼런스 프레임에서의 초기 포지션을 표시하는, 상기 시작 모션 벡터 정보를 선택하고, 양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 초기 포지션으로부터 탐색 범위 내에 있는 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 모션 벡터 정보를 결정하기 위해 시작 모션 벡터 정보를 정세하고, 정세된 모션 벡터 정보에 기초하여 예측 블록을 생성하고, 예측 블록에 기초하여 비디오 데이터의 현재 블록에 대한 잔차 샘플 값들을 생성하고, 그리고 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보 및 잔차 샘플 값들의 표시를 출력하는 수단을 포함한다.
본 개시의 하나 이상의 양태들의 상세들은 하기의 설명 및 첨부 도면들에 기재된다. 본 개시에서 설명된 기법들의 다른 특징들, 목적들, 및 이점들은 그 설명, 도면들, 및 청구항들로부터 명백할 것이다.
도 1 은 본 개시에서 설명된 하나 이상의 기법들을 활용할 수도 있는 예시적인 비디오 인코딩 및 디코딩 시스템을 예시한 블록 다이어그램이다.
도 2a 는 병합 모드에 대한 공간 이웃 MV 후보들을 예시한 개념 다이어그램이다.
도 2b 는 AMVP 모드에 대한 공간 이웃 MV 후보들을 예시한 개념 다이어그램이다.
도 3a 는 HEVC 에서의 시간 모션 벡터 예측을 예시한 제 1 개념 다이어그램이다.
도 3b 는 HEVC 에서의 시간 모션 벡터 예측을 예시한 제 2 개념 다이어그램이다.
도 4 는 FRUC 에서의 단측성 ME 를 예시한 개념 다이어그램이다.
도 5 는 FRUC 에서의 양측성 ME 를 예시한 개념 다이어그램이다.
도 6 은 템플릿 매칭 기반 DMVD 를 예시한 개념 다이어그램이다.
도 7 은 DMVD 에서의 미러 기반 양방향 MV 도출을 예시한 개념 다이어그램이다.
도 8a 는 확장된 양측성 매칭 기반 모션 벡터 도출을 예시한 개념 다이어그램이다.
도 8b 는 pu_dmvd_flag 가 추가된 PU 디코딩을 예시한 블록 다이어그램이다.
도 9 는 양측성 매칭을 예시한 개념 다이어그램이다.
도 10 은 템플릿 매칭을 예시한 개념 다이어그램이다.
도 11 은 IC 파라미터들을 도출하기 위해 사용된 이웃 샘플들을 예시한 개념 다이어그램이다.
도 12 는 양측성 템플릿 매칭에 기초한 DMVD 를 예시한 개념 다이어그램이다.
도 13 은 본 개시에서 설명된 하나 이상의 기법들을 구현할 수도 있는 예시적인 비디오 인코더를 예시한 블록 다이어그램이다.
도 14 는 본 개시에서 설명된 하나 이상의 기법들을 구현할 수도 있는 예시적인 비디오 디코더를 예시한 블록 다이어그램이다.
도 15 는 본 개시에서 설명된 하나 이상의 기법들에 따른, 비디오 디코더의 예시적인 동작을 예시한 블록 다이어그램이다.
도 16 은 본 개시에서 설명된 하나 이상의 기법들에 따른, 비디오 인코더에 대한 예시적인 동작을 예시한 블록 다이어그램이다.
본 개시의 기법들은 블록 기반 비디오 코딩에서의 디코더측 모션 정보 도출, 블록 파티션, 및/또는 비디오 데이터 보간에 관련된다. 그 기법들은 고효율 비디오 코딩 (HEVC) 과 같은 임의의 기존의 비디오 코덱들에 적용되거나 또는 임의의 미래의 비디오 코딩 표준들을 위한 효율적인 코딩 툴일 수도 있다.
비디오 코딩 디바이스들은 비디오 압축 기법들을 구현하여 비디오 데이터를 효율적으로 인코딩 및 디코딩한다. 비디오 압축 기법들은 비디오 시퀀스들에 내재한 리던던시를 감소 또는 제거하기 위해 공간 예측 (예컨대, 인트라-프레임 예측), 시간 예측 (예컨대, 인터-프레임 예측), 및/또는 다른 예측 기법들을 적용하는 것을 포함할 수도 있다. 비디오 인코더는 통상적으로, 오리지널 비디오 시퀀스의 각각의 픽처를, 비디오 블록들 또는 코딩 유닛들로서 지칭되는 직사각형 영역들로 파티셔닝한다 (하기에서 더 상세히 설명됨). 이들 비디오 블록들은 특정 예측 모드를 사용하여 인코딩될 수도 있다.
인터-예측 모드들에 대해, 비디오 인코더는 통상적으로, 레퍼런스 프레임으로서 지칭되는 다른 시간 위치에서의 프레임에서 인코딩되는 것과 유사한 블록을 탐색한다. 비디오 인코더는 탐색을, 인코딩될 블록으로부터의 특정 공간 변위로 제약할 수도 있다. 최상의 매치가, 수평 변위 컴포넌트 및 수직 변위 컴포넌트를 포함하는 2차원 (2D) 모션 벡터를 사용하여 위치될 수도 있다. 인트라-예측 모드에 대해, 비디오 인코더는 동일한 픽처 내에서 이전에 인코딩된 이웃 블록들로부터의 데이터에 기초하여 공간 예측 기법들을 이용하여 예측된 블록을 형성할 수도 있다.
비디오 인코더는 예측 에러, 즉, 인코딩되는 블록 및 예측된 블록에서의 픽셀 값들 사이의 차이 (잔차로서도 또한 지칭됨) 를 결정할 수도 있다. 비디오 인코더는 또한, 변환 계수들을 생성하기 위해 이산 코사인 변환 (DCT) 과 같은 변환을 예측 에러에 적용할 수도 있다. 변환 이후, 비디오 인코더는 변환 계수들을 양자화할 수도 있다. 양자화된 변환 계수들 및 모션 벡터들은 신택스 엘리먼트들을 사용하여 표현될 수도 있고, 제어 정보와 함께, 비디오 시퀀스의 코딩된 표현을 형성할 수도 있다. 일부 사례들에 있어서, 비디오 인코더는 신택스 엘리먼트들을 엔트로피 코딩하고, 이에 의해, 그들의 표현에 필요한 비트들의 수를 더 감소시킬 수도 있다.
비디오 디코더는, 상기 논의된 신택스 엘리먼트들 및 제어 정보를 사용하여, 현재 프레임을 디코딩하기 위한 예측 데이터 (예컨대, 예측 블록) 를 구축할 수도 있다. 예를 들어, 비디오 디코더는 예측된 블록 및 압축된 예측 에러를 추가할 수도 있다. 비디오 디코더는 양자화된 계수들을 사용하여 변환 베이시스 함수들을 가중함으로써 압축된 예측 에러를 결정할 수도 있다. 복원된 프레임과 오리지널 프레임 간의 차이는 복원 에러로 지칭된다.
일부 사례들에 있어서, 비디오 디코더 또는 포스트-프로세싱 디바이스는 하나 이상의 레퍼런스 픽처들에 기초하여 픽처들을 보간할 수도 있다. 그러한 보간된 픽처들은 인코딩된 비트스트림에 포함되지 않는다. 비디오 디코더 또는 포스트-프로세싱 디바이스는, 인코딩된 비트스트림의 오리지널 프레임 레이트를 상향 변환하기 위해 픽처들을 보간할 수도 있다. 이러한 프로세스는 프레임 레이트 상향 변환 (FRUC) 으로서 지칭될 수도 있다. 대안적으로 또는 부가적으로, 비디오 디코더 또는 포스트-프로세싱 디바이스는, 비디오 시퀀스를 감소된 프레임 레이트로 인코딩하기 위해 비디오 인코더에 의해 스킵되었던 하나 이상의 픽처들을 삽입하기 위해 픽처들을 보간할 수도 있다. 어느 경우이든, 비디오 디코더 또는 포스트-프로세싱 디바이스는, 비디오 디코더에 의해 수신되었던 인코딩된 비트스트림에 포함되지 않은 프레임들을 보간한다. 비디오 디코더 또는 포스트-프로세싱 디바이스는 임의의 다수의 보간 기법들을 사용하여, 예컨대, 모션 보상된 프레임 보간, 프레임 반복, 또는 프레임 평균화를 사용하여 픽처들을 보간할 수도 있다.
픽처들을 보간하기 위한 특정 기법들이 상향 변환의 목적으로 사용되었지만, 그러한 기법들은, 예컨대, 인코딩된 비트스트림에 포함된 비디오 데이터를 코딩하기 위해 비디오 코딩 동안 널리 사용되지 않았다. 예를 들어, 픽처들을 보간하기 위한 기법들은 상대적으로 시간 집약적일 수도 있고/있거나 상대적으로 많은 양의 프로세싱 전력을 요구할 수도 있다. 이에 따라, 그러한 기법들은 통상적으로, 비디오 데이터를 디코딩할 때 인-루프 (in-loop) 로 수행되지 않았다.
본 명세서에서 설명된 하나 이상의 기법들에 따르면, 모션 벡터 정보의 후보 리스트 (예컨대, 시딩 모션 벡터들) 의 각각의 모션 벡터에 대한 탐색을 수행하기 위해 외부 메모리로부터 레퍼런스 샘플들을 취출하는 대신, 비디오 디코더는, 비디오 인코더에 의해 시그널링되는 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보에 대한 탐색을 수행하기 위해 오직 외부 메모리로부터의 샘플들만을 취출할 수도 있다. 이러한 방식으로, 비디오 디코더는 탐색을 수행하기 위해 외부 메모리로부터 사용된 레퍼런스 샘플들의 양을 감소시키고, 이에 의해, 디코더측 모션 정보 도출을 수행하는데 사용된 에너지의 양을 감소시킬 수도 있다. 예를 들어, 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보를 수신하도록 그리고 시작 모션 벡터 정보를 정세하도록 비디오 디코더를 구성하는 것은 디코더측 모션 정보 도출을 수행하는데 사용된 에너지의 양을 감소시킬 수도 있다. 일부 예들에 있어서, 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 선택하도록 그리고 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보의 표시를 출력하도록 비디오 인코더를 구성하는 것은 디코더측 모션 정보 도출을 수행하는데 사용된 에너지의 양을 감소시킬 수도 있다.
본 개시에서 사용된 바와 같이, 용어 '비디오 코딩' 은 일반적으로 비디오 인코딩 또는 비디오 디코딩 중 어느 하나를 지칭한다. 유사하게, 용어 '비디오 코더' 는 일반적으로, 비디오 인코더 또는 비디오 디코더를 지칭할 수도 있다. 더욱이, 비디오 디코딩에 관하여 본 개시에서 설명된 특정 기법들은 또한 비디오 인코딩에도 적용할 수도 있고, 그 역도 성립한다. 예를 들어, 종종, 비디오 인코더들 및 비디오 디코더들은 동일한 프로세스 또는 가역적 프로세스들을 수행하도록 구성된다. 또한, 비디오 인코더들은 통상적으로, 비디오 데이터를 인코딩하는 방법을 결정하는 프로세스들의 부분으로서 비디오 디코딩을 수행한다.
도 1 은 본 개시의 FRUC 기법들을 활용할 수도 있는 예시적인 비디오 인코딩 및 디코딩 시스템 (10) 을 예시한 블록 다이어그램이다. 도 1 에 도시된 바와 같이, 시스템 (10) 은, 목적지 디바이스 (14) 에 의해 더 나중 시간에 디코딩될 인코딩된 비디오 데이터를 제공하는 소스 디바이스 (12) 를 포함한다. 특히, 소스 디바이스 (12) 는 비디오 데이터를, 컴퓨터 판독가능 매체 (16) 를 통해 목적지 디바이스 (14) 에 제공한다. 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 데스크탑 컴퓨터들, 노트북 (즉, 랩탑) 컴퓨터들, 태블릿 컴퓨터들, 셋탑 박스들, 소위 "스마트" 폰들과 같은 전화기 핸드셋들, 태블릿 컴퓨터들, 텔레비전들, 카메라들, 디스플레이 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 콘솔들, 비디오 스트리밍 디바이스 등을 포함한 광범위한 디바이스들 중 임의의 디바이스를 포함할 수도 있다. 일부 경우들에 있어서, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 무선 통신을 위해 장비될 수도 있다. 따라서, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 무선 통신 디바이스들일 수도 있다. 소스 디바이스 (12) 는 예시적인 비디오 인코딩 디바이스 (즉, 비디오 데이터를 인코딩하기 위한 디바이스) 이다. 목적지 디바이스 (14) 는 예시적인 비디오 디코딩 디바이스 (즉, 비디오 데이터를 디코딩하기 위한 디바이스) 이다.
도 1 의 예에 있어서, 소스 디바이스 (12) 는 비디오 소스 (18), 비디오 데이터를 저장하도록 구성된 저장 매체들 (19), 비디오 인코더 (20), 및 출력 인터페이스 (24) 를 포함한다. 목적지 디바이스 (14) 는 입력 인터페이스 (26), 인코딩된 비디오 데이터를 저장하도록 구성된 저장 매체들 (28), 비디오 디코더 (30), 및 디스플레이 디바이스 (32) 를 포함한다. 다른 예들에 있어서, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 다른 컴포넌트들 또는 배열들을 포함한다. 예를 들어, 소스 디바이스 (12) 는 외부 카메라와 같은 외부 비디오 소스로부터 비디오 데이터를 수신할 수도 있다. 유사하게, 목적지 디바이스 (14) 는 통합된 디스플레이 디바이스를 포함하는 것보다는 외부 디스플레이 디바이스와 인터페이싱할 수도 있다.
도 1 의 예시된 시스템 (10) 은 단지 일 예일 뿐이다. 비디오 데이터를 프로세싱하기 위한 기법들은 임의의 디지털 비디오 인코딩 및/또는 디코딩 디바이스에 의해 수행될 수도 있다. 비록 일반적으로 본 개시의 기법들이 비디오 인코딩 디바이스에 의해 수행되지만, 그 기법들은 또한, 통상적으로 "CODEC" 로서 지칭되는 비디오 인코더/디코더에 의해 수행될 수도 있다. 소스 디바이스 (12) 및 목적지 디바이스 (14) 는, 단지, 소스 디바이스 (12) 가 목적지 디바이스 (14) 로의 송신을 위한 코딩된 비디오 데이터를 생성하는 그러한 코딩 디바이스들의 예들일 뿐이다. 일부 예들에 있어서, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는, 소스 디바이스 (12) 및 목적지 디바이스 (14) 의 각각이 비디오 인코딩 및 디코딩 컴포넌트들을 포함하도록 실질적으로 대칭적인 방식으로 동작할 수도 있다. 따라서, 시스템 (10) 은 예컨대, 비디오 스트리밍, 비디오 플레이백, 비디오 브로드캐스팅, 또는 비디오 전화를 위해, 소스 디바이스 (12) 와 목적지 디바이스 (14) 간의 일방 또는 양방 비디오 송신을 지원할 수도 있다.
소스 디바이스 (12) 의 비디오 소스 (18) 는 비디오 카메라와 같은 비디오 캡처 디바이스, 이전에 캡처된 비디오를 포함하는 비디오 아카이브, 및/또는 비디오 컨텐츠 제공자로부터 비디오 데이터를 수신하기 위한 비디오 피드 인터페이스를 포함할 수도 있다. 추가의 대안으로서, 비디오 소스 (18) 는 컴퓨터 그래픽 기반 데이터를 소스 비디오로서, 또는 라이브 비디오, 아카이브된 비디오, 및 컴퓨터 생성된 비디오의 조합으로서 생성할 수도 있다. 소스 디바이스 (12) 는 비디오 데이터를 저장하도록 구성된 하나 이상의 데이터 저장 매체들 (예컨대, 저장 매체들 (19)) 을 포함할 수도 있다. 본 개시에서 설명된 기법들은 일반적으로 비디오 코딩에 적용가능할 수도 있으며, 무선 및/또는 유선 어플리케이션들에 적용될 수도 있다. 각각의 경우에 있어서, 캡처되거나 사전-캡처되거나 또는 컴퓨터 생성된 비디오는 비디오 인코더 (20) 에 의해 인코딩될 수도 있다. 출력 인터페이스 (24) 는 인코딩된 비디오 정보를 컴퓨터 판독가능 매체 (16) 에 출력할 수도 있다.
목적지 디바이스 (14) 는 디코딩될 인코딩된 비디오 데이터를 컴퓨터 판독가능 매체 (16) 를 통해 수신할 수도 있다. 컴퓨터 판독가능 매체 (16) 는 인코딩된 비디오 데이터를 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로 이동 가능한 임의의 타입의 매체 또는 디바이스를 포함할 수도 있다. 일부 예들에 있어서, 컴퓨터 판독가능 매체 (16) 는, 소스 디바이스 (12) 로 하여금 인코딩된 비디오 데이터를 직접 목적지 디바이스 (14) 로 실시간으로 송신할 수 있게 하는 통신 매체를 포함한다. 인코딩된 비디오 데이터는 무선 통신 프로토콜과 같은 통신 표준에 따라 변조되고, 목적지 디바이스 (14) 로 송신될 수도 있다. 통신 매체는 무선 주파수 (RF) 스펙트럼 또는 하나 이상의 물리적 송신 라인들과 같은 임의의 무선 또는 유선 통신 매체를 포함할 수도 있다. 통신 매체는 로컬 영역 네트워크, 광역 네트워크, 또는 인터넷과 같은 글로벌 네트워크와 같은 패킷 기반 네트워크의 부분을 형성할 수도 있다. 통신 매체는 라우터들, 스위치들, 기지국들, 또는 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로의 통신을 용이하게 하는데 유용할 수도 있는 임의의 다른 장비를 포함할 수도 있다. 목적지 디바이스 (14) 는 인코딩된 비디오 데이터 및 디코딩된 비디오 데이터를 저장하도록 구성된 하나 이상의 데이터 저장 매체들을 포함할 수도 있다.
일부 예들에 있어서, 인코딩된 데이터는 출력 인터페이스 (24) 로부터 저장 디바이스로 출력될 수도 있다. 유사하게, 인코딩된 데이터는 입력 인터페이스에 의해 저장 디바이스로부터 액세스될 수도 있다. 저장 디바이스는 하드 드라이브, 블루-레이 디스크들, DVD들, CD-ROM들, 플래시 메모리, 휘발성 또는 비휘발성 메모리, 또는 인코딩된 비디오 데이터를 저장하기 위한 임의의 다른 적합한 디지털 저장 매체들과 같은 다양한 분산된 또는 국부적으로 액세스된 데이터 저장 매체들 중 임의의 데이터 저장 매체를 포함할 수도 있다. 추가의 예에 있어서, 저장 디바이스는, 소스 디바이스 (12) 에 의해 생성된 인코딩된 비디오를 저장할 수도 있는 파일 서버 또는 다른 중간 저장 디바이스에 대응할 수도 있다. 목적지 디바이스 (14) 는 저장 디바이스로부터의 저장된 비디오 데이터에 스트리밍 또는 다운로드를 통해 액세스할 수도 있다. 파일 서버는, 인코딩된 비디오 데이터를 저장하고 그리고 그 인코딩된 비디오 데이터를 목적지 디바이스 (14) 로 송신하는 것이 가능한 임의의 타입의 서버일 수도 있다. 예시적인 파일 서버들은 웹 서버 (예컨대, 웹 사이트용), FTP 서버, 네트워크 어태치형 저장 (NAS) 디바이스들, 또는 로컬 디스크 드라이브를 포함한다. 목적지 디바이스 (14) 는 인코딩된 비디오 데이터에, 인터넷 커넥션을 포함한 임의의 표준 데이터 커넥션을 통해 액세스할 수도 있다. 이는 파일 서버 상에 저장되는 인코딩된 비디오 데이터에 액세스하기에 적합한 무선 채널 (예컨대, Wi-Fi 커넥션), 유선 커넥션 (예컨대, DSL, 케이블 모뎀 등), 또는 이들 양자의 조합을 포함할 수도 있다. 인코딩된 비디오 데이터의 저장 디바이스로부터의 송신은 스트리밍 송신, 다운로드 송신, 또는 이들의 조합일 수도 있다.
그 기법들은, 공중 경유 (over-the-air) 텔레비전 브로드캐스트들, 케이블 텔레비전 송신들, 위성 텔레비전 송신들, DASH (dynamic adaptive streaming over HTTP) 와 같은 인터넷 스트리밍 비디오 송신들, 데이터 저장 매체 상으로 인코딩된 디지털 비디오, 데이터 저장 매체 상에 저장된 디지털 비디오의 디코딩, 또는 다른 어플리케이션들과 같은 다양한 멀티미디어 어플리케이션들 중 임의의 멀티미디어 어플리케이션의 지원으로 비디오 코딩에 적용될 수도 있다. 일부 예들에 있어서, 시스템 (10) 은 비디오 스트리밍, 비디오 플레이백, 비디오 브로드캐스팅, 및/또는 비디오 전화와 같은 어플리케이션들을 지원하기 위해 일방 또는 양방 비디오 송신을 지원하도록 구성될 수도 있다.
컴퓨터 판독가능 매체 (16) 는 무선 브로드캐스트 또는 유선 네트워크 송신과 같은 일시적인 매체들, 또는 하드 디스크, 플래시 드라이브, 컴팩트 디스크, 디지털 비디오 디스크, 블루-레이 디스크, 또는 다른 컴퓨터 판독가능 매체들과 같은 저장 매체들 (즉, 비-일시적인 저장 매체들) 을 포함할 수도 있다. 일부 예들에 있어서, 네트워크 서버 (도시 안됨) 는 인코딩된 비디오 데이터를 소스 디바이스 (12) 로부터 수신하고, 인코딩된 비디오 데이터를, 예컨대, 네트워크 송신을 통해 목적지 디바이스 (14) 에 제공할 수도 있다. 유사하게, 디스크 스탬핑 설비와 같은 매체 생성 설비의 컴퓨팅 디바이스는 인코딩된 비디오 데이터를 소스 디바이스 (12) 로부터 수신하고, 인코딩된 비디오 데이터를 포함하는 디스크를 생성할 수도 있다. 따라서, 컴퓨터 판독가능 매체 (16) 는, 다양한 예들에 있어서, 다양한 형태들의 하나 이상의 컴퓨터 판독가능 매체들을 포함하도록 이해될 수도 있다.
목적지 디바이스 (14) 의 입력 인터페이스 (26) 는 컴퓨터 판독가능 매체 (16) 로부터 정보를 수신한다. 컴퓨터 판독가능 매체 (16) 의 정보는 비디오 인코더 (20) 의 비디오 인코더 (20) 에 의해 정의되고 또한 비디오 디코더 (30) 에 의해 이용되는 신택스 정보를 포함할 수도 있으며, 이 신택스 정보는 블록들 및 다른 코딩된 유닛들, 예컨대, 픽처들의 그룹들 (GOP들) 의 특성들 및/또는 프로세싱을 기술하는 신택스 엘리먼트들을 포함한다. 저장 매체들 (28) 은 입력 인터페이스 (26) 에 의해 수신된 인코딩된 비디오 데이터 (예컨대, 비트스트림) 와 같은 인코딩된 비디오 데이터를 저장하도록 구성될 수도 있다. 디스플레이 디바이스 (32) 는 디코딩된 비디오 데이터를 사용자에게 디스플레이하며, 음극선관 (CRT), 액정 디스플레이 (LCD), 플라즈마 디스플레이, 유기 발광 다이오드 (OLED) 디스플레이, 또는 다른 타입의 디스플레이 디바이스와 같은 다양한 디스플레이 디바이스들 중 임의의 디바이스를 포함할 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들 (DSP들), 주문형 집적회로들 (ASIC들), 필드 프로그래밍가능 게이트 어레이들 (FPGA들), 이산 로직, 소프트웨어, 하드웨어, 펌웨어 또는 이들의 임의의 조합들과 같은 다양한 적합한 인코더 회로부 중 임의의 회로부로서 구현될 수도 있다. 기법들이 부분적으로 소프트웨어로 구현될 경우, 디바이스는 적합한 비일시적인 컴퓨터 판독가능 매체에 소프트웨어에 대한 명령들을 저장하고, 본 개시의 기법들을 수행하기 위해 하나 이상의 프로세서들을 사용하는 하드웨어에서 명령들을 실행할 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 의 각각은 하나 이상의 인코더들 또는 디코더들에 포함될 수도 있으며, 이들 중 어느 하나는 개별 디바이스에 있어서 결합된 인코더/디코더 (CODEC) 의 부분으로서 통합될 수도 있다.
일부 예들에 있어서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 기존의 또는 미래의 표준과 같은 비디오 코딩 표준에 따라 동작할 수도 있다. 예시적인 비디오 코딩 표준들은, 그 스케일러블 비디오 코딩 (SVC) 및 멀티-뷰 비디오 코딩 (MVC) 확장들을 포함하여, ITU-T H.261, ISO/IEC MPEG-1 비주얼, ITU-T H.262 또는 ISO/IEC MPEG-2 비주얼, ITU-T H.263, ISO/IEC MPEG-4 비주얼 및 ITU-T H.264 (ISO/IEC MPEG-4 AVC 로서도 또한 공지됨) 를 포함하지만 이에 한정되지 않는다. 부가적으로, 새로운 비디오 코딩 표준, 즉, 그 범위 및 스크린 컨텐츠 코딩 확장들, 3D 비디오 코딩 (3D-HEVC) 및 멀티뷰 확장들 (MV-HEVC) 및 스케일러블 확장 (SHVC) 을 포함한 고효율 비디오 코딩 (HEVC) 또는 ITU-T H.265 가 최근, ISO/IEC 모션 픽처 전문가 그룹 (MPEG) 및 ITU-T 비디오 코딩 전문가 그룹 (VCEG) 의 JCT-3V (Joint Collaboration Team on 3D Video Coding Extension Development) 뿐 아니라 JCT-VC (Joint Collaboration Team on Video Coding) 에 의해 개발되었다.
HEVC 및 다른 비디오 코딩 사양들에 있어서, 비디오 시퀀스는 통상적으로 픽처들의 시리즈를 포함한다. 픽처들은 또한 "프레임들" 로서 지칭될 수도 있다. 픽처는 SL, SCb, 및 SCr 로 표기된 3개의 샘플 어레이들을 포함할 수도 있다. SL 은 루마 샘플들의 2차원 어레이 (즉, 블록) 이다. SCb 는 Cb 크로미넌스 샘플들의 2차원 어레이이다. SCr 은 Cr 크로미넌스 샘플들의 2차원 어레이이다. 크로미넌스 샘플들은 또한, 본 명세서에서 "크로마" 샘플들로서 지칭될 수도 있다. 다른 사례들에 있어서, 픽처는 단색 (monochrome) 일 수도 있고, 오직 루마 샘플들의 어레이만을 포함할 수도 있다.
픽처의 인코딩된 표현을 생성하기 위해, 비디오 인코더 (20) 는 비디오 데이터의 픽처의 블록들을 인코딩할 수도 있다. 비디오 인코더 (20) 는 비디오 블록의 인코딩된 표현을 비트스트림에 포함할 수도 있다. 예를 들어, HEVC 에 있어서, 픽처의 인코딩된 표현을 생성하기 위해, 비디오 인코더 (20) 는 코딩 트리 유닛들 (CTU들) 의 세트를 생성할 수도 있다. CTU들의 각각은 하나 이상의 코딩 트리 블록들 (CTB들) 을 포함할 수도 있고, 하나 이상의 코딩 트리 블록들의 샘플들을 코딩하는데 사용된 신택스 구조들을 포함할 수도 있다. 예를 들어, CTU 각각은 루마 샘플들의 코딩 트리 블록, 크로마 샘플들의 2개의 대응하는 코딩 트리 블록들, 및 코딩 트리 블록들의 샘플들을 코딩하는데 사용된 신택스 구조들을 포함할 수도 있다. 단색 픽처들 또는 3개의 별도의 컬러 평면들을 갖는 픽처들에 있어서, CTU 는 단일의 코딩 트리 블록, 및 그 코딩 트리 블록의 샘플들을 코딩하는데 사용된 신택스 구조들을 포함할 수도 있다. 코딩 트리 블록은 샘플들의 NxN 블록일 수도 있다. CTU 는 또한 "트리 블록" 또는 "최대 코딩 유닛" (LCU) 로서 지칭될 수도 있다. 신택스 구조는 명시된 순서로 비트스트림에 함께 존재하는 0 이상의 신택스 엘리먼트들로서 정의될 수도 있다. CTB 의 사이즈는 HEVC 메인 프로파일에서 (기술적으로 8x8 CTB 사이즈들이 지원될 수 있더라도) 16x16 으로부터 64x64 까지의 범위일 수 있다.
HEVC 에 있어서, 슬라이스는 래스터 스캔 순서에 있어서 연속적으로 순서화된 정수 개수의 CTU들을 포함한다. 따라서, HEVC 에 있어서, 슬라이스에서의 최대 코딩 유닛은 코딩 트리 블록 (CTB) 으로 지칭된다.
HEVC 에 있어서, 픽처의 코딩된 CTU 를 생성하기 위해, 비디오 인코더 (20) 는 CTU 의 코딩 트리 블록들에 대해 쿼드 트리 파티셔닝을 재귀적으로 수행하여, 코딩 트리 블록들을 코딩 블록들, 따라서, 명칭 "코딩 트리 유닛들" 로 분할할 수도 있다. 코딩 블록은 샘플들의 NxN 블록이다. 코딩 유닛 (CU) 은 하나 이상의 코딩 블록들 및 하나 이상의 코딩 블록들의 샘플들을 코딩하는데 사용된 신택스 구조들을 포함할 수도 있다. 예를 들어, CU 는 루마 샘플 어레이, Cb 샘플 어레이, 및 Cr 샘플 어레이를 갖는 픽처의 루마 샘플들의 코딩 블록, 및 크로마 샘플들의 2개의 대응하는 코딩 블록들, 그리고 코딩 블록들의 샘플들을 코딩하는데 사용된 신택스 구조들을 포함할 수도 있다. 단색 픽처들 또는 3개의 별도의 컬러 평면들을 갖는 픽처들에 있어서, CU 는 단일의 코딩 블록, 및 그 코딩 블록의 샘플들을 코딩하는데 사용된 신택스 구조들을 포함할 수도 있다. 따라서, CTB 는 쿼드-트리를 포함할 수도 있고, 그 노드들은 CU들이다.
더욱이, 비디오 인코더 (20) 는 CU 를 인코딩할 수도 있다. 예를 들어, CU 를 인코딩하기 위해, 비디오 인코더 (20) 는 CU 의 코딩 블록을 하나 이상의 예측 블록들로 파티셔닝할 수도 있다. 예측 블록은, 동일한 예측이 적용되는 샘플들의 직사각형 (즉, 정사각형 또는 비-정사각형) 블록이다. CU 의 예측 유닛 (PU) 은 CU 의 하나 이상의 예측 블록들, 및 하나 이상의 예측 블록들을 예측하는데 사용된 신택스 구조들을 포함할 수도 있다. 예를 들어, PU 는 루마 샘플들의 예측 블록, 크로마 샘플들의 2개의 대응하는 예측 블록들, 및 예측 블록들을 예측하는데 사용된 신택스 구조들을 포함할 수도 있다. 단색 픽처들 또는 3개의 별도의 컬러 평면들을 갖는 픽처들에 있어서, PU 는 단일의 예측 블록, 및 그 예측 블록을 예측하는데 사용된 신택스 구조들을 포함할 수도 있다. 비디오 인코더 (20) 는 CU 의 각각의 PU 의 예측 블록들 (예컨대, 루마, Cb, 및 Cr 예측 블록들) 에 대한 예측 블록들 (예컨대, 루마, Cb, 및 Cr 예측 블록들) 을 생성할 수도 있다.
HEVC 에 있어서, 각각의 CU 는, 인트라 모드 또는 인터 모드일 수 있는 하나의 모드로 코딩된다. CU 가 인터 코딩될 경우 (즉, 인터 모드가 적용될 경우), CU 는 2 또는 4개의 PU들로 추가로 파티셔닝되거나, 또는 추가의 파티션이 적용되지 않을 경우 단지 하나의 PU 가 될 수도 있다. 2개의 PU들이 하나의 CU 에 존재할 경우, 2개의 PU들은 하프 사이즈 직사각형들 또는 CU 의 ¼ 또는 ¾ 사이즈인 2개의 직사각형 사이즈들일 수 있다. 인터 예측 모드로 코딩된 CU 에 대한 8개의 파티션 모드들, 즉, 도 3 에 도시된 바와 같이, PART_2Nx2N, PART_2NxN, PART_Nx2N, PART_NxN, PART_2NxnU, PART_2NxnD, PART_nLx2N 및 PART_nRx2N 이 존재한다.
CU 가 인터 코딩될 경우, 모션 정보의 하나의 세트가 각각의 PU 에 대해 존재한다. 부가적으로, 각각의 PU 는 모션 정보의 세트를 도출하기 위해 고유한 인터-예측 모드로 코딩된다. 비디오 인코더 (20) 가 인트라 예측을 이용하여 PU 의 예측 블록들을 생성하면, 비디오 인코더 (20) 는 PU 를 포함하는 픽처의 디코딩된 샘플들에 기초하여 PU 의 예측 블록들을 생성할 수도 있다. CU 가 인트라 코딩될 경우, 2Nx2N 및 NxN 이 유일한 허용가능한 PU 형상들이고, 각각의 PU 내에서, (크로마 예측 모드가 CU 레벨에서 시그널링되는 동안) 단일의 인트라 예측 모드가 코딩된다. NxN 인트라 PU 형상들은 오직, 현재 CU 사이즈가 시퀀스 파라미터 세트 (SPS) 에서 정의된 최소 CU 사이즈와 동일한 경우에만 허용된다.
비디오 인코더 (20) 는 CU 에 대한 하나 이상의 잔차 블록들을 생성할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 CU 에 대한 루마 잔차 블록을 생성할 수도 있다. CU 의 루마 잔차 블록에서의 각각의 샘플은 CU 의 예측 루마 블록들 중 하나에서의 루마 샘플과 CU 의 오리지널 루마 코딩 블록에서의 대응하는 샘플 간의 차이를 표시한다. 부가적으로, 비디오 인코더 (20) 는 CU 에 대한 Cb 잔차 블록을 생성할 수도 있다. CU 의 Cb 잔차 블록에서의 각각의 샘플은 CU 의 예측 Cb 블록들 중 하나에서의 Cb 샘플과 CU 의 오리지널 Cb 코딩 블록에서의 대응하는 샘플 간의 차이를 표시할 수도 있다. 비디오 인코더 (20) 는 또한, CU 에 대한 Cr 잔차 블록을 생성할 수도 있다. CU 의 Cr 잔차 블록에서의 각각의 샘플은 CU 의 예측 Cr 블록들 중 하나에서의 Cr 샘플과 CU 의 오리지널 Cr 코딩 블록에서의 대응하는 샘플 간의 차이를 표시할 수도 있다.
더욱이, 비디오 인코더 (20) 는 CU 의 잔차 블록들을 하나 이상의 변환 블록들로 분해할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 쿼드-트리 파티셔닝을 이용하여, CU 의 잔차 블록들을 하나 이상의 변환 블록들로 분해할 수도 있다. 변환 블록은, 동일한 변환이 적용되는 샘플들의 직사각형 (예컨대, 정사각형 또는 비-정사각형) 블록이다. CU 의 변환 유닛 (TU) 은 하나 이상의 변환 블록들을 포함할 수도 있다. 예를 들어, TU 는 루마 샘플들의 변환 블록, 크로마 샘플들의 2개의 대응하는 변환 블록들, 및 변환 블록 샘플들을 변환하는데 사용된 신택스 구조들을 포함할 수도 있다. 따라서, CU 의 각각의 TU 는 루마 변환 블록, Cb 변환 블록, 및 Cr 변환 블록을 가질 수도 있다. TU 의 루마 변환 블록은 CU 의 루마 잔차 블록의 서브-블록일 수도 있다. Cb 변환 블록은 CU 의 Cb 잔차 블록의 서브-블록일 수도 있다. Cr 변환 블록은 CU 의 Cr 잔차 블록의 서브-블록일 수도 있다. 단색 픽처들 또는 3개의 별도의 컬러 평면들을 갖는 픽처들에 있어서, TU 는 단일의 변환 블록, 및 그 변환 블록의 샘플들을 변환하는데 사용된 신택스 구조들을 포함할 수도 있다.
비디오 인코더 (20) 는 TU 의 변환 블록에 하나 이상의 변환들을 적용하여 TU 에 대한 계수 블록을 생성할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 TU 의 루마 변환 블록에 하나 이상의 변환들을 적용하여 TU 에 대한 루마 계수 블록을 생성할 수도 있다. 계수 블록은 변환 계수들의 2차원 어레이일 수도 있다. 변환 계수는 스칼라량일 수도 있다. 비디오 인코더 (20) 는 TU 의 Cb 변환 블록에 하나 이상의 변환들을 적용하여 TU 에 대한 Cb 계수 블록을 생성할 수도 있다. 비디오 인코더 (20) 는 TU 의 Cr 변환 블록에 하나 이상의 변환들을 적용하여 TU 에 대한 Cr 계수 블록을 생성할 수도 있다.
일부 예들에 있어서, 비디오 인코더 (20) 는 변환 블록으로의 변환들의 적용을 스킵한다. 그러한 예들에 있어서, 비디오 인코더 (20) 는, 잔차 샘플 값들이 변환 계수들과 동일한 방식으로 처리될 수 있게 처리할 수도 있다. 따라서, 비디오 인코더 (20) 가 변환들의 적용을 스킵하는 예들에 있어서, 변환 계수들 및 계수 블록들의 다음의 논의가 잔차 샘플들의 변환 블록들에 적용가능할 수도 있다.
계수 블록을 생성한 이후, 비디오 인코더 (20) 는 계수 블록을 양자화할 수도 있다. 양자화는 일반적으로, 변환 계수들이 그 변환 계수들을 나타내는데 사용되는 데이터의 양을 가능하게는 감소시키도록 양자화되어 추가 압축을 제공하는 프로세스를 지칭한다. 일부 예들에 있어서, 비디오 인코더 (20) 는 양자화를 스킵한다. 비디오 인코더 (20) 가 계수 블록을 양자화한 이후, 비디오 인코더 (20) 는 양자화된 변환 계수들을 표시하는 신택스 엘리먼트들을 생성할 수도 있다. 비디오 인코더 (20) 는 양자화된 변환 계수들을 표시하는 신택스 엘리먼트들 중 하나 이상을 엔트로피 인코딩할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 양자화된 변환 계수들을 표시하는 신택스 엘리먼트들에 대해 컨텍스트-적응 바이너리 산술 코딩 (CABAC) 을 수행할 수도 있다.
비디오 인코더 (20) 는, 인코딩된 비디오 데이터를 포함하는 비트스트림을 출력할 수도 있다. 예를 들어, 비트스트림은 비디오 데이터의 코딩된 픽처들의 표현 및 관련 데이터를 형성하는 비트들의 시퀀스를 포함할 수도 있다. 따라서, 비트스트림은 비디오 데이터의 인코딩된 표현을 포함할 수도 있다. 일부 예들에 있어서, 코딩된 픽처의 표현은 블록들의 인코딩된 표현들을 포함할 수도 있다. 따라서, 비디오 인코더 (20) 는 블록의 인코딩된 표현에서 블록의 변환 계수들을 비트스트림으로 시그널링할 수도 있다. 일부 사례들에 있어서, 비디오 인코더 (20) 는 블록의 각각의 변환 계수를 시그널링하기 위해 하나 이상의 신택스 엘리먼트들을 사용할 수도 있다.
비트스트림은 네트워크 추상화 계층 (NAL) 유닛들의 시퀀스를 포함할 수도 있다. NAL 유닛은, NAL 유닛에서의 데이터의 타입의 표시, 및 필요에 따라 에뮬레이션 방지 비트들로 산재된 원시 바이트 시퀀스 페이로드 (RBSP) 의 형태로 그 데이터를 포함하는 바이트들을 포함하는 신택스 구조이다. NAL 유닛들의 각각은 NAL 유닛 헤더를 포함할 수도 있고 RBSP 를 캡슐화한다. NAL 유닛 헤더는, NAL 유닛 타입 코드를 표시하는 신택스 엘리먼트를 포함할 수도 있다. NAL 유닛의 NAL 유닛 헤더에 의해 명시된 NAL 유닛 타입 코드는 NAL 유닛의 타입을 표시한다. RBSP 는, NAL 유닛 내에서 캡슐화되는 정수 개수의 바이트들을 포함하는 신택스 구조일 수도 있다. 일부 사례들에 있어서, RBSP 는 제로 비트들을 포함한다.
비디오 디코더 (30) 는 비디오 인코더 (20) 에 의해 생성된 비트스트림을 수신할 수도 있다. 부가적으로, 비디오 디코더 (30) 는 비트스트림을 파싱하여, 비트스트림으로부터 신택스 엘리먼트들을 획득할 수도 있다. 비디오 디코더 (30) 는 비트스트림으로부터 획득된 신택스 엘리먼트들에 적어도 부분적으로 기초하여 비디오 데이터의 픽처들을 복원할 수도 있다. 비디오 데이터를 복원하기 위한 프로세스는 일반적으로, 비디오 인코더 (20) 에 의해 수행된 프로세스에 역일 수도 있다. 예를 들어, 비디오 디코더 (30) 는 PU들의 모션 벡터들을 이용하여 현재 CU 의 PU들에 대한 예측 블록들을 결정할 수도 있다. 부가적으로, 비디오 디코더 (30) 는 현재 CU 의 TU들의 계수 블록들을 역양자화할 수도 있다. 비디오 디코더 (30) 는 계수 블록들에 대해 역변환들을 수행하여 현재 CU 의 TU들의 변환 블록들을 복원할 수도 있다. 비디오 디코더 (30) 는 현재 CU 의 PU들에 대한 예측 블록들의 샘플들을, 현재 CU 의 TU들의 변환 블록들의 대응하는 샘플들에 부가함으로써, 현재 CU 의 코딩 블록들을 복원할 수도 있다. 픽처의 각각의 CU 에 대한 코딩 블록들을 복원함으로써, 비디오 디코더 (30) 는 픽처를 복원할 수도 있다.
2016년에 있어서, MPEG 및 ITU-T VCEG 는 차세대의 비디오 코딩 표준을 위한 새로운 코딩 툴들을 탐구하기 위해 공동 탐구 비디오 팀 (JVET) 을 형성했다. 레퍼런스 소프트웨어는 공동 탐구 모델 (JEM) 로 지칭된다. 각각의 블록에 대해, 모션 정보의 세트가 이용가능할 수 있다. 모션 정보의 세트는 순방향 및 역방향 예측 방향들에 대한 모션 정보를 포함한다. 여기서, 순방향 및 역방향 예측 방향들은 양방향 예측 모드의 2개의 예측 방향들이고, 용어들 "순방향" 및 "역방향" 은 반드시 기하학적 의미를 가질 필요는 없으며, 대신, 그 용어들은 현재 픽처의 레퍼런스 픽처 리스트 0 (RefPicList0) 및 레퍼런스 픽처 리스트 1 (RefPicList1) 에 대응한다. 오직 하나의 레퍼런스 픽처 리스트가 픽처 또는 슬라이스에 이용가능할 경우, 오직 RefPicList0 만이 이용가능하고 슬라이스의 각각의 블록의 모션 정보는 항상 순방향이다.
일부 경우들에 있어서, 그 레퍼런스 인덱스와 함께 모션 벡터가 디코딩 프로세스들에서 사용되며, 관련 레퍼런스 인덱스를 갖는 그러한 모션 벡터는 모션 정보의 단일 예측 세트로서 표기된다. 일부 시스템들에 있어서, 각각의 예측 방향에 대해, 모션 정보는 레퍼런스 인덱스 및 모션 벡터를 포함해야 한다. 일부 경우들에 있어서, 단순화를 위해, 모션 벡터 자체는, 모션 벡터가 관련 레퍼런스 인덱스를 갖는 것으로 가정되는 방식으로 참조될 수도 있다. 레퍼런스 인덱스는 현재 레퍼런스 픽처 리스트 (RefPicList0 또는 RefPicList1) 에서의 레퍼런스 픽처를 식별하는데 사용된다. 모션 벡터는 수평 및 수직 컴포넌트를 갖는다.
픽처 순서 카운트 (POC) 는 픽처의 디스플레이 순서를 식별하기 위해 비디오 코딩 표준들에서 널리 사용된다. 하나의 코딩된 비디오 시퀀스 내의 2개의 픽처들이 동일한 POC 값을 가질 수도 있는 경우들이 존재하더라도, 이는 코딩된 비디오 시퀀스 내에서는 통상적으로 일어나지 않는다. 다중의 코딩된 비디오 시퀀스들이 비트스트림에 존재할 경우, POC 의 동일한 값을 갖는 픽처들은 디코딩 순서의 관점에서 서로 더 근접할 수도 있다. 픽처들의 POC 값들은 레퍼런스 픽처 리스트 구성, HEVC 에서와 같은 레퍼런스 픽처 세트의 도출, 및 모션 벡터 스케일링을 위해 사용될 수도 있다.
H.264/AVC 에 있어서, 각각의 인터 매크로블록 (MB) 은 4개의 상이한 방식들: 즉, 하나의 16x16 MB 파티션; 2개의 16x8 MB 파티션들; 2개의 8x16 MB 파티션들; 또는 4개의 8x8 MB 파티션들로 파티셔닝될 수도 있다. 하나의 MB 에서의 상이한 MB 파티션들은 각각의 방향에 대해 상이한 레퍼런스 인덱스 값들 (RefPicList0 또는 RefPicList1) 을 가질 수도 있다. MB 가 4개의 8x8 MB 파티션들로 파티셔닝되지 않을 경우, MB 는 각각의 방향에서 각각의 MB 파티션에 대해 오직 하나의 모션 벡터만을 가질 수도 있다.
H.264/AVC 에 있어서, MB 가 4개의 8x8 MB 파티션들로 파티셔닝될 경우, 각각의 8x8 MB 파티션은 서브-블록들로 추가로 파티셔닝될 수 있으며, 이 서브-블록들의 각각은 각각의 방향에서 상이한 모션 벡터를 가질 수 있다. 8x8 MB 파티션으로부터 서브-블록들을 얻기 위한 4개의 상이한 방식들이 존재한다: 즉, 하나의 8x8 서브-블록; 2개의 8x4 서브-블록들; 2개의 4x8 서브-블록들; 또는 4개의 4x4 서브-블록들. 각각의 서브-블록은 각각의 방향에서 상이한 모션 벡터를 가질 수 있다. 따라서, 모션 벡터는 서브-블록과 같거나 더 높은 레벨에 존재한다.
AVC 에 있어서, 시간 직접 모드는, B 슬라이스들에서 스킵 또는 직접 모드에 대해 MB 또는 MB 파티션 레벨 중 어느 하나에서 인에이블될 수 있었다. 각각의 MB 파티션에 대해, 현재 블록의 RefPicList1[0] 에서의 현재 MB 파티션과 병치된 블록의 모션 벡터들이 모션 벡터들을 도출하는데 사용된다. 병치된 블록에서의 각각의 모션 벡터는 POC 거리들에 기초하여 스케일링될 수도 있다. AVC 에 있어서, 직접 모드는 또한, 공간 이웃들로부터의 모션 정보를 예측할 수 있다.
HEVC 에 있어서, 슬라이스에서의 최대 코딩 유닛은 코딩 트리 블록 (CTB) 으로 지칭된다. CTB 는 쿼드-트리를 포함하고, 그 노드들은 코딩 유닛들이다. CTB 의 사이즈는 HEVC 메인 프로파일에서 (기술적으로 8x8 CTB 사이즈들이 지원될 수 있더라도) 16x16 으로부터 64x64 까지의 범위들일 수 있다. 코딩 유닛 (CU) 은, 비록 8x8 만큼 작을 수 있지만 CTB 의 동일한 사이즈일 수 있다. 각각의 코딩 유닛은 하나의 모드 (인트라 모드 또는 인터 모드 중 어느 하나) 로 코딩된다. CU 가 인터 코딩될 경우, CU 는 2 또는 4개의 예측 유닛들 (PU들) 로 추가로 파티셔닝되거나, 또는 추가의 파티션이 적용되지 않을 경우 단지 하나의 PU 가 될 수도 있다. 2개의 PU들이 하나의 CU 에 존재할 경우, 2개의 PU들은 하프 사이즈 직사각형들 또는 CU 의 ¼ 또는 ¾ 사이즈인 2개의 직사각형 사이즈일 수 있다.
CU 가 인터 코딩될 경우, 모션 정보의 하나의 세트가 각각의 PU 에 대해 존재한다. 부가적으로, 각각의 PU 는 모션 정보의 세트를 도출하기 위해 고유한 인터-예측 모드로 코딩된다.
HEVC 표준에 있어서, 2개의 인터 예측 모드들, 즉, 예측 유닛 (PU) 에 대해 각각 병합 (스킵은 병합의 특별 케이스로서 고려됨) 및 어드밴스드 모션 벡터 예측 (AMVP) 모드들이 존재한다.
AMVP 모드 또는 병합 모드 중 어느 하나에서, 모션 벡터 (MV) 후보 리스트가 다중의 모션 벡터 예측기들에 대해 유지된다. 현재 PU 의 병합 모드에서의 레퍼런스 인덱스들 뿐 아니라 모션 벡터(들)가 MV 후보 리스트로부터 하나의 후보를 취함으로써 생성된다.
MV 후보 리스트는 병합 모드에 대한 5개까지의 후보들 및 AMVP 모드에 대한 오직 2개의 후보들을 포함한다. 병합 후보는 모션 정보의 세트, 예컨대, 레퍼런스 픽처 리스트들 (리스트 0 및 리스트 1) 및 레퍼런스 인덱스들 양자 모두에 대응하는 모션 벡터들을 포함할 수 있다. 병합 후보가 병합 인덱스에 의해 식별되면, 레퍼런스 픽처들은 현재 블록들의 예측을 위해 사용될 뿐 아니라 관련 모션 벡터들이 결정된다. 하지만, AMVP 모드 하에서, 리스트 0 또는 리스트 1 중 어느 하나로부터의 각각의 잠재적 예측 방향에 대해, AMVP 후보가 오직 모션 벡터만을 포함하기 때문에, MV 후보 리스트에 대한 MVP 인덱스와 함께, 레퍼런스 인덱스가 명시적으로 시그널링될 필요가 있다. AMVP 모드에 있어서, 예측 모션 벡터들은 더 정세될 수 있다.
병합 후보는 모션 정보의 전체 세트에 대응할 수도 있는 한편, AMVP 후보는 특정 예측 방향 및 레퍼런스 인덱스에 대해 단지 하나의 모션 벡터를 포함한다. 양자 모두의 모드들에 대한 후보들은 동일한 공간 및 시간 이웃 블록들로부터 유사하게 도출된다. 공간 MV 후보들이 특정 PU (PU0) 에 대해 도 2a 및 도 2b 에 도시된 이웃 블록들로부터 도출되지만, 블록들로부터 후보들을 생성하는 기법들은 병합 및 AMVP 모드들에 대해 상이하다.
도 2a 및 도 2b 는 HEVC 에서의 공간 이웃 후보들을 예시한 개념 다이어그램들이다. 일부 예들에 있어서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 PU0 에 대한 이웃 블록 0, 이웃 블록 1, 이웃 블록 2, 이웃 블록 3 또는 이웃 블록 4 로부터 공간 모션 벡터 (MV) 후보들을 도출할 수도 있다.
일부 사례들에 있어서, 블록들로부터 MV 후보들을 생성하기 위한 기법들은 병합 및 AMVP 모드들에 대해 상이하다. 도 2a 는 병합 모드에 대한 일 예를 예시한다. 예를 들어, HEVC 에 있어서, (예컨대, 도 1 의 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 와 같은) 비디오 코더는 4개까지의 공간 MV 후보들을 도출할 수도 있다. 후보들은 특정 순서를 갖는 후보 리스트에 포함될 수도 있다. 일 예에 있어서, 도 2a 의 예에 대한 순서는 이웃 블록 0 (A1), 이웃 블록 1 (B1), 이웃 블록 2 (B0), 이웃 블록 3 (A0) 및 이웃 블록 4 (B2) 일 수도 있다.
도 2b 는 AMVP 모드에 대한 일 예를 예시한다. 예를 들어, HEVC 에 있어서, 비디오 코더는 이웃 블록들을 2개의 그룹들: 즉, 이웃 블록 0 및 이웃 블록 1 을 포함한 좌측 그룹, 및 이웃 블록 2, 이웃 블록 3, 및 이웃 블록 4 를 포함한 상측 그룹으로 분할할 수도 있다. 각각의 그룹에 대해, (현재 코딩되는 블록에 대한) 시그널링된 레퍼런스 인덱스에 의해 표시된 것과 동일한 레퍼런스 픽처를 참조하는 이웃 블록과 연관된 잠재적인 모션 벡터 후보가 그룹의 최종 후보를 형성하도록 선택될 최고 우선순위를 가질 수도 있다. 이웃 블록 중 어느 블록도 동일한 레퍼런스 픽처를 포인팅하는 모션 벡터를 포함하지 않는 것이 가능하다. 따라서, 그러한 후보가 발견될 수 없으면, 비디오 코더는 최종 후보를 형성하기 위해 제 1 이용가능 후보를 스케일링할 수도 있고, 따라서, 시간 거리 차이들이 보상될 수도 있다.
본 개시의 양태들에 따르면, 도 2a 및 도 2b 에 도시된 이웃 블록들과 연관된 모션 벡터들과 같은 모션 벡터 후보들이 블록에 대한 모션 벡터를 도출하는데 사용될 수도 있다. 예를 들어, 비디오 코더는 도 2a 및 2b 에 도시된 이웃 블록들로부터 모션 벡터 후보들을 포함하는 후보 리스트 (예컨대, 모션 벡터 정보의 후보 리스트) 를 생성할 수도 있다. 이 예에 있어서, 비디오 코더는 후보 리스트의 후보들 중 하나 이상을, 모션 정보 도출 프로세스 (예컨대, 양측성 매칭, 템플릿 매칭 등) 에서의 초기 모션 벡터 (예컨대, 시작 모션 벡터 정보) 로서 사용할 수도 있다. 비디오 코더는 레퍼런스 데이터를 식별하기 위해 모션 벡터 도출 프로세스의 모션 탐색에서 모션 벡터 후보들 중 하나 이상을 적용할 수도 있다. 비디오 코더는 근접하게 매칭하는 레퍼런스 데이터를 식별하는 후보를 리스트로부터 선택할 수도 있다. 예를 들어, 비디오 코더는, 현재 블록 외부의 레퍼런스 데이터의 제 2 세트에 대응하는 레퍼런스 데이터의 제 1 세트에 대한 모션 탐색을 수행할 수도 있다. 비디오 코더는, 일부 사례들에 있어서, 모션 정보 도출 프로세스를 사용하여 도출된 모션 벡터를 결정하기 위해, 예컨대, 선택된 후보에 의해 표시된 영역에서 추가적인 모션 탐색을 수행함으로써, 후보를 더 정세할 수도 있다.
도 3a 및 도 3b 는 HEVC 에서의 시간 모션 벡터 예측을 예시한 개념 다이어그램들이다. 시간 모션 벡터 예측기 (TMVP) 후보는, 인에이블되고 이용가능하다면, 공간 모션 벡터 후보들 이후에 MV 후보 리스트에 추가된다. HEVC 에 있어서, TMVP 후보에 대한 모션 벡터 도출의 프로세스는 병합 및 AMVP 모드들 양자 모두에 대해 동일하지만, 병합 모드에서 TMVP 후보에 대한 타겟 레퍼런스 인덱스는 통상적으로 제로로 설정된다.
도 3a 는 병치된 PU 외부의 우하측 블록인 TMVP 후보에 대한 프라이머리 블록 위치 (블록 "T" 로서 도시됨) 를 예시한다. 그 위치는 공간 이웃 후보들을 생성하는데 사용된 상측 및 좌측 블록들에 대한 바이어스를 보상할 수도 있다. 하지만, 블록 (T) 이 현재 CTB 행의 외부에 위치되거나 또는 모션 정보가 이용가능하지 않으면, 블록은, 도 3a 에서 블록 (T) 으로부터 점선 화살표들에 의해 예시된 바와 같은 PU 의 중심 블록으로 대체된다.
도 3b 는, 슬라이스 레벨에서 (예컨대, 슬라이스 헤더에서) 표시된 바와 같이, 병치된 픽처 (92) 의 병치된 PU (90) 로부터의 현재 픽처 (88) 의 현재 블록 (86) 에 대한 TMVP 후보 (84) 를 도출하는 것을 예시한다. AVC 에서의 시간 직접 모드와 유사하게, TMVP 후보의 모션 벡터는, 거리 차이들, 예컨대, 픽처들 사이의 시간 거리들을 보상하도록 수행되는 모션 벡터 스케일링을 당할 수도 있다. 모션 벡터 스케일링에 관하여, (비디오 인코더 (20) 및/또는 비디오 디코더 (30) 와 같은) 비디오 코더는 모션 벡터들의 값이 프리젠테이션 시간에서 픽처들의 거리에 비례함을 초기에 결정하도록 구성될 수도 있다. 모션 벡터는 2개의 픽처들, 즉, 레퍼런스 픽처 및 모션 벡터를 포함하는 픽처 (즉, 포함 픽처) 를 연관시킨다. 모션 벡터가 다른 모션 벡터를 예측하는데 활용될 경우, 포함 픽처와 레퍼런스 픽처의 거리는 POC 값들에 기초하여 계산된다.
예측될 모션 벡터에 대해, 모션 벡터에 대한 관련 포함 픽처 및 모션 벡터의 레퍼런스 픽처 양자 모두가 상이할 수도 있다. 따라서, 비디오 코더는 POC 값들에 기초하여 새로운 거리를 계산할 수도 있고, 비디오 코더는 이들 2개의 POC 거리들에 기초하여 모션 벡터를 스케일링할 수도 있다. 공간 이웃 후보에 대해, 2개의 모션 벡터들에 대한 포함 픽처들은 동일한 반면, 레퍼런스 픽처들은 상이하다. HEVC 에 있어서, 모션 벡터 스케일링이 공간 및 시간 이웃 후보들에 대해 TMVP 및 AMVP 양자 모두에 적용된다.
일부 예들에 있어서, 비디오 코더는 하나 이상의 인공 모션 벡터 후보들을 결정하도록 구성될 수도 있다. 예를 들어, 모션 벡터 후보 리스트가 완료되지 않으면, 비디오 코더는 인공 모션 벡터 후보들을 생성하고, 그 리스트가 미리결정된 수의 엔트리들을 포함할 때까지 그 리스트의 말단에 인공 모션 벡터 후보들을 삽입할 수도 있다. 병합 모드에 있어서, 오직 B-슬라이스들에 대해서만 도출되는 결합된 후보와 제로 후보를 포함하는 2개 타입들의 인공 MV 후보들이 존재한다. 일부 사례들에 있어서, 결합된 타입이 충분한 인공 후보들을 제공하지 않으면 제로 후보는 오직 AMVP 에 대해서만 사용된다.
후보 리스트에 이미 있고 필요한 모션 정보를 갖는 후보들의 각각의 쌍에 대해, 양방향 결합된 모션 벡터 후보들이 리스트 0 에서의 픽처를 참조하는 제 1 후보의 모션 벡터와 리스트 1 에서의 픽처를 참조하는 제 2 후보의 모션 벡터의 조합에 의해 도출된다.
본 개시의 양태들에 따르면, 도 3a 및 도 3b 에 도시된 TMVP 와 같은 모션 벡터 후보들이 블록에 대한 모션 벡터를 도출하는데 사용될 수도 있다. 예를 들어, 비디오 코더는 상기 설명된 프로세스에 따라 결정된 TMVP 를 포함하는 후보 리스트를 생성할 수도 있다. 이 예에 있어서, 비디오 코더는 TMVP 를, 모션 정보 도출 프로세스 (예컨대, 양측성 매칭, 템플릿 매칭 등) 에서의 초기 모션 벡터로서 사용할 수도 있다. 비디오 코더는 레퍼런스 데이터를 식별하기 위해 모션 벡터 도출 프로세스에서 TMVP 를 적용할 수도 있다. 비디오 코더는, TMVP 가 근접하게 매칭하는 레퍼런스 데이터를 식별하는 인스턴스들에서 TMVP 를 선택할 수도 있다. 비디오 코더는, 일부 사례들에 있어서, 모션 정보 도출 프로세스를 사용하여 도출된 모션 벡터를 결정하기 위해 TMVP 를 더 정세할 수도 있다.
일부 예들에 있어서, 비디오 코더는, 모션 벡터 후보들을 포함하는 후보 리스트를 프루닝할 수도 있다. 예를 들어, 일부 사례들에 있어서, 상이한 블록들로부터의 후보들은 동일하도록 발생할 수도 있으며, 이는 병합/AMVP 후보 리스트의 효율을 감소시킨다. 비디오 코드는 이러한 문제를 해결하기 위해 프루닝 (pruning) 프로세스를 적용할 수도 있다. 비디오 코더는, 동일한 후보를 삽입하는 것을 회피하기 위해 하나의 후보를 현재 후보 리스트에서의 다른 후보들과 비교할 수도 있다. 복잡도를 감소시키기 위해, 비디오 코더는 각각의 잠재적인 후보를 모든 다른 현존 후보들과 비교하는 대신, 오직 제한된 수들의 프루닝 프로세스들만을 적용할 수도 있다.
일부 예들에 있어서, 모션 벡터들의 값은 그 프리젠테이션 시간에서의 픽처들의 거리에 비례한다. 그러한 예들에 있어서, 모션 벡터는 2개의 픽처들, 즉, 레퍼런스 픽처 및 모션 벡터를 포함하는 픽처 (즉, 포함 픽처) 를 연관시킬 수도 있다. 모션 벡터가 다른 모션 벡터를 예측하는데 활용될 경우, 포함 픽처와 레퍼런스 픽처의 거리는 POC 값들에 기초하여 계산된다.
예측될 모션 벡터에 대해, 그의 연관된 포함 픽처 및 레퍼런스 픽처 양자는 상이할 수도 있다. 따라서, (예컨대, POC 에 기초한) 새로운 거리가 계산된다. 그리고, 모션 벡터는 이들 2개의 POC 거리들에 기초하여 스케일링된다. 공간 이웃 후보에 대해, 2개의 모션 벡터들에 대한 포함 픽처들은 동일한 반면, 레퍼런스 픽처들은 상이하다. HEVC 에 있어서, 모션 벡터 스케일링이 공간 및 시간 이웃 후보들에 대해 TMVP 및 AMVP 양자 모두에 적용된다.
모션 벡터 후보 리스트가 완료되지 않으면, 인공 모션 벡터 후보들이 생성되고, 모션 벡터 후보 리스트가 모든 후보들을 가질 때까지 리스트의 말단에 삽입될 수도 있다. 병합 모드에 있어서, 2개의 타입들의 인공 MV 후보들: 즉, 오직 B-슬라이스들에 대해서만 도출되는 결합된 후보, 및 제 1 타입이 충분한 인공 후보들을 제공하지 않으면 오직 AMVP 에 대해서만 사용되는 제로 후보들이 존재한다. 후보 리스트에 이미 있고 필요한 모션 정보를 갖는 후보들의 각각의 쌍에 대해, 양방향 결합된 모션 벡터 후보들이 리스트 0 에서의 픽처를 참조하는 제 1 후보의 모션 벡터와 리스트 1 에서의 픽처를 참조하는 제 2 후보의 모션 벡터의 조합에 의해 도출될 수도 있다.
상이한 블록들로부터의 후보들은 동일하도록 발생할 수도 있으며, 이는 병합/AMVP 후보 리스트의 효율을 감소시킨다. 이러한 문제를 해결하기 위해 프루닝 프로세스가 적용된다. 프루닝 프로세스는, 특정 범위에서 동일한 후보를 삽입하는 것을 회피하기 위해 하나의 후보를 현재의 후보 리스트에서의 다른 후보들과 비교한다. 복잡도를 감소시키기 위해, 각각의 잠재적 후보를 모든 다른 현존 후보들과 비교하는 대신, 오직 제한된 수들의 프루닝 프로세스만이 적용된다.
도 4 는 프레임 레이트 상향 변환 (FRUC) 에서의 일측성 모션 추정 (ME) 의 일 예를 예시한 개념 다이어그램이다. 특히, 도 4 는 현재 프레임 (100), 레퍼런스 프레임 (102), 및 보간된 프레임 (104) 을 예시한다. 일부 사례들에 있어서, 비디오 디코더 또는 포스트-프로세싱 디바이스는 하나 이상의 레퍼런스 픽처들에 기초하여 픽처들을 보간할 수도 있다. 비디오 디코더 또는 포스트-프로세싱 디바이스는, 인코딩된 비트스트림의 오리지널 프레임 레이트를 상향 변환하기 위해 픽처들을 보간할 수도 있다. 대안적으로, 비디오 디코더 또는 포스트-프로세싱 디바이스는, 비디오 시퀀스를 감소된 프레임 레이트로 인코딩하기 위해 비디오 인코더에 의해 스킵되었던 하나 이상의 픽처들을 삽입하기 위해 픽처들을 보간할 수도 있다. 어느 경우든, 비디오 디코더 또는 포스트-프로세싱 디바이스는 (현재 프레임 (100) 및 레퍼런스 프레임 (102) 과 같은) 디코딩된 픽처들을 사용하여 비디오 디코더에 의해 수신된 인코딩된 비트스트림에 포함되지 않은 (보간된 프레임 (104) 과 같은) 프레임들을 보간한다. 비디오 디코더 또는 포스트-프로세싱 디바이스는 임의의 다수의 보간 기법들을 사용하여, 예컨대, 모션 보상된 프레임 보간, 프레임 반복, 또는 프레임 평균화를 사용하여 픽처들을 보간할 수도 있다.
상기 서술된 프레임 보간 기법들은 통상적으로, 포스트-루프로 구현된다. 예를 들어, 비디오 디코더는 통상적으로, 현재 프레임 (100) 및 레퍼런스 프레임 (102) 을 포함하는 비디오 시퀀스의 복원된 표현을 생성하기 위해 인코딩된 비트스트림을 수신 및 디코딩한다. 디코딩 루프 이후, 비디오 디코더 또는 다른 포스트 프로세싱 디바이스는 보간된 프레임 (104) 을 포함하는 복원된 표현이 포함되도록 픽처들을 보간할 수도 있다. 일부 사례들에 있어서, 픽처를 보간하는 프로세스는, 픽처들의 결과적인 시퀀스가 인코딩된 비트스트림에 포함되지 않았던 추가적인 (보간된) 픽처들을 포함하기 때문에, 프레임 레이트 상향 변환 (FRUC) 으로서 지칭될 수도 있다.
이에 따라, FRUC 기술은 저 프레임 레이트 비디오들에 기초하여 고 프레임 레이트 비디오들을 생성하는데 사용될 수도 있다. FRUC 는 디스플레이 산업에서 사용되었다. 예들은, 예를 들어, X.Chen, J.An, J.Zheng, "EE3: Decoder-Side Motion Vector Refinement Based on Bilateral Template Matching," JVET-E0052, Jan.2017, W.H.Lee, K.Choi, J.B.Ra, "Frame rate up conversion based on variational image fusion", IEEE transactions on image processing, vol.23, No.1, Jan.2014, 및 U.S.Kim, M.H.Sunwoo, "New frame rate up-conversion algorithms with low computational complexity", IEEE transactions on circuits and systems for video technology, vol.24, No.3, Mar.2014 을 포함한다.
FRUC 알고리즘들은 2개의 타입들로 분할될 수도 있다. 방법들 중 일 타입은 단순한 프레임 반복 또는 평균화에 의해 중간 프레임들을 보간한다. 하지만, 이 방법은, 다수의 모션을 포함하는 픽처에서 부적절한 결과들을 제공한다. 모션 보상된 FRUC (MC-FRUC) 로 지칭되는 다른 타입의 기법은, MC-FRUC 가 중간 프레임들을 생성할 때 오브젝트 움직임을 고려하며, 2개의 단계들: 즉, 모션 추정 (ME) 및 모션 보상된 보간 (MCI) 로 이루어진다. ME 는 벡터들을 사용하여 오브젝트 모션을 나타내는 모션 벡터들 (MV들) 을 생성하는 반면 MCI 는 MV들을 사용하여 중간 프레임들을 생성한다.
MC-FRUC 가 구현하기에 간단하므로, MC-FRUC 에서의 ME 를 위해 블록 매칭 알고리즘 (BMA) 이 널리 사용된다. BMA 는 이미지를 블록들로 분할하고 이들 블록들의 움직임을 검출하여, 예컨대, 블록들이 대응하는지 여부를 결정한다. 2개 종류의 ME 가 BMA 를 위해 주로 사용된다: 즉, 일측성 ME 및 양측성 ME.
도 4 에 도시된 바와 같이, 일측성 ME 는 현재 프레임 (100) 의 레퍼런스 프레임 (102) 으로부터 최상의 매칭 블록을 탐색함으로써 MV들을 획득한다. 그 다음, 보간된 프레임에서의 모션 궤적 상의 블록이, MV 가 달성되도록 위치될 수 있다. 도 4 에 도시된 바와 같이, 현재 프레임 (100), 레퍼런스 프레임 (102) 및 보간된 프레임 (104) 으로부터 각각 106A, 106B, 및 106C 를 포함하는 3개의 블록들이 모션 궤적을 뒤따라 수반된다. 현재 프레임 (100) 에서의 블록 (106A) 이 코딩된 블록에 속하더라도, 레퍼런스 프레임 (102) 에서의 최상의 매칭 블록 (106B) 은 코딩된 블록에 완전히 속하지 않을 수도 있고, 보간된 프레임 (104) 에서의 블록 (106C) 도 마찬가지이다. 결과적으로, 블록들의 중첩된 영역들 및 미충진 (홀들) 영역들이, 보간된 프레임에서 발생할 수도 있다.
중첩들을 핸들링하기 위해, 단순한 FRUC 알고리즘들은 단지 중첩된 픽셀들을 평균화하는 것 및 오버라이트하는 것을 수반할 뿐이다. 더욱이, 홀들은 레퍼런스 또는 현재 프레임으로부터의 픽셀 값들에 의해 커버된다. 하지만, 이들 알고리즘들은 블록킹 아티팩트들 및 블러링을 초래한다. 따라서, 모션 필드 세그먼트화, 이산 하틀리 변환을 사용한 연속적 외삽, 및 이미지 인페인팅이 블로킹 아티팩트들 및 블러링을 증가시키지 않으면서 홀들 및 중첩들을 핸들링하도록 제안된다.
도 5 는 FRUC 에서의 양측성 모션 추정 (ME) 의 일 예를 예시한 개념 다이어그램이다. 특히, 도 5 는, 현재 프레임 (114) 의 현재 블록 (112) 및 레퍼런스 프레임 (118) 의 레퍼런스 블록 (116) 으로부터 보간되는 보간된 프레임 (110) 의 보간된 블록 (108) 을 예시한다. 도 5 에 도시된 바와 같이, 양측성 ME 는, 도 4 에 도시된 중첩들 및 홀들에 의해 야기된 문제들을 회피하는데 사용될 수 있는 (MC-FRUC 에서의) 다른 솔루션이다. 양측성 ME 는, 각각, 현재 프레임 (114) 및 레퍼런스 프레임 (118) 의 블록들 (112 및 116) 사이의 시간 대칭성을 사용하여 보간된 블록 (108) 을 통과하는 MV들을 획득한다. 결과적으로, 양측성 ME 는 중첩들 및 홀들을 생성하지 않는다. 양측성 ME 가 현재 블록이 예컨대 비디오 코딩의 경우에서와 같이 특정 순서로 프로세싱되고 있는 블록이라고 가정하기 때문에, 그러한 블록들의 시퀀스는 중첩없이 전체 중간 픽처를 커버할 것이다. 예를 들어, 비디오 코딩의 경우, 블록들은 디코딩 순서로 프로세싱될 수 있다.
본 개시의 양태들에 따르면, 도 5 의 예에 도시된 양측성 모션 추정은 모션 정보를 도출하는데 활용될 수도 있다. 예를 들어, (비디오 인코더 (20) 또는 비디오 디코더 (30) 와 같은) 비디오 코더는 코딩 동안 모션 정보를 도출하기 위해 모션 정보 도출 모드로서 양측성 매칭을 적용할 수도 있다. 양측성 매칭에 있어서, 비디오 코더는, 제 2 레퍼런스 픽처에서의 레퍼런스 데이터의 제 2 세트에 대응하는 제 1 레퍼런스 픽처에서의 레퍼런스 데이터의 제 1 세트에 대한 모션 탐색을 수행할 수도 있다.
본 개시의 다른 양태들에 따르면, (비디오 인코더 (20) 및/또는 비디오 디코더 (30) 와 같은) 비디오 코더는 도 5 에 도시된 양측성 매칭 기법을 사용하여 인코딩 또는 디코딩 루프에서 보간된 프레임을 생성할 수도 있다. 예를 들어, 비디오 코더는, 복원된 픽셀 어레이를 사용하여, 보간된 픽처를 현재 픽처의 예측기로서 보간하기 위해 픽처 레벨 FRUC 를 사용할 수도 있다. 일부 예들에 있어서, 그러한 보간된 픽처는 레퍼런스 픽처로서 또는 현재 픽처의 복원으로서 고려될 수도 있다. 다른 예들에 있어서, 비디오 코더는 현재 픽처를 보간된 픽처와 동일하게 설정할 수도 있다. 그러한 픽처는 신택스 엘리먼트들 또는 디코딩 프로세스들에 의해 폐기가능한 픽처 및/또는 비-레퍼런스 픽처로서 표시될 수도 있다.
도 6 은 템플릿 매칭 기반 디코더측 모션 벡터 도출 (DMVD) 의 일 예를 예시한 개념 다이어그램이다. 어드밴스드 비디오 코덱들로, 비트스트림에서의 모션 정보의 비트 퍼센티지는 점점 더 커진다. 일부 사례들에 있어서, DMVD 는 모션 정보의 비트 비용을 감소시킬 수도 있다. 템플릿 매칭 기반 DMVD 는, 예를 들어, S.Kamp, M.Wien, "Decoder-side motion vector derivation for block-based video coding", IEEE transactions on circuits and systems for video technology, vol.22, No.12, Dec.2012 에 기술된 바와 같이 코딩 효율 개선을 나타낼 수도 있다.
도 6 의 예에 있어서, 현재 픽처 (120) 는 예측 타겟 (122) (예컨대, 현재 코딩되는 블록) 및 템플릿 (124) 을 포함한다. 레퍼런스 픽처들 (126) 은 병치된 템플릿 (128), 최상의 매치 (130), 및 변위 벡터 (132) 를 포함한다. (비디오 인코더 (20) 및/또는 비디오 디코더 (30) 와 같은) 비디오 코더는 (예컨대, 이제 코딩될 예측 타겟 (122) 자체를 사용하는 것 보다는) 예측 타겟 (122) 에 대한 최상의 매치를 탐색하기 위해 템플릿 (124) 을 사용할 수도 있다. 예를 들어, 비디오 코더는, 예측 타겟 (122) 외부의 레퍼런스 데이터의 제 2 세트 (예컨대, 템플릿 (124)) 에 대응하는 레퍼런스 데이터의 제 1 세트 (예컨대, 최상의 매치 (130)) 를 식별하기 위해 모션 탐색을 수행할 수도 있다. 상기 언급된 바와 같이, 대응은 레퍼런스 데이터 사이의 유사도의 양에 기초하여 결정될 수도 있으며, 본 명세서에서 "매치" 또는 "최상의 매치" 를 결정하는 것으로서 지칭될 수도 있다.
도시된 예에 있어서, 비디오 코더는 레퍼런스 픽처들 (126) 에서의 병치된 템플릿 (128) 을 식별할 수도 있다. 그 다음, 비디오 코더는, 템플릿 (124) 과 유사한 픽셀 값들을 포함하는 최상의 매치 (130) 를 탐색할 수도 있다. 비디오 코더는 레퍼런스 픽처들 (126) 에서의 병치된 템플릿 (128) 및 최상의 매치 (130) 의 변위에 기초하여 변위 벡터 (132) 를 결정할 수도 있다.
템플릿 (124) 및 예측 타겟 (122) 이 동일한 오브젝트로부터 기인한 것으로 가정하면, 템플릿의 모션 벡터는 예측 타겟의 모션 벡터로서 사용될 수 있다. 따라서, 도 8 의 예에 있어서, 비디오 코더는 변위 벡터 (132) 를 예측 타겟 (122) 에 적용할 수도 있다. 템플릿 매칭이 비디오 인코더 및 비디오 디코더 양자 모두에서 수행되기 때문에, 모션 벡터는 시그널링 비용을 회피하기 위해 디코더 측에서 도출될 수 있다.
본 개시의 양태들에 따르면, 비디오 코더는 모션 정보 도출 모드로서 템플릿 매칭을 적용할 수도 있다. 예를 들어, 비디오 코더는, 현재 픽처의 템플릿 (124) 과 레퍼런스 픽처들 (126) 에서의 대응하는 레퍼런스 데이터 사이에 최상의 매치를 위치시킴으로써 현재 블록의 모션 정보를 도출하기 위해 템플릿 매칭을 적용할 수도 있다. 도 6 의 예가 비디오 데이터의 L 형상 블록으로서 템플릿 (124) 을 예시하지만, 다른 템플릿들이 사용될 수도 있음이 이해되어야 한다. 예를 들어, 비디오 코더는 템플릿으로서 다중의 블록들, 예컨대, 예측 타겟 (122) 의 좌측에 포지셔닝된 하나 이상의 블록들 및 예측 타겟 (122) 상측에 포지셔닝된 하나 이상의 블록들을 사용할 수도 있다.
본 개시의 양태들에 따르면, 비디오 코더는 모션 벡터들의 후보 리스트로부터의 하나 이상의 모션 벡터들을 사용하여 도 6 에 도시된 템플릿 매칭 기법들을 적용할 수도 있다. 예를 들어, 비디오 코더는 본 명세서에서 설명된 기법들의 임의의 조합을 사용하여 하나 이상의 후보 모션 벡터들 (예컨대, 병합 모드 후보들, AMVP 후보들, TMVP 등) 을 결정하도록 구성될 수도 있다. 그 다음, 비디오 코더는 병치된 템플릿 (128) 을 위치시키기 위해 후보 모션 벡터들 중 하나 이상을 템플릿 (124) 에 적용하도록 구성될 수도 있다 (이 예에 있어서, 병치된 템플릿 (128) 의 위치는 하나 이상의 후보 모션 벡터들에 의해 지시되며 반드시 엄격하게 병치될 필요는 없음). 비디오 코더는, 후보 모션 벡터들 중 어느 모션 벡터가 템플릿 (124) 과 병치된 템플릿 (128) 사이에서 최상의 매치를 발생시키는지를 결정하도록 구성될 수도 있다.
본 개시의 양태들에 따르면, 비디오 코더는, 그 다음, 예측 타겟 (122) 에 대한 모션 정보를 도출하기 위해 후보 모션 벡터를 정세하도록 구성될 수도 있다. 예를 들어, 비디오 코더는 후보 모션 벡터에 의해 식별된 레퍼런스 픽처들 (126) 의 영역에서 템플릿 (124) 에 대한 최상의 매치를 탐색할 수도 있다. 최상의 매치를 결정할 시, 비디오 코더는 템플릿 (124) 과 결정된 기반 매치 간의 변위를 결정할 수도 있다. 비디오 코더는 그 변위를, 예측 타겟 (122) 에 대한 도출된 모션 벡터로서 지정할 수도 있다.
도 7 은 DMVD 에서의 양방향 모션 벡터 도출의 일 예를 예시한 개념 다이어그램이다. DMVD 의 다른 카테고리는, 예를 들어, Y.-J.Chiu, L.Xu, W.Zhang, H.Jiang, "Decoder-side Motion Estimation and Wiener filter for HEVC", Visual communications and Image Processing (VCIP), 2013 에서 기술된 바와 같이 미러 기반 양방향 MV 도출이다. DMVD 에서의 양방향 모션 벡터 도출의 개념은 FRUC 에서의 양측성 ME 와 유사할 수도 있다. 예를 들어, 미러 기반 MV 도출은, 분수 샘플 정확도에서 탐색 중심들 주위의 중심 대칭 모션 추정에 의해 적용될 수도 있다.
도 7 의 예는 현재 블록 (142) (현재 코딩되는 블록) 을 갖는 현재 픽처 (140), 제 1 레퍼런스 픽처 (146) (L0 ref) 의 제 1 템플릿 블록 (144) 을 식별하는 제 1 후보 모션 벡터 (PMV0), 및 제 2 레퍼런스 픽처 (150) 의 제 2 템플릿 블록 (148) 을 식별하는 제 2 후보 모션 벡터 (PMV1) 를 포함한다. 비디오 코더는, 제 1 레퍼런스 픽처 (146) 의 탐색 윈도우 (154) 에서 제 1 레퍼런스 블록 (152) 을 위치시키고 그리고 제 2 레퍼런스 픽처 (150) 의 탐색 윈도우 (158) 에서 제 2 레퍼런스 블록 (156) 을 위치시키기 위해 오프셋으로서 dMV 를 적용할 수도 있다.
예를 들어, 비디오 코더는 PMV0 에 dMV 를 가산하고 PMV1 로부터 dMV 를 감산하여, MV 쌍, 즉, MV0 및 MV1 을 생성할 수도 있다. 비디오 코더는 탐색 윈도우 (154 및 158) 내부의 dMV 의 모든 값들을 체크하여, L0 ref 의 제 1 레퍼런스 블록 (152) (예컨대, 레퍼런스 데이터의 제 1 세트) 과 L1 ref 의 제 2 레퍼런스 블록 (156) (예컨대, 레퍼런스 데이터의 제 2 세트) 사이에서 dMV 의 어느 값이 최상의 매치를 발생시키는지를 결정할 수도 있다. 일부 예들에 있어서, 비디오 코더는 절대 차의 합 (SAD) 에 기초하여 최상의 매치를 결정할 수도 있다. 다른 예들에 있어서, 비디오 코더는 최상의 매치를 결정하기 위해 다른 메트릭을 사용할 수도 있다. 탐색 윈도우들 (154 및 158) 의 사이즈 및 위치는 미리정의될 수도 있거나 또는 비트스트림에서 시그널링될 수도 있다.
비디오 코더는 중심 대칭 모션 추정의 출력으로서 최소 SAD 를 갖는 MV 쌍을 선택할 수도 있다. 이러한 기법은 SAD 매칭을 위해 미래 레퍼런스 (현재 프레임보다 나중의 시간 포지션에서의 레퍼런스) 와 이른 레퍼런스 (현재 프레임보다 이른 시간 포지션에서의 레퍼런스) 를 사용하기 때문에, 최소 SAD 를 갖는 MV 쌍을 선택하는 것은, 오직 이전의 레퍼런스만이 이용가능한 저 지연 B 프레임들 또는 P 프레임에 적용될 수 없다.
본 개시의 양태들에 따르면, 비디오 코더는 모션 정보 도출 모드로서 양방향 모션 벡터 도출 기법들을 적용할 수도 있다. 일부 예들에 있어서, 비디오 코더는 모션 벡터들의 후보 리스트로부터의 하나 이상의 모션 벡터들을 사용하여 도 7 에 도시된 기법들을 적용할 수도 있다. 예를 들어, 비디오 코더는 본 명세서에서 설명된 기법들의 임의의 조합을 사용하여 하나 이상의 후보 모션 벡터들 (예컨대, 병합 모드 후보들, AMVP 후보들, TMVP 등) 을 결정하도록 구성될 수도 있다. 그 다음, 비디오 코더는 제 1 템플릿 블록 (144) 및 제 2 템플릿 블록 (148) 을 위치시키기 위해 PMV0 및/또는 PMV1 로서 후보 모션 벡터들 중 하나 이상을 적용하도록 구성될 수도 있다. 비디오 코더는, 후보 모션 벡터들 중 어느 모션 벡터가 제 1 템플릿 블록 (144) 과 제 2 템플릿 블록 (148) 사이에서 최상의 매치를 발생시키는지를 결정하도록 구성될 수도 있다.
본 개시의 양태들에 따르면, 비디오 코더는, 그 다음, 현재 블록 (142) 에 대한 모션 정보를 도출하기 위해 후보 모션 벡터를 정세하도록 구성될 수도 있다. 예를 들어, 비디오 코더는, 상기 설명된 방식으로 dMV 의 다양한 값들을 적용함으로써 최상의 매치를 탐색할 수도 있다. 이러한 방식으로, 비디오 코더는 MV 쌍 (MV0 및 MV1) 을 도출할 수도 있다.
도 8a 는 확장된 양측성 매칭 기반 모션 벡터 도출을 예시한 개념 다이어그램이다. (예컨대, 도 7 에 도시된 바와 같은) 미러 기반 양방향 MV 도출의 하나의 잠재적인 단점은 현재 픽처의 2개의 레퍼런스들이 현재 픽처보다 양자 모두가 더 이르거나 또는 양자 모두가 더 늦을 때 미러 기반 양방향 MV 도출이 작동하지 않는다는 점이다. 본 명세서에서 설명되는 확장된 양측성 매칭 기법들은, 일부 사례들에 있어서, 현재 픽처의 모든 레퍼런스 픽처들이 현재 픽처와 (디스플레이 순서에서) 동일한 측에 있다는 단점을 극복할 수도 있다.
도 8a 의 예는 현재 블록 (162) 을 포함한 현재 픽처 (160), 제 1 레퍼런스 블록 (166) 을 포함한 제 1 레퍼런스 픽처 (Ref0) (164), 및 제 2 레퍼런스 블록 (170) 을 포함한 제 2 레퍼런스 픽처 (Ref1) (168) 를 포함한다. 도 8a 에 도시된 바와 같이, 제 1 레퍼런스 픽처 (Ref0) (164) 및 제 2 레퍼런스 픽처 (Ref1) (168) 양자 모두는 시간 방향에서 현재 픽처 이전에 위치된다. 제 1 레퍼런스 블록 (166), 제 2 레퍼런스 블록 (170), 및 현재 블록 (162) 이 동일한 모션 궤적을 따른다고 가정하면, MV0 과 MV1 간의 비율은 시간 거리 (TD0 및 TD1) 간의 비율과 동일할 것이다. 즉, 현재 픽처에 대한 시간 거리 (TD0 및 TD1) 를 갖는 2개의 레퍼런스들 (Ref0 및 Ref1) 이 주어지면, Ref0 에서의 임의의 MV0 에 대해, Ref1 에서의 MV1 은 MV0 을 스케일링하여 결정될 수도 있다.
비디오 코더는, MV0 및 MV1 에 의해 포인팅된 블록 쌍 사이의 매칭 비용을 최소화하는 쌍으로서 최종 MV0 및 MV1 쌍을 선택할 수도 있다. 이론적으로, 현재 블록 (162) 은 제 1 레퍼런스 블록 (166) 및 제 2 레퍼런스 블록 (170) 에 기초한 외삽된 블록으로서 간주될 수도 있다. 확장된 양측성 매칭은 또한, 현재 픽처가 2개의 레퍼런스들 사이에서 일시적으로 존재하는 양방향 케이스에서 작동함을 유의해야 한다. 이 경우, 현재 블록 (162) 은 제 1 레퍼런스 블록 (166) 및 제 2 레퍼런스 블록 (170) 에 기초한 보간된 블록으로서 간주될 수도 있다. 더욱이, 본 명세서에서 설명된 양측성 매칭 기법들은, 양방향 케이스에서도, MV0 과 MV1 간의 "미러 관계" 를 요구하지 않는다. 양측성 매칭의 가정은, MV0 과 MV1 사이의 비율이 Ref0 으로부터 현재 픽처까지의 시간 거리와 Ref1 로부터 현재 픽처까지의 시간 거리 사이의 비율에 비례한다는 것이다.
분명하게, 제 1 레퍼런스 블록 (166) 및 제 2 레퍼런스 블록 (170) 이외의 레퍼런스 블록들에 대해, 비디오 코더는 상이한 MV 쌍을 도출할 수도 있다. 일 예에 있어서, 비디오 디코더는, 레퍼런스 픽처들이 레퍼런스 픽처 리스트에 나타나는 순서에 따라 양측성 매칭을 수행하기 위한 레퍼런스 픽처들을 선택할 수도 있다. 예를 들어, 비디오 코더는 레퍼런스 리스트 0 에서의 제 1 레퍼런스를 Ref0 으로서 선택하고, 레퍼런스 리스트 1 에서의 제 1 레퍼런스를 Ref1 로서 선택할 수도 있다. 그 다음, 비디오 코더는 MV 쌍 (MV0, MV1) 을 탐색할 수도 있다. 다른 예에 있어서, 비디오 코더는 초기 리스트 (예컨대, 초기 모션 벡터 후보 리스트) 에서의 엔트리에 기초하여 Ref0 을 선택한다. 그 다음, 비디오 코더는 Ref1 을, 현재 픽처에 일시적으로 가장 가까운 다른 레퍼런스 픽처 리스트 내의 레퍼런스 픽처로 설정할 수도 있다. 결과적으로, 비디오 코더는 Ref0 및 Ref1 에서 MV 쌍 (MV0, MV1) 을 탐색할 수도 있다.
따라서, 본 개시의 양태들에 따르면, 비디오 코더는 모션 정보 도출 모드로서, 도 8a 에 예시된 확장된 양방향 모션 도출 기법들을 적용할 수도 있다. 예를 들어, 비디오 코더는, 2개의 상이한 레퍼런스 픽처들에서 현재 블록의 모션 궤적을 따라 (예컨대, 제 1 레퍼런스 블록 (166) 및 제 2 레퍼런스 블록 (170) 과 같은) 2개의 블록들 사이의 최상의 매치를 찾음으로써 현재 블록 (162) 의 모션 정보를 도출하기 위해 양측성 매칭을 사용할 수도 있다. 연속 모션 궤적의 가정 하에서, 2개의 레퍼런스 블록들, 제 1 레퍼런스 블록 (166) 및 제 2 레퍼런스 블록 (170) 을 포인팅하는 모션 벡터들 (MV0 및 MV1) 은 현재 픽처와 2개의 레퍼런스 픽처들 사이의 시간 거리들, 즉, TD0 및 TD1 에 비례할 것이다. 특별 케이스로서, 현재 픽처 (160) 가 (도 7 의 예에 도시된 바와 같이) 2개의 레퍼런스 픽처들 사이에 일시적으로 존재하고 현재 픽처로부터 2개의 레퍼런스 픽처들까지의 시간 거리가 동일할 경우, 양측성 매칭은 미러 기반 양방향 MV 가 된다.
도 8b 는 DMVD 를 사용하여 예측 유닛 (PU) 을 디코딩하는 일 예를 예시한 플로우차트이다. Y.-J.Chiu, L.Xu, W.Zhang, H.Jiang, "Decoder-side Motion Estimation and Wiener filter for HEVC", Visual communications and Image Processing (VCIP), 2013 에 있어서, HEVC 에서의 병합 모드와 미러 기반 양방향 MV 도출을 결합하는 것이 추가로 제안되었다. 제안된 기법에 있어서, pu_dmvd_flag 로 지칭되는 플래그가, DMVD 모드가 현재 PU 에 적용되는지를 표시하기 위해 B 슬라이스들의 PU 에 대해 추가된다. DMVD 모드는 비트스트림에서 어떠한 MV 정보도 명시적으로 송신하지 않기 때문에, pu_dmvd_flag 신택스 엘리먼트는 HEVC 에서의 병합 모드의 신택스와 통합된다 (이는 모션 벡터 자체 보다는 모션 벡터를 나타내는 데이터에 대한 인덱스를 사용함).
도 8b 의 예에 있어서, (비디오 디코더 (30) 와 같은) 비디오 디코더는 PU 를 디코딩하는 것을 시작할 수도 있다 (180). 비디오 디코더 (30) 는, 예컨대, PU 를 포함하는 비트스트림에 포함된 신택스에 기초하여, PU 를 디코딩하는데 사용된 모드가 병합 모드인지 여부를 결정할 수도 있다 (182). 병합 모드가 사용되지 않으면 (단계 182 의 "아니오" 브랜치), 비디오 디코더 (30) 는 PU 를 디코딩하기 위해 비-병합 PU 를 위한 정규 프로세스를 사용하고 (184), 프로세스를 종료할 수도 있다 (186).
병합 모드가 사용되면 (단계 182 의 "예" 브랜치), 비디오 디코더 (30) 는 pu_dmvd_flag 신택스 엘리먼트의 값에 기초하여 PU 에 대한 모션 정보를 결정하는데 DMVD 가 사용되는지 여부를 결정할 수도 있다 (188). DMVD 가 사용되지 않으면 (단계 188 의 "아니오" 브랜치), 비디오 디코더 (30) 는 PU 를 디코딩하기 위해 정규 병합 모드를 사용하고 (190), 프로세스를 종료할 수도 있다 (186). DMVD 가 사용되면 (단계 188 의 "예" 브랜치), 비디오 디코더 (30) 는 PU 에 대한 모션 정보를 결정하기 위해 DMVD 프로세스를 적용하고 (192), 프로세스를 종료할 수도 있다 (186).
블록의 모션 벡터를 찾기 위해, 다수의 실제 비디오 코덱들에서 신속 모션 탐색 방법들이 사용된다. Lurng-Kuo Liu, Ephraim Feig, "A block-based gradient descent search algorithm for block motion estimation in video coding," IEEE Trans.Circuits Syst.Video Technol., vol.6, pp, 419-422, Aug.1996 에 기술된 바와 같은 블록 기반 그래디언트 하강 탐색 (BBGDS), Jo Yew Tham, Surendra Ranganath, Maitreya Ranganath, 및 Ashraf Ali Kassim, "A novel unrestricted center-biased diamond search algorithm for block motion estimation," IEEE Trans.Circuits Syst.Video Technol., vol.8, pp.369-377, Aug.1998 에 기술된 바와 같은 무제한 중심 바이어싱 다이아몬드 탐색 (UCBDS), Ce Zhu, Xiao Lin, 및 Lap-Pui Chau, "Hexagon-Based Search Pattern for Fast Block Motion Estimation," IEEE Trans.Circuits Syst.Video Technol., vol.12, pp.349-355, May 2002 에 기술된 바와 같은 육각형 기반 탐색 (HEBS) 과 같은 문헌에서 제안된 다수의 신속 모션 탐색 방법이 존재한다. 기본적으로, 이들 기법들은 미리정의된 탐색 패턴들에 기초하여 탐색 윈도우 내부에서 오직 특정 수의 포지션들만을 탐색한다. 이들 기법들은 일반적으로, 모션이 작고 온건할 경우에 잘 작동한다.
도 9 는 양측성 매칭의 일 예를 예시한 개념 다이어그램이다. 미국 특허출원 공개 제2016/0286229호에 있어서, 코딩 방법이 프레임 레이트 상향 변환 방법, 예컨대, FRUC 모드에 기초하여 제안되었다. 일반적으로, FRUC 모드는, 블록의 모션 정보가 시그널링되지 않지만 디코더측에서 도출되는 특별한 병합 모드이다.
비디오 인코더 (20) 는, 그 병합 플래그가 참인 경우에 CU 에 대한 FRUC 플래그를 시그널링할 수도 있다. FRUC 플래그가 거짓인 경우, 비디오 인코더 (20) 는 병합 인덱스를 시그널링하고, 정규 병합 모드를 사용할 수도 있다. FRUC 플래그가 참인 경우, 비디오 인코더 (20) 는, 어느 방법 (양측성 매칭 또는 템플릿 매칭) 이 블록에 대한 모션 정보를 도출하는데 사용될지를 표시하기 위해 추가적인 FRUC 모드 플래그를 시그널링할 수도 있다.
모션 도출 프로세스 동안, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 양측성 매칭 또는 템플릿 매칭에 기초하여 전체 CU 에 대한 초기 모션 벡터 (예컨대, 시딩 모션 벡터, 시작 모션 벡터 정보 등) 를 도출할 수도 있다. 이러한 예에 있어서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 CU 의 병합 리스트를 체크할 수도 있고, 최소 매칭 비용을 유도하는 후보를 시작 포인트로서 선택한다. 이러한 예에 있어서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 시작 포인트 주위의 양측성 매칭 또는 템플릿 매칭에 기초하여 로컬 탐색을 수행하고, 최소 매칭 비용을 초래하는 MV 를 전체 CU 에 대한 MV 로서 취한다. 후속적으로, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 시작 포인트들로서의 도출된 CU 모션 벡터들로 서브-블록 레벨에서 모션 정보를 더 정세할 수도 있다.
도 9 의 예에 있어서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는, 2개의 상이한 레퍼런스 픽처들에서 현재 블록의 모션 궤적을 따라 2개의 블록들 사이의 최상의 매치를 찾음으로써 현재 블록 (201) 의 모션 정보를 도출하기 위해 양측성 매칭을 사용할 수도 있다. 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 현재 블록 (201) 의 모션 궤적을 따라 Ref0 의 제 1 입력 레퍼런스 블록 (202) 과 제 2 입력 레퍼런스 블록 (204) 사이에서 최상의 매치를 찾을 수도 있다.
연속 모션 궤적의 가정 하에서, 제 1 입력 레퍼런스 블록 (202) 및 제 2 입력 레퍼런스 블록 (204) 을 각각 포인팅하는 모션 벡터들 (MV0 (206) 및 MV1 (208)) 은 현재 픽처 (200) 와 제 1 입력 레퍼런스 블록 (202) 및 제 2 입력 레퍼런스 블록 (204) 사이의 시간 거리들, 즉, TD0 (210) 및 TD1 (212) 에 비례할 것이다. 특별한 경우로서, 현재 픽처 (200) 가 2개의 레퍼런스 픽처들 사이에 일시적으로 존재하고 현재 픽처로부터 제 1 입력 레퍼런스 블록 (202) 및 제 2 입력 레퍼런스 블록 (204) 까지의 시간 거리가 동일할 경우, 양측성 매칭은 미러 기반 양방향 MV 가 된다.
도 10 은 템플릿 매칭의 일 예를 예시한 개념 다이어그램이다. 도 10 의 예에 있어서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는, 현재 픽처 (220) 에서의 템플릿 (예컨대, 현재 블록 (220) 의 상측 이웃 블록 (222) 및/또는 좌측 이웃 블록 (224)) 와 레퍼런스 픽처 (230) 에서의 블록 (템플릿과 동일한 사이즈) 사이의 최상의 매치를 찾음으로써 현재 블록 (220) 의 모션 정보를 도출하기 위해 템플릿 매칭을 사용할 수도 있다.
인코더측에서, 비디오 인코더 (20) 는 정상 병합 후보에 대해 수행된 바와 같은 RD 비용 선택에 기초하여 CU 에 대해 FRUC 병합 모드를 사용할지 여부를 결정할 수도 있다. 즉, 비디오 인코더 (20) 는 RD 비용 선택을 사용함으로써 CU 에 대한 2개의 매칭 모드들 (예컨대, 양측성 매칭 및 템플릿 매칭) 을 체크할 수도 있다. 비디오 인코더 (20) 는 최소 비용 (예컨대, 양측성 매칭 및 템플릿 매칭) 을 유도하는 것을 다른 CU 모드들과 비교할 수도 있다. FRUC 매칭 모드가 가장 효율적인 모드이면, 비디오 인코더 (20) 는 CU 에 대해 FRUC 플래그를 참으로 설정하고, 관련 매칭 모드를 사용할 수도 있다.
도 11 은 IC 파라미터들을 도출하기 위해 사용된 이웃 샘플들을 예시한 개념 다이어그램이다. 로컬 조명 보상 (LIC) 은 스케일링 팩터 (a) 및 오프셋 (b) 을 사용하여 조명 변화들에 대한 선형 모델에 기초한다. 그리고, LIC 는 각각의 인터-모드 코딩된 코딩 유닛 (CU) 에 대해 적응적으로 인에이블 또는 디스에이블될 수도 있다.
LIC 가 CU 에 대해 적용할 경우, 현재 CU 의 이웃 샘플들 (240) 및 그들의 대응하는 레퍼런스 샘플들 (242) 을 사용함으로써 파라미터들 (a 및 b) 을 도출하기 위해 최소 제곱 에러 방법이 채용된다. 더 구체적으로, 도 11 에 예시된 바와 같이, CU 의 서브샘플링된 (2:1 서브샘플링) 이웃 샘플들 (240) 및 레퍼런스 픽처에서의 대응하는 픽셀들 (현재 CU 또는 서브 CU 의 모션 정보에 의해 식별됨) 이 사용된다. IC 파라미터들은 각각의 예측 방향에 대해 별도로 도출 및 적용된다.
CU 가 병합 모드로 코딩될 경우, LIC 플래그는 병합 모드에서의 모션 정보 카피와 유사한 방식으로 이웃 블록들부터 카피되고; 그렇지 않으면, LIC 가 적용되는지 여부를 표시하기 위해 LIC 플래그가 CU 에 대해 시그널링된다.
도 12 는 양측성 템플릿 매칭에 기초한 디코더측 모션 도출의 일 예를 예시한 개념 다이어그램이다. Chen, J.An, J.Zheng, "EE3: Decoder-Side Motion Vector Refinement Based on Bilateral Template Matching," JVET-E0052, Jan.2017 에 있어서, 디코더측 모션 도출 방법이 양측성 템플릿 매칭을 기반으로 제안되었다. 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는, 도 12 에 도시된 바와 같이, 각각, 리스트0 의 초기 MV0 및 리스트1 의 MV1 로부터 2개의 예측 블록들의 가중 조합으로서 양측성 템플릿 (350) 을 생성할 수도 있다. 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는, 각각, 리스트0 의 초기 MV0 (356) 및 리스트1 의 MV1 (358) 로부터 픽셀 'n' 에 대한 제 1 입력 레퍼런스 블록 (본 명세서에서 간단히 "R0,n" 으로서 지칭됨) (352) 와 픽셀 'n' 에 대한 제 2 입력 레퍼런스 블록 (본 명세서에서 간단히 "R1,n" 으로서 지칭됨) (354) 의 가중 조합으로서 픽셀 'n' 에 대한 양측성 템플릿 (350) (본 명세서에서 간단히 "Tn" 으로서 또한 지칭됨) 을 생성할 수도 있다.
템플릿 매칭 동작은 레퍼런스 픽처에서의 샘플 영역 (초기 예측 블록 주위) 과 생성된 템플릿 (Tn=(R0,n+R1,n)/2) 사이의 비용 측정치들을 계산하는 것을 포함할 수도 있다. 2개의 레퍼런스 픽처들의 각각에 대해, 최소 템플릿 비용을 산출하는 MV 는 오리지널 MV 를 대체하기 위해 그 리스트의 업데이트된 MV 로서 고려된다, 즉,
Figure 112020037119221-pct00001
(1)
Figure 112020037119221-pct00002
(2)
비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 정규 양방향 예측을 위해 도 12 에 도시된 바와 같이 2개의 새로운 MV들, 예컨대, MV0' (360) 및 MV1' (362) 을 사용할 수도 있다. 일부 예들에 있어서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 비용 측정치로서 절대 차의 합 (SAD) 을 사용할 수도 있다.
비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는, 추가적인 신택스 엘리먼트의 송신없이, 과거의 레퍼런스 픽처로부터의 하나 및 미래의 레퍼런스 픽처로부터의 다른 하나의 양방향 예측의 병합 모드를 위해 DMVD 를 적용할 수도 있다. JEM4.0 에 있어서, 하나의 CU 에 대해 LIC, 아핀, 서브 CU 병합 후보 또는 FRUC 가 선택될 경우, 그 기법은 적용되지 않는다.
FRUC 의 다중의 시딩 특성은 잠재적으로, 탐색을 수행하기 위해 외부 메모리로부터 증가된 양의 레퍼런스 샘플들을 사용할 수도 있다. 예를 들어, 단방향 예측된 모션 벡터에 대응하는 모션 벡터 정보의 후보 리스트에 양방향 예측된 모션 벡터 정보를 추가하는 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 레퍼런스 샘플들의 양을 증가시킬 수도 있다. 일부 경우들에 있어서, 모든 시딩 모션 벡터들 (예컨대, 모션 벡터 정보의 후보 리스트에서의 시작 모션 벡터 정보) 은 레퍼런스 프레임에서의 별개의 영역들에 속할 수도 있고, 따라서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 최상의 모션 벡터를 찾기 위한 FRUC 탐색을 수행하기 위해 모든 레퍼런스 샘플들을 페치할 수도 있다. 레퍼런스 샘플들의 이러한 잠재적으로 증가된 양은 캐시 누락의 가능성을 증가시킬 수도 있고, 따라서, 일부 구현들에 있어서 더 높은 레퍼런스의 문제를 야기할 수도 있다.
본 개시는, 기존의 FRUC 설계에서 다음의 복잡도 문제들을 잠재적으로 해결하는 기법들을 설명한다. 제 1 예에 있어서, 기존의 FRUC 탐색에서, 비디오 코더는 시딩 모션 벡터들의 세트 (예컨대, 모션 벡터 정보의 후보 리스트에서의 시작 모션 벡터 정보) 를 도출하고, 그들 주위의 영역에서 탐색할 수도 있다. 이는, 최악 케이스 시나리오에서 대역폭 요건을 잠재적으로 증가시킬 수 있다. 제 2 예에 있어서, 양측성 템플릿 매칭은 정규 병합 모드에 대한 모션 정세의 대안적인 방법을 도입하고 코딩 효율을 가져 오는 한편, 그 방식은 모션 정세를 위한 양측성 템플릿에 대한 추가적인 버퍼를 요구하며, 이는 다른 모션 정세 방법들과 부합하지 않고 추가적인 복잡도를 야기한다. 제 3 예에 있어서, 기존의 FRUC 설계에서, 디코더측 모션 탐색에 이어서, 각각의 서브-블록 (예컨대, 4x4 서브-블록) 이 레퍼런스 프레임의 별개의 영역을 포인팅하는 별개의 시딩 모션 벡터들을 가질 수도 있는 서브-블록 정세가 뒤따른다. 시딩 모션 벡터들의 각각에 의해 커버되는 별개의 탐색 범위는 0.4% - 1.1% 코딩 이득을 획득하면서 계산 복잡도뿐 아니라 대역폭 요건을 증가시킬 수도 있다.
전술한 바를 해결하기 위해, 수개의 기법들이 다음과 같이 제안된다.
다음의 항목화된 기법들은 개별적으로 적용될 수도 있다. 대안적으로, 이들 기법들의 임의의 조합이 적용될 수도 있다. 레퍼런스 인덱스 정보는 모션 정보의 부분으로서 간주될 수도 있으며, 때때로, 레퍼런스 인덱스 정보 및 모션 정보는 본 명세서에서 모션 정보의 세트로서 공동으로 지칭됨을 유의한다.
제 1 기법에 있어서, FRUC 템플릿 매칭, 또는 양측성 매칭, 또는 이들 양자 모두에 대해, 비디오 인코더 (20) 는 시딩 모션 벡터들의 리스트를 구축하고, 시작 (시딩) MV 는 도출되는 대신 시그널링된다. 달리 말하면, 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축할 수도 있다. 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 오직 시작 MV 주위만을 탐색할 수도 있다. 현재 프레임의 부분은 현재 프레임의 현재 블록, 현재 프레임에 대한 현재 코딩 유닛, 또는 현재 프레임에 대한 복수의 코딩 유닛들에 대응할 수도 있다.
비디오 인코더 (20) 는 시작 MV 를 비디오 디코더 (30) 에 시그널링할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 블록 레벨에서 시작 (시딩) MV 를 시그널링할 수도 있다. 달리 말하면, 예를 들어, 비디오 인코더 (20) 는 잔차 샘플 값들의 표시, 및 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보를 출력할 수도 있다. 일부 예들에 있어서, 비디오 디코더 (30) 는 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보를 수신할 수도 있으며, 시작 모션 벡터 정보는 레퍼런스 프레임에서의 초기 포지션을 표시한다. 일부 예들에 있어서, 비디오 인코더 (20) 는 각각의 코딩 유닛에 대한 시작 MV 를 시그널링할 수도 있다. 일부 예들에 있어서, 비디오 인코더 (20) 는 상위 레벨 (예컨대, 다중의 코딩 유닛들을 커버하는 더 큰 영역) 에서 시작 MV 를 시그널링할 수도 있다. 이러한 예에 있어서, 영역 내의 각각의 코딩 유닛에 대해, 비디오 디코더 (30) 는 시그널링된 MV 주위의 작은 범위를 탐색할 수도 있다. 일부 예들에 있어서, 비디오 인코더 (20) 는 시딩 MV들의 구축된 리스트로부터 시작 (시딩) MV 를 표시하기 위한 인덱스 또는 플래그를 시그널링할 수도 있다.
시딩 모션 벡터들의 초기 후보 리스트의 구축을 위해, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 프루닝 프로세스를 적용할 수도 있다. 예를 들어, 프루닝은 사용될 모션 벡터들의 정밀도 및 현재 블록 사이즈에 기초할 수도 있다. 달리 말하면, 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 모션 벡터 정보의 후보 리스트를 생성하기 위해 정세된 모션 벡터 정보에 대한 모션 벡터 정밀도 및/또는 현재 블록의 사이즈에 기초하여 모션 벡터 정보의 초기 후보 리스트로부터 제 1 후보 모션 벡터 정보를 프루닝할 수도 있다. 일부 예들에 있어서, 프루닝하기 위해, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는: (1) 모션 벡터 정보의 후보 리스트로부터 병합 후보를 제거하거나; 또는 (2) 병합 후보의 정세를 생략할 수도 있다. 프루닝하기 위해, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 정세된 모션 벡터 정보에 대한 모션 벡터 정밀도 (예컨대, 픽셀 정밀도) 를 결정할 수도 있다.
일부 예들에 있어서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 리스트에서의 모션 벡터들의 유사도에 기초하여 프루닝할 수도 있다. 달리 말하면, 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 모션 벡터 정보의 후보 리스트를 생성하기 위해 모션 벡터 정보의 초기 후보 리스트의 제 1 후보 모션 벡터 정보와 제 2 후보 모션 벡터 정보 사이의 유사도에 기초하여 모션 벡터 정보의 초기 후보 리스트로부터 제 1 후보 모션 벡터 정보를 프루닝할 수도 있다. 일부 예들에 있어서, 프루닝하기 위해, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 제 1 후보 모션 벡터 정보와 제 2 후보 모션 벡터 정보의 유사도에 기초하여 모션 벡터 정보의 후보 리스트의 제 2 후보 모션 벡터 정보에 대한 모션 벡터 정밀도를 결정할 수도 있다.
유사도는 모션 벡터들 사이의 거리에 기초할 수도 있다. 일부 예들에 있어서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 다음의 규칙 수식을 사용할 수도 있으며:
Figure 112020037119221-pct00003
여기서, WH 는 각각 블록의 폭 및 높이이고,
Figure 112020037119221-pct00004
은 모션 벡터의 정밀도 (예컨대, JEM 에서 사용된 바와 같은 1/16 픽셀 정밀도, 따라서,
Figure 112020037119221-pct00005
의 값은 4 일 수도 있음) 를 나타낸다. 새로운 후보에 대해, 수평 및 수직 모션 벡터들의 절대 값들 양자 모두가 임의의 (시딩 모션 벡터들의 리스트 구축의 순서에서) 이전의 후보의
Figure 112020037119221-pct00006
미만이면, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 새로운 후보를 후보 리스트에 추가하지 않을 수도 있다. 일부 예들에 있어서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 시퀀스 파라미터 세트 (SPS), 픽처 파라미터 세트 (PPS), 또는 슬라이스의 신택스 엘리먼트들을 통해 임계 값들을 전송할 수도 있다. 임계 값들은 블록 사이즈들에 대한 임계치, 픽셀 오프셋에 대한 임계치들 (예컨대, 식 (3) 에서 4개 픽셀들), 및 MV 정밀도를 포함할 수도 있다.
FRUC TM 시딩 모션 벡터들의 도출 동안, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 단방향 예측 대 양방향 예측 기법을 사용할 수도 있다. B 슬라이스들에 있어서, 임의의 도출된 후보가 오직 L0 또는 L1 중 어느 하나로부터만 예측되면, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 다른 리스트의 모션 벡터로서 쌍을 이룬 반대 부호의 모션 벡터를 인공적으로 생성하고, 후보를, 양방향 예측된 모션 벡터들을 갖는 후보 리스트에 추가할 수도 있다. 달리 말하면, 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는, 현재 프레임의 부분이 B-슬라이스에 대응하고 그리고 단방향 예측된 모션 벡터 정보가 모션 벡터 정보의 후보 리스트에 포함될 것임을 결정하는 것에 응답하여, 양방향 예측된 모션 벡터 정보를, 단방향 예측된 모션 벡터에 대응하는 모션 벡터 정보의 후보 리스트에 추가할 수도 있다. 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 (예컨대, 오직 L0 또는 L1 중 어느 하나로부터만 예측되는) 제 1 모션 벡터 및 제 1 모션 벡터에 대응하고 반대 부호를 갖는 제 2 모션 벡터를 표시하기 위해 양방향 예측된 모션 벡터 정보를 생성할 수도 있다. 일부 예들에 있어서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 L0 의 모션 벡터를 MV0 으로서 표기하고 L1 모션 벡터가 이용불가능함을 표기할 수도 있으며, 인공 L1 모션 벡터 (L1') 를 0 으로 설정된 레퍼런스 인덱스를 갖는 -MV0 으로 설정할 수도 있고, 그 역도 성립한다.
비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 현재 프레임에 대한 상대 시간 거리에 기초하여 이용불가능한 모션 벡터를 생성할 수도 있다. 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 L0 의 모션 벡터를 MV0 으로서 그리고 현재 프레임에 대한 L0 의 모션 벡터의 시간 거리를 POC0 으로서 표기하고, 현재 프레임에 대한 L1, 즉, 레퍼런스 인덱스 0 에서의 레퍼런스 프레임의 시간 거리가 POC1 임을 표기할 수도 있다. L1 에 대한 인공 모션 벡터는 다음과 같이 기재될 수 있다:
Figure 112020037119221-pct00007
이용불가능한 레퍼런스 리스트 (리스트0/리스트1) 에 대해 레퍼런스 인덱스 0 을 항상 사용하는 대신, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 이용불가능한 리스트에서의 픽처들의 평균 QP 값들에 기초하여 인덱스 값을 선택할 수도 있다. 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 레퍼런스 인덱스로서 최저 평균 QP 값들과 연관된 픽처를 사용할 수도 있다. 대안적으로 또는 부가적으로, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 최소 POC 차이 또는 최소 시간 계층 인덱스를 갖는 인덱스 값을 선택할 수도 있다. 대안적으로 또는 부가적으로, 비디오 인코더 (20) 는 슬라이스 헤더, PPS, SPS, 또는 블록 레벨에서 레퍼런스 인덱스를 시그널링할 수도 있다.
비디오 인코더 (20) 는 슬라이스 레벨에서 시그널링될 후보들의 수를 결정할 수도 있다. 대안적으로 또는 부가적으로, 후보들의 수의 시그널링은 모드 의존적일 수도 있다. 예를 들어, IC 및 비-IC 경우들의 시그널링은 별개일 수 있다. 이는, IC 가 인에이블될 때 FRUC TM 시딩 후보들의 수가 2 이고, 비-IC 경우 FRUC TM 후보들의 수가 4 인 것을 포함하지만 이에 한정되지 않는다.
제 2 기법에 있어서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 양측성 템플릿 매칭에 의해 수행된 모션 정세를 수행하기 위해 FRUC 양측성 매칭을 사용할 수도 있다. 즉, 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는, 양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 초기 포지션으로부터 탐색 범위 내에 있는 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 모션 벡터 정보를 결정하기 위해 시작 모션 벡터 정보를 정세할 수도 있다. 더 구체적으로, 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 제 1 초기 포지션과 제 2 초기 포지션 사이의 매칭 차이에 기초하여 모션 궤적을 정세할 수도 있다. 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 별도의 FRUC 모드로서부터의 오리지널 FRUC 양측성 매칭을 정규 병합 모드의 모션 벡터 정세로 이동시킬 수도 있다.
양측성 템플릿 매칭에서, 예를 들어, X.Chen, J.An, J.Zheng, "EE3: Decoder-Side Motion Vector Refinement Based on Bilateral Template Matching," JVET-E0052, Jan.2017 에서 기술된 바와 같이 양측성 템플릿을 생성하고 모션 정세를 수행하는 대신, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 미국 특허공개 US-2016-0286230호에서 기술된 바와 같은 양측성 매칭을 사용할 수도 있다. 도 9 에 예시된 방식으로서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 Ref0 에서의 영역과 Ref1 에서의 영역 사이에서 탐색을 수행할 수도 있음을 유의한다. 모션 정세의 탐색 범위는 8 로 설정될 수도 있는 한편, 탐색 범위는 상위 레벨 신택스 엘리먼트를 통해 시그널링될 수도 있다. 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는, 추가의 업데이트가 없거나 또는 탐색 범위의 경계에 도달할 때까지 반복적으로 수행되는 정수-펠 (pel) 탐색들을 사용하고 이어서, 동일한 정지 기준을 사용하는 하프-펠 탐색들을 뒤따라 사용할 수도 있다.
비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 미러링 방식으로 양측성 기반 정세를 수행할 수도 있다. 즉, 예를 들어, 정세 모션 벡터들의 탐색 동안, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 탐색을 수행하기 위해 쌍을 이룬 반대 부호의 모션 벡터 정세를 채용할 수도 있다. 달리 말하면, 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 모션 벡터 정세에 의해 제 1 초기 포지션을 명시하는 모션 벡터 궤적의 제 1 모션 벡터를 수정하고, 반대 부호로 모션 벡터 정세에 의해 제 2 초기 포지션을 명시하는 모션 벡터 궤적의 제 2 모션 벡터를 수정할 수도 있다.
비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 시간 거리를 포함하여 미러링 방식으로 2개의 영역들을 정의할 수도 있다. 즉, 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 Ref0, Ref1 과 현재 프레임 사이의 시간 거리를 고려할 수도 있으며, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 그에 따라 스케일링을 수행하여, (예컨대, 식 (4) 와 유사한) Ref0 및 Ref1 양자 모두에 대한 모션 벡터들을 획득할 수도 있다. 달리 말하면, 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 현재 프레임과 제 1 레퍼런스 프레임 사이의 시간 거리 및 현재 프레임과 제 2 레퍼런스 프레임 사이의 시간 거리에 기초하여 모션 궤적을 스케일링할 수도 있다.
비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 미러링 제약을 부과하지 않고 별도로 2개의 영역들을 탐색할 수도 있다. 처음에, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 MV0 을 고정하고 MV1 을 탐색할 수도 있고, 그 다음, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 최상의 MV1 을 고정하고 MV0 을 탐색할 수도 있는 등등이다. 이러한 프로세스는, MV0 및 MV1 양자 모두에서 변경이 없을 때까지 계속할 수도 있다. 달리 말하면, 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 제 1 정세된 모션 벡터를 생성하기 위해 제 1 초기 포지션과 제 2 초기 포지션 사이의 매칭 차이에 기초하여 제 1 초기 포지션을 명시하는 모션 벡터 궤적의 제 1 모션 벡터를 정세하고, 제 1 정세된 모션 벡터에 기초하여 제 2 초기 포지션을 명시하는 모션 벡터 궤적의 제 2 모션 벡터를 정세할 수도 있다.
비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는, 예를 들어, 절대 차의 합 (SAD), 평균 제거된 SAD (MR-SAD), 제곱 차의 합 (SSD), 정규화된 상호 상관 (NCC), 또는 구조적 유사도 인덱스 (SSIM) 와 같지만 이에 한정되지 않는 모션 벡터 정세를 위한 탐색을 수행하는 메트릭을 사용할 수도 있다. 달리 말하면, 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 메트릭에 기초하여 제 1 초기 포지션과 제 2 초기 포지션 사이의 매칭 차이를 결정할 수도 있으며, 여기서, 메트릭은 SAD, MR-SAD, SSD, NCC, 또는 SSIM 중 하나 이상을 포함한다.
비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 블록 사이즈에 기초하여 메트릭을 사용할 수도 있다. 달리 말하면, 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 현재 블록의 사이즈에 기초하여 복수의 메트릭들로부터 메트릭을 선택할 수도 있다. 대형 사이즈의 블록들에 대해, 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 MR-SAD, NCC, 또는 SSIM 을 사용할 수도 있다. 달리 말하면, 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는, 현재 블록의 사이즈가 블록 사이즈 임계치를 초과할 경우 메트릭을 MR-SAD, NCC, 또는 SSIM 으로서 선택할 수도 있다. 소형 사이즈의 블록들에 대해, 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 SAD 또는 SSE 를 사용할 수도 있다. 달리 말하면, 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는, 현재 블록의 사이즈가 블록 사이즈 임계치를 초과하지 않을 경우 메트릭을 SAD 또는 SSE 로서 선택할 수도 있다. 작거나 큰 블록 사이를 구별하기 위한 임계치는 미리정의되거나, 또는 SPS, PPS, 또는 슬라이스 헤더와 같은 하이 레벨 신택스를 통해 시그널링될 수 있다. 일부 예들에 있어서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 다른 하이 레벨 신택스 엘리먼트들에 기초하여 탐색을 수행하기 위한 메트릭을 선택할 수도 있다. 예를 들어, 루미넌스 변화가 존재하는지 여부를 표시하는 슬라이스 레벨 플래그 (예컨대, IC 플래그) 가 1 로 설정될 경우, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 모션 벡터 정세에서의 탐색을 위한 메트릭으로서 MR-SAD 를 사용할 수도 있다.
제 3 기법에 있어서, FRUC 템플릿 매칭을 위해, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 서브-블록 모션 탐색에 의해 도입된 여분의 시딩들을 감소시키기 위해 서브-블록 모션 정세를 선택적으로 디스에이블할 수도 있다. 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 서브-블록 모션 정세가 인에이블되는지 여부를 결정하기 위해 슬라이스 레벨 스위치를 추가할 수도 있다. 비디오 인코더 (20) 는 이전 프레임들의 통계들에 기초하여 그러한 결정을 내릴 수도 있다. 예를 들어, 이전 프레임의 평균 블록 사이즈가 임계치보다 크면, 비디오 인코더 (20) 는 서브-블록 모션 정세를 인에이블할 수도 있다. 일부 예들에 있어서, 이전 프레임의 평균 블록 사이즈가 임계치보다 크지 않으면, 비디오 인코더 (20) 는 서브-블록 모션 정세를 디스에이블할 수도 있다. 일부 예에 있어서, 비디오 인코더 (20) 는 서브-블록 모션 정세를 완전히 디스에이블할 수도 있다.
비디오 인코더 (20) 는 서브-블록 모션 정세를 부분적으로 디스에이블할 수도 있다. 예를 들어, 상좌측 포지션들에 더 가까운 서브-블록들에 대해, 비디오 인코더 (20) 는 서브-블록 모션 정세를 디스에이블할 수도 있는 한편, 우하측 포지션들에 더 가까운 것들에 대해서, 비디오 인코더 (20) 는 서브-블록 모션 정세를 인에이블할 수도 있다.
상기 언급된 기법들은 특정 블록 사이즈들 및/또는 코딩 모드들에 적용될 수도 있다.
도 13 은 본 개시의 기법들을 구현할 수도 있는 예시적인 비디오 인코더 (20) 를 예시한 블록 다이어그램이다. 도 13 은 설명의 목적들로 제공되며, 본 개시에서 넓게 예시화되고 설명된 바와 같은 기법들을 한정하는 것으로 고려되지 않아야 한다. 본 개시의 기법들은 다양한 코딩 표준들 또는 방법들에 적용가능할 수도 있다.
도 13 의 예에 있어서, 비디오 인코더 (20) 는 예측 프로세싱 유닛 (400), 비디오 데이터 메모리 (401), 잔차 생성 유닛 (402), 변환 프로세싱 유닛 (404), 양자화 유닛 (406), 역양자화 유닛 (408), 역변환 프로세싱 유닛 (410), 복원 유닛 (412), 필터 유닛 (414), 디코딩된 픽처 버퍼 (416), 및 엔트로피 인코딩 유닛 (418) 을 포함한다. 예측 프로세싱 유닛 (400) 은 인터-예측 프로세싱 유닛 (420) 및 인트라-예측 프로세싱 유닛 (426) 을 포함한다. 인터-예측 프로세싱 유닛 (420) 은 모션 추정 유닛 및 모션 보상 유닛을 포함한다 (도시 안됨). 비디오 인코더 (20) 는 FRUC 를 구현하기 위해 본 명세서에서 설명된 하나 이상의 기법들을 수행하도록 구성될 수도 있다.
비디오 데이터 메모리 (401) 는, 비디오 인코더 (20) 의 컴포넌트들에 의해 인코딩될 비디오 데이터를 저장하도록 구성될 수도 있다. 비디오 데이터 메모리 (401) 에 저장된 비디오 데이터는, 예를 들어, 비디오 소스 (18) 로부터 획득될 수도 있다. 디코딩된 픽처 버퍼 (416) 는, 예컨대, 인트라 또는 인터 코딩 모드들에서 비디오 인코더 (20) 에 의해 비디오 데이터를 인코딩함에 있어서 사용하기 위한 레퍼런스 비디오 데이터를 저장하는 레퍼런스 픽처 메모리일 수도 있다. 비디오 데이터 메모리 (401) 및 디코딩된 픽처 버퍼 (416) 는 동기식 DRAM (SDRAM) 을 포함한 동적 랜덤 액세스 메모리 (DRAM), 자기저항성 RAM (MRAM), 저항성 RAM (RRAM), 또는 다른 타입들의 메모리 디바이스들과 같은 다양한 메모리 디바이스들 중 임의의 메모리 디바이스에 의해 형성될 수도 있다. 비디오 데이터 메모리 (401) 및 디코딩된 픽처 버퍼 (416) 는 동일한 메모리 디바이스 또는 별도의 메모리 디바이스들에 의해 제공될 수도 있다. 다양한 예들에 있어서, 비디오 데이터 메모리 (401) 는 비디오 인코더 (20) 의 다른 컴포넌트들과 온-칩형이거나 또는 그들 컴포넌트들에 대하여 오프-칩형일 수도 있다. 비디오 데이터 메모리 (401) 는 도 1 의 저장 매체들 (19) 과 동일하거나 그 부분일 수도 있다.
비디오 인코더 (20) 는 비디오 데이터를 수신한다. 비디오 인코더 (20) 는 비디오 데이터의 픽처의 슬라이스에서 각각의 CTU 를 인코딩할 수도 있다. CTU들의 각각은, 동일하게 사이징된 루마 코딩 트리 블록들 (CTB들) 및 픽처의 대응하는 CTB들과 연관될 수도 있다. CTU 를 인코딩하는 부분으로서, 예측 프로세싱 유닛 (400) 은 파티셔닝을 수행하여, CTU 의 CTB들을 점진적으로 더 작은 블록들로 분할할 수도 있다. 더 작은 블록들은 CU들의 코딩 블록들일 수도 있다. 예를 들어, 예측 프로세싱 유닛 (400) 은 트리 구조에 따라 CTU 와 연관된 CTB 를 파티셔닝할 수도 있다.
비디오 인코더 (20) 는 CTU 의 CU들을 인코딩하여 CU들의 인코딩된 표현들 (즉, 코딩된 CU들) 을 생성할 수도 있다. CU 를 인코딩하는 부분으로서, 예측 프로세싱 유닛 (400) 은 CU 의 하나 이상의 PU들 중에서 CU 와 연관된 코딩 블록들을 파티셔닝할 수도 있다. 따라서, 각각의 PU 는 루마 예측 블록 및 대응하는 크로마 예측 블록들과 연관될 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 는 다양한 사이즈들을 갖는 PU들을 지원할 수도 있다. 상기 나타낸 바와 같이, CU 의 사이즈는 CU 의 루마 코딩 블록의 사이즈를 지칭할 수도 있으며, PU 의 사이즈는 PU 의 루마 예측 블록의 사이즈를 지칭할 수도 있다. 특정 CU 의 사이즈가 2Nx2N 이라고 가정하면, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 인트라 예측을 위해 2Nx2N 또는 NxN 의 PU 사이즈들을 지원하고, 인터 예측을 위해 2Nx2N, 2NxN, Nx2N, NxN, 기타 등등의 대칭적인 PU 사이즈들을 지원할 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 는 또한, 인터 예측을 위해 2NxnU, 2NxnD, nLx2N, 및 nRx2N 의 PU 사이즈들에 대한 비대칭적인 파티셔닝을 지원할 수도 있다.
인터-예측 프로세싱 유닛 (420) 은 CU 의 각각의 PU 에 대해 인터 예측을 수행함으로써 PU 에 대한 예측 데이터를 생성할 수도 있다. PU 에 대한 예측 데이터는, PU 의 예측 블록들 및 PU 에 대한 모션 정보를 포함할 수도 있다. 인터-예측 프로세싱 유닛 (420) 은, PU 가 I 슬라이스인지 P 슬라이스인지 또는 B 슬라이스인지에 의존하여 CU 의 PU 에 대해 상이한 동작들을 수행할 수도 있다. I 슬라이스에 있어서, 모든 PU들은 인트라 예측된다. 따라서, PU 가 I 슬라이스에 있으면, 인터-예측 프로세싱 유닛 (420) 은 PU 에 대해 인터 예측을 수행하지 않는다. 따라서, I-모드로 인코딩된 블록들에 대해, 예측된 블록은 동일 프레임 내의 이전에 인코딩된 이웃 블록들로부터의 공간 예측을 이용하여 형성된다. PU 가 P 슬라이스에 있으면, 인터-예측 프로세싱 유닛 (420) 은 단방향 인터 예측을 이용하여 PU 의 예측 블록을 생성할 수도 있다. PU 가 B 슬라이스에 있으면, 인터-예측 프로세싱 유닛 (420) 은 단방향 또는 양방향 인터 예측을 이용하여 PU 의 예측 블록을 생성할 수도 있다.
인트라-예측 프로세싱 유닛 (426) 은 PU 에 대해 인트라 예측을 수행함으로써 PU 에 대한 예측 데이터를 생성할 수도 있다. PU 에 대한 예측 데이터는 PU 의 예측 블록들 및 다양한 신택스 엘리먼트들을 포함할 수도 있다. 인트라-예측 프로세싱 유닛 (426) 은 I 슬라이스들, P 슬라이스들, 및 B 슬라이스들에 있어서 PU들에 대해 인트라 예측을 수행할 수도 있다.
PU 에 대해 인트라 예측을 수행하기 위해, 인트라-예측 프로세싱 유닛 (426) 은 다중의 인트라 예측 모드들을 이용하여, PU 에 대한 예측 데이터의 다중의 세트들을 생성할 수도 있다. 인트라-예측 프로세싱 유닛 (426) 은 이웃 PU들의 샘플 블록들로부터의 샘플들을 이용하여 PU 에 대한 예측 블록을 생성할 수도 있다. 이웃 PU들은, PU들, CU들, 및 CTU들에 대한 좌-우로, 상-하로의 인코딩 순서를 가정할 때, PU 의 상측, 상측 및 우측으로, 상측 및 좌측으로, 또는 좌측으로일 수도 있다. 인트라-예측 프로세싱 유닛 (426) 은 다양한 개수들의 인트라 예측 모드들, 예컨대, 33개의 지향성 인트라 예측 모드들을 이용할 수도 있다. 일부 예들에 있어서, 인트라 예측 모드들의 수는 PU 와 연관된 영역의 사이즈에 의존할 수도 있다.
예측 프로세싱 유닛 (400) 은 PU들에 대한 인터-예측 프로세싱 유닛 (420) 에 의해 생성된 예측 데이터 또는 PU들에 대한 인트라-예측 프로세싱 유닛 (426) 에 의해 생성된 예측 데이터 중으로부터 CU 의 PU들에 대한 예측 데이터를 선택할 수도 있다. 일부 예들에 있어서, 예측 프로세싱 유닛 (400) 은 예측 데이터의 세트들의 레이트/왜곡 메트릭들에 기초하여 CU 의 PU들에 대한 예측 데이터를 선택한다. 선택된 예측 데이터의 예측 블록들은 본 명세서에서 선택된 예측 블록들로서 지칭될 수도 있다. 예측 프로세싱 유닛 (400) 은, 시그널링을 위한 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 결정하기 위해 본 명세서에서 설명된 하나 이상의 기법들을 수행하도록 구성될 수도 있다.
잔차 생성 유닛 (402) 은, CU 에 대한 코딩 블록들 (예컨대, 루마, Cb, 및 Cr 코딩 블록들) 및 CU 의 PU들에 대한 선택된 예측 블록들 (예컨대, 예측 루마, Cb, 및 Cr 블록들) 에 기초하여, CU 에 대한 잔차 블록들 (예컨대, 루마, Cb, 및 Cr 잔차 블록들) 을 생성할 수도 있다. 예를 들어, 잔차 생성 유닛 (402) 은, 잔차 블록들에서의 각각의 샘플이 CU 의 코딩 블록에서의 샘플과 CU 의 PU 의 대응하는 선택된 예측 블록에서의 대응하는 샘플 간의 차이와 동일한 값을 갖도록 CU 의 잔차 블록들을 생성할 수도 있다.
변환 프로세싱 유닛 (404) 은 쿼드 트리 파티셔닝을 수행하여, CU 와 연관된 잔차 블록들을 CU 의 TU들과 연관된 변환 블록들로 파티셔닝할 수도 있다. 따라서, TU 는 루마 변환 블록 및 2개의 크로마 변환 블록들과 연관될 수도 있다. CU 의 TU들의 루마 및 크로마 변환 블록들의 사이즈들 및 포지션들은 CU 의 PU들의 예측 블록들의 사이즈들 및 포지션들에 기초할 수도 있거나 기초하지 않을 수도 있다. "잔차 쿼드 트리" (RQT) 로서 공지된 쿼드 트리 구조는 영역들의 각각과 연관된 노드들을 포함할 수도 있다. CU 의 TU들은 RQT 의 리프 노드들에 대응할 수도 있다.
변환 프로세싱 유닛 (404) 은 TU 의 변환 블록들에 하나 이상의 변환들을 적용함으로써 CU 의 각각의 TU 에 대한 변환 계수 블록들을 생성할 수도 있다. 변환 프로세싱 유닛 (404) 은 TU 와 연관된 변환 블록에 다양한 변환들을 적용할 수도 있다. 예를 들어, 변환 프로세싱 유닛 (404) 은 이산 코사인 변환 (DCT), 지향성 변환, 또는 개념적으로 유사한 변환을 변환 블록에 적용할 수도 있다. 일부 예들에 있어서, 변환 프로세싱 유닛 (404) 은 변환 블록에 변환들을 적용하지 않는다. 그러한 예들에 있어서, 변환 블록은 변환 계수 블록으로서 처리될 수도 있다.
양자화 유닛 (406) 은 계수 블록에 있어서의 변환 계수들을 양자화할 수도 있다. 양자화 프로세스는 변환 계수들의 일부 또는 그 모두와 연관된 비트 심도를 감소시킬 수도 있다. 예를 들어, n비트 변환 계수는 양자화 동안 m비트 변환 계수로 라운드-다운될 수도 있으며, 여기서, n 은 m 보다 크다. 양자화 유닛 (406) 은 CU 와 연관된 양자화 파라미터 (QP) 값에 기초하여 CU 의 TU 와 연관된 계수 블록을 양자화할 수도 있다. 비디오 인코더 (20) 는 CU 와 연관된 QP 값을 조정함으로써 CU 와 연관된 계수 블록들에 적용된 양자화도를 조정할 수도 있다. 양자화는 정보의 손실을 도입할 수도 있다. 따라서, 양자화된 변환 계수들은 오리지널 변환 계수들보다 더 낮은 정밀도를 가질 수도 있다.
역양자화 유닛 (408) 및 역변환 프로세싱 유닛 (410) 은, 각각, 계수 블록에 역양자화 및 역변환들을 적용하여, 그 계수 블록으로부터 잔차 블록을 복원할 수도 있다. 복원 유닛 (412) 은 복원된 잔차 블록을, 예측 프로세싱 유닛 (400) 에 의해 생성된 하나 이상의 예측 블록들로부터의 대응하는 샘플들에 가산하여, TU 와 연관된 복원된 변환 블록을 생성할 수도 있다. 이러한 방식으로 CU 의 각각의 TU 에 대한 변환 블록들을 복원함으로써, 비디오 인코더 (20) 는 CU 의 코딩 블록들을 복원할 수도 있다.
필터 유닛 (414) 은 하나 이상의 디블록킹 (deblocking) 동작들을 수행하여, CU 와 연관된 코딩 블록들에서의 블록킹 아티팩트들을 감소시킬 수도 있다. 디코딩된 픽처 버퍼 (416) 는, 필터 유닛 (414) 이 복원된 코딩 블록들에 대해 하나 이상의 디블록킹 동작들을 수행한 이후 복원된 코딩 블록들을 저장할 수도 있다. 인터-예측 프로세싱 유닛 (420) 은 복원된 코딩 블록들을 포함하는 레퍼런스 픽처를 이용하여, 다른 픽처들의 PU들에 대해 인터 예측을 수행할 수도 있다. 부가적으로, 인트라-예측 프로세싱 유닛 (426) 은 디코딩된 픽처 버퍼 (416) 에 있어서의 복원된 코딩 블록들을 이용하여, CU 와 동일한 픽처에 있어서의 다른 PU들에 대해 인트라 예측을 수행할 수도 있다.
엔트로피 인코딩 유닛 (418) 은 비디오 인코더 (20) 의 다른 기능 컴포넌트들로부터 데이터를 수신할 수도 있다. 예를 들어, 엔트로피 인코딩 유닛 (418) 은 양자화 유닛 (406) 으로부터 계수 블록들을 수신할 수도 있고, 예측 프로세싱 유닛 (400) 으로부터 신택스 엘리먼트들을 수신할 수도 있다. 엔트로피 인코딩 유닛 (418) 은 데이터에 대해 하나 이상의 엔트로피 인코딩 동작들을 수행하여 엔트로피 인코딩된 데이터를 생성할 수도 있다. 예를 들어, 엔트로피 인코딩 유닛 (418) 은 CABAC 동작, 컨텍스트 적응형 가변 길이 코딩 (CAVLC) 동작, V2V (variable-to-variable) 길이 코딩 동작, 신택스 기반 컨텍스트 적응형 바이너리 산술 코딩 (SBAC) 동작, 확률 인터벌 파티셔닝 엔트로피 (PIPE) 코딩 동작, 지수-골롬 인코딩 동작, 또는 다른 타입의 엔트로피 인코딩 동작을 데이터에 대해 수행할 수도 있다. 비디오 인코더 (20) 는 엔트로피 인코딩 유닛 (418) 에 의해 생성된 엔트로피 인코딩된 데이터를 포함하는 비트스트림을 출력할 수도 있다. 예를 들어, 그 비트스트림은, CU 에 대한 변환 계수들의 값들을 나타내는 데이터를 포함할 수도 있다.
도 14 는 본 개시의 기법들을 구현하도록 구성된 예시적인 비디오 디코더 (30) 를 예시한 블록 다이어그램이다. 도 14 는 설명의 목적들로 제공되며, 본 개시에서 넓게 예시화되고 설명된 바와 같은 기법들에 대해 한정하는 것은 아니다. 설명의 목적들로, 본 개시는 HEVC 코딩의 맥락에서 비디오 디코더 (30) 를 설명한다. 하지만, 본 개시의 기법들은 다른 코딩 표준들 또는 방법들에 적용가능할 수도 있다.
도 14 의 예에 있어서, 비디오 디코더 (30) 는 엔트로피 디코딩 유닛 (450), 비디오 데이터 메모리 (451), 예측 프로세싱 유닛 (452), 역양자화 유닛 (454), 역변환 프로세싱 유닛 (456), 복원 유닛 (458), 필터 유닛 (460), 및 디코딩된 픽처 버퍼 (462) 를 포함한다. 예측 프로세싱 유닛 (452) 은 모션 보상 유닛 (464) 및 인트라-예측 프로세싱 유닛 (466) 을 포함한다. 다른 예들에 있어서, 비디오 디코더 (30) 는 더 많거나, 더 적거나, 또는 상이한 기능 컴포넌트들을 포함할 수도 있다. 비디오 디코더 (30) 는 FRUC 를 구현하기 위해 본 명세서에서 설명된 하나 이상의 기법들을 수행하도록 구성될 수도 있다.
비디오 데이터 메모리 (451) 는, 비디오 디코더 (30) 의 컴포넌트들에 의해 디코딩될 인코딩된 비디오 비트스트림과 같은 인코딩된 비디오 데이터를 저장할 수도 있다. 비디오 데이터 메모리 (451) 에 저장된 비디오 데이터는, 예를 들어, 컴퓨터 판독가능 매체 (16) 로부터, 예컨대, 카메라와 같은 로컬 비디오 소스로부터, 비디오 데이터의 유선 또는 무선 네트워크 통신을 통해, 또는 물리적 데이터 저장 매체들에 액세스함으로써 획득될 수도 있다. 비디오 데이터 메모리 (451) 은, 인코딩된 비디오 비트스트림으로부터 인코딩된 비디오 데이터를 저장하는 코딩된 픽처 버퍼 (CPB) 를 형성할 수도 있다. 디코딩된 픽처 버퍼 (462) 는, 예컨대, 인트라- 또는 인터-코딩 모드들에서 비디오 디코더 (30) 에 의해 비디오 데이터를 디코딩함에 있어서 사용하기 위해 또는 출력을 위해 레퍼런스 비디오 데이터를 저장하는 레퍼런스 픽처 메모리일 수도 있다. 비디오 데이터 메모리 (451) 및 디코딩된 픽처 버퍼 (462) 는 SDRAM 을 포함한 DRAM, MRAM, RRAM, 또는 다른 타입들의 메모리 디바이스들과 같은 다양한 메모리 디바이스들 중 임의의 메모리 디바이스에 의해 형성될 수도 있다. 비디오 데이터 메모리 (451) 및 디코딩된 픽처 버퍼 (462) 는 동일한 메모리 디바이스 또는 별도의 메모리 디바이스들에 의해 제공될 수도 있다. 다양한 예들에 있어서, 비디오 데이터 메모리 (451) 는 비디오 디코더 (30) 의 다른 컴포넌트들과 온-칩형이거나 또는 그들 컴포넌트들에 대하여 오프-칩형일 수도 있다. 비디오 데이터 메모리 (451) 는 도 1 의 저장 매체들 (28) 과 동일하거나 그 부분일 수도 있다.
비디오 데이터 메모리 (451) 는 비트스트림의 인코딩된 비디오 데이터 (예컨대, NAL 유닛들) 를 수신 및 저장한다. 엔트로피 디코딩 유닛 (450) 은 인코딩된 비디오 데이터 (예컨대, NAL 유닛들) 를 비디오 데이터 메모리 (451) 로부터 수신할 수도 있고, NAL 유닛들을 파싱하여 신택스 엘리먼트들을 획득할 수도 있다. 엔트로피 디코딩 유닛 (450) 은 NAL 유닛들에 있어서의 엔트로피 인코딩된 신택스 엘리먼트들을 엔트로피 디코딩할 수도 있다. 예측 프로세싱 유닛 (452), 역양자화 유닛 (454), 역변환 프로세싱 유닛 (456), 복원 유닛 (458), 및 필터 유닛 (460) 은 비트스트림으로부터 추출된 신택스 엘리먼트들에 기초하여 디코딩된 비디오 데이터를 생성할 수도 있다. 엔트로피 디코딩 유닛 (450) 은, 엔트로피 인코딩 유닛 (418) 의 프로세스와 일반적으로 역인 프로세스를 수행할 수도 있다. 예측 프로세싱 유닛 (452) 은, 시그널링 정보에 포함된 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 사용하기 위해 본 명세서에서 설명된 하나 이상의 기법들을 수행하도록 구성될 수도 있다.
비트스트림으로부터 신택스 엘리먼트들을 획득하는 것에 부가하여, 비디오 디코더 (30) 는 비-파티셔닝된 CU 에 대해 복원 동작을 수행할 수도 있다. CU 에 대해 복원 동작을 수행하기 위해, 비디오 디코더 (30) 는 CU 의 각각의 TU 에 대해 복원 동작을 수행할 수도 있다. CU 의 각각의 TU 에 대해 복원 동작을 수행함으로써, 비디오 디코더 (30) 는 CU 의 잔차 블록들을 복원할 수도 있다.
CU 의 TU 에 대해 복원 동작을 수행하는 부분으로서, 역양자화 유닛 (454) 은 TU 와 연관된 계수 블록들을 역양자화, 즉, 탈양자화할 수도 있다. 역양자화 유닛 (454) 이 계수 블록을 역양자화한 이후, 역변환 프로세싱 유닛 (456) 은 TU 와 연관된 잔차 블록을 생성하기 위하여 계수 블록에 하나 이상의 역변환들을 적용할 수도 있다. 예를 들어, 역변환 프로세싱 유닛 (456) 은 역 DCT, 역 정수 변환, 역 KLT (Karhunen-Loeve transform), 역 회전 변환, 역 지향성 변환, 또는 다른 역변환을 계수 블록에 적용할 수도 있다.
역양자화 유닛 (454) 은 본 개시의 특정 기법들을 수행할 수도 있다. 예를 들어, 비디오 데이터의 픽처의 CTU 의 CTB 내의 복수의 양자화 그룹들 중 적어도 하나의 개별 양자화 그룹에 대해, 역양자화 유닛 (454) 은, 비트스트림에서 시그널링된 로컬 양자화 정보에 적어도 부분적으로 기초하여, 개별 양자화 그룹에 대한 개별 양자화 파라미터를 도출할 수도 있다. 부가적으로, 이 예에 있어서, 역양자화 유닛 (454) 은, 개별 양자화 그룹에 대한 개별 양자화 파라미터에 기초하여, CTU 의 CU 의 TU 의 변환 블록의 적어도 하나의 변환 계수를 역양자화할 수도 있다. 이 예에 있어서, 개별 양자화 그룹은 코딩 순서에서 연속적인 CU들 또는 코딩 블록들의 그룹으로서 정의되어, 개별 양자화 그룹의 경계들은 CU들 또는 코딩 블록들의 경계들이어야 하고 개별 양자화 그룹의 사이즈는 임계치 이상이다. 비디오 디코더 (30) (예컨대, 역변환 프로세싱 유닛 (456), 복원 유닛 (458), 및 필터 유닛 (460)) 은, 변환 블록의 역양자화된 변환 계수들에 기초하여, CU 의 코딩 블록을 복원할 수도 있다.
PU 가 인트라 예측을 이용하여 인코딩되면, 인트라-예측 프로세싱 유닛 (466) 은 인트라 예측을 수행하여 PU 의 예측 블록들을 생성할 수도 있다. 인트라-예측 프로세싱 유닛 (466) 은 인트라 예측 모드를 이용하여, 블록들에 공간적으로 이웃한 샘플들에 기초하여 PU 의 예측 블록들을 생성할 수도 있다. 인트라-예측 프로세싱 유닛 (466) 은 비트스트림으로부터 획득된 하나 이상의 신택스 엘리먼트들에 기초하여 PU 에 대한 인트라 예측 모드를 결정할 수도 있다.
PU 가 인터 예측을 이용하여 인코딩되면, 엔트로피 디코딩 유닛 (450) 은 PU 에 대한 모션 정보를 결정할 수도 있다. 모션 보상 유닛 (464) 은, PU 의 모션 정보에 기초하여, 하나 이상의 레퍼런스 블록들을 결정할 수도 있다. 모션 보상 유닛 (464) 은, 하나 이상의 레퍼런스 블록들에 기초하여, PU 에 대한 예측 블록들 (예컨대, 예측 루마, Cb, 및 Cr 블록들) 을 생성할 수도 있다.
복원 유닛 (458) 은 CU 의 TU들에 대한 변환 블록들 (예컨대, 루마, Cb, 및 Cr 변환 블록들) 및 CU 의 PU들의 예측 블록들 (예컨대, 루마, Cb, 및 Cr 블록들), 즉, 적용가능할 때 인트라-예측 데이터 또는 인터-예측 데이터 중 어느 하나를 이용하여, CU 에 대한 코딩 블록들 (예컨대, 루마, Cb, 및 Cr 코딩 블록들) 을 복원할 수도 있다. 예를 들어, 복원 유닛 (458) 은 변환 블록들 (예컨대, 루마, Cb, 및 Cr 변환 블록들) 의 샘플들을 예측 블록들 (예컨대, 루마, Cb, 및 Cr 예측 블록들) 의 대응하는 샘플들에 가산하여, CU 의 코딩 블록들 (예컨대, 루마, Cb, 및 Cr 코딩 블록들) 을 복원할 수도 있다.
필터 유닛 (460) 은 디블록킹 동작을 수행하여, CU 의 코딩 블록들과 연관된 블록킹 아티팩트들을 감소시킬 수도 있다. 비디오 디코더 (30) 는 CU 의 코딩 블록들을 디코딩된 픽처 버퍼 (462) 에 저장할 수도 있다. 디코딩된 픽처 버퍼 (462) 는 후속 모션 보상, 인트라 예측, 및 도 1 의 디스플레이 디바이스 (32) 와 같은 디스플레이 디바이스 상으로의 프리젠테이션을 위한 레퍼런스 픽처들을 제공할 수도 있다. 예를 들어, 비디오 디코더 (30) 는, 디코딩된 픽처 버퍼 (462) 에서의 블록들에 기초하여, 다른 CU들의 PU들에 대해 인트라 예측 또는 인터 예측 동작들을 수행할 수도 있다.
도 15 는 본 개시에서 설명된 하나 이상의 기법들에 따른, 비디오 디코딩을 위한 예시적인 방법을 예시한 블록 다이어그램이다. 처음에, 비디오 디코더 (30) 는 잔차 블록을 나타내는 하나 이상의 심볼들 및 시작 모션 벡터 정보를 표시하는 시그널링 정보를 포함하는 비트스트림을 수신한다 (502). 비디오 디코더 (30) 는 현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축한다 (504). 비디오 디코더 (30) 는, 양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 초기 포지션으로부터 탐색 범위 내에 있는 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 모션 벡터 정보를 결정하기 위해 시작 모션 벡터 정보를 정세한다 (506). 비디오 디코더 (30) 는 정세된 모션 벡터 정보에 기초하여 예측 블록을 생성한다 (508). 비디오 디코더 (30) 는 예측 블록에 기초하여 현재 프레임을 디코딩한다 (510).
도 16 은 본 개시에서 설명된 하나 이상의 기법들에 따른, 비디오 인코딩을 위한 예시적인 방법을 예시한 블록 다이어그램이다. 처음에, 비디오 인코더 (20) 는 현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축한다 (552). 비디오 인코더 (20) 는 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 선택하며, 시작 모션 벡터 정보는 레퍼런스 프레임에서의 초기 포지션을 표시한다 (554). 비디오 인코더 (20) 는, 양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 초기 포지션으로부터 탐색 범위 내에 있는 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 모션 벡터 정보를 결정하기 위해 시작 모션 벡터 정보를 정세한다 (556). 비디오 인코더 (20) 는 정세된 모션 벡터 정보에 기초하여 예측 블록을 생성한다 (558). 비디오 인코더 (20) 는 예측 블록에 기초하여 비디오 데이터의 현재 블록에 대한 잔차 샘플 값들을 생성한다 (560). 비디오 인코더 (20) 는 잔차 샘플 값들의 표시를 나타내는 하나 이상의 심볼들 및 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보를 포함하는 비트 스트림을 출력한다 (562).
본 개시의 특정 양태들은 예시의 목적들로 HEVC 표준의 확장들에 관하여 설명되었다. 하지만, 본 개시에서 설명된 기법들은, 다른 표준을 포함한 다른 비디오 코딩 프로세스들 또는 아직 개발되지 않은 전매특허의 비디오 코딩 프로세스들에 대해 유용할 수도 있다.
본 개시에서 설명된 바와 같은 비디오 코더는 비디오 인코더 또는 비디오 디코더를 지칭할 수도 있다. 유사하게, 비디오 코딩 유닛은 비디오 인코더 또는 비디오 디코더를 지칭할 수도 있다. 마찬가지로, 비디오 코딩은, 적용가능할 때, 비디오 인코딩 또는 비디오 디코딩을 지칭할 수도 있다. 본 개시에 있어서, 어구 "기초하여" 는 오직 기초하여, 적어도 부분적으로 기초하여, 또는 일부 방식으로 기초하여를 나타낼 수도 있다. 본 개시는 용어 "비디오 유닛" 또는 "비디오 블록" 또는 "블록" 을 사용하여, 하나 이상의 샘플 블록들 및 하나 이상의 샘플 블록들의 샘플들을 코딩하는데 사용된 신택스 구조들을 지칭할 수도 있다. 비디오 유닛들의 예시적인 타입들은 CTU들, CU들, PU들, 변환 유닛들 (TU들), 매크로블록들, 매크로블록 파티션들 등을 포함할 수도 있다. 일부 맥락들에 있어서, PU들의 논의는 매크로블록들 또는 매크로블록 파티션들의 논의와 상호교환될 수도 있다. 비디오 블록들의 예시적인 타입들은 코딩 트리 블록들, 코딩 블록들, 및 비디오 데이터의 다른 타입들의 블록들을 포함할 수도 있다.
예에 의존하여, 본 명세서에서 설명된 기법들의 임의의 특정 작동들 또는 이벤트들은 상이한 시퀀스로 수행될 수 있고, 전체적으로 부가되거나 병합되거나 또는 제거될 수도 있음 (예컨대, 설명된 모든 작동들 또는 이벤트들이 그 기법들의 실시를 위해 필수적인 것은 아님) 이 인식되어야 한다. 더욱이, 특정 예들에 있어서, 작동들 또는 이벤트들은 순차적인 것보다는, 예컨대, 다중-스레딩된 프로세싱, 인터럽트 프로세싱, 또는 다중의 프로세서들을 통해 동시에 수행될 수도 있다.
하나 이상의 예들에 있어서, 설명된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합에서 구현될 수도 있다. 소프트웨어에서 구현된다면, 그 기능들은 하나 이상의 명령들 또는 코드로서 컴퓨터 판독가능 매체 상으로 저장 또는 전송되고 하드웨어 기반 프로세싱 유닛에 의해 실행될 수도 있다. 컴퓨터 판독가능 매체들은 데이터 저장 매체들과 같은 유형의 매체에 대응하는 컴퓨터 판독가능 저장 매체들, 또는 예컨대, 통신 프로토콜에 따라 일 장소로부터 다른 장소로의 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함하는 통신 매체들을 포함할 수도 있다. 이러한 방식으로, 컴퓨터 판독가능 매체들은 일반적으로 (1) 비일시적인 유형의 컴퓨터 판독가능 저장 매체들 또는 (2) 신호 또는 캐리어파와 같은 통신 매체에 대응할 수도 있다. 데이터 저장 매체들은 본 개시에서 설명된 기법들의 구현을 위한 명령들, 코드 및/또는 데이터 구조들을 취출하기 위해 하나 이상의 컴퓨터들 또는 하나 이상의 프로세서들에 의해 액세스될 수 있는 임의의 가용 매체들일 수도 있다. 컴퓨터 프로그램 제품이 컴퓨터 판독가능 매체를 포함할 수도 있다.
한정이 아닌 예로서, 그러한 컴퓨터 판독가능 저장 매체들은 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 저장부, 자기 디스크 저장부 또는 다른 자기 저장 디바이스들, 플래시 메모리, 또는 원하는 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 저장하는데 이용될 수 있고 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 커넥션이 컴퓨터 판독가능 매체로 적절히 칭해진다. 예를 들어, 동축 케이블, 광섬유 케이블, 꼬임쌍선, 디지털 가입자 라인 (DSL), 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들을 이용하여 웹사이트, 서버, 또는 다른 원격 소스로부터 명령들이 송신된다면, 동축 케이블, 광섬유 케이블, 꼬임쌍선, DSL, 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들은 매체의 정의에 포함된다. 하지만, 컴퓨터 판독가능 저장 매체들 및 데이터 저장 매체들은 커넥션들, 캐리어파들, 신호들, 또는 다른 일시적 매체들을 포함하지 않지만 대신 비일시적인 유형의 저장 매체들로 지향됨이 이해되어야 한다. 본 명세서에서 사용된 바와 같이, 디스크 (disk) 및 디스크 (disc) 는 컴팩트 디스크 (CD), 레이저 디스크, 광학 디스크, 디지털 다기능 디스크 (DVD), 플로피 디스크 및 블루레이 디스크를 포함하며, 여기서, 디스크(disk)들은 통상적으로 데이터를 자기적으로 재생하지만 디스크(disc)들은 레이저들을 이용하여 데이터를 광학적으로 재생한다. 상기의 조합들이 또한, 컴퓨터 판독가능 매체들의 범위 내에 포함되어야 한다.
명령들은 하나 이상의 DSP들, 범용 마이크로 프로세서들, ASIC들, FPGA들, 또는 다른 균등한 집적된 또는 별개의 로직 회로부와 같은 하나 이상의 프로세서들을 포함하는 고정된 기능부 및/또는 프로그래밍가능 프로세싱 회로부에 의해 실행될 수도 있다. 이에 따라, 본 명세서에서 사용된 바와 같은 용어 "프로세서" 는 본 명세서에서 설명된 기법들의 구현에 적합한 전술한 구조 또는 임의의 다른 구조 중 임의의 구조를 지칭할 수도 있다. 부가적으로, 일부 양태들에 있어서, 본 명세서에서 설명된 기능은 인코딩 및 디코딩을 위해 구성되거나 또는 결합된 코덱에서 통합된 전용 하드웨어 및/또는 소프트웨어 모듈들 내에 제공될 수도 있다. 또한, 그 기법들은 하나 이상의 회로들 또는 로직 엘리먼트들에서 완전히 구현될 수 있다.
본 개시의 기법들은 무선 핸드셋, 집적 회로 (IC) 또는 IC 들의 세트 (예컨대, 칩 세트) 를 포함하여, 광범위하게 다양한 디바이스들 또는 장치들에서 구현될 수도 있다. 다양한 컴포넌트들, 모듈들, 또는 유닛들이 개시된 기법들을 수행하도록 구성된 디바이스들의 기능적 양태들을 강조하기 위해 본 개시에서 설명되지만, 반드시 상이한 하드웨어 유닛들에 의한 실현을 요구하지는 않는다. 오히려, 상기 설명된 바와 같이, 다양한 유닛들은 적합한 소프트웨어 및/또는 펌웨어와 함께 상기 설명된 바와 같은 하나 이상의 프로세서들을 포함하여 코덱 하드웨어 유닛으로 결합되거나 또는 상호운용식 하드웨어 유닛들의 집합에 의해 제공될 수도 있다.
다양한 예들이 설명되었다. 이들 및 다른 예들은 다음의 청구항들의 범위 내에 있다.

Claims (34)

  1. 비디오 데이터를 디코딩하는 방법으로서,
    비디오 디코더에 의해, 병합 모드가 현재 프레임의 부분을 위해 사용됨을 표시하는 시그널링 정보를 수신하는 단계;
    사용되는 병합 모드에 기초하여, 상기 비디오 디코더에 의해, 모션 정보의 정세가 상기 현재 프레임의 부분에 대해 상기 비디오 디코더에 의해 수행되어야 함을 표시하는 시그널링 정보를 결정하는 단계; 및
    상기 현재 프레임의 부분을 디코딩하는 단계를 포함하고,
    상기 현재 프레임의 부분을 디코딩하는 단계는,
    프로세싱 회로부에서 구현된 상기 비디오 디코더에 의해, 상기 현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하는 단계;
    상기 비디오 디코더에 의해, 상기 모션 벡터 정보의 후보 리스트의 시작 제 1 모션 벡터 정보로서, 상기 시작 제 1 모션 벡터 정보는 제 1 레퍼런스 프레임에서의 제 1 초기 포지션을 표시하는, 상기 시작 제 1 모션 벡터 정보, 및 시작 제 2 모션 벡터 정보를 표시하는 시그널링 정보를 수신하는 단계로서, 상기 시작 제 2 모션 벡터 정보는 상기 현재 프레임의 부분과 상기 제 1 레퍼런스 프레임의 상기 제 1 초기 포지션 사이를 제 2 레퍼런스 프레임의 제 2 초기 포지션까지 연장하는 모션 궤적을 표시하는, 상기 시작 제 1 모션 벡터 정보 및 시작 제 2 모션 벡터 정보를 표시하는 시그널링 정보를 수신하는 단계;
    상기 비디오 디코더에 의해, 양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 상기 제 1 초기 포지션으로부터 탐색 범위 내에 있는 상기 제 1 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 제 1 모션 벡터 정보를 결정하기 위해 상기 시작 제 1 모션 벡터 정보, 및 상기 제 2 초기 포지션으로부터 탐색 범위 내에 있는 상기 제 2 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 제 2 모션 벡터 정보를 결정하기 위해 상기 시작 제 2 모션 벡터 정보를 정세하는 단계로서, 상기 시작 제 1 모션 벡터 정보를 정세하는 단계는 상기 모션 궤적을 정세하는 단계를 포함하고, 시작 제 2 모션 벡터 정보는 상기 제 1 초기 포지션과 상기 제 2 초기 포지션 간의 매칭 차이에 기초하는, 상기 시작 제 1 모션 벡터 정보 및 상기 시작 제 2 모션 벡터 정보를 정세하는 단계;
    상기 비디오 디코더에 의해, 상기 정세된 제 1 및 제 2 모션 벡터 정보에 기초하여 예측 블록을 생성하는 단계; 및
    상기 비디오 디코더에 의해, 상기 예측 블록에 기초하여 상기 현재 프레임의 부분을 디코딩하는 단계
    에 의한 것인, 비디오 데이터를 디코딩하는 방법.
  2. 제 1 항에 있어서,
    상기 시작 제 1 모션 벡터 정보 및 상기 시작 제 2 모션 벡터 정보를 정세하는 단계는,
    상기 비디오 디코더에 의해, 정세된 모션 벡터 정보에 의해 표시된 정세된 모션 벡터의 정밀도를 나타내는 상기 정세된 모션 벡터 정보에 대한 모션 벡터 정밀도를 결정하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  3. 비디오 데이터를 디코딩하는 방법으로서,
    프로세싱 회로부에서 구현된 비디오 디코더에 의해, 현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하는 단계로서, 상기 현재 프레임의 부분은 상기 현재 프레임의 현재 블록이고, 상기 모션 벡터 정보의 후보 리스트를 구축하는 단계는
    Figure 112020117434679-pct00039
    일 경우
    Figure 112020117434679-pct00040
    을 그리고
    Figure 112020117434679-pct00041
    일 경우
    Figure 112020117434679-pct00042
    을 계산하는 단계를 포함하며,
    Figure 112020117434679-pct00043
    은 모션 벡터 정밀도를 나타내고, W 는 상기 현재 블록의 폭이고, H 는 상기 현재 블록의 높이인, 상기 모션 벡터 정보의 후보 리스트를 구축하는 단계;
    상기 비디오 디코더에 의해, 상기 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보를 수신하는 단계로서, 상기 시작 모션 벡터 정보는 레퍼런스 프레임에서의 초기 포지션을 표시하는, 상기 시그널링 정보를 수신하는 단계;
    상기 비디오 디코더에 의해, 양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 상기 초기 포지션으로부터 탐색 범위 내에 있는 상기 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 모션 벡터 정보를 결정하기 위해 상기 시작 모션 벡터 정보를 정세하는 단계;
    상기 비디오 디코더에 의해, 상기 정세된 모션 벡터 정보에 기초하여 예측 블록을 생성하는 단계; 및
    상기 비디오 디코더에 의해, 상기 예측 블록에 기초하여 상기 현재 프레임을 디코딩하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  4. 제 1 항에 있어서,
    상기 모션 벡터 정보의 후보 리스트를 구축하는 단계는,
    상기 현재 프레임의 부분이 B-슬라이스에 대응하고 그리고 단방향 예측된 모션 벡터 정보가 상기 모션 벡터 정보의 후보 리스트에 포함될 것임을 결정하는 것에 응답하여, 양방향 예측된 모션 벡터 정보를, 단방향 예측된 모션 벡터에 대응하는 상기 모션 벡터 정보의 후보 리스트에 추가하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  5. 비디오 데이터를 디코딩하는 방법으로서,
    프로세싱 회로부에서 구현된 비디오 디코더에 의해, 현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하는 단계로서, 상기 모션 벡터 정보의 후보 리스트를 구축하는 단계는,
    상기 현재 프레임의 부분이 B-슬라이스에 대응하고 그리고 단방향 예측된 모션 벡터 정보가 상기 모션 벡터 정보의 후보 리스트에 포함될 것임을 결정하는 것에 응답하여, 양방향 예측된 모션 벡터 정보를, 단방향 예측된 모션 벡터에 대응하는 상기 모션 벡터 정보의 후보 리스트에 추가하는 단계를 포함하고,
    상기 단방향 예측된 모션 벡터 정보는 제 1 모션 벡터를 표시하며, 상기 양방향 예측된 모션 벡터 정보를 상기 모션 벡터 정보의 후보 리스트에 추가하는 단계는 상기 제 1 모션 벡터 및 상기 제 1 모션 벡터에 대응하고 반대 부호를 갖는 제 2 모션 벡터를 표시하기 위해 상기 양방향 예측된 모션 벡터 정보를 생성하는 단계를 포함하는, 상기 모션 벡터 정보의 후보 리스트를 구축하는 단계;
    상기 비디오 디코더에 의해, 상기 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보를 수신하는 단계로서, 상기 시작 모션 벡터 정보는 레퍼런스 프레임에서의 초기 포지션을 표시하는, 상기 시그널링 정보를 수신하는 단계;
    상기 비디오 디코더에 의해, 양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 상기 초기 포지션으로부터 탐색 범위 내에 있는 상기 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 모션 벡터 정보를 결정하기 위해 상기 시작 모션 벡터 정보를 정세하는 단계;
    상기 비디오 디코더에 의해, 상기 정세된 모션 벡터 정보에 기초하여 예측 블록을 생성하는 단계; 및
    상기 비디오 디코더에 의해, 상기 예측 블록에 기초하여 상기 현재 프레임을 디코딩하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  6. 비디오 데이터를 디코딩하는 방법으로서,
    프로세싱 회로부에서 구현된 비디오 디코더에 의해, 현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하는 단계로서, 상기 모션 벡터 정보의 후보 리스트를 구축하는 단계는,
    상기 현재 프레임의 부분이 B-슬라이스에 대응하고 그리고 단방향 예측된 모션 벡터 정보가 상기 모션 벡터 정보의 후보 리스트에 포함될 것임을 결정하는 것에 응답하여, 양방향 예측된 모션 벡터 정보를, 단방향 예측된 모션 벡터에 대응하는 상기 모션 벡터 정보의 후보 리스트에 추가하는 단계를 포함하고;
    상기 단방향 예측된 모션 벡터 정보는 제 1 레퍼런스 프레임에 대한 제 1 모션 벡터 (MV0) 를 표시하고;
    상기 양방향 예측된 모션 벡터 정보는 상기 제 1 모션 벡터, 및 제 2 레퍼런스 프레임에 대한 제 2 모션 벡터 (MV1) 를 표시하고;
    상기 양방향 예측된 모션 벡터 정보를 추가하는 단계는
    Figure 112020117434679-pct00044
    를 계산하는 단계를 포함하며, POC0 은 상기 제 1 레퍼런스 프레임으로부터 상기 현재 프레임까지의 시간 거리를 나타내고, POC1 은 상기 제 2 레퍼런스 프레임으로부터 상기 현재 프레임까지의 시간 거리를 나타내는, 상기 모션 벡터 정보의 후보 리스트를 구축하는 단계;
    상기 비디오 디코더에 의해, 상기 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보를 수신하는 단계로서, 상기 시작 모션 벡터 정보는 레퍼런스 프레임에서의 초기 포지션을 표시하는, 상기 시그널링 정보를 수신하는 단계;
    상기 비디오 디코더에 의해, 양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 상기 초기 포지션으로부터 탐색 범위 내에 있는 상기 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 모션 벡터 정보를 결정하기 위해 상기 시작 모션 벡터 정보를 정세하는 단계;
    상기 비디오 디코더에 의해, 상기 정세된 모션 벡터 정보에 기초하여 예측 블록을 생성하는 단계; 및
    상기 비디오 디코더에 의해, 상기 예측 블록에 기초하여 상기 현재 프레임을 디코딩하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  7. 제 1 항에 있어서,
    상기 시작 제 1 모션 벡터 정보 및 상기 시작 제 2 모션 벡터 정보는 상기 현재 프레임의 부분과 상기 제 1 레퍼런스 프레임의 상기 제 1 초기 포지션 사이를 상기 제 2 레퍼런스 프레임의 상기 제 2 초기 포지션까지 연장하고 그리고 상기 시작 제 1 모션 벡터 정보 및 상기 시작 제 2 모션 벡터 정보를 정세하는 모션 궤적을 표시하고, 모션 벡터 궤적을 정세하는 단계는,
    모션 벡터 정세에 의해 상기 제 1 초기 포지션을 명시하는 상기 모션 벡터 궤적의 제 1 모션 벡터를 수정하는 단계; 및
    반대 부호로 상기 모션 벡터 정세에 의해 상기 제 2 초기 포지션을 명시하는 상기 모션 벡터 궤적의 제 2 모션 벡터를 수정하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  8. 제 1 항에 있어서,
    모션 벡터 궤적을 정세하는 단계는,
    상기 현재 프레임과 상기 제 1 레퍼런스 프레임 사이의 시간 거리 및 상기 현재 프레임과 상기 제 2 레퍼런스 프레임 사이의 시간 거리에 기초하여 상기 모션 궤적을 스케일링하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  9. 제 1 항에 있어서,
    모션 벡터 궤적을 정세하는 단계는,
    제 1 정세된 모션 벡터를 생성하기 위해 상기 제 1 초기 포지션과 상기 제 2 초기 포지션 간의 상기 매칭 차이에 기초하여 상기 제 1 초기 포지션을 명시하는 상기 모션 벡터 궤적의 제 1 모션 벡터를 정세하는 단계; 및
    상기 제 1 정세된 모션 벡터에 기초하여 상기 제 2 초기 포지션을 명시하는 상기 모션 벡터 궤적의 제 2 모션 벡터를 정세하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  10. 제 1 항에 있어서,
    상기 모션 궤적을 정세하는 단계는,
    메트릭에 기초하여 상기 제 1 초기 포지션과 상기 제 2 초기 포지션 간의 상기 매칭 차이를 결정하는 단계를 포함하고,
    상기 메트릭은 절대 차의 합 (SAD), 평균 제거된 SAD (MR-SAD), 제곱 차의 합 (SSD), 정규화된 상호 상관 (NCC), 또는 구조적 유사도 인덱스 (SSIM) 중 하나 이상을 포함하는, 비디오 데이터를 디코딩하는 방법.
  11. 제 10 항에 있어서,
    상기 모션 궤적을 정세하는 단계는,
    현재 블록의 사이즈에 기초하여 복수의 메트릭들로부터 상기 메트릭을 선택하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  12. 제 10 항에 있어서,
    상기 모션 궤적을 정세하는 단계는,
    현재 블록의 사이즈가 블록 사이즈 임계치를 초과할 경우 상기 메트릭을 MR-SAD, NCC, 또는 SSIM 으로서 선택하는 단계; 및
    상기 현재 블록의 상기 사이즈가 블록 사이즈 임계치를 초과하지 않을 경우 상기 메트릭을 SAD 또는 SSE 로서 선택하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  13. 제 1 항에 있어서,
    상기 현재 프레임의 부분은 상기 현재 프레임의 현재 블록, 상기 현재 프레임에 대한 현재 코딩 유닛, 또는 상기 현재 프레임에 대한 복수의 코딩 유닛들에 대응하는, 비디오 데이터를 디코딩하는 방법.
  14. 비디오 데이터를 디코딩하기 위한 디바이스로서,
    상기 비디오 데이터를 저장하도록 구성된 메모리; 및
    프로세싱 회로부를 포함하고,
    상기 프로세싱 회로부는,
    병합 모드가 현재 프레임의 부분을 위해 사용됨을 표시하는 시그널링 정보를 수신하고;
    사용되는 병합 모드에 기초하여, 모션 정보의 정세가 상기 현재 프레임의 부분에 대해 상기 프로세싱 회로부에 의해 수행되어야 함을 표시하는 시그널링 정보를 결정하고; 그리고
    상기 현재 프레임의 부분을 디코딩하도록
    구성되고,
    상기 현재 프레임의 부분을 디코딩하는 것은,
    상기 현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하는 것;
    상기 모션 벡터 정보의 후보 리스트의 시작 제 1 모션 벡터 정보로서, 상기 시작 제 1 모션 벡터 정보는 제 1 레퍼런스 프레임에서의 제 1 초기 포지션을 표시하는, 상기 시작 제 1 모션 벡터 정보, 및 시작 제 2 모션 벡터 정보를 표시하는 시그널링 정보를 수신하는 것으로서, 상기 시작 제 2 모션 벡터 정보는 제 2 레퍼런스 프레임의 제 2 초기 포지션을 표시하는, 상기 시작 제 1 모션 벡터 정보 및 시작 제 2 모션 벡터 정보를 표시하는 시그널링 정보를 수신하는 것;
    양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 상기 제 1 초기 포지션으로부터 탐색 범위 내에 있는 상기 제 1 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 제 1 모션 벡터 정보를 결정하기 위해 상기 시작 제 1 모션 벡터 정보, 및 상기 제 2 초기 포지션으로부터 탐색 범위 내에 있는 상기 제 2 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 제 2 모션 벡터 정보를 결정하기 위해 상기 시작 제 2 모션 벡터 정보를 정세하는 것으로서, 상기 시작 제 1 모션 벡터 정보를 정세하기 위해, 시작 제 2 모션 벡터 정보는 상기 제 1 초기 포지션과 상기 제 2 초기 포지션 간의 매칭 차이에 기초하는, 상기 시작 제 1 모션 벡터 정보 및 상기 시작 제 2 모션 벡터 정보를 정세하는 것;
    상기 정세된 제 1 및 제 2 모션 벡터 정보에 기초하여 예측 블록을 생성하는 것; 및
    상기 예측 블록에 기초하여 상기 현재 프레임을 디코딩하는 것
    에 의한 것인, 비디오 데이터를 디코딩하기 위한 디바이스.
  15. 제 14 항에 있어서,
    상기 시작 제 1 모션 벡터 정보 및 상기 시작 제 2 모션 벡터 정보를 정세하기 위해, 상기 프로세싱 회로부는,
    정세된 모션 벡터 정보에 의해 표시된 정세된 모션 벡터의 정밀도를 나타내는 상기 정세된 모션 벡터 정보에 대한 모션 벡터 정밀도를 결정하도록 구성되는, 비디오 데이터를 디코딩하기 위한 디바이스.
  16. 비디오 데이터를 디코딩하기 위한 디바이스로서,
    상기 비디오 데이터를 저장하도록 구성된 메모리; 및
    프로세싱 회로부를 포함하고,
    상기 프로세싱 회로부는,
    현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하는 것으로서, 상기 현재 프레임의 부분은 상기 현재 프레임의 현재 블록이고, 상기 모션 벡터 정보의 후보 리스트를 구축하기 위해, 상기 프로세싱 회로부는,
    Figure 112020117434679-pct00045
    일 경우
    Figure 112020117434679-pct00046
    을 그리고
    Figure 112020117434679-pct00047
    일 경우
    Figure 112020117434679-pct00048
    을 계산하도록 구성되며,
    Figure 112020117434679-pct00049
    은 모션 벡터 정밀도를 나타내고, W 는 상기 현재 블록의 폭이고, H 는 상기 현재 블록의 높이인, 상기 모션 벡터 정보의 후보 리스트를 구축하고;
    상기 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보를 수신하는 것으로서, 상기 시작 모션 벡터 정보는 레퍼런스 프레임에서의 초기 포지션을 표시하는, 상기 시그널링 정보를 수신하고;
    양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 상기 초기 포지션으로부터 탐색 범위 내에 있는 상기 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 모션 벡터 정보를 결정하기 위해 상기 시작 모션 벡터 정보를 정세하고;
    상기 정세된 모션 벡터 정보에 기초하여 예측 블록을 생성하고; 그리고
    상기 예측 블록에 기초하여 상기 현재 프레임을 디코딩하도록
    구성되는, 비디오 데이터를 디코딩하기 위한 디바이스.
  17. 제 14 항에 있어서,
    상기 모션 벡터 정보의 후보 리스트를 구축하기 위해, 상기 프로세싱 회로부는,
    상기 현재 프레임의 부분이 B-슬라이스에 대응하고 그리고 단방향 예측된 모션 벡터 정보가 상기 모션 벡터 정보의 후보 리스트에 포함될 것임을 결정하는 것에 응답하여, 양방향 예측된 모션 벡터 정보를, 단방향 예측된 모션 벡터에 대응하는 상기 모션 벡터 정보의 후보 리스트에 추가하도록 구성되는, 비디오 데이터를 디코딩하기 위한 디바이스.
  18. 비디오 데이터를 디코딩하기 위한 디바이스로서,
    상기 비디오 데이터를 저장하도록 구성된 메모리; 및
    프로세싱 회로부를 포함하고,
    상기 프로세싱 회로부는,
    현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하는 것으로서, 상기 모션 벡터 정보의 후보 리스트를 구축하기 위해, 상기 프로세싱 회로부는,
    상기 현재 프레임의 부분이 B-슬라이스에 대응하고 그리고 단방향 예측된 모션 벡터 정보가 상기 모션 벡터 정보의 후보 리스트에 포함될 것임을 결정하는 것에 응답하여, 양방향 예측된 모션 벡터 정보를, 단방향 예측된 모션 벡터에 대응하는 상기 모션 벡터 정보의 후보 리스트에 추가하도록 구성되고,
    상기 단방향 예측된 모션 벡터 정보는 제 1 모션 벡터를 표시하며, 상기 양방향 예측된 모션 벡터 정보를 상기 모션 벡터 정보의 후보 리스트에 추가하기 위해, 상기 프로세싱 회로부는 상기 제 1 모션 벡터 및 상기 제 1 모션 벡터에 대응하고 반대 부호를 갖는 제 2 모션 벡터를 표시하기 위해 상기 양방향 예측된 모션 벡터 정보를 생성하도록 구성되는, 상기 모션 벡터 정보의 후보 리스트를 구축하고;
    상기 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보를 수신하는 것으로서, 상기 시작 모션 벡터 정보는 레퍼런스 프레임에서의 초기 포지션을 표시하는, 상기 시그널링 정보를 수신하고;
    양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 상기 초기 포지션으로부터 탐색 범위 내에 있는 상기 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 모션 벡터 정보를 결정하기 위해 상기 시작 모션 벡터 정보를 정세하고;
    상기 정세된 모션 벡터 정보에 기초하여 예측 블록을 생성하고; 그리고
    상기 예측 블록에 기초하여 상기 현재 프레임을 디코딩하도록
    구성되는, 비디오 데이터를 디코딩하기 위한 디바이스.
  19. 비디오 데이터를 디코딩하기 위한 디바이스로서,
    상기 비디오 데이터를 저장하도록 구성된 메모리; 및
    프로세싱 회로부를 포함하고,
    상기 프로세싱 회로부는,
    현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하는 것으로서, 상기 모션 벡터 정보의 후보 리스트를 구축하기 위해, 상기 프로세싱 회로부는,
    상기 현재 프레임의 부분이 B-슬라이스에 대응하고 그리고 단방향 예측된 모션 벡터 정보가 상기 모션 벡터 정보의 후보 리스트에 포함될 것임을 결정하는 것에 응답하여, 양방향 예측된 모션 벡터 정보를, 단방향 예측된 모션 벡터에 대응하는 상기 모션 벡터 정보의 후보 리스트에 추가하도록 구성되고,
    상기 단방향 예측된 모션 벡터 정보는 제 1 레퍼런스 프레임에 대한 제 1 모션 벡터 (MV0) 를 표시하고;
    상기 양방향 예측된 모션 벡터 정보는 상기 제 1 모션 벡터, 및 제 2 레퍼런스 프레임에 대한 제 2 모션 벡터 (MV1) 를 표시하고;
    상기 양방향 예측된 모션 벡터 정보를 추가하기 위해, 상기 프로세싱 회로부는
    Figure 112020117434679-pct00050
    를 계산하도록 구성되며, POC0 은 상기 제 1 레퍼런스 프레임으로부터 상기 현재 프레임까지의 시간 거리를 나타내고, POC1 은 상기 제 2 레퍼런스 프레임으로부터 상기 현재 프레임까지의 시간 거리를 나타내는, 상기 모션 벡터 정보의 후보 리스트를 구축하고;
    상기 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보를 수신하는 것으로서, 상기 시작 모션 벡터 정보는 레퍼런스 프레임에서의 초기 포지션을 표시하는, 상기 시그널링 정보를 수신하고;
    양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 상기 초기 포지션으로부터 탐색 범위 내에 있는 상기 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 모션 벡터 정보를 결정하기 위해 상기 시작 모션 벡터 정보를 정세하고;
    상기 정세된 모션 벡터 정보에 기초하여 예측 블록을 생성하고; 그리고
    상기 예측 블록에 기초하여 상기 현재 프레임을 디코딩하도록
    구성되는, 비디오 데이터를 디코딩하기 위한 디바이스.
  20. 제 14 항에 있어서,
    상기 시작 제 1 모션 벡터 정보 및 상기 시작 제 2 모션 벡터 정보는 상기 현재 프레임의 부분과 상기 제 1 레퍼런스 프레임의 상기 제 1 초기 포지션 사이를 상기 제 2 레퍼런스 프레임 및 정보의 상기 제 2 초기 포지션까지 연장하는 모션 궤적을 표시하고, 모션 벡터 궤적을 정세하기 위해, 상기 프로세싱 회로부는,
    모션 벡터 정세에 의해 상기 제 1 초기 포지션을 명시하는 상기 모션 벡터 궤적의 제 1 모션 벡터를 수정하고; 그리고
    반대 부호로 상기 모션 벡터 정세에 의해 상기 제 2 초기 포지션을 명시하는 상기 모션 벡터 궤적의 제 2 모션 벡터를 수정하도록
    구성되는, 비디오 데이터를 디코딩하기 위한 디바이스.
  21. 제 20 항에 있어서,
    상기 모션 벡터 궤적을 정세하기 위해, 상기 프로세싱 회로부는,
    상기 현재 프레임과 상기 제 1 레퍼런스 프레임 사이의 시간 거리 및 상기 현재 프레임과 상기 제 2 레퍼런스 프레임 사이의 시간 거리에 기초하여 상기 모션 궤적을 스케일링하도록 구성되는, 비디오 데이터를 디코딩하기 위한 디바이스.
  22. 제 20 항에 있어서,
    상기 모션 벡터 궤적을 정세하기 위해, 상기 프로세싱 회로부는,
    제 1 정세된 모션 벡터를 생성하기 위해 상기 제 1 초기 포지션과 상기 제 2 초기 포지션 간의 상기 매칭 차이에 기초하여 상기 제 1 초기 포지션을 명시하는 상기 모션 벡터 궤적의 제 1 모션 벡터를 정세하고; 그리고
    상기 제 1 정세된 모션 벡터에 기초하여 상기 제 2 초기 포지션을 명시하는 상기 모션 벡터 궤적의 제 2 모션 벡터를 정세하도록
    구성되는, 비디오 데이터를 디코딩하기 위한 디바이스.
  23. 제 20 항에 있어서,
    상기 모션 궤적을 정세하기 위해, 상기 프로세싱 회로부는,
    메트릭에 기초하여 상기 제 1 초기 포지션과 상기 제 2 초기 포지션 간의 상기 매칭 차이를 결정하도록 구성되고,
    상기 메트릭은 절대 차의 합 (SAD), 평균 제거된 SAD (MR-SAD), 제곱 차의 합 (SSD), 정규화된 상호 상관 (NCC), 또는 구조적 유사도 인덱스 (SSIM) 중 하나 이상을 포함하는, 비디오 데이터를 디코딩하기 위한 디바이스.
  24. 제 23 항에 있어서,
    상기 모션 궤적을 정세하기 위해, 상기 프로세싱 회로부는,
    현재 블록의 사이즈에 기초하여 복수의 메트릭들로부터 상기 메트릭을 선택하도록 구성되는, 비디오 데이터를 디코딩하기 위한 디바이스.
  25. 제 23 항에 있어서,
    상기 모션 궤적을 정세하기 위해, 상기 프로세싱 회로부는,
    현재 블록의 사이즈가 블록 사이즈 임계치를 초과할 경우 상기 메트릭을 MR-SAD, NCC, 또는 SSIM 으로서 선택하고; 그리고
    상기 현재 블록의 상기 사이즈가 블록 사이즈 임계치를 초과하지 않을 경우 상기 메트릭을 SAD 또는 SSE 로서 선택하도록
    구성되는, 비디오 데이터를 디코딩하기 위한 디바이스.
  26. 제 14 항에 있어서,
    상기 현재 프레임의 부분은 상기 현재 프레임의 현재 블록, 상기 현재 프레임에 대한 현재 코딩 유닛, 또는 상기 현재 프레임에 대한 복수의 코딩 유닛들에 대응하는, 비디오 데이터를 디코딩하기 위한 디바이스.
  27. 제 14 항에 있어서,
    상기 디바이스는 무선 통신 디바이스를 포함하고, 인코딩된 비디오 데이터를 수신하도록 구성된 수신기를 더 포함하는, 비디오 데이터를 디코딩하기 위한 디바이스.
  28. 제 27 항에 있어서,
    상기 무선 통신 디바이스는 전화 핸드셋을 포함하고,
    상기 수신기는, 무선 통신 표준에 따라, 상기 인코딩된 비디오 데이터를 포함하는 신호를 복조하도록 구성되는, 비디오 데이터를 디코딩하기 위한 디바이스.
  29. 비디오 데이터를 인코딩하는 방법으로서,
    프로세싱 회로부에서 구현된 비디오 인코더에 의해, 현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하는 단계;
    상기 비디오 인코더에 의해, 상기 모션 벡터 정보의 후보 리스트의 시작 제 1 모션 벡터 정보로서, 상기 시작 제 1 모션 벡터 정보는 제 1 레퍼런스 프레임에서의 제 1 초기 포지션을 표시하는, 상기 시작 제 1 모션 벡터 정보, 및 시작 제 2 모션 벡터 정보를 선택하는 단계로서, 상기 시작 제 2 모션 벡터 정보는 제 2 레퍼런스 프레임의 제 2 초기 포지션을 표시하는, 상기 시작 제 1 모션 벡터 정보 및 시작 제 2 모션 벡터 정보를 선택하는 단계;
    상기 비디오 인코더에 의해, 양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 상기 제 1 초기 포지션으로부터 탐색 범위 내에 있는 상기 제 1 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 제 1 모션 벡터 정보를 결정하기 위해 상기 시작 제 1 모션 벡터 정보, 및 상기 제 2 초기 포지션으로부터 탐색 범위 내에 있는 상기 제 2 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 제 2 모션 벡터 정보를 결정하기 위해 상기 시작 제 2 모션 벡터 정보를 정세하는 단계로서, 상기 시작 제 1 모션 벡터 정보 및 시작 제 2 모션 벡터 정보를 정세하는 단계는 상기 제 1 초기 포지션과 상기 제 2 초기 포지션 간의 매칭 차이에 기초하는, 상기 시작 제 1 모션 벡터 정보 및 상기 시작 제 2 모션 벡터 정보를 정세하는 단계;
    상기 비디오 인코더에 의해, 상기 정세된 제 1 및 제 2 모션 벡터 정보에 기초하여 예측 블록을 생성하는 단계;
    상기 비디오 인코더에 의해, 상기 예측 블록에 기초하여 상기 비디오 데이터의 현재 블록의 부분에 대한 잔차 샘플 값들을 생성하는 단계; 및
    상기 비디오 인코더에 의해, 상기 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보 및 상기 잔차 샘플 값들의 표시를 출력하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  30. 비디오 데이터를 인코딩하기 위한 디바이스로서,
    상기 비디오 데이터를 저장하도록 구성된 메모리; 및
    프로세싱 회로부를 포함하고,
    상기 프로세싱 회로부는,
    현재 프레임의 부분에 대한 모션 벡터 정보의 후보 리스트를 구축하고;
    상기 모션 벡터 정보의 후보 리스트의 시작 제 1 모션 벡터 정보로서, 상기 시작 제 1 모션 벡터 정보는 제 1 레퍼런스 프레임에서의 제 1 초기 포지션을 표시하는, 상기 시작 제 1 모션 벡터 정보, 및 시작 제 2 모션 벡터 정보를 선택하는 것으로서, 상기 시작 제 2 모션 벡터 정보는 제 2 레퍼런스 프레임의 제 2 초기 포지션을 표시하는, 상기 시작 제 1 모션 벡터 정보 및 시작 제 2 모션 벡터 정보를 선택하고;
    양측성 매칭 또는 템플릿 매칭 중 하나 이상에 기초하여, 상기 제 1 초기 포지션으로부터 탐색 범위 내에 있는 레퍼런스 프레임에서의 제 1 정세된 포지션을 표시하는 정세된 제 1 모션 벡터 정보를 결정하기 위해 상기 시작 제 1 모션 벡터 정보, 및 상기 제 2 초기 포지션으로부터 탐색 범위 내에 있는 상기 제 2 레퍼런스 프레임에서의 정세된 포지션을 표시하는 정세된 제 2 모션 벡터 정보를 결정하기 위해 상기 시작 제 2 모션 벡터 정보를 정세하는 것으로서, 상기 프로세싱 회로부는 상기 제 1 초기 포지션과 상기 제 2 초기 포지션 간의 매칭 차이에 기초하여 상기 시작 제 1 모션 벡터 정보 및 시작 제 2 모션 벡터 정보를 정세하도록 구성되는, 상기 시작 제 1 모션 벡터 정보 및 상기 시작 제 2 모션 벡터 정보를 정세하고;
    상기 정세된 제 1 및 제 2 모션 벡터 정보에 기초하여 예측 블록을 생성하고;
    상기 예측 블록에 기초하여 상기 비디오 데이터의 현재 블록에 대한 잔차 샘플 값들을 생성하고; 그리고
    상기 모션 벡터 정보의 후보 리스트의 시작 모션 벡터 정보를 표시하는 시그널링 정보 및 상기 잔차 샘플 값들의 표시를 출력하도록
    구성되는, 비디오 데이터를 인코딩하기 위한 디바이스.
  31. 제 30 항에 있어서,
    상기 디바이스는 무선 통신 디바이스를 포함하고, 인코딩된 비디오 데이터를 송신하도록 구성된 송신기를 더 포함하는, 비디오 데이터를 인코딩하기 위한 디바이스.
  32. 제 31 항에 있어서,
    상기 무선 통신 디바이스는 전화 핸드셋을 포함하고,
    상기 송신기는, 무선 통신 표준에 따라, 상기 인코딩된 비디오 데이터를 포함하는 신호를 변조하도록 구성되는, 비디오 데이터를 인코딩하기 위한 디바이스.
  33. 삭제
  34. 삭제
KR1020207010389A 2017-10-11 2018-09-17 Fruc 를 위한 저 복잡도 설계 KR102261696B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762571161P 2017-10-11 2017-10-11
US62/571,161 2017-10-11
US16/131,860 2018-09-14
US16/131,860 US10785494B2 (en) 2017-10-11 2018-09-14 Low-complexity design for FRUC
PCT/US2018/051314 WO2019074622A1 (en) 2017-10-11 2018-09-17 LOW COMPLEXITY DESIGN FOR FRUC

Publications (2)

Publication Number Publication Date
KR20200058445A KR20200058445A (ko) 2020-05-27
KR102261696B1 true KR102261696B1 (ko) 2021-06-04

Family

ID=65993609

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207010389A KR102261696B1 (ko) 2017-10-11 2018-09-17 Fruc 를 위한 저 복잡도 설계

Country Status (9)

Country Link
US (2) US10785494B2 (ko)
EP (1) EP3695605A1 (ko)
KR (1) KR102261696B1 (ko)
CN (2) CN111201793B (ko)
AU (1) AU2018349463B2 (ko)
BR (1) BR112020006875A2 (ko)
SG (1) SG11202001991TA (ko)
TW (1) TWI718412B (ko)
WO (1) WO2019074622A1 (ko)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200014918A1 (en) * 2018-07-08 2020-01-09 Mellanox Technologies, Ltd. Application accelerator
US20200014945A1 (en) * 2018-07-08 2020-01-09 Mellanox Technologies, Ltd. Application acceleration
US11252464B2 (en) 2017-06-14 2022-02-15 Mellanox Technologies, Ltd. Regrouping of video data in host memory
US10785494B2 (en) 2017-10-11 2020-09-22 Qualcomm Incorporated Low-complexity design for FRUC
US10834409B2 (en) * 2018-04-06 2020-11-10 Arris Enterprises Llc System and method of implementing multiple prediction models for local illumination compensation
WO2019200366A1 (en) * 2018-04-12 2019-10-17 Arris Enterprises Llc Motion information storage for video coding and signaling
US10469869B1 (en) * 2018-06-01 2019-11-05 Tencent America LLC Method and apparatus for video coding
WO2019234598A1 (en) 2018-06-05 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Interaction between ibc and stmvp
WO2019234671A1 (en) * 2018-06-07 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Improved pmmvd
TWI739120B (zh) 2018-06-21 2021-09-11 大陸商北京字節跳動網絡技術有限公司 合併仿射模式與非合併仿射模式的統一拘束
EP4307671A3 (en) 2018-06-21 2024-02-07 Beijing Bytedance Network Technology Co., Ltd. Sub-block mv inheritance between color components
TWI719519B (zh) 2018-07-02 2021-02-21 大陸商北京字節跳動網絡技術有限公司 對於dmvr的塊尺寸限制
KR20240014594A (ko) * 2018-09-19 2024-02-01 후아웨이 테크놀러지 컴퍼니 리미티드 이중선형 보간 기반 디코더-측 움직임 벡터 정밀화에서 패치 유사성에 기반하여 정밀화를 건너뛰기 위한 방법
CN117768651A (zh) 2018-09-24 2024-03-26 北京字节跳动网络技术有限公司 处理视频数据的方法、装置、介质、以及比特流存储方法
EP3850846A4 (en) * 2018-10-08 2021-12-15 Huawei Technologies Co., Ltd. DEVICES AND METHODS FOR PREDICTING A TRIANGULAR PARTITION OF AN ENCODING BLOCK
WO2020084475A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Utilization of refined motion vector
WO2020084476A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Sub-block based prediction
CN112997480B (zh) 2018-11-10 2023-08-22 北京字节跳动网络技术有限公司 成对平均候选计算中的取整
EP3857893A4 (en) 2018-11-12 2022-05-11 Beijing Bytedance Network Technology Co., Ltd. BANDWIDTH CONTROL METHODS FOR INTER-PREDICTION
WO2020103877A1 (en) 2018-11-20 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Coding and decoding of video coding modes
CN117319644A (zh) 2018-11-20 2023-12-29 北京字节跳动网络技术有限公司 基于部分位置的差计算
JP7164813B2 (ja) * 2018-11-21 2022-11-02 日本電信電話株式会社 予測装置、予測方法、及びプログラム。
US11252431B2 (en) * 2019-01-02 2022-02-15 Telefonaktiebolaget Lm Ericsson (Publ) Side motion refinement in video encoding/decoding systems
KR20220025301A (ko) 2019-01-06 2022-03-03 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 양방향 광학 흐름을 위한 비트 폭 제어
JP2022521554A (ja) 2019-03-06 2022-04-08 北京字節跳動網絡技術有限公司 変換された片予測候補の利用
US11997308B2 (en) * 2019-03-08 2024-05-28 Interdigital Madison Patent Holdings, Sas Local illumination compensation for video encoding or decoding
CN111698515B (zh) * 2019-03-14 2023-02-14 华为技术有限公司 帧间预测的方法及相关装置
KR102610709B1 (ko) 2019-04-02 2023-12-05 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 디코더 측 움직임 벡터 유도
CN113728644B (zh) 2019-05-16 2024-01-26 北京字节跳动网络技术有限公司 基于子区域的运动信息细化确定
CN117395397A (zh) 2019-06-04 2024-01-12 北京字节跳动网络技术有限公司 使用临近块信息的运动候选列表构建
KR20220016839A (ko) 2019-06-04 2022-02-10 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 기하학적 분할 모드 코딩을 갖는 모션 후보 리스트
CN113994699B (zh) 2019-06-06 2024-01-12 北京字节跳动网络技术有限公司 视频编解码的运动候选列表构建
US11272200B2 (en) * 2019-06-24 2022-03-08 Tencent America LLC Method and apparatus for video coding
JP7318099B2 (ja) 2019-07-14 2023-07-31 北京字節跳動網絡技術有限公司 ビデオコーディングにおける変換ブロック・サイズ制約
JP7328445B2 (ja) 2019-09-19 2023-08-16 北京字節跳動網絡技術有限公司 ビデオコーディングにおける参照サンプル位置の導出
CN114503574A (zh) 2019-09-19 2022-05-13 北京字节跳动网络技术有限公司 视频编解码中的缩放窗口
CN117596389A (zh) 2019-09-28 2024-02-23 北京字节跳动网络技术有限公司 视频编解码中的几何分割模式
BR112022006453A2 (pt) 2019-10-05 2022-09-27 Beijing Bytedance Network Tech Co Ltd Método de processamento de dados de dados de vídeo, aparelho para processar dados de vídeo, meio de armazenamento não transitório legível por computador e meio de gravação não transitório legível por computador
EP4042678A4 (en) * 2019-10-12 2023-01-18 Beijing Bytedance Network Technology Co., Ltd. USE AND REPORTING OF REFINEMENT VIDEO CODING TOOLS
KR20220073740A (ko) * 2019-10-13 2022-06-03 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 레퍼런스 픽처 리샘플링 및 비디오 코딩 툴 사이의 상호 작용
WO2021195240A1 (en) * 2020-03-24 2021-09-30 Alibaba Group Holding Limited Sign data hiding of video recording
US11575926B2 (en) 2020-03-29 2023-02-07 Alibaba Group Holding Limited Enhanced decoder side motion vector refinement
CN113840148A (zh) * 2020-06-24 2021-12-24 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器以及计算机存储介质
CN114071159B (zh) * 2020-07-29 2023-06-30 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器及计算机可读存储介质
US11671616B2 (en) 2021-03-12 2023-06-06 Lemon Inc. Motion candidate derivation
US11936899B2 (en) * 2021-03-12 2024-03-19 Lemon Inc. Methods and systems for motion candidate derivation
US11917176B2 (en) * 2021-09-28 2024-02-27 Avago Technologies International Sales Pte. Limited Low-latency and high-throughput motion vector refinement with template matching
WO2023055146A1 (ko) * 2021-09-29 2023-04-06 한국전자통신연구원 영상 부호화/복호화를 위한 방법, 장치 및 기록 매체

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9083983B2 (en) * 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
US9762904B2 (en) * 2011-12-22 2017-09-12 Qualcomm Incorporated Performing motion vector prediction for video coding
US9426463B2 (en) * 2012-02-08 2016-08-23 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
US9948939B2 (en) * 2012-12-07 2018-04-17 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US9538180B2 (en) * 2012-12-17 2017-01-03 Qualcomm Incorporated Motion vector prediction in video coding
US9800857B2 (en) * 2013-03-08 2017-10-24 Qualcomm Incorporated Inter-view residual prediction in multi-view or 3-dimensional video coding
US9628795B2 (en) * 2013-07-17 2017-04-18 Qualcomm Incorporated Block identification using disparity vector in video coding
US10244253B2 (en) * 2013-09-13 2019-03-26 Qualcomm Incorporated Video coding techniques using asymmetric motion partitioning
US9854237B2 (en) * 2014-10-14 2017-12-26 Qualcomm Incorporated AMVP and merge candidate list derivation for intra BC and inter prediction unification
WO2016117930A1 (ko) * 2015-01-21 2016-07-28 삼성전자 주식회사 인터 레이어 비디오 복호화 방법 및 그 장치 및 인터 레이어 비디오 부호화 방법 및 그 장치
US11477477B2 (en) * 2015-01-26 2022-10-18 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction
US10958927B2 (en) 2015-03-27 2021-03-23 Qualcomm Incorporated Motion information derivation mode determination in video coding
MX2018002477A (es) * 2015-09-02 2018-06-15 Mediatek Inc Metodo y aparato de derivacion de movimiento de lado de decodificador para codificacion de video.
CN114466193A (zh) * 2016-03-16 2022-05-10 联发科技股份有限公司 视频编码的样式基础的运动向量推导之方法及装置
US11638027B2 (en) 2016-08-08 2023-04-25 Hfi Innovation, Inc. Pattern-based motion vector derivation for video coding
US20180199057A1 (en) * 2017-01-12 2018-07-12 Mediatek Inc. Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding
US10701390B2 (en) 2017-03-14 2020-06-30 Qualcomm Incorporated Affine motion information derivation
US10477237B2 (en) 2017-06-28 2019-11-12 Futurewei Technologies, Inc. Decoder side motion vector refinement in video coding
WO2019072368A1 (en) 2017-10-09 2019-04-18 Huawei Technologies Co., Ltd. LIMITED MEMORY ACCESS WINDOW FOR MOTION VECTOR REFINEMENT
US10785494B2 (en) 2017-10-11 2020-09-22 Qualcomm Incorporated Low-complexity design for FRUC

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Jianle Chen et al., "Algorithm Description of Joint Exploration Test Model 7 (JEM 7)", Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, 7th Meeting: Torino, IT, 2*

Also Published As

Publication number Publication date
US11297340B2 (en) 2022-04-05
TWI718412B (zh) 2021-02-11
CN111201793B (zh) 2023-11-21
KR20200058445A (ko) 2020-05-27
US10785494B2 (en) 2020-09-22
US20200221110A1 (en) 2020-07-09
US20190110058A1 (en) 2019-04-11
AU2018349463B2 (en) 2021-05-20
EP3695605A1 (en) 2020-08-19
BR112020006875A2 (pt) 2020-10-06
TW201924344A (zh) 2019-06-16
CN111201793A (zh) 2020-05-26
AU2018349463A1 (en) 2020-04-02
CN117615152A (zh) 2024-02-27
WO2019074622A1 (en) 2019-04-18
SG11202001991TA (en) 2020-04-29

Similar Documents

Publication Publication Date Title
KR102261696B1 (ko) Fruc 를 위한 저 복잡도 설계
KR102343699B1 (ko) 디코더-측 모션 벡터 도출에 기초한 mvp 도출의 제한
TWI761415B (zh) 用於雙向光學流(bio)之運動向量重建
US11589071B2 (en) Invoke of LUT updating
JP6740243B2 (ja) ビデオコーディングにおける動きベクトル導出
CN110944172B (zh) 一种帧间预测方法和装置
US11425387B2 (en) Simplified local illumination compensation
WO2019136657A1 (en) Video coding using local illumination compensation
AU2018297993A1 (en) Partial reconstruction based template matching for motion vector derivation
WO2019136131A1 (en) Generated affine motion vectors
CN114402617A (zh) 利用矢量裁剪的仿射译码
CN112437299B (zh) 一种帧间预测方法、装置及存储介质
WO2020057648A1 (zh) 一种帧间预测方法和装置

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant