KR20210094089A - 비디오 처리 방법 및 장치 - Google Patents

비디오 처리 방법 및 장치 Download PDF

Info

Publication number
KR20210094089A
KR20210094089A KR1020217021168A KR20217021168A KR20210094089A KR 20210094089 A KR20210094089 A KR 20210094089A KR 1020217021168 A KR1020217021168 A KR 1020217021168A KR 20217021168 A KR20217021168 A KR 20217021168A KR 20210094089 A KR20210094089 A KR 20210094089A
Authority
KR
South Korea
Prior art keywords
current block
block
reference frame
motion vector
list
Prior art date
Application number
KR1020217021168A
Other languages
English (en)
Inventor
샤오전 정
쑤훙 왕
쓰웨이 마
산서 왕
Original Assignee
에스지 디제이아이 테크놀러지 코., 엘티디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스지 디제이아이 테크놀러지 코., 엘티디 filed Critical 에스지 디제이아이 테크놀러지 코., 엘티디
Publication of KR20210094089A publication Critical patent/KR20210094089A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

비디오 처리 방법과 장치를 제공한다. 상기 방법은, 제1 참조 프레임 목록 및 제2 참조 프레임 목록을 포함하는 현재 블록의 참조 프레임 목록을 획득하는 단계; 현재 블록의 참조 프레임 목록에 따라, 제1 참조 프레임 목록 및 제2 참조 프레임 목록 중 하나인 목표 참조 프레임 목록을 결정하는 단계; 현재 블록의 목표 참조 프레임 목록에 따라 현재 블록의 시간 도메인 움직임 벡터를 결정하는 단계; 시간 도메인 움직임 벡터에 따라 현재 블록의 서브 블록의 움직임 정보를 결정하는 단계; 현재 블록의 서브 블록의 움직임 정보에 따라 현재 블록에 대해 프레임간 예측을 수행하는 단계를 포함한다. 양방향 예측 프로세스에서 스캔해야 할 참조 프레임 목록의 수를 제한함으로써, 코덱 동작을 단순화할 수 있다.

Description

비디오 처리 방법 및 장치
본 출원은 비디오 코덱 분야에 관한 것으로, 구체적으로 비디오 처리 방법 및 장치에 관한 것이다.
본 특허 문서에 개시된 내용은 저작권으로 보호되는 재료가 포함된다. 저작권은 저작권 소유자에게 있다. 저작권 소유자는 전리국 및 상표국의 공식 기록 및 문서에 존재하는 해당 특허 문서 또는 특허 공개 내용을 복사하는 것을 반대하지 않는다.
비디오 코덱 프로세스는 프레임간 예측 프로세스를 포함한다. 프레임간 예측 모드는 merge모드와 비-merge모드를 포함한다. merge모드에서, 일반적으로 merge모드의 움직임 벡터 후보 목록을 먼저 구축하고, merge모드의 움직임 벡터 후보 목록으로부터 현재 블록의 움직임 벡터를 선택해야 한다. 현재 블록은 또한 현재 코딩 유닛(coding unit,CU)이라고도 할 수 있다.
코딩 기술의 발전에 따라, 프레임간 예측 방식은 선택 가능한/고급 시간 도메인 움직임 벡터 예측(alternative/ advanced temporal motion vector prediction,ATMVP) 기술을 도입하였다. ATMVP기술에서, 현재 블록을 복수의 서브 블록으로 분할하고, 서브 블록의 움직임 정보를 계산한다. ATMVP기술은 비디오의 전체 코딩 성능을 향상시키기 위해 서브 블록 수준의 움직임 벡터 예측을 도입하는 것을 목표로 한다.
ATMVP기술을 사용하여 현재 블록의 서브 블록의 움직임 정보를 찾는 프로세스는 비교적 복잡하고, 일부 리던던시 동작이 존재하며, 상기 프로세스에는 여전히 개선 여지가 존재한다.
본 출원은 코덱 동작을 간소화할 수 있는 비디오 처리 방법 및 장치를 제공한다.
제1 측면은 비디오 처리 방법을 제공한다. 상기 방법은, 제1 참조 프레임 목록 및 제2 참조 프레임 목록을 포함하는 현재 블록의 참조 프레임 목록을 획득하는 단계; 상기 현재 블록의 참조 프레임 목록에 따라, 상기 제1 참조 프레임 목록 및 상기 제2 참조 프레임 목록 중 하나인 목표 참조 프레임 목록을 결정하는 단계; 상기 현재 블록의 목표 참조 프레임 목록에 따라 상기 현재 블록의 시간 도메인 움직임 벡터를 결정하는 단계; 상기 시간 도메인 움직임 벡터에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 단계; 상기 현재 블록의 서브 블록의 움직임 정보에 따라 상기 현재 블록에 대해 프레임간 예측을 수행하는 단계를 포함한다.
제2 측면은 비디오 처리 장치를 제공한다. 상기 비디오 처리 장치는 코드를 저장하기 위한 메모리; 프로세서를 포함하며, 상기 프로세서는, 제1 참조 프레임 목록 및 제2 참조 프레임 목록을 포함하는 현재 블록의 참조 프레임 목록을 획득하는 동작; 상기 현재 블록의 참조 프레임 목록에 따라, 상기 제1 참조 프레임 목록 및 상기 제2 참조 프레임 목록 중 하나인 목표 참조 프레임 목록을 결정하는 동작; 상기 현재 블록의 목표 참조 프레임 목록에 따라 상기 현재 블록의 시간 도메인 움직임 벡터를 결정하는 동작; 상기 시간 도메인 움직임 벡터에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 동작; 상기 현재 블록의 서브 블록의 움직임 정보에 따라 상기 현재 블록에 대해 프레임간 예측을 수행하는 동작;을 실행하도록, 상기 메모리에 저장된 코드를 실행하기 위한 것이다.
제3 측면은 컴퓨터 판독 가능 저장 매체를 제공하고, 상기 컴퓨터 판독 가능 저장 매체에는 제1 측면에 따른 방법을 실행하기 위한 명령이 저장되어 있다.
제4 측면은 제1측면에 따른 방법을 실행하기 위한 명령을 포함하는 컴퓨터 프로그램 제품을 제공한다.
양방향 예측 프로세스에서 스캔해야 할 참조 프레임 목록의 수를 제한함으로써, 코덱 동작을 단순화할 수 있다.
도 1은 affine merge candidate list를 구성하는 흐름도이다.
도 2는 현재 블록의 주변 블록의 개략도이다.
도 3은 ATMVP의 구현 프로세스의 흐름도이다.
도 4는 현재 블록의 서브 블록의 움직임 정보의 획득 방식의 예시도이다.
도 5는 본 출원의 실시예에 의해 제공되는 비디오 처리 방법의 흐름 개략도이다.
도 6은 본 출원의 실시예에 의해 제공되는 비디오 처리 장치의 구조 개략도이다.
본 출원은 H.264, 고효율 비디오 코딩(HEVC, high efficiency video coding), 다용도 비디오 코딩(VVC, versatile video coding), 오디오 비디오 코딩 표준(AVS, audio video coding standard), AVS+,AVS2 및 AVS3등과 같은 다양한 비디오 코딩 표준에 적용될 수 있다.
비디오 코딩 프로세스는 주로 예측, 변환, 양자화, 엔트로피 코딩, 루프 필터링 등을 포함한다. 예측은 주류 비디오 코딩 기술의 중요 구성 부분이다. 예측은 프레임내 예측과 프레임간 예측으로 나눌 수 있다. 프레임간 예측은 움직임 보상의 방식을 통해 구현될 수 있다. 이하에서는 움직임 보상 프로세스에 대해 예를 들어 설명한다.
예를 들면, 한 프레임의 이미지에 대해, 먼저 하나의 프레임의 이미지를 하나 또는 복수의 코딩 영역으로 나눈다. 상기 코딩 영역은 코딩 트리 유닛(coding tree unit,CTU)라고도 한다. CTU의 크기는 예를 들면 64×64일 수 있고, 128×128일 수도 있다(단위는 화소이며, 이하의 유사한 설명은 모두 단위를 생략한다). 각 CTU는 정사각형 또는 직사각형의 이미지 블록으로 분할될 수 있다. 상기 이미지 블록은 코딩 유닛(coding unit,CU)이라고도 하며, 이하 문장에서는 코딩할 현재 CU를 현재 블록이라고 한다.
현재 블록에 대해 프레임간 예측을 수행할 경우, 참조 프레임(시간 도메인 근처에서 재구성된 프레임)에서 현재 블록의 유사 블록을 찾아, 현재 블록의 예측 블록으로 할 수 있다. 현재 블록과 예측 블록 간의 상대 변위는 움직임 벡터(motion vector,MV)이다. 참조 프레임에서 유사 블록을 찾아 현재 블록의 예측 블록으로 하는 프로세스가 바로 움직임 보상이다.
프레임간 예측 모드는 merge모드와 비-merge모드를 포함한다. merge모드에서, 이미지 블록의 움직임 벡터(motion vector,MV)는 이미지 블록의 움직임 벡터 예측(motion vector prediction, MVP)이므로, merge모드에 대해, 코드 스트림에서 MVP의 인덱스와 참조 프레임의 인덱스를 전달하면 된다. 반면, 비-merge모드는 코드 스트림에서 MVP와 참조 프레임의 인덱스를 전달해야 할 뿐만 아니라, 코드 스트림에서 움직임 벡터 차분(motion vector difference,MVD)도 전달해야 한다.
종래의 움직임 벡터는 단순한 평행 이동 모델을 사용하였고, 즉 현재 블록의 움직임 벡터는 현재 블록과 참조 블록 사이의 상대 변위를 의미한다. 이러한 유형의 움직임 벡터는 비디오에서 더 복잡한 움직임 상황(예를 들면 확대/축소, 회전, 원근등)을 정확하게 설명하기 어렵다. 더 복잡한 움직임 상황을 설명하기 위하여, 관련 코덱 표준에 아핀 모델(affine 모델)을 도입했다. 아핀 모델은 현재 블록의 2개 또는 3개의 제어점(control point, CP)의 움직임 벡터를 이용하여 현재 블록의 아핀 움직임 필드를 설명한다. 상기 2개의 제어점은 예를 들면 현재 블록의 왼쪽 위 모서리와 오른쪽 위 모서리일 수 있으며, 상기 3개의 제어점은 예를 들면 현재 블록의 왼쪽 위 모서리, 오른쪽 위 모서리와 왼쪽 아래 모서리일 수 있다.
아핀 모델과 앞에서 언급한 merge모드를 함께 결합하여, affine merge모드를 형성한다. 일반적인 merge모드의 움직임 벡터 후보 목록(merge candidate list)에 기록된 것은 이미지 블록의 MVP이며, affine merge모드의 움직임 벡터 후보 목록(affine merge candidate list)에 기록된 것은 제어점 움직임 벡터 예측(control point motion vector prediction,CPMVP)이다. 일반적인 merge모드와 유사하게, affine merge모드는 코드 스트림에 MVD를 추가할 필요가 없이, CPMVP를 현재 블록의 CPMV로 직접 사용한다.
현재 블록의 affine merge candidate list를 구성하는 것은 affine merge모드의 중요 프로세스 중 하나이다. 도 1은 affine merge candidate list(아핀 융합 후보 목록)의 가능한 구성 방식중 하나를 나타낸다.
단계 S110,현재 블록의 affine merge candidate list에 ATMVP를 삽입한다.
ATMVP에 포함된 것은 현재 블록의 서브 블록의 움직임 정보이다. 즉, ATMVP기술을 이용할 경우, affine merge candidate list는 현재 블록의 서브 블록의 움직임 정보를 삽입하여, affine merge 모드가 서브 블록과 같은 수준에서 움직임 보상을 진행할 수 있도록 하여, 비디오의 전체 코딩 성능을 향상시킬 수 있다. 이하에서, 도 3과 결합하여, 단계 S110의 구현 방식에 대해 자세히 설명할 것이므로, 여기서 자세히 설명하지 않는다.
상기 움직임 정보는 움직임 벡터; 움직임 벡터 차분; 참조 프레임 인덱스 값; 프레임간 예측의 참조 방향; 이미지 블록의 프레임내 코딩 또는 프레임간 코딩에 따른 정보; 이미지 블록의 분할 모드 중 하나 또는 복수의 정보의 조합을 포함한다.
단계 S120,affine merge candidate list에 상속된 affine candidates를 삽입한다.
예를 들면, 도 2에 도시한 바와 같이, A1->B1->B0->A0->B2의 순서에 따라 현재 블록의 주변 블록을 스캔하고, affine merge모드를 사용하는 주변 블록의 CPMV를 현재 블록의 affine candidates로 하고, 현재 블록의 affine merge candidate list를 삽입할 수 있다.
단계 S130,affine merge candidate list 중의 affine candidates의 수가 설정값보다 작은지 여부를 판단한다.
만약 affine merge candidate list 중의 affine candidates의 수가 설정값에 도달하면, 도 1의 흐름을 종료하고, 만약 affine merge candidate list 중의 affine candidates의 수가 설정값보다 적으면, 계속하여 단계 S140을 실행한다.
단계 S140,affine merge candidate list에 구성된 affine candidates를 삽입한다.
예를 들면,현재 블록의 주변 블록의 움직임 정보를 조합하여 새로운 affine candidates를 구성하고, 구성하여 생성된 affine candidates를 affine merge candidate list에 삽입할 수 있다.
단계 S150,affine merge candidate list 중의 affine candidates의 수가 설정값보다 작은지 여부를 판단한다.
만약 affine merge candidate list 중의 affine candidates의 수가 설정값에 도달하면, 도 1의 흐름을 종료하고, 만약 affine merge candidate list 중의 affine candidates의 수가 설정값보다 적으면, 계속하여 단계 S160을 실행한다.
단계 S160,affine merge candidate list에 0 벡터를 삽입한다.
즉, 0 벡터를 사용하여 affine merge candidate list를 채워(padding) 설정값에 도달하게 한다.
이하 도 3과 결합하여, 도 1의 단계 S110의 구현 방식에 대해 예를 들어 상세히 설명한다. 일부 예시에서, 이하 소개되는 현재 블록의 affine merge candidate list에 ATMVP를 삽입하는 방법은 상기 도 1에 도시된 구현예에 한정되지 않을 수도 있다.
도 3에 도시한 바와 같이, ATMVP기술의 구현 방식, 즉 현재 블록의 서브 블록의 움직임 정보의 획득 방식은 크게 두 단계(단계 S310과 S320)로 나눌 수 있다.
단계 S310에서, 현재 블록의 참조 프레임 중의 대응 블록(corresponding block)을 결정한다.
종래의 ATMVP기술에서, 현재 프레임(현재 블록이 위치하는 프레임)의 움직임 정보를 획득하기 위한 프레임은 동일 위치 프레임(co-located picture)이라고 한다. 현재 프레임의 동일 위치 프레임은 슬라이스(slice) 초기화 시에 설정된다. 순방향 예측을 예로 들면, 제1 참조 프레임 목록은 순방향 참조 프레임 목록일 수 있으며, 제1 조(group) 참조 프레임을 포함하는 참조 프레임 목록일 수도 있다. 상기 제1 조 참조 프레임에는 시간 순서로 현재 프레임 이전 및 이후의 참조 프레임을 포함한다. Slice가 초기화되면, 일반적으로 현재 블록의 제1 참조 프레임 목록 중의 제1 프레임을 현재 프레임의 동일 위치 프레임으로 설정한다.
현재 블록의 참조 프레임 중의 대응 블록은 하나의 시간 도메인 움직임 벡터(temp MV)에 의해 결정된다. 따라서, 현재 블록의 참조 프레임 중의 대응 블록을 얻기 위하여, 먼저 상기 시간 도메인 움직임 벡터를 도출해야 한다. 이하 순방향 예측과 양방향 예측을 각각 예로 들어, 시간 도메인 움직임 벡터의 도출 프로세스에 대해 설명한다.
순방향 예측의 경우, 현재 블록의 참조 프레임 목록(참조 목록 또는 참조 이미지 목록이라고도 할 수 있음)의 수는 1이다. 현재 블록의 참조 프레임 목록은 제1 참조 프레임 목록(reference list 0)이라고 할 수 있다. 하나의 시나리오에서, 상기 제1 참조 프레임 목록은 순방향 참조 프레임 목록일 수 있다. 현재 프레임의 동일 위치 프레임은 일반적으로 제1 참조 프레임 목록 중의 제1 프레임으로 설정된다.
시간 도메인 움직임 벡터를 도출하는 프로세스의 하나의 구현 방식은 아래와 같다. 즉 현재 블록의 움직임 벡터 후보 목록(상기 움직임 벡터 후보 목록은 공간 도메인의 4개의 인접 위치의 이미지 블록의 움직임 벡터에 기초하여 구축될 수 있음)을 먼저 스캔하고, 상기 움직임 벡터 후보 목록 중의 첫 번째 후보 움직임 벡터를 초기의 시간 도메인 움직임 벡터로 한다. 그후, 현재 블록의 제1 참조 프레임 목록을 스캔하고, 만약 상기 첫 번째 후보 움직임 벡터의 참조 프레임과 현재 프레임의 동일 위치 프레임이 동일하면, 상기 첫 번째 후보 움직임 벡터를 시간 도메인 움직임 벡터로 하고, 상기 첫 번째 후보 움직임 벡터의 참조 프레임과 현재 프레임의 동일 위치 프레임이 서로 다르면, 시간 도메인 움직임 벡터를 0 벡터로 설정하고, 스캔을 중지할 수 있다.
상기 구현 방식에서, 목록 중의 첫 번째 후보 움직임 벡터를 획득하도록, 움직임 벡터 후보 목록을 구축해야 한다. 다른 구현 방식으로는, 현재 블록의 어느 하나의 공간 도메인 인접 블록의 움직임 벡터를 초기의 시간 도메인 움직임 벡터로 직접 획득할 수 있다. 상기 공간 도메인 인접 블록의 움직임 벡터의 참조 프레임과 현재 프레임의 동일 위치 프레임이 동일하면, 상기 공간 도메인 인접 블록의 움직임 벡터를 시간 도메인 움직임 벡터로 사용할 수 있다. 그렇지 않으면, 시간 도메인 움직임 벡터를 0 벡터로 설정하여, 스캔을 중지할 수 있다. 여기서, 공간 도메인 인접 블록은 현재 블록 주변의 코딩된 블록 중의 임의의 하나일 수 있으며, 예를 들면 현재 블록의 좌측 블록으로 고정되거나, 또는 현재 블록의 상측 블록으로 고정되거나, 또는 현재 블록의 좌상(左上) 블록 등으로 고정될 수 있다.
양방향 예측의 경우, 현재 블록의 참조 프레임 목록의 수는 2개이며, 다시 말해 제1 참조 프레임 목록(reference list 0)과 제2 참조 프레임 목록(reference list 1)을 포함한다. 하나의 시나리오에서, 제1 참조 프레임 목록은 순방향 참조 프레임 목록일 수 있고, 제2 참조 프레임 목록은 역방향 참조 프레임 목록일 수 있다.
시간 도메인 움직임 벡터를 도출하는 프로세스의 하나의 구현 방식은 아래와 같다. 즉, 현재의 움직임 벡터 후보 목록을 먼저 스캔하고, 상기 움직임 벡터 후보 목록 중의 첫 번째 후보 움직임 벡터를 초기의 시간 도메인 움직임 벡터로 한다. 그후, 현재 블록의 현재 참조 방향 상의 하나의 참조 프레임 목록(제1 참조 프레임 목록일 수도 있고, 제2 참조 프레임 목록일 수도 있다)을 먼저 스캔하고, 만약 상기 첫 번째 후보 움직임 벡터의 참조 프레임과 현재 프레임의 동일 위치 프레임이 동일하면, 상기 첫 번째 후보 움직임 벡터를 시간 도메인 움직임 벡터로 하고, 상기 첫 번째 후보 움직임 벡터의 참조 프레임과 현재 프레임의 동일 위치 프레임이 서로 다르면, 현재 블록의 다른 참조 방향 상의 참조 프레임 목록을 계속 스캔한다. 마찬가지로, 첫 번째 후보 움직임 벡터의 상기 다른 참조 프레임 목록 중의 참조 프레임과 현재 프레임의 동일 위치 프레임이 동일하면, 상기 첫 번째 후보 움직임 벡터를 시간 도메인 움직임 벡터로 할 수 있고, 상기 첫 번째 후보 움직임 벡터의 참조 프레임과 현재 프레임의 동일 위치 프레임이 서로 다르면, 시간 도메인 움직임 벡터를 0 벡터로 설정하고, 스캔을 중지할 수 있다. 주의해야 할 점은, 다른 일부 시나리오에서, 제1 참조 프레임 목록과 제2 참조 프레임 목록은 모두 시간 순서로 현재 프레임 이전 및 이후의 참조 프레임을 포함할 수 있고, 상기 양방향 예측은 제1 참조 프레임 목록과 제2 참조 프레임 목록 중에서 참조 방향이 다른 참조 프레임을 선택하는 것을 의미한다.
상기 구현 방식에서, 양방향 예측시 ATMVP의 temp MV를 도출하는 것은 여전히 움직임 벡터 후보 목록을 구축해야 한다. 다른 구현 방식에서는, 현재 블록의 어느 하나의 공간 도메인 인접 블록의 움직임 벡터를 초기의 시간 도메인 움직임 벡터로 직접 획득할 수 있다. 양방향 예측의 경우, 현재 블록의 현재 참조 방향 상의 하나의 참조 프레임 목록(제1 참조 프레임 목록일 수도 있고, 제2 참조 프레임 목록일 수도 있다)을 먼저 스캔하고, 상기 공간 도메인 인접 블록의 움직임 벡터의 상기 참조 방향 상의 참조 프레임과 현재 프레임의 동일 위치 프레임이 동일하면, 상기 공간 도메인 인접 블록의 움직임 벡터를 시간 도메인 움직임 벡터로 할 수 있다. 선택적으로, 상기 공간 도메인 인접 블록의 움직임 벡터의 상기 참조 방향 상의 참조 프레임과 현재 프레임의 동일 위치 프레임이 서로 다르면, 현재 블록의 다른 참조 방향 상의 참조 프레임 목록을 계속 스캔한다. 마찬가지로, 상기 공간 도메인 인접 블록의 움직임 벡터의 상기 다른 참조 프레임 목록 중의 참조 프레임과 현재 프레임의 동일 위치 프레임이 동일하면, 상기 공간 도메인 인접 블록의 움직임 벡터를 시간 도메인 움직임 벡터로 할 수 있다. 상기 공간 도메인 인접 블록의 움직임 벡터의 참조 프레임과 현재 프레임의 동일 위치 프레임이 서로 다르면, 시간 도메인 움직임 벡터를 0 벡터로 설정하고, 스캔을 중지할 수 있다. 여기서, 공간 도메인 인접 블록은 현재 블록 주변의 코딩된 블록 중의 임의의 하나일 수 있으며, 예를 들면 현재 블록의 좌측 블록으로 고정되거나, 또는 현재 블록의 상측 블록으로 고정되거나, 또는 현재 블록의 좌상 블록 등으로 고정될 수 있다.
양방향 예측의 경우, 제1 참조 프레임 목록과 제2 참조 프레임 목록의 스캔 순서는 아래 규칙에 따라 결정될 수 있다.
현재 프레임이 저-딜레이(low delay) 코딩 모드를 사용하고, 현재 프레임의 동일 위치 프레임이 제2 참조 프레임 목록 중의 제1 프레임으로 설정되면, 제2 참조 프레임 목록을 먼저 스캔하고, 그렇지 않으면 제1 참조 프레임 목록을 먼저 스캔한다.
여기서, 현재 프레임이 저-딜레이(low delay) 코딩 모드를 사용하는 것은 현재 프레임의 참조 프레임의 비디오 시퀀스 중의 재생 순서가 모두 현재 프레임 이전임을 의미하고, 현재 프레임의 동일 위치 프레임이 제2 참조 프레임 목록 중의 제1 참조 프레임으로 설정되는 것은 현재 프레임의 제1 참조 프레임 목록의 첫 번째 slice의 양자화 스텝 길이가 제2 참조 프레임 목록의 첫 번째 slice의 양자화 스텝 길이보다 작음을 의미한다.
시간 도메인 움직임 벡터를 도출하면, 상기 시간 도메인 움직임 벡터를 이용하여 참조 프레임에서 현재 블록의 대응 블록을 찾을 수 있다.
단계 S320에서, 현재 블록의 대응 블록에 따라, 현재 블록의 서브 블록의 움직임 정보를 획득한다.
도 4에 도시한 바와 같이, 현재 블록을 복수의 서브 블록으로 분할한 후, 대응 블록에서의 서브 블록의 움직임 정보를 결정할 수 있다. 주의해야 할 점은, 각 서브 블록에 대하여, 대응 블록의 움직임 정보는 대응 블록이 위치하는 최소 움직임 정보 저장 단위에 의해 결정될 수 있다.
상기 움직임 정보는 움직임 벡터; 움직임 벡터 차분; 참조 프레임 인덱스 값; 프레임간 예측의 참조 방향; 이미지 블록의 프레임내 코딩 또는 프레임간 코딩에 따른 정보; 이미지 블록의 분할 모드 중 하나 또는 복수의 정보의 조합을 포함한다.
도 3에서 설명된 ATMVP의 구현 프로세스로부터 알 수 있듯이, 양방향 예측의 경우, 최악의 상황은, 시간 도메인 움직임 벡터를 도출하는 프로세스에서, 2개의 참조 프레임 목록을 모두 스캔해도, 여전히 조건에 부합하는 시간 도메인 움직임 벡터가 도출되지 않은 경우이며, 이러한 경우, 2개의 참조 프레임 목록의 스캔은 리던던시된다.
또한, 양방향 예측에서, 현재 프레임의 코딩 모드가 저-딜레이 모드(low delay B) 또는 랜덤 액세스 모드(random access)이면, 제1 참조 프레임 목록과 제2 참조 프레임 목록 중의 참조 프레임은 어느 정도 중첩되므로, 시간 도메인 움직임 벡터를 획득하는 프로세스에서, 2개의 참조 프레임 목록에 대한 스캔 프로세스는 리던던시 동작이 존재하게 된다.
따라서, 관련 기술에서 양방향 예측에 대해 제공하는 시간 도메인 움직임 벡터 도출 방안은 비교적 복잡하고, 개선 여지가 존재한다.
이하, 도 5를 결합하여, 본 출원 실시예에 대해 상세히 설명한다.
도 5는 본 출원의 실시예에 의해 제공되는 비디오 처리 방법의 개략적인 흐름도이다. 도 5의 방법은 방법은 코딩단에 응용될 수 있으며, 디코딩단에 응용될 수도 있다.
단계 S510에서, 현재 블록의 참조 프레임 목록을 획득하되, 현재 블록의 참조 프레임 목록은 제1 참조 프레임 목록과 제2 참조 프레임 목록을 포함한다.
현재 블록은 현재 CU라고도 한다. 현재 블록의 참조 프레임 목록은 제1 참조 프레임 목록과 제2 참조 프레임 목록을 포함하고, 현재 블록이 프레임간 양방향 예측을 실행함을 나타낸다.
선택적으로, 상기 제1 참조 프레임 목록은 순방향 참조 프레임 목록일 수 있으며, 제1 조 참조 프레임을 포함하는 참조 프레임 목록일 수도 있다. 상기 제1 조 참조 프레임은 시간 순서로 현재 프레임 이전 및 이후의 참조 프레임을 포함한다.
선택적으로, 상기 제2 참조 프레임 목록은 역방향 참조 프레임 목록일 수 있으며, 제2 조 참조 프레임을 포함하는 참조 프레임 목록일 수도 있다. 상기 제2 조 참조 프레임은 시간 순서로 현재 프레임 이전 및 이후의 참조 프레임을 포함한다.
주의해야 할 점은, 일부 시나리오에서, 제1 참조 프레임 목록과 제2 참조 프레임 목록은 모두 시간 순서로 현재 프레임 이전 및 이후의 참조 프레임을 포함할 수 있고, 상기 양방향 예측은 제1 참조 프레임 목록과 제2 참조 프레임 목록에서 참조 방향이 서로 다른 참조 프레임을 선택하는 것을 의미할 수 있다.
단계 S520에서, 현재 블록의 참조 프레임 목록에 따라, 목표 참조 프레임 목록을 결정한다.
목표 참조 프레임 목록은 제1 참조 프레임 목록과 제2 참조 프레임 목록 중 하나이다. 상기 목표 참조 프레임 목록은 랜덤으로 선택할 수 있으며, 일정한 규칙에 따라 선택할 수도 있다. 예를 들면, 아래 규칙에 따라 선택할 수 있다. 즉, 현재 블록이 위치하는 현재 프레임이 저-딜레이(low delay) 코딩 모드를 사용하고, 현재 프레임의 동일 위치 프레임이 제2 참조 프레임 목록 중의 제1 프레임이면, 제2 참조 프레임 목록을 목표 참조 프레임 목록으로 결정하고; 또한/또는 현재 블록이 위치하는 현재 프레임이 저-딜레이 코딩 모드를 사용하지 않거나 또는 현재 프레임의 동일 위치 프레임이 제2 참조 프레임 목록 중의 제1 프레임이 아니면, 제1 참조 프레임 목록을 목표 참조 프레임 목록으로 결정한다.
단계 S530에서,현재 블록의 목표 참조 프레임 목록에 따라 현재 블록의 시간 도메인 움직임 벡터를 결정한다.
양방향 예측 프로세스에서, 본 출원 실시예는 제1 참조 프레임 목록과 제2 참조 프레임 목록 중의 하나의 참조 프레임 목록에 따라 현재 블록의 시간 도메인 움직임 벡터를 결정한다. 즉, 목표 참조 프레임에서 시간 도메인 움직임 벡터를 도출할 수 있는지와 상관없이, 목표 참조 프레임 목록을 스캔한 후, 스캔을 중지한다. 즉, 목표 참조 프레임 목록에 따라서만 현재 블록의 시간 도메인 움직임 벡터를 결정할 수 있다.
예를 들어 설명하면, 먼저 현재 블록의 움직임 벡터 후보 목록(상기 움직임 벡터 후보 목록은 공간 도메인의 4개의 인접 위치의 이미지 블록의 움직임 벡터에 기초하여 구축될 수 있음)에서 첫 번째 후보 움직임 벡터를 선택하고, 목표 참조 프레임 목록에서 첫 번째 후보 움직임 벡터의 참조 프레임을 찾는다. 첫 번째 후보 움직임 벡터의 참조 프레임과 현재 블록의 동일 위치 프레임이 동일한 경우, 첫 번째 후보 움직임 벡터를 시간 도메인 움직임 벡터로 결정할 수 있다. 첫 번째 후보 움직임 벡터의 참조 프레임과 현재 블록의 동일 위치 프레임이 다른 경우에도 스캔을 중지하며, 도 3의 실시예에서 설명한 바와 같이 현재 블록의 다른 참조 프레임 목록을 계속 스캔하지 않는다. 이 경우, 0 벡터를 현재 블록의 시간 도메인 움직임 벡터로 할 수 있다.
단계 S540에서, 시간 도메인 움직임 벡터에 따라 현재 블록의 서브 블록의 움직임 정보를 결정한다.
예를 들면, 시간 도메인 움직임 벡터에 따라 참조 프레임에서의 현재 블록의 대응 블록을 결정할 수 있다. 그후, 참조 프레임에서의 현재 블록의 대응 블록에 따라 현재 블록의 서브 블록의 움직임 정보를 결정할 수 있다. 상기 움직임 정보는 움직임 벡터; 움직임 벡터 차분; 참조 프레임 인덱스 값; 프레임간 예측의 참조 방향; 이미지 블록의 프레임내 코딩 또는 프레임간 코딩에 따른 정보; 이미지 블록의 분할 모드 중 하나 또는 복수의 정보의 조합을 포함한다. 단계 540은 상술한 단계 S320을 참조하여 구현될 수 있으므로, 여기서 더 이상 설명하지 않는다.
단계 S550에서,현재 블록의 서브 블록의 움직임 정보에 따라 현재 블록에 대해 프레임간 예측을 수행한다.
일 예시로서, 단계 S550은 현재 블록의 서브 블록 단위로 현재 블록의 서브 블록의 움직임 정보에 따라 프레임간 예측을 수행하는 단계를 포함할 수 있다.
예를 들면, 도 1에 도시된 바와 같이, 현재 블록의 서브 블록의 움직임 정보를 ATMVP로 하여 현재 블록의 affine merge candidates list에 삽입하고, 그후 도 1의 단계 S120 내지 S160에 따라, 완전한 affine merge candidates list를 구성할 수 있다. 이어서, 상기 affine merge candidates list 중의 후보 움직임 벡터를 이용하여 현재 블록에 대해 프레임간 예측을 수행하여, 최적의 후보 움직임 벡터를 결정할 수 있다. 단계 S550의 상세한 구현 방식은 관련 기술을 참조하여 실행할 수 있고, 본 출원의 실시예는 이에 대해 한정하지 않는다.
본 출원의 실시예는 양방향 예측 프로세스에서 스캔해야 할 참조 프레임 목록의 수를 제한함으로써, 코덱 동작을 단순화할 수 있다.
이해할 수 있듯이, 도 5의 방법을 코딩단과 디코딩단에 각각 응용할 경우, 단계 S550에서 설명된 현재 블록에 대한 프레임간 예측 프로세스는 어느 정도 다를 수 있다. 예를 들면, 도 5의 방법이 코딩단에 응용될 경우, 현재 블록에 대해 프레임간 예측을 수행하는 단계는, 현재 블록의 예측 블록을 결정하는 단계; 현재 블록의 최초 블록과 예측 블록에 따라, 현재 블록의 잔여 블록을 계산하는 단계를 포함할 수 있다. 또 예를 들면, 도 5의 방법이 디코딩단에 응용될 경우, 현재 블록에 대해 프레임간 예측을 수행하는 단계는, 현재 블록의 예측 블록과 잔여 블록을 결정하는 단계; 현재 블록의 예측 블록과 잔여 블록에 따라, 현재 블록의 재구성 블록을 계산하는 단계를 포함할 수 있다.
이상, 도 1 내지 도 5를 결합하여 본 출원의 방법 실시예를 상세히 설명했다. 이하 도 6을 결합하여, 본 출원의 장치 실시예를 상세히 설명한다. 이해해야 할 것은, 방법 실시예의 설명은 장치 실시예의 설명과 서로 대응되므로, 상세히 설명되지 않은 부분은 전술한 방법 실시예를 참고할 수 있다.
도 6은 본 출원의 실시예에 의해 제공되는 비디오 처리 장치의 개략적 구조도이다. 도 6의 장치(60)는 메모리(62)와 프로세서(64)를 포함한다.
메모리(62)는 코드를 저장할 수 있다.
프로세서(64)는 제1 참조 프레임 목록 및 제2 참조 프레임 목록을 포함하는 현재 블록의 참조 프레임 목록을 획득하는 동작; 상기 현재 블록의 참조 프레임 목록에 따라, 상기 제1 참조 프레임 목록 및 상기 제2 참조 프레임 목록 중 하나인 목표 참조 프레임 목록을 결정하는 동작; 상기 현재 블록의 목표 참조 프레임 목록에 따라 상기 현재 블록의 시간 도메인 움직임 벡터를 결정하는 동작; 상기 시간 도메인 움직임 벡터에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 동작; 상기 현재 블록의 서브 블록의 움직임 정보에 따라 상기 현재 블록에 대해 프레임간 예측을 수행하는 동작;을 실행하도록, 상기 메모리에 저장된 코드를 실행할 수 있다.
선택적으로,상술한 상기 시간 도메인 움직임 벡터에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 단계는, 상기 시간 도메인 움직임 벡터에 따라 참조 프레임에서의 상기 현재 블록의 대응 블록을 결정하는 단계; 상기 참조 프레임에서의 상기 현재 블록의 대응 블록에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 단계를 포함한다.
선택적으로, 상술한 상기 현재 블록의 참조 프레임 목록에 따라, 목표 참조 프레임 목록을 결정하는 단계는, 상기 현재 블록이 위치하는 현재 프레임이 저-딜레이(low-latency) 코딩 모드를 사용하고, 상기 현재 프레임의 동일 위치 프레임이 상기 제2 참조 프레임 목록 중의 제1 프레임이면, 상기 제2 참조 프레임 목록을 상기 목표 참조 프레임 목록으로 결정하는 단계; 및/또는 상기 현재 블록이 위치하는 현재 프레임이 저-딜레이 코딩 모드를 사용하지 않거나 또는 상기 현재 프레임의 동일 위치 프레임이 상기 제2 참조 프레임 목록 중의 제1 프레임이 아니면, 상기 제1 참조 프레임 목록을 상기 목표 참조 프레임 목록으로 결정하는 단계를 포함한다.
선택적으로, 상기 제1 참조 프레임 목록은 순방향 참조 프레임 목록일 수 있으며, 제1 조 참조 프레임을 포함하는 참조 프레임 목록일 수도 있다. 상기 제1 조 참조 프레임은 시간 순서로 현재 프레임 이전 및 이후의 참조 프레임을 포함한다.
선택적으로, 상기 제2 참조 프레임 목록은 역방향 참조 프레임 목록일 수 있으며, 제2 조 참조 프레임을 포함하는 참조 프레임 목록일 수도 있다. 상기 제2 조 참조 프레임은 시간 순서로 현재 프레임 이전 및 이후의 참조 프레임을 포함한다.
주의해야 할 점은, 일부 시나리오에서, 제1 참조 프레임 목록과 제2 참조 프레임 목록은 모두 시간 순서로 현재 프레임 이전 및 이후의 참조 프레임을 포함할 수 있고, 상기 양방향 예측은 제1 참조 프레임 목록과 제2 참조 프레임 목록에서 참조 방향이 서로 다른 참조 프레임을 선택하는 것을 의미할 수 있다.
선택적으로, 상기 현재 블록의 목표 참조 프레임 목록에 따라 상기 현재 블록의 시간 도메인 움직임 벡터를 결정하는 단계는,
상기 현재의 움직임 벡터 후보 목록에서 첫 번째 후보 움직임 벡터를 선택하는 단계; 상기 목표 참조 프레임 목록에서 상기 첫 번째 후보 움직임 벡터의 참조 프레임을 찾는 단계; 상기 첫 번째 후보 움직임 벡터의 참조 프레임과 상기 현재 블록의 동일 위치 프레임이 동일한 경우, 상기 첫 번째 후보 움직임 벡터를 상기 시간 도메인 움직임 벡터로 결정하는 단계를 포함한다.
선택적으로, 상기 현재 블록의 목표 참조 프레임 목록에 따라 상기 현재 블록의 시간 도메인 움직임 벡터를 결정하는 단계는, 상기 첫 번째 후보 움직임 벡터의 참조 프레임과 상기 현재 블록의 동일 위치 프레임이 다른 경우, 상기 시간 도메인 움직임 벡터를 0 벡터로 결정하는 단계를 더 포함한다.
선택적으로, 상술한 상기 현재 블록에 대해 프레임간 예측을 수행하는 단계는, 상기 현재 블록의 예측 블록을 결정하는 단계; 상기 현재 블록의 최초 블록과 예측 블록에 따라, 상기 현재 블록의 잔여 블록을 계산하는 단계를 포함한다.
선택적으로, 상술한 상기 현재 블록에 대해 프레임간 예측을 수행하는 단계는, 상기 현재 블록의 예측 블록과 잔여 블록을 결정하는 단계; 상기 현재 블록의 예측 블록과 잔여 블록에 따라, 상기 현재 블록의 재구성 블록을 계산하는 단계를 포함한다.
선택적으로, 상술한 상기 현재 블록의 서브 블록의 움직임 정보에 따라 상기 현재 블록에 대해 프레임간 예측을 수행하는 단계는, 상기 현재 블록의 서브 블록 단위로 상기 현재 블록의 서브 블록의 움직임 정보에 따라 프레임간 예측을 수행하는 단계를 포함한다.
상기 실시예에서, 전체적 또는 부분적으로 하드웨어, 소프트웨어, 펌웨어 또는 이들의 임의의 조합을 통하여 구현될 수 있다. 소프트웨어를 사용하여 구현할 경우, 전체적 또는 부분적으로 컴퓨터 프로그램 제품의 형태로 구현될 수 있다. 컴퓨터 프로그램 제품은 하나 이상의 컴퓨터 명령을 포함한다. 컴퓨터에 컴퓨터 명령이 로딩되어 실행되면, 전체적 또는 부분적으로 본 출원의 실시예에 따른 프로세서 또는 기능이 생성된다. 상기 컴퓨터는 범용 컴퓨터 또는 특수 컴퓨터, 컴퓨터 네트워크 또는 기타 프로그램 가능한 장치일 수 있다. 상기 컴퓨터 명령은 컴퓨터 판독 가능 저장매체에 저장되거나 또는 컴퓨터 판독 가능 저장매체에서 다른 컴퓨터 판독 가능 저장매체로 전송될 수 있다. 예를 들면, 상기 컴퓨터 명령은 웹사이트, 컴퓨터, 서버 또는 데이터 센터로부터 유선(예를 들면 동축 케이블, 광케이블, DSL(Digital Subscriber Line) 또는 무선(적외선, 무선, 마이크로파 등) 방식으로 다른 웹사이트, 컴퓨터, 서버 또는 데이터 센터로 전송될 수 있다. 상기 컴퓨터 판독 가능 저장매체는 컴퓨터가 액세스할 수 있는 임의의 사용 가능 매체이거나 또는 하나 이상의 사용 가능 매체가 통합된 서버, 데이터 센터 등 데이터 저장장치를 포함할 수 있다. 상기 사용 가능한 매체는 자기매체(예를 들면, 플로피 디스크, 하드 디스크, 자기 테이프), 광학 매체(예를 들면, DVD), 또는 반도체 매체(예를 들면, SSD)등 일 수 있다.
본 분야에서 통상의 지식을 가진 자라면 본문에 공개된 실시예에서 설명한 각 예시를 결합한 유닛 및 계산법 단계는, 전자식 하드웨어 또는 컴퓨터 소프트웨어와 전자식 하드웨어의 결합으로 구현할 수 있음을 이해할 수 있다. 이러한 기능을 하드웨어 방식으로 실행할 것인지 아니면 소프트웨어 방식으로 실행할 것인지는 기술방안의 특정 응용 및 설계 규제 조건에 의해 결정된다. 전문기술자는 각각의 특정 응용에 따라 다양한 방법으로 상술한 기능을 실현할 수 있으나, 이러한 실현은 본 출원의 범위를 초과한 것으로 보아서는 안 된다.
본 출원에서 제공한 여러 실시예에서 개시된 시스템, 장치 및 방법은 다른 방식으로 실행될 수 있음을 이해할 수 있다. 예컨대 상술한 장치 실시예는 개략적인 것에 불과하며, 예컨대 상기 유닛의 구분은 논리적 기능을 구분한 것에 불과하고, 실제 구현 시에는 별도의 구분 방식일 수 있으며, 예컨대, 복수의 유닛 또는 부재는 다른 시스템에 결합 또는 통합시킬 수 있거나, 또는 일부 특징을 생략하거나 실행하지 않을 수도 있다. 또한, 도시되었거나 또는 논의된 상호 간의 결합 또는 직접 결합 또는 통신 접속은 일부 인터페이스, 장치 또는 유닛을 통한 간접 결합 또는 통신 접속일 수 있으며, 전기적, 기계적 또는 다른 형태의 접속일 수도 있다.
상기 분리 부재로서 설명된 유닛은, 물리적으로 분리되는 것일 수도 있고 아닐 수도 있으며, 유닛으로 도시된 부재들은 물리적인 유닛일 수도 있고 아닐 수도 있으며, 한 곳에 위치하거나 또는 복수의 네트워크 유닛 상에 분포될 수도 있다. 실제의 필요에 따라 이러한 유닛 중 일부 또는 전체를 선택하여 본 실시예 방안의 목적을 실현할 수 있다.
또한, 본 출원의 각각의 실시예의 각각의 기능 유닛은 하나의 처리 유닛에 통합되거나, 각각의 유닛이 단독으로 물리적으로 존재할 수도 있고, 2개 이상의 유닛을 하나의 유닛에 통합시킬 수도 있다.
상술한 내용은 본 출원의 구체적 실시 방식에 불과하며, 본 출원의 보호범위는 이에 한정되지 않고, 본 분야에서 통상의 지식을 가진 자라면 본 출원에 의해 공개된 기술 범위 내에서 다양한 등가 변경 또는 대체를 쉽게 생각해 낼 수 있고, 이러한 변경 또는 대체는 모두 본 출원의 보호범위에 포함되어야 한다. 따라서, 본 출원의 보호범위는 청구범위를 기준으로 해야 한다.

Claims (22)

  1. 제1 참조 프레임 목록 및 제2 참조 프레임 목록을 포함하는 현재 블록의 참조 프레임 목록을 획득하는 단계;
    상기 현재 블록의 참조 프레임 목록에 따라, 상기 제1 참조 프레임 목록 및 상기 제2 참조 프레임 목록 중 하나인 목표 참조 프레임 목록을 결정하는 단계;
    상기 현재 블록의 목표 참조 프레임 목록에 따라 상기 현재 블록의 시간 도메인 움직임 벡터를 결정하는 단계;
    상기 시간 도메인 움직임 벡터에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 단계;
    상기 현재 블록의 서브 블록의 움직임 정보에 따라 상기 현재 블록에 대해 프레임간 예측을 수행하는 단계;를 포함하는 것을 특징으로 하는, 비디오 처리 방법.
  2. 제1항에 있어서,
    상술한 상기 시간 도메인 움직임 벡터에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 단계는,
    상기 시간 도메인 움직임 벡터에 따라 참조 프레임에서의 상기 현재 블록의 대응 블록을 결정하는 단계;
    상기 참조 프레임에서의 상기 현재 블록의 대응 블록에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 단계;를 포함하는 것을 특징으로 하는, 비디오 처리 방법.
  3. 제1항 또는 제2항에 있어서,
    상술한 상기 현재 블록의 참조 프레임 목록에 따라, 목표 참조 프레임 목록을 결정하는 단계는,
    상기 현재 블록이 위치하는 현재 프레임이 저-딜레이(low delay) 코딩 모드를 사용하고, 상기 현재 프레임의 동일 위치 프레임이 상기 제2 참조 프레임 목록 중의 제1 프레임이면, 상기 제2 참조 프레임 목록을 상기 목표 참조 프레임 목록으로 결정하는 단계; 및/또는
    상기 현재 블록이 위치하는 현재 프레임이 저-딜레이 코딩 모드를 사용하지 않거나 또는 상기 현재 프레임의 동일 위치 프레임이 상기 제2 참조 프레임 목록 중의 제1 프레임이 아니면, 상기 제1 참조 프레임 목록을 상기 목표 참조 프레임 목록으로 결정하는 단계;를 포함하는 것을 특징으로 하는, 비디오 처리 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상술한 상기 현재 블록의 목표 참조 프레임 목록에 따라 상기 현재 블록의 시간 도메인 움직임 벡터를 결정하는 단계는,
    상기 현재의 움직임 벡터 후보 목록에서 첫 번째 후보 움직임 벡터를 선택하는 단계;
    상기 목표 참조 프레임 목록에서 상기 첫 번째 후보 움직임 벡터의 참조 프레임을 찾는 단계;
    상기 첫 번째 후보 움직임 벡터의 참조 프레임과 상기 현재 블록의 동일 위치 프레임이 동일한 경우, 상기 첫 번째 후보 움직임 벡터를 상기 시간 도메인 움직임 벡터로 결정하는 단계;를 포함하는 것을 특징으로 하는, 비디오 처리 방법.
  5. 제4항에 있어서,
    상술한 상기 현재 블록의 목표 참조 프레임 목록에 따라 상기 현재 블록의 시간 도메인 움직임 벡터를 결정하는 단계는,
    상기 첫 번째 후보 움직임 벡터의 참조 프레임과 상기 현재 블록의 동일 위치 프레임이 다른 경우, 상기 시간 도메인 움직임 벡터를 0 벡터로 결정하는 단계를 더 포함하는 것을 특징으로 하는, 비디오 처리 방법.
  6. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상술한 상기 현재 블록의 목표 참조 프레임 목록에 따라 상기 현재 블록의 시간 도메인 움직임 벡터를 결정하는 단계는,
    상기 현재 블록의 하나의 특정 위치의 공간 도메인 인접 블록의 움직임 벡터를 결정하는 단계;
    상기 공간 도메인 인접 블록의 움직임 벡터의 참조 프레임과 상기 현재 블록의 동일 위치 프레임이 동일한 경우, 상기 공간 도메인 인접 블록의 움직임 벡터를 상기 시간 도메인 움직임 벡터로 결정하는 단계;를 포함하는 것을 특징으로 하는, 비디오 처리 방법.
  7. 제6항에 있어서,
    상기 현재 블록의 하나의 특정 위치의 공간 도메인 인접 블록은 상기 현재 블록의 좌측 블록이거나, 또는 상기 현재 블록의 상측 블록이거나, 또는 상기 현재 블록의 좌상 블록인 것을 특징으로 하는, 비디오 처리 방법.
  8. 제6항에 있어서,
    상기 공간 도메인 인접 블록의 참조 프레임과 상기 현재 블록의 동일 위치 프레임이 다른 경우, 상기 시간 도메인 움직임 벡터를 0 벡터로 결정하는 것을 특징으로 하는, 비디오 처리 방법.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상술한 상기 현재 블록에 대해 프레임간 예측을 수행하는 단계는,
    상기 현재 블록의 예측 블록을 결정하는 단계;
    상기 현재 블록의 최초 블록과 예측 블록에 따라, 상기 현재 블록의 잔여 블록을 계산하는 단계;를 포함하는 것을 특징으로 하는, 비디오 처리 방법.
  10. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상술한 상기 현재 블록에 대해 프레임간 예측을 수행하는 단계는,
    상기 현재 블록의 예측 블록과 잔여 블록을 결정하는 단계;
    상기 현재 블록의 예측 블록과 잔여 블록에 따라, 상기 현재 블록의 재구성 블록을 계산하는 단계를 포함하는 것을 특징으로 하는, 비디오 처리 방법.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서,
    상술한 상기 현재 블록의 서브 블록의 움직임 정보에 따라 상기 현재 블록에 대해 프레임간 예측을 수행하는 단계는,
    상기 현재 블록의 서브 블록 단위로 상기 현재 블록의 서브 블록의 움직임 정보에 따라 프레임간 예측을 수행하는 단계를 포함하는 것을 특징으로 하는, 비디오 처리 방법.
  12. 비디오 처리 장치에 있어서,
    코드를 저장하기 위한 메모리;
    프로세서를 포함하고,
    상기 프로세서는,
    제1 참조 프레임 목록 및 제2 참조 프레임 목록을 포함하는 현재 블록의 참조 프레임 목록을 획득하는 동작;
    상기 현재 블록의 참조 프레임 목록에 따라, 상기 제1 참조 프레임 목록 및 상기 제2 참조 프레임 목록 중 하나인 목표 참조 프레임 목록을 결정하는 동작;
    상기 현재 블록의 목표 참조 프레임 목록에 따라 상기 현재 블록의 시간 도메인 움직임 벡터를 결정하는 동작;
    상기 시간 도메인 움직임 벡터에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 동작;
    상기 현재 블록의 서브 블록의 움직임 정보에 따라 상기 현재 블록에 대해 프레임간 예측을 수행하는 동작;을 실행하도록, 상기 메모리에 저장된 코드를 실행하기 위한 것임을 특징으로 하는, 비디오 처리 장치.
  13. 제12항에 있어서,
    상술한 상기 시간 도메인 움직임 벡터에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 동작은,
    상기 시간 도메인 움직임 벡터에 따라 참조 프레임에서의 상기 현재 블록의 대응 블록을 결정하는 동작;
    상기 참조 프레임에서의 상기 현재 블록의 대응 블록에 따라 상기 현재 블록의 서브 블록의 움직임 정보를 결정하는 동작;을 포함하는 것을 특징으로 하는, 비디오 처리 장치.
  14. 제12항 또는 제13항에 있어서,
    상술한 상기 현재 블록의 참조 프레임 목록에 따라, 목표 참조 프레임 목록을 결정하는 동작은,
    상기 현재 블록이 위치하는 현재 프레임이 저-딜레이 코딩 모드를 사용하고, 상기 현재 프레임의 동일 위치 프레임이 상기 제2 참조 프레임 목록 중의 제1 프레임이면, 상기 제2 참조 프레임 목록을 상기 목표 참조 프레임 목록으로 결정하는 동작; 및/또는
    상기 현재 블록이 위치하는 현재 프레임이 저-딜레이 코딩 모드를 사용하지 않거나 또는 상기 현재 프레임의 동일 위치 프레임이 상기 제2 참조 프레임 목록 중의 제1 프레임이 아니면, 상기 제1 참조 프레임 목록을 상기 목표 참조 프레임 목록으로 결정하는 동작;을 포함하는 것을 특징으로 하는, 비디오 처리 장치.
  15. 제12항 내지 제14항 중 어느 한 항에 있어서,
    상술한 상기 현재 블록의 목표 참조 프레임 목록에 따라 상기 현재 블록의 시간 도메인 움직임 벡터를 결정하는 동작은,
    상기 현재의 움직임 벡터 후보 목록에서 첫 번째 후보 움직임 벡터를 선택하는 동작;
    상기 목표 참조 프레임 목록에서 상기 첫 번째 후보 움직임 벡터의 참조 프레임을 찾는 동작;
    상기 첫 번째 후보 움직임 벡터의 참조 프레임과 상기 현재 블록의 동일 위치 프레임이 동일한 경우, 상기 첫 번째 후보 움직임 벡터를 상기 시간 도메인 움직임 벡터로 결정하는 동작;을 포함하는 것을 특징으로 하는, 비디오 처리 장치.
  16. 제15항에 있어서,
    상술한 상기 현재 블록의 목표 참조 프레임 목록에 따라 상기 현재 블록의 시간 도메인 움직임 벡터를 결정하는 동작은,
    상기 첫 번째 후보 움직임 벡터의 참조 프레임과 상기 현재 블록의 동일 위치 프레임이 다른 경우, 상기 시간 도메인 움직임 벡터를 0 벡터로 결정하는 동작;을 더 포함하는 것을 특징으로 하는, 비디오 처리 장치.
  17. 제12항 내지 제14항 중 어느 한 항에 있어서,
    상술한 상기 현재 블록의 목표 참조 프레임 목록에 따라 상기 현재 블록의 시간 도메인 움직임 벡터를 결정하는 동작은,
    상기 현재 블록의 하나의 특정 위치의 공간 도메인 인접 블록의 움직임 벡터를 결정하는 동작;
    상기 공간 도메인 인접 블록의 움직임 벡터의 참조 프레임과 상기 현재 블록의 동일 위치 프레임이 동일한 경우, 상기 공간 도메인 인접 블록의 움직임 벡터를 상기 시간 도메인 움직임 벡터로 결정하는 동작;을 포함하는 것을 특징으로 하는, 비디오 처리 방법.
  18. 제17항에 있어서,
    상기 현재 블록의 하나의 특정 위치의 공간 도메인 인접 블록은 상기 현재 블록의 좌측 블록이거나, 또는 상기 현재 블록의 상측 블록이거나, 또는 상기 현재 블록의 좌상 블록인 것을 특징으로 하는, 비디오 처리 방법.
  19. 제17항에 있어서,
    상기 공간 도메인 인접 블록의 참조 프레임과 상기 현재 블록의 동일 위치 프레임이 다른 경우, 상기 시간 도메인 움직임 벡터를 0 벡터로 결정하는 것을 특징으로 하는, 비디오 처리 방법.
  20. 제12항 내지 제19항 중 어느 한 항에 있어서,
    상술한 상기 현재 블록에 대해 프레임간 예측을 수행하는 동작은,
    상기 현재 블록의 예측 블록을 결정하는 동작;
    상기 현재 블록의 최초 블록과 예측 블록에 따라, 상기 현재 블록의 잔여 블록을 계산하는 동작;을 포함하는 것을 특징으로 하는, 비디오 처리 장치.
  21. 제12항 내지 제19항 중 어느 한 항에 있어서,
    상술한 상기 현재 블록에 대해 프레임간 예측을 수행하는 동작은,
    상기 현재 블록의 예측 블록과 잔여 블록을 결정하는 동작;
    상기 현재 블록의 예측 블록과 잔여 블록에 따라, 상기 현재 블록의 재구성 블록을 계산하는 동작;을 포함하는 것을 특징으로 하는, 비디오 처리 장치.
  22. 제12항 내지 제21항 중 어느 한 항에 있어서,
    상술한 상기 현재 블록의 서브 블록의 움직임 정보에 따라 상기 현재 블록에 대해 프레임간 예측을 수행하는 동작은,
    상기 현재 블록의 서브 블록 단위로 상기 현재 블록의 서브 블록의 움직임 정보에 따라 프레임간 예측을 수행하는 동작을 포함하는 것을 특징으로 하는, 비디오 처리 장치.
KR1020217021168A 2019-01-03 2019-12-31 비디오 처리 방법 및 장치 KR20210094089A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
PCT/CN2019/070306 WO2020140242A1 (zh) 2019-01-03 2019-01-03 视频处理方法和装置
CNPCT/CN2019/070306 2019-01-03
PCT/CN2019/130881 WO2020140916A1 (zh) 2019-01-03 2019-12-31 视频处理方法和装置

Publications (1)

Publication Number Publication Date
KR20210094089A true KR20210094089A (ko) 2021-07-28

Family

ID=70562433

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217021168A KR20210094089A (ko) 2019-01-03 2019-12-31 비디오 처리 방법 및 장치

Country Status (6)

Country Link
US (1) US20210337232A1 (ko)
EP (1) EP3908002A4 (ko)
JP (2) JP7328337B2 (ko)
KR (1) KR20210094089A (ko)
CN (7) CN111164976A (ko)
WO (3) WO2020140242A1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10264276B2 (en) * 2011-06-14 2019-04-16 Samsung Electronics Co., Ltd. Method and apparatus for encoding motion information and method and apparatus for decoding same
CN111953997A (zh) * 2019-05-15 2020-11-17 华为技术有限公司 候选运动矢量列表获取方法、装置及编解码器
CN117395397A (zh) 2019-06-04 2024-01-12 北京字节跳动网络技术有限公司 使用临近块信息的运动候选列表构建
JP7425808B2 (ja) 2019-06-04 2024-01-31 北京字節跳動網絡技術有限公司 動き候補リスト構築プロセスの条件付き実行
KR102662603B1 (ko) 2019-06-06 2024-04-30 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 비디오 코딩을 위한 움직임 후보 리스트 구성
WO2021008511A1 (en) 2019-07-14 2021-01-21 Beijing Bytedance Network Technology Co., Ltd. Geometric partition mode candidate list construction in video coding
WO2021057996A1 (en) 2019-09-28 2021-04-01 Beijing Bytedance Network Technology Co., Ltd. Geometric partitioning mode in video coding
CN114007078B (zh) * 2020-07-03 2022-12-23 杭州海康威视数字技术股份有限公司 一种运动信息候选列表的构建方法、装置及其设备

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11298902A (ja) * 1998-04-08 1999-10-29 Sony Corp 画像符号化装置および方法
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
CN1870748A (zh) * 2005-04-27 2006-11-29 王云川 因特网协议电视
WO2007029914A1 (en) * 2005-07-19 2007-03-15 Samsung Eletronics Co., Ltd. Video encoding/decoding method and apparatus in temporal direct mode in hierarchica structure
JP2011077722A (ja) * 2009-09-29 2011-04-14 Victor Co Of Japan Ltd 画像復号装置、画像復号方法およびそのプログラム
US9137544B2 (en) * 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
CN102685477B (zh) * 2011-03-10 2014-12-10 华为技术有限公司 获取用于合并模式的图像块的方法和设备
MX2014000159A (es) * 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
US9083983B2 (en) * 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
JP5997363B2 (ja) * 2012-04-15 2016-09-28 サムスン エレクトロニクス カンパニー リミテッド ビデオ復号化方法及びビデオ復号化装置
CN103533376B (zh) * 2012-07-02 2017-04-12 华为技术有限公司 帧间预测编码运动信息的处理方法、装置和编解码系统
CN102946536B (zh) * 2012-10-09 2015-09-30 华为技术有限公司 候选矢量列表构建的方法及装置
US10785501B2 (en) * 2012-11-27 2020-09-22 Squid Design Systems Pvt Ltd System and method of performing motion estimation in multiple reference frame
CN103338372A (zh) * 2013-06-15 2013-10-02 浙江大学 一种视频处理方法及装置
CN104427345B (zh) * 2013-09-11 2019-01-08 华为技术有限公司 运动矢量的获取方法、获取装置、视频编解码器及其方法
US10555001B2 (en) * 2014-02-21 2020-02-04 Mediatek Singapore Pte. Ltd. Method of video coding using prediction based on intra picture block copy
WO2015143603A1 (en) * 2014-03-24 2015-10-01 Mediatek Singapore Pte. Ltd. An improved method for temporal motion vector prediction in video coding
US9854237B2 (en) * 2014-10-14 2017-12-26 Qualcomm Incorporated AMVP and merge candidate list derivation for intra BC and inter prediction unification
US11477477B2 (en) * 2015-01-26 2022-10-18 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction
CN104717513B (zh) * 2015-03-31 2018-02-09 北京奇艺世纪科技有限公司 一种双向帧间预测方法及装置
CN104811729B (zh) * 2015-04-23 2017-11-10 湖南大目信息科技有限公司 一种视频多参考帧编码方法
US10271064B2 (en) * 2015-06-11 2019-04-23 Qualcomm Incorporated Sub-prediction unit motion vector prediction using spatial and/or temporal motion information
US20190028731A1 (en) * 2016-01-07 2019-01-24 Mediatek Inc. Method and apparatus for affine inter prediction for video coding system
WO2017131908A1 (en) * 2016-01-29 2017-08-03 Google Inc. Dynamic reference motion vector coding mode
US9866862B2 (en) * 2016-03-18 2018-01-09 Google Llc Motion vector reference selection through reference frame buffer tracking
CN113438478A (zh) * 2016-04-06 2021-09-24 株式会社Kt 对视频进行编码、解码的方法及存储压缩视频数据的设备
WO2017176092A1 (ko) * 2016-04-08 2017-10-12 한국전자통신연구원 움직임 예측 정보를 유도하는 방법 및 장치
JP6921870B2 (ja) * 2016-05-24 2021-08-18 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 画像復号方法、画像符号化方法及び記録媒体
WO2018066874A1 (ko) * 2016-10-06 2018-04-12 세종대학교 산학협력단 비디오 신호의 복호화 방법 및 이의 장치
US10602180B2 (en) * 2017-06-13 2020-03-24 Qualcomm Incorporated Motion vector prediction
CN109089119B (zh) * 2017-06-13 2021-08-13 浙江大学 一种运动矢量预测的方法及设备
US11503300B2 (en) * 2018-05-25 2022-11-15 Hfi Innovation Inc. Method and apparatus of affine mode motion-vector prediction derivation for video coding system
EP3737092A4 (en) * 2018-07-02 2021-02-24 LG Electronics Inc. PROCESS FOR PROCESSING IMAGES BASED ON AN INTER-PREDICTION MODE AND ASSOCIATED DEVICE
US10944984B2 (en) * 2018-08-28 2021-03-09 Qualcomm Incorporated Affine motion prediction
EP3855747A4 (en) * 2018-09-20 2022-06-15 Electronics and Telecommunications Research Institute METHOD AND DEVICE FOR CODING/DECODING IMAGES AND RECORDING MEDIUM STORING A BIT STREAM

Also Published As

Publication number Publication date
EP3908002A1 (en) 2021-11-10
CN113507612A (zh) 2021-10-15
JP2023139221A (ja) 2023-10-03
EP3908002A4 (en) 2022-04-20
US20210337232A1 (en) 2021-10-28
JP7328337B2 (ja) 2023-08-16
CN111630860A (zh) 2020-09-04
CN113194314B (zh) 2022-10-25
WO2020140242A1 (zh) 2020-07-09
WO2020140916A1 (zh) 2020-07-09
CN111630861A (zh) 2020-09-04
CN111630861B (zh) 2021-08-24
CN113507612B (zh) 2023-05-12
CN113453015B (zh) 2022-10-25
CN113453015A (zh) 2021-09-28
CN111164976A (zh) 2020-05-15
CN116866605A (zh) 2023-10-10
WO2020140915A1 (zh) 2020-07-09
CN113194314A (zh) 2021-07-30
JP2022515807A (ja) 2022-02-22

Similar Documents

Publication Publication Date Title
KR20210094089A (ko) 비디오 처리 방법 및 장치
JP7225381B2 (ja) インター予測に基づいて、ビデオ信号を処理するための方法及び装置
TWI738036B (zh) 產生仿射候選的方法及裝置
JP7393061B2 (ja) 映像処理方法及び符号化器
BR122021006509A2 (pt) método de decodificação de imagem com base na predição de movimento afim e dispositivo usando lista de candidatos à fusão afins no sistema de codificação de imagem
US20220232208A1 (en) Displacement vector prediction method and apparatus in video encoding and decoding and device
CN111418212A (zh) 基于图像编码系统中的仿射运动预测的图像解码方法和设备
CN111684799A (zh) 视频处理方法和装置
CN113678455A (zh) 用于导出双预测的权重索引信息的视频或图像编码
CN111357288B (zh) 视频图像处理方法与装置
CN118303025A (en) Image decoding method and apparatus therefor
WO2023055967A1 (en) Candidate derivation for affine merge mode in video coding

Legal Events

Date Code Title Description
E902 Notification of reason for refusal