KR102579523B1 - 양방향 옵티컬 플로우 (bio) 를 위한 모션 벡터 재구성 - Google Patents

양방향 옵티컬 플로우 (bio) 를 위한 모션 벡터 재구성 Download PDF

Info

Publication number
KR102579523B1
KR102579523B1 KR1020197019234A KR20197019234A KR102579523B1 KR 102579523 B1 KR102579523 B1 KR 102579523B1 KR 1020197019234 A KR1020197019234 A KR 1020197019234A KR 20197019234 A KR20197019234 A KR 20197019234A KR 102579523 B1 KR102579523 B1 KR 102579523B1
Authority
KR
South Korea
Prior art keywords
block
sub
video data
prediction
motion
Prior art date
Application number
KR1020197019234A
Other languages
English (en)
Other versions
KR20190103171A (ko
Inventor
이-웬 천
샤오-창 추앙
샹 리
리 장
웨이-정 치엔
지안레 천
마르타 카르체비츠
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20190103171A publication Critical patent/KR20190103171A/ko
Application granted granted Critical
Publication of KR102579523B1 publication Critical patent/KR102579523B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

양방향 인터 예측 블록에 대하여, 비디오 디코더는, 제 1 MV 를 이용하여, 제 1 레퍼런스 픽처 내에 제 1 예측 블록을 위치시키도록; 제 2 MV 를 이용하여, 제 2 레퍼런스 픽처 내에 제 2 예측 블록을 위치시키도록; 제 1 예측 블록의 제 1 서브-블록에 대하여, 제 1 양의 양방향 옵티컬 플로우 (BIO) 모션을 결정하도록; 제 1 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 1 최종 예측 서브-블록을 결정하도록; 제 1 예측 블록의 제 2 서브-블록에 대하여, 제 2 양의 BIO 모션을 결정하도록; 제 2 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 2 최종 예측 서브-블록을 결정하도록; 그리고 제 1 최종 예측 서브-블록 및 제 2 최종 예측 서브-블록에 기초하여, 비디오 데이터의 블록에 대한 최종 예측 블록을 결정하도록 구성된다.

Description

양방향 옵티컬 플로우 (BIO) 를 위한 모션 벡터 재구성
본 출원은 2017년 1월 4일자로 출원된 미국 가출원 제 62/442,357 호; 및2017년 1월 11일에 출원된 미국 가출원 제 62/445,152 호의 이익을 향유하며, 이들 모두의 내용은 본원에 참고로 인용되어 있다.
본 개시는 비디오 코딩에 관한 것이다.
디지털 비디오 기능은 디지털 텔레비전, 디지털 직접 방송 시스템, 무선 방송 시스템, 퍼스널 디지털 어시스턴트 (PDA), 랩탑 또는 데스크탑 컴퓨터, 태블릿 컴퓨터, 전자 북 판독기, 디지털 카메라, 디지털 레코딩 장치, 디지털 미디어 플레이어, 비디오 게임 장치, 비디오 게임 콘솔, 셀룰러 또는 위성 라디오 전화, 소위 "스마트 폰", 화상 원격회의 장치, 비디오 스트리밍 장치 등을 포함하는 넓은 범위의 장치에 통합될 수 있다. 디지털 비디오 장치는 MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264/MPEG-4, 파트 10, 고급 비디오 코딩 (AVC), ITU-T H.265/고효율 비디오 코딩 (HEVC) 에 의해 정의된 표준, 및 이러한 표준의 확장에 기술된 바와 같은 비디오 코딩 기술을 구현한다. 비디오 장치는 이러한 비디오 코딩 기술을 구현함으로써 디지털 비디오 정보를 보다 효율적으로 전송, 수신, 인코딩, 디코딩 및/또는 저장할 수 있다.
비디오 코딩 기술은 비디오 시퀀스에 고유한 리던던시를 줄이거나 제거하기 위해 공간 (인트라-픽처) 예측 및/또는 시간 (인터-픽처) 예측을 포함한다. 블록-기반 비디오 코딩에 있어서, 비디오 슬라이스 (예를 들어, 비디오 프레임 또는 비디오 프레임의 일부) 는 비디오 블록들로 분할될 수 있으며, 이는 또한 트리블록들, 코딩 유닛들 (CUs) 및/또는 코딩 노드들로 언급될 수 있다. 픽처의 인트라- 코딩된 (I) 슬라이스 내의 비디오 블록들은 동일한 픽처 내의 인접 블록들 내의 레퍼런스 샘플들에 대한 공간 예측을 사용하여 인코딩될 수 있다. 픽처의 인터-코딩된 (P 또는 B) 슬라이스 내의 비디오 블록은 다른 레퍼런스 픽처들에서의 레퍼런스 샘플에 대한 시간 예측 또는 동일한 픽처에서의 인접 블록들의 레퍼런스 샘플에 대한 공간 예측을 사용할 수 있다. 픽처는 프레임이라고 불리울 수 있으며, 레퍼런스 픽처는 레퍼런스 프레임이라고 불리울 수 있다.
공간적 또는 시간적 예측은 코딩될 블록에 대한 예측 블록을 초래한다. 잔여 데이터는 코딩될 오리지널 블록과 예측 블록 간의 픽셀 차이를 나타낸다. 인터-코딩된 블록은 코딩된 블록과 예측 블록 간의 차이를 나타내는 잔여 데이터, 및 예측 블록을 형성하는 레퍼런스 샘플들의 블록을 지시하는 모션 벡터에 따라 인코딩된다. 인트라-코딩된 블록은 인트라-코딩 모드 및 잔여 데이터에 따라 인코딩된다. 추가의 압축을 위해, 잔여 데이터는 화소 도메인으로부터 변환 도메인으로 변환될 수 있으며, 그 결과 잔류 변환 계수가 양자화될 수 있다. 초기에 2 차원 어레이로 배열된 양자화된 변환 계수는, 변환 계수의 1 차원 벡터를 생성하기 위해 스캐닝될 수 있고, 더 많은 압축을 달성하기 위해 엔트로피 코딩이 적용될 수 있다.
일반적으로, 본 개시는 비디오 코딩에서의 양방향 옵티컬 플로우 (BIO) 와 관련된 기술들을 기술한다. 본 개시의 기술은 고효율 비디오 코딩 (HEVC) 과 같은 기존의 비디오 코덱과 함께 사용될 수 있거나, 미래의 비디오 코딩 표준을 위한 효율적인 코딩 툴일 수 있다.
본 개시의 일 예에 따르면, 비디오 데이터를 디코딩하는 방법은, 비디오 데이터의 블록이 양방향 인터 예측 모드를 사용하여 인코딩된다고 결정하는 단계; 상기 블록에 대한 제 1 모션 벡터 (MV) 를 결정하는 단계로서, 상기 제 1 MV 는 제 1 레퍼런스 픽처를 지시하는, 상기 제 1 MV 를 결정하는 단계; 상기 블록에 대한 제 2 MV 를 결정하는 단계로서, 상기 제 2 MV 는 제 2 레퍼런스 픽처를 지시하고, 상기 제 1 레퍼런스 픽처는 상기 제 2 레퍼런스 픽처와는 상이한, 상기 제 2 MV 를 결정하는 단계; 상기 제 1 MV 를 이용하여, 상기 제 1 레퍼런스 픽처 내에 제 1 예측 블록을 위치시키는 단계; 상기 제 2 MV 를 이용하여, 상기 제 2 레퍼런스 픽처 내에 제 2 예측 블록을 위치시키는 단계; 상기 제 1 예측 블록의 제 1 서브-블록에 대하여, 제 1 양의 양방향 옵티컬 플로우 (BIO) 모션을 결정하는 단계; 상기 제 1 예측 블록의 제 1 서브-블록, 상기 제 2 예측 블록의 제 1 서브-블록 및 상기 제 1 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 1 최종 예측 서브-블록을 결정하는 단계; 상기 제 1 예측 블록의 제 2 서브-블록에 대하여, 제 2 양의 BIO 모션을 결정하는 단계; 상기 제 1 예측 블록의 제 2 서브-블록, 상기 제 2 예측 블록의 제 2 서브-블록 및 상기 제 2 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 2 최종 예측 서브-블록을 결정하는 단계; 상기 제 1 최종 예측 서브-블록 및 상기 제 2 최종 예측 서브-블록에 기초하여, 비디오 데이터의 블록에 대한 최종 예측 블록을 결정하는 단계; 및 비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 출력하는 단계를 포함한다.
본 개시의 다른 예에 따르면, 비디오 데이터를 디코딩하는 장치는, 비디오 데이터를 저장하도록 구성된 메모리, 및 비디오 데이터의 블록이 양방향 인터 예측 모드를 사용하여 인코딩된다고 결정하도록, 제 1 레퍼런스 픽처를 지시하는, 상기 블록에 대한 제 1 모션 벡터 (MV) 를 결정하도록, 상기 제 1 레퍼런스 픽처와는 상이한 제 2 레퍼런스 픽처를 지시하는, 상기 블록에 대한 제 2 MV 를 결정하도록, 상기 제 1 MV 를 이용하여, 상기 제 1 레퍼런스 픽처 내에 제 1 예측 블록을 위치시키도록, 상기 제 2 MV 를 이용하여, 상기 제 2 레퍼런스 픽처 내에 제 2 예측 블록을 위치시키도록, 상기 제 1 예측 블록의 제 1 서브-블록에 대하여, 제 1 양의 양방향 옵티컬 플로우 (BIO) 모션을 결정하도록, 상기 제 1 예측 블록의 제 1 서브-블록, 상기 제 2 예측 블록의 제 1 서브-블록 및 상기 제 1 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 1 최종 예측 서브-블록을 결정하도록, 상기 제 1 예측 블록의 제 2 서브-블록에 대하여, 제 2 양의 BIO 모션을 결정하도록, 상기 제 1 예측 블록의 제 2 서브-블록, 상기 제 2 예측 블록의 제 2 서브-블록 및 상기 제 2 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 2 최종 예측 서브-블록을 결정하도록, 상기 제 1 최종 예측 서브-블록 및 상기 제 2 최종 예측 서브-블록에 기초하여, 비디오 데이터의 블록에 대한 최종 예측 블록을 결정하도록, 그리고 비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 출력하도록 구성된 하나 이상의 프로세서를 포함한다.
본 개시의 또 다른 예에 따르면, 컴퓨터 판독가능한 저장 매체는 하나 이상의 프로세서에 의해 실행될 때에 상기 하나 이상의 프로세서로 하여금 비디오 데이터의 블록이 양방향 인터 예측 모드를 사용하여 인코딩된다고 결정하도록, 제 1 레퍼런스 픽처를 지시하는, 상기 블록에 대한 제 1 모션 벡터 (MV) 를 결정하도록, 상기 제 1 레퍼런스 픽처와는 상이한 제 2 레퍼런스 픽처를 지시하는, 상기 블록에 대한 제 2 MV 를 결정하도록, 상기 제 1 MV 를 이용하여, 상기 제 1 레퍼런스 픽처 내에 제 1 예측 블록을 위치시키도록, 상기 제 2 MV 를 이용하여, 상기 제 2 레퍼런스 픽처 내에 제 2 예측 블록을 위치시키도록, 상기 제 1 예측 블록의 제 1 서브-블록에 대하여, 제 1 양의 양방향 옵티컬 플로우 (BIO) 모션을 결정하도록, 상기 제 1 예측 블록의 제 1 서브-블록, 상기 제 2 예측 블록의 제 1 서브-블록 및 상기 제 1 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 1 최종 예측 서브-블록을 결정하도록, 상기 제 1 예측 블록의 제 2 서브-블록에 대하여, 제 2 양의 BIO 모션을 결정하도록, 상기 제 1 예측 블록의 제 2 서브-블록, 상기 제 2 예측 블록의 제 2 서브-블록 및 상기 제 2 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 2 최종 예측 서브-블록을 결정하도록, 상기 제 1 최종 예측 서브-블록 및 상기 제 2 최종 예측 서브-블록에 기초하여, 비디오 데이터의 블록에 대한 최종 예측 블록을 결정하도록, 그리고 비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 출력하도록 하게 하는 명령들을 저장한다.
본 개시의 다른 예에 따르면, 비디오 데이터를 디코딩하는 장치는, 비디오 데이터의 블록이 양방향 인터 예측 모드를 사용하여 인코딩된다고 결정하는 수단; 상기 블록에 대한 제 1 모션 벡터 (MV) 를 결정하는 수단으로서, 상기 제 1 MV 는 제 1 레퍼런스 픽처를 지시하는, 상기 제 1 MV 를 결정하는 수단; 상기 블록에 대한 제 2 MV 를 결정하는 수단으로서, 상기 제 2 MV 는 제 2 레퍼런스 픽처를 지시하고, 상기 제 1 레퍼런스 픽처는 상기 제 2 레퍼런스 픽처와는 상이한, 상기 제 2 MV 를 결정하는 수단; 상기 제 1 MV 를 이용하여, 상기 제 1 레퍼런스 픽처 내에 제 1 예측 블록을 위치시키는 수단; 상기 제 2 MV 를 이용하여, 상기 제 2 레퍼런스 픽처 내에 제 2 예측 블록을 위치시키는 수단; 상기 제 1 예측 블록의 제 1 서브-블록에 대하여, 제 1 양의 양방향 옵티컬 플로우 (BIO) 모션을 결정하는 수단; 상기 제 1 예측 블록의 제 1 서브-블록, 상기 제 2 예측 블록의 제 1 서브-블록 및 상기 제 1 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 1 최종 예측 서브-블록을 결정하는 수단; 상기 제 1 예측 블록의 제 2 서브-블록에 대하여, 제 2 양의 BIO 모션을 결정하는 수단; 상기 제 1 예측 블록의 제 2 서브-블록, 상기 제 2 예측 블록의 제 2 서브-블록 및 상기 제 2 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 2 최종 예측 서브-블록을 결정하는 수단; 상기 제 1 최종 예측 서브-블록 및 상기 제 2 최종 예측 서브-블록에 기초하여, 비디오 데이터의 블록에 대한 최종 예측 블록을 결정하는 수단; 및 비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 출력하는 수단을 포함한다.
본 발명의 하나 이상의 양태의 세부 사항은 첨부된 도면 및 이하의 설명에서 설명된다. 이 개시에서 설명된 기술의 다른 특징, 목적 및 이점은 상세한 설명, 도면 및 청구범위로부터 명백해질 것이다.
도 1 은 양방향 옵티컬 플로우를 위한 기술을 이용할 수 있는 예시적인 비디오 인코딩 및 디코딩 시스템을 나타내는 블록도이다.
도 2 는 모션 보상 프레임 레이트 상향 변환 (MC-FRUC) 을 위해 수행되는 블록 매칭 알고리즘 (BMA) 으로서의 일측 모션 추정 (ME) 의 예를 나타내는 개념도이다.
도 3 은 MC-FRUC 을 위해 수행되는 BMA 로서의 양측 ME 의 예를 나타내는 개념도이다.
도 4a 는 병합 모드에 대한 공간 인접 MV 후보를 도시한다.
도 4b 는 AMVP 모드에 대한 공간 인접 MV 후보를 도시한다.
도 5a 는 TMVP 후보의 예를 도시한다.
도 5b 는 MV 스케일링의 예를 도시한다.
도 6 은 옵티컬 플로우 궤적의 예를 도시한다.
도 7 은 8x4 블록에 대한 BIO 의 예를 도시한다.
도 8 은 8x4 블록에 대한 수정된 BIO 의 예를 도시한다.
도 9a 및 도 9b 는 OBMC 가 적용되는 서브-블록의 예시도를 나타낸다.
도 10a 내지 도 10d 는 OBMC 가중의 예를 도시한다.
도 11 은 8x4 블록에 대한 제안된 BIO 의 예를 도시한다.
도 12a 내지 도 12d 는 OBMC 상의 제안된 단순화된 BIO 의 예를 도시한다.
도 13 은 5x5 윈도우를 갖는 4x4 서브-블록에 대한 예시적인 가중 함수를 도시한다.
도 14 는 비디오 인코더의 예를 나타내는 블록도이다.
도 15 는 양방향 옵티컬 플로우를 위한 기술을 구현할 수 있는 비디오 디코더의 예를 도시하는 블록도이다.
도 16 은 본 개시의 기술에 따른, 비디오 디코더의 예시적인 동작을 나타내는 흐름도이다.
일반적으로, 본 개시의 기술들은 양방향 옵티컬 플로우 (BIO) 비디오 코딩 기술의 개선에 관련된다. BIO 는 모션 보상 중에 적용될 수 있다. 원래 제안된 바와 같이, BIO 는 더 나은 예측 블록, 예를 들어, 비디오 데이터의 원래 블록에 보다 근접하게 매치하는 예측 블록을 결정하기 위해 옵티컬 플로우 궤적에 기초하여 양-예측된 인터 코딩된 블록들에 대한 예측 샘플 값을 수정하는데 사용된다. 본 개시의 다양한 기술들은 단독으로 또는 임의의 조합으로 적용되어, 예를 들어, 모션 보상 동안 비디오 데이터의 블록들을 예측할 때에 BIO 를 언제 수행할지 여부를 결정할 수 있다.
본 개시에서 사용된 바와 같이, 비디오 코딩이라는 용어는 일반적으로 비디오 인코딩 또는 비디오 디코딩 중 어느 하나를 지칭한다. 유사하게, 비디오 코더라는 용어는 일반적으로 비디오 인코더 또는 비디오 디코더를 지칭할 수 있다. 더욱이, 비디오 디코딩과 관련하여 이 개시에서 설명된 특정 기술들은 또한 비디오 인코딩에 적용될 수 있고, 그 반대일 수도 있다. 예를 들어, 종종 비디오 인코더와 비디오 디코더는 동일한 프로세스 또는 상호 프로세스를 수행하도록 구성된다. 또한, 비디오 인코더는 일반적으로 비디오 데이터를 인코딩하는 방법을 결정하는 프로세스의 일부로서 비디오 디코딩을 수행한다. 따라서, 달리 명시적으로 언급되지 않는 한, 비디오 디코딩과 관련하여 기술된 기술은 또한 비디오 인코더에 의해 수행되거나 그 반대일 수 있는 것은 가정하면 안된다.
이 개시는 또한 현재 레이어, 현재 블록, 현재 픽처, 현재 슬라이스 등과 같은 용어를 사용할 수 있다. 본 개시의 문맥에서, 현재라는 용어는, 예를 들어, 이전에 또는 이미 코딩된 블록, 픽처 및 슬라이스 또는 코딩될 블록, 픽처 및 슬라이스와는 대조적으로, 현재 코딩되고 있는 블록, 픽처, 슬라이스 등을 식별하기 위한 것이다.
일반적으로, 픽처는 블록들로 분할되고, 각각은 예측적으로 코딩될 수 있다. 비디오 코더는, 인트라-예측 기술을 이용하여 (현재 블록을 포함하는 픽처로부터의 데이터를 이용하여), 인터-예측 기술을 이용하여 (현재 블록을 포함하는 픽처에 대해 이전에 코딩된 픽처로부터의 데이터를 이용하여), 또는 인트라 블록 카피, 팔레트 모드, 사전 모드 등과 같은 다른 기술을 이용하여, 현재 블록을 예측할 수 있다. 인터-예측은 단방향 예측 및 양방향 예측 모두를 포함한다.
각각의 인터-예측된 블록에 대해, 비디오 코더는 모션 정보의 세트를 결정할 수 있다. 모션 정보의 세트는 포워드 및 백워드 예측 방향에 대한 모션 정보를 포함할 수 있다. 여기서, 포워드 및 백워드 예측 방향은 양방향 예측 모드의 두 가지 예측 방향이다. 용어 "포워드" 및 "백워드" 은 반드시 기하학적인 의미를 갖는 것은 아니다. 그 대신에, 이 용어는 일반적으로 레퍼런스 픽처가 현재 픽처 이전에 ("백워드") 또는 이후에 ("포워드") 표시되어야 하는지 여부에 대응한다. 일부 예에서, "포워드" 및 "백워드" 예측 방향은 현재 픽처의 레퍼런스 픽처 리스트 0 (RefPicList0) 및 레퍼런스 픽처 리스트 1 (RefPicList1) 에 대응할 수 있다. 하나의 레퍼런스 픽처 리스트만이 픽처 또는 슬라이스에 이용가능한 경우, RefPicList0 만이 이용가능하고 슬라이스의 각 블록의 모션 정보는 항상 RefPicList0 의 픽처를 말한다 (예를 들어, 포워드).
어떤 경우들에서, 대응하는 레퍼런스 인덱스와 함께 모션 벡터가 디코딩 프로세스에서 사용될 수 있다. 이와 같은 레퍼런스 인덱스를 갖는 모션 벡터는 단일-예측 모션 정보 세트로 표시된다.
각 예측 방향에 대해, 모션 정보는 레퍼런스 인덱스 및 모션 벡터를 포함한다. 어떤 경우에, 간략화를 위해, 모션 벡터 자체는 모션 벡터가 연관된 레퍼런스 인덱스를 갖는 것으로 가정되는 방식으로 언급될 수 있다. 레퍼런스 인덱스는 현재 레퍼런스 픽처 리스트 (RefPicList0 또는 RefPicList1) 에서 레퍼런스 픽처을 식별하는데 사용될 수 있다. 모션 벡터는 수평 (x) 및 수직 (y) 성분을 갖는다. 일반적으로, 수평 성분은 레퍼런스 블록의 x-좌표를 위치시키는데 필요한, 현재 픽처에서의 현재 블록의 위치에 대한 레퍼런스 픽처 내에서의 수평 변위를 나타내며, 수직 성분은 레퍼런스 블록의 y- 좌표를 위치시키는데 필요한, 현재 블록의 위치에 대한 레퍼런스 픽처 내에서의 수직 변위를 나타낸다.
픽처 오더 카운트 (POC) 값은 픽처의 표시 순서를 식별하기 위해 비디오 코딩 표준에서 널리 사용된다. 하나의 코딩된 비디오 시퀀스 내의 2 개의 픽처들이 동일한 POC 값을 가질 수 있는 경우가 있지만, 이는 일반적으로 코딩된 비디오 시퀀스 내에서 발생하지 않는다. 따라서, 픽처의 POC 값은 일반적으로 고유하며, 따라서 대응하는 픽처를 고유하게 식별할 수 있다. 복수의 코딩된 비디오 시퀀스가 비트스트림으로 존재할 때, 동일한 POC 값을 갖는 픽처들은 디코딩 순서의 관점에서 서로 더 근접할 수 있다. 픽처의 POC 값은 전형적으로 레퍼런스 픽처 리스트 구성, HEVC 에서와 같은 레퍼런스 픽처 세트의 도출 및 모션 벡터 스케일링을 위해 사용된다.
E. Alshina, A. Alshina, J.-H. Min, K. Choi, A. Saxena, M. Budagavi, "차세대 비디오 코딩을 위한 알려진 도구 성능 조사", ITU-Telecommunications Standardization Sector, STUDY GROUP 16 Question 6, Video Coding Experts Group (VCEG), VCEG-AZ05, 6월, 2015, Warsaw, Poland (이하, "Alshina 1"), 및 A. Alshina, E. Alshina, T. Lee, "모션 보상 개선을 위한 양방향 옵티컬 플로우", 픽처 코딩 시스템 (PCS), Nagoya, Japan, 2010 (이하, "Alshina 2") 는 양방향 옵티컬 플로우 (BIO) 라는 방법을 설명했다. BIO 는 픽셀 레벨 옵티컬 플로우를 기반으로 한다. Alshina 1 및 Alshina 2 에 따르면, BIO 는 포워드 및 백워드 예측을 모두 갖는 블록에만 적용된다. Alshina 1 과 Alshina 2 에 설명된 바와 같은 BIO 는 아래에 요약된다.
시간 t 에서 픽셀 값 It 이 주어진다면, 픽셀 값의 1차 테일러 확장은 다음과 같다:
It0 은 It 의 모션 궤적에 있다. 즉, It0 에서 It 까지의 모션이 공식에서 고려된다.
옵티컬 플로우의 가정 하에서는 다음과 같다:
라고 하면, 방정식 (A) 는 다음과 같이 된다:
를 이동 속도로서 고려하면, Vx0 및 Vyo 는 이들을 나타내는데 사용될 수도 있다.
그래서, 식 (B) 는 다음과 같이 된다:
t0 에서 포워드 레퍼런스를, t1 에서 백워드 레퍼런스를 가정하면,
이 된다.
그러면, 다음과 같다:
모션이 궤적을 따르기 때문에 또한 이 추정된다. 그래서, 식 (D) 는 다음과 같이 된다:
여기서, 이 재구성된 레퍼런스에 기초하여 계산될 수 있다. 이 레귤러 양-예측이기 때문에, 는 이하에서 편의상 BIO 오프셋이라 불리운다.
Vx 및 Vy 는 인코더 및 디코더 모두에서 다음 왜곡을 최소화함으로써 유도된다:
파생된 Vx 및 Vy 를 사용하여, 블록의 최종 예측은 방정식 (E) 를 사용하여 계산된다. Vx 및 Vy 는 편의상 "BIO 모션" 이라고 한다.
일반적으로, 비디오 코더는 모션 보상 중에 BIO 를 수행한다. 즉, 비디오 코더가 현재 블록에 대한 모션 벡터를 결정한 후, 비디오 코더는 모션 벡터에 대한 모션 보상을 사용하여 현재 블록에 대한 예측된 블록을 생성한다. 일반적으로, 모션 벡터는 레퍼런스 픽처에서 현재 블록에 대한 레퍼런스 블록의 위치를 식별한다. BIO 를 수행할 때, 비디오 코더는 현재 블록에 대해 픽셀별 기초에서 모션 벡터를 수정한다. 즉, 레퍼런스 블록의 각 픽셀을 블록 단위로 검색하는 것이 아니라, BIO 에 따르면, 비디오 코더는 현재 블록에 대한 모션 벡터에 대해 픽셀별 수정을 결정하고, 레퍼런스 블록이 현재 블록의 대응하는 픽셀에 대한 픽셀별 수정 및 모션 벡터에 의해 식별된 레퍼런스 픽셀을 포함하도록 레퍼런스 블록을 구성한다. 따라서, BIO 는 현재 블록에 대해 보다 정확한 레퍼런스 블록을 생성하는데 사용될 수 있다.
도 1 은 양방향 옵티컬 플로우를 위한 기술을 이용할 수 있는 예시적인 비디오 인코딩 및 디코딩 시스템 (10) 을 나타내는 블록도이다. 도 1 에 도시된 바와 같이, 시스템 (10) 은 목적지 디바이스 (14) 에 의해 나중에 디코딩될 인코딩된 비디오 데이터를 제공하는 소스 디바이스 (12) 를 포함한다. 특히, 소스 디바이스 (12) 는 컴퓨터 판독가능 매체 (16) 를 통해 목적지 디바이스 (14) 에 비디오 데이터를 제공한다. 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 데스크탑 컴퓨터, 노트북 (즉, 랩탑) 컴퓨터, 태블릿 컴퓨터, 셋톱 박스, 전화 핸드셋, 예를 들어 소위 "스마트" 전화기, 소위 "스마트" 패드, 텔레비전, 카메라, 디스플레이 장치, 디지털 미디어 플레이어, 비디오 게임 콘솔, 비디오 스트리밍 장치 등을 포함하는 임의의 넓은 범위의 장치들을 포함할 수 있다. 몇몇 경우들에서, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 무선 통신을 위해 장착될 수 있다.
목적지 디바이스 (14) 는 컴퓨터 판독가능 매체 (16) 를 통해 디코딩될 인코딩된 비디오 데이터를 수신할 수 있다. 컴퓨터 판독가능 매체 (16) 는 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 에 인코딩된 비디오 데이터를 이동시킬 수 있는 임의의 유형의 매체를 포함할 수 있다. 일 실시형태에서, 컴퓨터 판독가능 매체 (16) 는 소스 디바이스 (12) 가 인코딩된 비디오 데이터를 목적지 디바이스 (14) 에 실시간으로 직접 전송할 수 있게 하는 통신 매체를 포함할 수 있다. 인코딩된 비디오 데이터는 무선 통신 프로토콜과 같은 통신 표준에 따라 변조될 수 있고, 목적지 디바이스 (14) 에 전송될 수 있다. 통신 매체는 라디오 주파수 (RF) 스펙트럼 또는 하나 이상의 물리적 전송 라인과 같은 임의의 무선 또는 유선 통신 매체를 포함할 수 있다. 통신 매체는 로컬 영역 네트워크, 광역 네트워크 또는 인터넷과 같은 글로벌 네트워크와 같은 패킷 기반 네트워크의 일부를 형성할 수 있다. 통신 매체는 라우터, 스위치, 기지국, 또는 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로의 통신을 용이하게 하는데 유용한 임의의 다른 설비를 포함할 수 있다.
일부 예들에서, 인코딩된 데이터는 출력 인터페이스 (22) 로부터 저장 디바이스로 출력될 수 있다. 유사하게, 인코딩된 데이터는 입력 인터페이스에 의해 저장 디바이스로부터 액세스될 수 있다. 저장 디바이스는 임의의 다양한 분산 또는 로컬 액세스 데이터 저장 매체, 예를 들어 하드 드라이브, Blu-ray 디스크, DVD, CD-ROM, 플래시 메모리, 휘발성 또는 비휘발성 메모리, 또는 인코딩된 비디오 데이터를 저장하기 위한 임의의 다른 적절한 디지털 저장 매체를 포함할 수 있다. 다른 예에서, 저장 디바이스는 소스 디바이스 (12) 에 의해 생성된 인코딩된 비디오를 저장할 수 있는 파일 서버 또는 다른 중간 저장 디바이스에 대응할 수 있다. 목적지 디바이스 (14) 는 스트리밍 또는 다운로드를 통해 저장 디바이스로부터 저장된 비디오 데이터를 액세스할 수 있다. 파일 서버는 인코딩된 비디오 데이터를 저장하고 그 인코딩된 비디오 데이터를 목적지 디바이스 (14) 에 전송할 수 있는 임의의 유형의 서버일 수 있다. 예시적인 파일 서버는 (예를 들어, 웹 사이트를 위한) 웹 서버, FTP 서버, 네트워크 어태치드 저장 (NAS) 장치, 또는 로컬 디스크 드라이브를 포함할 수 있다. 목적지 디바이스 (14) 는 인터넷 접속을 포함하는 임의의 표준 데이터 접속을 통해 인코딩된 비디오 데이터를 액세스할 수 있다. 이는 무선 채널 (예: Wi-Fi 연결), 유선 연결 (예: DSL, 케이블 모뎀 등) 또는 파일 서버에 저장된 인코딩된 비디오 데이터에 액세스하기에 적합한 두 가지 조합을 포함할 수 있다. 저장 디바이스로부터의 인코딩된 비디오 데이터의 전송은 스트리밍 전송, 다운로드 전송, 또는 이들의 조합일 수 있다.
이 개시의 기술들은 반드시 무선 어플리케이션들 또는 세팅들에 제한되지는 않는다. 이 기술들은, 임의의 다양한 멀티미디어 어플리케이션, 예컨대 공중 텔레비전 방송, 케이블 텔레비전 전송, 위성 텔레비전 전송, 인터넷 스트리밍 비디오 전송, 예컨대 HTTP 를 통한 동적 적응형 스트리밍 (DASH), 데이터 저장 매체 상에 인코딩된 디지털 비디오를 지원하는 비디오 코딩, 데이터 저장 매체 상에 저장된 디지털 비디오의 디코딩, 또는 다른 어플리케이션에 적용될 수 있다. 일부 예에서, 시스템 (10) 은 비디오 스트리밍, 비디오 재생, 비디오 브로드캐스팅, 및/또는 비디오 텔레포니와 같은 어플리케이션을 지원하기 위해 단방향 또는 양방향 비디오 전송을 지원하도록 구성될 수 있다.
도 1 의 예에서, 소스 디바이스 (12) 는 비디오 소스 (18), 비디오 인코더 (20), 및 출력 인터페이스 (22) 를 포함한다. 목적지 디바이스 (14) 는 입력 인터페이스 (28), 비디오 디코더 (30), 및 표시 디바이스 (32) 를 포함한다. 이 개시에 따르면, 소스 디바이스 (12) 의 비디오 인코더 (20) 는 양방향 옵티컬 플로우를 위한 기술을 적용하도록 구성될 수 있다. 다른 예에서, 소스 디바이스 및 목적지 디바이스는 다른 부품 또는 장치를 포함할 수 있다. 예를 들어, 소스 디바이스 (12) 는 외부 카메라와 같은 외부 비디오 소스 (18) 로부터 비디오 데이터를 수신할 수 있다. 마찬가지로, 목적지 디바이스 (14) 는 통합 표시 디바이스를 포함하기보다는 외부 표시 디바이스와 인터페이스할 수 있다.
도 1 의 도시된 시스템 (10) 은 단지 하나의 예에 불과하다. 양방향 옵티컬 플로우를 위한 기술은 임의의 디지털 비디오 인코딩 및/또는 디코딩 장치에 의해 수행될 수 있다. 일반적으로, 본 개시의 기술들은 비디오 인코딩 디바이스에 의해 수행되지만, 기술들은 또한 전형적으로 "CODEC" 으로 지칭되는 비디오 인코더/디코더에 의해 수행될 수 있다. 더욱이, 본 개시의 기술들은 또한 비디오 프리프로세서에 의해 수행될 수 있다. 소스 디바이스 (12) 및 목적지 디바이스 (14) 는, 소스 디바이스 (12) 가 목적지 디바이스 (14) 에의 전송을 위한 코딩된 비디오 데이터를 생성하는 코딩 디바이스의 예에 불과하다. 일부 예에서, 디바이스들 (12, 14) 은 실질적으로 대칭인 방식으로 동작하여서, 디바이스들 (12, 14) 각각은 비디오 인코딩 및 디코딩 부품을 포함한다. 따라서, 시스템 (10) 은 예를 들어 비디오 스트리밍, 비디오 재생, 비디오 방송 또는 비디오 텔레포니를 위해 비디오 디바이스들 (12, 14) 사이에서 단방향 또는 양방향 비디오 전송을 지원할 수 있다.
소스 디바이스 (12) 의 비디오 소스 (18) 는 비디오 캡처 장치, 예컨대 비디오 카메라, 이전에 캡처된 비디오를 포함하는 비디오 아카이브, 및/또는 비디오 컨텐츠 제공자로부터 비디오를 수신하기 위한 비디오 피드 인터페이스를 포함할 수 있다. 또 다른 대안으로서, 비디오 소스 (18) 는 소스 비디오, 또는 라이브 비디오, 아카이브 비디오 및 컴퓨터-생성 비디오의 조합으로서 컴퓨터 그래픽-기반 데이터를 생성할 수 있다. 일부의 경우, 비디오 소스 (18) 가 비디오 카메라인 경우에, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 소위 카메라 폰 또는 비디오 폰을 형성할 수 있다. 그러나, 전술한 바와 같이, 본 개시에서 설명된 기술들은 일반적으로 비디오 코딩에 적용가능할 수 있고, 무선 및/또는 유선 어플리케이션들에 적용될 수 있다. 각각의 경우에, 캡처된, 사전 캡처된 또는 컴퓨터-생성된 비디오가 비디오 인코더 (20) 에 의해 인코딩될 수 있다. 인코딩된 비디오 정보는 출력 인터페이스 (22) 에 의해 컴퓨터 판독가능 매체 (16) 상에 출력될 수 있다.
컴퓨터 판독가능 매체 (16) 는 일시적인 매체, 예를 들어 무선 브로드캐스트 또는 유선 네트워크 전송, 또는 저장 매체 (즉, 비일시적인 저장 매체), 예를 들어 하드 디스크, 플래시 드라이브, 콤팩트 디스크, 디지털 비디오 디스크, Blu-ray 디스크 또는 다른 컴퓨터 판독가능 매체를 포함할 수 있다. 일부 예에서, 네트워크 서버 (미도시) 는 소스 디바이스 (12) 로부터 인코딩된 비디오 데이터를 수신하고, 인코딩된 비디오 데이터를 예를 들어 네트워크 전송을 통해 목적지 디바이스 (14) 에 제공할 수 있다. 유사하게, 디스크 스탬핑 설비와 같은 매체 생산 설비의 컴퓨팅 장치는 소스 디바이스 (12) 로부터 인코딩된 비디오 데이터를 수신하고, 인코딩된 비디오 데이터를 포함하는 디스크를 생성할 수 있다. 따라서, 컴퓨터 판독가능 매체 (16) 는 다양한 예에서 다양한 형태의 하나 이상의 컴퓨터 판독가능 매체를 포함하는 것으로 이해될 수 있다.
목적지 디바이스 (14) 의 입력 인터페이스 (28) 는 컴퓨터 판독가능 매체 (16) 로부터 정보를 수신한다. 컴퓨터 판독가능 매체 (16) 의 정보는 비디오 데이터의 특성 및/또는 처리를 기술하는 신택스 엘리먼트들을 포함하는 비디오 디코더 (30) 에 의해 또한 사용되는 비디오 인코더 (20) 에 의해 규정된 신택스 정보를 포함한다. 표시 디바이스 (32) 는 디코딩된 비디오 데이터를 사용자에게 표시하며, 임의의 다양한 표시 디바이스, 예를 들어 음극선 관 (CRT), 액정 디스플레이 (LCD), 플라즈마 디스플레이, 유기 발광 다이오드 (OLED) 디스플레이, 또는 다른 유형의 표시 디바이스를 포함할 수 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 는 ITU-T H.264/AVC (Advanced Video Coding) 또는 ITU-T H.265 로서 또한 불리우는 고효율 비디오 코딩 (HEVC) 과 같은 하나 이상의 비디오 코딩 표준에 따라 동작할 수 있다. H.264 는 국제 전기통신 연합의 "Advanced video coding for generic audiovisual services", SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS, Infrastructure of audiovisual services - Coding of moving video, H.264, 2011년 6월에 설명되어 있다. H.265 는 국제 전기통신 연합의 "High efficiency video coding", SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS, Infrastructure of audiovisual services - Coding of moving video, 2015년 4월에 설명되어 있다. 이 개시의 기술들은 효율적인 코딩 도구로서 임의의 다른 이전 또는 미래의 비디오 코딩 표준에 또한 적용될 수 있다.
다른 비디오 코딩 표준은 ITU-T H.261, ISO/IEC MPEG-1 Visual, ITU-T H.262 또는 ISO/IEC MPEG-2 Visual, ITU-T H.263, ISO/IEC MPEG-4 Visual 및 H.264 의 Scalable Video Coding (SVC) 및 Multiview Video Coding (MVC) 확장, 및 HEVC 의 확장, 예를 들어 범위 확장, 멀티뷰 확장 (MV-HEVC) 및 Scalable extension (SHVC) 을 포함한다. 2015년 4월에, Video Coding Experts Group (VCEG) 은 차세대 비디오 코딩 표준을 목표로 하는 새로운 연구 프로젝트를 시작했다. 레퍼런스 소프트웨어는 HM-KTA 라고 불리운다.
ITU-T VCEG (Q6/16) 및 ISO/IEC MPEG (JTC 1/SC 29/WG 11) 는 현재 HEVC 표준의 것을 상당히 초과하는 압축 가용성을 갖는 미래 비디오 코딩 기술의 표준화에 대한 잠재적인 필요성을 연구하고 있다 (HEVC 의 현재 확장 및 스크린 콘텐트 코딩 및 고동적범위 코딩을 위한 단기간 확장을 포함함). 그룹들은 이 분야의 전문가가 제안한 압축 기술 설계를 평가하기 위해 Joint Video Exploration Team (JVET) 이라고 하는 조인트 콜라보레이션 작업에서 이 탐사 활동에 함께 노력하고 있다. JVET 는 2015년 10월 19-21 일에 처음 만났다. 레퍼런스 소프트웨어의 최신 버전, 즉 Joint Exploration Model 3 (JEM 3) 은 https://jvet.hhi.fraunhofer.de/svn/svn_HMJEMSoftware/tags/HM-16.6-JEM-4.0/ 로부터 다운로드할 수 있다. Joint Exploration Test Model 3 (JEM3) 의 알고리즘 설명은 JVET-D1001 을 참조할 수 있다.
본 개시의 기술과 관련된 H.264 및 HEVC 의 것과 같은 특정 비디오 코딩 기술이 본 개시에서 설명된다. 이 개시의 특정 기술들은 이해를 돕기 위해 H.264 및/또는 HEVC 를 참조하여 설명될 수 있지만, 설명된 기술들은 반드시 H.264 또는 HEVC 에 제한되지 않으며 다른 코딩 표준 및 다른 코딩 도구와 함께 사용될 수 있다.
도 1 에 도시되지는 않았지만, 일부 양태들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 각각 오디오 인코더 및 디코더와 통합될 수 있고, 공통 데이터 스트림 또는 개별 데이터 스트림에서 오디오 및 비디오 양자 모두를 인코딩하기 위해 적절한 MUX-DEMUX 유닛 또는 다른 하드웨어 및 소프트웨어를 포함할 수 있다. 적용가능한 경우, MUX-DEMUX 유닛은 ITU H.223 멀티플렉서 프로토콜, 또는 사용자 데이터그램 프로토콜 (UDP) 과 같은 다른 프로토콜을 준수할 수 있다.
HEVC 및 다른 비디오 코딩 사양에서, 비디오 시퀀스는 전형적으로 일련의 픽처를 포함한다. 픽처는 "프레임" 이라고도 한다. 픽처는 SL, SCb 및 SCr 로 표시된 세 개의 샘플 어레이를 포함할 수 있다. SL 은 루마 샘플들의 2 차원 어레이 (즉, 블록) 이다. SCb 는 Cb 크로미넌스 샘플들의 2 차원 어레이이다. SCr 은 Cr 크로미넌스 샘플들의 2 차원 어레이이다. 크로미넌스 샘플들은 본 명세서에서 "크로마" 샘플이라고도 한다. 다른 경우에, 픽처는 모노크롬일 수 있고, 루마 샘플의 어레이만을 포함할 수 있다.
픽처의 인코딩된 표현을 생성하기 위해, 비디오 인코더 (20) 는 코딩 트리 유닛 (CTUs) 의 세트를 생성할 수 있다. CTUs 의 각각은 루마 샘플들의 코딩 트리 블록, 크로마 샘플들의 두 개의 대응하는 코딩 트리 블록, 및 코딩 트리 블록들의 샘플들을 코딩하는데 사용되는 신택스 구조를 포함할 수 있다. 3 개의 개별 컬러 평면을 갖는 픽처 또는 모노크롬 픽처에서, CTU 는 단일 코딩 트리 블록 및 코딩 트리 블록의 샘플을 코딩하는데 사용되는 신택스 구조를 포함할 수 있다. 코딩 트리 블록은 샘플들의 N×N 블록일 수 있다. CTU 는 "트리 블록" 또는 "최대 코딩 유닛" (LCU) 이라고도 한다. HEVC 의 CTUs 는 H.264/AVC 와 같은 다른 표준의 매크로블록과 광범위하게 유사할 수 있다. 그러나, CTU 는 반드시 특정 크기로 제한되지는 않으며, 하나 이상의 코딩 유닛 (CUs) 을 포함할 수 있다. 슬라이스는 래스터 스캔 순서로 연속적으로 정렬된 정수 개의 CTUs 를 포함할 수 있다.
CTB 는 노드들이 코딩 유닛인 쿼드-트리를 포함한다. CTB 의 크기는 (기술적으로 8x8 CTB 크기가 지원될 수 있지만) HEVC 메인 프로파일에서 16x16 내지 64x64 의 범위일 수 있다. 코딩 유닛 (CU) 은 8x8 이지만 CTB 와 동일한 크기일 수 있다. 각 코딩 유닛은 하나의 모드로 코딩된다. CU가 인터 코딩되는 경우, CU 는 2 또는 4 개의 예측 단위 (PUs) 로 추가 분할되거나, 추가 분할이 적용되지 않을 때에는 단 하나의 PU 가 될 수 있다. 하나의 CU 에 2 개의 PUs 가 존재할 때, 2 개의 PUs 는 CU의 ¼ 또는 ¾ 크기를 갖는 2 개의 직사각형 크기 또는 절반 크기 직사각형일 수 있다.
코딩된 CTU 를 생성하기 위해, 비디오 인코더 (20) 는 코딩 트리 블록들을 코딩 블록들, 즉 "코딩 트리 유닛들" 로 분할하기 위해 CTU 의 코딩 트리 블록에 대해 쿼드-트리 분할을 재귀적으로 수행할 수 있다. 코딩 블록은 샘플들의 NxN 블록일 수 있다. CU 는 루마 샘플들의 코딩 블록 및 루마 샘플 어레이, Cb 샘플 어레이 및 Cr 샘플 어레이를 갖는 픽처의 크로마 샘플들의 2 개의 대응하는 코딩 블록, 및 코딩 블록들의 샘플들을 코딩하는데 사용되는 신택스 구조를 포함할 수 있다. 3 개의 개별 컬러 평면을 갖는 픽처 또는 모노크롬 픽처에서, CU 는 단일 코딩 블록 및 코딩 블록의 샘플들을 코딩하는데 사용되는 신택스 구조를 포함할 수 있다.
비디오 인코더 (20) 는 CU 의 코딩 블록을 하나 이상의 예측 블록들로 분할할 수 있다. 예측 블록은 동일한 예측이 적용되는 샘플들의 직사각형 (즉, 정사각형 또는 비정사각형) 블록이다. CU의 예측 유닛 (PU) 은 루마 샘플들의 예측 블록, 크로마 샘플들의 두 개의 대응하는 예측 블록, 및 예측 블록들을 예측하는데 사용되는 신택스 구조를 포함할 수 있다. 3 개의 개별 컬러 평면을 갖는 픽처 또는 모노크롬 픽처에서, PU 는 단일 예측 블록 및 예측 블록을 예측하는데 사용되는 신택스 구조를 포함할 수 있다. 비디오 인코더 (20) 는 CU 의 각각의 PU 의 루마, Cb 및 Cr 예측 블록들에 대한 예측 루마, Cb 및 Cr 블록들을 생성할 수 있다.
비디오 인코더 (20) 는 인트라-예측 또는 인터 예측을 사용하여 PU 에 대한 예측 블록을 생성할 수 있다. 비디오 인코더 (20) 가 인트라-예측을 사용하여 PU 의 예측 블록을 생성하는 경우, 비디오 인코더 (20) 는 PU 와 연관된 픽처의 디코딩된 샘플에 기초하여 PU 의 예측 블록을 생성할 수 있다. 비디오 인코더 (20) 가 인터 예측을 사용하여 PU 의 예측 블록을 생성하는 경우, 비디오 인코더 (20) 는 PU 와 연관된 픽처 이외의 하나 이상의 픽처의 디코딩된 샘플에 기초하여 PU 의 예측 블록을 생성할 수 있다. CU 가 인터 코딩될 때, 일 세트의 모션 정보가 각각의 PU 에 대해 존재할 수 있다. 또한, 각각의 PU 는 고유한 인터-예측 모드로 코딩되어 모션 정보 세트를 도출할 수 있다.
비디오 인코더 (20) 가 CU 의 하나 이상의 PUs 에 대한 예측 루마, Cb 및 Cr 블록을 생성한 후에, 비디오 인코더 (20) 는 CU 에 대한 루마 잔여 블록을 생성할 수 있다. CU 의 루마 잔여 블록의 각 샘플은 CU 의 예측 루마 블록들 중 하나의 블록의 루마 샘플과 CU 의 원래 루마 코딩 블록의 해당 샘플 간의 차이를 나타낸다. 또한, 비디오 인코더 (20) 는 CU 에 대한 Cb 잔여 블록을 생성할 수도 있다. CU 의 Cb 잔여 블록의 각 샘플은 CU 의 예측 Cb 블록들 중 하나의 블록의 Cb 샘플과 CU 의 원래 Cb 코딩 블록의 해당 샘플 간의 차이를 나타낼 수 있다. 비디오 인코더 (20) 는 또한 CU 에 대한 Cr 잔여 블록을 생성할 수 있다. CU 의 Cr 잔여 블록의 각 샘플은 CU 의 예측 Cr 블록들 중 하나의 블록의 Cr 샘플과 CU 의 원래 Cr 코딩 블록의 해당 샘플 간의 차이를 나타낼 수 있다.
또한, 비디오 인코더 (20) 는 CU 의 루마, Cb 및 Cr 잔류 블록들을 하나 이상의 루마, Cb 및 Cr 변환 블록으로 분해하기 위해 쿼드-트리 분할을 사용할 수 있다. 변환 블록은 동일한 변환이 적용되는 샘플들의 직사각형 (예를 들어, 정사각형 또는 비정사각형) 블럭이다. CU 의 변환 유닛 (TU) 은 루마 샘플들의 변환 블록, 크로마 샘플들의 2 개의 대응하는 변환 블록, 및 변환 블록 샘플들을 변환하는데 사용되는 신택스 구조를 포함할 수 있다. 따라서, CU 의 각각의 TU 는 루마 변환 블록, Cb 변환 블록 및 Cr 변환 블록과 연관될 수 있다. TU 와 관련된 루마 변환 블록은 CU 의 루마 잔여 블록의 서브-블록일 수 있다. Cb 변환 블록은 CU 의 Cb 잔여 블록의 서브-블록일 수 있다. Cr 변환 블록은 CU 의 Cr 잔여 블록의 서브-블록일 수 있다. 3 개의 개별 컬러 평면을 갖는 픽처 또는 모노크롬 픽처에서, TU 는 단일 변환 블록 및 변환 블록의 샘플들을 변환하는데 사용되는 신택스 구조를 포함할 수 있다.
비디오 인코더 (20) 는 하나 이상의 변환을 TU 의 루마 변환 블록에 적용하여 TU 에 대한 루마 계수 블록을 생성할 수 있다. 계수 블록은 변환 계수의 2 차원 어레이일 수 있다. 변환 계수는 스칼라 양일 수 있다. 비디오 인코더 (20) 는 하나 이상의 변환을 TU 의 Cb 변환 블록에 적용하여 TU 에 대한 Cb 계수 블록을 생성할 수 있다. 비디오 인코더 (20) 는 하나 이상의 변환을 TU 의 Cr 변환 블록에 적용하여 TU 에 대한 Cr 계수 블록을 생성할 수 있다.
계수 블록 (예를 들어, 루마 계수 블록, Cb 계수 블록 또는 Cr 계수 블록) 을 생성한 후에, 비디오 인코더 (20) 는 계수 블록을 양자화할 수 있다. 양자화는 일반적으로 변환 계수를 양자화하여 변환 계수를 나타내기 위해 사용되는 데이터의 양을 줄여 추가 압축을 제공하는 프로세스를 말한다. 비디오 인코더 (20) 가 계수 블록을 양자화한 후에, 비디오 인코더 (20) 는 양자화된 변환 계수를 나타내는 신택스 엘리먼트를 엔트로피 인코딩할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 양자화된 변환 계수를 나타내는 신택스 엘리먼트에 대해 컨텍스트-적응형 이진 산술 코딩 (Context-Adaptive Binary Arithmetic Coding: CABAC) 을 수행할 수 있다.
비디오 인코더 (20) 는 코딩된 픽처 및 관련 데이터의 표현을 형성하는 비트들의 시퀀스를 포함하는 비트스트림을 출력할 수 있다. 비트스트림은 NAL 유닛들의 시퀀스를 포함할 수 있다. NAL 유닛은 필요시에 에뮬레이션 방지 비트들이 산재된 RBSP 형태로 데이터를 포함하는 바이트 및 NAL 유닛의 데이터의 유형 표시를 포함하는 신택스 구조이다. NAL 유닛 각각은 NAL 유닛 헤더를 포함하고 RBSP 를 캡슐화한다. NAL 유닛 헤더는 NAL 유닛 타입 코드를 나타내는 신택스 엘리먼트를 포함할 수 있다. NAL 유닛의 NAL 유닛 헤더에 의해 지정된 NAL 유닛 타입 코드는 NAL 유닛의 타입을 나타낸다. RBSP 는 NAL 유닛 내에 캡슐화된 정수개의 바이트를 포함하는 신택스 구조일 수 있다. 경우에 따라, RBSP 는 제로 비트를 포함한다.
상이한 타입의 NAL 유닛들은 상이한 타입의 RBSPs 를 캡슐화할 수 있다. 예를 들어, 제 1 타입의 NAL 유닛은 PPS 에 대한 RBSP 를 캡슐화할 수 있고, 제 2 타입의 NAL 유닛은 코딩된 슬라이스에 대한 RBSP 를 캡슐화할 수 있고, 제 3 타입의 NAL 유닛은 SEI 메시지에 대한 RBSP 를 캡슐화할 수 있다. 비디오 코딩 데이터에 대한 RBSP 를 캡슐화하는 NAL 유닛 (파라미터 세트 및 SEI 메시지에 대한 RBSP 와는 반대) 은 VCL NAL 유닛이라고 할 수 있다.
비디오 디코더 (30) 는 비디오 인코더 (20) 에 의해 생성된 비트스트림을 수신할 수 있다. 또한, 비디오 디코더 (30) 는 비트스트림으로부터 신택스 엘리먼트를 얻기 위해 비트스트림을 분석할 수 있다. 비디오 디코더 (30) 는 비트스트림으로부터 얻어진 신택스 엘리먼트에 적어도 부분적으로 기초하여 비디오 데이터의 픽처를 재구성할 수 있다. 비디오 데이터를 재구성하는 프로세스는 일반적으로 비디오 인코더 (20) 에 의해 수행되는 프로세스에 대해 상반될 수 있다. 또한, 비디오 디코더 (30) 는 현재 CU 의 TUs 와 관련된 계수 블록을 역 양자화할 수도 있다. 비디오 디코더 (30) 는 계수 블록에 대해 역 변환을 수행하여 현재 CU 의 TUs 와 관련된 변환 블록을 재구성할 수 있다. 비디오 디코더 (30) 는 현재 CU 의 TUs 의 변환 블록의 대응 샘플에 현재 CU 의 PUs 에 대한 예측 블록의 샘플을 추가함으로써 현재 CU 의 코딩 블록을 재구성할 수 있다. 픽처의 각 CU 에 대한 코딩 블록을 재구성함으로써, 비디오 디코더 (30) 는 픽처를 재구성할 수 있다.
본 개시의 기술에 따라, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 이하에서 더 상세히 설명되는 바와 같이 모션 보상 동안 BIO 기술을 추가로 수행할 수 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 적용가능한 경우에 하나 이상의 마이크로프로세서, 디지털 신호 프로세서 (DSPs), 주문형 집적 회로 (ASICs), 필드 프로그래머블 게이트 어레이 (FPGAs), 이산 논리 회로, 소프트웨어, 하드웨어, 펌웨어 또는 이들의 임의의 조합과 같이 임의의 다양한 적절한 인코더 또는 디코더 회로로서 구현될 수 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 인코더 또는 디코더에 포함될 수 있으며, 이들 중 하나는 조합된 비디오 인코더/디코더 (CODEC) 의 일부로서 통합될 수 있다. 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 를 포함하는 장치는 집적 회로, 마이크로프로세서, 및/또는 셀룰러 전화와 같은 무선 통신 장치를 포함할 수 있다.
도 2 는 모션 보상된 프레임 레이트 상향 변환 (MC-FRUC) 을 위해 수행된 블록-매칭 알고리즘 (BMA) 으로서의 일 방향성 모션 추정 (ME) 의 예를 나타내는 개념도이다. 일반적으로, 비디오 코더 (예를 들어, 비디오 인코더 (20) 또는 비디오 디코더 (30)) 는 현재 프레임 (100) 의 현재 블록 (106) 에 대한 레퍼런스 프레임 (102) 으로부터 최상의 매칭 블록 (즉, 레퍼런스 블록 (108)) 을 서치함으로써 MV 112 와 같은 모션 벡터 (MVs) 를 얻기 위해 단측 ME 를 수행한다. 그리고 나서, 비디오 코더는 보간된 블록 (110) 을 보간된 프레임 (104) 에서 모션 벡터 (112) 의 모션 궤적을 따라 보간한다. 즉, 도 2 의 예에서, 모션 벡터 (112) 는 현재 블록 (106), 레퍼런스 블록 (108) 및 보간된 블록 (110) 의 중간점을 통과한다.
도 2 에 도시된 바와 같이, 3 개의 프레임에서의 3 개의 블록이 모션 궤도를 따라 진행된다. 현재 프레임 (100) 내의 현재 블록 (106) 이 코딩된 블록에 속하더라도, 레퍼런스 프레임 (102) 에서의 최상의 매칭 블록 (즉, 레퍼런스 블록 (108)) 은 코딩된 블록에 완전히 속할 필요는 없다 (즉, 최상의 매칭 블록은 코딩된 블록 경계에서 떨어지지 않고 대신에 그러한 경계와 오버랩될 수 있다). 마찬가지로, 보간된 프레임 (104) 의 보간된 블록 (110) 은 코딩된 블록에 완전히 속할 필요는 없다. 결과적으로, 블록들의 오버랩된 영역들 및 채워지지 않은 (홀들) 영역이 보간된 프레임 (104) 에서 발생할 수 있다.
오버랩을 처리하기 위해, 간단한 FRUC 알고리즘은 오버랩된 픽셀들을 평균화하고 오버라이팅하는 것을 포함할 수 있다. 또한, 홀들은 레퍼런스 또는 현재 프레임으로부터의 픽셀 값에 의해 커버될 수 있다. 그러나, 이러한 알고리즘은 블로킹 아티팩트 및 블러링을 유발할 수 있다. 따라서, 모션 필드 세그먼테이션, 이산 하틀리 변환을 사용한 연속 외삽 및 이미지 인페인팅이 블로킹 아티팩트 및 블러링을 증가시키지 않고서 홀 및 오버랩을 처리하는데 사용될 수 있다.
도 3 은 MC-FRUC 에 대해 수행되는 BMA 로서 양측 ME 의 예를 나타내는 개념도이다. 양측 ME 는 오버랩과 홀로 인한 문제를 피하는데 사용할 수 있는 또 다른 솔루션이다 (MC-FRUC 에서). 양측 ME 를 수행하는 비디오 코더 (비디오 인코더 (20) 및/또는 비디오 디코더 (30)) 는 현재 프레임 (120) 의 현재 블록 (126) 과 레퍼런스 프레임 (122) 의 레퍼런스 블록 (128) 간의 시간 대칭을 이용하여 (현재 프레임 (120) 과 레퍼런스 프레임 (122) 의 중간인) 보간 프레임 (124) 의 보간 블록 (130) 을 통과하는 MVs (132, 134) 를 얻는다. 결과적으로, 비디오 코더는 보간 프레임 (124) 에서 오버랩 및 홀을 생성하지 않는다. 현재 블록 (126) 이 비디오 코더가 예를 들어 비디오 코딩의 경우에서와 같이 특정 오더에서 처리하는 블록이라고 가정하면, 그러한 블록들의 시퀀스는 오버랩없이 전체 중간 픽처를 커버할 것이다. 예를 들어, 비디오 코딩의 경우, 블록들은 디코딩 오더로 처리될 수 있다. 따라서, FRUC 아이디어가 비디오 코딩 프레임워크에서 고려될 수 있다면, 이러한 방법이 더 적합할 수 있다.
S.-F. Tu, O. C. Au, Y. Wu, E. Luo 및 C.-H. Yeun, "A Novel Framework for Frame Rate Up Conversion by Predictive Variable Block-Size Motion Estimated Optical Flow", International Congress on Image Signal Processing (CISP), 2009 는 프레임 속도 상향 변환을 위한 하이브리드 블록-레벨 모션 추정 및 픽셀-레벨 옵티컬 플로우 방법을 설명했다. Tu 는 하이브리드 신이 개별적인 방법보다 낫다고 말했다.
HEVC 표준에서, 병합 모드 (병합 모드의 특별한 경우로 간주되는 스킵 모드를 가짐) 와 진보된 모션 벡터 예측 (AMVP) 모드라는 2 개의 인터 예측 모드가 있다. AMVP 또는 병합 모드에서, 비디오 코더는 다수의 모션 벡터 예측자에 대한 MV 후보 리스트를 유지한다. 비디오 코더는 특정 PU 에 대한 모션 벡터(들), 뿐만 아니라 병합 모드에서의 레퍼런스 인덱스를 결정하고, MV 후보 리스트로부터 후보를 선택한다.
HEVC 에서, MV 후보 리스트는 병합 모드에 대한 최대 5 개의 후보들 및 AMVP 모드에 대한 단지 2 개의 후보들을 포함한다. 다른 코딩 표준은 더 많거나 더 적은 수의 후보를 포함할 수 있다. 병합 후보는 모션 정보의 세트, 예컨대 레퍼런스 픽처 리스트 (리스트 0 및 리스트 1) 및 레퍼런스 인덱스 모두에 대응하는 모션 벡터를 포함할 수 있다. 비디오 디코더는 병합 인덱스에 의해 식별된 병합 후보를 수신하고, 비디오 디코더는 식별된 레퍼런스 픽처(들) 및 모션 벡터(들)를 사용하여 현재 PU 를 예측한다. 그러나, AMVP 모드에 있어서, 리스트 0 또는 리스트 1 로부터의 각각의 잠재적인 예측 방향에 대해, AMVP 후보는 모션 벡터만을 포함하므로, MV 후보리스트에 대해 MV 예측자 (MVP) 인덱스와 함께, 레퍼런스 인덱스가 명시적으로 시그널링될 필요가 있다. AMVP 모드에서, 예측된 모션 벡터는 더 리파이닝될 수 있다.
병합 후보는 전체의 모션 정보 세트에 대응하는 한편, AMVP 후보는 특정 예측 방향 및 레퍼런스 인덱스에 대해 단지 하나의 모션 벡터를 포함한다. 두 모드의 후보는 동일한 공간적 및 시간적 인접 블록들로부터 유사하게 유도된다.
도 4a 는 병합 모드에 대한 공간 인접 MV 후보를 도시하고, 도 4b 는 AMVP 모드에 대한 공간 인접 MV 후보를 도시한다. 블록들로부터 후보들을 생성하는 방법이 병합 모드 및 AMVP 모드에 대해 상이하지만, 공간 MV 후보는, 특정 PU (PU0) 에 대해, 도 4a 및 도 4b 에 도시된 인접 블록들로부터 유도된다.
병합 모드에서, 최대 4 개의 공간 MV 후보가 도 4a 에 도시된 순서로 도출될 수 있다. 순서는 다음과 같다: 도 4a 에 도시된 바와 같이, 좌 (0), 상 (1), 우상 (2), 좌하 (3) 및 좌상 (4). 공간 MV 후보들 0-3 모두가 이용가능하고 유일한 경우, 비디오 코더는 후보 리스트에서 좌상 블록에 대한 모션 정보를 포함하지 않을 수 있다. 그러나, 공간 MV 후보들 0-3 중 하나 이상이 이용가능하지 않거나 유일하지 않으면, 비디오 코더는 후보 리스트에서 좌상 블록에 대한 모션 정보를 포함할 수 있다.
AVMP 모드에서, 인접 블록들은 두 개의 그룹으로 분할된다: 도 4b 에 도시된 바와 같이 블록 0 과 1 로 이루어진 좌 그룹, 및 블록 2, 3 및 4 로 이루어진 상 그룹. 각 그룹에 대해, 시그널링된 레퍼런스 인덱스에 의해 지시된 것과 동일한 레퍼런스 픽처를 말하는 인접 블록 내의 잠재적 후보는 그룹의 최종 후보를 형성하기 위해 선택되는 최고 우선권을 갖는다. 모든 인접 블록들이 동일한 레퍼런스 픽처를 가리키는 모션 벡터를 포함하지 않을 수도 있다. 따라서, 그러한 후보가 발견되지 않으면, 이용가능한 제 1 후보가 최종 후보를 형성하도록 스케일링되어, 시간적 거리 차이가 보상될 수 있다.
도 5a 는 TMVP 후보의 예를 도시하고, 도 5b 는 MV 스케일링의 예를 도시한다. 시간 모션 벡터 예측자 (TMVP) 후보는, 가능하고 이용가능한 경우, 공간 모션 벡터 후보들 이후에 MV 후보 리스트에 추가된다. TMVP 후보에 대한 모션 벡터 도출의 프로세스는 병합 모드 및 AMVP 모드 모두에 대해 동일하지만, 병합 모드에서의 TMVP 후보에 대한 목표 레퍼런스 인덱스는 항상 0 으로 설정된다.
공간 인접 후보들을 생성하는데 사용되는 상측 및 좌측 블록들에 대한 바이어스를 보상하기 위해, TMVP 후보 유도를 위한 주 블록 위치는 블록 "T" 로서 도 5a 에 도시된 바와 같이 동일위치된 PU 의 외측의 우측 하단 블록이다. 그러나, 그 블록이 현재 CTB 열 (row) 외부에 위치하거나 모션 정보가 사용할 수 없는 경우, 블록은 PU 의 중심 블록으로 대체된다.
TMVP 후보에 대한 모션 벡터는 슬라이스 레벨로 표시된 동일 위치의 픽처의 동일 위치의 PU 로부터 도출된다. 동일 위치의 PU 의 모션 벡터는 동일 위치 MV 라고 한다. AVC 에서의 시간적 직접 모드와 유사하게, TMVP 후보 모션 벡터를 도출하기 위해, 도 5b 에 도시된 바와 같이, 시간적 거리 차이를 보상하기 위해 동일 위치 MV 는 스케일링될 필요가 있다.
HEVC 는 또한 모션 벡터 스케일링을 이용한다. 모션 벡터의 값은 프리젠 테이션 타임에서의 픽처의 거리에 비례한다고 가정한다. 모션 벡터는 두 개의 픽처, 레퍼런스 픽처, 및 모션 벡터를 포함하는 픽처 (즉, 컨테이닝 픽처) 를 관련시킨다. 모션 벡터가 다른 모션 벡터를 예측하는데 이용될 때, 컨테이닝 픽처와 레퍼런스 픽처의 거리는 POC 값에 기초하여 계산된다.
예측될 모션 벡터에 대해, 모션 벡터의 관련된 컨테이닝 픽처와 레퍼런스 픽처 모두는 상이할 수 있다. 따라서, 새로운 거리 (POC에 기초함) 가 계산되고, 모션 벡터는 이들 2 개의 POC 거리에 기초하여 스케일링된다. 공간 인접 후보에 대해, 2 개의 모션 벡터에 대한 컨테이닝 픽처들은 동일한 한편, 레퍼런스 픽처들은 상이하다. HEVC 에서, 모션 벡터 스케일링은 공간적 및 시간적 인접 후보들에 대해 TMVP 및 AMVP 모두에 적용된다.
HEVC 는 또한 인공 모션 벡터 후보 생성을 이용한다. 모션 벡터 후보리스트가 완료되지 않은 경우, 모션 벡터 후보 리스트 내의 이용가능한 모든 엔트리가 후보를 가질 때까지 인공 모션 벡터 후보가 생성되어 리스트의 말미에 삽입된다. 병합 모드에서는, 두 가지 유형의 인공 MV 후보가 있다: B-슬라이스에 대해서만 도출되는 결합된 후보 및 제 1 유형이 충분한 인공 후보를 제공하지 않는 경우 AMVP에 대해서만 사용되는 0 후보. 후보 리스트에 이미 존재하고 필요한 모션 정보를 갖는 후보 쌍 각각에 대해, 양방향 조합된 모션 벡터 후보는 리스트 0 의 픽처를 말하는 제 1 후보의 모션 벡터와 리스트 1 의 픽처를 말하는 제 2 후보의 모션 벡터의 조합에 의해 도출된다.
HEVC 는 또한 후보 삽입을 위한 프루닝 (pruning) 프로세스를 이용한다. 서로 다른 블록블의 후보가 동일할 수 있는데, 이는 병합/AMVP 후보 리스트의 효율성을 감소시킨다. 이 문제를 해결하기 위해 프루닝 프로세스가 적용될 수 있다. 프루닝 프로세스는 동일한 후보를 삽입하지 않도록 하기 위해 현재 후보 리스트에서 하나의 후보를 다른 후보와 비교한다. 복잡성을 줄이기 위해, 각각의 잠재적 인 것을 다른 모든 기존의 것과 비교하는 대신에, 제한된 수의 프루닝 프로세스만이 적용될 수 있다. 일 예로서, 비디오 코더는 공간적 및 시간적 인접 후보들에 대해 프루닝 프로세스를 적용할 수 있지만 인공 생성된 후보들에는 적용하지 않을 수 있다.
JEM 에서의 양방향 옵티컬 플로우의 양태가 이제 설명될 것이다. 도 6 은 옵티컬 플로우 궤적의 예를 도시한다. BIO 는 양방향 예측의 경우에 블록-단위 모션 보상의 상부에서 수행되는 픽셀-단위 모션 리파인먼트를 사용한다. BIO 가 블록 내부에서 파인 모션을 보상하므로, BIO 를 사용하면 모션 보정을 위한 블록 크기를 효과적으로 확대할 수 있다. 샘플-레벨 모션 리파인먼트는 철저한 탐색이나 시그널링을 필요로 하지 않고 대신에 각 샘플에 대해 파인 모션 벡터를 제공하는 명시적 방정식을 이용한다.
I(k) 를 보상 블록 모션 이후의 레퍼런스 k(k=0,1) 로부터의 루미넌스 값으로 하고, 는 각각 I(k) 구배의 수평 및 수직 성분이다. 옵티컬 플로우가 유효하다고 가정하면, 모션 벡터 필드 가 방정식에 의해 주어진다:
각 샘플의 모션 궤적에 대한 허미트 (Hermite) 보간과 옵티컬 플로우 방정식을 결합하면, 말단에서 함수 값 I(k) 및 미분 값 모두와 일치하는 3 차항의 고유 다항식을 얻는다. t = 0 에서 이 다항식의 값은 BIO 예측이다:
여기서, τ0 및 τ1 은 도 6 에 도시된 바와 같이 레퍼런스 프레임과의 거리를 나타낸다. 거리 τ0 및 τ1 은 Ref0 및 Ref1 에 대한 POC 를 기반으로 계산된다: τ0 = POC(현재)-POC(Ref0), τ1 = POC(Ref1)-POC(현재). 두 가지 예측이 동일 시간 방향 (과거 또는 미래 모두) 에서 오는 경우, 사인들이 다르다 τ0ㆍτ1 < 0. 이 경우 BIO 는, 예측이 동일 시간 모멘트에서 발생하지 않고 (τ0 τ1), 레퍼런스 영역들 모두가 비제로 모션을 가지며 (MVx0, MVy0, MVx1, MVy1 ≠ 0), 블록 모션 벡터가 시간 거리에 비례하는 경우 (MVx0/MVx1 = MVy0/MVy1 = -τ01) 에만 적용된다.
BIO 모션의 양으로도 지칭되는 모션 벡터 필드 (Vx, Vy) 는 포인트 A 및 B (도 6 의 레퍼런스 프레임 평면과 모션 궤적의 교차) 에서의 값들 사이의 차이 Δ 를 최소화함으로써 결정된다. 모델은 Δ 에 대해 로컬 테일러 확장의 첫 번째 선형 항만을 사용한다:
(1) 의 모든 값들은 지금까지 생략된 샘플 위치 (i', j') 에 달려 있다. 모션이 국부적인 환경에서 일관성이 있다고 가정하면, 현재 예측된 포인트 (i, j) 에 중심을 둔 (2M+1)×(2M+1) 스퀘어 윈도우 Ω 내의 Δ 는 다음과 같이 최소화될 수 있다:
이 최적화 문제에 대해, 수직 방향으로 그리고 나서 수평 방향으로 제 1 최소화를 만드는 단순화된 솔루션이 사용될 수 있으며, 이는 다음의 결과를 낳는다:
여기서,
0 또는 매우 작은 값에 의한 나눔을 피하기 위해, 정규화 파라미터 r 및 m 이 방정식 (2), (3)에 도입된다.
여기서 d 는 입력 비디오의 내부 비트-깊이이다.
경우에 따라, BIO 의 MV 리파인먼트는 노이즈 또는 불규칙한 모션으로 인해 불안정할 수 있다. 따라서, BIO 에서, MV 리파인먼트의 크기는 특정 임계값 thBIO 로 클리핑된다. 임계값은, 현재 픽처의 모든 레퍼런스 픽처가 모두 일 방향에서 왔는지에 따라 결정된다. 현재 픽처의 모든 레퍼런스 픽처가 일 방향에서 오는 경우, 임계값은 12×214-d 로 설정될 수 있으며, 그렇지 않은 경우 임계값은 12×213-d 로 설정될 수 있다.
BIO 의 구배는 HEVC 모션 보상 프로세스 (2D 분리가능 FIR) 와 일치하는 동작을 사용하여 모션 보상 보간과 동시에 계산된다. 이 2D 분리가능 FIR 에 대한 입력은 블록 모션 벡터의 프랙셔널 부분에 따른 모션 보상 프로세스 및 프랙셔널 위치 (fracX, fracY) 와 동일한 레퍼런스 프레임 샘플이다. 수평 구배 ∂I/∂x 의 경우에 디스케일링 시프트 d-8 에 의해 프랙셔널 위치 fracY 에 대응하는 BIOfilterS 를 사용하여 신호가 먼저 수직으로 보간되고, 이어서 18-d 에 의해 디스케일링 시프트에 의해 프랙셔널 위치 fracX 에 대응하는 수평방향으로 구배 필터 BIOfilterG 가 적용된다. 수직 구배 ∂I/∂y 의 경우에 디스케일링 시프트 d-8 에 의해 프랙셔널 위치 fracY 에 대응하는 BIOfilterG 를 사용하여 첫 번째 구배 필터가 수직으로 적용되고, 이어서 18-d 에 의해 디스케일링 시프트에 의해 프랙셔널 위치 fracX 에 대응하는 수평방향으로 BIOfilterS 를 사용하여 신호 변위가 수행된다. 구배 계산 BIOfilterG 및 신호 변위 BIOfilterF 를 위한 보간 필터의 길이는 합리적인 복잡성을 유지하기 위해 더 짧다 (6-탭). 표 1 은 BIO 에서 블록 모션 벡터의 상이한 프랙셔널 위치들에 대한 구배 계산에 사용되는 필터를 보여준다. 표 2 는 BIO 에서 예측 신호 생성에 사용되는 보간 필터를 보여준다.
도 7 은 8x4 블록에 대한 구배 계산의 예를 도시한다. 8x4 블록의 경우, 비디오 코더는 모션 보상된 예측자를 가져와서 외부 두 줄의 픽셀 뿐만아니라 현재 블록 내의 모든 픽셀의 HOR/VER 구배를 계산하는데, 왜냐하면 각 픽셀의 vx 및 vy 를 푸는 것은 방정식 (4) 에 나타낸 바와 같이 각 픽셀에 센터링된 윈도우 Ω 내의 픽셀의 모션 보상된 예측자 및 HOR/VER 구배 값을 필요로 하기 때문이다. JEM 에서, 이 윈도우의 크기는 5x5 로 설정된다. 따라서, 비디오 코더는 모션 보상된 예측자를 가져와서, 외부 두 줄의 픽셀에 대한 구배를 계산할 필요가 있다.
Figure 112019067941685-pct00027
Figure 112019067941685-pct00028
JEM 에서, BIO 는 두 가지 예측이 상이한 레퍼런스 픽처에서 나온 경우에 모든 양방향 예측 블록에 적용된다. CU 에 대해 LIC 가 활성화되면, BIO 가 비활성화된다.
도 8 은 JVET-D0042 에서 제안된 8x4 블록에 대한 수정된 BIO 의 예를 도시한다. 4회 JVET 회의에서, 제안 JVET-D0042 (A. Alshina, E. Alshina, "AHG6: On BIO memory bandwidth", JVET-D0042, 2016년 10월) 이 BIO 작업을 수정하고 메모리 액세스 대역폭을 줄이기 위해 제출되었다. 이 제안에서, 현재 블록 외부의 픽셀에 대해서는 모션 보정된 예측자 및 구배 값이 필요하지 않다. 또한, 각 픽셀에 대한 vx 및 vy 의 해결은 도 8 에 도시된 바와 같이 현재 블록 내의 모든 픽셀의 모션 보상된 예측자 및 구배 값을 사용하여 수정된다. 즉, 방정식 (4) 의 스퀘어 윈도우 Ω 가 현재 블록과 동일한 윈도우로 수정된다. 게다가, 가중 계수 w(i', j') 는 vx 및 vy 를 유도하기 위해 고려된다. w (i', j') 는 윈도우 내의 픽셀 (I', j') 의 위치 및 중심 픽셀 (i, j) 의 위치의 함수이다.
JEM 에서의 오버랩 블록 모션 보상 (Overlapped Block Motion Compensation: OBMC) 의 양태들이 이제 설명될 것이다. OBMC 는 예를 들어, H.263 에서와 같이 초기 세대의 비디오 표준에 사용되어 왔다. JEM 에서, OBMC 는 CU 의 우측 및 바닥 경계를 제외한 모든 모션 보상된 (Motion Compensated: MC) 블록 경계에 대해 수행된다. 또한, OBMC 는 루마 및 크로마 성분 모두에 적용될 수 있다. JEM 에서, MC 블록은 코딩 블록에 대응한다. CU 가 서브-CU 모드 (J. Chen, E. Alshina, G.J. Sullivan, J.-R.Ohm, J.Boyce, "Algorithm Description of Joint Exploration Test Model 4", JVET-D1001, 2016년 10월에 포함된 서브-CU 병합, Affine 및 FRUC 모드 포함) 로 코딩되는 경우, CU 의 각 서브-블록은 MC 블록이다. 균일한 방식으로 CU 경계를 처리하기 위해, OBMC 는, 도 9a 및 도 9b 에 도시된 바와 같이, 서브-블록 크기가 4x4 와 동일하게 설정된 모든 MC 블록 경계에 대해 서브-블록 레벨에서 수행된다.
OBMC 가 현재 서브-블록에 적용될 때, 현재 모션 벡터들 외에, 4 개의 연결된 인접 서브-블록들의 모션 벡터들은, 이용가능하고 현재 모션 벡터와 동일하지 않은 경우, 현재 서브-블록의 예측 블록을 유도하는데 또한 사용된다. 다수의 모션 벡터에 기초한 이들 다수의 예측 블록은 현재 서브-블록의 최종 예측 신호를 생성하도록 결합된다.
도 10 에 도시된 바와 같이, 인접 서브-블록의 모션 벡터에 기초한 예측 블록은 PN 으로 표시되고, N 은 인접하는 상측, 하측, 좌측 및 우측 서브-블록에 대한 인덱스를 나타내고, 현재 서브-블록의 모션 벡터에 기초한 예측 블록은 PC 로 표시된다. PN 이 현재 서브-블록과 동일한 모션 정보를 포함하는 인접 서브-블록의 모션 정보를 기반으로 할 때, OBMC 는 PN 으로부터 수행되지 않는다. 그렇지 않으면, PN 의 모든 픽셀이 PC 의 동일 픽셀에 추가된다; 즉, 4 행/열의 PN 이 PC 에 추가된다. 가중 계수 {1/4, 1/8, 1/16, 1/32} 는 PN 에 사용되고, 가중 계수 {3/4, 7/8, 15/16, 31/32} 는 PC 에 사용된다. 예외는 작은 MC 블록 (즉, 코딩 블록의 높이 또는 폭이 4 와 같거나 CU 가 서브-CU 모드로 코딩되는 경우) 인데, 이 경우 2 열/행의 PN 만이 PC 에 추가된다. 이 경우, PN 에는 가중 계수 {1/4, 1/8} 이 사용되고, PC 에는 가중 계수 {3/4, 7/8} 가 사용된다. 수직 (수평) 인접 서브-블록의 모션 벡터를 기반으로 생성된 PN 의 경우, PN 의 동일 행(열)에 있는 픽셀은 동일한 가중 계수로 PC 에 추가된다. BIO 는 예측 블록 PN 의 도출에도 적용될 수 있다.
JEM 에서, 256 루마 샘플보다 작거나 같은 크기를 갖는 CU 에 대해, CU 레벨 플래그는 OBMC 가 현재 CU 에 대해 적용되는지 여부를 표시하도록 시그널링된다. 256 루마 샘플보다 큰 크기를 갖거나 AMVP 모드로 코딩되지 않은 CUs 의 경우, OBMC 가 디폴트로 적용된다. 인코더에서, OBMC 가 CU 에 대해 적용되면, 모션 추정 단계에서 그 영향이 고려된다. 상측 인접 블록 및 좌측 인접 블록의 모션 정보를 이용한 예측 신호가 현재 CU 의 원래 신호의 상측 및 하측 경계를 보상하는데 이용되고 나서, 정상적인 모션 추정 프로세스가 적용된다.
BIO 가 잠재적으로 JEM4.0 에서 Bjøntegaard-Delta 비트율 (BD 속도) 을 1% 이상 감소시킬 수 있지만, BIO 는 잠재적으로 상당한 계산 복잡성을 초래할 수 있으며, 인코더와 디코더 모두에 대해 메모리 대역폭 증가를 필요로 할 수 있다. 본 개시는 BIO 와 관련된 계산 복잡성 및 필요한 메모리 대역폭을 잠재적으로 감소시킬 수 있는 기술을 설명한다. 일 예로서, 본 개시의 기술에 따르면, 비디오 코더는 서브-블록 레벨에서 BIO 모션의 양, 예를 들어 위에서 설명된 vx 및 vy 값을 결정할 수 있으며, 그 결정된 양의 BIO 모션을 사용하여 샘플 단위로 예측 블록의 샘플 값을 수정할 수 있다. 따라서, 본 개시의 기술은 BIO 의 현존하는 구현에 요구되는 실질적인 프로세싱 및 메모리 부담을 초래하지 않으면서 BIO 의 코딩 이득을 달성할 수 있게 함으로써 비디오 인코더 및 비디오 디코더를 개선할 수 있다.
방정식 (4) 에 기초하여, 본 개시는 윈도우 Ω 를 재규정함으로써 BIO 의 복잡성을 감소시키는 기술을 도입한다. 이러한 기술은, 예를 들어, 비디오 인코더 (20) (예를 들어, 모션 추정 유닛 (42) 및/또는 모션 보상 유닛 (44)) 또는 비디오 디코더 (30) (예를 들어, 모션 보상 유닛 (72)) 에 의해 수행될 수 있다. 윈도우 Ω 는 M×N 크기의 현재 픽셀을 커버하는 현재 블록 내의 임의의 블록으로서 정의되며, 여기서 M 과 N 은 양의 정수이다. 일 예에서, 현재 블록은 오버랩되지 않은 서브-블록들로 분할되고, 윈도우 Ω 는 현재 픽셀을 커버하는 서브-블록으로서 정의된다. 도 11 에 도시된 다른 예에서, 서브-블록은 현재 픽셀을 커버하는 모션 벡터 저장을 위한 가장 작은 블록으로서 정의된다. HEVC 및 JEM 에서, 가장 작은 블록 크기는 4x4 이다. 다른 예에서, 윈도우 Ω 의 크기는 현재 블록의 크기, 코딩 모드와 같은 코딩 정보에 따라 적응적이다. 현재 블록 크기가 클수록, 더 큰 윈도우 Ω 을 사용할 수 있다. 현재 블록이 서브-CU 병합, Affine, FRUC 모드와 같은 서브-블록 모드로서 코딩될 때, 윈도우 Ω 이 서브-블록으로서 설정된다.
도 11 은 픽셀 A, B 및 C 에 대해 윈도우 Ω 을 갖는, 본 개시의 기술에 따른, 8x4 블록에 대한 제안된 BIO 의 예를 도시한다. 본 개시의 기술에 따르면, 동일한 가중치가 방정식 (7) 에 나타낸 바와 같이 vx 및 vy 를 푸는데 사용될 수 있다. 또 다른 예에서, 동일하지 않은 가중치가 방정식 (10) 에 나타낸 바와 같이 vx 및 vy 를 푸는데 사용될 수 있다. 동일하지 않은 가중치는 중심 픽셀과 관련 픽셀 사이의 거리의 함수일 수 있다. 또 다른 예에서, 가중치는 예를 들어 https://en.wikipedia.org/wiki/Bilateral_filter 에 기술된 바와 같이 양방향 접근법을 사용하여 계산할 수 있다. 게다가, 룩업 테이블은 방정식 (7) 에서 윈도우 Ω 에 대한 각 픽셀에 대하여 모든 가중 계수를 저장하는데 사용될 수 있다.
다른 예에서, OBMC 에 대한 PN 을 유도할 때, BIO 는 인접 모션을 사용하여 예측자를 유도할 때에 부분 픽셀에 대해서만 수행된다. 일 예에서, BIO 는 PN 의 유도에 있어서 모든 픽셀에 대해 완전히 비활성화된다. 또 다른 예에서, BIO 는 도 12a 내지 12d 에 도시된 바와 같이 외부 두 줄의 픽셀에만 적용된다.
또한, 각 블록에 대해, BIO 가 몇 줄 적용되는지가 SPS/PPS 의 슬라이스 레벨에서 명시적으로 시그널링될 수 있다. BIO 가 비활성화되거나 부분적으로 비활성화되는지의 여부는 SPS/PPS 의 슬라이스 레벨에서 명시적으로 시그널링될 수 있다.
다른 한편으로, BIO 가 몇 줄 적용되는지가 소정 코딩 조건, 예를 들어 CU 모드 (서브-블록 모드 또는 비 서브-블록 모드) 또는 블록 크기 또는 Illumination Compensation (IC) 플래그 시그널링과 같은 다른 도구들의 조합에 명시적으로 기반할 수 있다. BIO 가 비활성화되거나 부분적으로 비활성화되는지의 여부는 소정 조건, 예를 들어 CU 모드 (서브-블록 모드 또는 비 서브-블록 모드) 또는 블록 크기 또는 IC 플래그 시그널링과 같은 다른 도구들의 조합에 근거하여 명시적으로 유도될 수 있다.
도 12a 내지 도 12d 는 본 개시의 기술에 따른 OBMC 에서의 제안된 단순화된 BIO 의 예들을 도시하며, 여기서 x 는 BIO 없이 유도된 예측자를 나타내고, o 는 BIO 로 유도된 예측자를 나타낸다. BIO 로부터의 모션 벡터 리파인먼트는 블록-기반일 수 있다. 블록 크기를 M×N 으로 하면, 방정식 (7) 에서의 항의 계산 동안에 상이한 위치들의 픽셀들에 상이한 스케일 인자들을 제공하기 위해 가중 함수가 사용될 수 있다. 방정식 (5) 및 (6) 을 풀 때, 보간된 픽셀과 전체 블록으로부터 모아진 구배 값은, 각각의 픽셀 위치에 대해 vx 와 vy 를 개별적으로 푸는 대신에, vx 와 vy 를 같이 풀 때 사용될 수 있다.
일 예에서, 윈도우 크기 오메가는 각각의 픽셀 위치에 센터링된 러닝 윈도우로서 정의될 수 있고, 모든 위치들로부터의 합산 값들에 의한 평균값이 사용된다. 구체적으로는,
이며, 여기서 N 은 각 서브-블록의 픽셀의 수이며, Ωk 는 각 픽셀에 대해 정의된 윈도우이다. 일 예에서, Ωk 는 각 픽셀에 대한 현재 BIO 설계에서 정의된 5x5 윈도우일 수 있고, 따라서 가중 함수는 미리 결정될 수 있다. 5x5 윈도우를 갖는 4x4 서브-블록에 대해 사용되는 가중 함수의 예가 도 13 에 도시된다. 도 13 은 5x5 윈도우를 갖는 4x4 서브-블록에 대한 가중 함수의 예를 도시한다.
또 다른 예에서, 가중 함수는 SPS, PPS 또는 슬라이스 헤더에 전송될 수 있다. 시그널링 비용을 줄이기 위해, 미리 정의된 가중치 함수의 세트가 저장될 수 있으며, 가중치 함수의 인덱스만이 시그널링될 필요가 있다.
또 다른 예에서, 리파이닝된 모션 벡터는 서브-블록의 중앙 부분에 있는 픽셀을 사용하여 발견될 수 있다. 중앙 픽셀의 구배 값은 보간 필터를 사용하여 계산될 수 있고, 크기 M×N 의 윈도우는 보간된 픽셀에 적용되어 중앙 픽셀에 상이한 가중치를 제공하여, 방정식 (7) 에서 변수 s1-s6 을 계산할 수 있다. 일 예에서, 중심 지점의 구배 값이 계산될 수 있고, 중심 지점의 평균값이 사용될 수 있다 (동일-웨이트 윈도우). 다른 예에서, 메디안 필터는 방정식 (7) 에서 변수 s1-s6 을 계산하기 위해 대표적인 픽셀을 선택하는데 사용될 수 있다.
JVET-D0042 에서, BIO 오프셋을 해결할 때, 각 픽셀에 대한 윈도우 크기는 전체의 현재 블록으로 변경될 수 있으며, 이는 현재 블록이 8x4 이상일 때에 현재 디자인에 계산상의 복잡성을 잠재적으로 부가한다. 수정의 최악의 경우는, 128x128 윈도우가 128x128 블록 내에서 각 픽셀에 대한 예측자 및 구배의 누적에 사용되는 것이다.
또한, 하나의 CU 내의 서브-블록들이 동일 MV 를 공유하거나 하나의 인터-코딩된 CU 가 모션 보상 (MC) 을 위해 더 작은 서브-블록들로 분할될 때, JEM-4.0 은 각각의 서브-블록에 대한 MC 및 BIO 를 병렬로 수행하기 위해 또는 동일한 MV 를 갖는 서브-블록들의 모여진 더 큰 블록에 대한 MC 및 BIO 를 일회성 노력으로 수행하기 위해 유연성을 제공한다. 어느 쪽이든, JEM-4.0 은 동일한 코딩 결과를 제공한다. 그러나, JVET-D0042 에서의 수정된 BIO 는 블록 크기 의존 구배 계산 및 가중 계수를 사용하여, 두 개의 인접하는 동일-모션 블록에 대한 MC 및 BIO 를 공동으로 또는 개별적으로 수행하는 것은 상이한 결과를 가져올 수 있다. 상이한 결과를 피하기 위해, 디코더는 MC 및 BIO 를 블록 레벨이나 특정 서브-블록 레벨에서 수행해야 한다고 명시해야 한다. 이러한 제약은 너무 엄격하고 실제 코덱 구현에는 바람직하지 않을 수 있다.
방정식 (4) 에 기초하여, BIO 의 복잡성은 윈도우 Ω 를 재규정함으로써 더 감소될 수 있다. 윈도우 Ω 의 두 가지 유형이 정의된다; 하나는 비중첩 윈도우이고 다른 하나는 슬라이딩 윈도우이다. 비중첩 윈도우의 타입에 대해, 현재 블록은 비중첩 서브-블록들로 분할되고, 윈도우 Ω 는 도 11 에 도시된 바와 같이 현재 픽셀을 커버하는 서브-블록으로서 규정된다. 슬라이딩 윈도우의 타입에 대해, 윈도우 Ω 는 도 7 에 도시된 바와 같이 현재 픽셀에 센터링된 블록으로서 규정된다.
윈도우 Ω 의 두 유형에 대해, 윈도우 Ω 의 크기는 아래에 예시된 바와 같이 상이한 방법을 사용하여 결정될 수 있다. 이하에서, 윈도우 Ω 는 크기 M×N을 갖는 직사각형 블록인 것으로 가정될 수 있고, 여기서 M 및 N 은 (4×4, 8×8, 16×16, 8×4 등등) 과 같은 임의의 음이 아닌 정수일 수 있다. 윈도우 Ω 는 직사각형 형상에 한정되지 않으며, 다이아몬드 형상과 같은 임의의 다른 형상일 수 있다. 기재된 기술은, 적용가능하다면, 직사각형 이외의 다른 형상에도 적용될 수 있다.
윈도우의 크기는 고정되거나 가변적일 수 있고, 비트스트림에서 미리 결정되거나 시그널링될 수있다. 크기가 시그널링될 때, 크기는 시퀀스 파라미터 세트 (SPS), 픽처 파라미터 세트 (PPS), 슬라이스 헤더에서 또는 CTU 레벨에서 시그널링될 수 있다. 윈도우 크기는 아래의 식에 의해 모션 보상 (MC) 블록의 크기에 의해 공동으로 결정될 수 있다.
수평 윈도우 크기 M = min (M, MC_Size);
수직 윈도우 크기 N = min (N, MC_Size).
일 예에서, 모션 보상 (MC) 블록은 현재 블록의 크기 및 코딩 모드와 같은 코딩 정보에 전적으로 의존한다. 예를 들어, 현재 CU 가 서브-CU 병합, Affine 및 FRUC 모드와 같은 비 서브-블록 모드로 코딩되는 경우에 모션 보상 (MC) 블록은 전체 CU 로서 설정된다. 서브-블록들이 동일한 모션 정보를 가지는지 여부에 관계없이, 서브-CU 병합, Affine 및 FRUC 모드와 같은 서브-블록 모드가 사용될 때에 모션 보상 (MC) 블록은 서브-블록으로서 설정된다.
또 다른 예에서, 모션 보상 (MC) 블록은 동일한 MVs 를 갖는 CU 내의 샘플들의 블록으로서 정의된다. 이 경우, 현재 CU가 서브-CU 병합, Affine 및 FRUC 모드와 같은 비 서브-블록 모드로 코딩될 때에 모션 보상 (MC) 블록은 전체 CU 로서 설정된다. CU가 서브-CU 병합, Affine 및 FRUC 모드와 같은 서브-블록 모드로 코딩되는 경우에, 동일한 모션 정보를 갖는 서브-블록들은 서브-블록의 특정 스캐닝 오더로 모션 보상 (MC) 블록으로서 병합된다.
적응 크기: 윈도우 Ω 의 크기는 현재 블록의 크기, 코딩 모드와 같은 코딩 정보에 따라 적응성이다. 일 예에서, 윈도우 Ω 는 현재 블록이 서브-CU 병합, Affine 및 FRUC 모드와 같은 비 서브-블록 모드로서 코딩될 때에 전체 현재 블록 또는 현재 블록의 쿼터로서 설정된다; 윈도우 Ω 는 현재 블록이 서브-블록 모드로서 코딩될 때에 서브-블록으로서 설정된다. 적응성 윈도우 크기는 아래의 식에 의해 모션 보상 (MC) 블록의 크기에 의해 공동으로 결정될 수 있다.
수평 윈도우 크기 M = min (M, MC_Size);
수직 윈도우 크기 N = min (N, MC_Size).
윈도우 Ω 의 크기를 결정하기 위한 다양한 기술에 대해, 친숙한 하드웨어 또는 소프트웨어 구현을 위해 크기의 하이-레벨 제한이 포함될 수 있다. 예를 들어 윈도우 크기는 비디오 코덱 시스템에서 허용되는 최대 변환 유닛 (TU) 크기보다 작거나 같아야 한다. 다른 예에서, 윈도우 크기는 4x4 와 같은 가장 작은 MC 블록보다 크거나 같아야 한다.
BIO-관련 동작을 더 단순화하기 위해, 본 개시는 모든 모션 보상 예측이 완료된 후에 후처리로서 BIO 를 수행하는 기술을 도입한다. 구체적으로 말하자면, 기존 MC 가 행해진 후에, OBMC 를 적용하여 현재 블록에 대한 더 나은 예측자를 생성할 수 있다. 최종 예측자에 기반하여, 현재 블록의 모션 정보를 사용하여 BIO를 적용하여 예측자를 더욱 리파이닝한다. 예를 들어, BIO 의 구배 계산의 경우, 전체 블록의 모션이 사용될 수 있다. 다른 예에서, 각각의 서브-블록에 대해, OBMC 로부터의 평균화 모션 벡터가 사용될 수 있다. 다른 예에서, 각각의 서브-블록에 대해, (개별적으로 각각의 치수에 대한) 중앙 이동 벡터가 사용될 수 있다.
가중 함수는 BIO 의 모션 벡터 리파인먼트의 블록-기반 유도를 고려할 때 다르게 설계될 수 있다. 동일한 가중치는 위에서 언급한 방법들 중의 하나에 사용될 수 있다. 대안적으로, 윈도우의 중앙 부분 쪽으로 더 많은 가중치를 배치할 수 있다. 일 예에서, 가중치는 윈도우의 중심과 픽셀 사이의 인버스 거리 (L1-norm 또는 L2-norm 을 포함하지만 이에 한정되지 않음) 에 의해 계산될 수 있다.
도 14 는 양방향 옵티컬 플로우를 위한 기술을 구현할 수 있는 비디오 인코더 (20) 의 일 예를 나타내는 블록도이다. 비디오 인코더 (20) 는 비디오 슬라이스들 내에서 비디오 블록들의 인트라-코딩 및 인터-코딩을 수행할 수 있다. 인트라-코딩은 공간 예측에 의존하여 주어진 비디오 프레임이나 픽처 내에서 비디오의 공간 중복을 줄이거나 제거한다. 인터-코딩은 시간 예측에 의존하여 비디오 시퀀스의 인접한 프레임들 또는 픽처 내에서 비디오의 시간 중복을 줄이거나 제거한다. 인트라-모드 (I 모드) 는 몇몇 공간 기반 코딩 모드들 중의 임의의 것을 나타낼 수 있다. 단방향 예측 (P 모드) 또는 양방향 예측 (B 모드) 과 같은 인터-모드는 몇몇 시간 기반 코딩 모드들 중의 임의의 것을 나타낼 수 있다.
도 14 에 도시된 바와 같이, 비디오 인코더 (20) 는 비디오 데이터를 수신하여, 수신된 비디오 데이터를 비디오 데이터 메모리 (38) 에 저장한다. 비디오 데이터 메모리 (38) 는 비디오 인코더 (20) 의 컴포넌트에 의해 인코딩될 비디오 데이터를 저장할 수 있다. 비디오 데이터 메모리 (38) 에 저장된 비디오 데이터는 예를 들어 비디오 소스 (18) 로부터 얻어질 수 있다. 레퍼런스 픽처 메모리 (64) 는, 예를 들어, 인트라-코딩 또는 인터-코딩 모드로 비디오 인코더 (20) 에 의해 비디오 데이터를 인코딩하는데 사용하기 위한 레퍼런스 비디오 데이터를 저장하는 레퍼런스 픽처 메모리일 수 있다. 비디오 데이터 메모리 (38) 및 레퍼런스 픽처 메모리 (64) 는 임의의 다양한 메모리 장치, 예를 들어 동기 DRAM (SDRAM), 자기저항 RAM (MRAM), 저항 RAM (RRAM) 을 포함하는 동적 랜덤-액세스 메모리 (DRAM), 또는 다른 유형의 메모리 장치에 의해 형성될 수 있다. 비디오 데이터 메모리 (38) 및 레퍼런스 픽처 메모리 (64) 는 동일 메모리 장치 또는 개별 메모리 장치에 의해 제공될 수 있다. 다양한 예들에서, 비디오 데이터 메모리 (38) 는 비디오 인코더 (20) 의 다른 컴포넌트들과 온-칩일 수 있거나, 이들 컴포넌트들에 대해 오프-칩일 수 있다.
비디오 인코더 (20) 는 인코딩될 비디오 프레임 내에서 현재 비디오 블록을 수신한다. 도 14 의 예에서는, 비디오 인코더 (20) 는 모드 선택 유닛 (40), 레퍼런스 픽처 메모리 (64) (디코딩된 픽처 버퍼 (DPB) 라고도 할 수 있음), 서머 (50), 변환 처리 유닛 (52), 양자화 유닛 (54) 및 엔트로피 인코딩 유닛 (56) 을 포함한다. 모드 선택 유닛 (40) 은 이어서 모션 보상 유닛 (44), 모션 추정 유닛 (42), 인트라-예측 처리 유닛 (46), 및 파티션 유닛 (48) 을 포함한다. 비디오 블록 재구성을 위해, 또한 비디오 인코더 (20) 는 역 양자화 유닛 (58), 역 변환 처리 유닛 (60), 및 서머 (62) 를 포함한다. 재구성된 비디오로부터 블로키니스 아티팩트를 제거하기 위해 블록 경계를 필터링하도록 디블로킹 필터 (도 14 에는 미도시됨) 가 또한 포함될 수도 있다. 필요하다면, 디블로킹 필터는 일반적으로 서머 (62) 의 출력을 필터링할 것이다. 디블로킹 필터 이외에 추가적인 필터 (인 루프 또는 포스트 루프) 가 사용될 수도 있다. 그러한 필터는 간결성을 위해 도시되지 않았지만, 원한다면, 서머 (50) 의 출력을 필터링 할 수 있다 (인-루프 필터로서).
인코딩 프로세스 동안, 비디오 인코더 (20) 는 코딩될 비디오 프레임 또는 슬라이스를 수신한다. 프레임 또는 슬라이스는 다수의 비디오 블록들로 분할될 수 있다. 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 은 시간 예측을 제공하기 위해 하나 이상의 레퍼런스 프레임 내의 하나 이상의 블록에 대해 수신된 비디오 블록의 인터-예측 인코딩을 수행한다. 인트라-예측 처리 유닛 (46) 은 대안 적으로 공간 예측을 제공하기 위해 코딩될 블록과 동일한 프레임 또는 슬라이스 내의 하나 이상의 인접 블록의 픽셀을 사용하여 수신된 비디오 블록을 인트라-예측할 수도 있다. 비디오 인코더 (20) 는, 예를 들어, 비디오 데이터의 각각의 블록에 대한 적절한 코딩 모드를 선택하기 위해, 다수의 코딩 패스를 수행할 수 있다.
또한, 파티션 유닛 (48) 은 이전의 코딩 패스에서의 이전의 분할 평가에 기초하여 비디오 데이터의 블록들을 서브-블록들로 분할할 수 있다. 예를 들어, 파티션 유닛 (48) 은 초기에 프레임 또는 슬라이스를 LCUs 로 분할하고, 레이트-왜곡 분석 (예를 들어, 레이트-왜곡 최적화) 에 기초하여 LCUs 의 각각을 서브-CUs 로 분할할 수 있다. 모드 선택 유닛 (40) 은 LCU 를 서브-CUs 로 분할하는 것을 나타내는 쿼드트리 데이터 구조를 더 생성할 수 있다. 쿼드트리의 리프-노드 CUs 는 하나 이상의 PUs 및 하나 이상의 TUs 를 포함할 수 있다.
모드 선택 유닛 (40) 은 예를 들어 에러 결과에 기초하여 인트라 또는 인터 예측 모드들 중 하나를 선택할 수 있고, 결과적인 예측 블록을 서머 (50) 에 제공하여 잔여 데이터를 발생시키고 서머 (62) 에 제공하여 레퍼런스 프레임으로서 사용하기 위해 인코딩된 블록을 재구성한다. 모드 선택 유닛 (40) 은 또한 엔트로피 인코딩 유닛 (56) 에 모션 벡터, 인트라-모드 표시자, 파티션 정보 및 다른 신택스 정보와 같은 신택스 엘리먼트를 제공한다.
모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 은 고도로 통합될 수 있지만, 개념적 목적을 위해 개별적으로 도시된다. 모션 추정 유닛 (42) 에 의해 수행되는 모션 추정은 비디오 블록에 대한 모션을 추정하는 모션 벡터를 생성하는 프로세스이다. 모션 벡터는, 예를 들어, 현재 프레임 (또는 다른 코딩된 유닛) 내에서 코딩되는 현재 블록에 대한 레퍼런스 프레임 (또는 다른 코딩된 유닛) 내에서 예측 블록에 대한 현재 비디오 프레임 또는 픽처 내의 비디오 블록의 PU 의 변위를 나타낼 수 있다. 예측 블록은 절대 차이의 합 (SAD), 스퀘어 차이의 합 (SSD) 또는 다른 차이 메트릭에 의해 결정될 수 있는 픽셀 차이의 관점에서, 코딩될 블록과 매우 일치하는 것으로 발견된 블록이다. 일부 예들에서, 비디오 인코더 (20) 는 레퍼런스 픽처 메모리 (64) 에 저장된 레퍼런스 픽처의 서브-정수 픽셀 위치에 대한 값을 계산할 수 있다. 예를 들어, 비디오 인코더 (20) 는 레퍼런스 픽처의 1/4 픽셀 위치, 1/8 픽셀 위치 또는 다른 프랙셔녈 픽셀 위치의 값을 보간할 수 있다. 따라서, 모션 추정 유닛 (42) 은 전체 픽셀 위치 및 프랙셔널 픽셀 위치에 대한 모션 검색을 수행하고 프랙셔널 픽셀 정밀도로 모션 벡터를 출력할 수 있다.
모션 추정 유닛 (42) 은 PU 의 위치를 레퍼런스 픽처의 예측 블록의 위치와 비교함으로써, 인터-코딩된 슬라이스 내의 비디오 블록의 PU 에 대한 모션 벡터를 계산한다. 레퍼런스 픽처는 레퍼런스 픽처 메모리 (64) 에 저장된 하나 이상의 레퍼런스 픽처를 각각 식별하는 제 1 레퍼런스 픽처 리스트 (List 0) 또는 제 2 레퍼런스 픽처 리스트 (List 1) 로부터 선택될 수 있다. 모션 추정 유닛 (42) 은 계산된 모션 벡터를 엔트로피 인코딩 유닛 (56) 및 모션 보상 유닛 (44) 에 제공한다.
모션 보상 유닛 (44) 에 의해 수행되는 모션 보상은 모션 추정 유닛 (42) 에 의해 결정된 모션 벡터에 기초하여 예측 블록을 인출 또는 생성하는 것을 포함할 수 있다. 다시, 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 은 일부 예들에서 기능적으로 통합될 수 있다. 현재 비디오 블록의 PU 에 대한 모션 벡터를 수신하면, 모션 보상 유닛 (44) 은 모션 벡터들이 레퍼런스 픽처 리스트들 중의 하나에서 포인팅하는 예측 블록을 위치시킬 수 있다. 서머 (50) 는, 후술하는 바와 같이, 픽셀 차이 값을 형성하는, 코딩되는 현재 비디오 블록의 픽셀 값으로부터 예측 블록의 픽셀 값을 감산하여 잔여 비디오 블록을 형성한다. 일반적으로, 모션 추정 유닛 (42) 은 루마 성분에 대한 모션 추정을 수행하고, 모션 보상 유닛 (44) 은 크로마 성분 및 루마 성분 모두에 대한 루마 성분에 기초하여 계산된 모션 벡터를 사용한다. 모드 선택 유닛 (40) 은 또한 비디오 슬라이스의 비디오 블록을 디코딩할 때에 비디오 디코더 (30) 에 의한 사용을 위해 비디오 블록 및 비디오 슬라이스와 연관된 신택스 엘리먼트를 생성할 수 있다.
또한, 모션 보상 유닛 (44) 은 (단독으로 또는 임의의 조합으로) 본 개시의 기술들의 일부 또는 전부를 수행하도록 구성될 수 있다. 모션 보상 유닛 (44) 과 관련하여 논의되었지만, 모드 선택 유닛 (40), 모션 추정 유닛 (42), 파티션 유닛 (48) 및/또는 엔트로피 인코딩 유닛 (56) 은, 단독으로 또는 모션 보상 유닛 (44) 과 조합하여, 본 개시의 특정 기술을 수행하도록 구성될 수 있다. 일 예에서, 모션 보상 유닛 (44) 은 여기서 논의된 BIO 기술을 수행하도록 구성될 수 있다.
인트라-예측 처리 유닛 (46) 은, 전술한 바와 같이, 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 에 의해 수행되는 인터-예측에 대한 대안으로서, 현재 블록을 인트라-예측할 수 있다. 특히, 인트라-예측 처리 유닛 (46) 은 현재 블록을 인코딩하는데 사용하기 위한 인트라-예측 모드를 결정할 수 있다. 일부 예들에서, 인트라-예측 처리 유닛 (46) 은, 예를 들어, 개별 인코딩 패스 동안에 다양한 인트라-예측 모드를 사용하여 현재의 블록을 인코딩할 수도 있고, 인트라-예측 처리 유닛 (46) (또는 일부 예들에서는 모드 선택 유닛 (40)) 은 테스트된 모드로부터 사용할 적절한 인트라-예측 모드를 선택할 수도 있다.
예를 들어, 인트라-예측 처리 유닛 (46) 은 다양한 테스트된 인트라-예측 모드에 대해 레이트-왜곡 분석을 이용하여 레이트-왜곡 값을 계산할 수 있고, 테스트된 모드들 중에서 최상의 레이트-왜곡 특성을 갖는 인트라-예측 모드를 선택할 수 있다. 레이트-왜곡 분석은, 일반적으로, 인코딩된 블록과 인코딩된 블록을 생성하기 위해 인코딩되었던 원래의 비인코딩된 블록 간의 왜곡 (또는 에러) 의 양 뿐만아니라 인코딩된 블록을 생성하는데 사용된 비트레이트 (즉, 비트 수) 를 결정한다. 인트라-예측 처리 유닛 (46) 은 어느 인트라-예측 모드가 블록에 대해 최상의 레이트-왜곡 값을 나타내는지를 결정하기 위해 다양한 인코딩된 블록에 대한 왜곡 및 레이트로부터 비율을 계산할 수 있다.
블록에 대해 인트라-예측 모드를 선택한 후에, 인트라-예측 처리 유닛 (46) 은 블록에 대한 선택된 인트라-예측 모드를 나타내는 정보를 엔트로피 인코딩 유닛 (56) 에 제공할 수 있다. 엔트로피 인코딩 유닛 (56) 은 선택된 인트라-예측 모드를 나타내는 정보를 인코딩할 수 있다. 비디오 인코더 (20) 는, 복수의 인트라-예측 모드 인덱스 테이블 및 복수의 수정된 인트라-예측 모드 인덱스 테이블 (코드워드 맵핑 테이블이라고도 함) 을 포함할 수 있는 전송된 비트스트림 구성 데이터에서, 다양한 블록에 대한 인코딩 콘텍스트들의 정의 및 콘텍스트들의 각각에 대해 사용하기 위한 가장 가능성있는 인트라-예측 모드, 인트라-예측 모드 인덱스 테이블 및 수정된 인트라-예측 모드 인덱스 테이블의 표시를 포함할 수 있다.
비디오 인코더 (20) 는 코딩되는 원래의 비디오 블록으로부터 모드 선택 유닛 (40) 으로부터의 예측 데이터를 감산함으로써 잔여 비디오 블록을 형성한다. 서머 (50) 는 이 감산 작업을 수행하는 구성요소 또는 구성요소들을 나타낸다. 변환 처리 유닛 (52) 은 이산 코사인 변환 (DCT) 또는 개념적으로 유사한 변환과 같은 변환을 잔여 블록에 적용하여 변환 계수 값을 포함하는 비디오 블록을 생성한다. 웨이블릿 변환, 정수 변환, 서브-밴드 변환, 이산 사인 변환 (DSTs) 또는 다른 유형의 변환이 DCT 대신에 사용될 수 있다. 어느 경우, 변환 처리 유닛 (52) 은 변환을 잔여 블록에 적용하여, 변환 계수들의 블록을 생성한다. 변환은 잔여 정보를 픽셀 도메인으로부터 주파수 도메인과 같은 변환 도메인으로 변환할 수 있다. 변환 처리 유닛 (52) 은 최종 변환 계수를 양자화 유닛 (54) 에 전송할 수도 있다. 양자화 유닛 (54) 은 비트 레이트를 더 감소시키기 위해 변환 계수를 양자화한다. 양자화 프로세스는 계수들의 일부 또는 전부와 관련된 비트 깊이를 감소시킬 수 있다. 양자화의 정도는 양자화 파라미터를 조정함으로써 변경될 수 있다.
양자화 후에, 엔트로피 인코딩 유닛 (56) 은 양자화된 변환 계수를 엔트로피 코딩한다. 예를 들어, 엔트로피 인코딩 유닛 (56) 은 콘텍스트 적응 가변 길이 코딩 (CAVLC), 콘텍스트 적응 이진 산술 코딩 (CABAC), 신택스-기반 콘텍스트-적응 이진 산술 코딩 (SBAC), 확률 간격 분할 엔트로피 (PIPE) 코딩 또는 다른 엔트로피 코딩 기술을 수행할 수 있다. 콘텍스트-기반 엔트로피 코딩의 경우, 콘텍스트는 인접 블록들에 기초할 수 있다. 엔트로피 인코딩 유닛 (56) 에 의한 엔트로피 코딩 후에, 인코딩된 비트스트림은 다른 디바이스 (예를 들어, 비디오 디코더 (30)) 에 전송되거나 나중의 전송 또는 검색을 위해 보관될 수 있다.
역 양자화 유닛 (58) 및 역 변환 처리 유닛 (60) 은 픽셀 도메인의 잔여 블록을 재구성하기 위해 각각 역 양자화 및 역 변환을 적용한다. 특히, 서머 (62) 는, 레퍼런스 픽처 메모리 (64) 에 저장하기 위한 재구성된 비디오 블록을 생성하기 위해, 재구성된 잔여 블록을 모션 보상 유닛 (44) 또는 인트라-예측 처리 유닛 (46) 에 의해 앞서 생성된 모션 보상된 예측 블록에 추가한다. 재구성된 비디오 블록은 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 에 의해 후속 비디오 프레임에서 블록을 인터-코딩하기 위해 레퍼런스 블록으로서 사용될 수 있다.
도 15 는 양방향 옵티컬 플로우를 위한 기술을 구현할 수 있는 비디오 디코더 (30) 의 예를 도시한 블록도이다. 도 15 의 예에서, 비디오 디코더 (30) 는 엔트로피 디코딩 유닛 (70), 모션 보상 유닛 (72), 인트라-예측 처리 유닛 (74), 역 양자화 유닛 (76), 역 변환 처리 유닛 (78), 레퍼런스 픽처 메모리 (82) 및 서머 (80) 를 포함한다. 비디오 디코더 (30) 는, 일부 예들에서, 비디오 인코더 (20) (도 14) 와 관련하여 설명된 인코딩 패스에 일반적으로 상반적인 디코딩 패스를 수행할 수 있다. 모션 보상 유닛 (72) 은 엔트로피 디코딩 유닛 (70) 으로부터 수신된 모션 벡터에 기초하여 예측 데이터를 생성할 수 있는 한편, 인트라-예측 처리 유닛 (74) 은 엔트로피 디코딩 유닛 (70) 으로부터 수신된 인트라-예측 모드 표시자에 기초하여 예측 데이터를 생성할 수 있다.
디코딩 프로세스 동안, 비디오 디코더 (30) 는 비디오 인코더 (20) 로부터의 인코딩된 비디오 슬라이스 및 연관된 신택스 엘리먼트의 비디오 블록을 나타내는 인코딩된 비디오 비트스트림을 수신한다. 비디오 디코더 (30) 는 수신된 인코딩된 비디오 비트스트림을 비디오 데이터 메모리 (68) 에 저장한다. 비디오 데이터 메모리 (68) 는 비디오 디코더 (30) 의 컴포넌트에 의해 디코딩될, 인코딩된 비디오 비트스트림과 같은 비디오 데이터를 저장할 수 있다. 비디오 데이터 메모리 (68) 에 저장된 비디오 데이터는 예를 들어 컴퓨터 판독가능 매체 (16) 를 통해, 저장 매체로부터 또는 카메라와 같은 로컬 비디오 소스로부터, 또는 물리적 데이터 저장 매체에 액세스하여 얻어질 수 있다. 비디오 데이터 메모리 (85) 는 인코딩된 비디오 비트스트림으로부터 인코딩된 비디오 데이터를 저장하는 코딩된 픽처 버퍼 (CPB) 를 형성할 수 있다. 레퍼런스 픽처 메모리 (82) 는, 예를 들면 인트라-코딩 모드 또는 인터-코딩 모드로 비디오 디코더 (30) 에 의해 비디오 데이터를 디코딩하는데 사용하기 위한 레퍼런스 비디오 데이터를 저장하는 레퍼런스 픽처 메모리일 수 있다. 비디오 데이터 메모리 (68) 및 레퍼런스 픽처 메모리 (82) 는 DRAM, SDRAM, MRAM, RRAM 또는 다른 유형의 메모리 장치와 같은 임의의 다양한 메모리 장치에 의해 형성될 수 있다. 비디오 데이터 메모리 (68) 및 레퍼런스 픽처 메모리 (82) 는 동일 메모리 장치 또는 개별 메모리 장치에 의해 제공될 수 있다. 다양한 예들에서, 비디오 데이터 메모리 (68) 는 비디오 디코더 (30) 의 다른 구성요소들과 온-칩이거나, 또는 이들 구성요소들에 대해 오프-칩일 수 있다.
디코딩 프로세스 동안, 비디오 디코더 (30) 는 비디오 인코더 (20) 로부터 인코딩된 비디오 슬라이스 및 연관된 신택스 엘리먼트의 비디오 블록을 나타내는 인코딩된 비디오 비트스트림을 수신한다. 비디오 디코더 (30) 의 엔트로피 디코딩 유닛 (70) 은 비트스트림을 엔트로피 디코딩하여 양자화된 계수, 모션 벡터 또는 인트라-예측 모드 표시자, 및 다른 신택스 엘리먼트를 생성할 수 있다. 엔트로피 디코딩 유닛 (70) 은 모션 벡터 및 다른 신택스 엘리먼트를 모션 보상 유닛 (72) 에 전송한다. 비디오 디코더 (30) 는 비디오 슬라이스 레벨 및/또는 비디오 블록 레벨에서 신택스 엘리먼트를 수신할 수 있다.
비디오 슬라이스가 인트라-코딩된 (I) 슬라이스로서 코딩될 때, 인트라-예측 처리 유닛 (74) 은 현재 프레임 또는 픽처의 이전에 디코딩된 불록으로부터의 데이터 및 시그널링된 인트라-예측 모드에 기초하여 현재 비디오 슬라이스의 비디오 블록에 대한 예측 데이터를 생성할 수 있다. 비디오 프레임이 인터-코딩된 (즉, B, P 또는 GPB) 슬라이스로서 코딩될 때, 모션 보상 유닛 (72) 은 엔트로피 디코딩 유닛 (70) 으로부터 수신된 모션 벡터 및 다른 신택스 엘리먼트에 기초하여 현재 비디오 슬라이스의 비디오 블록에 대한 예측 블록을 생성한다. 예측 블록은 레퍼런스 픽처 리스트들 중 하나 내의 레퍼런스 픽처들 중의 하나로부터 생성될 수 있다. 비디오 디코더 (30) 는 레퍼런스 픽처 메모리 (82) 에 저장된 레퍼런스 픽처에 기초한 디폴트 구성 기술을 사용하여 레퍼런스 프레임 리스트, List 0 및 List 1 을 구성할 수 있다.
모션 보상 유닛 (72) 은 모션 벡터 및 다른 신택스 엘리먼트를 파싱 (parsing) 함으로써 현재 비디오 슬라이스의 비디오 블록에 대한 예측 정보를 결정하고, 예측 정보를 사용하여 디코딩되는 현재 비디오 블록에 대한 예측 블록을 생성한다. 예를 들어, 모션 보상 유닛 (72) 은 비디오 슬라이스의 비디오 블록을 코딩하는데 사용되는 예측 모드 (예를 들어, 인트라-예측 또는 인터-예측), 인터-예측 슬라이스 타입 (예를 들어, B 슬라이스, P 슬라이스, 또는 GPB 슬라이스), 슬라이스에 대한 하나 이상의 레퍼런스 픽처리스트에 대한 구성 정보, 슬라이스의 각각의 인터-인코딩된 비디오 블록에 대한 모션 벡터, 슬라이스의 각각의 인터-코딩된 비디오 블록에 대한 인터-예측 상태, 및 현재 비디오 슬라이스 내의 비디오 블록을 디코딩하는 다른 정보를 결정하기 위해 수신된 신택스 엘리먼트들의 일부를 사용한다.
또한 모션 보상 유닛 (72) 은 서브-픽셀 정밀도를 위한 보간 필터들에 기초하여 보간을 수행할 수 있다. 모션 보상 유닛 (72) 은 레퍼런스 블록들의 서브-정수 픽셀들에 대한 보간된 값들을 계산하기 위해 비디오 블록들을 인코딩하는 동안에 비디오 인코더 (20) 에 의해 사용되는 보간 필터들을 사용할 수 있다. 이 경우, 모션 보상 유닛 (72) 은 수신된 신택스 엘리먼트들로부터 비디오 인코더 (20) 에 의해 사용된 보간 필터들을 결정할 수 있고, 보간 필터들을 사용하여 예측 블록들을 생성할 수 있다.
또한, 모션 보상 유닛 (72) 은 (단독으로 또는 임의의 조합으로) 본 개시의 기술들의 일부 또는 전부를 수행하도록 구성될 수 있다. 예를 들어, 모션 보상 유닛 (72) 은 여기에서 논의된 BIO 기술을 수행하도록 구성될 수 있다.
역 양자화 유닛 (76) 은, 비트스트림에 제공되고 엔트로피 디코딩 유닛 (70) 에 의해 디코딩된 양자화된 변환 계수를 역 양자화한다. 역 양자화 프로세스는 양자화의 정도 및 마찬가지로 적용되어야 하는 역 양자화의 정도를 결정하기 위해 비디오 슬라이스 내의 각 비디오 블록에 대하여 비디오 디코더 (30) 에 의해 계산된 양자화 파라미터 QPY 의 사용을 포함할 수 있다.
역 변환 처리 유닛 (78) 은 픽셀 도메인에서 잔여 블록을 생성하기 위해 변환 계수에 역 변환, 예를 들어 역 DCT, 역 정수 변환 또는 개념적으로 유사한 역 변환 프로세스를 적용한다.
모션 보상 유닛 (72) 이 모션 벡터 및 다른 신택스 엘리먼트에 기초하여 현재 비디오 블록에 대한 예측 블록을 생성한 후, 비디오 디코더 (30) 는 역 변환 처리 유닛 (78) 으로부터의 잔여 블록을 모션 보상 유닛 (72) 에 의해 발생된 대응하는 예측 블록과 합산함으로써 디코딩된 비디오 블록을 형성한다. 서머 (80) 는 이러한 합산 작동을 수행하는 구성요소를 나타낸다. 원한다면, 블로키니스 아티팩트들을 제거하기 위해 디블로킹 필터가 또한 디코딩된 블록들을 필터링하도록 적용될 수 있다. 다른 루프 필터 (코딩 루프에서 또는 코딩 루프 이후에) 가 사용되어서 픽셀 전환을 매끄럽게하거나 비디오 품질을 향상시킬 수도 있다. 이어서, 주어진 프레임 또는 픽처 내의 디코딩된 비디오 블록은 차후의 모션 보상을 위해 사용되는 레퍼런스 픽처를 저장하는 레퍼런스 픽처 메모리 (82) 에 저장된다. 또한, 레퍼런스 픽처 메모리 (82) 는 도 1 의 표시 장치 (32) 와 같은 표시 장치 상에 나중에 표시하기 위해 디코딩된 비디오를 저장한다. 예를 들어, 레퍼런스 픽처 메모리 (82) 는 디코딩된 픽처를 저장할 수 있다.
도 16 은 본 개시의 기술에 따라 비디오 데이터를 디코딩하기 위한 비디오 디코더의 예시적인 동작을 도시하는 흐름도이다. 도 16 과 관련하여 설명된 비디오 디코더는, 예를 들어, 표시가능한 디코딩된 비디오를 출력하기 위한, 비디오 디코더 (30) 와 같은 비디오 디코더일 수 있거나, 또는, 역 양자화 유닛 (58), 역 변환 처리 유닛 (60), 서머 (62), 및 레퍼런스 픽처 메모리 (64) 뿐만 아니라 모드 선택 유닛 (40) 의 일부를 포함하는 비디오 인코더 (20) 의 디코딩 루프와 같은 비디오 인코더에서 구현되는 비디오 디코더일 수 있다.
도 16 의 기술에 따르면, 비디오 디코더는 양방향 인터 예측 모드를 사용하여 비디오 데이터의 블록이 인코딩되는지를 결정한다 (200). 비디오 디코더는 제 1 레퍼런스 픽처를 가리키는 블록에 대한 제 1 모션 벡터를 결정한다 (202). 비디오 디코더는 제 2 레퍼런스 픽처를 가리키는 블록에 대한 제 2 MV 를 결정하고, 제 1 레퍼런스 픽처는 제 2 레퍼런스 픽처와 상이하다 (204). 비디오 디코더는 제 1 레퍼런스 픽처에 제 1 예측 블록을 위치시키기 위해 제 1 MV 를 사용한다 (206). 비디오 디코더는 제 2 레퍼런스 픽처에 제 2 예측 블록을 위치시키기 위해 제 2 MV 를 사용한다 (208).
비디오 디코더는 제 1 예측 블록의 제 1 서브-블록에 대한 제 1 양의 BIO 를 결정한다 (210). 제 1 서브-블록은 블록에 대한 코딩 유닛, 예측 유닛 및 변환 유닛과 다를 수 있다. 제 1 양의 BIO 모션을 결정하기 위해, 비디오 디코더는 제 1 서브-블록 내의 샘플 및 제 1 서브-블록 외부의 샘플에 기초하여 제 1 양의 BIO 모션을 결정할 수도 있고, 다른 예에서는 제 1 서브-블록 내의 샘플에만 기초하여 제 1 양의 BIO 모션을 결정할 수도 있다. 제 1 양의 BIO 모션은 예를 들어 수평 성분 및 수직 성분을 포함하는 모션 벡터 필드를 포함할 수 있다.
비디오 디코더는 제 1 예측 블록의 제 1 서브-블록, 제 2 예측 블록의 제 1 서브-블록 및 제 1 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 1 최종 예측 서브-블록을 결정한다 (212). 제 1 예측 블록의 제 1 서브-블록, 제 2 예측 블록의 제 1 서브-블록, 및 제 1 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 1 최종 예측 서브-블록을 결정하기 위해, 비디오 디코더는 예를 들어, 전술한 방정식 (2) 를 사용하여 제 1 최종 예측 서브-블록을 결정할 수 있다.
비디오 디코더는 제 1 예측 블록의 제 2 서브-블록에 대한 제 2 양의 BIO 모션을 결정한다 (214). 제 2 서브-블록은 블록에 대한 코딩 유닛, 예측 유닛 및 변환 유닛과 다를 수 있다. 제 2 양의 BIO 모션을 결정하기 위해, 비디오 디코더는, 일부 예들에서, 제 2 서브-블록 내의 샘플 및 제 2 서브-블록 외부의 샘플에 기초하여 제 2 양의 BIO 모션을 결정할 수 있고, 다른 예에서는, 제 2 서브-블록 내의 샘플에만 기초하여 제 2 양의 BIO 모션을 결정할 수 있다. 제 2 양의 BIO 모션은, 예를 들어, 수평 성분 및 수직 성분을 포함하는 모션 벡터 필드를 포함할 수 있다.
비디오 디코더는 제 1 예측 블록의 제 2 서브-블록, 제 2 예측 블록의 제 2 서브-블록 및 제 2 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 2 최종 예측 서브-블록을 결정한다 (216). 제 1 예측 블록의 제 2 서브-블록, 제 2 예측 블록의 제 2 서브-블록 및 제 2 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 2 최종 예측 서브-블록을 결정하기 위해, 비디오 디코더는, 예를 들어, 방정식 (2) 를 사용하여 제 2 최종 예측 서브-블록을 결정할 수 있다.
비디오 디코더는 제 1 최종 예측 서브-블록 및 제 2 최종 예측 서브-블록에 기초하여 비디오 데이터의 블록에 대한 최종 예측 블록을 결정한다 (218). 비디오 디코더는, 예를 들어, 최종 예측 블록에 잔여 데이터를 부가하여 비디오 데이터의 블록에 대한 재구성된 블록을 결정할 수 있다. 비디오 디코더는 또한 비디오 데이터의 재구성된 블록에 대해 하나 이상의 필터링 프로세스를 수행할 수 있다.
비디오 디코더는 비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 출력한다 (220). 디코딩이 비디오 인코딩 프로세스의 디코딩 루프의 일부로서 수행될 때, 비디오 디코더는 예를 들어 레퍼런스 픽처 메모리에 픽처를 저장함으로써 픽처를 출력할 수 있고, 비디오 디코더는 비디오 데이터의 또 다른 픽처의 인코딩에 있어서 픽처를 레퍼런스 픽처로서 사용할 수 있다. 비디오 디코더가 표시가능한 디코딩된 비디오를 출력하도록 구성된 비디오 디코더인 경우, 비디오 디코더는 예를 들어 비디오 데이터의 픽처를 디스플레이 장치에 출력할 수 있다.
예에 따라, 여기에 설명된 기술들 중 임의의 것의 일정한 행위 또는 이벤트는 상이한 순서로 수행될 수 있고, 부가되거나, 합쳐지거나, 함께 생략될 수 있음이 인식되어야 한다 (예를 들어, 설명된 모든 행위 또는 이벤트가 기술의 실행을 위해 필요한 것은 아니다). 또한, 특정 예들에서, 행위 또는 이벤트는 예를 들어, 순차적인 것보다는, 멀티-스레디드 프로세싱, 인터럽트 프로세싱, 또는 다중 프로세서를 통해 동시에 수행될 수 있다.
하나 이상의 예들에서, 설명된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수 있다. 소프트웨어로 구현되는 경우, 기능들은 컴퓨터 판독가능 매체 상에서 하나 이상의 명령들 또는 코드로서 저장되거나 전송될 수 있고, 하드웨어-기반 프로세싱 유닛에 의해 실행될 수 있다. 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체를 포함할 수 있는데, 이는 유형의 매체, 예를 들어 데이터 저장 매체, 또는 예를 들어 통신 프로토콜에 따라 한 장소에서 다른 장소로 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함하는 통신 매체에 대응한다. 이러한 방식으로, 컴퓨터 판독가능 매체는 일반적으로 (1) 비일시적인 유형의 컴퓨터 판독가능 저장 매체 또는 (2) 신호 또는 반송파와 같은 통신 매체에 대응할 수 있다. 데이터 저장 매체는, 본 개시에서 설명된 기술의 구현을 위해 명령, 코드 및/또는 데이터 구조를 검색하기 위해 하나 이상의 컴퓨터 또는 하나 이상의 프로세서에 의해 액세스될 수 있는 임의의 이용가능한 매체일 수 있다. 컴퓨터 프로그램 제품은 컴퓨터 판독가능 매체를 포함할 수 있다.
예를 들어, 제한없이, 그러한 컴퓨터 판독가능 저장 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 저장장치, 자기 디스크 저장장치, 또는 다른 자기 저장장치, 플래시 메모리, 또는 명령 또는 데이터 구조의 형태로 원하는 프로그램 코드를 저장하는데 사용될 수 있고 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 접속은 적절하게 컴퓨터 판독가능 매체로 지칭된다. 예를 들어, 동축 케이블, 광섬유 케이블, 트위스트 페어, 디지털 가입자 회선 (DSL) 또는 적외선, 무선 및 마이크로파와 같은 무선 기술을 사용하여 웹사이트, 서버 또는 기타 원격 소스로부터 명령이 전송되는 경우, 동축 케이블, 광섬유 케이블, 트위스트 페어, DSL 또는 적외선, 무선 및 마이크로파와 같은 무선 기술은 매체의 정의에 포함된다. 그러나, 컴퓨터 판독가능 저장 매체 및 데이터 저장 매체는 접속부, 반송파, 신호 또는 다른 일시적인 매체를 포함하는 것이 아니라, 대신에 비일시적인 유형의 저장 매체로 지향된다는 것을 이해해야 한다. 본 명세서에서 사용되는 디스크 (disk) 및 디스크 (disc) 는 콤팩트 디스크 (CD), 레이저 디스크, 광학 디스크, 디지털 다기능 디스크 (DVD), 플로피 디스크 및 블루-레이 디스크를 포함하며, 디스크 (disk) 는 일반적으로 데이터를 자기적으로 재생하는 한편, 디스크 (disc) 는 데이터를 레이저로 광학적으로 재생한다. 상기의 조합은 또한 컴퓨터 판독가능 매체의 범위 내에 포함되어야 한다.
명령은 하나 이상의 프로세서, 예를 들어 하나 이상의 DSPs, 범용 마이크로프로세서, ASICs, FPGAs, 또는 다른 동등한 집적 또는 이산 논리 회로에 의해 실행될 수 있다. 따라서, 여기에서 사용되는 "프로세서" 라는 용어는 전술한 구조 또는 여기에 설명된 기술의 구현에 적합한 임의의 다른 구조를 지칭할 수 있다. 또한, 일부 양태들에서, 여기에 설명된 기능성은 인코딩 및 디코딩을 위해 구성된 전용 하드웨어 및/또는 소프트웨어 모듈 내에 제공되거나, 조합된 코덱에 통합될 수 있다. 또한, 기술은 하나 이상의 회로 또는 로직 요소에서 완전히 구현될 수 있다.
본 개시의 기술들은 무선 핸드셋, 집적 회로 (IC) 또는 ICs 세트 (예를 들어, 칩 세트) 를 포함하는 다양한 디바이스 또는 장치에서 구현될 수 있다. 다양한 구성요소, 모듈 또는 유닛은 개시된 기술을 수행하도록 구성된 장치의 기능적 측면을 강조하기 위해 본 개시에서 설명되지만, 반드시 상이한 하드웨어 유닛에 의한 구현을 필요로 하지는 않는다. 오히려, 전술한 바와 같이, 다양한 유닛들은, 적절한 소프트웨어 및/또는 펌웨어와 관련하여, 코덱 하드웨어 유닛에서 결합되거나, 전술한 하나 이상의 프로세서를 포함하는 상호작용 하드웨어 유닛들의 집합에 의해 제공될 수 있다.
다양한 예들이 기재되어 있다. 이들 및 다른 예들은 하기의 청구범위의 범위 내에 있다.

Claims (30)

  1. 비디오 데이터를 디코딩하는 방법으로서, 상기 방법은
    비디오 데이터의 블록이 양방향 인터 예측 모드를 사용하여 인코딩된다고 결정하는 단계;
    상기 블록에 대한 제 1 모션 벡터 (MV) 를 결정하는 단계로서, 상기 제 1 MV 는 제 1 레퍼런스 픽처를 지시하는, 상기 제 1 MV 를 결정하는 단계;
    상기 블록에 대한 제 2 MV 를 결정하는 단계로서, 상기 제 2 MV 는 제 2 레퍼런스 픽처를 지시하고, 상기 제 1 레퍼런스 픽처는 상기 제 2 레퍼런스 픽처와는 상이한, 상기 제 2 MV 를 결정하는 단계;
    상기 제 1 MV 를 이용하여, 상기 제 1 레퍼런스 픽처 내에 제 1 예측 블록을 위치시키는 단계;
    상기 제 2 MV 를 이용하여, 상기 제 2 레퍼런스 픽처 내에 제 2 예측 블록을 위치시키는 단계;
    상기 제 1 예측 블록의 제 1 서브-블록에 대하여, 제 1 양의 양방향 옵티컬 플로우 (BIO) 모션을 결정하는 단계;
    상기 제 1 예측 블록의 상기 제 1 서브-블록, 상기 제 2 예측 블록의 제 1 서브-블록 및 상기 제 1 양의 BIO 모션에 기초하여 상기 비디오 데이터의 블록에 대한 제 1 최종 예측 서브-블록을 결정하는 단계;
    상기 제 1 예측 블록의 제 2 서브-블록에 대하여, 제 2 양의 BIO 모션을 결정하는 단계;
    상기 제 1 예측 블록의 상기 제 2 서브-블록, 상기 제 2 예측 블록의 제 2 서브-블록 및 상기 제 2 양의 BIO 모션에 기초하여 상기 비디오 데이터의 블록에 대한 제 2 최종 예측 서브-블록을 결정하는 단계;
    상기 제 1 최종 예측 서브-블록 및 상기 제 2 최종 예측 서브-블록에 기초하여, 상기 비디오 데이터의 블록에 대한 최종 예측 블록을 결정하는 단계; 및
    상기 비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 출력하는 단계
    를 포함하는, 비디오 데이터를 디코딩하는 방법.
  2. 제 1 항에 있어서,
    상기 제 1 양의 BIO 모션을 결정하는 단계는, 상기 제 1 서브-블록 내의 샘플 및 상기 제 1 서브-블록 외부의 샘플에 기초하여 상기 제 1 양의 BIO 모션을 결정하는 것을 포함하는, 비디오 데이터를 디코딩하는 방법.
  3. 제 1 항에 있어서,
    상기 제 1 양의 BIO 모션을 결정하는 단계는, 상기 제 1 서브-블록 내의 샘플에만 기초하여 상기 제 1 양의 BIO 모션을 결정하는 것을 포함하는, 비디오 데이터를 디코딩하는 방법.
  4. 제 1 항에 있어서,
    상기 제 2 양의 BIO 모션을 결정하는 단계는, 상기 제 2 서브-블록 내의 샘플 및 상기 제 2 서브-블록 외부의 샘플에 기초하여 상기 제 2 양의 BIO 모션을 결정하는 것을 포함하는, 비디오 데이터를 디코딩하는 방법.
  5. 제 1 항에 있어서,
    상기 제 2 양의 BIO 모션을 결정하는 단계는, 상기 제 2 서브-블록 내의 샘플에만 기초하여 상기 제 2 양의 BIO 모션을 결정하는 것을 포함하는, 비디오 데이터를 디코딩하는 방법.
  6. 제 1 항에 있어서,
    상기 제 1 양의 BIO 모션은 수평 성분 및 수직 성분을 포함하는 모션 벡터 필드를 포함하는, 비디오 데이터를 디코딩하는 방법.
  7. 제 1 항에 있어서,
    상기 제 1 서브-블록은 상기 블록에 대한 코딩 유닛, 예측 유닛, 및 변환 유닛과는 상이한, 비디오 데이터를 디코딩하는 방법.
  8. 제 1 항에 있어서,
    상기 최종 예측 블록에 잔여 데이터를 추가하여, 비디오 데이터의 블록에 대한 재구성된 블록을 결정하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
  9. 제 1 항에 있어서,
    상기 제 1 예측 블록의 제 1 서브-블록, 상기 제 2 예측 블록의 제 1 서브-블록 및 상기 제 1 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 1 최종 예측 서브-블록을 결정하는 단계는, 하기의 방정식에 따라 제 1 최종 예측 서브-블록을 결정하는 것을 포함하는, 비디오 데이터를 디코딩하는 방법:

    여기서,
    predBI0 은 상기 제 1 최종 예측 서브-블록의 샘플 값을 포함하고;
    I(0) 은 상기 제 1 예측 블록의 상기 제 1 서브-블록의 샘플 값을 포함하고;
    I(1) 은 상기 제 2 예측 블록의 상기 제 1 서브-블록의 샘플 값을 포함하고;
    vx 는 상기 제 1 양의 BIO 모션의 수평 성분을 포함하고;
    vy 는 상기 제 1 양의 BIO 모션의 수직 성분을 포함하고;
    τ0 는 상기 제 1 레퍼런스 픽처까지의 거리를 포함하고;
    τ1 은 상기 제 2 레퍼런스 픽처까지의 거리를 포함함.
  10. 제 1 항에 있어서,
    상기 디코딩하는 방법은 비디오 인코딩 프로세스의 디코딩 루프의 일부로서 수행되고,
    상기 비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 출력하는 단계는, 상기 비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 레퍼런스 픽처 메모리에 저장하는 것을 포함하고,
    상기 방법은 추가로
    상기 비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 상기 비디오 데이터의 다른 픽처를 인코딩할 때의 레퍼런스 픽처로서 이용하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  11. 제 1 항에 있어서,
    상기 비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 출력하는 단계는, 상기 비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 디스플레이 장치에 출력하는 것을 포함하는, 비디오 데이터를 디코딩하는 방법.
  12. 비디오 데이터를 디코딩하는 장치로서, 상기 장치는
    비디오 데이터를 저장하도록 구성된 메모리, 및
    비디오 데이터의 블록이 양방향 인터 예측 모드를 사용하여 인코딩된다고 결정하도록,
    제 1 레퍼런스 픽처를 지시하는, 상기 블록에 대한 제 1 모션 벡터 (MV) 를 결정하도록,
    상기 제 1 레퍼런스 픽처와는 상이한 제 2 레퍼런스 픽처를 지시하는, 상기 블록에 대한 제 2 MV 를 결정하도록,
    상기 제 1 MV 를 이용하여, 상기 제 1 레퍼런스 픽처 내에 제 1 예측 블록을 위치시키도록,
    상기 제 2 MV 를 이용하여, 상기 제 2 레퍼런스 픽처 내에 제 2 예측 블록을 위치시키도록,
    상기 제 1 예측 블록의 제 1 서브-블록에 대하여, 제 1 양의 양방향 옵티컬 플로우 (BIO) 모션을 결정하도록,
    상기 제 1 예측 블록의 제 1 서브-블록, 상기 제 2 예측 블록의 제 1 서브-블록 및 상기 제 1 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 1 최종 예측 서브-블록을 결정하도록,
    상기 제 1 예측 블록의 제 2 서브-블록에 대하여, 제 2 양의 BIO 모션을 결정하도록,
    상기 제 1 예측 블록의 제 2 서브-블록, 상기 제 2 예측 블록의 제 2 서브-블록 및 상기 제 2 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 2 최종 예측 서브-블록을 결정하도록,
    상기 제 1 최종 예측 서브-블록 및 상기 제 2 최종 예측 서브-블록에 기초하여, 비디오 데이터의 블록에 대한 최종 예측 블록을 결정하도록, 그리고
    비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 출력하도록
    구성된 하나 이상의 프로세서
    를 포함하는, 비디오 데이터를 디코딩하는 장치.
  13. 제 12 항에 있어서,
    상기 제 1 양의 BIO 모션을 결정하기 위해, 상기 하나 이상의 프로세서는 상기 제 1 서브-블록 내의 샘플 및 상기 제 1 서브-블록 외부의 샘플에 기초하여 상기 제 1 양의 BIO 모션을 결정하도록 구성되는, 비디오 데이터를 디코딩하는 장치.
  14. 제 12 항에 있어서,
    상기 제 1 양의 BIO 모션을 결정하기 위해, 상기 하나 이상의 프로세서는 상기 제 1 서브-블록 내의 샘플에만 기초하여 상기 제 1 양의 BIO 모션을 결정하도록 구성되는, 비디오 데이터를 디코딩하는 장치.
  15. 제 12 항에 있어서,
    상기 제 2 양의 BIO 모션을 결정하기 위해, 상기 하나 이상의 프로세서는 상기 제 2 서브-블록 내의 샘플 및 상기 제 2 서브-블록 외부의 샘플에 기초하여 상기 제 2 양의 BIO 모션을 결정하도록 구성되는, 비디오 데이터를 디코딩하는 장치.
  16. 제 12 항에 있어서,
    상기 제 2 양의 BIO 모션을 결정하기 위해, 상기 하나 이상의 프로세서는 상기 제 2 서브-블록 내의 샘플에만 기초하여 상기 제 2 양의 BIO 모션을 결정하도록 구성되는, 비디오 데이터를 디코딩하는 장치.
  17. 제 12 항에 있어서,
    상기 제 1 양의 BIO 모션은 수평 성분 및 수직 성분을 포함하는 모션 벡터 필드를 포함하는, 비디오 데이터를 디코딩하는 장치.
  18. 제 12 항에 있어서,
    상기 제 1 서브-블록은 상기 블록에 대한 코딩 유닛, 예측 유닛, 및 변환 유닛과는 상이한, 비디오 데이터를 디코딩하는 장치.
  19. 제 12 항에 있어서,
    상기 하나 이상의 프로세서는 상기 최종 예측 블록에 잔여 데이터를 추가하여, 비디오 데이터의 블록에 대한 재구성된 블록을 결정하도록 구성되는, 비디오 데이터를 디코딩하는 장치.
  20. 제 12 항에 있어서,
    상기 제 1 예측 블록의 제 1 서브-블록, 상기 제 2 예측 블록의 제 1 서브-블록 및 상기 제 1 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 1 최종 예측 서브-블록을 결정하기 위해, 상기 하나 이상의 프로세서는 하기의 방정식에 따라 제 1 최종 예측 서브-블록을 결정하도록 구성되는, 비디오 데이터를 디코딩하는 장치:

    여기서,
    predBI0 은 상기 제 1 최종 예측 서브-블록의 샘플 값을 포함하고;
    I(0) 은 상기 제 1 예측 블록의 상기 제 1 서브-블록의 샘플 값을 포함하고;
    I(1) 은 상기 제 2 예측 블록의 상기 제 1 서브-블록의 샘플 값을 포함하고;
    vx 는 상기 제 1 양의 BIO 모션의 수평 성분을 포함하고;
    vy 는 상기 제 1 양의 BIO 모션의 수직 성분을 포함하고;
    τ0 는 상기 제 1 레퍼런스 픽처까지의 거리를 포함하고;
    τ1 은 상기 제 2 레퍼런스 픽처까지의 거리를 포함함.
  21. 제 12 항에 있어서,
    상기 하나 이상의 프로세서는 상기 비디오 데이터를 비디오 인코딩 프로세스의 디코딩 루프의 일부로서 디코딩하고,
    상기 비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 출력하기 위해, 상기 하나 이상의 프로세서는 상기 비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 레퍼런스 픽처 메모리에 저장하도록 구성되고,
    상기 하나 이상의 프로세서는 추가로
    상기 비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 상기 비디오 데이터의 다른 픽처를 인코딩할 때의 레퍼런스 픽처로서 이용하도록 구성되는, 비디오 데이터를 디코딩하는 장치.
  22. 제 12 항에 있어서,
    상기 비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 출력하기 위해, 상기 하나 이상의 프로세서는 상기 비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 디스플레이 장치에 출력하도록 구성되는, 비디오 데이터를 디코딩하는 장치.
  23. 제 12 항에 있어서,
    상기 장치는 무선 통신 장치를 포함하고, 인코딩된 비디오 데이터를 수신하도록 구성된 수신기를 더 포함하는, 비디오 데이터를 디코딩하는 장치.
  24. 제 23 항에 있어서,
    상기 무선 통신 장치는 전화 핸드셋을 포함하고, 상기 수신기는, 무선 통신 표준에 따라, 상기 인코딩된 비디오 데이터를 포함하는 신호를 복조하도록 구성되는, 비디오 데이터를 디코딩하는 장치.
  25. 제 12 항에 있어서,
    상기 장치는 무선 통신 장치를 포함하고, 인코딩된 비디오 데이터를 송신하도록 구성된 송신기를 더 포함하는, 비디오 데이터를 디코딩하는 장치.
  26. 제 25 항에 있어서,
    상기 무선 통신 장치는 전화 핸드셋을 포함하고, 상기 송신기는, 무선 통신 표준에 따라, 상기 인코딩된 비디오 데이터를 포함하는 신호를 변조하도록 구성되는, 비디오 데이터를 디코딩하는 장치.
  27. 하나 이상의 프로세서에 의해 실행될 때에 상기 하나 이상의 프로세서로 하여금
    비디오 데이터의 블록이 양방향 인터 예측 모드를 사용하여 인코딩된다고 결정하도록,
    제 1 레퍼런스 픽처를 지시하는, 상기 블록에 대한 제 1 모션 벡터 (MV) 를 결정하도록,
    상기 제 1 레퍼런스 픽처와는 상이한 제 2 레퍼런스 픽처를 지시하는, 상기 블록에 대한 제 2 MV 를 결정하도록,
    상기 제 1 MV 를 이용하여, 상기 제 1 레퍼런스 픽처 내에 제 1 예측 블록을 위치시키도록,
    상기 제 2 MV 를 이용하여, 상기 제 2 레퍼런스 픽처 내에 제 2 예측 블록을 위치시키도록,
    상기 제 1 예측 블록의 제 1 서브-블록에 대하여, 제 1 양의 양방향 옵티컬 플로우 (BIO) 모션을 결정하도록,
    상기 제 1 예측 블록의 제 1 서브-블록, 상기 제 2 예측 블록의 제 1 서브-블록 및 상기 제 1 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 1 최종 예측 서브-블록을 결정하도록,
    상기 제 1 예측 블록의 제 2 서브-블록에 대하여, 제 2 양의 BIO 모션을 결정하도록,
    상기 제 1 예측 블록의 제 2 서브-블록, 상기 제 2 예측 블록의 제 2 서브-블록 및 상기 제 2 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 2 최종 예측 서브-블록을 결정하도록,
    상기 제 1 최종 예측 서브-블록 및 상기 제 2 최종 예측 서브-블록에 기초하여, 비디오 데이터의 블록에 대한 최종 예측 블록을 결정하도록, 그리고
    비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 출력하도록
    하게 하는 명령들을 저장하는, 컴퓨터 판독가능한 저장 매체.
  28. 제 27 항에 있어서,
    상기 제 1 양의 BIO 모션은 수평 성분 및 수직 성분을 포함하는 모션 벡터 필드를 포함하는, 컴퓨터 판독가능한 저장 매체.
  29. 제 27 항에 있어서,
    상기 제 1 서브-블록은 상기 블록에 대한 코딩 유닛, 예측 유닛, 및 변환 유닛과는 상이한, 컴퓨터 판독가능한 저장 매체.
  30. 비디오 데이터를 디코딩하는 장치로서,
    비디오 데이터의 블록이 양방향 인터 예측 모드를 사용하여 인코딩된다고 결정하는 수단;
    상기 블록에 대한 제 1 모션 벡터 (MV) 를 결정하는 수단으로서, 상기 제 1 MV 는 제 1 레퍼런스 픽처를 지시하는, 상기 제 1 MV 를 결정하는 수단;
    상기 블록에 대한 제 2 MV 를 결정하는 수단으로서, 상기 제 2 MV 는 제 2 레퍼런스 픽처를 지시하고, 상기 제 1 레퍼런스 픽처는 상기 제 2 레퍼런스 픽처와는 상이한, 상기 제 2 MV 를 결정하는 수단;
    상기 제 1 MV 를 이용하여, 상기 제 1 레퍼런스 픽처 내에 제 1 예측 블록을 위치시키는 수단;
    상기 제 2 MV 를 이용하여, 상기 제 2 레퍼런스 픽처 내에 제 2 예측 블록을 위치시키는 수단;
    상기 제 1 예측 블록의 제 1 서브-블록에 대하여, 제 1 양의 양방향 옵티컬 플로우 (BIO) 모션을 결정하는 수단;
    상기 제 1 예측 블록의 제 1 서브-블록, 상기 제 2 예측 블록의 제 1 서브-블록 및 상기 제 1 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 1 최종 예측 서브-블록을 결정하는 수단;
    상기 제 1 예측 블록의 제 2 서브-블록에 대하여, 제 2 양의 BIO 모션을 결정하는 수단;
    상기 제 1 예측 블록의 제 2 서브-블록, 상기 제 2 예측 블록의 제 2 서브-블록 및 상기 제 2 양의 BIO 모션에 기초하여 비디오 데이터의 블록에 대한 제 2 최종 예측 서브-블록을 결정하는 수단;
    상기 제 1 최종 예측 서브-블록 및 상기 제 2 최종 예측 서브-블록에 기초하여, 비디오 데이터의 블록에 대한 최종 예측 블록을 결정하는 수단; 및
    비디오 데이터의 블록의 디코딩된 버전을 포함하는 비디오 데이터의 픽처를 출력하는 수단
    을 포함하는, 비디오 데이터를 디코딩하는 장치.
KR1020197019234A 2017-01-04 2018-01-04 양방향 옵티컬 플로우 (bio) 를 위한 모션 벡터 재구성 KR102579523B1 (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201762442357P 2017-01-04 2017-01-04
US62/442,357 2017-01-04
US201762445152P 2017-01-11 2017-01-11
US62/445,152 2017-01-11
US15/861,515 US10931969B2 (en) 2017-01-04 2018-01-03 Motion vector reconstructions for bi-directional optical flow (BIO)
US15/861,515 2018-01-03
PCT/US2018/012360 WO2018129172A1 (en) 2017-01-04 2018-01-04 Motion vector reconstructions for bi-directional optical flow (bio)

Publications (2)

Publication Number Publication Date
KR20190103171A KR20190103171A (ko) 2019-09-04
KR102579523B1 true KR102579523B1 (ko) 2023-09-15

Family

ID=62711435

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197019234A KR102579523B1 (ko) 2017-01-04 2018-01-04 양방향 옵티컬 플로우 (bio) 를 위한 모션 벡터 재구성

Country Status (13)

Country Link
US (1) US10931969B2 (ko)
EP (1) EP3566441A1 (ko)
JP (1) JP7159166B2 (ko)
KR (1) KR102579523B1 (ko)
CN (1) CN110036638B (ko)
AU (1) AU2018205783B2 (ko)
BR (1) BR112019013684A2 (ko)
CA (1) CA3043050A1 (ko)
CL (1) CL2019001393A1 (ko)
CO (1) CO2019007120A2 (ko)
TW (1) TWI761415B (ko)
WO (1) WO2018129172A1 (ko)
ZA (1) ZA201904373B (ko)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114615493A (zh) * 2016-03-24 2022-06-10 英迪股份有限公司 视频解码方法、视频编码方法和可读记录介质
MX2019000506A (es) 2016-07-14 2019-03-28 Samsung Electronics Co Ltd Metodo de decodificacion de video y dispositivo para ello y metodo de codificacion de video y dispositivo para ello.
CN117014630A (zh) 2017-04-27 2023-11-07 松下电器(美国)知识产权公司 解码方法、编码方法以及发送方法
CN116866586A (zh) 2017-05-17 2023-10-10 株式会社Kt 对图像解码的方法以及存储压缩视频数据的装置
WO2018212111A1 (ja) 2017-05-19 2018-11-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
JPWO2019003993A1 (ja) * 2017-06-26 2019-12-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 符号化装置、復号装置、符号化方法及び復号方法
KR20240025058A (ko) * 2017-12-14 2024-02-26 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치
JP7339890B2 (ja) * 2018-02-06 2023-09-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置及び復号装置
US11109053B2 (en) * 2018-03-05 2021-08-31 Panasonic Intellectual Property Corporation Of America Encoding method, decoding method, encoder, and decoder
EP3777167A1 (en) * 2018-03-30 2021-02-17 Vid Scale, Inc. Template-based inter prediction techniques based on encoding and decoding latency reduction
WO2019204234A1 (en) * 2018-04-15 2019-10-24 Arris Enterprises Llc Unequal weight planar motion vector derivation
CN116684594A (zh) * 2018-04-30 2023-09-01 寰发股份有限公司 照度补偿方法及相应的电子装置
JP7104186B2 (ja) * 2018-06-05 2022-07-20 北京字節跳動網絡技術有限公司 Ibcとatmvpとの間でのインタラクション
EP3804324A4 (en) 2018-06-11 2022-08-03 HFI Innovation Inc. BIDIRECTIONAL OPTICAL FLOW METHOD AND APPARATUS FOR VIDEO CODING
CN110636297B (zh) 2018-06-21 2021-05-14 北京字节跳动网络技术有限公司 分量相关的子块分割
CN110636298B (zh) 2018-06-21 2022-09-13 北京字节跳动网络技术有限公司 对于Merge仿射模式和非Merge仿射模式的统一约束
CN112585972B (zh) * 2018-08-17 2024-02-09 寰发股份有限公司 视频编解码的帧间预测方法及装置
MX2021001833A (es) * 2018-08-17 2021-05-12 Hfi Innovation Inc Metodos y aparatos de procesamiento de video con prediccion bidireccional en sistemas de codificacion de video.
US11245922B2 (en) 2018-08-17 2022-02-08 Mediatek Inc. Shared candidate list
US11665365B2 (en) 2018-09-14 2023-05-30 Google Llc Motion prediction coding with coframe motion vectors
JP7311589B2 (ja) 2018-09-21 2023-07-19 ヴィド スケール インコーポレイテッド 双方向オプティカルフローのための複雑性低減およびビット幅制御
WO2020065518A1 (en) 2018-09-24 2020-04-02 Beijing Bytedance Network Technology Co., Ltd. Bi-prediction with weights in video coding and decoding
US11146800B2 (en) * 2018-09-24 2021-10-12 Tencent America LLC Low latency local illumination compensation
TW202029755A (zh) * 2018-09-26 2020-08-01 美商Vid衡器股份有限公司 視訊編碼雙預測
CN111010569B (zh) 2018-10-06 2023-02-28 北京字节跳动网络技术有限公司 Bio中的时间梯度计算的改善
WO2020084476A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Sub-block based prediction
WO2020084475A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Utilization of refined motion vector
WO2020084460A1 (en) * 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Decoder side motion vector derivation in the presence of multi-hypothesis prediction
WO2020084553A1 (en) 2018-10-24 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Motion candidate derivation based on multiple information in sub-block motion vector prediction
JP7231727B2 (ja) 2018-11-05 2023-03-01 北京字節跳動網絡技術有限公司 精緻化を伴うインター予測のための補間
CN112997480B (zh) 2018-11-10 2023-08-22 北京字节跳动网络技术有限公司 成对平均候选计算中的取整
CN117459722A (zh) 2018-11-12 2024-01-26 北京字节跳动网络技术有限公司 组合帧间-帧内预测的简化
EP3861742A4 (en) 2018-11-20 2022-04-13 Beijing Bytedance Network Technology Co., Ltd. DIFFERENCE CALCULATION BASED ON SPATIAL POSITION
WO2020103870A1 (en) * 2018-11-20 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Inter prediction with refinement in video processing
KR102660160B1 (ko) 2018-11-22 2024-04-24 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 서브 블록 기반 인터 예측을 위한 조정 방법
KR102572355B1 (ko) 2018-11-30 2023-08-30 텐센트 아메리카 엘엘씨 비디오 코딩을 위한 방법 및 장치
IL310462A (en) * 2018-12-21 2024-03-01 Vid Scale Inc Differential coding of a symmetric motion vector
CN113196763B (zh) * 2018-12-21 2024-04-12 北京字节跳动网络技术有限公司 使用多项式模型的帧内预测
WO2020177755A1 (en) 2019-03-06 2020-09-10 Beijing Bytedance Network Technology Co., Ltd. Usage of converted uni-prediction candidate
JP6867611B2 (ja) * 2019-03-11 2021-04-28 Kddi株式会社 画像復号装置、画像復号方法及びプログラム
KR20210114061A (ko) * 2019-03-12 2021-09-17 엘지전자 주식회사 Dmvr 및 bdof 기반의 인터 예측 방법 및 장치
TWI738248B (zh) 2019-03-14 2021-09-01 聯發科技股份有限公司 運動細化以及子分區基礎填充的視訊處理的方法以及裝置
CN113632484A (zh) 2019-03-15 2021-11-09 北京达佳互联信息技术有限公司 用于双向光流的比特宽度控制的方法和设备
JP2022525876A (ja) 2019-03-17 2022-05-20 北京字節跳動網絡技術有限公司 オプティカルフローベースの予測精緻化の計算
EP3922014A4 (en) 2019-04-02 2022-04-06 Beijing Bytedance Network Technology Co., Ltd. DECODER SIDE MOTION VECTOR BYPASS
KR20220006055A (ko) * 2019-05-11 2022-01-14 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 다중 인트라 코딩 방법 사이의 상호 작용
CN117714682A (zh) 2019-05-21 2024-03-15 北京字节跳动网络技术有限公司 子块Merge模式中的语法信令
CN113411610B (zh) * 2019-06-21 2022-05-27 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
AU2020298425A1 (en) * 2019-06-21 2021-12-23 Panasonic Intellectual Property Corporation Of America Encoder, decoder, encoding method, and decoding method
US11272203B2 (en) * 2019-07-23 2022-03-08 Tencent America LLC Method and apparatus for video coding
CN114208184A (zh) 2019-08-13 2022-03-18 北京字节跳动网络技术有限公司 基于子块的帧间预测中的运动精度
KR20220061240A (ko) 2019-09-20 2022-05-12 텔레호낙티에볼라게트 엘엠 에릭슨(피유비엘) 시프트 동작들에 대한 양방향 광학 흐름 단순화를 이용한 비디오 인코딩 및/또는 디코딩 방법들 및 관련 장치
CN114424553A (zh) 2019-09-22 2022-04-29 北京字节跳动网络技术有限公司 基于子块的帧间预测的缩放方法
CN112868236A (zh) * 2019-09-24 2021-05-28 北京大学 视频处理方法和装置
WO2020256601A2 (en) * 2019-10-03 2020-12-24 Huawei Technologies Co., Ltd. Method and apparatus of picture-level signaling for bidirectional optical flow and decoder side motion vector refinement
CN117676135A (zh) 2019-10-18 2024-03-08 北京字节跳动网络技术有限公司 子图片与环路滤波之间的相互影响
US20210337192A1 (en) * 2020-04-24 2021-10-28 Realtek Semiconductor Corp. Image processing method and associated encoder

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003061293A1 (en) * 2002-01-17 2003-07-24 Koninklijke Philips Electronics N.V. Unit for and method of estimating a current motion vector
JP2007179354A (ja) * 2005-12-28 2007-07-12 Fujitsu Ltd オプティカルフロー算出装置、オプティカルフロー算出方法、オプティカルフロー算出プログラムおよび記録媒体
WO2011126309A2 (ko) * 2010-04-06 2011-10-13 삼성전자 주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
CN103039075B (zh) * 2010-05-21 2015-11-25 Jvc建伍株式会社 图像编码装置、图像编码方法、以及图像解码装置、图像解码方法
JP5686019B2 (ja) * 2010-05-21 2015-03-18 株式会社Jvcケンウッド 画像復号装置、画像復号方法および画像復号プログラム
CN103327327B (zh) * 2013-06-03 2016-03-30 电子科技大学 用于高性能视频编码hevc的帧间预测编码单元选择方法
WO2017036399A1 (en) * 2015-09-02 2017-03-09 Mediatek Inc. Method and apparatus of motion compensation for video coding based on bi prediction optical flow techniques
CN105261038B (zh) * 2015-09-30 2018-02-27 华南理工大学 基于双向光流和感知哈希的指尖跟踪方法
CN115118971A (zh) * 2016-05-13 2022-09-27 Vid拓展公司 用于视频编码的通用式多假设预测的系统及方法
WO2017205704A1 (en) * 2016-05-25 2017-11-30 Arris Enterprises Llc General block partitioning method
KR20230085949A (ko) * 2016-12-27 2023-06-14 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 부호화 장치, 복호 장치, 부호화 방법 및 복호 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A.Alshin, et al. EE3:bi-directional optical flow w/o block extension, Joint Video exploration Team(JVET), JVET-E0028, 2017-01-03, pp. 1-4*
Jianle Chen, et al. Algorithm Description of Joint Exploration Test Model 3, Joint Video exploration Team(JVET), JVET-D1001_v1, 2016-10-28, pp. 1-35*

Also Published As

Publication number Publication date
US20180192072A1 (en) 2018-07-05
JP7159166B2 (ja) 2022-10-24
CN110036638A (zh) 2019-07-19
CN110036638B (zh) 2023-06-27
CO2019007120A2 (es) 2019-09-18
WO2018129172A1 (en) 2018-07-12
CL2019001393A1 (es) 2019-09-27
ZA201904373B (en) 2023-03-29
BR112019013684A2 (pt) 2020-01-28
JP2020503799A (ja) 2020-01-30
US10931969B2 (en) 2021-02-23
TW201830966A (zh) 2018-08-16
TWI761415B (zh) 2022-04-21
AU2018205783A1 (en) 2019-05-23
CA3043050A1 (en) 2018-07-12
EP3566441A1 (en) 2019-11-13
KR20190103171A (ko) 2019-09-04
AU2018205783B2 (en) 2023-02-02

Similar Documents

Publication Publication Date Title
KR102579523B1 (ko) 양방향 옵티컬 플로우 (bio) 를 위한 모션 벡터 재구성
KR102576307B1 (ko) 양방향 광학 흐름 (bio) 에 기초한 인터 예측 정제
CN111602399B (zh) 改进的解码器侧运动矢量推导
CN110915214B (zh) 用于运动向量推导的基于部分重构建的模板匹配
CN110754087B (zh) 用于双向光学流(bio)的高效存储器带宽设计
KR102519779B1 (ko) 비디오 코딩에서의 서브-블록들에 대한 모션 정보 유도
WO2018175756A1 (en) Decoder-side motion vector derivation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant