KR20150076235A - 비디오 코딩을 위한 참조 화상 상태 - Google Patents
비디오 코딩을 위한 참조 화상 상태 Download PDFInfo
- Publication number
- KR20150076235A KR20150076235A KR1020157013714A KR20157013714A KR20150076235A KR 20150076235 A KR20150076235 A KR 20150076235A KR 1020157013714 A KR1020157013714 A KR 1020157013714A KR 20157013714 A KR20157013714 A KR 20157013714A KR 20150076235 A KR20150076235 A KR 20150076235A
- Authority
- KR
- South Korea
- Prior art keywords
- picture
- video
- motion vector
- video block
- state information
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/58—Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/583—Motion compensation with overlapping blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
본 개시의 기법들은 일반적으로 화상들의 참조 상태들에 관련될 수도 있다. 그 기법들은 화상이 코딩되는 인스턴스에서 화상의 참조 화상들의 참조 상태 정보를 저장할 수도 있다. 그 기법들은 그 후 후속하는 화상의 비디오 블록들을 인터 예측하기 위해, 화상이 코딩되었던 인스턴스에서, 화상의 참조 화상들의 참조 상태 정보를 이용할 수도 있다.
Description
본 출원은 2012년 10월 25일자로 출원된 미국 가출원 제 61/718,629 호의 이익을 주장하며, 그 전체의 내용이 여기에 참조로 포함된다.
본 개시는 비디오 코딩에 관한 것으로서, 특히 비디오 코딩을 위한 참조 화상 상태에 관련된 기법들에 관한 것이다.
디지털 비디오 성능들은 디지털 텔레비젼들, 디지털 다이렉트 브로드캐스트 시스템들, 무선 브로드캐스트 시스템들, 개인용 휴대정보단말들 (PDAs), 랩톱 또는 데스크톱 컴퓨터들, 태블릿 컴퓨터들, e-북 판독기들, 디지털 카메라들, 디지털 리코딩 디바이스들, 디지털 미디오 플레이어들, 비디오 게이밍 디바이스들, 비디오 게임 콘솔들, 셀룰러 또는 위성 무선 전화들, 소위 "스마트 폰들", 비디오 화상회의 디바이스, 비디오 스트리밍 디바이스들 등을 포함하는 광범위한 디바이스들로 통합될 수 있다. 디지털 비디오 디바이스들은 MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264/MPEG-4, Part 10, 진보된 비디오 코딩 (AVC), 현재 개발 중인 고효율 비디오 코딩 (HEVC) 표준에 의해 정의된 표준들, 및 그러한 표준들의 확장들에 기술된 것들과 같은 비디오 압축 기법들을 구현한다. 비디오 디바이스들은 그러한 비디오 압축 기법들을 구현함으로써 더 효율적으로 디지털 비디오 정보를 송신, 수신, 인코딩, 디코딩, 및/또는 저장할 수도 있다.
비디오 압축 기법들은 비디오 시퀀스들에 고유한 리던던시를 감소시키거나 제거하기 위해 공간 (인트라-화상) 예측 및/또는 시간 (인터-화상) 예측을 수행한다. 블록 기반 비디오 코딩의 경우, 비디오 슬라이스 (즉, 비디오 프레임 또는 비디오 프레임의 일부) 는 트리블록들, 코딩 유닛들 (CUs) 및/또는 코딩 노드들로서도 지칭될 수도 있는 비디오 블록들로 파티셔닝될 수도 있다. 화상의 인트라 코딩된 (I) 슬라이스에서의 비디오 블록들은 동일한 화상 내의 이웃하는 블록들에서의 참조 샘플들에 대한 공간 예측을 사용하여 인코딩된다. 화상의 인터 코딩된 (P 또는 B) 슬라이스에서의 비디오 블록들은 동일한 화상 내의 이웃하는 블록들에서의 참조 샘플들에 대한 공간 예측 또는 다른 참조 화상들 내의 참조 샘플들에 대한 시간 예측을 사용할 수도 있다. 화상들은 프레임들로서 지칭될 수도 있고, 참조 화상들은 참조 프레임들로서 지칭될 수도 있다.
공간 또는 시간 예측은 코딩될 블록에 대한 예측 블록을 초래한다. 레지듀얼 데이터는 코딩될 오리지날 블록과 예측 블록 사이의 화소 차이들을 나타낸다. 인터 코딩된 블록은 예측 블록을 형성하는 참조 샘플들의 블록을 가리키는 모션 벡터, 및 코딩된 블록과 예측 블록 사이의 차이를 나타내는 레지듀얼 데이터에 따라 인코딩된다. 인트라 코딩된 블록은 인트라 코딩 모드 및 레지듀얼 데이터에 따라 인코딩된다. 추가의 압축을 위해, 레지듀얼 데이터는 화소 도메인으로부터 변환 도메인으로 변환되어, 그 후 양자화될 수도 있는 레지듀얼 변환 계수들을 초래한다. 초기에 2차원 배열로 배열된 양자화된 변환 계수들은 변환 계수들의 1차원 벡터를 생성하기 위해 스캐닝될 수도 있고, 엔트로피 코딩이 훨씬 많은 압축을 달성하기 위해 적용될 수도 있다.
본 개시에 기술된 기법들은 일반적으로 비디오 코딩 프로세서, 및 하나 이상의 참조 화상들을 사용하는 화상이 코딩되는 인스턴스에서 참조 화상들의 참조 상태 정보를 저장하는 것에 관련된다. 이러한 방식으로, 참조 화상들의 참조 상태가 후속적으로 변화하더라도, 비디오 코더는 화상이 코딩되었던 인스턴스에서 참조 화상들의 참조 상태를 결정할 수 있다.
하나의 예에서, 본 개시는 비디오 데이터를 코딩하는 방법을 기술한다. 그 방법은 제 1 화상의 하나 이상의 참조 화상들의 참조 상태 정보를 저장하는 단계로서, 상기 참조 상태 정보는 제 1 화상이 코딩되는 인스턴스에서 하나 이상의 참조 화상들의 참조 상태 정보를 나타내는, 상기 참조 상태 정보를 저장하는 단계, 및 제 1 화상이 코딩되었던 인스턴스에서, 제 1 화상의 하나 이상의 참조 화상들의 저장된 참조 상태 정보에 기초하여 제 2 의 상이한 화상 내의 비디오 블록을 코딩하는 단계를 포함한다.
하나의 예에서, 본 개시는 비디오 데이터를 코딩하는 장치를 기술한다. 그 장치는 제 1 화상의 하나 이상의 참조 화상들의 참조 상태 정보를 저장하는 것으로서, 상기 참조 상태 정보는 제 1 화상이 코딩되는 인스턴스에서 하나 이상의 참조 화상들의 참조 상태 정보를 나타내는, 상기 참조 상태 정보를 저장하고; 제 1 화상이 코딩되었던 인스턴스에서, 제 1 화상의 하나 이상의 참조 화상들의 저장된 참조 상태 정보에 기초하여 제 2 의 상이한 화상 내의 비디오 블록을 코딩하도록 구성된 비디오 코더를 포함한다.
하나의 예에서, 본 개시는 비디오 데이터를 코딩하는 장치를 기술한다. 그 장치는 제 1 화상의 하나 이상의 참조 화상들의 참조 상태 정보를 저장하는 수단으로서, 상기 참조 상태 정보는 제 1 화상이 코딩되는 인스턴스에서 하나 이상의 참조 화상들의 참조 상태 정보를 나타내는, 상기 참조 상태 정보를 저장하는 수단, 및 제 1 화상이 코딩되었던 인스턴스에서, 제 1 화상의 하나 이상의 참조 화상들의 저장된 참조 상태 정보에 기초하여 제 2 의 상이한 화상 내의 비디오 블록을 코딩하는 수단을 포함한다.
하나의 예에서, 본 개시는 명령들을 저장한 컴퓨터 판독가능 저장 매체를 기술하며, 상기 명령들은, 실행될 때, 하나 이상의 프로세서들로 하여금, 제 1 화상의 하나 이상의 참조 화상들의 참조 상태 정보를 저장하게 하는 것으로서, 상기 참조 상태 정보는 제 1 화상이 코딩되는 인스턴스에서 하나 이상의 참조 화상들의 참조 상태 정보를 나타내는, 상기 참조 상태 정보를 저장하게 하고; 제 1 화상이 코딩되었던 인스턴스에서, 제 1 화상의 하나 이상의 참조 화상들의 저장된 참조 상태 정보에 기초하여 제 2 의 상이한 화상 내의 비디오 블록을 코딩하게 한다.
하나 이상의 예들의 상세들이 첨부하는 도면들 및 이하의 설명에서 진술된다. 다른 특징들, 목적들 및 이점들은 상세한 설명 및 도면, 및 청구범위로부터 명백할 것이다.
도 1 은 본 개시에 기술된 기법들을 이용할 수도 있는 예시의 비디오 인코딩 및 디코딩 시스템을 도시하는 블록도이다.
도 2 는 본 개시에 기술된 기법들을 구현할 수도 있는 예시의 비디오 인코더를 도시하는 블록도이다.
도 3 은 본 개시에 기술된 기법들을 구현할 수도 있는 예시의 비디오 디코더를 도시하는 블록도이다.
도 4 는 본 개시에 기술된 하나 이상의 예시의 기법들에 따른 예시의 동작을 도시하는 플로우챠트이다.
도 2 는 본 개시에 기술된 기법들을 구현할 수도 있는 예시의 비디오 인코더를 도시하는 블록도이다.
도 3 은 본 개시에 기술된 기법들을 구현할 수도 있는 예시의 비디오 디코더를 도시하는 블록도이다.
도 4 는 본 개시에 기술된 하나 이상의 예시의 기법들에 따른 예시의 동작을 도시하는 플로우챠트이다.
본 개시에 기술된 기법들은 일반적으로 비디오 코딩 프로세스에서의 화상의 참조 상태의 확인에 관련된다. 비디오 코더는 화상을 참조 상태들의 예들로서 "장기 참조를 위해 사용되는", "단기 참조를 위해 사용되는", 또는 "참조를 위해 사용되지 않는" 으로서 지정 (예를 들어, 마크) 할 수도 있다. 예를 들어, 화상 내의 비디오 블록들을 인터-예측하기 위해, 비디오 코더는 하나 이상의 참조 화상 리스트들 (RefPicList0 및/또는 RefPicList1) 을 구성할 수도 있다. 참조 화상 리스트들은 화상 내의 비디오 블록들을 인터-예측하는데 사용될 수 있는 참조 화상들을 식별한다. 본 개시에서 기술된 기법들에서, 비디오 코더는 화상이 코딩되는 인스턴스에서 RefPicList0 및/또는 RefPicList1 로 식별된 참조 화상들에 대한 참조 상태 정보를 저장한다.
일부 경우들에서, 비디오 코더는 후속하는 화상의 비디오 블록들을 코딩할 때 화상의 참조 화상들에 대한 참조 상태 정보를 결정할 필요가 있을 수도 있다. 그러나, 화상의 참조 화상들의 참조 상태는 비디오 코더가 화상을 코딩했던 때로부터 비디오 코더가 후속하는 화상을 코딩해야 하는 때까지 변화했을 수도 있다. 화상이 코딩되는 인스턴스에서, 화상의 참조 화상들에 대한 참조 상태 정보를 저장함으로써, 본 개시에 기술된 기법들은 비디오 코더가 후속하는 화상을 코딩할 때 화상의 참조 화상들의 참조 상태를 결정하는 것을 허용할 수도 있다.
예를 들어, 비디오 코더는 비디오 블록을 코딩하기 위해 병합/스킵 모드 또는 진보된 모션 벡터 예측 (advanced motion vector prediction: AMVP) 모드를 구현하기 위해, 참조 상태가 변경되었던 시간 이전에 참조 화상의 참조 상태를 획득할 필요가 있을 수도 있다. 예시의 목적만으로, 기법들은 병합/스킵 모드 또는 AMVP 모드에 대해 기술된다. 그러나, 본 개시에 기술된 기법들은 병합/스킵 모드 또는 AMVP 모드에 제한되는 것으로 고려되지 않아야 한다.
더욱 상세히 기술되는 바와 같이, 병합/스킵 모드 또는 AMVP 모드에서, 비디오 코더는 인터-예측되어야 하는 블록에 대한 모션 벡터를 결정하기 위해 모션 벡터 예측자를 이용한다. 모션 벡터 예측자의 하나의 예는 시간적 모션 벡터 예측자 (temporal motion vector predictor: TMVP) 이다.
TMVP 는 시간적으로 이웃하는 블록의 모션 벡터를 지칭한다. 시간적으로 이웃하는 블록은 인터-예측되는 블록을 포함하는 화상이외의 화상 내에 상주한다. 시간적으로 이웃하는 블록은, 비록 다른 동일 장소에 배치되지 않은 블록들이 또한 사용될지도 모르지만, 코딩되는 비디오 블록과 연관된 것과는 상이한 화상의 동일 장소에 배치된 블록일 수도 있다. 설명의 편의를 위해, 인터-예측되는 블록은 현재의 화상 내의 현재의 블록으로서 지칭된다. 시간적으로 이웃하는 블록은 시간적 화상 내에 상주하며, 여기서 시간적 화상은 현재의 화상 이외의 화상이다.
TMVP 는 시간적 화상의 참조 화상인 화상을 지칭한다. 예를 들어, 비디오 코더는 시간적 화상에 대한 2 개의 참조 화상 리스트들 (RefPicList0 및 RefPicList1) 을 구성할 수도 있다. 시간적으로 이웃하는 블록에 대한 모션 벡터인 TMVP 는 시간적 화상에 대한 RefPicList0 또는 RefPicList1 중 하나 내의 참조 화상을 지칭한다. 시간적으로 이웃하는 블록이 2 개의 모션 벡터들로 인터-예측되는 (즉, 양방향 예측되는) 예들에서, 하나의 모션 벡터는 RefPicList0 내의 참조 화상을 참조하고, 다른 모션 벡터는 RefPicList1 내의 참조 화상을 참조한다. 이들 예들에서는, 2 개의 TMVP 들이 존재할 수도 있다.
일부 예들에서, 현재의 블록에 대한 모션 벡터 예측자 또는 예측자들로서 (즉, 현재의 블록에 대한 TMVP 또는 TMVP 들로서) 시간적으로 이웃하는 블록의 모션 벡터 또는 벡터들을 이용하기 위해, 비디오 코더는 시간적으로 이웃하는 블록의 모션 벡터 또는 벡터들이 참조했던 참조 화상들의 참조 상태를 결정할 필요가 있을 수도 있다. 즉, 비디오 코더는 비디오 코더가 시간적 화상을 코딩했던 인스턴스에서 시간적 화상에 대한 RefPicList0 및/또는 RefPicList1 에서 식별된 참조 화상들의 참조 상태를 결정할 필요가 있을 수도 있다.
일반적으로, 비디오 코더는 이미 화상들에 대한 참조 상태 정보를 저장하도록 구성될 수도 있다. 그러나, 화상들에 대한 참조 상태 정보는 변할 수도 있다. 이에 따라, 시간적 화상이 코딩되었던 인스턴스에서, 시간적 화상에 대한 RefPicList0 및 RefPicList1 에서 식별된 화상들의 참조 상태는 현재의 화상을 후속적으로 코딩할 때 손실될 수도 있다.
예를 들어, 시간적 화상에 대한 참조 화상의 참조 상태가 시간적 화상이 코딩되었던 인스턴스에서 "장기 참조 화상에 대해 사용되는" 인 것을 가정하라. 그 후, 참조 화상의 참조 상태가 현재의 화상의 코딩 이전에 "장기 참조 화상에 대해 사용되는" 으로부터 "단기 참조 화상에 대해 사용되는" 으로 변한 것을 가정하라. 이러한 예에서, 비디오 코더가 시간적 화상을 코딩했던 인스턴스에서, "장기 참조 화상에 대해 사용되는" 이라는 참조 화상의 참조 상태는 비디오 코더가 현재의 화상을 코딩할 때 손실될 수도 있다.
본 개시에 기술된 기법들에서, 비디오 코더는 제 1 화상이 코딩되는 인스턴스에서 제 1 화상 (예를 들어, 시간적 화상) 의 참조 화상들에 대한 참조 상태 정보를 저장한다. 그 후, 제 1 화상이 코딩되었던 인스턴스에서, 제 1 화상의 참조 화상들에 대한 참조 상태 정보는 제 2 의, 상이한 화상 (예를 들어, 현재의 화상) 을 코딩할 때 이용가능하다. 예를 들어, 제 1 화상 내의 블록에 대한 모션 벡터가 제 2 의, 상이한 화상 내의 블록에 대한 모션 벡터 예측자인 경우에, 비디오 코더는 제 2 의, 상이한 화상 내의 블록의 적절한 인터-예측을 보장하기 위해, 제 1 화상이 코딩되었던 인스턴스에서 제 1 화상 내의 블록에 대한 모션 벡터가 참조했던 참조 화상의 참조 상태를 결정할 수 있을 수도 있다.
도 1 은 본 개시에 기술된 기법들을 이용할 수도 있는 예시의 비디오 인코딩 및 디코딩 시스템 (10) 을 도시하는 블록도이다. 도 1 에 도시된 바와 같이, 시스템 (10) 은 목적지 디바이스 (14) 에 의해 이후의 시간에 디코딩될 인코딩된 비디오 데이터를 생성하는 소스 디바이스 (12) 를 포함한다. 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 데스크톱 컴퓨터들, 노트북 (즉, 랩톱) 컴퓨터들, 태블릿 컴퓨터들, 셋톱 박스들, 소위 "스마트" 폰들과 같은 전화 핸드셋들, 소위 "스마트" 패드들, 텔레비젼들, 카메라들, 디스플레이 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 콘솔들, 비디오 스트리밍 디바이스 등을 포함하는 광범위한 디바이스들 중 임의의 것을 포함할 수도 있다. 일부 경우들에서, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 무선 통신을 위해 구비될 수도 있다.
목적지 디바이스 (14) 는 링크 (16) 를 통해 디코딩될 인코딩된 비디오 데이터를 수신할 수도 있다. 링크 (16) 는 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로 인코딩된 비디오 데이터를 이동시킬 수 있는 임의의 타입의 매체 또는 디바이스를 포함할 수도 있다. 하나의 예에서, 링크 (16) 는 소스 디바이스 (12) 가 목적지 디바이스 (14) 로 실시간으로 직접 인코딩된 비디오 데이터를 송신하는 것을 가능하게 하는 통신 매체를 포함할 수도 있다. 인코딩된 비디오 데이터는 무선 통신 프로토콜과 같은 통신 표준에 따라 변조되고, 목적지 디바이스 (14) 로 송신될 수도 있다. 통신 매체는 무선 주파수 (RF) 스펙트럼 또는 하나 이상의 물리적 송신 라인들과 같은 임의의 무선 또는 유선 통신 매체를 포함할 수도 있다. 통신 매체는 로컬 영역 네트워크, 광역 네트워크, 또는 인터넷과 같은 글로벌 네트워크와 같은 패킷 기반 네트워크의 부분을 형성할 수도 있다. 통신 매체는 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로의 통신을 용이하게 하기 위해 유용할 수도 있는 라우터들, 스위치들, 기지국들, 또는 임의의 다른 장비를 포함할 수도 있다.
대안적으로, 인코딩된 데이터는 출력 인터페이스 (22) 로부터 저장 디바이스 (34) 로 출력될 수도 있다. 유사하게, 인코딩된 데이터는 입력 인터페이스에 의해 저장 디바이스 (34) 로부터 액세스될 수도 있다. 저장 디바이스 (34) 는 하드 드라이브, 블루레이 디스크들, DVD 들, CD-ROM 들, 플래시 메모리, 휘발성 또는 비휘발성 메모리, 또는 인코딩된 비디오 데이터를 저장하기 위한 임의의 다른 적합한 디지털 저장 매체와 같은 다양한 분포되거나 국부적으로 액세스되는 데이터 저장 매체의 임의의 것을 포함할 수도 있다. 추가의 예에서, 저장 디바이스 (34) 는 소스 디바이스 (12) 에 의해 생성된 인코딩된 비디오를 유지할 수도 있는 파일 서버 또는 다른 중간 저장 디바이스에 대응할 수도 있다. 목적지 디바이스 (14) 는 스트리밍 또는 다운로드를 통해 저장 디바이스 (34) 로부터 저장된 비디오 데이터에 액세스할 수도 있다. 파일 서버는 인코딩된 비디오 데이터를 저장하고 목적지 디바이스 (14) 로 그 인코딩된 비디오 데이터를 송신할 수 있는 임의의 타입의 서버일 수도 있다. 예시의 파일 서버들은 웹 서버 (예를 들어, 웹사이트용), FTP 서버, NAS (network attached storage) 디바이스들, 또는 로컬 디스크 드라이브를 포함한다. 목적지 디바이스 (14) 는 인터넷 연결을 포함하여 임의의 표준 데이터 연결을 통해 인코딩된 비디오 데이터를 액세스할 수도 있다. 이것은 무선 채널 (예를 들어, Wi-Fi 연결), 유선 연결 (예를 들어, DSL, 케이블 모뎀 등), 또는 파일 서버 상에 저장된 인코딩된 비디오 데이터에 액세스하기에 적합한 양자의 조합을 포함할 수도 있다. 저장 디바이스 (34) 로부터의 인코딩된 비디오 데이터의 송신은 스트리밍 송신, 다운로드 송신, 또는 양자의 조합일 수도 있다.
본 개시의 기법들은 무선 애플리케이션들 또는 셋팅들에 반드시 제한되지는 않는다. 그 기법들은 지상파 (over-the-air) 텔레비젼 브로드캐스트들, 케이블 텔레비젼 송신들, 위성 텔레비젼 송신들, 예를 들어 인터넷을 통한 스트리밍 비디오 송신들, 데이터 저장 매체 상의 저장을 위한 디지컬 비디오의 인코딩, 데이터 저장 매체 상에 저장된 디지털 비디오의 디코딩, 또는 다른 애플리케이션들과 같은 임의의 다양한 멀티미디어 애플리케이션들을 지원하는 비디오 코딩에 적용될 수도 있다. 일부 예들에서, 시스템 (10) 은 비디오 스트리밍, 비디오 재생, 비디오 브로드캐스팅, 및/또는 화상 전화와 같은 애플리케이션들을 지원하기 위해 단방향 또는 양방향 비디오 송신을 지원하도록 구성될 수도 있다.
도 1 의 예에서, 소스 디바이스 (12) 는 비디오 소스 (18), 비디오 인코더 (20), 및 출력 인터페이스 (22) 를 포함한다. 일부 경우들에서, 출력 인터페이스 (22) 는 변조기/복조기 (모뎀) 및/또는 송신기를 포함할 수도 있다. 소스 디바이스 (12) 에서, 비디오 소스 (18) 는, 예를 들어, 비디오 카메라와 같은 비디오 캡쳐 디바이스, 이전에 캡쳐된 비디오를 포함하는 비디오 아카이브, 비디오 컨텐츠 제공자로부터 비디오를 수신하는 비디오 피드 인터페이스, 및/또는 소스 비디오로서 컴퓨터 그래픽 데이터를 생성하는 컴퓨터 그래픽 시스템과 같은 소스, 또는 그러한 소스들의 조합을 포함할 수도 있다. 하나의 예로서, 비디오 소스 (18) 가 비디오 카메라인 경우, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 소위 카메라 폰들 또는 비디오 폰들을 형성할 수도 있다. 그러나, 본 개시에 기술된 기법들은 일반적으로 비디오 코딩에 적용가능할 수도 있고, 무선 및/또는 유선 애플리케이션들에 적용될 수도 있다.
캡쳐된, 미리 캡쳐된 또는 컴퓨터 생성된 비디오는 비디오 인코더 (20) 에 의해 인코딩될 수도 있다. 인코딩된 비디오 데이터는 소스 디바이스 (12) 의 출력 인터페이스 (22) 를 통해 목적지 디바이스 (14) 로 직접 송신될 수도 있다. 인코딩된 비디오 데이터는 또한 (또는 대안적으로) 디코딩 및/또는 재생을 위해 목적지 디바이스 (14) 또는 다른 디바이스들에 의한 이후의 액세스를 위해 저장 디바이스 (34) 로 저장될 수도 있다.
목적지 디바이스 (14) 는 입력 인터페이스 (28), 비디오 디코더 (30), 및 디스플레이 디바이스 (32) 를 포함한다. 일부 경우들에서, 입력 인터페이스 (28) 는 수신기 및/또는 모뎀을 포함할 수도 있다. 목적지 디바이스 (14) 의 입력 인터페이스 (28) 는 링크 (16) 를 통해 인코딩된 비디오 데이터를 수신한다. 링크 (16) 를 통해 통신되거나 저장 디바이스 (34) 상에 제공된 인코딩된 비디오 데이터는 비디오 데이터를 디코딩하는데 있어서 비디오 디코더 (30) 와 같은 비디오 디코더에 의한 사용을 위해 비디오 인코더 (20) 에 의해 생성된 다양한 신택스 엘리먼트들을 포함할 수도 있다. 그러한 신택스 엘리먼트들은 통신 매체 상에서 송신되거나, 저장 매체 상에 저장되거나, 파일 서버에 저장된 인코딩된 비디오 데이터와 함께 포함될 수도 있다.
디스플레이 디바이스 (32) 는 목적지 디바이스 (14) 와 함께 통합되거나, 목적지 디바이스 (14) 의 외부에 있을 수도 있다. 일부 예들에서, 목적지 디바이스 (14) 는 통합된 디스플레이 디바이스를 포함할 수도 있고, 또한 외부 디스플레이 디바이스와 인터페이싱하도록 구성될 수도 있다. 다른 예들에서, 목적지 디바이스 (14) 는 디스플레이 디바이스일 수도 있다. 일반적으로, 디스플레이 디바이스 (32) 는 사용자에게 디코딩된 비디오 데이터를 디스플레이하며, 액정 디스플레이 (LCD), 플라즈마 디스플레이, 유기 발광다이오드 (OLED) 디스플레이, 또는 다른 타입의 디스플레이 디바이스와 같은 임의의 다양한 디스플레이 디바이스들을 포함할 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 는 여러 비디오 코딩 표준들에 따라 동작할 수도 있다. 비디오 코딩 표준들은 그의 확장가능한 비디오 코딩 (SVC) 및 멀티뷰 비디오 코딩 (MVC) 확장들을 포함하여, ITU-T H.261, ISO/IEC MPEG-1 비쥬얼, ITU-T H.262 또는 ISO/IEC MPEG-2 비쥬얼, ITU-T H.263, ISO/IEC MPEG-4 비쥬얼 및 ITU-T H.264 (또한 ISO/IEC MPEG-4 AVC 로도 알려짐) 를 포함한다. 비디오 압축 표준들의 다른 예들은 MPEG-2 및 ITU-T H.263 을 포함한다.
또, ITU-T 비디오 코딩 전문가 그룹 (VCEG) 및 ISO/IEC 동화상 전문가 그룹 (MPEG) 의 비디오 코딩에 관한 조인트 콜라보레이션 팀 (JCT-VC) 에 의해 개발되고 있는 새로운 비디오 코딩 표준, 즉 고효율 비디오 코딩 (HEVC) 이 존재한다. 이하에 HEVC WD9 로서 지칭되는, HEVC 의 최근의 워킹 드래프트 (WD) 는 2013년 2월 21일 현재, http://phenix.int-evry.fr/jct/doc_end_user/documents /11_Shanghai/wg11/JCTVC-K1003-v10.zip 으로부터 이용가능하다.
그러나, 본 개시의 기법들은 임의의 특정의 코딩 표준에 제한되지 않는다. 또한, 본 개시에 기술된 기법들이 특정의 표준에 반드시는 따르지 않을 수 있더라도, 본 개시에 기술된 기법들은 여러 표준들에 관하여 코딩 효율을 추가로 도울 수도 있다. 또한, 본 개시에 기술된 기법들은 미래의 표준들의 일부일 수도 있다. 이해의 편의를 위해, 그 기법들은 개발 중에 있는 HEVC 표준에 대해 기술되지만, 기법들은 HEVC 표준에 제한되지 않고, 특정의 표준에 의해 정의되지 않는 다른 비디오 코딩 표준들 또는 비디오 코딩 기법들로 확장될 수 있다.
도 1 에 도시되지 않지만, 일부 양태들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 오디오 인코더 및 디코더와 각각 통합될 수도 있고, 공통 데이터 스트림 또는 개별 데이터 스트림들에서 양 오디오 및 비디오의 인코딩을 핸들링하기 위해 적절한 MUX-DEMUX 유닛들, 또는 다른 하드웨어 및 소프트웨어를 포함할 수도 있다. 적용가능하다면, 일부 예들에서, MUX-DEMUX 유닛들은 ITU H.223 멀티플렉서 프로토콜, 또는 사용자 데이터그램 프로토콜 (UDP) 와 같은 다른 프로토콜들에 따를 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들 (DSPs), 주문자 반도체들 (ASICs), 필드 프로그래머블 게이트 어레이들 (FPGAs), 이산 로직, 소프트웨어, 하드웨어, 펌웨어 또는 이들의 임의의 조합들과 같은 임의의 다양한 적합한 인코더 회로로서 구현될 수도 있다. 기법들이 부분적으로 소프트웨어로 구현되는 경우, 디바이스는 비일시적 컴퓨터 판독가능 저장 매체와 같은 적합한 컴퓨터 판독가능 저장 매체 내에 소프트웨어에 대한 명령들을 저장하고, 본 개시의 기법들을 수행하기 위해 하나 이상의 프로세서들을 사용하여 하드웨어로 그 명령들을 실행할 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 인코더들 또는 디코더들에 포함될 수도 있고, 이들 중 어느 것이 각각의 디바이스에서 결합된 인코더/디코더 (코덱) 의 일부로서 통합될 수도 있다.
JCT-VC 는 HEVC 표준의 개발에 관해 작업중이다. HEVC 표준화 노력들은 HEVC Test Model (HM) 으로서 지칭되는 비디오 코딩 디바이스의 진화하는 모델에 기초한다. HM 은 예를 들어 ITU-T H.264/AVC 에 따라 현존하는 디바이스들에 대해 비디오 코딩 디바이스들의 수개의 추가적인 성능들을 가정한다. 예를 들어, H.264 는 9 개의 인트라 예측 인코딩 모드들을 제공하는 반면, HM 은 33 개나 되는 인트라 예측 인코딩 모드들을 제공할 수도 있다.
일반적으로, HM 의 워킹 (working) 모델은 비디오 프레임 또는 화상이 루마 및 크로마 샘플들 양자 모두를 포함하는 트리블록들 또는 최대 코딩 유닛들 (LCU) 의 시퀀스로 분할될 수도 있다는 것을 기술한다. 트리블록은 H.264 표준의 매크로블록과 유사한 목적을 갖는다. 슬라이스는 코딩 순서에서 다수의 연속적인 트리블록들을 포함한다. 비디오 프레임 또는 화상은 하나 이상의 슬라이스들로 파티셔닝될 수도 있다. 각 트리블록은 쿼드트리에 따라 코딩 유닛들 (CUs) 로 분할될 수도 있다. 예를 들어, 쿼드트리의 루트 (root) 노드로서, 트리블록은 4 개의 차일드 (child) 노드들로 분할될 수도 있고, 각각의 차일드 노드는 차례로 페어런트 (parent) 노드가 되어 다른 4 개의 차일드 노드들로 분할될 수도 있다. 쿼드트리의 리프 노드로서, 마지막 분할되지 않은 차일드 노드는 코딩 노드, 즉 코딩된 비디오 블록을 포함한다. 코딩된 비트스트림과 연관된 신택스 데이터는 트리블록이 분할될 수도 있는 최대 횟수를 정의할 수도 있고, 또한 코딩 노드들의 최소 사이즈를 정의할 수도 있다.
CU 는 코딩 노드 및 그 코딩 노드와 연관된 예측 유닛들 (PUs) 및 변환 유닛드들 (TUs) 을 포함한다. CU 의 사이즈는 코딩 노드의 사이즈에 대응하고, 형상이 정사각형일 수도 있다. CU 의 사이즈는 8 x 8 화소들로부터 최대 64 x 64 화소들 이상을 갖는 트리블록의 사이즈까지의 범위에 있을 수도 있다. 각각의 CU 는 하나 이상의 PU 들 및 하나 이상의 TU 들을 포함할 수도 있다. CU 와 연관된 신택스 데이터는, 예를 들어, 그 CU 의 하나 이상의 PU 들로의 파티셔닝을 기술할 수도 있다. 파티셔닝 모드들은 CU 가 스킵 또는 다이렉트 모드 인코딩되는지, 인트라 예측 모드 인코딩되는지, 또는 인터 예측 모드 인코딩되는지 사이에 상이할 수도 있다. PU 들은 형상이 비정사각형이 되도록 파티셔닝될 수도 있다. CU 와 연관된 신택스 엘리먼트는 또한 예를 들어 그 CU 의 쿼드트리에 따른 하나 이상의 TU 들로의 파티셔닝을 기술할 수도 있다. TU 는 형상이 정사각형 또는 비정사각형일 수 있다.
HEVC 표준은 상이한 CU 들에 대해 상이할 수도 있는 TU 들에 따른 변환들을 허용한다. TU 들은 통상, 항상 그렇지는 않을 수도 있지만, 파티셔닝된 LCU 에 대해 정의된 주어진 CU 내의 PU 들의 사이즈에 기초하여 사이징된다. TU 들은 통상 PU 들과 동일한 사이즈이거나 더 작다. 일부 예들에서, CU 에 대응하는 레지듀얼 샘플들은 "레지듀얼 쿼드 트리" (RQT) 로서 알려진 쿼드트리 구조를 사용하여 더 작은 유닛들로 서브분할될 수도 있다. RQT 의 리프 노드들은 변환 유닛들 (TUs) 로서 지칭될 수도 있다. TU 들과 연관된 화소 차이 값들은 양자화될 수도 있는 변환 계수들을 생성하도록 변환될 수도 있다.
일반적으로, PU 는 예측 프로세스에 관련된 데이터를 포함한다. 예를 들어, PU 가 인트라 모드 인코딩되는 경우, PU 는 PU 에 대한 인트라 예측 모드를 기술하는 데이터를 포함할 수도 있다. 다른 예로서, PU 가 인터 모드 인코딩되는 경우, PU 는 그 PU 에 대한 모션 벡터를 정의하는 데이터를 포함할 수도 있다. PU 에 대한 모션 벡터를 정의하는 데이터는 예를 들어 모션 벡터의 수평 성분, 모션 벡터의 수직 성분, 모션 벡터에 대한 해상도 (예를 들어, 1/4 화소 정밀도 또는 1/8 화소 정밀도), 모션 벡터가 가리키는 참조 화상, 및/또는 모션 벡터에 대한 참조 화상 리스트 (예를 들어, RefPicList0 (L0) 또는 RefPicList1 (L1)) 를 기술할수도 있다.
TU 는 변환 및 양자화 프로세스들에 대해 사용될 수도 있다. 하나 이상의 PU 들을 갖는 주어진 CU 는 또한 하나 이상의 변환 유닛들 (TUs) 을 포함할 수도 있다. 예측에 후속하여, 비디오 인코더 (20) 는 PU 에 대응하는 레지듀얼 값들을 계산할 수도 있다. 레지듀얼 값들은 엔트로피 코딩을 위해 직렬화된 변환 계수들을 생성하기 위해 TU 들을 사용하여 변환 계수들로 변환되고, 양자화되며, 스캐닝될 수도 있는 화소 차이 값들을 포함한다. 본 개시는 통상적으로 CU 의 코딩 노드를 지칭하기 위해 용어 "비디오 블록" 을 사용한다. 일부 특정의 경우들에서, 본 개시는 또한 코딩 노드 및 PU 들 및 TU 들을 포함하는 트리블록, 즉 LCU 또는 CU 을 지칭하기 위해 용어 "비디오 블록" 을 사용할 수도 있다.
예를 들어, 현재 개발 중에 있는 고효율 비디오 코딩 (HEVC) 표준에 따른 비디오 코딩의 경우, 비디오 화상은 코딩 유닛들 (CUs), 예측 유닛들 (PUs), 및 변환 유닛들 (TUs) 로 파티셔닝될 수도 있다. CU 는 일반적으로 여러 코딩 툴들이 비디오 압축을 위해 적용되는 기본 유닛으로서 작용하는 이미지 영역을 지칭한다. CU 는 통상 정사각형 지오메트리를 가지며, 예를 들어 ITU-T H.264 와 같은 다른 비디오 코딩 표준들 하에서의 소위 "매크로블록" 과 유사한 것으로 고려될 수도 있다.
더 양호한 코딩 효율을 달성하기 위해, CU 는 그것이 포함하는 비디오 데이터에 따라 변화가능한 사이즈를 가질 수도 있다. 즉, CU 는 더 작은 블록들, 또는 서브 CU 들로 파티셔닝되거나, "분할"될 수도 있다. 또, 서브 CU 들로 분할되지 않은 각각의 CU 는 각각 CU 의 예측 및 변환을 목적으로 하나 이상의 PU 들 및 TU 들로 추가로 파티셔닝될 수도 있다.
PU 들은 H.264 와 같은 다른 비디오 코딩 표준들 하에서의 블록의 소위 파티션들과 유사한 것으로 고려될 수도 있다. PU 들은 "레지듀얼" 계수들을 생성하기 위해 블록에 대한 예측이 수행되는 기초이다. CU 의 레지듀얼 계수들은 CU 의 하나 이상의 PU 들을 사용하여 결정된 CU 에 대한 예측된 데이터와 CU 의 비디오 데이터 사이의 차이를 나타낸다. 구체적으로는, 하나 이상의 PU 들은 CU 가 예측의 목적으로 어떻게 파티셔닝되는지, 및 어떤 예측 모드가 CU 의 각 파티션 내에 포함된 비디오 데이터를 예측하는데 사용되는지를 특정한다.
CU 의 하나 이상의 TU 들은 CU 의 레지듀얼 계수들의 블록의 파티션들을 특정하며, 그것에 기초하여 CU 에 대한 레지듀얼 변환 계수들의 블록을 생성하기 위해 블록에 변환이 적용된다. 하나 이상의 TU 들은 또한 적용되는 변환의 타입과 연관될 수도 있다. 변환은 레지듀얼 계수들은 화소, 또는 공간 도메인으로부터 주파수 도메인과 같은 변환 도메인으로 변환한다. 또, 하나 이상의 TU 들은 파라미터들을 특정할 수도 있고, 그것에 기초하여 양자화된 레지듀얼 변환 계수들의 블록을 생성하기 위해 레지듀얼 변환 계수들의 결과적인 블록에 양자화가 적용된다. 레지듀얼 변환 계수들은 가능하게는 그 계수들을 나타내기 위해 사용되는 데이터의 양을 감소시키기 위해 양자화될 수도 있다.
CU 는 일반적으로 Y 로 표시되는 하나의 휘도 성분, 및 U 및 V 로 표시되는 2 개의 크로미넌스 성분들을 포함한다. 즉, 서브 CU 들로 추가로 분할되지 않는 주어진 CU 는 Y, U, 및 V 성분들을 포함할 수도 있고, 이들 각각은 이전에 기술된 바와 같이 CU 의 예측 및 변환의 목적으로 하나 이상의 PU 들 및 TU 들로 추가로 파티셔닝될 수도 있다. 예를 들어, 비디오 샘플링 포맷에 따라, 샘플들의 수로 환산하여, U 및 V 성분들의 사이즈는 Y 성분의 사이즈와 동일하거나 상이할 수도 있다. 이와 같이, 예측, 변환 및 양자화를 참조하여 상술된 기법들은 주어진 CU 의 Y, U, 및 V 성분들 각각에 대해 수행될 수도 있다.
CU 를 인코딩하기 위해, CU 에 대한 하나 이상의 예측자들이 먼저 CU 의 하나 이상의 PU 들에 기초하여 도출된다. 예측자는 CU 에 대한 예측된 데이터를 포함하는 참조 블록이고, 상술된 바와 같이 CU 에 대한 대응하는 PU 에 기초하여 도출된다. 예를 들어, PU 는 예측 데이터가 결정되어야 하는 CU 의 파티션, 및 예측 데이터를 결정하는데 사용되는 예측 모드를 나타낸다. 예측자는 인트라 (I) 예측 (즉, 공간 예측) 또는 인터 (P 또는 B) 예측 (즉, 시간 예측) 모드들을 통해 도출될 수 있다. 이리하여, 일부 CU 들은 동일한 프레임 내의 이웃하는 참조 블록들, 또는 CU 들에 대한 공간 예측을 사용하여 인트라 코딩 (I) 될 수도 있는 반면, 다른 CU 들은 다른 프레임들 내의 참조 블록들, 또는 CU 들에 대한 인터 코딩 (P 또는 B) 될 수도 있다.
CU 의 하나 이상의 PU 들에 기초하여 하나 이상의 예측자들의 식별 시에, 하나 이상의 PU 들에 대응하는 CU 의 오리지날 비디오 데이터와 하나 이상의 예측자들에 포함된 CU 에 대한 예측 데이터 사이의 차이가 계산된다. 예측 레지듀얼로서도 지칭되는 이러한 차이는 레지듀얼 계수들을 포함하며, 상술된 바와 같이, 하나 이상의 PU 들에 의해 특정된 CU 의 부분들과 하나 이상의 예측자들 사이의 화소 차이들을 지칭한다. 레지듀얼 계수들은 일반적으로 CU 의 하나 이상의 PU 들에 대응하는 2차원 (2-D) 배열로 배열된다.
추가의 압축을 달성하기 위해, 예측 레지듀얼은 일반적으로, 예를 들어, 이산 코산인 변환 (DCT), 인티저 변환, 카루넨-루베 (K-L) 변환, 또는 다른 변환을 사용하여 변환된다. 변환은, 상술된 바와도 같이, 공간 도메인에서의 예측 레지듀얼, 즉 레지듀얼 계수들을 변환 도메인, 예를 들어 주파수 도메인에서의 레지듀얼 변환 계수들로 변환한다. 변환 계수들은 또한 일반적으로 CU 의 하나 이상의 TU 들에 대응하는 2-D 배열로 배열된다. 추가의 압축을 위해, 레지듀얼 변환 계수들은, 상술된 바와도 같이, 가능하게는 계수들을 나타내는데 사용되는 데이터의 양을 감소시키도록 양자화될 수도 있다.
여전히 추가의 압축을 달성하기 위해, 엔트로피 코더는 후속적으로 콘텍스트 적응형 가변 길이 코딩 (CAVLC), 콘텍스트 적응형 이진 산술 코딩 (CABAC), 확률 구간 파티셔닝 엔트로피 (PIPE) 코딩, 또는 다른 엔트로피 인코딩 방법론을 사용하여 결과의 레지듀얼 변환 계수들을 인코딩한다. 엔트로피 코딩은 다른 CU 들에 대해, 계수들에 의해 표현된, CU 의 비디오 데이터에 고유한 통계적 리던던시를 감소시키거나 제거함으로써 이러한 추가의 압축을 달성할 수도 있다.
비디오 시퀀스는 통상적으로 비디오 프레임들 또는 화상들의 시리즈를 포함한다. 화상들의 그룹 (GOP) 는 일반적으로 하나 이상의 비디오 화상들의 시리즈를 포함한다. GOP 는 GOP 의 헤더, 하나 이상의 화상들의 헤더, 또는 다른 곳에 GOP 내에 포함된 화상들의 수를 기술하는 신택스 데이터를 포함할 수도 있다. 화상의 각 슬라이스는 각각의 슬라이스에 대한 인코딩 모드를 기술하는 슬라이스 신택스 데이터를 포함할 수도 있다. 비디오 인코더 (20) 는 통상 비디오 데이터를 인코딩하기 위해 개개의 비디오 슬라이스들 내의 비디오 블록들에 대해서 동작한다. 비디오 블록은 CU 내의 코딩 노드에 대응할 수도 있다. 비디오 블록들은 고정되거나 변화하는 사이즈들을 가질 수도 있고, 특정된 코딩 표준에 따라 사이즈가 상이할 수도 있다.
예로서, HM 은 여러 PU 사이즈들에서 예측을 지원한다. 특정의 CU 의 사이즈가 2N x 2N 이라고 가정하면, HM 은 2N x 2N 또는 N x N 의 PU 사이즈들에서 인트라 예측을, 및 2N x 2N, 2N x N, N x 2N, 또는 N x N 의 대칭적인 PU 사이즈들에서 인터 예측을 지원한다. HM 은 또한 2N x nU, 2N x nD, nL x 2N, 및 nR x 2N 의 PU 사이즈들에서 인터 예측에 대한 비대칭적인 파티셔닝을 지원한다. 비대칭적인 파티셔닝에서, CU 의 하나의 방향이 파티셔닝되지 않는 반면, 다른 방향은 25% 및 75% 로 파티셔닝된다. 25% 파티션에 대응하는 CU 의 부분은 "상측", "하측", "좌측" 또는 "우측" 의 표시가 뒤따르는 "n" 에 의해 표시된다. 따라서, 예를 들어, "2N x nU" 는 상측에서 2N x 0.5N PU 및 하측에서 2N x 1.5N PU 를 갖는 수평으로 파티셔닝되는 2N x 2N CU 를 지칭한다.
본 개시에서, "N x N" 및 "N 바이 N" 은 수직 및 수평 디멘젼들, 예를 들면 16 x 16 화소들 또는 16 바이 16 화소들로 비디오 블록의 화소 디멘젼들을 지칭하기 위해 상호교환가능하게 사용될 수도 있다. 일반적으로, 16 x 16 블록은 수직 방향으로 16 개의 화소들 (y=16) 및 수평 방향으로 16 개의 화소들 (x=16) 을 가질 것이다. 마찬가지로, N x N 블록은 일반적으로 수직 방향으로 N 개의 화소들 및 수평 방향으로 N 개의 화소들을 가지며, 여기서 N 은 음이 아닌 정수값을 나타낸다. 블록 내의 화소들은 행들 및 열들로 배열될 수도 있다. 또한, 블록들은 수직 방향에서와 동일한 수평 방향에서의 화소들의 수를 반드시 가질 필요는 없다. 예를 들어, 블록들은 N x M 화소들을 포함할 수도 있으며, 여기서 M 은 N 과 반드시 동일하지는 않다.
CU 의 PU 들을 사용하는 인트라 예측 또는 인터 예측 코딩에 후속하여, 비디오 인코더 (20) 는 CU 의 TU 들에 대한 레지듀얼 데이터를 계산할 수도 있다. PU 들은 (화소 도메인으로서 또한 지칭되는) 공간 도메인 내의 화소 데이터를 포함할 수도 있고, TU 들은 변환, 예를 들어 이산 코사인 변환 (DCT), 인티저 변환, 웨이블릿 변환, 또는 레지듀얼 비디오 데이터로의 개념적으로 유사한 변환의 적용에 후속하는 변환 도메인 내의 계수들을 포함할 수도 있다. 레지듀얼 데이터는 인코딩되지 않은 화상의 화소들과 PU 들에 대응하는 예측 값들 사이의 화소 차이들에 대응할 수도 있다. 비디오 인코더 (20) 는 CU 에 대한 레지듀얼 데이터를 포함하는 TU 들을 형성하고, 그 후 CU 에 대한 변환 계수들을 생성하기 위해 TU 들을 변환할 수도 있다.
변환 계수들을 생성하는 임의의 변환들에 후속하여, 비디오 인코더 (20) 는 그 변환 계수들의 양자화를 수행할 수도 있다. 양자화는 일반적으로 변환 계수들이 가능하게는 그 계수들을 나타내는데 사용되는 데이터의 양을 감소시키도록 양자화되어 추가의 압축을 제공하는 프로세스를 지칭한다. 양자화 프로세스는 그 계수들의 일부 또는 전부와 연관된 비트 심도를 감소시킬 수도 있다. 예를 들어, n-비트 값은 양자화 동안 m-비트 값으로 내림될 수도 있고, 여기서 n 은 m 보다 더 크다.
일부 예들에서, 비디오 인코더 (20) 는 엔트로피 인코딩될 수 있는 직렬화된 벡터를 생성하기 위해 양자화된 변환 계수들을 스캔하는 미리정의된 스캔 순서를 이용할 수도 있다. 다른 예들에서, 비디오 인코더 (20) 는 적응적 스캔을 수행할 수도 있다. 1차원 벡터를 형성하기 위해 양자화된 변환 계수들을 스캐닝한 후, 비디오 인코더 (20) 는 예를 들어 콘텍스트 적응형 가변 길이 코딩 (CAVLC), 콘텍스트 적응형 이진 산술 코딩 (CABAC), 신택스 기반 콘텍스트 적응형 이진 산술 코딩 (SBAC), 확률 구간 파티셔닝 엔트로피 (PIPE) 코딩 또는 다른 엔트로피 인코딩 방법론에 따라 1차원 벡터를 엔트로피 인코딩할 수도 있다. 비디오 인코더 (20) 는 또한 비디오 데이터를 디코딩하는데 있어서 비디오 디코더 (30) 에 의한 사용을 위해 인코딩된 비디오 데이터와 연관된 신택스 엘리먼트들을 엔트로피 인코딩할 수도 있다.
CABAC 를 수행하기 위해, 비디오 인코더 (20) 는 콘텍스트 모델 내의 콘텍스트를 송신될 심볼에 할당할 수도 있다. 콘텍스트는 예를 들어 그 심볼의 이웃하는 값들이 비제로인지 아닌지 여부에 관련될 수도 있다. CAVLC 를 수행하기 위해, 비디오 인코더 (20) 는 송신될 심볼에 대한 가변 길이 코드를 선택할 수도 있다. VLC 내의 코드워드들은 상대적으로 더 짧은 코드들이 더욱 가능성있는 (probable) 심볼들에 대응하도록 구성될 수도 있는 반면, 더 긴 코드들은 덜 가능성있는 심볼들에 대응한다. 이러한 방식으로, VLC 의 사용은, 예를 들어 송신될 각 심볼에 대해 동일 길이 코드워드들을 사용하는 것에 비해 비트 절감들을 달성할 수도 있다. 가능성 결정은 심볼에 할당되는 콘텍스트에 기초할 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 는 본 개시의 기법들에 따라 구성될 수도 있다. 예를 들어, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 화상이 코딩되는 인스턴스에서 각각의 화상의 참조 화상들에 대한 참조 상태 정보를 저장하도록 구성될 수도 있다. 예들로서, 참조 상태 정보는 참조 화상들이 "단기 참조를 위해 사용되는", "장기 참조를 위해 사용되는", 또는 "참조를 위해 사용되지 않는" 으로서 식별되는지 여부를 나타낸다. 더욱 상세히 기술되는 바와 같이, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 후속하는 화상의 블록을 인터 예측하기 위해, 화상이 코딩되었던 인스턴스에서, 화상의 참조 화상에 대한 참조 상태 정보에 의존할 수도 있다.
예를 들어, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 현재의 화상의 현재의 볼록을 인터 예측하기 위해 병합/스킵 모드 또는 진보된 모션 벡터 예측 (AMVP) 모드를 구현하도록 구성될 수도 있다. 기법들이 병합/스킵 모드 및 AMVP 모드에 대해 기술되지만, 기법들은 병합/스킵 모드 및 AMVP 모드에만 적용되도록 제한되지 않는다는 것이 이해되어야 한다. 비디오 인코더 (20) 및 비디오 디코더 (30) 는 심지어 병합/스킵 모드 또는 AMVP 모드가 인터 예측에 이용되지 않는 예들에서도 본 개시에 기술된 기법들을 구현하도록 구성될 수도 있다.
병합/스킵 모드 또는 AMVP 모드에서는, 현재의 블록의 실제의 모션 벡터에 대한 정보를 비디오 인코더 (20) 가 시그널링하지 않고 비디오 디코더 (30) 가 수신하지 않는다. 오히려, 비디오 디코더 (30) 가 현재의 블록의 모션 벡터를 그로부터 도출하는 정보를 비디오 인코더 (20) 가 시그널링하고 비디오 디코더 (30) 가 수신한다.
예를 들어, 병합/스킵 모드 또는 AMVP 모드에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 후보 모션 벡터 예측자들의 리스트를 구성한다. 모션 벡터 예측자는 인터 예측되는 블록 이외의 블록 (즉, 현재의 블록 이외의 블록) 에 대한 모션 벡터이다. 예를 들어, 비디오 디코더 (30) 는 현재의 블록에 공간적으로 이웃하는 블록들 (즉, 현재의 블록에 이웃하는 현재의 화상 내의 블록들) 이 인터 예측되는지 여부를 결정하고, 후보 모션 벡터 예측자들의 리스트 내의 공간적으로 이웃하는 블록들의 모션 벡터 또는 벡터들을 포함할 수도 있다.
다른 예로서, 비디오 디코더 (30) 는 현재의 블록에 시간적으로 이웃하는 블록 (즉, 현재의 화상 이외의 화상 내의 블록) 이 인터 예측되는지 여부를 결정하고, 후보 모션 벡터 예측자들의 리스트 내의 시간적으로 이웃하는 블록에 대한 모션 벡터 또는 벡터들을 포함할 수도 있다. 시간적으로 이웃하는 블록을 포함하는 화상은, 시간적 화상이 현재의 화상이 코딩되거나 디스플레이되는 때와는 상이한 시간들에 코딩되거나 디스플레이되기 때문에 시간적 화상으로서 지칭된다. 예를 들어, 시간적 화상은 현재의 화상 이전에 코딩되는 화상이지만, 현재의 화상보다 일찍 또는 나중에 디스플레이될 수도 있다.
일부 멀티뷰 코딩 기법들에서, 시간적 화상은 현재의 블록을 포함하는 화상과는 상이한 뷰 (view) 에서의 화상일 수도 있다. 이러한 예에서, 시간적 화상 및 현재의 화상은 동일한 시간에 디스플레이될 수도 있다. 그러나, 상이한 뷰에서의 화상은 현재의 화상이 코딩되는 시간과는 상이한 시간에 코딩될 수도 있다. 이에 따라, 시간적 화상은 현재의 화상과 동일한 뷰에서의 화상이거나 현재의 화상과 상이한 뷰에서의 화상일 수도 있다. 어느 예에서나, 시간적 화상은 현재의 화상과 상이한 (즉, 예측되어야 하는 현재의 블록을 포함하는 화상과는 상이한) 화상이다.
일부 예들에서, 시간적으로 이웃하는 블록은 현재의 화상에서 현재의 블록이 포함하는 시간적 화상 내의 동일한 영역을 포함할 수도 있다. 이러한 예에서, 시간적으로 이웃하는 블록은 현재의 블록과 동일 장소에 배치되는 것으로 고려될 수도 있다.
일부 예들에서, 시간적으로 이웃하는 블록은 현재의 블록이 시간적 화상 내에 위치될 곳의 우하측 (bottom-right) 에 위치될 수도 있다. 예를 들어, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 현재의 블록의 우하측에 위치되는 현재의 화상 내의 블록의 위치를 결정할 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 는 시간적 화상 내의 블록을 식별하기 위해, 현재의 화상에서의, 우하측 블록의 결정된 위치 정보를 이용할 수도 있다. 시간적 화상 내의 이러한 식별된 블록은 시간적으로 이웃하는 블록의 다른 예이다.
현재의 블록에 대한 모션 벡터 예측자들을 형성하는 공간적으로 이웃하는 블록들에 대한 모션 벡터들은 공간 모션 벡터 예측자들 (SMVPs) 로서 지칭될 수도 있다. 현재의 블록에 대한 모션 벡터 예측자 또는 예측자들을 형성하는 시간적으로 이웃하는 블록에 대한 모션 벡터 또는 벡터들은 시간적 모션 벡터 예측자 또는 예측자들 (TMVP 또는 TMVP 들) 로서 지칭될 수도 있다. 이에 따라, 비디오 디코더 (30) 는 SMVP 들 및/또는 TMVP 들을 포함하는 후보 모션 벡터 예측자들의 리스트를 구성할 수도 있다. 비디오 인코더 (20) 는 소스 디바이스 (12) 측에서 후보 모션 벡터 예측자들의 리스트를 또한 구성하는 유사한 기법을 이용할 수도 있다.
비디오 인코더 (20) 는 후보 모션 벡터 예측자들의 리스트로의 인덱스를 시그널링할 수도 있고, 비디오 디코더 (30) 는 후보 모션 벡터 예측자들의 리스트로의 시그널링된 인덱스에 기초하여 모션 벡터 예측자 또는 모션 벡터 예측자들을 선택할 수도 있다. 비디오 디코더 (30) 는 현재의 블록에 대한 모션 벡터 또는 벡터들을 도출하기 위해 모션 벡터 예측자 또는 예측자들을 이용한다.
예를 들어, 병합/스킵 모드에서, 비디오 디코더 (30) 는 현재의 블록의 모션 벡터 또는 벡터들을 선택된 모션 벡터 예측자 또는 예측자들과 동일하게 설정한다. AMVP 에서는, 후보 모션 벡터 예측자들의 리스트로의 인덱스를 시그널링하는 것에 더하여, 비디오 인코더 (20) 는 또한 선택된 모션 벡터 예측자 또는 예측자들과 현재의 블록의 실제의 모션 벡터 또는 벡터들 사이의 모션 벡터 차이 (MVD) 를 시그널링할 수도 있다. 이러한 예에서, 비디오 디코더 (30) 는 MVD 를 수신하고, 그 MVD 및 선택된 모션 벡터 예측자 또는 예측자들에 기초하여 현재의 블록의 모션 벡터 또는 벡터들을 결정할 수도 있다.
일부 예들에서, 병합/스킵 모드 또는 AMVP 모드를 구현하기 위해, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 화상이 코딩되었던 인스턴스에서 화상의 참조 화상의 참조 상태를 결정할 필요가 있을 수도 있다. 예를 들어, TMVP 를 이용하기 위해, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 시간적 화상의 참조 화상들의 참조 상태를 결정할 필요가 있을 수도 있다.
예를 들어, 시간적 화상을 코딩할 때, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 각각 하나 또는 두개의 참조 화상 리스트들 (즉, 시간적 화상에 대해 RefPicList0 및 시간적 화상에 대해 RefPicList1) 을 구성했을 수도 있다. 시간적 화상에 대한 RefPicList0 및 RefPicList1 은 시간적으로 이웃하는 블록을 인터 예측하기 위해 사용되는 참조 화상들을 포함하여, 시간적 화상의 블록들을 인터 예측하기 위해 사용될 수 있는 참조 화상들을 식별한다. 시간적으로 이웃하는 블록이 단방향 예측 (즉, 하나의 모션 벡터로 예측) 되는 경우, 시간적으로 이웃하는 블록에 대한 모션 벡터는 RefPicList0 내의 참조 화상 또는 RefPicList1 내의 참조 화상을 참조할 수도 있다. 시간적으로 이웃하는 블록이 양방향 예측 (즉, 2 개의 모션 벡터들로 예측) 되는 경우, 시간적으로 이웃하는 블록에 대한 제 1 모션 벡터는 RefPicList0 내의 참조 화상을 참조할 수도 있고, 시간적으로 이웃하는 블록에 대한 제 2 모션 벡터는 RefPicList1 내의 참조 화상을 참조할 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 가 시간적으로 이웃하는 블록에 대한 모션 벡터 또는 벡터들이 현재의 블록에 대한 후보 모션 벡터 예측자들의 리스트 내에 포함되어야 한다고 결정하거나, 시간적으로 이웃하는 블록에 대한 모션 벡터 또는 벡터들이 현재의 블록에 대한 모션 벡터 또는 벡터들을 도출하는데 사용되어야 한다고 결정하는 경우, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 시간적 화상이 코딩되었던 인스턴스에서, 시간적으로 이웃하는 블록의 모션 벡터 또는 벡터들이 참조했던 참조 화상 또는 화상들의 참조 상태를 결정할 필요가 있을 수도 있다. 예를 들어, 시간적으로 이웃하는 블록이 시간적 화상의 RefPicList0 내의 제 3 화상을 참조하는 모션 벡터로 단방향 예측된다고 가정하라. 이러한 예에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는, 비디오 인코더 (20) 및 비디오 디코더 (30) 가 시간적 화상을 코딩했던 인스턴스에서, 시간적 화상의 RefPicList0 내의 제 3 화상의 참조 상태를 결정할 필요가 있을 수도 있다.
예를 들어, sub-clause 8.5.3.1 에서, HEVC WD9 는 함수 LongTermRefPic 를 정의한다. sub-clause 8.5.3.1 에서, HEVC WD9 는 다음을 진술한다:
0 또는 1 인 X 를 갖는 함수 LongTermRefPic(picX, refIdx, LX) 는 다음과 같이 정의된다. 화상 (picX) 의 참조 화상 리스트 (LX) 로부터의 인덱스 (refIdx) 를 갖는 화상이 picX 가 현재의 화상이었을 때에 "장기 참조를 위해 사용되는" 으로서 마크되었다면, LongTermRefPic(picX, refIdx, LX) 이 1 과 동일하고; 그렇지 않으면 LongTermRefPic(picX, refIdx, LX) 는 0 과 동일하다.
현재의 화상 내의 현재의 블록에 대한 LongTermRefPic 함수를 구현하기 위해, 이전의 예 (예를 들면, 시간적으로 이웃하는 블록이 시간적 화상의 RefPicList0 내의 제 3 화상을 참조하는 모션 벡터로 단방향 예측된다) 로 계속하면, picX 는 시간적 화상과 동일하고, refIdx 는 (제 1 참조 화상에 대한 인덱스가 0 이라고 가정하면) 2 와 동일하며, LX 는 RefPicList0 와 동일하다. 즉, 이러한 예에서, LongTermRefPic 함수는 LongTermRefPic(시간적 화상, 2, RefPicList0) 로서 고려될 수도 있다. 이러한 예에서, 시간적 화상에 대한 RefPicList0 내의 제 3 화상이, 비디오 인코더 (20) 및 비디오 디코더 (30) 가 시간적 화상을 코딩했던 인스턴스에서, "장기 참조를 위해 사용되는" 으로서 식별되었다면, LongTermRefPic 함수는 1 과 동일하다. 또한, 이러한 예에서, 시간적 화상에 대한 RefPicList0 내의 제 3 화상이, 비디오 인코더 (20) 및 비디오 디코더 (30) 가 시간적 화상을 코딩했던 인스턴스에서, "장기 참조를 위해 사용되는" 으로서 식별되지 않았다면, LongTermRefPic 함수는 0 과 동일하다.
상기의 예에 따르면, LongTermRefPic 함수는 시간적 화상이 코딩되었던 인스턴스에서 (즉, HEVC WD9 에서 진술된 바와 같은 "picX 가 현재의 화상이었던 시간에서"), 시간적 화상의 참조 화상의 참조 상태에 기초한다. 시간적 화상이 코딩되었던 인스턴스에서, 시간적 화상의 참조 화상의 참조 상태가 손실된 경우, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 HEVC 표준의 요건들에 따를 수 없을 수도 있다. 예를 들어, 시간적 화상이 코딩되었던 인스턴스에서, 시간적 화상의 참조 화상의 참조 상태가 손실된 경우, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 LongTermRefPic 함수를 구현할 수 없을 수도 있다.
HEVC WD9 에서의 LongTermRefPic 함수의 설명은 단순히 설명의 목적으로만 제공되고, 제한하는 것으로 고려되지 않아야 한다는 것이 이해되어야 한다. 본 개시에 기술된 기법들은 HEVC 표준 이외의 표준들에 대해 적용가능할 뿐아니라, LongTermRefPic 함수 이외의 목적들을 위해 적용가능할 수도 있다.
본 개시에 기술된 기법들에 따르면, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 화상이 코딩되는 인스턴스에서 각 화상의 참조 화상들에 대한 참조 상태 정보를 저장한다. 이러한 방식으로, 화상의 블록의 모션 벡터 또는 벡터들이 현재의 화상의 현재의 블록에 대한 TMVP 또는 TMVP 들로서 나중에 이용되는 경우, 화상의 참조 화상들에 대한 참조 상태 정보가 이용가능하다.
비디오 인코더 (20) 및 비디오 디코더 (30) 가 화상의 참조 화상들에 대한 참조 상태 정보를 저장할 수 있는 여러가지 방법들이 존재할 수도 있다. 하나의 예로서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 화상의 참조 화상 리스트들의 각각의 것에 대한 플래그들의 리스트를 저장할 수도 있다. 화상이 코딩되는 인스턴스에서, 참조 화상이 "장기 참조를 위해 사용되는" 으로서 식별되는 경우, 플래그의 값은 1 일 수도 있다. 화상이 코딩되는 인스턴스에서, 참조 화상이 "장기 참조를 위해 사용되는" 으로서 식별되지 않는 경우, 플래그의 값은 0 일 수도 있다.
예를 들어, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 RefPicListX 에 대한, usedForLongTermX 로서 지칭되는, 플래그들의 리스트를 각각 유지할 수도 있으며, 여기서 X 는 0 또는 1 과 동일하다. 예를 들어, 화상을 코딩하기 위해, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 각각 그 화상에 대한 RefPicList0 및/또는 그 화상에 대한 RefPicList1 을 구성할 수도 있다. 이러한 예에서, usedForLongTerm0 은 "장기 참조를 위해 사용되는" 으로서 식별되는 RefPicList0 내의 참조 화상들에 대한 1 의 플래그 값을 포함할 수도 있고, "장기 참조를 위해 사용되는" 으로서 식별되지 않는 RefPicList0 내의 참조 화상들에 대한 0 의 플래그 값을 포함할 수도 있다. 유사하게, usedForLongTerm1 은 "장기 참조를 위해 사용되는" 으로서 식별되는 RefPicList1 내의 참조 화상들에 대한 1 의 플래그 값을 포함할 수도 있고, "장기 참조를 위해 사용되는" 으로서 식별되지 않는 RefPicList1 내의 참조 화상들에 대한 0 의 플래그 값을 포함할 수도 있다.
즉, 비디오 인코더 (20) 및 비디오 디코더 (30) 가 화상에 대한 RefPicListX 를 구성한 후, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 usedForLongTermX[i] 의 값을, RefPicListX[i] 로서 식별된 화상이 "장기 참조를 위해 사용되는" 으로서 마크되는 경우에는 1 과 동일하게 그리고 그렇지 않은 경우에는 0 과 동일하게 설정할 수도 있다. 일부 예들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 각각의 디코딩된 화상 버퍼들 (DPBs) 내에 플래그들의 usedForLongTermX 리스트를 저장할 수도 있다; 그러나, 비디오 인코더 (20) 및 비디오 디코더 (30) 가 각각의 DPB 들 이외의 장소들에 플래그들의 usedForLongTermX 리스트를 저장하는 것이 가능할 수도 있다. 일반적으로, 플래그들의 usedForLongTermX 리스트는 각각의 DPB 들 내의 각각의 화상에 대한 각각의 참조 화상 리스트에 대해 이용가능할 수도 있다.
비디오 인코더 (20) 의 DPB 및 비디오 디코더 (30) 의 DPB 는 디코딩된 화상들에 관한 정보 뿐아니라 디코딩된 화상들을 저장할 수도 있다. 예를 들어, 화상의 인코딩 프로세스의 일부로서, 비디오 인코더 (20) 는 화상의 인코딩된 블록들을 디코딩하고 비디오 인코더 (20) 의 DPB 에 그 디코딩된 화상을 저장하여, 비디오 인코더 (20) 가 후속하는 화상들을 인터 예측하는데 그 디코딩된 화상을 이용할 수 있도록 한다. 비디오 디코더 (30) 는 화상을 디코딩하고 그의 DPB 에 디코딩된 화상을 저장할 수도 있어, 비디오 디코더 (30) 가 후속하는 화상들을 인터 예측하는데 그 디코딩된 화상을 이용할 수 있도록 한다. 이에 따라, 비디오 인코더 (20) 의 DPB 및 비디오 디코더 (30) 의 DPB 는, 화상이 코딩되는 (즉, 적용가능한 대로, 인코딩되거나 디코딩되는) 인스턴스에서, 화상의 참조 화상들에 대한 참조 상태 정보를 저장하기에 적합한 장소들일 수도 있다.
본 개시에 기술된 기법들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 화상이 코딩되는 인스턴스에서, 화상에 대한 저장된 참조 상태 정보를 사용하여 LongTermRefPic 함수를 구현할 수도 있다. 예를 들어, LongTermRefPic(picX, refIdx, LX) 는 picX 의 usedForLongTermX[refIdx] 의 값을 리턴한다. 예를 들어, 비디오 인코더 (20) 및 비디오 디코더 (30) 는, usedForLongTermX[refIdx] 에 저장된 값에 기초하여, 화상이 코딩되었던 인스턴스에서, 화상의 참조 화상의 참조 상태를 결정할 수도 있다.
하나의 예로서, picX 가 현재의 블록의 모션 벡터 또는 벡터들을 결정하기 위해 그의 모션 벡터 또는 벡터들이 사용되는 시간적으로 이웃하는 블록을 포함하는 시간적 화상이라고 가정하라. 또한, 시간적으로 이웃하는 블록이 시간적 화상의 RefPicList0 내의 제 2 참조 화상 (즉, RefPicList0 에 대한 refIdx 가 1 이다) 을 참조하는 하나의 모션 벡터, 및 시간적 화상의 RefPicList1 내의 제 4 참조 화상 (즉, RefPicList1 에 대한 refIdx 가 3 이다) 을 참조하는 다른 모션 벡터로 양방향 예측된다고 가정하라. 이러한 예에서, LongTermRefPic(시간적 화상, 1, RefPicList0) 함수를 구현하기 위해, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 시간적 화상에 대한 usedForLongTerm0[1] 에 저장된 값을 결정했을 것이다. LongTermRefPic(시간적 화상, 3, RefPicList1) 함수를 구현하기 위해, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 시간적 화상에 대한 usedForLongTerm1[3] 에 저장된 값을 결정했을 것이다. 이러한 방식으로, 비디오 인코더 (20) 및 비디오 디코더 (30) 는, 현재의 화상을 코딩할 때, 시간적 화상이 코딩되었던 인스턴스에서, 시간적 화상의 참조 화상들의 참조 상태를 결정할 수 있을 수도 있다.
화상이 코딩되는 인스턴스에서 화상의 참조 화상들의 참조 상태 정보는, 그렇지 않은 경우에 비디오 인코더 (20) 및 비디오 디코더 (30) 가 수행할 수도 있는 화상들의 일반 상태 마킹과 혼동되지 않아야 한다. 예를 들어, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 "장기 참조를 위해 사용되는", "단기 참조를 위해 사용되는", 또는 "참조를 위해 사용되지 않는" 으로서 화상들을 지정 (즉, 마크) 하고, 그러한 지정들을 각각의 DPB 들에 저장하도록 이미 구성될 수도 있다. 이들 화상들의 지정들은 변할 수도 있다. 예를 들어, DPB 에 현재 저장되는 화상은 "단기 참조를 위해 사용되는" 으로서 마크될 수도 있지만, "장기 참조를 위해 사용되는" 으로 변경될 수도 있다. 이러한 경우에, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 각각의 DPB 들 내의 화상의 "장기 참조를 위해 사용되는" 의 지정을 저장할 수도 있다.
"장기 참조를 위해 사용되는", "단기 참조를 위해 사용되는", 또는 "참조를 위해 사용되지 않는" 으로서의 화상의 마킹은 화상의 현재의 상태를 표시할 수도 있다. 그러나, 화상의 현재의 상태는, 화상이 참조 화상으로서 사용되었던 때의 화상의 상태는 말할 것도 없고, 화상의 이전의 상태에 관한 임의의 정보를 제공하지 않을 수도 있다.
상술된 바와 같이, 하나의 예로서, 플래그들의 usedForLongTermX 리스트가 참조 화상들이 화상을 인터 예측하는데 사용되었을 때의 참조 화상들의 상태를 저장할 수도 있다. 이러한 방식으로, 각 화상과 연관되는 플래그들의 usedForLongTermX 리스트가 존재할 수도 있다. 예를 들어, 제 1 화상의 코딩 동안, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 제 1 화상과 연관되는 플래그들의 usedForLongTerm0 및/또는 usedForLongTerm1 리스트를 저장할 수도 있다. 제 2 화상의 코딩 동안, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 제 2 화상과 연관되는 플래그들의 usedForLongTerm0 및/또는 usedForLongTerm1 리스트를 저장할 수도 있는 등등이다.
제 1 화상과 연관되는 플래그들의 usedForLongTerm0 및/또는 usedForLongTerm1 리스트는 제 2 화상과 연관되는 플래그들의 usedForLongTerm0 및/또는 usedForLongTerm1 리스트와는 상이할 수도 있다. 예를 들어, 제 1 화상 및 제 2 화상이 인터 예측을 위해 하나 이상의 동일한 참조 화상들을 사용했을지라도, 제 1 및 제 2 화상 양자에 의해 사용된, 참조 화상들에 대한 참조 상태는 비디오 인코더 (20) 및 비디오 디코더 (30) 가 제 1 화상을 코딩했을 때로부터 비디오 인코더 (20) 및 비디오 디코더 (30) 가 제 2 화상을 코딩했을 때까지 변화한 것이 가능할 수도 있다. 화상에 대한 플래그들의 usedForLongTerm0 및/또는 usedForLongTerm1 리스트는 그 화상에 고유하고, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 코딩되는 각 화상에 대한 플래그들의 usedForLongTerm0 및/또는 usedForLongTerm1 리스트를 저장할 수도 있다.
이에 따라, 본 개시에 기술된 기법들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 화상의 현재의 상태 뿐아니라, 다른 화상이 코딩되었던 인스턴스에서, 해당 화상이 그 다른 화상에 대한 참조 화상이었던 때의 그 화상의 상태를 저장하도록 구성될 수도 있다. TMVP 또는 TMVP 들을 사용하는 때와 같은 일부 경우들에서, 현재의 블록을 코딩하는 것은 시간적으로 이웃하는 블록에 대한 참조 화상이었던 화상의 현재의 상태에 의존하지 않아야 한다. 오히려, 화상이 시간적으로 이웃하는 블록에 대한 참조 화상으로서 기능했을 때의 화상의 상태가 적절할 수도 있다. 본 개시에서 기술된 기법들은 비디오 인코더 (20) 및 비디오 디코더 (30) 가 시간적 화상이 코딩되었던 인스턴스에서 시간적 화상의 참조 화상들에 대한 참조 상태 정보를 저장하는 것을 허용한다.
상술된 바와 같이, TMVP 또는 TMVP 들은 시간적으로 이웃하는 블록의 모션 벡터 또는 모션 벡터들이다. 일부 예들에서, 시간적으로 이웃하는 블록의 모션 벡터 또는 모션 벡터들은 시간적 화상 및 현재의 화상과 동일한 뷰에서 화상 또는 화상들을 참조할 수도 있다. 그러나, 본 개시에 기술된 기법들은 그렇게 제한되지 않는다.
본 개시에 기술된 기법들은 멀티뷰 코딩으로 확장될 수도 있다. 멀티뷰 코딩에서는, 각각 화상들을 포함하는 다수의 뷰들이 존재한다. 예를 들어, 제 1 뷰는 화상들의 제 1 세트를 포함할 수도 있고, 제 2 뷰는 화상들의 제 2 세트를 포함할 수도 있다. 제 1 및 제 2 뷰들보다 더 많은 뷰들이 존재할 수도 있다. 화상들의 제 1 세트 및 화상들의 제 2 세트는 실질적으로 유사한 비디오 컨텐츠를 포함하지만, 수평 디스패리티를 가지고 있을 수도 있다. 뷰어가 화상들의 제 1 및 제 2 세트 양자 모두를 동시에 뷰잉할 때, 뷰어는 디스플레이 디바이스 (32) 의 2D 영역에 제약되기 보다는 3D 볼륨을 포함하는 3D 비디오를 지각한다.
넌-멀티뷰 코딩에서는, 하나의 뷰만이 존재할 수도 있다. 이들 예들에서, 시간적으로 이웃하는 블록의 모션 벡터 또는 벡터들은 시간적 화상과 동일한 뷰에서 화상들을 참조할 수도 있다. 그러나, 멀티뷰 코딩에서는, 시간적으로 이웃하는 블록의 모션 벡터 또는 벡터들은 시간적 화상을 포함하는 뷰와는 다른 뷰에서 화상들을 참조할 수도 있다. 예를 들어, 멀티뷰 코딩에서, 시간적 화상 및 현재의 화상은 동일한 뷰에 있을 수도 있지만, 시간적 화상에 대한 모션 벡터 또는 벡터들은 시간적 화상 및 현재의 화상을 포함하는 뷰 이외의 뷰들에서 화상들을 참조한다.
다른 뷰에서 화상들을 참조하는 모션 벡터들은 디스패리티 모션 벡터들로서 지칭될 수도 있다. 이에 따라, 시간적으로 이웃하는 블록의 모션 벡터 또는 벡터들이 다른 뷰에서 화상들을 참조하는 예들에서, TMVP 또는 TMVP 들은 디스패리티 모션 벡터 또는 디스패리티 모션 벡터들일 수도 있다.
일부 예들에서, 멀티뷰 코딩은, 현재의 뷰에서 현재의 화상 내의 블록을 인터 예측하는데 사용되는 다른 뷰에서의 화상이 현재의 화상과 동일한 시간에 디스플레이되는 것을 요구할 수도 있다. 예를 들어, 현재의 화상과 시간적 화상이 현재의 뷰의 화상들이라고 가정하라. 또한, 시간적 화상에 대한 모션 벡터가 다른 뷰에서 화상을 참조한다고 가정하라. 이러한 예에서, 멀티뷰 코딩은 시간적 화상 및 다른 뷰에서의 화상이 동일한 시간에 디스플레이되는 것을 요구할 수도 있다.
화상이 디스플레이되는 시간은 화상의 화상 순서 카운트 (POC) 값에 의해 정의될 수도 있다. 예를 들어, 더 작은 POC 값을 갖는 화상은 더 큰 POC 값을 갖는 화상보다 더 일찍 디스플레이될 수도 있다. 화상의 디스플레이 시간은 화상의 코딩 시간과 혼동되지 않아야 한다. 예를 들어, 더 작은 POC 값을 갖는 화상은 더 큰 POC 값을 갖는 화상보다 더 일찍 디스플레이될 수도 있지만, 더 작은 POC 값을 갖는 화상은 더 큰 POC 값을 갖는 화상이 코딩되는 때보다 나중에 코딩될 수도 있다.
멀티뷰 코딩에서, 동시에 디스플레이되어야 하는 상이한 뷰들에서의 화상들은 동일한 POC 값이 할당될 수도 있다. 예를 들어, 시간적으로 이웃하는 블록의 모션 벡터 또는 벡터들이 참조하는, 시간적 화상의 POC 값 및 다른 뷰에서의 화상의 POC 값은 동일할 수도 있다. 또한, 멀티뷰 코딩에서, 제 1 뷰에서의 화상이 인터 예측을 위해 제 2 뷰에서의 화상을 이용하는 경우, 제 2 뷰에서의 화상은 제 1 뷰에서의 화상이 코딩되는 인스턴스에서 "장기 참조를 위해 사용되는" 으로서 고려될 수도 있다.
본 개시에 기술된 기법들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 가 화상에 대한 RefPicList0 및/또는 RefPicList1 을 구성하는 경우, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 참조 화상 리스트들의 어느 것 또는 양자 모두 내의 상이한 뷰로부터의 화상을 포함할 수도 있다. 예를 들어, RefPicList0 및 RefPicList1 은 참조 화상들의 POC 값들을 식별할 수도 있다. RefPicList0 또는 RefPicList1 에서 식별된 참조 화상에 대한 POC 값이 코딩되고 있는 화상의 POC 값과 상이한 경우, 그 참조 화상은 코딩되고 있는 화상과 동일한 뷰에 속한다. RefPicList0 또는 RefPicList1 에서 식별된 참조 화상에 대한 POC 값이 코딩되고 있는 화상의 POC 값과 동일한 경우, 그 참조 화상은 코딩되고 있는 화상과는 상이한 뷰에 속한다.
상술된 바와 같이, 코딩되고 있는 화상과는 상이한 뷰에 속하는 참조 화상은 화상이 코딩되고 있는 인스턴스에서 "장기 참조를 위해 사용되는" 으로서 지정될 수도 있다. 일부 예들에서, RefPicListX[i] 에 의해 식별된 화상이 코딩되고 있는 화상과 동일한 POC 값을 갖는 경우, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 usedForLongTermX[i] 의 값을 1 과 동일하게 설정할 수도 있다. 이들 예들에서, RefPicListX[i] 에 의해 식별된 화상이 코딩되고 있는 화상과 동일한 POC 값을 갖지 않는 경우, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 usedForLongTermX[i] 의 값을 0 과 동일하게 설정할 수도 있다.
예를 들어, 일부 예들에서, 화상을 코딩할 때, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 usedForLongTermX[i] 의 값을, RefPicListX[i] 에 의해 식별된 참조 화상이 "장기 참조를 위해 사용되는" 으로서 지정되는 경우에는 1 과 동일하게, 그리고 그렇지 않은 경우에는 0 과 동일하게 설정할 수도 있다. 이들 예들은 멀티뷰 코딩 및 넌-멀티뷰 코딩 양자 모두에 적용가능할 수도 있다.
일부 대안적인 예들에서, 화상을 코딩할 때, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 usedForLongTermX[i] 의 값을, RefPicListX[i] 에 의해 식별된 참조 화상이 코딩되고 있는 화상과 동일한 POC 값을 갖는 경우에는 1 과 동일하게, 그리고 그렇지 않은 경우에는 0 과 동일하게 설정할 수도 있다. 이들 대안적인 예들에서, RefPicListX[i] 에 의해 식별된 참조 화상이 "장기 참조를 위해 사용되는" 으로서 식별되지만, 코딩되고 있는 화상과 동일한 POC 값을 갖지 않는 경우, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 usedForLongTermX[i] 의 값을 0 과 동일하게 설정할 수도 있다. 예를 들어, 이들 대안적인 예들에서, 참조 화상이 화상이 코딩되고 있을 때 "장기 참조를 위해 사용되는" 으로서 지정되더라도, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 참조 화상에 대응하는 usedForLongTermX 의 엔트리를, 참조 화상의 POC 값이 코딩되고 있는 화상의 POC 값과 상이한 경우에 0 과 동일하게 설정할 수도 있다. 이들 대안적인 예들은 멀티뷰 코딩에 더 적용가능할 수도 있지만, 마찬가지로 넌-멀티뷰 코딩과 함께 사용가능할 수도 있다.
즉, 일부 예들에서, usedForLongTermX[i] 의 값은 RefPicListX[i] 에 의해 식별된 참조 화상이 "장기 참조를 위해 사용되는" 으로서 마크되는지, 또는 "장기 참조를 위해 사용되는" 으로서 마크되지 않는지 여부에 기초한다. 일부 대안적이 예들에서, usedForLongTermX[i] 의 값은 RefPicListX[i] 에 의해 식별된 참조 화상이 코딩되고 있는 화상과 동일한 POC 값을 갖는지, 또는 코딩되고 있는 화상과 동일한 POC 값을 갖지 않는지 여부에 기초한다. 어느 예에서나, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 해당 화상과 연관된 플래그들의 usedForLongTermX 리스트의 값들에 기초하여 화상에 대한 LongTermRefPic 함수를 구현할 수도 있다.
상술된 바와 같이, 일부 예들에서, (하나의 비제한적인 예로서) HEVC 표준에 대한 요건들과 일치시키기 위해, 기법들은 비디오 인코더 (20) 및 비디오 디코더 (30) 가 시간적 화상이 코딩되었던 인스턴스에서 시간적 화상의 참조 화상의 상태 정보를 결정하는 것을 허용한다. 다음은 비디오 인코더 (20) 및 비디오 디코더 (30) 가 시간적 화상이 코딩되었던 인스턴스에서 시간적 화상의 참조 화상의 상태 정보를 결정할 수도 있는 하나의 예시의 이유를 기술한다. 이러한 설명은 예시의 목적으로만 제공되고 제한하는 것으로 고려되지 않아야 한다는 것이 이해되어야 한다. 또, 본 개시에 기술된 기법들은 HEVC 표준에 제한되거나 병합 또는 AMVP 모드에 제한되지 않는다.
병합 또는 AMVP 모드 동안, 비디오 인코더 (20) 또는 비디오 디코더 (30) 가 병합 또는 AMVP 후보 리스트로의 공간적 또는 시간적 후보 모션 벡터 (즉, SMVP 또는 TMVP) 를 포함하는지 여부를 결정하는 경우, 비디오 인코더 (20) 또는 비디오 디코더 (30) 는 목표 참조 화상 (예를 들어, 시간적 화상) 의 장기 또는 단기 상태와 후보 모션 벡터의 참조 화상 (예를 들어, 시간적 화상의 참조 화상) 의 그것과 비교할 수도 있다. 일부 경우들에서, 이들 화상들의 양자 모두의 상태들이 (시간적 화상의 코딩의 시간에) 동일한 경우에만, 후보 모션 벡터가 후보 리스트에 추가된다. 그러한 프로세스가 필요하며, 동일한 프로세스가 비디오 인코더 (20) 및 비디오 디코더 (30) 모두에 대해 존재할 수도 있다.
본 개시에 기술된 기법들에 따르면, 시간적 후보 모션 벡터가 참조하는 참조 화상 (예를 들어, 시간적 화상의 참조 화상) 의 상태에 액세스하기 위해, picX 의 usedForLongTermX[refIdx] 가 사용될 수 있고, 여기서 picX 는 동일 장소에 배치된 화상 (예를 들어, 시간적 화상) 이다. 예를 들어, picX 의 used ForLongTermX[refIdx] 가 1 인 경우, 그것은 picX 의 RefPicListX 의 refIdx 를 갖는 참조 화상이 장기 참조 화상이고, 그렇지 않으면 단기 참조 화상이라는 것을 의미한다. 이러한 예에서, RefPicListX 의 refIdx 를 갖는 참조 화상은 picX 에 대한 참조 화상이고, picX 는 시간적 화상을 참조한다. 시간적 화상은, 그의 모션 벡터 정보가 현재의 블록에 대한 모션 벡터 정보를 결정하는데 잠재적으로 사용될 수도 있는 시간적으로 이웃하는 블록을 포함한다.
이러한 방식으로, 비디오 코더 (예를 들어, 비디오 인코더 (20) 또는 비디오 디코더 (30)) 는 그 기법들을 구현하도록 구성될 수도 있다. 예를 들어, 비디오 코더는 제 1 화상의 하나 이상의 참조 화상들의 참조 상태 정보를 저장할 수도 있고, 여기서 참조 상태 정보는 제 1 화상이 코딩되는 인스턴스에서 하나 이상의 참조 화상들의 참조 상태 정보를 나타낸다. 비디오 코더는 제 1 화상의 하나 이상의 참조 화상들의, 제 1 화상이 코딩되었던 인스턴스에서의, 저장된 참조 상태 정보에 기초하여 제 2 의, 상이한 화상 내의 비디오 블록을 코딩할 수도 있다. 일부 예들에서, 제 1 화상이 코딩되는 인스턴스에서, 하나 이상의 참조 화상들의 참조 화상의 참조 상태는 제 2 화상이 코딩되는 인스턴스에서 참조 화상의 참조 상태와는 상이하다.
비디오 코더는 제 1 화상에 대한 적어도 하나의 참조 화상 리스트를 구성할 수도 있다. 비디오 코더는 그 적어도 하나의 참조 화상 리스트 내에서 식별된 참조 화상의 각각에 대한 참조 상태 정보를 저장할 수도 있다. 예를 들어, 비디오 코더는 제 1 화상에 대한 플래그들의 usedForLongTermX 리스트를 저장할 수도 있다. 일부 예들에서, 플래그들의 usedForLongTermX 리스트는 참조 화상이 "장기 참조를 위해 사용되는" 으로서 지정되는지, 또는 "장기 참조를 위해 사용되는" 으로서 지정되지 않는지 여부를 나타내는 제 1 화상의 참조 화상들의 참조 화상에 대한 값을 저장할 수도 있다. 일부 예들에서, 플래그들의 usedForLongTermX 리스트는 참조 화상의 화상 순서 카운트 (POC) 값이 제 1 화상의 POC 값과 동일한 POC 값인지, 또는 참조 화상의 POC 값이 제 1 화상의 POC 값과 상이한지 여부를 나타내는 제 2 화상의 참조 화상들의 참조 화상에 대한 값을 저장할 수도 있다.
일부 예들에서, 비디오 코더는 제 2 화상 내의 비디오 블록에 대한 모션 벡터가 제 1 화상 내의 비디오 블록의 모션 벡터로부터 도출되어야 하는지 (예를 들어, TMVP 가 병합/스킵 모드 또는 AMVP 모드에서 사용되어야 하는지) 여부를 결정할 수도 있다. 제 2 화상 내의 비디오 블록에 대한 모션 벡터가 제 1 화상 내의 비디오 블록의 모션 벡터로부터 도출되어야 하는 경우, 비디오 코더는 제 1 화상 내의 비디오 블록의 모션 벡터가 참조하는 제 1 화상의 하나 이상의 참조 화상들의 참조 화상을 결정할 수도 있다. 비디오 코더는 저장된 참조 상태 정보에 기초하여, 제 1 화상이 코딩되는 인스턴스에서, 그 결정된 참조 화상의 참조 상태를 결정할 수도 있다. 이들 예들에서, 비디오 코더는 그 결정된 참조 상태에 기초하여 제 2 참조 화상 내의 비디오 블록을 코딩 (예를 들어, 인코딩 또는 디코딩) 할 수도 있다.
도 2 는 본 개시에 기술된 기법들을 구현할 수도 있는 예시의 비디오 인코더 (20) 를 도시하는 블록도이다. 비디오 인코더 (20) 는 비디오 슬라이스들 내의 비디오 블록들의 인트라 및 인터 코딩 (즉, 인트라 예측 또는 인터 예측) 을 수행할 수도 있다. 인트라 코딩은 주어진 비디오 프레임 또는 화상 내의 비디오에 있어서의 공간적 리던던시를 감소하거나 제거하기 위해 공간 예측에 의존한다. 인터 코딩은 비디오 시퀀스의 인접한 프레임들 또는 화상들 내의 비디오에서 시간적 리던던시를 감소하거나 제거하기 위해 시간 예측에 의존한다. 인트라 모드 (I 모드) 는 수개의 공간 기반 압축 모드들의 임의의 것을 지칭할 수도 있다. 단방향 예측 (P 모드) 또는 양방향 예측 (B 모드) 와 같은 인터 모드들은 수개의 시간 기반 압축 모드들 중 임의의 것을 지칭할 수도 있다.
도 2 에 도시된 바와 같이, 비디오 인코더 (20) 는 인코딩될 비디오 화상 내의 현재의 비디오 블록을 수신한다. 도 2 의 예에서, 비디오 인코더 (20) 는 모드 선택 유닛 (40), 참조 화상 메모리 (64), 합산기 (50), 변환 프로세싱 유닛 (52), 양자화 유닛 (54), 및 엔트로피 인코딩 유닛 (56) 을 포함한다. 모드 선택 유닛 (40) 은, 차례로, 모션 보상 유닛 (44), 모션 추정 유닛 (42), 인트라 예측 유닛 (46), 및 파티션 유닛 (48) 을 포함한다. 비디오 블록 재구성의 경우, 비디오 인코더 (20) 는 또한 역양자화 유닛 (58), 역변환 유닛 (60), 및 합산기 (62) 를 포함한다. 디블록킹 필터 (도 2 에 도시되지 않음) 가 또한 재구성된 비디오로부터 블록키니스 (blockiness) 아티팩트들을 제거하기 위해 블록 경계들을 필터링하기 위해 포함될 수도 있다. 원한다면, 디블록킹 필터는 통상 합산기 (62) 의 출력을 필터링할 것이다. 추가적인 필터들 (인 루프 또는 포스트 루프) 이 또한 디블록킹 필터에 추가하여 사용될 수도 있다. 그러한 필터들은 간략함을 위해 도시되지 않지만, 원한다면, (인-루프 필터로서) 합산기 (50) 의 출력을 필터링할 수도 있다.
일부 예들에서, 모드 선택 유닛 (40) 또는 비디오 인코더 (20) 의 다른 유닛들과 결합한 모드 선택 유닛 (40) 은 본 개시에 기술된 기법들을 구현할 수도 있다. 예를 들어, 모드 선택 유닛 (40) 은 비디오 인코더 (20) 가 제 1 화상을 인코딩했던 인스턴스에서 제 1 화상의 참조 화상들에 대한 참조 상태 정보를 저장할 수도 있다. 모드 선택 유닛 (40) 은 비디오 인코더 (20) 가 제 1 화상을 인코딩했던 인스턴스에서 제 1 화상의 참조 화상들에 대한 참조 상태 정보에 기초하여 제 2 화상의 블록을 인터 예측할 수도 있다.
하나의 예로서, 제 2 화상 내의 블록을 인터 예측하기 위해, 모드 선택 유닛 (40) 은 제 2 화상 내의 블록의 모션 벡터가 제 1 화상 내의 블록의 모션 벡터로부터 결정되어야 한다고 결정할 수도 있다. 이러한 예에서, 모드 선택 유닛 (40) 은 제 2 화상 내의 블록의 모션 벡터를 결정하기 위해 제 2 화상의 참조 화상들에 대한 참조 상태 정보를 이용할 수도 있다. 모드 선택 유닛 (40) 은 참조 화상 메모리 (64) 내에, 제 1 화상이 코딩되는 인스턴스에서의 제 1 화상의 참조 화상들의 참조 상태 정보를 저장할 수도 있다. 참조 화상 메모리 (64) 는 비디오 인코더 (20) 의 디코딩된 화상 버퍼 (DPB) 의 하나의 예이다.
본 개시의 양태들은 본 개시에 기술된 기법들을 구현하는 모드 선택 유닛 (40) 에 제한되지 않는다. 일부 예들에서, 프로세서 또는 프로세싱 유닛 (구체적으로 예시되지 않음) 이 본 개시에 기술ㄹ된 기법들을 구현할 수도 있다. 또한, 참조 화상 메모리 (64) 이외의 버퍼가 화상의 참조 화상들의 참조 상태 정보를 저장할 수도 있다.
인코딩 프로세스 동안, 비디오 인코더 (20) 는 코딩될 비디오 화상 또는 슬라이스를 수신한다. 화상 또는 슬라이스는 다수의 비디오 블록들로 분할될 수도 있다. 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 은 시간적 압축을 제공하기 위해 하나 이상의 참조 화상들 내의 하나 이상의 블록들에 대한 수신된 비디오 블록의 인터 예측 코딩을 수행한다. 인트라 예측 유닛 (46) 은 공간적 압축을 제공하기 위해 코딩될 블록과 동일한 화상 또는 슬라이스에서의 하나 이상의 이웃하는 블록들에 대해 수신된 비디오 블록의 인트라 예측 코딩을 대안적으로 수행할 수도 있다. 비디오 인코더 (20) 는 예를 들어 비디오 데이터의 각 블록에 대한 적절한 코딩 모드를 선택하기 위해 다수의 코딩 패스들을 수행할 수도 있다.
또한, 파티션 유닛 (48) 은 이전의 코딩 패스들에서의 이전의 파티셔닝 스킴들의 평가에 기초하여 비디오 데이터의 블록들을 서브 블록들로 파티셔닝할 수도 있다. 예를 들어, 파티션 유닛 (48) 은 화상 또는 슬라이스를 LCU 들로 초기에 파티셔닝하고, 레이트 왜곡 분석 (예를 들어, 레이트 왜곡 최적화) 에 기초하여 LCU 들의 각각을 서브 CU 들로 파티셔닝할 수도 있다. 모드 선택 유닛 (40) 은 LCU 의 서브 CU 들로의 파티셔닝을 나타내는 쿼드트리 데이터 구조를 추가로 생성할 수도 있다. 쿼드트리의 리프 노드 CU 들은 하나 이상의 PU 들 및 하나 이상의 TU 들을 포함할 수도 있다.
모드 선택 유닛 (40) 은 예를 들어 에러 결과들에 기초하여 코딩 모드들 중 하나, 인트라 또는 인터를 선택할 수도 있고, 참조 화상으로서의 사용을 위해 인코딩된 블록을 재구성하기 위해 합산기 (62) 로 그리고 레지듀얼 블록 데이터를 생성하기 위해 합산기 (50) 로 결과의 인트라 또는 인터 코딩된 블록을 제공할 수도 있다. 모드 선택 유닛 (40) 은 또한 엔트로피 인코딩 유닛 (56) 으로 모션 벡터들, 인트라 모드 표시자들, 파티션 정보, 및 다른 그러한 신택스 정보와 같은 신택스 엘리먼트들을 제공한다.
모션 추정 유닛 (42) 은 비디오 시퀀스에 대한 미리 결정된 패턴에 따라 비디오 슬라이스에 대한 인터 예측 모드를 결정하도록 구성될 수도 있다. 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 은 고도로 집적될 수도 있지만, 개념적 목적을 위해 개별적으로 도시된다. 모션 추정 유닛 (42) 에 의해 수행되는 모션 추정은 비디오 블록들에 대한 모션을 추정하는 모션 벡터들을 생성하는 프로세스이다. 모션 벡터는, 예를 들어, 참조 화상 내의 예측 블록에 대한 현재의 비디오 프레임 또는 화상 내의 비디오 블록의 PU 의 변위를 나타낼 수도 있다.
상술한 바와 같이, 모션 벡터 예측자는 현재의 블록 이외의 블록에 대한 모션 벡터일 수도 있고, 가능하게는 이웃하는 블록에 대한 모션 벡터일 수도 있다. 모션 추정 유닛 (42) 은 또한 모션 벡터 차이 (MVD) 를 결정할 수도 있다. 예를 들어, 모션 추정 유닛 (42) 은 현재의 블록에 대한 모션 벡터와 모션 벡터 예측자 사이의 차이 (예를 들어, X-좌표의 델타 및 Y-좌표의 델타) 를 결정할 수도 있다.
예측 블록은 절대 차이의 합 (SAD), 제곱 차이의 합 (SSD), 또는 다른 차이 메트릭들에 의해 결정될 수도 있는 화소 차이에 의해, 코딩될 비디오 블록의 PU 와 밀접하게 매칭되는 것으로 발견되는 블록이다. 일부 예들에서, 비디오 인코더 (20) 는 참조 화상 메모리 (64) 내에 저장된 참조 화상들의 서브 인티저 화소 위치들에 대한 값들을 계산할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 참조 화상의 1/4 화소 위치들, 1/8 화소 위치들, 또는 다른 분수 화소 위치들의 값들을 보간할 수도 있다. 따라서, 모션 추정 유닛 (42) 은 풀 (full) 화소 위치들 및 분수 화소 위치들에 대한 모션 검색을 수행하고, 분수 화소 정밀도를 갖는 모션 벡터를 출력할 수도 있다.
모션 추정 유닛 (42) 은 PU 의 위치를 참조 화상의 예측 블록의 위치와 비교함으로써 인터 코딩된 슬라이스 내의 비디오 블록의 PU 에 대한 모션 벡터를 계산한다. 참조 화상은 제 1 참조 화상 리스트 (RefPicList0) 또는 제 2 참조 화상 리스트 (RefPicList1) 로부터 선택될 수도 있으며, 이들 각각은 참조 화상 메모리 (64) 에 저장된 하나 이상의 참조 화상들을 식별한다. 모션 추정 유닛 (42) 은 엔트로피 인코딩 유닛 (56) 및 모션 보상 유닛 (44) 으로 그 계산된 모션 벡터를 전송한다.
모션 보상 유닛 (44) 에 의해 수행되는 모션 보상은 모션 추정 유닛 (42) 에 의해 결정된 모션 벡터에 기초하여 예측 블록을 페치하거나 생성하는 것을 수반할 수도 있다. 또, 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 은 일부 예들에서 기능적으로 통합될 수도 있다. 현재의 비디오 블록의 PU 에 대한 모션 벡터를 수신하자마자, 모션 보상 유닛 (44) 은 참조 화상 리스트들 중 하나에서 모션 벡터가 가리키는 예측 블록을 위치 결정할 수도 있다. 합산기 (50) 는 코딩되고 있는 현재의 비디오 블록의 화소 값들로부터 예측 블록의 화소 값들을 감산함으로써 레지듀얼 비디오 블록을 형성하여, 이하에서 논의되는 바와 같은 화소 차이 값들을 형성한다. 일반적으로, 모션 추정 유닛 (42) 은 루마 성분들에 대한 모션 추정을 수행하고, 모션 보상 유닛 (44) 은 크로마 성분들 및 루마 성분들 양자 모두에 대한 루마 성분들에 기초하여 계산된 모션 벡터들을 사용한다. 모드 선택 유닛 (40) 은 또한 비디오 슬라이스의 비디오 블록들을 디코딩하는데 있어서 비디오 디코더 (30) 에 의한 사용을 위해 비디오 슬라이스 및 비디오 블록들과 연관된 신택스 엘리먼트들을 생성할 수도 있다.
인트라 예측 유닛 (46) 은 상술된 바와 같이 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 에 의해 수행되는 인터 예측에 대한 대안으로서 현재의 블록을 인트라 예측할 수도 있다. 특히, 인트라 예측 유닛 (46) 은 현재의 블록을 인코딩하기 위해 사용할 인트라 예측 모드를 결정할 수도 있다. 일부 예들에서, 인트라 예측 유닛 (46) 은, 예를 들어 별개의 인코딩 패스들 동안, 여러 인트라 예측 모드들을 사용하여 현재의 블록을 인코딩할 수도 있고, 인트라 예측 유닛 (46) (또는 일부 예들에서는 모드 선택 유닛 (40)) 은 테스트된 모드들로부터 사용할 적절한 인트라 예측 모드를 선택할 수도 있다.
예를 들어, 인트라 예측 유닛 (46) 은 여러 테스트된 인트라 예측 모드들에 대한 레이트 왜곡 분석을 사용하여 레이트 왜곡 값들을 계산하고, 테스트된 모드들 중에서 최선의 레이트 왜곡 특징들을 갖는 인트라 예측 모드를 선택할 수도 있다. 레이트 왜곡 분석은 일반적으로 인코딩된 블록을 생성하기 위해 사용되는 비트 레이트 (즉, 비트들의 수) 뿐아니라, 인코딩된 블록을 생성하기 위해 인코딩되었던 오리지날, 인코딩되지 않은 블록과 인코딩된 블록 사이의 왜곡 (또는 오차) 의 양을 결정한다. 인트라 예측 유닛 (46) 은 어느 인트라 예측 모드가 블록에 대한 최선의 레이트 왜곡 값을 나타내는지를 결정하기 위해 여러 인코딩된 블록들에 대한 왜곡들 및 레이트들로부터 비율들을 계산할 수도 있다.
임의의 경우에, 블록에 대한 인트라 예측 모드를 선택한 후, 인트라 예측 유닛 (46) 은 엔트로피 인코딩 유닛 (56) 으로 블록에 대한 선택된 인트라 예측 모드를 나타내는 정보를 제공할 수도 있다. 엔트로피 인코딩 유닛 (56) 은 그 선택된 인트라 예측 모드를 나타내는 정보를 인코딩할 수도 있다.
비디오 인코더 (20) 는 코딩되고 있는 오리지날 비디오 블록으로부터 모드 선택 유닛 (40) 으로부터의 예측 데이터를 감산함으로써 레지듀얼 비디오 블록을 형성한다. 합산기 (50) 는 이러한 감산 동작을 수행하는 컴포넌트 또는 컴포넌트들을 나타낸다. 변환 프로세싱 유닛 (52) 은 이산 코사인 변환 (DCT) 또는 개념적으로 유사한 변환과 같은 변환을 레지듀얼 블록에 적용하여, 레지듀얼 변환 계수 값들을 포함하는 비디오 블록을 생성한다. 변환 프로세싱 유닛 (52) 은 DCT 와 개념적으로 유사한 다른 변환들을 수행할 수도 있다. 웨이블릿 변환들, 인티저 변환들, 서브 대역 변환들 또는 다른 타입들의 변환들이 또한 사용될 수 있을 것이다.
임의의 경우에, 변환 프로세싱 유닛 (52) 은 레지듀얼 블록에 변환을 적용하여, 레지듀얼 변환 계수들의 블록을 생성한다. 변환은 레지듀얼 정보를 화소 값 도메인으로부터 주파수 도메인과 같은 변환 도메인으로 변환할 수도 있다. 변환 프로세싱 유닛 (52) 은 양자화 유닛 (54) 으로 결과의 변환 계수들을 전송할 수도 있다. 양자화 유닛 (54) 은 비트 레이트를 추가로 감소시키기 위해 변환 계수들을 양자화한다. 양자화 프로세스는 계수들의 일부 또는 전부와 연관된 비트 심도를 감소시킬 수도 있다. 양자화의 정도는 양자화 파라미터를 조정함으로써 변경될 수도 있다. 일부 예들에서, 양자화 유닛 (54) 은 그 후 양자화된 변환 계수들을 포함하는 매트릭스의 스캔을 수행할 수도 있다. 대안적으로, 엔트로피 인코딩 유닛 (56) 은 엔트로피 코딩 동안 스캔을 수행할 수도 있다.
양자화에 후속하여, 엔트로피 인코딩 유닛 (56) 은 양자화된 변환 계수들을 엔트로피 인코딩한다. 예를 들어, 엔트로피 인코딩 유닛 (56) 은 컨텍스트 적응형 가변 길이 코딩 (CAVLC), 컨텍스트 적응형 이진 산술 코딩 (CABAC), 신택스 기반 컨텍스트 적응형 이진 산술 코딩 (SBAC), 확률 구간 파티셔닝 엔트로피 (PIPE) 코딩 또는 다른 엔트로피 인코딩 방법론 또는 기법을 수행할 수도 있다. 엔트로피 인코딩 유닛 (56) 에 의한 엔트로피 인코딩에 후속하여, 인코딩된 비트스트림은 비디오 디코더 (30) 로 송신되거나, 비디오 디코더 (30) 에 의한 나중의 송신 또는 취출을 위해 아카이브될 수도 있다. 엔트로피 인코딩 유닛 (56) 은 또한 코딩되고 있는 현재의 비디오 슬라이스에 대한 다른 신택스 엘리먼트들 및 모션 벡터들을 엔트로피 인코딩할 수도 있다.
역양자화 유닛 (58) 및 역변환 유닛 (60) 은, 예를 들어 참조 블록으로서 나중의 사용을 위해 화소 도메인에서 레지듀얼 블록을 재구성하기 위해, 각각 역양자화 및 역변환을 적용한다. 모션 보상 유닛 (44) 은 참조 화상 메모리 (64) 의 화상들 중 하나의 예측 블록에 레지듀얼 블록을 가산함으로써 참조 블록을 계산할 수도 있다. 모션 보상 유닛 (44) 은 또한 모션 추정에서의 사용을 위해 서브 인티저 화소 값들을 계산하기 위해 재구성된 레지듀얼 블록에 하나 이상의 보간 필터들을 적용할 수도 있다. 합산기 (62) 는 참조 화상 메모리 (64) 에의 저장을 위해 재구성된 비디오 블록을 생성하기 위해 모션 보상 유닛 (44) 에 의해 생성된 모션 보상된 예측 블록에 재구성된 레지듀얼 블록을 가산한다. 재구성된 비디오 블록은 후속하는 비디오 화상 내의 블록을 인터 코딩하기 위해 참조 블록으로서 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 에 의해 사용될 수도 있다.
도 3 은 본 개시에 기술된 기법들을 구현할 수도 있는 예시의 비디오 디코더 (30) 를 도시하는 블록도이다. 도 3 의 예에서, 비디오 디코더 (30) 는 엔트로피 디코딩 유닛 (80), 모드 선택 유닛 (81), 역양자화 유닛 (86), 역변환 유닛 (88), 합산기 (90), 및 참조 화상 메모리 (92) 를 포함한다. 모드 선택 유닛 (81) 은 모션 보상 유닛 (82) 및 인트라 예측 유닛 (84) 을 포함한다. 비디오 디코더 (30) 는, 일부 예들에서, 도 2 로부터의 비디오 인코더 (20) 에 대해 기술된 인코딩 패스에 일반적으로 역인 디코딩 패스를 수행할 수도 있다.
일부 예들에서, 모드 선택 유닛 (81) 또는 비디오 디코더 (30) 의 다른 유닛들과 결합한 모드 선택 유닛 (81) 은 본 개시에 기술된 기법들을 구현할 수도 있다. 예를 들어, 모드 선택 유닛 (81) 은 비디오 디코더 (30) 가 제 1 화상을 디코딩했던 인스턴스에서 제 1 화상의 참조 화상들에 대한 참조 상태 정보를 저장할 수도 있다. 모드 선택 유닛 (81) 은 비디오 디코더 (30) 가 제 1 화상을 디코딩했던 인스턴스에서 제 1 화상의 참조 화상들에 대한 참조 상태 정보에 기초하여 제 2 화상의 블록을 인터 예측할 수도 있다.
하나의 예로서, 제 2 화상 내의 블록을 인터 예측하기 위해, 모드 선택 유닛 (81) 은 제 2 화상 내의 블록의 모션 벡터가 제 1 화상 내의 블록의 모션 벡터로부터 결정되어야 한다는 것을 결정할 수도 있다. 이러한 예에서, 모드 선택 유닛 (81) 은 제 2 화상 내의 블록의 모션 벡터를 결정하기 위해 제 2 화상의 참조 화상들에 대한 참조 상태 정보를 이용할 수도 있다. 모드 선택 유닛 (81) 은 참조 화상 메모리 (92) 에 제 1 화상이 코딩되는 인스턴스에서 제 1 화상의 참조 화상들의 참조 상태 정보를 저장할 수도 있다. 참조 화상 메모리 (92) 는 비디오 디코더 (30) 의 디코딩된 화상 버퍼 (DPB) 의 하나의 예이다.
본 개시의 양태들은 본 개시에 기술된 기법들을 구현하는 모드 선택 유닛 (81) 에 제한되지 않는다. 일부 예들에서, 프로세서 또는 프로세싱 유닛 (구체적으로 도시되지 않음) 은 본 개시에 기술된 기법들을 구현할 수도 있다. 또한, 참조 화상 메모리 (92) 이외의 버퍼가 화상의 참조 화상들의 참조 상태 정보를 저장할 수도 있다.
디코딩 프로세스 동안, 비디오 디코더 (30) 는 비디오 인코더 (20) 로부터 인코딩된 비디오 슬라이스의 비디오 블록들을 표현하는 인코딩된 비디오 비트스트림 및 연관된 신택스 엘리먼트들을 수신한다. 비디오 디코더 (30) 의 엔트로피 디코딩 유닛 (80) 은 양자화된 계수들, 모션 벡터들, 및 다른 신택스 엘리먼트들을 생성하기 위해 비트스트림을 엔트로피 디코딩한다. 엔트로피 디코딩 유닛 (80) 은 모드 선택 유닛 (81) 으로 모션 벡터들 및 다른 신택스 엘리먼트들을 포워드한다. 비디오 디코더 (30) 는 비디오 슬라이스 레벨 및/또는 비디오 블록 레벨에서 그 신택스 엘리먼트들을 수신할 수도 있다.
비디오 슬라이스가 인트라 코딩된 (I) 슬라이스로서 코딩되는 경우, 모드 선택 유닛 (81) 의 인트라 예측 유닛 (84) 은 현재의 프레임 또는 화상의 이전에 디코딩된 블록들로부터의 데이터 및 시그널링된 인트라 예측 모드에 기초하여 현재의 비디오 슬라이스의 비디오 블록에 대한 예측 데이터를 생성할 수도 있다. 비디오 화상이 인터 코딩된 (즉, B 또는 P) 슬라이스로서 코딩되는 경우, 모드 선택 유닛 (81) 의 모션 보상 유닛 (82) 은 모션 벡터들 및 엔트로피 디코딩 유닛 (80) 으로부터 수신된 다른 신택스 엘리먼트들에 기초하여 현재의 비디오 슬라이스의 비디오 블록에 대한 예측 블록들을 생성한다. 예측 블록들은 참조 화상 리스트들 내의 하나의 리스트 내의 참조 화상들 중 하나로부터 생성될 수도 있다. 비디오 디코더 (30) 는 참조 화상 메모리 (92) 에 저장된 참조 화상들에 기초하여 디폴트 구성 기법들 또는 임의의 다른 기법을 사용하여 참조 화상 리스트들, RefPicList0 및 RefPicList1 을 구성할 수도 있다.
모션 보상 유닛 (82) 은 모션 벡터들 및 다른 신택스 엘리먼트들을 파싱함으로써 현재의 비디오 슬라이스의 비디오 블록에 대한 예측 정보를 결정하고, 디코딩되는 현재의 비디오 블록에 대한 예측 블록들을 생성하기 위해 예측 정보를 사용한다. 예를 들어, 모션 보상 유닛 (82) 은 현재의 비디오 슬라이스 내의 비디오 블록들을 디코딩하기 위해, 비디오 슬라이스의 비디오 블록들을 코딩하는데 사용되는 예측 모드 (예를 들어, 인트라 예측 또는 인터 예측) 를 결정하는 수신된 신택스 엘리먼트들, 인터 예측 슬라이스 타입 (예를 들어, B 슬라이스 또는 P 슬라이스), 그 슬라이스에 대한 참조 화상 리스트들의 하나 이상에 대한 구성 정보, 그 슬라이스의 각각의 인터 인코딩된 비디오 블록에 대한 모션 벡터들, 그 슬라이스의 각각의 인터 코딩된 비디오 블록에 대한 인터 예측 상태, 및 다른 정보 중 일부를 사용한다.
모션 보상 유닛 (82) 은 또한 보간 필터들에 기초하여 보간을 수행할 수도 있다. 모션 보상 유닛 (82) 은 참조 블록들의 서비 인티저 화소들에 대한 보간된 값들을 계산하기 위해 비디오 블록들의 인코딩 동안 비디오 인코더 (20) 에 의해 사용된 바와 같은 보간 필터들을 사용할 수도 있다. 이러한 경우에, 모션 보상 유닛 (82) 은 수신된 신택스 엘리먼트들로부터 비디오 인코더 (20) 에 의해 사용된 보간 필터들을 결정하고 예측 블록들을 생성하기 위해 그 보간 필터들을 사용할 수도 있다.
역양자화 유닛 (86) 은 비트스트림에서 제공되고 엔트로피 디코딩 유닛 (80) 에 의해 디코딩된 양자화된 변환 계수들을 역양자화 (즉, 탈양자화) 한다. 역 양자화 프로세스는 양자화의 정도 및, 마찬가지로 적용되어야 하는 역양자화의 정도를 결정하기 위해 비디오 슬라이스 내의 각 비디오 블록에 대한 비디오 인코더 (20) 에 의해 계산된 양자화 파라미터의 사용을 포함할 수도 있다. 역변환 유닛 (88) 은 화소 도메인에서 레지듀얼 블록들을 생성하기 위해 변환 계수들에 역변환, 예를 들어 역 DCT, 역 인티저 변환, 또는 개념적으로 유사한 역 변환 프로세스를 적용한다.
모션 보상 유닛 (82) 이 모션 벡터들 및 다른 신택스 엘리먼트들에 기초하여 현재의 비디오 블록에 대한 예측 블록을 생성한 후, 비디오 디코더 (30) 는 역변환 유닛 (88) 으로부터의 레지듀얼 블록들을 모션 보상 유닛 (82) 에 의해 생성된 대응하는 예측 블록들과 합산함으로써 디코딩된 비디오 블록을 형성한다. 합산기 (90) 는 이러한 합산 동작을 수행하는 컴포넌트 또는 컴포넌트들을 나타낸다. 원하는 경우, 디블록킹 필터가 또한 블록키니스 (blockiness) 아티팩트들을 제거하기 위해 디코딩된 블록들을 필터링하기 위해 적용될 수도 있다. 다른 루프 필터들 (코딩 루프 내 또는 코딩 루푸 이후) 이 또한 화소 트랜지션들을 평활화하거나, 다르게는 비디오 품질을 향상시키기 위해 사용될 수도 있다. 주어진 프레임 또는 화상 내의 디코딩된 비디오 블록들은 그 후 후속하는 모션 보상을 위해 사용되는 참조 화상들을 저장하는 참조 화상 메모리 (92) 에 저장된다. 참조 화상 메모리 (92) 는 또한 도 1 의 디스플레이 디바이스 (32) 와 같은 디스플레이 디바이스에의 이후의 제시를 위해 디코딩된 비디오를 저장한다.
도 4 는 본 개시에 기술된 하나 이상의 예시의 기법들에 따른 예시의 동작을 도시하는 플로우챠트이다. 비디오 코더는 도 4 에 도시된 예시의 기법들을 구현하도록 구성될 수도 있다. 비디오 코더의 예들은 비디오 인코더 (20) 또는 비디오 디코더 (30) 를 포함한다.
도 4 에 도시된 바와 같이, 비디오 코더는 제 1 화상에 대한 참조 화상 리스트 (예를 들어, 제 1 화상에 대한 RefPicList0 및/또는 RefPicList1) 를 구성할 수도 있다 (94). 비디오 코더는 참조 화상 리스트에서 식별된 참조 화상들에 대한 참조 상태 정보를 저장할 수도 있다 (96). 예를 들어, 비디오 코더는 플래그들의 usedForLongTermX[i] 리스트를 저장할 수도 있다.
일부 예들에서, 비디오 코더는 RefPicListX[i] 에 의해 식별된 참조 화상이 제 1 화상이 코딩되는 인스턴스에서 "장기 참조를 위해 사용되는" 으로서 지정되는지, 또는 "장기 참조를 위해 사용되는" 으로서 지정되지 않는지 여부를 나타내는 값을 usedForLongTermX[i] 에 저장한다. 일부 예들에서, 비디오 코더는 제 1 화상의 화상 순서 카운트 (POC) 값이 RefPicListX[i] 에 의해 식별된 참조 화상의 POC 값과 동일한 지, 또는 RefPicListX[i] 에 의해 식별된 참조 화상의 POC 값과 동일하지 않는지 여부를 나타내는 값을 usedForLongTermX[i] 에 저장한다.
비디오 코더는 제 1 화상을 코딩할 수도 있다 (100). 일부 예들에서, 비디오 코더는 구성된 참조 화상 리스트에서 식별된 참조 화상들에 기초하여 제 1 화상의 비디오 블록들에 대해 인터 예측을 수행할 수도 있다. 제 1 화상을 코딩한 후, 비디오 코더는 제 2 의, 상이한 화상을 코딩할 수도 있다.
예를 들어, 비디오 코더는 제 1 화상 내의 비디오 블록의 모션 벡터가 제 2 화상 내의 비디오 블록의 모션 벡터를 도출하는데 사용되는지 여부를 결정할 수도 있다 (102). 하나의 예로서, 비디오 코더는 제 1 화상 내의 비디오 블록의 모션 벡터가 제 2 화상 내의 비디오 블록에 대한 TMVP 를 형성하는지 여부를 결정할 수도 있다. 다른 예로서, 비디오 코더는 그 TMVP 가 제 2 화상 내의 비디오 블록에 대한 모션 벡터를 도출하는데 사용되는지 여부를 결정할 수도 있다.
제 1 화상 내의 비디오 블록의 모션 벡터가 제 2 화상 내의 비디오 블록의 모션 벡터를 도출하는데 사용되지 않는 경우 (102 의 아니오), 비디오 코더는 예측되고 있는 현재의 블록을 형성할 수도 있는 다음의 블록으로 진행할 수도 있다 (104). 비디오 코더는 그 후 제 1 화상 내의 비디오 블록의 모션 벡터가 제 2 화상 내의 현재의 블록의 모션 벡터를 도출하는데 사용되는지 여부를 결정하는 것을 반복할 수도 있다.
제 1 화상 내의 비디오 블록의 모션 벡터가 제 2 화상 내의 비디오 블록의 모션 벡터를 도출하는데 사용되는 경우 (102 의 예), 비디오 코더는 제 1 화상의 비디오 블록의 모션 벡터가 참조하는 참조 화상을 결정할 수도 있다 (106). 예를 들어, 비디오 코더가 모션 벡터의 구성된 참조 화상 리스트로의 참조 인덱스를 결정할 수도 있다. 비디오 코더는 모션 벡터가 참조했던 참조 화상을 결정하기 위해 참조 인덱스를 사용할 수도 있다.
비디오 코더는 저장된 참조 상태 정보에 기초하여 결정된 참조 화상의 참조 상태를 결정할 수도 있다 (108). 예를 들어, 비디오 코더는 제 1 화상에 대한 플래그들의 usedForLongTermX[i] 리스트로의 입력으로서 제 1 블록의 모션 벡터의 참조 인덱스를 이용할 수도 있다. 예를 들어, 제 1 화상에 대한 구성된 참조 화상 리스트가 RefPicList0 이라고 가정하라. 또한, RefPicList0 으로의 참조 인덱스가 refIdx0 이라고 가정하라. 이러한 예에서, 비디오 코더는 제 1 화상에 대한 RefPicList0[refIdx0] 에 의해 식별된 참조 화상의 참조 상태를 결정하기 위해 제 1 화상에 대한 usedForLongTerm0[refIdx0] 에 저장된 값을 결정할 수도 있다.
비디오 코더는 결정된 참조 상태에 기초하여 제 2 화상의 비디오 블록을 코딩할 수도 있다 (110). 이러한 방식으로, 본 개시에 기술된 기법들은 비디오 인코더 (20) 및 비디오 디코더 (30) 가 HEVC 표준의 요건들에 따르는 것을 허용할 수도 있다. 그러나, 상술된 바와 같이, 본 개시에 기술된 기법들은 HEVC 표준에 제한되는 것으로 고려되지 않아야 하고, 다른 표준들 뿐아니라 임의의 비디오 코딩 기법으로 확장가능하다.
하나 이상의 예들에서, 기술된 기능들은 하드웨어, 소프트웨어, 펌웨어 또는 이들의 임의의 조합으로 구현될 수도 있다. 소프트웨어로 구현되는 경우, 그 기능들은 컴퓨터 판독가능 매체 상의 하나 이상의 명령들 또는 코드로서 저장 또는 송신되고 하드웨어 기반 프로세싱 유닛에 의해 실행될 수도 있다. 컴퓨터 판독가능 매체는 데이터 저장 매체와 같은 유형의 매체에 대응하는 컴퓨터 판독가능 저장 매체, 또는 예를 들어 통신 프로토콜에 따라 한 곳에서 다른 곳으로 컴퓨터 프로그램의 전달을 용이하게 하는 임의의 매체를 포함하는 통신 매체를 포함할 수도 있다. 이러한 방식으로, 컴퓨터 판독가능 매체는 일반적으로 (1) 비일시적인 유형의 컴퓨터 판독가능 저장 매체 또는 (2) 신호 또는 반송파와 같은 통신 매체에 대응할 수도 있다. 데이터 저장 매체는 본 개시에 기술된 기법들의 구현을 위한 명령들, 코드, 및/또는 데이터 구조들을 취출하기 위해 하나 이상의 컴퓨터들 또는 하나 이상의 프로세서들에 의해 액세스될 수 있는 임의의 이용가능한 매체일 수도 있다. 컴퓨터 프로그램 제품은 컴퓨터 판독가능 매체를 포함할 수도 있다.
제한이 아닌 예시로써, 그러한 컴퓨터 판독가능 저장 매체는 RAM, ROM, EEPROM, CD-ROM, 또는 다른 광디스크 기억장치, 자기 디스크 기억장치, 또는 다른 자기 저장 디바이스들, 플래시 메모리, 또는 명령들 또는 데이터 구조들의 형태로 원하는 프로그램 코드를 저장하는데 사용될 수 있고, 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 연결이 컴퓨터 판독가능 매체로 지칭될 수도 있다. 예를 들어, 명령들이 동축 케이블, 광섬유 케이블, 트위스티드 페어, 디지털 가입자 라인 (DSL), 또는 적외선, 라디오 및 마이크로파와 같은 무선 기술들을 사용하여 웹사이트, 서버, 또는 다른 원격 소스로부터 송신되는 경우, 동축 케이블, 광섬유 케이블, 트위스티드 페어, DSL, 또는 적외선, 라디오 및 마이크로파와 같은 무선 기술들은 매체의 정의에 포함된다. 그러나, 컴퓨터 판독가능 저장 매체 및 데이터 저장 매체는 연결들, 반송파들, 신호들, 또는 일시적 매체를 포함하지 않고, 대신에 비일시적 유형의 저장 매체로 지향된다. 여기에서 사용되는 디스크 (disk) 및 디스크 (disc) 는 컴팩트 디스크 (CD), 레이저 디스크, 광디스크, DVD (digital versatile disc), 플로피 디스크, 및 블루레이 디스크를 포함하며, 여기서, 디스크 (disk) 는 보통 자기적으로 데이터를 재생하는 반면, 디스크 (disc) 는 레이저를 사용하여 광학적으로 데이터를 재생한다. 상기한 것의 조합들은 또한 컴퓨터 판독가능 매체의 범위 내에 포함되어야 한다.
명령들은 하나 이상의 디지털 신호 프로세서들 (DSPs), 범용 마이크로 프로세서들, 주문자 반도체들 (ASICs), 필드 프로그래머블 로직 어레이들 (FPGAs), 또는 다른 등가의 집적되거나 이산의 로직 회로와 같은 하나 이상의 프로세서들에 의해 실행될 수도 있다. 이에 따라, 여기에 사용된 용어 "프로세서" 는 여기에 기술된 기법들의 구현에 적합한 임의의 상술된 구조 또는 임의의 다른 구조를 지칭할 수도 있다. 또, 일부 양태들에서, 여기에 기술된 기능성은 인코딩 및 디코딩을 위해 구성된 전용 하드웨어 및/또는 소프트웨어 모듈들 내에 제공되거나, 결합된 코덱에 통합될 수도 있다. 또한, 그 기법들은 하나 이상의 회로들 또는 로직 엘리먼트들에서 완전히 구현될 수 있을 것이다.
본 개시의 기법들은 무선 핸드셋, 집적회로 (IC) 또는 IC 들의 세트 (예를 들어, 칩셋) 를 포함하여 광범위한 디바이스들 또는 장치들에서 구현될 수도 있다. 여러 컴포넌트들, 모듈들, 또는 유닛들은 개시된 기법들을 수행하도록 구성된 디바이스들의 기능적 양태들을 강조하기 위해 본 개시에 기술되지만, 상이한 하드웨어 유닛들에 의한 실현을 반드시 요구하지는 않는다. 오히려, 상술된 바와 같이, 여러 유닛들은 코덱 하드웨어 유닛에서 결합되거나 적절한 소프트웨어 및/또는 펌웨어와 결합하여 상술된 바와 같은 하나 이상의 프로세서들을 포함하여 상호동작가능한 하드웨어 유닛들의 집합에 의해 제공될 수도 있다.
여러 예들이 기술되었다. 이들 및 다른 예들은 다음의 청구범위의 범위 내에 있다.
Claims (27)
- 비디오 데이터를 코딩하는 방법으로서,
제 1 화상의 하나 이상의 참조 화상들의 참조 상태 정보를 저장하는 단계로서, 상기 참조 상태 정보는 상기 제 1 화상이 코딩되는 인스턴스에서 상기 하나 이상의 참조 화상들의 참조 상태 정보를 나타내는, 상기 참조 상태 정보를 저장하는 단계; 및
상기 제 1 화상이 코딩되었던 인스턴스에서의, 상기 제 1 화상의 상기 하나 이상의 참조 화상들의 저장된 상기 참조 상태 정보에 기초하여 제 2 의, 상이한 화상 내의 비디오 블록을 코딩하는 단계를 포함하는, 비디오 데이터를 코딩하는 방법. - 제 1 항에 있어서,
상기 제 1 화상 내의 비디오 블록 및 상기 제 1 화상 내의 상기 비디오 블록의 모션 벡터를 결정하는 단계로서, 상기 제 1 화상 내의 상기 비디오 블록의 모션 벡터는 상기 제 1 화상 내의 상기 비디오 블록에 대한 모션 벡터의 참조 인덱스에 기초하여 상기 제 1 화상의 상기 하나 이상의 참조 화상들로부터의 참조 화상을 참조하는, 상기 결정하는 단계;
상기 제 2 화상 내의 상기 비디오 블록에 대한 모션 벡터가 상기 제 1 화상 내의 상기 비디오 블록의 모션 벡터로부터 도출되어야 하는지 여부를 결정하는 단계; 및
상기 제 2 화상 내의 상기 비디오 블록에 대한 모션 벡터가 상기 제 1 화상 내의 상기 비디오 블록의 모션 벡터로부터 도출되어야 하는 경우, 저장된 상기 참조 상태 정보에 기초하여, 상기 제 1 화상이 코딩되었던 인스턴스에서, 상기 참조 화상의 참조 상태를 결정하는 단계를 더 포함하고,
상기 제 2 화상 내의 비디오 블록을 코딩하는 단계는 상기 참조 상태에 기초하여 상기 제 2 화상 내의 상기 비디오 블록을 코딩하는 단계를 포함하는, 비디오 데이터를 코딩하는 방법. - 제 1 항에 있어서,
상기 제 1 화상에 대한 적어도 하나의 참조 화상 리스트를 구성하는 단계로서, 상기 적어도 하나의 참조 화상 리스트는 상기 제 1 화상의 상기 하나 이상의 참조 화상들 중 적어도 하나를 식별하는, 상기 적어도 하나의 참조 화상 리스트를 구성하는 단계를 더 포함하고,
상기 참조 상태 정보를 저장하는 단계는 상기 적어도 하나의 참조 화상 리스트에서 식별된 상기 제 1 화상의 상기 하나 이상의 참조 화상들 중 상기 적어도 하나에 대한 참조 상태 정보를 저장하는 단계를 포함하는, 비디오 데이터를 코딩하는 방법. - 제 1 항에 있어서,
상기 제 1 화상에 대한 적어도 하나의 참조 화상 리스트를 구성하는 단계로서, 상기 적어도 하나의 참조 화상 리스트는 상기 제 1 화상의 상기 하나 이상의 참조 화상들을 식별하는, 상기 적어도 하나의 참조 화상 리스트를 구성하는 단계를 더 포함하고,
상기 참조 상태 정보를 저장하는 단계는 상기 적어도 하나의 참조 화상 리스트에서 식별된 상기 제 1 화상의 상기 하나 이상의 참조 화상들 모두에 대한 참조 상태 정보를 저장하는 단계를 포함하는, 비디오 데이터를 코딩하는 방법. - 제 1 항에 있어서,
상기 참조 상태 정보를 저장하는 단계는 상기 참조 화상이 장기 참조를 위해 사용되는 것으로서 지정되는지, 또는 장기 참조를 위해 사용되는 것으로서 지정되지 않는지 여부를 나타내는 상기 제 1 화상의 상기 하나 이상의 참조 화상들의 참조 화상에 대한 값을 저장하는 단계를 포함하는, 비디오 데이터를 코딩하는 방법. - 제 1 항에 있어서,
상기 참조 상태 정보를 저장하는 단계는 상기 참조 화상의 화상 순서 카운트 (picture order count: POC) 값이 상기 제 1 화상의 POC 값과 동일한 POC 값인지, 또는 상기 참조 화상의 상기 POC 값이 상기 제 1 화상의 상기 POC 값과 상이한지 여부를 나타내는 상기 제 1 화상의 상기 하나 이상의 참조 화상들의 참조 화상에 대한 값을 저장하는 단계를 포함하는, 비디오 데이터를 코딩하는 방법. - 제 1 항에 있어서,
상기 제 1 화상이 코딩되었던 인스턴스에서, 상기 하나 이상의 참조 화상들의 참조 화상의 참조 상태는 상기 제 2 화상이 코딩되는 인스턴스에서 상기 참조 화상의 참조 상태와는 상이한, 비디오 데이터를 코딩하는 방법. - 제 1 항에 있어서,
상기 제 1 화상의 상기 참조 상태가 상기 제 1 화상 내의 비디오 블록에 의해 나타낸 상기 제 1 화상의 참조 화상의 저장된 참조 상태와 상이한 경우, 상기 제 1 화상의 상기 비디오 블록의 모션 벡터는 상기 제 2 화상의 상기 비디오 블록의 모션 벡터를 예측하는데 사용되지 않는, 비디오 데이터를 코딩하는 방법. - 제 8 항에 있어서,
상기 제 1 화상의 상기 비디오 블록의 모션 벡터가 상기 제 2 화상의 상기 비디오 블록의 모션 벡터를 예측하는데 사용되지 않는 것은 상기 제 2 화상의 상기 비디오 블록의 모션 벡터의 예측을 위해 진보된 모션 벡터 예측 (advanced motion vector prediction: AMVP) 또는 병합 후보 리스트에 후보로서 상기 제 1 화상의 상기 비디오 블록의 모션 벡터를 추가하지 않는 것을 포함하는, 비디오 데이터를 코딩하는 방법. - 제 1 항에 있어서,
상기 저장하는 단계는, 비디오 인코더로, 상기 제 1 화상의 하나 이상의 참조 화상들의 참조 상태 정보를 저장하는 단계를 포함하고, 상기 참조 상태 정보는 상기 제 1 화상이 코딩되는 인스턴스에서 상기 하나 이상의 참조 화상들의 참조 상태 정보를 나타내며,
상기 코딩하는 단계는, 상기 비디오 인코더로, 상기 제 1 화상이 코딩되었던 인스턴스에서의, 상기 제 1 화상의 상기 하나 이상의 참조 화상들의 저장된 상기 참조 상태 정보에 기초하여 상기 제 2 화상 내의 비디오 블록을 인코딩하는 단계를 포함하는, 비디오 데이터를 코딩하는 방법. - 제 1 항에 있어서,
상기 저장하는 단계는, 비디오 디코더로, 상기 제 1 화상의 하나 이상의 참조 화상들의 참조 상태 정보를 저장하는 단계를 포함하고, 상기 참조 상태 정보는 상기 제 1 화상이 코딩되는 인스턴스에서 상기 하나 이상의 참조 화상들의 참조 상태 정보를 나타내며,
상기 코딩하는 단계는, 상기 비디오 디코더로, 상기 제 1 화상이 코딩되었던 인스턴스에서의, 상기 제 1 화상의 상기 하나 이상의 참조 화상들의 저장된 상기 참조 상태 정보에 기초하여 상기 제 2 화상 내의 비디오 블록을 디코딩하는 단계를 포함하는, 비디오 데이터를 코딩하는 방법. - 비디오 데이터를 코딩하는 장치로서,
상기 장치는 비디오 코더를 포함하고,
상기 비디오 코더는,
제 1 화상의 하나 이상의 참조 화상들의 참조 상태 정보를 저장하는 것으로서, 상기 참조 상태 정보는 상기 제 1 화상이 코딩되는 인스턴스에서 상기 하나 이상의 참조 화상들의 참조 상태 정보를 나타내는, 상기 참조 상태 정보를 저장하고;
상기 제 1 화상이 코딩되었던 인스턴스에서의, 상기 제 1 화상의 상기 하나 이상의 참조 화상들의 저장된 상기 참조 상태 정보에 기초하여 제 2 의, 상이한 화상 내의 비디오 블록을 코딩하도록 구성되는, 비디오 데이터를 코딩하는 장치. - 제 12 항에 있어서,
상기 비디오 코더는,
상기 제 1 화상 내의 비디오 블록 및 상기 제 1 화상 내의 상기 비디오 블록의 모션 벡터를 결정하는 것으로서, 상기 제 1 화상 내의 상기 비디오 블록의 모션 벡터는 상기 제 1 화상 내의 상기 비디오 블록에 대한 모션 벡터의 참조 인덱스에 기초하여 상기 제 1 화상의 상기 하나 이상의 참조 화상들로부터의 참조 화상을 참조하는, 상기 결정하고;
상기 제 2 화상 내의 상기 비디오 블록에 대한 모션 벡터가 상기 제 1 화상 내의 상기 비디오 블록의 모션 벡터로부터 도출되어야 하는지 여부를 결정하며;
상기 제 2 화상 내의 상기 비디오 블록에 대한 모션 벡터가 상기 제 1 화상 내의 상기 비디오 블록의 모션 벡터로부터 도출되어야 하는 경우, 저장된 상기 참조 상태 정보에 기초하여, 상기 제 1 화상이 코딩되었던 인스턴스에서, 상기 참조 화상의 참조 상태를 결정하도록 구성되고,
상기 제 2 화상 내의 비디오 블록을 코딩하기 위해, 상기 비디오 코더는 상기 참조 상태에 기초하여 상기 제 2 화상 내의 상기 비디오 블록을 코딩하도록 구성되는, 비디오 데이터를 코딩하는 장치. - 제 12 항에 있어서,
상기 비디오 코더는,
상기 제 1 화상에 대한 적어도 하나의 참조 화상 리스트를 구성하도록 구성되며,
상기 적어도 하나의 참조 화상 리스트는 상기 제 1 화상의 상기 하나 이상의 참조 화상들 중 적어도 하나를 식별하고,
상기 참조 상태 정보를 저장하기 위해, 상기 비디오 코더는 상기 적어도 하나의 참조 화상 리스트에서 식별된 상기 제 1 화상의 상기 하나 이상의 참조 화상들 중 상기 적어도 하나에 대한 참조 상태 정보를 저장하도록 구성되는, 비디오 데이터를 코딩하는 장치. - 제 12 항에 있어서,
상기 비디오 코더는,
상기 제 1 화상에 대한 적어도 하나의 참조 화상 리스트를 구성하도록 구성되고,
상기 적어도 하나의 참조 화상 리스트는 상기 제 1 화상의 상기 하나 이상의 참조 화상들을 식별하며,
상기 참조 상태 정보를 저장하기 위해, 상기 비디오 코더는 상기 적어도 하나의 참조 화상 리스트에서 식별된 상기 제 1 화상의 상기 하나 이상의 참조 화상들 모두에 대한 참조 상태 정보를 저장하도록 구성되는, 비디오 데이터를 코딩하는 장치. - 제 12 항에 있어서,
상기 참조 상태 정보를 저장하기 위해, 상기 비디오 코더는, 상기 참조 화상이 장기 참조를 위해 사용되는 것으로서 지정되는지, 또는 장기 참조를 위해 사용되는 것으로서 지정되지 않는지 여부를 나타내는 상기 제 1 화상의 상기 하나 이상의 참조 화상들의 참조 화상에 대한 값을 저장하도록 구성되는, 비디오 데이터를 코딩하는 장치. - 제 12 항에 있어서,
상기 참조 상태 정보를 저장하기 위해, 상기 비디오 코더는, 상기 참조 화상의 화상 순서 카운트 (picture order count: POC) 값이 상기 제 1 화상의 POC 값과 동일한 POC 값인지, 또는 상기 참조 화상의 상기 POC 값이 상기 제 1 화상의 상기 POC 값과 상이한지 여부를 나타내는 상기 제 1 화상의 상기 하나 이상의 참조 화상들의 참조 화상에 대한 값을 저장하도록 구성되는, 비디오 데이터를 코딩하는 장치. - 제 12 항에 있어서,
상기 제 1 화상이 코딩되었던 인스턴스에서, 상기 하나 이상의 참조 화상들의 참조 화상의 참조 상태는 상기 제 2 화상이 코딩되는 인스턴스에서 상기 참조 화상의 참조 상태와는 상이한, 비디오 데이터를 코딩하는 장치. - 제 12 항에 있어서,
상기 제 1 화상의 상기 참조 상태가 상기 제 1 화상 내의 비디오 블록에 의해 나타낸 상기 제 1 화상의 참조 화상의 저장된 참조 상태와 상이한 경우, 상기 제 1 화상의 상기 비디오 블록의 모션 벡터는 상기 제 2 화상의 상기 비디오 블록의 모션 벡터를 예측하는데 사용되지 않는, 비디오 데이터를 코딩하는 장치. - 제 19 항에 있어서,
상기 제 1 화상의 상기 비디오 블록의 모션 벡터가 상기 제 2 화상의 상기 비디오 블록의 모션 벡터를 예측하는데 사용되지 않는 것은, 상기 비디오 코더가 상기 제 2 화상의 상기 비디오 블록의 모션 벡터의 예측을 위해 진보된 모션 벡터 예측 (advanced motion vector prediction: AMVP) 또는 병합 후보 리스트에 후보로서 상기 제 1 화상의 상기 비디오 블록의 모션 벡터를 추가하지 않는 것을 포함하는, 비디오 데이터를 코딩하는 장치. - 제 12 항에 있어서,
상기 비디오 코더는 비디오 디코더를 포함하고,
상기 비디오 디코더는,
상기 제 1 화상의 상기 하나 이상의 참조 화상들의 참조 상태 정보를 저장하고,
상기 제 1 화상이 코딩되었던 인스턴스에서의, 상기 제 1 화상의 상기 하나 이상의 참조 화상들의 저장된 상기 참조 상태 정보에 기초하여 상기 제 2 의, 상이한 화상 내의 상기 비디오 블록을 디코딩하도록 구성되는, 비디오 데이터를 코딩하는 장치. - 제 12 항에 있어서,
상기 비디오 코더는 비디오 인코더를 포함하고,
상기 비디오 인코더는,
상기 제 1 화상의 상기 하나 이상의 참조 화상들의 참조 상태 정보를 저장하고,
상기 제 1 화상이 코딩되었던 인스턴스에서의, 상기 제 1 화상의 상기 하나 이상의 참조 화상들의 저장된 상기 참조 상태 정보에 기초하여 상기 제 2 의, 상이한 화상 내의 상기 비디오 블록을 인코딩하도록 구성되는, 비디오 데이터를 코딩하는 장치. - 제 12 항에 있어서,
상기 장치는,
무선 통신 디바이스;
마이크로프로세서; 및
집적 회로
중 하나를 포함하는, 비디오 데이터를 코딩하는 장치. - 비디오 데이터를 코딩하는 장치로서,
제 1 화상의 하나 이상의 참조 화상들의 참조 상태 정보를 저장하는 수단으로서, 상기 참조 상태 정보는 상기 제 1 화상이 코딩되는 인스턴스에서 상기 하나 이상의 참조 화상들의 참조 상태 정보를 나타내는, 상기 참조 상태 정보를 저장하는 수단; 및
상기 제 1 화상이 코딩되었던 인스턴스에서의, 상기 제 1 화상의 상기 하나 이상의 참조 화상들의, 저장된 상기 참조 상태 정보에 기초하여 제 2 의, 상이한 화상 내의 비디오 블록을 코딩하는 수단을 포함하는, 비디오 데이터를 코딩하는 장치. - 제 24 항에 있어서,
상기 제 1 화상 내의 비디오 블록 및 상기 제 1 화상 내의 상기 비디오 블록의 모션 벡터를 결정하는 수단으로서, 상기 제 1 화상 내의 상기 비디오 블록의 모션 벡터는 상기 제 1 화상 내의 상기 비디오 블록에 대한 모션 벡터의 참조 인덱스에 기초하여 상기 제 1 화상의 상기 하나 이상의 참조 화상들로부터의 참조 화상을 참조하는, 상기 결정하는 수단;
상기 제 2 화상 내의 상기 비디오 블록에 대한 모션 벡터가 상기 제 1 화상 내의 상기 비디오 블록의 모션 벡터로부터 도출되어야 하는지 여부를 결정하는 수단; 및
상기 제 2 화상 내의 상기 비디오 블록에 대한 모션 벡터가 상기 제 1 화상 내의 상기 비디오 블록의 모션 벡터로부터 도출되어야 하는 경우, 저장된 상기 참조 상태 정보에 기초하여, 상기 제 1 화상이 코딩되었던 인스턴스에서, 상기 참조 화상의 참조 상태를 결정하는 수단을 더 포함하고,
상기 제 2 화상 내의 비디오 블록을 코딩하는 수단은 상기 참조 상태에 기초하여 상기 제 2 화상 내의 상기 비디오 블록을 코딩하는 수단을 포함하는, 비디오 데이터를 코딩하는 장치. - 명령들을 저장한 컴퓨터 판독가능 저장 매체로서,
상기 명령들은, 실행될 때, 하나 이상의 프로세서들로 하여금,
제 1 화상의 하나 이상의 참조 화상들의 참조 상태 정보를 저장하게 하는 것으로서, 상기 참조 상태 정보는 상기 제 1 화상이 코딩되는 인스턴스에서 상기 하나 이상의 참조 화상들의 참조 상태 정보를 나타내는, 상기 참조 상태 정보를 저장하게 하고;
상기 제 1 화상이 코딩되었던 인스턴스에서의, 상기 제 1 화상의 상기 하나 이상의 참조 화상들의, 저장된 상기 참조 상태 정보에 기초하여 제 2 의, 상이한 화상 내의 비디오 블록을 코딩하게 하는, 컴퓨터 판독가능 저장 매체. - 제 26 항에 있어서,
상기 하나 이상의 프로세서들로 하여금,
상기 제 1 화상 내의 비디오 블록 및 상기 제 1 화상 내의 상기 비디오 블록의 모션 벡터를 결정하게 하는 것으로서, 상기 제 1 화상 내의 상기 비디오 블록의 모션 벡터는 상기 제 1 화상 내의 상기 비디오 블록에 대한 모션 벡터의 참조 인덱스에 기초하여 상기 제 1 화상의 상기 하나 이상의 참조 화상들로부터의 참조 화상을 참조하는, 상기 결정하게 하고;
상기 제 2 화상 내의 상기 비디오 블록에 대한 모션 벡터가 상기 제 1 화상 내의 상기 비디오 블록의 모션 벡터로부터 도출되어야 하는지 여부를 결정하게 하며,
상기 제 2 화상 내의 상기 비디오 블록에 대한 모션 벡터가 상기 제 1 화상 내의 상기 비디오 블록의 모션 벡터로부터 도출되어야 하는 경우, 저장된 상기 참조 상태 정보에 기초하여, 상기 제 1 화상이 코딩되었던 인스턴스에서, 상기 참조 화상의 참조 상태를 결정하게 하는 명령들을 더 포함하고,
상기 하나 이상의 프로세서들로 하여금 상기 제 2 화상 내의 비디오 블록을 코딩하게 하는 명령들은, 상기 하나 이상의 프로세서들로 하여금 상기 참조 상태에 기초하여 상기 제 2 화상 내의 상기 비디오 블록을 코딩하게 하는 명령들을 포함하는, 컴퓨터 판독가능 저장 매체.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261718629P | 2012-10-25 | 2012-10-25 | |
US61/718,629 | 2012-10-25 | ||
US13/803,736 US9854234B2 (en) | 2012-10-25 | 2013-03-14 | Reference picture status for video coding |
US13/803,736 | 2013-03-14 | ||
PCT/US2013/058276 WO2014065947A1 (en) | 2012-10-25 | 2013-09-05 | Reference picture status for video coding |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20150076235A true KR20150076235A (ko) | 2015-07-06 |
Family
ID=49237609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020157013714A KR20150076235A (ko) | 2012-10-25 | 2013-09-05 | 비디오 코딩을 위한 참조 화상 상태 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9854234B2 (ko) |
EP (1) | EP2912847A1 (ko) |
JP (1) | JP2015533462A (ko) |
KR (1) | KR20150076235A (ko) |
CN (1) | CN104756499B (ko) |
WO (1) | WO2014065947A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017043734A1 (ko) * | 2015-09-07 | 2017-03-16 | 엘지전자(주) | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10735762B2 (en) * | 2014-12-26 | 2020-08-04 | Sony Corporation | Image processing apparatus and image processing method |
CN107071481A (zh) * | 2015-12-14 | 2017-08-18 | 联发科技股份有限公司 | 一种视频编码解码方法及装置 |
CN114845108A (zh) | 2018-06-29 | 2022-08-02 | 抖音视界(北京)有限公司 | 查找表的更新:fifo、约束的fifo |
WO2020003261A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Selection from multiple luts |
KR20210024502A (ko) | 2018-06-29 | 2021-03-05 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Hmvp 후보를 병합/amvp에 추가할 때의 부분/풀 프루닝 |
KR102646649B1 (ko) | 2018-06-29 | 2024-03-13 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut에서의 모션 후보들의 검사 순서 |
CN115134599A (zh) | 2018-06-29 | 2022-09-30 | 抖音视界有限公司 | 更新查找表(lut)的条件 |
WO2020003284A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and amvp |
CN110662059B (zh) | 2018-06-29 | 2021-04-20 | 北京字节跳动网络技术有限公司 | 使用查找表存储先前编码的运动信息并用其编码后续块的方法和装置 |
WO2020003270A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Number of motion candidates in a look up table to be checked according to mode |
JP7181395B2 (ja) | 2018-07-02 | 2022-11-30 | 北京字節跳動網絡技術有限公司 | イントラ予測モードを有するルックアップテーブルおよび非隣接ブロックからのイントラモード予測 |
TWI820211B (zh) | 2018-09-12 | 2023-11-01 | 大陸商北京字節跳動網絡技術有限公司 | 取決於總數減去k的開始檢查hmvp候選的條件 |
CN111416981B (zh) * | 2019-01-07 | 2023-06-02 | 浙江大学 | 视频图像解码、编码方法及装置 |
WO2020143741A1 (en) | 2019-01-10 | 2020-07-16 | Beijing Bytedance Network Technology Co., Ltd. | Invoke of lut updating |
CN113383554B (zh) | 2019-01-13 | 2022-12-16 | 北京字节跳动网络技术有限公司 | LUT和共享Merge列表之间的交互 |
WO2020147772A1 (en) | 2019-01-16 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidates derivation |
WO2020192611A1 (en) | 2019-03-22 | 2020-10-01 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between merge list construction and other tools |
CN113689430B (zh) * | 2021-10-26 | 2022-02-15 | 紫东信息科技(苏州)有限公司 | 肠镜检查状态监测的图像处理方法与装置 |
CN115118977B (zh) * | 2022-08-29 | 2022-11-04 | 华中科技大学 | 针对360度视频的帧内预测编码方法、系统及介质 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
PL2008460T3 (pl) * | 2006-03-30 | 2017-10-31 | Lg Electronics Inc | Sposób i urządzenie do dekodowania/kodowania sygnału wideo |
JP4810298B2 (ja) | 2006-05-09 | 2011-11-09 | キヤノン株式会社 | 画像符号化装置及び符号化方法並びに画像復号化装置及び復号化方法 |
CN101653000B (zh) | 2006-10-13 | 2013-01-02 | 汤姆逊许可公司 | 用于包含多视点视频编码的参考图像管理的方法 |
BRPI0719536A2 (pt) | 2006-10-16 | 2014-01-14 | Thomson Licensing | Método para utilização de uma unidade de camada genérica na rede de trabalho sinalizando uma reposição instantânea de decodificação durante uma operação em vídeo. |
BRPI0718206B1 (pt) | 2006-10-16 | 2020-10-27 | Nokia Technologies Oy | método para codificar uma pluralidade de visões de uma cena; método de codificação de uma sequência de bits de vídeo codificada e aparelho |
BRPI0718421A2 (pt) * | 2006-10-24 | 2013-11-12 | Thomson Licensing | Gerenciamento de quadro para codificação de vídeo de multivistas |
TW201121331A (en) | 2009-12-10 | 2011-06-16 | Novatek Microelectronics Corp | Picture decoder |
JP2012019462A (ja) * | 2010-07-09 | 2012-01-26 | Panasonic Corp | 画像復号装置および画像復号方法 |
EP2630799A4 (en) | 2010-10-20 | 2014-07-02 | Nokia Corp | METHOD AND DEVICE FOR VIDEO CODING AND DECODING |
US20120230409A1 (en) | 2011-03-07 | 2012-09-13 | Qualcomm Incorporated | Decoded picture buffer management |
JP2012191298A (ja) | 2011-03-09 | 2012-10-04 | Fujitsu Ltd | 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム |
US8934552B2 (en) | 2011-03-31 | 2015-01-13 | Qualcomm Incorporated | Combined reference picture list construction and mapping |
US9143795B2 (en) * | 2011-04-11 | 2015-09-22 | Texas Instruments Incorporated | Parallel motion estimation in video coding |
-
2013
- 2013-03-14 US US13/803,736 patent/US9854234B2/en not_active Expired - Fee Related
- 2013-09-05 WO PCT/US2013/058276 patent/WO2014065947A1/en active Application Filing
- 2013-09-05 CN CN201380055112.0A patent/CN104756499B/zh not_active Expired - Fee Related
- 2013-09-05 EP EP13766755.6A patent/EP2912847A1/en not_active Withdrawn
- 2013-09-05 JP JP2015539594A patent/JP2015533462A/ja active Pending
- 2013-09-05 KR KR1020157013714A patent/KR20150076235A/ko not_active Application Discontinuation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017043734A1 (ko) * | 2015-09-07 | 2017-03-16 | 엘지전자(주) | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
Also Published As
Publication number | Publication date |
---|---|
US20140119447A1 (en) | 2014-05-01 |
CN104756499B (zh) | 2018-12-21 |
EP2912847A1 (en) | 2015-09-02 |
CN104756499A (zh) | 2015-07-01 |
US9854234B2 (en) | 2017-12-26 |
JP2015533462A (ja) | 2015-11-24 |
WO2014065947A1 (en) | 2014-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113612997B (zh) | 针对视频译码使用与位置相关的预测组合的改进视频帧内预测 | |
US9854234B2 (en) | Reference picture status for video coding | |
US9699472B2 (en) | Restriction of prediction units in B slices to uni-directional inter prediction | |
US9736489B2 (en) | Motion vector determination for video coding | |
KR101676938B1 (ko) | 비디오 코딩을 위한 장기 참조 화상들에 대한 데이터 시그널링 | |
KR101663397B1 (ko) | 가중 예측 파라미터 코딩 | |
KR101807913B1 (ko) | 비디오 코딩에서 코드북을 사용한 루프 필터 파라미터들의 코딩 | |
US20130272409A1 (en) | Bandwidth reduction in video coding through applying the same reference index | |
KR101772350B1 (ko) | 비디오 코딩을 위한 고 정확도 명시적 가중 예측 | |
US20130070855A1 (en) | Hybrid motion vector coding modes for video coding | |
KR102182441B1 (ko) | 비디오 코딩에서 hevc 확장들을 위한 다중 계층들의 저복잡도 지원 | |
US20140064359A1 (en) | Intra prediction most probable mode order improvement for scalable video coding | |
JP2015188231A (ja) | ビデオコード化のための単一参照ピクチャリスト構成 | |
KR20140130466A (ko) | B 슬라이스에서의 예측 유닛의 단방향성 인터 예측으로의 제한 | |
EP2870760A1 (en) | Intra mode extensions for difference domain intra prediction | |
US20130188716A1 (en) | Temporal motion vector predictor candidate | |
US9674527B2 (en) | Implicit derivation of parallel motion estimation range size | |
KR20150140729A (ko) | 비트 심도에 기초한 샘플 적응형 오프셋 스케일링 | |
KR20140139571A (ko) | 비디오 코딩을 위한 계층간 텍스처 예측 | |
EP3883244A1 (en) | Inter-frame prediction method and related device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |