KR20160138102A - 비디오 코딩에서 팔레트 코딩된 블록들의 팔레트 사이즈, 팔레트 엔트리들 및 필터링의 결정 - Google Patents

비디오 코딩에서 팔레트 코딩된 블록들의 팔레트 사이즈, 팔레트 엔트리들 및 필터링의 결정 Download PDF

Info

Publication number
KR20160138102A
KR20160138102A KR1020167027974A KR20167027974A KR20160138102A KR 20160138102 A KR20160138102 A KR 20160138102A KR 1020167027974 A KR1020167027974 A KR 1020167027974A KR 20167027974 A KR20167027974 A KR 20167027974A KR 20160138102 A KR20160138102 A KR 20160138102A
Authority
KR
South Korea
Prior art keywords
palette
block
entries
video
pixel
Prior art date
Application number
KR1020167027974A
Other languages
English (en)
Other versions
KR102352642B1 (ko
Inventor
펑 저우
웨이 푸
라잔 랙스맨 조쉬
로할스 호엘 솔레
마르타 카르체비츠
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20160138102A publication Critical patent/KR20160138102A/ko
Application granted granted Critical
Publication of KR102352642B1 publication Critical patent/KR102352642B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/94Vector quantisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/567Motion estimation based on rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals

Abstract

팔레트-기반 코딩을 위한 기법들이 설명된다. 팔레트-기반 코딩에서, 비디오 코더는 주어진 블록의 비디오 데이터를 표현하기 위한 컬러들의 테이블로서 팔레트를 형성할 수도 있다. 팔레트-기반 코딩은 비교적 적은 개수의 컬러들을 갖는 비디오 데이터의 코딩 블록들에 대해 유용할 수도 있다. 주어진 블록에 대한 실제 픽셀 값들 또는 이들의 잔차들을 코딩하기보다는, 비디오 코더는 픽셀들 중 하나 이상에 대한 인덱스 값들을 코딩할 수도 있다. 인덱스 값들은, 픽셀들을, 픽셀들의 컬러들을 표현하는 팔레트에서의 엔트리들에 맵핑시킨다. 비디오 인코더 또는 비디오 디코더에서 팔레트 코딩된 블록들의, 디블록킹 필터링 또는 샘플 적응적 오프셋 (SAO) 필터링과 같은 필터링을 디스에이블시킬지 여부를 결정하기 위한 기법들이 설명된다. 레이트-왜곡 비용들에 기초하여 비디오 인코더에서 팔레트의 팔레트 엔트리들 및 팔레트 사이즈를 변경하기 위한 기법들이 또한 설명된다.

Description

비디오 코딩에서 팔레트 코딩된 블록들의 팔레트 사이즈, 팔레트 엔트리들 및 필터링의 결정{DETERMINING PALETTE SIZE, PALETTE ENTRIES AND FILTERING OF PALETTE CODED BLOCKS IN VIDEO CODING}
본 출원은 2014년 3월 26일자로 출원된 미국 가출원 제61/970,838호의 이익을 주장하고, 이 미국 가출원의 전체 내용은 본 명세서에 참조로 포함된다.
본 개시물은 비디오 인코딩 및 디코딩에 관한 것이다.
디지털 비디오 능력들은 디지털 텔레비전들, 디지털 다이렉트 브로드캐스트 시스템들, 무선 브로드캐스트 시스템들, 개인 휴대 정보 단말기 (personal digital assistant; PDA) 들, 랩톱 또는 데스크톱 컴퓨터들, 태블릿 컴퓨터들, 전자책 (e-book) 판독기들, 디지털 카메라들, 디지털 레코딩 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 디바이스들, 비디오 게임 콘솔들, 셀룰러 또는 위성 무선 전화기들, 소위 "스마트 폰들", 원격 화상회의 디바이스들, 비디오 스트리밍 디바이스들 등을 포함하는, 광범위한 디바이스들에 포함될 수 있다. 디지털 비디오 디바이스들은 MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.188/MPEG-4, Part 10, 어드밴스드 비디오 코딩 (Advanced Video Coding; AVC) 에 의해 정의된 표준들, 현재 개발 중인 고효율 비디오 코딩 (High Efficiency Video Coding; HEVC) 표준, 및 이러한 표준들의 확장들에서 설명되는 것들과 같은 비디오 압축 기법들을 구현한다. 비디오 디바이스들은 이러한 비디오 압축 기법들을 구현함으로써 디지털 비디오 정보를 더 효율적으로 송신, 수신, 인코딩, 디코딩, 및/또는 저장할 수도 있다.
비디오 압축 기법들은 비디오 시퀀스들에 내재하는 리던던시를 감소시키거나 또는 제거하기 위해 공간적 (인트라-픽처) 예측 및/또는 시간적 (인터-픽처) 예측을 수행한다. 블록-기반 비디오 코딩을 위해, 비디오 슬라이스 (즉, 비디오 프레임 또는 비디오 프레임의 일부분) 는 비디오 블록들로 파티셔닝될 수도 있다. 픽처의 인트라-코딩된 (I) 슬라이스에서의 비디오 블록들은 동일한 픽처에서 이웃하는 블록들에서의 참조 샘플들에 대한 공간적 예측을 이용하여 인코딩된다. 픽처의 인터-코딩된 (P 또는 B) 슬라이스에서의 비디오 블록들은 동일한 픽처에서 이웃하는 블록들에서의 참조 샘플들에 대한 공간적 예측 또는 다른 참조 픽처들에서의 참조 샘플들에 대한 시간적 예측을 이용할 수도 있다. 픽처들은 프레임들이라고 지칭될 수도 있고, 참조 픽처들은 참조 프레임들이라고 지칭될 수도 있다.
공간적 또는 시간적 예측은 코딩될 블록에 대한 예측 블록을 발생시킨다. 잔차 데이터 (residual data) 는 코딩될 오리지널 블록과 예측 블록 사이의 픽셀 차이들을 표현한다. 인터-코딩된 블록은 예측 블록을 형성하는 참조 샘플들의 블록을 가리키는 모션 벡터에 따라 인코딩되고, 잔차 데이터는 코딩된 블록과 예측 블록 사이의 차이를 나타낸다. 인트라-코딩된 블록은 인트라-코딩 모드 및 잔차 데이터에 따라 인코딩된다. 추가적인 압축을 위해, 잔차 데이터는 픽셀 도메인으로부터 변환 도메인으로 변환되어, 잔차 계수들을 발생시킬 수도 있으며, 이 잔차 계수들은 그 후에 양자화될 수도 있다. 초기에 2 차원 어레이에 배열되는, 양자화된 계수들은 계수들의 1 차원 벡터를 생성하기 위해 스캐닝될 수도 있으며, 엔트로피 코딩이 훨씬 더 많은 압축을 달성하기 위해 적용될 수도 있다.
멀티뷰 코딩 비트스트림은, 예를 들어, 다수의 관점들로부터의 뷰들을 인코딩함으로써 생성될 수도 있다. 멀티뷰 코딩 양태들을 이용하는 일부의 3 차원 (3D) 비디오 표준들이 개발되었다. 예를 들어, 상이한 뷰들은 3D 비디오를 지원하기 위해 좌안 및 우안 뷰들을 송신할 수도 있다. 대안적으로, 일부의 3D 비디오 코딩 프로세스들은 소위 멀티뷰 플러스 심도 코딩 (multiview plus depth coding) 을 적용할 수도 있다. 멀티뷰 플러스 심도 코딩에서, 3D 비디오 비트스트림은 텍스처 뷰 컴포넌트들뿐만 아니라, 심도 뷰 컴포넌트들도 포함할 수도 있다. 예를 들어, 각각의 뷰는 하나의 텍스처 뷰 컴포넌트 및 하나의 심도 뷰 컴포넌트를 포함할 수도 있다.
일반적으로, 본 개시물은 팔레트-기반 비디오 코딩 (palette-based video coding) 을 위한 기법들을 설명한다. 팔레트-기반 코딩에서, 비디오 코더 (예를 들어, 비디오 인코더 또는 비디오 디코더) 는 특정 영역 (예를 들어, 주어진 블록) 의 비디오 데이터를 표현하기 위한 컬러들의 테이블로서 소위 "팔레트" 를 형성할 수도 있다. 팔레트-기반 코딩은 비교적 적은 개수의 컬러들을 갖는 비디오 데이터의 코딩 영역들에 대해 특히 유용할 수도 있다. 주어진 블록에 대한 실제 픽셀 값들 또는 이들의 잔차들을 코딩하기보다는, 비디오 코더는 픽셀들 중 하나 이상에 대한 인덱스 값들을 코딩할 수도 있다. 인덱스 값들은, 픽셀들을, 픽셀들의 컬러들을 표현하는 팔레트에서의 엔트리들에 맵핑시킨다. 팔레트는 명시적으로 인코딩되고 디코더에 전송될 수도 있거나, 이전 팔레트 엔트리들로부터 예측될 수도 있거나, 또는 이들의 조합일 수도 있다. 본 개시물에서, 비디오 인코더 또는 비디오 디코더에서 팔레트 코딩된 블록 (palette coded block) 들의, 디블록킹 필터링 (deblocking filtering) 또는 샘플 적응적 오프셋 (sample adaptive offset; SAO) 필터링과 같은 필터링을 디스에이블시킬지 여부를 결정하기 위한 기법들이 설명된다. 또한, 레이트-왜곡 비용 (rate-distortion cost) 들에 적어도 부분적으로 기초하여 비디오 인코더에서 팔레트의 팔레트 엔트리들 및 팔레트 사이즈를 변경하기 위한 기법들이 설명된다.
하나의 예에서, 본 개시물은 비디오 데이터를 프로세싱하는 방법에 관계되고, 이 방법은, 비디오 데이터의 블록이 팔레트 코딩된 블록인 것을 결정하는 단계; 하나 이상의 개별 컬러 값들을 나타내는 하나 이상의 팔레트 엔트리들을 포함하는 블록에 대한 팔레트를 결정하는 단계; 블록의 하나 이상의 픽셀들에 대한 인덱스 값들을 결정하는 단계로서, 인덱스 값들 각각은 블록의 픽셀들 중 하나의 픽셀에 대한 컬러 값을 나타내는 팔레트 엔트리들 중 하나의 팔레트 엔트리에 대응하는, 그 블록의 하나 이상의 픽셀들에 대한 인덱스 값들을 결정하는 단계; 블록에 대한 팔레트 및 인덱스 값들에 기초하여 비디오 데이터의 블록을 재구성하는 단계; 및 블록이 팔레트 코딩된 블록인 것에 기초하여, 재구성된 블록의 필터링을 디스에이블시키는 것으로 결정하는 단계를 포함한다.
다른 예에서, 본 개시물은 비디오 데이터를 저장하도록 구성된 메모리; 및 메모리와 통신하는 하나 이상의 프로세서들을 포함하는 비디오 프로세싱 디바이스에 관계된다. 하나 이상의 프로세서들은 비디오 데이터의 블록이 팔레트 코딩된 블록인 것을 결정하고; 하나 이상의 개별 컬러 값들을 나타내는 하나 이상의 팔레트 엔트리들을 포함하는 블록에 대한 팔레트를 결정하고; 블록의 하나 이상의 픽셀들에 대한 인덱스 값들을 결정하는 것으로서, 인덱스 값들 각각은 블록의 픽셀들 중 하나의 픽셀에 대한 컬러 값을 나타내는 팔레트 엔트리들 중 하나의 팔레트 엔트리에 대응하는, 그 블록의 하나 이상의 픽셀들에 대한 인덱스 값들을 결정하고; 블록에 대한 팔레트 및 인덱스 값들에 기초하여 비디오 데이터의 블록을 재구성하며; 블록이 팔레트 코딩된 블록인 것에 기초하여, 재구성된 블록의 필터링을 디스에이블시키는 것으로 결정하도록 구성된다.
추가 예에서, 본 개시물은, 비디오 데이터의 블록이 팔레트 코딩된 블록인 것을 결정하는 수단; 하나 이상의 개별 컬러 값들을 나타내는 하나 이상의 팔레트 엔트리들을 포함하는 블록에 대한 팔레트를 결정하는 수단; 블록의 하나 이상의 픽셀들에 대한 인덱스 값들을 결정하는 수단으로서, 인덱스 값들 각각은 블록의 픽셀들 중 하나의 픽셀에 대한 컬러 값을 나타내는 팔레트 엔트리들 중 하나의 팔레트 엔트리에 대응하는, 그 블록의 하나 이상의 픽셀들에 대한 인덱스 값들을 결정하는 수단; 블록에 대한 팔레트 및 인덱스 값들에 기초하여 비디오 데이터의 블록을 재구성하는 수단; 및 블록이 팔레트 코딩된 블록인 것에 기초하여, 재구성된 블록의 필터링을 디스에이블시키는 것으로 결정하는 수단을 포함하는 비디오 프로세싱 디바이스에 관계된다.
부가적인 예에서, 본 개시물은, 실행될 때, 하나 이상의 프로세서들로 하여금, 비디오 데이터의 블록이 팔레트 코딩된 블록인 것을 결정하게 하고; 하나 이상의 개별 컬러 값들을 나타내는 하나 이상의 팔레트 엔트리들을 포함하는 블록에 대한 팔레트를 결정하게 하고; 블록의 하나 이상의 픽셀들에 대한 인덱스 값들을 결정하게 하는 것으로서, 인덱스 값들 각각은 블록의 픽셀들 중 하나의 픽셀에 대한 컬러 값을 나타내는 팔레트 엔트리들 중 하나의 팔레트 엔트리에 대응하는, 그 블록의 하나 이상의 픽셀들에 대한 인덱스 값들을 결정하게 하고; 블록에 대한 팔레트 및 인덱스 값들에 기초하여 비디오 데이터의 블록을 재구성하게 하며; 블록이 팔레트 코딩된 블록인 것에 기초하여, 재구성된 블록의 필터링을 디스에이블시키는 것으로 결정하게 하는 비디오 데이터를 프로세싱하기 위한 명령들을 저장한 컴퓨터 판독가능 매체에 관계된다.
본 개시물의 하나 이상의 예들의 상세들이 아래의 설명 및 첨부 도면들에 제시된다. 다른 피처들, 목적들, 및 이점들은 이 설명, 도면들, 그리고 청구항들로부터 명백해질 것이다.
도 1 은 본 개시물에서 설명되는 기법들을 활용할 수도 있는 예시적인 비디오 코딩 시스템을 예시하는 블록도이다.
도 2 는 본 개시물에서 설명되는 기법들을 구현할 수도 있는 예시적인 비디오 인코더를 예시하는 블록도이다.
도 3 은 본 개시물에서 설명되는 기법들을 구현할 수도 있는 예시적인 비디오 디코더를 예시하는 블록도이다.
도 4 는 본 개시물의 기법들과 부합하는, 팔레트-기반 비디오 코딩을 위한 팔레트 엔트리들을 결정하는 예를 예시하는 개념도이다.
도 5 는 본 개시물의 기법들에 따른, 팔레트 코딩된 블록들의 필터링을 결정하는 비디오 코더의 예시적인 동작을 예시하는 플로우차트이다.
도 6 은 본 개시물의 기법들에 따른, 비디오 데이터의 팔레트 코딩된 블록에 대한 팔레트를 결정하는 비디오 인코더의 예시적인 동작을 예시하는 플로우차트이다.
본 개시물은 비디오 코딩 및 압축을 위한 기법들을 포함한다. 특히, 본 개시물은 비디오 콘텐츠, 특히 스크린 콘텐츠를 팔레트-기반 코딩으로 코딩하는 것을 지원하기 위한 기법들을 설명한다. 본 개시물은, 비디오 코딩에서 팔레트 코딩된 블록들 (palette coded block) 의 팔레트 사이즈, 팔레트 엔트리들, 및 필터링을 결정하기 위한 기법들을 포함하는, 팔레트-기반 코딩의 다수의 기술적 양태들을 설명한다.
전통적인 비디오 코딩에서, 이미지들은 연속-톤 (continuous-tone) 이고 공간적으로 평활한 것으로 가정된다. 이들 가정들에 기초하여, 블록-기반 변환, 필터링 등과 같은 다양한 툴들이 개발되었고, 이러한 툴들은 자연적 콘텐츠 비디오들을 코딩하는 것에 대해 양호한 성능을 보여주었다. 그러나, 원격 데스크톱, 협업 작업 및 무선 디스플레이와 같은 애플리케이션들에서, (예를 들어, 텍스트 또는 컴퓨터 그래픽들과 같은) 컴퓨터 생성된 스크린 콘텐츠는 압축되어야 할 지배적인 콘텐츠일 수도 있다. 이 타입의 콘텐츠는 이산-톤 (discrete-tone) 을 가지며, 예리한 라인들 및 고콘트라스트 오브젝트 경계들을 특징으로 하는 경향이 있다. 연속-톤 및 평활성의 가정들은 더 이상 스크린 콘텐츠에 적용되지 않을 수도 있고, 그에 따라 전통적인 비디오 코딩 기법들은 스크린 콘텐츠를 포함하는 비디오 데이터를 압축하기 위한 효율적인 방법들이 아닐 수도 있다.
본 개시물은 스크린 생성된 콘텐츠 코딩에 특히 적합할 수도 있는 팔레트-기반 코딩을 설명한다. 예를 들어, 비디오 데이터의 특정 영역이 비교적 적은 개수의 컬러들을 갖는다고 가정하면, 비디오 코더 (예를 들어, 비디오 인코더 또는 비디오 디코더) 는 특정 영역의 비디오 데이터를 표현하기 위한 소위 "팔레트" 를 형성할 수도 있다. 팔레트는 특정 영역 (예를 들어, 주어진 블록) 의 비디오 데이터를 표현하는 컬러들의 테이블로서 표현될 수도 있다. 예를 들어, 팔레트는 주어진 블록에서 가장 지배적인 컬러들 (즉, 픽셀 값들) 을 포함할 수도 있다. 일부 경우들에서, 가장 지배적인 컬러들은 블록 내에서 가장 빈번하게 발생하는 하나 이상의 컬러들을 포함할 수도 있다. 부가적으로, 일부 경우들에서, 비디오 코더는 컬러가 블록에서 가장 지배적인 컬러들 중 하나로서 포함되어야 하는지 여부를 결정하기 위해 임계 값을 적용할 수도 있다. 팔레트-기반 코딩의 다양한 양태들에 따르면, 비디오 코더는, 현재 블록에 대한 실제 픽셀 값들 또는 이들의 잔차들을 코딩하는 대신에, 현재 블록의 픽셀들 중 하나 이상을 나타내는 인덱스 값들을 코딩할 수도 있다. 팔레트-기반 코딩의 맥락에서, 인덱스 값들은 현재 블록의 개개의 픽셀들의 컬러들을 표현하는데 이용되는 팔레트에서의 개별 엔트리들을 나타낸다.
예를 들어, 비디오 인코더는 블록에 대한 팔레트를 결정하고 블록의 픽셀들 중 하나 이상의 픽셀의 컬러들을 표현하는 팔레트에서의 엔트리들을 로케이팅하고 팔레트에서의 엔트리들을 나타내는 인덱스 값들로 블록을 인코딩함으로써 비디오 데이터의 블록을 인코딩할 수도 있다. 팔레트에서의 엔트리들에 맵핑하는 컬러 값들을 갖는 블록의 이들 픽셀들에 대해, 비디오 인코더는 개별 픽셀들에 대한 엔트리들의 인덱스 값들을 인코딩할 수도 있다. 팔레트에서의 엔트리들에 맵핑하지 않는 컬러 값들을 갖는 블록의 이들 픽셀들에 대해, 비디오 인코더는 픽셀에 대한 특수 인덱스를 인코딩하고 실제 픽셀 값 또는 그의 잔차 값 (또는 그의 양자화된 버전) 을 인코딩할 수도 있다. 이들 픽셀들은 "이스케이프 픽셀 (escape pixel) 들" 이라고 지칭될 수도 있다. 일부 예들에서, 비디오 인코더는 팔레트 및 인덱스 값들 그리고 임의의 이스케이프 픽셀들을 인코딩된 비트스트림에서 시그널링할 수도 있다. 차례로, 비디오 디코더는, 인코딩된 비트스트림으로부터, 블록에 대한 팔레트뿐만 아니라 블록의 임의의 이스케이프 픽셀들에 대한 픽셀 값들 및 블록의 픽셀들 중 하나 이상의 픽셀에 대한 인덱스 값들을 획득할 수도 있다. 비디오 디코더는 인덱스 값들을 팔레트의 엔트리들에 맵핑하고 이스케이프 픽셀들을 디코딩하여 블록의 픽셀 값들을 재구성할 수도 있다.
비디오 데이터의 팔레트-기반 코딩을 위한 기법들은 인터- 또는 인트라-예측 코딩을 위한 기법들과 같은 하나 이상의 다른 코딩 기법들과 함께 이용될 수도 있다. 예를 들어, 아래에 더 상세히 설명된 바와 같이, 비디오 인코더 또는 비디오 디코더 또는 조합된 인코더-디코더 (코덱) 는 인터- 및 인트라-예측 코딩뿐만 아니라, 팔레트-기반 코딩을 수행하도록 구성될 수도 있다.
일부 예들에서, 팔레트-기반 코딩 기법들은 하나 이상의 비디오 코딩 표준들에서의 이용을 위해 구성될 수도 있다. 예를 들어, 고효율 비디오 코딩 (HEVC) 은 ITU-T 비디오 코딩 전문가 그룹 (Video Coding Experts Group; VCEG) 과 ISO/IEC 동화상 전문가 그룹 (Motion Picture Experts Group; MPEG) 의 비디오 코딩에 관한 합동 협력 팀 (Joint Collaboration Team on Video Coding; JCT-VC) 에 의해 개발되는 새로운 비디오 코딩 표준이다. 최근 HEVC 텍스트 명세 초안은, 『Bross 등, "High Efficiency Video Coding (HEVC) text specification draft 10 (for FDIS & Last Call)", ITU-T SG16 WP 3 과 ISO/IEC JCT 1/SC 29/WG 11 의 JCT-VC, 12 차 회의: 스위스 제네바, 2013년 1월 14일-23일, JCTVC-L1003_v34 ("HEVC 초안 10"), http://phenix.int-evry.fr/jct/doc_end_user/documents/12_Geneva/wg11/JCTVC-L1003-v34.zip 으로부터 입수가능』에 설명되어 있다. 확정된 HEVC 표준 문헌은 『"ITU-T H.265, SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS Infrastructure of audiovisual services - Coding of moving video - High efficiency video coding", 국제 전기통신 연합 (ITU) 의 전기통신 표준화 부문, 2013년 4월』로서 공개된다.
HEVC 프레임워크에 대해, 하나의 예로서, 팔레트-기반 코딩 기법들은 코딩 유닛 (CU) 모드로서 이용되도록 구성될 수도 있다. 다른 예들에서, 팔레트-기반 코딩 기법들은 HEVC 의 프레임워크에서 PU 모드로서 이용되도록 구성될 수도 있다. 이에 따라, CU 모드의 맥락에서 설명되는 다음의 개시된 프로세스들 전부는, 부가적으로 또는 대안적으로, PU 에 적용할 수도 있다. 그러나, 이들 HEVC-기반 예들은 본 명세서에서 설명된 팔레트-기반 코딩 기법들의 한정 또는 제한으로 간주되어서는 안되며, 이는 이러한 기법들이 독립적으로 또는 다른 기존의 또는 앞으로 개발될 시스템들/표준들의 부분으로서 작용하도록 적용될 수도 있기 때문이다. 이들 경우들에서, 팔레트 코딩을 위한 유닛은 정사각형 블록들, 직사각형 블록들 또는 심지어 비-직사각형 형상의 구역들일 수 있다.
팔레트-기반 코딩의 기본 생각은, 각각의 CU 에 대해, 현재 CU 에서 가장 지배적인 컬러들 (즉, 픽셀 값들) 을 포함하는 팔레트가 도출된다는 것이다. 팔레트의 팔레트 사이즈 및 팔레트 엔트리들은 비디오 인코더로부터 비디오 디코더로 송신될 수도 있다. 팔레트의 팔레트 사이즈 및 엔트리들은 하나 이상의 이웃 CU들 (예를 들어, 상측 및/또는 좌측의 코딩된 CU들) 에 대한 팔레트들의 사이즈 및 엔트리들을 각각 이용하여 예측 코딩되거나 또는 직접 코딩될 수도 있다. CU 의 픽셀들은 그 후에 소정의 스캐닝 순서에 따라 팔레트에 기초하여 인코딩될 수도 있다. CU 에서의 각각의 픽셀 로케이션에 대해, 픽셀의 컬러가 팔레트에 포함되는지 여부를 나타내기 위해 플래그가 송신될 수도 있다. 팔레트에서의 엔트리에 맵핑하는 이들 픽셀들에 대해, 그 엔트리와 연관된 팔레트 인덱스는 CU 에서의 주어진 픽셀 로케이션에 대해 시그널링될 수도 있다. 팔레트에서의 엔트리들에 맵핑하지 않는 컬러 값들을 갖는 이들 픽셀들 (즉, 이스케이프 픽셀들) 에 대해, 특수 인덱스가 픽셀에 할당될 수도 있고 실제 픽셀 값 또는 그의 잔차 값 (또는 그의 양자화된 버전) 은 CU 에서의 주어진 픽셀 로케이션에 대해 송신될 수도 있다. 이스케이프 픽셀들은 고정 길이 코딩, 일진 코딩 (unary coding) 등과 같은 임의의 기존 엔트로피 코딩 방법을 이용하여 코딩될 수도 있다.
팔레트-기반 비디오 코딩에서, 비디오 코더 (예를 들어, 비디오 인코더 또는 비디오 디코더) 는 코딩될 주어진 비디오 블록에 대한 팔레트를 도출한다. 위에서 논의된 바와 같이, 팔레트는 주어진 블록에서 가장 지배적인 컬러들 또는 픽셀 값들을 포함하도록 도출된다. 일부 예들에서, 가장 지배적인 컬러들을 결정하기 위해, 히스토그램이 이용되어 주어진 블록의 픽셀들을 상이한 그룹들로 군집화 (cluster) 할 수도 있다. 팔레트를 도출하기 위해 적절한 알고리즘을 이용하는 것은 팔레트-기반 코딩에서 핵심 프로시저들 중 하나로 간주될 수도 있다. 본 개시물의 기법들은 팔레트-기반 코딩을 위한 팔레트들의 도출에 있어서의 개선들에 관계된다.
『Guo 등, "RCE4: Summary report of HEVC Range Extensions Core Experiments 4 (RCE4) on palette coding for screen content", ITU-T SG 16 WP 3 과 ISO/IEC JTC 1/SC 29/WG 11 의 비디오 코딩에 관한 합동 협력 팀 (JCT-VC), 16 차 회의: 미국 새너제이, 2014년 1월 9일-17일, JCTVC-P0035, http://phenix.it-sudparis.eu/jct/doc_end_user/documents/16_San Jose/wg11/JCTVC-P0035-v1.zip 으로부터 입수가능 (이하, "JCTVC-P0035")』은, 특히 스크린 콘텐츠에 대해, 유효한 BD-레이트 (Bjontegaard Distortion-rate) 감소를 달성하기 위해 보고된 팔레트-기반 코딩의 두 가지 방법들을 설명한다. 그 두 가지 방법들은 아래에 간단히 요약된다.
『Guo 등, "RCE4: Test 1. Major-color-based screen content coding", ITU-T SG 16 WP 3 과 ISO/IEC JTC 1/SC 29/WG 11 의 JCT-VC, 16 차 회의: 미국 새너제이, 2014년 1월 9일-17일, JCTVC-P0108, http://phenix.int-evry.fr/jct/doc_end_user/documents/16_San Jose/wg11/JCTVC-P0108-v1.zip 으로부터 입수가능 (이하, "JCTVC-P0108")』에 더 상세히 설명된 첫 번째 방법에서는, 히스토그램 기반 알고리즘이 이용되어 코딩될 CU 의 픽셀들을 분류한다. 특히, 히스토그램에서 최대 유효 N 피크 값들은 CU 에 대한 주요 컬러들로서 선택된다. 주요 컬러들 중 하나의 주요 컬러와 가까운 픽셀 값들은 주요 컬러로 양자화될 수도 있다. 주요 컬러들 중 어느 것에도 속하지 않는 픽셀들은 이스케이프 픽셀들로 간주되고, 이 이스케이프 픽셀들은 또한 코딩 전에 양자화된다. 무손실 코딩의 경우, 어떠한 양자화도 이용되지 않는다.
분류를 이용하는 것에 의한, 첫 번째 방법에 따르면, CU 의 픽셀들은 컬러 인덱스들로 컨버팅될 수도 있다. 주요 컬러들의 개수 및 값들이 코딩된 후에, 컬러 인덱스들이 코딩된다. CU 의 각각의 픽셀 라인에 대해, 코딩 모드를 나타내기 위해 플래그가 시그널링된다. 3 개의 모드들: 수평 모드, 수직 모드 및 정상 모드가 존재한다. 그 모드가 수평 모드인 경우, CU 의 전체 픽셀 라인은 동일한 컬러 인덱스를 공유하고, 각각의 픽셀 라인에 대한 컬러 인덱스가 송신된다. 그 모드가 수직 모드인 경우, 전체 픽셀 라인은 상측 픽셀 라인과 동일하다. 이 경우, 현재 픽셀 라인이 상측 픽셀 라인의 컬러 인덱스들을 복사하기 때문에 아무것도 송신되지 않는다 (예를 들어, 인코딩된 비트스트림에서 아무것도 시그널링되지 않는다). 그 모드가 정상 모드인 경우, 그것이 좌측 및 상측 픽셀들 중 하나와 동일한지 여부를 나타내기 위해 플래그가 각각의 픽셀 포지션에 대해 시그널링된다. 현재 픽셀이 좌측 및 상측 픽셀들과는 상이한 경우, 현재 픽셀에 대한 인덱스가 송신된다. 또한, 현재 픽셀이 이스케이프 픽셀인 경우, 픽셀 값이 송신된다.
『Guo 등, "RCE4: Results of Test 2 on Palette Mode for Screen Content Coding", ITU-T SG 16 WP 3 과 ISO/IEC JTC 1/SC 29/WG 11 의 JCT-VC, 16 차 회의: 미국 새너제이, 2014년 1월 9일-17일, JCTVC-P0108, http://phenix.int-evry.fr/jct/doc_end_user/documents/16_San Jose/wg11/JCTVC-P0198-v3.zip 으로부터 입수가능 (이하, "JCTVC-P0198" 이라고 지칭됨)』에 더 상세히 설명된 두 번째 방법에서는, 팔레트-기반 비디오 코딩이 CU 모드로서 도입된다. 두 번째 방법의 인코딩 프로세스는 우선, 현재 CU 에 대한 팔레트의 송신을 포함한다. 좌측 CU (즉, 현재 CU 와 현재 좌측으로 이웃하는 CU) 의 팔레트에 기초하여 현재 팔레트를 인코딩하기 위해 엔트리-단위 (entry-wise) 예측 스킴이 이용된다. 그 후에, 팔레트의 비-예측된 엔트리들이 송신된다.
두 번째 방법의 인코딩 프로세스는 또한 현재 CU 의 픽셀 값들의 송신을 포함한다. 현재 CU 에서의 픽셀들은 다음 3 개의 모드들을 이용하여 래스터 스캔 순서로 인코딩된다. "런 모드 (run mode)" 에서, 팔레트 인덱스가 우선 시그널링되고, 그 후에 길이 M 의 "palette_run" 이 시그널링된다. 후속하는 M 팔레트 인덱스들은 시그널링된 팔레트 인덱스와 동일하다. "상측 복사 모드" 에서, 후속하는 N 팔레트 인덱스들 각각이 상측 픽셀 라인에서의 개별 팔레트 인덱스와 동일함을 나타내기 위해 길이 N 의 값 "copy_run" 이 송신된다. "픽셀 모드" 에서, 예측 플래그가 우선 송신된다. 1 과 동일한 예측 플래그는, 예측자로서 재구성된 상측 이웃 픽셀을 이용하여 현재 픽셀 값에 대해 예측 잔차가 송신됨을 나타낸다. 예측 플래그가 0 과 동일한 경우, 현재 픽셀 값은 예측 없이 송신된다.
본 개시물의 기법들은 팔레트-기반 코딩을 위한 팔레트들의 도출에 있어서의 개선들에 관계된다. 더 구체적으로는, 본 개시물의 기법들은 비디오 인코더에서 팔레트의 팔레트 엔트리들 및 팔레트 사이즈를 변경하는 것, 그리고 비디오 인코더 또는 비디오 디코더에서 팔레트 코딩된 블록들의 필터링을 디스에이블시킬지 여부를 결정하는 것을 포함한다.
일부 예들에서, JCTVC-P0108 에서 설명된 바와 같은 군집화 방법을 이용하여 팔레트 사이즈 및 팔레트 엔트리들이 현재 블록에 대해 결정된 후에, 본 개시물의 기법들은 비디오 인코더로 하여금 레이트-왜곡 비용 (rate-distortion cost) 들에 따라 적응적으로 팔레트 사이즈를 결정하고 팔레트 엔트리들을 변화시키는 것을 가능하게 한다. 이러한 방법으로, 이 기법들은 군집화 방법에 의해 팔레트에 대해 오리지널로 결정되었던 팔레트 사이즈 및 팔레트 엔트리들의 변경을 가능하게 한다. 예를 들어, 이 기법들은 팔레트의 주어진 인덱스 값을 유지할지 또는 제거할지를 결정하는 것, 주어진 인덱스 값을 이웃 인덱스 값에 병합할지 여부를 결정하는 것, 그리고 계산된 팔레트 엔트리들을 정교화하는 것을 포함한다. 본 개시물이 팔레트 사이즈 및 팔레트 엔트리들의 변경을 위한 기법들이 비디오 인코더에 의해 수행되는 것으로서 주로 설명하지만, 다른 예들에서, 팔레트 변경 기법들은 또한 비디오 디코더에 의해 수행될 수도 있다. 그 경우, 예를 들어, 비디오 디코더는, 본 개시물의 기법들에 따라, 팔레트를 별도로 도출하고 변경할 수도 있거나, 또는 비디오 인코더에 의해 시그널링되는 팔레트를 변경할 수도 있다.
또한, 이 기법들은, 비디오 인코더 및 비디오 디코더로 하여금, 팔레트 코딩된 블록들의, 디블록킹 필터링 (deblocking filtering) 또는 샘플 적응적 오프셋 (sample adaptive offset; SAO) 필터링과 같은 필터링을 디스에이블시키는 것을 가능하게 한다. 종래에는, 팔레트 코딩된 블록들은 인터-코딩된 블록들과 동일하게 처리되었고, 이에 따라, 디코딩된 픽처 버퍼에 저장되거나 또는 디스플레이를 위해 출력되기에 앞서 필터링은 재구성된 블록들에 자동적으로 적용되었다. 개시된 기법들에 따르면, 비디오 인코더 및 비디오 디코더는 재구성된 블록이 팔레트 코딩된 블록이라는 것을 결정하고, 그 결정에 기초하여, 블록을 저장 또는 출력하기에 앞서 필터링을 디스에이블시킬 수도 있다. 팔레트 코딩된 블록들에 대해 필터링을 적용하는 것은, (예를 들어, 팔레트 코딩과 보통 연관된 비교적 이산-톤들이 주어진) 인터-코딩된 블록들과 동일한 방식으로 개선된 출력을 발생시키지 못할 수도 있다. 이에 따라, 본 개시물의 기법들은 품질에 영향을 미치는 일 없이 (또는 품질에 대해 비교적 작은 영향을 갖는 일 없이) 팔레트 코딩된 블록들에 대한 코딩 복잡도를 감소시키는데 이용될 수도 있다.
도 1 은 본 개시물의 기법들을 활용할 수도 있는 예시적인 비디오 코딩 시스템 (10) 을 예시하는 블록도이다. 본 명세서에서 사용되는 바와 같이, "비디오 코더" 라는 용어는 비디오 인코더들 및 비디오 디코더들 양쪽 모두를 일반적으로 지칭한다. 본 개시물에서, "비디오 코딩" 또는 "코딩" 이라는 용어들은 비디오 인코딩 또는 비디오 디코딩을 일반적으로 지칭할 수도 있다. 비디오 코딩 시스템 (10) 의 비디오 인코더 (20) 및 비디오 디코더 (30) 는, 본 개시물에서 설명되는 다양한 예들에 따라 팔레트-기반 비디오 코딩을 위한 기법들을 수행하도록 구성될 수도 있는 디바이스들의 예들을 표현한다. 예를 들어, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 팔레트-기반 코딩 또는 비-팔레트 기반 코딩 중 어느 하나를 이용하는 HEVC 코딩에서 비디오 데이터의 다양한 블록들, 예컨대 CU들 또는 PU들을 선택적으로 코딩하도록 구성될 수도 있다. 비-팔레트 기반 코딩 모드들은 HEVC 표준에 의해 특정된 다양한 코딩 모드들과 같은 다양한 인터-예측 시간적 코딩 모드들 또는 인트라-예측 공간적 코딩 모드들을 지칭할 수도 있다.
도 1 에 도시된 바와 같이, 비디오 코딩 시스템 (10) 은 소스 디바이스 (12) 및 목적지 디바이스 (14) 를 포함한다. 소스 디바이스 (12) 는 인코딩된 비디오 데이터를 생성한다. 이에 따라, 소스 디바이스 (12) 는 비디오 인코딩 디바이스 또는 비디오 인코딩 장치라고 지칭될 수도 있다. 목적지 디바이스 (14) 는 소스 디바이스 (12) 에 의해 생성되는 인코딩된 비디오 데이터를 디코딩할 수도 있다. 이에 따라, 목적지 디바이스 (14) 는 비디오 디코딩 디바이스 또는 비디오 디코딩 장치라고 지칭될 수도 있다. 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 비디오 코딩 디바이스들 또는 비디오 코딩 장치들의 예들일 수도 있다.
소스 디바이스 (12) 및 목적지 디바이스 (14) 는 데스크톱 컴퓨터들, 무선 통신 디바이스들, 모바일 컴퓨팅 디바이스들, 노트북 (예를 들어, 랩톱) 컴퓨터들, 태블릿 컴퓨터들, 셋톱 박스들, 소위 "스마트" 폰들과 같은 전화 핸드셋들, 텔레비전들, 카메라들, 디스플레이 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 콘솔들, 차량내 컴퓨터들 등을 포함하는 광범위한 디바이스들을 포함할 수도 있다.
목적지 디바이스 (14) 는 채널 (16) 을 통해 소스 디바이스 (12) 로부터 인코딩된 비디오 데이터를 수신할 수도 있다. 채널 (16) 은 인코딩된 비디오 데이터를 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로 이동시키는 것이 가능한 하나 이상의 매체들 또는 디바이스들을 포함할 수도 있다. 하나의 예에서, 채널 (16) 은 소스 디바이스 (12) 로 하여금 인코딩된 비디오 데이터를 직접 목적지 디바이스 (14) 에 실시간으로 송신하는 것을 가능하게 하는 하나 이상의 통신 매체들을 포함할 수도 있다. 이 예에서, 소스 디바이스 (12) 는 무선 통신 프로토콜과 같은 통신 표준에 따라 인코딩된 비디오 데이터를 변조할 수도 있고, 변조된 비디오 데이터를 목적지 디바이스 (14) 에 송신할 수도 있다. 하나 이상의 통신 매체들은 무선 주파수 (radio frequency; RF) 스펙트럼 또는 하나 이상의 물리적 송신 라인들과 같은 무선 및/또는 유선 통신 매체들을 포함할 수도 있다. 하나 이상의 통신 매체들은 패킷-기반 네트워크, 예컨대 로컬 영역 네트워크, 광역 네트워크, 또는 글로벌 네트워크 (예를 들어, 인터넷) 의 부분을 형성할 수도 있다. 하나 이상의 통신 매체들은 라우터들, 스위치들, 기지국들, 또는 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로의 통신을 용이하게 하는 다른 장비를 포함할 수도 있다.
다른 예에서, 채널 (16) 은 소스 디바이스 (12) 에 의해 생성되는 인코딩된 비디오 데이터를 저장하는 저장 매체를 포함할 수도 있다. 이 예에서, 목적지 디바이스 (14) 는 디스크 액세스 또는 카드 액세스를 통해 저장 매체에 액세스할 수도 있다. 저장 매체는 다양한 로컬로 액세스되는 데이터 저장 매체들, 예컨대 블루레이 디스크들, DVD들, CD-ROM들, 플래시 메모리, 또는 인코딩된 비디오 데이터를 저장하기 위한 다른 적합한 디지털 저장 매체들을 포함할 수도 있다.
추가 예에서, 채널 (16) 은 소스 디바이스 (12) 에 의해 생성되는 인코딩된 비디오 데이터를 저장하는 파일 서버 또는 다른 중간 저장 디바이스를 포함할 수도 있다. 이 예에서, 목적지 디바이스 (14) 는 스트리밍 또는 다운로드를 통해 파일 서버 또는 다른 중간 저장 디바이스에 저장되는 인코딩된 비디오 데이터에 액세스할 수도 있다. 파일 서버는 인코딩된 비디오 데이터를 저장하고 그 인코딩된 비디오 데이터를 목적지 디바이스 (14) 에 송신하는 것이 가능한 임의의 타입의 서버일 수도 있다. 예시적인 파일 서버들은 웹 서버들 (예를 들어, 웹사이트용), 파일 전송 프로토콜 (file transfer protocol; FTP) 서버들, NAS (network attached storage) 디바이스들, 및 로컬 디스크 드라이브들을 포함한다.
목적지 디바이스 (14) 는, 인터넷 연결과 같은 표준 데이터 연결을 통해, 인코딩된 비디오 데이터에 액세스할 수도 있다. 예시적인 타입들의 데이터 연결들은 파일 서버 상에 저장된 인코딩된 비디오 데이터에 액세스하기에 적합한 무선 채널들 (예를 들어, Wi-Fi 연결들), 유선 연결들 (예를 들어, DSL, 케이블 모뎀 등), 또는 이들 양쪽의 조합들을 포함할 수도 있다. 파일 서버로부터의 인코딩된 비디오 데이터의 송신은 스트리밍 송신, 다운로드 송신, 또는 이들 양쪽의 조합일 수도 있다.
본 개시물의 기법들은 무선 애플리케이션들 또는 설정들로 제한되지 않는다. 이 기법들은 다양한 멀티미디어 애플리케이션들, 예컨대 공중경유 텔레비전 브로드캐스트들, 케이블 텔레비전 송신들, 위성 텔레비전 송신들, 예를 들어, 인터넷을 통한 스트리밍 비디오 송신들, 데이터 저장 매체 상의 저장을 위한 비디오 데이터의 인코딩, 데이터 저장 매체 상에 저장된 비디오 데이터의 디코딩, 또는 다른 애플리케이션들의 지원 하에서 비디오 코딩에 적용될 수도 있다. 일부 예들에서, 비디오 코딩 시스템 (10) 은 비디오 스트리밍, 비디오 재생, 비디오 브로드캐스팅, 및/또는 비디오 전화통신과 같은 애플리케이션들을 지원하기 위한 1-방향 또는 2-방향 비디오 송신을 지원하도록 구성될 수도 있다.
도 1 은 단지 일 예일 뿐이고, 본 개시물의 기법들은 인코딩 및 디코딩 디바이스들 사이의 임의의 데이터 통신을 반드시 포함하지는 않는 비디오 코딩 설정들 (예를 들어, 비디오 인코딩 또는 비디오 디코딩) 에 적용할 수도 있다. 다른 예들에서, 데이터는 로컬 메모리로부터 취출되거나, 네트워크를 통해 스트리밍되는 것 등이 있다. 비디오 인코딩 디바이스는 데이터를 인코딩하고 이 데이터를 메모리에 저장할 수도 있거나, 및/또는 비디오 디코딩 디바이스는 데이터를 메모리로부터 취출하고 이 데이터를 디코딩할 수도 있다. 많은 예들에서, 인코딩 및 디코딩은, 서로 통신하지 않지만 단순히 메모리에 대한 데이터를 인코딩하거나 및/또는 메모리로부터 데이터를 취출하고 이 데이터를 디코딩하는 디바이스들에 의해 수행된다.
도 1 의 예에서, 소스 디바이스 (12) 는 비디오 소스 (18), 비디오 인코더 (20) 및 출력 인터페이스 (22) 를 포함한다. 일부 예들에서, 출력 인터페이스 (22) 는 변조기/복조기 (모뎀) 및/또는 송신기를 포함할 수도 있다. 비디오 소스 (18) 는 비디오 캡처 디바이스, 예를 들어, 비디오 카메라, 이전에 캡처된 비디오 데이터를 포함하는 비디오 아카이브, 비디오 콘텐츠 제공자로부터 비디오 데이터를 수신하기 위한 비디오 피드 인터페이스, 및/또는 비디오 데이터를 생성하기 위한 컴퓨터 그래픽 시스템, 또는 비디오 데이터의 이러한 소스들의 조합을 포함할 수도 있다.
비디오 인코더 (20) 는 비디오 소스 (18) 로부터의 비디오 데이터를 인코딩할 수도 있다. 일부 예들에서, 소스 디바이스 (12) 는 출력 인터페이스 (22) 를 통해 인코딩된 비디오 데이터를 목적지 디바이스 (14) 에 직접 송신한다. 다른 예들에서, 인코딩된 비디오 데이터는 또한, 디코딩 및/또는 재생을 위한 목적지 디바이스 (14) 에 의한 추후의 액세스를 위해 저장 매체 또는 파일 서버 상으로 저장될 수도 있다.
도 1 의 예에서, 목적지 디바이스 (14) 는 입력 인터페이스 (28), 비디오 디코더 (30), 및 디스플레이 디바이스 (32) 를 포함한다. 일부 예들에서, 입력 인터페이스 (28) 는 수신기 및/또는 모뎀을 포함한다. 입력 인터페이스 (28) 는 채널 (16) 을 통해 인코딩된 비디오 데이터를 수신할 수도 있다. 디스플레이 디바이스 (32) 는 목적지 디바이스 (14) 와 통합될 수도 있거나, 또는 그 외부에 있을 수도 있다. 일반적으로, 디스플레이 디바이스 (32) 는 디코딩된 비디오 데이터를 디스플레이한다. 디스플레이 디바이스 (32) 는 다양한 디스플레이 디바이스들, 예컨대 액정 디스플레이 (LCD), 플라즈마 디스플레이, 유기 발광 다이오드 (OLED) 디스플레이, 또는 다른 타입의 디스플레이 디바이스를 포함할 수도 있다.
본 개시물은 일반적으로, 비디오 인코더 (20) 가 소정의 정보를 비디오 디코더 (30) 와 같은 다른 디바이스에 "시그널링" 또는 "송신" 하는 것을 지칭할 수도 있다. 용어 "시그널링" 또는 "송신" 은 일반적으로, 압축된 비디오 데이터를 디코딩하는데 이용되는 신택스 엘리먼트들 및/또는 다른 데이터의 통신을 지칭할 수도 있다. 이러한 통신은 실시간으로 또는 근실시간으로 발생할 수도 있다. 대안적으로, 이러한 통신은 시간의 일 기간 동안 발생할 수도 있는데, 예컨대 인코딩시에 인코딩된 비트스트림으로 신택스 엘리먼트들을 컴퓨터 판독가능 저장 매체에 저장할 때 발생할 수도 있고, 그 후에 신택스 엘리먼트들은 이 매체에 저장된 후의 임의의 시간에 디코딩 디바이스에 의해 취출될 수도 있다. 따라서, 비디오 디코더 (30) 는 소정의 정보를 "수신" 하는 것이라고 지칭될 수도 있지만, 정보의 수신은 반드시 실시간으로 또는 근실시간으로 발생할 필요는 없고, 저장 후에 언젠가 매체로부터 취출될 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 각각은, 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서 (DSP) 들, 주문형 집적 회로 (ASIC) 들, 필드 프로그래밍가능 게이트 어레이 (FPGA) 들, 이산 로직, 하드웨어, 또는 이들의 임의의 조합과 같은 다양한 적합한 회로부 중 임의의 것으로서 구현될 수도 있다. 이 기법들이 부분적으로 소프트웨어로 구현되는 경우, 디바이스는 그 소프트웨어에 대한 명령들을 적합한 비일시적 컴퓨터 판독가능 저장 매체에 저장할 수도 있고 그 명령들을 하드웨어로 하나 이상의 프로세서들을 이용하여 실행함으로써 본 개시물의 기법들을 수행할 수도 있다. (하드웨어, 소프트웨어, 하드웨어와 소프트웨어의 조합 등을 포함하는) 전술한 것 중 임의의 것은 하나 이상의 프로세서들인 것으로 간주될 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 인코더들 또는 디코더들에 포함될 수도 있고, 이들 중 어느 하나는 무선 통신 디바이스와 같은 개별 디바이스에 조합된 인코더/디코더 (코덱 (CODEC)) 의 부분으로서 통합될 수도 있다.
일부 예들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는, HEVC 표준에서 설명되고 위에서 언급된 HEVC 표준과 같은 비디오 압축 표준에 따라 동작한다. 기본 HEVC 표준에 부가적으로, HEVC 에 대한 스케일러블 비디오 코딩, 멀티뷰 비디오 코딩, 및 3D 코딩 확장들을 생성하기 위한 노력들이 계속되고 있다. 또한, 예를 들어, 본 개시물에서 설명된 바와 같은 팔레트-기반 코딩 모드들은 HEVC 표준의 확장을 위해 제공될 수도 있다. 일부 예들에서, 팔레트-기반 코딩을 위해 본 개시물에서 설명되는 기법들은 다른 비디오 코딩 표준들, 예컨대 ITU-T-H.188/AVC 표준 또는 장래의 표준들에 따른 동작으로 구성된 인코더들 및 디코더들에 적용될 수도 있다. 이에 따라, HEVC 코덱에서 코딩 유닛 (CU) 들 또는 예측 유닛 (PU) 들의 코딩을 위한 팔레트-기반 코딩 모드의 적용은 예시의 목적들을 위해 설명된다.
HEVC 및 다른 비디오 코딩 표준들에서, 비디오 시퀀스는 통상적으로 일련의 픽처들을 포함한다. 픽처들은 또한 "프레임들" 이라고 지칭될 수도 있다. 픽처는 SL, SCb 및 SCr 로 표시되는 3 개의 샘플 어레이들을 포함할 수도 있다. SL 은 루마 샘플들의 2 차원 어레이 (즉, 블록) 이다. SCb 는 Cb 크로미넌스 샘플들의 2 차원 어레이이다. SCr 은 Cr 크로미넌스 샘플들의 2 차원 어레이이다. 크로미넌스 샘플들은 또한 본 명세서에서 "크로마" 샘플들이라고 지칭될 수도 있다. 다른 경우들에서, 픽처는 단색일 수도 있으며 오직 루마 샘플들의 어레이를 포함할 수도 있다.
픽처의 인코딩된 표현을 생성하기 위해, 비디오 인코더 (20) 는 코딩 트리 유닛 (coding tree unit; CTU) 들의 세트를 생성할 수도 있다. CTU들 각각은 루마 샘플들의 코딩 트리 블록, 크로마 샘플들의 2 개의 대응하는 코딩 트리 블록들, 및 코딩 트리 블록들의 샘플들을 코딩하기 위해 이용되는 신택스 구조들일 수도 있다. 코딩 트리 블록은 샘플들의 NxN 블록일 수도 있다. CTU 는 또한 "트리 블록" 또는 "최대 코딩 유닛" (largest coding unit; LCU) 이라고 지칭될 수도 있다. HEVC 의 CTU들은 H.188/AVC 와 같은 다른 표준들의 매크로블록들과 대체로 유사할 수도 있다. 그러나, CTU 는 반드시 특정 사이즈로 제한되는 것은 아니고, 하나 이상의 코딩 유닛 (CU) 들을 포함할 수도 있다. 슬라이스는 래스터 스캔에서 연속적으로 순서화된 정수 개수의 CTU들을 포함할 수도 있다.
코딩된 CTU 를 생성하기 위해, 비디오 인코더 (20) 는 CTU 의 코딩 트리 블록들에 대해 쿼드-트리 파티셔닝을 재귀적으로 수행하여 코딩 트리 블록들을 코딩 블록들, 그에 따라 명칭 "코딩 트리 유닛들" 로 분할할 수도 있다. 코딩 블록은 샘플들의 NxN 블록이다. CU 는 루마 샘플들의 코딩 블록, 및 루마 샘플 어레이, Cb 샘플 어레이 및 Cr 샘플 어레이를 갖는 픽처의 크로마 샘플들의 2 개의 대응하는 코딩 블록들, 그리고 코딩 블록들의 샘플들을 코딩하기 위해 이용되는 신택스 구조들일 수도 있다. 비디오 인코더 (20) 는 CU 의 코딩 블록을 하나 이상의 예측 블록들로 파티셔닝할 수도 있다. 예측 블록은 동일한 예측이 적용되는 샘플들의 직사각형 (즉, 정사각형 또는 비-정사각형) 블록일 수도 있다. CU 의 예측 유닛 (PU) 은 루마 샘플들의 예측 블록, 픽처의 크로마 샘플들의 2 개의 대응하는 예측 블록들, 및 예측 블록 샘플들을 예측하기 위해 이용되는 신택스 구조들일 수도 있다. 비디오 인코더 (20) 는 CU 의 각각의 PU 의 루마, Cb 및 Cr 예측 블록들에 대한 예측 루마, Cb 및 Cr 블록들을 생성할 수도 있다.
비디오 인코더 (20) 는 PU 에 대한 예측 블록들을 생성하기 위해 인트라 예측 또는 인터 예측을 이용할 수도 있다. 비디오 인코더 (20) 가 PU 의 예측 블록들을 생성하기 위해 인트라 예측을 이용하는 경우, 비디오 인코더 (20) 는 PU 와 연관된 픽처의 디코딩된 샘플들에 기초하여 PU 의 예측 블록들을 생성할 수도 있다.
비디오 인코더 (20) 가 PU 의 예측 블록들을 생성하기 위해 인터 예측을 이용하는 경우, 비디오 인코더 (20) 는 PU 와 연관된 픽처 이외의 하나 이상의 픽처들의 디코딩된 샘플들에 기초하여 PU 의 예측 블록들을 생성할 수도 있다. 비디오 인코더 (20) 는 PU 의 예측 블록들을 생성하기 위해 단-예측 (uni-prediction) 또는 양-예측 (bi-prediction) 을 이용할 수도 있다. 비디오 인코더 (20) 가 PU 에 대한 예측 블록들을 생성하기 위해 단-예측을 이용할 때, PU 는 단일 MV 를 가질 수도 있다. 비디오 인코더 (20) 가 PU 에 대한 예측 블록들을 생성하기 위해 양-예측을 이용할 때, PU 는 2 개의 MV들을 가질 수도 있다.
비디오 인코더 (20) 가 CU 의 하나 이상의 PU들에 대한 예측 루마, Cb 및 Cr 블록들을 생성한 후에, 비디오 인코더 (20) 는 CU 에 대한 루마 잔차 블록을 생성할 수도 있다. CU 의 루마 잔차 블록에서의 각각의 샘플은, CU 의 예측 루마 블록들 중 하나에서의 루마 샘플과, CU 의 오리지널 루마 코딩 블록에서의 대응하는 샘플과의 사이의 차이를 나타낸다. 또한, 비디오 인코더 (20) 는 CU 에 대한 Cb 잔차 블록을 생성할 수도 있다. CU 의 Cb 잔차 블록에서의 각각의 샘플은, CU 의 예측 Cb 블록들 중 하나에서의 Cb 샘플과, CU 의 오리지널 Cb 코딩 블록에서의 대응하는 샘플과의 사이의 차이를 나타낼 수도 있다. 비디오 인코더 (20) 는 또한 CU 에 대한 Cr 잔차 블록을 생성할 수도 있다. CU 의 Cr 잔차 블록에서의 각각의 샘플은, CU 의 예측 Cr 블록들 중 하나에서의 Cr 샘플과, CU 의 오리지널 Cr 코딩 블록에서의 대응하는 샘플과의 사이의 차이를 나타낼 수도 있다.
게다가, 비디오 인코더 (20) 는 CU 의 루마, Cb 및 Cr 잔차 블록들을 하나 이상의 루마, Cb 및 Cr 변환 블록들로 분해하기 위해 쿼드-트리 파티셔닝을 이용할 수도 있다. 변환 블록은 동일한 변환이 적용되는 샘플들의 직사각형 블록일 수도 있다. CU 의 변환 유닛 (TU) 은 루마 샘플들의 변환 블록, 크로마 샘플들의 2 개의 대응하는 변환 블록들, 및 변환 블록 샘플들을 변환하기 위해 이용되는 신택스 구조들일 수도 있다. 따라서, CU 의 각각의 TU 는 루마 변환 블록, Cb 변환 블록, 및 Cr 변환 블록과 연관될 수도 있다. TU 와 연관된 루마 변환 블록은 CU 의 루마 잔차 블록의 서브-블록일 수도 있다. Cb 변환 블록은 CU 의 Cb 잔차 블록의 서브-블록일 수도 있다. Cr 변환 블록은 CU 의 Cr 잔차 블록의 서브-블록일 수도 있다.
비디오 인코더 (20) 는 TU 에 대한 루마 계수 블록을 생성하기 위해 하나 이상의 변환들을 TU 의 루마 변환 블록에 적용할 수도 있다. 계수 블록은 변환 계수들의 2 차원 어레이일 수도 있다. 변환 계수는 스칼라 양 (scalar quantity) 일 수도 있다. 비디오 인코더 (20) 는 TU 에 대한 Cb 계수 블록을 생성하기 위해 하나 이상의 변환들을 TU 의 Cb 변환 블록에 적용할 수도 있다. 비디오 인코더 (20) 는 TU 에 대한 Cr 계수 블록을 생성하기 위해 하나 이상의 변환들을 TU 의 Cr 변환 블록에 적용할 수도 있다.
계수 블록 (예를 들어, 루마 계수 블록, Cb 계수 블록 또는 Cr 계수 블록) 을 생성한 후에, 비디오 인코더 (20) 는 계수 블록을 양자화할 수도 있다. 양자화는 일반적으로, 변환 계수들을 표현하는데 이용된 데이터의 양을 가능하다면 감소시키기 위해 변환 계수들이 양자화되어 추가의 압축을 제공하는 프로세스를 지칭한다. 비디오 인코더 (20) 가 계수 블록을 양자화한 후에, 비디오 인코더 (20) 는 양자화된 변환 계수들을 나타내는 신택스 엘리먼트들을 엔트로피 인코딩할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 양자화된 변환 계수들을 나타내는 신택스 엘리먼트들에 대해 콘텍스트 적응 이진 산술 코딩 (Context-Adaptive Binary Arithmetic Coding; CABAC) 을 수행할 수도 있다. 비디오 인코더 (20) 는 비트스트림에서의 엔트로피-인코딩된 신택스 엘리먼트들을 출력할 수도 있다.
비디오 인코더 (20) 는 엔트로피-인코딩된 신택스 엘리먼트들을 포함하는 비트스트림을 출력할 수도 있다. 비트스트림은 코딩된 픽처들 및 연관된 데이터의 표현을 형성하는 비트들의 시퀀스를 포함할 수도 있다. 비트스트림은 네트워크 추상화 계층 (network abstraction layer; NAL) 유닛들의 시퀀스를 포함할 수도 있다. NAL 유닛들 각각은 NAL 유닛 헤더를 포함하고, 원시 바이트 시퀀스 페이로드 (raw byte sequence payload; RBSP) 를 캡슐화한다. NAL 유닛 헤더는 NAL 유닛 타입 코드를 나타내는 신택스 엘리먼트를 포함할 수도 있다. NAL 유닛의 NAL 유닛 헤더에 의해 특정된 NAL 유닛 타입 코드는 NAL 유닛의 타입을 나타낸다. RBSP 는 NAL 유닛 내에 캡슐화되는 정수 개수의 바이트들을 포함하는 신택스 구조일 수도 있다. 일부 경우들에서, RBSP 는 제로 비트들을 포함한다.
상이한 타입들의 NAL 유닛들은 상이한 타입들의 RBSP들을 캡슐화할 수도 있다. 예를 들어, 제 1 타입의 NAL 유닛은 픽처 파라미터 세트 (picture parameter set; PPS) 에 대한 RBSP 를 캡슐화할 수도 있고, 제 2 타입의 NAL 유닛은 코딩된 슬라이스에 대한 RBSP 를 캡슐화할 수도 있고, 제 3 타입의 NAL 유닛은 SEI 에 대한 RBSP 를 캡슐화할 수도 있다는 것 등이 있다. (파라미터 세트들 및 SEI 메시지들에 대한 RBSP들과는 대조적으로) 비디오 코딩 데이터에 대한 RBSP들을 캡슐화하는 NAL 유닛들은 비디오 코딩 계층 (video coding layer; VCL) NAL 유닛들이라고 지칭될 수도 있다.
비디오 디코더 (30) 는 비디오 인코더 (20) 에 의해 생성된 비트스트림을 수신할 수도 있다. 부가적으로, 비디오 디코더 (30) 는 비트스트림으로부터 신택스 엘리먼트들을 디코딩하기 위해 비트스트림을 파싱할 수도 있다. 비디오 디코더 (30) 는 비트스트림으로부터 디코딩된 신택스 엘리먼트들에 적어도 부분적으로 기초하여 비디오 데이터의 픽처들을 재구성할 수도 있다. 비디오 데이터를 재구성하기 위한 프로세스는 비디오 인코더 (20) 에 의해 수행된 프로세스와 일반적으로 상반될 수도 있다.
예를 들어, 비디오 디코더 (30) 는 현재 CU 의 PU들에 대한 예측 샘플 블록들을 결정하기 위해 PU들의 MV들을 이용할 수도 있다. 또한, 비디오 디코더 (30) 는 현재 CU 의 TU들과 연관된 변환 계수 블록들을 역 양자화할 수도 있다. 비디오 디코더 (30) 는 현재 CU 의 TU들과 연관된 변환 블록들을 재구성하기 위해 변환 계수 블록들에 대해 역 변환들을 수행할 수도 있다. 비디오 디코더 (30) 는 현재 CU 의 PU들에 대한 예측 샘플 블록들의 샘플들을 현재 CU 의 TU들의 변환 블록들의 대응하는 샘플들에 부가함으로써, 현재 CU 의 코딩 블록들을 재구성할 수도 있다. 픽처의 각각의 CU 에 대한 코딩 블록들을 재구성함으로써, 비디오 디코더 (30) 는 픽처를 재구성할 수도 있다.
일부 예들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 팔레트-기반 코딩을 수행하도록 구성될 수도 있다. 예를 들어, 팔레트 기반 코딩에서, 상술된 인트라-예측 또는 인터-예측 코딩 기법들을 수행하기보다는, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 특정 영역 (예를 들어, 주어진 블록) 의 비디오 데이터를 표현하기 위한 컬러들의 테이블로서 소위 팔레트를 코딩할 수도 있다. 각각의 픽셀은 픽셀의 컬러를 표현하는 팔레트에서의 엔트리와 연관될 수도 있다. 예를 들어, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 픽셀 값을 팔레트에서의 적절한 값과 관련시키는 인덱스를 코딩할 수도 있다.
위의 예에서, 비디오 인코더 (20) 는 블록에 대한 팔레트를 결정하는 것, 각각의 픽셀의 값을 표현하기 위한 팔레트에서의 엔트리를 로케이팅하는 것, 그리고 픽셀 값을 팔레트에 관련시키는 픽셀들에 대한 인덱스 값들로 팔레트를 인코딩하는 것에 의해, 비디오 데이터의 블록을 인코딩할 수도 있다. 비디오 디코더 (30) 는, 인코딩된 비트스트림으로부터, 블록에 대한 팔레트뿐만 아니라, 블록의 픽셀들에 대한 인덱스 값들을 획득할 수도 있다. 비디오 디코더 (30) 는 블록의 픽셀 값들을 재구성하기 위해 픽셀들의 인덱스 값들을 팔레트의 엔트리들에 관련시킬 수도 있다.
일부 예들에서, 비디오 인코더 (20) 는 동일한 픽셀 값을 갖는, 주어진 스캔 순서에서의 다수의 연속적인 픽셀들을 나타내는 하나 이상의 신택스 엘리먼트들을 인코딩할 수도 있다. 유사-값 (like-valued) 의 픽셀 값들의 스트링은 본 명세서에서 "런" 이라고 지칭될 수도 있다. 예시의 목적들을 위한 예에서, 주어진 스캔 순서에서의 2 개의 연속적인 픽셀들이 상이한 값들을 갖는 경우, 런은 제로와 동일하다. 주어진 스캔 순서에서의 2 개의 연속적인 픽셀들이 동일한 값들을 갖지만 스캔 순서에서의 세 번째 픽셀이 상이한 값을 갖는 경우, 런은 1 과 동일하다. 비디오 디코더 (30) 는 인코딩된 비트스트림으로부터 런을 나타내는 신택스 엘리먼트들을 획득하고, 이 데이터를 이용하여 동일한 인덱스 값을 갖는 다수의 연속적인 픽셀 로케이션들을 결정할 수도 있다.
일부 예들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 인덱스 값들의 맵의 하나 이상의 엔트리들에 대해 라인 복사를 수행할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 인덱스 맵에서의 특정 엔트리에 대한 픽셀 값이 특정 엔트리 상측의 라인에서의 엔트리와 동일함을 나타낼 수도 있다. 비디오 인코더 (20) 는 또한, 런으로서, 특정 엔트리의 상측의 라인에서의 엔트리와 동일한, 스캔 순서에서의 다수의 인덱스들을 나타낼 수도 있다. 이 예에서, 비디오 인코더 (20) 및 또는 비디오 디코더 (30) 는 현재 코딩되고 있는 맵의 라인에 대한 엔트리들의 특정된 개수로부터 그리고 특정된 이웃 라인으로부터 인덱스 값들을 복사할 수도 있다.
본 개시물의 기법들에 따르면, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 재구성된 블록이 팔레트 코딩된 블록인지 여부에 기초하여 재구성된 블록의 필터링을 디스에이블시킬지 아닐지의 여부를 결정할 수도 있다. 또한, 비디오 인코더 (20) 는 팔레트 코딩된 블록에 대한 팔레트를 도출하고, 레이트-왜곡 비용들에 적어도 부분적으로 기초하여 팔레트의 하나 이상의 팔레트 엔트리들 또는 팔레트 사이즈 중 적어도 하나를 변경할지 여부를 결정할 수도 있다. 특히, 일부 예들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 도 4 내지 도 6 에 대해 아래에 더 상세히 설명되는 본 개시물의 기법들을 수행하도록 구성될 수도 있다.
도 2 는 본 개시물의 기법들을 구현할 수도 있는 예시적인 비디오 인코더 (20) 를 예시하는 블록도이다. 도 2 는 설명의 목적들을 위해 제공되고, 본 개시물에서 대략적으로 예시되고 설명된 바와 같은 기법들의 제한으로 간주되어서는 안된다. 설명의 목적들을 위해, 본 개시물은 HEVC 코딩의 맥락에서 비디오 인코더 (20) 를 설명한다. 그러나, 본 개시물의 기법들은 다른 코딩 표준들 또는 방법들에 적용가능할 수도 있다.
비디오 인코더 (20) 는 본 개시물에서 설명되는 다양한 예들에 따라 팔레트-기반 비디오 코딩을 위한 기법들을 수행하도록 구성될 수도 있는 디바이스의 예를 표현한다. 예를 들어, 비디오 인코더 (20) 는 팔레트-기반 코딩 또는 비-팔레트 기반 코딩 중 어느 하나를 이용하는 HEVC 코딩에서 비디오 데이터의 다양한 블록들, 예컨대 CU들 또는 PU들을 선택적으로 코딩하도록 구성될 수도 있다. 비-팔레트 기반 코딩 모드들은 HEVC 표준에 의해 특정된 다양한 코딩 모드들과 같은 다양한 인터-예측 시간적 코딩 모드들 또는 인트라-예측 공간적 코딩 모드들을 지칭할 수도 있다. 비디오 인코더 (20) 는, 하나의 예에서, 픽셀 값들을 나타내는 엔트리들을 갖는 팔레트를 생성하고, 비디오 데이터의 블록의 적어도 일부의 포지션들의 픽셀 값들을 표현하기 위해 팔레트에서 픽셀 값들을 선택하며, 비디오 데이터의 블록의 포지션들 중 적어도 일부를, 선택된 픽셀 값들에 각각 대응하는 팔레트에서의 엔트리들과 연관시키는 정보를 시그널링하도록 구성될 수도 있다. 시그널링된 정보는 비디오 디코더 (30) 에 의해 이용되어 비디오 데이터를 디코딩할 수도 있다.
도 2 의 예에서, 비디오 인코더 (20) 는 비디오 데이터 메모리 (98), 예측 프로세싱 유닛 (100), 잔차 생성 유닛 (102), 변환 프로세싱 유닛 (104), 양자화 유닛 (106), 역 양자화 유닛 (108), 역 변환 프로세싱 유닛 (110), 재구성 유닛 (112), 필터 유닛 (114), 디코딩된 픽처 버퍼 (116), 및 엔트로피 인코딩 유닛 (118) 을 포함한다. 예측 프로세싱 유닛 (100) 은 인터-예측 프로세싱 유닛 (120) 및 인트라-예측 프로세싱 유닛 (126) 을 포함한다. 인터-예측 프로세싱 유닛 (120) 은 모션 추정 유닛 및 모션 보상 유닛 (미도시) 을 포함한다. 비디오 인코더 (20) 는 또한, 본 개시물에서 설명되는 팔레트-기반 코딩 기법들의 다양한 양태들을 수행하도록 구성된 팔레트-기반 인코딩 유닛 (122) 을 포함한다. 다른 예들에서, 비디오 인코더 (20) 는 더 많거나, 더 적거나, 또는 상이한 기능적 컴포넌트들을 포함할 수도 있다.
비디오 데이터 메모리 (98) 는 비디오 인코더 (20) 의 컴포넌트들에 의해 인코딩될 비디오 데이터를 저장할 수도 있다. 비디오 데이터 메모리 (98) 에 저장된 비디오 데이터는, 예를 들어, 비디오 소스 (18) 로부터 획득될 수도 있다. 디코딩된 픽처 버퍼 (116) 는, 예를 들어, 인트라- 또는 인터-코딩 모드들에서, 비디오 인코더 (20) 에 의한 비디오 데이터의 인코딩에 있어서의 이용을 위해 참조 비디오 데이터를 저장하는 참조 픽처 메모리일 수도 있다. 비디오 데이터 메모리 (98) 및 디코딩된 픽처 버퍼 (116) 는 동기 DRAM (SDRAM), 자기저항 RAM (MRAM), 저항 RAM (RRAM), 또는 다른 타입들의 메모리 디바이스들을 포함하는, 동적 랜덤 액세스 메모리 (DRAM) 와 같은, 다양한 메모리 디바이스들 중 임의의 것에 의해 형성될 수도 있다. 비디오 데이터 메모리 (98) 및 디코딩된 픽처 버퍼 (116) 는 동일한 메모리 디바이스 또는 별개의 메모리 디바이스들에 의해 제공될 수도 있다. 다양한 예들에서, 비디오 데이터 메모리 (98) 는 비디오 인코더 (20) 의 다른 컴포넌트들과 온-칩 (on-chip) 일 수도 있고, 또는 이들 컴포넌트들에 대해 오프-칩 (off-chip) 일 수도 있다.
비디오 인코더 (20) 는 비디오 데이터를 수신할 수도 있다. 비디오 인코더 (20) 는 비디오 데이터의 픽처의 슬라이스에서의 각각의 CTU 를 인코딩할 수도 있다. CTU들 각각은 동일하게 사이징된 루마 코딩 트리 블록 (coding tree block; CTB) 들 및 픽처의 대응하는 CTB들과 연관될 수도 있다. CTU 를 인코딩하는 부분으로서, 예측 프로세싱 유닛 (100) 은 CTU 의 CTB들을 점진적으로 더 작은 블록들로 분할하기 위해 쿼드-트리 파티셔닝을 수행할 수도 있다. 더 작은 블록은 CU들의 코딩 블록들일 수도 있다. 예를 들어, 예측 프로세싱 유닛 (100) 은 CTU 와 연관된 CTB 를 4 개의 동일하게 사이징된 서브-블록들로 파티셔닝하고, 그 서브-블록들 중 하나 이상을 4 개의 동일하게 사이징된 서브-서브-블록들로 파티셔닝하는 것 등을 할 수도 있다.
비디오 인코더 (20) 는 CU들의 인코딩된 표현들 (즉, 코딩된 CU들) 을 생성하기 위해 CTU 의 CU들을 인코딩할 수도 있다. CU 를 인코딩하는 부분으로서, 예측 프로세싱 유닛 (100) 은 CU 의 하나 이상의 PU들 중에서 CU 와 연관된 코딩 블록들을 파티셔닝할 수도 있다. 따라서, 각각의 PU 는 루마 예측 블록 및 대응하는 크로마 예측 블록들과 연관될 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 는 다양한 사이즈들을 갖는 PU들을 지원할 수도 있다. 위에 나타낸 바와 같이, CU 의 사이즈는 CU 의 루마 코딩 블록의 사이즈를 지칭할 수도 있고, PU 의 사이즈는 PU 의 루마 예측 블록의 사이즈를 지칭할 수도 있다. 특정 CU 의 사이즈가 2Nx2N 이라고 가정하면, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 인트라 예측을 위한 2Nx2N 또는 NxN 의 PU 사이즈들, 및 인터 예측을 위한 2Nx2N, 2NxN, Nx2N, NxN, 또는 유사한 것의 대칭적인 PU 사이즈들을 지원할 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 는 인터 예측을 위한 2NxnU, 2NxnD, nLx2N, 및 nRx2N 의 PU 사이즈들에 대한 비대칭 파티셔닝을 또한 지원할 수도 있다.
인터-예측 프로세싱 유닛 (120) 은 CU 의 각각의 PU 에 대해 인터 예측을 수행함으로써 PU 에 대한 예측 데이터를 생성할 수도 있다. PU 에 대한 예측 데이터는 PU 의 예측 샘플 블록들 및 PU 에 대한 모션 정보를 포함할 수도 있다. 인터-예측 유닛 (121) 은 CU 의 PU 가 I 슬라이스에 있는지, P 슬라이스에 있는지, 또는 B 슬라이스에 있는지 여부에 의존하여 그 PU 에 대해 상이한 동작들을 수행할 수도 있다. I 슬라이스에서, 모든 PU들이 인트라 예측된다. 그에 따라, PU 가 I 슬라이스에 있는 경우, 인터-예측 유닛 (121) 은 PU 에 대한 인터 예측을 수행하지 않는다. 따라서, I-모드에서 인코딩된 블록들에 대해, 예측된 블록은 동일한 프레임 내의 이전에 인코딩된 이웃 블록들로부터의 공간적 예측을 이용하여 형성된다.
PU 가 P 슬라이스에 있는 경우, 인터-예측 프로세싱 유닛 (120) 의 모션 추정 유닛은 PU 에 대한 참조 구역에 대해 참조 픽처들의 리스트 (예를 들어, "RefPicList0") 에서의 참조 픽처들을 검색할 수도 있다. PU 에 대한 참조 구역은, 참조 픽처 내에서, PU 의 샘플 블록들에 가장 가깝게 대응하는 샘플 블록들을 포함하는 구역일 수도 있다. 모션 추정 유닛은 PU 에 대한 참조 구역을 포함하는 참조 픽처의 RefPicList0 에서의 포지션을 나타내는 참조 인덱스를 생성할 수도 있다. 또한, 모션 추정 유닛은 PU 의 코딩 블록과, 참조 구역과 연관된 참조 로케이션과의 사이의 공간적 변위를 나타내는 MV 를 생성할 수도 있다. 예를 들어, MV 는 현재 디코딩된 픽처에서의 좌표들로부터 참조 픽처에서의 좌표들까지의 오프셋을 제공하는 2 차원 벡터일 수도 있다. 모션 추정 유닛은 PU 의 모션 정보로서 참조 인덱스 및 MV 를 출력할 수도 있다. 인터-예측 프로세싱 유닛 (120) 의 모션 보상 유닛은 PU 의 모션 벡터에 의해 나타낸 참조 로케이션에서의 실제적인 또는 보간된 샘플들에 기초하여 PU 의 예측 샘플 블록들을 생성할 수도 있다.
PU 가 B 슬라이스에 있는 경우, 모션 추정 유닛은 PU 에 대해 단-예측 또는 양-예측을 수행할 수도 있다. PU 에 대해 단-예측을 수행하기 위해, 모션 추정 유닛은 PU 에 대한 참조 구역에 대해 RefPicList0 또는 제 2 참조 픽처 리스트 ("RefPicList1") 의 참조 픽처들을 검색할 수도 있다. 모션 추정 유닛은, PU 의 모션 정보로서, 참조 구역을 포함하는 참조 픽처의 RefPicList0 또는 RefPicList1 에서의 포지션을 나타내는 참조 인덱스, PU 의 샘플 블록과, 참조 구역과 연관된 참조 로케이션과의 사이의 공간적 변위를 나타내는 MV, 및 참조 픽처가 RefPicList0 또는 RefPicList1 에 있는지 여부를 나타내는 하나 이상의 예측 방향 표시자들을 출력할 수도 있다. 인터-예측 프로세싱 유닛 (120) 의 모션 보상 유닛은 PU 의 모션 벡터에 의해 나타낸 참조 구역에서의 실제적인 또는 보간된 샘플들에 적어도 부분적으로 기초하여 PU 의 예측 샘플 블록들을 생성할 수도 있다.
PU 에 대한 양방향 인터 예측을 수행하기 위해, 모션 추정 유닛은 PU 에 대한 참조 구역에 대해 RefPicList0 에서의 참조 픽처들을 검색할 수도 있고, 또한 PU 에 대한 다른 참조 구역에 대해 RefPicList1 에서의 참조 픽처들을 검색할 수도 있다. 모션 추정 유닛은 참조 구역들을 포함하는 참조 픽처들의 RefPicList0 및 RefPicList1 에서의 포지션들을 나타내는 참조 픽처 인덱스들을 생성할 수도 있다. 또한, 모션 추정 유닛은 참조 구역들과 연관된 참조 로케이션과, PU 의 샘플 블록과의 사이의 공간적 변위들을 나타내는 MV들을 생성할 수도 있다. PU 의 모션 정보는 PU 의 MV들 및 참조 인덱스들을 포함할 수도 있다. 모션 보상 유닛은 PU 의 모션 벡터에 의해 나타낸 참조 구역에서의 실제적인 또는 보간된 샘플들에 적어도 부분적으로 기초하여 PU 의 예측 샘플 블록들을 생성할 수도 있다.
인트라-예측 프로세싱 유닛 (126) 은 PU 에 대해 인트라 예측을 수행함으로써 PU 에 대한 예측 데이터를 생성할 수도 있다. PU 에 대한 예측 데이터는 PU 에 대한 예측 샘플 블록들 및 다양한 신택스 엘리먼트들을 포함할 수도 있다. 인트라-예측 프로세싱 유닛 (126) 은 I 슬라이스들, P 슬라이스들, 및 B 슬라이스들에서의 PU들에 대해 인트라 예측을 수행할 수도 있다.
PU 에 대해 인트라 예측을 수행하기 위해, 인트라-예측 프로세싱 유닛 (126) 은 PU 에 대한 예측 데이터의 다수의 세트들을 생성하기 위해 다수의 인트라 예측 모드들을 이용할 수도 있다. 인트라 예측 모드를 이용하여 PU 에 대한 예측 데이터의 세트를 생성하기 위해, 인트라-예측 프로세싱 유닛 (126) 은 인트라 예측 모드와 연관된 방향으로 PU 의 샘플 블록들에 걸쳐 이웃 PU들의 샘플 블록들로부터 샘플들을 확장시킬 수도 있다. PU들, CU들, 및 CTU들에 대해 좌측에서 우측으로, 상측에서 하측으로의 인코딩 순서를 가정하면, 이웃 PU들은 PU 의 상측, 상부 우측, 상부 좌측, 또는 좌측에 있을 수도 있다. 인트라-예측 프로세싱 유닛 (126) 은 다양한 개수의 인트라 예측 모드들, 예를 들어, 33 개의 방향성 인트라 예측 모드들을 이용할 수도 있다. 일부 예들에서, 인트라 예측 모드들의 개수는 PU 와 연관된 구역의 사이즈에 의존할 수도 있다.
예측 프로세싱 유닛 (100) 은 PU들에 대한 인터-예측 프로세싱 유닛 (120) 에 의해 생성된 예측 데이터 또는 PU들에 대한 인트라-예측 프로세싱 유닛 (126) 에 의해 생성된 예측 데이터 중에서 CU 의 PU들에 대한 예측 데이터를 선택할 수도 있다. 일부 예들에서, 예측 프로세싱 유닛 (100) 은 예측 데이터의 세트들의 레이트/왜곡 메트릭들에 기초하여 CU 의 PU들에 대한 예측 데이터를 선택한다. 선택된 예측 데이터의 예측 샘플 블록들은 선택된 예측 샘플 블록들이라고 본 명세서에서 지칭될 수도 있다.
잔차 생성 유닛 (102) 은, CU 의 루마, Cb 및 Cr 코딩 블록 및 CU 의 PU들의 선택된 예측 루마, Cb 및 Cr 블록들에 기초하여, CU 의 루마, Cb 및 Cr 잔차 블록들을 생성할 수도 있다. 예를 들어, 잔차 생성 유닛 (102) 은, 잔차 블록들에서의 각각의 샘플이, CU 의 코딩 블록에서의 샘플과, CU 의 PU 의 대응하는 선택된 예측 샘플 블록에서의 대응하는 샘플과의 사이의 차이와 동일한 값을 갖도록, CU 의 잔차 블록들을 생성할 수도 있다.
변환 프로세싱 유닛 (104) 은 CU 와 연관된 잔차 블록들을 CU 의 TU들과 연관된 변환 블록들로 파티셔닝하기 위해 쿼드-트리 파티셔닝을 수행할 수도 있다. 따라서, TU 는 루마 변환 블록 및 2 개의 크로마 변환 블록들과 연관될 수도 있다. CU 의 TU들의 루마 및 크로마 변환 블록들의 사이즈들 및 포지션들은 CU 의 PU들의 예측 블록들의 사이즈들 및 포지션들에 기초할 수도 있거나 또는 기초하지 않을 수도 있다. "잔차 쿼드-트리" (residual quad-tree; RQT) 로서 알려진 쿼드-트리 구조가 구역들 각각과 연관된 노드들을 포함할 수도 있다. CU 의 TU들은 RQT 의 리프 노드들에 대응할 수도 있다.
변환 프로세싱 유닛 (104) 은 하나 이상의 변환들을 TU 의 변환 블록들에 적용함으로써 CU 의 각각의 TU 에 대한 변환 계수 블록들을 생성할 수도 있다. 변환 프로세싱 유닛 (104) 은 다양한 변환들을 TU 와 연관된 변환 블록에 적용할 수도 있다. 예를 들어, 변환 프로세싱 유닛 (104) 은 이산 코사인 변환 (discrete cosine transform; DCT), 방향성 변환, 또는 개념적으로 유사한 변환을 변환 블록에 적용할 수도 있다. 일부 예들에서, 변환 프로세싱 유닛 (104) 은 변환들을 변환 블록에 적용하지 않는다. 이러한 예들에서, 변환 블록은 변환 계수 블록으로서 취급될 수도 있다.
양자화 유닛 (106) 은 계수 블록에서의 변환 계수들을 양자화할 수도 있다. 양자화 프로세스는 변환 계수들의 일부 또는 전부와 연관된 비트 심도를 감소시킬 수도 있다. 예를 들어, n-비트 변환 계수는 양자화 동안 m-비트 변환 계수로 버림 (round down) 될 수도 있고, 여기서 nm 보다 더 크다. 양자화 유닛 (106) 은 CU 와 연관된 양자화 파라미터 (quantization parameter; QP) 값에 기초하여 CU 의 TU 와 연관된 계수 블록을 양자화할 수도 있다. 비디오 인코더 (20) 는 CU 와 연관된 QP 값을 조정함으로써 그 CU 와 연관된 계수 블록들에 적용되는 양자화의 정도를 조정할 수도 있다. 양자화는 정보의 손실을 도입시킬 수도 있고, 그에 따라, 양자화된 변환 계수들은 오리지널의 것들보다 더 낮은 정밀도를 가질 수도 있다.
역 양자화 유닛 (108) 및 역 변환 프로세싱 유닛 (110) 은 역 양자화 및 역 변환들을 계수 블록에 각각 적용하여, 계수 블록으로부터 잔차 블록을 재구성할 수도 있다. 재구성 유닛 (112) 은 예측 프로세싱 유닛 (100) 에 의해 생성된 하나 이상의 예측 샘플 블록들로부터의 대응하는 샘플들에 재구성된 잔차 블록을 부가하여 TU 와 연관된 재구성된 변환 블록을 생성할 수도 있다. CU 의 각각의 TU 에 대한 변환 블록들을 이러한 방법으로 재구성함으로써, 비디오 인코더 (20) 는 CU 의 코딩 블록들을 재구성할 수도 있다.
필터 유닛 (114) 은 CU 와 연관된 코딩 블록들에서 블록킹 아티팩트 (blocking artifact) 들을 감소시키기 위해 하나 이상의 디블록킹 동작들을 수행할 수도 있다. 필터 유닛 (114) 이 재구성된 코딩 블록들에 대해 하나 이상의 디블록킹 동작들을 수행한 후에, 디코딩된 픽처 버퍼 (116) 는 재구성된 코딩 블록들을 저장할 수도 있다. 인터-예측 유닛 (120) 은 재구성된 코딩 블록들을 포함하는 참조 픽처를 이용하여 다른 픽처들의 PU들에 대해 인터 예측을 수행할 수도 있다. 또한, 인트라-예측 프로세싱 유닛 (126) 은 디코딩된 픽처 버퍼 (116) 에서의 재구성된 코딩 블록들을 이용하여 CU 와 동일한 픽처에서의 다른 PU들에 대해 인트라 예측을 수행할 수도 있다.
엔트로피 인코딩 유닛 (118) 은 비디오 인코더 (20) 의 다른 기능적 컴포넌트들로부터 데이터를 수신할 수도 있다. 예를 들어, 엔트로피 인코딩 유닛 (118) 은 양자화 유닛 (106) 으로부터 계수 블록들을 수신할 수도 있고 예측 프로세싱 유닛 (100) 으로부터 신택스 엘리먼트들을 수신할 수도 있다. 엔트로피 인코딩 유닛 (118) 은 엔트로피-인코딩된 데이터를 생성하기 위해 데이터에 대해 하나 이상의 엔트로피 인코딩 동작들을 수행할 수도 있다. 예를 들어, 엔트로피 인코딩 유닛 (118) 은 그 데이터에 대해 콘텍스트 적응 가변 길이 코딩 (context-adaptive variable length coding; CAVLC) 동작, CABAC 동작, 가변 대 가변 (variable-to-variable; V2V) 길이 코딩 동작, 신택스 기반 콘텍스트 적응 이진 산술 코딩 (syntax-based context-adaptive binary arithmetic coding; SBAC) 동작, 확률 간격 파티셔닝 엔트로피 (Probability Interval Partitioning Entropy; PIPE) 코딩 동작, 지수-골롬 (Exponential-Golomb) 인코딩 동작, 또는 다른 타입의 엔트로피 인코딩 동작을 수행할 수도 있다. 비디오 인코더 (20) 는 엔트로피 인코딩 유닛 (118) 에 의해 생성된 엔트로피-인코딩된 데이터를 포함하는 비트스트림을 출력할 수도 있다. 예를 들어, 비트스트림은 CU 에 대한 RQT 를 표현하는 데이터를 포함할 수도 있다.
본 개시물의 다양한 예들에 따르면, 비디오 인코더 (20) 는 팔레트-기반 코딩을 수행하도록 구성될 수도 있다. HEVC 프레임워크에 대해, 일 예로서, 팔레트-기반 코딩 기법들은 코딩 유닛 (CU) 모드로서 이용되도록 구성될 수도 있다. 다른 예들에서, 팔레트-기반 코딩 기법들은 HEVC 의 프레임워크에서 PU 모드로서 이용되도록 구성될 수도 있다. 이에 따라, CU 모드의 맥락에서 (본 개시물 전반에 걸쳐) 본 명세서에서 설명되는 개시된 프로세스들 전부는, 부가적으로 또는 대안적으로, PU 에 적용할 수도 있다. 그러나, 이들 HEVC-기반 예들은 본 명세서에서 설명된 팔레트-기반 코딩 기법들의 한정 또는 제한으로 간주되어서는 안되며, 이는 이러한 기법들이 독립적으로 또는 다른 기존의 또는 앞으로 개발될 시스템들/표준들의 부분으로서 작용하도록 적용될 수도 있기 때문이다. 이들 경우들에서, 팔레트 코딩을 위한 유닛은 정사각형 블록들, 직사각형 블록들 또는 심지어 비-직사각형 형상의 구역들일 수 있다.
팔레트-기반 인코딩 유닛 (122) 은, 예를 들어, 팔레트-기반 인코딩 모드가, 예를 들어, CU 또는 PU 에 대해 선택될 때 팔레트-기반 인코딩을 수행할 수도 있다. 예를 들어, 팔레트-기반 인코딩 유닛 (122) 은 픽셀 값들을 나타내는 엔트리들을 갖는 팔레트를 생성하고, 비디오 데이터의 블록의 적어도 일부의 포지션들의 픽셀 값들을 표현하기 위해 팔레트에서 픽셀 값들을 선택하며, 비디오 데이터의 블록의 포지션들 중 적어도 일부를, 선택된 픽셀 값들에 각각 대응하는 팔레트에서의 엔트리들과 연관시키는 정보를 시그널링하도록 구성될 수도 있다. 다양한 기능들이 팔레트-기반 인코딩 유닛 (122) 에 의해 수행되는 것으로서 설명되지만, 이러한 기능들 중 일부 또는 전부는 다른 프로세싱 유닛들, 또는 상이한 프로세싱 유닛들의 조합에 의해 수행될 수도 있다.
본 개시물의 일부 양태들에 따르면, 팔레트-기반 인코딩 유닛 (122) 은 팔레트 코딩된 블록에 대한 팔레트를 도출하고, 레이트-왜곡 비용들에 적어도 부분적으로 기초하여 팔레트의 하나 이상의 팔레트 엔트리들 또는 팔레트 사이즈 중 적어도 하나를 변경할지 여부를 결정하도록 구성될 수도 있다. 예를 들어, 도 4 에 대해 아래에 더 상세히 설명되는 픽셀 값 군집화 방법을 이용하여 팔레트 엔트리들 및 팔레트 사이즈가 현재 블록에 대해 결정된 후에, 팔레트-기반 인코딩 유닛 (122) 은 픽셀 값 군집화 방법에 의해 오리지널로 결정된 팔레트의 팔레트 사이즈를 감소시킬지 여부를 결정한다. 하나의 예에서, 팔레트-기반 인코딩 유닛 (122) 은 픽셀의 양자화된 픽셀 값을 인코딩하는 것을 포함하여, 주어진 인덱스 값을 이용하여 픽셀을 인코딩하거나 또는 이스케이프 픽셀로서 픽셀을 인코딩하기 위한 레이트-왜곡 비용들의 비교에 기초하여 주어진 인덱스 값을 유지할지 또는 제거할지를 결정한다. 다른 예에서, 팔레트-기반 인코딩 유닛 (122) 은 주어진 인덱스 값을 이용하여 픽셀을 인코딩하거나 또는 이웃 인덱스 값을 이용하여 픽셀을 인코딩하기 위한 레이트-왜곡 비용들의 비교에 기초하여 주어진 인덱스 값을 이웃 인덱스 값에 병합할지 (예를 들어, 인덱스 값들을 조합하여 단일 인덱스 값을 형성할지) 여부를 결정한다.
다른 예로서, 팔레트-기반 인코딩 유닛 (122) 은 픽셀 값 군집화 방법에 의해 오리지널로 결정된 팔레트의 팔레트 엔트리들 중 하나 이상을 변경할지 여부를 결정한다. 이 예에서, 팔레트-기반 인코딩 유닛 (122) 은 아래에 도 4 에 대해 더 상세히 설명되는 k-평균 군집화 방법 (k-means clustering method) 을 이용하여 팔레트 코딩된 블록에 대한 대표 팔레트를 결정한다. 대표 팔레트는 블록의 픽셀들에 대한 평균 픽셀 값들을 나타내는 대표 팔레트 엔트리들을 포함한다. 팔레트-기반 인코딩 유닛 (122) 은 대표 팔레트의 대응하는 대표 팔레트 엔트리에 의해 나타낸 평균 픽셀 값에 기초하여 오리지널 팔레트의 주어진 팔레트 엔트리를 변경할지 여부를 결정한다.
팔레트 코딩된 블록들에 대한 팔레트의 팔레트 엔트리들 및 팔레트 사이즈를 결정하기 위한 기법들은 도 4 및 도 6 에 대해 아래에 더 상세히 설명된다. 본 개시물이 팔레트 사이즈 및 팔레트 엔트리들의 변경을 위한 기법들이 비디오 인코더에 의해 수행되는 것으로서 주로 설명하지만, 다른 예들에서, 팔레트 변경 기법들은 또한 비디오 디코더 (30) 와 같은 비디오 디코더에 의해 수행될 수도 있다. 그 경우, 예를 들어, 비디오 디코더 (30) 는, 본 개시물의 기법들에 따라, 팔레트를 별도로 도출하고 변경할 수도 있거나, 또는 비디오 인코더 (20) 에 의해 시그널링되는 팔레트를 변경할 수도 있다.
본 개시물의 다른 양태들에 따르면, 비디오 인코더 (20) 는 디코딩된 픽처 버퍼 (116) 에 재구성된 블록들을 저장하기에 앞서 필터 유닛 (114) 에 의한 재구성된 팔레트 코딩된 블록들의 필터링을 디스에이블시킬지 여부를 결정하는 것으로 구성될 수도 있다. 예를 들어, 비디오 인코더 (20) 는 필터 유닛 (114) 에 의한 팔레트 코딩된 블록들의 디블록킹 필터링 및/또는 SAO 필터링을 디스에이블시킬 수도 있다. 종래에는, 팔레트 코딩된 블록들은 인터-코딩된 블록들과 동일하게 처리되었고, 이에 따라, 디코딩된 픽처 버퍼에 저장되거나 또는 디스플레이를 위해 출력되기에 앞서 필터링은 재구성된 블록들에 자동적으로 적용되었다. 개시된 기법들에 따르면, 비디오 인코더 (20) 는 재구성된 블록이 팔레트 코딩된 블록이라는 것을 결정하고, 그 결정에 기초하여, 디코딩된 픽처 버퍼 (116) 에 블록을 저장하기에 앞서 필터 유닛 (114) 에 의한 필터링을 디스에이블시킬 수도 있다. 팔레트 코딩된 블록들의 필터링을 결정하기 위한 기법들은 도 4 및 도 5 에 대해 아래에 더 상세히 설명된다.
도 3 은 본 개시물의 기법들을 구현하도록 구성되는 예시적인 비디오 디코더 (30) 를 예시하는 블록도이다. 도 3 은 설명의 목적들을 위해 제공되고, 본 개시물에서 대략적으로 예시되고 설명된 바와 같은 기법들에 대한 제한이 아니다. 설명의 목적들을 위해, 본 개시물은 HEVC 코딩의 맥락에서 비디오 디코더 (30) 를 설명한다. 그러나, 본 개시물의 기법들은 다른 코딩 표준들 또는 방법들에 적용가능할 수도 있다.
비디오 디코더 (30) 는 본 개시물에서 설명되는 다양한 예들에 따라 팔레트-기반 비디오 코딩을 위한 기법들을 수행하도록 구성될 수도 있는 디바이스의 예를 표현한다. 예를 들어, 비디오 디코더 (30) 는 팔레트-기반 코딩 또는 비-팔레트 기반 코딩 중 어느 하나를 이용하는 HEVC 코딩에서 비디오 데이터의 다양한 블록들, 예컨대 CU들 또는 PU들을 선택적으로 디코딩하도록 구성될 수도 있다. 비-팔레트 기반 코딩 모드들은 HEVC 표준에 의해 특정된 다양한 코딩 모드들과 같은 다양한 인터-예측 시간적 코딩 모드들 또는 인트라-예측 공간적 코딩 모드들을 지칭할 수도 있다. 비디오 디코더 (30) 는, 하나의 예에서, 픽셀 값들을 나타내는 엔트리들을 갖는 팔레트를 생성하고, 비디오 데이터의 블록의 적어도 일부의 포지션들을 팔레트에서의 엔트리들과 연관시키는 정보를 수신하고, 그 정보에 기초하여 팔레트에서 픽셀 값들을 선택하며, 선택된 픽셀 값들에 기초하여 블록의 픽셀 값들을 재구성하도록 구성될 수도 있다.
도 3 의 예에서, 비디오 디코더 (30) 는 비디오 데이터 메모리 (148), 엔트로피 디코딩 유닛 (150), 예측 프로세싱 유닛 (152), 역 양자화 유닛 (154), 역 변환 프로세싱 유닛 (156), 재구성 유닛 (158), 필터 유닛 (160), 및 디코딩된 픽처 버퍼 (162) 를 포함한다. 예측 프로세싱 유닛 (152) 은 모션 보상 유닛 (164) 및 인트라-예측 프로세싱 유닛 (166) 을 포함한다. 비디오 디코더 (30) 는 또한, 본 개시물에서 설명되는 팔레트-기반 코딩 기법들의 다양한 양태들을 수행하도록 구성된 팔레트-기반 디코딩 유닛 (165) 을 포함한다. 다른 예들에서, 비디오 디코더 (30) 는 더 많거나, 더 적거나, 또는 상이한 기능적 컴포넌트들을 포함할 수도 있다.
비디오 데이터 메모리 (148) 는 비디오 디코더 (30) 의 컴포넌트들에 의해 디코딩될, 인코딩된 비디오 비트스트림과 같은 비디오 데이터를 저장할 수도 있다. 비디오 데이터 메모리 (148) 에 저장된 비디오 데이터는, 예를 들어, 컴퓨터 판독가능 매체 (16) 로부터, 예를 들어, 카메라와 같은 로컬 비디오 소스로부터, 비디오 데이터의 유선 또는 무선 네트워크 통신을 통해, 또는 물리적 데이터 저장 매체들에 액세스함으로써 획득될 수도 있다. 비디오 데이터 메모리 (148) 는 인코딩된 비디오 비트스트림으로부터의 인코딩된 비디오 데이터를 저장하는 코딩된 픽처 버퍼 (CPB) 를 형성할 수도 있다. 디코딩된 픽처 버퍼 (162) 는, 예를 들어, 인트라- 또는 인터-코딩 모드들에서, 비디오 디코더 (30) 에 의한 비디오 데이터의 디코딩에 있어서의 이용을 위해 참조 비디오 데이터를 저장하는 참조 픽처 메모리일 수도 있다. 비디오 데이터 메모리 (148) 및 디코딩된 픽처 버퍼 (162) 는 동기 DRAM (SDRAM), 자기저항 RAM (MRAM), 저항 RAM (RRAM), 또는 다른 타입들의 메모리 디바이스들을 포함하는, 동적 랜덤 액세스 메모리 (DRAM) 와 같은, 다양한 메모리 디바이스들 중 임의의 것에 의해 형성될 수도 있다. 비디오 데이터 메모리 (148) 및 디코딩된 픽처 버퍼 (162) 는 동일한 메모리 디바이스 또는 별개의 메모리 디바이스들에 의해 제공될 수도 있다. 다양한 예들에서, 비디오 데이터 메모리 (148) 는 비디오 디코더 (30) 의 다른 컴포넌트들과 온-칩일 수도 있고, 또는 이들 컴포넌트들에 대해 오프-칩일 수도 있다.
비디오 데이터 메모리 (148), 즉, CPB 는 비트스트림의 인코딩된 비디오 데이터 (예를 들어, NAL 유닛들) 를 수신 및 저장할 수도 있다. 엔트로피 디코딩 유닛 (150) 은 비디오 데이터 메모리 (148) 로부터 인코딩된 비디오 데이터 (예를 들어, NAL 유닛들) 를 수신할 수도 있고, 신택스 엘리먼트들을 디코딩하기 위해 NAL 유닛들을 파싱할 수도 있다. 엔트로피 디코딩 유닛 (150) 은 NAL 유닛들에서의 엔트로피-인코딩된 신택스 엘리먼트들을 엔트로피 디코딩할 수도 있다. 예측 프로세싱 유닛 (152), 역 양자화 유닛 (154), 역 변환 프로세싱 유닛 (156), 재구성 유닛 (158), 및 필터 유닛 (160) 은 비트스트림으로부터 획득된 (예를 들어, 추출된) 신택스 엘리먼트들에 기초하여 디코딩된 비디오 데이터를 생성할 수도 있다.
비트스트림의 NAL 유닛들은 코딩된 슬라이스 NAL 유닛들을 포함할 수도 있다. 비트스트림을 디코딩하는 부분으로서, 엔트로피 디코딩 유닛 (150) 은 코딩된 슬라이스 NAL 유닛들로부터 신택스 엘리먼트들을 추출하고 엔트로피 디코딩할 수도 있다. 코딩된 슬라이스들 각각은 슬라이스 헤더 및 슬라이스 데이터를 포함할 수도 있다. 슬라이스 헤더는 슬라이스에 관계된 신택스 엘리먼트들을 포함할 수도 있다. 슬라이스 헤더에서의 신택스 엘리먼트들은 슬라이스를 포함하는 픽처와 연관된 PPS 를 식별하는 신택스 엘리먼트를 포함할 수도 있다.
비트스트림으로부터의 신택스 엘리먼트들을 디코딩하는 것에 부가적으로, 비디오 디코더 (30) 는 비-파티셔닝된 CU 에 대해 재구성 동작을 수행할 수도 있다. 비-파티셔닝된 CU 에 대해 재구성 동작을 수행하기 위해, 비디오 디코더 (30) 는 CU 의 각각의 TU 에 대해 재구성 동작을 수행할 수도 있다. CU 의 각각의 TU 에 대해 재구성 동작을 수행함으로써, 비디오 디코더 (30) 는 CU 의 잔차 블록들을 재구성할 수도 있다.
CU 의 TU 에 대해 재구성 동작을 수행하는 부분으로서, 역 양자화 유닛 (154) 은 TU 와 연관된 계수 블록을 역 양자화, 즉, 양자화해제 (de-quantize) 할 수도 있다. 역 양자화 유닛 (154) 은 TU 의 CU 와 연관된 QP 값을 이용하여 양자화의 정도 및, 이와 마찬가지로, 역 양자화 유닛 (154) 이 적용할 역 양자화의 정도를 결정할 수도 있다. 즉, 압축 비율, 즉, 오리지널 시퀀스 및 압축된 것을 표현하기 위해 이용된 비트들의 수의 비율은, 변환 계수들을 양자화할 때에 이용된 QP 의 값을 조정함으로써 제어될 수도 있다. 압축 비율은 또한, 채용된 엔트로피 코딩의 방법에 의존할 수도 있다.
역 양자화 유닛 (154) 이 계수 블록을 역 양자화한 후에, 역 변환 프로세싱 유닛 (156) 은 TU 와 연관된 잔차 블록을 생성하기 위해 하나 이상의 역 변환들을 계수 블록에 적용할 수도 있다. 예를 들어, 역 변환 프로세싱 유닛 (156) 은 역 DCT, 역 정수 변환, 역 카루넨-뢰베 변환 (Karhunen-Loeve transform; KLT), 역 회전 변환, 역 방향성 변환, 또는 다른 역 변환을 계수 블록에 적용할 수도 있다.
PU 가 인트라 예측을 이용하여 인코딩되는 경우, 인트라-예측 프로세싱 유닛 (166) 은 PU 에 대한 예측 블록들을 생성하기 위해 인트라 예측을 수행할 수도 있다. 인트라-예측 프로세싱 유닛 (166) 은 공간적으로 이웃하는 PU들의 예측 블록들에 기초하여 PU 에 대한 예측 루마, Cb 및 Cr 블록들을 생성하기 위해 인트라 예측 모드를 이용할 수도 있다. 인트라-예측 프로세싱 유닛 (166) 은 비트스트림으로부터 디코딩된 하나 이상의 신택스 엘리먼트들에 기초하여 PU 에 대한 인트라 예측 모드를 결정할 수도 있다.
예측 프로세싱 유닛 (152) 은 비트스트림으로부터 추출된 신택스 엘리먼트들에 기초하여 제 1 참조 픽처 리스트 (RefPicList0) 및 제 2 참조 픽처 리스트 (RefPicList1) 를 구성할 수도 있다. 게다가, PU 가 인터 예측을 이용하여 인코딩되는 경우, 엔트로피 디코딩 유닛 (150) 은 PU 에 대한 모션 정보를 추출할 수도 있다. 모션 보상 유닛 (164) 은, PU 의 모션 정보에 기초하여, PU 에 대한 하나 이상의 참조 구역들을 결정할 수도 있다. 모션 보상 유닛 (164) 은, PU 에 대한 하나 이상의 참조 블록들에서의 샘플 블록들에 기초하여, PU 에 대한 예측 루마, Cb 및 Cr 블록들을 생성할 수도 있다.
재구성 유닛 (158) 은 CU 의 TU들과 연관된 루마, Cb 및 Cr 변환 블록들 및 CU 의 PU들의 예측 루마, Cb 및 Cr 블록들, 즉, 적용가능하다면, 인트라-예측 데이터 또는 인터-예측 데이터 중 어느 하나를 이용하여, CU 의 루마, Cb 및 Cr 코딩 블록들을 재구성할 수도 있다. 예를 들어, 재구성 유닛 (158) 은 루마, Cb 및 Cr 변환 블록들의 샘플들을 예측 루마, Cb 및 Cr 블록들의 대응하는 샘플들에 부가하여 CU 의 루마, Cb 및 Cr 코딩 블록들을 재구성할 수도 있다.
필터 유닛 (160) 은 CU 의 루마, Cb 및 Cr 코딩 블록들과 연관된 블록킹 아티팩트들을 감소시키기 위해 디블록킹 동작을 수행할 수도 있다. 비디오 디코더 (30) 는 CU 의 루마, Cb 및 Cr 코딩 블록들을 디코딩된 픽처 버퍼 (162) 에 저장할 수도 있다. 디코딩된 픽처 버퍼 (162) 는 후속하는 모션 보상, 인트라 예측, 및 디스플레이 디바이스, 예컨대 도 1 의 디스플레이 디바이스 (32) 상의 프레젠테이션을 위해 참조 픽처들을 제공할 수도 있다. 예를 들어, 비디오 디코더 (30) 는, 디코딩된 픽처 버퍼 (162) 에서의 루마, Cb 및 Cr 블록들에 기초하여, 다른 CU들의 PU들에 대해 인트라 예측 또는 인터 예측 동작들을 수행할 수도 있다. 이러한 방법으로, 비디오 디코더 (30) 는 비트스트림으로부터 유효 루마 계수 블록의 변환 계수 레벨들을 추출하고, 변환 계수 레벨들을 역 양자화하고, 변환 계수 레벨들에 변환을 적용하여 변환 블록을 생성하고, 변환 블록에 적어도 부분적으로 기초하여 코딩 블록을 생성하며, 디스플레이를 위해 코딩 블록을 출력할 수도 있다.
본 개시물의 다양한 예들에 따르면, 비디오 디코더 (30) 는 팔레트-기반 코딩을 수행하도록 구성될 수도 있다. 팔레트-기반 디코딩 유닛 (165) 은, 예를 들어, 팔레트-기반 디코딩 모드가, 예를 들어, CU 또는 PU 에 대해 선택될 때 팔레트-기반 디코딩을 수행할 수도 있다. 예를 들어, 팔레트-기반 디코딩 유닛 (165) 은 픽셀 값들을 나타내는 엔트리들을 갖는 팔레트를 생성하고, 비디오 데이터의 블록의 적어도 일부의 포지션들을 팔레트에서의 엔트리들과 연관시키는 정보를 수신하고, 그 정보에 기초하여 팔레트에서 픽셀 값들을 선택하며, 선택된 픽셀 값들에 기초하여 블록의 픽셀 값들을 재구성하도록 구성될 수도 있다. 다양한 기능들이 팔레트-기반 디코딩 유닛 (165) 에 의해 수행되는 것으로서 설명되지만, 이러한 기능들 중 일부 또는 전부는 다른 프로세싱 유닛들, 또는 상이한 프로세싱 유닛들의 조합에 의해 수행될 수도 있다.
본 개시물의 양태들에 따르면, 비디오 디코더 (30) 는 디코딩된 픽처 버퍼 (162) 에 재구성된 블록들을 저장하기에 앞서 필터 유닛 (160) 에 의한 재구성된 팔레트 코딩된 블록들의 필터링을 디스에이블시킬지 여부를 결정하는 것으로 구성될 수도 있다. 예를 들어, 비디오 디코더 (30) 는 필터 유닛 (160) 에 의한 팔레트 코딩된 블록들의 디블록킹 필터링 및/또는 SAO 필터링을 디스에이블시킬 수도 있다. 종래에는, 팔레트 코딩된 블록들은 인터-코딩된 블록들과 동일하게 처리되었고, 이에 따라, 디코딩된 픽처 버퍼에 저장되거나 또는 디스플레이를 위해 출력되기에 앞서 필터링은 재구성된 블록들에 자동적으로 적용되었다. 개시된 기법들에 따르면, 비디오 디코더 (30) 는 재구성된 블록이 팔레트 코딩된 블록이라는 것을 결정하고, 그 결정에 기초하여, 디코딩된 픽처 버퍼 (162) 에 블록을 저장하기에 앞서 필터 유닛 (160) 에 의한 필터링을 디스에이블시킬 수도 있다. 팔레트 코딩된 블록들의 필터링을 결정하기 위한 기법들은 도 4 및 도 5 에 대해 아래에 더 상세히 설명된다.
도 4 는 본 개시물의 기법들과 부합하는, 비디오 데이터를 코딩하기 위한 팔레트를 결정하는 예를 예시하는 개념도이다. 도 4 의 예는 제 1 팔레트들 (184) 과 연관된 팔레트 (PAL) 코딩된 블록으로서 코딩된 제 1 코딩 유닛 (CU) (180), 및 제 2 팔레트들 (192) 과 연관된 팔레트 (PAL) 코딩된 블록이 코딩된 제 2 CU (188) 를 갖는 픽처 (178) 를 포함한다. 픽처 (178) 는 또한, 인트라-예측 코딩 모드로 코딩된 인트라 블록 (196), 및 인터-예측 코딩 모드로 코딩되는 인터 블록 (200) 을 포함한다. 도 4 의 기법들은 비디오 인코더 (20) (도 1 및 도 2) 및 비디오 디코더 (30) (도 1 및 도 3) 의 맥락에서 그리고 설명의 목적들을 위해 HEVC 표준에 대해 설명된다. 그러나, 본 개시물의 기법들은 이러한 방법으로 제한되지 않으며, 다른 비디오 코딩 프로세스들 및/또는 표준들에서 다른 비디오 코딩 프로세서들 및/또는 디바이스들에 의해 적용될 수도 있다는 것이 이해되어야 한다.
일반적으로, 팔레트는 현재 코딩되고 있는 CU, 도 4 의 예에서 CU (188) 에 대해 지배적이거나 및/또는 대표적인 다수의 픽셀 값들을 지칭한다. 제 1 팔레트들 (184) 및 제 2 팔레트들 (192) 은 다수의 팔레트들을 포함하는 것으로서 도시된다. 일부 예들에서, 본 개시물의 양태들에 따르면, (비디오 인코더 (20) 또는 비디오 디코더 (30) 와 같은) 비디오 코더는 CU 의 각각의 컬러 컴포넌트에 대해 별도로 팔레트들을 코딩할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 CU 의 루마 (Y) 컴포넌트에 대한 팔레트, CU 의 크로마 (U) 컴포넌트에 대한 다른 팔레트, 및 CU 의 크로마 (V) 컴포넌트에 대한 또 다른 팔레트를 인코딩할 수도 있다. 이 예에서, Y 팔레트의 엔트리들은 CU 의 픽셀들의 Y 값들을 표현할 수도 있고, U 팔레트의 엔트리들은 CU 의 픽셀들의 U 값들을 표현할 수도 있으며, V 팔레트의 엔트리들은 CU 의 픽셀들의 V 값들을 표현할 수도 있다.
다른 예들에서, 비디오 인코더 (20) 는 CU 의 모든 컬러 컴포넌트들에 대해 단일 팔레트를 인코딩할 수도 있다. 이 예에서, 비디오 인코더 (20) 는, Yi, Ui, 및 Vi 를 포함하는, 트리플 값인 i 번째 엔트리를 갖는 팔레트를 인코딩할 수도 있다. 이 경우, 팔레트는 픽셀들의 컴포넌트들 각각에 대한 값들을 포함한다. 이에 따라, 다수의 개개의 팔레트들을 갖는 팔레트들의 세트로서의 팔레트들 (184 및 192) 의 표현은 단지 하나의 예일 뿐이고 제한하는 것으로 의도된 것이 아니다.
도 4 의 예에서, 제 1 팔레트들 (184) 은 인덱스 값 1, 인덱스 값 2, 및 인덱스 값 3 을 갖는 3 개의 팔레트 엔트리들 (202, 204, 206) 을 각각 포함한다. 팔레트 엔트리들 (202, 204, 206) 은 인덱스 값들을 픽셀 값 A, 픽셀 값 B, 및 픽셀 값 C 를 포함하는 픽셀 값들 (즉, 컬러 값들) 에 각각 관련시킨다. 본 명세서에서 설명되는 바와 같이, 제 1 CU (180) 의 실제 픽셀 값들을 코딩하기보다는, (비디오 인코더 (20) 또는 비디오 디코더 (30) 와 같은) 비디오 코더는 인덱스 값들 1, 2, 3 을 이용하여 블록의 픽셀들을 코딩하기 위해 팔레트-기반 코딩을 이용할 수도 있다. 즉, 제 1 CU (180) 의 각각의 픽셀 포지션에 대해, 비디오 인코더 (20) 는 픽셀에 대한 인덱스 값을 인코딩할 수도 있고, 여기서 인덱스 값은 제 1 팔레트들 (184) 중 하나 이상에서의 픽셀에 대한 픽셀 값을 나타내는 팔레트 엔트리에 대응한다. 비디오 디코더 (30) 는 비트스트림으로부터 인덱스 값들을 획득하고, 인덱스 값들 및 제 1 팔레트들 (184) 중 하나 이상을 이용하여 픽셀 값들을 재구성할 수도 있다. 따라서, 팔레트-기반 디코딩에서 비디오 디코더 (30) 에 의한 이용을 위해 인코딩된 비디오 데이터 비트스트림에서 제 1 팔레트들 (184) 이 비디오 인코더 (20) 에 의해 송신된다.
일부 예들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 제 1 팔레트들 (184) 에 기초하여 제 2 팔레트들 (192) 을 결정할 수도 있다. 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 예측 팔레트들, 이 예에서는, 제 1 팔레트들 (184) 이 결정되게 되는 하나 이상의 블록들을 로케이팅할 수도 있다. 도 4 에 예시된 예와 같은 일부 예들에서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 제 2 CU (188) 에 대한 예측 팔레트를 결정할 때 좌측 이웃 CU (제 1 CU (180)) 와 같은 이전에 코딩된 CU 를 로케이팅할 수도 있다.
도 4 의 예에서, 제 2 팔레트들 (192) 은 인덱스 값 1, 인덱스 값 2, 및 인덱스 값 3 을 갖는 3 개의 팔레트 엔트리들 (208, 210, 212) 을 각각 포함한다. 팔레트 엔트리들 (208, 210, 212) 은 인덱스 값들을 픽셀 값 A, 픽셀 값 B, 및 픽셀 값 D 를 포함하는 픽셀 값들에 각각 관련시킨다. 이 예에서, 비디오 인코더 (20) 는 제 1 팔레트들 (184) 의 어떤 엔트리들이 제 2 팔레트들 (192) 에 포함되는지를 나타내는 하나 이상의 신택스 엘리먼트들을 코딩할 수도 있다. 도 4 의 예에서, 하나 이상의 신택스 엘리먼트들은 벡터 (216) 로서 예시된다. 벡터 (216) 는 다수의 연관된 빈들 (또는 이진 비트들) 을 가지며, 각각의 빈은 그 빈과 연관된 팔레트 예측자가 현재 팔레트의 엔트리를 예측하기 위해 이용되는지 여부를 나타낸다. 예를 들어, 벡터 (216) 는 제 1 팔레트들 (184) 중 처음 2 개의 엔트리들 (202 및 204) 이 제 2 팔레트들 (192) 에 포함되는 한편 (벡터 (216) 의 처음 2 개의 빈들에서 "1" 의 값), 제 1 팔레트들 (184) 의 세 번째 엔트리는 제 2 팔레트들 (192) 에 포함되지 않음 (벡터 (216) 의 세 번째 빈에서 "0" 의 값) 을 나타낸다. 도 4 의 예에서, 벡터는 불 벡터 (Boolean vector) 이다.
본 개시물의 기법들은 팔레트-기반 코딩을 위한 팔레트들의 도출에 있어서의 개선들에 관계된다. 더 구체적으로는, 본 개시물의 기법들은 비디오 인코더 (20) 에서 팔레트의 팔레트 엔트리들 및 팔레트 사이즈를 변경하는 것, 그리고 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 에서 팔레트 코딩된 블록들의 필터링을 디스에이블시킬지 여부를 결정하는 것을 포함한다. 도 4 의 예에서, 비디오 인코더 (20) 는 본 개시물의 팔레트 변경 기법들을 수행하여 제 1 팔레트들 (184) 을 도출할 수도 있다. 팔레트-기반 디코딩에서 비디오 디코더 (30) 에 의한 이용을 위해 인코딩된 비디오 데이터 비트스트림에서 제 1 팔레트들 (184) 이 그 후에 비디오 인코더 (20) 에 의해 송신된다. 본 개시물에서 비디오 인코더 (20) 에 대해 주로 설명되었지만, 다른 예들에서 본 개시물의 팔레트 변경 기법들은 비디오 인코더 (20) 및 비디오 디코더 (30) 양쪽에 의해 수행될 수도 있다. 그 경우, 예를 들어, 비디오 디코더 (30) 는 제 1 팔레트들 (184) 을 별도로 도출할 수도 있거나, 또는 본 개시물의 기법들에 따라 비디오 인코더 (20) 에 의해 송신되는 제 1 팔레트들 (184) 을 변경할 수도 있다. 설명의 목적들을 위해 제 1 팔레트들 (184) 에 대해 설명되었지만, 이 기법들은 다른 구성들 및/또는 사이즈들의 다양한 다른 팔레트들을 이용하여 수행될 수도 있다.
(위에서 언급된) JCTVC-P0035, JCTVC-P0108, 및 JCTVC-P0198 에 설명된 바와 같은 팔레트-기반 코딩 모드에서, 비디오 인코더 (20) 는 픽셀 값 군집화 방법을 이용하여 팔레트 코딩된 블록, 예를 들어, CU (180) 에 대한 팔레트를 도출할 수도 있다. 팔레트, 예를 들어, 제 1 팔레트들 (184) 을 도출하기 위해 적절한 알고리즘을 이용하는 것은 팔레트 모드 코딩에서 핵심 프로시저들 중 하나이다. 예를 들어, 비디오 인코더 (20) 는 복수의 엔트리들을 포함하는 히스토그램을 도출할 수도 있고, 각각의 엔트리는 개별 컬러 값, 및 컬러 값에 맵핑하는 블록의 픽셀들의 개별 양을 포함한다. 하나의 예로서, 비디오 인코더 (20) 는 비디오 데이터의 블록에 대한 히스토그램 (H) 을 결정할 수도 있다. 히스토그램 (H)H = {(v i , f i ), i={0, 1, 2, …, M}} 으로 표현될 수도 있고, 여기서 M+1 은 현재 블록에서 상이한 픽셀 값들의 개수이고, v i i 번째 픽셀의 픽셀 값이며, f i v i 의 발생들의 개수 (즉, 현재 블록에서 얼마나 많은 픽셀들이 픽셀 값 v i 를 갖는지) 이다. 일부 예들에서, 히스토그램의 복수의 엔트리들 각각은 동일한 픽셀 값을 갖는 픽셀들의 양을 표현한다. 일부 예들에서, 히스토그램의 복수의 엔트리들 각각은, 양자화되었을 때, 동일한 픽셀 값을 갖는 픽셀들의 양을 표현한다.
히스토그램을 도출한 후에, 비디오 인코더 (20) 는 팔레트 (P) 가 비워지도록 초기화하거나, 즉,
Figure pct00001
, 팔레트의 인덱스 값을 제로로 초기화하거나, 즉 idx=0, 및/또는 히스토그램의 인덱스 값을 제로로 초기화할 수도 있다, 즉, j=0 으로 설정할 수도 있다. 비디오 인코더 (20) 는 그 후에, 히스토그램의 제 1 엔트리가 다른 컬러 값들에 비해 픽셀들의 가장 높은 양을 갖는 컬러 값을 포함하도록 엔트리들 각각에 대한 픽셀들의 개별 양에 기초하여 내림차순으로 히스토그램의 엔트리들을 소팅한다. 예를 들어, 비디오 인코더 (20) 는 f i 의 내림차순에 따라 히스토그램 (H) 을 소팅할 수도 있어서, 현재 블록에서 더 많은 발생들을 갖는 픽셀 값들이 히스토그램의 전방에 가깝게 배치되도록 한다. 소팅된 히스토그램은 H o = {(u i , f i ), i={0, 1, 2, …, M}, f i ≥ f i+1 } 로 표현될 수도 있다.
비디오 인코더 (20) 는 그 후에 히스토그램의 엔트리들에 기초하여 현재 블록에 대한 팔레트의 팔레트 엔트리들 및 팔레트 사이즈를 결정할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 소팅된 히스토그램의 제 1 엔트리 (j, u j ) 를 팔레트에 삽입할 수도 있다, 즉, P = P {(idx, u j )} 이다. 비디오 인코더 (20) 는 그 후에 팔레트 인덱스를 증분시킬 수도 있고, 즉, idx=idx+1 이고, 히스토그램 인덱스를 증분시킬 수도 있다, 즉, j=j+1 이다. 비디오 인코더 (20) 는 소팅된 히스토그램에서 다음 엔트리에 대응하는 픽셀 값이 팔레트에 이미 포함된 픽셀 값들 중 임의의 픽셀 값의 이웃 내에 있는지 아닌지의 여부를 결정할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 소팅된 히스토그램에서 다음 엔트리에 대응하는 픽셀 값과, 팔레트에 이미 포함된 픽셀 값들 중 하나 이상의 픽셀 값과의 사이의 차이에 대응하는 거리 값을 결정할 수도 있다. 결정된 차이 값이 임계치 이상인 경우, 즉, Distance(u j , x) ≥ Thresh 인 경우, 비디오 인코더 (20) 는 소팅된 히스토그램에서 다음 엔트리에 대응하는 픽셀 값을 나타내는 새로운 엔트리를 팔레트에 삽입할 수도 있다. 결정된 차이 값이 임계치를 만족시키지 않는 경우, 즉, Distance(u j , x) < Thresh 인 경우, 비디오 인코더 (20) 는 소팅된 히스토그램에서 다음 엔트리에 대응하는 픽셀 값이 팔레트에 이미 포함된 픽셀 값의 이웃 내에 있다고 결정하고 새로운 엔트리를 팔레트에 부가하지 않을 것이다. 비디오 인코더 (20) 는 그 후에 히스토그램 인덱스를 증분할 수도 있다, 즉, j=j+1 이다.
일부 예들에서, 비디오 인코더 (20) 는 하나 이상의 조건들이 하나 이상의 개별 임계치들을 만족시키는 경우 팔레트를 결정하는 것을 중단 (예를 들어, 엔트리들을 팔레트에 부가하는 것을 중단) 할 수도 있다. 하나의 예로서, 비디오 인코더 (20) 는 팔레트의 사이즈가 미리 정의된 값보다 더 클 때 팔레트를 결정하는 것을 중단할 수도 있다. 다른 예로서, 비디오 인코더 (20) 는 팔레트 인덱스의 값이 현재 블록에서의 상이한 픽셀 값들의 개수와 동일할 때, 즉, idx=M 일 때, 팔레트를 결정하는 것을 중단할 수도 있다. 다른 예로서, 비디오 인코더 (20) 는 히스토그램 인덱스의 값이 현재 블록에서의 상이한 픽셀 값들의 개수와 동일할 때, 즉, j=M 일 때, 팔레트를 결정하는 것을 중단할 수도 있다.
본 개시물의 기법들에 따르면, 팔레트에 대한 팔레트 엔트리들 및 팔레트 사이즈를 결정한 후에, 비디오 인코더 (20) 는 레이트-왜곡 비용들에 적어도 부분적으로 기초하여 팔레트에 대한 팔레트 엔트리들 중 하나 이상 또는 팔레트 사이즈 중 적어도 하나를 변경할지 여부를 결정할 수도 있다. 이러한 방법으로, 기법들은 비디오 인코더 (20) 로 하여금 팔레트에 대해 오리지널로 결정된 팔레트 사이즈 및 팔레트 엔트리들을 변경할지 여부를 결정하는 것을 가능하게 한다.
예를 들어, 비디오 인코더 (20) 는 인덱스 값 1 을 이용하여 CU (180) 의 픽셀을 인코딩하거나 또는 이스케이프 픽셀로서 CU (180) 의 동일한 픽셀을 인코딩하는 (즉, 픽셀 값을 직접 양자화하고 픽셀에 대한 양자화된 값을 송신하는) 레이트-왜곡 비용에 기초하여, 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 대응하는 주어진 인덱스 값, 예를 들어, 팔레트들 (184) 에서의 엔트리 (202) 의 인덱스 값 1 을 유지할지 또는 제거할지를 결정할 수도 있다. 이 예에서, 팔레트들 (184) 로부터 인덱스 값 1 및 대응하는 팔레트 엔트리 (202) 를 제거하는 것으로 결정하는 것은 팔레트 사이즈를 감소시킨다, 예를 들어, 팔레트들 (184) 은 엔트리들 (204 및 206) 만을 포함할 것이다.
하나의 예에서, 비디오 인코더 (20) 는 픽셀에 대한 컬러 값을 나타내는 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 대응하는 주어진 인덱스 값을 이용하여 현재 블록의 픽셀을 인코딩하기 위한 제 1 레이트-왜곡 비용을 계산한다, 예를 들어, RD( idx_coding, t) 는 팔레트 인덱스 t 에 맵핑되는 픽셀들이 그 인덱스 t 로 코딩될 때 각각의 팔레트 인덱스 t 에 대해 계산된다. 비디오 인코더 (20) 는 그 후에, 이스케이프 픽셀로서 현재 블록의 동일한 픽셀을 인코딩하기 위한 제 2 레이트-왜곡 비용을 계산한다, 예를 들어, RD(escape_coding, t) 는, 특수 인덱스 값을 인코딩하고 픽셀 값들을 직접 양자화하고 픽셀들에 대한 양자화된 값들을 송신하는 것을 포함하는 이스케이프 모드로 팔레트 인덱스 t 에 속하는 픽셀들이 코딩될 때 각각의 팔레트 인덱스 t 에 대해 계산된다.
비디오 인코더 (20) 는 그 후에 제 1 및 제 2 레이트-왜곡 비용 계산들을 비교하여 주어진 인덱스 값 및 팔레트의 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리를 유지할지 또는 제거할지를 결정한다. 예를 들어, 제 1 레이트-왜곡 비용이 제 2 레이트-왜곡 비용보다 더 높은 경우, 비디오 인코더 (20) 는 팔레트로부터 주어진 인덱스 및 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리, 예를 들어, 팔레트들 (184) 로부터 엔트리 (202) 의 인덱스 값 1 을 제거할 수도 있다. 이 예에서, 엔트리 (202) 의 컬러 값 A 는 팔레트들 (184) 에서의 다른 컬러 값들에 비해, CU (180) 에서 드물게 발생할 가능성이 있다, 즉, CU (180) 의 연관된 픽셀들의 적은 양을 가질 가능성이 있다.
일부 예들에서, 비디오 인코더 (20) 는 팔레트들 (184) 의 각각의 팔레트 엔트리 (202, 204, 206) 에 대해 이 유지 또는 제거 결정을 수행할 수도 있지만, 많은 경우들에서, 소량의 연관된 픽셀들을 갖는 "낮은 발생" 팔레트 엔트리들만이 제거될 가능성이 있다. 이것은 낮은 발생 팔레트 엔트리들을 포함하는 보다 큰 팔레트를 코딩하는 비용 및 낮은 발생 팔레트 엔트리들에 대응하는 높은 인덱스 값들을 이용하여 픽셀들을 코딩하는 비용이 이스케이프 픽셀들로서 몇몇 픽셀들을 코딩하는 것보다 더 높을 가능성이 있기 때문이다. 이러한 방법으로, 이 기법들은 비디오 인코더 (20) 로 하여금 인코딩될 현재 블록에서 드물게 발생하는 컬러 값들을 나타내는 하나 이상의 팔레트 엔트리들을 오리지널로 도출된 팔레트로부터 제거하는 것을 가능하게 한다.
다른 예로서, 비디오 인코더 (20) 는, 인덱스 값 1 을 이용하여 또는 이웃 인덱스 값 2 를 이용하여 CU (180) 의 픽셀을 인코딩하는 레이트-왜곡 비용에 기초하여, 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 대응하는 주어진 인덱스 값, 예를 들어, 팔레트들 (184) 에서의 엔트리 (202) 의 인덱스 값 1 을, 팔레트 엔트리들 중 이웃하는 하나의 팔레트 엔트리에 대응하는 이웃 인덱스 값, 예를 들어, 팔레트들 (184) 에서의 엔트리 (204) 의 인덱스 값 2 에 병합할지 여부를 결정할 수도 있다. 하나의 경우에서, 엔트리 (204) 의 이웃 인덱스 값 2 는 엔트리 (202) 의 주어진 인덱스 값 1 로부터 가장 작은 유클리드 거리 (Euclidean distance) 의 관점에서 가장 가까운 인덱스 값일 수도 있다. 다른 경우에서, 엔트리 (204) 의 이웃 인덱스 값 2 는 엔트리 (202) 의 주어진 인덱스 값 1 에 대해 인덱스 순서의 관점에서 가장 가까운 인덱스 값일 수도 있다. 이 예에서, 팔레트들 (184) 의 주어진 인덱스 값 1 및 대응하는 팔레트 엔트리 (202) 를 팔레트들 (184) 의 이웃 인덱스 값 2 및 대응하는 이웃 팔레트 엔트리 (204) 에 병합하는 것으로 결정하는 것은 팔레트 사이즈를 감소시킨다, 예를 들어, 팔레트들 (184) 은 엔트리들 (204 및 206) 만을 단지 포함할 것이다.
하나의 예에서, 비디오 인코더 (20) 는 픽셀에 대한 제 1 컬러 값을 나타내는 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 대응하는 주어진 인덱스 값을 이용하여 현재 블록의 픽셀을 인코딩하기 위한 제 1 레이트-왜곡 비용을 계산한다, 예를 들어, RD(separate_coding, t) 는 팔레트 인덱스 t 에 맵핑되는 픽셀들이 그 인덱스 t 로 코딩될 때 각각의 팔레트 인덱스 t 에 대해 계산된다. 비디오 인코더 (20) 는 그 후에, 픽셀에 대한 제 2 컬러 값을 나타내는 팔레트 엔트리들 중 이웃하는 하나의 팔레트 엔트리에 대응하는 이웃 인덱스 값을 이용하여 현재 블록의 동일한 픽셀을 인코딩하기 위한 제 2 레이트-왜곡 비용을 계산한다, 예를 들어, RD(merged_coding, t->m) 은 팔레트 인덱스 t 에 맵핑되는 픽셀들이 이웃 팔레트 인덱스 m 으로 코딩될 때 팔레트 인덱스 t 에 대해 계산된다.
비디오 인코더 (20) 는 그 후에 제 1 및 제 2 레이트-왜곡 비용 계산들을 비교하여, 주어진 인덱스 값 및 팔레트의 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리를, 이웃 인덱스 값 및 팔레트의 팔레트 엔트리들 중 이웃하는 하나의 팔레트 엔트리에 병합할지 여부를 결정한다. 예를 들어, 제 1 레이트-왜곡 비용이 제 2 레이트-왜곡 비용보다 더 높은 경우, 비디오 인코더 (20) 는, 주어진 인덱스 및 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리, 예를 들어, 엔트리 (202) 의 인덱스 값 1 을, 이웃 인덱스 값 및 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리, 예를 들어, 엔트리 (204) 의 인덱스 값 2 에 병합할 수도 있다. 이 예에서, 주어진 팔레트 엔트리 (202) 의 제 1 컬러 값 A 및 이웃 팔레트 엔트리 (204) 의 제 2 컬러 값 B 는 실질적으로 유사한 값들일 가능성이 있다. 예를 들어, 제 1 컬러 값 A 및 제 2 컬러 값 B 는, 양자화되었을 때, 동일한 컬러 값일 수도 있다.
일부 예들에서, 엔트리 (202) 의 주어진 인덱스 값 1 을 엔트리 (204) 의 이웃 인덱스 값 2 에 병합하는 것은 엔트리 (202) 가 팔레트들 (184) 로부터 제거되게 하고, 주어진 엔트리 (202) 의 제 1 컬러 값 A 에 이전에 맵핑된 임의의 픽셀들이 이웃 엔트리 (204) 의 제 2 컬러 값 B 에 맵핑되게 할 수도 있다. 다른 예들에서, 엔트리 (202) 의 주어진 인덱스 값 1 을 엔트리 (204) 의 이웃 인덱스 값 2 에 병합하는 것은 주어진 엔트리 (202) 및 이웃 엔트리 (204) 양쪽이 팔레트들 (184) 로부터 제거되게 하고, 단일의 새로운 팔레트 엔트리가 팔레트들 (184) 에 부가되게 할 수도 있다. 새로운 팔레트 엔트리는 주어진 엔트리 (202) 의 제 1 컬러 값 A 및 이웃 엔트리 (204) 의 제 2 컬러 값 B 의 평균 또는 일부 다른 조합인 컬러 값을 나타낼 수도 있다. 이 예에서, 엔트리 (202) 또는 엔트리 (204) 에 이전에 맵핑된 임의의 픽셀들은 새로운 팔레트 엔트리에 맵핑될 것이다.
일부 예들에서, 비디오 인코더 (20) 는 팔레트들 (184) 의 각각의 팔레트 엔트리 (202, 204, 206) 에 대해 이 병합 결정을 수행할 수도 있지만, 많은 경우들에서, 실질적으로 유사한 컬러 값들 (즉, 동일한 컬러 값으로 양자화될 수도 있는 컬러 값들) 을 나타내는 "매우 유사한" 팔레트 엔트리들만이 병합될 가능성이 있다. 이것은 매우 유사한 팔레트 엔트리들을 포함하는 보다 큰 팔레트를 코딩하는 비용 및 매우 유사한 팔레트 엔트리들 각각에 대응하는 별개의 인덱스 값들을 이용하여 픽셀들을 코딩하는 비용이 단일의 병합된 인덱스 값을 이용하여 픽셀들을 코딩하는 것보다 더 높을 가능성이 있기 때문이다. 이러한 방법으로, 이 기법들은 비디오 인코더 (20) 로 하여금 인코딩될 현재 블록에서 실질적으로 유사한 컬러 값들을 나타내는 하나 이상의 팔레트 엔트리들을 오리지널로 도출된 팔레트에 병합하는 것을 가능하게 한다.
추가 예로서, 비디오 인코더 (20) 는 k-평균 군집화 방법을 이용하여 결정된 대표 팔레트에 기초하여 팔레트의 팔레트 엔트리들, 예를 들어, 팔레트들 (184) 에서의 엔트리들 (202, 204, 206) 중 하나 이상을 변경할지 여부를 결정할 수도 있다. 비디오 인코더 (20) 는 k-평균 군집화 방법을 이용하여 각각의 팔레트 인덱스에 대한 대표 팔레트의 팔레트 엔트리들을 계산할 수도 있고, 여기서 k-평균 군집화 방법의 반복 횟수는 임계치 기반이다. 예를 들어, 오리지널로 도출된 팔레트의 팔레트 엔트리들, 예를 들어, 팔레트들 (184) 에서의 엔트리들 (202, 204, 206) 각각에 대해, 비디오 인코더 (20) 는 팔레트 엔트리들, 예를 들어, 엔트리들 (202, 204, 206) 의 개별 팔레트 엔트리에 의해 나타낸 개별 컬러 값, 예를 들어, 컬러 값 A, B, C 에 맵핑되는 CU (180) 의 하나 이상의 픽셀들의 평균 픽셀 값을 계산한다. 비디오 인코더 (20) 는 그 후에 개별 평균 픽셀 값들을 나타내는 대표 팔레트 엔트리들을 포함하는 CU (180) 에 대한 대표 팔레트를 결정한다.
일부 경우들에서, 비디오 인코더 (20) 는 대표 팔레트의 최종 버전을 도출하기 위해, 대표 팔레트를 이용하여 CU 블록 (180) 의 픽셀들을 맵핑 또는 분류하는 것 그리고 대표 팔레트 엔트리들 각각에 대해 평균 픽셀 값을 다시 계산하는 것을 포함하는, k-평균 군집화 방법의 다른, 두 번째 반복을 수행할 수도 있다. 다른 경우들에서, 비디오 인코더 (20) 는 임계 값에 의해 결정되는 반복 횟수의 k-평균 군집화 방법을 수행할 수도 있다. 임계 값은 비디오 인코더 (20) 에서 수용가능한 연산 비용에 따라 설정될 수도 있다.
개별 평균 픽셀 값들을 나타내는 대표 팔레트 엔트리들을 포함하는 비디오 데이터의 블록에 대한 대표 팔레트를 결정한 후에, 비디오 인코더 (20) 는 팔레트 인덱스들 각각에 맵핑되는 블록의 가장 가까운 픽셀 값에 대한 검색을 수행하고, 그 가장 가까운 픽셀 값은 팔레트 인덱스들의 개별 팔레트 인덱스에 대한 최종 팔레트에서의 컬러 값으로서 여겨진다. 예를 들어, 대표 팔레트의 대표 팔레트 엔트리들 중 주어진 하나의 대표 팔레트 엔트리에 대해, 비디오 인코더 (20) 는, 대표 팔레트 엔트리들 중 주어진 하나의 대표 팔레트 엔트리에 의해 나타낸 평균 픽셀 값에 가장 가까운, 대표 팔레트 엔트리들 중 주어진 하나의 대표 팔레트 엔트리에 맵핑되는 픽셀들 중 하나의 픽셀의 픽셀 값을 결정한다. 가장 가까운 픽셀 값이 팔레트의 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리에 의해 나타낸 컬러 값과는 상이하다는 것에 기초하여, 비디오 인코더 (20) 는 팔레트의 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 의해 나타낸 최종 컬러 값으로서 가장 가까운 픽셀 값을 선택한다.
이러한 방법으로, 비디오 인코더 (20) 는, 대표 팔레트에서의 평균 픽셀 값에 가장 가까운 픽셀 값이 오리지널로 도출된 팔레트들 (184) 에서 주어진 팔레트 엔트리 (202) 에 의해 나타낸 컬러 값 A 와는 상이하다는 것에 기초하여, 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리, 예를 들어, 오리지널 팔레트들 (184) 에서의 팔레트 엔트리 (202) 를 변경하는 것으로 결정한다. 대표 팔레트에 기초하여 결정된 가장 가까운 픽셀 값과, 오리지널로 도출된 팔레트들 (184) 에서 주어진 팔레트 엔트리 (202) 에 의해 나타낸 컬러 값 A 가 동일하다면, 비디오 인코더 (20) 는 오리지널 팔레트들 (184) 에서 주어진 팔레트 엔트리 (202) 를 변경할 필요가 없다.
부가적으로, 본 개시물의 기법들에 따르면, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 팔레트 코딩된 블록들, 예를 들어, CU (180) 또는 CU (188) 의 필터링을 디스에이블시킬지 여부를 결정할 수도 있다. 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 참조 블록으로서의 추후 이용을 위해 디코딩된 픽처 버퍼에의 저장 또는, 비디오 디코더 (30) 의 경우, 사용자에게의 디스플레이를 위한 출력에 앞서, 팔레트 코딩된 CU (180) 의 재구성된 버전들의, 디블록킹 필터링 및/또는 샘플 적응적 오프셋 (SAO) 필터링과 같은 필터링을 디스에이블시킬 수도 있다. 일부 예들에서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 CU (180) 의 디블록킹 필터링만을 단지 디스에이블시킬 수도 있다. 다른 예들에서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 CU (180) 의 SAO 필터링을 디스에이블시킬 수도 있다. 또 다른 예들에서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 CU (180) 에 대해, 디블록킹 필터링 및 SAO 필터 양쪽, 그리고 임의의 다른 타입들의 필터링을 디스에이블시킬 수도 있다.
종래에는, 팔레트 코딩된 블록들은 인터-코딩된 블록들과 동일하게 처리되었는데, 이를 위해 디코딩된 픽처 버퍼에 저장되거나 또는 디스플레이를 위해 출력되기에 앞서 필터링은 재구성된 블록들에 자동적으로 적용된다. 개시된 기법들에 따르면, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 팔레트 코딩된 블록들, 예를 들어, CU (180) 및 CU (188) 에 어떠한 필터링도 적용하지 않을 수도 있지만, 인터-코딩된 블록들, 예를 들어, 인터 블록 (200) 에 필터링을 계속 적용할 수도 있다. 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 재구성된 블록이 팔레트 코딩된 블록, 예를 들어, CU (180) 또는 CU (188) 인 것을 결정하고, 팔레트-기반 코딩 모드의 결정에 기초하여 재구성된 블록의 필터링을 디스에이블시킬 수도 있다. 일부 경우들에서, 이 기법들은 현재 CU 가 팔레트 코딩된 블록이라면, 필터링이 현재 CU 에 대해 디스에이블되도록 조건 스테이트먼트 또는 체크를 CU-레벨 신택스에 부가할 수도 있다.
도 4 의 기법들이 CU들 (HEVC) 의 맥락에서 설명되지만, 이 기법들은 또한 예측 유닛 (PU) 들에 또는 다른 비디오 코딩 프로세스들 및/또는 표준들에서 적용될 수도 있다는 것이 이해되어야 한다.
도 5 는 본 개시물의 기법들에 따른, 팔레트 코딩된 블록들의 필터링을 결정하는 비디오 코더의 예시적인 동작을 예시하는 플로우차트이다. 도 5 에 예시된 예시적인 동작은 도 2 로부터의 비디오 인코더 (20) 또는 도 3 으로부터의 비디오 디코더 (30) 중 어느 하나에 의해 수행될 수도 있다.
도 5 의 예시적인 동작은 비디오 디코더 (30) 에 대해 우선 설명될 것이다. 비디오 디코더 (30) 는 적어도 하나의 픽처에 대한 비디오 데이터의 인코딩된 블록들 및 그 비디오 데이터와 연관된 하나 이상의 신택스 엘리먼트들을 포함하는 인코딩된 비트스트림을 비디오 인코더 (20) 와 같은 비디오 인코더로부터 수신한다. 비디오 디코더 (30) 는 디코딩될 비디오 데이터의 현재 블록이 팔레트 코딩된 블록인 것을 결정한다 (220). 일부 예들에서, 비디오 디코더 (30) 는 비디오 데이터의 각각의 블록이 팔레트 코딩된 블록인지 아닌지의 여부를 나타내는 적어도 하나의 신택스 엘리먼트 (예를 들어, 플래그) 를 그 비트스트림에서 수신할 수도 있다. 다른 예들에서, 비디오 디코더 (30) 는 비디오 데이터의 각각의 블록을 코딩하는데 이용되는 코딩의 타입, 예를 들어, 각각의 블록이 팔레트 코딩된 블록, 인터-코딩된 블록, 또는 인트라-코딩된 블록 등인지 여부를 나타내는 하나 이상의 신택스 엘리먼트들을 수신할 수도 있다.
디코딩될 현재 블록이 팔레트 코딩된 블록일 때, 비디오 디코더 (30) 의 팔레트-기반 디코딩 유닛 (165) 은 현재 블록에 대한 팔레트를 결정하는데, 여기서 팔레트는 하나 이상의 개별 컬러 값들을 나타내는 하나 이상의 팔레트 엔트리들을 포함한다 (222). 위에서 더 상세히 설명된 바와 같이, 팔레트에 포함된 개별 컬러 값들은 현재 블록에서 가장 빈번하게 발생하는 주요 컬러 값들일 수도 있다. 팔레트-기반 디코딩 유닛 (165) 은 인코딩된 비트스트림에서 수신된 팔레트 사이즈 및 팔레트 엔트리들에 따라 팔레트를 결정할 수도 있다. 팔레트-기반 디코딩 유닛 (165) 은 그 후에, 인코딩된 비트스트림에서 수신된 현재 블록의 하나 이상의 픽셀들에 대한 인덱스 값들을 결정하고, 그 인덱스 값들 각각은 현재 블록의 픽셀들 중 하나의 픽셀에 대한 컬러 값을 나타내는 팔레트 엔트리들 중 하나의 팔레트 엔트리에 대응한다 (224).
비디오 디코더 (30) 는 현재 블록에 대한 결정된 팔레트 및 결정된 인덱스 값들에 기초하여 비디오 데이터의 현재 블록을 재구성한다 (226). 예를 들어, 비디오 디코더 (30) 는 결정된 인덱스 값들을 팔레트의 엔트리들에 맵핑하여 현재 블록의 픽셀 값들을 재구성할 수도 있다. 비디오 디코더 (30) 는 그 후에 재구성된 블록의 비디오 데이터를 디코딩된 픽처 버퍼 (162) 에 저장하고 그에 후속하여 디스플레이를 위해 재구성된 블록의 비디오 데이터를 출력할 수도 있다.
종래에는, 팔레트 코딩된 블록들은 인터-코딩된 블록들과 동일하게 처리되었고, 이에 따라, 디코딩된 픽처 버퍼에 저장되거나 또는 디스플레이를 위해 출력되기에 앞서 필터링은 재구성된 블록들에 자동적으로 적용되었다. 개시된 기법들에 따르면, 비디오 디코더 (30) 는, 현재 블록이 팔레트 코딩된 블록인 것에 기초하여, 재구성된 블록을 저장 또는 출력하기에 앞서 재구성된 블록의 필터링을 디스에이블시키는 것으로 결정한다 (228). 일부 예들에서, 비디오 디코더 (30) 는 비디오 디코더 (30) 의 필터 유닛 (160) 에 의한 현재 팔레트 코딩된 블록의 디블록킹 필터링만을 단지 디스에이블시킬 수도 있다. 다른 예들에서, 비디오 디코더 (30) 는 현재 팔레트 코딩된 블록의 SAO 필터링을 디스에이블시킬 수도 있다. 또 다른 예들에서, 비디오 디코더 (30) 는 현재 팔레트 코딩된 블록에 대해 필터 유닛 (160) 에 의해 수행된 모든 타입들의 필터링을 디스에이블시킬 수도 있다.
도 5 의 예시적인 동작은 비디오 인코더 (20) 에 대해 이제 설명될 것이다. 비디오 인코더 (20) 는 비디오 데이터의 현재 블록이 팔레트 코딩된 블록으로서 인코딩되어야 한다는 것을 결정한다 (220). 일부 예들에서, 비디오 인코더 (20) 는 비디오 데이터의 각각의 블록이 팔레트 코딩된 블록인지 아닌지의 여부를 나타내는 적어도 하나의 신택스 엘리먼트 (예를 들어, 플래그) 를 인코딩된 비트스트림에서 시그널링할 수도 있다. 다른 예들에서, 비디오 인코더 (20) 는 비디오 데이터의 각각의 블록을 코딩하는데 이용되는 코딩의 타입, 예를 들어, 각각의 블록이 팔레트 코딩된 블록, 인터-코딩된 블록, 또는 인트라-코딩된 블록 등인지 여부를 나타내는 하나 이상의 신택스 엘리먼트들을 인코딩된 비트스트림에서 시그널링할 수도 있다.
현재 블록이 팔레트 코딩된 블록으로서 인코딩되어야 할 때, 비디오 인코더 (20) 의 팔레트-기반 인코딩 유닛 (122) 은 현재 블록에 대한 팔레트를 결정하는데, 여기서 팔레트는 하나 이상의 개별 컬러 값들을 나타내는 하나 이상의 팔레트 엔트리들을 포함한다 (222). 위에서 더 상세히 설명된 바와 같이, 팔레트에 포함된 개별 컬러 값들은 현재 블록에서 가장 빈번하게 발생하는 주요 컬러 값들일 수도 있다. 팔레트-기반 인코딩 유닛 (122) 은 도 4 에 대해 위에서 더 상세히 설명된 군집화 방법과 같은 픽셀 값 군집화 방법을 이용하여 팔레트의 팔레트 엔트리들 및 팔레트 사이즈를 결정할 수도 있다. 본 개시물의 기법들에 따르면, 팔레트-기반 인코딩 유닛 (122) 은 레이트-왜곡 비용들에 적어도 부분적으로 기초하여 팔레트에 대한 팔레트 엔트리들 중 하나 이상 또는 팔레트 사이즈 중 적어도 하나를 변경할지 여부를 결정할 수도 있다. 이 변경 결정은 도 6 에 대해 아래에 더 상세히 설명된다.
팔레트를 결정한 후에, 팔레트-기반 인코딩 유닛 (122) 은 현재 블록의 하나 이상의 픽셀들에 대한 인덱스 값들을 결정하고, 그 인덱스 값들 각각은 현재 블록의 픽셀들 중 하나의 픽셀에 대한 컬러 값을 나타내는 팔레트 엔트리들 중 하나의 팔레트 엔트리에 대응한다 (224). 예를 들어, 비디오 인코더 (20) 는 현재 블록의 픽셀들 중 하나 이상의 픽셀의 컬러들을 표현하는 팔레트에서의 엔트리들을 로케이팅하고 팔레트에서의 엔트리들을 나타내는 인덱스 값들로 블록을 인코딩함으로써 비디오 데이터의 현재 블록을 인코딩할 수도 있다. 비디오 인코더 (20) 는 인코딩된 비트스트림에서 현재 팔레트 코딩된 블록에 대한 인덱스 값들 및 팔레트를 비디오 디코더 (30) 와 같은 비디오 디코더에 시그널링할 수도 있다.
비디오 인코더 (20) 는 그 후에 디코딩 루프에서 현재 블록에 대한 결정된 팔레트 및 결정된 인덱스 값들에 기초하여 비디오 데이터의 현재 블록을 재구성한다 (226). 예를 들어, 비디오 인코더 (20) 는 인덱스 값들을 팔레트의 엔트리들에 맵핑하여 현재 블록의 픽셀 값들을 재구성할 수도 있다. 비디오 인코더 (20) 는 그 후에 재구성된 블록의 비디오 데이터를 디코딩된 픽처 버퍼 (116) 에 저장할 수도 있다. 개시된 기법들에 따르면, 비디오 인코더 (20) 는, 현재 블록이 팔레트 코딩된 블록인 것에 기초하여, 재구성된 블록을 저장하기에 앞서 재구성된 블록의 필터링을 디스에이블시키는 것으로 결정한다 (228). 일부 예들에서, 비디오 인코더 (20) 는 비디오 인코더 (20) 의 필터 유닛 (114) 에 의한 현재 팔레트 코딩된 블록의 디블록킹 필터링만을 단지 디스에이블시킬 수도 있다. 다른 예들에서, 비디오 인코더 (20) 는 현재 팔레트 코딩된 블록의 SAO 필터링을 디스에이블시킬 수도 있다. 또 다른 예들에서, 비디오 인코더 (20) 는 현재 팔레트 코딩된 블록에 대해 필터 유닛 (114) 에 의해 수행된 모든 타입들의 필터링을 디스에이블시킬 수도 있다.
도 6 은 본 개시물의 기법들에 따른, 비디오 데이터의 팔레트 코딩된 블록에 대한 팔레트를 결정하는 비디오 인코더의 예시적인 동작, 예를 들어, 도 5 로부터의 단계 220 을 예시하는 플로우차트이다. 도 6 에 예시된 예시적인 동작은 도 2 로부터의 비디오 인코더 (20) 에 대해 설명된다.
상술된 바와 같이, 비디오 데이터의 현재 블록이 팔레트 코딩된 블록으로서 인코딩되어야 할 때, 비디오 인코더 (20) 의 팔레트-기반 인코딩 유닛 (122) 은 현재 블록에 대한 팔레트를 결정하는데, 여기서 팔레트는 하나 이상의 개별 컬러 값들을 나타내고 개별 인덱스 값들에 대응하는 하나 이상의 팔레트 엔트리들을 포함한다. 팔레트를 결정하기 위해, 비디오 인코더 (20) 의 팔레트-기반 인코딩 유닛 (122) 은 우선, 픽셀 값 군집화 방법을 이용하여 팔레트의 팔레트 엔트리들 및 팔레트 사이즈를 결정한다 (230). 예를 들어, 도 4 에 대해 위에서 더 상세히 설명된 바와 같이, 비디오 데이터의 현재 블록에 대해, 팔레트-기반 인코딩 유닛 (122) 은 복수의 엔트리들을 포함하는 히스토그램을 결정하는 것으로서, 각각의 엔트리는 개별 컬러 값, 및 컬러 값에 맵핑하는 블록의 픽셀들의 개별 양을 포함하는, 그 히스토그램을 결정하고, 히스토그램의 제 1 엔트리가 다른 컬러 값들에 비해 픽셀들의 가장 높은 양을 갖는 컬러 값을 포함하도록 엔트리들 각각에 대한 픽셀들의 개별 양에 기초하여 히스토그램의 엔트리들을 내림차순으로 소팅하며, 히스토그램의 엔트리들에 기초하여 팔레트의 팔레트 엔트리들 및 팔레트 사이즈를 결정할 수도 있다.
본 개시물의 기법들에 따르면, 팔레트에 대한 팔레트 엔트리들 및 팔레트 사이즈를 결정한 후에, 팔레트-기반 인코딩 유닛 (122) 은 레이트-왜곡 비용들에 적어도 부분적으로 기초하여 팔레트에 대한 팔레트 엔트리들 중 하나 이상 또는 팔레트 사이즈 중 적어도 하나를 변경할지 여부를 결정할 수도 있다. 예를 들어, 팔레트-기반 인코딩 유닛 (122) 은 이스케이프 픽셀로서 또는 주어진 인덱스 값을 이용하여 블록의 픽셀을 인코딩하는 레이트-왜곡 비용에 기초하여 팔레트의 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 대응하는 주어진 인덱스 값을 유지할지 또는 제거할지를 결정할 수도 있다 (232). 이 예에서, 팔레트로부터 주어진 인덱스 값 및 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리를 제거하는 것으로 결정하는 것은 팔레트 사이즈를 감소시킨다.
일부 경우들에서, 팔레트-기반 인코딩 유닛 (122) 은 다음과 같이 레이트-왜곡 비용 비교를 수행하여 주어진 인덱스 값을 제거할지 또는 유지할지를 결정할 수도 있다. 팔레트-기반 인코딩 유닛 (122) 은 픽셀에 대한 컬러 값을 나타내는 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 대응하는 주어진 인덱스 값을 이용하여 현재 블록의 픽셀을 인코딩하기 위한 제 1 레이트-왜곡 비용을 계산한다. 팔레트-기반 인코딩 유닛 (122) 은 그 후에, 픽셀에 대한 양자화된 픽셀 값 및 특수 인덱스 값을 인코딩하는 것을 포함하여, 이스케이프 픽셀로서 현재 블록의 동일한 픽셀을 인코딩하기 위한 제 2 레이트-왜곡 비용을 계산한다. 팔레트-기반 인코딩 유닛 (122) 은 제 1 및 제 2 레이트-왜곡 비용 계산들의 비교에 기초하여 주어진 인덱스 값 및 팔레트의 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리를 유지할지 또는 제거할지를 결정한다. 예를 들어, 제 1 레이트-왜곡 비용이 제 2 레이트-왜곡 비용보다 더 높은 경우, 팔레트-기반 인코딩 유닛 (122) 은 팔레트로부터 주어진 인덱스 및 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리를 제거할 수도 있다. 이 예에서, 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 의해 나타낸 컬러 값은 팔레트에서의 다른 컬러 값들에 비해, 현재 블록에서 드물게 발생할 가능성이 있다, 즉, 현재 블록의 연관된 픽셀들의 적은 양을 가질 가능성이 있다.
다른 예에서, 팔레트-기반 인코딩 유닛 (122) 은 주어진 인덱스 값을 이용하여 또는 이웃 인덱스 값을 이용하여 블록의 픽셀을 인코딩하는 레이트-왜곡 비용에 기초하여 팔레트의 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 대응하는 주어진 인덱스 값을 팔레트의 팔레트 엔트리들 중 이웃하는 하나의 팔레트 엔트리에 대응하는 이웃 인덱스 값에 병합할지 여부를 결정할 수도 있다 (234). 하나의 예에서, 이웃 인덱스 값은 주어진 인덱스 값으로부터 가장 작은 유클리드 거리의 관점에서 가장 가까운 인덱스 값일 수도 있다. 다른 예에서, 이웃 인덱스 값은 주어진 인덱스 값에 대해 인덱스 순서의 관점에서 가장 가까운 인덱스 값일 수도 있다. 이 예에서, 주어진 인덱스 값 및 팔레트의 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리를, 이웃 인덱스 값 및 팔레트의 팔레트 엔트리들 중 이웃하는 하나의 팔레트 엔트리에 병합하는 것으로 결정하는 것은 팔레트 사이즈를 감소시킨다.
일부 경우들에서, 팔레트-기반 인코딩 유닛 (122) 은 다음과 같이 레이트-왜곡 비용 비교를 수행하여 주어진 인덱스 값을 병합할지 여부를 결정할 수도 있다. 팔레트-기반 인코딩 유닛 (122) 은 픽셀에 대한 제 1 컬러 값을 나타내는 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 대응하는 주어진 인덱스 값을 이용하여 현재 블록의 픽셀을 인코딩하기 위한 제 1 레이트-왜곡 비용을 계산한다. 팔레트-기반 인코딩 유닛 (122) 은 그 후에, 픽셀에 대한 제 2 컬러 값을 나타내는 팔레트 엔트리들 중 이웃하는 하나의 팔레트 엔트리에 대응하는 이웃 인덱스 값을 이용하여 현재 블록의 동일한 픽셀을 인코딩하기 위한 제 2 레이트-왜곡 비용을 계산한다. 팔레트-기반 인코딩 유닛 (122) 은 제 1 및 제 2 레이트-왜곡 비용 계산들의 비교에 기초하여 주어진 인덱스 값 및 팔레트의 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리를, 이웃 인덱스 값 및 팔레트의 팔레트 엔트리들 중 이웃하는 하나의 팔레트 엔트리에 병합할지 여부를 결정한다. 예를 들어, 제 1 레이트-왜곡 비용이 제 2 레이트-왜곡 비용보다 더 높은 경우, 팔레트-기반 인코딩 유닛 (122) 은 주어진 인덱스 및 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리를, 이웃 인덱스 값 및 팔레트 엔트리들 중 이웃하는 하나의 팔레트 엔트리에 병합할 수도 있다. 이 예에서, 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 의해 나타낸 제 1 컬러 값 및 팔레트 엔트리들 중 이웃하는 하나의 팔레트 엔트리에 의해 나타낸 제 2 컬러 값은 실질적으로 유사한 값들일 가능성이 있다. 예를 들어, 제 1 컬러 값 및 제 2 컬러 값은, 양자화되었을 때, 동일한 컬러 값일 수도 있다.
추가 예에서, 팔레트-기반 인코딩 유닛 (122) 은 k-평균 군집화 방법을 이용하여 결정된 대표 팔레트에 기초하여 팔레트의 팔레트 엔트리들 중 하나 이상을 변경할지 여부를 결정할 수도 있다 (236). 예를 들어, 도 4 에 대해 위에서 더 상세히 설명된 바와 같이, 오리지널로 도출된 팔레트의 팔레트 엔트리들 각각에 대해, 팔레트-기반 인코딩 유닛 (122) 은 팔레트 엔트리들의 개별 팔레트 엔트리에 의해 나타낸 개별 컬러 값에 맵핑되는 블록의 하나 이상의 픽셀들의 평균 픽셀 값을 계산한다. 팔레트-기반 인코딩 유닛 (122) 은 그 후에 개별 평균 픽셀 값들을 나타내는 대표 팔레트 엔트리들을 포함하는 비디오 데이터의 블록에 대한 대표 팔레트를 결정한다. 일부 경우들에서, 팔레트-기반 인코딩 유닛 (122) 은 임계 값에 의해 결정되는 반복 횟수의 k-평균 군집화 방법을 수행할 수도 있다.
개별 평균 픽셀 값들을 나타내는 대표 팔레트 엔트리들을 포함하는 비디오 데이터의 블록에 대한 대표 팔레트를 결정한 후에, 팔레트-기반 인코딩 유닛 (122) 은, 대표 팔레트의 대표 팔레트 엔트리들 중 주어진 하나의 대표 팔레트 엔트리에 대해, 대표 팔레트 엔트리들 중 주어진 하나의 대표 팔레트 엔트리에 의해 나타낸 평균 픽셀 값에 가장 가까운, 대표 팔레트 엔트리들 중 주어진 하나의 대표 팔레트 엔트리에 맵핑되는 픽셀들 중 하나의 픽셀의 픽셀 값을 결정한다. 가장 가까운 픽셀 값이 팔레트의 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리에 의해 나타낸 컬러 값과는 상이하다는 것에 기초하여, 팔레트-기반 인코딩 유닛 (122) 은 팔레트의 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 의해 나타낸 최종 컬러 값으로서 가장 가까운 픽셀 값을 선택한다. 이러한 방법으로, 팔레트-기반 인코딩 유닛 (122) 은 대표 팔레트에서 평균 픽셀 값에 가장 가까운 픽셀 값과, 오리지널로 도출된 팔레트에서 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 의해 나타낸 컬러 값과의 비교에 기초하여, 팔레트 엔트리들 또는 주어진 하나를 변경하는 것으로 결정한다.
예에 따라서는, 본 명세서에서 설명되는 기법들 중의 임의의 기법의 소정의 액트 (act) 들 또는 이벤트들이 상이한 시퀀스에서 수행될 수 있거나, 부가될 수도 있거나, 병합될 수도 있거나, 또는 모두 배제 (예를 들어, 모든 설명된 액트들 또는 이벤트들이 기법들의 실시를 위해 필요한 것은 아님) 될 수도 있다는 것이 인식되어야 한다. 더욱이, 소정의 예들에서, 액트들 또는 이벤트들이 순차적으로보다는, 예를 들어, 멀티-스레딩된 (multi-threaded) 프로세싱, 인터럽트 프로세싱, 또는 다수의 프로세서들을 통해 동시에 수행될 수도 있다. 또한, 본 개시물의 소정의 양태들이 명료함의 목적들을 위해 단일 모듈 또는 유닛에 의해 수행되는 것으로서 설명되지만, 본 개시물의 기법들은 비디오 코더와 연관된 유닛들 또는 모듈들의 조합에 의해 수행될 수도 있는 것이 이해되어야 한다.
본 개시물의 소정의 양태들은 예시의 목적들을 위해 개발 중인 HEVC 표준에 대해 설명되었다. 그러나, 본 개시물에서 설명되는 기법들은 아직 개발되지 않은 다른 표준 또는 사유 비디오 코딩 프로세스들을 포함하는 다른 비디오 코딩 프로세스들에 대해 유용할 수도 있다.
상술된 기법들은 비디오 인코더 (20) (도 1 및 도 2) 및/또는 비디오 디코더 (30) (도 1 및 도 3) 에 의해 수행될 수도 있고, 이들 양쪽은 일반적으로 비디오 코더라고 지칭될 수도 있다. 이와 마찬가지로, 비디오 코딩은, 적용가능하다면, 비디오 인코딩 또는 비디오 디코딩을 지칭할 수도 있다.
기법들의 다양한 양태들의 특정 조합들이 상술되지만, 이들 조합들은 본 개시물에서 설명되는 기법들의 예들을 단지 예시하기 위해 제공된다. 이에 따라, 본 개시물의 기법들은 이들 예시적인 조합들로 제한되어서는 안되고, 본 개시물에서 설명되는 기법들의 다양한 양태들의 임의의 상상가능한 조합을 망라할 수도 있다.
하나 이상의 예들에서, 설명된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수도 있다. 소프트웨어로 구현된 경우, 그 기능들은 하나 이상의 명령들 또는 코드로서 컴퓨터 판독가능 매체 상에 저장되거나 그 컴퓨터 판독가능 매체를 통해 송신될 수도 있고 하드웨어 기반 프로세싱 유닛에 의해 실행될 수도 있다. 컴퓨터 판독가능 매체들은 데이터 저장 매체들과 같은 유형의 매체에 대응하는 컴퓨터 판독가능 저장 매체들, 또는 예를 들어, 통신 프로토콜에 따라, 일 장소로부터 다른 장소로의 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함하는 통신 매체들을 포함할 수도 있다. 이러한 방식으로, 컴퓨터 판독가능 매체들은 일반적으로 (1) 비일시적인 유형의 컴퓨터 판독가능 저장 매체들 또는 (2) 신호 또는 캐리어 파와 같은 통신 매체에 대응할 수도 있다. 데이터 저장 매체들은, 본 개시물에서 설명되는 기법들의 구현을 위해 명령들, 코드 및/또는 데이터 구조들을 취출하기 위해 하나 이상의 컴퓨터들 또는 하나 이상의 프로세서들에 의해 액세스될 수 있는 임의의 가용 매체들일 수도 있다. 컴퓨터 프로그램 제품은 컴퓨터 판독가능 매체를 포함할 수도 있다.
제한이 아닌 예로서, 이러한 컴퓨터 판독가능 저장 매체들은 RAM, ROM, EEPROM, CD-ROM 또는 다른 광 디스크 스토리지, 자기 디스크 스토리지 또는 다른 자기 스토리지 디바이스들, 플래시 메모리, 또는 명령들 또는 데이터 구조들의 형태로 원하는 프로그램 코드를 저장하는데 이용될 수 있으며 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체들을 포함할 수 있다. 또한, 임의의 맥락이 컴퓨터 판독가능 매체로 적절히 지칭된다. 예를 들어, 명령들이 동축 케이블, 광섬유 케이블, 연선 (twisted pair), 디지털 가입자 회선 (DSL), 또는 무선 기술들, 예컨대, 적외선, 무선, 및 마이크로파를 이용하여, 웹사이트, 서버 또는 다른 원격 소스로부터 송신된다면, 동축 케이블, 광섬유 케이블, 연선, DSL, 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들은 그 매체의 정의에 포함된다. 그러나, 컴퓨터 판독가능 저장 매체들 및 데이터 저장 매체들은 연결들, 캐리어 파들, 신호들, 또는 다른 순시적 매체들을 포함하는 것이 아니라, 그 대신에 비순시적인, 유형의 저장 매체들에 관계되는 것이라는 것을 이해해야 한다. 디스크 (disk) 및 디스크 (disc) 는, 본 명세서에서 사용되는 바와 같이, 콤팩트 디스크 (CD), 레이저 디스크, 광 디스크, 디지털 다기능 디스크 (DVD), 플로피 디스크 및 블루레이 디스크를 포함하며, 여기서 디스크 (disk) 들은 데이터를 자기적으로 보통 재생하지만, 디스크 (disc) 들은 레이저로 데이터를 광학적으로 재생한다. 또한, 상기의 조합들도 컴퓨터 판독가능 매체들의 범위 내에 포함되어야 한다.
명령들은 하나 이상의 디지털 신호 프로세서 (DSP) 들, 범용 마이크로프로세서들, 주문형 집적 회로 (ASIC) 들, 필드 프로그래밍가능 로직 어레이 (FPGA) 들, 또는 다른 등가의 집적 또는 이산 로직 회로부와 같은 하나 이상의 프로세서들에 의해 실행될 수도 있다. 이에 따라, 본 명세서에서 사용되는 바와 같은 용어 "프로세서" 는 전술한 구조, 또는 본 명세서에서 설명되는 기법들의 구현에 적합한 임의의 다른 구조 중 임의의 것을 지칭할 수도 있다. 부가적으로, 일부 양태들에서, 본 명세서에서 설명되는 기능성은, 인코딩 및 디코딩을 위해 구성되거나 또는 조합된 코덱 내에 포함되는 전용 하드웨어 및/또는 소프트웨어 모듈들 내에 제공될 수도 있다. 또한, 기법들은 하나 이상의 회로들 또는 로직 엘리먼트들에서 완전히 구현될 수 있다.
본 개시물의 기법들은 무선 핸드셋, 집적 회로 (IC) 또는 IC들의 세트 (예를 들어, 칩셋) 를 포함하는 광범위한 디바이스들 또는 장치들에서 구현될 수도 있다. 다양한 컴포넌트들, 모듈들, 또는 유닛들은 개시된 기법들을 수행하도록 구성된 디바이스들의 기능적 양태들을 강조하기 위해 본 개시물에서 설명되지만, 상이한 하드웨어 유닛들에 의한 실현을 반드시 요구하지는 않는다. 오히려, 상술된 바와 같이, 다양한 유닛들은 코덱 하드웨어 유닛에 조합될 수도 있거나, 또는 적합한 소프트웨어 및/또는 펌웨어와 함께, 상술된 하나 이상의 프로세서들을 포함하여, 상호작용하는 하드웨어 유닛들의 콜렉션에 의해 제공될 수도 있다.
다양한 예들이 설명되었다. 이러한 그리고 다른 예들은 다음의 청구항들의 범위 내에 있다.

Claims (29)

  1. 비디오 데이터를 프로세싱하는 방법으로서,
    비디오 데이터의 블록이 팔레트 코딩된 블록 (palette coded block) 인 것을 결정하는 단계;
    하나 이상의 개별 컬러 값들을 나타내는 하나 이상의 팔레트 엔트리들을 포함하는 상기 블록에 대한 팔레트를 결정하는 단계;
    상기 블록의 하나 이상의 픽셀들에 대한 인덱스 값들을 결정하는 단계로서, 상기 인덱스 값들 각각은 상기 블록의 픽셀들 중 하나의 픽셀에 대한 컬러 값을 나타내는 팔레트 엔트리들 중 하나의 팔레트 엔트리에 대응하는, 상기 블록의 하나 이상의 픽셀들에 대한 인덱스 값들을 결정하는 단계;
    상기 블록에 대한 상기 팔레트 및 상기 인덱스 값들에 기초하여 상기 비디오 데이터의 블록을 재구성하는 단계; 및
    상기 블록이 팔레트 코딩된 블록인 것에 기초하여, 재구성된 상기 블록의 필터링을 디스에이블시키는 것으로 결정하는 단계를 포함하는, 비디오 데이터를 프로세싱하는 방법.
  2. 제 1 항에 있어서,
    상기 재구성된 블록의 필터링을 디스에이블시키는 것으로 결정하는 단계는, 상기 재구성된 블록의 디블록킹 필터링 (deblocking filtering) 또는 상기 재구성된 블록의 샘플 적응적 오프셋 (sample adaptive offset; SAO) 필터링 중 적어도 하나를 디스에이블시키는 단계를 포함하는, 비디오 데이터를 프로세싱하는 방법.
  3. 제 1 항에 있어서,
    상기 블록을 재구성하는 단계는, 비디오 디코더에 의해 상기 비디오 데이터의 블록을 재구성하는 단계를 포함하고,
    상기 방법은, 상기 필터링이 디스에이블된 것에 기초하여, 상기 비디오 데이터의 상기 재구성된 블록을 필터링하는 일 없이 디스플레이를 위해 상기 비디오 디코더에 의해 상기 비디오 데이터를 출력하는 단계 또는 상기 비디오 디코더에 의해 상기 비디오 데이터를 디코딩된 픽처 버퍼에 저장하는 단계 중 적어도 하나를 더 포함하는, 비디오 데이터를 프로세싱하는 방법.
  4. 제 1 항에 있어서,
    상기 블록을 재구성하는 단계는, 비디오 인코더에 의해 상기 비디오 데이터의 블록을 재구성하는 단계를 포함하고,
    상기 방법은, 상기 필터링이 디스에이블된 것에 기초하여, 상기 비디오 데이터의 상기 재구성된 블록을 필터링하는 일 없이 상기 비디오 인코더에 의해 상기 비디오 데이터를 디코딩된 픽처 버퍼에 저장하는 단계를 더 포함하는, 비디오 데이터를 프로세싱하는 방법.
  5. 제 1 항에 있어서,
    상기 블록에 대한 팔레트를 결정하는 단계는,
    비디오 인코더에 의해, 픽셀 값 군집화 방법을 이용하여 상기 팔레트에 대한 상기 팔레트 엔트리들 및 팔레트 사이즈를 결정하는 단계; 및
    레이트-왜곡 비용 (rate-distortion cost) 들에 적어도 부분적으로 기초하여 상기 팔레트에 대한 상기 팔레트 엔트리들 중 하나 이상 또는 상기 팔레트 사이즈 중 적어도 하나를 변경할지 여부를 결정하는 단계를 포함하는, 비디오 데이터를 프로세싱하는 방법.
  6. 제 5 항에 있어서,
    상기 팔레트 사이즈를 변경할지 여부를 결정하는 것은, 상기 팔레트의 상기 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 대응하는 주어진 인덱스 값을 유지할지 또는 제거할지를 결정하는 것을 포함하고,
    상기 주어진 인덱스 값 및 상기 팔레트의 상기 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리를 제거하는 것은 상기 팔레트 사이즈를 감소시키는, 비디오 데이터를 프로세싱하는 방법.
  7. 제 6 항에 있어서,
    적어도 하나의 픽셀에 대한 컬러 값을 나타내는 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 대응하는 주어진 인덱스 값을 이용하여 상기 블록의 적어도 하나의 픽셀을 인코딩하기 위한 제 1 레이트-왜곡 비용을 계산하는 단계;
    상기 적어도 하나의 픽셀에 대한 양자화된 픽셀 값을 인코딩하는 것을 포함하여, 이스케이프 픽셀 (escape pixel) 로서 상기 블록의 상기 적어도 하나의 픽셀을 인코딩하기 위한 제 2 레이트-왜곡 비용을 계산하는 단계; 및
    제 1 및 제 2 레이트-왜곡 비용 계산들의 비교에 기초하여 상기 주어진 인덱스 값 및 상기 팔레트의 상기 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리를 유지할지 또는 제거할지를 결정하는 단계를 더 포함하는, 비디오 데이터를 프로세싱하는 방법.
  8. 제 5 항에 있어서,
    상기 팔레트 사이즈를 변경할지 여부를 결정하는 것은, 상기 팔레트의 상기 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 대응하는 주어진 인덱스 값을, 상기 팔레트의 상기 팔레트 엔트리들 중 이웃하는 하나의 팔레트 엔트리에 대응하는 이웃 인덱스 값에 병합할지 여부를 결정하는 것을 포함하고,
    상기 주어진 인덱스 값 및 상기 팔레트의 상기 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리를, 상기 이웃 인덱스 값 및 상기 팔레트의 상기 팔레트 엔트리들 중 이웃하는 하나의 팔레트 엔트리에 병합하는 것은, 상기 팔레트 사이즈를 감소시키는, 비디오 데이터를 프로세싱하는 방법.
  9. 제 8 항에 있어서,
    상기 이웃 인덱스 값은, 상기 주어진 인덱스 값으로부터 가장 작은 유클리드 거리 (Euclidean distance) 의 관점에서 가장 가까운 인덱스 값, 또는 상기 주어진 인덱스 값에 대해 인덱스 순서의 관점에서 가장 가까운 인덱스 값 중 하나인, 비디오 데이터를 프로세싱하는 방법.
  10. 제 8 항에 있어서,
    적어도 하나의 픽셀에 대한 제 1 컬러 값을 나타내는 상기 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 대응하는 주어진 인덱스 값을 이용하여 상기 블록의 상기 적어도 하나의 픽셀을 인코딩하기 위한 제 1 레이트-왜곡 비용을 계산하는 단계;
    적어도 픽셀에 대한 제 2 컬러 값을 나타내는 상기 팔레트 엔트리들 중 이웃하는 하나의 팔레트 엔트리에 대응하는 이웃 인덱스 값을 이용하여 상기 블록의 상기 적어도 하나의 픽셀을 인코딩하기 위한 제 2 레이트-왜곡 비용을 계산하는 단계로서, 상기 제 2 컬러 값은 상기 제 1 컬러 값과 유사한, 상기 제 2 레이트-왜곡 비용을 계산하는 단계; 및
    제 1 및 제 2 레이트-왜곡 비용 계산들의 비교에 기초하여, 상기 주어진 인덱스 값 및 상기 팔레트의 상기 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리를, 상기 이웃 인덱스 값 및 상기 팔레트의 상기 팔레트 엔트리들 중 이웃하는 하나의 팔레트 엔트리에 병합할지 여부를 결정하는 단계를 더 포함하는, 비디오 데이터를 프로세싱하는 방법.
  11. 제 5 항에 있어서,
    상기 팔레트의 상기 팔레트 엔트리들 중 하나 이상을 변경할지 여부를 결정하는 것은,
    k-평균 군집화 방법 (k-means clustering method) 을 이용하여 상기 비디오 데이터의 블록에 대한 대표 팔레트를 결정하는 것으로서, 상기 대표 팔레트는 개별 평균 픽셀 값들을 나타내는 대표 팔레트 엔트리들을 포함하는, 상기 k-평균 군집화 방법을 이용하여 상기 비디오 데이터의 블록에 대한 대표 팔레트를 결정하는 것;
    상기 대표 팔레트의 상기 대표 팔레트 엔트리들 중 주어진 하나의 대표 팔레트 엔트리에 대해, 상기 대표 팔레트 엔트리들 중 주어진 하나의 대표 팔레트 엔트리에 의해 나타낸 평균 픽셀 값에 가장 가까운, 상기 대표 팔레트 엔트리들 중 주어진 하나의 대표 팔레트 엔트리에 맵핑되는 상기 픽셀들 중 하나의 픽셀의 픽셀 값을 결정하는 것; 및
    상기 가장 가까운 픽셀 값이 상기 팔레트의 상기 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리에 의해 나타낸 컬러 값과는 상이하다는 것에 기초하여, 상기 팔레트의 상기 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 의해 나타낸 최종 컬러 값으로서 상기 가장 가까운 픽셀 값을 선택하는 것을 포함하는, 비디오 데이터를 프로세싱하는 방법.
  12. 제 11 항에 있어서,
    상기 k-평균 군집화 방법을 이용하여 상기 대표 팔레트를 결정하는 것은,
    상기 팔레트의 상기 팔레트 엔트리들 각각에 대해, 상기 팔레트 엔트리들의 개별 팔레트 엔트리에 의해 나타낸 개별 컬러 값에 맵핑되는 상기 블록의 하나 이상의 픽셀들의 평균 픽셀 값을 계산하는 것; 및
    상기 개별 평균 픽셀 값들을 나타내는 상기 대표 팔레트 엔트리들을 포함하는 상기 비디오 데이터의 블록에 대한 대표 팔레트를 결정하는 것을 포함하고,
    상기 k-평균 군집화 방법의 반복 횟수는 임계 값에 의해 결정되는, 비디오 데이터를 프로세싱하는 방법.
  13. 제 5 항에 있어서,
    상기 픽셀 값 군집화 방법을 이용하여 상기 팔레트에 대한 상기 팔레트 엔트리들 및 팔레트 사이즈를 결정하는 단계는,
    상기 비디오 데이터의 블록에 대해, 복수의 엔트리들을 포함하는 히스토그램을 결정하는 단계로서, 각각의 엔트리는 개별 컬러 값, 및 상기 컬러 값에 맵핑하는 상기 블록의 픽셀들의 개별 양을 포함하는, 상기 히스토그램을 결정하는 단계;
    상기 히스토그램의 제 1 엔트리가 다른 컬러 값들에 비해 픽셀들의 가장 높은 양을 갖는 컬러 값을 포함하도록 상기 엔트리들 각각에 대한 상기 픽셀들의 개별 양에 기초하여 내림차순으로 상기 히스토그램의 상기 엔트리들을 소팅하는 단계; 및
    상기 히스토그램의 상기 엔트리들에 기초하여 상기 팔레트의 상기 팔레트 엔트리들 및 상기 팔레트 사이즈를 결정하는 단계를 포함하는, 비디오 데이터를 프로세싱하는 방법.
  14. 비디오 프로세싱 디바이스로서,
    비디오 데이터를 저장하도록 구성된 메모리; 및
    상기 메모리와 통신하는 하나 이상의 프로세서들
    을 포함하고,
    상기 하나 이상의 프로세서들은,
    상기 비디오 데이터의 블록이 팔레트 코딩된 블록인 것을 결정하고;
    하나 이상의 개별 컬러 값들을 나타내는 하나 이상의 팔레트 엔트리들을 포함하는 상기 블록에 대한 팔레트를 결정하고;
    상기 블록의 하나 이상의 픽셀들에 대한 인덱스 값들을 결정하는 것으로서, 상기 인덱스 값들 각각은 상기 블록의 픽셀들 중 하나의 픽셀에 대한 컬러 값을 나타내는 팔레트 엔트리들 중 하나의 팔레트 엔트리에 대응하는, 상기 블록의 하나 이상의 픽셀들에 대한 인덱스 값들을 결정하고;
    상기 블록에 대한 상기 팔레트 및 상기 인덱스 값들에 기초하여 상기 비디오 데이터의 블록을 재구성하며;
    상기 블록이 상기 팔레트 코딩된 블록인 것에 기초하여, 재구성된 상기 블록의 필터링을 디스에이블시키는 것으로 결정하도록
    구성되는, 비디오 프로세싱 디바이스.
  15. 제 14 항에 있어서,
    상기 하나 이상의 프로세서들은 상기 재구성된 블록의 디블록킹 필터링 또는 상기 재구성된 블록의 샘플 적응적 오프셋 (SAO) 필터링 중 적어도 하나를 디스에이블시키도록 구성되는, 비디오 프로세싱 디바이스.
  16. 제 14 항에 있어서,
    상기 비디오 프로세싱 디바이스는 비디오 디코더를 포함하고,
    상기 비디오 디코더의 하나 이상의 프로세서들은, 상기 필터링이 디스에이블된 것에 기초하여, 상기 비디오 데이터의 블록을 재구성하고, 상기 비디오 데이터의 상기 재구성된 블록을 필터링하는 일 없이 디스플레이를 위해 상기 비디오 데이터를 출력하는 것 또는 상기 비디오 데이터를 디코딩된 픽처 버퍼에 저장하는 것 중 적어도 하나를 행하도록 구성되는, 비디오 프로세싱 디바이스.
  17. 제 14 항에 있어서,
    상기 비디오 프로세싱 디바이스는 비디오 인코더를 포함하고,
    상기 비디오 인코더의 하나 이상의 프로세서들은, 상기 필터링이 디스에이블된 것에 기초하여, 상기 비디오 데이터의 블록을 재구성하고, 상기 비디오 데이터의 상기 재구성된 블록을 필터링하는 일 없이 상기 비디오 데이터를 디코딩된 픽처 버퍼에 저장하도록 구성되는, 비디오 프로세싱 디바이스.
  18. 제 14 항에 있어서,
    상기 비디오 프로세싱 디바이스는 비디오 인코더를 포함하고,
    상기 블록에 대한 상기 팔레트를 결정하기 위해, 상기 비디오 인코더의 하나 이상의 프로세서들은,
    픽셀 값 군집화 방법을 이용하여 상기 팔레트에 대한 상기 팔레트 엔트리들 및 팔레트 사이즈를 결정하고;
    레이트-왜곡 비용들에 적어도 부분적으로 기초하여 상기 팔레트에 대한 상기 팔레트 엔트리들 중 하나 이상 또는 상기 팔레트 사이즈 중 적어도 하나를 변경할지 여부를 결정하도록
    구성되는, 비디오 프로세싱 디바이스.
  19. 제 18 항에 있어서,
    상기 팔레트 사이즈를 변경할지 여부를 결정하기 위해, 상기 하나 이상의 프로세서들은, 상기 팔레트의 상기 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 대응하는 주어진 인덱스 값을 유지할지 또는 제거할지를 결정하도록 구성되고,
    상기 주어진 인덱스 값 및 상기 팔레트의 상기 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리를 제거하는 것은 상기 팔레트 사이즈를 감소시키는, 비디오 프로세싱 디바이스.
  20. 제 19 항에 있어서,
    상기 하나 이상의 프로세서들은,
    적어도 하나의 픽셀에 대한 컬러 값을 나타내는 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 대응하는 주어진 인덱스 값을 이용하여 상기 블록의 상기 적어도 하나의 픽셀을 인코딩하기 위한 제 1 레이트-왜곡 비용을 계산하고;
    상기 적어도 하나의 픽셀에 대한 양자화된 픽셀 값을 인코딩하는 것을 포함하여, 이스케이프 픽셀로서 상기 블록의 상기 적어도 하나의 픽셀을 인코딩하기 위한 제 2 레이트-왜곡 비용을 계산하며;
    제 1 및 제 2 레이트-왜곡 비용 계산들의 비교에 기초하여 상기 주어진 인덱스 값 및 상기 팔레트의 상기 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리를 유지할지 또는 제거할지를 결정하도록
    구성되는, 비디오 프로세싱 디바이스.
  21. 제 18 항에 있어서,
    상기 팔레트 사이즈를 변경할지 여부를 결정하기 위해, 상기 하나 이상의 프로세서들은, 상기 팔레트의 상기 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 대응하는 주어진 인덱스 값을, 상기 팔레트의 상기 팔레트 엔트리들 중 이웃하는 하나의 팔레트 엔트리에 대응하는 이웃 인덱스 값에 병합할지 여부를 결정하도록 구성되고,
    상기 주어진 인덱스 값 및 상기 팔레트의 상기 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리를, 상기 이웃 인덱스 값 및 상기 팔레트의 상기 팔레트 엔트리들 중 이웃하는 하나의 팔레트 엔트리에 병합하는 것은, 상기 팔레트 사이즈를 감소시키는, 비디오 프로세싱 디바이스.
  22. 제 21 항에 있어서,
    상기 이웃 인덱스 값은, 상기 주어진 인덱스 값으로부터 가장 작은 유클리드 거리의 관점에서 가장 가까운 인덱스 값, 또는 상기 주어진 인덱스 값에 대해 인덱스 순서의 관점에서 가장 가까운 인덱스 값 중 하나인, 비디오 프로세싱 디바이스.
  23. 제 21 항에 있어서,
    상기 하나 이상의 프로세서들은,
    적어도 하나의 픽셀에 대한 제 1 컬러 값을 나타내는 상기 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 대응하는 주어진 인덱스 값을 이용하여 상기 블록의 상기 적어도 하나의 픽셀을 인코딩하기 위한 제 1 레이트-왜곡 비용을 계산하고;
    적어도 픽셀에 대한 제 2 컬러 값을 나타내는 상기 팔레트 엔트리들 중 이웃하는 하나의 팔레트 엔트리에 대응하는 이웃 인덱스 값을 이용하여 상기 블록의 상기 적어도 하나의 픽셀을 인코딩하기 위한 제 2 레이트-왜곡 비용을 계산하는 것으로서, 상기 제 2 컬러 값은 상기 제 1 컬러 값과 유사한, 상기 제 2 레이트-왜곡 비용을 계산하며;
    제 1 및 제 2 레이트-왜곡 비용 계산들의 비교에 기초하여, 상기 주어진 인덱스 값 및 상기 팔레트의 상기 팔레트 엔트리들 중 대응하는 하나의 팔레트 엔트리를, 상기 이웃 인덱스 값 및 상기 팔레트의 상기 팔레트 엔트리들 중 이웃하는 하나의 팔레트 엔트리에 병합할지 여부를 결정하도록
    구성되는, 비디오 프로세싱 디바이스.
  24. 제 18 항에 있어서,
    상기 팔레트의 상기 팔레트 엔트리들 중 하나 이상을 변경할지 여부를 결정하기 위해, 상기 하나 이상의 프로세서들은,
    k-평균 군집화 방법을 이용하여 상기 비디오 데이터의 블록에 대한 대표 팔레트를 결정하는 것으로서, 상기 대표 팔레트는 개별 평균 픽셀 값들을 나타내는 대표 팔레트 엔트리들을 포함하는, 상기 k-평균 군집화 방법을 이용하여 상기 비디오 데이터의 블록에 대한 대표 팔레트를 결정하고;
    상기 대표 팔레트의 상기 대표 팔레트 엔트리들 중 주어진 하나의 대표 팔레트 엔트리에 대해, 상기 대표 팔레트 엔트리들 중 주어진 하나의 대표 팔레트 엔트리에 의해 나타낸 평균 픽셀 값에 가장 가까운, 상기 대표 팔레트 엔트리들 중 주어진 하나의 대표 팔레트 엔트리에 맵핑되는 상기 픽셀들 중 하나의 픽셀의 픽셀 값을 결정하며;
    상기 가장 가까운 픽셀 값이 상기 팔레트의 상기 팔레트 엔트리들 중 대응하는 주어진 하나의 팔레트 엔트리에 의해 나타낸 컬러 값과는 상이하다는 것에 기초하여, 상기 팔레트의 상기 팔레트 엔트리들 중 주어진 하나의 팔레트 엔트리에 의해 나타낸 최종 컬러 값으로서 상기 가장 가까운 픽셀 값을 선택하도록
    구성되는, 비디오 프로세싱 디바이스.
  25. 제 24 항에 있어서,
    상기 k-평균 군집화 방법을 이용하여 상기 대표 팔레트를 결정하기 위해, 상기 하나 이상의 프로세서들은,
    상기 팔레트의 상기 팔레트 엔트리들 각각에 대해, 상기 팔레트 엔트리들의 개별 팔레트 엔트리에 의해 나타낸 개별 컬러 값에 맵핑되는 상기 블록의 하나 이상의 픽셀들의 평균 픽셀 값을 계산하고;
    상기 개별 평균 픽셀 값들을 나타내는 상기 대표 팔레트 엔트리들을 포함하는 상기 비디오 데이터의 블록에 대한 대표 팔레트를 결정하도록
    구성되고,
    상기 k-평균 군집화 방법의 반복 횟수는 임계 값에 의해 결정되는, 비디오 프로세싱 디바이스.
  26. 제 18 항에 있어서,
    상기 픽셀 값 군집화 방법을 이용하여 상기 팔레트에 대한 상기 팔레트 엔트리들 및 팔레트 사이즈를 결정하기 위해, 상기 하나 이상의 프로세서들은,
    상기 비디오 데이터의 블록에 대해, 복수의 엔트리들을 포함하는 히스토그램을 결정하는 것으로서, 각각의 엔트리는 개별 컬러 값, 및 상기 컬러 값에 맵핑하는 상기 블록의 픽셀들의 개별 양을 포함하는, 상기 히스토그램을 결정하고;
    상기 히스토그램의 제 1 엔트리가 다른 컬러 값들에 비해 픽셀들의 가장 높은 양을 갖는 컬러 값을 포함하도록 상기 엔트리들 각각에 대한 상기 픽셀들의 개별 양에 기초하여 내림차순으로 상기 히스토그램의 상기 엔트리들을 소팅하며;
    상기 히스토그램의 상기 엔트리들에 기초하여 상기 팔레트의 상기 팔레트 엔트리들 및 상기 팔레트 사이즈를 결정하도록
    구성되는, 비디오 프로세싱 디바이스.
  27. 제 14 항에 있어서,
    상기 비디오 프로세싱 디바이스는,
    집적 회로;
    마이크로프로세서; 또는
    무선 통신 디바이스
    중 적어도 하나를 포함하는, 비디오 프로세싱 디바이스.
  28. 비디오 프로세싱 디바이스로서,
    비디오 데이터의 블록이 팔레트 코딩된 블록인 것을 결정하는 수단;
    하나 이상의 개별 컬러 값들을 나타내는 하나 이상의 팔레트 엔트리들을 포함하는 상기 블록에 대한 팔레트를 결정하는 수단;
    상기 블록의 하나 이상의 픽셀들에 대한 인덱스 값들을 결정하는 수단으로서, 상기 인덱스 값들 각각은 상기 블록의 픽셀들 중 하나의 픽셀에 대한 컬러 값을 나타내는 팔레트 엔트리들 중 하나의 팔레트 엔트리에 대응하는, 상기 블록의 하나 이상의 픽셀들에 대한 인덱스 값들을 결정하는 수단;
    상기 블록에 대한 상기 팔레트 및 상기 인덱스 값들에 기초하여 상기 비디오 데이터의 블록을 재구성하는 수단; 및
    상기 블록이 상기 팔레트 코딩된 블록인 것에 기초하여, 재구성된 상기 블록의 필터링을 디스에이블시키는 것으로 결정하는 수단을 포함하는, 비디오 프로세싱 디바이스.
  29. 비디오 데이터를 프로세싱하기 위한 명령들을 저장한 비일시적 컴퓨터 판독가능 매체로서,
    상기 명령들은, 실행될 때, 하나 이상의 프로세서들로 하여금,
    상기 비디오 데이터의 블록이 팔레트 코딩된 블록인 것을 결정하게 하고;
    하나 이상의 개별 컬러 값들을 나타내는 하나 이상의 팔레트 엔트리들을 포함하는 상기 블록에 대한 팔레트를 결정하게 하고;
    상기 블록의 하나 이상의 픽셀들에 대한 인덱스 값들을 결정하게 하는 것으로서, 상기 인덱스 값들 각각은 상기 블록의 픽셀들 중 하나의 픽셀에 대한 컬러 값을 나타내는 팔레트 엔트리들 중 하나의 팔레트 엔트리에 대응하는, 상기 블록의 하나 이상의 픽셀들에 대한 인덱스 값들을 결정하게 하고;
    상기 블록에 대한 상기 팔레트 및 상기 인덱스 값들에 기초하여 상기 비디오 데이터의 블록을 재구성하게 하며;
    상기 블록이 팔레트 코딩된 블록인 것에 기초하여, 재구성된 상기 블록의 필터링을 디스에이블시키는 것으로 결정하게 하는, 비일시적 컴퓨터 판독가능 매체.
KR1020167027974A 2014-03-26 2015-03-26 비디오 코딩에서 팔레트 코딩된 블록들의 팔레트 사이즈, 팔레트 엔트리들 및 필터링의 결정 KR102352642B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201461970838P 2014-03-26 2014-03-26
US61/970,838 2014-03-26
US14/667,900 US9654806B2 (en) 2014-03-26 2015-03-25 Determining palette size, palette entries and filtering of palette coded blocks in video coding
US14/667,900 2015-03-25
PCT/US2015/022771 WO2015148814A1 (en) 2014-03-26 2015-03-26 Determining palette size, palette entries and filtering of palette coded blocks in video coding

Publications (2)

Publication Number Publication Date
KR20160138102A true KR20160138102A (ko) 2016-12-02
KR102352642B1 KR102352642B1 (ko) 2022-01-17

Family

ID=54192242

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167027974A KR102352642B1 (ko) 2014-03-26 2015-03-26 비디오 코딩에서 팔레트 코딩된 블록들의 팔레트 사이즈, 팔레트 엔트리들 및 필터링의 결정

Country Status (24)

Country Link
US (1) US9654806B2 (ko)
EP (1) EP3123727A1 (ko)
JP (1) JP6640105B2 (ko)
KR (1) KR102352642B1 (ko)
CN (1) CN106105228B (ko)
AU (1) AU2015235991B2 (ko)
BR (1) BR112016022085A8 (ko)
CA (1) CA2939678C (ko)
CL (1) CL2016002393A1 (ko)
CR (1) CR20160447A (ko)
DO (1) DOP2016000258A (ko)
GT (1) GT201600200A (ko)
HK (1) HK1226229A1 (ko)
IL (1) IL247899B (ko)
MX (1) MX357993B (ko)
MY (1) MY177780A (ko)
PH (1) PH12016501573B1 (ko)
RU (1) RU2678490C2 (ko)
SA (1) SA516371863B1 (ko)
SG (1) SG11201606420TA (ko)
SV (1) SV2016005285A (ko)
TW (1) TWI666918B (ko)
WO (1) WO2015148814A1 (ko)
ZA (1) ZA201607321B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021194283A1 (ko) * 2020-03-25 2021-09-30 주식회사 케이티 비디오 신호 처리 방법 및 장치

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6336058B2 (ja) 2013-10-14 2018-06-06 マイクロソフト テクノロジー ライセンシング,エルエルシー ビデオ及び画像符号化及び復号のためのベースカラーインデックスマップモードの機能
ES2893815T3 (es) * 2013-12-10 2022-02-10 Canon Kk Procedimiento y aparato para codificar o descodificar una paleta en el modo de codificación de paleta
US10321141B2 (en) 2013-12-18 2019-06-11 Hfi Innovation Inc. Method and apparatus for palette initialization and management
WO2015091879A2 (en) * 2013-12-19 2015-06-25 Canon Kabushiki Kaisha Improved encoding process using a palette mode
CN110225345B (zh) 2013-12-27 2022-07-19 寰发股份有限公司 用于主颜色索引图编码的方法及装置
EP3087738B1 (en) * 2013-12-27 2019-10-02 MediaTek Inc. Method and apparatus for palette coding with cross block prediction
CA2934743C (en) 2013-12-27 2018-11-27 Hfi Innovation Inc. Method and apparatus for syntax redundancy removal in palette coding
EP3061247A4 (en) 2014-01-07 2016-08-31 Mediatek Inc METHOD AND APPARATUS FOR COLOR INDEX PREDICTION
US10542274B2 (en) 2014-02-21 2020-01-21 Microsoft Technology Licensing, Llc Dictionary encoding and decoding of screen content
AU2014202921B2 (en) * 2014-05-29 2017-02-02 Canon Kabushiki Kaisha Method, apparatus and system for de-blocking a block of video samples
US10136141B2 (en) 2014-06-11 2018-11-20 Qualcomm Incorporated Determining quantization parameter (QP) values and delta QP values for palette coded blocks in video coding
US9924175B2 (en) 2014-06-11 2018-03-20 Qualcomm Incorporated Determining application of deblocking filtering to palette coded blocks in video coding
RU2679201C2 (ru) 2014-09-30 2019-02-06 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Правила для режимов внутрикадрового прогнозирования, когда активируется волновая параллельная обработка данных
US9596479B2 (en) * 2014-10-07 2017-03-14 Hfi Innovation Inc. Method of pulse-code modulation and palette coding for video coding
JP6122516B2 (ja) * 2015-01-28 2017-04-26 財團法人工業技術研究院Industrial Technology Research Institute エンコーディング方法及びエンコーダ
WO2016192662A1 (en) * 2015-06-03 2016-12-08 Mediatek Inc. Method and apparatus for resource sharing between intra block copy mode and inter prediction mode in video coding systems
EP3308540B1 (en) * 2015-06-09 2020-04-15 Microsoft Technology Licensing, LLC Robust encoding/decoding of escape-coded pixels in palette mode
GB2539486B (en) * 2015-06-18 2019-07-31 Gurulogic Microsystems Oy Encoder, decoder and method employing palette compression
US10097842B2 (en) * 2015-09-18 2018-10-09 Qualcomm Incorporated Restriction of escape pixel signaled values in palette mode video coding
JP6613842B2 (ja) * 2015-11-24 2019-12-04 富士通株式会社 画像符号化装置、画像符号化方法、及び画像符号化プログラム
JP6662123B2 (ja) * 2016-03-14 2020-03-11 富士通株式会社 画像符号化装置、画像符号化方法、及び画像符号化プログラム
WO2018054570A1 (en) * 2016-09-23 2018-03-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Image compression technique
CN106686384B (zh) * 2016-11-29 2019-05-24 西安万像电子科技有限公司 文字块的压缩方法和装置以及图像压缩方法和装置
CN106604032B (zh) * 2016-11-29 2020-02-04 西安万像电子科技有限公司 图像中文字块的压缩方法和装置及图像压缩方法和装置
CN106851294B (zh) * 2017-01-03 2018-08-14 西安万像电子科技有限公司 图像的压缩方法和装置及其文字块的压缩方法和装置
US11004237B2 (en) * 2017-10-12 2021-05-11 Sony Group Corporation Palette coding for color compression of point clouds
US11616962B2 (en) * 2019-07-15 2023-03-28 Tencent America LLC Method and apparatus for video coding
JP7359936B2 (ja) 2019-07-20 2023-10-11 北京字節跳動網絡技術有限公司 パレットモードの使用の指示の条件依存符号化
CN114424532A (zh) * 2019-07-21 2022-04-29 Lg电子株式会社 根据是否应用调色板模式执行去块滤波的图像编码/解码方法和设备及发送比特流的方法
US11076151B2 (en) * 2019-09-30 2021-07-27 Ati Technologies Ulc Hierarchical histogram calculation with application to palette table derivation
US11120289B2 (en) 2019-09-30 2021-09-14 Ati Technologies Ulc Parallel histogram calculation with application to palette table derivation
WO2021136470A1 (en) * 2019-12-31 2021-07-08 Beijing Bytedance Network Technology Co., Ltd. Clustering based palette mode for video coding
US11937070B2 (en) 2021-07-01 2024-03-19 Tencent America LLC Layered description of space of interest
CN117834892A (zh) * 2022-09-29 2024-04-05 腾讯科技(深圳)有限公司 视频编码方法和装置、计算设备、存储介质及程序产品

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060204086A1 (en) * 2005-03-10 2006-09-14 Ullas Gargi Compression of palettized images
JP4623301B2 (ja) * 2005-12-17 2011-02-02 富士ゼロックス株式会社 画像処理装置、画像処理プログラム
US7903873B2 (en) * 2007-09-13 2011-03-08 Microsoft Corporation Textual image coding
RU2420021C2 (ru) * 2009-03-24 2011-05-27 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ сжатия изображений и видеопоследовательностей
US9654785B2 (en) * 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
US8571311B2 (en) * 2011-12-15 2013-10-29 Microsoft Corporation Raster graphics image transcoding for file size reduction
US9538200B2 (en) 2012-01-19 2017-01-03 Qualcomm Incorporated Signaling of deblocking filter parameters in video coding
JP5632431B2 (ja) 2012-09-04 2014-11-26 株式会社東芝 画像符号化装置、及び画像符号化方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
J. Sole, et al. Non-SCCE3: Palette and deblocking. JCT-VC of ITU-T and ISO/IEC. JCTVC-R0213 Ver.1, Jun. 21, 2014, pp.1-6 *
W. Pu, et al. Suggested software for the AHG on investigation of palette mode coding tools. JCT-VC of ITU-T and ISO/IEC. JCTVC-P0303 Ver.1, Jan. 15, 2014, pp.1-5 *
X. Xiu, et al. Description of screen content coding technology proposal by InterDigital. JCT-VC of ITU-T and ISO/IEC. JCTVC-Q0037 Ver.1, Mar. 18, 2014, pp.1-30* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021194283A1 (ko) * 2020-03-25 2021-09-30 주식회사 케이티 비디오 신호 처리 방법 및 장치

Also Published As

Publication number Publication date
ZA201607321B (en) 2019-04-24
PH12016501573A1 (en) 2016-09-14
SG11201606420TA (en) 2016-10-28
GT201600200A (es) 2018-11-27
AU2015235991B2 (en) 2019-07-25
CN106105228A (zh) 2016-11-09
MY177780A (en) 2020-09-23
MX357993B (es) 2018-08-01
MX2016011213A (es) 2016-11-30
RU2016137792A (ru) 2018-04-26
JP2017514365A (ja) 2017-06-01
PH12016501573B1 (en) 2016-09-14
BR112016022085A2 (pt) 2017-08-15
US9654806B2 (en) 2017-05-16
CA2939678C (en) 2022-10-18
KR102352642B1 (ko) 2022-01-17
RU2016137792A3 (ko) 2018-11-23
CN106105228B (zh) 2019-05-31
CR20160447A (es) 2016-11-08
NZ723093A (en) 2022-03-25
JP6640105B2 (ja) 2020-02-05
TWI666918B (zh) 2019-07-21
TW201603562A (zh) 2016-01-16
US20150281703A1 (en) 2015-10-01
AU2015235991A1 (en) 2016-09-01
HK1226229A1 (zh) 2017-09-22
RU2678490C2 (ru) 2019-01-29
CA2939678A1 (en) 2015-10-01
SA516371863B1 (ar) 2019-08-05
EP3123727A1 (en) 2017-02-01
CL2016002393A1 (es) 2017-04-17
IL247899B (en) 2018-03-29
WO2015148814A1 (en) 2015-10-01
BR112016022085A8 (pt) 2021-07-13
DOP2016000258A (es) 2016-12-31
SV2016005285A (es) 2017-04-24

Similar Documents

Publication Publication Date Title
KR102352642B1 (ko) 비디오 코딩에서 팔레트 코딩된 블록들의 팔레트 사이즈, 팔레트 엔트리들 및 필터링의 결정
EP3251356B1 (en) Palette mode coding for video coding
CA2951569C (en) Determining application of deblocking filtering to palette coded blocks in video coding
KR102384090B1 (ko) 비디오 코딩에서 팔레트 코딩된 블록들에 대한 양자화 파라미터 (qp) 값들 및 델타 qp 값들의 결정
US9900617B2 (en) Single color palette mode in video coding
KR102305988B1 (ko) 팔레트-기반 비디오 코딩을 위한 컬러 인덱스 코딩
EP3123719B1 (en) Palette predictor signaling with run length code for video coding
AU2016211272B2 (en) Coding escape pixels for palette coding
KR20180056687A (ko) 팔레트 모드 비디오 코딩에서의 이스케이프 픽셀 시그널링된 값들의 제한
EP3178226A1 (en) Palette mode encoding and decoding design
KR20170116026A (ko) 비디오 코딩에서의 팔레트 블록 사이즈에 대한 제한
NZ723093B2 (en) Determining palette size, palette entries and filtering of palette coded blocks in video coding

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant