KR20220161409A - 팔레트 예측을 위한 방법 - Google Patents

팔레트 예측을 위한 방법 Download PDF

Info

Publication number
KR20220161409A
KR20220161409A KR1020227037465A KR20227037465A KR20220161409A KR 20220161409 A KR20220161409 A KR 20220161409A KR 1020227037465 A KR1020227037465 A KR 1020227037465A KR 20227037465 A KR20227037465 A KR 20227037465A KR 20220161409 A KR20220161409 A KR 20220161409A
Authority
KR
South Korea
Prior art keywords
palette
entries
predictor
coding
entry
Prior art date
Application number
KR1020227037465A
Other languages
English (en)
Inventor
루-링 랴오
모함메드 고램 사르워
얀 예
슈안 후앙
Original Assignee
알리바바 그룹 홀딩 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알리바바 그룹 홀딩 리미티드 filed Critical 알리바바 그룹 홀딩 리미티드
Publication of KR20220161409A publication Critical patent/KR20220161409A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/197Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 개시는 비디오를 인코딩하기 위한 컴퓨터 구현 방법을 제공한다. 방법은: 처리를 위한 비디오 프레임을 수신하는 단계; 비디오 프레임의 하나 이상의 코딩 유닛을 생성하는 단계; 및 팔레트 엔트리를 갖는 하나 이상의 팔레트 예측자를 사용하여 하나 이상의 코딩 유닛을 처리하는 단계를 포함하고, 하나 이상의 팔레트 예측자의 각각의 팔레트 엔트리는 대응하는 재사용 플래그를 갖고, 그리고 각각의 팔레트 예측자에 대한 재사용 플래그의 수는 대응하는 코딩 유닛에 대해 고정된 수로 설정된다.

Description

팔레트 예측을 위한 방법
관련 출원에 대한 상호 참조
본 개시는 2020년 4월 4일에 출원된 미국 가출원 제63/005,305호, 및 2020년 3월 31일에 출원된 미국 가출원 제63/002,594호를 우선권으로 주장하고, 상기 출원 둘 모두는 전체가 인용에 의해 본원에 통합된다.
본 개시는 일반적으로 비디오 처리에 관한 것이며, 더 상세하게는, 비디오 인코딩 및 디코딩에서 팔레트 모드의 사용에 관한 것이다.
비디오는 시각적 정보를 캡처하는 정적 픽처(또는 "프레임")의 세트이다. 저장 메모리 및 송신 대역폭을 감소시키기 위해, 비디오는 저장 또는 송신 이전에 압축되고, 디스플레이 전에 압축 해제될 수 있다. 압축 프로세스는 보통 인코딩으로 지칭되고, 압축 해제 프로세스는 보통 디코딩으로 지칭된다. 가장 일반적으로 예측, 변환, 양자화, 엔트로피 코딩(entropy coding) 및 인-루프 필터링(in-loop filtering)에 기초하는, 표준화된 비디오 코딩 기술을 사용하는 다양한 비디오 코딩 포맷이 있다. 특정 비디오 코딩 포맷을 지정하는 고효율 비디오 코딩(High Efficiency Video Coding, HEVC/H.265) 표준, 다용도 비디오 코딩(Versatile Video Coding, VVC/H.266) 표준, 및 AVS 표준과 같은 비디오 코딩 표준은 표준화 기구에서 개발한다. 점점 더 많은 진보된 비디오 코딩 기술이 비디오 표준에 채택되고 있고, 새로운 비디오 코딩 표준의 코딩 효율성은 점점 더 높아지고 있다.
본 개시의 실시예는 팔레트 예측자에 대한 컴퓨터 구현 방법을 제공한다. 일부 실시예에서, 방법은: 처리를 위한 비디오 프레임을 수신하는 단계; 비디오 프레임의 하나 이상의 코딩 유닛을 생성하는 단계; 및 팔레트 엔트리를 갖는 하나 이상의 팔레트 예측자를 사용하여 하나 이상의 코딩 유닛을 처리하는 단계를 포함하고, 하나 이상의 팔레트 예측자의 각각의 팔레트 엔트리는 대응하는 재사용 플래그를 갖고, 그리고 각각의 팔레트 예측자에 대한 재사용 플래그의 수는 대응하는 코딩 유닛에 대해 고정된 수로 설정된다.
본 개시의 실시예는 장치를 제공한다. 일부 실시예에서, 장치는 명령어를 저장하도록 구성되는 메모리; 및 메모리에 연결된 프로세서를 포함하고, 프로세서는 명령어를 실행하여 장치로 하여금: 처리를 위한 비디오 프레임을 수신하는 것; 비디오 프레임의 하나 이상의 코딩 유닛을 생성하는 것; 및 팔레트 엔트리를 갖는 하나 이상의 팔레트 예측자를 사용하여 하나 이상의 코딩 유닛을 처리하는 것을 수행하게 하도록 구성되고, 하나 이상의 팔레트 예측자의 각각의 팔레트 엔트리는 대응하는 재사용 플래그를 갖고, 그리고 각각의 팔레트 예측자에 대한 재사용 플래그의 수는 대응하는 코딩 유닛에 대해 고정된 수로 설정된다.
본 개시의 실시예는 명령어의 세트를 저장하는 비일시적 컴퓨터 판독 가능 저장 매체를 제공하고, 명령어의 세트는 장치로 하여금 비디오 데이터 처리를 수행하기 위한 방법을 개시하게 하도록 장치의 하나 이상의 프로세서에 의해 실행 가능하다. 일부 실시예에서, 방법은: 처리를 위한 비디오 프레임을 수신하는 단계; 비디오 프레임의 하나 이상의 코딩 유닛을 생성하는 단계; 및 팔레트 엔트리를 갖는 하나 이상의 팔레트 예측자를 사용하여 하나 이상의 코딩 유닛을 처리하는 단계를 포함하고, 하나 이상의 팔레트 예측자의 각각의 팔레트 엔트리는 대응하는 재사용 플래그를 갖고, 그리고 각각의 팔레트 예측자에 대한 재사용 플래그의 수는 대응하는 코딩 유닛에 대해 고정된 수로 설정된다.
본 개시의 실시예는 팔레트 모드의 디블로킹 필터에 대한 컴퓨터 구현 방법을 제공한다. 일부 실시예에서, 방법은: 처리를 위한 비디오 프레임을 수신하는 단계; 비디오 프레임에 대한 하나 이상의 코딩 유닛을 생성하는 단계 ― 하나 이상의 코딩 유닛의 각각의 코딩 유닛은 하나 이상의 코딩 블록을 가짐 ― ; 및 2개의 이웃하는 코딩 블록 중 적어도 제1 코딩 블록이 팔레트 모드에서 코딩되고, 2개의 이웃하는 코딩 블록 중 제2 코딩 블록이 팔레트 모드와 상이한 코딩 모드를 갖는 것에 응답하여, 경계 필터 강도를 1로 설정하는 단계를 포함하는,
본 개시의 실시예는 장치를 제공한다. 일부 실시예에서, 장치는 명령어를 저장하도록 구성되는 메모리; 및 메모리에 연결된 프로세서를 포함하고, 프로세서는 명령어를 실행하여 장치로 하여금: 처리를 위한 비디오 프레임을 수신하는 것; 비디오 프레임에 대한 하나 이상의 코딩 유닛을 생성하는 것 ― 하나 이상의 코딩 유닛의 각각의 코딩 유닛은 하나 이상의 코딩 블록을 가짐 ― ; 및 2개의 이웃하는 코딩 블록 중 적어도 제1 코딩 블록이 팔레트 모드에서 코딩되고, 2개의 이웃하는 코딩 블록 중 제2 코딩 블록이 팔레트 모드와 상이한 코딩 모드를 갖는 것에 응답하여, 경계 필터 강도를 1로 설정하는 것을 수행하게 하도록 구성된다.
본 개시의 실시예는 명령어의 세트를 저장하는 비일시적 컴퓨터 판독 가능 저장 매체를 제공하고, 명령어의 세트는 장치로 하여금 비디오 데이터 처리를 수행하기 위한 방법을 개시하게 하도록 장치의 하나 이상의 프로세서에 의해 실행 가능하다. 일부 실시예에서, 방법은: 처리를 위한 비디오 프레임을 수신하는 단계; 처리를 위한 비디오 프레임을 수신하는 단계; 비디오 프레임에 대한 하나 이상의 코딩 유닛을 생성하는 단계 ― 하나 이상의 코딩 유닛의 각각의 코딩 유닛은 하나 이상의 코딩 블록을 가짐 ― ; 및 2개의 이웃하는 코딩 블록 중 적어도 제1 코딩 블록이 팔레트 모드에서 코딩되고, 2개의 이웃하는 코딩 블록 중 제2 코딩 블록이 팔레트 모드와 상이한 코딩 모드를 갖는 것에 응답하여, 경계 필터 강도를 1로 설정하는 단계를 포함한다.
본 개시의 실시예 및 다양한 양상은 다음의 상세한 설명 및 첨부 도면에 예시된다. 도면에 도시된 다양한 피처(feature)는 축척대로 도시된 것은 아니다.
도 1은 본 개시의 일부 실시예에 따른, 예시적인 비디오 시퀀스의 구조를 도시하는 개략도이다.
도 2a는 본 개시의 실시예와 일치하는, 하이브리드 비디오 코딩 시스템의 예시적인 인코딩 프로세스를 도시하는 개략도이다.
도 2b는 본 개시의 실시예와 일치하는, 하이브리드 비디오 코딩 시스템의 다른 예시적인 인코딩 프로세스를 도시하는 개략도이다.
도 3a는 본 개시의 실시예와 일치하는, 하이브리드 비디오 코딩 시스템의 예시적인 디코딩 프로세스를 도시하는 개략도이다.
도 3b는 본 개시의 실시예와 일치하는, 하이브리드 비디오 코딩 시스템의 다른 예시적인 디코딩 프로세스를 도시하는 개략도이다.
도 4는 본 개시의 일부 실시예와 일치하는, 비디오를 인코딩하거나 또는 디코딩하기 위한 예시적인 장치의 블록도이다.
도 5는 본 개시의 일부 실시예에 따른, 팔레트 모드에서 코딩된 블록의 예시를 도시한다.
도 6은 팔레트 예측자 업데이팅 프로세스의 예를 도시한다.
도 7은 예시적인 팔레트 코딩 신택스를 도시한다.
도 8은 본 개시의 일부 실시예에 따른 팔레트 예측자 업데이팅 프로세스의 흐름도를 도시한다.
도 9는 본 개시의 일부 실시예에 따른 팔레트 예측자 업데이팅 프로세스의 예를 도시한다.
도 10은 팔레트 모드에 대한 예시적인 디코딩 프로세스를 도시한다.
도 11은 본 개시의 일부 실시예에 따른, 팔레트 모드에 대한 예시적인 디코딩 프로세스를 도시한다.
도 12는 본 개시의 일부 실시예에 따른 다른 팔레트 예측자 업데이팅 프로세스의 흐름도를 도시한다.
도 13은 본 개시의 일부 실시예에 따른 다른 팔레트 예측자 업데이팅 프로세스의 예를 도시한다.
도 14는 본 개시의 일부 실시예에 따른 예시적인 팔레트 코딩 신택스를 도시한다.
도 15는 본 개시의 일부 실시예에 따른, 팔레트 모드에 대한 예시적인 디코딩 프로세스를 도시한다.
도 16은 본 개시의 일부 실시예에 따른, 팔레트 예측자 업데이팅 프로세스의 일부를 구현하는 팔레트 모드에 대한 디코더 하드웨어 설계의 예시를 도시한다.
도 17은 본 개시의 일부 실시예에 따른, 팔레트 모드에 대한 예시적인 디코딩 프로세스를 도시한다.
도 18은 팔레트 모드에 대한 예시적인 초기화 프로세스를 도시한다.
도 19는 본 개시의 일부 실시예에 따른, 팔레트 모드에 대한 예시적인 초기화 프로세스를 도시한다.
도 20은 재사용 플래그의 팔레트 예측자 업데이트 및 대응하는 런 렝스 코딩의 예를 도시한다.
도 21은 본 개시의 일부 실시예에 따른, 재사용 플래그의 팔레트 예측자 업데이트 및 대응하는 런 렝스 코딩의 예를 도시한다.
도 22는 본 개시의 일부 실시예에 따른, 재사용 플래그의 팔레트 예측자 업데이트 및 대응하는 런 렝스 코딩의 예를 도시한다.
도 23은 본 개시의 일부 실시예에 따른 예시적인 팔레트 코딩 신택스를 도시한다.
도 24는 예시적인 팔레트 코딩 시맨틱을 도시한다.
도 25는 본 개시의 일부 실시예에 따른 예시적인 팔레트 코딩 시맨틱을 도시한다.
이제 예시적인 실시예에 대한 참조가 상세히 이루어질 것이며, 이의 예시는 첨부 도면에 예시된다. 다음 설명은 달리 표시되지 않는 한 상이한 도면에서 동일한 번호가 동일하거나 유사한 요소를 나타내는 첨부 도면을 참조한다. 예시적인 실시예의 다음 설명에서 제시된 구현은 본 발명과 일치하는 모든 구현을 나타내는 것은 아니다. 그 대신에, 이들은 첨부된 청구범위에서 인용된 본 발명에 관련된 양상과 일치하는 장치 및 방법의 예시일 뿐이다. 본 개시의 특정 양상은 아래에서 더 상세히 설명된다. 참조로 통합된 용어 및/또는 정의와 상충하는 경우, 본원에 제공된 용어 및 정의가 우선한다.
ITU-T VCEG(ITU-T Video Coding Expert Group) 및 ISO/IEC MPEG(ISO/IEC Moving Picture Expert Group)의 JVET(Joint Video Experts Team)는 현재 다용도 비디오 코딩(VVC/H.266) 표준을 개발하고 있다. VVC 표준은 그의 이전 버전인 고효율 비디오 코딩(HEVC/H.265) 표준의 압축 효율성을 두 배로 높이는 것을 목표로 한다. 다시 말해, VVC의 목표는 대역폭의 절반을 사용하여 HEVC/H.265와 동일한 주관적 품질을 달성하는 것이다.
대역폭의 절반을 사용하여 HEVC/H.265와 동일한 주관적 품질을 달성하기 위해, JVET는 공동 탐색 모델(joint exploration model; JEM) 참조 소프트웨어를 사용하여 HEVC를 넘는 기술을 개발하고 있다. 코딩 기술이 JEM에 통합됨에 따라, JEM은 HEVC보다 상당히 더 높은 코딩 성능을 달성하였다.
VVC 표준은 최근에 개발되었고, 더 나은 압축 성능을 제공하는 더 많은 코딩 기술을 계속 포함하고 있다. VVC는 HEVC, H.264/AVC, MPEG2, H.263 등과 같은 최신 비디오 압축 표준에서 사용된 것과 동일한 하이브리드 비디오 코딩 시스템에 기초한다.
비디오는 시각적 정보를 저장하기 위해 시간적인 시퀀스로 배열된 정적 픽처(또는 "프레임")의 세트이다. 비디오 캡처 디바이스(예컨대, 카메라)는 이 픽처를 시간적인 시퀀스로 캡처하고 저장하는데 사용될 수 있고, 비디오 재생 디바이스(예컨대, 디스플레이의 기능을 갖는 텔레비전, 컴퓨터, 스마트폰, 태블릿 컴퓨터, 비디오 플레이어 또는 임의의 최종-사용자 단말기)는 이러한 픽처를 시간적인 시퀀스로 디스플레이하기 위해 사용될 수 있다. 또한, 일부 애플리케이션에서, 비디오 캡처링 디바이스는 감시, 회의 또는 실시간 방송과 같이 캡처된 비디오를 비디오 재생 디바이스(예컨대, 모니터를 갖는 컴퓨터)에 실시간으로 송신할 수 있다.
이러한 애플리케이션에 의해 필요한 저장 공간 및 송신 대역폭을 감소시키기 위해, 비디오는 저장 또는 송신 이전에 압축되고, 디스플레이 전에 압축 해제될 수 있다. 압축 및 압축 해제는 프로세서(예컨대, 일반 컴퓨터의 프로세서) 또는 특수 하드웨어에 의해 실행되는 소프트웨어에 의해 구현될 수 있다. 압축을 위한 모듈은 일반적으로 "인코더"로 지칭되고, 압축 해제를 위한 모듈은 일반적으로 "디코더"로 지칭된다. 인코더 및 디코더를 집합적으로 "코덱(codec)"으로 지칭될 수 있다. 인코더 및 디코더는 임의의 다양한 적합한 하드웨어, 소프트웨어, 또는 이들의 조합 중 임의의 것으로 구현될 수 있다. 예컨대, 인코더 및 디코더의 하드웨어 구현은 하나 이상의 마이크로프로세서, 디지털 신호 프로세서(DSP), 애플리케이션-특정 집적 회로(application-specific integrated circuits, ASIC), 필드 프로그래밍 가능 게이트 어레이(Field-Programmable Gate Array, FPGA), 이산 로직 또는 이의 임의의 조합과 같은 회로를 포함할 수 있다. 인코더 및 디코더의 소프트웨어 구현은 컴퓨터 판독 가능 매체에 고정된 프로그램 코드, 컴퓨터-실행가능 명령어, 펌웨어 또는 임의의 적합한 컴퓨터 구현 알고리즘 또는 프로세스를 포함할 수 있다. 비디오 압축 및 압축 해제는 MPEG-1, MPEG-2, MPEG-4, H.26x 시리즈 등과 같은 다양한 알고리즘 또는 표준에 의해 구현될 수 있다. 일부 애플리케이션에서, 코덱은 제1 코딩 표준으로부터 비디오를 압축 해제하고 제2 코딩 표준을 사용하여 압축 해제된 비디오를 재압축할 수 있으며, 이 경우 코덱은 "트랜스코더(transcoder)"로 지칭될 수 있다.
비디오 인코딩 프로세스는 픽처를 재구성하는 데 사용될 수 있는 유용한 정보를 식별하고 유지할 수 있고, 재구성에 중요하지 않은 정보를 폐기할 수 있다. 폐기되고 중요하지 않은 정보가 완전히 재구성될 수 없는 경우, 이러한 인코딩 프로세스는 "손실이 있는 것(lossy)"으로 지칭될 수 있다. 그렇지 않으면, 이는 "무손실"로 지칭될 수 있다. 대부분의 인코딩 프로세스는 손실이 있고, 이는 필요한 저장 공간 및 송신 대역폭을 감소시키기 위한 트레이드오프이다.
인코딩되는 픽처(현재 픽처로 지칭됨)의 유용한 정보는 참조 픽처(예컨대, 이전에 인코딩되거나 재구성된 픽처)에 대한 변경을 포함할 수 있다. 이러한 변경은 픽셀의 위치 변경, 광도 변경 또는 색상 변경을 포함할 수 있으며, 그 중 위치 변경이 주로 관련된다. 객체를 나타내는 픽셀의 그룹의 위치 변경은 참조 픽처와 현재 픽처 사이의 객체의 움직임을 반영할 수 있다.
다른 픽처를 참조하지 않고 코딩된 픽처(즉, 자신이 그 자신의 참조 픽처인 것)는 "I-픽처"로 지칭된다. 픽처의 일부 또는 모든 블록(예컨대, 일반적으로 비디오 픽처의 일부를 나타내는 블록)이 하나의 참조 픽처를 통해 인트라 예측 또는 인터 예측을 사용하여 예측되면(예컨대, 단방향 예측), 픽처는 "P-픽처"로 지칭된다. 픽처 내의 적어도 하나의 블록이 2개의 참조 픽처를 통해 예측되면(예컨대, 양방향 예측), 픽처는 "B-픽처"로 지칭된다.
도 1은 본 개시의 일부 실시예에 따른 예시적인 비디오 시퀀스(100)의 구조를 도시한다. 비디오 시퀀스(100)는 실시간 비디오 또는 캡처되고 보관되는 비디오일 수 있다. 비디오(100)는 실제 비디오, 컴퓨터-생성된 비디오(예컨대, 컴퓨터 게임 비디오)또는 이들의 조합(예컨대, 증강-현실 효과를 갖는 실제 비디오)일 수 있다. 비디오 시퀀스(100)는 비디오 캡처 디바이스(예컨대, 카메라), 이전에 캡처된 비디오를 포함하는 비디오 아카이브(예컨대, 저장 디바이스에 저장된 비디오 파일), 또는 비디오 콘텐츠 제공자로부터 비디오를 수신하기 위한 비디오 피드 인터페이스(예컨대, 비디오 브로드캐스트 트랜시버)로부터 입력될 수 있다.
도 1에 도시된 바와 같이, 비디오 시퀀스(100)는 픽처(102, 104, 106 및 108)를 포함하는, 시간선을 따라 시간적으로 배열된 일련의 픽처를 포함할 수 있다. 픽처(102 내지 106)는 연속적이고, 픽처(106)와 픽처(108) 사이에 더 많은 픽처가 있다. 도 1에서, 픽처(102)는 I-픽처이고, 이의 참조 픽처는 픽처(102) 그 자체이다. 픽처(104)는 P-픽처이고, 이의 참조 픽처는 화살표로 나타난 바와 같이 픽처(102)이다. 픽처(106)는 B-픽처이고, 이의 참조 픽처는 화살표로 나타난 바와 같이 픽처(104 및 108)이다. 일부 실시예에서, 픽처(예컨대, 픽처(104))의 참조 픽처는 픽처 직전 또는 직후가 아닐 수 있다. 예컨대, 픽처(104)의 참조 픽처는 픽처(102)에 선행하는 픽처일 수 있다. 픽처(102 내지 106)의 참조 픽처는 단지 예시이며, 본 개시는 도 1에 도시된 예시로서 참조 픽처의 실시예를 제한하지 않는다는 것이 유의되어야 한다.
전형적으로, 비디오 코덱은 이러한 태스크(task)의 연산 복잡성에 기인하여 전체의 픽처를 동시에 인코딩하거나 또는 디코딩하지 않는다. 오히려, 이는 픽처를 기본 세그먼트로 분할할 수 있고, 픽처를 세그먼트별로 인코딩하거나 또는 디코딩할 수 있다. 이러한 기본 세그먼트는 본 개시에서 기본 처리 유닛(basic processing units; BPU)으로 지칭된다. 예컨대, 도 1에서의 구조(110)는 비디오 시퀀스(100)의 픽처(예컨대, 픽처(102 내지 108) 중 임의의 것)의 예시적인 구조를 도시한다. 구조(110)에서, 픽처는 4Х4 기본 처리 유닛으로 분할되고, 이의 경계는 점선으로 도시된다. 일부 실시예에서, 기본 처리 유닛은 일부 비디오 코딩 표준(예컨대, MPEG 패밀리, H.261, H.263, 또는 H.264/AVC)에서 "매크로블록"으로 지칭될 수 있거나, 일부 다른 비디오 코딩 표준(예컨대, H.265/HEVC 또는 H.266/VVC)에서 "코딩 트리 유닛"("CTU")으로 지칭될 수 있다. 기본 처리 유닛은 128×128, 64×64, 32×32, 16×16, 4×8, 16×32와 같은 픽처에서의 가변적인 크기, 또는 픽셀의 어느 임의의 형태 및 크기를 가질 수 있다. 기본 처리 유닛의 크기 및 형태는 기본 처리 유닛에서 유지될 세부사항의 레벨 및 코딩 효율의 밸런스에 기초하여 픽처에 대해 선택될 수 있다.
기본 처리 유닛은 컴퓨터 메모리에 (예컨대, 비디오 프레임 버퍼에) 저장된 상이한 타입의 비디오 데이터의 그룹을 포함할 수 있는 논리적 유닛일 수 있다. 예컨대, 색상 픽처의 기본 처리 유닛은 무색의 밝기 정보를 나타내는 루마 성분(Y), 색상 정보를 나타내는 하나 이상의 크로마 성분(예컨대, Cb 및 Cr) 및 연관된 신택스 요소를 포함할 수 있고, 여기서 루마 및 크로마 성분은 동일한 크기의 기본 처리 유닛을 가질 수 있다. 루마 및 크로마 성분은 일부 비디오 코딩 표준(예컨대, H.265/HEVC 또는 H.266/VVC)에서 "코딩 트리 블록"("CTB")으로 지칭될 수 있다. 기본 처리 유닛에 대해 수행된 임의의 동작은 그의 루마 및 크로마 성분의 각각에 대해 반복적으로 수행될 수 있다.
비디오 코딩은 다수의 동작 스테이지를 가지며, 이의 예시는 도 2a-2b 및 3a-3b에 도시된다. 각각의 스테이지에 대해, 기본 처리 유닛의 크기는 처리하기에 여전히 너무 클 수 있으며, 따라서 본 개시에서 "기본 처리 서브-유닛"으로 지칭되는 세그먼트로 더 분할될 수 있다. 일부 실시예에서, 기본 처리 서브-유닛은 일부 비디오 코딩 표준(예컨대, MPEG 패밀리, H.261, H.263, 또는 H.264/AVC)에서 "블록"으로 지칭될 수 있거나, 일부 다른 비디오 코딩 표준(예컨대, H.265/HEVC 또는 H.266/VVC)에서 "코딩 유닛"("CU")으로 지칭될 수 있다. 기본 처리 서브-유닛은 기본 처리 유닛과 동일하거나 더 작은 크기를 가질 수 있다. 기본 처리 유닛과 유사하게, 기본 처리 서브-유닛은 또한, 논리적 유닛이며, 이는 컴퓨터 메모리에 (예컨대, 비디오 프레임 버퍼에) 저장된 상이한 타입의 비디오 데이터(예컨대, Y, Cb, Cr 및 연관된 신택스 요소)의 그룹을 포함할 수 있다. 기본 처리 서브-유닛에 대해 수행된 임의의 동작은 그의 루마 및 크로마 성분의 각각에 대해 반복적으로 수행될 수 있다. 이러한 분할은 처리 요구에 의존하는 추가적인 레벨로 수행될 수 있다는 것이 유의되어야 한다. 또한, 상이한 스테이지가 상이한 체계를 사용하여 기본 처리 유닛을 분할할 수 있다는 것이 유의되어야 한다.
예컨대, 모드 결정 스테이지(그의 예시가 도 2b에 도시됨)에서, 인코더는 기본 처리 유닛에 대해 어떤 예측 모드(예컨대, 인트라-픽처 예측 또는 인터-픽처 예측)를 사용할지를 결정할 수 있으며, 이러한 기본 처리 유닛은는 이러한 결정을 하기엔 너무 클 수 있다. 인코더는 기본 처리 유닛을 다수의 기본 처리 서브-유닛(예컨대, H.265/HEVC 또는 H.266/VVC에서와 같이 CU)으로 분할할 수 있으며, 각각의 개별적인 기본 처리 서브-유닛에 대해 예측 타입을 결정할 수 있다.
다른 예시로서, 예측 스테이지(그의 예시가 도 2a-2b에 도시됨)에서, 인코더는 기본 처리 서브-유닛(예컨대, CU)의 레벨에서 예측 동작을 수행할 수 있다. 하지만, 일부 경우에서, 기본 처리 서브-유닛은 처리하기에 여전히 너무 클 수 있다. 인코더는 기본 처리 서브-유닛을 예측 동작이 수행될 수 있는 레벨의 더 작은 세그먼트(예컨대, H.265/HEVC 또는 H.266/VVC에서 "예측 블록" 또는 "PB"로 지칭됨)로 더 분할할 수 있다.
다른 예시로서, 변환 스테이지(그의 예시가 도 2a-2b에 도시됨)에서, 인코더는 잔차 기본 처리 서브-유닛(예컨대, CU)에 대한 변환 동작을 수행할 수 있다. 하지만, 일부 경우에서, 기본 처리 서브-유닛은 처리하기에 여전히 너무 클 수 있다. 인코더는 기본 처리 서브-유닛을 예측 동작이 수행될 수 있는 레벨의 더 작은 세그먼트(예컨대, H.265/HEVC 또는 H.266/VVC에서 "변환 블록" 또는 "TB"로 지칭됨)로 더 분할할 수 있다. 동일한 기본 처리 서브-유닛의 분할 체계는 예측 스테이지 및 변환 스테이지에서 상이할 수 있다는 것이 유의되어야 한다. 예컨대, H.265/HEVC 또는 H.266/VVC에서, 동일한 CU의 예측 블록 및 변환 블록은 상이한 크기 및 개수를 가질 수 있다.
도 1의 구조(110)에서, 기본 처리 유닛(112)은 그의 경계가 점선으로 도시된, 3Х3 기본 처리 서브-유닛으로 더 분할된다. 동일한 픽처의 상이한 기본 처리 유닛이 상이한 체계의 기본 처리 서브-유닛으로 분할될 수 있다.
일부 구현에서, 비디오 인코딩 및 디코딩에 대한 병렬 처리 및 오류 복원의 능력을 제공하기 위해, 픽처는 픽처의 영역에 대해, 인코딩 또는 디코딩 프로세스가 픽처의 임의의 다른 영역으로부터의 정보에 의존하지 않도록, 처리를 위한 영역으로 분할될 수 있다. 다시 말해, 픽처의 각각의 영역은 독립적으로 처리될 수 있다. 이렇게 함으로써, 코덱은 픽처의 상이한 영역을 병렬로 처리할 수 있으며, 따라서 코딩 효율을 증가시킨다. 또한, 영역의 데이터가 처리에서 훼손되거나 또는 네트워크 송신에서 분실될 때, 코덱은 훼손되거나 또는 분실된 데이터에 대한 의존(reliance) 없이, 동일한 픽처의 다른 영역을 올바르게 인코딩 또는 디코딩할 수 있으며, 따라서 오류 복원의 능력을 제공한다. 일부 비디오 코딩 표준에서, 픽처는 상이한 타입의 영역으로 분할될 수 있다. 예컨대, H.265/HEVC 및 H.266/VVC는 두 개의 타입의 영역: "슬라이스" 및 "타일"을 제공한다. 또한, 비디오 시퀀스(100)의 상이한 픽처가 픽처를 영역으로 분할하기 위한 상이한 파티션 체계를 가질 수 있다는 것이 유의되어야 한다.
예컨대, 도 1에서, 구조(110)는 그의 경계가 구조(110) 내에서 실선으로 도시된 세 개의 영역(114, 116 및 118)으로 분할된다. 영역(114)은 네 개의 기본 처리 유닛을 포함한다. 영역(116 및 118)의 각각은 여섯 개의 기본 처리 유닛을 포함한다. 도 1에서 구조(110)의 기본 처리 유닛, 기본 처리 서브-유닛 및 영역은 단지 예시이며, 본 개시는 이의 실시예를 제한하지 않는다는 것이 유의되어야 한다.
도 2a는 본 개시의 실시예와 일치하는, 예시적인 인코딩 프로세스(200A)의 개략도를 도시한다. 예컨대, 인코딩 프로세스(200A)는 인코더에 의해 수행될 수 있다. 도 2a에 도시된 바와 같이, 인코더는 프로세스(200A)에 따라 비디오 시퀀스(202)를 비디오 비트스트림(228)으로 인코딩할 수 있다. 도 1에서의 비디오 시퀀스(100)와 유사하게, 비디오 시퀀스(202)는 시간적인 순서로 배열된 픽처("원본 픽처"로 지칭됨)의 세트를 포함할 수 있다. 도 1에서의 구조(110)와 유사하게, 비디오 시퀀스(202)의 각각의 원본 픽처는 인코더에 의해 기본 처리 유닛, 기본 처리 서브-유닛 또는 처리를 위한 영역으로 분할될 수 있다. 일부 실시예에서, 인코더는 비디오 시퀀스(202)의 각각의 원본 픽처에 대한 기본 처리 유닛의 레벨에서 프로세스(200A)를 수행할 수 있다. 예컨대, 인코더는 프로세스(200A)를 반복 방식으로 수행할 수 있으며, 여기서 인코더는 프로세스(200A)의 하나의 반복으로 기본 처리 유닛을 인코딩할 수 있다. 일부 실시예에서, 인코더는 비디오 시퀀스(202)의 각각의 원본 픽처의 영역(예컨대, 영역(114-118))에 대해 프로세스(200A)를 병렬로 수행할 수 있다.
도 2a에서, 인코더는 예측 데이터(206) 및 예측된 BPU(208)를 생성하기 위해 비디오 시퀀스(202)의 원본 픽처의 기본 처리 유닛("원본 BPU"로 지칭됨)을 예측 스테이지(204)로 공급할 수 있다. 인코더는 잔차 BPU(210)를 생성하기 위해 원본 BPU로부터 예측된 BPU(208)를 감산할 수 있다. 인코더는 양자화된 변환 계수(216)를 생성하기 위해, 잔차 BPU(210)를 변환 스테이지(212) 및 양자화 스테이지(214)에 공급할 수 있다. 인코더는 비디오 비트스트림(228)을 생성하기 위해, 예측 데이터(206) 및 양자화된 변환 계수(216)를 이진 코딩 스테이지(226)에 공급할 수 있다. 구성요소(202, 204, 206, 208, 210, 212, 214, 216, 226 및 228)는 "순방향 경로(forward path)"로서 지칭될 수 있다. 프로세스(200A) 동안, 양자화 스테이지(214) 이후에, 인코더는 재구성된 잔차 BPU(222)를 생성하기 위해, 양자화된 변환 계수(216)를 역양자화 스테이지(218) 및 역변환 스테이지(220)에 공급할 수 있다. 인코더는 프로세스(200A)의 다음 반복을 위해 예측 스테이지(204)에서 사용되는 예측 참조(224)를 생성하기 위해, 재구성된 잔차 BPU(222)를 예측된 BPU(208)에 더할 수 있다. 프로세스(200A)의 구성요소(218, 220, 222 및 224)는 "재구성 경로"로 지칭될 수 있다. 재구성 경로는 인코더 및 디코더 둘 모두가 예측을 위해 동일한 참조 데이터를 사용하는 것을 보장하도록 사용될 수 있다.
인코더는 (순방향 경로에서) 원본 픽처의 각각의 원본 BPU를 인코딩하고, (재구성 경로에서) 원본 픽처의 다음 원본 BPU를 인코딩하기 위한 예측된 참조(224)를 생성하기 위해 프로세스(200A)를 반복적으로 수행할 수 있다. 원본 픽처의 모든 원본 BPU를 인코딩한 이후에, 인코더는 비디오 시퀀스(202)에서 다음 픽처를 인코딩하도록 진행할 수 있다.
프로세스(200A)를 참조하면, 인코더는 비디오 캡처링 디바이스(예컨대, 카메라)에 의해 생성되는 비디오 시퀀스(202)를 수신할 수 있다. 본원에서 사용된 "수신하다"라는 용어는 수신, 입력, 취득, 리트리브(retrieve), 획득, 판독, 액세스 또는 데이터를 입력하기 위한 임의의 방식에서의 임의의 동작을 지칭할 수 있다.
현재 반복에서의 예측 스테이지(204)에서, 인코더는 원본 BPU 및 예측 참조(224)를 수신할 수 있고, 예측 데이터(206) 및 예측된 BPU(208)를 생성하기 위해 예측 동작을 수행할 수 있다. 예측 참조(224)는 프로세스(200A)의 이전의 반복의 재구성 경로로부터 생성될 수 있다. 예측 스테이지(204)의 목적은 예측 데이터(206) 및 예측 참조(224)로부터 원본 BPU를 예측된 BPU(208)로서 재구성하기 위해 사용될 수 있는 예측 데이터(206)를 추출함으로써 정보 중복성(information redundancy)을 감소시키는 것이다.
이상적으로, 예측된 BPU(208)는 원본 BPU와 동일할 수 있다. 하지만, 비-이상적 예측 및 재구성 동작에 기인하여, 예측된 BPU(208)는 일반적으로 원본 BPU와는 약간 상이하다. 이러한 차이를 기록하기 위해, 예측된 BPU(208)를 생성한 이후에, 인코더는 잔차 BPU(210)를 생성하기 위해, 원본 BPU로부터 이를 감산할 수 있다. 예컨대, 인코더는 원본 BPU의 대응하는 픽셀의 값으로부터 예측된 BPU(208)의 픽셀의 값(예컨대, 그레이스케일 값 또는 RGB 값)을 감산할 수 있다. 잔차 BPU(210)의 각각의 픽셀은 원본 BPU 및 예측된 BPU(208)의 대응하는 픽셀 사이에서 이러한 감산의 결과로서 잔차 값을 가질 수 있다. 원본 BPU와 비교하여, 예측 데이터(206) 및 잔차 BPU(210)는 더 적은 수의 비트를 가질 수 있지만, 이들은 현저한 품질 저하 없이 원본 BPU를 재구성하는데 사용될 수 있다. 따라서, 원본 BPU가 압축된다.
잔차 BPU(210)를 더 압축하기 위해, 변환 스테이지(212)에서, 인코더는 이를 2차원 "기본 패턴" ― 각각의 기본 패턴은 "변환 계수와 연관됨 ― 으로 분해함으로써 잔차 BPU(210)의 공간 중복성을 저감할 수 있다. 기본 패턴은 동일한 크기(예컨대, 잔차 BPU(210)의 크기)를 가질 수 있다. 각각의 기본 패턴은 잔차 BPU(210)의 변동 주파수(variation frequency)(예컨대, 밝기 변동의 주파수) 성분을 나타낼 수 있다. 기본 패턴 중 어느 것도 임의의 다른 기본 패턴의 임의의 조합(예컨대, 선형 조합)으로부터 재생성될 수 없다. 다시 말해, 분해는 잔차 BPU(210)의 변동을 주파수 도메인으로 분해할 수 있다. 이러한 분해는 함수의 이산 푸리에 변환과 유사하며, 여기서 기본 패턴은 이산 푸리에 변환의 기본 함수(예컨대, 삼각 함수)와 유사하고 변환 계수는 기본 함수와 연관된 계수와 유사하다.
상이한 변환 알고리즘이 상이한 기본 패턴을 사용할 수 있다. 다양한 변환 알고리즘은 예컨대, 이산 코사인 변환, 이산 사인 변환 등과 같은 변환 스테이지(212)에서 사용될 수 있다. 변환 스테이지(212)에서의 변환은 역으로 이루어질 수 있다(invertible). 즉, 인코더는 변환의 역동작("역변환"으로 지칭됨)에 의해 잔차 BPU(210)를 복원할 수 있다. 예컨대, 잔차 BPU(210)의 픽셀을 복원하기 위해, 역변환은 기본 패턴의 대응하는 픽셀의 값을 개개의 연관된 계수를 곱하고, 그 결과 값을 더하여 가중합을 생성할 수 있다. 비디오 코딩 표준에 대해, 인코더 및 디코더 둘 모두는 동일한 변환 알고리즘(따라서, 동일한 기본 패턴)을 사용할 수 있다. 따라서, 인코더는 변환 계수만을 기록할 수 있고, 이로부터 디코더는 인코더로부터 기본 패턴을 수신하지 않으면서, 잔차 BPU(210)를 재구성할 수 있다. 잔차 BPU(210)와 비교하여, 변환 계수는 더 적은 수의 비트를 가질 수 있지만, 이들은 현저한 품질 저하 없이 잔차 BPU(210)를 재구성하는데 사용될 수 있다. 따라서, 잔차 BPU(210)가 더 압축된다.
인코더는 양자화 스테이지(214)에서 변환 계수를 더 압축할 수 있다. 변환 프로세스에서, 상이한 기본 패턴이 상이한 변동 주파수(예컨대, 밝기 변동 주파수)를 나타낼 수 있다. 인간의 눈은 일반적으로 낮은-주파수 변동을 더 잘 인식하기 때문에, 인코더는 디코딩에서 현저한 품질 저하를 초래하지 않으면서 높은-주파수 변동의 정보를 무시할 수 있다. 예컨대, 양자화 스테이지(214)에서, 인코더는 각각의 변환 계수를 정수 값("양자화 스케일 팩터"로 지칭됨)으로 나누고, 몫을 그의 가장 가까운 정수로 반올림함으로써, 양자화된 변환 계수(216)를 생성할 수 있다. 이러한 동작 이후에, 고주파수 기본 패턴의 일부 변환 계수는 0으로 변환될 수 있고, 저주파수 기본 패턴의 변환 계수는 더 작은 정수로 변환될 수 있다. 인코더는 0-값 양자화된 변환 계수(216)를 무시할 수 있으며, 이에 의해 변환 계수는 더 압축된다. 또한, 양자화 프로세스는 역으로 이루어질 수 있고, 여기서 양자화된 변환 계수(216)는 양자화의 역동작("역양자화"로 지칭됨)에서 변환 계수로 재구성될 수 있다.
인코더가 반올림 동작에서 이러한 나눗셈의 나머지를 무시하기 때문에, 양자화 스테이지(214)는 손실이 있을 수 있다. 전형적으로, 양자화 스테이지(214)는 프로세스(200A)의 대부분의 정보 손실에 기여할 수 있다. 정보 손실이 크면 클수록, 양자화된 변환 계수(216)가 더 적은 비트를 필요로 할 수 있다. 상이한 레벨의 정보 손실을 획득하기 위해, 인코더는 양자화 파라미터의 상이한 값 또는 양자화 프로세스의 임의의 다른 파라미터를 사용할 수 있다.
이진 코딩 스테이지(226)에서, 인코더는 예컨대, 엔트로피 코딩, 가변 길이 코딩, 산술 코딩, 허프만 코딩(Huffman coding), 컨텍스트-적응적 이진 산술 코딩(context-adaptive binary arithmetic coding) 또는 임의의 다른 무손실 또는 손실 압축 알고리즘과 같은 이진 코딩 기술을 사용하여 예측 데이터(206) 및 양자화된 변환 계수(216)를 인코딩할 수 있다. 일부 실시예에서, 예측 데이터(206) 및 양자화된 변환 계수(216) 이외에, 인코더는 예컨대, 예측 스테이지(204)에서 사용되는 예측 모드, 예측 동작의 파라미터, 변환 스테이지(212)에서의 변환 타입, 양자화 프로세스의 파라미터(예컨대, 양자화 파라미터), 인코더 제어 파라미터(예컨대, 비트레이트 제어 파라미터) 등과 같은 다른 정보를 이진 코딩 스테이지(226)에서 인코딩할 수 있다. 인코더는 비디오 비트스트림(228)을 생성하기 위해 이진 코딩 스테이지(226)의 출력 데이터를 사용할 수 있다. 일부 실시예에서, 비디오 비트스트림(228)은 네트워크 송신을 위해 더 패킷화될 수 있다.
프로세스(200A)의 재구성 경로를 참고하면, 역양자화 스테이지(218)에서, 인코더는 재구성된 변환 계수를 생성하기 위해 양자화된 변환 계수(216)에 역양자화를 수행할 수 있다. 역변환 스테이지(220)에서, 인코더는 재구성된 변환 계수에 기초하여, 재구성된 잔차 BPU(222)를 생성할 수 있다. 인코더는 프로세스(200A)의 다음 반복에서 사용될 예측 참조(224)를 생성하기 위해, 재구성된 잔차 BPU(222)를 예측된 BPU(208)에 더할 수 있다.
프로세스(200A)의 다른 변형은 비디오 시퀀스(202)를 인코딩하기 위해 사용될 수 있다는 것이 유의되어야 한다. 일부 실시예에서, 프로세스(200A)의 스테이지는 인코더에 의해 상이한 순서로 수행될 수 있다. 일부 실시예에서, 프로세스(200A)의 하나 이상의 스테이지는 단일 스테이지로 결합될 수 있다. 일부 실시예에서, 프로세스(200A)의 단일 스테이지는 다수의 스테이지로 분할될 수 있다. 예컨대, 변환 스테이지(212) 및 양자화 스테이지(214)가 단일 스테이지로 결합될 수 있다. 일부 실시예에서, 프로세스(200A)는 추가적인 스테이지를 포함할 수 있다. 일부 실시예에서, 프로세스(200A)는 도 2a에서의 하나 이상의 스테이지를 생략할 수 있다.
도 2b는 본 개시의 실시예와 일치하는, 다른 예시적인 인코딩 프로세스(200B)의 개략도를 도시한다. 프로세스(200B)는 프로세스(200A)로부터 수정될 수 있다. 예컨대, 프로세스(200B)는 하이브리드 비디오 인코딩 표준(예컨대, H.26x 시리즈)을 따르는 인코더에 의해 사용될 수 있다. 프로세스(200A)에 비해, 프로세스(200B)의 순방향 경로는 모드 결정 스테이지(230)를 추가적으로 포함하고, 예측 스테이지(204)를 공간 예측 스테이지(2042) 및 시간 예측 스테이지(2044)로 분할한다. 프로세스(200B)의 재구성 경로는 루프 필터 스테이지(232) 및 버퍼(234)를 추가적으로 포함한다.
일반적으로, 예측 기술은 두 개의 타입: 공간 예측 및 시간 예측으로 카테고리화될 수 있다. 공간 예측(예컨대, 인트라-픽처 예측 또는 "인트라 예측")은 현재 BPU를 예측하기 위해, 동일한 픽처에서 하나 이상의 이미 코딩된 이웃하는 BPU로부터의 픽셀을 사용할 수 있다. 즉, 공간 예측에서의 예측 참조(224)는 이웃하는 BPU를 포함할 수 있다. 공간 예측은 픽처의 내재적인 공간 중복성을 감소시킬 수 있다. 시간 예측(예컨대, 인터-픽처 예측 또는 "인터 예측")은 현재 BPU를 예측하기 위해 하나 이상의 이미 코딩된 픽처로부터의 영역을 사용할 수 있다. 즉, 시간 예측에서의 예측 참조(224)는 코딩된 픽처를 포함할 수 있다. 시간 예측은 픽처의 내재적인 시간 중복성을 감소시킬 수 있다.
프로세스(200B)를 참조하면, 순방향 경로에서, 인코더는 공간 예측 스테이지(2042) 및 시간 예측 스테이지(2044)에서 예측 동작을 수행한다. 예컨대, 공간 예측 스테이지(2042)에서, 인코더는 인트라 예측을 수행할 수 있다. 인코딩되는 픽처의 원본 BPU에 대해, 예측 참조(224)는 동일한 픽처에서 (순방향 경로에서) 인코딩되고 (재구성 경로에서) 재구성되는 하나 이상의 이웃하는 BPU를 포함할 수 있다. 인코더는 이웃하는 BPU를 외삽함으로써 예측된 BPU(208)를 생성할 수 있다. 외삽 기법은 예컨대, 선형 외삽(linear extrapolation) 또는 내삽(interpolation), 다항식 외삽 또는 내삽 등을 포함할 수 있다. 일부 실시예에서, 인코더는 가령, 예측된 BPU(208)의 각각의 픽셀에 대해 대응하는 픽셀의 값을 외삽함으로써, 픽셀 레벨에서 외삽을 수행할 수 있다. 외삽을 위해 사용된 이웃하는 BPU는 (예컨대, 원본 BPU의 상부에서) 수직 방향, (예컨대, 원본 BPU의 좌측에서) 수평 방향, (예컨대, 원본 BPU의 좌측-하단, 우측-하단, 좌측-상단 또는 우측-상단에서) 대각선 방향, 또는 사용된 비디오 코딩 표준에서 정의된 임의의 방향에서와 같은 다양한 방향으로부터 원본 BPU에 대해 위치될 수 있다. 인트라 예측에 대해, 예측 데이터(206)는 예컨대, 원본 BPU에 대한 사용된 이웃하는 BPU의 위치(예컨대, 좌표), 사용된 이웃하는 BPU의 크기, 외삽의 파라미터, 사용된 이웃하는 BPU의 방향 등을 포함할 수 있다.
다른 예에 대해, 시간 예측 스테이지(2044)에서, 인코더는 인터 예측을 수행할 수 있다. 현재 픽처의 원본 BPU에 대해, 예측 참조(224)는 (순방향 경로에서) 인코딩되고 (재구성된 경로에서) 재구성된 하나 이상의 픽처("참조 픽처"로 지칭됨)를 포함할 수 있다. 일부 실시예에서, 참조 픽처는 BPU별로 인코딩되고 재구성될 수 있다. 예컨대, 인코더는 재구성된 BPU를 생성하기 위해, 재구성된 잔차 BPU(222)를 예측된 BPU(208)에 더할 수 있다. 동일한 픽처의 모든 재구성된 BPU가 생성될 때, 인코더는 재구성된 픽처를 참조 픽처로서 생성할 수 있다. 인코더는 참조 픽처의 범주("검색 윈도우"로 지칭됨)에서 매칭 영역을 검색하기 위해, "움직임 추정"의 동작을 수행할 수 있다. 참조 픽처에서 검색 윈도우의 위치는 현재 픽처에서 원본 BPU의 위치에 기초하여 결정될 수 있다. 예컨대, 검색 윈도우는 현재 픽처에서 원본 BPU와 참조 픽처에서 동일한 좌표를 갖는 위치에 중심이 맞춰질 수 있고, 미리 결정된 거리에 대해 확장될 수 있다. 인코더가 검색 윈도우에서 원본 BPU와 유사한 영역을 (예컨대, 픽셀-순환 알고리즘(pel-recursive algorithm), 블록-매칭 알고리즘 등을 사용함으로써) 식별할 때, 인코더는 이러한 영역을 매칭 영역으로서 결정할 수 있다. 매칭 영역은 원본 BPU로부터 상이한 치수(예컨대, 그보다 작거나, 이와 동일하거나, 그보다 크거나 또는 상이한 형태인)를 가질 수 있다. 참조 픽처 및 현재 픽처가 (예컨대, 도 1에 도시된 바와 같이) 시간선에서 시간적으로 분리되기 때문에, 시간이 지남에 따라, 매칭 영역이 원본 BPU의 위치로 "이동하는" 것으로 여겨질 수 있다. 인코더는 "움직임 벡터"로서 이러한 움직임의 방향 및 거리를 기록할 수 있다. (예컨대, 도 1에서의 픽처(106)와 같이) 다수의 참조 픽처가 사용될 때, 인코더는 매칭 영역을 검색하고, 각각의 참조 픽처에 대해 그의 연관된 움직임 벡터를 결정할 수 있다. 일부 실시예에서, 인코더는 개개의 매칭 참조 픽처의 매칭 영역의 픽셀값에 대해 가중치를 할당할 수 있다.
움직임 추정은 예컨대, 병진(translation), 회전, 주밍(zooming) 등과 같은 다양한 타입의 움직임을 식별하기 위해 사용될 수 있다. 인터 예측에 대해, 예측 데이터(206)는 예컨대, 매칭 영역의 위치(예컨대, 좌표), 매칭 영역과 관련된 움직임 벡터, 참조 픽처의 개수, 참조 픽처와 연관된 가중치 등을 포함할 수 있다.
예측된 BPU(208)를 생성하기 위해, 인코더는 "움직임 보상"의 동작을 수행할 수 있다. 움직임 보상은 예측 데이터(206)(예컨대, 움직임 벡터) 및 예측 참조(224)에 기초하여 예측된 BPU(208)를 재구성하는데 사용될 수 있다. 예컨대, 인코더는 움직임 벡터에 따라 참조 픽처의 매칭 영역을 이동시킬 수 있으며, 여기서 인코더는 현재 픽처의 원본 BPU를 예측할 수 있다. 다수의 참조 픽처가 (예컨대, 도 1에서의 픽처로서) 사용될 때, 인코더는 매칭 영역의 각각의 움직임 벡터 및 평균 픽셀 값에 따라 참조 픽처의 매칭 영역을 이동시킬 수 있다. 일부 실시예에서, 인코더가 각각의 매칭 참조 픽처의 매칭 영역의 픽셀값에 가중치를 할당한 경우, 인코더는 이동된 매칭 영역의 픽셀값의 가중치 합을 더할 수 있다.
일부 실시예에서, 인터 예측은 단방향 또는 양방향일 수 있다. 단방향 인터 예측은 현재 픽처에 대해 동일한 시간 방향으로 하나 이상의 참조 픽처를 사용할 수 있다. 예컨대, 도 1에서의 픽처(104)는 참조 픽처(즉, 픽처(102))가 픽처(104)에 선행하는 단방향 인터-예측된 픽처이다. 양방향 인터 예측은 현재 픽처에 대해 시간 방향 둘 모두에서 하나 이상의 참조 픽처를 사용할 수 있다. 예컨대, 도 1에서의 픽처(106)는 참조 픽처(즉, 픽처(104 및 108))가 픽처(104)에 대해 시간 방향 둘 모두에 있는 양방향 인터-예측된 픽처이다.
프로세스(200B)의 순방향 경로를 계속 참조하면, 공간 예측 스테이지(2042) 및 시간 예측 스테이지(2044) 이후에, 모드 결정 스테이지(230)에서, 인코더는 프로세스(200B)의 현재 반복에 대해 예측 모드(예컨대, 인트라 예측 또는 인터 예측 중 하나)를 선택할 수 있다. 예컨대, 인코더는 레이트-왜곡 최적화 기술(rate-distortion optimization technique)을 수행할 수 있으며, 여기서 인코더는 후보 예측 모드의 비트레이트 및 후보 예측 모드 하에서 재구성된 참조 픽처의 왜곡에 의존하여, 비용 함수의 값을 최소화하기 위해 예측 모드를 선택할 수 있다. 선택된 예측 모드에 의존하여, 인코더는 대응하는 예측된 BPU(208) 및 예측된 데이터(206)를 생성할 수 있다.
프로세스(200B)의 재구성 경로에서, 순방향 경로에서 인트라 예측 모드가 선택된 경우, 예측 참조(224)(예컨대, 현재 픽처에서 인코딩되고 재구성된 현재 BPU)를 생성한 이후에, 인코더는 차후 사용을 위해(예컨대, 현재 픽처의 다음 BPU의 외삽을 위해), 예측 참조(224)를 공간 예측 스테이지(2042)로 직접적으로 공급할 수 있다. 인코더는 예측 참조(224)의 코딩 동안에 도입된 왜곡(예컨대, 블로킹 아티팩트(blocking artifacts))을 감소시키거나 제거하기 위해 인코더가 예측 참조(224)에 루프 필터를 적용할 수 있는 루프 필터 스테이지(232)에 예측 참조(224)를 공급할 수 있다. 인코더는 예컨대, 디블로킹(deblocking), 샘플 적응적 오프셋, 적응적 루프 필터 등과 같은 다양한 루프 필터 기법을 루프 필터 스테이지(232)에 적용할 수 있다. 루프-필터링된 참조 픽처는 차후 사용을 위해(예컨대, 비디오 시퀀스(202)의 향후 픽처에 대한 인터-예측 참조 픽처로서 사용되기 위해) 버퍼(234)(또는 "디코딩된 픽처 버퍼")에 저장될 수 있다. 인코더는 시간 예측 스테이지(2044)에서 사용되도록 버퍼(234)에 하나 이상의 참조 픽처를 저장할 수 있다. 일부 실시예에서, 인코더는 양자화된 변환 계수(216), 예측 데이터(206) 및 다른 정보와 함께, 이진 코딩 스테이지(226)에서 루프 필터의 파라미터(예컨대, 루프 필터 강도)를 인코딩할 수 있다.
도 3a는 본 개시의 실시예와 일치하는 예시적인 디코딩 프로세스(300A)의 개략도를 도시한다. 프로세스(300A)는 도 2a에서의 압축 프로세스(200A)에 대응하는 압축 해제 프로세스일 수 있다. 일부 실시예에서, 프로세스(300A)는 프로세스(200A)의 재구성 경로와 유사할 수 있다. 디코더는 프로세스(300A)에 따라 비디오 비트스트림(228)을 비디오 스트림(304)으로 디코딩할 수 있다. 비디오 스트림(304)은 비디오 시퀀스(202)와 매우 유사할 수 있다. 하지만, 압축 및 압축 해제 프로세스(예컨대, 도 2a-2b에서의 양자화 스테이지(214))에서의 정보 손실에 기인하여, 일반적으로 비디오 스트림(304)은 비디오 시퀀스(202)와 동일하지 않다. 도 2a-2b에서의 프로세스(200A 및 200B)와 유사하게, 디코더는 비디오 비트스트림(228)에서 인코딩된 각각의 픽처에 대해 기본 처리 유닛(BPU)의 레벨에서 프로세스(300A)를 수행할 수 있다. 예컨대, 디코더는 반복적인 방식으로 프로세스(300A)를 수행할 수 있으며, 여기서 디코더는 프로세스(300A)의 한 번의 반복으로 기본 처리 유닛을 디코딩할 수 있다. 일부 실시예에서, 디코더는 비디오 비트스트림(228)에서 인코딩된 각각의 픽처의 영역(예컨대, 영역(114 내지 118))에 대해 병렬로 프로세스(300A)를 수행할 수 있다.
도 3a에서, 디코더는 인코딩된 픽처의 기본 처리 유닛("인코딩된 BPU"로 지칭됨)과 연관된 비디오 비트스트림(228)의 부분을 이진 디코딩 스테이지(302)로 공급할 수 있다. 이진 디코딩 스테이지(302)에서, 디코더는 그 부분을 예측 데이터(206) 및 양자화된 변환 계수(216)로 디코딩할 수 있다. 디코더는 재구성된 잔차 BPU(222)를 생성하기 위해 양자화된 변환 계수(216)를 역양자화 스테이지(218) 및 역변환 스테이지(220)에 공급할 수 있다. 디코더는 예측된 BPU(208)를 생성하기 위해 예측 데이터(206)를 예측 스테이지(204)로 공급할 수 있다. 디코더는 예측된 참조(224)를 생성하기 위해 재구성된 잔차 BPU(222)를 예측된 BPU(208)에 더할 수 있다. 일부 실시예에서, 예측된 참조(224)는 버퍼(예컨대, 컴퓨터 메모리의 디코딩된 픽처 버퍼)에 저장될 수 있다. 디코더는 프로세스(300A)의 다음 반복에서 예측 동작을 수행하기 위해, 예측된 참조(224)를 예측 스테이지(204)에 공급할 수 있다.
디코더는 인코딩된 픽처의 각각의 인코딩된 BPU를 디코딩하고, 인코딩된 픽처의 다음 인코딩된 BPU를 인코딩하기 위해 예측된 참조(224)를 생성하도록, 프로세스(300A)를 반복적으로 수행할 수 있다. 인코딩된 픽처의 모든 인코딩된 BPU를 디코딩한 이후에, 디코더는 디스플레이를 위해 픽처를 비디오 스트림(304)에 출력하고, 비디오 비트스트림(228)에서 다음 인코딩된 픽처를 디코딩하도록 진행할 수 있다.
이진 디코딩 스테이지(302)에서, 디코더는 인코더에 의해 사용된 이진 코딩 기법(예컨대, 엔트로피 코딩, 가변 길이 코딩, 산술 코딩, 허프만 코딩, 컨텍스트-적응적 이진 산술 코딩 또는 임의의 다른 무손실 압축 알고리즘)의 역동작을 수행할 수 있다. 일부 실시예에서, 예측 데이터(206) 및 양자화된 변환 계수(216) 이외에, 디코더는 예컨대, 예측 모드, 예측 동작의 파라미터, 변환 타입, 양자화 프로세스의 파라미터(예컨대, 양자화 파라미터), 인코더 제어 파라미터(예컨대, 비트레이트 제어 파라미터) 등과 같은 다른 정보를 이진 디코딩 스테이지(302)에서 디코딩할 수 있다. 일부 실시예에서, 비디오 비트스트림(228)이 네트워크를 통해 패킷으로 송신되는 경우, 디코더는 이를 이진 디코딩 스테이지(302)에 공급하기 전에, 비디오 비트스트림(228)을 디패킷화(depacketize)할 수 있다.
도 3b는 본 개시의 일부 실시예와 일치하는 다른 예시적인 디코딩 프로세스(300B)의 개략도를 도시한다. 프로세스(300B)는 프로세스(300A)로부터 수정될 수 있다. 예컨대, 프로세스(300B)는 하이브리드 비디오 코딩 표준(예컨대, H.26x 시리즈)에 따르는 디코더에 의해 사용될 수 있다. 프로세스(300A)와 비교하면, 프로세스(300B)는 예측 스테이지(204)를 공간 예측 스테이지(2042) 및 시간 예측 스테이지(2044)로 추가적으로 분할하고, 루프 필터 스테이지(232) 및 버퍼(234)를 추가적으로 포함한다.
프로세스(300B)에서, 디코딩되는 인코딩된 픽처("현재 픽처"로 지칭됨)의 인코딩된 기본 처리 유닛("현재 BPU"로 지칭됨)에 대해, 디코더에 의해 이진 디코딩 스테이지(302)로부터 디코딩된 예측 데이터(206)는 인코더에 의해 현재 BPU를 인코딩하는 데 어느 예측 모드가 사용되었는지에 의존하여, 다양한 타입의 데이터를 포함할 수 있다. 예컨대, 현재 BPU를 인코딩하기 위해, 인코더에 의해 인트라 예측이 사용된 경우, 예측 데이터(206)는 인트라 예측을 나타내는 예측 모드 표시자(예컨대, 플래그 값), 인트라 예측 동작의 파라미터 등을 포함할 수 있다. 인트라 예측 동작의 파라미터는 예컨대, 참조로서 사용된 하나 이상의 이웃하는 BPU의 위치(예컨대, 좌표), 이웃하는 BPU의 크기, 외삽의 파라미터, 원본 BPU에 대한 이웃하는 BPU의 방향 등을 포함할 수 있다. 다른 예에 대해, 현재 BPU를 인코딩하기 위해, 인코더에 의해 인터 예측이 사용된 경우, 예측 데이터(206)는 인터 예측을 나타내는 예측 모드 표시자(예컨대, 플래그 값), 인터 예측 동작의 파라미터 등을 포함할 수 있다. 인터 예측 동작의 파라미터는 예컨대, 현재 BPU와 연관된 참조 픽처의 개수, 참조 픽처와 각각 연관된 가중치, 각각의 참조 픽처에서의 하나 이상의 매칭 영역의 위치(예컨대, 좌표), 매칭 영역과 각각 연관된 하나 이상의 움직임 벡터 등을 포함할 수 있다.
예측 모드 표시자에 기초하여, 디코더는 공간 예측 스테이지(2042)에서 공간 예측(예컨대, 인트라 예측)을 수행할지, 또는 시간 예측 스테이지(2044)에서 시간 예측(예컨대, 인터 예측)을 수행할지를 결정할 수 있다. 이러한 공간 예측 또는 시간 예측을 수행하는 것에 대한 세부사항이 도 2b에서 설명되고, 이하에서는 반복되지 않을 것이다. 이러한 공간 예측 또는 시간 예측을 수행한 이후에, 디코더는 예측된 BPU(208)를 생성할 수 있다. 도 3a에서 설명된 바와 같이, 디코더는 예측 참조(224)를 생성하기 위해 예측된 BPU(208) 및 재구성된 잔차 BPU(222)를 더한다.
프로세스(300B)에서, 디코더는 프로세스(300B)의 다음 반복에서 예측 동작을 수행하기 위해, 예측된 참조(224)를 공간 예측 스테이지(2042) 또는 시간 예측 스테이지(2044)에 공급할 수 있다. 예컨대, 현재 BPU가 공간 예측 스테이지(2042)에서 인트라 예측을 사용하여 디코딩되는 경우, 예측 참조(224)(예컨대, 디코딩된 현재 BPU)를 생성한 이후에, 디코더는 차후 사용을 위해(예컨대, 현재 픽처의 다음 BPU의 외삽을 위해) 예측 참조(224)를 공간 예측 스테이지(2042)에 직접적으로 공급할 수 있다. 현재 BPU가 시간 예측 스테이지(2044)에서 인터 예측을 사용하여 디코딩되는 경우, 예측 참조(224)(예컨대, 모든 BPU가 디코딩된 참조 픽처)를 생성한 이후에, 디코더는 왜곡(예컨대, 블로킹 아티팩트)을 감소시키거나 제거하기 위해, 예측 참조(224)를 루프 필터 스테이지(232)에 공급할 수 있다. 도 2b에 설명된 방식으로, 디코더는 루프 필터를 예측 참조(224)에 적용할 수 있다. 루프-필터링된 참조 픽처는 차후 사용을 위해(예컨대, 비디오 비트스트림(228)의 향후 인코딩된 픽처에 대한 인터-예측 참조 픽처로서 사용되도록) 버퍼(234)(예컨대, 컴퓨터 메모리의 디코딩된 픽처 버퍼)에 저장될 수 있다. 디코더는 시간 예측 스테이지(2044)에서 사용되도록 버퍼(234)에 하나 이상의 참조 픽처를 저장할 수 있다. 일부 실시예에서, 예측 데이터는 루프 필터의 파라미터(예컨대, 루프 필터 강도)를 더 포함할 수 있다. 일부 실시예에서, 예측 데이터는, 예측 데이터(206)의 예측 모드 표시자가 현재 BPU를 인코딩하기 위해 인터 예측이 사용되었음을 나타낼 때, 루프 필터의 파라미터를 포함한다.
도 4는 본 개시의 일부 실시예와 일치하는, 비디오를 인코딩하거나 또는 디코딩하기 위한 예시적인 장치(400)의 블록도이다. 도 4에 도시된 바와 같이, 장치(400)는 프로세서(402)를 포함할 수 있다. 프로세서(402)가 본원에서 설명된 명령어를 실행할 때, 장치(400)는 비디오 인코딩 또는 디코딩을 위한 특별화된 기계가 될 수 있다. 프로세서(402)는 정보를 조작하거나 또는 처리할 수 있는 임의의 타입의 회로일 수 있다. 예컨대, 프로세서(402)는 중앙 처리 유닛(또는 "CPU"), 그래픽 처리 유닛(또는 "GPU"), 신경 처리 유닛(neural processing unit, "NPU"), 마이크로제어기 유닛(microcontroller unit, "MCU"), 광학 프로세서, 프로그래머블 로직 제어기, 마이크로제어기, 마이크로프로세서, 디지털 신호 프로세서, 지적 재산권(intellectual property, IP) 코어, 프로그래머블 로직 어레이(Programmable Logic Array, PLA), 프로그래머블 어레이 로직(Programmable Array Logic, PAL), 일반 어레이 로직(Generic Array Logic, GAL), 복합 프로그래머블 논리 디바이스(Complex Programmable Logic Device, CPLD), 현장 프로그래머블 게이트 어레이(Field-Programmable Gate Array, FPGA), 시스템 온 칩(System On Chip, SoC), 애플리케이션-특정 집적 회로(Application-Specific Integrated Circuit, ASIC) 등의 임의의 개수의 임의의 조합을 포함할 수 있다. 일부 실시예에서, 프로세서(402)는 또한, 단일 로직 구성요소로서 그룹화되는 프로세서의 세트일 수 있다. 예컨대, 도 4에 도시된 바와 같이, 프로세서(402)는 프로세서(402a), 프로세서(402b) 및 프로세서(402n)를 포함하는 다수의 프로세서를 포함할 수 있다.
장치(400)는 또한, 데이터(예컨대, 명령어의 세트, 컴퓨터 코드, 중간 데이터 등)를 저장하도록 구성되는 메모리(404)를 포함할 수 있다. 예컨대, 도 4에 도시된 바와 같이, 저장된 데이터는 프로그램 명령어(예컨대, 프로세스(200A, 200B, 300A 또는 300B)에서의 스테이지를 구현하기 위한 프로그램 명령어) 및 처리를 위한 데이터(예컨대, 비디오 시퀀스(202), 비디오 비트스트림(228) 또는 비디오 스트림(304))를 포함할 수 있다. 프로세서(402)는 프로그램 명령어 및 처리를 위한 데이터에 (예컨대, 버스(410)를 통해) 액세스할 수 있고, 처리를 위한 데이터에 대해 동작 또는 조작을 수행하기 위해 프로그램 명령어를 실행할 수 있다. 메모리(404)는 고속 랜덤 액세스 저장 디바이스 또는 비-휘발성 저장 디바이스를 포함할 수 있다. 일부 실시예에서, 메모리(404)는 랜덤-액세스 메모리(random-access memory, RAM), 읽기-전용 메모리(ROM), 광학 디스크, 자기 디스크, 하드 드라이브, 솔리드-스테이트 드라이브(solid-state drive), 플래시 드라이브, 보안 디지털(SD) 카드, 메모리 스틱, 콤팩트 플래시(compact flash, CF) 카드 등의 임의의 개수의 임의의 조합을 포함할 수 있다. 메모리(404)는 또한, 단일 로직 구성요소로서 그룹화되는 메모리의 그룹(도 4에 미도시됨)일 수 있다.
버스(410)는 내부 버스(예컨대, CPU-메모리 버스), 외부 버스(예컨대, 통합 직렬 버스 포트(universal serial bus port,), 주변 구성요소 상호연결 고속 포트(peripheral component interconnect express port)) 등과 같은, 장치(400) 내의 구성요소 사이에서 데이터를 전송하는 통신 디바이스일 수 있다.
모호성을 야기하지 않으면서 설명의 용이함을 위해, 프로세서(402) 및 다른 데이터 처리 회로는 본 개시에서, 집합적으로 "데이터 처리 회로"로 지칭된다. 데이터 처리 회로는 전체적으로 하드웨어로 구현되거나, 또는 소프트웨어, 하드웨어 또는 펌웨어의 조합으로 구현될 수 있다. 덧붙여, 데이터 처리 회로는 단일 독립 모듈이거나, 또는 장치(400)의 임의의 다른 구성요소로 전체적으로 또는 부분적으로 결합될 수 있다.
장치(400)는 네트워크(예컨대, 인터넷, 인트라넷, 근거리 통신망, 모바일 통신 네트워크 등)와의 유선 통신 또는 무선 통신을 제공하기 위해 네트워크 인터페이스(406)를 더 포함할 수 있다. 일부 실시예에서, 네트워크 인터페이스(406)는 네트워크 인터페이스 제어기(network interface controller, NIC), 무선 주파수(radio frequency, RF) 모듈, 트랜스폰더(transponder), 트랜시버, 모뎀, 라우터, 게이트웨이, 유선 네트워크 어댑터, 무선 네트워크 어댑터, 블루투스 어댑터, 적외선 어댑터, 근거리 통신("NFC") 어댑터, 셀룰러 네트워크 칩 등의 임의의 개수의 임의의 조합을 포함할 수 있다.
일부 실시예에서, 선택적으로, 장치(400)는 하나 이상의 주변 디바이스에 대한 연결을 제공하기 위한 주변 인터페이스(408)를 더 포함할 수 있다. 도 4에 도시된 바와 같이, 주변 디바이스는 커서 제어 디바이스(예컨대, 마우스, 터치패드 또는 터치스크린), 키보드, 디스플레이(예컨대, 음극선관 디스플레이, 액정 디스플레이 또는 발광 다이오드 디스플레이), 비디오 입력 디바이스(예컨대, 비디오 아카이브(video archive)에 결합된 입력 인터페이스 또는 카메라) 등을 포함할 수 있지만, 이에 제한되지 않는다.
비디오 코덱(예컨대, 프로세스(200A, 200B, 300A 또는 300B)를 수행하는 코덱)이 장치(400)에서 임의의 소프트웨어 또는 하드웨어 모듈의 임의의 조합으로 구현될 수 있다는 것이 유의되어야 한다. 예컨대, 프로세스(200A, 200B, 300A 또는 300B)의 일부 또는 모든 스테이지는 메모리(404)에 로딩될 수 있는 프로그램 명령어와 같은 장치(400)의 하나 이상의 소프트웨어 모듈로서 구현될 수 있다. 다른 예에 대해, 프로세스(200A, 200B, 300A 또는 300B)의 일부 또는 모든 스테이지는 특수화된 데이터 처리 회로(예컨대, FPGA, ASIC, NPU 등)와 같은 장치(400)의 하나 이상의 하드웨어 모듈로서 구현될 수 있다.
도 5는 팔레트 모드에서 코딩된 CU의 예시를 도시한다. VVC 드래프트 8에서, 팔레트 모드는 모노크롬(monochrome), 4:2:0, 4:2:2 및 4:4:4 색상 포맷으로 사용될 수 있다. 팔레트 모드가 인에이블될 때, CU 크기가 64x64 이하이고 16개의 샘플보다 크면, 팔레트 모드가 사용되는지를 나타내는 플래그가 CU 레벨에서 전송된다. 팔레트 모드가 (현재) CU(500)를 코딩하는 데 사용되는 경우, CU의 각각의 포지션에 있는 샘플 값은 작은 세트의 대표 색상 값으로 표현된다. 세트는 팔레트(510)로 지칭된다. 팔레트 색상(501, 502, 503)에 가까운 값을 갖는 샘플 포지션에 대해, 대응하는 팔레트 인덱스가 시그널링된다. 이스케이프 인덱스(504)를 시그널링함으로써 팔레트 외부에 있는 색상 값을 지정하는 것이 또한 가능하다. 그런 다음, 이스케이프 색상 인덱스를 사용하는 CU에서의 모든 포지션에 대해, (양자화된) 색상 성분 값이 이 포지션 각각에 대해 시그널링된다.
팔레트의 코딩을 위해, 팔레트 예측자가 유지된다. 도 6은 각각의 코딩 유닛(600)을 인코딩한 후 팔레트 예측자를 업데이트하기 위한 예시적인 프로세스를 도시한다. 예측자는 비-웨이브프론트(non-wavefront)의 경우 각각의 슬라이스의 시작에서, 그리고 웨이브프론트의 경우 각각의 CTU 행의 시작에서 0(예컨대, 비어 있음)으로 초기화된다. 팔레트 예측자에서의 각각의 엔트리에 대해, 그것이 현재 CU의 현재 팔레트에 포함될 것인지를 나타내기 위해 재사용 플래그가 시그널링된다. 재사용 플래그는 제로의 런-렝스 코딩을 사용하여 전송된다. 이것 이후에, 새로운 팔레트 엔트리의 수 및 새로운 팔레트 엔트리에 대한 성분 값이 시그널링된다. 팔레트 코딩된 CU를 인코딩한 이후에, 팔레트 예측자는 현재 팔레트를 사용하여 업데이트될 것이고, 현재 팔레트에서 재사용되지 않는 이전 팔레트 예측자로부터의 엔트리는 허용된 최대 크기에 도달할 때까지 새로운 팔레트 예측자의 끝에 추가된다.
이스케이프 플래그가 현재 CU에 존재하는지를 나타내기 위해, 각각의 CU에 대해 이스케이프 플래그가 시그널링된다. 이스케이프 심볼이 존재하면, 팔레트 표는 하나씩 증분되고, 마지막 인덱스는 이스케이프 심볼에 할당된다. 도 5의 예에 도시된 바와 같이, CU 내의 샘플의 팔레트 인덱스는 팔레트 인덱스 맵을 형성한다. 인덱스 맵은 수평 또는 수직 트래버스 스캔(horizontal or vertical traverse scans)을 사용하여 코딩된다. 스캔 순서는 palette_transpose_flag를 사용하여 비트스트림에서 명시적으로 시그널링된다. 팔레트 인덱스 맵은 인덱스-실행 모드(index-run mode) 또는 인덱스-복사 모드(index-copy mode)를 사용하여 코딩된다.
VVC 드래프트 8에서, 디블로킹 필터 프로세스는 블록 경계를 정의하는 것, 정의된 블록 경계를 따라 2개의 이웃 블록의 코딩 모드에 기초하여 경계 필터링 강도를 도출하는 것, 필터링될 샘플의 수를 도출하는 것, 및 디블로킹 필터를 샘플에 적용하는 것을 포함한다. 에지가 코딩 유닛, 코딩 서브블록 유닛 또는 변환 유닛 경계인 경우, 에지는 블록 경계로 정의된다. 그런 다음, 다음 6개의 규칙에 따라 2개의 이웃하는 블록의 코딩 모드에 기초하여 경계 필터링 강도가 계산된다. (1) 2개의 코딩 블록 둘 모두가 BDPCM 모드에서 코딩된 경우, 경계 필터 강도는 0으로 설정된다. (2) 그렇지 않고, 코딩 블록 중 하나가 인트라 모드에서 코딩된 경우, 경계 필터 강도는 2로 설정된다. (3) 그렇지 않고, 코딩 블록 중 하나가 CIIP 모드에서 코딩된 경우, 경계 필터 강도는 2로 설정된다. (4) 그렇지 않고, 코딩 블록 중 하나가 하나 이상의 0이 아닌 계수 레벨을 포함하는 경우, 경계 필터 강도는 1로 설정된다. (5) 그렇지 않고, 블록 중 하나가 IBC 모드에서 코딩되고 남은 하나의 블록이 인터 모드에서 코딩된 경우, 경계 필터 강도는 1로 설정된다. (6) 그렇지 않은 경우(2개의 블록 둘 모두가 IBC 또는 인터 모드에서 코딩됨), 경계 필터 강도를 도출하기 위해 2개의 블록의 참조 픽처 및 모션 벡터가 사용된다.
VVC 드래프트 8은 경계 필터링 강도를 계산하는 프로세스에 대한 보다 자세한 설명을 제공한다. 구체적으로, VVC 드래프트 8은 8개의 순차적이고 철저한 시나리오를 제공한다. 시나리오 1에서, cIdx가 0과 같고 샘플 p0 및 q0 둘 모두가 intra_bdpcm_luma_flag가 1과 같은 코딩 블록에 있으면, bS[xDi][yDj]는 0과 동일하게 설정된다. 그렇지 않고, 시나리오 2에서, cIdx가 0보다 크고 샘플 p0 및 q0 둘 모두가 intra_bdpcm_chroma_flag가 1과 같은 코딩 블록에 있으면, bS[xDi][yDj]는 0으로 설정된다. 그렇지 않고, 시나리오 3에서, 샘플 p0 또는 q0이 인트라 예측 모드로 코딩된 코딩 유닛의 코딩 블록에 있으면, bS[xDi][yDj]는 2와 동일하게 설정된다. 그렇지 않고, 시나리오 4에서, 블록 에지가 코딩 블록 에지이고 샘플 p0 또는 q0이 ciip_flag가 1과 같은 코딩 블록에 있으면, bS[xDi][yDj]는 2와 동일하게 설정된다. 그렇지 않고, 시나리오 5에서, 블록 에지가 변환 블록 에지이고 샘플 p0 또는 q0이 하나 이상의 0이 아닌 변환 계수 레벨을 포함하는 변환 블록에 있는 경우, bS[xDi][yDj]는 1과 동일하게 설정된다. 그렇지 않고, 시나리오 6에서, 샘플 p0를 포함하는 코딩 서브블록의 예측 모드가 샘플 q0을 포함하는 코딩 서브블록의 예측 모드와 상이한 경우(즉, 코딩 서브블록 중 하나는 IBC 예측 모드에서 코딩되고 다른 하나는 인터 예측 모드에서 코딩됨), bS[xDi][yDj]는 1과 동일하게 설정된다.
그렇지 않고, 시나리오 7에서, cIdx가 0과 같고 edgeFlags[xDi][yDj]가 2와 같고, 다음 조건 중 하나 이상이 참이면, bS[xDi][Dj]는 1과 동일하게 설정된다.
조건 (1): 샘플 p0를 포함하는 코딩 서브블록 및 샘플 q0을 포함하는 코딩 서브블록 둘 모두는 IBC 예측 모드에서 코딩되고, 2개의 코딩 서브블록의 예측에 사용된 블록 벡터의 수평 또는 수직 성분 간의 절대 차이는 1/16 루마 샘플의 유닛에서 8보다 크거나 같다.
조건 (2): 샘플 p0를 포함하는 코딩 서브블록의 예측에 대해, 샘플 q0을 포함하는 코딩 서브블록의 예측에 대한 것과 상이한 참조 픽처 또는 다른 수의 모션 벡터가 사용된다. 조건 (2)에 대해, 2개의 코딩 서브블록에 사용된 참조 픽처가 동일하거나 상이한지의 결정은, 참조 픽처 목록 0에 대한 인덱스 또는 참조 픽처 목록 1에 대한 인덱스를 사용하여 예측이 형성되는지와 상관없이, 그리고 또한 참조 픽처 목록 내의 인덱스 포지션이 상이한지와 상관없이, 어떤 픽처가 참조되는지에만 기초한다는 것이 유의된다. 또한, 조건 (2)에 대해, 좌측 상부 샘플 커버링(xSb, ySb)을 갖는 코딩 서브블록의 예측에 사용되는 모션 벡터의 수는 PredFlagL0 [xSb][ySb] + PredFlagL1[xSb][ySb]와 동일하다는 것이 유의된다.
조건 (3): 하나의 모션 벡터는 샘플 p0를 포함하는 코딩 서브블록을 예측하는 데 사용되며, 하나의 모션 벡터는 샘플 q0을 포함하는 코딩 서브블록을 예측하는 데 사용되며, 사용된 모션 벡터의 수평 또는 수직 성분 간의 절대 차이는 1/16 루마 샘플의 유닛에서 8보다 크거나 같다.
조건 (4): 샘플 p0를 포함하는 코딩 서브블록을 예측하기 위해 2개의 모션 벡터 및 2개의 상이한 참조 픽처가 사용되며, 샘플 q0를 포함하는 코딩 서브블록을 예측하기 위해 동일한 2개의 참조 픽처에 대한 2개의 모션 벡터가 사용되고, 동일한 참조 픽처에 대한 2개의 코딩 서브블록의 예측에 사용되는 2개의 모션 벡터의 수평 또는 수직 성분 사이의 절대 차이는 1/16 루마 샘플의 유닛에서 8보다 크거나 같다.
조건 (5): 샘플 p0을 포함하는 코딩 서브블록을 예측하기 위해 동일한 참조 픽처에 대한 2개의 모션 벡터가 사용되고, 샘플 q0을 포함하는 코딩 서브블록을 예측하기 위해 동일한 참조 픽처에 대한 2개의 모션 벡터가 사용되고, 다음 조건 둘 모두는 참이다. 조건(5.1): 2개의 코딩 서브블록의 예측에 사용된 목록 0 모션 벡터의 수평 또는 수직 성분 사이의 절대 차이는 1/16 루마 샘플의 유닛에서 8보다 크거나 같거나, 또는 2개의 코딩 서브블록의 예측에 사용된 목록 1 모션 벡터의 수평 또는 수직 성분 사이의 절대 차이는 1/16 루마 샘플의 유닛에서 8보다 크거나 같다. 조건(5.2): 샘플 p0을 포함하는 코딩 서브블록의 예측에 사용된 목록 0 모션 벡터 및 샘플 q0을 포함하는 코딩 서브블록의 예측에 사용된 목록 1 모션 벡터의 수평 또는 수직 성분 사이의 절대 차이는 1/16 루마 샘플의 유닛에서 8보다 크거나 같거나, 또는 샘플 p0을 포함하는 코딩 서브블록의 예측에 사용된 목록 1 모션 벡터 및 샘플 q0을 포함하는 코딩 서브블록의 예측에 사용된 목록 0 모션 벡터의 수평 또는 수직 성분 사이의 절대 차이는 1/16 루마 샘플의 유닛에서 8보다 크거나 같다.
그렇지 않고, 이전 7개의 시나리오 중 어느 것도 충족되지 않으면, 시나리오 8에서, 변수 bS[xDi][yDj]가 0과 동일하게 설정된다. 경계 필터 강도를 도출한 후, 필터링될 샘플의 수가 도출되고, 샘플에 디블로킹 필터가 적용된다. 팔레트 모드에서 블록이 코딩될 때, 샘플의 수가 0과 동일하게 설정된다는 것이 유의된다. 이것은, 팔레트 모드에서 코딩된 블록에 디블로킹 필터가 적용되지 않음을 의미한다.
앞서 언급된 바와 같이, 블록에 대한 현재 팔레트의 구성은 2개의 부분을 포함한다. 첫째, 현재 팔레트의 엔트리는 팔레트 예측자로부터 예측될 수 있다. 팔레트 예측자의 각각의 엔트리에 대해, 이 엔트리가 현재 팔레트에 포함되는지 여부를 나타내기 위해 재사용 플래그가 시그널링된다. 둘째, 현재 팔레트 엔트리의 성분 값이 직접 시그널링될 수 있다. 현재 팔레트가 획득된 후, 팔레트 예측자는 현재 팔레트를 사용하여 업데이트된다. 도 7은 VVC 드래프트 8의 섹션 7.3.10.6(팔레트 코딩 신택스)의 일부를 도시한다. 팔레트 코딩된 블록의 신택스를 파싱할 때, 재사용 플래그(즉, 도 7의 "palette_predictor_run"(701))가 먼저 디코딩되고, 다음에 새로운 팔레트 엔트리(즉, 도 7의 "num_signalled_palette_entries"(702) 및 "new_palette_entries"(703))의 성분 값이 디코딩된다. VVC 드래프트 8에서, 팔레트 예측자 엔트리의 수(즉, 도 7의 "PredictorPaletteSize[ startComp ]"(704))는, 재사용 플래그를 파싱하기 전에 알려질 필요가 있다. 즉, 2개의 이웃하는 블록 둘 모두가 팔레트 모드에서 코딩될 때, 제1 블록의 팔레트 예측자 업데이팅 프로세스가 완료될 때까지, 제2 블록의 신택스가 파싱될 수 없다.
그러나, 종래의 팔레트 예측자 업데이팅 프로세스에서, 각각의 엔트리의 재사용 플래그가 검사되어야 한다. 더 열악한 시나리오에서, 최대 63번의 검사가 필요로 된다. 이러한 종래의 설계는 적어도 2개의 이유로 하드웨어 친화적이지 않을 수 있다. 첫째, 컨텍스트 기반 적응 이진 산술 코딩(CABAC) 파싱은, 팔레트 예측자가 완전히 업데이트될 때까지 기다려야 한다. 일반적으로, CABAC 파싱은 하드웨어에서 가장 느린 모듈이다. 이것은 CABAC 처리량을 감소시킬 수 있다. 둘째, CABAC 파싱 스테이지에서 팔레트 예측자 업데이팅 프로세스가 구현될 때, 하드웨어에 부담이 될 수 있다.
추가적으로, 이러한 종래의 설계의 또 다른 문제는 경계 필터 강도가 팔레트 모드에 대해 정의되지 않는다는 것이다. 이웃하는 블록 중 하나가 팔레트 모드에서 코딩되고 다른 이웃하는 블록이 IBC 또는 인터 모드에서 코딩되는 경우, 경계 필터 강도가 정의되지 않는다.
본 개시의 실시예는 위에서 설명된 하나 이상의 문제를 해결하기 위한 구현을 제공한다. 이들 실시예는 팔레트 예측자 업데이팅 프로세스를 개선하여, 위에서 설명된 팔레트 예측 프로세스 또는 유사한 프로세스를 구현하는 시스템에 대한 효율성, 속도 및 자원 소비를 증가시킬 수 있다.
일부 실시예에서, 팔레트 예측자 업데이팅 프로세스는 자신의 복잡성을 감소시키도록 단순화되고, 이로써 하드웨어 자원을 확보한다. 도 8은 본 개시의 실시예에 따른 팔레트 예측자 업데이팅 프로세스(800)의 흐름도를 도시한다. 방법(800)은 인코더(예컨대, 도 2a의 프로세스(200A) 또는 도 2b의 프로세스(200B)), 디코더(예컨대, 도 3a의 프로세스(300A) 또는 도 3b의 프로세스(300B))에 의해 수행되거나 또는 장치(예컨대, 도 4의 장치(400))의 하나 이상의 소프트웨어 또는 하드웨어 구성요소에 의해 수행될 수 있다. 예컨대, 프로세서(예컨대, 도 4의 프로세서(402))는 방법(800)을 수행할 수 있다. 일부 실시예에서, 방법(800)은, 컴퓨터(예컨대, 도 4의 장치(400))에 의해 실행되는 프로그램 코드와 같은 컴퓨터 실행 가능 명령어를 포함하는, 컴퓨터 판독가능 매체에 구현된 컴퓨터 프로그램 제품에 의해 구현될 수 있다. 도 8을 참조하면, 방법(800)은 다음의 단계(802-804)를 포함할 수 있다.
단계(802)에서, 팔레트 예측자를 업데이트할 때, 현재 팔레트의 모든 팔레트 엔트리가 새로운 팔레트 예측자 앞에 제1 세트의 엔트리로서 추가된다. 단계(804)에서, 이전 팔레트 예측자로부터의 모든 팔레트 엔트리는, 엔트리가 현재 팔레트에서 제2 세트의 엔트리로서 재사용되는지 여부와 상관없이, 새로운 팔레트 예측자의 끝에 추가되고, 제2 세트의 엔트리는 제1 세트의 엔트리 이후에 있다.
예컨대, 도 9는 도 8에 설명된 프로세스와 일치하는 단순화된 팔레트 예측자 업데이팅 프로세스를 제공한다. 현재 팔레트는 프로세스(901) 및 프로세스(902)에 의해 생성된다. 현재 팔레트는 이전 팔레트 예측자로부터 재사용된 엔트리 및 시그널링된 새로운 팔레트 엔트리를 포함한다. 프로세스(903)에서, 현재 팔레트의 모든 팔레트 엔트리는 새로운 팔레트 예측자의 제1 세트의 엔트리로서 새로운 팔레트 예측자 앞에 추가된다(단계(802)에 대응함). 프로세스(904)에서, 엔트리가 현재 팔레트에서 재사용되는지 여부와 상관없이, 이전 팔레트 예측자로부터의 팔레트 엔트리는 새로운 팔레트 예측자의 제2 세트의 엔트리로서 새로운 팔레트 예측자의 끝에 추가된다(단계(804)에 대응함).
이점은, 재사용 플래그의 값을 검사하지 않고서, 현재 팔레트의 크기 및 이전 팔레트 예측자의 크기를 합(add)함으로써 새로운 팔레트 예측자의 크기가 계산된다는 것이다. 업데이팅 프로세스가 VVC 드래프트 8의(이를테면, 도 10에 도시된) 종래의 설계보다 훨씬 간단하기 때문에, CABAC 처리량이 증가될 수 있다.
예컨대, 도 11은 본 개시의 실시예와 일치하는, 팔레트 모드에 대한 예시적인 디코딩 프로세스를 도시한다. 도 10의 종래의 설계와 도 11의 개시된 설계 사이의 변화는 취소된 텍스트로 강조 표시된 제거된 부분(1101)을 포함한다.
일부 실시예에서, 팔레트 예측자 업데이팅 프로세스가 단순화되지만, 팔레트 예측자는 재사용 플래그를 검사하지 않기 때문에 2개 이상의 동일한 엔트리(즉, 팔레트 예측자의 중복성)를 가질 수 있다. 여전히 개선되지만, 이것은 팔레트 예측자의 예측 효율성이 감소될 수 있음을 의미할 수 있다.
도 12는 본 개시의 실시예에 따른 다른 팔레트 예측자 업데이팅 프로세스(1200)의 흐름도를 도시한다. 방법(1200)은 인코더(예컨대, 도 2a의 프로세스(200A) 또는 도 2b의 프로세스(200B)), 디코더(예컨대, 도 3a의 프로세스(300A) 또는 도 3b의 프로세스(300B))에 의해 수행되거나 또는 장치(예컨대, 도 4의 장치(400))의 하나 이상의 소프트웨어 또는 하드웨어 구성요소에 의해 수행될 수 있다. 예컨대, 프로세서(예컨대, 도 4의 프로세서(402))는 방법(1200)을 수행할 수 있다. 일부 실시예에서, 방법(1200)은, 컴퓨터(예컨대, 도 4의 장치(400))에 의해 실행되는 프로그램 코드와 같은 컴퓨터 실행 가능 명령어를 포함하는, 컴퓨터 판독가능 매체에 구현된 컴퓨터 프로그램 제품에 의해 구현될 수 있다. 도 12를 참조하면, 방법(1200)은 다음의 단계(1202-1206)를 포함할 수 있다.
이 예시적인 실시예에서, 팔레트 예측자에서 중복성을 제거하고 팔레트 예측자 업데이팅 프로세스를 단순하게 유지하기 위해, 제1 재사용 엔트리와 마지막 재사용 엔트리 사이의 이전 팔레트 예측자 엔트리는 직접 폐기된다. 이전 팔레트 예측자의 제1 엔트리로부터 제1 재사용 엔트리까지 및 마지막 재사용 엔트리로부터 마지막 엔트리까지의 엔트리만이 새로운 팔레트 예측자에 추가된다. 요약하면, 팔레트 예측자 업데이팅 프로세스는 다음과 같이 수정된다. 단계(1202)에서, 현재 팔레트의 각각의 엔트리는 제1 세트의 엔트리로서 새로운 팔레트 예측자에 추가된다. 단계(1204)에서, 이전 팔레트 예측자의 제1 엔트리로부터 제1 재사용 엔트리까지의 각각의 엔트리는 제1 세트의 엔트리 이후의 제2 세트의 엔트리로서 새로운 팔레트 예측자에 추가된다. 단계(1206)에서, 이전 팔레트 예측자의 마지막 재사용 엔트리로부터 마지막 엔트리까지의 각각의 엔트리는 제2 세트의 엔트리 이후의 제3 세트의 엔트리로서 새로운 팔레트 예측자에 추가된다.
예컨대, 도 13은 도 12에 설명된 프로세스와 일치하는 단순화된 팔레트 예측자 업데이팅 프로세스를 제공한다. 프로세스(1301)에서, 현재 팔레트의 모든 팔레트 엔트리는 새로운 팔레트 예측자의 제1 세트의 엔트리로서 팔레트 예측자에 추가된다(단계(1202)에 대응함). 프로세스(1302)에서, 이전 팔레트 예측자의 제1 엔트리로부터 제1 재사용 엔트리까지의 각각의 엔트리는 제1 세트의 엔트리 이후의 제2 세트의 엔트리로서 새로운 팔레트 예측자에 추가된다(단계(1204)에 대응함). 프로세스(1303)에서, 이전 팔레트 예측자의 마지막 재사용 엔트리로부터 마지막 엔트리까지의 각각의 엔트리는 제2 세트의 엔트리 이후의 제3 세트의 엔트리로서 새로운 팔레트 예측자에 추가된다(단계(1206)에 대응함). 일부 실시예에서, 제3 세트의 엔트리는 제1 세트의 엔트리 이후에 있고, 제2 세트의 엔트리는 제3 세트의 엔트리 이후에 있다.
제1 재사용 엔트리 및 마지막 엔트리는 재사용 플래그가 파싱될 때 도출될 수 있다는 것이 유의된다. 재사용 플래그의 값을 검사할 필요가 없다. 새로운 팔레트 예측자의 크기는 현재 팔레트의 크기, 0으로부터 제1 재사용 엔트리까지의 크기 및 마지막 재사용 엔트리로부터 마지막 엔트리까지의 크기를 합함으로써 계산된다. 도 14는 본 개시의 실시예와 일치하는 예시적인 팔레트 코딩 신택스를 도시한다. 도 7의 종래의 설계와 도 14의 개시된 설계 사이의 변화는 표시된 추가 부분(1401)을 포함한다. 도 15는 본 개시의 실시예와 일치하는, 팔레트 모드에 대한 예시적인 디코딩 프로세스를 도시한다. 도 10의 종래의 설계와 도 15의 개시된 설계 사이의 변화는 취소된 텍스트로 강조 표시된 제거된 부분(1501) 및 표시된 추가 부분(1502)을 포함한다.
이전에 개시된 실시예에서, 팔레트 예측자 업데이팅 프로세스가 단순화되었지만, 이 프로세스는 하드웨어 설계의 CABAC 파싱 스테이지에서 구현하는 데 필요로 된다. 일부 실시예에서, 재사용 플래그의 수는 고정된 값으로 설정된다. 따라서, CABAC는 팔레트 예측자 업데이팅 프로세스를 기다리지 않고 파싱을 계속할 수 있다. 또한, 팔레트 예측자 업데이팅 프로세스는 CABAC 파싱 스테이지 외부의 상이한 파이프라인 스테이지에서 구현될 수 있고, 이는 하드웨어 설계에 더 많은 유연성을 허용한다.
도 16은 팔레트 모드에 대한 디코더 하드웨어 설계의 예시를 도시한다. 데이터 구조(1601) 및 데이터 구조(1602)는 CABAC 및 디코딩 팔레트 픽셀에 대해 예시적으로 도시된다. 디코더 하드웨어 설계(1603)는 예측자 업데이트 모듈(1631) 및 CABAC 파싱 모듈(1632)을 포함하며, 여기서 예측자 업데이팅 프로세스 및 CABAC 파싱 프로세스는 병렬이다. 따라서, CABAC는 팔레트 업데이팅 프로세스를 기다리지 않고 파싱을 계속할 수 있다.
재사용 플래그의 수를 각각의 코딩 블록에 대해 고정된 값으로 설정하기 위해, 일부 실시예에서, 팔레트 예측자의 크기는 비-웨이브프론트 경우에 대한 각각의 슬라이스의 시작 및 웨이브프론트 경우에 대한 각각의 CTU 행의 시작에서 미리 정의된 값으로 초기화된다. 미리 정의된 값은 팔레트 예측자의 최대 크기로 설정된다. 일 예에서, 재사용 플래그의 수는 슬라이스 유형 및 듀얼 트리 모드 설정에 따라 31 또는 63이다. 슬라이스 유형이 I-슬라이스이고 듀얼 트리 모드가 온인 경우(경우 1로 지칭됨), 재사용 플래그의 수는 31로 설정된다. 그렇지 않은 경우(슬라이스 유형이 B-/P-슬라이스이거나 슬라이스 유형이 I-슬라이스이고 듀얼 트리 모드가 오프인 경우)(경우 2로 지칭됨), 재사용 플래그의 수는 63으로 설정된다. 2개의 경우의 다른 개수의 재사용 플래그가 사용될 수 있으며, 경우 1에 대한 재사용 플래그의 수와 경우 2에 대한 재사용 플래그의 수 사이에 2배 관계를 유지하는 것이 유리할 수 있다. 또한, 팔레트 예측자를 초기화할 때, 각각의 엔트리 및 각각의 성분의 값은 0 또는 (1 << (시퀀스 비트 깊이 ? 1))로 설정된다.
예컨대, 도 17은 본 개시의 실시예와 일치하는, 팔레트 모드에 대한 예시적인 디코딩 프로세스를 도시한다. 도 10의 종래의 설계와 도 17의 개시된 설계 사이의 변화는 취소된 텍스트로 강조 표시된 제거된 부분(1701) 및 표시된 추가 부분(1702)을 포함한다. 유사하게, 도 19는 본 개시의 실시예와 일치하는 예시적인 초기화 프로세스를 도시한다. 도 18의 종래의 설계와 도 19의 개시된 설계 사이의 변화는 취소된 텍스트로 강조 표시된 제거된 부분(1901) 및 표시된 추가 부분(1902)을 포함한다.
일부 실시예에서, 재사용 플래그가 고정 값으로 설정되거나 도 9의 실시예가 구현되는 경우에, 일부 중복성이 팔레트 예측자에 도입될 수 있다. 일부 실시예에서, 이러한 중복 엔트리가 인코더 측에서 예측을 위해 결코 선택되지 않기 때문에, 이것은 문제가 되지 않을 수 있다. 팔레트 예측자 업데이트의 예가 도 20, 21 및 22에 도시된다. 도 20은 VVC 드래프트 8에 지정된 절차에 따른 예를 도시하고, 도 21은 도 9에 제안된 방법의 일부 구현에 따른 예(제1 실시예로 지칭됨)를 도시하고, 도 22는 재사용 플래그가 고정된 값으로 설정되는 실시예의 일부 구현에 따른 다른 예(제3 실시예로 지칭됨)를 도시한다. 도 20, 21 및 22의 비교가 도시하는 바와 같이, 어떠한 새로운 시그널링된 팔레트 엔트리도 없다고 가정하면, 제1 실시예(도 21)에 제안된 방법은 재사용 플래그를 시그널링하기 위한 비트의 수(2101)를 증가시킬 수 있는 반면, 제3 실시예(도 22)에 제안된 방법은 재사용 플래그를 시그널링하기 위한 비트의 수(2201)를 VVC 드래프트 8 설계(도 20)의 방법의 재사용 플래그를 시그널링하기 위한 비트의 수(2001)와 동일하게 유지한다.
일부 실시예에서, 팔레트 예측자는 먼저 고정된 값으로 초기화된다. 이것은, 팔레트 예측자에 중복 엔트리가 있을 수 있음을 의미한다. 중복 엔트리가 문제가 되지 않을 수 있지만, 앞서 논의된 바와 같이, 이 실시예의 설계는 인코더가 이러한 중복 엔트리를 사용하는 것을 방지하지 않는다. 우연히 인코더가 이러한 중복 엔트리 중 하나를 선택하는 경우, 팔레트 예측자의 코딩 성능, 및 따라서 팔레트 모드의 코딩 성능이 감소될 수 있다. 이러한 경우를 방지하기 위해, 일부 실시예에서, 재사용 플래그를 시그널링할 때, 비트스트림 적합성이 추가된다. 일부 실시예에서, 비트스트림 적합성은, 재사용 플래그를 시그널링할 때, 팔레트 예측자 크기의 크기가 팔레트 예측자의 최대 크기와 동일한 값을 갖는다. 보다 구체적으로, 재사용 플래그의 이진화 값에 범위 제약이 추가된다.
예컨대, 도 23은 본 개시의 실시예와 일치하는 예시적인 팔레트 코딩 신택스를 도시한다. 도 7의 종래의 설계와 도 23의 개시된 설계 사이의 변화는 취소된 텍스트로 강조 표시된 제거된 부분(2301) 및 표시된 추가 부분(2302)을 포함한다. 유사하게, 도 25는 본 개시의 실시예와 일치하는 예시적인 팔레트 코딩 시맨틱을 도시한다. 도 24의 종래의 설계와 도 25의 개시된 설계 사이의 변화는 취소된 텍스트로 강조 표시된 제거된 부분(2501) 및 표시된 추가 부분(2502)을 포함한다.
또한, 본 개시는 팔레트 모드의 디블로킹 필터의 문제를 해결하기 위해 다음의 방법을 제공한다.
일부 실시예에서, 팔레트 모드는 인트라 예측 모드의 서브세트로서 취급된다. 따라서, 이웃하는 블록 중 하나가 팔레트 모드에서 코딩되면, 경계 필터 강도는 2와 동일하게 설정된다. 보다 구체적으로, 경계 필터링 강도를 계산하는 프로세스를 자세히 설명하는 VVC 드래프트 8 규격의 일부가 변경되어, 시나리오 3이 이제 다음을 명시한다. "샘플 p0 또는 q0이 인트라 예측 모드 또는 팔레트 모드로 코딩된 코딩 유닛의 코딩 블록 내에 있으면, bS[xDi][yDj]는 2와 동일하게 설정된다". 추가된 언어는 밑줄이 그어진다.
일부 실시예에서, 팔레트 모드는 독립적인 코딩 모드로서 취급된다. 2개의 이웃하는 블록의 코딩 모드가 상이할 때, 경계 필터 강도는 1과 동일하게 설정된다. 보다 구체적으로, 경계 필터링 강도를 계산하는 프로세스를 자세히 설명하는 VVC 드래프트 8 규격의 일부가 변경되어, 시나리오 6이 이제 다음을 명시한다. "샘플 p0를 포함하는 코딩 서브블록의 예측 모드가 샘플 q0을 포함하는 코딩 서브블록의 예측 모드와 상이한 경우
Figure pct00001
, bS[xDi][yDj]는 1과 동일하게 설정된다". 제거 언어가 취소된다.
일부 실시예에서, 팔레트 모드는 독립적인 코딩 모드로서 취급된다. BDPCM 모드 설정과 유사하게, 코딩 블록 중 하나가 팔레트 모드일 때, 경계 필터 강도는 0과 동일하게 설정된다. 보다 구체적으로, 경계 필터링 강도를 계산하는 프로세스를 자세히 설명하는 VVC 드래프트 8 규격의 일부가 변경되어, 시나리오 3과 시나리오 4 사이에 다음을 명시하는 새로운 시나리오가 삽입된다: "그렇지 않고, 블록 에지가 또한 코딩 블록 에지이고 샘플 p0 또는 q0이 pred_mode_plt_flag가 1과 같은 코딩 블록에 있는 경우, bS[xDi][yDj]는 0과 동일하게 설정된다". 이 수정된 프로세스를 사용하면 시나리오 4-8이 시나리오 5-9로 재넘버링된 9개의 시나리오가 있을 것이다. 팔레트 모드에서 코딩된 블록은 pred_mode_plt_flag가 1과 동일한 것과 등가라는 것이 유의된다.
일부 실시예에서, 명령어를 포함하는 비일시적 컴퓨터 판독 가능 저장 매체가 또한 제공되고, 명령어는 전술한 방법을 수행하게 하도록 디바이스(이를테면, 개시된 인코더 및 디코더)에 의해 실행될 수 있다. 비일시적 매체의 일반적인 형태는, 예컨대, 플로피 디스크, 플렉서블 디스크, 하드 디스크, 솔리드 스테이트 드라이브, 자기 테이프 또는 임의의 다른 자기 데이터 저장 매체, CD-ROM, 임의의 다른 광학 데이터 저장 매체, 홀의 패턴을 갖는 임의의 물리적 매체, RAM, PROM 및 EPROM, FLASH-EPROM 또는 다른 임의의 플래시 메모리, NVRAM, 캐시, 레지스터, 임의의 다른 메모리 칩 또는 카트리지, 및 이들의 네트워크 버전을 포함한다. 디바이스는 하나 이상의 프로세서(CPU), 입력/출력 인터페이스, 네트워크 인터페이스 및/또는 메모리를 포함할 수 있다.
본원에서 "제1" 및 "제2"와 같은 관계 용어는 엔티티 또는 동작을 다른 엔티티 또는 동작과 구분하기 위해서만 사용되며, 이러한 엔티티 또는 동작 간의 임의의 실제 관계 또는 시퀀스를 요구하거나 암시하지 않는다는 것이 유의되어야 한다. 더욱이, 포함하는(comprising), "갖는(having)", "포함하는(containing)" 및 "포함하는(including)"이라는 단어 및 다른 유사한 형태는 그 의미가 동등하고, 이러한 단어 중 어느 하나를 따르는 항목 또는 항목들이 이러한 항목 또는 항목들의 철저한 열거(exhaustive listing)를 의미하지 않거나 또는 열거된 항목 또는 항목만으로 제한되는 것을 의미하지 않는다는 점에서, 제약을 두지 않는 것으로(open-ended) 의도된다.
본원에서 사용된 바와 같이, 달리 구체적으로 언급되지 않는 한, "또는"이란 용어는 실행 불가능한 경우를 제외하고 모든 가능한 조합을 포함한다. 예컨대, 데이터베이스가 A 또는 B가 포함될 수 있다고 명시되어 있으면, 달리 구체적으로 명시되지 않거나 실행 불가능한 경우를 제외하고, 데이터베이스는 A 또는 B, 또는 A 및 B를 포함할 수 있다. 제2 예시로서, 데이터베이스가 A, B 또는 C를 포함할 수 있다고 명시되어 있으면, 달리 구체적으로 명시되지 않거나 실행 불가능한 경우를 제외하고, 데이터베이스는 A 또는 B 또는 C, 또는 A 및 B, 또는 A 및 C, 또는 B 및 C, 또는 A 및 B 및 C를 포함할 수 있다.
상술한 실시예는 하드웨어 또는 소프트웨어(프로그램 코드), 또는 하드웨어 및 소프트웨어의 조합에 의해 구현될 수 있다는 것이 인식된다. 소프트웨어로 구현되는 경우, 이는 상술한 컴퓨터 판독 가능 매체에 저장될 수 있다. 소프트웨어는 프로세서에 의해 실행될 때 개시된 방법을 수행할 수 있다. 본 개시에서 설명된 컴퓨팅 유닛 및 다른 기능 유닛은 하드웨어 또는 소프트웨어, 또는 하드웨어 및 소프트웨어의 조합에 의해 구현될 수 있다. 통상의 기술자는 또한 위에서 설명된 모듈/유닛 중 다수가 하나의 모듈/유닛으로 결합될 수 있고, 위에서 설명된 모듈/유닛 각각이 복수의 서브-모듈/서브-유닛으로 더 분할될 수 있음을 이해할 것이다.
실시예는 다음의 조항을 사용하여 추가로 설명될 수 있다.
1. 비디오 데이터 처리 방법으로서,
하나 이상의 팔레트 예측자를 사용하여 하나 이상의 코딩 유닛을 처리하는 단계를 포함하고, 하나 이상의 팔레트 예측자 중 하나의 팔레트 예측자는:
현재 팔레트의 모든 팔레트 엔트리를 팔레트 예측자의 제1 세트의 엔트리로서 추가하고; 그리고
이전 팔레트 예측자 내의 팔레트 엔트리의 재사용 플래그의 값에 상관없이, 이전 팔레트 예측자로부터의 팔레트 엔트리들을 팔레트 예측자의 제2 세트의 엔트리로서 추가함으로써 업데이트되고,
제2 세트의 엔트리는 제1 세트의 엔트리 이후에 있다.
2. 조항 1의 방법에 있어서, 팔레트 예측자의 제1 세트의 팔레트 엔트리 및 제2 세트의 엔트리의 각각의 팔레트 엔트리는 재사용 플래그를 포함한다.
3. 조항 1의 방법에 있어서,
처리를 위한 비디오 프레임을 수신하는 단계, 및
비디오 프레임에 대한 하나 이상의 코딩 유닛을 생성하는 단계를 더 포함한다.
4. 조항 1 내지 3 중 어느 하나의 방법에 있어서, 팔레트 예측자의 각각의 팔레트 엔트리는 대응하는 재사용 플래그를 갖고, 그리고
팔레트 예측자에 대한 재사용 플래그의 수는 대응하는 코딩 유닛에 대해 고정된 수로 설정된다.
5. 비디오 데이터 처리 방법으로서,
하나 이상의 팔레트 예측자를 사용하여 하나 이상의 코딩 유닛을 처리하는 단계를 포함하고,
하나 이상의 팔레트 예측자 중 하나의 팔레트 예측자는:
현재 팔레트의 모든 팔레트 엔트리를 팔레트 예측자의 제1 세트의 엔트리로서 추가하고;
제1 범위 내에 있는 이전 팔레트 예측자의 하나 이상의 팔레트 엔트리를 팔레트 예측자의 제2 세트의 하나 이상의 엔트리로서 팔레트 예측자에 추가하고 ― 제1 범위는 이전 팔레트 예측자의 제1 팔레트 엔트리에서 시작하고, 설정된 재사용 플래그를 갖는 이전 팔레트 예측자의 제1 팔레트 엔트리에서 종료함 ― ; 그리고
제2 범위 내에 있는 이전 팔레트 예측자의 하나 이상의 팔레트 엔트리를 팔레트 예측자의 제3 세트의 하나 이상의 엔트리로서 팔레트 예측자에 추가함으로써 업데이트되고,
제2 범위는 설정된 재사용 플래그를 갖는 이전 팔레트 예측자의 마지막 팔레트 엔트리에서 시작하고, 이전 팔레트 예측자의 마지막 팔레트 엔트리에서 종료하고, 제2 세트의 엔트리 및 제3 세트의 엔트리는 제1 세트의 엔트리 이후에 있다.
6. 조항 5의 방법에 있어서, 팔레트 예측자의 제1 세트의 엔트리, 제2 세트의 엔트리 및 제3 세트의 엔트리의 각각의 팔레트 엔트리는 재사용 플래그를 포함한다.
7. 조항 5의 방법에 있어서,
처리를 위한 비디오 프레임을 수신하는 단계, 및
비디오 프레임에 대한 하나 이상의 코딩 유닛을 생성하는 단계를 더 포함한다.
8. 조항 5 내지 7 중 어느 하나의 방법에 있어서, 하나 이상의 팔레트 예측자의 각각의 팔레트 엔트리는 대응하는 재사용 플래그를 갖고, 그리고
각각의 팔레트 예측자에 대한 재사용 플래그의 수는 대응하는 코딩 유닛에 대해 고정된 수로 설정된다.
9. 비디오 데이터 처리 방법으로서,
처리를 위한 비디오 프레임을 수신하는 단계;
비디오 프레임의 하나 이상의 코딩 유닛을 생성하는 단계; 및
팔레트 엔트리를 갖는 하나 이상의 팔레트 예측자를 사용하여 하나 이상의 코딩 유닛을 처리하는 단계를 포함하고,
하나 이상의 팔레트 예측자의 각각의 팔레트 엔트리는 대응하는 재사용 플래그를 갖고, 그리고
각각의 팔레트 예측자에 대한 재사용 플래그의 수는 대응하는 코딩 유닛에 대해 고정된 수로 설정된다.
10. 조항 9의 방법에 있어서, 팔레트 예측자는:
현재 팔레트의 모든 팔레트 엔트리를 팔레트 예측자의 제1 세트의 엔트리로서 추가하고; 그리고
현재 팔레트에서 재사용되지 않는 이전 팔레트 예측자로부터의 엔트리를 팔레트 예측자의 제2 세트의 엔트리로서 추가함으로써 업데이트되고,
제2 세트의 엔트리는 제1 세트의 엔트리 이후에 있다.
11. 조항 9의 방법에 있어서, 고정된 수는 슬라이스 유형 및 듀얼 트리 모드 설정에 기초하여 설정된다.
12. 조항 9의 방법에 있어서, 하나 이상의 팔레트 예측자 중 하나의 팔레트 예측자의 크기는 비-웨이브프론트 경우에 대해 슬라이스의 시작에서 미리 정의된 값으로 초기화된다.
13. 조항 9의 방법에 있어서, 하나 이상의 팔레트 예측자 중 하나의 팔레트 예측자의 크기는 웨이브프론트 경우에 대해 코딩 유닛 행의 시작에서 미리 정의된 값으로 초기화된다.
14. 조항 12 또는 13의 방법에 있어서, 재사용 플래그를 시그널링할 때, 팔레트 예측자의 최대 크기와 동일하도록 팔레트 예측자의 크기 값을 갖는 비트스트림 적합성을 추가하는 단계를 더 포함한다.
15. 조항 12 내지 14 중 어느 하나의 방법에 있어서, 하나 이상의 팔레트 예측자를 초기화할 때, 각각의 엔트리 및 각각의 컴포넌트의 값은 0 또는 (1<<(시퀀스 비트 깊이-1))로 설정된다.
16. 조항 9 내지 15 중 어느 하나의 방법에 있어서, 재사용 플래그의 이진화 값에 범위 제약을 추가하는 단계를 더 포함한다.
17. 비디오 데이터 처리를 수행하기 위한 장치로서,
명령어를 저장하도록 구성되는 메모리; 및
메모리에 연결된 프로세서를 포함하고,
프로세서는 명령어를 실행하여 장치로 하여금:
하나 이상의 팔레트 예측자를 사용하여 하나 이상의 코딩 유닛을 처리하는 것을 수행하게 하도록 구성되고,
하나 이상의 팔레트 예측자 중 하나의 팔레트 예측자는:
현재 팔레트의 모든 팔레트 엔트리를 팔레트 예측자의 제1 세트의 엔트리로서 추가하고; 그리고
이전 팔레트 예측자 내의 팔레트 엔트리의 재사용 플래그의 값에 상관없이, 이전 팔레트 예측자로부터의 팔레트 엔트리들을 팔레트 예측자의 제2 세트의 엔트리로서 추가함으로써 업데이트되고,
제2 세트의 엔트리는 제1 세트의 엔트리 이후에 있다.
18. 조항 17의 장치에 있어서, 팔레트 예측자의 제1 세트의 팔레트 엔트리 및 제2 세트의 엔트리의 각각의 팔레트 엔트리는 재사용 플래그를 포함한다.
19. 조항 17의 장치에 있어서, 프로세서는 추가로 명령어를 실행하여 장치로 하여금:
처리를 위한 비디오 프레임을 수신하는 것, 및
비디오 프레임에 대한 하나 이상의 코딩 유닛을 생성하는 것을 수행하게 하도록 구성된다.
20. 조항 17 내지 19 중 어느 하나의 장치에 있어서, 팔레트 예측자의 각각의 팔레트 엔트리는 대응하는 재사용 플래그를 갖고, 그리고
팔레트 예측자에 대한 재사용 플래그의 수는 대응하는 코딩 유닛에 대해 고정된 수로 설정된다.
21. 비디오 데이터 처리를 수행하기 위한 장치로서,
명령어를 저장하도록 구성되는 메모리; 및
메모리에 연결된 프로세서를 포함하고,
프로세서는 명령어를 실행하여 장치로 하여금:
하나 이상의 팔레트 예측자를 사용하여 하나 이상의 코딩 유닛을 처리하는 것을 수행하게 하도록 구성되고,
하나 이상의 팔레트 예측자 중 하나의 팔레트 예측자는:
현재 팔레트의 모든 팔레트 엔트리를 팔레트 예측자의 제1 세트의 엔트리로서 추가하고;
제1 범위 내에 있는 이전 팔레트 예측자의 하나 이상의 팔레트 엔트리를 팔레트 예측자의 제2 세트의 하나 이상의 엔트리로서 팔레트 예측자에 추가하고 ― 제1 범위는 이전 팔레트 예측자의 제1 팔레트 엔트리에서 시작하고, 설정된 재사용 플래그를 갖는 이전 팔레트 예측자의 제1 팔레트 엔트리에서 종료함 ― ; 그리고
제2 범위 내에 있는 이전 팔레트 예측자의 하나 이상의 팔레트 엔트리를 팔레트 예측자의 제3 세트의 하나 이상의 엔트리로서 팔레트 예측자에 추가함으로써 업데이트되고,
제2 범위는 설정된 재사용 플래그를 갖는 이전 팔레트 예측자의 마지막 팔레트 엔트리에서 시작하고, 이전 팔레트 예측자의 마지막 팔레트 엔트리에서 종료하고, 제2 세트의 엔트리 및 제3 세트의 엔트리는 제1 세트의 엔트리 이후에 있다.
22. 조항 21의 장치에 있어서, 팔레트 예측자의 제1 세트의 팔레트 엔트리 및 제2 세트의 엔트리의 각각의 팔레트 엔트리는 재사용 플래그를 포함한다.
23. 조항 21의 장치에 있어서, 프로세서는 추가로 명령어를 실행하여 장치로 하여금:
처리를 위한 비디오 프레임을 수신하는 것, 및
비디오 프레임에 대한 하나 이상의 코딩 유닛을 생성하는 것을 수행하게 하도록 구성된다.
24. 조항 21 내지 23 중 어느 하나의 장치에 있어서, 팔레트 예측자의 각각의 팔레트 엔트리는 대응하는 재사용 플래그를 갖고, 그리고
팔레트 예측자에 대한 재사용 플래그의 수는 대응하는 코딩 유닛에 대해 고정된 수로 설정된다.
25. 비디오 데이터 처리를 수행하기 위한 장치로서,
명령어를 저장하도록 구성되는 메모리; 및
메모리에 연결된 프로세서를 포함하고,
프로세서는 명령어를 실행하여 장치로 하여금:
처리를 위한 비디오 프레임을 수신하는 것;
비디오 프레임의 하나 이상의 코딩 유닛을 생성하는 것; 및
팔레트 엔트리를 갖는 하나 이상의 팔레트 예측자를 사용하여 하나 이상의 코딩 유닛을 처리하는 것을 수행하게 하도록 구성되고,
하나 이상의 팔레트 예측자의 각각의 팔레트 엔트리는 대응하는 재사용 플래그를 갖고, 그리고
각각의 팔레트 예측자에 대한 재사용 플래그의 수는 대응하는 코딩 유닛에 대해 고정된 수로 설정된다.
26. 조항 25의 장치에 있어서, 프로세서는 추가로 명령어를 실행하여 장치로 하여금:
현재 팔레트의 모든 팔레트 엔트리를 팔레트 예측자의 제1 세트의 엔트리로서 추가하고; 그리고
현재 팔레트에서 재사용되지 않는 이전 팔레트 예측자로부터의 엔트리를 팔레트 예측자의 제2 세트의 엔트리로서 추가함으로써,
팔레트 예측자를 업데이트하는 것을 수행하게 하도록 구성되고,
제2 세트의 엔트리는 제1 세트의 엔트리 이후에 있다.
27. 조항 25의 장치에 있어서, 고정된 수는 슬라이스 유형 및 듀얼 트리 모드 설정에 기초하여 설정된다.
28. 조항 25의 장치에 있어서, 하나 이상의 팔레트 예측자 중 하나의 팔레트 예측자의 크기는 비-웨이브프론트 경우에 대해 슬라이스의 시작에서 미리 정의된 값으로 초기화된다.
29. 조항 25의 장치에 있어서, 하나 이상의 팔레트 예측자 중 하나의 팔레트 예측자의 크기는 웨이브프론트 경우에 대해 코딩 유닛 행의 시작에서 미리 정의된 값으로 초기화된다.
30. 조항 28 또는 29의 장치에 있어서, 프로세서는 추가로 명령어를 실행하여 장치로 하여금, 재사용 플래그를 시그널링할 때, 팔레트 예측자의 최대 크기와 동일하도록 팔레트 예측자의 크기 값을 갖는 비트스트림 적합성을 추가하는 것을 수행하게 하도록 구성된다.
31. 조항 28 내지 30 중 어느 하나의 장치에 있어서, 하나 이상의 팔레트 예측자를 초기화할 때, 각각의 엔트리 및 각각의 컴포넌트의 값은 0 또는 (1<<(시퀀스 비트 깊이-1))로 설정된다.
32. 조항 25 내지 31 중 어느 하나의 장치에 있어서, 프로세서는 명령어를 실행하여 장치로 하여금 재사용 플래그의 이진화 값에 범위 제약을 추가하는 것을 수행하게 하도록 추가로 구성된다.
33. 명령어의 세트를 저장하는 비일시적 컴퓨터 판독 가능 매체로서, 명령어의 세트는 장치로 하여금 비디오 데이터 처리를 수행하기 위한 방법을 개시하게 하도록 장치의 하나 이상의 프로세서에 의해 실행 가능하고, 방법은:
하나 이상의 팔레트 예측자를 사용하여 하나 이상의 코딩 유닛을 처리하는 단계를 포함하고,
하나 이상의 팔레트 예측자 중 하나의 팔레트 예측자는:
현재 팔레트의 모든 팔레트 엔트리를 팔레트 예측자의 제1 세트의 엔트리로서 추가하고; 그리고
이전 팔레트 예측자 내의 팔레트 엔트리의 재사용 플래그의 값에 상관없이, 이전 팔레트 예측자로부터의 팔레트 엔트리들을 팔레트 예측자의 제2 세트의 엔트리로서 추가함으로써 업데이트되고,
제2 세트의 엔트리는 제1 세트의 엔트리 이후에 있다.
34. 조항 33의 비일시적 컴퓨터 판독 가능 매체에 있어서, 팔레트 예측자의 제1 세트의 엔트리 및 제2 세트의 엔트리의 각각의 팔레트 엔트리는 재사용 플래그를 포함한다.
35. 조항 33의 비일시적 컴퓨터 판독 가능 매체에 있어서, 방법은:
처리를 위한 비디오 프레임을 수신하는 단계, 및
비디오 프레임에 대한 하나 이상의 코딩 유닛을 생성하는 단계를 더 포함한다.
36. 조항 33 내지 조항 35 중 어느 하나의 비일시적 컴퓨터 판독 가능 매체에 있어서, 팔레트 예측자의 각각의 팔레트 엔트리는 대응하는 재사용 플래그를 갖고, 그리고
팔레트 예측자에 대한 재사용 플래그의 수는 대응하는 코딩 유닛에 대해 고정된 수로 설정된다.
37. 명령어의 세트를 저장하는 비일시적 컴퓨터 판독 가능 매체로서, 명령어의 세트는 장치로 하여금 비디오 데이터 처리를 수행하기 위한 방법을 개시하게 하도록 장치의 하나 이상의 프로세서에 의해 실행 가능하고, 방법은:
하나 이상의 팔레트 예측자를 사용하여 하나 이상의 코딩 유닛을 처리하는 단계를 포함하고,
하나 이상의 팔레트 예측자 중 하나의 팔레트 예측자는:
현재 팔레트의 모든 팔레트 엔트리를 팔레트 예측자의 제1 세트의 엔트리로서 추가하고;
제1 범위 내에 있는 이전 팔레트 예측자의 하나 이상의 팔레트 엔트리를 팔레트 예측자의 제2 세트의 하나 이상의 엔트리로서 팔레트 예측자에 추가하고 ― 제1 범위는 이전 팔레트 예측자의 제1 팔레트 엔트리에서 시작하고, 설정된 재사용 플래그를 갖는 이전 팔레트 예측자의 제1 팔레트 엔트리에서 종료함 ― ; 그리고
제2 범위 내에 있는 이전 팔레트 예측자의 하나 이상의 팔레트 엔트리를 팔레트 예측자의 제3 세트의 하나 이상의 엔트리로서 팔레트 예측자에 추가함으로써 업데이트되고,
제2 범위는 설정된 재사용 플래그를 갖는 이전 팔레트 예측자의 마지막 팔레트 엔트리에서 시작하고, 이전 팔레트 예측자의 마지막 팔레트 엔트리에서 종료하고, 제2 세트의 엔트리 및 제3 세트의 엔트리는 제1 세트의 엔트리 이후에 있다.
38. 조항 37의 비일시적 컴퓨터 판독 가능 매체에 있어서, 팔레트 예측자의 제1 세트의 엔트리 및 제2 세트의 엔트리의 각각의 팔레트 엔트리는 재사용 플래그를 포함한다.
39. 조항 37의 비일시적 컴퓨터 판독 가능 매체에 있어서, 방법은:
처리를 위한 비디오 프레임을 수신하는 단계, 및
비디오 프레임에 대한 하나 이상의 코딩 유닛을 생성하는 단계를 더 포함한다.
40. 조항 37 내지 조항 39 중 어느 하나의 비일시적 컴퓨터 판독 가능 매체에 있어서, 팔레트 예측자의 각각의 팔레트 엔트리는 대응하는 재사용 플래그를 갖고, 그리고
팔레트 예측자에 대한 재사용 플래그의 수는 대응하는 코딩 유닛에 대해 고정된 수로 설정된다.
41. 명령어의 세트를 저장하는 비일시적 컴퓨터 판독 가능 매체로서, 명령어의 세트는 장치로 하여금 비디오 데이터 처리를 수행하기 위한 방법을 개시하게 하도록 장치의 하나 이상의 프로세서에 의해 실행 가능하고, 방법은:
처리를 위한 비디오 프레임을 수신하는 단계;
비디오 프레임의 하나 이상의 코딩 유닛을 생성하는 단계; 및
팔레트 엔트리를 갖는 하나 이상의 팔레트 예측자를 사용하여 하나 이상의 코딩 유닛을 처리하는 단계를 포함하고,
하나 이상의 팔레트 예측자의 각각의 팔레트 엔트리는 대응하는 재사용 플래그를 갖고, 그리고
각각의 팔레트 예측자에 대한 재사용 플래그의 수는 대응하는 코딩 유닛에 대해 고정된 수로 설정된다.
42. 조항 41의 비일시적 컴퓨터 판독 가능 매체에 있어서, 팔레트 예측자는:
현재 팔레트의 모든 팔레트 엔트리를 팔레트 예측자의 제1 세트의 엔트리로서 추가하고; 그리고
현재 팔레트에서 재사용되지 않는 이전 팔레트 예측자로부터의 엔트리를 팔레트 예측자의 제2 세트의 엔트리로서 추가함으로써 업데이트되고,
제2 세트의 엔트리는 제1 세트의 엔트리 이후에 있다.
43. 조항 41의 비일시적 컴퓨터 판독 가능 매체에 있어서, 고정된 수는 슬라이스 유형 및 듀얼 트리 모드 설정에 기초하여 설정된다.
44. 조항 41의 비일시적 컴퓨터 판독 가능 매체에 있어서, 하나 이상의 팔레트 예측자 중 하나의 팔레트 예측자의 크기는 비-웨이브프론트의 경우에 대해 슬라이스의 시작에서 미리 정의된 값으로 초기화된다.
45. 조항 41의 비일시적 컴퓨터 판독 가능 매체에 있어서, 하나 이상의 팔레트 예측자 중 하나의 팔레트 예측자의 크기는 웨이브프론트 경우에 대해 코딩 유닛 행의 시작에서 미리 정의된 값으로 초기화된다.
46. 조항 44 또는 45의 비일시적 컴퓨터 판독 가능 매체에 있어서, 재사용 플래그를 시그널링할 때, 팔레트 예측자의 최대 크기와 동일하도록 팔레트 예측자의 크기 값을 갖는 비트스트림 적합성을 추가하는 것을 더 포함한다.
47. 조항 44 내지 46 중 어느 하나의 비일시적 컴퓨터 판독 가능 매체에 있어서, 하나 이상의 팔레트 예측자를 초기화할 때, 각각의 엔트리 및 각각의 컴포넌트의 값은 0 또는 (1<<(시퀀스 비트 깊이-1))로 설정된다.
48. 조항 41 내지 47 중 어느 하나의 비일시적 컴퓨터 판독 가능 매체에 있어서, 재사용 플래그의 이진화 값에 범위 제약을 추가하는 것을 더 포함한다.
49. 팔레트 모드의 디블로킹 필터를 위한 방법으로서,
처리를 위한 비디오 프레임을 수신하는 단계;
비디오 프레임에 대한 하나 이상의 코딩 유닛을 생성하는 단계 ― 하나 이상의 코딩 유닛의 각각의 코딩 유닛은 하나 이상의 코딩 블록을 가짐 ― ; 및
2개의 이웃하는 코딩 블록 중 적어도 제1 코딩 블록이 팔레트 모드에서 코딩되는 것에 응답하여, 경계 필터 강도를 2로 설정하는 단계를 포함한다.
50. 팔레트 모드의 디블로킹 필터를 위한 방법으로서,
처리를 위한 비디오 프레임을 수신하는 단계;
비디오 프레임에 대한 하나 이상의 코딩 유닛을 생성하는 단계 ― 하나 이상의 코딩 유닛의 각각의 코딩 유닛은 하나 이상의 코딩 블록을 가짐 ― ; 및
2개의 이웃하는 코딩 블록 중 적어도 제1 코딩 블록이 팔레트 모드에서 코딩되고, 2개의 이웃하는 코딩 블록 중 제2 코딩 블록이 팔레트 모드와 상이한 코딩 모드를 갖는 것에 응답하여, 경계 필터 강도를 1로 설정하는 단계를 포함한다.
51. 비디오 데이터 처리를 수행하기 위한 장치로서,
명령어를 저장하도록 구성되는 메모리; 및
메모리에 연결된 프로세서를 포함하고,
프로세서는 명령어를 실행하여 장치로 하여금:
처리를 위한 비디오 프레임을 수신하는 것;
비디오 프레임에 대한 하나 이상의 코딩 유닛을 생성하는 것 ― 하나 이상의 코딩 유닛의 각각의 코딩 유닛은 하나 이상의 코딩 블록을 가짐 ― ; 및
2개의 이웃하는 코딩 블록 중 적어도 제1 코딩 블록이 팔레트 모드에서 코딩되고, 2개의 이웃하는 코딩 블록 중 제2 코딩 블록이 팔레트 모드와 상이한 코딩 모드를 갖는 것에 응답하여, 경계 필터 강도를 1로 설정하는 것을 수행하게 하도록 구성된다.
52. 명령어의 세트를 저장하는 비일시적 컴퓨터 판독 가능 매체로서, 명령어의 세트는 장치로 하여금 비디오 데이터 처리를 수행하기 위한 방법을 개시하게 하도록 장치의 하나 이상의 프로세서에 의해 실행 가능하고, 방법은:
처리를 위한 비디오 프레임을 수신하는 단계;
비디오 프레임에 대한 하나 이상의 코딩 유닛을 생성하는 단계 ― 하나 이상의 코딩 유닛의 각각의 코딩 유닛은 하나 이상의 코딩 블록을 가짐 ― ; 및
2개의 이웃하는 코딩 블록 중 적어도 제1 코딩 블록이 팔레트 모드에서 코딩되고, 2개의 이웃하는 코딩 블록 중 제2 코딩 블록이 팔레트 모드와 상이한 코딩 모드를 갖는 것에 응답하여, 경계 필터 강도를 1로 설정하는 단계를 포함한다.
전술한 명세서에서, 실시예는 구현마다 다를 수 있는 수많은 특정 세부사항을 참조로 설명되었다. 설명된 실시예의 특정 적응 및 수정이 이루어질 수 있다. 다른 실시예는 본원에 개시된 본 발명의 명세서 및 실시를 고려하여 통상의 기술자에게 명백할 수 있다. 명세서 및 예시는 단지 예시적인 것으로 간주되어야 하는 것으로 의도되며, 본 발명의 진정한 범주 및 사상은 다음 청구범위에 의해 나타난다. 또한, 도면에 도시된 단계의 시퀀스는 단지 예시의 목적이며, 단계의 임의의 특정 시퀀스로 제한되도록 의도되지 않는다. 이와 같이, 통상의 기술자는 이러한 단계가 동일한 방법을 구현하면서 상이한 순서로 수행될 수 있음을 인식할 수 있다.
도면 및 명세서에서, 예시적인 실시예가 개시된다. 하지만, 이들 실시예에 대해 다수의 변형 및 수정이 이루어질 수 있다. 따라서, 특정한 용어가 이용되더라도, 제한의 목적이 아닌 일반적이고 설명적인 의미로 사용된다.

Claims (20)

  1. 비디오 데이터 처리 방법으로서,
    처리를 위한 비디오 프레임을 수신하는 단계;
    상기 비디오 프레임의 하나 이상의 코딩 유닛을 생성하는 단계; 및
    팔레트 엔트리(palette entry)를 갖는 하나 이상의 팔레트 예측자(palette predictor)를 사용하여 하나 이상의 코딩 유닛을 처리하는 단계를 포함하고,
    상기 하나 이상의 팔레트 예측자의 각각의 팔레트 엔트리는 대응하는 재사용 플래그(reuse flag)를 갖고, 그리고
    각각의 팔레트 예측자에 대한 재사용 플래그의 수는 대응하는 코딩 유닛에 대해 고정된 수로 설정되는,
    비디오 데이터 처리 방법.
  2. 제1 항에 있어서,
    상기 팔레트 예측자는:
    현재 팔레트의 모든 팔레트 엔트리를 상기 팔레트 예측자의 제1 세트의 엔트리로서 추가하고; 그리고
    상기 현재 팔레트에서 재사용되지 않는 상기 이전 팔레트 예측자로부터의 엔트리를 상기 팔레트 예측자의 제2 세트의 엔트리로서 추가함으로써 업데이트되고,
    제2 세트의 엔트리는 제1 세트의 엔트리 이후에 있는,
    비디오 데이터 처리 방법.
  3. 제1 항에 있어서,
    상기 팔레트 예측자는:
    현재 팔레트의 모든 팔레트 엔트리를 상기 팔레트 예측자의 제1 세트의 엔트리로서 추가하고; 그리고
    이전 팔레트 예측자 내의 팔레트 엔트리의 재사용 플래그의 값에 상관없이, 상기 이전 팔레트 예측자로부터의 팔레트 엔트리들을 상기 팔레트 예측자의 제2 세트의 엔트리로서 추가함으로써 업데이트되고,
    상기 제2 세트의 엔트리는 상기 제1 세트의 엔트리 이후에 있는,
    비디오 데이터 처리 방법.
  4. 제1 항에 있어서,
    상기 팔레트 예측자는:
    현재 팔레트의 모든 팔레트 엔트리를 상기 팔레트 예측자의 제1 세트의 엔트리로서 추가하고;
    제1 범위 내에 있는 이전 팔레트 예측자의 하나 이상의 팔레트 엔트리를 상기 팔레트 예측자의 제2 세트의 하나 이상의 엔트리로서 상기 팔레트 예측자에 추가하고 ― 상기 제1 범위는 상기 이전 팔레트 예측자의 제1 팔레트 엔트리에서 시작하고, 설정된 재사용 플래그를 갖는 상기 이전 팔레트 예측자의 제1 팔레트 엔트리에서 종료함 ― ; 그리고
    제2 범위 내에 있는 상기 이전 팔레트 예측자의 하나 이상의 팔레트 엔트리를 상기 팔레트 예측자의 제3 세트의 하나 이상의 엔트리로서 상기 팔레트 예측자에 추가함으로써 업데이트되고,
    상기 제2 범위는 설정된 재사용 플래그를 갖는 상기 이전 팔레트 예측자의 마지막 팔레트 엔트리에서 시작하고, 상기 이전 팔레트 예측자의 마지막 팔레트 엔트리에서 종료하고, 상기 제2 세트의 엔트리 및 상기 제3 세트의 엔트리는 상기 제1 세트의 엔트리 이후에 있는,
    비디오 데이터 처리 방법.
  5. 제1 항에 있어서,
    상기 고정된 수는 슬라이스 유형 및 듀얼 트리 모드 설정(dual tree mode setting)에 기초하여 설정되는,
    비디오 데이터 처리 방법.
  6. 제1 항에 있어서,
    상기 하나 이상의 팔레트 예측자 중 하나의 팔레트 예측자의 크기는 비-웨이브프론트 경우(non-wavefront case)에 대해 슬라이스의 시작에서 미리 정의된 값으로 초기화되는,
    비디오 데이터 처리 방법.
  7. 비디오 데이터 처리를 수행하기 위한 장치로서,
    명령어를 저장하도록 구성되는 메모리; 및
    하나 이상의 프로세서를 포함하고,
    상기 하나 이상의 프로세서는 상기 명령어를 실행하여 상기 장치로 하여금:
    처리를 위한 비디오 프레임을 수신하는 것;
    상기 비디오 프레임의 하나 이상의 코딩 유닛을 생성하는 것; 및
    팔레트 엔트리를 갖는 하나 이상의 팔레트 예측자를 사용하여 하나 이상의 코딩 유닛을 처리하는 것을 수행하게 하도록 구성되고,
    상기 하나 이상의 팔레트 예측자의 각각의 팔레트 엔트리는 대응하는 재사용 플래그를 갖고, 그리고
    각각의 팔레트 예측자에 대한 재사용 플래그의 수는 대응하는 코딩 유닛에 대해 고정된 수로 설정되는,
    비디오 데이터 처리를 수행하기 위한 장치.
  8. 제7 항에 있어서,
    상기 하나 이상의 프로세서는 추가로 상기 명령어를 실행하여 상기 장치로 하여금:
    현재 팔레트의 모든 팔레트 엔트리를 상기 팔레트 예측자의 제1 세트의 엔트리로서 추가하고; 그리고
    상기 현재 팔레트에서 재사용되지 않는 이전 팔레트 예측자로부터의 엔트리를 상기 팔레트 예측자의 제2 세트의 엔트리로서 추가함으로써
    팔레트 예측자를 업데이트하는 것을 수행하게 하도록 구성되고,
    상기 제2 세트의 엔트리는 상기 제1 세트의 엔트리 이후에 있는,
    비디오 데이터 처리를 수행하기 위한 장치.
  9. 제7 항에 있어서,
    상기 하나 이상의 프로세서는 추가로 상기 명령어를 실행하여 상기 장치로 하여금:
    현재 팔레트의 모든 팔레트 엔트리를 상기 팔레트 예측자의 제1 세트의 엔트리로서 추가하고; 그리고
    이전 팔레트 예측자 내의 팔레트 엔트리의 재사용 플래그의 값에 상관없이, 상기 이전 팔레트 예측자로부터의 팔레트 엔트리들을 상기 팔레트 예측자의 제2 세트의 엔트리로서 추가함으로써
    상기 팔레트 예측자를 업데이트하는 것을 수행하게 하도록 구성되고,
    상기 제2 세트의 엔트리는 상기 제1 세트의 엔트리 이후에 있는,
    비디오 데이터 처리를 수행하기 위한 장치.
  10. 제7 항에 있어서,
    상기 하나 이상의 프로세서는 추가로 상기 명령어를 실행하여 상기 장치로 하여금:
    현재 팔레트의 모든 팔레트 엔트리를 상기 팔레트 예측자의 제1 세트의 엔트리로서 추가하고;
    제1 범위 내에 있는 이전 팔레트 예측자의 하나 이상의 팔레트 엔트리를 상기 팔레트 예측자의 제2 세트의 하나 이상의 엔트리로서 상기 팔레트 예측자에 추가하고 ― 상기 제1 범위는 상기 이전 팔레트 예측자의 제1 팔레트 엔트리에서 시작하고, 설정된 재사용 플래그를 갖는 상기 이전 팔레트 예측자의 제1 팔레트 엔트리에서 종료함 ― ; 그리고
    제2 범위 내에 있는 상기 이전 팔레트 예측자의 하나 이상의 팔레트 엔트리를 상기 팔레트 예측자의 제3 세트의 하나 이상의 엔트리로서 상기 팔레트 예측자에 추가함으로써
    상기 팔레트 예측자를 업데이트하는 것을 수행하게 하도록 구성되고,
    상기 제2 범위는 설정된 재사용 플래그를 갖는 상기 이전 팔레트 예측자의 마지막 팔레트 엔트리에서 시작하고, 상기 이전 팔레트 예측자의 마지막 팔레트 엔트리에서 종료하고, 상기 제2 세트의 엔트리 및 상기 제3 세트의 엔트리는 상기 제1 세트의 엔트리 이후에 있는,
    비디오 데이터 처리를 수행하기 위한 장치.
  11. 제7 항에 있어서,
    상기 고정된 수는 슬라이스 유형 및 듀얼 트리 모드 설정에 기초하여 설정되는,
    비디오 데이터 처리를 수행하기 위한 장치.
  12. 제7 항에 있어서,
    상기 하나 이상의 팔레트 예측자 중 하나의 팔레트 예측자의 크기는 비-웨이브프론트 경우에 대해 슬라이스의 시작에서 미리 정의된 값으로 초기화되는,
    비디오 데이터 처리를 수행하기 위한 장치.
  13. 명령어의 세트를 저장하는 비일시적 컴퓨터 판독 가능 매체로서,
    상기 명령어의 세트는 장치로 하여금 비디오 데이터 처리를 수행하기 위한 방법을 개시하게 하도록 상기 장치의 하나 이상의 프로세서에 의해 실행 가능하고, 상기 방법은:
    처리를 위한 비디오 프레임을 수신하는 단계;
    상기 비디오 프레임의 하나 이상의 코딩 유닛을 생성하는 단계; 및
    팔레트 엔트리를 갖는 하나 이상의 팔레트 예측자를 사용하여 하나 이상의 코딩 유닛을 처리하는 단계를 포함하고,
    상기 하나 이상의 팔레트 예측자의 각각의 팔레트 엔트리는 대응하는 재사용 플래그를 갖고, 그리고
    각각의 팔레트 예측자에 대한 재사용 플래그의 수는 대응하는 코딩 유닛에 대해 고정된 수로 설정되는,
    비일시적 컴퓨터 판독 가능 매체.
  14. 제13 항에 있어서,
    상기 팔레트 예측자는:
    현재 팔레트의 모든 팔레트 엔트리를 상기 팔레트 예측자의 제1 세트의 엔트리로서 추가하고; 그리고
    상기 현재 팔레트에서 재사용되지 않는 이전 팔레트 예측자로부터의 엔트리를 상기 팔레트 예측자의 제2 세트의 엔트리로서 추가함으로써 업데이트되고,
    상기 제2 세트의 엔트리는 상기 제1 세트의 엔트리 이후에 있는,
    비일시적 컴퓨터 판독 가능 매체.
  15. 제13 항에 있어서,
    상기 팔레트 예측자는:
    현재 팔레트의 모든 팔레트 엔트리를 상기 팔레트 예측자의 제1 세트의 엔트리로서 추가하고; 그리고
    이전 팔레트 예측자 내의 팔레트 엔트리의 재사용 플래그의 값에 상관없이, 상기 이전 팔레트 예측자로부터의 팔레트 엔트리들을 상기 팔레트 예측자의 제2 세트의 엔트리로서 추가함으로써 업데이트되고,
    상기 제2 세트의 엔트리는 상기 제1 세트의 엔트리 이후에 있는,
    비일시적 컴퓨터 판독 가능 매체.
  16. 제13 항에 있어서,
    상기 팔레트 예측자는:
    현재 팔레트의 모든 팔레트 엔트리를 상기 팔레트 예측자의 제1 세트의 엔트리로서 추가하고;
    제1 범위 내에 있는 이전 팔레트 예측자의 하나 이상의 팔레트 엔트리를 상기 팔레트 예측자의 제2 세트의 하나 이상의 엔트리로서 상기 팔레트 예측자에 추가하고 ― 상기 제1 범위는 상기 이전 팔레트 예측자의 제1 팔레트 엔트리에서 시작하고, 설정된 재사용 플래그를 갖는 상기 이전 팔레트 예측자의 제1 팔레트 엔트리에서 종료함 ― ; 그리고
    제2 범위 내에 있는 상기 이전 팔레트 예측자의 하나 이상의 팔레트 엔트리를 상기 팔레트 예측자의 제3 세트의 하나 이상의 엔트리로서 상기 팔레트 예측자에 추가함으로써 업데이트되고,
    상기 제2 범위는 설정된 재사용 플래그를 갖는 상기 이전 팔레트 예측자의 마지막 팔레트 엔트리에서 시작하고, 상기 이전 팔레트 예측자의 마지막 팔레트 엔트리에서 종료하고, 상기 제2 세트의 엔트리 및 상기 제3 세트의 엔트리는 상기 제1 세트의 엔트리 이후에 있는,
    비일시적 컴퓨터 판독 가능 매체.
  17. 제13 항에 있어서,
    상기 고정된 수는 슬라이스 유형 및 듀얼 트리 모드 설정에 기초하여 설정되는,
    비일시적 컴퓨터 판독 가능 매체.
  18. 팔레트 모드의 디블로킹 필터(deblocking filter)를 위한 방법으로서,
    처리를 위한 비디오 프레임을 수신하는 단계;
    상기 비디오 프레임에 대한 하나 이상의 코딩 유닛을 생성하는 단계 ― 상기 하나 이상의 코딩 유닛의 각각의 코딩 유닛은 하나 이상의 코딩 블록을 가짐 ― ; 및
    2개의 이웃하는 코딩 블록 중 적어도 제1 코딩 블록이 팔레트 모드에서 코딩되고, 상기 2개의 이웃하는 코딩 블록 중 제2 코딩 블록이 상기 팔레트 모드와 상이한 코딩 모드를 갖는 것에 응답하여, 경계 필터 강도(boundary filter strength)를 1로 설정하는 단계를 포함하는,
    팔레트 모드의 디블로킹 필터를 위한 방법.
  19. 비디오 데이터 처리를 수행하기 위한 장치로서,
    명령어를 저장하도록 구성되는 메모리; 및
    하나 이상의 프로세서를 포함하고,
    상기 하나 이상의 프로세서는 상기 명령어를 실행하여 상기 장치로 하여금:
    처리를 위한 비디오 프레임을 수신하는 것;
    상기 비디오 프레임에 대한 하나 이상의 코딩 유닛을 생성하는 것 ― 상기 하나 이상의 코딩 유닛의 각각의 코딩 유닛은 하나 이상의 코딩 블록을 가짐 ― ; 및
    2개의 이웃하는 코딩 블록 중 적어도 제1 코딩 블록이 팔레트 모드에서 코딩되고, 상기 2개의 이웃하는 코딩 블록 중 제2 코딩 블록이 상기 팔레트 모드와 상이한 코딩 모드를 갖는 것에 응답하여, 경계 필터 강도를 1로 설정하는 것을 수행하게 하도록 구성되는,
    비디오 데이터 처리를 수행하기 위한 장치.
  20. 명령어의 세트를 저장하는 비일시적 컴퓨터 판독 가능 매체로서,
    상기 명령어의 세트는 장치로 하여금 비디오 데이터 처리를 수행하기 위한 방법을 개시하게 하도록 상기 장치의 하나 이상의 프로세서에 의해 실행 가능하고, 상기 방법은:
    처리를 위한 비디오 프레임을 수신하는 단계;
    상기 비디오 프레임에 대한 하나 이상의 코딩 유닛을 생성하는 단계 ― 상기 하나 이상의 코딩 유닛의 각각의 코딩 유닛은 하나 이상의 코딩 블록을 가짐 ― ; 및
    2개의 이웃하는 코딩 블록 중 적어도 제1 코딩 블록이 팔레트 모드에서 코딩되고, 상기 2개의 이웃하는 코딩 블록 중 제2 코딩 블록이 상기 팔레트 모드와 상이한 코딩 모드를 갖는 것에 응답하여, 경계 필터 강도를 1로 설정하는 단계를 포함하는,
    비일시적 컴퓨터 판독 가능 매체.
KR1020227037465A 2020-03-31 2021-03-31 팔레트 예측을 위한 방법 KR20220161409A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063002594P 2020-03-31 2020-03-31
US63/002,594 2020-03-31
US202063005305P 2020-04-04 2020-04-04
US63/005,305 2020-04-04
PCT/US2021/025092 WO2021202667A1 (en) 2020-03-31 2021-03-31 Methods for palette prediction

Publications (1)

Publication Number Publication Date
KR20220161409A true KR20220161409A (ko) 2022-12-06

Family

ID=77856665

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227037465A KR20220161409A (ko) 2020-03-31 2021-03-31 팔레트 예측을 위한 방법

Country Status (6)

Country Link
US (1) US11968360B2 (ko)
EP (1) EP4128778A4 (ko)
JP (1) JP2023520141A (ko)
KR (1) KR20220161409A (ko)
CN (1) CN115428455A (ko)
WO (1) WO2021202667A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4128778A4 (en) 2020-03-31 2024-04-17 Alibaba Group Holding Ltd PALETTE PREDICTION METHODS

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130003829A1 (en) * 2011-07-01 2013-01-03 Kiran Misra System for initializing an arithmetic coder
WO2013057782A1 (ja) * 2011-10-17 2013-04-25 株式会社東芝 符号化方法及び復号方法
US9491460B2 (en) * 2013-03-29 2016-11-08 Qualcomm Incorporated Bandwidth reduction for video coding prediction
AU2014202921B2 (en) 2014-05-29 2017-02-02 Canon Kabushiki Kaisha Method, apparatus and system for de-blocking a block of video samples
US10136141B2 (en) * 2014-06-11 2018-11-20 Qualcomm Incorporated Determining quantization parameter (QP) values and delta QP values for palette coded blocks in video coding
US9924175B2 (en) * 2014-06-11 2018-03-20 Qualcomm Incorporated Determining application of deblocking filtering to palette coded blocks in video coding
CN114501033B (zh) * 2014-06-20 2023-11-10 寰发股份有限公司 用于视频编码的调色板预测器信令的方法
US9900624B2 (en) * 2015-02-05 2018-02-20 Mediatek Inc. Methods and apparatus of decoding process for palette syntax
CN107455007B (zh) * 2015-04-02 2021-02-09 株式会社Kt 对视频信号进行编解码的方法
US10356432B2 (en) * 2015-09-14 2019-07-16 Qualcomm Incorporated Palette predictor initialization and merge for video coding
US11025905B2 (en) * 2018-09-14 2021-06-01 Tencent America LLC Method and device for decoding with palette mode
KR102605674B1 (ko) * 2019-01-02 2023-11-23 엘지전자 주식회사 디블록킹 필터링을 사용하는 영상 코딩 방법 및 장치
US20200314423A1 (en) * 2019-03-25 2020-10-01 Qualcomm Incorporated Fixed filters with non-linear adaptive loop filter in video coding
EP3987806A4 (en) * 2019-07-20 2022-08-31 Beijing Bytedance Network Technology Co., Ltd. CONDITIONAL CODING OF PALETTE MODE USE INDICATION
EP3991411A4 (en) * 2019-07-29 2022-08-24 Beijing Bytedance Network Technology Co., Ltd. CODING IN PALETTE MODE IN A PREDICTION PROCESS
US11206413B2 (en) * 2019-08-13 2021-12-21 Qualcomm Incorporated Palette predictor updates for local dual trees
US11240507B2 (en) * 2019-09-24 2022-02-01 Qualcomm Incorporated Simplified palette predictor update for video coding
EP4128778A4 (en) 2020-03-31 2024-04-17 Alibaba Group Holding Ltd PALETTE PREDICTION METHODS

Also Published As

Publication number Publication date
WO2021202667A1 (en) 2021-10-07
EP4128778A1 (en) 2023-02-08
JP2023520141A (ja) 2023-05-16
CN115428455A (zh) 2022-12-02
US11968360B2 (en) 2024-04-23
EP4128778A4 (en) 2024-04-17
US20210306627A1 (en) 2021-09-30

Similar Documents

Publication Publication Date Title
US11523138B2 (en) Method and apparatus for cross component filtering
KR20220110301A (ko) 화상 경계에서 블록 파티셔닝을 위한 방법들 및 장치들
WO2021195588A1 (en) Methods and apparatuses for signaling picture header
KR20220143859A (ko) 크로마 신호를 처리하기 위한 방법
US11765361B2 (en) Method and apparatus for coding video data in palette mode
KR20240038959A (ko) 결합된 인터 및 인트라 예측을 수행하기 위한 방법 및 시스템
US20240048772A1 (en) METHOD AND APPARATUS FOR PROCESSING VIDEO CONTENT WITH ALF and CCALF
KR20220160019A (ko) 루프 필터의 높은 레벨 신택스 제어
KR20230013103A (ko) 비디오 처리에서의 타일 및 슬라이스 파티셔닝
KR20220158002A (ko) 비디오 레코딩의 부호 데이터 은닉
KR20220063248A (ko) 병합 후보 목록 구성 방법
US11968360B2 (en) Methods for palette prediction
US11490097B2 (en) Method and apparatus for signaling subpicture partitioning information
US20210266548A1 (en) Signaling of maximum transform size and residual coding method
KR20220057620A (ko) 변환-스킵 모드에서 비디오 데이터를 코딩하기 위한 방법 및 장치
US12003738B2 (en) Method and apparatus for signaling subpicture partitioning information
US11606577B2 (en) Method for processing adaptive color transform and low-frequency non-separable transform in video coding
US11451801B2 (en) Methods for coding video data in palette mode
US20210306653A1 (en) Methods for signaling residual coding method of transform skip blocks
KR20240072191A (ko) 결합된 인터 및 인트라 예측을 수행하기 위한 방법들 및 시스템들