KR20220088888A - 인트라 예측을 위한 신경망의 반복 트레이닝 - Google Patents

인트라 예측을 위한 신경망의 반복 트레이닝 Download PDF

Info

Publication number
KR20220088888A
KR20220088888A KR1020227017254A KR20227017254A KR20220088888A KR 20220088888 A KR20220088888 A KR 20220088888A KR 1020227017254 A KR1020227017254 A KR 1020227017254A KR 20227017254 A KR20227017254 A KR 20227017254A KR 20220088888 A KR20220088888 A KR 20220088888A
Authority
KR
South Korea
Prior art keywords
neural networks
intra prediction
block
codec
video block
Prior art date
Application number
KR1020227017254A
Other languages
English (en)
Inventor
티에리 두마스
프랭크 갈핀
필리페 보디스
Original Assignee
인터디지털 브이씨 홀딩스 프랑스 에스에이에스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인터디지털 브이씨 홀딩스 프랑스 에스에이에스 filed Critical 인터디지털 브이씨 홀딩스 프랑스 에스에이에스
Publication of KR20220088888A publication Critical patent/KR20220088888A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

트레이닝된 신경망들을 위한 코덱에 대한 극단적인 특화와 극단적인 일반성 사이의 절충점을 찾는 인트라 예측을 사용한 비디오 코딩 및 디코딩을 위한 신경망들의 반복 트레이닝이 제공된다. 제1 반복 시, 신경망들의 세트는 파티셔닝 접근법을 따라 트레이닝된다. 이어서, 여러 반복 동안, 신경망들의 세트는 코덱 내로 삽입되고, 단일의 추가적인 신경망 기반 모드에서 코덱을 통해 이미지들의 파티셔닝으로부터 블록과 그의 콘텍스트의 쌍들이 추출되며, 이어서, 신경망들은 이들 쌍들에 대해 재트레이닝된다. 이러한 방식으로, 제2 반복으로부터, 신경망들은 코덱에서의 인트라 예측으로부터 벗어나지만 레이트-왜곡 성능 면에서 코덱에 여전히 유용한 인트라 예측을 학습한다.

Description

인트라 예측을 위한 신경망의 반복 트레이닝
본 실시예들 중 적어도 하나는 대체적으로, 비디오 인코딩 또는 디코딩, 압축 또는 압축해제를 위한 방법 또는 장치에 관한 것이다.
높은 압축 효율을 달성하기 위해, 이미지 및 비디오 코딩 스킴들은 일반적으로, 모션 벡터 예측을 포함한 예측을 채용하고, 비디오 콘텐츠에서 공간적 및 시간적 리던던시를 레버리징하도록 변환한다. 대체적으로, 인트라 또는 인터 예측은 인트라 또는 인터 프레임 상관관계를 이용하는 데 사용되고, 이어서, 종종 예측 에러들 또는 예측 잔차들로 표시되는, 오리지널 이미지와 예측 이미지 사이의 차이들은 변환되고, 양자화되고, 엔트로피 코딩된다. 비디오를 재구성하기 위해, 압축 데이터는 엔트로피 코딩, 양자화, 변환, 및 예측에 대응하는 역 프로세스들에 의해 디코딩된다.
본 실시예들 중 적어도 하나는 대체적으로, 비디오 인코딩 또는 디코딩을 위한 방법 또는 장치에 관한 것으로, 보다 구체적으로는, 이웃 샘플 의존적 파라미터 모델들에 기초하여 코딩 모드들의 단순화들을 위한 방법 또는 장치에 관한 것이다.
제1 태양에 따르면, 방법이 제공된다. 본 방법은, 비디오 블록의 인트라 예측을 위한 신경망들의 세트를, 상기 비디오 블록의 파티셔닝된 부분들과 주변 영역들의 쌍들을 사용하여 트레이닝시키기 위한 단계; 코덱에 대한 추가적인 인트라 코딩 모드로서 상기 신경망들의 세트를 반복적으로 사용함으로써 상기 비디오 블록과 주변 영역들의 추가 쌍들을 추출하기 위한 단계; 및 상기 추출된 추가 쌍들을 사용하여 상기 신경망들의 세트를 재트레이닝시켜서 인트라 예측을 위한 신경망들의 세트를 생성하는 단계를 포함한다.
제1 태양에 따르면, 방법이 제공된다. 본 방법은 인트라 예측을 위한 신경망들의 세트의 전술된 트레이닝을 위한 단계들을 포함하고, 신경망들의 생성된 세트를 사용하여 비디오 블록의 인코딩 또는 디코딩을 수행하는 단계를 추가로 포함한다.
다른 태양에 따르면, 장치가 제공된다. 장치는 프로세서를 포함한다. 프로세서는 전술된 방법들 중 임의의 것을 실행함으로써 비디오의 블록을 인코딩하거나 비트스트림을 디코딩하도록 구성될 수 있다.
적어도 하나의 실시예의 다른 대체적인 태양에 따르면, 디코딩 실시예들 중 임의의 것에 따른 장치, 및 (i) 신호를 수신하도록 구성된 안테나 - 신호는 비디오 블록을 포함함 -, (ii) 비디오 블록을 포함하는 수신된 신호를 주파수들의 대역으로 제한하도록 구성된 대역 제한기, 또는 (iii) 비디오 블록을 나타내는 출력을 디스플레이하도록 구성된 디스플레이 중 적어도 하나를 포함하는 디바이스가 제공된다.
적어도 하나의 실시예의 다른 대체적인 태양에 따르면, 기술된 인코딩 실시예들 또는 변형예들 중 임의의 것에 따라 생성된 데이터 콘텐츠를 포함하는 비일시적 컴퓨터 판독가능 매체가 제공된다.
적어도 하나의 실시예의 다른 대체적인 태양에 따르면, 기술된 인코딩 실시예들 또는 변형예들 중 임의의 것에 따라 생성된 비디오 데이터를 포함하는 신호가 제공된다.
적어도 하나의 실시예의 다른 대체적인 태양에 따르면, 기술된 인코딩 실시예들 또는 변형예들 중 임의의 것에 따라 생성된 데이터 콘텐츠를 포함하도록 비트스트림이 포맷화된다.
적어도 하나의 실시예의 다른 대체적인 태양에 따르면, 프로그램이 컴퓨터에 의해 실행될 때, 컴퓨터로 하여금, 기술된 디코딩 실시예들 또는 변형예들 중 임의의 것을 수행하게 하는 명령어들을 포함하는 컴퓨터 프로그램 제품이 제공된다.
대체적인 태양들의 이들 및 다른 태양들, 특징들 및 이점들은 첨부된 도면들과 관련하여 읽혀질 예시적인 실시예들의 다음의 상세한 설명으로부터 명백해질 것이다.
도 1은 정사각형 현재 블록의 경우 H.266에서의 인트라 예측을 위한 기준 샘플들을 도시한다.
도 2는 H.266에서의 정사각형 블록들에 대한 인트라 예측의 방향들을 도시한다.
도 3은 상이한 블록 형상들에 대한 MPM 목록을 도출하기 위한 상측 및 좌측 CU 위치들을 도시한다.
도 4는 VTM-6.0의 루마에 대한 인트라 예측 시그널링을 예시하는 결정 트리를 도시한다.
도 5는 VTM-6.0의 크로마에 대한 인트라 예측 시그널링을 예시하는 예시적인 결정 트리를 도시한다.
도 6은 예측될 현재 정사각형 블록을 둘러싸는 콘텍스트의 일례를 도시한다.
도 7은 완전 접속 신경망을 통한 정사각형 블록의 그의 콘텍스트로부터의 인트라 예측의 일례를 도시한다.
도 8은 컨볼루션 신경망을 통한 정사각형 블록의 그의 콘텍스트로부터의 인트라 예측의 일례를 도시한다.
도 9는 H.265를 통한 오리지널 이미지 I로부터의 W×W 블록 Y 및 I의 재구성으로부터의 그의 콘텍스트 X의 추출을 도시한다.
도 10은 H.265를 통한 오리지널 이미지 I로부터의 W×W 블록 Y 및 I의 재구성으로부터의 그의 콘텍스트 X의 다른 추출을 도시한다.
도 11은 H.265를 통한 오리지널 이미지 I로부터의 W×W 블록 YI의 재구성으로부터의 그의 콘텍스트 X의 "extract_pair"를 통한 추출의 일례를 도시한다.
도 12는 H.266을 통한 오리지널 이미지 I로부터의 H×W 블록 YI의 재구성으로부터의 그의 콘텍스트 X의 "extract_pair"를 통한 추출의 일례를 도시한다.
도 13은 이미지 파티셔닝에 의해 주어지는 공간 위치 x, y에서 오리지널 이미지 I로부터의 H×W 블록 Y 및 그의 콘텍스트 X의 "extract_pair"를 통한 추출의 일례를 도시하며, 이때 H.266이 사용된다.
도 14는 표준의 포괄적 비디오 압축 스킴을 도시한다.
도 15는 표준의 포괄적 비디오 압축해제 스킴을 도시한다.
도 16은 대체적인 기술된 태양들 하의 인코딩/디코딩을 위한 프로세서 기반 시스템을 도시한다.
도 17은 대체적인 기술된 태양들 하의 방법의 하나의 실시예를 도시한다.
도 18은 대체적인 기술된 태양들 하의 방법의 다른 실시예를 도시한다.
도 19는 기술된 태양들 하의 예시적인 장치를 도시한다.
인트라 예측은 H.264/AVC, HEVC, 및 VVC와 같은 모든 비디오 압축 표준들에서의 핵심 코딩 툴이다. 기본 아이디어는, 이미 디코딩된 인과성 이웃 픽셀들에 기초하여 픽셀들의 블록을 예측함으로써 이미지 프레임 시퀀스에서의 공간적 상관관계를 이용하는 것이다. 인코더에서의 예측 잔차는 후속적으로 블록 변환으로 변환되고, 변환 계수들은 양자화되고 이어서 이진 인코딩된다. 디코더에서, 블록은 디코딩된 잔차에 예측을 추가함으로써 재구성되는데, 이는 이진 디코딩, 탈양자화 및 역변환의 역 프로세스로부터 생성된다.
예측 목적들을 위해, 표준들은 예측 모드들로 알려진 여러 모델들을 정의한다. HEVC는 예를 들어, 35개의 예측 모드들을 정의하며, 여기서 하나의 예측 모드는 평면 모드이고, 하나의 예측 모드는 DC 모드이고, 나머지 33개의 예측 모드는 각도 모드들이다. 평면 모드 및 DC 모드는 느리게 변화하는 세기 영역 및 점진적으로 변화하는 세기 영역을 모델링하는 것을 목표로 하는 반면, 각도 모드들은 상이한 객체 방향성들을 모델링하는 것을 목표로 한다. 한편, VVC는 67개의 일반 인트라 예측 모드들을 정의하는데, 이들은 HEVC로부터의 35개의 예측 모드들 및 추가적인 32개의 각도 모드들을 포함한다. VVC는 또한, 직사각형 코딩 블록들과 함께 사용될 28개의 광각 모드들을 정의한다. 인코더 예측 툴은 모드 코딩 스킴을 사용하여, 레이트 왜곡 성능의 관점에서 최상의 예측 모드를 선택하고 이를 디코더로 시그널링한다. 디코더 예측 툴은 예측 모드를 디코딩하고, 현재 블록을 예측하며, 이때 이러한 모드는 이웃 픽셀들로부터의 디코딩된 픽셀들을 사용한다.
본 명세서에 기술된 일반적인 태양들은 H.265/HEVC 및 H.266/VVC와 같은 비디오 코덱들에서의 인트라 예측을 위한 트레이닝 신경망들의 문제를 다룬다. "콘텍스트"라는 용어는 신경망에 공급된 블록의 이웃 영역을 지칭하는 데 사용되는데, 이러한 영역은 그 블록의 상측에 디코딩된 픽셀들의 여러 행들을 포함하고 그 블록의 좌측에 픽셀들의 여러 열들을 포함한다. 대조적으로, "기준 샘플들"이라는 용어는 항상, H.265/H.266에서 인트라 예측 모드로 공급된 이러한 블록의 이웃 영역을 지칭하는 데 사용되는데, 이는 그 블록의 상측에 디코딩된 픽셀들의 행을 포함하고 그 블록의 좌측에 디코딩된 픽셀들의 열을 포함한다.
인트라 예측을 위한 신경망은 예측될 현재 블록을 둘러싸는 콘텍스트 또는 이웃 영역으로부터 이러한 블록의 예측을 추론한다. 트레이닝된 신경망들의 세트는 관심 비디오 코덱에서 단일의 추가적인 인트라 예측 모드를 형성한다. 이러한 추가적인 단일 모드에서, 각각의 신경망은 상이한 크기의 블록들을 예측한다.
이러한 세트에서 신경망들을 트레이닝하는 두 가지 방법들이 존재한다. 제1 방식은 랜덤 공간적 위치들에서 블록과 그의 콘텍스트의 코덱 쌍들을 통해
Figure pct00001
이미지들 및 그들의 재구성으로부터 추출하는 것, 이어서, 이들 쌍들에 대해 신경망들을 트레이닝시키는 것으로 이루어진다. 보다 엄밀하게는, 동일한 공간적 위치에서 코덱을 통해, 랜덤 공간적 위치에서
Figure pct00002
이미지로부터 블록이 추출되고 이러한 이미지의 재구성으로부터 그의 콘텍스트가 추출된다. 그러나, 트레이닝된 신경망들은 불명료한 예측들을 제공하는 경향이 있는데, 이는 그들이 블록과 그의 콘텍스트의 무제한적인 다양한 쌍들에 대해 트레이닝되기 때문이다. 트레이닝된 신경망들은 너무 "포괄적"이라고 여겨진다. 제2 방식에서, 관심 코덱을 통해
Figure pct00003
이미지들의 파티셔닝으로부터 블록과 그의 콘텍스트의 쌍들이 추출되고, 이어서, 신경망들은 이들 쌍들에 대해 트레이닝된다. 보다 엄밀하게는, 코덱을 통한
Figure pct00004
이미지의 파티셔닝에 의해 반환된 각각의 블록이 수집되고, 이러한 이미지의 재구성으로부터 그의 콘텍스트가 추출된다. 그러나, 트레이닝된 신경망들은 주로, 코덱의 인트라 예측을 학습하는데, 이는 파티셔닝 메커니즘이, 각각의 반환된 블록이 코덱에서 인트라 예측 모드에 의해 그의 재구성된 기준 샘플들의 세트로부터 상대적으로 잘 예측됨을 보장하기 때문이다. 이때, 트레이닝된 신경망들은 비디오 코덱에 너무 많이 "특화"한 것으로 여겨진다.
트레이닝된 신경망들을 위한 코덱에 대한 극단적인 특화와 극단적인 일반성 사이의 절충점을 찾기 위해, 인트라 예측을 위한 신경망들의 반복 트레이닝이 제안된다. 제1 반복 시, 신경망들의 세트는 상기에 언급된 제2 방식을 따라 트레이닝된다. 이어서, 여러 반복 동안, (i) 신경망들의 세트는 코덱 내로 삽입되고, 단일의 추가적인 신경망 기반 모드에서 코덱을 통해
Figure pct00005
이미지들의 파티셔닝으로부터 블록과 그의 콘텍스트의 쌍들이 추출되며, (ii) 신경망들은 이들 쌍들에 대해 재트레이닝된다. 이러한 방식으로, 제2 반복으로부터, 신경망들은 코덱에서의 인트라 예측으로부터 벗어나지만 레이트-왜곡 성능 면에서 코덱에 여전히 유용한 인트라 예측을 학습한다.
이러한 섹션은 비디오 코덱들의 인트라 예측 성분을 도입한다. 그것은 비디오 코덱 H.266에 중점을 두는데, 이는 그것이 현재, 압축 성능 면에서 최상의 비디오 코덱으로서 보이고 그것이 H.265의 확장이기 때문이다. 이어서, 신경망들에 기초한 인트라 예측은 신경망들을 트레이닝시키기 위한 문헌으로부터의 2개의 접근법들과 함께 제시된다.
H.266에서의 인트라 예측 프로세스는 기준 샘플들을 수집하는 것, 이들을 프로세싱하는 것, 현재 블록의 샘플들의 실제 예측을 도출하는 것, 및 최종적으로, 예측된 샘플들을 사후-프로세싱하는 것으로 이루어진다.
기준 샘플 생성 프로세스는 도 1에 도시되어 있다. 현재 블록의 상위에 위치된 이전에 재구성된 픽셀들로부터 2W개 샘플들의 "상측" 행이 형성되며, W는 블록 폭을 표시한다. 유사하게, 현재 블록의 좌측에 위치된 재구성된 픽셀들로부터 2H개 샘플들의 "좌측" 열이 형성되며, H는 블록 높이를 표시한다. 코너 픽셀은 또한, "상측" 행 기준과 "좌측" 열 기준 사이의 갭을 채우는 데 사용된다. 대응하는 코딩 블록(Coding Block, CB)이 동일한 슬라이스 내에 있지 않거나 현재 CB가 프레임 경계에 있기 때문에 현재 블록의 상측 및/또는 그의 좌측의 샘플들 중 일부가 이용가능하지 않은 경우, 기준 샘플 치환으로 불리는 방법이 수행되며, 여기서 누락된 샘플들은 이용가능한 샘플들로부터 시계방향의 방향으로 복제된다. 이어서, 현재 CU 크기 및 예측 모드에 따라, 기준 샘플들은 특정된 필터를 사용하여 필터링된다.
H.266은 H.265에서의 것들로부터 도출된 예측 모델들의 범위를 포함한다. 평면 및 DC 예측 모드들은 매끄럽게 그리고 점진적으로 변화하는 영역들을 예측하는 데 사용되는 반면, 각도 예측 모드들은 상이한 지향성 구조들을 캡처하는 데 사용된다. 각각의 직사각형 블록 형상마다 상이하게 조직되는 65개의 방향 예측 모드들이 존재한다. 이들 예측 모드들은 도 2에 도시된 바와 같은 상이한 예측 방향들에 대응한다.
인트라 예측은 다수 기준 라인들(Multiple Reference Lines, MRL)을 사용하는 인트라 예측, 서브-파티션들을 사용하는 인트라 예측(Intra prediction with Sub-Partition, ISP), 및 매트릭스 인트라 예측(Matrix Intra-prediction, MIP)과 같은 툴들로 추가로 확장되었다. MIP는 인트라 예측 모드들의 세트인데, 각각의 인트라 예측 모드는 아핀 변환[4]을 통해, 재구성된 픽셀들로부터 현재 블록의 예측을 추론한다. 4×4 블록들의 경우, 35개의 모드들이 존재한다. 4×8, 8×4, 및 8×8 블록들의 경우, 19개의 모드들이 있다. 다른 블록들의 경우, 11개의 모드들이 사용된다.
루마에 대한 인트라 예측 시그널링
하기의 단락은 평면, DC 및 65개의 방향 모드들의 시그널링에 중점을 두어, MRL의 시그널링, ISP의 시그널링, 및 MIP의 시그널링을 생략한다. 이들 마지막 3개의 시그널링은 후속 단락들에서 상술될 것이다.
평면 모드 , DC 모드 및 65개의 방향 모드들의 시그널링
인코더 측에서, 최상의 인트라 예측 모드는 레이트-왜곡 기준에 따라 선택되고, 그의 인덱스가 인코더로부터 디코더로 송신된다. 엔트로피 코딩을 통한 선택된 모드 인덱스의 시그널링을 수행하기 위해, 최고 확률 모드(Most Probable Mode, MPM)들의 목록이 구축된다.
VTM-6.0에서, MPM 목록은 현재 블록의 인트라 예측 모드를 시그널링하기 위한 6개의 인트라 예측 모드들을 포함한다. MPM 목록은 현재 CU의 상측 및 좌측에 위치된 인트라 코딩된 CU들의 예측 모드들 및 일부 디폴트 모드들로부터 생성된다. 상측 및 좌측 CU들은 도 3에 도시된 바와 같이, 현재 블록의 우측 및 하단 에지에 있다.
L ≡ 좌측 CU의 예측 모드(범위 [0 - 66] 내의 값)
A ≡ 상측 CU의 예측 모드(범위 [0 - 66] 내의 값)
오프셋 = 61
mod = 64
MPM 목록의 초기화:
MPM[0] = PLANAR_IDX
MPM[1] = DC_IDX
MPM[2] = VER_IDX
MPM[3] = HOR_IDX
MPM[4] = VER_IDX - 4
MPM[5] = VER_IDX + 4
if (L = A)
if (L > DC_IDX)
MPM[0] = PLANAR_IDX
MPM[1] = L
MPM[2] = ((L + offset) % mod) + 2
MPM[3] = ((L - 1) % mod) + 2
MPM[4] = DC_IDX
MPM[5] = ((L + offset - 1) % mod) + 2
else
use initialized values
else
if ((L > DC_IDX) && (A > DC_IDX))
MPM[0] = PLANAR_IDX
MPM[1] = L
MPM[2] = A
MPM[3] = DC_IDX
MPM[4] = ((max(L,A) + offset) % mod) + 2, L 및 A가 인접하지 않는 경우
= ((max(L,A) + offset - 1) % mod) + 2, 그렇지 않은 경우
MPM[5] = ((max(L,A) - 1) % mod) + 2, L 및 A가 인접하지 않는 경우
= ((max(L,A) - 0) % mod) + 2, 그렇지 않은 경우
else if (L + A >= 2)
MPM[0] = PLANAR_IDX
MPM[1] = max(L,A)
MPM[2] = DC_IDX
MPM[3] = ((max(L,A) + offset) % mod) + 2
MPM[4] = ((max(L,A) - 1) % mod) + 2
MPM[5] = ((max(L,A) + offset - 1) % mod) + 2
else
use initialized values
범위 [2 - 66]에 걸쳐 순환 인접성(circular adjacency)을 사용하여, 그것은 동등하게 기록될 수 있다
((L + offset) % mod) + 2 ≡ L - 1
((L + offset - 1) % mod) + 2 ≡ L - 2
((L - 1) % mod) + 2 ≡ L + 1
((L - 0) % mod) + 2 ≡ L + 2
상기 관계들을 사용하여, MPM 목록 도출이 표 1 내의 것임을 알 수 있다.
Figure pct00006
현재 블록을 예측하기 위한 선택된 인트라 예측 모드가 6개의 MPM 모드들 중 하나의 MPM 모드에 대응하는 경우, 이는 mpmFlag가 값 1을 갖는 것을 통해, 그리고 이어서, 표 2에 도시된 가변 길이 코딩 스킴을 사용하여 MPM 목록으로부터의 후보 모드를 시그널링함으로써 시그널링된다. 그렇지 않은 경우, mpmFlag는 0과 동일하고, 나머지 61개의 모드들의 세트에서의 후보 인덱스는 5개 비트들 또는 6개 비트들 중 어느 하나로 인코딩된 절삭형 이진수(truncated binary)이다.
Figure pct00007
다수 기준 라인들(MRL)의 시그널링
MRL을 사용하는 인트라 예측의 경우, 예측을 위해 사용되는 기준 라인은 플래그 multiRefIdx로 시그널링된다. multiRefIdx의 유효 값들은 0, 1, 및 3이며, 이들은 각각 제1, 제2, 및 제4 기준 라인을 시그널링한다. multiRefIdx가 0이 아닐 때 - 이는 제2 기준 라인 또는 제4 기준 라인 중 어느 하나가 사용된다는 것을 의미함 -, 예측 모드는 항상 MPM 목록에 속한다. 따라서, mpmFlag는 시그널링되지 않는다. 더욱이, 평면은 목록에서 배제된다. 이는, multiRefIdx가 0이 아닐 때, 5개의 예측 모드들만이 가능한 후보들로서 이용가능하다는 것을 의미한다. multiRefIdx가 0이 아닐 때, 예측 모드는 표 3에 나타내진 바와 같이 시그널링된다.
Figure pct00008
서브파티션들을 사용한 인트라 예측(ISP)의 시그널링
ISP의 경우, CU를 위해 사용되는 파티셔닝의 유형은 ispMode로 불리는 플래그로 시그널링된다. ispModemultiRefIdx가 0과 동일한 때에만 인코딩된다. ispMode의 유효 값들은 0, 1, 및 2이며, 이들은 각각 파티셔닝 없음, 수평 파티셔닝, 및 수직 파티셔닝을 시그널링한다.
매트릭스 인트라 예측(MIP)의 시그널링
MIP 모드는 먼저, mipFlag로 불리는 플래그로 시그널링되는데, 1의 값은 MIP 모드가 현재 블록을 예측하기 위해 사용된다는 것을 의미하고, 0의 값은 67개의 인트라 예측 모드들 중 하나의 인트라 예측 모드가 사용된다는 것을 의미한다. mipFlag가 1과 동일할 때, multiRefIdx는 반드시 0과 동일한데, 이는 제1 기준 라인이 사용되고, ispMode가 0과 동일하다는 것, 즉 어떠한 타깃 CU 파티션도 없다는 것을 의미한다. 따라서, mipFlag가 1과 동일할 때, multiRefIdxispMode는 비트스트림에 기록되지 않는다. mipFlag가 1과 동일한 경우, 선택된 MIP 모드의 인덱스는 VTM-6.0이므로 인코딩된 절삭형 이진수이다.
현재 블록을 예측하기 위한 인트라 예측 모드가 67개의 인트라 예측 모드들 중 하나의 인트라 예측 모드이고 상측 CU를 예측하기 위한 선택된 모드 또는 좌측 CU를 예측하기 위한 선택된 모드가 MIP 모드인 경우를 처리하기 위해, 각각의 MIP 모드와 종래 모드들 중 하나의 종래 모드 사이의 맵핑은 이러한 MIP 모드를 그의 맵핑된 종래 모드로 대체할 수 있게 한다. VTM-6.0이므로, 임의의 MIP 모드가 평면에 맵핑된다.
루마에 대한 인트라 예측 시그널링의 요약
루마에 대한 인트라 예측 시그널링은 도 4의 결정 트리를 통해 요약된다. 도 4에서, 연회색의 플래그는, 플래그의 값이 인코더 측에서 비트스트림에 기록되고 디코더 측에서 비트스트림으로부터 판독된 이전 플래그들의 값으로부터 추론됨을 나타낸다. 이는 연회색의 플래그들이 인코더 측에서 비트스트림에 기록되지 않고; 그들이 디코더 측에서 비트스트림으로부터 판독되지 않는다는 것을 의미한다.
크로마에 대한 인트라 예측 시그널링
2개의 크로마 채널들의 경우, MRL도 ISP도 MIP도 사용되지 않는다. 그러나, 2개의 특정 툴들이 사용된다: 직접 모드 및 교차 성분 선형 모델(Cross Component Linear Model, CCLM). 직접 모드는 공동위치된 루마 블록을 예측하기 위한 선택된 모드를 현재 크로마 블록의 예측에 적용하는 것에 대응한다. directFlag는 1과 동일하고, 직접 모드는 현재 크로마 블록을 예측하기 위해 선택된다. 그렇지 않은 경우, directFlag는 0과 동일하고, 목록 L = [평면, 수직, 수평, DC] 내의 하나의 모드가 선택된다. L 내의 모드가 직접 모드와 동일한 경우, 이러한 모드는 인덱스 66의 모드로 대체된다. CCLM에서, 선형 모델은 공동위치된 루마 블록을 둘러싸는 재구성된 루마 기준 샘플들로부터 현재 크로마 블록을 예측한다. 선형 모델의 파라미터들은 재구성된 기준 샘플들로부터 도출된다. 3개의 CCLM 모드들이 존재하며, 이들 각각은 파라미터들의 상이한 도출과 연관된다. cclmFlag가 1과 동일한 경우, 3개 중 하나의 CCLM 모드가 선택된다. 이러한 경우, directFlag는 비트스트림에 기록되지 않는다. 그렇지 않은 경우, cclmFlag는 0과 동일하고, 직접 모드 또는 L 내의 모드들 중 하나의 모드 중 어느 하나가 선택된다. 크로마에 대한 인트라 예측 시그널링은 도 5에 표현된다.
신경망 기반 인트라 예측
인트라 예측을 위한 신경망은 예측될 현재 블록을 둘러싸는 콘텍스트로부터 이러한 블록의 예측을 추론한다. 콘텍스트
Figure pct00009
는 H.266에서의 인트라 예측을 위한 재구성된 기준 샘플들의 세트와 유사하게, 현재 블록 Y 상측에 그리고 그의 좌측에 위치되는 재구성된 픽셀들로 구성된다. 그러나, 이와는 달리, 콘텍스트
Figure pct00010
는 좌측 및 상단을 향해 연장된다 - 도 6 참조. 이러한 연장부 덕분에, 신경망은 그의 입력 콘텍스트 내의 공간 상관관계들과 그것이 제공하는 예측 사이의 관계를 학습할 수 있다. 섹션 "비디오 코덱 내부에서의 신경망 기반 인트라 예측 모드의 시그널링(Signaling the neural network-based intra prediction mode inside a video codec)"에서 상술된 바와 같이,
Figure pct00011
에서 아래첨자 "c"는 콘텍스트 내의 재구성된 픽셀들이 이미 사전-프로세싱되었음을 나타낸다는 점에 주목한다.
신경망이 완전 접속되는 경우, 콘텍스트는 전형적으로, 벡터로 플랫화(flat)되고, 생성된 벡터는 신경망에 공급된다. 이어서, 신경망에 의해 제공되는 벡터는 현재 블록의 형상으로 재형상화되어, 예측
Figure pct00012
를 산출한다 - 도 7 참조.
Figure pct00013
에서 아래첨자 "c"는 예측된 픽셀들이 아직 사후-프로세싱되지 않았음 - 이는 섹션 "비디오 코덱 내부에서의 신경망 기반 인트라 예측 모드의 시그널링"에서 설명됨 - 을 나타낸다는 점에 주목한다.
신경망이 컨볼루션형인 경우, 콘텍스트는 2개의 부분들로 분할될 수 있다. 이어서, 각각의 부분이 컨볼루션 층들의 스택에 공급된다. 컨볼루션 층들의 2개의 스택들의 출력에서의 특징부 맵들의 2개의 스택들은 완전 접속을 통해 병합된다. 마지막으로, 병합의 결과는 전치 컨볼루션 층들의 스택에 삽입되어, 예측
Figure pct00014
를 산출한다 - 도 8 참조.
비디오 코덱 내부에서의 신경망 기반 인트라 예측 모드의 생성
H.265 및 H.266에서, 이미지는 코딩 트리 단위(Coding Tree Unit, CTU)들로 분할된다. CTU는 루미넌스 코딩 트리 블록(Coding Tree Image block, CTB), 2개의 크로미넌스 CTB들, 및 신택스 요소들을 포함한다. 이제부터, 중점은 단순화를 위해 루미넌스 CTB들에 둔다. CTB들은 래스터 스캔 순서로 한 번에 하나씩 프로세싱된다. 각각의 CTB는 계층구조적으로, 코딩 블록(CB)들로 분할될 수 있다. CTB 내의 CB들은 Z-스캔 순서로 프로세싱된다. H.265에서, 예를 들어, 예측될 블록의 크기는 64×64, 32×32, 16×16, 8×8 또는 4×4 중 어느 하나일 수 있다. 이는, 예측될 블록의 각각의 크기에 대해 하나씩, 5개의 신경망들이 필요하다는 것을 의미한다. 따라서, 신경망 기반 인트라 예측 모드는 5개의 신경망들로 이루어진다. H.266에서, 계층구조 분할이 더 정교하기 때문에, 예측될 블록은 128×128, 64×64, 32×32, 16×16, 8×8 또는 4×4 중 어느 하나의 크기의 것일 수 있다. 게다가, 그것은 또한, 직사각형, 예컨대 크기 4×8의 것일 수 있다. 이러한 경우, 솔루션은 신경망 기반 모드를 구축하기 위해 블록 크기당 하나의 신경망을 할당하는 것이다.
비디오 코덱 내부에서의 신경망 기반 인트라 예측 모드의 시그널링
신경망 기반 인트라 예측 모드를 비디오 코덱에 통합하는 상이한 작업들[1, 2, 3], 통상 H.265에서, 신경망 기반 모드는 기존의 것들과 체계적으로 경쟁한다. 예측될 현재 블록의 경우, 인트라 예측을 위한 모든 다른 플래그들에 앞서 플래그가 비트스트림에 기록된다. 값 1은 신경망 기반 인트라 예측 모드가 현재 블록을 예측하기 위해 선택됨을 나타낸다. 이러한 경우, 인트라 예측을 위한 어떠한 다른 플래그도 비트스트림에 기록되지 않는다. 값 0은 하나의 일반 인트라 예측이 선택된다는 것을 의미한다. 이러한 경우, 이어서, 인트라 예측을 위한 일반 플래그들이 비트스트림에 기록된다.
상기에 언급된 시그널링은 H.265에서 구현되었다는 점에 주목한다. H.266에서는 아직 어떠한 접근법도 제안되지 않았다. 특히, 신경망 기반 모드가 선택될 때 플래그들 mipFlag, multiRefIdx, 및 ispMode를 어떻게 처리할지가 아직 명확하지 않다.
인트라 예측을 위한 신경망들의 트레이닝
문헌에서, 인트라 예측을 위해 신경망들 트레이닝시키는 2개의 주요 방식들이 존재한다. "랜덤" 데이터 추출을 통한 트레이닝 및 "파티셔닝" 데이터 추출을 통한 트레이닝으로 불리는 2개의 방식들이 하기의 2개의 섹션들에서 기술된다.
"랜덤" 데이터 추출을 통한 트레이닝
인트라 예측을 위해 신경망들을 트레이닝시키는 제1 방식에서, 랜덤 공간적 위치들에서 관심 코덱을 통해
Figure pct00015
이미지들 및 이들의 재구성으로부터 블록과 그의 콘텍스트의 쌍들이 추출되고, 이어서, 신경망들은 이들 쌍들에 대해 트레이닝된다. 보다 구체적으로, W×W 블록들을 예측하기 위한 신경망의 트레이닝의 예를 취한다.
Figure pct00016
개의 이미지들의 세트 내의 각각의 이미지 I에 대해, 이러한 이미지는 관심 코덱을 통해, 그리고 여러번, (i) 랜덤 공간적 위치 (x, y)에서 I로부터 W×W 블록 Y가 추출되고 - 도 9 참조 -, (ii) (x, y)에서 I의 재구성
Figure pct00017
로부터 그의 콘텍스트 X가 추출되고, (iii) 블록 및 그의 콘텍스트는 사전-프로세싱되고, W×W 블록들을 예측하기 위한 신경망의 트레이닝 세트에 추가된다. 도 9는 H.265를 통한 오리지널 이미지 I로부터의 W×W 블록 Y 및 I의 재구성 I로부터의 그의 콘텍스트 X의 추출을 도시하며, 이때 37의 양자화 파라미터(QP)는 동일한 랜덤 공간적 위치 x, y에 있다. 여기서, 이미지는 4:2:0, W=8, x=8, 및 y=16에 있다. 쌍 x, y는 I에서 Y의 상단 좌측에 있는 픽셀의 포지션에 대응한다는 점에 주목한다.
그러나, "랜덤" 데이터 추출을 통한 트레이닝을 사용하여, 트레이닝된 신경망들은 통상, 그들이 블록과 그의 콘텍스트의 무제한적인 다양한 쌍들에 대해 트레이닝되기 때문에 불명료한 예측을 제공하는데, 통상, 이는 블록의 많은 예측들은 그의 콘텍스트를 제공받을 가능성이 있다.
" 파티셔닝 " 데이터 추출을 통한 트레이닝
인트라 예측을 위해 신경망들을 트레이닝시키는 제2 방식에서, 코덱을 통해
Figure pct00018
이미지들의 파티셔닝으로부터 블록과 그의 콘텍스트의 쌍들이 추출되고, 이어서, 신경망들은 이들 쌍들에 대해 트레이닝된다. 또한, W×W 블록들을 예측하기 위한 신경망의 트레이닝의 예에 중점을 둘 것이다.
Figure pct00019
개의 이미지들의 세트 내의 각각의 이미지 I에 대해, 이러한 이미지는 관심 코덱을 통해 인코딩되고, 이미지 파티셔닝에 의해 반환된 각각의 W×W 블록 Y에 대해, (i) 이미지 파티셔닝에 의해 주어진 공간적 위치
Figure pct00020
에서 I로부터 Y가 추출되고 - 도 10 참조 -, (ii)
Figure pct00021
에서 I의 재구성
Figure pct00022
로부터 그의 콘텍스트 X가 추출되고, (iii) 블록 및 그의 콘텍스트는 사전-프로세싱되고, W×W 블록들을 예측하기 위한 신경망의 트레이닝 세트에 추가된다. 도 10은 H.265를 통한 오리지널 이미지 I로부터의 W×W 블록 Y 및 I의 재구성으로부터의 그의 콘텍스트 X의 추출을 도시하며, 이때 37의 QP는 이미지 파티셔닝에 의해 주어진 공간적 위치 xY, yY에 있다. 여기서, 이미지는 4:2:0, W=8, xY=8, yY=24에 있다. 쌍 xY, yY는 I에서 Y의 상단 좌측에 있는 픽셀의 포지션에 대응한다는 점에 주목한다.
그러나, "파티셔닝" 데이터 추출을 통한 트레이닝을 사용하여, 트레이닝된 신경망들은 주로, 관심 코덱의 인트라 예측을 학습한다.
기술된 태양들은 인트라 예측을 위해 신경망들을 트레이닝하여, 그들이 관심 코덱에서의 인트라 예측으로부터 벗어나지만 레이트-왜곡 성능 면에서 코덱에 여전히 유용한 인트라 예측을 학습하도록 한다는 것을 목표로 한다. 신경망들의 세트는 인코더 및 디코더의 외부에서 트레이닝된다. 신경망들의 고유 세트가 있을 수 있고, 그 세트는 실제 인코딩 및 디코딩에 앞서 트레이닝된다. 이어서, 트레이닝된 신경망의 동일한 세트가 인코더 및 디코더 둘 모두에 투입된다. 디코더는 신경망들의 세트를 선택하기 위해 그에 알려줄 정보를 필요로 하지 않는다. 이어서, 실제 인코딩 및 디코딩이 시작될 수 있다.
인트라 예측을 위한 신경망들의 반복 트레이닝
기술된 태양들의 제1 요지는 학습된 모델이 불명료한 예측들을 제공하는 경우를 회피하는 것인데, 그 이유는 그것이 블록과 그의 콘텍스트의 무제한적인 다양한 쌍들에 대해 트레이닝되었기 때문이다. 그것이
Figure pct00023
개 이미지들의 세트 Γ가 코덱을 통해 인코딩되어 트레이닝 세트들
Figure pct00024
를 산출하는 이유이며, 여기서
Figure pct00025
는 Γ에서 이미지의 파티셔닝에 의해 제공된 크기 H×W의 블록과 그의 콘텍스트의 쌍들을 포함한다. 이어서,
Figure pct00026
에 의해 파라미터화된 각각의 신경망
Figure pct00027
Figure pct00028
에 대해 트레이닝된다 - 방법 1 참조.
Figure pct00029
는 코덱에서 모든 가능한 블록 높이들의 세트인 반면,
Figure pct00030
는 코덱에서 모든 가능한 블록 폭들의 세트이다.
관심 코덱에서의 이미지 파티셔닝이 변환 블록(Transform Block, TB)을 반환한다는 점에 주목하는 것은 필수적이다. 코덱 내부에는, TB 크기가 아닌 코딩 블록(CB) 크기가 존재할 수 있는데, 이는 이러한 크기의 CB가 분할되도록 강제되기 때문이다. 코덱에서 단일의 추가적인 신경망 기반 인트라 예측 모드는 신경망이 이러한 크기의 CB들의 예측에 전용되게 한다. 따라서, 이러한 크기의 CB들을 예측하기 위한 신경망은 트레이닝되어야 하지만, 그의 트레이닝 세트는 이전 단락에 기술된 방법을 통해 생성될 수 없다. 대신, 섹션 ""랜덤" 데이터 추출을 통한 트레이닝"에서 설명된 "랜덤" 데이터 추출을 통한 트레이닝은 이러한 신경망을 트레이닝시키기 위해 사용될 수 있다. 일례로서, H.265에서, H=W인데, 이는 블록이 정사각형이고 W∈
Figure pct00031
={4, 8, 16, 32}이기 때문이다. 실제로, 64×64의 최대 CB 크기는 TB 크기가 아닌데, 이는 64×64 CB가 이미지 파티셔닝 동안 분할되도록 강제되기 때문이다.
방법 1: 관심 코덱에서 인트라 예측을 위한 신경망들의 반복 트레이닝
Figure pct00032
- 방법 2 및 방법 4 참조.
Figure pct00033
, 여기서
Figure pct00034
는 랜덤으로 초기화된다.
Figure pct00035
Figure pct00036
- 방법 3과 방법 5 비교
Figure pct00037
, 여기서
Figure pct00038
- 초기 설정 시.
Figure pct00039
트레이닝의 이러한 단계에서, 학습된 모델들은 관심 코덱에서 인트라 예측을 재현하는 경향이 있다. 이는, 트레이닝 블록들을 생성하는 이미지 파티셔닝이, 이러한 코덱에서 인트라 예측 모드에 의해 재구성된 기준 샘플들의 세트로부터 각각의 트레이닝 블록이 상대적으로 잘 예측됨을 보장한다는 사실로 인한 것이다. 신경망들이 코덱에서의 인트라 예측으로부터 계속해서 벗어나지만 코덱에 여전히 유용한 인트라 예측을 학습할 수 있게 하기 위해, l-1회 반복을 위해, (i) 트레이닝 세트들은 마지막 단락에서 기술된 바와 같이 구축되지만, 코덱을 단일의 추가적인 신경망 기반 모드로의 코덱으로 대체하고, (ii) 신경망들은 이들 트레이닝 세트들에 대해 재트레이닝된다 - 방법 1 참조.
코덱을 통해 Γ에서 각각의 이미지를 인코딩하고, 이어서, 방법 1에서 "extract_from_partitioning"로 불리는 이러한 이미지의 파티셔닝에 의해 제공된 크기 H×W의 블록과 그의 콘텍스트의 쌍들
Figure pct00040
Figure pct00041
를 추출하는 함수는 코덱의 특수성에 의존한다. 유사하게, 단일의 추가적인 신경망 기반 인트라 예측 모드에서 코덱을 통해 Γ에서 각각의 이미지를 인코딩하고, 이어서, 방법 1에서 "extract_from_partitioning_nn"로 불리는 이러한 이미지의 파티셔닝에 의해 제공된 크기 H×W의 블록과 그의 콘텍스트의 쌍들
Figure pct00042
를 추출하는 함수는 코덱의 아키텍처에 의존한다. 그것이, 하기의 2개의 섹션들에서 특정적 코덱에 반복 트레이닝을 적용할 때 "extract_from_partitioning" 및 "extract_from_partitioning_nn"가 제시되는 이유이다. 방법 1에서,
Figure pct00043
는 신경망
Figure pct00044
의 파라미터들
Figure pct00045
에 걸쳐 최소화될 목적 함수이다.
H.265에서 인트라 예측을 위한 신경망들의 반복 트레이닝
관심 코덱이 H.265일 때, "extract_from_partitioning"이 정확하게 기술될 수 있다 - 방법 2 참조. Γ에서의 이미지 I는 "h265"로 표시되는 H.265를 통해 인코딩되어, H.265를 통해 I의 파티셔닝으로부터 I의 재구성
Figure pct00046
및 블록들의 특성들의 세트 B를 산출한다. 블록의 특성들은 I 내의 블록의 상단 좌측에 있는 픽셀의 포지션 (x, y), 블록 폭 W, 아직 재구성되지 않은 블록의 하단 좌측에 있는 행들의 수
Figure pct00047
, 및 아직 재구성되지 않은 블록의 상측 우측에 있는 열들의 수
Figure pct00048
을 수집한다.
Figure pct00049
Figure pct00050
은 아직 재구성되지 않은 블록의 콘텍스트 내에 픽셀들을 채우는 데 유용하다는 점에 주목한다. 이어서, 각각의 블록에 대해, 그의 특성들은 I로부터 블록 Y를 추출하고
Figure pct00051
로부터 그의 콘텍스트 X를 추출하는 데 사용된다 - 도 11 참조. 도 11은 H.265를 통한 오리지널 이미지 I로부터의 W×W 블록 YI의 재구성 I로부터의 그의 콘텍스트 X의 "extract_pair"를 통한 예시적인 추출을 도시하며, 이때 37의 QP는 이미지 파티셔닝에 의해 주어진 공간적 위치 x, y에 있다. 이미지는 4:2:0, W=8, x=8, y=16에 있다. 여기서, 블록의 하단 좌측에 있는 n0=8개 행들은 아직 재구성되어 있지 않고, 블록의 상측 우측에 있는 모든 행들은 이미지 재구성되어 있다.
마지막으로, X Y는 함수 "사전-프로세스"를 통해 사전-프로세싱되어, 트레이닝 세트
Figure pct00052
에 추가될 트레이닝 쌍
Figure pct00053
를 산출한다.
방법 2: H.265의 경우의 "extract_from_partitioning"
Figure pct00054
- 도 11 참조.
Figure pct00055
"extract_from_partitioning_nn"은 "extract_from_partitioning"과 동일한 설명을 따르지만, H.265를 방법 3에서 "h265_nn"으로 표시된 단일의 추가적인 신경망 기반 인트라 예측 모드에서의 H.265로 대체한다.
방법 3: H.265의 경우의 "extract_from_partitioning_ nn "
Figure pct00056
- 도 11 참조.
Figure pct00057
H.266에서 인트라 예측을 위한 신경망들의 반복 트레이닝
관심 코덱이 H.266일 때, 방법 2에서 보여진 "extract_from_partitioning" 및 방법 3에서 상술된 "extract_from_partitioning_nn"은 2개의 방식들로 수정된다. 첫째, H.266을 통한
Figure pct00058
이미지의 파티셔닝에 의해 반환된 블록은 직사각형일 수 있다. 이는 블록 높이 H가 이제 B 내의 각각의 블록의 특성들에 추가된다는 것을 암시한다. 게다가, "extract_pair"는 직사각형 블록들로 연장된다 - 도 12 참조. 도 12는 H.266을 통한 오리지널 이미지 I로부터의 H×W 블록 YI의 재구성 I로부터의 그의 콘텍스트 X의 "extract_pair"를 통한 예시적인 추출을 도시하며, 이때 37의 QP는 이미지 파티셔닝에 의해 주어진 공간적 위치 x, y에 있다. 이미지는 4:2:0, H=8, W=4, x=8, y=16에 있다. 여기서, 블록의 하단 좌측에 있는 n0=8개 행들은 아직 재구성되어 있지 않고, 블록의 상측 우측에 있는 모든 행들은 이미 재구성되어 있다.
둘째, H.265는 "h266"로 표시된 H.266으로 대체되고, 단일의 추가적인 신경망 기반 인트라 예측 모드에서의 H.265는 "h266_nn"로 표시된 단일의 추가적인 신경망 기반 모드에서의 H.266으로 대체된다 - 방법 4 및 방법 5 참조.
방법 4: H.266의 경우의 "extract_from_partitioning"
Figure pct00059
- 도 12 참조.
Figure pct00060
방법 5: H.266의 경우의 "extract_from_partitioning_ nn "
Figure pct00061
- 도 12 참조.
Figure pct00062
제안된 반복 트레이닝의 변형예들
양자화 파라미터가 인출되는 임의의 분포
디폴트에 의해, 방법 2, 방법 3, 방법 4, 및 방법 5에서, Γ에서 주어진
Figure pct00063
이미지 I 가 관심 코덱을 통해 인코딩되도록 하기 위해, 인코딩하기 위한 양자화 파라미터(QP)는 세트 {22, 27, 32, 37}로부터 균일하게 인출된다. 그러나, QP는 반드시 균일한 것이 아니라, 임의의 세트로부터 인출될 수 있다.
트레이닝의 각각의 반복 시의 신경망들의 랜덤 초기화
방법 1에서, 인덱스
Figure pct00064
의 반복 시, 최소화의 시작에서, 각각의 신경망의 파라미터들은 인덱스 i-1의 반복의 끝에서 획득되는 신경망 파라미터들로 초기화된다. 대안적으로, 인덱스 i의 반복 시, 최소화의 시작에서, 각각의 신경망의 파라미터들은 랜덤으로 초기화될 수 있다.
오리지널 이미지로부터의 주어진 블록의 콘텍스트의 추출
앞선 섹션들에서, 관심 코덱을 통해 인코딩되어 그의 재구성
Figure pct00065
를 산출한 Γ에서 주어진
Figure pct00066
이미지 I 의 경우, 블록 Y I 로부터 추출되는 반면, 그의 콘텍스트 X
Figure pct00067
로부터 추출된다. 대안적으로, 콘텍스트는 또한, I로부터 추출될 수 있다. 예를 들어, 관심 코덱이 H.266인 경우, 현재 변형예는 도 12를 도 13으로 변환된다. 도 13은 이미지 파티셔닝에 의해 주어지는 공간 위치 x,y에서 오리지널 블록 I로부터의 H×W 블록 Y 및 그의 콘텍스트 X의 "extract_pair"를 통한 추출을 도시하며, 이때 H.266은 37의 QP로 I를 인코딩하는 데 사용된다. 이미지는 4:2:0, H=8, W=4, x=8, y=16에 있다. 여기서, 블록의 하단 좌측에 있는 n0=8개 행들은 아직 재구성되어 있지 않고, 블록의 상측 우측에 있는 모든 행들은 이미 재구성되어 있다.
트레이닝의 제1 반복 시, " 파티셔닝 " 데이터 추출로의 "랜덤" 데이터 추출의 치환
방법 1에서, 제1 단계는 "파티셔닝" 데이터 추출에 대응하고, 그의 원리는 앞서 설명되어 있다. 대신, 제1 단계는 "랜덤" 데이터 추출에 해당할 수 있고, 그의 절차는 앞선 섹션에 상술되어 있다. 후자의 경우, 반복 트레이닝의 제1 반복의 종료 시, 트레이닝된 신경망들은 극히 "포괄적"인 인트라 예측자들이라는 점에 주목한다. 이어서, 제2 반복으로부터, 트레이닝된 신경망들은 관심 코덱으로 특화한다.
신경망들을 통해 블록들의 콘텍스트로부터 단독으로 " 예측불가능"한 그 블록들의 트레이닝 세트들로부터의 제거
반복 트레이닝의 반복
Figure pct00068
시, 트레이닝 세트들
Figure pct00069
를 생성할 때 - 방법 1 참조 -, 단일의 추가적인 신경망 기반 모드에서 관심 코덱을 통한
Figure pct00070
이미지의 파티셔닝에 의해 블록이 반환될 수 있는데, 그 이유는 이러한 코덱에서의 일반 인트라 예측 모드가 이러한 블록의 예측에 상대적으로 높은 예측 품질을 제공하기 때문이다. 그러나, 이러한 블록은 단일의 추가적인 신경망 기반 모드를 통해 그의 콘텍스트로부터 단독으로는 "예측불가능"할 수 있다. 이전에 트레이닝된 모델을 통해 블록들의 콘텍스트로부터 단독으로 "예측불가능"한 그 블록들을 사용하여 신경망을 트레이닝시키는 것을 회피하기 위해, 방법 3 및 방법 5에는 이들 블록들을 검출하고 제거하는 조건이 보완될 수 있는데, 각각의 블록은 그의 콘텍스트와 쌍을 이룬다. 임의의 조건이 사용될 수 있다.
예를 들어, 2개의 상이한 조건들이 설명된다. 2개의 조건들에서, 트레이닝 세트들은 루미넌스 블록들을 배타적으로 포함한다. 이는, 방법 2, 방법 3, 방법 4, 및 방법 5에서, 단일의 추가적인 신경망 기반 모드에서 관심 코덱을 통해 인코딩된 Γ에서 주어진
Figure pct00071
이미지 I 의 경우, I의 루미넌스 채널로부터 루미넌스 블록 Y가 추출되는 반면, I의 재구성 I의 루미넌스 채널로부터 그의 루미넌스 콘텍스트 X가 추출된다.
이러한 제1 조건은 2개의 경우들로 분리된다. 제1 경우에,
Figure pct00072
이미지의 파티셔닝에 의해 반환된 루미넌스 블록(TB)은 그의 루미넌스 PB를 상이한 루미넌스 TB들로 분할하는 것으로부터 발생하지 않는데, 즉, 이러한 TB 및 그의 PB는 동등하다. 제1 경우는 플래그 isSplit=false에 의해 나타내진다. 제2 경우에, isSplit=true이고, 루미넌스 TB는 이러한 종류의 적어도 하나의 분할로부터 유래한다. isSplit=false인 경우, 이러한 루미넌스 TB에 대한 모든 인트라 예측 모드들에 걸친 t개의 최저 "빠른 비용(fast cost)들" 및 이러한 루미넌스 TB에 대한 단일의 추가적인 신경망 기반 모드의 "빠른 비용"
Figure pct00073
을 찾는다. 블록에 대한 인트라 예측 모드의 "빠른 비용"은 이러한 블록과 모드 예측 사이의 왜곡과 이러한 모드를 시그널링하는 비용의 근사치를 선형적으로 조합한다. H.265에서, 왜곡은 절대 차이의 합(Sum of Absolute Difference, SAD)인 반면, H.266에서, 그것은 SAD의 2배와 절대 변환 차이의 합(Sum of Absolute Transform Difference, SATD) 사이의 최소치이다.
Figure pct00074
Figure pct00075
와 t-번째 최저 "빠른 비용"
Figure pct00076
의 곱셈보다 작은 경우, 루미넌스 TB는 트레이닝 세트에 추가된다. 그렇지 않은 경우, 그것은 무시된다. 전형적으로, γ ∈[0.90, 1.10]은 잘 작동한다. t는 관심 코덱에서 일반 인트라 예측 모드들의 수보다 더 작은 임의의 값을 취할 수 있다. 예를 들어, t∈{2, 3}은 잘 작동한다. isSplit=true인 경우, 루미넌스 TB는, 인덱스 idxNN의 단일의 추가적인 신경망 기반 모드가 이러한 TB를 예측하기 위해 선택되는 경우에 트레이닝 세트에 추가된다. 예를 들어, 이러한 변형예에서, 방법 5는 방법 6이 된다.
방법 6: H.266 및 상기 섹션에서의 제1 조건의 경우의 "extract_from_partitioning_nn"
Figure pct00077
방법 6에서, m은 이미지 파티셔닝에 의해 반환된 현재 TB를 예측하기 위해 선택된 인트라 예측 모드의 인덱스를 지칭한다.
제2 조건에서, 플래그 isSplit는 더 이상 사용되지 않는다 - 방법 7 참조.
방법 7: H.266 및 상기 섹션에서의 제2 조건의 경우의 "extract_from_partitioning_nn"
Figure pct00078
이전의 변형예에서 왜곡의 측정치로 "빠른 비용"을 대체
섹션 "신경망들을 통해 블록들의 콘텍스트로부터 단독으로 "예측불가능"한 그 블록들의 트레이닝 세트들로부터의 제거"에서의 변형예에서, 현재 루미넌스 TB에 대한 인트라 예측 모드의 각각의 "빠른 비용"은 현재 루미넌스 TB와 이러한 모드에 의해 제공된 예측 사이의 왜곡으로 대체될 수 있다. 왜곡의 임의의 측정치는 유효하다. 예를 들어, 현재 루미넌스 TB와 "예측 SSD"로 불리는 모드에 의해 주어진 예측 사이의 제곱 차이들의 합이 왜곡의 측정치로서 선택되는 경우, 변형예는 이전의 섹션에서와 같이 적응된다. isSplit=false인 경우, 이러한 루미넌스 TB에 대한 모든 인트라 예측 모드들에 걸친 t개의 최저 예측 SSD들 및 이러한 루미넌스 TB에 대한 단일의 추가적인 신경망 기반 모드의 예측 SSD
Figure pct00079
를 찾는다.
Figure pct00080
γt-번째 최저 예측
Figure pct00081
의 곱셈보다 작은 경우, 루미넌스 TB는 트레이닝 세트에 추가된다.
그렇지 않은 경우, 그것은 무시된다. isSplit=true인 경우, 루미넌스 TB는 인덱스 idxNN의 단일의 추가적인 신경망 기반 모드가 이러한 TB를 예측하기 위해 선택되는 경우에 트레이닝 세트에 추가된다. 예를 들어, 방법 8은 하기와 같이 방법 6에서의 "빠른 비용"을 예측 SSD로 대체한다.
방법 8: "빠른 비용"이 예측 SSD로 대체될 때 H.266의 경우의 "extract_from_partitioning_nn"
Figure pct00082
Figure pct00083
각각의
Figure pct00084
이미지로부터 동등한 수의 트레이닝 쌍들의 추출
방법 2 내지 방법 8에서, Γ의 일부 이미지들이 다른 이미지들보다 더 큰 경우, 트레이닝 세트들은 상대적으로 큰 이미지들로부터 추출된 사전-프로세싱된 블록과 그의 사전-프로세싱된 콘텍스트의 훨씬 더 많은 쌍들로 채워진다. 이는 트레이닝 쌍들에서 발견되는 다양한 텍스처들이 상대적으로 큰 이미지들에 존재하는 것들을 향해 불균형하다는 것을 암시한다. 이를 건너뛰기 위해, 방법 2 내지 방법 8의 각각의 방법에는 Γ 내의 각각의 이미지로부터 추출된 트레이닝 쌍들의 수를
Figure pct00085
로 제한하는 기준이 보완될 수 있다. 전형적으로,
Figure pct00086
은 Γ가 1백만개 초과의
Figure pct00087
이미지들을 포함할 때 잘 작동한다.
Figure pct00088
이미지들의 상단 좌측 코너 둘레에 위치된 블록들만을 추출하는 것을 회피하기 위해, 각각의 이미지에 대해, 이러한 이미지로부터 추출된 모든 트레이닝 쌍들 중 s개의 트레이닝 쌍들이 균일하게 인출된다. 예를 들어, 방법 9는 상기에 언급된 기준으로 방법 5를 보완한다. 방법 10은 상기에 언급된 기준으로 방법 6을 보완한다.
방법 9: 이전 섹션에서 기준이 상술된 H.266의 경우의 "extract_from_partitioning_nn"
Figure pct00089
, - 도 12 참조.
Figure pct00090
방법 10: 기준이 이전 단락에서 상술된 H.266 및 섹션 "신경망들을 통해 블록들의 콘텍스트로부터 단독으로 " 예측불가능"한 그 블록들의 트레이닝 세트들로부 터의 제거"에서의 제1 조건의 경우의 "extract_from_partitioning_nn"
Figure pct00091
Figure pct00092
방법 9 및 방법 10에서, 함수 shuffle"은 그의 입력 세트의 요소들을 셔플링한다. B의 요소는 이미지 파티셔닝에 의해 반환된 블록의 특성들을 수집한다. 게다가, "break" 선언문은, C에서와 같이, 이너모스트 인클로징 "for" 루프(innermost enclosing "for" loop)를 벗어난다.
기술된 태양들 하의 방법(1700)의 하나의 실시예가 도 17에 도시되어 있다. 본 방법은 시작 블록(1701)에서 시작되고, 블록(1710)으로 시작되어, 비디오 블록의 인트라 예측을 위한 신경망들의 세트를, 비디오 블록의 파티셔닝된 부분들과 주변 영역들의 쌍들을 사용하여 트레이닝한다. 본 방법은 블록(1710)으로부터 블록(1720)으로 진행하여, 코덱에 대한 단일의 추가적인 인트라 코딩 모드로서 신경망들의 세트를 반복적으로 사용함으로써 비디오 블록과 주변 영역들의 추가 쌍들을 추출한다. 제어는 블록(1720)으로부터 블록(1730)으로 진행하여, 추출된 추가 쌍들을 사용하여 신경망들의 세트를 재트레이닝시켜서 인트라 예측을 위한 신경망들의 세트를 생성한다.
기술된 태양들 하의 방법(1800)의 다른 실시예가 도 18에 도시되어 있다. 본 방법은 시작 블록(1801)에서 시작되고, 블록(1810)으로 시작되어, 비디오 블록의 인트라 예측을 위한 신경망들의 세트를, 비디오 블록의 파티셔닝된 부분들과 주변 영역들의 쌍들을 사용하여 트레이닝한다. 본 방법은 블록(1810)으로부터 블록(1820)으로 진행하여, 코덱에 대한 단일의 추가적인 인트라 코딩 모드로서 신경망들의 세트를 반복적으로 사용함으로써 비디오 블록과 주변 영역들의 추가 쌍들을 추출한다. 제어는 블록(1820)으로부터 블록(1830)으로 진행하여, 추출된 추가 쌍들을 사용하여 신경망들의 세트를 재트레이닝시켜서 인트라 예측을 위한 신경망들의 세트를 생성한다. 제어는 블록(1830)으로부터 블록(1840)으로 진행하여, 인트라 예측을 위한 신경망들의 생성된 세트를 사용하여 비디오 블록을 인코딩/디코딩한다.
도 19는 이웃 샘플 의존적 파라미터 모델들에 기초한 코딩 모드들의 단순화를 사용하여 비디오 데이터를 인코딩, 디코딩, 압축 또는 압축해제하기 위한 장치(1900)의 하나의 실시예를 도시한다. 장치는 프로세서(1910)를 포함하고, 적어도 하나의 포트를 통해 메모리(1920)에 상호접속될 수 있다. 프로세서(1910) 및 메모리(1920) 둘 모두는 또한, 외부 접속부들에 대한 하나 이상의 추가적인 상호접속부들을 가질 수 있다.
프로세서(1910)는 또한, 비트스트림에 정보를 삽입하거나 그 내의 정보를 수신하도록, 그리고 기술된 태양들 중 임의의 것을 사용하여 압축, 인코딩 또는 디코딩하도록 구성된다.
본 문서는 툴들, 특징부들, 실시예들, 모델들, 접근법들 등을 포함한 다양한 태양들을 기술한다. 이들 태양들 중 많은 것은 특이성을 갖고서 기술되며, 적어도, 개별 특성들을 보여주기 위해, 종종, 제한사항으로 들릴 수 있는 방식으로 기술된다. 그러나, 이는 설명에서의 명료성의 목적을 위한 것이며, 이들 태양들의 적용 또는 범주를 제한하지 않는다. 실제로, 모든 상이한 태양들이 조합될 수 있고, 추가 태양들을 제공하기 위해 상호교환될 수 있다. 또한, 태양들이 조합될 수 있고, 마찬가지로 이전의 출원에 기술된 태양들과 상호교환될 수 있다.
본 문서에서 기술되고 고려되는 태양들은 많은 상이한 형태들로 구현될 수 있다. 하기의 도 12, 도 13, 및 도 14는 일부 실시예들을 제공하지만, 다른 실시예들이 고려되고, 도 12, 도 13 및 도 14의 논의는 구현예들의 외연을 제한하지 않는다. 태양들 중 적어도 하나의 태양은 대체적으로 비디오 인코딩 및 디코딩에 관한 것이고, 적어도 하나의 다른 태양은 대체적으로, 생성되거나 인코딩된 비트스트림을 송신하는 것에 관한 것이다. 이들 및 다른 태양들은 기술된 방법들 중 임의의 방법에 따라 비디오 데이터를 인코딩 또는 디코딩하기 위한 명령어들이 저장된 방법, 장치, 컴퓨터 판독가능 저장 매체, 및/또는 기술된 방법들 중 임의의 방법에 따라 생성된 비트스트림이 저장된 컴퓨터 판독가능 저장 매체로서 구현될 수 있다.
본 출원에서, "재구성된" 및 "디코딩된"이라는 용어들은 상호교환가능하게 사용될 수 있고, "픽셀" 및 "샘플"이라는 용어들은 상호교환가능하게 사용될 수 있고, "이미지", "픽처" 및 "프레임"이라는 용어들은 상호교환가능하게 사용될 수 있다. 반드시 그렇지는 않지만, 일반적으로, "재구성된"이라는 용어는 인코더 측에서 사용되는 반면, "디코딩된"은 디코더 측에서 사용된다.
다양한 방법들이 본 명세서에 기술되고, 방법들 각각은 기술된 방법을 달성하기 위한 하나 이상의 단계들 또는 액션들을 포함한다. 방법의 적절한 동작을 위해 단계들 또는 액션들의 특정 순서가 요구되지 않는 한, 특정 단계들 및/또는 액션들의 순서 및/또는 사용이 수정되거나 조합될 수 있다.
본 문서에 기술된 다양한 방법들 및 다른 태양들은, 도 12 및 도 13에 도시된 바와 같이, 비디오 인코더(100) 및 디코더(200)의 모듈들, 예를 들어, 인트라 예측, 엔트로피 코딩, 및/또는 디코딩 모듈들(160, 360, 145, 330)을 수정하는 데 사용될 수 있다. 게다가, 본 태양들은 VVC 또는 HEVC로 제한되지 않으며, 예를 들어, 기존에 존재하든 향후 개발되든, 다른 표준들 및 권고들, 및 임의의 그러한 표준들 및 권고들(VVC 및 HEVC를 포함함)의 확장들에 적용될 수 있다. 달리 나타내거나 기술적으로 배제되지 않는 한, 본 문서에 기술된 태양들은 개별적으로 또는 조합하여 사용될 수 있다.
다양한 수치 값들, 예를 들어 {{1,0}, {3,1}, {1,1}}이 본 문서에서 사용된다. 특정 값들은 예시적인 목적들을 위한 것이며, 기술된 태양들은 이들 특정 값들로 제한되지 않는다.
도 12는 인코더(100)를 도시한다. 이러한 인코더(100)의 변형들이 고려되지만, 인코더(100)는 모든 예상된 변형들을 기술하지 않고서 명료성의 목적들을 위해 후술된다.
인코딩되기 전, 비디오 시퀀스는 사전-인코딩 프로세싱(101), 예를 들어, 입력 색상 픽처에 색상 변환을 적용하거나(예컨대, RGB 4:4:4로부터 YCbCr 4:2:0로의 변환), 또는 입력 픽처 성분들의 리맵핑을 수행하여, (예를 들어, 색상 성분들 중 하나의 성분의 히스토그램 등화를 사용하여) 압축에 더 탄력적인 신호 분포를 얻는 것을 거칠 수 있다. 메타데이터는 사전-프로세싱과 연관될 수 있고, 비트스트림에 부착될 수 있다.
인코더(100)에서, 픽처는 후술되는 바와 같이 인코더 요소들에 의해 인코딩된다. 인코딩될 픽처는, 예를 들어 CU들의 단위들로 파티셔닝(102) 및 프로세싱된다. 각각의 단위는, 예를 들어, 인트라 모드 또는 인터 모드를 사용하여 인코딩된다. 단위가 인트라 모드에서 인코딩될 때, 그것은 인트라 예측(160)을 수행한다. 인터 모드에서, 모션 추정(175) 및 보상(170)이 수행된다. 인코더는 인트라 모드 또는 인터 모드 중에서 단위를 인코딩하기 위해 사용할 하나의 모드를 결정(105)하고, 예를 들어, 예측 모드 플래그에 의한 인트라/인터 결정을 나타낸다. 예측 잔차들은, 예를 들어, 예측된 블록을 오리지널 이미지 블록으로부터 감산(110)함으로써 계산된다.
이어서, 예측 잔차들이 변환(125) 및 양자화(130)된다. 양자화된 변환 계수들뿐만 아니라 모션 벡터들 및 다른 신택스 요소들이 엔트로피 코딩(145)되어 비트스트림을 출력한다. 인코더는 변환을 스킵할 수 있고, 변환되지 않은 잔차 신호에 직접적으로 양자화를 적용할 수 있다. 인코더는 변환 및 양자화 둘 모두를 바이패스할 수 있는데, 즉, 잔차는 변환 또는 양자화 프로세스들의 적용 없이 직접적으로 코딩된다.
인코더는 인코딩된 블록을 디코딩하여, 추가 예측들을 위한 기준을 제공한다. 양자화된 변환 계수들은 예측 잔차들을 디코딩하기 위해 역 양자화(140) 및 역 변환(150)된다. 디코딩된 예측 잔차들 및 예측된 블록을 조합(155)하여, 이미지 블록이 재구성된다. 인-루프 필터들(165)이, 예를 들어, 인코딩 아티팩트들을 감소시키기 위해 디블록킹/SAO(Sample Adaptive Offset) 필터링을 수행하도록, 재구성된 픽처에 적용된다. 필터링된 이미지는 기준 픽처 버퍼(180)에 저장된다.
도 13은 비디오 디코더(200)의 블록도를 도시한다. 디코더(200)에서, 비트스트림은 후술되는 바와 같이 디코더 요소들에 의해 디코딩된다. 비디오 디코더(200)는 대체적으로, 도 12에 기술된 바와 같이, 인코딩 패스에 상반되는 디코딩 패스를 수행한다. 인코더(100)는 또한, 대체적으로, 비디오 데이터를 인코딩하는 것의 일부로서 비디오 디코딩을 수행한다.
디코더의 입력은 비디오 인코더(100)에 의해 생성될 수 있는 비디오 비트스트림을 포함한다. 비트스트림은, 변환 계수들, 모션 벡터들, 및 다른 코딩된 정보를 획득하기 위해 제1 엔트로피 디코딩(230)된다. 픽처 파티션 정보는 픽처가 어떻게 파티셔닝되는지를 나타낸다. 따라서, 디코더는 디코딩된 픽처 파티셔닝 정보에 따라 픽처를 분할(235)할 수 있다. 변환 계수들은 예측 잔차들을 디코딩하기 위해 역 양자화(240) 및 역 변환(250)된다. 디코딩된 예측 잔차들 및 예측된 블록을 조합(255)하여, 이미지 블록이 재구성된다. 예측된 블록은 인트라 예측(260) 또는 모션 보상 예측(즉, 인터 예측)(275)으로부터 획득(270)될 수 있다. 인-루프 필터들(265)은 재구성된 이미지에 적용된다. 필터링된 이미지는 기준 픽처 버퍼(280)에 저장된다.
디코딩된 픽처는 추가로, 사후-디코딩 프로세싱(285), 예를 들어, 역 색상 변환(예컨대, YCbCr 4:2:0으로부터 RGB 4:4:4로의 변환), 또는 사전-인코딩 프로세싱(101)에서 수행되는 리맵핑 프로세스의 역을 수행하는 역 리맵핑을 거칠 수 있다. 사후-디코딩 프로세싱은, 사전-인코딩 프로세싱에서 도출되고 비트스트림에 시그널링되는 메타데이터를 사용할 수 있다.
도 14는 다양한 태양들 및 실시예들이 구현되는 시스템의 일례의 블록도를 도시한다. 시스템(1000)은 후술되는 다양한 컴포넌트들을 포함하는 디바이스로서 구현될 수 있으며, 본 문서에 기술된 태양들 중 하나 이상을 수행하도록 구성된다. 그러한 디바이스들의 예들은, 다양한 전자 디바이스들, 예컨대 개인용 컴퓨터, 랩톱 컴퓨터, 스마트폰, 태블릿 컴퓨터, 디지털 멀티미디어 셋톱박스, 디지털 TV 수신기, 개인 비디오 기록 시스템, 커넥티드 가전, 및 서버를 포함하지만, 이들로 제한되지 않는다. 시스템(1000)의 요소들은, 단독으로 또는 조합하여, 단일 집적 회로, 다수의 IC들, 및/또는 이산 컴포넌트들로 구현될 수 있다. 예를 들어, 적어도 하나의 실시예에서, 시스템(1000)의 프로세싱 및 인코더/디코더 요소들은 다수의 IC들 및/또는 이산 컴포넌트들에 걸쳐 분산된다. 다양한 실시예들에서, 시스템(1000)은, 예를 들어, 통신 버스를 통해 또는 전용 입력 및/또는 출력 포트들을 통해, 다른 유사한 시스템들, 또는 다른 전자 디바이스들에 통신가능하게 커플링된다. 다양한 실시예들에서, 시스템(1000)은 본 문서에 기술된 태양들 중 하나 이상을 구현하도록 구성된다.
시스템(1000)은, 예를 들어 본 문서에 기술된 다양한 태양들을 구현하기 위해 내부에 로딩된 명령어들을 실행하도록 구성된 적어도 하나의 프로세서(1010)를 포함한다. 프로세서(1010)는 임베디드 메모리, 입출력 인터페이스, 및 당업계에 알려진 바와 같은 다양한 다른 회로부들을 포함할 수 있다. 시스템(1000)은 적어도 하나의 메모리(1020)(예컨대, 휘발성 메모리 디바이스, 및/또는 비휘발성 메모리 디바이스)를 포함한다. 시스템(1000)은, EEPROM, ROM, PROM, RAM, DRAM, SRAM, 플래시, 자기 디스크 드라이브, 및/또는 광학 디스크 드라이브를 포함하지만 이들로 제한되지 않는 비휘발성 메모리 및/또는 휘발성 메모리를 포함할 수 있는 저장 디바이스(1040)를 포함한다. 저장 디바이스(1040)는, 비제한적인 예들로서, 내부 저장 디바이스, 부착된 저장 디바이스, 및/또는 네트워크 액세스가능 저장 디바이스를 포함할 수 있다.
시스템(1000)은, 예를 들어, 데이터를 프로세싱하여 인코딩된 비디오 또는 디코딩된 비디오를 제공하도록 구성된 인코더/디코더 모듈(1030)을 포함하고, 인코더/디코더 모듈(1030)은 그 자신의 프로세서 및 메모리를 포함할 수 있다. 인코더/디코더 모듈(1030)은 인코딩 및/또는 디코딩 기능들을 수행하기 위해 디바이스에 포함될 수 있는 모듈(들)을 나타낸다. 알려진 바와 같이, 디바이스는 인코딩 및 디코딩 모듈들 중 하나 또는 둘 모두를 포함할 수 있다. 추가적으로, 인코더/디코더 모듈(1030)은 시스템(1000)의 별개의 요소로서 구현될 수 있거나, 또는 당업자에게 알려진 바와 같은 하드웨어와 소프트웨어의 조합으로서 프로세서(1010) 내에 통합될 수 있다.
본 문서에 기술된 다양한 태양들을 수행하기 위해 프로세서(1010) 또는 인코더/디코더(1030) 상에 로딩될 프로그램 코드는 저장 디바이스(1040)에 저장될 수 있고, 후속적으로, 프로세서(1010)에 의한 실행을 위해 메모리(1020) 상에 로딩될 수 있다. 다양한 실시예들에 따르면, 프로세서(1010), 메모리(1020), 저장 디바이스(1040), 및 인코더/디코더 모듈(1030) 중 하나 이상은 본 문서에 기술된 프로세스들의 수행 동안 다양한 항목들 중 하나 이상을 저장할 수 있다. 그러한 저장된 항목들은, 입력 비디오, 디코딩된 비디오 또는 디코딩된 비디오의 부분들, 비트스트림, 매트릭스들, 변수들, 및 방정식들, 공식들, 연산들 및 연산 로직의 프로세싱으로부터의 중간 또는 최종 결과들을 포함할 수 있지만, 이들로 제한되지 않는다.
여러 실시예들에서, 프로세서(1010) 및/또는 인코더/디코더 모듈(1030) 내부의 메모리는 명령어들을 저장하기 위해 그리고 인코딩 또는 디코딩 동안 필요한 프로세싱을 위한 작업 메모리를 제공하기 위해 사용된다. 그러나, 다른 실시예들에서, 프로세싱 디바이스(예를 들어, 프로세싱 디바이스는 프로세서(1010) 또는 인코더/디코더 모듈(1030) 중 어느 하나일 수 있음) 외부의 메모리가 이들 기능들 중 하나 이상에 사용된다. 외부 메모리는 메모리(1020) 및/또는 저장 디바이스(1040), 예를 들어, 동적 휘발성 메모리 및/또는 비휘발성 플래시 메모리일 수 있다. 여러 실시예들에서, 외부 비휘발성 플래시 메모리는 텔레비전의 운영 체제를 저장하는 데 사용된다. 적어도 하나의 실시예에서, RAM과 같은 고속의 외부 동적 휘발성 메모리는 비디오 코딩 및 디코딩 동작들을 위한, 예컨대 MPEG-2, HEVC, 또는 VVC를 위한 작업 메모리로서 사용된다.
시스템(1000)의 요소들에 대한 입력은 블록(1130)에 표시된 바와 같은 다양한 입력 디바이스들을 통해 제공될 수 있다. 그러한 입력 디바이스들은, (i) 예를 들어 브로드캐스터에 의한 공중무선통신(over the air)으로 송신된 RF 신호를 수신하는 RF 부분, (ii) 복합 입력 단자, (iii) USB 입력 단자, 및/또는 (iv) HDMI 입력 단자를 포함하지만, 이들로 제한되지 않는다.
다양한 실시예들에서, 블록(1130)의 입력 디바이스들은 당업계에 알려진 바와 같은 각자의 입력 프로세싱 요소들을 연관시켰다. 예를 들어, RF 부분은, (i) 원하는 주파수를 선택하는 것(신호를 선택하는 것, 신호를 주파수들의 대역으로 대역-제한하는 것으로도 지칭됨), (ii) 선택된 신호를 하향변환(downconvert)하는 것, (iii) (예를 들어) 소정 실시예들에서 채널로 지칭될 수 있는 신호 주파수 대역을 선택하기 위해 주파수들의 더 좁은 대역으로 다시 대역-제한하는 것, (iv) 하향변환되고 대역-제한된 신호를 복조하는 것, (v) 에러 정정을 수행하는 것, 및 (vi) 데이터 패킷들의 원하는 스트림을 선택하기 위해 역다중화하는 것에 필요한 요소들과 연관될 수 있다. 다양한 실시예들의 RF 부분은 이들 기능들을 수행하기 위한 하나 이상의 요소들, 예를 들어 주파수 선택기, 신호 선택기, 대역-제한기, 채널 선택기, 필터, 하향변환기, 복조기, 에러 정정기, 및 역다중화기를 포함한다. RF 부분은, 예를 들어, 수신된 신호를 더 낮은 주파수(예를 들어, 중간 주파수 또는 기저대역 인근(near-baseband) 주파수)로 또는 기저대역으로 하향변환하는 것을 포함한, 다양한 이들 기능들을 수행하는 동조기를 포함할 수 있다. 하나의 셋톱박스 실시예에서, RF 부분 및 그의 연관된 입력 프로세싱 요소는 유선(예를 들어, 케이블) 매체를 통해 송신된 RF 신호를 수신하고, 원하는 주파수 대역에 대해 필터링, 하향변환, 및 다시 필터링함으로써 주파수 선택을 수행한다. 다양한 실시예들은 전술된 (및 다른) 요소들의 순서를 재배열하고/하거나, 이들 요소들 중 일부를 제거하고/하거나, 유사한 또는 상이한 기능들을 수행하는 다른 요소들을 추가한다. 요소들을 추가하는 것은, 기존 요소들 사이에 요소들을 삽입하는 것, 예를 들어 증폭기 및 아날로그-디지털 변환기를 삽입하는 것을 포함할 수 있다. 다양한 실시예들에서, RF 부분은 안테나를 포함한다.
추가적으로, USB 및/또는 HDMI 단자들은 시스템(1000)을, USB 및/또는 HDMI 접속부들을 통해 다른 전자 디바이스들에 접속시키기 위한 각자의 인터페이스 프로세서들을 포함할 수 있다. 입력 프로세싱의 다양한 태양들, 예를 들어, 리드-솔로몬(Reed-Solomon) 에러 정정은 필요에 따라, 예를 들어, 별개의 입력 프로세싱 IC 내에서 또는 프로세서(1010) 내에서 구현될 수 있다는 것이 이해되어야 한다. 유사하게, USB 또는 HDMI 인터페이스 프로세싱의 태양들은 필요에 따라, 별개의 인터페이스 IC들 내에서 또는 프로세서(1010) 내에서 구현될 수 있다. 복조, 에러 정정, 및 역다중화된 스트림은, 예를 들어, 출력 디바이스 상에서의 프레젠테이션을 위해 필요에 따라 데이터스트림을 프로세싱하도록 메모리 및 저장 요소들과 조합하여 동작하는 프로세서(1010), 및 인코더/디코더(1030)를 포함한 다양한 프로세싱 요소들에 제공된다.
시스템(1000)의 다양한 요소들이 집적 하우징 내에 제공될 수 있다. 집적 하우징 내에서, 다양한 요소들은 I2C 버스, 배선, 및 인쇄 회로 기판들을 포함한 적합한 접속 배열물(1140), 예를 들어, 당업계에 알려져 있는 바와 같은 내부 버스를 사용하여, 상호접속될 수 있고 그들 사이에서 데이터를 송신할 수 있다.
시스템(1000)은 통신 채널(1060)을 통해 다른 디바이스들과의 통신을 인에이블시키는 통신 인터페이스(1050)를 포함한다. 통신 인터페이스(1050)는, 통신 채널(1060)을 통해 데이터를 송신 및 수신하도록 구성된 송수신기를 포함할 수 있지만, 이로 제한되지 않는다. 통신 인터페이스(1050)는 모뎀 또는 네트워크 카드를 포함할 수 있지만, 이들로 제한되지 않으며, 통신 채널(1060)은, 예를 들어, 유선 및/또는 무선 매체 내에서 구현될 수 있다.
다양한 실시예들에서, IEEE 802.11과 같은 무선 네트워크를 사용하여 데이터가 시스템(1000)으로 스트리밍된다. 이들 실시예들의 무선 신호는, 예를 들어, Wi-Fi 통신을 위해 적응되는 통신 채널(1060) 및 통신 인터페이스(1050)를 통해 수신된다. 이들 실시예들의 통신 채널(1060)은 전형적으로, 스트리밍 애플리케이션들 및 다른 오버더톱(over-the-top) 통신을 허용하기 위한 인터넷을 포함하는 외부 네트워크들에 대한 액세스를 제공하는 액세스 포인트 또는 라우터에 접속된다. 다른 실시예들은 입력 블록(1130)의 HDMI 접속부를 통해 데이터를 전달하는 셋톱박스를 사용하여, 시스템(1000)에 스트리밍된 데이터를 제공한다. 또 다른 실시예들은 입력 블록(1130)의 RF 접속부를 사용하여 시스템(1000)에 스트리밍된 데이터를 제공한다.
시스템(1000)은 디스플레이(1100), 스피커들(1110), 및 다른 주변기기 디바이스들(1120)을 포함하는 다양한 출력 디바이스들에 출력 신호를 제공할 수 있다. 다른 주변기기 디바이스들(1120)은, 실시예들의 다양한 예들에서, 독립형 DVR, 디스크 플레이어, 스테레오 시스템, 조명 시스템, 및 시스템(1000)의 출력에 기초하여 기능을 제공하는 다른 디바이스들 중 하나 이상을 포함한다. 다양한 실시예들에서, 제어 신호들은, 사용자 개입으로 또는 사용자 개입 없이 디바이스-대-디바이스 제어를 인에이블시키는 AV.Link, CEC, 또는 다른 통신 프로토콜들과 같은 시그널링을 사용하여 시스템(1000)과 디스플레이(1100), 스피커들(1110), 또는 다른 주변기기 디바이스들(1120) 사이에서 통신된다. 출력 디바이스들은 각자의 인터페이스들(1070, 1080, 1090)을 통해 전용 접속부들을 거쳐 시스템(1000)에 통신가능하게 커플링될 수 있다. 대안적으로, 출력 디바이스들은 통신 인터페이스(1050)를 통해 통신 채널(1060)을 사용하여 시스템(1000)에 접속될 수 있다. 디스플레이(1100) 및 스피커들(1110)은 전자 디바이스, 예를 들어, 텔레비전에서 시스템(1000)의 다른 컴포넌트들과 함께 단일 유닛으로 통합될 수 있다. 다양한 실시예들에서, 디스플레이 인터페이스(1070)는 디스플레이 드라이버, 예를 들어, 타이밍 제어기(T Con) 칩을 포함한다.
디스플레이(1100) 및 스피커(1110)는 대안적으로, 예를 들어, 입력(1130)의 RF 부분이 별개의 셋톱박스의 일부인 경우, 다른 컴포넌트들 중 하나 이상과 별개일 수 있다. 디스플레이(1100) 및 스피커들(1110)이 외부 컴포넌트들인 다양한 실시예들에서, 출력 신호는, 예를 들어, HDMI 포트들, USB 포트들, 또는 COMP 출력들을 포함하는 전용 출력 접속부들을 통해 제공될 수 있다.
실시예들은 프로세서(1010)에 의해 또는 하드웨어에 의해 구현되는 컴퓨터 소프트웨어에 의해, 또는 하드웨어와 소프트웨어의 조합에 의해 수행될 수 있다. 비제한적인 예로서, 실시예들은 하나 이상의 집적 회로들에 의해 구현될 수 있다. 메모리(1020)는 기술적 환경에 적절한 임의의 유형의 것일 수 있고, 비제한적인 예들로서, 광학 메모리 디바이스, 자기 메모리 디바이스, 반도체 기반 메모리 디바이스, 고정 메모리, 및 착탈식 메모리와 같은 임의의 적절한 데이터 저장 기술을 사용하여 구현될 수 있다. 프로세서(1010)는 기술적 환경에 적절한 임의의 유형의 것일 수 있고, 비제한적인 예들로서, 마이크로프로세서, 범용 컴퓨터, 특수 목적 컴퓨터, 및 멀티-코어 아키텍처에 기초한 프로세서 중 하나 이상을 포괄할 수 있다.
다양한 구현예들이 디코딩을 수반한다. 본 출원에서 사용되는 바와 같이, "디코딩"은, 예를 들어, 디스플레이에 적합한 최종 출력을 생성하기 위해 수신된 인코딩된 시퀀스에 대해 수행되는 프로세스들의 전부 또는 일부를 포괄할 수 있다. 다양한 실시예들에서, 그러한 프로세스들은 디코더에 의해 전형적으로 수행되는 프로세스들, 예를 들어, 엔트로피 디코딩, 역 양자화, 역 변환, 및 차동 디코딩 중 하나 이상을 포함한다. 다양한 실시예들에서, 그러한 프로세스들은 또한, 또는 대안적으로, 본 출원에 기술된 다양한 구현예들의 디코더에 의해 수행되는 프로세스들을 포함하여, 예를 들어, 다양한 인트라 예측 기준 어레이들에 사용될 가중치들의 인덱스를 추출한다.
추가 예들로서, 하나의 실시예에서, "디코딩"은 엔트로피 디코딩만을 지칭하고, 다른 실시예에서, "디코딩"은 차동 디코딩만을 지칭하고, 또 다른 실시예에서, "디코딩"은 엔트로피 디코딩과 차동 디코딩의 조합을 지칭한다. "디코딩 프로세스"라는 어구가, 구체적으로 동작들의 서브세트를 지칭하는 것으로 의도되는지 아니면 대체적으로 더 넓은 디코딩 프로세스를 지칭하는 것으로 의도되는지는 특정 설명들의 맥락에 기초하여 명확할 것이며, 당업자에 의해 잘 이해되는 것으로 여겨진다.
다양한 구현예들이 인코딩을 수반한다. "디코딩"에 관한 상기의 논의와 유사한 방식으로, 본 출원에서 사용되는 바와 같은 "인코딩"은, 예를 들어, 인코딩된 비트스트림을 생성하기 위해 입력 비디오 시퀀스에 대해 수행된 프로세스들의 전부 또는 일부를 포괄할 수 있다. 다양한 실시예들에서, 그러한 프로세스들은 인코더에 의해 전형적으로 수행되는 프로세스들, 예를 들어, 파티셔닝, 차동 인코딩, 변환, 양자화, 및 엔트로피 인코딩 중 하나 이상을 포함한다. 다양한 실시예들에서, 그러한 프로세스들은 또한, 또는 대안적으로, 본 출원에 기술된 다양한 구현예들의 인코더에 의해 수행되는 프로세스들, 예를 들어, 인트라 예측 기준 어레이들의 가중화를 포함한다.
추가 예들로서, 하나의 실시예에서, "인코딩"은 엔트로피 인코딩만을 지칭하고, 다른 실시예에서, "인코딩"은 차동 인코딩만을 지칭하고, 또 다른 실시예에서, "인코딩"은 차동 인코딩과 엔트로피 인코딩의 조합을 지칭한다. "인코딩 프로세스"라는 어구가, 구체적으로 동작들의 서브세트를 지칭하는 것으로 의도되는지 아니면 대체적으로 더 넓은 인코딩 프로세스를 지칭하는 것으로 의도되는지는 특정 설명들의 맥락에 기초하여 명확할 것이며, 당업자에 의해 잘 이해되는 것으로 여겨진다.
본 명세서에 사용된 바와 같은 신택스 요소들은 설명적 용어들임에 유의한다. 이와 같이, 그들은 다른 신택스 요소 명칭들의 사용을 배제하지 않는다.
도면이 흐름도로서 제시될 때, 그것은 또한, 대응하는 장치의 블록도를 제공한다는 것이 이해될 것이다. 유사하게, 도면이 블록도로서 제시될 때, 그것은 또한, 대응하는 방법/프로세스의 흐름도를 제공한다는 것이 이해될 것이다.
다양한 실시예들은 레이트 왜곡 계산 또는 레이트 왜곡 최적화를 언급한다. 인코딩 프로세스 동안, 계산 복잡성의 제약들을 종종 고려해 볼 때, 레이트와 왜곡 사이의 균형 또는 트레이드-오프가 일반적으로 고려된다. 레이트 왜곡 최적화는 일반적으로, 레이트 왜곡 함수를 최소화하는 것으로 공식화되는데, 이는 레이트와 왜곡의 가중 합이다. 레이트 왜곡 최적화 문제를 해결하기 위한 상이한 접근법들이 있다. 예를 들어, 접근법들은 코딩 및 디코딩 후의 재구성된 신호의 그들의 코딩 비용 및 관련 왜곡의 완전한 평가와 함께, 모든 고려된 모드들 또는 코딩 파라미터 값들을 포함한, 모든 인코딩 옵션들의 광범위한 테스팅에 기초할 수 있다. 특히 재구성된 것이 아니라 예측 또는 예측 잔차 신호에 기초한 근사화된 왜곡의 계산과 함께 인코딩 복잡성을 덜기 위해, 더 빠른 접근법들이 또한 사용될 수 있다. 이들 2개의 접근법들의 혼합은 또한, 예컨대, 가능한 인코딩 옵션들 중 일부만에 대한 근사화된 왜곡 및 다른 인코딩 옵션들에 대한 완전한 왜곡을 사용함으로써 사용될 수 있다. 다른 접근법들은 가능한 인코딩 옵션들의 서브세트만을 평가한다. 보다 대체적으로, 많은 접근법들은 최적화를 수행하기 위해 다양한 기법들 중 임의의 것을 채용하지만, 최적화는 반드시 코딩 비용 및 관련 왜곡 둘 모두의 완전한 평가인 것은 아니다.
본 명세서에 기술된 구현예들 및 태양들은, 예를 들어, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림, 또는 신호로 구현될 수 있다. 단일 형태의 구현예의 맥락에서만 논의되더라도(예를 들어, 방법으로서만 논의됨), 논의된 특징들의 구현예는 또한 다른 형태들(예를 들어, 장치 또는 프로그램)로 구현될 수 있다. 장치는, 예를 들어, 적절한 하드웨어, 소프트웨어, 및 펌웨어로 구현될 수 있다. 방법들은, 예를 들어, 프로세서에서 구현될 수 있으며, 이는, 예컨대 컴퓨터, 마이크로프로세서, 집적 회로, 또는 프로그래밍가능 로직 디바이스를 포함하는, 대체적으로 프로세싱 디바이스들을 지칭한다. 프로세서들은 또한, 예를 들어, 컴퓨터, 셀룰러폰, 휴대용/개인 휴대 정보 단말기("PDA"), 및 최종 사용자들 사이의 정보의 통신을 용이하게 하는 다른 디바이스와 같은 통신 디바이스들을 포함한다.
"하나의 실시예" 또는 "일 실시예" 또는 "하나의 구현예" 또는 "일 구현예"뿐만 아니라 그의 다른 변형들에 대한 언급은, 실시예와 관련하여 기술된 특정 특징부, 구조, 특성 등이 적어도 하나의 실시예에 포함됨을 의미한다. 따라서, 본 문서 전체에 걸쳐 다양한 곳들에서 나타나는 "하나의 실시예에서" 또는 "일 실시예에서" 또는 "하나의 구현예에서" 또는 "일 구현예에서"라는 어구뿐만 아니라 임의의 다른 변형들의 출현들은 반드시 모두 동일한 실시예를 언급하는 것은 아니다.
추가적으로, 본 문서는 다양한 정보를 "결정"하는 것을 언급할 수 있다. 정보를 결정하는 것은, 예를 들어, 정보를 추정하는 것, 정보를 계산하는 것, 정보를 예측하는 것, 또는 메모리로부터 정보를 취출하는 것 중 하나 이상을 포함할 수 있다.
또한, 본 문서는 다양한 정보에 "액세스"하는 것을 언급할 수 있다. 정보에 액세스하는 것은, 예를 들어, 정보를 수신하는 것, (예를 들어, 메모리로부터) 정보를 취출하는 것, 정보를 저장하는 것, 정보를 이동시키는 것, 정보를 복사하는 것, 정보를 계산하는 것, 정보를 결정하는 것, 정보를 예측하는 것, 또는 정보를 추정하는 것 중 하나 이상을 포함할 수 있다.
추가적으로, 본 문서는 다양한 정보를 "수신"하는 것을 언급할 수 있다. 수신하는 것은 "액세스"하는 것과 같이, 광범위한 용어인 것으로 의도된다. 정보를 수신하는 것은, 예를 들어, 정보에 액세스하는 것, 또는 정보를 (예를 들어, 메모리로부터) 취출하는 것 중 하나 이상을 포함할 수 있다. 또한, "수신"하는 것은 전형적으로, 예를 들어 정보를 저장하는 것, 정보를 프로세싱하는 것, 정보를 송신하는 것, 정보를 이동시키는 것, 정보를 복사하는 것, 정보를 소거하는 것, 정보를 계산하는 것, 정보를 결정하는 것, 정보를 예측하는 것, 또는 정보를 추정하는 것과 같은 동작들 동안, 하나의 방식으로 또는 다른 방식으로 수반된다.
예를 들어, "A/B", "A 및/또는 B" 및 "A 및 B 중 적어도 하나"의 경우에, 하기의 "/", "및/또는", 및 "~ 중 적어도 하나" 중 임의의 것의 사용은 제1 열거된 옵션(A)만의 선택, 또는 제2 열거된 옵션(B)만의 선택, 또는 옵션들(A 및 B) 둘 모두의 선택을 포괄하도록 의도된다는 것이 이해될 것이다. 추가 예로서, "A, B 및/또는 C" 및 "A, B, 및 C 중 적어도 하나"의 경우들에 있어서, 그러한 어구는, 제1 열거된 옵션(A)만의 선택, 또는 제2 열거된 옵션(B)만의 선택, 또는 제3 열거된 옵션(C)만의 선택, 또는 제1 및 제2 열거된 옵션들(A 및 B)만의 선택, 또는 제1 및 제3 열거된 옵션들(A 및 C)만의 선택, 또는 제2 및 제3 열거된 옵션들(B 및 C)만의 선택, 또는 3개의 옵션들(A 및 B 및 C) 모두의 선택을 포괄하도록 의도된다. 이는, 본 기술분야 및 관련 기술분야들의 당업자에게 명백한 바와 같이, 열거된 바와 같은 많은 항목들에 대해 확장될 수 있다.
또한, 본 명세서에 사용된 바와 같이, "신호"라는 단어는, 특히, 대응하는 디코더에 대한 무언가를 나타내는 것을 지칭한다. 예를 들어, 소정 실시예들에서, 인코더는 인트라 예측 기준 어레이들에 사용될 복수의 가중치들 중 특정 가중치를 시그널링한다. 이러한 방식으로, 일 실시예에서, 동일한 파라미터는 인코더 측 및 디코더 측 둘 모두에서 사용된다. 따라서, 예를 들어, 인코더는 디코더가 동일한 특정 파라미터를 사용할 수 있도록 디코더에 특정 파라미터를 송신(명시적 시그널링)할 수 있다. 반대로, 디코더가 이미 특정 파라미터뿐만 아니라 다른 것들을 갖는 경우, 시그널링은, 단순히 디코더가 특정 파라미터를 알고 선택할 수 있게 하도록, 송신(암시적 시그널링) 없이 사용될 수 있다. 임의의 실제 기능들의 송신을 회피시킴으로써, 다양한 실시예들에서 비트 절감이 실현된다. 시그널링은 다양한 방식들로 달성될 수 있음이 이해될 것이다. 예를 들어, 하나 이상의 신택스 요소들, 플래그들 등이 다양한 실시예들에서 대응하는 디코더에 정보를 시그널링하는 데 사용된다. 전술한 사항이 "신호"라는 단어의 동사 형태와 관련되지만, "신호"라는 단어는 또한 본 명세서에서 명사로서도 사용될 수 있다.
당업자에게 명백한 바와 같이, 구현예들은, 예를 들어 저장되거나 송신될 수 있는 정보를 전달하도록 포맷화된 다양한 신호들을 생성할 수 있다. 정보는, 예를 들어, 방법을 수행하기 위한 명령어들, 또는 기술된 구현예들 중 하나에 의해 생성된 데이터를 포함할 수 있다. 예를 들어, 신호는 기술된 실시예의 비트스트림을 전달하도록 포맷화될 수 있다. 그러한 신호는, 예를 들어, 전자기파로서(예를 들어, 스펙트럼의 무선 주파수 부분을 사용함) 또는 기저대역 신호로서 포맷화될 수 있다. 포맷화는, 예를 들어, 데이터 스트림을 인코딩하는 것, 및 인코딩된 데이터 스트림으로 캐리어를 변조하는 것을 포함할 수 있다. 신호가 전달하는 정보는, 예를 들어, 아날로그 또는 디지털 정보일 수 있다. 신호는, 알려진 바와 같이, 다양한 상이한 유선 또는 무선 링크들을 통해 송신될 수 있다. 신호는 프로세서 판독가능 매체 상에 저장될 수 있다.
실시예들은 여러가지 상이한 청구항 카테고리들 및 유형들에 걸쳐, 단독으로 또는 조합하여, 하기의 특징들 또는 엔티티들 중 하나 이상을 포함할 수 있다:
Figure pct00093
코덱에서 추가적인 예측 모드(들)로서 신경망들의 세트를 사용하여, 모드들은 인트라 예측 모드들일 수 있고, 신경망들은 다양한 크기들의 것일 수 있다.
Figure pct00094
다양한 크기들의 신경망들로 구성된 단일의 추가적인 인트라 예측 모드를 사용한다.
Figure pct00095
다양한 크기들의 신경망들로 구성된 단일의 추가적인 인트라 예측 모드를 사용하며, 여기서 단일의 추가적인 인트라 예측 모드에서의 코덱은 신경망 세트에 대한 초기 트레이닝 세트를 구축하는 데 사용되고, 세트를 포함하는 신경망들은 초기 트레이닝 세트들로 재트레이닝된다.
Figure pct00096
크기들 중 하나의 크기에 대응하는 신경망이 랜덤 데이터 추출을 통해 트레이닝되는 상기 단일의 인트라 예측 모드.
Figure pct00097
H.265 코덱에서 추가적인 인트라 예측 모드로서 신경망들의 세트를 사용하여, 모드들은 인트라 예측 모드들일 수 있고, 신경망들은 다양한 크기들의 것일 수 있다.
Figure pct00098
H.265 코덱에서 추가적인 인트라 예측 모드로서의 신경망들의 상기 세트의 트레이닝 - 여기서, 각각의 블록에 대해, 파티셔닝된 블록으로부터의 특성들의 세트는 이미지로부터 블록 및 그의 콘텍스트를 추출하는 데 사용되고, 특성들 및 그의 콘텍스트는 사전-프로세싱되어, 트레이닝 세트에 추가될 트레이닝 쌍을 산출한다.
Figure pct00099
인트라 예측을 위한 적어도 하나의 신경망의 트레이닝 - 여기서, 신경망들은 코덱에서의 인트라 예측으로부터 벗어나지만 레이트-왜곡 성능 면에서 그 코덱에 여전히 유용한 인트라 예측을 학습한다.
Figure pct00100
이미지들 중 적어도 하나의 이미지의 파티셔닝에 의해 제공된 크기를 갖는 블록들과 그의 콘텍스트의 쌍들을 포함하는 트레이닝 세트들을 산출하기 위해 코덱을 사용하는, 그리고 대응하는 신경망들을 트레이닝시키기 위한 트레이닝 세트들을 사용하는 이미지들의 세트의 인코딩/디코딩.
Figure pct00101
블록들이 직사각형인 경우의 상기 인코딩 /디코딩.
Figure pct00102
기술된 신택스 요소들, 또는 이들의 변형들 중 하나 이상을 포함하는 비트스트림 또는 신호.
Figure pct00103
기술된 신택스 요소들, 또는 이들의 변형들 중 하나 이상을 포함하는 비트스트림 또는 신호를 생성하고/하거나 송신하고/하거나 수신하고/하거나 디코딩한다.
Figure pct00104
기술된 실시예들 중 임의의 것에 따라 인-루프 필터링을 수행하는 TV, 셋톱박스, 셀폰, 태블릿, 또는 다른 전자 디바이스.
Figure pct00105
기술된 실시예들 중 임의의 것에 따라 인-루프 필터링을 수행하고 생성된 이미지를 (예컨대, 모니터, 스크린, 또는 다른 유형의 디스플레이를 사용하여) 디스플레이하는 TV, 셋톱박스, 셀폰, 태블릿, 또는 다른 전자 디바이스.
Figure pct00106
인코딩된 이미지를 포함하는 신호를 수신하기 위해 채널을 (예컨대, 동조기를 사용하여) 동조시키고, 기술된 실시예들 중 임의의 것에 따라 인-루프 필터링을 수행하는 TV, 셋톱박스, 셀폰, 태블릿, 또는 다른 전자 디바이스.
Figure pct00107
인코딩된 이미지를 포함하는 신호를 공중무선통신으로 (예컨대, 안테나를 사용하여) 수신하고, 기술된 실시예들 중 임의의 것에 따라 인-루프 필터링을 수행하는 TV, 셋톱박스, 셀폰, 태블릿, 또는 다른 전자 디바이스.
다양한 다른 일반화된, 그리고 특수화된 발명들 및 청구항들이 또한 본 설명 전체에 걸쳐 지지되고 고려된다.

Claims (15)

  1. 방법으로서,
    비디오 블록의 인트라 예측을 위한 신경망들의 세트를, 상기 비디오 블록의 파티셔닝된 부분들과 주변 영역들의 쌍들을 사용하여 트레이닝하는 단계;
    코덱에 대한 추가적인 인트라 코딩 모드로서 상기 신경망들의 세트를 반복적으로 사용함으로써 상기 비디오 블록과 주변 영역들의 추가 쌍들을 추출하는 단계; 및
    상기 추출된 추가 쌍들을 사용하여 상기 신경망들의 세트를 재트레이닝시켜서 인트라 예측을 위한 신경망들의 세트를 생성하는 단계를 포함하는, 방법.
  2. 장치로서,
    프로세서를 포함하고, 프로세서는,
    비디오 블록의 인트라 예측을 위한 신경망들의 세트를, 상기 비디오 블록의 파티셔닝된 부분들과 주변 영역들의 쌍들을 사용하여 트레이닝하도록;
    코덱에 대한 추가적인 인트라 코딩 모드로서 상기 신경망들의 세트를 반복적으로 사용함으로써 상기 비디오 블록과 주변 영역들의 추가 쌍들을 추출하도록; 그리고,
    상기 추출된 추가 쌍들을 사용하여 상기 신경망들의 세트를 재트레이닝시켜서 인트라 예측을 위한 신경망들의 세트를 생성하도록 구성된, 장치.
  3. 제1항에 있어서,
    상기 신경망들의 재트레이닝된 세트로 상기 인트라 예측을 사용하여 비디오 블록을 인코딩하는 단계를 추가로 포함하는, 방법.
  4. 제1항에 있어서,
    상기 신경망들의 재트레이닝된 세트로 상기 인트라 예측을 사용하여 비디오 블록을 디코딩하는 단계를 추가로 포함하는, 방법.
  5. 제2항에 있어서,
    상기 신경망들의 재트레이닝된 세트로 상기 인트라 예측을 사용하여 비디오 블록을 인코딩하도록 추가로 구성된, 장치.
  6. 제2항에 있어서,
    상기 신경망들의 재트레이닝된 세트로 상기 인트라 예측을 사용하여 비디오 블록을 디코딩하도록 추가로 구성된, 장치.
  7. 제1항 또는 제3항 또는 제4항, 또는 제2항 또는 제5항 또는 제6항에 있어서, 파티셔닝된 부분들은 직사각형인, 방법 또는 장치.
  8. 제1항 또는 제3항, 또는 제2항 또는 제4항에 있어서, 블록 높이는 상기 비디오 블록의 특성들에 추가되는, 방법 또는 장치.
  9. 제1항 또는 제3항 또는 제4항, 또는 제2항 또는 제5항 또는 제6항에 있어서, 특성들은 블록을 그의 재구성으로부터 추출하는 데 사용되는, 방법 또는 장치.
  10. 제9항에 있어서, 블록들의 특성들의 세트 B는 상기 파티셔닝으로부터 생성되는, 방법 또는 장치.
  11. 제1항 또는 제3항 또는 제4항, 또는 제2항 또는 제5항 또는 제6항에 있어서, 추출된 파티셔닝된 부분들 쌍들의 수는 제한적인, 방법 또는 장치.
  12. 디바이스로서,
    제2항, 및 제5항 내지 제11항 중 어느 한 항에 따른 장치; 및
    (i) 신호를 수신하도록 구성된 안테나 - 신호는 비디오 블록을 포함함 -, (ii) 비디오 블록을 포함하는 수신된 신호를 주파수들의 대역으로 제한하도록 구성된 대역 제한기, 및 (iii) 비디오 블록을 나타내는 출력을 디스플레이하도록 구성된 디스플레이 중 적어도 하나를 포함하는, 디바이스.
  13. 프로세서를 사용한 재생을 위해, 제1항 내지 제3항 및 제7항 내지 제11항 중 어느 한 항의 방법에 따라 또는 제2항, 및 제5항 내지 제11항 중 어느 한 항의 장치에 의해 생성된 데이터 콘텐츠를 포함하는 비일시적 컴퓨터 판독가능 매체.
  14. 프로세서를 사용한 재생을 위해, 제1항 내지 제3항 및 제7항 내지 제11항 중 어느 한 항의 방법에 따라 또는 제2항 및 제5항 내지 제11항 중 어느 한 항의 장치에 의해 생성된 비디오 데이터를 포함하는 신호.
  15. 프로그램이 컴퓨터에 의해 실행될 때, 컴퓨터로 하여금 제1항 내지 제3항 및 제7항 내지 제11항 중 어느 한 항의 방법을 수행하게 하는 명령어들을 포함하는 컴퓨터 프로그램 제품.
KR1020227017254A 2019-11-07 2020-11-03 인트라 예측을 위한 신경망의 반복 트레이닝 KR20220088888A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP19306442.5 2019-11-07
EP19306442 2019-11-07
EP20290006.4 2020-01-13
EP20290006 2020-01-13
PCT/EP2020/080725 WO2021089494A1 (en) 2019-11-07 2020-11-03 Iterative training of neural networks for intra prediction

Publications (1)

Publication Number Publication Date
KR20220088888A true KR20220088888A (ko) 2022-06-28

Family

ID=73020228

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227017254A KR20220088888A (ko) 2019-11-07 2020-11-03 인트라 예측을 위한 신경망의 반복 트레이닝

Country Status (6)

Country Link
US (1) US20220398455A1 (ko)
EP (1) EP4055825A1 (ko)
KR (1) KR20220088888A (ko)
CN (1) CN114731397A (ko)
BR (1) BR112022008729A2 (ko)
WO (1) WO2021089494A1 (ko)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017036370A1 (en) * 2015-09-03 2017-03-09 Mediatek Inc. Method and apparatus of neural network based processing in video coding
WO2018199051A1 (ja) * 2017-04-25 2018-11-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法および復号方法
WO2019115865A1 (en) * 2017-12-13 2019-06-20 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
US11657264B2 (en) * 2018-04-09 2023-05-23 Nokia Technologies Oy Content-specific neural network distribution
US10848765B2 (en) * 2018-12-11 2020-11-24 Google Llc Rate/distortion/RDcost modeling with machine learning
WO2020165493A1 (en) * 2019-02-15 2020-08-20 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
US11556796B2 (en) * 2019-03-25 2023-01-17 Nokia Technologies Oy Compressing weight updates for decoder-side neural networks

Also Published As

Publication number Publication date
EP4055825A1 (en) 2022-09-14
CN114731397A (zh) 2022-07-08
US20220398455A1 (en) 2022-12-15
WO2021089494A1 (en) 2021-05-14
BR112022008729A2 (pt) 2022-07-19

Similar Documents

Publication Publication Date Title
WO2020009758A1 (en) Context-based binary arithmetic encoding and decoding
WO2020180449A1 (en) Method and device for picture encoding and decoding
KR20220036982A (ko) 비디오 인코딩 및 디코딩을 위한 이차 변환
EP3706421A1 (en) Method and apparatus for video encoding and decoding based on affine motion compensation
CN113170210A (zh) 视频编码和解码中的仿射模式信令
JP2023543985A (ja) 多用途ビデオコーディングのためのテンプレートマッチング予測
US20230254507A1 (en) Deep intra predictor generating side information
EP3850849A1 (en) Improved virtual temporal affine candidates
KR20230025879A (ko) 신경 네트워크 기반 인트라 예측 모드에 대한 변환 프로세스의 적응
CN113545047A (zh) 帧内预测模式分区
CN112740676A (zh) 帧内变换译码和广角帧内预测的协调
WO2020005572A1 (en) Virtual temporal affine candidates
WO2020005573A1 (en) Multiple reference intra prediction using variable weights
CN114930819A (zh) 三角形合并模式中的子块合并候选
US20220398455A1 (en) Iterative training of neural networks for intra prediction
US20240155148A1 (en) Motion flow coding for deep learning based yuv video compression
JP2024510433A (ja) ビデオ圧縮のための時間的構造ベースの条件付き畳み込みニューラルネットワーク
WO2020260110A1 (en) Hmvc for affine and sbtmvp motion vector prediciton modes
CN118120231A (zh) 改善解码器侧帧内模式导出中的角度离散化
WO2020072397A1 (en) Block size based motion vector coding in affine mode
CN113016181A (zh) 依据块形状适配最可能模式候选的选择

Legal Events

Date Code Title Description
N231 Notification of change of applicant