KR20210107848A - 인트라 프레임 예측 방법 및 장치, 비디오 인코딩 기기, 저장 매체 - Google Patents

인트라 프레임 예측 방법 및 장치, 비디오 인코딩 기기, 저장 매체 Download PDF

Info

Publication number
KR20210107848A
KR20210107848A KR1020217024201A KR20217024201A KR20210107848A KR 20210107848 A KR20210107848 A KR 20210107848A KR 1020217024201 A KR1020217024201 A KR 1020217024201A KR 20217024201 A KR20217024201 A KR 20217024201A KR 20210107848 A KR20210107848 A KR 20210107848A
Authority
KR
South Korea
Prior art keywords
prediction
prediction direction
intra frame
block
directions
Prior art date
Application number
KR1020217024201A
Other languages
English (en)
Inventor
옌주오 마
준옌 훠
슈아이 완
푸쩡 양
즈어 구오
씬웨이 리
Original Assignee
광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 filed Critical 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드
Publication of KR20210107848A publication Critical patent/KR20210107848A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 출원의 실시예는 인트라 프레임 예측 방법 및 장치, 비디오 인코딩 기기, 저장 매체를 제공하고, 여기서, 상기 방법은, 현재 처리 블록에 대응되는 이전 재구축 블록 세트를 획득하는 단계(301); 상기 이전 재구축 블록 세트에서 각 이전 재구축 블록에 대응되는 코드 스트림에 기입된 제1 예측 모드를 결정하여, 제1 예측 모드 세트를 얻는 단계(302); 상기 제1 예측 모드 세트에 적어도 두 개의 방향 모드가 포함되면, 각 상기 방향 모드를 제1 예측 방향으로서 제1 예측 방향 세트에 추가하는 단계(S303); 기설정된 벡터 연산 규칙에 따라, 상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는 단계(S304); 및 상기 제2 예측 방향 세트와 제1 예측 모드 세트를 병합하여, 제2 예측 모드 세트를 얻고, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하는 단계(S305)를 포함한다.

Description

인트라 프레임 예측 방법 및 장치, 비디오 인코딩 기기, 저장 매체
본 출원의 실시예는 비디오 인코딩 기술에 관한 것으로서, 인트라 프레임 예측 방법 및 장치, 비디오 인코딩 기기, 저장 매체(method and device for intraframe prediction, video coding device, and storage medium)에 관한 것이지만 이에 한정되지 않는다.
다중 기능 비디오 인코딩(Versatile Video Coding, VVC)에 있어서, 현재 처리 블록에서 인트라 프레임 예측을 수행할 경우, 일반적으로 공간 상으로 대응되거나 인접하게 인트라 프레임 예측을 완료한 예측 블록(이전 재구축 블록으로도 지칭됨)의 최적 예측 모드(즉 코드 스트림에 기입된 예측 모드), 상기 이전 재구축 블록의 최적 방향의 파생 모드, 및 일부 고정된 인트라 프레임 예측 모드의 조합을 현재 처리 블록의 후보 예측 모드 세트로 사용하고, 상기 세트에서의 복수 개의 후보 예측 모드에 기반하여, 현재 처리 블록에 대해 인트라 프레임 예측을 수행한다. 휘도 블록의 경우, 현재 처리 블록이 상기 세트에서의 복수 개의 후보 예측 모드를 선택하여 인트라 프레임 예측을 수행할 경우, 상기 세트 외의 예측 모드를 선택하여 인트라 프레임 예측을 수행하는 것에 비해, 더욱 적은 비트수를 사용하여 인트라 프레임 예측 모드를 나타내었다. 색도 블록의 경우, 현재 처리 블록은 상기 세트에서의 후보 모드만 사용하여 인트라 프레임 예측을 수행할 수 있다.
현재, 현재 처리 블록에 대해 인트라 프레임 예측을 수행하기 전, 후보 예측 모드 세트에 방향 모드가 포함되면, 더욱 정확한 인트라 프레임 예측 효과를 획득하기 위해, 일반적으로 알고 있는 후보 예측 방향에서의 기초 위에, 후보 예측 방향의 인덱스 넘버에 대해 간단하게 1을 더하거나 1을 감함으로써, 새로운 후보 예측 방향을 파생하여, 후속 현재 처리 블록에 대해 인트라 프레임 예측을 수행할 경우에 사용되도록 한다.
그러나, 이러한 간단하게 알고 있는 후보 예측 방향의 인덱스 넘버에 대해 1을 더하거나 1을 감하여 인트라 프레임 예측 방향을 구현하는 구축 방법(즉 새로운 후보 예측 방향을 구축함)의 경우, 인트라 프레임 예측을 수행하는 과정 중 여전히 충분히 정확한 예측 효과가 존재하지 않는다.
이를 고려하여, 본 출원의 실시예는 관련 기술에서 존재하는 적어도 하나의 문제를 해결하기 위해 인트라 프레임 예측 방법 및 장치, 비디오 인코딩 기기, 저장 매체를 제공한다.
본 출원의 실시예의 기술방안은 아래와 같이 구현된다.
제1 측면에 있어서, 본 출원의 실시예는 인트라 프레임 예측 방법을 제공하고, 상기 방법은,
현재 처리 블록에 대응되는 이전 재구축 블록 세트를 획득하는 단계;
상기 이전 재구축 블록 세트에서 각 이전 재구축 블록에 대응되는 코드 스트림에 기입된 제1 예측 모드를 결정하여, 제1 예측 모드 세트를 얻는 단계;
제1 예측 모드 세트에 적어도 두 개의 방향 모드가 포함되면, 각 상기 방향 모드를 제1 예측 방향으로서 제1 예측 방향 세트에 추가하고, 기설정된 벡터 연산 규칙에 따라, 상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는 단계; 및
상기 제2 예측 방향 세트와 제1 예측 모드 세트를 병합하여, 제2 예측 모드 세트를 얻고, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하는 단계를 포함한다.
상기 방안에 있어서, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하는 단계는,
상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하여, 타깃 예측 방향 및 상기 타깃 예측 방향에 대응되는 현재 처리 블록 중 각 픽셀 유닛의 예측값과 원래값 사이의 차이값을 얻는 단계를 포함한다.
상기 방안에 있어서, 상기 타깃 예측 방향 및 각 상기 차이값을 얻은 후, 상기 방법은,
상기 타깃 예측 방향 및 각 상기 차이값을 상기 현재 처리 블록의 코드 스트림에 기입하는 단계를 더 포함한다.
상기 방안에 있어서, 상기 기설정된 벡터 연산 규칙에 따라, 상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는 단계는,
상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 상이한 방향을 구비하는 제1 예측 방향을 한 그룹의 예측 그룹으로 결정하여, 예측 그룹 세트를 얻는 단계; 및
기설정된 벡터 연산 규칙에 따라, 각 상기 예측 그룹에서의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는 단계를 포함한다.
상기 방안에 있어서, 상기 기설정된 벡터 연산 규칙에 따라, 각 상기 예측 그룹에서의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는 단계는,
각 상기 예측 그룹에서의 각 제1 예측 방향의 가중치를 결정하는 단계 - 상기 가중치는 대응되는 이전 재구축 블록과 상기 현재 처리 블록 사이의 연관 정도를 나타내기 위한 것임 - ;
상기 사전 처리된 각 제1 예측 방향이 동일한 길이를 구비하도록, 각 상기 가중치에 대응되는 제1 예측 방향에 대해 사전 처리를 수행하는 단계;
각 상기 가중치와 대응되는 사전 처리된 제1 예측 방향을 곱하여, 제3 예측 방향 세트를 얻는 단계; 및
상기 제3 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제3 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는 단계를 포함한다.
상기 방안에 있어서, 각 상기 예측 그룹에서의 각 제1 예측 방향의 가중치를 결정하는 단계는,
각 상기 예측 그룹에서의 각 제1 예측 방향에 대응되는 이전 재구축 블록과 상기 현재 처리 블록 사이의 거리를 결정하는 단계; 및
각 상기 거리에 기반하여, 기설정된 가중치 분할 규칙에 따라, 대응되는 제1 예측 방향에 가중치를 분할하는 단계를 포함한다.
상기 방안에 있어서, 상기 제3 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제3 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는 단계는,
상기 제3 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제3 예측 방향에 대해 벡터를 가하거나 벡터를 감하는 것을 수행하여, 제2 예측 방향 세트를 얻는 단계를 포함한다.
상기 방안에 있어서, 상기 제1 예측 방향은 휘도 인트라 프레임 예측 방향 및 색도 인트라 프레임 예측 방향 중 하나를 적어도 포함한다.
제2 측면에 있어서, 본 출원의 실시예는 인트라 프레임 예측 장치를 제공하고, 상기 장치는,
현재 처리 블록에 대응되는 이전 재구축 블록 세트를 획득하도록 구성된 획득 모듈;
상기 이전 재구축 블록 세트에서 각 이전 재구축 블록에 대응되는 코드 스트림에 기입된 제1 예측 모드를 결정하여, 제1 예측 모드 세트를 얻고; 상기 제1 예측 모드 세트에 적어도 두 개의 방향 모드가 포함되면, 각 상기 방향 모드를 제1 예측 방향으로서 제1 예측 방향 세트에 추가하도록 구성된 결정 모듈;
기설정된 벡터 연산 규칙에 따라, 상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻도록 구성된 벡터 연산 모듈; 및
상기 제2 예측 방향 세트와 제1 예측 모드 세트를 병합하여, 제2 예측 모드 세트를 얻고, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하도록 구성된 인트라 프레임 예측 모듈을 포함한다.
제3 측면에 있어서, 본 출원의 실시예는 비디오 인코딩 기기를 제공하고, 메모리 및 프로세서, 상기 메모리는 프로세서 상에서 작동 가능한 컴퓨터 프로그램을 저장하며, 상기 프로세서는 상기 프로그램을 실행할 경우 상기 인트라 프레임 예측 방법에서의 단계를 실행한다.
제4 측면에 있어서, 본 출원의 실시예는 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능한 저장 매체를 제공하고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우 상기 인트라 프레임 예측 방법에서의 단계를 구현한다.
본 출원의 실시예에 있어서, 인트라 프레임 예측 방법을 제공하여, 알고 있는 두 개 또는 복수 개의 후보 예측 방향에 대해 벡터 연산을 수행하는 것을 통해, 새로운 후보 예측 방향을 구축하고, 즉, 상기 제2 예측 방향 세트와 제1 예측 모드 세트를 병합하여, 제2 예측 모드 세트를 얻고, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하므로, 충분히 정확한 예측 효과를 획득하는 가능성을 추가할 수 있다.
도 1a는 본 출원의 실시예의 인트라 프레임 예측 원리 예시도이다.
도 1b는 본 출원의 실시예의 VVC가 지원하는 67 가지 인트라 프레임 예측 방향의 예시도이다.
도 1c는 본 출원의 실시예의 인덱스 넘버가 66인 인트라 프레임 예측 방향의 예측 과정 예시도이다.
도 2a는 본 출원의 실시예의 비디오 인코딩 시스템의 구성 구조 예시도이다.
도 2b는 본 출원의 실시예의 비디오 디코딩 시스템의 구성 구조 예시도이다.
도 3a는 본 출원의 실시예의 인트라 프레임 예측 방법의 구현 흐름 예시도이다.
도 3b는 본 출원의 실시예의 인접 인트라 프레임 예측 모드 예시도이다.
도 3c는 본 출원의 실시예의 예측 방향의 구축 예시도이다.
도 4는 본 출원의 실시예의 벡터 연산 예시도이다.
도 5a는 본 출원의 실시예의 이미지 블록의 배열 예시도이다.
도 5b는 본 출원의 실시예의 거리를 결정하는 예시도이다.
도 6은 본 출원의 실시예의 또 하나의 인접 인트라 프레임 예측의 모드 예시도이다.
도 7은 본 출원의 실시예의 현재 처리 블록에 대응되는 휘도 블록 및 색도의 배열 예시도이다.
도 8은 본 출원의 실시예의 색도 블록의 배열 예시도이다.
도 9는 본 출원의 실시예의 MDMS의 인트라 프레임 예측 방향의 순회 순서 예시도이다.
도 10은 본 출원의 실시예의 다른 벡터 연산 예시도이다.
도 11a는 본 출원의 실시예의 인트라 프레임 예측 장치의 구성 구조 예시도이다.
도 11b는 본 출원의 실시예의 다른 인트라 프레임 예측 장치의 구성 구조 예시도이다.
도 12는 본 출원의 실시예의 비디오 인코딩 기기의 하드웨어 엔티티 예시도이다.
본 출원의 실시예의 기술방안에 대한 이해를 용이하게 하기 위해, 먼저 예측 인코딩, 인트라 프레임 예측, 예측 방향 및 휘도 인트라 프레임 예측인 4 개의 기본 개념을 간단하게 소개한다.
예측 인코딩의 메인 기능은, 비디오 인코딩 중 공간 또는 시간 상 알고 있는 재구축 이미지를 이용하여 현재 처리 블록의 예측값을 구축하고, 원래값 및 예측값의 차이값만 전송하여, 전송 데이터양을 감소시키려는 목적을 달성하는 것이다.
인트라 프레임 예측의 메인 기능은, 현재 처리 블록과 인접하는 이전 행의 픽셀 유닛 및 좌측 열의 픽셀 유닛을 이용하여 상기 현재 처리 블록의 예측값을 구축하는 것이다. 도 1a에 도시된 바와 같이, 현재 처리 블록(101) 주위의 이미 복원된 인접한 픽셀(즉 현재 처리 블록에 인접하는 이전 행(102)에서의 픽셀 유닛 및 좌측 열(103)에서의 픽셀 유닛)을 이용하여, 현재 처리 블록(101)의 각 픽셀 유닛을 예측한다.
예를 들어, 현재 처리 블록은 휘도 블록이고, 인접한 픽셀을 이용하여 현재 휘도 블록의 예측값을 구축할 경우, 여러 가지 예측 방향을 사용하여, 순차적으로 상기 현재 휘도 블록을 예측하여, 각 예측 방향에 대응되는 휘도 예측값 매트릭스를 얻으며; 각 휘도 예측값 매트릭스 및 현재 휘도 블록의 원래값 매트릭스에 기반하여, 각 예측 방향에 대응되는 차이값 매트릭스를 결정하며; 각 차이값 매트릭스에 기반하여, 대응되는 예측 방향 평가 파라미터 값을 결정하며, 상기 평가 파라미터 값은 대응되는 예측 방향이 현재 휘도 블록에 대한 예측 효과를 나타내기 위한 것이며; 각 평가 파라미터 값에 기반하여, 상기 여러 가지 예측 방향으로부터 타깃 예측 방향을 결정하며, 예를 들어, 비디오 복원 품질을 보장하는 전제 하에서, 최소 이미지 인코딩 비트수를 획득 가능한 예측 방향을 타깃 예측 방향으로 결정할 수 있으며; 다음 상기 타깃 예측 방향을 코드 스트림에 기입한다. 설명해야 할 것은, VVC가 지원하는 67 가지 인트라 프레임 예측 방향에 있어서, 여기서, 인덱스 넘버가 2-66인 인트라 프레임 예측 방향은 도 1b에 도시된 바와 같다.
인덱스 넘버가 66인 인트라 프레임 예측 방향을 예로 들어, 도 1c에 도시된 바와 같이, 현재 휘도 블록(101)의 각 픽셀 유닛의 휘도 예측값을 구축하는 방법을 제공한다. 여기서, 현재 휘도 블록(101)에 인접하는 이전 행(102)의 데이터는 이전 재구축 블록이다. 현재 휘도 블록(101)의 각 픽셀 유닛은 우측 상단 대각선(즉 인덱스 넘버가 66인 예측 방향)의 픽셀 유닛 값에 따라 충진된다.
또한, 상기 도 1C에 대응되는 예측 블록을 구축하는 방식 이외에, 두 가지 비교적 평면적인 예측 블록 구축 방식이 더 존재하며, 각각 DC 모드 및 PLANAR 모드이다. 여기서, DC 모드는 이전 행 또는 좌측 열의 특징값(예를 들어, 색도값 또는 휘도값)의 평균값을 이용하여 전체 현재 처리 블록을 충진하는 것이고, PLANAR 모드는 점진적 방식을 사용하여 현재 처리 블록을 충진하는 것이다.
휘도 모드의 경우, 도 1b에서의 다양한 모드에 따라 순차적으로 예측하여, 현재 휘도 블록과 가장 매칭(예를 들어 차이값 매트릭스의 차이값 합이 최소이거나, 비율 왜곡 대가가 가장 작은 것)되는 예측 모드를 타깃 예측 모드로서 선택하고, 현재 휘도 블록의 각 픽셀 유닛의 휘도 예측값을 구축하여, 각 픽셀 유닛의 휘도 예측값 및 대응되는 휘도 원래값 사이의 차이값을 결정한다. 타깃 예측 모드 및 타깃 예측 모드에 대응되는 각 픽셀 유닛에 대응되는 차이값을 얻은 후, 인코딩 엔드는 각 픽셀 유닛에 대응되는 차이값 및 현재 처리 블록에 대응되는 타깃 예측 방향의 인덱스 넘버를 코드 스트림에 기입한다. 디코딩 엔드는 코드 스트림을 수신한 후, 수신된 코드 스트림을 해석하여, 타깃 예측 방향의 인덱스 넘버를 얻은 후, 대응되는 현재 처리 블록 중 각 픽셀 유닛의 휘도 예측값과 코드 스트림에 의해 해석된 차이값을 더한 값을 계산할 수 있으므로, 대응되는 픽셀 유닛의 휘도 재구축값을 얻을 수 있다.
알고 있는 상기 몇 가지 기본 개념의 기초 위에, 본 출원의 실시예는 비디오 인코딩 시스템을 제공하고, 도 2a는 본 출원의 실시예의 비디오 인코딩 시스템의 구성 구조 예시도이며, 도 2a에 도시된 바와 같이, 상기 비디오 인코딩 시스템(21)은,
변환과 양자화 유닛(211), 인트라 프레임 추정 유닛(212), 인트라 프레임 예측 유닛(213), 움직임 보상 유닛(214), 움직임 추정 유닛(215), 역변환과 역양자화 유닛(216), 필터 제어 분석 유닛(217), 필터링 유닛(218), 인코딩 유닛(219) 및 디코딩 이미지 캐시 유닛(210)을 포함하고; 입력된 원래 비디오 신호의 경우, 인코딩 트리 유닛(Coding Tree Unit, CTU)의 할당을 통해 비디오 재구축 블록을 얻을 수 있고, 다음, 인트라 프레임 또는 인터 프레임 예측을 통한 후 얻은 잔차 픽셀 정보에 대해, 변환과 양자화 유닛(211)을 통해 상기 비디오 재구축 블록을 변환하며, 잔차 정보를 픽셀 도메인로부터 변환 도메인으로 변환하는 것을 포함하며, 얻은 변환 계수를 양자화하여, 비트율을 추가로 감소시키는데 사용되며; 인트라 프레임 추정 유닛(212) 및 인트라 프레임 예측 유닛(213)은 상기 비디오 재구축 블록에 대해 인트라 프레임 예측을 수행하기 위한 것이며; 여기서, 인트라 프레임 추정 유닛(212) 및 인트라 프레임 예측 유닛(213)은 상기 비디오 재구축 블록의 최적 인트라 프레임 예측 모드(즉 타깃 예측 모드)를 결정하기 위한 것이며; 움직임 보상 유닛(214) 및 움직임 추정 유닛(215)은 수신된 비디오 재구축 블록이 하나 또는 복수 개의 기준 프레임에서의 하나 또는 복수 개의 블록에 대한 인터 프레임 예측 인코딩을 실행하여, 시간 예측 정보를 제공하기 위한 것이며; 움직임 추정 유닛(215)에 의해 실행된 움직임 추정은 움직임 벡터를 생성하는 과정이며, 상기 움직임 벡터는 상기 비디오 재구축 블록의 움직임을 추정할 수 있으며, 다음, 움직임 보상 유닛(214)을 통해 움직임 추정 유닛(215)에 의해 결정된 움직임 벡터에 기반하여 움직임 보상을 실행하며; 인트라 프레임 예측 모드를 결정한 후, 인트라 프레임 예측 유닛(213)은 또한 선택된 인트라 프레임 예측 데이터를 인코딩 유닛(219)에 제공하기 위한 것이며, 또한, 움직임 추정 유닛(215)은 계산하여 결정된 움직임 벡터 데이터도 인코딩 유닛(219)에 송신하며; 또한, 역변환과 역양자화 유닛(216)은 상기 비디오 재구축 블록의 재구축에 사용되며, 픽셀 도메인에서 잔차 블록을 재구축하며, 상기 재구축된 잔차 블록은 필터 제어 분석 유닛(217) 및 필터링 유닛(218)을 통해 블록 효과 아티팩트를 제거한 다음, 상기 재구축된 잔차 블록을 디코딩 이미지 캐시 유닛(210)의 프레임에서의 예측성 블록에 추가하여, 재구축된 비디오 재구축 블록을 생성하기 위한 것이며; 인코딩 유닛(219)은 다양한 인코딩 파라미터 및 양자화 후의 변환 계수를 인코딩하기 위한 것이며, CABAC에 기반한 인코딩 알고리즘에서, 컨텍스트 내용은 인접 재구축 블록에 기반할 수 있으며, 결정된 인트라 프레임 예측 방향을 나타내는 정보를 인코딩하는데 사용될 수 있으며, 상기 비디오 신호의 코드 스트림을 출력하며; 디코딩 이미지 캐시 유닛(210)은 재구축된 비디오 재구축 블록을 저장하기 위한 것이고, 예측 참조를 위한 것이다. 비디오 이미지 인코딩의 수행에 따라, 새로운 재구축된 비디오 재구축 블록을 부단히 생성하며, 이러한 재구축된 비디오 재구축 블록은 디코딩 이미지 캐시 유닛(210)에 저장된다.
본 출원의 실시예는 비디오 디코딩 시스템을 제공하고, 도 2b는 본 출원의 실시예의 비디오 인코딩 시스템의 구성 구조 예시도이며, 도 2b에 도시된 바와 같이, 상기 비디오 인코딩 시스템(22)은,
디코딩 유닛(221), 역변환과 역양자화 유닛(222), 인트라 프레임 예측 유닛(223), 움직임 보상 유닛(224), 필터링 유닛(225) 및 디코딩 이미지 캐시 유닛(226)을 포함하고; 입력된 비디오 신호는 비디오 인코딩 시스템(21)을 통해 인코딩 처리가 수행된 후, 상기 비디오 신호의 코드 스트림을 출력하며; 상기 코드 스트림은 비디오 디코딩 시스템(22)에 입력되고, 먼저 디코딩 유닛(221)을 통해, 디코딩된 변환 계수를 얻기 위한 것이며; 상기 변환 계수에 대해 역변환과 역양자화 유닛(222)을 통해 처리하여, 픽셀 도메인에서 잔차 블록을 생성하는데 용이하며; 인트라 프레임 예측 유닛(223)은 결정된 인트라 프레임 예측 방향 및 현재 프레임 또는 이미지로부터의 이전 디코딩 블록을 통한 데이터에 기반하여 현재 비디오 디코딩 블록의 예측 데이터를 생성하는데 사용될 수 있으며; 움직임 보상 유닛(224)은 움직임 벡터 및 다른 관련 신택스 요인을 파싱하는 것을 통해 비디오 디코딩 블록을 위한 예측 정보를 결정하기 위한 것이며, 상기 예측 정보를 사용하여 현재 디코딩되고 있는 비디오 디코딩 블록의 예측성 블록을 생성하며; 역변환과 역양자화 유닛(222)으로부터의 잔차 블록과 인트라 프레임 예측 유닛(223) 또는 움직임 보상 유닛(224)에 의해 생성된 대응되는 예측성 블록의 합을 구하는 것을 통해, 디코딩된 비디오 블록을 형성하며; 상기 디코딩된 비디오 신호는 필터링 유닛(225)을 통해 블록 효과 아티팩트를 제거하므로, 비디오 품질을 개선시킬 수 있으며; 다음 디코딩된 비디오 블록을 디코딩 이미지 캐시 유닛(226)에 저장하며, 디코딩 이미지 캐시 유닛(226)은 후속 인트라 프레임 예측 또는 움직임 보상을 위한 기준 이미지를 저장하는 동시에, 비디오 신호의 출력에도 사용되며, 복원된 원래 비디오 신호를 얻는다.
본 출원의 실시예는 주로 비디오 인코딩 시스템(21)의 인트라 프레임 예측 유닛(213) 및 비디오 디코딩 시스템(22)의 인트라 프레임 예측 유닛(223)에 작용되며; 다시 말해, 비디오 인코딩 시스템(21)이 본 출원의 실시예에서 제공한 인트라 프레임 예측 방법을 통해 비교적 좋은 예측 효과를 얻을 수 있으면, 대응되게, 디코딩 엔드에서, 비디오 디코딩 복원 품질을 개선할 수도 있다.
이에 기반하여, 아래에 도면 및 실시예를 결합하여 본 출원의 기술방안을 추가로 상세하게 반복 설명하고자 한다. 상세하게 반복하여 설명하기 전, 설명해야 할 것은, 명세서에서 언급된 “제1”, “제2”, “제3” 등은, 다만 상이한 특징을 구분하기 위한 것이고, 우선 순위, 앞뒤 순서, 크기 관계 등을 한정하는 기능을 구비하지 않는다.
본 출원의 실시예는 인트라 프레임 예측 방법을 제공하고, 상기 방법은 비디오 인코딩 기기에 적용된다. 상기 방법에 의해 구현된 기능은 비디오 인코딩 기기에서의 프로세서가 프로그램 코드를 호출하는 것을 통해 구현될 수 있으며, 물론 프로그램 코드는 컴퓨터 저장 매체에 저장될 수 있으며, 이로부터 알다시피, 상기 비디오 인코딩 기기는 프로세서 및 저장 매체를 적어도 포함한다.
도 3a는 본 출원의 실시예의 인트라 프레임 예측 방법의 구현 흐름 예시도이고, 도 3a에 도시된 바와 같이, 상기 방법은 단계 S301 내지 단계 S306을 포함한다.
단계 S301에 있어서, 현재 처리 블록에 대응되는 이전 재구축 블록 세트를 획득한다.
일반적으로, 상기 이전 재구축 블록 세트에서의 이전 재구축 블록은 상기 현재 처리 블록이 위치하는 기설정된 범위 내의 인트라 프레임 예측을 완료한 영역이며; 여기서, 이전 재구축 블록은 인트라 프레임 예측을 완료한 영역을 가리키며; 상기 현재 처리 블록은 현재 인트라 프레임 예측을 수행해야 하는 영역을 가리킨다. 예를 들어, 도 3b에 도시된 바와 같이, 현재 처리 블록 위의 모든 인접 블록 및 현재 처리 블록 좌측의 모든 인접 블록으로부터 상기 이전 재구축 블록을 결정하고, 예를 들어, 현재 처리 블록의 인접 블록의 좌측(L), 상부(A), 좌측 하부(BL), 우측 상부(AR) 및 좌측 상부(AL)를 상기 이전 재구축 블록 세트에서의 이전 재구축 블록으로 사용한다.
단계 S302에 있어서, 상기 이전 재구축 블록 세트에서 각 이전 재구축 블록에 대응되는 코드 스트림에 기입된 제1 예측 모드를 결정하여, 제1 예측 모드 세트를 얻는다.
여기서, 설명해야 할 것은, 상기 제1 예측 모드 세트는 바로 배경 기술에 따른 후보 예측 모드 세트이다. 일반적으로, 상기 제1 예측 모드 세트는 DC 모드, PLANAR 모드 및 방향 모드를 포함한다.
단계 S303에 있어서, 상기 제1 예측 모드 세트에 적어도 두 개의 방향 모드가 포함되면, 각 상기 방향 모드를 제1 예측 방향으로서 제1 예측 방향 세트에 추가한다.
설명해야 할 것은, 상기 제1 예측 방향은 실제로 이전 재구축 블록이 인트라 프레임 예측을 수행할 경우 결정된 최적 예측 방향에 대응된다.
다른 실시예에 있어서, 상기 제1 예측 방향은 휘도 인트라 프레임 예측 방향 및 색도 인트라 프레임 예측 방향 중 하나를 적어도 포함한다. 이해할 수 있는 것은, 휘도 블록의 경우, 현재 처리 블록이 제1 예측 모드 세트에서의 복수 개의 제1 예측 모드를 선택하여 인트라 프레임 예측을 수행할 경우, 상기 제1 예측 모드 세트 이외의 예측 모드를 선택하여 인트라 프레임 예측을 수행하는 것에 비해, 더욱 적은 비트수를 사용하여 인트라 프레임 예측 모드를 나타내었다. 상기 제1 예측 방향이 휘도 인트라 프레임 예측 방향일 경우, 상기 이전 재구축 블록의 예측값은 휘도값이고, 단계 S306의 경우, 상기 현재 처리 블록의 예측 방향에 대해 인트라 프레임 예측을 수행할 경우, 실제로 상기 현재 처리 블록의 휘도값에 대해 인트라 프레임 예측을 수행하는 것이며; 이와 유사하게, 상기 제1 예측 방향이 색도 인트라 프레임 예측 방향일 경우, 상기 이전 재구축 블록의 예측값은 색도값이고, 단계 S306의 경우, 상기 현재 처리 블록의 예측 방향에 대해 인트라 프레임 예측을 수행할 경우, 실제로 상기 현재 처리 블록의 색도값에 대해 인트라 프레임 예측을 수행하는 것이다.
단계 S304에 있어서, 기설정된 벡터 연산 규칙에 따라, 상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는다.
설명해야 할 것은, 상기 제2 예측 방향 세트에서의 각 제2 예측 방향은 실제로 상기 현재 처리 블록의 예측 방향에 대해 인트라 프레임 예측을 수행할 경우의 후보 예측 방향이며; 일반적으로, 상기 제1 예측 방향 세트에서의 각 제1 예측 방향도 상기 현재 처리 블록의 예측 방향에 대해 인트라 프레임 예측을 수행할 경우 사용된 후보 예측 방향이다.
얻은 복수 개의 제2 예측 방향 사이에 동일한 방향을 구비하는 것을 방지하기 위해, 일반적인 경우에, 상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 상이한 방향을 구비하는 제1 예측 방향에 대해 벡터 연산을 수행함으로써, 제2 예측 방향 세트를 얻는다.
이해할 수 있는 것은, 실제 응용에 있어서, 간단하게 제1 예측 방향의 인덱스 넘버에 1을 더하거나 1을 감하여, 상기 현재 처리 블록의 후보 예측 방향을 구축하면, 인트라 프레임 예측을 수행할 경우, 충분히 정확한 예측 효과에 달성하지 못할 수 있는데, 이는 이러한 구축 방법으로 얻은 후보 예측 방향이, 현재 처리 블록의 일부 내용을 충분히 고려하지 않은 특점과, 현재 처리 블록 주위의 방향 정보를 충분히 이용하지 않았기 때문이므로, 본 출원의 실시예에서, 기설정된 벡터 연산 규칙에 따라, 상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트, 즉 새로운 후보 예측 방향 세트를 얻음으로써, 상기 현재 처리 블록의 예측 방향에 대해 인트라 프레임 예측을 수행할 경우, 충분히 정확한 예측 효과를 획득할 가능성을 증가시킨다.
예를 들어, 도 3c에 도시된 바와 같이, 현재 처리 블록(307)의 이전 재구축 블록(308)이 수직 스트라이프 정보(예를 들어 AB 라인 세그먼트)를 구비하면, 이전 재구축 블록(308)에 대응되는 최적 예측 방향은 BA이고, 현재 처리 블록(307)의 이전 재구축 블록(309)은 수평 스트라이프 정보(예를 들어 CD 라인 세그먼트)이며, 이전 재구축 블록(309)에 대응되는 최적 예측 방향은 DC이며, 현재 처리 블록(307)에 포함된 이미지 정보는 BD 호선이며; 이때, 알고 있는 방향 BA 및 DC에 기반하여 새로운 후보 예측 방향을 구축할 경우, 다만 방향 BA 및 DC 각각에 대응되는 인덱스 넘버에 1을 더하여, 인접 방향 B’A’ 및 D’C’를 얻는 것이면, 방향 BA, B’A’, DC 및 D’C’에 기반하여 인트라 프레임 예측을 수행할 경우, 얻은 예측 결과는 현재 처리 블록(307)에 포함된 이미지 정보가 라인 세그먼트 D’O 및 라인 세그먼트 OB’인 것이고, 이는 실제 상황(즉 현재 처리블록(307)에 포함된 이미지 정보가 BD 호선인 것)과 비교적 큰 차이를 갖는다. 따라서, 충분한 정확한 예측 효과를 획득할 가능성을 증가시키기 위해, 방향 BA 및 DC에 대한 벡터를 감할 수 있음으로써, 방향 BD를 얻으며, 방향 BD를 후보 예측 방향(즉 제2 예측 방향)으로 사용한다.
단계 S305에 있어서, 상기 제2 예측 방향 세트와 제1 예측 모드 세트를 병합하여, 제2 예측 모드 세트를 얻는다.
단계 S306에 있어서, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행한다.
실제 응용에 있어서, 상기 제2 예측 방향 세트는 제2 예측 방향의 방향 정보를 포함할 뿐만 아니라, 대응되는 인덱스 정보도 포함한다.
본 출원의 실시예에 있어서, 인트라 프레임 예측 방법을 제공하고, 상기 방법은, 현재 처리 블록에 대응되는 이전 재구축 블록 세트를 획득하는 단계; 상기 이전 재구축 블록 세트 중 각 이전 재구축 블록에 대응되는 코드 스트림에 기입된 제1 예측 방향(즉 상기 현재 처리 블록의 알고 있는 후보 예측 방향)을 결정하여, 제1 예측 모드 세트를 얻는 단계; 상기 제1 예측 모드 세트에 적어도 두 개의 방향 모드가 포함되면, 각 상기 방향 모드를 제1 예측 방향으로서 제1 예측 방향 세트에 추가하는 단계; 기설정된 벡터 연산 규칙에 따라, 상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는 단계(이해할 수 있는 것은, 상기 제2 예측 방향 세트에서의 제2 예측 방향은 상기 현재 처리 블록의 새로운 후보 예측 방향임); 및 상기 제2 예측 방향 세트와 제1 예측 모드 세트를 병합하여, 제2 예측 모드 세트를 얻고, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하는 단계를 포함한다.
이로써, 알고 있는 두 개 또는 복수 개의 후보 예측 방향에 대해 벡터 연산을 수행하는 것을 통해, 새로운 후보 예측 방향을 구축하고, 즉, 상기 제2 예측 방향 세트와 제1 예측 모드 세트를 병합하여, 제2 예측 모드 세트를 얻고, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하므로, 충분히 정확한 예측 효과를 획득하는 가능성을 추가할 수 있다.
본 출원의 실시예는 다른 트라 프레임 예측 방법을 제공하고, 상기 방법은 아래와 같은 단계 S401 내지 단계 S407을 포함한다.
단계 S401에 있어서, 현재 처리 블록에 대응되는 이전 재구축 블록 세트를 획득한다.
단계 S402에 있어서, 상기 이전 재구축 블록 세트에서 각 이전 재구축 블록에 대응되는 코드 스트림에 기입된 제1 예측 모드를 결정하여, 제1 예측 모드 세트를 얻는다.
단계 S403에 있어서, 상기 제1 예측 모드 세트에 적어도 두 개의 방향 모드가 포함되면, 각 상기 방향 모드를 제1 예측 방향으로서 제1 예측 방향 세트에 추가한다.
단계 S404에 있어서, 기설정된 벡터 연산 규칙에 따라, 상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는다.
단계 S405에 있어서, 상기 제2 예측 방향 세트와 제1 예측 모드 세트를 병합하여, 제2 예측 모드 세트를 얻는다.
단계 S406에 있어서, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하여, 타깃 예측 방향 및 상기 타깃 예측 방향에 대응되는 현재 처리 블록 중 각 픽셀 유닛의 예측값과 원래값 사이의 차이값을 얻는다.
여기서, 설명해야 할 것은, 단계 S406은, 실제로 상기 실시예의 단계 S306의 실시 예시이다.
일반적으로, 상기 타깃 예측 방향은 상기 현재 처리 블록의 최적 예측 방향이고, 다시 말해, 상기 타깃 예측 방향을 통해 비교적 작은 비율 왜곡 대가를 획득할 수 있고, 또는, 상기 현재 처리 블록의 각 픽셀 유닛의 예측값과 원래값 사이의 차이값이 가장 작도록 할 수 있음으로써, 비디오 압축 비례를 향상시키고, 비디오 인코딩의 비트수를 절약한다.
단계 S407에 있어서, 상기 타깃 예측 방향 및 각 차이값을 상기 현재 처리 블록의 코드 스트림에 기입한다.
다른 실시예에 있어서, 상기 타깃 예측 방향을 상기 현재 처리 블록의 코드 스트림에 기입할 경우, 상기 타깃 예측 방향의 인덱스 넘버를 상기 현재 처리 블록의 코드 스트림에 기입할 수 있다. 휘도 모드의 경우, 상기 타깃 예측 방향이 두 개의 제1 예측 방향에 의해 벡터 연산이 수행되어 얻은 것이면, 타깃 예측 방향을 결정한 후, 도 1b에 도시된 VVC가 지원하는 67 가지 인트라 프레임 예측 방향으로부터, 상기 타깃 예측 방향과의 협각이 기설정된 임계값보다 작은 예측 방향을 결정할 수 있으며, 기설정된 임계값보다 작은 예측 방향의 인덱스 넘버를 상기 타깃 예측 방향의 인덱스 넘버로서, 상기 현재 처리 블록의 코드 스트림에 기입한다.
예를 들어, 타깃 예측 방향(
Figure pct00001
)이 예측 방향(
Figure pct00002
) 및 예측 방향(
Figure pct00003
)에 의해 벡터를 더하여 얻은 것이면, 즉,
Figure pct00004
이면, 여기서
Figure pct00005
,
Figure pct00006
Figure pct00007
은 대응되는 예측 방향의 인덱스 넘버이면, 타깃 예측 방향(
Figure pct00008
)의 인덱스 넘버(
Figure pct00009
)를 코드 스트림(
Figure pct00010
)에 기입할 수 있다.
본 출원의 실시예는 또 다른 인트라 프레임 예측 방법을 제공하고, 상기 방법은 아래와 같은 단계 S501 내지 단계 S508을 포함한다.
단계 S501에 있어서, 현재 처리 블록에 대응되는 이전 재구축 블록 세트를 획득한다.
단계 S502에 있어서, 상기 이전 재구축 블록 세트에서 각 이전 재구축 블록에 대응되는 코드 스트림에 기입된 제1 예측 모드를 결정하여, 제1 예측 모드 세트를 얻는다.
단계 S503에 있어서, 상기 제1 예측 모드 세트에 적어도 두 개의 방향 모드가 포함되면, 각 상기 방향 모드를 제1 예측 방향으로서 제1 예측 방향 세트에 추가한다.
단계 S504에 있어서, 상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 상이한 방향을 구비하는 제1 예측 방향을 한 그룹의 예측 그룹으로 결정하여, 예측 그룹 세트를 얻는다.
예를 들어, 상기 제1 예측 방향 세트에 상이한 방향을 구비하는 제1 예측 방향이 방향 1, 방향 2 및 방향 3인 것으로 가정하면, 예측 그룹 내의 방향수가 2로 한정되면 얻은 예측 그룹 세트는 3 그룹의 예측 그룹을 포함하며, 즉, (방향 1, 방향 2), (방향 1, 방향 3) 및 (방향 2, 방향 3)이다.
이해할 수 있는 것은, 상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 상이한 방향을 구비하는 제1 예측 방향을 한 그룹의 예측 그룹으로만 결정하면, 예측 그룹 세트에서의 예측 그룹 개수를 감소시킬 수 있음으로써, 실시 단계 S504의 계산량을 감소시킨다.
단계 S505에 있어서, 기설정된 벡터 연산 규칙에 따라, 각 상기 예측 그룹에서의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는다.
여기서, 설명해야 할 것은, 실제로, 단계 S504 및 단계 S505는 상기 실시예의 단계 S304 또는 단계 S304의 실시 예시이다.
제2 예측 방향 세트는 제1 예측 방향 세트에서의 각 제1 예측 방향을 포함한다. 얻은 예측 그룹 (방향 1, 방향 2), (방향 1, 방향 3) 및 (방향 2, 방향 3)을 예로 들면, 각 예측 그룹에서의 두 개의 방향에 대한 벡터를 더하는 것을 가정하면, 예를 들어, 방향 1 및 방향 2에 대한 벡터를 더하여, 방향 4를 얻고; 방향 1 및 방향 3에 대한 벡터를 더하여, 방향 5를 얻으며; 방향 2 및 방향 3에 대한 벡터를 더하여, 방향 6을 얻으므로; 얻은 제2 예측 방향 세트는 방향 1, 방향 2, 방향 3, 방향 4, 방향 5 및 방향 6을 포함한다.
단계 S506에 있어서, 상기 제2 예측 방향 세트와 제1 예측 모드 세트를 병합하여, 제2 예측 모드 세트를 얻는다.
단계 S507에 있어서, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하여, 타깃 예측 방향 및 상기 타깃 예측 방향에 대응되는 현재 처리 블록 중 각 픽셀 유닛의 예측값과 원래값 사이의 차이값을 얻는다.
단계 S508에 있어서, 상기 타깃 예측 방향 및 각 차이값을 상기 현재 처리 블록의 코드 스트림에 기입한다.
본 출원의 실시예는 또 다른 인트라 프레임 예측 방법을 제공하고, 상기 방법은 아래와 같은 단계 S601 내지 단계 S611을 포함한다.
단계 S601에 있어서, 현재 처리 블록에 대응되는 이전 재구축 블록 세트를 획득한다.
단계 S602에 있어서, 상기 이전 재구축 블록 세트에서 각 이전 재구축 블록에 대응되는 코드 스트림에 기입된 제1 예측 모드를 결정하여, 제1 예측 모드 세트를 얻는다.
단계 S603에 있어서, 상기 제1 예측 모드 세트에 적어도 두 개의 방향 모드가 포함되면, 각 상기 방향 모드를 제1 예측 방향으로서 제1 예측 방향 세트에 추가한다.
단계 S604에 있어서, 상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 상이한 방향을 구비하는 제1 예측 방향을 한 그룹의 예측 그룹으로 결정하여, 예측 그룹 세트를 얻는다.
단계 S605에 있어서, 각 상기 예측 그룹에서의 각 제1 예측 방향의 가중치를 결정하고, 상기 가중치는 대응되는 이전 재구축 블록과 상기 현재 처리 블록 사이의 연관 정도를 나타내기 위한 것이다.
일반적으로, 상기 현재 처리 블록과 더욱 가까운 이전 재구축 블록과 상기 현재 처리 블록 이전의 연관 정도가 더욱 클수록, 대응되는 가중치도 더욱 크다.
단계 S606에 있어서, 상기 사전 처리된 각 제1 예측 방향이 동일한 길이를 구비하도록, 각 상기 가중치에 대응되는 제1 예측 방향에 대해 사전 처리를 수행한다.
예를 들어, 각 예측 방향은 모두 단위 길이이다.
단계 S607에 있어서, 각 상기 가중치와 대응되는 사전 처리된 제1 예측 방향을 곱하여, 제3 예측 방향 세트를 얻는다.
여기서, 설명해야 할 것은, 실제로, 단계 S604 내지 단계 S607은 상기 실시예의 단계 S505의 실시 예시이다.
이해할 수 있는 것은, 하나의 값(즉 상기 가중치) 및 하나의 벡터를 곱하면, 상기 벡터의 길이만 변화시키고, 상기 벡터의 방향을 변화시키지 않는다. 예를 들어, 도 4에 도시된 바와 같이, 사전 처리된 제1 예측 방향은 단위 길이의 OA이고, OA의 가중치가 2이면, 곱한 후 얻은 제3 예측 방향은 OA’이다.
단계 S608에 있어서, 상기 제3 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제3 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는다.
이해할 수 있는 것은, 현재 처리 블록의 후보 예측 방향으로서 가장 가능성이 있는 제2 예측 방향을 얻기 위해, 일반적으로 현재 처리 블록과 연관성이 비교적 높은 이전 재구축 블록에 대응되는 예측 방향에 비교적 큰 가중치를 분할하며, 현재 처리 블록과 연관성이 비교적 낮은 이전 재구축 블록에 대응되는 예측 방향에 비교적 작은 가중치를 분할하며, 예를 들어, 도 4에 도시된 바와 같이, 방향 OA에게 분할한 가중치는 2이며, 방향 AB에게 분할한 가중치는 1이며, 대응되게, 가중치 2와 방향 OA를 곱하여 방향 OA’를 얻고, 가중치 1과 방향 AB를 곱하여 방향 AB를 얻으며, 방향 AB를 A’ 포인트로 시프트하여, 방향 A’B’를 얻으며, 이로부터 알다시피, 방향 OA’의 길이는 방향 A’B’의 길이보다 크며, 이로써, 방향 OA’ 및 방향 A’B’에 대한 벡터를 더할 경우, 얻은 방향 OB’(즉 제2 예측 방향)은 방향 OA’에 더욱 편향함으로써, 비교적 정확한 예측 효과를 획득할 수 있다. 직접 OA 및 AB에 대해 벡터 연산을 수행하여, 현재 처리 블록의 후보 예측 방향 OB를 얻는 것에 비하면, 여기서, 가중치 처리를 통한 후 벡터 연산을 수행하여 얻은 제2 예측 방향 OB’은, 더욱 실제 상황에 접근한다.
단계 S609에 있어서, 상기 제2 예측 방향 세트와 제1 예측 모드 세트를 병합하여, 제2 예측 모드 세트를 얻는다.
단계 S610에 있어서, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하여, 타깃 예측 방향 및 상기 타깃 예측 방향에 대응되는 현재 처리 블록 중 각 픽셀 유닛의 예측값과 원래값 사이의 차이값을 얻는다.
단계 S611에 있어서, 상기 타깃 예측 방향 및 각 차이값을 상기 현재 처리 블록의 코드 스트림에 기입한다.
본 출원의 실시예는 다른 인트라 프레임 예측 방법을 제공하고, 상기 방법은 아래와 같은 단계 S701 내지 단계 S711을 포함한다.
단계 S701에 있어서, 현재 처리 블록에 대응되는 이전 재구축 블록 세트를 획득한다.
단계 S702에 있어서, 상기 이전 재구축 블록 세트에서 각 이전 재구축 블록에 대응되는 코드 스트림에 기입된 제1 예측 모드를 결정하여, 제1 예측 모드 세트를 얻는다.
단계 S703에 있어서, 상기 제1 예측 모드 세트에 적어도 두 개의 방향 모드가 포함되면, 각 상기 방향 모드를 제1 예측 방향으로서 제1 예측 방향 세트에 추가한다.
단계 S704에 있어서, 상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 상이한 방향을 구비하는 제1 예측 방향을 한 그룹의 예측 그룹으로 결정하여, 예측 그룹 세트를 얻는다.
단계 S705에 있어서, 각 상기 예측 그룹에서의 각 제1 예측 방향에 대응되는 이전 재구축 블록과 상기 현재 처리 블록 사이의 거리를 결정한다.
여기서, 설명해야 할 것은, 실제로, 단계 S704 및 단계 S705는 상기 실시예의 단계 S605의 실시 예시이다.
단계 S706에 있어서, 각 상기 거리에 기반하여, 기설정된 가중치 분할 규칙에 따라, 대응되는 제1 예측 방향에 가중치를 분할한다.
다른 실시예에 있어서, 상기 가중치 분할 규칙은 거리와 가중치의 맵핑표일 수 있고, 상기 맵핑표에 기반하여 각 상기 거리에 대응되는 가중치를 결정할 수 있음으로써, 각 상기 거리에 대응되는 제1 예측 방향에 가중치를 분할한다. 예를 들어, 거리가 작을수록, 분할된 가중치가 더욱 크므로, 벡터 연산을 수행할 경우, 얻은 예측 방향이 가중치가 큰 예측 방향으로 더욱 편향되도록 함으로써, 인트라 프레임 예측을 수행할 경우, 충분히 정확한 예측 효과를 획득할 가능성을 증가시킨다.
예를 들어, 단계 S704의 경우, 예를 들어, 이전 재구축 블록과 현재 처리 블록 사이의 블록 수에 따라 상기 이전 재구축 블록과 현재 처리 블록 사이의 거리를 결정할 수 있다. 예를 들어, 도 5a에 도시된 바와 같이, 현재 처리 블록(501)과 이전 재구축 블록(502) 사이에는 블록(503) 및 블록(504)이 존재하면, 이때, 이전 재구축 블록(502)과 현재 처리 블록(501) 사이의 거리는 2이다. 예측된 가중치 분할 규칙이 아래의 표 1에 도시된 바와 같다고 가정한다.
Figure pct00011
상기 표 1에 기반하여, 이전 재구축 블록(502)에 대응되는 제1 예측 방향의 가중치가 2인 것을 결정할 수 있다.
또 예를 들어, 단계 S704의 경우, 또한 이전 재구축 블록과 현재 처리 블록 사이의 픽셀 유닛수에 따라 상기 이전 재구축 블록과 현재 처리 블록 사이의 거리를 결정할 수 있다. 예를 들어, 도 5b에 도시된 바와 같이, 현재 처리 블록(503)의 픽셀 유닛 A를 기준 포인트로 하여, 현재 처리 블록(503)의 픽셀 유닛 A로부터 이전 재구축 블록(504)의 픽셀 유닛 B 사이의 픽셀 총수 M을 결정하고, M을 이전 재구축 블록(504)과 현재 처리 블록(503) 사이의 거리로 결정한다. 설명해야 할 것은, 각 현재 처리 블록의 기준 포인트의 설정 규칙은 모두 일치하고, 예를 들어, 현재 처리 블록의 중심 포인트를 기준 포인트로 할 수 있다. 예측된 가중치 분할 규칙이 아래의 표 2에 도시된 바와 같다고 가정한다.
Figure pct00012
상기 표 2에 기반하여, M이 속하는 거리 범위를 결정할 수 있음으로써, 대응되는 가중치를 얻는다.
단계 S707에 있어서, 상기 사전 처리된 각 제1 예측 방향이 동일한 길이를 구비하도록, 각 상기 가중치에 대응되는 제1 예측 방향에 대해 사전 처리를 수행한다.
단계 S708에 있어서, 각 상기 가중치와 대응되는 사전 처리된 제1 예측 방향을 곱하여, 제3 예측 방향 세트를 얻는다.
단계 S709에 있어서, 상기 제3 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제3 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는다.
다른 실시예에 있어서, 단계 S709의 경우, 상기 제3 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제3 예측 방향에 대해 벡터를 가하거나 벡터를 감하는 것을 수행하여, 제2 예측 방향 세트를 얻을 수 있다.
단계 S710에 있어서, 상기 제2 예측 방향 세트와 제1 예측 모드 세트를 병합하여, 제2 예측 모드 세트를 얻는다.
단계 S711에 있어서, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행한다.
본 출원의 실시예는 또 다른 인트라 프레임 예측 방법을 제공하고, 단계 S801 내지 단계 S809를 포함한다.
단계 S801에 있어서, 현재 처리 블록에 대응되는 인접 이전 재구축 블록 세트를 획득한다.
단계 S802에 있어서, 상기 인접 이전 재구축 블록 세트 중 각 인접 이전 재구축 블록에 대응되는 코드 스트림에 기입된 제1 예측 모드를 결정하여, 제1 예측 모드 세트를 얻는다.
단계 S804에 있어서, 상기 제1 예측 모드 세트에 적어도 두 개의 방향 모드가 포함되면, 각 상기 방향 모드를 제1 예측 방향으로서 제1 예측 방향 세트에 추가한다.
단계 S805에 있어서, 상기 제1 예측 방향 세트에서의 임의의 두 개의 상이한 방향을 구비하는 제1 예측 방향을 한 그룹의 예측 그룹으로 결정하여, 예측 그룹 세트를 얻는다.
단계 S806에 있어서, 각 상기 예측 그룹에서의 두 개의 제1 예측 방향에 대한 벡터를 더하여, 제2 예측 방향 세트를 얻는다.
단계 S807에 있어서, 상기 제2 예측 방향 세트와 제1 예측 모드 세트를 병합하여, 제2 예측 모드 세트를 얻는다.
단계 S808에 있어서, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하여, 타깃 예측 방향 및 상기 타깃 예측 방향에 대응되는 현재 처리 블록 중 각 픽셀 유닛의 예측값과 원래값 사이의 차이값을 얻는다.
단계 S809에 있어서, 상기 타깃 예측 방향 및 각 차이값을 상기 현재 처리 블록의 코드 스트림에 기입한다.
현재, 기존의 인트라 프레임 예측 방향의 구축 방법은 아래와 같은 세 가지 경우를 포함한다.
첫 번째 경우에 있어서, VVC 드래프트의 휘도 인트라 프레임 예측 방향 구축 방법이며, 관련 설명은 아래와 같다.
초기의 JEM에 있어서, 휘도 예측 방향 인코딩은 6 개의 가장 가능한 모드를 포함하는 가장 가능한 모드 리스트, 즉 MPM 리스트를 사용한다. 도 3b에 도시된 바와 같이, MPM 리스트의 유도 과정은 현재 처리 블록(601)의 5 개의 인접 블록의 인트라 프레임 예측 방향(인트라 프레임 예측 방향으로도 지칭됨), 즉 좌측(L) 블록, 상부(A) 블록, 좌측 상부(BL) 블록, 우측 상부(AR) 블록 및 좌측 상부(AL) 블록을 고려한다.
MPM 리스트의 후보 예측 방향은 인접 예측 방향, 파생 예측 방향 및 디폴트 예측 방향 등 3 개의 그룹으로 나눈다. 먼저, MPM 리스트에서 인접 예측 방향을 추가한다. MPM 리스트 중 각 인트라 프레임 예측 방향은 한 번만 추가될 수 있고, 즉 MPM 리스트는 중복된 예측 방향을 포함할 수 없다. 인접 예측 방향의 추가를 완료한 후 MPM 리스트에 포함된 예측 방향이 6 개를 초과하지 않으면, 파생된 인트라 프레임 예측 방향을 MPM 리스트에 추가한다. 파생된 예측 방향의 추가를 완료한 후 MPM 리스트에 포함된 예측 방향이 여전히 6 개를 초과하지 않으면, 디폴트 예측 방향을 MPM 리스트에 추가하고, 6 개의 최대 가능한 인트라 프레임 예측 방향의 MPM 리스트를 도출할 때까지 추가한다.
각 휘도 블록의 인트라 프레임 예측 방향에 대해 엔트로피 인코딩을 수행할 경우, 먼저 상기 휘도 블록의 MPM 리스트를 획득하고, 상기 휘도 블록에 의해 선택된 인트라 프레임 예측 방향이 MPM 리스트에 존재하는지 여부를 판단하며, 잘린 이진 코드를 사용하여 상기 예측 방향이 MPM에서의 인덱스 넘버에 대해 이진화하면, 인덱스 넘버가 작을수록 생성된 잘린 이진 코드는 더욱 작으며, 다음 알고리즘 인코더를 통해 잘린 이진 코드를 인코딩하여, 비트 오버 헤드를 절약할 수 있다. 상기 휘도 블록에 의해 선택된 인트라 프레임 예측 방향이 MPM 리스트에서의 잔여 61 가지 예측 방향 중 하나가 아니면, 상기 61 가지 예측 방향을 0부터 다시 넘버링하여, 넘버가 4의 배수인 16 개의 예측 방향을 선택 모드로서 선택한다. 상기 인트라 프레임 예측 방향이 선택 모드에 존재하면, 고정된 4 비트 길이를 사용하여 바이패스 인코딩을 수행한다. 상기 인트라 프레임 예측 방향이 잔여 45 개의 비선택 모드에 존재하면, 다시 넘버링하며, 잘린 이진 코드를 사용하여 이진화를 수행하며, 넘버의 크기에 따라, 5 개 또는 6 개의 비트 길이의 비트열을 생성한 다음, 바이패스 인코딩을 수행한다.
이는 JEM에서의 6MPM 리스트가 복잡하기 때문에, 이후 일부 사람들은 간략화된 3MPM 리스트를 사용하는 방안을 제안하였다. 그러나 3MPM 리스트에 포함된 예측 방향은 비교적 적고, 획득된 예측 효과도 비교적 정확하지 않으므로, 이후, 일부 사람들은 간략화된 6MPM 리스트(즉 현재의 VVC 드래프트에서 사용된 방법)를 사용할 것을 제안하였다. 예를 들어, 도 6에서의 상부(A) 블록에 대응되는 타깃 예측 방향 및 좌측(L) 블록에 대응되는 타깃 예측 방향에 기반하여, 현재 처리 블록(601)의 새로운 후보 예측 방향을 구축하고, 그 유도 과정은 아래와 같다.
dirL==dirA
·dir<2
MPM0=dir(Planar 또는 DC)
MPM1=Planar/DC
MPM2=50(수직)
MPM3=18(수평)
MPM4=50-4
MPM5=50+4
· dir>=2
MPM0=dir
MPM1=Planar
MPM2=DC
MPM3=dir-1
MPM4=dir+1
MPM5=dir-2
dirL!=dirA
· 모두 각도임
MPM0=dirL
MPM1=dirA
MPM2=Planar
MPM3=DC
MPM4=큰 각도-1
MPM5=큰 각도+1
· 하나의 각도가 존재함
MPM0=dirL
MPM1=dirA
MPM2=Planar/DC
MPM3=각도-1
MPM4=각도+1
MPM5=각도-2
두 번째 경우에 있어서, VVC 드래프트의 색도 인트라 프레임 예측 방향 구축 방법이며, 상기 방법의 관련 설명은 아래와 같으며, 표 3에 도시된 바와 같다.
Figure pct00013
도 7은 본 출원의 실시예의 현재 처리 블록에 대응되는 휘도 블록 및 색도의 배열 예시도이고, 도 7에 도시된 바와 같이, 우측의 정방형의 좌측 절반 부분의 그레이 영역은 현재 처리된 색도 블록(71)이며, 좌측의 정방형의 좌측 절반 부분의 그레이 영역은 현재 처리된 색도 블록(71)에 대응되는 휘도 영역이며, 현재 색도 블록(71)의 인트라 프레임 예측을 수행할 경우, 상기 휘도 영역의 중심 위치에 기록된 예측 모드를 이용하며, 즉 도 7의 좌측 정방형에서 CR 휘도 블록(701)의 예측 모드이다.
표 3 및 도 7에 도시된 내용을 결합하면, 결정할 수 있는 것은, DM에 의해 얻은 예측 방향이 이후 4 가지 예측 방향에서의 특정된 예측 방향과 동일할 경우, 3-6 행의 동일한 모드를 인덱스 넘버가 66인 예측 방향으로 대체한다.
세 번째 경우에 있어서, MDMS이고, 상기 방법의 관련 설명은 아래와 같다.
MDMS는 더욱 복잡한 색도 인트라 프레임 예측 방향 구축 방법이고, 표 4에 도시된 바와 같이, 첫 번째 방안에 비해, 0.2%의 비트율 절약량을 가지지만, 복잡도가 과도하게 높음으로 인해, VVC에 적용되지 않았다.
Figure pct00014
도 8은 표 4에서 DM 모드 및 색도 인접 블록 모드에서 각각 사용된 색도 블록의 배열 예시도이고, 도 8(a)의 블록 801 내지 805에 도시된 바와 같이, 표 4에서의 DM 모드는 사용된 현재 색도 블록 중심 CR, 좌측 상부 TL, 우측 상부 TR, 좌측 하부 BL, 우측 하부 BR 등 5 개 위치의 대응되는 휘도 블록의 인트라 프레임 예측 모드이며, 도 8(b)의 블록 806 내지 810에 도시된 바와 같이, 표 4에서의 색도 인접 블록 모드는 사용된 색도 블록 공간이 좌측, 좌측 상부, 좌측 하부, 상부 및 우측 상부 블록의 인트라 프레임 예측 방향, 즉 코드 스트림에 기입된 예측 방향이다.
도 9는 MDMS의 인트라 프레임 예측 방향의 순회 순서 예시도이고, 도 9에 도시된 바와 같이, 번호 1 내지 17의 순회 순서에 따라, 순차적으로 아래와 같은 것을 수행한다. 1. 중심 휘도 luma 블록 C, 2. 좌측 상부 휘도 블록 TL, 3. 우측 상부 휘도 블록 TR, 4. 좌측 하부 휘도 블록 BL, 5. 우측 하부 휘도 블록 BR, 6. 좌측 색도 chroma 블록 L, 7. 좌측 상부 색도 블록 AL, 8. 좌측 하부 색도 블록 LB, 9. 상부 색도 블록 A, 10. 우측 상부 색도 블록 AR, 11. PLANAR, 12. DC, 13. 기존의 예측 방향 인덱스 넘버에 1을 더하거나 감함, 14.VER, 15.HOR, 16.예측 방향 인덱스 넘버는 2, 17이고, 예측 방향 인덱스 넘버는 34이다.
설명해야 할 것은, 상기 표 4에서의 DC 모드, PLANAR 모드, VER(18) 모드 및 HOR(50) 모드는 강제 충진 모드, 후보 리스트가 가득 찰 경우, 리스트 끝의 후보 모드를 대체한다.
상기 3 가지 기존의 예측 방향의 구축 방법으로부터 알 수 있듯이, VVC 휘도 인트라 프레임 예측 방향의 구축 방법은 간단하고, MPM에서의 기존의 예측 방향의 기초 위에서 증감을 수행할 경우, 모두 기존의 예측 방향의 인덱스 넘버에 1을 더하거나 감하고, 또는 2를 더하거나 감하는 방식을 사용하여 인접 예측 방향을 획득하는 동작을 수행한다. MDMS 이득은 비교적 명확하고, MPM에서의 기존의 예측 방향의 기초 위에서 증감을 수행할 경우, 기존의 예측 방향의 인덱스 넘버에 1을 더하거나 감하는 방식을 사용하여 인접 예측 방향을 획득하는 동작을 수행한다.
그러나, 이러한 기존의 예측 방향의 인덱스 넘버에 1, 2를 더하거나 감하는 것을 통해, 새로운 예측 방향을 구축하는 방법은, 현재 처리 블록의 일부 내용의 특점을 충분히 고려하지 않았고, 현재 처리 블록 주위의 방향 정보도 충분히 이용하지 않았으므로, 예측의 과정 중 여전히 충분히 정확한 예측 효과를 얻지 못한다.
이에 기반하여, 본 출원의 실시예에 있어서, 현재 처리 블록 주위의 방향 정보에 복수 개의 방향이 존재할 경우, 평균값을 이용하여 새로운 예측 방향을 구축할 수 있다.
예를 들어, 현재 처리 블록에 대해 휘도 및 색도 인트라 프레임 예측 중 적어도 하나를 수행할 경우, 복수 개의 예측 방향(즉 상기 제1 예측 방향)을 기준으로 하면, 새로운 평균값 예측 방향(즉 상기 제2 예측 방향)을 후보 정보로서 구축할 수 있고, 구체적인 유도 방법은 도 10에 도시된 바와 같으며, 도 10(a)에서 A 블록의 예측 방향 dA, B 블록의 예측 방향 dB를 얻으며, 두 개의 블록이 협각을 생성하는 중심선을 따라 새로운 예측 방향 I1 및 I2를 생성하며, 현재 처리 블록의 예측 방향에 부합되는 것을 후보로서 선택한다. 원래의 방향 인덱스 넘버에 1을 더하거나 감하는 것을 후보 항목으로 대체한다.
휘도 MPM 리스트 구축에서의 구체적인 구현 예시에 있어서, 예를 들어, A 블록의 예측 방향 dA, B 블록의 예측 방향 dB가 동일하지 않을 경우, dA 및 dB에 대한 벡터를 더하거나 벡터를 감하여, 구축된 기준 예측 방향(즉 상기 제2 예측 방향)은, 원래의 “큰 각도에 1을 더하는 것” 및 “큰 각도에 1을 감하는 것”을 대체하며, 또는 “각도에 1을 감하는 것”의 유래 모드 전에 후보 모드로서 추가한다.
설명해야 할 것은, VTM3.0을 기준으로 하여, 원래 방안의 기술 위에, 본 출원의 실시예의 기술 방안은 동일한 복원 비디오 품질의 전제 하에서, 인코딩 코드율을 절약하며, 구체적으로 0.01%의 비트율이 저하된다.
다른 실시예에 있어서, 색도 예측 방향 후보 리스트(즉 상기 제2 예측 방향 세트)를 결정하는 구현 방식의 경우, 예를 들어, MDMS 및 유사한 해결 방안 하에서, 얻은 DM은 각도 모드이고, 서로 상이한 방향(예를 들어, 두 개의 방향의 인덱스 넘버가 상이함)을 구비하며; 또는, 얻은 현재 색도 블록 인접 블록의 인트라 프레임 예측 방향은 각도 모드이며, 서로 상이한 값일 경우, 예를 들어, 두 개의 상이한 방향 dA 및 dB이 존재하면, dA 및 dB에 대한 벡터를 더하거나 벡터를 감하며, 구축된 기준 예측 방향(즉 상기 제2 예측 방향)은, 원래의 “기존의 각도 모드에 1을 감하는 것”을 대체하며, 또는 “기존의 각도 모드에 1을 감하는 것” 이전에 놓여져 후보 모드로 사용된다.
다른 실시예에 있어서, 다만 하나의 평균 각도 방향(즉 상기 제2 예측 방향)을 사용하여 후보 리스트(즉 상기 제2 예측 방향 세트)에 가입할 수 있고, 예를 들어 방향 dA 및 dB에 대한 벡터를 더하여 얻은 방향만 가입하며, 즉 도 10(b)에서의 I1이며; 또는, 방향 dA 및 dB에 대한 벡터를 감하여 얻은 방향만 가입하며, 즉 도 10(b)에서의 I2이며, 휘도 MPM 구축 시 원래의 “큰 각도에 1을 더하는 것” 또는 “큰 각도에 1을 감하는 것”을 대체하며, 또는 각도에 1을 감하는 후보 이전에 놓여진다.
다른 실시예에 있어서, 하나의 평균 각도 방향만 사용하여 후보 리스트를 가입할 수 있고, 예를 들어 방향 dA 및 dB에 대한 벡터를 더하여 얻은 방향만 가입하고, 즉 도 10(b)에서의 I1이며, 색도 예측 모드 리스트 구축 시, 원래의 “기존의 각도 모드에 1을 더하고 감하는 것”을 대체하고, 또는 각도에 1을 더하고 감하는 후보 이전에 놓여진다.
다른 실시예에 있어서, 색도 예측 모드 리스트를 구축할 경우, MDMS 타입의 기술이 복수 개의 상이한 각도를 생성할 수 있으므로, 복수 개의 평균 각도 방향을 사용하여 후보 리스트에 가입할 수 있고, 예를 들어 dA, dB, dC 등 3 개의 상이한 각도 방향이 존재하면, 3 개의 방향 dA, dB 및 dC에서의 임의의 두 개의 방향에 대한 벡터를 더하거나 벡터를 감하여 얻은 새로운 예측 방향 세트(즉 상기 제2 예측 방향 세트)에서의 전부 또는 일부를 후보로서 가입하는 것을 고려할 수 있으며, 색도 예측 모드 리스트 구축 시 원래의 “기존의 각도 모드에 1을 더하고 감하는 것”을 대체하고, 또는 각도에 1을 더하고 감하는 후보 이전에 놓여진다.
전술한 실시예에 기반하여, 본 출원의 실시예는 인트라 프레임 예측 장치를 제공하고, 상기 장치는 포함된 각 모듈 및 각 모듈에 포함된 각 유닛을 포함하며, 비디오 인코딩 기기에서의 프로세서를 통해 구현될 수 있으며; 물론 구체적인 논리 회로를 통해 구현될 수도 있으며; 실시하는 과정 중, 프로세서는 중앙처리장치(CPU), 마이크로 프로세서(MPU), 디지털 신호 프로세서(DSP) 또는 현장 프로그래머블 어레이(FPGA) 등일 수 있다.
도 11a는 본 출원의 실시예의 인트라 프레임 예측 장치의 구성 구조 예시도이고, 도 11a에 도시된 바와 같이, 상기 장치(11)는,
현재 처리 블록에 대응되는 이전 재구축 블록 세트를 획득하도록 구성된 획득 모듈(111);
상기 이전 재구축 블록 세트에서 각 이전 재구축 블록에 대응되는 코드 스트림에 기입된 제1 예측 모드를 결정하여, 제1 예측 모드 세트를 얻는 단계; 상기 제1 예측 모드 세트에 적어도 두 개의 방향 모드가 포함되면, 각 상기 방향 모드를 제1 예측 방향으로서 제1 예측 방향 세트에 추가하도록 구성된 결정 모듈(112);
기설정된 벡터 연산 규칙에 따라, 상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻도록 구성된 벡터 연산 모듈(113); 및
상기 제2 예측 방향 세트와 제1 예측 모드 세트를 병합하여, 제2 예측 모드 세트를 얻고, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하도록 구성된 인트라 프레임 예측 모듈(114)을 포함한다.
다른 실시예에 있어서, 인트라 프레임 예측 모듈(114)은, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하여, 타깃 예측 방향 및 상기 타깃 예측 방향에 대응되는 현재 처리 블록 중 각 픽셀 유닛의 예측값과 원래값 사이의 차이값을 얻도록 구성된다.
다른 실시예에 있어서, 도 11b에 도시된 바와 같이, 상기 장치(11)는 기입 모듈(115)을 더 포함하고; 기입 모듈(115)은, 상기 타깃 예측 방향 및 각 상기 차이값을 상기 현재 처리 블록의 코드 스트림에 기입하도록 구성된다.
다른 실시예에 있어서, 벡터 연산 모듈(113)은,
상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 상이한 방향을 구비하는 제1 예측 방향을 한 그룹의 예측 그룹으로 결정하여, 예측 그룹 세트를 얻도록 구성된 결정 유닛; 및
기설정된 벡터 연산 규칙에 따라, 각 상기 예측 그룹에서의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻도록 구성된 벡터 연산 유닛을 포함한다.
다른 실시예에 있어서, 벡터 연산 유닛은,
각 상기 예측 그룹에서의 각 제1 예측 방향의 가중치를 결정하도록 구성된 결정 서브 유닛 - 상기 가중치는 대응되는 이전 재구축 블록과 상기 현재 처리 블록 사이의 연관 정도를 나타내기 위한 것임 - ;
상기 사전 처리된 각 제1 예측 방향이 동일한 길이를 구비하도록, 각 상기 가중치에 대응되는 제1 예측 방향에 대해 사전 처리를 수행하도록 구성된 사전 처리 서브 유닛;
각 상기 가중치와 대응되는 사전 처리된 제1 예측 방향을 곱하여, 제3 예측 방향 세트를 얻도록 구성된 계산 서브 유닛; 및
상기 제3 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제3 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻도록 구성된 벡터 연산 서브 유닛을 포함한다.
다른 실시예에 있어서, 결정 서브 유닛은,
각 상기 예측 그룹에서의 각 제1 예측 방향에 대응되는 이전 재구축 블록과 상기 현재 처리 블록 사이의 거리를 결정하고;
각 상기 거리에 기반하여, 기설정된 가중치 분할 규칙에 따라, 대응되는 제1 예측 방향에 가중치를 분할하도록 구성된다.
다른 실시예에 있어서, 벡터 연산 서브 유닛은,
상기 제3 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제3 예측 방향에 대해 벡터를 가하거나 벡터를 감하는 것을 수행하여, 제2 예측 방향 세트를 얻도록 구성된다.
다른 실시예에 있어서, 상기 제1 예측 방향은 휘도 인트라 프레임 예측 방향 및 색도 인트라 프레임 예측 방향 중 하나를 적어도 포함한다.
이상의 장치 실시예의 설명은, 상기 방법 실시예의 설명과 유사한 것으로서, 방법 실시예와 유사한 유익한 효과를 갖는다. 본 출원의 장치 실시예에서 미개시한 기술적인 세부 사항은, 본 출원의 방법 실시예의 설명을 참조하여 이해할 수 있다.
설명해야 할 것은, 본 출원의 실시예에 있어서, 소프트웨어 기능 모듈의 형태로 상기 인트라 프레임 예측 방법을 구현하고, 독립적인 제품으로서 판매되거나 사용될 경우, 컴퓨터 판독 가능한 저장 매체에 저장될 수도 있다. 이러한 이해에 기반하여, 본 출원의 실시예의 기술방안, 즉 관련 기술에 기여하는 부분은 소프트웨어 제품의 형태로 반영될 수 있고, 상기 컴퓨터 소프트웨어 제품은 저장 하나의 저장 매체에 저장되며, 복수 개의 명령어를 포함하여 비디오 인코딩 기기(핸드폰, 태블릿 컴퓨터, 랩 톱 컴퓨터, 개인 휴대 정보 단말, 네비게이터, 디지털 전화, 비디오 전화, 텔레비전, 센싱 기기 등일 수 있음)가 본 출원의 각 실시예에 따른 방법의 전부 또는 일부를 실행하도록 한다. 전술한 저장 매체는, USB 디스크, 모바일 하드 디스크, 판독 전용 메모리(Read Only Memory, ROM), 자기 디스크 또는 광 디스크 등과 같은 프로그램 코드를 저장할 수 있는 다양한 매체를 포함한다. 이로써, 본 출원의 실시예는 임의의 특정된 하드웨어 및 소프트웨어 결합에 한정되지 않는다.
이에 대응되게, 본 출원의 실시예는 비디오 인코딩 기기를 제공하고, 도 12는 본 출원의 실시예의 비디오 인코딩 기기의 하드웨어 엔티티 예시도이며, 도 12에 도시된 바와 같이, 상기 비디오 인코딩 기기(120)는 메모리(1201) 및 프로세서(1202)를 포함하며, 상기 메모리(1201)는 프로세서(1202) 상에서 작동 가능한 컴퓨터 프로그램을 저장하며, 상기 프로세서(1202)는 상기 프로그램을 실행할 경우 상기 실시예에서 제공한 인트라 프레임 예측 방법에서의 단계를 구현한다.
설명해야 할 것은, 메모리(1201)는 프로세서(1202)가 실행 가능한 명령어 및 응용을 저장하고, 프로세서(1202) 및 컴퓨터 기기(120)에서 각 모듈에 의해 이미 처리되었거나 처리될 데이터(예를 들어, 이미지 데이터, 오디오 데이터, 음성 통신 데이터 및 동영상 통신 데이터)를 캐싱하며, 플래시(FLASH) 또는 랜덤 액세스 메모리(Random Access Memory, RAM)를 통해 구현될 수 있도록 구성된다.
이에 대응되게, 본 출원의 실시예는 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능한 저장 매체를 제공하고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우 상기 실시예에서 제공한 인트라 프레임 예측 방법에서의 단계를 구현한다.
여기서 설명해야 할 것은, 이상의 저장 매체 및 기기 실시예의 설명은, 상기 방법 실시예의 설명과 유사하게, 방법 실시예와 유사한 유익한 효과를 구비한다. 본 출원의 저장 매체 및 기기 실시예에서 미개시한 기술적인 세부 사항은, 본 출원의 방법 실시예의 설명을 참조하여 이해할 수 있다.
이해해야 할 것은, 명세서에서 언급한 "하나의 실시예" 또는 "일 실시예"는 실시예와 관련된 특정한 특징, 구조 또는 특성은 본 발명의 적어도 하나의 실시예에 포함되는 것을 의미한다. 따라서, 명세서 각 곳에서 나타난 "하나의 실시예에서" 또는 "일 실시예에서"는 동일한 실시예를 무조건 가리키는 것은 아니다. 또한, 이러한 특정한 특징, 구조 또는 특성은 임의의 적합한 방식으로 하나 또는 복수 개의 실시예에 결합될 수 있다. 이해해야 할 것은, 본 출원의 각 종류의 실시예에서, 상기 각 과정의 번호의 크기는 수행 순서의 선후를 의미하지 않고, 본 출원의 실시예의 실시 과정은 어떠한 것도 한정하지 않으며, 각 과정의 수행 순서는 그 기능 및 내적 논리에 따라 확정된다. 상기 본 출원의 실시예의 번호는 다만 설명을 위한 것일 뿐, 실시예의 우열을 나타내는 것은 아니다.
설명해야 할 것은, 본 명세서에서, 용어 "포함" 또는 그의 변형은 비 배타적인 포함을 포함하는 것을 뜻함으로써, 한 시리즈 요소의 과정, 방법, 물품 또는 기기를 포함하게 하고, 또한 명확하게 명시적으로 나열되지 않은 다른 요소도 포함하고, 또는 이러한 과정, 방법, 물품 또는 기기의 고유 요소를 더 포함한다. 더 많은 제한이 없는 경우, 문구 "하나의 무엇을 포함"에 의해 제한된 요소는, 상기 요소가 포함된 과정, 방법, 물품 또는 장치에 다른 동일한 요소가 있다는 것을 배제하지 않는다.
본 출원에서 제공된 몇 개의 실시예에 있어서, 개시된 방법은 다른 방식으로 구현될 수 있음을 이해해야 한다. 전술한 기기 실시예는 다만 예시적일 뿐이고, 예컨대, 상기 유닛에 대한 분할은 다만 논리적 기능 분할이고, 실제로 구현될 경우 다른 분할 방식이 있을 수 있으며, 예를 들어, 복수 개의 유닛 또는 컴포넌트는 다른 시스템에 결합되거나 통합될 수 있거나, 또는 일부 특징을 무시하거나 실행하지 않을 수 있다. 또한, 나타내거나 논의된 각 구성 부분의 상호간의 결합 또는 직접 결합 또는 통신 연결은, 일부 인터페이스, 기기 또는 유닛을 통한 간접 결합 또는 통신 연결일 수 있고, 전기적, 기계적 또는 다른 형태일 수 있다.
상기 분리 부재로서 설명된 유닛은, 물리적으로 분리되거나, 분리되지 않을 수도 있고, 유닛으로서 나타낸 부재는 물리적 유닛일 수도, 아닐 수도 있으며, 즉 한 곳에 위치할 수 있거나, 복수 개의 네트워크 유닛에 분포될 수도 있으며; 실제 필요에 따라 유닛의 일부 또는 전부를 선택하여 본 실시예의 방안의 목적을 구현할 수 있다.
또한, 본 출원의 각 실시예에서의 각 기능 유닛은 하나의 처리 유닛에 전부 통합될 수 있으며, 각 유닛이 각각 독립적으로 하나의 유닛으로서 존재할 수도 있거나, 두 개 또는 두 개 이상의 유닛이 하나의 유닛에 통합될 수도 있으며; 상기 통합된 유닛은 하드웨어의 형태로 구현될 수 있을 뿐만 아니라, 하드웨어와 소프트웨어 기능 유닛의 형태로 구현될 수도 있다.
본 기술분야의 통상의 기술자는 상기 방법 실시예를 구현하기 위한 모든 또는 일부 동작은 프로그램 명령어와 관련되는 하드웨어를 통해 완성되며, 전술한 프로그램은 컴퓨터 판독 가능 저장 매체에 저장될 수 있으며, 상기 프로그램이 실행될 때, 상기 방법 실시예를 포함하는 단계를 실행하며; 전술한 저장 매체는 모바일 저장 기기, ROM, RAM, 자기 디스크 또는 광 디스크와 같은 프로그램 코드를 저장할 수 있는 다양한 매체를 포함한다.
또는, 본 출원의 상기 통합된 유닛이 소프트웨어 기능 유닛의 형태로 구현되고 독립적인 제품으로서 판매되거나 사용되는 경우, 컴퓨터 판독 가능 저장 매체에 저장될 수도 있다. 이러한 이해에 기반하여, 본 발명의 실시예의 기술 방안, 즉 관련 기술에 기여하는 부분은 소프트웨어 제품의 형태로 반영될 수 있고, 상기 컴퓨터 소프트웨어 제품은 저장 매체에 저장되며, 복수 개의 명령어를 포함하여 비디오 인코딩 기기가 본 출원의 각 실시예에 따른 방법의 전부 또는 일부를 실행하기 위한 것이다. 전술한 저장 매체는, 모바일 하드 디스크, ROM, 자기 디스크 또는 광 디스크 등과 같은 프로그램 코드를 저장할 수 있는 다양한 매체를 포함한다.
이상의 설명은 다만 본 출원의 실시 형태일 뿐이고, 본 출원의 보호 범위는 이에 한정되지 않으며, 본 출원이 속하는 기술 분야의 통상의 기술자라면, 본 출원에서 개시된 기술적 범위 내의 변화 또는 교체가 모두 본 출원의 보호 범위 내에 속해야 함을 쉽게 알 수 있을 것이다. 따라서, 본 출원의 보호 범위는 청구 범위의 보호 범위를 기준으로 해야 한다.
본 출원의 실시예에 있어서, 인트라 프레임 예측 방법을 제공하고, 상기 방법은, 현재 처리 블록에 대응되는 이전 재구축 블록 세트를 획득하는 단계; 상기 이전 재구축 블록 세트 중 각 이전 재구축 블록에 대응되는 코드 스트림에 기입된 제1 예측 방향(즉 상기 현재 처리 블록의 알고 있는 후보 예측 방향)을 결정하여, 제1 예측 모드 세트를 얻는 단계; 상기 제1 예측 모드 세트에 적어도 두 개의 방향 모드가 포함되면, 각 상기 방향 모드를 제1 예측 방향으로서 제1 예측 방향 세트에 추가하는 단계; 기설정된 벡터 연산 규칙에 따라, 상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는 단계(이해할 수 있는 것은, 상기 제2 예측 방향 세트에서의 제2 예측 방향은 상기 현재 처리 블록의 새로운 후보 예측 방향임); 및 상기 제2 예측 방향 세트와 제1 예측 모드 세트를 병합하여, 제2 예측 모드 세트를 얻고, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하는 단계를 포함한다.
이로써, 알고 있는 두 개 또는 복수 개의 후보 예측 방향에 대해 벡터 연산을 수행하는 것을 통해, 새로운 후보 예측 방향을 구축하고, 즉, 상기 제2 예측 방향 세트와 제1 예측 모드 세트를 병합하여, 제2 예측 모드 세트를 얻고, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하므로, 충분히 정확한 예측 효과를 획득하는 가능성을 추가할 수 있다.

Claims (11)

  1. 인트라 프레임 예측 방법으로서,
    현재 처리 블록에 대응되는 이전 재구축 블록 세트를 획득하는 단계;
    상기 이전 재구축 블록 세트에서 각 이전 재구축 블록에 대응되는 코드 스트림에 기입된 제1 예측 모드를 결정하여, 제1 예측 모드 세트를 얻는 단계;
    상기 제1 예측 모드 세트에 적어도 두 개의 방향 모드가 포함되면, 각 상기 방향 모드를 제1 예측 방향으로서 제1 예측 방향 세트에 추가하는 단계;
    기설정된 벡터 연산 규칙에 따라, 상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는 단계; 및
    상기 제2 예측 방향 세트와 제1 예측 모드 세트를 병합하여, 제2 예측 모드 세트를 얻고, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하는 단계를 포함하는 것을 특징으로 하는,
    인트라 프레임 예측 방법.
  2. 제1항에 있어서,
    상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하는 단계는,
    상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록에 대해 인트라 프레임 예측을 수행하여, 타깃 예측 방향 및 상기 타깃 예측 방향에 대응되는 현재 처리 블록 중 각 픽셀 유닛의 예측값과 원래값 사이의 차이값을 얻는 단계를 포함하는 것을 특징으로 하는,
    인트라 프레임 예측 방법.
  3. 제2항에 있어서,
    상기 타깃 예측 방향 및 각 상기 차이값을 얻은 후, 상기 인트라 프레임 예측 방법은,
    상기 타깃 예측 방향 및 각 상기 차이값을 상기 현재 처리 블록의 코드 스트림에 기입하는 단계를 더 포함하는 것을 특징으로 하는,
    인트라 프레임 예측 방법.
  4. 제1항에 있어서,
    상기 기설정된 벡터 연산 규칙에 따라, 상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는 단계는,
    상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 상이한 방향을 구비하는 제1 예측 방향을 한 그룹의 예측 그룹으로 결정하여, 예측 그룹 세트를 얻는 단계; 및
    기설정된 벡터 연산 규칙에 따라, 각 상기 예측 그룹에서의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는 단계를 포함하는 것을 특징으로 하는,
    인트라 프레임 예측 방법.
  5. 제4항에 있어서,
    상기 기설정된 벡터 연산 규칙에 따라, 각 상기 예측 그룹에서의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는 단계는,
    각 상기 예측 그룹에서의 각 제1 예측 방향의 가중치를 결정하는 단계 - 상기 가중치는 대응되는 이전 재구축 블록과 상기 현재 처리 블록 사이의 연관 정도를 나타내기 위한 것임 - ;
    사전 처리된 각 제1 예측 방향이 동일한 길이를 구비하도록, 각 상기 가중치에 대응되는 제1 예측 방향에 대해 사전 처리를 수행하는 단계;
    각 상기 가중치와 상기 가중치에 대응되는 사전 처리된 제1 예측 방향을 곱하여, 제3 예측 방향 세트를 얻는 단계; 및
    상기 제3 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제3 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는 단계를 포함하는 것을 특징으로 하는,
    인트라 프레임 예측 방법.
  6. 제5항에 있어서,
    각 상기 예측 그룹에서의 각 제1 예측 방향의 가중치를 결정하는 단계는,
    각 상기 예측 그룹에서의 각 제1 예측 방향에 대응되는 이전 재구축 블록과 상기 현재 처리 블록 사이의 거리를 결정하는 단계; 및
    각 상기 거리에 기반하여, 기설정된 가중치 분할 규칙에 따라, 대응되는 제1 예측 방향에 가중치를 분할하는 단계를 포함하는 것을 특징으로 하는,
    인트라 프레임 예측 방법.
  7. 제5항에 있어서,
    상기 제3 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제3 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻는 단계는,
    상기 제3 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제3 예측 방향에 대해 벡터를 가하거나 벡터를 감하는 것을 수행하여, 제2 예측 방향 세트를 얻는 단계를 포함하는 것을 특징으로 하는,
    인트라 프레임 예측 방법.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 제1 예측 방향은 휘도 인트라 프레임 예측 방향 및 색도 인트라 프레임 예측 방향 중 하나를 적어도 포함하는 것을 특징으로 하는,
    인트라 프레임 예측 방법.
  9. 인트라 프레임 예측 장치로서,
    현재 처리 블록에 대응되는 이전 재구축 블록 세트를 획득하도록 구성된 획득 모듈;
    상기 이전 재구축 블록 세트에서 각 이전 재구축 블록에 대응되는 코드 스트림에 기입된 제1 예측 모드를 결정하여, 제1 예측 모드 세트를 얻고; 상기 제1 예측 모드 세트에 적어도 두 개의 방향 모드가 포함되면, 각 상기 방향 모드를 제1 예측 방향으로서 제1 예측 방향 세트에 추가하도록 구성된 결정 모듈;
    기설정된 벡터 연산 규칙에 따라, 상기 제1 예측 방향 세트에서의 임의의 두 개 또는 복수 개의 제1 예측 방향에 대해 벡터 연산을 수행하여, 제2 예측 방향 세트를 얻도록 구성된 벡터 연산 모듈; 및
    상기 제2 예측 방향 세트와 제1 예측 모드 세트를 병합하여, 제2 예측 모드 세트를 얻고, 상기 제2 예측 모드 세트에 기반하여, 상기 현재 처리 블록의 예측 방향에 대해 인트라 프레임 예측을 수행하도록 구성된 인트라 프레임 예측 모듈을 포함하는 것을 특징으로 하는,
    인트라 프레임 예측 장치.
  10. 비디오 인코딩 기기로서,
    메모리 및 프로세서를 포함하고, 상기 메모리는 프로세서에서 작동 가능한 컴퓨터 프로그램을 저장하며, 상기 프로세서는 상기 프로그램을 실행할 경우 제1항 내지 제8항 중 어느 한 항에 따른 인트라 프레임 예측 방법에서의 단계를 구현하는 것을 특징으로 하는,
    비디오 인코딩 기기.
  11. 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능한 저장 매체로서,
    상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우 제1항 내지 제8항 중 어느 한 항에 따른 인트라 프레임 예측 방법에서의 단계를 구현하는 것을 특징으로 하는,
    컴퓨터 판독 가능한 저장 매체.
KR1020217024201A 2019-01-02 2019-01-02 인트라 프레임 예측 방법 및 장치, 비디오 인코딩 기기, 저장 매체 KR20210107848A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2019/070156 WO2020140220A1 (zh) 2019-01-02 2019-01-02 帧内预测方法及装置、视频编码设备、存储介质

Publications (1)

Publication Number Publication Date
KR20210107848A true KR20210107848A (ko) 2021-09-01

Family

ID=71406940

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217024201A KR20210107848A (ko) 2019-01-02 2019-01-02 인트라 프레임 예측 방법 및 장치, 비디오 인코딩 기기, 저장 매체

Country Status (6)

Country Link
US (5) US11457223B2 (ko)
EP (1) EP3896975B1 (ko)
JP (1) JP7460638B2 (ko)
KR (1) KR20210107848A (ko)
CN (3) CN113347438B (ko)
WO (1) WO2020140220A1 (ko)

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011048764A1 (ja) * 2009-10-19 2011-04-28 パナソニック株式会社 復号装置、復号方法、プログラム、及び集積回路
CN102714724B (zh) * 2010-01-06 2016-06-08 杜比实验室特许公司 视频信息编码方法和视频信息编码系统
CN102857750B (zh) * 2011-07-01 2015-05-06 华为技术有限公司 帧内预测编解码处理方法、装置和系统
GB2494468B (en) 2011-09-12 2014-01-15 Canon Kk Method and device for encoding or decoding information representing prediction modes
JPWO2013136678A1 (ja) * 2012-03-16 2015-08-03 パナソニックIpマネジメント株式会社 画像復号装置および画像復号方法
EP3032830A1 (en) * 2014-12-08 2016-06-15 Thomson Licensing Differential coding of intra modes
CN104853192B (zh) 2015-05-08 2018-02-13 腾讯科技(深圳)有限公司 预测模式选择方法及装置
EP3142365A1 (en) * 2015-09-14 2017-03-15 Thomson Licensing Method and apparatus for encoding and decoding a light field based image, and corresponding computer program product
EP3367688A4 (en) * 2015-10-21 2018-10-24 Sharp Kabushiki Kaisha Predictive image generation device, image decoding device, and image encoding device
WO2017142335A1 (ko) 2016-02-16 2017-08-24 삼성전자 주식회사 비디오 복호화 방법 및 그 장치 및 비디오 부호화 방법 및 그 장치
US10448011B2 (en) 2016-03-18 2019-10-15 Mediatek Inc. Method and apparatus of intra prediction in image and video processing
JP2019519972A (ja) 2016-05-05 2019-07-11 ヴィド スケール インコーポレイテッド イントラコーディングのための制御点ベースのイントラ方向表現
CN109792515B (zh) * 2016-08-01 2023-10-24 韩国电子通信研究院 图像编码/解码方法和装置以及存储比特流的记录介质
CN111213377A (zh) 2017-10-18 2020-05-29 三星电子株式会社 用于视频解码的方法和设备以及用于视频编码的方法和设备
EP3562158A1 (en) 2018-04-27 2019-10-30 InterDigital VC Holdings, Inc. Method and apparatus for combined intra prediction modes
EP3567860A1 (en) 2018-05-09 2019-11-13 InterDigital VC Holdings, Inc. Method and apparatus for blended intra prediction

Also Published As

Publication number Publication date
US20220248032A1 (en) 2022-08-04
US11882293B2 (en) 2024-01-23
US11831817B2 (en) 2023-11-28
US20220239928A1 (en) 2022-07-28
US20240121405A1 (en) 2024-04-11
EP3896975A4 (en) 2021-12-29
EP3896975A1 (en) 2021-10-20
US11831882B2 (en) 2023-11-28
CN112840661A (zh) 2021-05-25
CN113347438B (zh) 2023-09-29
WO2020140220A1 (zh) 2020-07-09
JP7460638B2 (ja) 2024-04-02
CN117221533A (zh) 2023-12-12
US11457223B2 (en) 2022-09-27
JP2022521037A (ja) 2022-04-05
EP3896975B1 (en) 2024-02-28
US20220239929A1 (en) 2022-07-28
CN113347438A (zh) 2021-09-03
US20210337210A1 (en) 2021-10-28

Similar Documents

Publication Publication Date Title
US10659803B2 (en) Picture prediction method and related apparatus
US10771809B2 (en) Picture prediction method and picture prediction apparatus
US20220141462A1 (en) Apparatus and method for applying artificial neural network to image encoding or decoding
US11595659B2 (en) Method and apparatus for encoding or decoding video data in FRUC mode with reduced memory accesses
KR102059066B1 (ko) 모션 벡터 필드 코딩 방법 및 디코딩 방법, 및 코딩 및 디코딩 장치들
JP2017526315A (ja) 高効率映像符号化においてデプスベースのブロック分割を提供するための方法および装置
JP7024098B2 (ja) ビデオ符号化方法、コンピュータ機器、及び記憶媒体
JP2015195575A (ja) 動画像符号化装置および動画像符号化方法
WO2023131137A1 (en) Decoder-side chroma intra prediction mode gradient-based derivation
US20230388491A1 (en) Colour component prediction method, encoder, decoder and storage medium
JP2024054290A (ja) イントラ予測方法及び装置、コンピュータ可読記憶媒体
KR20210107848A (ko) 인트라 프레임 예측 방법 및 장치, 비디오 인코딩 기기, 저장 매체
JP2024059916A (ja) 画像成分の予測方法、装置およびコンピュータ記憶媒体
KR20240066274A (ko) 블록 기반 비디오 코딩을 위한 부호 예측

Legal Events

Date Code Title Description
A201 Request for examination