KR20210141683A - 이미지 요소의 예측 방법, 인코더, 디코더 및 컴퓨터 저장 매체 - Google Patents

이미지 요소의 예측 방법, 인코더, 디코더 및 컴퓨터 저장 매체 Download PDF

Info

Publication number
KR20210141683A
KR20210141683A KR1020217034441A KR20217034441A KR20210141683A KR 20210141683 A KR20210141683 A KR 20210141683A KR 1020217034441 A KR1020217034441 A KR 1020217034441A KR 20217034441 A KR20217034441 A KR 20217034441A KR 20210141683 A KR20210141683 A KR 20210141683A
Authority
KR
South Korea
Prior art keywords
value
luminance
predicted value
chromaticity
chroma
Prior art date
Application number
KR1020217034441A
Other languages
English (en)
Inventor
준옌 훠
슈아이 완
옌주오 마
웨이 장
Original Assignee
광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 filed Critical 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드
Publication of KR20210141683A publication Critical patent/KR20210141683A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

본 출원의 실시예는 이미지 요소의 예측 방법, 인코더 및 컴퓨터 저장 매체를 개시하고, 상기 방법은, 이미지 요소의 코딩에 있어서, 색도 요소에 대해 코딩을 수행하고, 코딩된 색도 요소에 따라, 휘도 요소의 예측값을 획득하는 단계를 포함한다.

Description

이미지 요소의 예측 방법, 인코더, 디코더 및 컴퓨터 저장 매체
본 출원의 실시예는 비디오 코딩 분야의 인트라 프레임 예측 기술에 관한 것으로서, 특히 이미지 요소의 예측 방법, 인코더, 디코더 및 컴퓨터 저장 매체(IMAGE COMPONENT PREDICTION METHOD, ENCODER, DECODER, AND COMPUTER STORAGE MEDIUM)에 관한 것이다.
다음 세대 비디오 코딩 기준 H.266 또는 다용도 비디오 코딩 (Versatile Video Coding, VVC)에 있어서, 색상 요소 간 선형 모델 예측 방법(Cross-component Linear Model Prediction, CCLM)을 통해 교차 성분 예측을 구현할 수 있고, 교차 성분 예측을 통해, 요소 사이의 의존성에 기반하여, 휘도 요소를 통해 색도 요소를 예측할 수 있다.
현재, 예측을 위한 휘도 요소는 예측이 필요한 색도 요소와 동일한 해상도에 이르도록 다운 샘플링을 수행해야 하고, 다음 휘도 및 색도 사이에서 동일한 해상도로 예측을 실행함으로써, 휘도 요소에서 복수 개의 색도 요소에서의 하나의 색도 요소까지의 예측을 구현한다.
그러나, 휘도 요소가 풍부한 무늬를 구비하고, 색도 요소가 비교적 평탄하므로, 휘도 요소를 사용하여 색도 요소를 예측하여, 예측된 색도 요소와 실제 색도 값 사이에 비교적 큰 편차가 존재하도록 하여, 예측값의 정확성이 비교적 낮도록 하므로, 코딩 및 디코딩의 효율에 영향을 준다.
본 출원의 실시예는 이미지 요소의 예측 방법, 인코더, 디코더 및 컴퓨터 저장 매체를 제공하여, 색도 요소에서 휘도 요소까지의 예측 코딩을 구현할 수 있으며, 휘도 요소 예측의 정확성을 향상시켜, 휘도 요소의 예측값이 실제 휘도 요소의 픽셀값에 더욱 접근하도록 한다.
본 출원의 실시예의 기술방안은 아래와 같이 구현된다.
제1 측면에 있어서, 본 출원의 실시예는 이미지 요소의 예측 방법을 제공하고, 상기 이미지 요소의 예측 방법은,
이미지 요소의 코딩에 있어서, 색도 요소에 대해 코딩을 수행하는 단계; 및
코딩된 색도 요소에 따라, 휘도 요소의 예측값을 획득하는 단계를 포함한다.
제2 측면에 있어서, 본 출원의 실시예는 이미지 요소의 예측 방법을 제공하고, 상기 이미지 요소의 예측 방법은,
이미지 요소의 디코딩에 있어서, 색도 요소에 대해 디코딩을 수행하는 단계; 및
디코딩된 색도 요소에 따라, 휘도 요소의 예측값을 획득하는 단계를 포함한다.
제3 측면에 있어서, 본 출원의 실시예는 인코더를 제공하고, 상기 인코더는,
이미지 요소의 코딩에 있어서, 색도 요소에 대해 코딩을 수행하도록 구성된 코딩 모듈; 및
코딩된 색도 요소에 따라, 휘도 요소의 예측값을 획득하도록 구성된 제1 획득 모듈을 포함한다.
제4 측면에 있어서, 본 출원의 실시예는 디코더를 제공하고, 상기 디코더는,
이미지 요소의 디코딩에 있어서, 색도 요소에 대해 디코딩을 수행하도록 구성된 디코딩 모듈; 및
디코딩된 색도 요소에 따라, 휘도 요소의 예측값을 획득하도록 구성된 제2 획득 모듈을 포함한다.
제5 측면에 있어서, 본 출원의 실시예는 인코더를 제공하고, 상기 인코더는,
프로세서 및 상기 프로세서가 실행 가능한 명령어를 저장하는 저장 매체를 포함하고, 상기 저장 매체는 통신 버스를 통해 상기 프로세서에 의존하여 작업을 실행하고, 상기 명령어가 상기 프로세서에 의해 실행될 경우, 상기 하나 또는 복수 개의 실시예에 따른 이미지 요소의 예측 방법을 수행한다.
제6 측면에 있어서, 본 출원의 실시예는 디코더를 제공하고, 상기 디코더는,
프로세서 및 상기 프로세서가 실행 가능한 명령어를 저장하는 저장 매체를 포함하고, 상기 저장 매체는 통신 버스를 통해 상기 프로세서에 의존하여 작업을 실행하고, 상기 명령어가 상기 프로세서에 의해 실행될 경우, 상기 하나 또는 복수 개의 실시예에 따른 이미지 요소의 예측 방법을 수행한다.
제7 측면에 있어서, 본 출원의 실시예는 컴퓨터 판독 가능한 저장 매체를 제공하고, 여기서, 실행 가능한 명령어가 저장되며, 상기 실행 가능한 명령어가 하나 또는 복수 개의 프로세서에 의해 실행될 경우, 상기 프로세서는 상기 하나 또는 복수 개의 실시예에 따른 이미지 요소의 예측 방법을 실행한다.
본 출원의 실시예는 이미지 요소의 예측 방법, 인코더, 디코더 및 컴퓨터 저장 매체를 제공하고, 상기 방법은, 이미지 요소의 코딩에 있어서, 색도 요소에 대해 코딩을 수행하고, 코딩된 색도 요소에 따라, 휘도 요소의 예측값을 획득하는 단계를 포함하며; 다시 말해, 본 출원의 실시예에서, 먼저 색도 요소에 대해 코딩 및 디코딩을 수행한 다음, 코딩 및 디코딩된 색도 요소를 통해 휘도 요소를 예측하며, 이와 같이, 코딩 및 디코딩하여 얻은 색도 요소를 통해 휘도 요소를 예측하고, 즉 먼저 비교적 평탄한 색도 요소에 대해 코딩 및 디코딩을 수행한 다음, 코딩 및 디코딩하여 얻은 색도 요소에 기반하여 풍부한 무늬를 구비한 휘도 요소를 예측하여, 휘도 요소 예측의 정확성을 향상할 수 있으므로, 휘도 요소의 예측값이 실제 휘도 요소의 픽셀값에 더욱 접근하도록 한다.
도 1은 본 출원의 실시예에서 제공한 선택 가능한 이미지 요소의 예측 방법의 흐름 예시도이다.
도 2는 비디오 코딩 시스템의 구조 예시도이다.
도 3은 비디오 디코딩 시스템의 구조 예시도이다.
도 4는 본 출원의 실시예에서 제공한 다른 선택 가능한 이미지 요소의 예측 방법의 흐름 예시도이다.
도 5는 본 출원의 실시예에서 제공한 선택 가능한 인코더의 구조 예시도이다.
도 6은 본 출원의 실시예에서 제공한 선택 가능한 디코더의 구조 예시도이다.
도 7은 본 출원의 실시예에서 제공한 다른 선택 가능한 인코더의 구조 예시도이다.
도 8은 본 출원의 실시예에서 제공한 다른 선택 가능한 디코더의 구조 예시도이다.
아래에, 본 출원의 실시예의 도면을 결합하여 본 출원의 실시예의 기술방안에 대해 명확하고 완전하게 설명할 것이다. 이해할 수 있는 것은, 여기서 설명된 구체적인 실시예는 다만 연관 출원을 해석하기 위한 것이고, 상기 출원에 대한 한정이 아니다. 또한 설명해야 할 것은, 설명의 편의를 위해, 도면에서 다만 연관 출원에 연관된 부분만 도시한다.
실시예 1에 있어서,
비디오 이미지에서, 통상적으로 제1 이미지 요소, 제2 이미지 요소 및 제3 이미지 요소를 사용하여 이미지 블록을 나타내고; 여기서, 제1 이미지 요소, 제2 이미지 요소 및 제3 이미지 요소는 하나의 휘도 요소와 두 개의 색도 요소를 포함할 수 있다. 구체적으로, 휘도 요소는 통상적으로 심볼 Y를 사용하여 나타내고, 색도 요소는 통상적으로 심볼 Cb, Cr을 사용하여 나타내며, 여기서, Cb는 블루 색도 요소로 나타내며, Cr은 레드 색도 요소로 나타낸다.
설명해야 할 것은, 본 출원의 실시예에 있어서, 제1 이미지 요소, 제2 이미지 요소 및 제3 이미지 요소는 각각 휘도 요소(Y), 블루 색도 요소(Cb) 및 레드 색도 요소(Cr)일 수 있고, 예를 들어, 제1 이미지 요소는 휘도 요소(Y)일 수 있으며, 제2 이미지 요소는 레드 색도 요소(Cr)일 수 있고, 제3 이미지 요소는 블루 색도 요소(Cb)일 수 있으며, 본 출원의 실시예는 이에 대해 구체적으로 한정하지 않는다.
더 나아가, 본 출원의 실시예에 있어서, 통상적인 휘도 요소 및 색도 요소에 의해 각각 나타낸 샘플링 포맷은 YCbCr 포맷으로도 지칭되고, 여기서, YCbCr 포맷은 4:4:4 포맷; 4:2:2 포맷 및 4:2:0 포맷을 포함할 수 있다.
비디오 이미지가 YCbCr가 4:2:0인 포맷을 사용할 경우, 비디오 이미지의 휘도 요소가 2N×2N 크기의 현재 이미지 블록이면, 대응되는 색도 요소는 N×N 크기의 현재 이미지 블록이고, 여기서 N은 현재 이미지 블록의 변의 길이다. 본 출원의 실시예에 있어서, 4:2:0 포맷을 예로 들어 설명하지만, 본 출원의 실시예의 기술방안은 다른 샘플링 포맷에도 마찬가지로 적용된다.
H.266에서, 코딩 성능 및 코딩 효율을 추가로 향상시키기 위해, 교차-컴포넌트 예측(Cross-component Prediction, CCP)을 확장 개선하였으며, 교차-컴포넌트 선형 모델 예측(Cross-component Linear Model Prediction, CCLM) 방법을 제안한다. H.266에서, CCLM은 제1 이미지 요소로부터 제2 이미지 요소까지, 제1 이미지 요소로부터 제3 이미지 요소까지 및 제2 이미지 요소와 제3 이미지 요소 사이의 예측을 구현한다.
그러나, CCLM에 있어서, 모두 먼저 현재 이미지 블록의 휘도 요소를 예측한 다음, 휘도 요소를 통해 색도 요소를 예측하지만, 휘도 요소가 풍부한 무늬를 구비하고, 색도 요소가 비교적 평탄하므로, 휘도 요소를 사용하여 색도 요소를 예측하여, 예측된 색도 요소와 실제 색도값 사이에 비교적 큰 편차가 존재하도록 하여, 예측값의 정확성이 비교적 낮으므로, 코딩 및 디코딩의 효율에 영향을 준다.
본 출원의 실시예는 이미지 요소의 예측 방법을 제공하고, 도 1은 본 출원의 실시예에서 제공한 선택 가능한 이미지 요소의 예측 방법의 흐름 예시도이며, 도 1에 도시된 바와 같이, 상기 방법은 단계 S101 및 단계 S102을 포함할 수 있다.
단계 S101에 있어서, 이미지 요소의 코딩에 있어서, 색도 요소에 대해 코딩을 수행한다.
단계 S102에 있어서, 코딩된 색도 요소에 따라, 휘도 요소의 예측값을 획득한다.
여기서, 본 출원의 실시예에서 제공한 이미지 요소의 예측 방법은 인코더 또는 디코더에 적용될 수 있고, 도 2는 비디오 코딩 시스템의 구조 예시도이고, 도 2에 도시된 바와 같이, 상기 비디오 코딩 시스템(200)은 변환 및 양자화 유닛(201), 인트라 추정 유닛(202), 인트라 예측 유닛(203), 모션 보상 유닛(204), 모션 추정 유닛(205), 역변환 및 역양자화 유닛(206), 필터 제어 분석 유닛(207), 필터링 유닛(208), 코딩 유닛(209) 및 디코딩 이미지 캐싱 유닛(210) 등을 포함하며, 여기서, 필터링 유닛(208)은 디블로킹 필터링 및 샘플 적응성 오프셋(Sample Adaptive Offset, SAO) 필터링을 구현할 수 있고, 코딩 유닛(219)은 헤더 정보 코딩 및 콘텍스트 기반의 적응성 이진 산술 코딩(Context-based Adaptive Binary Arithmatic Coding, CABAC)을 구현할 수 있다. 입력된 원본 비디오 신호의 경우, 코딩 트리 유닛(Coding Tree Unit, CTU)의 분할을 통해 하나의 비디오 코딩 블록을 얻을 수 있고, 다음 인트라 프레임 또는 인터 프레임 예측을 통해 얻은 잔차 픽셀 정보에 대해 변환 및 양자화 유닛(201)을 통해 상기 비디오 코딩 블록에 대해 변환을 수행하며, 상기 변환은 잔차 정보를 픽셀 도메인으로부터 변환 도메인으로 변환하는 것을 포함하며, 또한 획득된 변환 계수를 양자화함으로써, 비트 레이트를 추가로 감소시키는데 사용되고; 인트라 프레임 추정 유닛(202) 및 인트라 프레임 예측 유닛(203)은 상기 비디오 코딩 블록에 대해 인트라 프레임 예측을 수행하기 위한 것이며; 명확하게, 인트라 프레임 추정 유닛(202) 및 인트라 프레임 예측 유닛(203)은 상기 비디오 코딩 블록의 코딩에 사용될 인트라 프레임 예측 모드를 결정하기 위한 것이고; 모션 보상 유닛(204) 및 모션 추정 유닛(205)은 시간 예측 정보를 제공하기 위해, 하나 또는 복수 개의 기준 프레임에서의 하나 또는 복수 개의 블록에 대해 수신된 비디오 코딩 블록의 인터 프레임 예측 코딩을 수행하기 위한 것이며; 모션 추정 유닛(205)에 의해 실행된 모션 추정은 모션 벡터를 생성하는 과정이고, 상기 모션 벡터는 상기 비디오 코딩 블록의 모션을 추정할 수 있으며, 다음 모션 보상 유닛(204)이 모션 추정 유닛(205)에 기반하여 결정한 모션 벡터에 의해 모션 보상이 실행되고; 인트라 프레임 예측 모드를 결정한 후, 인트라 프레임 예측 유닛(203)은 또한 선택된 인트라 프레임 예측 데이터를 코딩 유닛(209)에 제공하기 위한 것이며, 모션 추정 유닛(205)은 계산하여 결정된 모션 벡터 데이터도 코딩 유닛(209)으로 송신하고; 또한, 역변환과 역양자화 유닛(206)은 상기 비디오 코딩 블록의 재구축에 사용되어, 픽셀 도메인에서 잔차 블록을 재구축하고, 상기 재구축 잔차 블록은 필터 제어 분석 유닛(207) 및 필터링 유닛(208)을 통해 블로킹 아티팩트를 제거한 다음, 상기 재구축 잔차 블록을 디코딩 이미지 캐싱 유닛(210)의 프레임에서의 하나의 예측성 블록에 추가하여, 재구축된 비디오 코딩 블록의 생성에 사용되며; 코딩 유닛(209)은 다양한 코딩 파라미터 및 양자화된 변환 계수를 코딩하는데 사용되고, CABAC에 기반한 코딩 알고리즘에 있어서, 컨텍스트 콘텐츠는 인접 코딩 블록에 기반하여, 결정된 인트라 프레임 예측 모드를 지시하는 정보를 코딩하여, 상기 비디오 신호의 코드 스트림을 출력하기 위한 것일 수 있으며; 디코딩 이미지 캐싱 유닛(210)은 재구축된 비디오 코딩 블록을 저장하여, 예측 참조에 사용된다. 비디오 이미지 코딩이 수행됨에 따라, 새로운 재구축된 비디오 코딩 블록이 계속 생성되고, 이러한 재구축된 비디오 코딩 블록은 모두 디코딩 이미지 캐싱 유닛(210)에 저장된다.
도 3은 비디오 디코딩 시스템의 구조 예시도이고, 도 3에 도시된 바와 같이, 상기 비디오 디코딩 시스템(300)은 디코딩 유닛(301), 역변환 및 역양자화 유닛(302), 인트라 프레임 예측 유닛(303), 모션 보상 유닛(304), 필터링 유닛(305) 및 디코딩 이미지 캐싱 유닛(306) 등을 포함하고, 여기서, 디코딩 유닛(221)은 헤더 정보 디코딩 및 CABAC 디코딩을 구현할 수 있고, 필터링 유닛(225)은 디블록킹 필터링 및 SAO 필터링을 구현할 수 있다. 입력된 비디오 신호가 도 2의 코딩 과정을 거친 후, 상기 비디오 신호의 코드 스트림을 출력하고; 상기 코드 스트림은 비디오 디코딩 시스템(300)에 입력되며, 먼저 디코딩 유닛(301)을 통해, 디코딩된 변환 계수를 획득하고; 상기 변환 계수는 역변환 및 역양자화 유닛(302)에 의해 처리되므로, 픽셀 도메인에서 잔차 블록을 생성하도록 하며; 인트라 예측 유닛(303)은 결정된 인트라 예측 모드 및 현재 프레임 또는 이미지로부터의 이전 디코딩 블록을 거친 데이터에 기반하여 현재 비디오 디코딩 블록의 예측 데이터를 생성하는데 사용될 수 있으며; 모션 보상 유닛(304)은 모션 벡터 및 다른 관련 문법 요소를 파싱함으로써 비디오 디코딩 블록에 사용되는 예측 정보를 결정하고, 상기 예측 정보를 사용하여 현재 디코딩되고 있는 비디오 디코딩 블록의 예측성 블록을 생성하고; 역변환 및 역 양자화 유닛(302)으로부터의 잔차 블록 및 인트라 예측 유닛(303) 또는 모션 보상 유닛(304)에 의해 생성된 대응되는 예측성 블록을 합산하는 것을 통해 디코딩된 비디오 블록을 형성하고; 상기 디코딩된 비디오 신호는 필터링 유닛(305)을 통해 블록 아티팩트를 제거하여, 비디오 품질을 변경시킬 수 있으며; 디코딩된 비디오 블록은 디코딩 이미지 캐싱 유닛(306)에 저장되고, 디코딩 이미지 캐싱 유닛(306)은 후속 인트라 프레임 예측 또는 모션 보상을 위한 기준 이미지를 저장하고, 동시에 비디오 신호의 출력에도 사용되며, 즉 복원된 원본 비디오 신호를 얻는다.
설명해야 할 것은, 본 출원의 실시예에서의 단계 S101 및 단계 S102는 도 2에 도시된 인트라 프레임 예측 유닛(203) 부분 및 도 3에 도시된 인트라 프레임 예측 유닛(303) 부분에 주로 적용되고; 다시 말해, 본 출원의 실시예는 인코더 및 디코더에 대해 동시에 작용될 수 있으며, 본 출원의 실시예는 이에 대해 구체적으로 한정하지 않는다.
또한, 단계 S101 및 단계S102에 있어서, 이미지 요소의 코딩에 있어서, 하나의 색도 요소에 대해 코딩을 수행한 다음, 상기 색도 요소를 사용하여 휘도 요소를 예측하는 것일 수 있으며, 하나의 색도 요소에 대해 코딩을 수행한 다음, 상기 색도 요소를 사용하여 다른 하나의 색도 요소를 예측하는 것일 수도 있으며, 또한 먼저 두 개의 색도 요소에 대해 코딩을 수행한 다음, 하나의 색도 요소를 사용하여 휘도 요소를 예측하거나, 두 개의 색도 요소를 사용하여 휘도 요소를 예측하는 것일 수도 있으며, 여기서, 본 출원의 실시예는 이에 대해 구체적으로 한정하지 않는다.
휘도 요소의 예측값을 얻기 위해, 한 가지의 선택 가능한 실시예에서, 단계 S102는,
코딩된 색도 요소에서의 제1 색도 요소 및 코딩된 색도 요소에서의 제2 색도 요소에 따라 예측하여, 휘도 요소의 예측값을 얻는 단계를 포함할 수 있고,
여기서, 제1 색도 요소가 블루 색도 요소일 경우, 제2 색도 요소는 레드 색도 요소이고; 제1 색도 요소가 레드 색도 요소일 경우, 제2 색도 요소는 블루 색도 요소이다.
여기서, 코딩된 색도 요소에서의 제1 색도 요소 및 코딩된 제2 색도 요소를 사용하여 휘도 요소의 예측값을 예측하고, 예를 들어, 제1 색도 요소가 Cb이고, 제2 색도 요소가 Cr이며, 휘도 요소가 Y이면, Cb 및 Cr를 통해 Y를 예측할 수 있고, 또는, 제1 색도 요소가 Cr이고, 제2 색도 요소가 Cb이며, 휘도 요소가 Y이면, Cb 및 Cr를 통해 Y를 예측할 수 있다.
더 나아가, 휘도 요소의 예측값을 예측하기 위해, 한 가지의 선택 가능한 실시예에서, 코딩된 색도 요소에서의 제1 색도 요소 및 코딩된 색도 요소에서의 제2 색도 요소에 따라 예측하여, 휘도 요소의 예측값을 얻는 단계는,
현재 이미지 블록에 대해, 제1 색도 요소의 재구축값, 제2 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값, 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값을 획득하는 단계;
제1 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제1 예측값을 얻는 단계;
제2 색도 요소의 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제2 예측값을 얻는 단계; 및
제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정하는 단계를 포함한다.
여기서, 현재 이미지 블록은 현재 코딩될 이미지 블록이고, 여기서, 현재 이미지 블록에 대해, 현재 이미지 블록의 제1 색도 요소의 재구축값, 현재 이미지 블록의 제2 색도 요소의 재구축값을 획득해야 하며, 현재 이미지 블록의 인접 이미지 블록의 제1 색도 요소는 상기 제1 색도 요소의 인접 기준값이고, 현재 이미지 블록의 인접 이미지 블록의 제2 색도 요소는 상기 제2 색도 요소의 인접 기준값이며, 현재 이미지 블록의 인접 이미지 블록의 휘도 요소는 휘도 요소의 인접 기준값이고; 설명해야 할 것은, 상기 현재 이미지 블록의 인접 이미지 블록은 현재 이미지 블록의 이전 행의 이미지 블록 및 왼쪽 열의 이미지 블록이다.
따라서, 상기 값을 획득한 후, 제1 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 제1 예측값을 예측할 수 있고, 제2 색도 요소의 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 제2 예측값을 예측할 수 있으며, 다음, 제1 예측값 및 제2 예측값에 따라 현재 이미지 블록의 휘도 요소의 예측값을 얻을 수 있고; 이로써, 각각 색도 요소를 통해 예측값을 예측하고, 마지막으로 예측된 두 개의 예측값을 융합하여 현재 이미지 블록의 휘도 요소의 예측값을 얻는다.
제1 예측값을 얻기 위해, 한 가지의 선택 가능한 실시예에서, 제1 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제1 예측값을 얻는 단계는,
제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라, 예측 모델의 파라미터를 결정하는 단계; 및
제1 색도 요소의 재구축값에 따라, 예측 모델을 호출하여, 제1 예측값을 얻는 단계를 포함한다.
제1 색도 요소의 재구축값 및 제1 색도 요소의 인접 기준값을 얻은 후, 상기 사용된 이미지 요소의 예측 모델은 선형 모델일 수 있고, 비선형 모델일 수도 있어, 휘도 요소를 예측하여, 제1 예측값을 얻고, 여기서, 본 출원의 실시예는 이에 대해 구체적으로 한정하지 않는다.
구체적으로, 선형 모델에 있어서, H.266/VVC 초기 테스트 모델(Joint Exploration Model, JEM) 또는 VVC 테스트 모델(VVC Test model, VTM)과 같은 다음 세대 비디오 코딩 기준의 인코더에서, 교차-컴포넌트 선형 모델 예측 모드를 사용한다. 예를 들어 공식 (1)에 따라, 동일한 코딩 블록의 재구축 색도 값을 이용하여 휘도 요소의 예측값을 형성한다.
Figure pct00001
(1)
여기서, i, j는 현재 이미지 블록에서 샘플링 포인트의 위치 좌표를 나타내고, i는 수평 방향을 나타내며, j는 수직 방향을 나타내고,
Figure pct00002
는 코딩 블록에서 위치 좌표가 i, j인 샘플링 포인트의 휘도 요소 예측값을 나타내며,
Figure pct00003
는 현재 이미지 블록에서 위치 좌표가 i, j인 샘플링 포인트의 색도 요소 재구축값을 나타내고, α 및 β는 선형 모델의 비례 인자이며, 색도 요소 인접 기준값 및 휘도 요소 인접 기준값의 회귀 오차를 최소화하는 것을 통해 도출할 수 있고, 아래의 공식 (2)와 같다.
Figure pct00004
(2)
여기서,
Figure pct00005
은 휘도 요소 인접 기준값(예를 들어 왼쪽 및 윗쪽)을 나타내고,
Figure pct00006
는 색도 요소 인접 기준값(예를 들어 왼쪽 및 윗쪽)을 나타내며, N은 휘도 요소 인접 기준값의 개수이고 디코더에서도 공식 (2)를 통해 계산하여 α 및 β를 얻는다.
여기서, 현재 이미지 블록 휘도 요소 인접 기준값(
Figure pct00007
) 및 색도 요소 인접 기준값(
Figure pct00008
)을 이용하여, 공식 (2)에 따라 α 및 β를 계산하여 얻을 수 있고; 다음 현재 이미지 블록의 색도 요소 재구축값을 공식 (2)의 선형 모델로 대입하여, 현재 이미지 블록의 휘도 요소 예측값을 계산하여 얻을 수 있다.
실제 응용에 있어서, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값을 공식 (2)에 대입하여 α 및 β를 얻고, 다음, 제1 색도 요소의 재구축값을 공식 (1)에 대입하여 제1 예측값을 얻으며; 이로써, 선형 모델을 이용하여 제1 예측값을 얻을 수 있다.
예측 모델은 상기 선형 모델 외에, 또한 비선형 모델을 사용할 수 있고, 상기 선형 모델의 기초 위에, 이미지 요소의 예측 모델은 또한 비선형 모델 계산 방법을 제안하였다.
구체적으로, 선형 모델의 파라미터를 계산할 경우, 색도 요소 인접 기준값, 휘도 요소 인접 기준값을 고려할 뿐만 아니라, 또한 현재 이미지 블록의 색도 요소 재구축값 및 색도 요소 인접 기준값 사이의 연관성 및 유사 정도도 고려하여, 기존의 선형 모델에서의 α 및 β를 얻음으로써, 얻은 선형 모델이 현재 색도 요소 재구축값에 더욱 접근하도록 함으로써, 현재 이미지 블록의 휘도 요소 예측값을 얻는다.
예를 들어, 비선형 모델에 있어서, 현재 이미지 블록의 색도 요소 인접 기준값 및 휘도 요소 인접 기준값을 두 그룹으로 나누고, 각 그룹은 모두 선형 모델 파라미터를 추론하는 훈련 세트로 독립적으로 사용될 수 있으며, 즉 각 다이버시티는 모두 한 그룹의 파라미터를 추론할 수 있다. 따라서, 마찬가지로 색도 요소 인접 기준값과 현재 이미지 블록에 대응되는 파라미터에 비교적 큰 편차가 존재할 경우, 또는, 다른 하나의 색도 요소 인접 기준값과 현재 이미지 블록에 대응되는 파라미터에 비교적 큰 편차가 존재할 경우, 선형 모델과 소망 모델의 편차의 결함을 극복할 수 있음으로써, 상기 선형 모델에 따라 현재 이미지 블록의 휘도 요소를 예측할 경우, 휘도 요소 예측값의 예측 정밀도를 대폭으로 향상시킬 수 있다.
비선형 모델에 있어서, 임계값을 설정하는 것을 통해 인접 기준값 및 중간값을 두 그룹으로 나눌 수 있고, 두 그룹의 인접 기준값 및 재구축값에 따라 비선형 모델을 구축할 수 있다.
여기서, 임계값은 현재 이미지 블록의 색도 요소 인접 기준값 및 휘도 요소 인접 기준값의 분류 근거인 동시에, 현재 이미지 블록의 색도 요소 재구축값의 분류 근거이다. 여기서, 임계값은 복수 개의 계산 모델이 근거로 하는 설정값을 구축하도록 지시하기 위한 것이고, 임계값의 크기는 현재 이미지 블록의 모든 샘플링 포인트의 색도 요소 재구축값과 연관된다. 구체적으로, 현재 이미지 블록의 모든 샘플링 포인트의 색도 요소 재구축값의 평균값을 계산하여 얻을 수 있고, 현재 이미지 블록의 모든 샘플링 포인트의 색도 요소 재구축값의 중간값을 계산하여 얻을 수도 있으며, 본 출원의 실시예는 이에 대해 구체적으로 한정하지 않는다.
본 출원의 실시예에 있어서, 먼저, 현재 이미지 블록의 모든 샘플링 포인트의 색도 요소의 재구축값 및 공식 (3)에 따라, 평균값(
Figure pct00009
)을 계산하여 얻을 수 있다.
Figure pct00010
(3)
여기서,
Figure pct00011
은 현재 이미지 블록의 모든 샘플링 포인트의 색도 요소의 재구축값의 평균값을 나타내고,
Figure pct00012
는 현재 이미지 블록의 모든 샘플링 포인트의 색도 요소의 재구축값의 합을 나타내며, M은 현재 이미지 블록의 모든 샘플링 포인트의 색도 요소의 재구축값의 샘플링 개수를 나타낸다.
다음, 계산하여 얻은 평균값(
Figure pct00013
)을 임계값으로 직접 사용하고, 상기 임계값을 이용하여 두 개의 계산 모델을 구축할 수 있으며; 그러나 본 출원의 실시예는 두 개의 계산 모델을 구축하는 것에만 한정되지 않는다. 예를 들어, 현재 이미지 블록의 모든 샘플링 포인트의 색도 요소의 재구축값의 합(
Figure pct00014
)에 따라 평균값을 구하여, 평균값(
Figure pct00015
)을 얻는다. 두 개의 계산 모델을 구축하면,
Figure pct00016
을 임계값으로 직접 사용할 수 있고, 상기 임계값에 따라 현재 이미지 블록의 색도 요소의 인접 기준값을 두 부분으로 나눌 수 있으며, 이는 향후 두 개의 계산 모델을 구축할 수 있는 것을 암시하고; 세 개의 계산 모델을 구축하면, (색도 요소 최소 재구축값 +
Figure pct00017
+1)>>1을 첫번째 임계값으로 사용하고, (색도 요소 최대 재구축값 +
Figure pct00018
+1)>>1을 두번째 임계값으로 사용하며, 이 두 개의 임계값에 따라 현재 이미지 블록의 색도 요소의 인접 기준값을 세 부분으로 나눌 수 있고, 이는 향후 세 개의 계산 모델을 구축할 수 있는 것을 암시하며; 아래는 계산하여 얻은 평균값(
Figure pct00019
)을 임계값으로 사용하여 두 개의 계산 모델을 구축하는 것을 예로 들어 설명할 것이다.
일부 실시예에 있어서, 현재 이미지 블록의 색도 요소의 인접 기준값이 적어도 하나의 임계값보다 크지 않을 경우, 제1 그룹의 색도 요소의 인접 기준값(
Figure pct00020
) 및 휘도 요소의 인접 기준값(
Figure pct00021
)을 획득하고;
현재 이미지 블록의 색도 요소의 인접 기준값이 적어도 하나의 임계값보다 클 경우, 제2 그룹의 색도 요소의 인접 기준값(
Figure pct00022
) 및 휘도 요소의 인접 기준값(
Figure pct00023
)을 획득한다.
설명해야 할 것은, 상기 계산하여 얻은 평균값(
Figure pct00024
)을 임계값으로 사용하여, 현재 이미지 블록의 색도 요소의 인접 기준값을 각각
Figure pct00025
Figure pct00026
인 두 부분으로 나눌 수 있으며; 이에 상응하게, 현재 이미지 블록의 휘도 요소의 인접 기준값을 각각
Figure pct00027
Figure pct00028
인 두 부분으로 나눌 수도 있다.
이해할 수 있는 것은, 제1 그룹의 색도 요소의 인접 기준값(
Figure pct00029
)과 휘도 요소의 인접 기준값(
Figure pct00030
) 및 제2 그룹의 색도 요소의 인접 기준값(
Figure pct00031
)과 휘도 요소의 인접 기준값(
Figure pct00032
)을 얻은 후, 각 그룹의 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값을 독립적인 훈련 세트로 사용할 수 있고, 즉 각 다이버시티는 모두 한 그룹의 모델 파라미터를 훈련할 수 있으며; 따라서, 상기 구현 방식에 있어서, 구체적으로, 적어도 두 그룹의 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라, 적어도 두 개의 계산 모델을 구축하는 단계는,
Figure pct00033
,
Figure pct00034
및 공식 (7)에 따라, 제1 계산 모델의 제1 파라미터(α1) 및 제1 계산 모델의 제2 파라미터(β1)를 계산하여 얻는다.
Figure pct00035
(4)
Figure pct00036
,
Figure pct00037
및 공식 (5)에 따라, 제2 계산 모델의 제1 파라미터(α2) 및 제2 계산 모델의 제2 파라미터(β2)를 계산하여 얻는다.
Figure pct00038
(5)
제1 계산 모델의 제1 파라미터(α1)와 제1 계산 모델의 제2 파라미터(β1), 제2 계산 모델의 제1 파라미터(α2)와 제2 계산 모델의 제2 파라미터(β2) 및 공식 (6) 에 따라, 제1 계산 모델(
Figure pct00039
) 및 제2 계산 모델(
Figure pct00040
)을 구축한다.
Figure pct00041
(6)
여기서, M은 제1 그룹의 색도 요소의 인접 기준값(
Figure pct00042
) 또는 휘도 요소의 인접 기준값(
Figure pct00043
)의 개수를 나타내고, K는 제2 그룹의 색도 요소의 인접 기준값(
Figure pct00044
) 또는 휘도 요소의 인접 기준값(
Figure pct00045
)의 개수를 나타내며,
Figure pct00046
는 현재 이미지 블록에서 샘플링 포인트의 위치 좌표를 나타내고, i는 수평 방향을 나타내며, j는 수직 방향을 나타내고;
Figure pct00047
는 기설정된 임계값을 나타내며, 기설정된 임계값은 현재 이미지 블록의 모든 샘플링 포인트의 색도 요소의 재구축값에 따라 얻은 것이고;
Figure pct00048
는 현재 이미지 블록에서 위치 좌표가
Figure pct00049
인 샘플링 포인트의 색도 요소의 재구축값을 나타내며;
Figure pct00050
Figure pct00051
는 현재 이미지 블록에서 위치 좌표가
Figure pct00052
인 샘플링 포인트의 휘도 요소의 예측값을 나타낸다.
실제 응용에 있어서, 먼저 제1 색도 요소의 재구축값에 따라 임계값을 계산하고, 임계값에 따라 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 대해 분류를 수행하며, 두 개의 계산 모델을 예로 들면, 공식 (4)에 따라 α1 및 β1을 얻고, 공식 (5)에 따라 α2 및 β2를 얻으며, 다음 제1 색도 요소의 재구축값을 상기 공식 (6)에 대입하면 제1 예측값을 얻을 수 있다.
제2 예측값을 얻기 위해, 한 가지의 선택 가능한 실시예에서, 제2 색도 요소의 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제2 예측값을 얻는 단계는,
제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라, 예측 모델의 파라미터를 결정하는 단계; 및
제2 색도 요소의 재구축값에 따라, 예측 모델을 호출하여, 제1 예측값을 얻는 단계를 포함한다.
마찬가지로, 제1 예측값을 계산하는 방식과 동일하게, 선형 모델의 경우, 실제 응용에 있어서, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값을 공식 (2)에 대입하여 α 및 β를 얻고, 다음, 제2 색도 요소의 재구축값을 공식 (1)에 대입하여 제2 예측값을 얻으며; 이로써, 선형 모델을 이용하여 제2 예측값을 얻을 수 있다.
비선형 모델에 있어서, 실제 응용에 있어서, 먼저 제2 색도 요소의 재구축값에 따라 임계값을 계산하고, 임계값에 따라 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 대해 분류를 수행하며, 두 개의 계산 모델을 예로 들면, 공식 (4)에 따라 α1 및 β1을 얻고, 공식 (5)에 따라 α2 및 β2를 얻으며, 다음 제2 색도 요소의 재구축값을 상기 공식 (6)에 대입하면 제2 예측값을 얻을 수 있다.
이로써, 제1 예측값 및 제2 예측값을 얻을 수 있다.
휘도 요소의 예측값을 결정하기 위해, 한 가지의 선택 가능한 실시예에서, 제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정하는 단계는,
제1 예측값의 가중치 및 제2 예측값의 가중치를 획득하는 단계; 및
제1 예측값의 가중치 및 상기 제2 예측값의 가중치에 따라, 제1 예측값 및 제2 예측값에 대해 가중 합산을 수행하여, 휘도 요소의 예측값을 얻는 단계를 포함한다.
제1 예측값 및 제2 예측값을 결정한 후, 제1 예측값 및 제2 예측값에 대해 융합 처리를 수행하여, 융합 처리된 값을 휘도 요소의 예측값으로 결정할 수 있다.
구체적으로, 먼저 제1 예측값의 가중치 및 제2 예측값의 가중치를 획득한 다음, 가중 합산의 방식을 통해 제1 예측값 및 제2 예측값에 대해 가중 합산을 수행하여, 휘도 요소의 예측값을 얻을 수 있다.
여기서, 제1 예측값의 가중치 및 제2 예측값의 가중치를 획득하는 방식은 여러 가지가 존재하고, 한 가지의 선택 가능한 실시예에서, 제1 예측값의 가중치 및 제2 예측값의 가중치를 획득하는 단계는,
기설정된 가중치 그룹으로부터 한 그룹의 가중치를 선택하고, 한 그룹의 가중치에서의 하나의 값을 제1 예측값의 가중치로 결정하며, 한 그룹의 가중치에서의 다른 하나의 값을 제2 예측값의 가중치로 결정하는 단계를 포함할 수 있다.
다시 말해, 인코더에는 (0.5, 0.5), (0.2, 0.8), (0.3, 0.7) 및 (0.1, 0.9) 등과 같은 복수 그룹의 가중치가 기설정되어 있고, 기설정된 가중치 그룹으로부터 한 그룹을 선택할 수 있고, 선택된 것이 (0.5, 0.5)일 경우, 제1 예측값의 가중치는 0.5이고, 제2 예측값의 가중치는 0.5이며, 이로써, 제1 예측값의 가중치 및 제2 예측값의 가중치를 결정할 수 있다.
따라서, 디코더 측에 있어서, 코드 스트림에서 선택된 결과에 대해 대응되는 문법 요소로 태깅할 수 있어, 디코더 측이 휘도 요소의 예측값을 예측하는데 편리하다.
한 가지의 선택 가능한 실시예에서, 제1 예측값의 가중치 및 제2 예측값의 가중치를 획득하는 단계는,
제1 가중치 및 제2 가중치를 수신하는 단계; 및
제1 가중치를 제1 예측값의 가중치로 결정하고, 제2 가중치를 제2 예측값의 가중치로 결정하는 단계를 포함할 수 있다.
여기서, 사전에 사용자에 의해 입력된 방식을 통해 제1 예측값의 가중치 및 제2 예측값의 가중치를 결정할 수 있고, 이로써 인코더 측이 제1 가중치 및 제2 가중치를 수신하도록 하며, 따라서, 제1 가중치를 제1 예측값의 가중치로 결정할 수 있고, 제2 가중치를 제2 예측값의 가중치로 결정할 수 있으며; 이와 동시에 코드 스트림에서 선택된 결과에 대해 대응되는 문법 요소로 태깅하여, 디코더 측이 가중치를 수신하고 휘도 요소의 예측값을 예측하는데 편리하다.
또한, 실제 응용에 있어서, 현재 이미지 블록의 색도 요소의 해상도는 휘도 요소의 해상도보다 작고, 제1 색도 요소의 재구축값 및 제2 색도 요소의 재구축값에 대해 업샘플링을 수행하는 것을 선택할 수 있고, 제1 예측값 및 제2 예측값에 대해 업샘플링을 수행하는 것을 선택할 수도 있으며, 또한 휘도 요소의 예측값을 얻은 후 휘도 요소의 예측값에 대해 업샘플링 처리를 수행할 수 있고, 여기서, 본 출원의 실시예는 이에 대해 구체적으로 한정하지 않는다.
제1 색도 요소의 재구축값 및 제2 색도 요소의 재구축값에 대한 업샘플링에 있어서, 한 가지의 선택 가능한 실시예에서, 현재 이미지 블록에 대해, 제1 색도 요소의 재구축값, 제2 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값을 획득한 후, 상기 이미지 요소의 예측 방법은,
색도 요소의 해상도가 휘도 요소의 해상도보다 작을 경우, 제1 색도 요소의 재구축값 및 제2 색도 요소의 재구축값에 대해 각각 업샘플링 처리를 수행하여, 제1 색도 요소 처리된 재구축값 및 제2 색도 요소 처리된 재구축값을 얻는 단계를 더 포함하고,
이에 상응하게, 제1 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제1 예측값을 얻는 단계는,
제1 색도 요소 처리된 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제1 예측값을 얻는 단계를 포함하며,
이에 상응하게, 제2 색도 요소의 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제2 예측값을 얻는 단계는,
제2 색도 요소 처리된 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제2 예측값을 얻는 단계를 포함하고,
구체적으로, 현재 이미지 블록의 색도 요소의 해상도가 휘도 요소의 해상도보다 작으므로, 예측 정밀도를 향상시키기 위해, 여기서, 제1 색도 요소의 재구축값 및 제2 색도 요소의 재구축값을 획득한 후, 각각 제1 색도 요소의 재구축값 및 제2 색도 요소의 재구축값에 대해 업샘플링을 수행하여, 제1 색도 요소의 처리된 재구축값의 해상도 및 제2 색도 요소 처리된 재구축값의 해상도가 각각 휘도 요소의 해상도와 동일하도록 하므로, 예측 정밀도를 향상시킨다.
따라서, 제1 색도 요소의 처리된 재구축값 및 제2 색도 요소 처리된 재구축값을 얻은 후, 제1 색도 요소 처리된 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제1 예측값을 얻을 수 있고, 제2 색도 요소 처리된 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제2 예측값을 얻으므로, 얻은 제1 예측값 및 제2 예측값으로 현재 이미지 블록의 휘도 요소의 예측값을 결정한다.
여기서, 제1 예측값 및 제2 예측값에 대한 업샘플링에 있어서, 한 가지의 선택 가능한 실시예에서, 제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정하기 전, 상기 이미지 요소의 예측 방법은,
색도 요소의 해상도가 휘도 요소의 해상도보다 작을 경우, 각각 제1 예측값 및 제2 예측값에 대해 업샘플링 처리를 수행하여, 처리된 제1 예측값 및 처리된 제2 예측값을 얻는 단계를 더 포함하고,
이에 상응하게, 제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정하는 단계는,
처리된 제1 예측값 및 처리된 제2 예측값에 따라, 휘도 요소의 예측값을 결정하는 단계를 포함한다.
여기서, 색도 요소의 해상도가 휘도 요소의 해상도보다 작을 경우, 휘도 요소의 해상도를 적응하기 위해, 제1 예측값 및 제2 예측값을 얻은 후, 각각 제1 예측값 및 제2 예측값에 대해 업샘플링을 수행하여, 처리된 제1 예측값 및 처리된 제2 예측값을 얻고, 마지막으로, 처리된 제1 예측값 및 처리된 제2 예측값에 따라, 휘도 요소의 예측값을 결정한다.
휘도 요소의 예측값에 대해 업샘플링을 수행하는 단계에 있어서, 한 가지의 선택 가능한 실시예에서, 제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정한 후, 상기 이미지 요소의 예측 방법은,
색도 요소의 해상도가 휘도 요소의 해상도보다 작을 경우, 휘도 요소의 예측값에 대해 업샘플링 처리를 수행하여, 처리된 휘도 요소의 예측값을 얻는 단계를 더 포함한다.
다시 말해, 휘도 요소의 예측값을 얻은 후, 휘도 요소의 예측값에 대해 업샘플링을 수행하여, 처리된 휘도 요소의 예측값의 해상도가 휘도 요소의 해상도와 동일하도록 하는 것을 선택한다.
본 출원의 실시예는 이미지 요소의 예측 방법을 제공하고, 도 4는 본 출원의 실시예에서 제공한 선택 가능한 이미지 요소의 예측 방법의 흐름 예시도이며, 도 4에 도시된 바와 같이, 상기 방법은 단계 S401 및 단계 S402를 포함할 수 있다.
단계 S401에 있어서, 이미지 요소의 디코딩에 있어서, 색도 요소에 대해 디코딩을 수행한다.
단계 S402에 있어서, 디코딩된 색도 요소에 따라, 휘도 요소의 예측값을 획득한다.
설명해야 할 것은, 본 출원의 실시예에서의 단계 S401 및 단계 S402은 도 2에 도신된 인트라 프레임 예측 유닛(203) 부분 및 도 3에 도시된 인트라 프레임 예측 유닛(303) 부분에 주로 적용되고; 다시 말해, 본 출원의 실시예는 인코더 및 디코더를 동시에 작용할 수 있으며, 본 출원의 실시예는 이에 대해 구체적으로 한정하지 않는다.
또한, 단계 S401 및 단계S402에 있어서, 이미지 요소의 디코딩에 있어서, 하나의 색도 요소에 대해 디코딩을 수행한 다음, 상기 색도 요소를 사용하여 휘도 요소를 예측할 수 있으며, 하나의 색도 요소에 대해 디코딩을 수행한 다음, 상기 색도 요소를 사용하여 다른 하나의 색도 요소를 예측할 수도 있으며, 또한 먼저 두 개의 색도 요소에 대해 디코딩을 수행한 다음, 하나의 색도 요소를 사용하여 휘도 요소를 예측하거나, 두 개의 색도 요소를 사용하여 휘도 요소를 예측할 수 있으며, 여기서, 본 출원의 실시예는 이에 대해 구체적으로 한정하지 않는다.
휘도 요소의 예측값을 얻기 위해, 한 가지의 선택 가능한 실시예에서, 단계 S102는,
디코딩된 색도 요소에서의 제1 색도 요소 및 디코딩된 색도 요소에서의 제2 색도 요소에 따라 예측하여, 휘도 요소의 예측값을 얻는 단계를 포함할 수 있고,
여기서, 제1 색도 요소가 블루 색도 요소일 경우, 제2 색도 요소는 레드 색도 요소이고; 제1 색도 요소가 레드 색도 요소일 경우, 제2 색도 요소는 블루 색도 요소이다.
여기서, 디코딩된 색도 요소에서의 제1 색도 요소 및 디코딩된 제2 색도 요소를 사용하여 휘도 요소의 예측값을 예측하고, 예를 들어, 제1 색도 요소가 Cb이고, 제2 색도 요소가 Cr이며, 휘도 요소가 Y이면, Cb 및 Cr를 통해 Y를 예측할 수 있고, 또는, 제1 색도 요소가 Cr이고, 제2 색도 요소가 Cb이며, 휘도 요소가 Y이면, Cb 및 Cr을 통해 Y를 예측할 수 있다.
더 나아가, 휘도 요소의 예측값을 예측하기 위해, 한 가지의 선택 가능한 실시예에서, 디코딩된 색도 요소에서의 제1 색도 요소 및 디코딩된 색도 요소에서의 제2 색도 요소에 따라 예측하여, 휘도 요소의 예측값을 얻는 단계는,
현재 이미지 블록에 대해, 제1 색도 요소의 재구축값, 제2 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값, 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값을 획득하는 단계;
제1 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제1 예측값을 얻는 단계;
제2 색도 요소의 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제2 예측값을 얻는 단계; 및
제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정하는 단계를 포함한다.
여기서, 현재 이미지 블록은 현재 디코딩될 이미지 블록이고, 여기서, 현재 이미지 블록에 대해, 현재 이미지 블록의 제1 색도 요소의 재구축값, 현재 이미지 블록의 제2 색도 요소의 재구축값을 획득해야 하며, 현재 이미지 블록의 인접 이미지 블록의 제1 색도 요소는 상기 제1 색도 요소의 인접 기준값이고, 현재 이미지 블록의 인접 이미지 블록의 제2 색도 요소는 상기 제2 색도 요소의 인접 기준값이며, 현재 이미지 블록의 인접 이미지 블록의 휘도 요소는 휘도 요소의 인접 기준값이고; 설명해야 할 것은, 상기 현재 이미지 블록의 인접 이미지 블록은 현재 이미지 블록의 이전 행의 이미지 블록 및 왼쪽 열의 이미지 블록이다.
따라서, 상기 값을 획득한 후, 제1 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 제1 예측값을 예측하고, 제2 색도 요소의 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 제2 예측값을 예측한 다음, 제1 예측값 및 제2 예측값에 따라 현재 이미지 블록의 휘도 요소의 예측값을 얻을 수 있고; 이로써, 각각 한 가지의 색도 요소를 통해 하나의 예측값을 예측하고, 마지막으로 예측된 두 개의 예측값을 융합하여 현재 이미지 블록의 휘도 요소의 예측값을 얻는다.
제1 예측값을 얻기 위해, 한 가지의 선택 가능한 실시예에서, 제1 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제1 예측값을 얻는 단계는,
제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라, 예측 모델의 파라미터를 결정하는 단계; 및
제1 색도 요소의 재구축값에 따라, 예측 모델을 호출하여, 제1 예측값을 얻는 단계를 포함한다.
제1 색도 요소의 재구축값 및 제1 색도 요소의 인접 기준값을 얻은 후, 상기 사용된 이미지 요소의 예측 모델은 선형 모델일 수 있고, 비선형 모델일 수도 있어, 휘도 요소를 예측하여, 제1 예측값을 얻고, 여기서, 본 출원의 실시예는 이에 대해 구체적으로 한정하지 않는다.
실제 응용에 있어서, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값을 공식 (2)에 대입하여 α 및 β를 얻고, 다음, 제1 색도 요소의 재구축값을 공식 (1)에 대입하여 제1 예측값을 얻으며; 이로써, 선형 모델을 이용하여 제1 예측값을 얻을 수 있다.
예측 모델은 상기 선형 모델 외에, 또한 비선형 모델을 사용할 수 있고, 상기 선형 모델의 기초 위에, 이미지 요소의 예측 모델은 또한 비선형 모델 계산 방법을 제안하였다.
실제 응용에 있어서, 먼저 제1 색도 요소의 재구축값에 따라 임계값을 계산하고, 임계값에 따라 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값을 분류하며, 두 개의 계산 모델을 예로 들면, 공식 (4)에 따라 α1 및 β1을 얻고, 공식 (5)에 따라 α2 및 β2를 얻으며, 다음 제1 색도 요소의 재구축값을 상기 공식 (6)에 대입하면 제1 예측값을 얻을 수 있다.
제2 예측값을 얻기 위해, 한 가지의 선택 가능한 실시예에서, 제2 색도 요소의 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제2 예측값을 얻는 단계는,
제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라, 예측 모델의 파라미터를 결정하는 단계; 및
제2 색도 요소의 재구축값에 따라, 예측 모델을 호출하여, 제1 예측값을 얻는 단계를 포함한다.
마찬가지로, 제1 예측값을 계산하는 방식과 동일하게, 선형 모델에 있어서, 실제 응용에 있어서, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값을 공식 (2)에 대입하여 α 및 β를 얻고, 다음, 제2 색도 요소의 재구축값을 공식 (1)에 대입하여 제2 예측값을 얻으며; 이로써, 선형 모델을 이용하여 제2 예측값을 얻을 수 있다.
비선형 모델의 경우, 실제 응용에 있어서, 먼저 제2 색도 요소의 재구축값에 따라 임계값을 계산하고, 임계값에 따라 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 대해 분류를 수행하며, 두 개의 계산 모델을 예로 들면, 공식 (4)에 따라 α1 및 β1을 얻고, 공식 (5)에 따라 α2 및 β2를 얻으며, 다음 제2 색도 요소의 재구축값을 상기 공식 (6)에 대입하면 제2 예측값을 얻을 수 있다.
이로써, 제1 예측값 및 제2 예측값을 얻을 수 있다.
휘도 요소의 예측값을 결정하기 위해, 한 가지의 선택 가능한 실시예에서, 제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정하는 단계는,
제1 예측값의 가중치 및 제2 예측값의 가중치를 획득하는 단계; 및
제1 예측값의 가중치 및 상기 제2 예측값의 가중치에 따라, 제1 예측값 및 제2 예측값에 대해 가중 합산을 수행하여, 휘도 요소의 예측값을 얻는 단계를 포함한다.
제1 예측값 및 제2 예측값을 결정한 후, 제1 예측값 및 제2 예측값에 대해 융합 처리를 수행하여, 융합 처리된 값을 휘도 요소의 예측값으로 결정할 수 있다.
구체적으로, 먼저 제1 예측값의 가중치 및 제2 예측값의 가중치를 획득한 다음, 가중 합산의 방식을 통해 제1 예측값 및 제2 예측값에 대해 가중 합산을 수행하여, 휘도 요소의 예측값을 얻을 수 있다.
여기서, 제1 예측값의 가중치 및 제2 예측값의 가중치를 획득하는 방식은 여러가지가 존재하고, 한 가지의 선택 가능한 실시예에서, 제1 예측값의 가중치 및 제2 예측값의 가중치를 획득하는 단계는,
기설정된 가중치 그룹으로부터 한 그룹의 가중치를 선택하고, 한 그룹의 가중치에서의 하나의 값을 제1 예측값의 가중치로 결정하며, 한 그룹의 가중치에서의 다른 하나의 값을 제2 예측값의 가중치로 결정하는 단계를 포함할 수 있다.
다시 말해, 디코더에는 (0.5, 0.5), (0.2, 0.8), (0.3, 0.7) 및 (0.1, 0.9) 등과 같은 복수 그룹의 가중치가 기설정되어 있고, 기설정된 가중치 그룹으로부터 한 그룹을 선택할 수 있고, 선택된 것이 (0.5, 0.5)일 경우, 제1 예측값의 가중치는 0.5이고, 제2 예측값의 가중치는 0.5이며, 이로써, 제1 예측값의 가중치 및 제2 예측값의 가중치를 결정할 수 있다.
따라서, 디코더 측에 있어서, 코드 스트림에서 선택된 결과에 대해 대응되는 문법 요소로 태깅을 수행할 수 있으므로, 디코더 측이 휘도 요소의 예측값을 예측하는데 편리하다.
한 가지의 선택 가능한 실시예에서, 제1 예측값의 가중치 및 제2 예측값의 가중치를 획득하는 단계는,
제1 가중치 및 제2 가중치를 수신하는 단계; 및
제1 가중치를 제1 예측값의 가중치로 결정하고, 제2 가중치를 제2 예측값의 가중치로 결정한는 단계를 포함할 수 있다.
여기서, 사전에 사용자에 의해 입력된 방식을 통해 제1 예측값의 가중치 및 제2 예측값의 가중치를 결정할 수 있고, 이로써 인코더 측이 제1 가중치 및 제2 가중치를 수신하도록 하며, 따라서, 제1 가중치를 제1 예측값의 가중치로 결정할 수 있고, 제2 가중치를 제2 예측값의 가중치로 결정할 수 있으며; 이와 동시에 코드 스트림에서 선택된 결과에 대해 대응되는 문법 요소로 태깅을 수행하므로, 디코더 측이 가중치를 수신하고 휘도 요소의 예측값을 예측하는데 편리하다.
또한, 실제 응용에 있어서, 현재 이미지 블록의 색도 요소의 해상도는 휘도 요소의 해상도보다 작으면, 제1 색도 요소의 재구축값 및 제2 색도 요소의 재구축값에 대해 업샘플링을 수행하는 것을 선택할 수 있고, 제1 예측값 및 제2 예측값에 대해 업샘플링을 수행하는 것을 선택할 수도 있으며, 또한 휘도 요소의 예측값을 얻은 후 휘도 요소의 예측값에 대해 업샘플링 처리를 수행할 수 있으며, 여기서, 본 출원의 실시예는 이에 대해 구체적으로 한정하지 않는다.
제1 색도 요소의 재구축값 및 제2 색도 요소의 재구축값에 대한 업 샘플링에 있어서, 한 가지의 선택 가능한 실시예에서, 현재 이미지 블록에 대해, 제1 색도 요소의 재구축값, 제2 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값, 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값을 획득한 후, 상기 이미지 요소의 예측 방법은,
색도 요소의 해상도가 휘도 요소의 해상도보다 작을 경우, 각각 제1 색도 요소의 재구축값 및 제2 색도 요소의 재구축값에 대해 업샘플링 처리를 수행하여, 제1 색도 요소 처리된 재구축값 및 제2 색도 요소 처리된 재구축값을 얻는 단계를 더 포함하고,
이에 상응하게, 제1 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제1 예측값을 얻는 단계는,
제1 색도 요소 처리된 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제1 예측값을 얻는 단계를 포함하며,
이에 상응하게, 제2 색도 요소의 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제2 예측값을 얻는 단계는,
제2 색도 요소 처리된 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제2 예측값을 얻는 단계를 포함한다.
구체적으로, 현재 이미지 블록의 색도 요소의 해상도가 휘도 요소의 해상도보다 작으므로, 예측 정밀도를 향상시키기 위해, 여기서, 제1 색도 요소의 재구축값 및 제2 색도 요소의 재구축값을 획득한 후, 제1 색도 요소의 재구축값 및 제2 색도 요소의 재구축값에 대해 각각 업샘플링을 수행하여, 제1 색도 요소의 처리된 재구축값의 해상도 및 제2 색도 요소 처리된 재구축값의 해상도가 각각 휘도 요소의 해상도와 동일하도록 하므로, 예측 정밀도를 향상시킨다.
따라서, 제1 색도 요소의 처리된 재구축값 및 제2 색도 요소 처리된 재구축값을 얻은 후, 제1 색도 요소 처리된 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제1 예측값을 얻을 수 있고, 제2 색도 요소 처리된 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제2 예측값을 얻을 수 있으므로, 얻은 제1 예측값 및 제2 예측값으로 현재 이미지 블록의 휘도 요소의 예측값을 결정한다.
여기서, 제1 예측값 및 제2 예측값에 대한 업 샘플링에 있어서, 한 가지의 선택 가능한 실시예에서, 제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정하기 전, 상기 이미지 요소의 예측 방법은,
색도 요소의 해상도가 휘도 요소의 해상도보다 작을 경우, 제1 예측값 및 제2 예측값에 대해 각각 업샘플링 처리를 수행하여, 처리된 제1 예측값 및 처리된 제2 예측값을 얻는 단계를 더 포함하고,
이에 상응하게, 제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정하는 단계는,
처리된 제1 예측값 및 처리된 제2 예측값에 따라, 휘도 요소의 예측값을 결정하는 단계를 포함한다.
여기서, 색도 요소의 해상도가 휘도 요소의 해상도보다 작을 경우, 휘도 요소의 해상도를 적응하기 위해, 제1 예측값 및 제2 예측값을 얻은 후, 제1 예측값 및 제2 예측값에 대해 각각 업샘플링을 수행하여, 처리된 제1 예측값 및 처리된 제2 예측값을 얻고, 마지막으로, 처리된 제1 예측값 및 처리된 제2 예측값에 따라, 휘도 요소의 예측값을 결정한다.
휘도 요소의 예측값에 대해 업샘플링을 수행하는 단계에 있어서, 한 가지의 선택 가능한 실시예에서, 제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정한 후, 상기 이미지 요소의 예측 방법은,
색도 요소의 해상도가 휘도 요소의 해상도보다 작을 경우, 휘도 요소의 예측값에 대해 업샘플링 처리를 수행하여, 처리된 휘도 요소의 예측값을 얻는 단계를 더 포함한다.
다시 말해, 휘도 요소의 예측값을 얻은 후, 휘도 요소의 예측값에 대해 업샘플링을 수행하여, 처리된 휘도 요소의 예측값의 해상도가 휘도 요소의 해상도와 동일하도록 하는 것을 선택한다.
본 출원의 실시예는 이미지 요소의 예측 방법을 제공하고, 상기 방법은, 이미지 요소의 코딩에 있어서, 색도 요소에 대해 코딩을 수행하고, 코딩된 색도 요소에 따라, 휘도 요소의 예측값을 획득하는 단계를 포함하며; 다시 말해, 본 출원의 실시예에 있어서, 먼저 색도 요소에 대해 코딩 및 디코딩을 수행한 다음, 코딩 및 디코딩된 색도 요소를 통해 휘도 요소를 예측하며, 이로써, 코딩 및 디코딩하여 얻은 색도 요소를 통해 휘도 요소를 예측하고, 즉 먼저 비교적 평탄한 색도 요소에 대해 코딩 및 디코딩을 수행한 다음, 코딩 및 디코딩하여 얻은 색도 요소에 기반하여 풍부한 무늬를 구비하는 휘도 요소를 예측하여, 휘도 요소 예측의 정확성을 향상시킬 수 있으므로, 휘도 요소의 예측값이 실제 휘도 요소의 픽셀값에 더욱 접근하도록 한다.
실시예 2에 있어서,
동일한 발명 구상에 기반하여, 도 5는 본 출원의 실시예에서 제공한 한 가지의 선택 가능한 인코더의 구조 예시도이고, 도 5에 도시된 바와 같이, 본 출원의 실시예에서 제공한 인코더는 코딩 모듈(51) 및 제1 획득 모듈(52)을 포함할 수 있고; 여기서,
코딩 모듈(51)은, 이미지 요소의 코딩에 있어서, 색도 요소에 대해 코딩을 수행하도록 구성되고;
제1 획득 모듈(52)은 코딩된 색도 요소에 따라, 휘도 요소의 예측값을 획득하도록 구성된다.
더 나아가, 제1 획득 모듈(52)은 구체적으로,
코딩된 색도 요소에서의 제1 색도 요소 및 코딩된 색도 요소에서의 제2 색도 요소에 따라 예측하여, 휘도 요소의 예측값을 얻도록 구성되고,
여기서, 상기 제1 색도 요소가 블루 색도 요소일 경우, 상기 제2 색도 요소는 레드 색도 요소이고; 상기 제1 색도 요소가 레드 색도 요소일 경우, 상기 제2 색도 요소는 블루 색도 요소이다.
더 나아가, 제1 획득 모듈(52)이 코딩된 색도 요소에서의 제1 색도 요소 및 코딩된 색도 요소에서의 제2 색도 요소에 따라 예측하여, 휘도 요소의 예측값을 얻는 것은,
현재 이미지 블록에 대해, 제1 색도 요소의 재구축값, 제2 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값, 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값을 획득하는 것;
제1 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제1 예측값을 얻는 것;
제2 색도 요소의 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제2 예측값을 얻는 것; 및
제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정하는 것을 포함한다.
더 나아가, 제1 획득 모듈(52)이 제1 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제1 예측값을 얻는 것은,
제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라, 예측 모델의 파라미터를 결정하는 것; 및
제1 색도 요소의 재구축값에 따라, 예측 모델을 호출하여, 제1 예측값을 얻는 것을 포함한다.
더 나아가, 제1 획득 모듈(52)이 제2 색도 요소의 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제2 예측값을 얻는 것은,
제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라, 예측 모델의 파라미터를 결정하는 것; 및
제2 색도 요소의 재구축값에 따라, 예측 모델을 호출하여, 제1 예측값을 얻는 것을 포함한다.
더 나아가, 제1 획득 모듈(52)이 제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정하는 것은,
제1 예측값의 가중치 및 제2 예측값의 가중치를 획득하는 것; 및
제1 예측값의 가중치 상기 제2 예측값의 가중치에 따라, 제1 예측값 및 제2 예측값에 대해 가중 합산을 수행하여, 휘도 요소의 예측값을 얻는 것을 포함한다.
더 나아가, 제1 획득 모듈(52)이 제1 예측값의 가중치 및 제2 예측값의 가중치를 획득하는 것은,
기설정된 가중치 그룹으로부터 한 그룹의 가중치를 선택하고, 한 그룹의 가중치에서의 하나의 값을 제1 예측값의 가중치로 결정하며, 한 그룹의 가중치에서의 다른 하나의 값을 제2 예측값의 가중치로 결정하는 것을 포함한다.
나아가, 제1 획득 모듈(52)은 구체적으로,
현재 이미지 블록에 대해, 제1 색도 요소의 재구축값, 제2 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값을 획득한 후, 색도 요소의 해상도가 휘도 요소의 해상도보다 작을 경우, 제1 색도 요소의 재구축값 및 제2 색도 요소의 재구축값에 대해 각각 업샘플링 처리를 수행하여, 제1 색도 요소 처리된 재구축값 및 제2 색도 요소 처리된 재구축값을 얻도록 구성되고,
이에 상응하게, 제1 획득 모듈(52)이 제1 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제1 예측값을 얻는 것은,
제1 색도 요소 처리된 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제1 예측값을 얻는 것을 포함하며,
이에 상응하게, 제1 획득 모듈(52)이 제2 색도 요소의 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제2 예측값을 얻는 것은,
제2 색도 요소 처리된 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제2 예측값을 얻는 것을 포함한다.
한 가지의 선택 가능한 실시예에서, 제1 획득 모듈(52)은, 구체적으로,
제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정하기 전, 색도 요소의 해상도가 휘도 요소의 해상도보다 작을 경우, 제1 예측값 및 제2 예측값에 대해 각각 업 샘플링 처리를 수행하여, 처리된 제1 예측값 및 처리된 제2 예측값을 얻도록 구성되고,
이에 상응하게, 제1 획득 모듈(52)이 제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정하는 것은,
처리된 제1 예측값 및 처리된 제2 예측값에 따라, 휘도 요소의 예측값을 결정하는 것을 포함한다.
한 가지의 선택 가능한 실시예에서, 제1 획득 모듈(52)은 구체적으로,
제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정한 후, 색도 요소의 해상도가 휘도 요소의 해상도보다 작을 경우, 휘도 요소의 예측값에 대해 업 샘플링 처리를 수행하여, 처리된 휘도 요소의 예측값을 얻도록 구성된다.
동일한 발명 구상에 기반하여, 도 6은 본 출원의 실시예에서 제공한 한 가지의 선택 가능한 디코더의 구조 예시도이고, 도 6에 도시된 바와 같이, 본 출원의 실시예에서 제공한 디코더는 디코딩 모듈(61) 및 제2 획득 모듈(62)을 포함할 수 있고; 여기서,
디코딩 모듈(61)은 이미지 요소의 디코딩에 있어서, 색도 요소에 대해 디코딩을 수행하도록 구성되고;
제2 획득 모듈(62)은 디코딩된 색도 요소에 따라, 휘도 요소의 예측값을 획득하도록 구성된다.
더 나아가, 제2 획득 모듈(62)은 구체적으로,
디코딩된 색도 요소에서의 제1 색도 요소 및 디코딩된 색도 요소에서의 제2 색도 요소에 따라 예측하여, 휘도 요소의 예측값을 얻도록 구성되고,
여기서, 제1 색도 요소가 블루 색도 요소일 경우, 제2 색도 요소는 레드 색도 요소이고; 제1 색도 요소가 레드 색도 요소일 경우, 제2 색도 요소는 블루 색도 요소이다.
더 나아가, 제2 획득 모듈(62)이 디코딩된 색도 요소에서의 제1 색도 요소 및 디코딩된 색도 요소에서의 제2 색도 요소에 따라 예측하여, 휘도 요소의 예측값을 얻는 것은,
현재 이미지 블록에 대해, 제1 색도 요소의 재구축값, 제2 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값, 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값을 획득하는 것;
제1 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제1 예측값을 얻는 것;
제2 색도 요소의 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제2 예측값을 얻는 것; 및
제1 예측값 및 상기 제2 예측값에 따라, 휘도 요소의 예측값을 결정하는 것을 포함한다.
더 나아가, 제2 획득 모듈(62)이 제1 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제1 예측값을 얻는 것은,
제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라, 예측 모델의 파라미터를 결정하는 것; 및
제1 색도 요소의 재구축값에 따라, 예측 모델을 호출하여, 제1 예측값을 얻는 것을 포함한다.
더 나아가, 제2 획득 모듈(62)이 제2 색도 요소의 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제2 예측값을 얻는 것은,
제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라, 예측 모델의 파라미터를 결정하는 것; 및
제2 색도 요소의 재구축값에 따라, 예측 모델을 호출하여, 제1 예측값을 얻는 것을 포함한다.
더 나아가, 제2 획득 모듈(62)이 제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정하는 것은,
제1 예측값의 가중치 및 제2 예측값의 가중치를 획득하는 것; 및
제1 예측값의 가중치 상기 제2 예측값의 가중치에 따라, 제1 예측값 및 제2 예측값에 대해 가중 합산을 수행하여, 휘도 요소의 예측값을 얻는 것을 포함한다.
더 나아가, 제2 획득 모듈(62)이 제1 예측값의 가중치 및 제2 예측값의 가중치를 획득하는 것은,
기설정된 가중치 그룹으로부터 한 그룹의 가중치를 선택하고, 한 그룹의 가중치에서의 하나의 값을 제1 예측값의 가중치로 결정하며, 한 그룹의 가중치에서의 다른 하나의 값을 제2 예측값의 가중치로 결정하는 것을 포함한다.
더 나아가, 제2 획득 모듈(62)은 구체적으로,
현재 이미지 블록에 대해, 제1 색도 요소의 재구축값, 제2 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값을 획득한 후, 색도 요소의 해상도가 휘도 요소의 해상도보다 작을 경우, 제1 색도 요소의 재구축값 및 제2 색도 요소의 재구축값에 대해 각각 업샘플링 처리를 수행하여, 제1 색도 요소 처리된 재구축값 및 제2 색도 요소 처리된 재구축값을 얻도록 구성되고,
이에 상응하게, 제2 획득 모듈(62)이 제1 색도 요소의 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제1 예측값을 얻는 것은,
제1 색도 요소 처리된 재구축값, 제1 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제1 예측값을 얻는 것을 포함하며,
이에 상응하게, 제2 획득 모듈(62)이 제2 색도 요소의 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제2 예측값을 얻는 것은,
제2 색도 요소 처리된 재구축값, 제2 색도 요소의 인접 기준값 및 휘도 요소의 인접 기준값에 따라 예측하여, 휘도 요소의 제2 예측값을 얻는 것을 포함한다.
한 가지의 선택 가능한 실시예에서, 제2 획득 모듈(62)은 구체적으로,
제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정하기 전, 색도 요소의 해상도가 휘도 요소의 해상도보다 작을 경우, 제1 예측값 및 제2 예측값에 대해 각각 업 샘플링 처리를 수행하여, 처리된 제1 예측값 및 처리된 제2 예측값을 얻도록 구성되고,
이에 상응하게, 제2 획득 모듈(62)이 제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정하는 것은,
처리된 제1 예측값 및 처리된 제2 예측값에 따라, 휘도 요소의 예측값을 결정하는 것을 포함한다.
한 가지의 선택 가능한 실시예에서, 제2 획득 모듈(62)은 구체적으로,
제1 예측값 및 제2 예측값에 따라, 휘도 요소의 예측값을 결정한 후, 색도 요소의 해상도가 휘도 요소의 해상도보다 작을 경우, 휘도 요소의 예측값에 대해 업 샘플링 처리를 수행하여, 처리된 휘도 요소의 예측값을 얻도록 구성된다.
도 7은 본 출원의 실시예에서 제공한 다른 선택 가능한 인코더의 구조 예시도이고, 도 7에 도시된 바와 같이, 본 출원의 실시예에서 제공한 인코더(700)는 또한 프로세서(71) 및 프로세서(71)가 실행 가능한 명령어를 저장하는 저장 매체(72)를 포함하고, 저장 매체(72)는 통신 버스(73)를 통해 프로세서(71)에 의존하여 작업을 실행하고, 명령어가 프로세서(71)에 의해 실행될 경우, 상기 하나 또는 복수 개의 실시예의 이미지 요소의 예측 방법을 수행한다.
설명해야 할 것은, 실제 응용에 있어서, 단말에서의 각 컴포넌트는 통신 버스(73)를 통해 서로 커플링된다. 이해할 수 있는 것은, 통신 버스(73)는 이러한 컴포넌트 사이의 연결 통신을 구현하기 위한 것이다. 통신 버스(73)는 데이터 버스를 포함하는 것 외에, 전원 버스, 제어 버스 및 상태 신호 버스를 더 포함한다. 그러나, 명확한 설명을 위해, 도 7에서 다양한 버스는 모두 통신 버스(73)로 표기된다.
도 8은 본 출원의 실시예에서 제공한 다른 선택 가능한 디코더의 구조 예시도이고, 도 8에 도시된 바와 같이, 본 출원의 실시예에서 제공한 디코더(800)는 또한 프로세서(81) 및 프로세서(81)가 실행 가능한 명령어를 저장하는 저장 매체(82)를 포함하고, 저장 매체(82)는 통신 버스(83)를 통해 프로세서(81)에 의존하여 작업을 실행하고, 명령어가 프로세서(81)에 의해 실행될 경우, 상기 하나 또는 복수 개의 실시예의 이미지 요소의 예측 방법을 수행한다.
설명해야 할 것은, 실제 응용에 있어서, 단말에서의 각 컴포넌트는 통신 버스(83)를 통해 서로 커플링된다. 이해할 수 있는 것은, 통신 버스(83)는 이러한 컴포넌트 사이의 연결 통신을 구현하기 위한 것이다. 통신 버스(83)는 데이터 버스를 포함하는 것 외에, 전원 버스, 제어 버스 및 상태 신호 버스를 더 포함한다. 그러나, 명확한 설명을 위해, 도 8에서 다양한 버스는 모두 통신 버스(83)로 표기된다.
본 출원의 실시예는 실행 가능한 명령어를 저장한 컴퓨터 저장 매체를 제공하고, 상기 실행 가능한 명령어가 하나 또는 복수 개의 프로세서에 의해 실행될 경우, 상기 프로세서는 상기 하나 또는 복수 개의 실시예의 이미지 요소의 예측 방법을 실행한다.
이해할 수 있는 것은, 본 발명의 실시예의 메모리는 휘발성 메모리 또는 비휘발성 메모리일 수 있으며, 또는 휘발성 메모리 및 비휘발성 메모리 모두를 포함할 수 있다. 여기서, 비 휘발성 메모리는 판독 전용 메모리(Read-Only Memory, ROM), 프로그래머블 판독 전용 메모리(Programmable ROM, PROM), 소거 가능 프로그래머블 판독 전용 메모리(Erasable PROM, EPROM), 전기적 소거 가능 판독 전용 프로그래머블 메모리(Electrically EPROM, EEPROM) 또는 플래시 메모리일 수 있다. 휘발성 메모리는 외부 캐시 역할을 하는 랜덤 액세스 메모리(Random Access Memory, RAM)일 수 있다. 한정적이 아닌 예시적인 설명을 통해, 많은 형태의 RAM이 사용 가능하며, 예를 들어, 정적 랜덤 액세스 메모리(Static RAM, SRAM), 동적 랜덤 액세스 메모리(Dynamic RAM, DRAM), 동기식 동적 랜덤 액세스 메모리(Synchronous DRAM, SDRAM), 더블 데이터 레이트 동기식 동적 랜덤 액세스 메모리(Double Data Rate SDRAM, DDRSDRAM), 향상된 동기식 동적 랜덤 액세스 메모리(Enhanced SDRAM, ESDRAM), 동기식 연결 동적 랜덤 액세스 메모리(Synchlink DRAM, SLDRAM) 및 직접 메모리 버스 랜덤 액세스 메모리(Direct Rambus RAM, DRRAM)이다. 본 명세서에 설명된 시스템 및 방법의 메모리는 이들 메모리 및 다른 임의의 적합한 유형의 메모리를 포함하나 이에 한정되는 것은 아니다.
프로세서는 신호 처리 능력을 구비하는 집적 회로 칩일 수 있다. 구현 과정에서, 상기 방법의 각 단계는 프로세서에서의 하드웨어의 집적 논리 회로 또는 소프트웨어 형태의 명령어를 통해 완료될 수 있다. 상기 프로세서는 범용 프로세서, 디지털 신호 프로세서(Digital Signal Processor, DSP), 주문형 집적 회로(Application Specific Integrated Circuit, ASIC), 필드 프로그래머블 게이트 어레이(Field Programmable Gate Array, FPGA) 또는 다른 프로그래머블 논리 소자, 개별 게이트 또는 트랜지스터 논리 소자, 개별 하드웨어 어셈블리일 수 있다. 본 출원의 실시예에서 개시된 각 방법, 단계 및 논리 블록도는 구현되거나 실행될 수 있다. 범용 프로세서는 마이크로 프로세서 또는 임의의 일반적인 프로세서 등일 수도 있다. 본 출원의 실시예를 결합하여 개시된 방법의 단계는, 하드웨어 디코딩 프로세서로 직접 반영되어 실행 및 완료될 수 있거나, 디코딩 프로세서에서의 하드웨어 및 소프트웨어 모듈의 조합에 의해 실행 및 완료될 수 있다. 소프트웨어 모듈은 랜덤 액세스 메모리, 플래시 메모리, 판독 전용 메모리, 프로그래머블 판독 전용 메모리 또는 전기적 소거 가능 프로그래머블 메모리, 레지스터 등 본 기술 분야에서 널리 알려진 저장 매체에 위치할 수 있다. 상기 저장 매체는 메모리에 위치하고, 프로세서는 메모리의 정보를 판독한 후 하드웨어와 결합하여 상기 방법의 단계들을 완료한다.
이해할 수 있는 것은, 본문에서 설명된 이러한 실시예는 하드웨어, 소프트웨어, 펌웨어, 미들웨어, 마이크로 코드 또는 이들의 조합으로 구현될 수 있다는 것이다. 하드웨어 구현에 대해서, 처리 유닛은 하나 또는 복수 개의 응용 주문형 집적 회로(Application Specific Integrated Circuits, ASIC), 디지털 신호 프로세서(Digital Signal Processor, DSP), 디지털 신호 처리 기기(DSP Device, DSPD), 프로그래머블 논리 기기(Programmable Logic Device, PLD), 현장 프로그래머블 게이트 어레이(Field-Programmable Gate Array, FPGA), 범용 프로세서, 제어기, 마이크로 제어기, 마이크로 프로세서, 본 출원에서 설명된 기능을 수행하기 위한 기타 전자 유닛 또는 조합 중에서 구현될 수 있다.
소프트웨어 구현에 대해, 본문에서 설명된 기능을 수행하는 모듈(예를 들어, 과정, 함수 등)을 통해 본문에서 설명된 기술을 구현할 수 있다. 소프트웨어 코드는 메모리에 저장되고 프로세서를 통해 수행될 수 있다. 메모리는 프로세서에서 또는 프로세서 외부에서 구현될 수 있다.
설명해야 할 것은, 본 발명에서, 용어 "포함" 또는 이의 임의의 다른 변형은 비배타적인 포함을 포함하도록 의도됨으로써, 일련의 요소를 포함하는 프로세스, 방법, 물품 또는 장치로 하여금 이러한 요소를 포함하도록 할 뿐만 아니라, 명시적으로 열거되지 않은 다른 요소를 포함하도록 할 수도 있으며, 또는 이러한 프로세스, 방법, 물품, 또는 장치에 고유한 요소를 포함하도록 한다. 더 많은 제한이 없는 경우, 문구 "하나의 무엇을 포함"에 의해 제한된 요소는, 상기 요소가 포함된 과정, 방법, 물품 또는 장치에 다른 동일한 요소가 있다는 것을 배제하지 않는다.
상기 본 출원 실시예의 번호는 다만 설명을 위한 것일 뿐, 실시예의 우열을 나타내는 것은 아니다.
상기 실시형태의 설명을 통해, 당업자는 상기 실시예의 방법이 소프트웨어에 필요한 범용 하드웨어 플랫폼을 추가하는 방식으로 구현될 수 있으며, 물론 하드웨어를 통해서도 구현될 수 있으나, 많은 경우 전자는 더 바람직한 구현 방식이다. 이러한 이해에 기반하여, 본 출원의 기술방안은 본질적으로 또는 종래 기술에 기여하는 부분은 소프트웨어 제품의 형태로 구현될 수 있고, 상기 컴퓨터 소프트웨어 제품은 하나의 저장 매체(예컨대 ROM/RAM, 자기 디스크, 광 디스크)에 저장되고, 하나의 단말(휴대폰, 컴퓨터, 서버, 또는 네트워크 기기 등)가 본 발명의 각 실시예에 따른 방법을 실행하도록 하는 여러 명령어를 포함한다.
위에서 도면을 참조하여 본 출원의 실시예를 설명하였지만, 본 출원은 전술한 상세한 설명에 제한되지 않고, 전술한 특정 실시예는 예시일뿐 제한하지 않으며, 본 출원의 동기하에, 당업자는 본 출원의 목적 및 청구 범위의 보호범위를 벗어나지 않고 다양한 형태를 만들 수 있으며, 이들은 모두 본 출원의 보호범위에 속한다.
본 출원의 실시예는 이미지 요소의 예측 방법, 인코더 및 컴퓨터 저장 매체를 제공하고, 이미지 요소의 코딩에 있어서, 색도 요소에 대해 코딩을 수행하고, 코딩된 색도 요소에 따라, 휘도 요소의 예측값을 획득하는 것을 포함하며, 휘도 요소 예측의 정확성을 향상할 수 있으므로, 휘도 요소의 예측값이 실제 휘도 요소의 픽셀값에 더욱 접근하도록 한다.

Claims (25)

  1. 이미지 요소의 예측 방법으로서,
    이미지 요소의 코딩에 있어서, 색도 요소에 대해 코딩을 수행하는 단계; 및
    코딩된 색도 요소에 따라, 휘도 요소의 예측값을 획득하는 단계를 포함하는 것을 특징으로 하는
    이미지 요소의 예측 방법.
  2. 제1항에 있어서,
    상기 코딩된 색도 요소에 따라, 휘도 요소의 예측값을 획득하는 단계는,
    상기 코딩된 색도 요소에서의 제1 색도 요소 및 상기 코딩된 색도 요소에서의 제2 색도 요소에 따라 예측하여, 상기 휘도 요소의 예측값을 얻는 단계를 포함하고,
    상기 제1 색도 요소가 블루 색도 요소일 경우, 상기 제2 색도 요소는 레드 색도 요소이고; 상기 제1 색도 요소가 레드 색도 요소일 경우, 상기 제2 색도 요소는 블루 색도 요소인 것을 특징으로 하는
    이미지 요소의 예측 방법.
  3. 제2항에 있어서,
    상기 코딩된 색도 요소에서의 제1 색도 요소 및 상기 코딩된 색도 요소에서의 제2 색도 요소에 따라 예측하여, 상기 휘도 요소의 예측값을 얻는 단계는,
    현재 이미지 블록에 대해, 상기 제1 색도 요소의 재구축값, 상기 제2 색도 요소의 재구축값, 상기 제1 색도 요소의 인접 기준값, 상기 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값을 획득하는 단계;
    상기 제1 색도 요소의 재구축값, 상기 제1 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라 예측하여, 상기 휘도 요소의 제1 예측값을 얻는 단계;
    상기 제2 색도 요소의 재구축값, 상기 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라 예측하여, 상기 휘도 요소의 제2 예측값을 얻는 단계; 및
    상기 제1 예측값 및 상기 제2 예측값에 따라, 상기 휘도 요소의 예측값을 결정하는 단계를 포함하는 것을 특징으로 하는
    이미지 요소의 예측 방법.
  4. 제3항에 있어서,
    상기 제1 색도 요소의 재구축값, 상기 제1 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라 예측하여, 상기 휘도 요소의 제1 예측값을 얻는 단계는,
    상기 제1 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라, 예측 모델의 파라미터를 결정하는 단계; 및
    상기 제1 색도 요소의 재구축값에 따라, 상기 예측 모델을 호출하여, 상기 제1 예측값을 얻는 단계를 포함하는 것을 특징으로 하는
    이미지 요소의 예측 방법.
  5. 제3항에 있어서,
    상기 제2 색도 요소의 재구축값, 상기 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라 예측하여, 상기 휘도 요소의 제2 예측값을 얻는 단계는,
    상기 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라, 예측 모델의 파라미터를 결정하는 단계; 및
    상기 제2 색도 요소의 재구축값에 따라, 상기 예측 모델을 호출하여, 상기 제2 예측값을 얻는 단계를 포함하는 것을 특징으로 하는
    이미지 요소의 예측 방법.
  6. 제3항에 있어서,
    상기 제1 예측값 및 상기 제2 예측값에 따라, 상기 휘도 요소의 예측값을 결정하는 단계는,
    상기 제1 예측값의 가중치 및 상기 제2 예측값의 가중치를 획득하는 단계; 및
    상기 제1 예측값의 가중치 및 상기 제2 예측값의 가중치에 따라, 상기 제1 예측값 및 상기 제2 예측값에 대해 가중 합산을 수행하여, 상기 휘도 요소의 예측값을 얻는 단계를 포함하는 것을 특징으로 하는
    이미지 요소의 예측 방법.
  7. 제6항에 있어서,
    상기 제1 예측값의 가중치 및 상기 제2 예측값의 가중치를 획득하는 단계는,
    기설정된 가중치 그룹으로부터 한 그룹의 가중치를 선택하고, 한 그룹의 가중치에서의 하나의 값을 상기 제1 예측값의 가중치로 결정하며, 한 그룹의 가중치에서의 다른 하나의 값을 상기 제2 예측값의 가중치로 결정하는 단계를 포함하는 것을 특징으로 하는
    이미지 요소의 예측 방법.
  8. 제3항에 있어서,
    현재 이미지 블록에 대해, 상기 제1 색도 요소의 재구축값, 상기 제2 색도 요소의 재구축값, 상기 제1 색도 요소의 인접 기준값, 상기 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값을 획득한 후, 상기 이미지 요소의 예측 방법은,
    상기 색도 요소의 해상도가 상기 휘도 요소의 해상도보다 작을 경우, 상기 제1 색도 요소의 재구축값 및 상기 제2 색도 요소의 재구축값에 대해 각각 업샘플링 처리를 수행하여, 상기 제1 색도 요소 처리된 재구축값 및 상기 제2 색도 요소 처리된 재구축값을 얻는 단계를 더 포함하고,
    이에 상응하게, 상기 제1 색도 요소의 재구축값, 상기 제1 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라 예측하여, 상기 휘도 요소의 제1 예측값을 얻는 단계는,
    상기 제1 색도 요소 처리된 재구축값, 상기 제1 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라 예측하여, 상기 휘도 요소의 제1 예측값을 얻는 단계를 포함하며,
    이에 상응하게, 상기 제2 색도 요소의 재구축값, 상기 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라 예측하여, 상기 휘도 요소의 제1 예측값을 얻는 단계는,
    상기 제2 색도 요소 처리된 재구축값, 상기 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라 예측하여, 상기 휘도 요소의 제1 예측값을 얻는 단계를 포함하는 것을 특징으로 하는
    이미지 요소의 예측 방법.
  9. 제3항에 있어서,
    상기 제1 예측값 및 상기 제2 예측값에 따라, 상기 휘도 요소의 예측값을 결정하기 전, 상기 이미지 요소의 예측 방법은,
    상기 색도 요소의 해상도가 상기 휘도 요소의 해상도보다 작을 경우, 상기 제1 예측값 및 상기 제2 예측값에 대해 각각 업샘플링 처리를 수행하여, 처리된 제1 예측값 및 처리된 제2 예측값을 얻는 단계를 더 포함하고,
    이에 상응하게, 상기 제1 예측값 및 상기 제2 예측값에 따라, 상기 휘도 요소의 예측값을 결정하는 단계는,
    처리된 제1 예측값 및 처리된 제2 예측값에 따라, 상기 휘도 요소의 예측값을 결정하는 단계를 포함하는 것을 특징으로 하는
    이미지 요소의 예측 방법.
  10. 제3항에 있어서,
    상기 제1 예측값 및 상기 제2 예측값에 따라, 상기 휘도 요소의 예측값을 결정한 후, 상기 이미지 요소의 예측 방법은,
    상기 색도 요소의 해상도가 상기 휘도 요소의 해상도보다 작을 경우, 상기 휘도 요소의 예측값에 대해 업샘플링 처리를 수행하여, 처리된 휘도 요소의 예측값을 얻는 단계를 더 포함하는 것을 특징으로 하는
    이미지 요소의 예측 방법.
  11. 이미지 요소의 예측 방법으로서,
    이미지의 디코딩에 있어서, 색도 요소에 대해 디코딩을 수행하는 단계; 및
    디코딩된 색도 요소에 따라, 휘도 요소의 예측값을 획득하는 단계를 포함하는 것을 특징으로 하는
    이미지 요소의 예측 방법.
  12. 제11항에 있어서,
    상기 디코딩된 색도 요소에 따라, 휘도 요소의 예측값을 획득하는 단계는,
    상기 디코딩된 색도 요소에서의 제1 색도 요소 및 상기 디코딩된 색도 요소에서의 제2 색도 요소에 따라 예측하여, 상기 휘도 요소의 예측값을 얻는 단계를 포함하고,
    상기 제1 색도 요소가 블루 색도 요소일 경우, 상기 제2 색도 요소는 레드 색도 요소이고; 상기 제1 색도 요소가 레드 색도 요소일 경우, 상기 제2 색도 요소는 블루 색도 요소인 것을 특징으로 하는
    이미지 요소의 예측 방법.
  13. 제12항에 있어서,
    상기 디코딩된 색도 요소에서의 제1 색도 요소 및 상기 디코딩된 색도 요소에서의 제2 색도 요소에 따라 예측하여, 상기 휘도 요소의 예측값을 얻는 단계는,
    현재 이미지 블록에 대해, 상기 제1 색도 요소의 재구축값, 상기 제2 색도 요소의 재구축값, 상기 제1 색도 요소의 인접 기준값, 상기 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값을 획득하는 단계;
    상기 제1 색도 요소의 재구축값, 상기 제1 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라 예측하여, 상기 휘도 요소의 제1 예측값을 얻는 단계;
    상기 제2 색도 요소의 재구축값, 상기 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라 예측하여, 상기 휘도 요소의 제2 예측값을 얻는 단계; 및
    상기 제1 예측값 및 상기 제2 예측값에 따라, 상기 휘도 요소의 예측값을 결정하는 단계를 포함하는 것을 특징으로 하는
    이미지 요소의 예측 방법.
  14. 제13항에 있어서,
    상기 제1 색도 요소의 재구축값, 상기 제1 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라 예측하여, 상기 휘도 요소의 제1 예측값을 얻는 단계는,
    상기 제1 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라, 예측 모델의 파라미터를 결정하는 단계; 및
    상기 제1 색도 요소의 재구축값에 따라, 상기 예측 모델에 호출하여, 상기 제1 예측값을 얻는 단계를 포함하는 것을 특징으로 하는
    이미지 요소의 예측 방법.
  15. 제13항에 있어서,
    상기 제2 색도 요소의 재구축값, 상기 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라 예측하여, 상기 휘도 요소의 제2 예측값을 얻는 단계는,
    상기 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라, 예측 모델의 파라미터를 결정하는 단계; 및
    상기 제2 색도 요소의 재구축값에 따라, 상기 예측 모델에 호출되어, 상기 제2 예측값을 얻는 단계를 포함하는 것을 특징으로 하는
    이미지 요소의 예측 방법.
  16. 제13항에 있어서,
    상기 제1 예측값 및 상기 제2 예측값에 따라, 상기 휘도 요소의 예측값을 결정하는 단계는,
    상기 제1 예측값의 가중치 및 상기 제2 예측값의 가중치를 획득하는 단계; 및
    상기 제1 예측값의 가중치 및 상기 제2 예측값의 가중치에 따라, 상기 제1 예측값 및 상기 제2 예측값에 대해 가중 합산을 수행하여, 상기 휘도 요소의 예측값을 얻는 단계를 포함하는 것을 특징으로 하는
    이미지 요소의 예측 방법.
  17. 제16항에 있어서,
    상기 제1 예측값의 가중치 및 상기 제2 예측값의 가중치를 획득하는 단계는,
    기설정된 가중치 그룹으로부터 한 그룹의 가중치를 선택하고, 한 그룹의 가중치에서의 하나의 값을 상기 제1 예측값의 가중치로 결정하며, 한 그룹의 가중치에서의 다른 하나의 값을 상기 제2 예측값의 가중치로 결정하는 단계를 포함하는 것을 특징으로 하는
    이미지 요소의 예측 방법.
  18. 제13항에 있어서,
    현재 이미지 블록에 대해, 상기 제1 색도 요소의 재구축값, 상기 제2 색도 요소의 재구축값, 상기 제1 색도 요소의 인접 기준값, 상기 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값을 획득한 후, 상기 이미지 요소의 예측 방법은,
    상기 색도 요소의 해상도가 상기 휘도 요소의 해상도보다 작을 경우, 상기 제1 색도 요소의 재구축값 및 상기 제2 색도 요소의 재구축값에 대해 각각 업 샘플링 처리를 수행하여, 상기 제1 색도 요소 처리된 재구축값 및 상기 제2 색도 요소 처리된 재구축값을 얻는 단계를 더 포함하고;
    이에 상응하게, 상기 제1 색도 요소의 재구축값, 상기 제1 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라 예측하여, 상기 휘도 요소의 제1 예측값을 얻는 단계는,
    상기 제1 색도 요소 처리된 재구축값, 상기 제1 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라 예측하여, 상기 휘도 요소의 제1 예측값을 얻는 단계를 포함하며,
    이에 상응하게, 상기 제2 색도 요소의 재구축값, 상기 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라 예측하여, 상기 휘도 요소의 제1 예측값을 얻는 단계는,
    상기 제2 색도 요소 처리된 재구축값, 상기 제2 색도 요소의 인접 기준값 및 상기 휘도 요소의 인접 기준값에 따라 예측하여, 상기 휘도 요소의 제1 예측값을 얻는 단계를 포함하는 것을 특징으로 하는
    이미지 요소의 예측 방법.
  19. 제13항에 있어서,
    상기 제1 예측값 및 상기 제2 예측값에 따라, 상기 휘도 요소의 예측값을 결정하기 전, 상기 이미지 요소의 예측 방법은,
    상기 색도 요소의 해상도가 상기 휘도 요소의 해상도보다 작을 경우, 상기 제1 예측값 및 상기 제2 예측값에 대해 각각 업 샘플링 처리를 수행하여, 처리된 제1 예측값 및 처리된 제2 예측값을 얻는 단계를 더 포함하고,
    이에 상응하게, 상기 제1 예측값 및 상기 제2 예측값에 따라, 상기 휘도 요소의 예측값을 결정하는 단계는,
    처리된 제1 예측값 및 처리된 제2 예측값에 따라, 상기 휘도 요소의 예측값을 결정하는 단계를 포함하는 것을 특징으로 하는
    이미지 요소의 예측 방법.
  20. 제13항에 있어서,
    상기 제1 예측값 및 상기 제2 예측값에 따라, 상기 휘도 요소의 예측값을 결정한 후, 상기 이미지 요소의 예측 방법은,
    상기 색도 요소의 해상도가 상기 휘도 요소의 해상도보다 작을 경우, 상기 휘도 요소의 예측값에 대해 업 샘플링 처리를 수행하여, 처리된 휘도 요소의 예측값을 얻는 단계를 더 포함하는 것을 특징으로 하는
    이미지 요소의 예측 방법.
  21. 인코더로서,
    이미지 요소의 코딩에 있어서, 색도 요소에 대해 코딩을 수행하도록 구성된 코딩 모듈; 및
    코딩된 색도 요소에 따라, 휘도 요소의 예측값을 획득하도록 구성된 제1 획득 모듈을 포함하는 것을 특징으로 하는
    인코더.
  22. 디코더로서,
    이미지 요소의 디코딩에 있어서, 색도 요소에 대해 디코딩을 수행하도록 구성된 디코딩 모듈; 및
    디코딩된 색도 요소에 따라, 휘도 요소의 예측값을 획득하도록 구성된 제2 획득 모듈을 포함하는 것을 특징으로 하는
    디코더.
  23. 인코더로서,
    프로세서 및 상기 프로세서가 실행 가능한 명령어를 저장하는 저장 매체를 포함하고, 상기 저장 매체는 통신 버스를 통해 상기 프로세서에 의존하여 작업을 실행하고, 상기 명령어가 상기 프로세서에 의해 실행될 경우, 제1항 내지 제10항 중 어느 한 항의 이미지 요소의 예측 방법을 수행하는 것을 특징으로 하는
    인코더.
  24. 디코더로서,
    프로세서 및 상기 프로세서가 실행 가능한 명령어를 저장하는 저장 매체를 포함하고, 상기 저장 매체는 통신 버스를 통해 상기 프로세서에 의존하여 작업을 실행하고, 상기 명령어가 상기 프로세서에 의해 실행될 경우, 제11항 내지 제20항 중 어느 한 항의 이미지 요소의 예측 방법을 수행하는 것을 특징으로 하는
    디코더.
  25. 컴퓨터 판독 가능한 저장 매체로서,
    실행 가능한 명령어가 저장되고, 상기 실행 가능한 명령어가 하나 또는 복수 개의 프로세서에 의해 실행될 경우, 상기 프로세서는 상기 제1항 내지 제10항 중 어느 한 항의 이미지 요소의 예측 방법 또는 상기 제11항 내지 제20항 중 어느 한 항의 이미지 요소의 예측 방법을 실행하는 것을 특징으로 하는
    컴퓨터 판독 가능한 저장 매체.
KR1020217034441A 2019-03-25 2019-12-09 이미지 요소의 예측 방법, 인코더, 디코더 및 컴퓨터 저장 매체 KR20210141683A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962823621P 2019-03-25 2019-03-25
US62/823,621 2019-03-25
PCT/CN2019/124114 WO2020192180A1 (zh) 2019-03-25 2019-12-09 图像分量的预测方法、编码器、解码器及计算机存储介质

Publications (1)

Publication Number Publication Date
KR20210141683A true KR20210141683A (ko) 2021-11-23

Family

ID=72608524

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217034441A KR20210141683A (ko) 2019-03-25 2019-12-09 이미지 요소의 예측 방법, 인코더, 디코더 및 컴퓨터 저장 매체

Country Status (6)

Country Link
US (1) US12101495B2 (ko)
EP (1) EP3930329A4 (ko)
JP (1) JP2022528333A (ko)
KR (1) KR20210141683A (ko)
CN (2) CN113840144B (ko)
WO (1) WO2020192180A1 (ko)

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5619590A (en) * 1994-10-06 1997-04-08 Eastman Kodak Company System for electronic image signal processing to provide a tonescale corrected full resolution luminance and two half resolution chrominance signals
JP3791922B2 (ja) * 2002-09-06 2006-06-28 富士通株式会社 動画像復号化装置及び方法
CN1859576A (zh) 2005-10-11 2006-11-08 华为技术有限公司 对空间分层编码视频图象的上采样方法及其系统
CN101335902B (zh) * 2007-06-25 2010-06-02 华为技术有限公司 视频编解码中的加权预测方法和装置
US9693070B2 (en) * 2011-06-24 2017-06-27 Texas Instruments Incorporated Luma-based chroma intra-prediction for video coding
CN103096055B (zh) 2011-11-04 2016-03-30 华为技术有限公司 一种图像信号帧内预测及解码的方法和装置
CN109218730B (zh) * 2012-01-19 2023-07-28 华为技术有限公司 用于lm帧内预测的参考像素缩减
JP2015508250A (ja) * 2012-01-19 2015-03-16 マグナム セミコンダクター, インコーポレイテッド 適応低解像度アップデートモードを提供するための方法および機器
WO2014163462A1 (ko) 2013-04-05 2014-10-09 삼성전자 주식회사 필터링과 관련하여 비디오의 부호화 및 복호화를 수행하는 방법과 그 장치
US10171821B2 (en) * 2013-07-16 2019-01-01 Samsung Electronics Co., Ltd. Scalable video encoding method and apparatus and scalable video decoding method and apparatus using up-sampling filter accompanied by conversion of bit depth and color format
CN105874793B (zh) * 2013-10-07 2019-10-11 Vid拓展公司 用于多层视频编码的组合可分级性处理的方法和设备
WO2015053112A1 (ja) * 2013-10-11 2015-04-16 ソニー株式会社 復号装置および復号方法、並びに、符号化装置および符号化方法
MX360669B (es) * 2014-03-06 2018-11-13 Samsung Electronics Co Ltd Método de decodificación de imágenes y dispositivo para el mismo, y método de codificación de imágenes y dispositivo para el mismo.
GB201500719D0 (en) 2015-01-15 2015-03-04 Barco Nv Method for chromo reconstruction
US9854201B2 (en) * 2015-01-16 2017-12-26 Microsoft Technology Licensing, Llc Dynamically updating quality to higher chroma sampling rate
US10321140B2 (en) * 2015-01-22 2019-06-11 Mediatek Singapore Pte. Ltd. Method of video coding for chroma components
US10455249B2 (en) * 2015-03-20 2019-10-22 Qualcomm Incorporated Downsampling process for linear model prediction mode
US10200719B2 (en) * 2015-11-25 2019-02-05 Qualcomm Incorporated Modification of transform coefficients for non-square transform units in video coding
WO2017139937A1 (en) * 2016-02-18 2017-08-24 Mediatek Singapore Pte. Ltd. Advanced linear model prediction for chroma coding
US10484712B2 (en) * 2016-06-08 2019-11-19 Qualcomm Incorporated Implicit coding of reference line index used in intra prediction
US10326986B2 (en) * 2016-08-15 2019-06-18 Qualcomm Incorporated Intra video coding using a decoupled tree structure
US10419757B2 (en) * 2016-08-31 2019-09-17 Qualcomm Incorporated Cross-component filter
US10652575B2 (en) * 2016-09-15 2020-05-12 Qualcomm Incorporated Linear model chroma intra prediction for video coding
JP2018107692A (ja) 2016-12-27 2018-07-05 Kddi株式会社 動画像復号装置、動画像復号方法、動画像符号化装置、動画像符号化方法及びコンピュータ可読記録媒体
US11025903B2 (en) * 2017-01-13 2021-06-01 Qualcomm Incorporated Coding video data using derived chroma mode
WO2018221631A1 (ja) 2017-06-02 2018-12-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法および復号方法
US10764587B2 (en) 2017-06-30 2020-09-01 Qualcomm Incorporated Intra prediction in video coding
CN117440151A (zh) 2017-07-06 2024-01-23 Lx 半导体科技有限公司 图像解码方法、图像编码方法、发送方法和数字存储介质
CN109274969B (zh) * 2017-07-17 2020-12-22 华为技术有限公司 色度预测的方法和设备
CN118413666A (zh) * 2017-11-28 2024-07-30 Lx 半导体科技有限公司 图像编码/解码方法、图像数据的传输方法和存储介质
GB2571313B (en) * 2018-02-23 2022-09-21 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction
CN116708833A (zh) * 2018-07-02 2023-09-05 Lg电子株式会社 编解码和发送方法及存储介质
CA3213840A1 (en) * 2018-07-16 2020-01-23 Huawei Technologies Co., Ltd. Video encoder, video decoder, and corresponding encoding and decoding methods
AU2018436324B2 (en) * 2018-08-09 2022-12-15 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Video image component prediction method and apparatus, and computer storage medium
KR20200028856A (ko) * 2018-09-07 2020-03-17 김기백 인트라 예측을 이용한 영상 부호화/복호화 방법 및 장치
JP7391958B2 (ja) * 2018-11-08 2023-12-05 オッポ広東移動通信有限公司 ビデオ信号符号化/復号方法及び前記方法に用いられる機器
EP3883243B1 (en) * 2019-01-02 2024-07-24 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Intra-frame chromaticity prediction method and decoder
CN112640449A (zh) * 2019-01-10 2021-04-09 Oppo广东移动通信有限公司 图像解码方法、解码器及计算机存储介质
KR20210129151A (ko) * 2019-03-07 2021-10-27 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 루프 필터링 구현 방법 및 장치
WO2022106013A1 (en) * 2020-11-19 2022-05-27 Huawei Technologies Co., Ltd. Method for chroma subsampled formats handling in machine-learning-based picture coding

Also Published As

Publication number Publication date
WO2020192180A1 (zh) 2020-10-01
EP3930329A1 (en) 2021-12-29
US12101495B2 (en) 2024-09-24
CN113840144B (zh) 2023-06-02
US20220007042A1 (en) 2022-01-06
CN113840144A (zh) 2021-12-24
CN113412621A (zh) 2021-09-17
JP2022528333A (ja) 2022-06-10
EP3930329A4 (en) 2022-07-20

Similar Documents

Publication Publication Date Title
CN113784128B (zh) 图像预测方法、编码器、解码器以及存储介质
KR20210042355A (ko) 비디오 이미지 성분의 예측 방법, 장치 및 컴퓨터 저장 매체
JP2023510666A (ja) 画像コンポーネント予測方法、エンコーダ、デコーダ及び記憶媒体
CN116472707A (zh) 图像预测方法、编码器、解码器以及计算机存储介质
JP2023113908A (ja) 予測デコーディング方法、装置及びコンピュータ記憶媒体
KR20220061908A (ko) 예측값의 확정 방법, 인코더, 디코더 및 컴퓨터 저장 매체
US20220014765A1 (en) Method for picture prediction, encoder, decoder, and storage medium
KR20210141683A (ko) 이미지 요소의 예측 방법, 인코더, 디코더 및 컴퓨터 저장 매체
JP7305769B2 (ja) 予測方向の決定方法、デコーダ及びコンピュータ記憶媒体
US11843724B2 (en) Intra prediction method and apparatus, and computer-readable storage medium
CN113261279B (zh) 预测值的确定方法、编码器、解码器以及存储介质
JP2024147829A (ja) 画像予測方法、エンコーダ、デコーダ及び記憶媒体