KR20210139328A - 화상 예측 방법, 인코더, 디코더 및 저장 매체 - Google Patents

화상 예측 방법, 인코더, 디코더 및 저장 매체 Download PDF

Info

Publication number
KR20210139328A
KR20210139328A KR1020217032518A KR20217032518A KR20210139328A KR 20210139328 A KR20210139328 A KR 20210139328A KR 1020217032518 A KR1020217032518 A KR 1020217032518A KR 20217032518 A KR20217032518 A KR 20217032518A KR 20210139328 A KR20210139328 A KR 20210139328A
Authority
KR
South Korea
Prior art keywords
current block
component
picture component
predicted
value
Prior art date
Application number
KR1020217032518A
Other languages
English (en)
Inventor
솨이 완
쥔옌 훠
옌줘 마
웨이 장
Original Assignee
광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 filed Critical 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드
Publication of KR20210139328A publication Critical patent/KR20210139328A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 출원의 실시예는 화상 예측 방법, 인코더, 디코더 및 저장 매체를 개시한다. 상기 방법은, 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하는 것과, 초기 예측값에 대하여 필터링 처리를 수행하여 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득하는 것을 포함한다.

Description

화상 예측 방법, 인코더, 디코더 및 저장 매체
본 출원의 실시예는 비디오 부호화 및 복호화 기술 분야에 관한 것으로, 보다 구체적으로 화상 예측 방법, 인코더, 디코더 및 저장 매체에 관한 것이다.
최신 비디오 코딩 표준 H. 266/다용도 비디오 코딩(versatile video coding, VVC)는 컴포넌트 간 예측의 존재를 허용한다. CCLM 예측(cross-component linear model prediction)은 전형적인 컴포넌트 간 예측 기술 중 하나이다. 컴포넌트 간 예측 기술을 이용하여 하나의 컴포넌트를 통해 다른 컴포넌트(또는 그 잔차)를 예측할 수 있으며, 예를 들면, 휘도 컴포넌트(luma component)를 통해 색도 컴포넌트(chroma component)를 예측할 수 있거나, 또는 색도 컴포넌트를 통해 휘도 컴포넌트를 예측할 수 있거나, 또는 색도 컴포넌트를 통해 색도 컴포넌트를 예측할 수도 있다.
서로 다른 컴포넌트는 서로 다른 통계 특성을 갖기 때문에, 서로 다른 컴포넌트의 통계 특성에 차이가 존재한다. 그러나 컴포넌트를 예측할 때, 기존의 컴포넌트 간 예측 기술은 전면적으로 고려하지 않기 때문에 예측 효율이 낮다.
본 출원의 실시예는 화상 예측 방법, 인코더, 디코더 및 저장 매체를 제공한다. 컴포넌트 간 예측을 수행한 다음에 각 화상 컴포넌트의 통계 특성의 균형을 이룸으로써 예측 효율을 향상시킬뿐만 아니라, 비디오 화상의 부호화 및 복호화 효율도 향상시킨다.
본 출원의 실시예에 따른 기술적 방안은 다음과 같다.
제 1 양태에서, 본 출원의 실시예는 인코더 또는 디코더에 적용 가능한 화상 예측 방법을 제공한다. 상기 방법은,
예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하는 것과,
초기 예측값에 대하여 필터링 처리를 수행하여 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득하는 것을 포함한다.
제 2 양태에서, 본 출원의 실시예는 인코더를 제공한다. 인코더는 제 1 예측 유닛과 제 1 처리 유닛을 포함한다. 제 1 예측 유닛은 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하는 데에 사용된다. 제 1 처리 유닛은 초기 예측값에 대하여 필터링 처리를 수행하여 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득하는 데에 사용된다.
제 3 양태에서, 본 출원의 실시예는 인코더를 제공한다. 인코더는 1 메모리 및 제 1 프로세서를 포함한다. 제 1 메모리는 제 1 프로세서에서 실행할 수 있는 컴퓨터 프로그램을 저장하는 데에 사용된다. 제 1 프로세서는 컴퓨터 프로그램을 실행함으로써 제 1 양태에 기재된 방법을 실행하는 데에 사용된다.
제 4 양태에서, 본 출원의 실시예는 디코더를 제공한다. 디코더는 제 2 예측 유닛 및 제 2 처리 유닛을 포함한다. 제 2 예측 유닛은 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하는 데에 사용된다. 제 2 처리 유닛은 초기 예측값에 대하여 필터링 처리를 수행하여 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득하는 데에 사용된다.
제 5 양태에서, 본 출원의 실시예는 디코더를 제공한다. 디코더는 제 2 메모리 및 제 2 프로세서를 포함한다. 제 2 메모리는 제 2 프로세서에서 실행할 수 있는 컴퓨터 프로그램을 저장하는 데에 사용된다. 제 2 프로세서는 컴퓨터 프로그램을 실행함으로써 제 1 양태에 기재된 방법을 실행하는 데에 사용된다.
제 6 양태에서, 본 출원의 실시예는 컴퓨터 저장 매체를 제공한다. 컴퓨터 저장 매체에 화상 예측 프로그램이 저장되어 있다. 화상 예측 프로그램이 제 1 프로세서 또는 제 2 프로세서에 의해 실행되면 제 1 양태에 기재된 방법을 실현한다.
본 출원의 실시예는 화상 예측 방법, 인코더, 디코더 및 저장 매체를 제공한다. 우선, 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득한다. 다음, 초기 예측값에 대하여 필터링 처리를 수행하여 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득한다. 이렇게 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 예측한 다음에, 계속 상기 적어도 하나의 화상 컴포넌트에 대하여 필터링 처리를 수행함으로써, 컴포넌트 간 예측을 수행한 다음에 각 화상 컴포넌트의 통계 특성의 균형을 이룰 수 있다. 따라서, 예측 효율을 향상시킬뿐만 아니라, 획득된 목표 예측값이 진실값에 더욱 가깝기 때문에 화상 컴포넌트의 예측 잔차(predicted residual)는 비교적 작고, 부호화 및 복호화 과정에서 전송되는 비트 레이트가 적으며, 비디오 화상의 부호화 및 복호화 효율을 향상시킬 수 있다.
도 1은 본 출원의 실시예에 따른 기존의 컴포넌트 간 예측 아키텍처의 구조를 나타내는 도면이다.
도 2는 본 출원의 실시예에 따른 비디오 인코딩 시스템의 블록도이다.
도 3은 본 출원의 실시예에 따른 비디오 디코딩 시스템의 블록도이다.
도 4는 본 출원의 실시예에 따른 화상 예측 방법의 흐름도이다.
도 5는 본 출원의 실시예에 따른 개선된 컴포넌트 간 예측 아키텍처의 구조를 나타내는 도면이다.
도 6은 본 출원의 실시예에 따른 인코더의 구조를 나타내는 도면이다.
도 7은 본 출원의 실시예에 따른 인코더의 구체적인 하드웨어 구조를 나타내는 도면이다.
도 8은 본 출원의 실시예에 따른 디코더의 구조를 나타내는 도면이다.
도 9는 본 출원의 실시예에 따른 디코더의 구체적인 하드웨어 구조를 나타내는 도면이다.
본 출원의 실시예의 특징 및 기술적 내용을 상세하게 이해하기 위하여, 아래 도면을 참조하여 본 출원의 실시예의 기술적 방안을 상세하게 설명하며, 첨부된 도면은 단지 설명하는 데에 사용되며, 본 출원을 한정하고자 하는 것은 아니다.
비디오 화상에 있어서, 일반적으로 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트로 코딩 블록을 나타낸다. 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트는 각각 휘도 컴포넌트, 청색 색도 컴포넌트 및 적색 색도 컴포넌트이다. 구체적으로, 휘도 컴포넌트는 일반적으로 기호 Y로 나타내고, 청색 색도 컴포넌트는 일반적으로 기호 Cb 또는 U로 나타내며, 적색 색도 컴포넌트는 일반적으로 기호 Cr 또는 V로 나타낸다. 이렇게 비디오 화상은 YCbCr 또는 YUV 포맷으로 나타낼 수 있다.
본 출원의 실시예에 있어서, 제 1 화상 컴포넌트는 휘도 컴포넌트일 수 있고, 제 2 화상 컴포넌트는 청색 색도 컴포넌트일 수 있으며, 제 3 화상 컴포넌트는 적색 색도 컴포넌트일 수 있으며, 본 출원의 실시예는 이것에 대하여 구체적으로 한정하지 않는다.
부호화 및 복호화 효율을 향상시키기 위하여, H. 266/VCC는 CCLM 컴포넌트 간 예측 기술을 제출하였다. CCLM 컴포넌트 간 예측 기술로 휘도 컴포넌트를 통해 색도 컴포넌트를 예측할 수 있을 뿐만 아니라(즉 제 1 화상 컴포넌트를 통해 제 2 화상 컴포넌트를 예측할 수 있거나, 또는 제 1 화상 컴포넌트를 통해 제 3 화상 컴포넌트를 예측할 수 있다), 색도 컴포넌트를 통해 휘도 컴포넌트를 예측할 수도 있으며(즉 제 2 화상 컴포넌트를 통해 제 1 화상 컴포넌트를 예측할 수 있거나, 또는 제 3 화상 컴포넌트를 통해 제 1 화상 컴포넌트를 예측할 수도 있다), 심지어 색도 컴포넌트 간의 예측을 실현할 수 있다(즉 제 2 화상 컴포넌트를 통해 제 3 화상 컴포넌트를 예측할 수 있거나, 또는 제 3 화상 컴포넌트를 통해 제 2 화상 컴포넌트를 예측할 수도 있다). 본 출원의 실시예에 있어서, 이하, 제 1 화상 컴포넌트를 통해 제 2 화상 컴포넌트를 예측하는 것을 예로써 설명하지만, 본 출원의 실시예의 기술 방안은 다른 화상 컴포넌트를 예측하는 데에 적용할 수도 있다.
도 1은 본 관련 기술에 따른 기존의 컴포넌트 간 예측 아키텍처의 구조를 나타내는 도면이다. 도 1에 도시된 바와 같이, 제 1 화상 컴포넌트(예를 들어, Y 컴포넌트로 나타낸다)를 통해 제 2 화상 컴포넌트(예를 들어, U 컴포넌트로 나타낸다)를 예측한다. 비디오 화상이 사용하는 YUV 포맷이 4:2:0 포맷인 경우, Y 컴포넌트와 U 컴포넌트의 해상도는 다르다. 이런 경우에 예측하려는 컴포넌트의 목표 해상도에 도달하기 위해 Y 컴포넌트에 대하여 다운 샘플링을 수행하거나 또는 U 컴포넌트에 대하여 업 샘플링을 수행하는 것이 필요하며, 동일한 해상도로 컴포넌트 간 예측을 수행할 수 있다. 본 예시에서, Y 컴포넌트를 통해 제 3 화상 컴포넌트(예를 들면, V 컴포넌트로 나타낸다)를 예측하는 방법은 상술한 것과 같다.
도 1에 있어서, 기존의 컴포넌트 간 예측 아키텍처(10)는 코딩 블록의 Y 컴포넌트(110), 해상도 조정 유닛(120), 코딩 블록의 Y1 컴포넌트(130), 코딩 블록의 U 컴포넌트(140), 예측 모델(150) 및 컴포넌트 간 예측 유닛(160)을 포함한다. 비디오 화상의 Y 컴포넌트는 2NХ2N 크기의 코딩 블록의 Y 컴포넌트(110)로 나타낸다. 여기서 더 굵게 표시된 비교적 큰 방틀은 코딩 블록의 Y 컴포넌트(110)를 강조 표시하는 데에 사용되며, 주위의 회색 실심 원형은 코딩 블록의 Y 컴포넌트(110)의 인접한 참조값
Figure pct00001
을 나타내는 데에 사용된다. 비디오 화상의 U 컴포넌트는 NХN 크기의 코딩 블록의 U 컴포넌트(140)로 나타낸다. 여기서 더 굵게 표시된 비교적 큰 방틀은 코딩 블록의 U 컴포넌트(140)를 강조 표시하는 데에 사용되며, 주위의 회색 실심 원형은 코딩 블록의 U 컴포넌트(140)의 인접한 참조값
Figure pct00002
을 나타내는 데에 사용된다. Y 컴포넌트와 U 컴포넌트의 해상도가 다르기 때문에, 해상도 조정 유닛(120)에 의해 Y 컴포넌트의 해상도를 조정하여 NХN 크기의 코딩 블록의 Y1 컴포넌트(130)를 획득할 필요가 있다. 코딩 블록의 Y1 컴포넌트(130)에 대하여, 더 굵게 표시된 비교적 큰 방틀은 코딩 블록의 Y1 컴포넌트(130)를 강조 표시하는 데에 사용되며, 주위의 회색 실심 원형은 코딩 블록의 Y1 컴포넌트(130)의 인접한 참조값
Figure pct00003
을 나타내는 데에 사용된다. 코딩 블록의 Y1 컴포넌트(130)의 인접한 참조값
Figure pct00004
및 코딩 블록의 U 컴포넌트(140)의 인접한 참조값
Figure pct00005
을 통해 예측 모델(150)을 구축할 수 있다. 코딩 블록의 Y1 컴포넌트(130)의 재구성된 샘플값 및 예측 모델(150)에 따라 컴포넌트 간 예측 유닛(160)은 컴포넌트 예측을 수행할 수 있으며, 마지막으로 U 컴포넌트의 예측값을 출력한다.
기존의 컴포넌트 간 예측 아키텍처(10)에 있어서, 화상 컴포넌트 예측을 수행할 때에 전면적으로 고려하지 않으며, 예를 들어, 각 화상 컴포넌트간의 통계 특성의 차이를 고려하지 않기 때문에 예측 효율이 낮다. 예측 효율을 향상시키기 위하여, 본 출원의 실시예는 화상 예측 방법을 제공한다. 우선, 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득한다. 다음, 초기 예측값에 대하여 필터링 처리를 수행하여 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득한다. 이렇게 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 예측한 다음에, 계속 상기 적어도 하나의 화상 컴포넌트에 대하여 필터링 처리를 수행함으로써, 컴포넌트 간 예측을 수행한 다음에 각 화상 컴포넌트의 통계 특성의 균형을 이룰 수 있다. 따라서, 예측 효율을 향상시킬뿐만 아니라, 비디오 화상의 부호화 및 복호화 효율도 향상시킨다.
이하, 도면을 참조하여 본 출원의 각 실시예에 대하여 상세하게 설명한다.
도 2는 본 출원의 실시예에 따른 비디오 인코딩 시스템의 블록도이다. 도 2에 도시된 바와 같이, 비디오 인코딩 시스템(20)은 변환 및 양자화 유닛(201), 인트라 추정 유닛(202), 인트라 예측 유닛(203), 모션 보상 유닛(204), 모션 추정 유닛(205), 역변환 및 역양자화 유닛(206), 필터 제어 분석 유닛(207), 필터링 유닛(208), 코딩 유닛(209) 및 디코딩된 화상 버퍼 유닛(210) 등을 포함한다. 필터링 유닛(208)은 디 블로킹 필터링(deblocking filtering) 및 샘플 적응 오프셋(sample adaptive offset, SAO) 필터링을 실현할 수 있으며, 코딩 유닛(209)은 헤더 정보 인코딩 및 CABAC(context-based adaptive binary arithmetic coding)를 실현할 수 있다. 입력된 원본 비디오 신호에 대하여, 코딩 트리 유닛(coding tree unit, CTU)의 분할에 의해, 코딩 블록을 얻을 수 있다. 그 다음에 인트라 예측(intra prediction) 또는 인터 예측(inter prediction)을 통해 획득된 잔차 샘플 정보에 대하여, 변환 및 양자화 유닛(201)을 통해 코딩 블록을 변환하며, 잔차 정보를 픽셀 도메인에서 변환 도메인으로 변환하고, 비트 레이트를 더 낮추기 위하여 얻어진 변환 계수를 양자화하는 것을 포함한다. 인트라 추정 유닛(202) 및 인트라 예측 유닛(203)은 코딩 블록에 대하여 인트라 예측을 수행하는 데에 사용된다. 구체적으로 설명하면, 인트라 추정 유닛(202) 및 인트라 예측 유닛(203)은 코딩 블록을 부호화하는 데에 사용되는 인트라 예측 모드를 확정하는 데에 사용된다. 모션 보상 유닛(204) 및 모션 추정 유닛(205)은 시간 예측 정보를 제공하기 위하여 하나 이상의 참조 프레임 내의 하나 이상의 블록에 대한 수신된 코딩 블록의 인터 예측 코딩(inter-predictive coding)을 실행하는 데에 사용된다. 모션 추정 유닛(205)에 의해 수행되는 모션 추정은 모션 벡터를 생성하는 프로세스이며, 모션 벡터는 코딩 블록의 움직임을 추정할 수 있다. 모션 보상 유닛(204)은 모션 추정 유닛(205)에 의해 확정된 모션 벡터를 기반으로 모션 보상을 수행하는 데에 사용된다. 인트라 예측 모드를 확정한 다음에, 인트라 예측 유닛(203)은 또한 선택된 인트라 예측 데이터를 코딩 유닛(209)에 제공하는 데에 사용되며, 모션 추정 유닛(205)은 계산된 모션 벡터 데이터를 코딩 유닛(209)으로 전송하는 데에 사용된다. 역변환 및 역양자화 유닛(206)은 코딩 블록을 재구성하는 데에 사용된다. 잔차 블록은 픽셀 영역에서 재구성되고, 재구성된 잔차 블록의 블록화 아티팩트(blockiness artifacts)는 필터 제어 분석 유닛(207) 및 필터링 유닛(208)을 통해 제거되고, 그리고 재구성된 잔차 블록은 디코딩된 화상 버퍼 유닛(210)의 프레임 내의 하나의 예측 블록에 추가되어 재구성된 비디오 코딩 블록을 생성하는 데에 사용된다. 코딩 유닛(209)은 다양한 인코딩 파라미터 및 양자화된 변환 계수를 부호화하는 데에 사용된다. CABAC를 기반으로 하는 인코딩 알고리즘에서 컨텍스트는 인접한 코딩 블록을 기반으로 할 수 있으며, 확정된 인트라 예측 모드를 나타내는 정보를 부호화하여 비디오 신호의 비트 스트림을 출력할 수 있다. 디코딩된 화상 버퍼 유닛(210)은 예측 참조를 위해 재구성된 코딩 블록을 저장하는 데에 사용된다. 비디오 화상의 부호화가 진행됨에 따라, 새로운 재구성된 비디오 코딩 블록이 지속적으로 생성되고, 이러한 재구성된 비디오 코딩 블록은 모두 디코딩된 화상 버퍼 유닛(210)에 저장된다.
도 3은 본 출원의 실시예에 따른 비디오 디코딩 시스템의 블록도이다. 도 3에 도시된 바와 같이, 비디오 인코딩 시스템(30)은 디코딩 유닛(301), 역변환 및 역양자화 유닛(302), 인트라 예측 유닛(303), 모션 보상 유닛(304), 필터링 유닛(305) 및 디코딩된 화상 버퍼 유닛(306) 등을 포함한다. 디코딩 유닛(301)은 헤더 정보 디코딩 및 CABAC 디코딩을 실현할 수 있다. 필터링 유닛(305)은 디블로킹 필터링(deblocking filtering) 및 SAO 필터링을 실현할 수 있다. 입력된 비디오 신호는 부호화된 후에(도 2에 도시된 바와 같다) 비디오 신호의 비트 스트림을 출력한다. 비트 스트림은 비디오 디코딩 시스템(30)에 입력된다. 우선, 디코딩 유닛(301)을 통해 복호화된 변환 계수를 획득한다. 복호화된 변환 계수는 역변환 및 역양자화 유닛(302)에 의해 처리되어 픽셀 영역에서 잔차 블록을 생성한다. 인트라 예측 유닛(303)은 확정된 인트라 예측 모드 및 현재 프레임 또는 화상의 이전 복호화된 블록(previous decoded block)으로부터의 데이터를 기반으로 복호화하려는 현재 코딩 블록(current coding block)의 예측 데이터를 생성하는 데에 사용될 수 있다. 모션 보상 유닛(304)은 움직임 벡터 및 기타 관련 문법 요소를 분석함으로써 복호화하려는 비디오 코딩 블록에 사용되는 예측 정보를 확정하는 데에 사용되며, 또한 예측 정보를 사용하여 복호화되고 있는 비디오 코딩 블록의 예측 블록을 생성한다. 역변환 및 역양자화 유닛(302)으로부터의 잔차 블록과 인트라 예측 유닛(303) 또는 모션 보상 유닛(304)에 의해 생성된 대응하는 예측 블록을 합계하여 복호화된 비디오 블록을 형성한다. 복호화된 비디오 블록의 블록화 아티팩트(blockiness artifacts)는 필터링 유닛(305)을 통해 제거되고, 비디오 품질을 향상시킬 수 있다. 다음으로, 복호화된 비디오 블록은 디코딩된 화상 버퍼 유닛(306)에 저장된다. 디코딩된 화상 버퍼 유닛(306)은 후속 인트라 예측 또는 움직임 보상에 사용되는 참조 화상을 저장하는 데에 사용되며, 동시에 비디오 신호를 출력하는 데도 사용되며, 즉 복원된 원본 비디오 신호를 획득한다.
본 출원의 실시예는 도 2에 도시된 인트라 예측 유닛(203) 및 도 3에 도시된 인트라 예측 유닛(303)에 적용될 수 있다. 다시 말하면, 본 출원의 실시예는 비디오 인코딩 시스템 및 비디오 디코딩 시스템에 모두 적용 가능하며, 본 출원의 실시예는 이것에 대하여 한정하지 않는다.
도 2 또는 도 3에 도시된 애플리케이션 시나리오의 예시를 기반으로, 도 4를 참조하면, 도 4는 본 출원의 실시예에 따른 화상 예측 방법의 흐름도이다. 상기 방법은 아래 내용을 포함할 수 있다.
S401, 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득한다.
S402, 초기 예측값에 대하여 필터링 처리를 수행하여 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득한다.
비디오 화상은 여러 화상 블록으로 분할될 수 있으며, 현재 부호화될 각 화상 블록은 코딩 블록이라고 부를 수 있음에 유념하기 바란다. 각 코딩 블록은 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트를 포함할 수 있다. 현재 블록은 비디오 화상에 있어서 현재 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 또는 제 3 화상 컴포넌트를 예측하려는 코딩 블록이다.
본 출원의 실시예에 따른 화상 예측 방법은 비디오 인코딩 시스템 또는 비디오 디코딩 시스템에 적용할 수 있으며, 심지어 비디오 인코딩 시스템과 비디오 디코딩 시스템에 동시에 적용할 수도 있으며, 본 출원의 실시예는 이것에 대하여 구체적으로 한정하지 않음을 유념하기 바란다.
본 출원의 실시예에 있어서, 우선, 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득한다. 다음, 초기 예측값에 대하여 필터링 처리를 수행하여 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득한다. 이렇게 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 예측한 다음에, 계속 상기 적어도 하나의 화상 컴포넌트에 대하여 필터링 처리를 수행함으로써, 컴포넌트 간 예측을 수행한 다음에 각 화상 컴포넌트의 통계 특성의 균형을 이룰 수 있다. 따라서, 예측 효율을 향상시킬뿐만 아니라, 비디오 화상의 부호화 및 복호화 효율을 향상시킬 수 있다.
또한, 서로 다른 화상 컴포넌트는 서로 다른 통계 특성을 갖고 있으며, 각 화상 컴포넌트의 통계 특성에 차이가 존재한다. 예를 들어, 휘도 컴포넌트는 풍부한 텍스처 특성을 갖지만, 색도 컴포넌트는 더 균일하고 평탄한 경향이 있다. 컴포넌트 간 예측을 수행한 다음에 각 화상 컴포넌트의 통계적 특성의 균형을 이루기 위하여, 이때 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 특성 통계를 수행할 필요가 있다. 따라서, 일부 실시예에 있어서, S402에서, 초기 예측값에 대하여 필터링 처리를 수행하기 전에 상기 방법은 아래 내용을 추가로 포함할 수 있다.
현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 특성 통계를 수행한다. 적어도 하나의 화상 컴포넌트는 예측할 화상 컴포넌트 및/또는 참조할 화상 컴포넌트를 포함한다. 예측할 화상 컴포넌트와 참조할 화상 컴포넌트는 다르다.
특성 통계 결과에 따라 현재 블록의 예측할 화상 컴포넌트의 참조값 및/또는 현재 블록의 참조할 화상 컴포넌트의 참조값을 획득한다. 예측할 화상 컴포넌트는 예측 모델을 구축할 때에 예측되는 컴포넌트이고, 참조할 화상 컴포넌트는 예측 모델을 구축할 때에 예측에 사용되는 컴포넌트이다.
현재 블록의 적어도 하나의 화상 컴포넌트는 예측할 화상 컴포넌트일 수 있고, 참조할 화상 컴포넌트일 수도 있으며, 심지어 예측할 화상 컴포넌트와 참조할 화상 컴포넌트일 수 있다. 예측 모델을 통해, 제 1 화상 컴포넌트를 사용하여 제 2 화상 컴포넌트에 대한 예측을 실현한다고 가정하면, 예측할 화상 컴포넌트는 제 2 화상 컴포넌트이고, 참조할 화상 컴포넌트는 제 1 화상 컴포넌트이다. 또는 예측 모델을 통해, 제 1 화상 컴포넌트를 사용하여 제 3 화상 컴포넌트에 대한 예측을 실현한다고 가정하면, 예측할 화상 컴포넌트는 제 3 화상 컴포넌트이고, 참조할 화상 컴포넌트는 제 1 화상 컴포넌트이다.
이렇게, 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 특성 통계를 수행함으로써, 특성 통계 결과에 따라 현재 블록의 예측할 화상 컴포넌트의 참조값 및/또는 현재 블록의 참조할 화상 컴포넌트의 참조값을 얻을 수 있다.
또한, 예측 효율을 향상시키기 위하여, 현재 블록의 예측할 화상 컴포넌트의 참조값 및/또는 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 현재 블록의 예측할 화상 컴포넌트의 초기 예측값에 대하여 필터링 처리를 수행할 수 있다.
일부 실시예에 있어서, 적어도 하나의 화상 컴포넌트의 참조값에 따라 적어도 하나의 화상 컴포넌트에 대응하는 초기 예측값에 대하여 처리한다는 것은 아래 내용을 포함한다.
현재 블록의 예측할 화상 컴포넌트의 참조값 및/또는 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드를 이용하여 초기 예측값에 대하여 필터링 처리를 수행한다. 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화 및 비 양자화 중 적어도 하나를 포함한다.
처리 결과에 따라 목표 예측값을 획득할 수 있다.
현재 블록의 적어도 하나의 화상 컴포넌트의 특성 통계 결과에 따라 현재 블록의 예측할 화상 컴포넌트의 참조값 및/또는 현재 블록의 참조할 화상 컴포넌트의 참조값을 획득한 다음에, 프리셋 처리 모드를 이용하여 초기 예측값에 대해 필터링 처리를 수행할 수 있다. 구체적으로, 단순 필터링(simple filtering)을 이용하여 초기 예측값에 대하여 필터링 처리를 수행할 수 있거나, 또는 그룹화 처리를 이용하여 초기 예측값에 대하여 필터링 처리를 수행할 수 있거나, 또는 값 수정 처리를 이용하여 초기 예측값에 대하여 필터링 처리를 수행할 수 있거나, 또는 양자화 처리를 이용하여 초기 예측값에 대하여 필터링 처리를 수행할 수 있거나, 또는 역 양자화 처리(비 양자화 처리라고도 함)(inverse quantization also called de-quantization)를 이용하여 초기 예측값에 대하여 필터링 처리를 수행할 수 있다. 본 출원의 실시예는 구체적으로 한정하지 않는다.
예시적으로, 예측 효율을 향상시키기 위하여, 즉 예측값의 정확성을 향상시키기 위하여, 휘도 컴포넌트를 사용하여 색도 컴포넌트를 예측한다고 가정하고, 예측 모델을 통해 획득된 색도 컴포넌트의 초기 예측값에 대하여, 프리셋 처리 모드가 값 수정 처리를 채용하는 경우, 휘도 컴포넌트와 색도 컴포넌트의 통계적 특성이 다르기 때문에, 두 화상 컴포넌트의 통계적 특성의 차이에 따라 하나의 편차 계수(deviation factor)를 얻을 수 있다. 그 다음에 상기 편차 계수를 사용하여 초기 예측값에 대하여 값 수정 처리를 수행함으로써(예를 들어, 초기 예측값과 편차 계수를 합친다), 컴포넌트 간 예측을 수행한 다음에 각 화상 컴포넌트의 통계적 특성의 균형을 이루고, 색도 컴포넌트의 목표 예측값을 얻을 수 있다. 이 때, 색도 컴포넌트의 목표 예측값은 색도 컴포넌트의 진실값에 더 가깝다. 프리셋 처리 모드가 필터링 처리를 채용하는 경우, 휘도 컴포넌트와 색도 컴포넌트의 통계적 특성이 다르기 때문에, 두 화상 컴포넌트의 통계적 특성의 차이에 따라 초기 예측값에 대하여 필터링 처리를 수행함으로써, 컴포넌트 간 예측을 수행한 다음에 각 화상 컴포넌트의 통계적 특성의 균형을 이루고, 색도 컴포넌트의 목표 예측값을 얻을 수 있다. 이 때, 색도 컴포넌트의 목표 예측값은 색도 컴포넌트의 진실값에 더 가깝다. 프리셋 처리 모드가 그룹화 처리를 채용하는 경우, 휘도 컴포넌트와 색도 컴포넌트의 통계적 특성이 다르기 때문에, 두 화상 컴포넌트의 통계적 특성의 차이에 따라 초기 예측값에 대하여 그룹화 처리를 수행함으로써, 컴포넌트 간 예측을 수행한 다음에 각 화상 컴포넌트의 통계적 특성의 균형을 이룰 수 있고, 그룹화 처리를 수행한 다음의 초기 예측값에 따라 색도 컴포넌트의 목표 예측값을 얻을 수 있다. 이 때, 색도 컴포넌트의 목표 예측값은 색도 컴포넌트의 진실값에 더 가깝다. 또한, 초기 예측값을 확정하는 과정에서 휘도 컴포넌트와 색도 컴포넌트에 대한 양자화 처리와 역 양자화 처리가 수반되고, 휘도 컴포넌트와 색도 컴포넌트의 통계적 특성이 다르기 때문에, 두 화상 컴포넌트의 통계적 특성의 차이에 따라 양자화 처리와 역 양자화 처리의 차이를 초래할 수 있다. 이 때, 프리셋 처리 모드가 양자화 처리를 채용하는 경우, 초기 예측값에 대하여 양자화 처리를 수행함으로써, 컴포넌트 간 예측을 수행한 다음에 각 화상 컴포넌트의 통계적 특성의 균형을 이루고, 색도 컴포넌트의 목표 예측값을 얻을 수 있다. 이 때, 색도 컴포넌트의 목표 예측값은 색도 컴포넌트의 진실값에 더 가깝다. 프리셋 처리 모드가 역 양자화 처리를 채용하는 경우, 초기 예측값에 대하여 역 양자화 처리를 수행함으로써, 컴포넌트 간 예측을 수행한 다음에 각 화상 컴포넌트의 통계적 특성의 균형을 이루고, 색도 컴포넌트의 목표 예측값을 얻을 수 있다. 이 때, 색도 컴포넌트의 목표 예측값은 색도 컴포넌트의 진실값에 더 가깝다. 따라서 예측값의 정확성을 높이고, 예측 효율을 향상시킬 수 있다.
또한, 예측 효율을 향상시키기 위하여, 현재 블록의 예측할 화상 컴포넌트의 참조값 및/또는 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 현재 블록의 예측할 화상 컴포넌트의 초기 예측 잔차에 대하여 필터링 처리를 수행한다.
일부 실시예에 있어서, S401에서 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하고 나서, 상기 방법은 아래 내용을 추가로 포함할 수 있다.
초기 예측값에 따라 현재 블록의 예측할 화상 컴포넌트의 초기 예측 잔차를 계산한다.
현재 블록의 예측할 화상 컴포넌트의 참조값 및/또는 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드를 이용하여 초기 예측 잔차에 대하여 필터링 처리를 수행한다. 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화 및 비 양자화 중 적어도 하나를 포함한다.
처리 결과에 따라 목표 예측 잔차를 획득할 수 있다.
또한, 일부 실시예에 있어서, S402에서 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득한다는 것은 아래 내용을 포함한다.
목표 예측 잔차에 따라 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 계산한다.
예측 잔차는 화상 컴포넌트의 예측값과 화상 컴포넌트의 진실값 사이의 차이로부터 얻어진다는 것을 명심하기 바란다. 비디오 화상의 부호화 및 복호화 효율을 향상시키기 위하여, 현재 블록의 예측 잔차는 될수록 작아야 한다.
예측 잔차를 될수록 작게 하기 위하여, 한편, 예측 모델을 통해 예측할 화상 컴포넌트의 초기 예측값을 획득한 다음에, 프리셋 처리 모드로 초기 예측값에 대하여 필터링 처리를 수행함으로써, 예측할 화상 컴포넌트의 목표 예측값을 얻을 수 있다. 예측할 화상 컴포넌트의 목표 예측값은 예측할 화상 컴포넌트의 진실값에 최대한 접근하기 때문에, 양자 사이의 예측 잔차를 최대한 작게 할 수 있다. 다른 한편, 예측 모델을 통해 예측할 화상 컴포넌트의 초기 예측값을 획득한 다음에, 예측할 화상 컴포넌트의 초기 예측값과 예측할 화상 컴포넌트의 진실값 사이의 차이에 따라 예측할 화상 컴포넌트의 초기 예측 잔차를 확정할 수 있다. 그 다음, 프리셋 처리 모드로 초기 예측 잔차에 대하여 필터링 처리를 수행함으로써, 예측할 화상 컴포넌트의 목표 예측 잔차를 얻을 수 있고, 목표 예측 잔차에 따라 예측할 화상 컴포넌트의 목표 예측값을 얻을 수 있다. 목표 예측 잔차가 최대한 작기 때문에, 예측할 화상 컴포넌트의 목표 예측값은 예측할 화상 컴포넌트의 진실값에 최대한 접근한다. 즉, 본 출원의 실시예는 현재 블록의 예측할 화상 컴포넌트의 초기 예측값에 대하여 필터링 처리를 수행하는 데에 사용될 수 있을뿐만 아니라, 현재 블록의 예측할 화상 컴포넌트의 초기 예측 잔차에 대하여 필터링 처리를 수행하는 데도 사용될 수 있다. 필터링 처리를 거쳐 컴포넌트 간 예측을 수행한 다음에 각 화상 컴포넌트의 통계적 특성의 균형을 이룰 수 있으며, 예측 효율을 향상시킬뿐만 아니라, 획득된 목표 예측값이 진실값에 더 가깝기 때문에, 예측할 화상 컴포넌트의 예측 잔차를 작게 할 수 있다. 따라서 부호화 및 복호화 과정에서 전송되는 비트 레이트가 적으며, 비디오 영상 부호화 및 복호화 효율을 향상시킬 수 있다.
또한, 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하기 전에, 예측 모델을 구축하기 위하여 예측 모델의 모델 파라미터를 확정할 필요가 있다. 따라서, 일부 실시예에 있어서, S401에서 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하기 전에, 상기 방법은 아래 내용을 추가로 포함할 수 있다.
현재 블록의 예측할 화상 컴포넌트의 참조값을 확정한다. 현재 블록의 예측할 화상 컴포넌트의 참조값은 현재 블록의 인접 샘플의 예측할 화상 컴포넌트 값이다.
현재 블록의 참조할 화상 컴포넌트의 참조값을 확정한다. 현재 블록의 참조할 화상 컴포넌트와 예측할 화상 컴포넌트는 다르고, 현재 블록의 참조할 화상 컴포넌트의 참조값은 현재 블록의 인접 샘플의 참조 화상 컴포넌트 값이다.
현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 예측 모델의 모델 파라미터를 계산한다.
계산하여 얻어진 모델 파라미터를 기반으로 예측 모델을 구축한다. 예측 모델은 현재 블록의 참조할 화상 컴포넌트에 따라 현재 블록의 예측할 화상 컴포넌트에 대하여 컴포넌트 간 예측 처리를 수행하는 데에 사용된다.
본 출원의 실시예에 있어서, 예측 모델은 선형 모델일 수 있으며, 예를 들어, CCLM 예측 등 컴포넌트 간 예측 기술일 수 있다. 예측 모델은 비선형 모델일 수도 있으며, 예를 들어, 멀티 모델 CCLM(Multiple Model CCLM,MMLM)와 같은 컴포넌트 간 예측 기술이며, 복수개의 선형 모델로 구성된다. 본 출원의 실시예는 예측 모델이 선형 모델인 것을 예로 설명하지만, 본 출원의 실시예에 따른 예측 방법은 비선형 모델에도 적용될 수 있다.
모델 파라미터는 제 1 모델 파라미터(
Figure pct00006
로 표현한다) 및 제 2 모델 파라미터(
Figure pct00007
로 표현한다)를 포함한다.
Figure pct00008
Figure pct00009
는 최소 제곱법으로 구축된 프리셋 팩터 계산 모델(preset factor calculation model), 최대값과 최소값으로 구축된 프리셋 팩터 계산 모델, 또는 다른 방식으로 구축된 프리셋 팩터 계산 모델 등 다양한 방법으로 계산할 수 있으며, 본 출원의 실시예는 구체적으로 한정하지 않는다.
최소 제곱법으로 구축된 프리셋 팩터 계산 모델을 예로 설명한다. 먼저, 현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 참조값을 확정할 필요가 있다. 현재 블록의 참조할 화상 컴포넌트의 참조값은 현재 블록의 인접 샘플의 참조할 화상 컴포넌트 값(예를 들어, 제 1 화상 컴포넌트 인접 참조값)일 수 있고, 현재 블록의 예측할 화상 컴포넌트의 참조값은 현재 블록의 인접 샘플의 예측할 화상 컴포넌트 값(예를 들어, 제 2 화상 컴포넌트 인접 참조값)일 수 있다. 제 1 화상 컴포넌트 인접 참조 샘플값과 제 2 화상 컴포넌트 인접 참조 샘플값의 최소화 회귀 오차를 이용하여 예측 모델의 모델 파라미터를 도출한다. 구체적으로, 식(1)에 나타난 바와 같다.
Figure pct00010
(1)
Figure pct00011
은 다운 샘플링된 현재 블록의 좌측변 및 상측변에 대응하는 제 1 화상 컴포넌트 인접 참조값을 나타내고,
Figure pct00012
은 현재 블록의 좌측변 및 상측변에 대응하는 제 2 화상 컴포넌트 인접 참조값을 나타내며, N은 제 2 화상 컴포넌트의 현재 블록의 변의 길이를 나타내고,
Figure pct00013
이며, 식(1)로 계산하여 제 1 모델 파라미터
Figure pct00014
와 제 2 모델 파라미터
Figure pct00015
를 얻을 수 있다.
Figure pct00016
Figure pct00017
를 기반으로 제 1 화상 컴포넌트를 통해 제 2 화상 컴포넌트를 예측한다고 가정하면, 구축된 예측 모델은 식(2)에 나타난 바와 같다.
Figure pct00018
(2)
Figure pct00019
는 현재 블록의 샘플의 위치 좌표를 나타내고,
Figure pct00020
는 수평 방향을 나타내고,
Figure pct00021
는 수직 방향을 나타내며,
Figure pct00022
는 현재 블록 중 위치 좌표가
Figure pct00023
인 샘플에 대응하는 제 2 화상 컴포넌트의 예측값을 나타내고,
Figure pct00024
는 같은 현재 블록(다운 샘플링됨) 중 위치 좌표가
Figure pct00025
인 샘플에 대응하는 제 1 화상 컴포넌트의 재구성된 값을 나타낸다.
최대값과 최소값으로 구축된 프리셋 팩터 계산 모델을 예로 하면, 간소화된 모델 파라미터의 도출 방법을 제공한다. 구체적으로, 식(3)에 나타난 바와 같이, 최대 제 1 화상 컴포넌트 인접 참조값과 최소 제 1 화상 컴포넌트 인접 참조값을 검색한 다음에, 두 점으로 하나의 직선을 확정하는 원칙에 따라 예측 모델의 모델 파라미터를 도출할 수 있다.
Figure pct00026
(3)
Figure pct00027
Figure pct00028
은 다운 샘플링된 현재 블록의 좌측변 및 상측변에 대응하는 제 1 화상 컴포넌트 인접 참조값에서 검색된 최대값과 최소값을 나타내고,
Figure pct00029
Figure pct00030
Figure pct00031
Figure pct00032
대응하는 위치에 있는 참조 샘플에 대응하는 제 2 화상 컴포넌트 인접 참조값을 나타낸다.
Figure pct00033
Figure pct00034
Figure pct00035
Figure pct00036
에 따라, 식(3)으로 계산하여도 제 1 모델 파라미터
Figure pct00037
와 제 2 모델 파라미터
Figure pct00038
를 얻을 수 있다.
Figure pct00039
Figure pct00040
를 기반으로 제 1 화상 컴포넌트를 통해 제 2 화상 컴포넌트를 예측한다고 가정하면, 구축된 예측 모델은 여전히 상기 식(2)에 나타난 바와 같다.
예측 모델을 구축한 다음에, 상기 예측 모델에 따라 화상 컴포넌트를 예측할 수 있다. 예를 들어, 식(2)에 나타낸 예측 모델을 기반으로, 제 1 화상 컴포넌트를 사용하여 제 2 화상 컴포넌트를 예측할 수 있다. 예를 들어, 휘도 컴포넌트를 사용하여 색도 컴포넌트를 예측함으로써, 색도 컴포넌트의 초기 예측값을 획득할 수 있다. 그 후에 휘도 컴포넌트의 참조값 및/또는 색도 컴포넌트의 참조값에 따라 프리셋 처리 모드로 초기 예측값에 대하여 필터링 처리를 실시함으로써, 색도 컴포넌트의 목표 예측값을 얻을 수 있다. 제 2 화상 컴포넌트를 사용하여 제 1 화상 컴포넌트를 예측할 수도 있다, 예를 들면, 색도 컴포넌트를 사용하여 휘도 컴포넌트를 예측함으로써, 휘도 컴포넌트의 초기 예측값을 획득할 수 있다. 그 후에 휘도 컴포넌트의 참조값 및/또는 색도 컴포넌트의 참조값에 따라 프리셋 처리 모드로 초기 예측값에 대하여 필터링 처리를 실시함으로써, 휘도 컴포넌트의 목표 예측값을 얻을 수 있다. 심지어 제 2 화상 컴포넌트를 사용하여 제 3 화상 컴포넌트를 예측할 수 있다. 예를 들어, 청색 색도 컴포넌트를 사용하여 적색 색도 컴포넌트를 예측함으로써 적색 색도 컴포넌트의 초기 예측값을 획득할 수 있다. 그 후에 청색 색도 컴포넌트의 참조값 및/또는 적색 색도 컴포넌트의 참조값에 따라 프리셋 처리 모드로 초기 예측값에 대하여 필터링 처리를 실시함으로써, 적색 색도 컴포넌트의 목표 예측값을 얻을 수 있다. 따라서, 예측 효율을 향상시키는 목적을 달성할 수 있다.
또한, 각 화상 컴포넌트는 서로 다른 해상도를 가지므로, 예측 모델을 편리하게 구축하기 위하여 화상 컴포넌트의 해상도를 조정할 필요가 있으며(화상 컴포넌트에 대하여 업 샘플링하거나 또는 화상 컴포넌트에 대하여 다운 샘플링하는 것을 포함한다), 따라서 목표 해상도를 달성하도록 한다.
선택적으로, 일부 실시예에 있어서, 예측 모델의 모델 파라미터를 계산하기 전에 상기 방법은 아래 내용을 더 포함한다.
현재 블록의 예측할 화상 컴포넌트의 해상도와 현재 블록의 참조할 화상 컴포넌트의 해상도가 다른 경우, 참조할 화상 컴포넌트의 해상도를 조정한다. 해상도 조정은 업 샘플링 조정 또는 다운 샘플링 조정을 포함한다.
조정된 참조할 화상 컴포넌트의 해상도에 따라 현재 블록의 참조할 화상 컴포넌트의 참조값을 업데이트하여 현재 블록의 참조할 화상 컴포넌트의 제 1 참조값을 획득한다. 조정된 참조할 화상 컴포넌트의 해상도와 예측할 화상 컴포넌트의 해상도는 동일하다.
선택적으로, 일부 실시예에 있어서, 예측 모델의 모델 파라미터를 계산하기 전에 상기 방법은 아래 내용을 더 포함한다.
현재 블록의 예측할 화상 컴포넌트의 해상도와 현재 블록의 참조할 화상 컴포넌트의 해상도가 다른 경우, 현재 블록의 참조할 화상 컴포넌트의 참조값을 조정함으로써, 현재 블록의 참조할 화상 컴포넌트의 제 1 참조값을 획득한다. 조정 처리는 다운 샘플링 필터링, 업 샘플링 필터링, 다운 샘플링 필터링과 로우 패스 필터링의 캐스케이드 필터링, 업 샘플링 필터링과 로우 패스 필터링의 캐스케이드 필터링 중 하나를 포함한다.
현재 블록의 예측할 화상 컴포넌트의 해상도와 현재 블록의 참조할 화상 컴포넌트의 해상도가 다른 경우, 참조할 화상 컴포넌트의 해상도를 조정할 수 있으며, 조정된 참조할 화상 컴포넌트의 해상도와 예측할 화상 컴포넌트의 해상도가 동일하도록 한다. 해상도 조정은 업 샘플링 조정 또는 다운 샘플링 조정을 포함한다. 조정된 참조할 화상 컴포넌트의 해상도에 따라 현재 블록의 참조할 화상 컴포넌트의 참조값을 업데이트하여 현재 블록의 참조할 화상 컴포넌트의 제 1 참조값을 획득한다.
현재 블록의 예측할 화상 컴포넌트의 해상도와 현재 블록의 참조할 화상 컴포넌트의 해상도가 다른 경우, 현재 블록의 참조할 화상 컴포넌트의 참조값을 조정함으로써, 현재 블록의 참조할 화상 컴포넌트의 제 1 참조값을 획득할 수도 있다. 조정 처리는 다운 샘플링 필터링, 업 샘플링 필터링, 다운 샘플링 필터링과 로우 패스 필터링의 캐스케이드 필터링, 업 샘플링 필터링과 로우 패스 필터링의 캐스케이드 필터링 중 하나를 포함한다.
또한, 일부 실시예에 있어서, 현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 예측 모델의 모델 파라미터를 계산한다는 것은 아래 내용을 포함할 수 있다.
현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 제 1 참조값에 따라 예측 모델의 모델 파라미터를 계산한다.
현재 블록의 예측할 화상 컴포넌트의 해상도와 현재 블록의 참조할 화상 컴포넌트의 해상도가 다른 경우, 업데이트된 현재 블록의 참조할 화상 컴포넌트의 제 1 참조값을 획득한 후에, 현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 제 1 참조값을 기반으로 예측 모델의 모델 파라미터를 계산한다.
예를 들어, 휘도 컴포넌트를 사용하여 색도 컴포넌트를 예측한다고 가정하면, 사용할 화상 컴포넌트는 휘도 컴포넌트이고, 예측할 화상 컴포넌트는 색도 컴포넌트이다. 휘도 컴포넌트와 색도 컴포넌트는 해상도가 다르기 때문에, 색도 컴포넌트의 목표 해상도를 획득한 다음에, 휘도 컴포넌트의 해상도는 목표 해상도와 일치하지 않기 때문에 휘도 컴포넌트의 해상도를 조정할 필요가 있다. 예를 들어, 휘도 컴포넌트에 대하여 다운 샘플링을 수행함으로써, 조정된 휘도 컴포넌트의 해상도와 목표 해상도가 일치하도록 한다. 반대로 색도 컴포넌트를 사용하여 휘도 컴포넌트를 예측하는 경우, 휘도 컴포넌트의 목표 해상도를 획득한 다음에, 색도 컴포넌트의 해상도가 목표 해상도와 일치하지 않기 때문에 색도 컴포넌트의 해상도를 조정할 필요가 있다. 예를 들어, 색도 컴포넌트에 대하여 업 샘플링 처리를 수행함으로써, 조정된 색도 컴포넌트의 해상도와 목표 해상도가 일치하도록 한다. 또한 청색 색도 컴포넌트를 사용하여 적색 색도 컴포넌트를 예측하는 경우, 적색 색도 컴포넌트의 목표 해상도를 획득한 다음에, 청색 색도 컴포넌트의 해상도와 목표 해상도가 일치하기 때문에, 청색 색도 컴포넌트의 해상도를 조정할 필요가 없으며, 청색 색도 컴포넌트의 해상도와 목표 해상도가 일치함은 이미 보장되었다. 따라서 동일한 해상도에 따라 업데이트된 현재 블록의 참조할 화상 컴포넌트의 제 1 참조값을 획득하여 예측 모델을 구축하고 화상 컴포넌트를 예측한다.
또한, 예측 효율을 향상시키기 위하여, 단지 현재 블록의 예측할 화상 컴포넌트의 참조값에 따라 현재 블록의 예측할 화상 컴포넌트의 초기 예측값에 대하여 필터링 처리를 수행할 수 있다.
일부 실시예에 있어서, S402에 대하여, 초기 예측값에 대하여 필터링 처리를 수행한다는 것은 아래 내용을 포함할 수 있다.
현재 블록의 예측할 화상 컴포넌트의 참조값에 따라 초기 예측값에 대하여 필터링 처리를 수행하여 목표 예측값을 획득한다. 현재 블록의 예측할 화상 컴포넌트의 참조값은 화상의 예측할 화상 컴포넌트 또는 현재 블록의 예측할 화상 컴포넌트에 대하여 특성 통계를 실시함으로써 획득할 수 있다.
또한, 현재 블록의 예측할 화상 컴포넌트의 참조값에 따라 초기 예측값에 대해 필터링 처리를 수행한다는 것은 아래 내용을 포함할 수 있다.
현재 블록의 예측할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 초기 예측값에 대하여 필터링 처리를 수행한다. 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화, 역 양자화, 로우 패스 필터링, 적응 필터링(adaptive filtering) 중 적어도 하나를 포함한다.
일부 실시예에 있어서, S402에서 초기 예측값에 대하여 필터링 처리를 수행한다는 것은 아래 내용을 포함한다.
초기 예측값을 이용하여 현재 블록의 예측할 화상 컴포넌트의 초기 예측 잔차를 계산한다.
현재 블록의 예측할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 초기 예측 잔차에 대하여 필터링 처리를 수행한다. 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화, 역 양자화, 로우 패스 필터링, 적응 필터링 중 적어도 하나를 포함한다.
프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화, 역 양자화, 로우 패스 필터링, 적응 필터링 등일 수 있다. 또한 현재 블록의 예측할 화상 컴포넌트의 참조값은 화상의 예측할 화상 컴포넌트 또는 현재 블록의 예측할 화상 컴포넌트에 대하여 특성 통계를 수행함으로써 얻을 수 있다. 여기의 특성 통계는 현재 블록의 예측할 화상 컴포넌트에 한정되지 않고, 현재 블록이 속하는 화상의 예측할 화상 컴포넌트에 대하여 특성 통계를 수행할 수 있다.
이렇게, 필터링 처리 과정에 대하여, 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득한 다음에, 현재 블록의 예측할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 초기 예측값에 대하여 필터링 처리를 수행함으로써 목표 예측값을 얻을 수 있다. 또는 초기 예측값을 이용하여 현재 블록의 예측할 화상 컴포넌트의 초기 예측 잔차를 계산한 다음에, 현재 블록의 예측할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 초기 예측 잔차에 대하여 필터링 처리를 수행함으로써 목표 예측 잔차를 얻을 수 있으며, 목표 예측 잔차에 따라 목표 예측값을 얻을 수 있다.
예측 효율을 향상시키기 위하여, 현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 현재 블록의 예측할 화상 컴포넌트의 초기 예측값에 대하여 필터링 처리를 수행할 수 있다.
일부 실시 예에서, S401에서 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하기 전에, 상기 방법은 아래 내용을 추가로 포함할 수 있다.
화상의 예측할 화상 컴포넌트에 대하여 특성 통계를 수행한다.
특성 통계 결과에 따라 현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 참조값을 확정한다. 참조할 화상 컴포넌트와 예측할 화상 컴포넌트는 다르다.
현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 예측 모델의 모델 파라미터를 계산한다.
또한, 일부 실시예에 있어서, 상기 방법은 아래 내용을 추가로 포함할 수 있다.
현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 초기 예측값에 대하여 필터링 처리를 수행한다. 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화, 역 양자화, 로우 패스 필터링, 적응 필터링 중 적어도 하나를 포함한다.
서로 다른 화상 컴포넌트는 서로 다른 통계 특성을 갖고 있으며, 각 화상 컴포넌트의 통계 특성에 차이가 존재한다. 예를 들어, 휘도 컴포넌트는 풍부한 텍스처 특성을 갖지만, 색도 컴포넌트는 더 균일하고 평탄한 경향이 있다. 컴포넌트 간 예측을 수행한 다음에 각 화상 컴포넌트의 통계적 특성의 균형을 이루기 위하여, 이 때 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 특성 통계를 수행할 필요가 있다. 예를 들어, 화상의 예측할 화상 컴포넌트에 대하여 특성 통계를 수행한다. 그 다음에 특성 통계 결과에 따라 현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 참조값을 확정한다. 현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 예측 모델을 구축하기 위하여 예측 모델의 모델 파라미터를 계산할 수 있을뿐만 아니라, 초기 예측 값에 대하여 필터링 처리를 수행함으로써, 컴포넌트 간 예측을 수행한 다음에 각 화상 컴포넌트의 통계적 특성의 균형을 이룰 수도 있기 때문에, 예측 효율을 향상시킬 수 있다.
예시적으로, 도 5는 본 출원의 실시예에 따른 개선된 컴포넌트 간 예측 아키텍처의 구조를 나타내는 도면이다. 도 5에 도시된 바와 같이, 도 1에 도시된 종래의 컴포넌트 간 예측 아키텍처(10)를 기반으로 개선된 컴포넌트 간 예측 아키텍처(50)는 처리 유닛(510)을 더 포함할 수 있다. 처리 유닛(510)은 주로 보다 정확한 목표 예측값을 획득하기 위하여 컴포넌트 간 예측 유닛(160)에 의해 획득된 예측값에 대하여 관련 처리를 수행하는 데에 사용된다.
도 5에서, 현재 블록에 대하여, Y 컴포넌트를 사용하여 U 컴포넌트를 예측한다고 가정하면, 코딩 블록의 Y 컴포넌트(110)와 코딩 블록의 U 컴포넌트(140)는 해상도가 다르기 때문에, 해상도 조정 유닛(120)에 의해 Y 컴포넌트의 해상도를 조정함으로써, 코딩 블록의 U 컴포넌트(140)와 동일한 해상도를 갖는 코딩 블록의 Y1 컴포넌트(130)를 획득할 필요가 있다. 그 다음에 코딩 블록의 Y1 컴포넌트(130)의 인접 참조값
Figure pct00041
과 코딩 블록의 U 컴포넌트(140)의 인접 참조값
Figure pct00042
을 사용하여 예측 모델(150)을 구축할 수 있다. 컴포넌트 간 예측 유닛(160)을 통해 화상 컴포넌트 예측을 수행하여 U 컴포넌트의 초기 예측값을 얻을 수 있다. 예측 효율을 향상시키기 위하여, 처리 유닛(510)을 통해 U 컴포넌트의 초기 예측값에 대하여 관련 처리를 수행할 수도 있다. 예를 들어, 필터링 처리, 그룹화 처리, 값 수정 처리, 양자화 처리 및 역 양자화 처리 등을 실시하여 U 컴포넌트의 목표 예측값을 얻을 수 있다. U 컴포넌트의 목표 예측값은 U 컴포넌트의 진실값에 가깝기 때문에, 예측 효율을 향상시킬 수 있으며, 동시에 비디오 화상의 부호화 및 복호화 효율을 향상시킬 수 있다.
본 출원의 실시예에 있어서, 화상 예측 방법이 인코더에 적용되는 경우, 목표 예측값을 획득한 다음에, 목표 예측값과 진실값 사이의 차이에 따라 예측 잔차를 확정하고, 예측 잔차를 비트 스트림에 기입할 수 있다. 동시에 현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 예측 모델의 모델 파라미터를 계산하고, 획득된 모델 파라미터를 비트 스트림에 기입할 수도 있다. 비트 스트림은 인코더에서 디코더로 전송된다. 화상 예측 방법이 디코더에 적용되는 경우, 비트 스트림을 분석하여 예측 잔차를 얻을 수 있으며, 또한 비트 스트림을 분석하여 예측 모델의 모델 파라미터를 획득하여 예측 모델을 구축할 수도 있다. 따라서, 디코더에서 여전히 예측 모델을 통해 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 얻을 수 있으며, 초기 예측값에 대하여 필터링 처리를 수행하여 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 얻을 수 있다.
본 실시예는 화상 예측 방법을 제공한다. 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득한다. 다음, 초기 예측값에 대하여 필터링 처리를 수행하여 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득한다. 이렇게 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 예측한 다음에, 계속 상기 적어도 하나의 화상 컴포넌트에 대하여 필터링 처리를 수행함으로써, 컴포넌트 간 예측을 수행한 다음에 각 화상 컴포넌트의 통계 특성의 균형을 이룰 수 있다. 따라서, 예측 효율을 향상시킬뿐만 아니라, 획득된 목표 예측값이 진실값에 더욱 가깝기 때문에 화상 컴포넌트의 예측 잔차(predicted residual)는 비교적 작고, 부호화 및 복호화 과정에서 전송되는 비트 레이트가 적으며, 비디오 화상의 부호화 및 복호화 효율을 향상시킬 수 있다.
상기 실시예와 동일한 발명 구상을 기반으로, 도 6을 참조하면, 도 6은 본 출원의 실시예에 따른 인코더(60)의 구조를 나타내는 개략도이다. 인코더(60)는 제 1 예측 유닛(601)과 제 1 처리 유닛(602)을 포함할 수 있다.
제 1 예측 유닛(601)은 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하는 데에 사용된다.
제 1 처리 유닛(602)은 초기 예측값에 대하여 필터링 처리를 수행하여 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득하는 데에 사용된다.
상술한 기술방안에 있어서, 도 6에 도시된 바와 같이, 인코더(60)는 제 1 통계 유닛(603) 및 제 1 획득 유닛(604)을 더 포함할 수 있다.
제 1 통계 유닛(603)은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 특성 통계를 수행하는 데에 사용된다. 적어도 하나의 화상 컴포넌트는 예측할 화상 컴포넌트 및/또는 참조할 화상 컴포넌트를 포함한다. 예측할 화상 컴포넌트와 참조할 화상 컴포넌트는 다르다.
제 1 획득 유닛(604)은 특성 통계 결과에 따라 현재 블록의 예측할 화상 컴포넌트의 참조값 및/또는 현재 블록의 참조할 화상 컴포넌트의 참조값을 획득하는 데에 사용된다. 예측할 화상 컴포넌트는 예측 모델을 구축할 때에 예측되는 컴포넌트이고, 참조할 화상 컴포넌트는 예측 모델을 구축할 때에 예측에 사용되는 컴포넌트이다.
상술한 기술방안에 있어서, 제 1 처리 유닛(602)은 현재 블록의 예측할 화상 컴포넌트의 참조값 및/또는 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드를 이용하여 초기 예측값에 대하여 필터링 처리를 수행하는 데에 사용된다. 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화 및 비 양자화 중 적어도 하나를 포함한다.
제 1 획득 유닛(604)은 처리 결과에 따라 목표 예측값을 획득하는 데에 사용된다.
상술한 기술방안에 있어서, 도 6을 참조하면, 인코더(60)는 초기 예측값에 따라 현재 블록의 예측할 화상 컴포넌트의 초기 예측 잔차를 계산하는 데에 사용되는 계산 유닛(605)을 더 포함할 수 있다.
제 1 처리 유닛(602)은 또한 현재 블록의 예측할 화상 컴포넌트의 참조값 및/또는 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드를 이용하여 초기 예측 잔차에 대하여 필터링 처리를 수행하는 데에 사용된다. 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화 및 비 양자화 중 적어도 하나를 포함한다.
제 1 획득 유닛(604)은 또한 처리 결과에 따라 목표 예측 잔차를 획득하는 데에 사용된다.
상술한 기술방안에 있어서, 계산 유닛(605)은 또한 목표 예측 잔차에 따라 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 계산하는 데에 사용된다.
상술한 기술방안에 있어서, 도 6을 참조하면, 인코더(60)는 제 1 확정 유닛(606)과 제 1 구축 유닛(607)을 더 포함할 수 있다.
제 1 확정 유닛(606)은 현재 블록의 예측할 화상 컴포넌트의 참조값을 확정하는 데에 사용된다. 현재 블록의 예측할 화상 컴포넌트의 참조값은 현재 블록의 인접 샘플의 예측할 화상 컴포넌트 값이다. 제 1 확정 유닛(606)은 현재 블록의 참조할 화상 컴포넌트의 참조값을 확정하는 데에 사용된다. 현재 블록의 참조할 화상 컴포넌트와 예측할 화상 컴포넌트는 다르고, 현재 블록의 참조할 화상 컴포넌트의 참조값은 현재 블록의 인접 샘플의 참조 화상 컴포넌트 값이다.
계산 유닛(605)은 또한 현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 예측 모델의 모델 파라미터를 계산하는 데에 사용된다.
제 1 구축 유닛(607)은 계산하여 얻어진 모델 파라미터를 기반으로 예측 모델을 구축하는 데에 사용된다. 예측 모델은 현재 블록의 참조할 화상 컴포넌트에 따라 현재 블록의 예측할 화상 컴포넌트에 대하여 컴포넌트 간 예측 처리를 수행하는 데에 사용된다.
상술한 기술방안에 있어서, 도 6을 참조하면, 인코더(60)는 제 1 조정 유닛(608)을 더 포함할 수 있다. 제 1 조정 유닛(608)은 현재 블록의 예측할 화상 컴포넌트의 해상도와 현재 블록의 참조할 화상 컴포넌트의 해상도가 다른 경우, 참조할 화상 컴포넌트의 해상도를 조정하는 데에 사용된다. 해상도 조정은 업 샘플링 조정 또는 다운 샘플링 조정을 포함한다. 제 1 조정 유닛(608)은 또한 조정된 참조할 화상 컴포넌트의 해상도에 따라 현재 블록의 참조할 화상 컴포넌트의 참조값을 업데이트하여 현재 블록의 참조할 화상 컴포넌트의 제 1 참조값을 획득하는 데에 사용된다. 조정된 참조할 화상 컴포넌트의 해상도와 예측할 화상 컴포넌트의 해상도는 동일하다.
제 1 조정 유닛(608)은 또한 현재 블록의 예측할 화상 컴포넌트의 해상도와 현재 블록의 참조할 화상 컴포넌트의 해상도가 다른 경우, 현재 블록의 참조할 화상 컴포넌트의 참조값을 조정함으로써, 현재 블록의 참조할 화상 컴포넌트의 제 1 참조값을 획득하는 데에 사용된다. 조정 처리는 다운 샘플링 필터링, 업 샘플링 필터링, 다운 샘플링 필터링과 로우 패스 필터링의 캐스케이드 필터링, 업 샘플링 필터링과 로우 패스 필터링의 캐스케이드 필터링 중 하나를 포함한다.
상술한 기술방안에 있어서, 계산 유닛(605)은 또한 현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 제 1 참조값에 따라 예측 모델의 모델 파라미터를 계산하는 데에 사용된다.
상술한 기술방안에 있어서, 제 1 처리 유닛(602)은 또한 현재 블록의 예측할 화상 컴포넌트의 참조값에 따라 초기 예측값에 대하여 필터링 처리를 수행하여 목표 예측값을 획득하는 데에 사용된다. 현재 블록의 예측할 화상 컴포넌트의 참조값은 화상의 예측할 화상 컴포넌트 또는 현재 블록의 예측할 화상 컴포넌트에 대하여 특성 통계를 실시함으로써 획득된다.
상술한 기술방안에 있어서, 제 1 처리 유닛(602)은 또한 현재 블록의 예측할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 초기 예측값에 대하여 필터링 처리를 수행하는 데에 사용된다. 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화, 역 양자화, 로우 패스 필터링, 적응 필터링(adaptive filtering) 중 적어도 하나를 포함한다.
상술한 기술방안에 있어서, 계산 유닛(605)은 또한 초기 예측값을 이용하여 현재 블록의 예측할 화상 컴포넌트의 초기 예측 잔차를 계산하는 데에 사용된다.
제 1 처리 유닛(602)은 또한 현재 블록의 예측할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 초기 예측 잔차에 대하여 필터링 처리를 수행하는 데에 사용된다. 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화, 역 양자화, 로우 패스 필터링, 적응 필터링 중 적어도 하나를 포함한다.
상술한 기술방안에 있어서, 제 1 통계 유닛(603)은 또한 화상의 예측할 화상 컴포넌트에 대하여 특성 통계를 수행하는 데에 사용된다.
제 1 확정 유닛(606)은 또한 특성 통계 결과에 따라 현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 참조값을 확정하는 데에 사용된다. 참조할 화상 컴포넌트와 예측할 화상 컴포넌트는 다르다.
계산 유닛(605)은 또한 현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 예측 모델의 모델 파라미터를 계산하는 데에 사용된다.
상술한 기술방안에 있어서, 제 1 처리 유닛(602)은 또한 현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 초기 예측값에 대하여 필터링 처리를 수행하는 데에 사용된다. 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화, 역 양자화, 로우 패스 필터링, 적응 필터링 중 적어도 하나를 포함한다.
본 출원의 실시예에 있어서, '유닛'은 회로의 일부, 프로세서의 일부, 프로그램의 일부 또는 소프트웨어 등일 수 있으며, 물론 모듈일 수도 있고, 비모듈일 수도 있음을 이해할 수 있다. 또한, 본 출원의 실시예의 각 컴포넌트는 하나의 처리 유닛에 통합될 수 있고, 또는 각 유닛이 단독으로 물리적으로 존재할 수도 있으며, 또는 2개 이상의 유닛이 하나의 유닛에 통합될 수도 있다. 상기 통합 유닛은 하드웨어 또는 소프트웨어 기능 모듈의 형태로 실현될 수 있다.
통합된 유닛이 소프트웨어 기능 유닛 형태로 구현되어 별도의 제품으로 판매되거나 사용되는 경우, 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 이러한 이해를 기초로 하여 본 발명의 기술방안의 본질, 혹은 기술 분야에 기여하는 부분 또는 기술적 방안의 전부 또는 일부를 소프트웨어 제품의 형태로 구현될 수 있다. 해당 컴퓨터 소프트웨어 제품은 하나의 저장 매체에 저장되며, 컴퓨터 장치(개인용 컴퓨터, 서버 또는 네트워크 장치일 수 있음) 또는 프로세서가 본 발명의 각 실시예에 따른 방법의 전부 또는 일부를 실행할 수 있도록 하는 다수의 명령어를 포함한다. 전술한 저장 매체는 USB, 외장 하드, 읽기 전용 기억 장치(Read-Only Memory, ROM), 랜덤 액세스 메모리(Random Access Memory, RAM), 디스크 또는 광 디스크 등과 같은 프로그램 코드를 저장할 수 있는 매체를 포함한다.
본 출원의 실시예는 컴퓨터 저장 매체를 제공한다. 컴퓨터 저장 매체에 화상 예측 프로그램이 저장되어 있다. 화상 예측 프로그램이 적어도 하나의 프로세서에 의해 실행될 때에 상술한 실시예의 방법을 실현한다.
인코더(60)의 구성 및 컴퓨터 저장 매체에 따라, 도 7을 참조하면, 도 7은 본 출원의 실시예에 따른 인코더(60)의 구체적인 하드웨어 구조를 나타내는 도면이다. 인코더(60)는 제 1 통신 인터페이스(701), 제 1 메모리(702) 및 제 1 프로세서(703)를 포함할 수 있다. 각 컴포넌트는 제 1 버스 시스템(704)을 통해 함께 결합된다. 제 1 버스 시스템(704)은 이러한 컴포넌트 간의 연결과 통신을 실현하는 데에 사용된다. 제 1 버스 시스템(704)은 데이터 버스 이외에 또한 전력 버스, 제어 버스 및 상태 신호 버스를 포함한다. 명확하게 설명하기 위하여, 도 7에 도시된 바와 같이, 다양한 버스는 제 1 버스 시스템(704)으로 표기되어 있다.
제 1 통신 인터페이스(701)는 다른 외부 네트워크 요소와 정보를 송수신하는 과정에서 신호를 송수신하는 데에 사용된다.
제 1 메모리(702)는 제 1 프로세서(703)에 의해 실행 가능한 컴퓨터 프로그램을 저장하는 데에 사용된다.
컴퓨터 프로그램이 제 1 프로세서(703)에 의해 실행되면, 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하고, 초기 예측값에 대하여 필터링 처리를 수행하여 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득한다.
본 출원의 실시예의 제 1 메모리(702)는 휘발성 메모리 또는 비 휘발성 메모리일 수 있으며, 또는 휘발성 메모리 및 비 휘발성 메모리 양자를 포함할 수 있다. 비 휘발성 메모리는 읽기 전용 메모리(Read-Only Memory, ROM), 프로그램 가능 읽기 전용 메모리(Programmable Read-Only Memory, PROM), 삭제 가능 프로그램 가능 읽기 전용 메모리(Erasable Programmable Read-Only Memory, EPROM), 전기적 삭제 가능 프로그램 가능 읽기 전용 메모리(Electrically Erasable Programmable Read-Only Memory, EEPROM) 또는 플래시 메모리(Flash Memory)일 수 있다. 휘발성 메모리는 외부 고속 캐시로 사용되는 랜덤 액세스 메모리(Random Access Memory, RAM)일 수 있다. 예시적이지만 한정적이지 않은 예를 들어, 다양한 형태의 RAM을 사용할 수 있으며, 예를 들어, 정적 랜덤 액세스 메모리(Static RAM, SRAM), 동적 랜덤 액세스 메모리(Dynamic Random Access Memory, DRAM), 동기 동적 랜덤 액세스 메모리(Synchronous Dynamic Random Access Memory, SDRAM), 더블 데이터 레이트 동기 동적 랜덤 액세스 메모리(Double Data Rate Synchronous Dynamic Random Access Memory, DDR SDRAM), 강화 동기 동적 랜덤 액세스 메모리(Enhanced Synchronous Dynamic Random Access Memory, ESDRAM), 동기 링크 동적 랜덤 액세스 메모리(Synch-link Dynamic Random Access Memory, SLDRAM) 및 직접 램버스 랜덤 액세스 메모리(Direct Rambus Random Access Memory, DRRAM)이다. 본 명세서에 기재된 시스템 및 방법의 제 1 메모리(702)는 이들과 다른 임의의 적절한 유형의 메모리를 포함하지만, 이것에 한정되지 않는다.
제 1 프로세서(703)는 신호 처리 능력을 갖는 집적 회로 칩일 수 있다. 실시 과정에서 상술한 방법 실시예의 각 단계는 제 1 프로세서(703)의 하드웨어 형태의 집적 논리 회로(integrated logic circuit) 또는 소프트웨어 형태의 명령에 의해 완성될 수 있다. 제 1 프로세서(703)는 범용 프로세서, 디지털 신호 프로세서(Digital Signal Processor, DSP), 주문형 집적 회로(Application Specific Integrated Circuit, ASIC), 필드 프로그래머블 게이트 어레이(Field Programmable Gate Array, FPGA) 또는 다른 프로그래머블 로직 디바이스, 이산 게이트 또는 트랜지스터 논리 장치, 개별 하드웨어 컴포넌트일 수 있다. 프로세서는 본 발명의 실시예에 개시된 방법, 단계 및 논리 블록도를 실현 또는 실행할 수 있다. 범용 프로세서는 마이크로 프로세서 또는 임의의 통상적인 프로세서 등일 수 있다. 본 발명의 실시예에서 개시된 방법의 단계는 직접 하드웨어 디코딩 프로세서에 의해 실행 및 완성될 수 있거나, 또는 디코딩 프로세서의 하드웨어 및 소프트웨어 모듈의 조합에 의해 실행 및 완성될 수 있다. 소프트웨어 모듈은 랜덤 액세스 메모리(random access memory, RAM), 플래시 메모리, 읽기 전용 메모리(read only memory, ROM), 프로그래머블 읽기 전용 메모리(programmable ROM, PROM) 또는 전기적으로 지울 수 있는 프로그래머블 메모리, 레지스터 등 본 기술 분야의 성숙한 저장 매체에 있을 수 있다. 저장 매체는 제 1 메모리(702)에 있다. 제 1 프로세서(703)는 제 1 메모리(702)의 정보를 읽고 프로세서의 하드웨어를 사용하여 상술한 방법의 단계를 완성한다.
본 명세서에 기재된 실시예는 하드웨어, 소프트웨어, 펌웨어, 미들웨어, 마이크로 코드 또는 그 조합에 의해 실현될 수 있음을 이해할 수 있다. 하드웨어에 의해 실현되는 경우, 처리 유닛은 하나 이상의 주문형 집적 회로(Application Specific Integrated Circuits, ASIC), 디지털 신호 처리(Digital Signal Processing, DSP), DSP 장치(DSP Device), 프로그래머블 로직 장치(Programmable Logic Device, PLD), 필드 프로그래머블 게이트 어레이(Field-Programmable Gate Array, FPGA), 범용 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서, 본 출원의 상기 기능을 실행하는 다른 전자 유닛 또는 그 조합으로 구현될 수 있다. 소프트웨어에 의해 실현되는 경우, 본 명세서에 기재된 기술은 본 명세서에 기재된 기능을 수행하는 모듈(예를 들어, 절차, 함수(functions) 등)에 의해 실현될 수 있다. 소프트웨어 코드는 메모리에 저장되고, 또한 프로세서에 의해 실행된다. 메모리는 프로세서 내부 또는 프로세서 외부에서 구현될 수 있다.
선택적으로, 다른 실시예로서, 제 1 프로세서(703)는 컴퓨터 프로그램을 실행하면 상기 실시예에 기재된 임의의 하나의 방법을 실행하는 데에 사용된다.
본 출원의 실시예는 인코더를 제공한다. 인코더는 제 1 예측 유닛과 제 1 처리 유닛을 포함한다. 제 1 예측 유닛은 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하는 데에 사용된다. 제 1 처리 유닛은 초기 예측값에 대하여 필터링 처리를 수행하여 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득하는 데에 사용된다. 이렇게 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 예측한 다음에, 계속 상기 적어도 하나의 화상 컴포넌트에 대하여 필터링 처리를 수행함으로써, 컴포넌트 간 예측을 수행한 다음에 각 화상 컴포넌트의 통계 특성의 균형을 이룰 수 있다. 따라서, 예측 효율을 향상시킬뿐만 아니라, 획득된 목표 예측값이 진실값에 더욱 가깝기 때문에 화상 컴포넌트의 예측 잔차는 비교적 작고, 부호화 및 복호화 과정에서 전송되는 비트 레이트가 적으며, 비디오 화상의 부호화 및 복호화 효율을 향상시킬 수 있다.
상술한 실시예와 같은 발명 구상을 기반으로 도 8을 참조하면, 도 8은 본 출원의 실시예에 따른 디코더(80)의 구조를 나타내는 도면이다. 디코더(80)는 제 2 예측 유닛(801) 및 제 2 처리 유닛(802)을 포함한다.
제 2 예측 유닛(801)은 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하는 데에 사용된다.
제 2 처리 유닛(802)은 초기 예측값에 대하여 필터링 처리를 수행하여 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득하는 데에 사용된다.
상술한 기술방안에 있어서, 도 8에 도시된 바와 같이, 디코더(80)는 제 2 통계 유닛(803) 및 제 2 획득 유닛(804)을 더 포함할 수 있다.
제 2 통계 유닛(803)은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 특성 통계를 수행하는 데에 사용된다. 적어도 하나의 화상 컴포넌트는 예측할 화상 컴포넌트 및/또는 참조할 화상 컴포넌트를 포함한다. 예측할 화상 컴포넌트와 참조할 화상 컴포넌트는 다르다.
제 2 획득 유닛(804)은 특성 통계 결과에 따라 현재 블록의 예측할 화상 컴포넌트의 참조값 및/또는 현재 블록의 참조할 화상 컴포넌트의 참조값을 획득하는 데에 사용된다. 예측할 화상 컴포넌트는 예측 모델을 구축할 때에 예측되는 컴포넌트이고, 참조할 화상 컴포넌트는 예측 모델을 구축할 때에 예측에 사용되는 컴포넌트이다.
상술한 기술방안에 있어서, 제 2 처리 유닛(802)은 현재 블록의 예측할 화상 컴포넌트의 참조값 및/또는 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드를 이용하여 초기 예측값에 대하여 필터링 처리를 수행하는 데에 사용된다. 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화 및 비 양자화 중 적어도 하나를 포함한다.
제 2 획득 유닛(804)은 처리 결과에 따라 목표 예측값을 획득하는 데에 사용된다.
상술한 기술방안에 있어서, 도 8을 참조하면, 디코더(80)는 비트 스트림을 분석하여 현재 블록의 예측할 화상 컴포넌트의 초기 예측 잔차를 획득하는 데에 사용되는 분석 유닛(805)을 더 포함할 수 있다.
제 2 처리 유닛(802)은 또한 현재 블록의 예측할 화상 컴포넌트의 참조값 및/또는 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드를 이용하여 초기 예측 잔차에 대하여 필터링 처리를 수행하는 데에 사용된다. 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화 및 비 양자화 중 적어도 하나를 포함한다.
제 2 획득 유닛(804)은 또한 처리 결과에 따라 목표 예측 잔차를 획득하는 데에 사용된다.
상술한 기술방안에 있어서, 도 8을 참조하면, 디코더(80)는 제 2 구축 유닛(806)을 더 포함할 수 있다.
분석 유닛(805)은 또한 비트 스트림을 분석하여 예측 모델의 모델 파라미터를 획득하는 데에 사용된다.
제 2 구축 유닛(806)은 분석하여 얻어진 모델 파라미터를 기반으로 예측 모델을 구축하는 데에 사용된다. 예측 모델은 현재 블록의 참조할 화상 컴포넌트에 따라 현재 블록의 예측할 화상 컴포넌트에 대하여 컴포넌트 간 예측 처리를 수행하는 데에 사용된다.
상술한 기술방안에 있어서, 도 8을 참조하면, 디코더(60)는 제 2 조정 유닛(807)을 더 포함할 수 있다. 제 2 조정 유닛(807)은 현재 블록의 예측할 화상 컴포넌트의 해상도와 현재 블록의 참조할 화상 컴포넌트의 해상도가 다른 경우, 참조할 화상 컴포넌트의 해상도를 조정하는 데에 사용된다. 해상도 조정은 업 샘플링 조정 또는 다운 샘플링 조정을 포함한다. 제 2 조정 유닛(807)은 또한 조정된 참조할 화상 컴포넌트의 해상도에 따라 현재 블록의 참조할 화상 컴포넌트의 참조값을 업데이트하여 현재 블록의 참조할 화상 컴포넌트의 제 1 참조값을 획득하는 데에 사용된다. 조정된 참조할 화상 컴포넌트의 해상도와 예측할 화상 컴포넌트의 해상도는 동일하다.
제 2 조정 유닛(807)은 또한 현재 블록의 예측할 화상 컴포넌트의 해상도와 현재 블록의 참조할 화상 컴포넌트의 해상도가 다른 경우, 현재 블록의 참조할 화상 컴포넌트의 참조값을 조정함으로써, 현재 블록의 참조할 화상 컴포넌트의 제 1 참조값을 획득하는 데에 사용된다. 조정 처리는 다운 샘플링 필터링, 업 샘플링 필터링, 다운 샘플링 필터링과 로우 패스 필터링의 캐스케이드 필터링, 업 샘플링 필터링과 로우 패스 필터링의 캐스케이드 필터링 중 하나를 포함한다.
상술한 기술방안에 있어서, 제 2 처리 유닛(802)은 또한 현재 블록의 예측할 화상 컴포넌트의 참조값에 따라 초기 예측값에 대하여 필터링 처리를 수행하여 목표 예측값을 획득하는 데에 사용된다. 현재 블록의 예측할 화상 컴포넌트의 참조값은 화상의 예측할 화상 컴포넌트 또는 현재 블록의 예측할 화상 컴포넌트에 대하여 특성 통계를 실시함으로써 획득된다.
상술한 기술방안에 있어서, 제 2 처리 유닛(802)은 또한 현재 블록의 예측할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 초기 예측값에 대하여 필터링 처리를 수행하는 데에 사용된다. 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화, 역 양자화, 로우 패스 필터링, 적응 필터링(adaptive filtering) 중 적어도 하나를 포함한다.
상술한 기술방안에 있어서, 분석 유닛(805)은 비트 스트림을 분석하여 현재 블록의 예측할 화상 컴포넌트의 초기 예측 잔차를 획득하는 데에 사용된다.
제 2 처리 유닛(802)은 또한 현재 블록의 예측할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 초기 예측 잔차에 대하여 필터링 처리를 수행하는 데에 사용된다. 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화, 역 양자화, 로우 패스 필터링, 적응 필터링 중 적어도 하나를 포함한다.
상술한 기술방안에 있어서, 도 8을 참조하면, 디코더(80)는 제 2 확정 유닛(808)을 더 포함할 수 있다.
제 2 통계 유닛(803)은 또한 화상의 예측할 화상 컴포넌트에 대하여 특성 통계를 수행하는 데에 사용된다.
제 2 확정 유닛(808)은 또한 특성 통계 결과에 따라 현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 참조값을 확정하는 데에 사용된다. 참조할 화상 컴포넌트와 예측할 화상 컴포넌트는 다르다.
상술한 기술방안에 있어서, 제 2 처리 유닛(802)은 또한 현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 초기 예측값에 대하여 필터링 처리를 수행하는 데에 사용된다. 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화, 역 양자화, 로우 패스 필터링, 적응 필터링 중 적어도 하나를 포함한다.
본 출원의 실시예에 있어서, '유닛'은 회로의 일부, 프로세서의 일부, 프로그램의 일부 또는 소프트웨어 등일 수 있으며, 물론 모듈일 수도 있고, 비모듈일 수도 있음을 이해할 수 있다. 또한, 본 출원의 실시예의 각 컴포넌트는 하나의 처리 유닛에 통합될 수 있고, 또는 각 유닛이 단독으로 물리적으로 존재할 수도 있으며, 또는 2개 이상의 유닛이 하나의 유닛에 통합될 수도 있다. 상기 통합 유닛은 하드웨어 또는 소프트웨어 기능 모듈의 형태로 실현될 수 있다.
통합된 유닛이 소프트웨어 기능 유닛 형태로 구현되어 별도의 제품으로 판매되거나 사용되는 경우, 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 이러한 이해를 기초로 하여 본 실시예는 화상 예측 프로그램을 저장하는 데에 사용되는 컴퓨터 저장 매체를 제공한다. 화상 예측 프로그램이 제 2 프로세서에 의해 실행되면, 상기 실시예 중 임의의 한 항에 기재된 방법을 실현한다.
디코더(80)의 구성 및 컴퓨터 저장 매체에 따라, 도 9를 참조하면, 도 9는 본 출원의 실시예에 따른 디코더(80)의 구체적인 하드웨어 구조를 나타내는 도면이다. 디코더(80)는 제 2 통신 인터페이스(901), 제 2 메모리(902) 및 제 2 프로세서(903)를 포함할 수 있다. 각 컴포넌트는 제 2 버스 시스템(904)을 통해 함께 결합된다. 제 2 버스 시스템(904)은 이러한 컴포넌트 간의 연결과 통신을 실현하는 데에 사용된다. 제 2 버스 시스템(904)은 데이터 버스 이외에 또한 전력 버스, 제어 버스 및 상태 신호 버스를 포함한다. 명확하게 설명하기 위하여, 도 9에 도시된 바와 같이, 다양한 버스는 제 2 버스 시스템(704)으로 표기되어 있다.
제 2 통신 인터페이스(901)는 다른 외부 네트워크 요소와 정보를 송수신하는 과정에서 신호를 송수신하는 데에 사용된다.
제 2 메모리(902)는 제 2 프로세서(903)에 의해 실행 가능한 컴퓨터 프로그램을 저장하는 데에 사용된다.
컴퓨터 프로그램이 제 2 프로세서(703)에 의해 실행되면, 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하고, 초기 예측값에 대하여 필터링 처리를 수행하여 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득한다.
선택적으로, 다른 실시예에 있어서, 제 2 프로세서(903)는 컴퓨터 프로그램을 실행할 때, 상기 실시예에 기재된 임의의 하나의 방법을 실행하는 데에 사용된다.
제 2 메모리(902)와 제 1 메모리(702)의 기능은 유사하고, 제 2 프로세서(903)와 제 1 프로세서(603)의 기능은 유사함을 이해할 수 있으므로 여기서는 자세히 설명하지 않는다.
본 출원의 실시예는 디코더를 제공한다. 디코더는 제 2 예측 유닛과 제 2 처리 유닛을 포함한다. 제 2 예측 유닛은 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하는 데에 사용된다. 제 2 처리 유닛은 초기 예측값에 대하여 필터링 처리를 수행하여 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득하는 데에 사용된다. 이렇게 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 예측한 다음에, 계속 상기 적어도 하나의 화상 컴포넌트에 대하여 필터링 처리를 수행함으로써, 컴포넌트 간 예측을 수행한 다음에 각 화상 컴포넌트의 통계 특성의 균형을 이룰 수 있다. 따라서, 예측 효율을 향상시킬뿐만 아니라, 비디오 화상의 부호화 및 복호화 효율을 향상시킬 수 있다.
본 출원에 있어서, ‘포함한다’ 또는 그 변형과 같은 용어는 비 배타적인 포함을 커버하기 위한 것으로서 일련의 요소를 포함하는 프로세스, 방법, 개체 또는 장치는 나열된 요소뿐만 아니라 나열되지 않은 다른 요소를 포함하고, 또는 프로세스, 방법, 개체 또는 장치에 고유한 다른 요소를 포함할 수 있다. 더 많은 제한이 없는 상황에서‘...을 포함한다’라는 문구에 의해 제한된 요소를 포함하는 프로세스, 방법, 개체 또는 장치에 다른 동일한 요소가 존재하는 것을 배제하지 않는다.
상술한 실시예의 시퀀스 번호는 실시예의 우열을 나타내는 것이 아니라, 단지 설명하는 데에 사용된다.
본 출원의 여러 방법 실시예에 기재된 방법은 충돌이 없는 한 임의로 조합하여 새로운 방법 실시예를 획득할 수 있음에 유념하기 바란다.
본 출원의 여러 제품 실시예에 개시된 특징은 충돌이 없는 한 임의로 조합하여 새로운 제품 실시예를 획득할 수 있음에 유념하기 바란다.
본 출원의 여러 방법 또는 장치 실시예에 개시된 특징은 충돌이 없는 한 임의로 조합하여 새로운 방법 실시예 또는 장치 실시예를 얻을 수 있다.
상술한 것은 단지 본 발명의 구체적인 실시예이며, 본 발명의 보호 범위는 이것에 한정되는 것은 아니다. 당업자라면 본 발명에 개시된 기술 범위 내에서 변경 또는 교체를 쉽게 도출할 수 있으며, 이러한 변경 또는 교체는 모두 본 발명의 범위 내에 포함되어야 한다. 따라서 본 출원의 보호 범위는 특허 청구 범위에 의해 결정된다.
본 출원의 실시예에 있어서, 우선, 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득한다. 다음, 초기 예측값에 대하여 필터링 처리를 수행하여 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득한다. 이렇게 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 예측한 다음에, 계속 상기 적어도 하나의 화상 컴포넌트에 대하여 필터링 처리를 수행함으로써, 컴포넌트 간 예측을 수행한 다음에 각 화상 컴포넌트의 통계 특성의 균형을 이룰 수 있다. 따라서, 예측 효율을 향상시킬뿐만 아니라, 획득된 목표 예측값이 진실값에 더욱 가깝기 때문에 화상 컴포넌트의 예측 잔차(predicted residual)는 비교적 작고, 부호화 및 복호화 과정에서 전송되는 비트 레이트가 적으며, 비디오 화상의 부호화 및 복호화 효율을 향상시킬 수 있다.

Claims (19)

  1. 인코더 또는 디코더에 적용 가능한 화상 예측 방법으로서,
    예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하는 것과,
    상기 초기 예측값에 대하여 필터링 처리를 수행하여 상기 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득하는 것을 포함하는 것을 특징으로 하는 화상 예측 방법.
  2. 제 1 항에 있어서,
    상기 초기 예측값에 대하여 필터링 처리를 수행하기 전에, 상기 방법은,
    상기 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 특성 통계를 수행하는 것과,
    특성 통계 결과에 따라 상기 현재 블록의 예측할 화상 컴포넌트의 참조값 및/또는 상기 현재 블록의 참조할 화상 컴포넌트의 참조값을 획득하는 것을 더 포함하고,
    상기 적어도 하나의 화상 컴포넌트는 예측할 화상 컴포넌트 및/또는 참조할 화상 컴포넌트를 포함하고, 상기 예측할 화상 컴포넌트와 상기 참조할 화상 컴포넌트는 다르며, 상기 예측할 화상 컴포넌트는 상기 예측 모델을 구축할 때에 예측되는 컴포넌트이고, 상기 참조할 화상 컴포넌트는 상기 예측 모델을 구축할 때에 예측에 사용되는 컴포넌트인 것을 특징으로 하는 방법.
  3. 제 2 항에 있어서,
    상기 초기 예측값에 대하여 필터링 처리를 수행하여 상기 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득하는 것은,
    상기 현재 블록의 예측할 화상 컴포넌트의 참조값 및/또는 상기 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드를 이용하여 상기 초기 예측값에 대하여 필터링 처리를 수행하는 것 - 상기 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화 및 비 양자화 중 적어도 하나를 포함함 - 과,
    상기 처리 결과에 따라 상기 목표 예측값을 획득하는 것을 포함하는 것을 특징으로 하는 방법.
  4. 제 2 항에 있어서,
    상기 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하고 나서, 상기 방법은,
    상기 초기 예측값에 따라 상기 현재 블록의 예측할 화상 컴포넌트의 초기 예측 잔차를 계산하는 것과,
    상기 현재 블록의 예측할 화상 컴포넌트의 참조값 및/또는 상기 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드를 이용하여 상기 초기 예측 잔차에 대하여 필터링 처리를 수행하는 것 - 상기 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화 및 비 양자화 중 적어도 하나를 포함함 - 과,
    상기 처리 결과에 따라 목표 예측 잔차를 획득하는 것을 더 포함하는 것을 특징으로 하는 방법.
  5. 제 4 항에 있어서,
    상기 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득하는 것은,
    상기 목표 예측 잔차에 따라 상기 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 계산하는 것을 포함하는 것을 특징으로 하는 방법.
  6. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
    상기 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하기 전에, 상기 방법은,
    상기 현재 블록의 예측할 화상 컴포넌트의 참조값을 확정하는 것 - 상기 현재 블록의 예측할 화상 컴포넌트의 참조값은 상기 현재 블록의 인접 샘플의 예측할 화상 컴포넌트 값임 - 과,
    상기 현재 블록의 참조할 화상 컴포넌트의 참조값을 확정하는 것 - 상기 현재 블록의 참조할 화상 컴포넌트와 예측할 화상 컴포넌트는 다르고, 상기 현재 블록의 참조할 화상 컴포넌트의 참조값은 상기 현재 블록의 인접 샘플의 참조 화상 컴포넌트 값임 - 과,
    상기 현재 블록의 예측할 화상 컴포넌트의 참조값과 상기 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 상기 예측 모델의 모델 파라미터를 계산하는 것과,
    계산하여 얻어진 모델 파라미터를 기반으로 상기 예측 모델을 구축하는 것 - 상기 예측 모델은 상기 현재 블록의 참조할 화상 컴포넌트에 따라 상기 현재 블록의 예측할 화상 컴포넌트에 대하여 컴포넌트 간 예측 처리를 수행하는 데에 사용됨 - 을 더 포함하는 것을 특징으로 하는 방법.
  7. 제 6 항에 있어서,
    상기 예측 모델의 모델 파라미터를 계산하기 전에, 상기 방법은,
    상기 현재 블록의 예측할 화상 컴포넌트의 해상도와 상기 현재 블록의 참조할 화상 컴포넌트의 해상도가 다른 경우, 상기 참조할 화상 컴포넌트의 해상도를 조정하는 것 - 상기 해상도 조정은 업 샘플링 조정 또는 다운 샘플링 조정을 포함함 - 과,
    조정된 상기 참조할 화상 컴포넌트의 해상도에 따라 상기 현재 블록의 참조할 화상 컴포넌트의 참조값을 업데이트하여 상기 현재 블록의 참조할 화상 컴포넌트의 제 1 참조값을 획득하는 것 - 조정된 상기 참조할 화상 컴포넌트의 해상도와 상기 예측할 화상 컴포넌트의 해상도는 동일함 - 을 더 포함하는 것을 특징으로 하는 방법.
  8. 제 6 항에 있어서,
    상기 예측 모델의 모델 파라미터를 계산하기 전에, 상기 방법은,
    상기 현재 블록의 예측할 화상 컴포넌트의 해상도와 상기 현재 블록의 참조할 화상 컴포넌트의 해상도가 다른 경우, 상기 현재 블록의 참조할 화상 컴포넌트의 참조값을 조정함으로써, 상기 현재 블록의 참조할 화상 컴포넌트의 제 1 참조값을 획득하는 것을 더 포함하고,
    상기 조정 처리는 다운 샘플링 필터링, 업 샘플링 필터링, 다운 샘플링 필터링과 로우 패스 필터링의 캐스케이드 필터링, 업 샘플링 필터링과 로우 패스 필터링의 캐스케이드 필터링 중 하나를 포함하는 것을 특징으로 하는 방법.
  9. 제 7 항 또는 제 8 항에 있어서,
    상기 현재 블록의 예측할 화상 컴포넌트의 참조값과 상기 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 상기 예측 모델의 모델 파라미터를 계산한다는 것은,
    상기 현재 블록의 예측할 화상 컴포넌트의 참조값과 상기 현재 블록의 참조할 화상 컴포넌트의 제 1 참조값에 따라 상기 예측 모델의 모델 파라미터를 계산하는 것을 포함하는 것을 특징으로 하는 방법.
  10. 제 1 항에 있어서,
    상기 초기 예측값에 대하여 필터링 처리를 수행한다는 것은,
    상기 현재 블록의 예측할 화상 컴포넌트의 참조값에 따라 초기 예측값에 대하여 필터링 처리를 수행하여 상기 목표 예측값을 획득하는 것을 포함하고,
    상기 현재 블록의 예측할 화상 컴포넌트의 참조값은 상기 화상의 예측할 화상 컴포넌트 또는 상기 현재 블록의 예측할 화상 컴포넌트에 대하여 특성 통계를 실시함으로써 획득하는 것을 특징으로 하는 방법.
  11. 제 10 항에 있어서,
    상기 현재 블록의 예측할 화상 컴포넌트의 참조값에 따라 상기 초기 예측값에 대해 필터링 처리를 수행한다는 것은,
    상기 현재 블록의 예측할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 상기 초기 예측값에 대하여 필터링 처리를 수행하는 것을 포함하고,
    상기 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화, 역 양자화, 로우 패스 필터링, 적응 필터링 중 적어도 하나를 포함하는 것을 특징으로 하는 방법.
  12. 제 10 항에 있어서,
    상기 현재 블록의 예측할 화상 컴포넌트의 참조값에 따라 상기 초기 예측값에 대하여 필터링 처리를 수행하는 것은,
    상기 초기 예측값을 이용하여 상기 현재 블록의 예측할 화상 컴포넌트의 초기 예측 잔차를 계산하는 것과,
    상기 현재 블록의 예측할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 상기 초기 예측 잔차에 대하여 필터링 처리를 수행하는 것을 포함하고,
    상기 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화, 역 양자화, 로우 패스 필터링, 적응 필터링 중 적어도 하나를 포함하는 것을 특징으로 하는 방법.
  13. 제 1 항에 있어서,
    예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하기 전에, 상기 방법은,
    상기 화상의 예측할 화상 컴포넌트에 대하여 특성 통계를 수행하는 것과,
    특성 통계 결과에 따라 상기 현재 블록의 예측할 화상 컴포넌트의 참조값과 상기 현재 블록의 참조할 화상 컴포넌트의 참조값을 확정하는 것 - 상기 참조할 화상 컴포넌트와 상기 예측할 화상 컴포넌트는 다름 - 과,
    상기 현재 블록의 예측할 화상 컴포넌트의 참조값과 상기 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 상기 예측 모델의 모델 파라미터를 계산하는 것을 더 포함하는 것을 특징으로 하는 방법.
  14. 제 13 항에 있어서,
    상기 방법은,
    상기 현재 블록의 예측할 화상 컴포넌트의 참조값과 상기 현재 블록의 참조할 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 상기 초기 예측값에 대하여 필터링 처리를 수행하는 것을 더 포함하고,
    상기 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화, 역 양자화, 로우 패스 필터링, 적응 필터링 중 적어도 하나를 포함하는 것을 특징으로 하는 방법.
  15. 인코더로서,
    상기 인코더는 제 1 예측 유닛과 제 1 처리 유닛을 포함하고,
    상기 제 1 예측 유닛은 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하는 데에 사용되고,
    상기 제 1 처리 유닛은 상기 초기 예측값에 대하여 필터링 처리를 수행하여 상기 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득하는 데에 사용되는 것을 특징으로 하는 인코더.
  16. 인코더로서,
    상기 인코더는 제 1 메모리 및 제 1 프로세서를 포함하고,
    상기 제 1 메모리는 상기 제 1 프로세서에서 실행할 수 있는 컴퓨터 프로그램을 저장하는 데에 사용되고,
    상기 제 1 프로세서는 상기 컴퓨터 프로그램을 실행함으로써 제 1 항 내지 제 14 항 중 어느 한 항에 기재된 방법을 실행하는 데에 사용되는 것을 특징으로 하는 인코더.
  17. 디코더로서,
    상기 디코더는 제 2 예측 유닛 및 제 2 처리 유닛을 포함하고,
    상기 제 2 예측 유닛은 예측 모델을 통해 화상 중 현재 블록의 예측할 화상 컴포넌트의 초기 예측값을 획득하는 데에 사용되고,
    상기 제 2 처리 유닛은 상기 초기 예측값에 대하여 필터링 처리를 수행하여 상기 현재 블록의 예측할 화상 컴포넌트의 목표 예측값을 획득하는 데에 사용되는 것을 특징으로 하는 디코더.
  18. 디코더로서,
    상기 디코더는 제 2 메모리 및 제 2 프로세서를 포함하고,
    상기 제 2 메모리는 상기 제 2 프로세서에서 실행할 수 있는 컴퓨터 프로그램을 저장하는 데에 사용되고,
    상기 제 2 프로세서는 상기 컴퓨터 프로그램을 실행함으로써 제 1 항 내지 제 14 항 중 어느 한 항에 기재된 방법을 실행하는 데에 사용되는 것을 특징으로 하는 디코더.
  19. 컴퓨터 저장 매체로서,
    상기 컴퓨터 저장 매체에 화상 예측 프로그램이 저장되어 있고, 상기 화상 예측 프로그램이 제 1 프로세서 또는 제 2 프로세서에 의해 실행되면 제 1 항 내지 제 14 항 중 어느 한 항에 기재된 방법을 실현하는 것을 특징으로 하는 컴퓨터 저장 매체.
KR1020217032518A 2019-03-25 2019-10-12 화상 예측 방법, 인코더, 디코더 및 저장 매체 KR20210139328A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962823613P 2019-03-25 2019-03-25
US62/823,613 2019-03-25
PCT/CN2019/110834 WO2020192085A1 (zh) 2019-03-25 2019-10-12 图像预测方法、编码器、解码器以及存储介质

Publications (1)

Publication Number Publication Date
KR20210139328A true KR20210139328A (ko) 2021-11-22

Family

ID=72611276

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217032518A KR20210139328A (ko) 2019-03-25 2019-10-12 화상 예측 방법, 인코더, 디코더 및 저장 매체

Country Status (6)

Country Link
US (1) US20220014772A1 (ko)
EP (1) EP3944621A4 (ko)
JP (1) JP7480170B2 (ko)
KR (1) KR20210139328A (ko)
CN (3) CN116320472A (ko)
WO (1) WO2020192085A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110572673B (zh) * 2019-09-27 2024-04-09 腾讯科技(深圳)有限公司 视频编解码方法和装置、存储介质及电子装置
CN115176474A (zh) * 2019-12-31 2022-10-11 抖音视界有限公司 多参数模型的跨分量预测
CN117528098B (zh) * 2024-01-08 2024-03-26 北京小鸟科技股份有限公司 基于深压缩码流提升画质的编解码系统、方法及设备

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8542736B2 (en) 2006-10-18 2013-09-24 Thomson Licensing Method and apparatus for video coding using prediction data refinement
KR101455647B1 (ko) * 2007-09-14 2014-10-28 삼성전자주식회사 컬러 기반으로 예측 값을 보정하는 방법 및 장치, 이것을이용한 이미지 압축/복원 방법과 장치
GB2501535A (en) 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
US20140192862A1 (en) * 2013-01-07 2014-07-10 Research In Motion Limited Methods and systems for prediction filtering in video coding
US20150373362A1 (en) * 2014-06-19 2015-12-24 Qualcomm Incorporated Deblocking filter design for intra block copy
US10200700B2 (en) * 2014-06-20 2019-02-05 Qualcomm Incorporated Cross-component prediction in video coding
BR112017004886A2 (pt) * 2014-09-12 2017-12-05 Vid Scale Inc dispositivo de codificação de vídeo e método de codificação de vídeo
US9838662B2 (en) * 2014-10-10 2017-12-05 Qualcomm Incorporated Harmonization of cross-component prediction and adaptive color transform in video coding
KR20200051831A (ko) * 2014-10-28 2020-05-13 미디어텍 싱가폴 피티이. 엘티디. 비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법
US9998742B2 (en) * 2015-01-27 2018-06-12 Qualcomm Incorporated Adaptive cross component residual prediction
WO2017059926A1 (en) * 2015-10-09 2017-04-13 Telefonaktiebolaget Lm Ericsson (Publ) Cross component prediction in video coding
US10484712B2 (en) * 2016-06-08 2019-11-19 Qualcomm Incorporated Implicit coding of reference line index used in intra prediction
EP3526968A4 (en) * 2016-10-12 2020-06-03 Telefonaktiebolaget LM Ericsson (publ) RESIDUAL REFINEMENT OF COLOR COMPONENTS
US11025903B2 (en) * 2017-01-13 2021-06-01 Qualcomm Incorporated Coding video data using derived chroma mode
US11184636B2 (en) 2017-06-28 2021-11-23 Sharp Kabushiki Kaisha Video encoding device and video decoding device
JP7345475B2 (ja) 2018-08-15 2023-09-15 日本放送協会 イントラ予測装置、画像符号化装置、画像復号装置、及びプログラム

Also Published As

Publication number Publication date
EP3944621A4 (en) 2022-05-18
WO2020192085A1 (zh) 2020-10-01
US20220014772A1 (en) 2022-01-13
CN116320472A (zh) 2023-06-23
EP3944621A1 (en) 2022-01-26
CN113784128A (zh) 2021-12-10
CN113784128B (zh) 2023-04-21
JP2022528635A (ja) 2022-06-15
JP7480170B2 (ja) 2024-05-09
CN113196765A (zh) 2021-07-30

Similar Documents

Publication Publication Date Title
US20220014772A1 (en) Method for picture prediction, encoder, and decoder
WO2020029187A1 (zh) 视频图像分量的预测方法、装置及计算机存储介质
WO2021120122A1 (zh) 图像分量预测方法、编码器、解码器以及存储介质
US20220239901A1 (en) Video picture component prediction method and apparatus, and computer storage medium
CN113068025B (zh) 解码预测方法、装置及计算机存储介质
JP7437426B2 (ja) インター予測方法および装置、機器、記憶媒体
US20220014765A1 (en) Method for picture prediction, encoder, decoder, and storage medium
JP2022522487A (ja) 画像成分予測方法、エンコーダ、デコーダ及び記憶媒体
CN112313950A (zh) 视频图像分量的预测方法、装置及计算机存储介质
WO2020192180A1 (zh) 图像分量的预测方法、编码器、解码器及计算机存储介质
RU2805048C2 (ru) Способ предсказания изображения, кодер и декодер
CN112970257A (zh) 解码预测方法、装置及计算机存储介质
JP7305769B2 (ja) 予測方向の決定方法、デコーダ及びコンピュータ記憶媒体
WO2022246809A1 (zh) 编解码方法、码流、编码器、解码器以及存储介质
US20210321091A1 (en) Intra prediction method and apparatus, and computer-readable storage medium
WO2021174396A1 (zh) 图像预测方法、编码器、解码器以及存储介质
KR20220066166A (ko) 현재 블록의 예측 방법 및 예측 장치, 디바이스, 저장 매체