KR20210139327A - 화상 예측 방법, 인코더, 디코더 및 저장 매체 - Google Patents

화상 예측 방법, 인코더, 디코더 및 저장 매체 Download PDF

Info

Publication number
KR20210139327A
KR20210139327A KR1020217032516A KR20217032516A KR20210139327A KR 20210139327 A KR20210139327 A KR 20210139327A KR 1020217032516 A KR1020217032516 A KR 1020217032516A KR 20217032516 A KR20217032516 A KR 20217032516A KR 20210139327 A KR20210139327 A KR 20210139327A
Authority
KR
South Korea
Prior art keywords
component
picture component
current block
picture
reference value
Prior art date
Application number
KR1020217032516A
Other languages
English (en)
Inventor
솨이 완
쥔옌 훠
옌줘 마
웨이 장
Original Assignee
광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 filed Critical 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드
Publication of KR20210139327A publication Critical patent/KR20210139327A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Abstract

본 출원의 실시예는 화상 예측 방법, 인코더, 디코더 및 저장 매체를 개시한다. 상기 방법은, 화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정하는 것과, 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하는 것과, 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축하는 것 - 예측 모델은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용됨 - 을 포함한다.

Description

화상 예측 방법, 인코더, 디코더 및 저장 매체
본 출원의 실시예는 비디오 부호화 및 복호화 기술 분야에 관한 것으로, 보다 구체적으로 화상 예측 방법, 인코더, 디코더 및 저장 매체에 관한 것이다.
최신 비디오 코딩 표준 H. 266/다용도 비디오 코딩(versatile video coding, VVC)는 컴포넌트 간 예측의 존재를 허용한다. CCLM 예측(cross-component linear model prediction)은 전형적인 컴포넌트 간 예측 기술 중 하나이다. 컴포넌트 간 예측 기술을 이용하여 하나의 컴포넌트를 통해 다른 컴포넌트(또는 그 잔차)를 예측할 수 있으며, 예를 들면, 휘도 컴포넌트(luma component)를 통해 색도 컴포넌트(chroma component)를 예측할 수 있거나, 또는 색도 컴포넌트를 통해 휘도 컴포넌트를 예측할 수 있거나, 또는 색도 컴포넌트를 통해 색도 컴포넌트를 예측할 수도 있다.
서로 다른 컴포넌트는 서로 다른 통계 특성을 갖기 때문에, 서로 다른 컴포넌트의 통계 특성에 차이가 존재한다. 그러나 컴포넌트를 예측할 때, 기존의 컴포넌트 간 예측 기술은 전면적으로 고려하지 않기 때문에 예측 효율이 낮다.
본 출원의 실시예는 화상 예측 방법, 인코더, 디코더 및 저장 매체를 제공한다. 컴포넌트 간 예측을 수행하기 전에 각 컴포넌트의 통계 특성의 균형을 이룸으로써 예측 효율을 향상시킬 뿐만 아니라, 비디오 화상의 부호화 및 복호화 효율도 향상시킨다.
본 출원의 실시예에 따른 기술적 방안은 다음과 같다.
제 1 양태에서, 본 출원의 실시예는 인코더 또는 디코더에 적용 가능한 화상 예측 방법을 제공한다. 상기 방법은,
화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정하는 것과,
현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하는 것과,
전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축하는 것 - 예측 모델은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용됨 - 을 포함한다.
제 2 양태에서, 본 출원의 실시예는 인코더 또는 디코더에 적용 가능한 화상 예측 방법을 제공한다. 상기 방법은,
화상 중 현재 블록의 제 1 화상 컴포넌트의 참조값을 확정하는 것 - 현재 블록의 제 1 화상 컴포넌트의 참조값은 현재 블록의 인접 샘플의 제 1 화상 컴포넌트값임 - 과,
현재 블록의 제 1 화상 컴포넌트의 참조값을 필터링하여 필터링된 참조값을 획득하는 것과,
필터링된 참조값을 이용하여 예측 모델의 모델 파라미터를 계산하는 것 - 예측 모델은 현재 블록의 제 1 화상 컴포넌트값을 현재 블록의 제 2 화상 컴포넌트값에 매핑하는 데에 사용되며, 제 2 화상 컴포넌트와 제 1 화상 컴포넌트는 다름 - 을 포함한다.
제 3 양태에서, 본 출원의 실시예는 인코더를 제공한다. 인코더는 제 1 확정 유닛, 제 1 처리 유닛 및 제 1 구축 유닛을 포함한다. 제 1 확정 유닛은 화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정하는 데에 사용된다. 제 1 처리 유닛은 현재 블록의 적어도 하나의 화상 컴포넌트에 대해 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하는 데에 사용된다. 제 1 구축 유닛은 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축하는 데에 사용되며, 예측 모델은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용된다.
제 4 양태에서, 본 출원의 실시예는 인코더를 제공한다. 인코더는 제 1 메모리 및 제 1 프로세서를 포함한다. 제 1 메모리는 제 1 프로세서에서 실행할 수 있는 컴퓨터 프로그램을 저장하는 데에 사용된다. 제 1 프로세서는 컴퓨터 프로그램을 실행함으로써 제 1 양태 또는 제 2 양태의 방법을 실행하는 데에 사용된다.
제 5 양태에서, 본 출원의 실시예는 디코더를 제공한다. 디코더는 제 2 확정 유닛, 제 2 처리 유닛 및 제 2 구축 유닛을 포함한다. 제 2 확정 유닛은 화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정하는 데에 사용된다. 제 2 처리 유닛은 현재 블록의 적어도 하나의 화상 컴포넌트에 대해 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하는 데에 사용된다. 제 2 구축 유닛은 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축하는 데에 사용되며, 예측 모델은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용된다.
제 6 양태에서, 본 출원의 실시예는 디코더를 제공한다. 디코더는 제 2 메모리 및 제 2 프로세서를 포함한다. 제 2 메모리는 제 2 프로세서에서 실행할 수 있는 컴퓨터 프로그램을 저장하는 데에 사용된다. 제 2 프로세서는 컴퓨터 프로그램을 실행함으로써 제 1 양태 또는 제 2 양태의 방법을 실행하는 데에 사용된다.
제 7 양태에서, 본 출원의 실시예는 컴퓨터 저장 매체를 제공한다. 컴퓨터 저장 매체에 화상 예측 프로그램이 저장되어 있다. 화상 예측 프로그램이 제 1 프로세서 또는 제 2 프로세서에 의해 실행되면 제 1 양태 또는 제 2 양태의 방법을 실현한다.
본 출원의 실시예는 화상 예측 방법, 인코더, 디코더 및 저장 매체를 제공한다. 화상 예측 방법은, 화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정하는 것과, 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하는 것과, 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축하는 것 - 예측 모델은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용됨 - 을 포함한다. 이렇게 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하기 전에 적어도 하나의 화상 컴포넌트에 대하여 전처리를 수행함으로써, 컴포넌트 간 예측을 수행하기 전에 각 화상 컴포넌트의 통계 특성의 균형을 이룸으로써 예측 효율을 향상시킨다. 예측 모델을 이용하여 예측된 화상 컴포넌트의 예측값이 진실값에 더욱 가깝기 때문에 화상 컴포넌트의 예측 잔차(predicted residual)는 비교적 작고, 부호화 및 복호화 과정에서 전송되는 비트 레이트가 적으며, 비디오 화상의 부호화 및 복호화 효율을 향상시킬 수 있다.
도 1은 본 출원의 실시예에 따른 기존의 컴포넌트 간 예측 아키텍처의 구조를 나타내는 도면이다.
도 2는 본 출원의 실시예에 따른 비디오 인코딩 시스템의 블록도이다.
도 3은 본 출원의 실시예에 따른 비디오 디코딩 시스템의 블록도이다.
도 4는 본 출원의 실시예에 따른 화상 예측 방법의 흐름도이다.
도 5는 본 출원의 다른 실시예에 따른 화상 예측 방법의 흐름도이다.
도 6은 본 출원의 실시예에 따른 개선된 컴포넌트 간 예측 아키텍처의 구조를 나타내는 도면이다.
도 7은 본 출원의 다른 실시예에 따른 개선된 컴포넌트 간 예측 아키텍처의 구조를 나타내는 도면이다.
도 8은 본 출원의 실시예에 따른 인코더의 구조를 나타내는 도면이다.
도 9는 본 출원의 실시예에 따른 인코더의 구체적인 하드웨어 구조를 나타내는 도면이다.
도 10은 본 출원의 실시예에 따른 디코더의 구조를 나타내는 도면이다.
도 11은 본 출원의 실시예에 따른 디코더의 구체적인 하드웨어 구조를 나타내는 도면이다.
본 출원의 실시예의 특징 및 기술적 내용을 상세하게 이해하기 위하여, 아래 도면을 참조하여 본 출원의 실시예의 기술적 방안을 상세하게 설명하며, 첨부된 도면은 단지 설명하는 데에 사용되며, 본 출원을 한정하고자 하는 것은 아니다.
비디오 화상에 있어서, 일반적으로 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트로 코딩 블록을 나타낸다. 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트는 각각 휘도 컴포넌트, 청색 색도 컴포넌트 및 적색 색도 컴포넌트이다. 구체적으로, 휘도 컴포넌트는 일반적으로 기호 Y로 나타내고, 청색 색도 컴포넌트는 일반적으로 기호 Cb 또는 U로 나타내며, 적색 색도 컴포넌트는 일반적으로 기호 Cr 또는 V로 나타낸다. 이렇게 비디오 화상은 YCbCr 또는 YUV 포맷으로 나타낼 수 있다.
본 출원의 실시예에 있어서, 제 1 화상 컴포넌트는 휘도 컴포넌트일 수 있고, 제 2 화상 컴포넌트는 청색 색도 컴포넌트일 수 있으며, 제 3 화상 컴포넌트는 적색 색도 컴포넌트일 수 있으며, 본 출원의 실시예는 이것에 대하여 구체적으로 한정하지 않는다.
부호화 및 복호화 효율을 향상시키기 위하여, H. 266/VCC는 CCLM 컴포넌트 간 예측 기술을 제출하였다. CCLM 컴포넌트 간 예측 기술로 휘도 컴포넌트를 통해 색도 컴포넌트를 예측할 수 있을 뿐만 아니라(즉 제 1 화상 컴포넌트를 통해 제 2 화상 컴포넌트를 예측할 수 있거나, 또는 제 1 화상 컴포넌트를 통해 제 3 화상 컴포넌트를 예측할 수 있다), 색도 컴포넌트를 통해 휘도 컴포넌트를 예측할 수도 있으며(즉 제 2 화상 컴포넌트를 통해 제 1 화상 컴포넌트를 예측할 수 있거나, 또는 제 3 화상 컴포넌트를 통해 제 1 화상 컴포넌트를 예측할 수도 있다), 심지어 색도 컴포넌트 간의 예측을 실현할 수 있다(즉 제 2 화상 컴포넌트를 통해 제 3 화상 컴포넌트를 예측할 수 있거나, 또는 제 3 화상 컴포넌트를 통해 제 2 화상 컴포넌트를 예측할 수도 있다). 본 출원의 실시예에 있어서, 이하, 제 1 화상 컴포넌트를 통해 제 2 화상 컴포넌트를 예측하는 것을 예로써 설명하지만, 본 출원의 실시예의 기술 방안은 다른 화상 컴포넌트를 예측하는 데에 적용할 수도 있다.
도 1은 본 출원의 실시예에 따른 기존의 컴포넌트 간 예측 아키텍처의 구조를 나타내는 도면이다. 도 1에 도시된 바와 같이, 제 1 화상 컴포넌트(예를 들어, Y 컴포넌트로 나타낸다)를 통해 제 2 화상 컴포넌트(예를 들어, U 컴포넌트로 나타낸다)를 예측한다. 비디오 화상이 사용하는 YUV 포맷이 4:2:0 포맷인 경우, Y 컴포넌트와 U 컴포넌트의 해상도는 다르다. 이런 경우에 예측하려는 컴포넌트의 목표 해상도에 도달하기 위해 Y 컴포넌트에 대하여 다운 샘플링을 수행하거나 또는 U 컴포넌트에 대하여 업 샘플링을 수행하는 것이 필요하며, 동일한 해상도로 컴포넌트 간 예측을 수행할 수 있다. 본 예시에서, Y 컴포넌트를 통해 제 3 화상 컴포넌트(예를 들면, V 컴포넌트로 나타낸다)를 예측하는 방법은 상술한 것과 같다.
도 1에 있어서, 기존의 컴포넌트 간 예측 아키텍처(10)는 코딩 블록의 Y 컴포넌트(110), 해상도 조정 유닛(120), 코딩 블록의 Y1 컴포넌트(130), 코딩 블록의 U 컴포넌트(140), 예측 모델(150) 및 컴포넌트 간 예측 유닛(160)을 포함한다. 비디오 화상의 Y 컴포넌트는 2N×2N 크기의 코딩 블록의 Y 컴포넌트(110)로 나타낸다. 여기서 더 굵게 표시된 비교적 큰 방틀은 코딩 블록의 Y 컴포넌트(110)를 강조 표시하는 데에 사용되며, 주위의 회색 실심 원형은 코딩 블록의 Y 컴포넌트(110)의 인접한 참조값
Figure pct00001
을 나타내는 데에 사용된다. 비디오 화상의 U 컴포넌트는 N×N 크기의 코딩 블록의 U 컴포넌트(140)로 나타낸다. 여기서 더 굵게 표시된 비교적 큰 방틀은 코딩 블록의 U 컴포넌트(140)를 강조 표시하는 데에 사용되며, 주위의 회색 실심 원형은 코딩 블록의 U 컴포넌트(140)의 인접한 참조값
Figure pct00002
을 나타내는 데에 사용된다. Y 컴포넌트와 U 컴포넌트의 해상도가 다르기 때문에, 해상도 조정 유닛(120)에 의해 Y 컴포넌트의 해상도를 조정하여 N×N 크기의 코딩 블록의 Y1 컴포넌트(130)를 획득할 필요가 있다. 코딩 블록의 Y1 컴포넌트(130)에 대하여, 더 굵게 표시된 비교적 큰 방틀은 코딩 블록의 Y1 컴포넌트(130)를 강조 표시하는 데에 사용되며, 주위의 회색 실심 원형은 코딩 블록의 Y1 컴포넌트(130)의 인접한 참조값
Figure pct00003
을 나타내는 데에 사용된다. 코딩 블록의 Y1 컴포넌트(130)의 인접한 참조값
Figure pct00004
및 코딩 블록의 U 컴포넌트(140)의 인접한 참조값
Figure pct00005
을 통해 예측 모델(150)을 구축할 수 있다. 코딩 블록의 Y1 컴포넌트(130)의 재구성된 샘플값 및 예측 모델(150)에 따라 컴포넌트 간 예측 유닛(160)은 컴포넌트 예측을 수행할 수 있으며, 마지막으로 U 컴포넌트의 예측값을 출력한다.
기존의 컴포넌트 간 예측 아키텍처(10)에 있어서, 화상 컴포넌트 예측을 수행할 때에 전면적으로 고려하지 않으며, 예를 들어, 각 화상 컴포넌트간의 통계 특성의 차이를 고려하지 않기 때문에 예측 효율이 낮다. 예측 효율을 향상시키기 위하여, 본 출원의 실시예는 화상 예측 방법을 제공한다. 우선, 화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정하고, 그 다음에 현재 블록의 적어도 하나의 화상 컴포넌트에 대해 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하며, 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축하되, 예측 모델은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용된다. 이렇게 현재 블록의 적어도 하나의 화상 컴포넌트에 대해 컴포넌트 간 예측을 수행하기 전에 적어도 하나의 화상 컴포넌트에 대하여 전처리를 수행함으로써, 컴포넌트 간 예측을 수행하기 전에 각 화상 컴포넌트의 통계 특성의 균형을 이룸으로써 예측 효율을 향상시킬 뿐만 아니라, 비디오 화상의 부호화 및 복호화 효율도 향상시킨다.
이하, 도면을 참조하여 본 출원의 각 실시예에 대하여 상세하게 설명한다.
도 2는 본 출원의 실시예에 따른 비디오 인코딩 시스템의 블록도이다. 도 2에 도시된 바와 같이, 비디오 인코딩 시스템(20)은 변환 및 양자화 유닛(201), 인트라 추정 유닛(202), 인트라 예측 유닛(203), 모션 보상 유닛(204), 모션 추정 유닛(205), 역변환 및 역양자화 유닛(206), 필터 제어 분석 유닛(207), 필터링 유닛(208), 코딩 유닛(209) 및 디코딩된 화상 버퍼 유닛(210) 등을 포함한다. 필터링 유닛(208)은 디블로킹 필터링(deblocking filtering) 및 샘플 적응 오프셋(sample adaptive offset, SAO) 필터링을 실현할 수 있으며, 코딩 유닛(209)은 헤더 정보 인코딩 및 CABAC(context-based adaptive binary arithmetic coding)를 실현할 수 있다. 입력된 원본 비디오 신호에 대하여, 코딩 트리 유닛(coding tree unit, CTU)의 분할에 의해, 코딩 블록을 얻을 수 있다. 그 다음에 인트라 예측(intra prediction) 또는 인터 예측(inter prediction)을 통해 획득된 잔차 샘플 정보에 대하여, 변환 및 양자화 유닛(201)을 통해 코딩 블록을 변환하며, 잔차 정보를 픽셀 도메인에서 변환 도메인으로 변환하고, 비트 레이트를 더 낮추기 위하여 얻어진 변환 계수를 양자화하는 것을 포함한다. 인트라 추정 유닛(202) 및 인트라 예측 유닛(203)은 코딩 블록에 대하여 인트라 예측을 수행하는 데에 사용된다. 구체적으로 설명하면, 인트라 추정 유닛(202) 및 인트라 예측 유닛(203)은 코딩 블록을 부호화하는 데에 사용되는 인트라 예측 모드를 확정하는 데에 사용된다. 모션 보상 유닛(204) 및 모션 추정 유닛(205)은 시간 예측 정보를 제공하기 위하여 하나 이상의 참조 프레임 내의 하나 이상의 블록에 대한 수신된 코딩 블록의 인터 예측 코딩(inter-predictive coding)을 실행하는 데에 사용된다. 모션 추정 유닛(205)에 의해 수행되는 모션 추정은 모션 벡터를 생성하는 프로세스이며, 모션 벡터는 코딩 블록의 움직임을 추정할 수 있다. 모션 보상 유닛(204)은 모션 추정 유닛(205)에 의해 확정된 모션 벡터를 기반으로 모션 보상을 수행하는 데에 사용된다. 인트라 예측 모드를 확정한 다음에, 인트라 예측 유닛(203)은 또한 선택된 인트라 예측 데이터를 코딩 유닛(209)에 제공하는 데에 사용되며, 모션 추정 유닛(205)은 계산된 모션 벡터 데이터를 코딩 유닛(209)으로 전송하는 데에 사용된다. 역변환 및 역양자화 유닛(206)은 코딩 블록을 재구성하는 데에 사용된다. 잔차 블록은 픽셀 영역에서 재구성되고, 재구성된 잔차 블록의 블록네스 아티팩트(blockiness artifacts)는 필터 제어 분석 유닛(207) 및 필터링 유닛(208)을 통해 제거되고, 그리고 재구성된 잔차 블록은 디코딩된 화상 버퍼 유닛(210)의 프레임 내의 하나의 예측 블록에 추가되어 재구성된 비디오 코딩 블록을 생성하는 데에 사용된다. 코딩 유닛(209)은 다양한 인코딩 파라미터 및 양자화된 변환 계수를 부호화하는 데에 사용된다. CABAC를 기반으로 하는 인코딩 알고리즘에서 컨텍스트는 인접한 코딩 블록을 기반으로 할 수 있으며, 확정된 인트라 예측 모드를 나타내는 정보를 부호화하여 비디오 신호의 비트 스트림을 출력할 수 있다. 디코딩된 화상 버퍼 유닛(210)은 예측 참조를 위해 재구성된 코딩 블록을 저장하는 데에 사용된다. 비디오 화상의 부호화가 진행됨에 따라, 새로운 재구성된 비디오 코딩 블록이 지속적으로 생성되고, 이러한 재구성된 비디오 코딩 블록은 모두 디코딩된 화상 버퍼 유닛(210)에 저장된다.
도 3은 본 출원의 실시예에 따른 비디오 디코딩 시스템의 블록도이다. 도 3에 도시된 바와 같이, 비디오 인코딩 시스템(30)은 디코딩 유닛(301), 역변환 및 역양자화 유닛(302), 인트라 예측 유닛(303), 모션 보상 유닛(304), 필터링 유닛(305) 및 디코딩된 화상 버퍼 유닛(306) 등을 포함한다. 디코딩 유닛(301)은 헤더 정보 디코딩 및 CABAC 디코딩을 실현할 수 있다. 필터링 유닛(305)은 디블로킹 필터링(deblocking filtering) 및 SAO 필터링을 실현할 수 있다. 입력된 비디오 신호는 부호화된 후에(도 2에 도시된 바와 같다) 비디오 신호의 비트 스트림을 출력한다. 비트 스트림은 비디오 디코딩 시스템(30)에 입력된다. 우선, 디코딩 유닛(301)을 통해 복호화된 변환 계수를 획득한다. 복호화된 변환 계수는 역변환 및 역양자화 유닛(302)에 의해 처리되어 픽셀 영역에서 잔차 블록을 생성한다. 인트라 예측 유닛(303)은 확정된 인트라 예측 모드 및 현재 프레임 또는 화상의 이전 복호화된 블록(previous decoded block)으로부터의 데이터를 기반으로 복호화하려는 현재 코딩 블록(current coding block)의 예측 데이터를 생성하는 데에 사용될 수 있다. 모션 보상 유닛(304)은 움직임 벡터 및 기타 관련 문법 요소를 분석함으로써 복호화하려는 비디오 코딩 블록에 사용되는 예측 정보를 확정하는 데에 사용되며, 또한 예측 정보를 사용하여 복호화되고 있는 비디오 코딩 블록의 예측 블록을 생성한다. 역변환 및 역양자화 유닛(302)으로부터의 잔차 블록과 인트라 예측 유닛(303) 또는 모션 보상 유닛(304)에 의해 생성된 대응하는 예측 블록을 합계하여 복호화된 비디오 블록을 형성한다. 복호화된 비디오 블록의 블록네스 아티팩트(blockiness artifacts)는 필터링 유닛(305)을 통해 제거되고, 비디오 품질을 향상시킬 수 있다. 다음으로, 복호화된 비디오 블록은 디코딩된 화상 버퍼 유닛(306)에 저장된다. 디코딩된 화상 버퍼 유닛(306)은 후속 인트라 예측 또는 움직임 보상에 사용되는 참조 화상을 저장하는 데에 사용되며, 동시에 비디오 신호를 출력하는 데도 사용되며, 즉 복원된 원본 비디오 신호를 획득한다.
본 출원의 실시예는 도 2에 도시된 인트라 예측 유닛(203) 및 도 3에 도시된 인트라 예측 유닛(303)에 적용될 수 있다. 다시 말하면, 본 출원의 실시예는 비디오 인코딩 시스템 및 비디오 디코딩 시스템에 모두 적용 가능하며, 본 출원의 실시예는 이것에 대하여 한정하지 않는다.
도 2 또는 도 3에 도시된 애플리케이션 시나리오의 예시를 기반으로, 도 4를 참조하면, 도 4는 본 출원의 실시예에 따른 화상 예측 방법의 흐름도이다. 상기 방법은 아래 내용을 포함할 수 있다.
S401, 화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정한다.
S402, 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득한다.
S403, 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축하며, 예측 모델은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용된다.
비디오 화상은 여러 화상 블록으로 분할될 수 있으며, 현재 부호화될 각 화상 블록은 코딩 블록이라고 부를 수 있음에 유념하기 바란다. 각 코딩 블록은 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트를 포함할 수 있다. 현재 블록은 비디오 화상에 있어서 현재 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 또는 제 3 화상 컴포넌트를 예측하려는 코딩 블록이다.
본 출원의 실시예에 따른 화상 예측 방법은 비디오 인코딩 시스템 또는 비디오 디코딩 시스템에 적용할 수 있으며, 심지어 비디오 인코딩 시스템과 비디오 디코딩 시스템에 동시에 적용할 수도 있으며, 본 출원의 실시예는 이것에 대하여 구체적으로 한정하지 않음을 유념하기 바란다.
본 출원의 실시예에 있어서, 우선, 화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정하고, 그 다음에 현재 블록의 적어도 하나의 화상 컴포넌트에 대해 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하며, 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축하되, 예측 모델은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용된다. 이렇게 현재 블록의 적어도 하나의 화상 컴포넌트에 대해 컴포넌트 간 예측을 수행하기 전에 적어도 하나의 화상 컴포넌트에 대하여 전처리를 수행함으로써, 컴포넌트 간 예측을 수행하기 전에 각 화상 컴포넌트의 통계 특성의 균형을 이룸으로써 예측 효율을 향상시킬 뿐만 아니라, 비디오 화상의 부호화 및 복호화 효율도 향상시킨다.
또한, 서로 다른 화상 컴포넌트는 서로 다른 통계 특성을 갖고 있으며, 각 화상 컴포넌트의 통계 특성에 차이가 존재한다. 예를 들어, 휘도 컴포넌트는 풍부한 텍스처 특성을 갖지만, 색도 컴포넌트는 더 균일하고 평탄하다는 경향이 있다. 본 출원의 실시예는 각 화상 컴포넌트의 통계 특성의 차이를 고려함으로써, 각 화상 컴포넌트의 통계 특성의 균형을 이루는 목표에 도달할 수 있다. 일부 실시예에 있어서, 화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정한 다음에 상기 방법은 또한 아래 내용을 포함할 수 있다.
현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 특성 통계를 수행한다. 적어도 하나의 화상 컴포넌트는 제 1 화상 컴포넌트 및/또는 제 2 화상 컴포넌트를 포함한다.
특성 통계 결과에 따라 현재 블록의 제 1 화상 컴포넌트의 참조값 및/또는 현재 블록의 제 2 화상 컴포넌트의 참조값을 획득한다. 제 1 화상 컴포넌트는 예측 모델을 구축할 때에 예측에 사용되는 컴포넌트이고, 제 2 화상 컴포넌트는 예측 모델을 구축할 때에 예측되는 컴포넌트이다.
현재 블록의 적어도 하나의 화상 컴포넌트는 제 1 화상 컴포넌트일 수 있고, 제 2 화상 컴포넌트일 수도 있으며, 심지어 제 1 화상 컴포넌트와 제 2 화상 컴포넌트일 수도 있다. 제 1 화상 컴포넌트는 예측 모델을 구축할 때에 예측에 사용되는 컴포넌트이고, 참조할 화상 컴포넌트라고도 한다. 제 2 화상 컴포넌트는 예측 모델을 구축할 때에 예측되는 컴포넌트이며, 예측할 화상 컴포넌트라고도 한다.
예측 모델을 통해 휘도 컴포넌트에서 색도 컴포넌트에 대한 예측을 실현한다고 가정하면, 예측 모델을 구축할 때 예측에 사용되는 컴포넌트는 휘도 컴포넌트이고, 예측 모델을 구축할 때 예측되는 컴포넌트는 색도 컴포넌트이다. 즉, 제 1 화상 컴포넌트는 휘도 컴포넌트이고, 제 2 화상 컴포넌트는 색도 컴포넌트이다. 또는 예측 모델을 통해 색도 컴포넌트에서 휘도 컴포넌트에 대한 예측을 실현한다고 가정하면, 예측 모델을 구축할 때에 예측에 사용되는 컴포넌트는 색도 컴포넌트이고, 예측 모델을 구축할 때에 예측되는 컴포넌트는 휘도 컴포넌트이다. 즉, 제 1 화상 컴포넌트는 색도 컴포넌트이고, 제 2 화상 컴포넌트는 휘도 컴포넌트이다.
이렇게 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 특성 통계를 실행하여 특성 통계 결과를 얻을 수 있으며, 특성 통계 결과에 따라 현재 블록의 제 1 화상 컴포넌트의 참조값 및/또는 현재 블록의 제 2 화상 컴포넌트의 참조값을 얻을 수 있다.
또한 예측 효율을 향상시키기 위하여, 각 화상 컴포넌트의 통계 특성의 차이를 고려할 수 있다. 즉, 예측 모델을 통해 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 실행하기 전에, 화상 컴포넌트의 통계 특성에 따라 적어도 하나의 화상 컴포넌트에 대하여 전처리를 실행할 수 있으며, 예를 들면, 필터링, 그룹화, 값 변경, 양자화, 또는 비 양자화 등이다. 일부 실시예에 있어서, S402에 있어서, 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하여 전처리된 하나의 화상 컴포넌트를 획득하는 것은, 현재 블록의 제 1 화상 컴포넌트의 참조값 및/또는 현재 블록의 제 2 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 제 1 화상 컴포넌트에 대하여 제 1 처리를 실행하는 것과, 제 1 처리 결과에 따라 현재 블록의 제 1 화상 컴포넌트의 처리값을 획득하는 것을 포함할 수 잇다. 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화 및 비 양자화 중 적어도 하나를 포함한다.
설명하여야만 하는 것은, 현재 블록의 적어도 하나의 화상 컴포넌트의 특성 통계 결과에 따라 현재 블록의 제 1 화상 컴포넌트의 참조값 및/또는 현재 블록의 제 2 화상 컴포넌트의 참조값을 얻은 다음에, 프리셋 처리 모드로 제 1 화상 컴포넌트에 대하여 제 1 처리를 수행할 수 있다. 구체적으로 설명하면, 필터링을 사용하여 제 1 화상 컴포넌트에 대하여 제 1 처리를 수행할 수 있거나, 또는 그룹화를 사용하여 제 1 화상 컴포넌트에 대하여 제 1 처리를 수행할 수 있거나, 또는 값 수정을 사용하여 제 1 화상 컴포넌트에 대하여 제 1 처리를 수행할 수 있거나, 또는 양자화를 사용하여 제 1 화상 컴포넌트에 대하여 제 1 처리를 수행할 수 있거나, 또는 역 양자화(비 양자화라고도 함)를 사용하여 제 1 화상 컴포넌트에 대하여 제 1 처리를 수행할 수 있으며, 본 출원의 실시예는 구체적으로 한정하지 않는다.
설명하여야만 하는 것은, 제 1 화상 컴포넌트에 대하여 처리한다는 것은, 제 1 화상 컴포넌트의 인접하는 참조 샘플값에 대하여 처리한다거나, 또는 제 1 화상 컴포넌트의 재구성된 샘플값에 대하여 처리한다거나, 심지어 제 1 화상 컴포넌트의 다른 샘플값에 대하여 처리할 수 있다. 본 출원의 실시예에 있어서, 예측 모델의 실제 상황에 따라 설정할 수 있으며, 본 출원의 실시예는 구체적으로 한정하지 않는다.
예시적으로, 예측 모델은 휘도 컴포넌트를 통해 색도 컴포넌트를 예측하는 것이다고 가정하면, 예측 효율을 높이기 위해, 즉 예측값의 정확성을 높이기 위하여 프리셋 처리 모드로 휘도 컴포넌트 및/또는 색도 컴포넌트에 대하여 처리할 필요가 있으며, 예를 들어, 프리셋 처리 모드로 휘도 컴포넌트에 대응하는 재구성된 샘플값에 대하여 처리한다. 프리셋 처리 모드가 값 수정 처리를 채용하는 경우, 휘도 컴포넌트와 색도 컴포넌트의 통계 특성이 다르기 때문에, 두 화상 컴포넌트의 통계 특성의 차이에 따라 하나의 편차 계수(deviation factor)를 얻을 수 있다. 그 다음에 편차 계수를 사용하여 휘도 컴포넌트에 대하여 값 수정 처리를 수행함으로써(휘도 컴포넌트에 대응하는 재구성된 샘플값과 편차 계수를 합친다), 컴포넌트 간 예측을 수행하기 전에 각 화상 컴포넌트의 통계적 특성의 균형을 이루어 처리된 휘도 컴포넌트를 얻게 된다. 이 때, 예측 모델을 통해 예측된 색도 컴포넌트의 예측값은 색도 컴포넌트의 진실값에 더 가깝다. 프리셋 처리 모드가 필터링 처리를 채용하는 경우, 휘도 컴포넌트와 색도 컴포넌트의 통계 특성이 다르기 때문에, 두 화상 컴포넌트의 통계 특성의 차이에 따라 휘도 컴포넌트에 대하여 필터링 처리를 수행함으로써, 컴포넌트 간 예측을 수행하기 전에 각 화상 컴포넌트의 통계적 특성의 균형을 이루어 처리된 휘도 컴포넌트를 얻게 된다. 이 때, 예측 모델을 통해 예측된 색도 컴포넌트의 예측값은 색도 컴포넌트의 진실값에 더 가깝다. 프리셋 처리 모드가 그룹화 처리를 채용하는 경우, 휘도 컴포넌트와 색도 컴포넌트의 통계 특성이 다르기 때문에, 두 화상 컴포넌트의 통계 특성의 차이에 따라 휘도 컴포넌트에 대하여 그룹화 처리를 수행함으로써, 컴포넌트 간 예측을 수행하기 전에 각 화상 컴포넌트의 통계적 특성의 균형을 이루고, 그룹화 처리된 휘도 컴포넌트에 따라 구축된 예측 모델을 통해 예측된 색도 컴포넌트의 예측값은 색도 컴포넌트의 진실값에 더 가깝다. 또한, 예측 모델을 사용하여 색도 컴포넌트를 예측하는 과정에서 양자화 처리와 역 양자화 처리가 수반되고, 휘도 컴포넌트와 색도 컴포넌트의 통계 특성이 다르기 때문에, 두 화상 컴포넌트의 통계 특성의 차이에 따라 양자화 처리와 역 양자화 처리의 차이를 초래할 수 있다. 이 때, 프리셋 처리 모드가 양자화 처리를 채용하는 경우, 휘도 컴포넌트 및/또는 색도 컴포넌트에 대하여 양자화 처리를 수행함으로써, 컴포넌트 간 예측을 수행하기 전에 각 화상 컴포넌트의 통계적 특성의 균형을 이루어 처리된 휘도 컴포넌트 및/또는 처리된 색도 컴포넌트를 얻게 된다. 이 때, 예측 모델을 통해 예측된 색도 컴포넌트의 예측값은 색도 컴포넌트의 진실값에 더 가깝다. 프리셋 처리 모드가 비 양자화 처리를 채용하는 경우, 휘도 컴포넌트 및/또는 색도 컴포넌트에 대하여 비 양자화 처리를 수행함으로써, 컴포넌트 간 예측을 수행하기 전에 각 화상 컴포넌트의 통계 특성의 균형을 이루어 처리된 휘도 컴포넌트 및/또는 처리된 색도 컴포넌트를 얻게 된다. 이 때, 예측 모델을 통해 예측된 색도 컴포넌트의 예측값은 색도 컴포넌트의 진실값에 더 가깝다. 따라서 예측값의 정확성을 높일 수 있으며, 즉, 예측 효율을 높일 수 있다. 예측 모델을 통해 예측된 색도 컴포넌트의 예측값은 색도 컴포넌트의 진실값에 더 가깝기 때문에, 색도 컴포넌트의 예측 잔차는 비교적 작고, 부호화 및 복호화 과정에서 전송되는 비트 레이트가 적으며, 비디오 화상의 부호화 및 복호화 효율을 향상시킬 수 있다.
이렇게 현재 블록의 제 1 화상 컴포넌트의 참조값 및/또는 현재 블록의 제 2 화상 컴포넌트의 참조값을 얻은 다음에, 현재 블록의 제 1 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 제 1 화상 컴포넌트에 대하여 처리함으로써, 컴포넌트 간 예측을 수행하기 전에 각 화상 컴포넌트의 통계 특성의 균형을 이루어 현재 블록의 제 1 화상 컴포넌트의 처리값을 얻을 수 있다. 현재 블록의 제 2 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 제 1 화상 컴포넌트에 대하여 처리함으로써, 컴포넌트 간 예측을 수행하기 전에 각 화상 컴포넌트의 통계 특성의 균형을 이루어 현재 블록의 제 1 화상 컴포넌트의 처리값을 얻을 수도 있다. 심지어 현재 블록의 제 1 화상 컴포넌트의 참조값과 현재 블록의 제 2 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 제 1 화상 컴포넌트에 대하여 처리함으로써, 컴포넌트 간 예측을 수행하기 전에 각 화상 컴포넌트의 통계 특성의 균형을 이루어 현재 블록의 제 1 화상 컴포넌트의 처리값을 얻을 수 있다. 현재 블록의 제 1 화상 컴포넌트의 처리값에 따라 예측 모델을 통해 예측된 제 2 화상 컴포넌트의 예측값은 진실값에 더 가깝다. 예측 모델은 제 1 화상 컴포넌트를 통해 제 2 화상 컴포넌트를 예측하는 컴포넌트 간 예측을 달성할 수 있다.
또한, 각 화상 컴포넌트는 서로 다른 해상도를 가지므로, 예측 모델을 편리하게 구축하기 위하여 화상 컴포넌트의 해상도를 조정할 필요가 있으며(화상 컴포넌트에 대하여 업 샘플링하거나 또는 화상 컴포넌트에 대하여 다운 샘플링하는 것을 포함한다), 따라서 목표 해상도를 달성하도록 한다. 구체적으로 설명하면, 프리셋 처리 모드를 사용하여 제 1 화상 컴포넌트에 대하여 제 1 처리를 수행하는 것과 해상도를 조정하는 것은 캐스케이드될 수 있다. 프리셋 처리 모드를 사용하여 제 1 화상 컴포넌트에 대하여 제 1 처리를 수행하는 것과 해상도를 조정하는 것은 연합 처리될 수 있다. 이하, 각각 설명한다.
선택적으로, 일부 실시예에 있어서, 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하기 전에, 상기 방법은 또한 아래 내용을 포함한다.
현재 블록의 제 1 화상 컴포넌트의 해상도와 현재 블록의 제 2 화상 컴포넌트의 해상도가 다른 경우, 제 1 화상 컴포넌트의 해상도를 조정한다. 해상도를 조정하는 것은 업 샘플링 또는 다운 샘플링이 포함된다.
조정된 제 1 화상 컴포넌트의 해상도를 기반으로 현재 블록의 제 1 화상 컴포넌트의 참조값을 업데이트한다. 조정된 제 1 화상 컴포넌트의 해상도와 제 2 화상 컴포넌트의 해상도는 동일하다.
해상도 조정, 즉 해상도 매핑은 제 1 화상 컴포넌트의 해상도를 조정된 제 1 화상 컴포넌트의 해상도에 매핑하는 것을 가리킴에 유념하기 바란다. 여기서 해상도 조정 또는 해상도 매핑은 업 샘플링 또는 다운 샘플링을 통해 달성될 수 있다.
프리셋 처리 모드를 사용하여 제 1 화상 컴포넌트에 대하여 제 1 처리를 수행하는 것과 해상도를 조정하는 것은 캐스케이드될 수 있는 경우, 프리셋 처리 모드를 사용하여 제 1 화상 컴포넌트에 대하여 제 1 처리를 수행하기 전에 해상도를 조정할 수 있음에 유념하기 바란다. 즉, 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하기 전에 현재 블록의 제 1 화상 컴포넌트의 해상도와 현재 블록의 제 2 화상 컴포넌트의 해상도가 다르면, 제 1 화상 컴포넌트의 해상도를 조정할 수 있으며, 또한 조정된 제 1 화상 컴포넌트의 해상도를 기반으로 현재 블록의 제 1 화상 컴포넌트의 참조값을 업데이트한다.
선택적으로, 일부 실시예에 있어서, 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득한 후에, 상기 방법은 또한 아래 내용을 포함한다.
현재 블록의 제 1 화상 컴포넌트의 해상도와 현재 블록의 제 2 화상 컴포넌트의 해상도가 다른 경우, 제 1 화상 컴포넌트의 해상도를 조정한다. 해상도를 조정하는 것은 업 샘플링 또는 다운 샘플링이 포함된다.
조정된 제 1 화상 컴포넌트의 해상도를 기반으로 현재 블록의 제 1 화상 컴포넌트의 처리값을 업데이트한다. 조정된 제 1 화상 컴포넌트의 해상도와 제 2 화상 컴포넌트의 해상도는 동일하다.
프리셋 처리 모드를 사용하여 제 1 화상 컴포넌트에 대하여 제 1 처리를 수행하는 것과 해상도를 조정하는 것은 캐스케이드될 수 있는 경우, 프리셋 처리 모드를 사용하여 제 1 화상 컴포넌트에 대하여 제 1 처리를 수행한 다음에 해상도를 조정할 수 있음에 유념하기 바란다. 즉, 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리한 다음에 현재 블록의 제 1 화상 컴포넌트의 해상도와 현재 블록의 제 2 화상 컴포넌트의 해상도가 다르면, 제 1 화상 컴포넌트의 해상도를 조정할 수 있으며, 또한 조정된 제 1 화상 컴포넌트의 해상도를 기반으로 현재 블록의 제 1 화상 컴포넌트의 처리값을 업데이트한다.
선택적으로, 일부 실시예에 있어서, 현재 블록의 적어도 하나의 화상 컴포넌트에 대해 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하는 것은, 아래 내용을 포함한다.
현재 블록의 제 1 화상 컴포넌트의 해상도와 현재 블록의 제 2 화상 컴포넌트의 해상도가 다른 경우, 현재 블록의 제 1 화상 컴포넌트의 참조값 및/또는 현재 블록의 제 2 화상 컴포넌트의 참조값에 따라 제 1 화상 컴포넌트에 대하여 제 2 처리를 수행한다. 제 2 처리는 업 샘플링 및 프리셋 처리 모드 관련 처리 또는 다운 샘플링 및 프리셋 처리 모드 관련 처리를 포함한다.
제 2 처리 결과에 따라 현재 블록의 제 1 화상 컴포넌트의 처리값을 획득한다. 처리된 현재 블록의 제 1 화상 컴포넌트의 해상도와 현재 블록의 제 2 화상 컴포넌트의 해상도는 동일하다.
프리셋 처리 모드를 사용하여 제 1 화상 컴포넌트에 대하여 제 1 처리를 수행하는 것과 해상도를 조정하는 것은 연합 처리될 수 있는 경우, 제 1 처리 및 해상도 조정이 모두 실행된 후에 현재 블록의 제 1 화상 컴포넌트의 처리값을 얻을 수 있다. 즉, 현재 블록의 제 1 화상 컴포넌트의 해상도와 현재 블록의 제 2 화상 컴포넌트의 해상도가 다른 경우, 현재 블록의 제 1 화상 컴포넌트의 참조값 및/또는 현재 블록의 제 2 화상 컴포넌트의 참조값에 따라 제 1 화상 컴포넌트에 대하여 제 2 처리를 수행한다. 제 2 처리는 제 1 처리 및 해상도 조정의 두가지 처리 방식을 통합하고 있다. 제 2 처리는 업 샘플링 및 프리셋 처리 모드 관련 처리 또는 다운 샘플링 및 프리셋 처리 모드 관련 처리 등을 포함한다. 이처럼 제 2 처리 결과에 따라 현재 블록의 제 1 화상 컴포넌트의 처리값을 얻을 수 있으며, 처리된 현재 블록의 제 1 화상 컴포넌트의 해상도와 현재 블록의 제 2 화상 컴포넌트의 해상도는 동일하다.
예시적으로, 여전히 예측 모델은 휘도 컴포넌트를 통해 색도 컴포넌트를 예측하는 것이다고 가정하면, 예측할 화상 컴포넌트는 색도 컴포넌트이고, 사용할 화상 컴포넌트는 휘도 컴포넌트이다. 휘도 컴포넌트와 색도 컴포넌트의 해상도가 다르기 때문에, 색도 컴포넌트의 목표 해상도를 획득한 후에 휘도 컴포넌트의 해상도는 목표 해상도와 일치하지 않기 때문에, 휘도 컴포넌트의 해상도를 조정할 필요가 있다. 예를 들어, 휘도 컴포넌트에 대하여 다운 샘플링을 수행하여 조정된 휘도 컴포넌트의 해상도가 목표 해상도와 일치하도록 한다. 반대로, 색도 컴포넌트를 통해 휘도 컴포넌트를 예측하는 경우, 휘도 컴포넌트의 목표 해상도를 획득한 후에, 색도 컴포넌트의 해상도는 목표 해상도와 일치하지 않기 때문에, 색도 컴포넌트의 해상도를 조정할 필요가 있다. 예를 들어, 색도 컴포넌트에 대하여 업 샘플링을 수행하여 조정된 색도 컴포넌트의 해상도가 목표 해상도와 일치하도록 한다. 청색 색도 컴포넌트를 통해 적색 색도 컴포넌트를 예측하는 경우, 적색 색도 컴포넌트의 목표 해상도를 획득한 후에, 청색 색도 컴포넌트의 해상도는 목표 해상도와 일치하기 때문에, 청색 색도 컴포넌트의 해상도를 조정할 필요가 없으며, 청색 색도 컴포넌트의 해상도는 이미 목표 해상도와 일치하다. 이렇게 그 후에 같은 해상도로 화상 컴포넌트의 예측을 수행할 수 있다.
또한, 전처리된 적어도 하나의 화상 컴포넌트를 획득한 다음에 예측 모델을 구축하기 위하여 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델의 모델 파라미터를 확정할 필요가 있다. 일부 실시예에 있어서, S403, 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축하는 것은 아래 내용을 포함한다.
제 1 화상 컴포넌트의 처리값과 제 2 화상 컴포넌트의 참조값에 따라 예측 모델의 모델 파라미터를 확정한다.
모델 파라미터를 기반으로 예측 모델을 구축한다.
본 출원의 실시예에 있어서, 예측 모델은 선형 모델일 수 있으며, 예를 들어, CCLM 예측 등 컴포넌트 간 예측 기술일 수 있다. 예측 모델은 비선형 모델일 수도 있으며, 예를 들어, 멀티 모델 CCLM(Multiple Model CCLM,MMLM)와 같은 컴포넌트 간 예측 기술이며, 복수개의 선형 모델로 구성된다. 본 출원의 실시예는 예측 모델이 선형 모델인 것을 예로 설명하지만, 본 출원의 실시예에 따른 예측 방법은 비선형 모델에도 적용될 수 있다.
구체적으로, 모델 파라미터는 제 1 모델 파라미터(
Figure pct00006
로 표현한다) 및 제 2 모델 파라미터(
Figure pct00007
로 표현한다)를 포함한다.
Figure pct00008
Figure pct00009
는 최소 제곱법으로 구축된 프리셋 팩터 계산 모델(preset factor calculation model), 최대값과 최소값으로 구축된 프리셋 팩터 계산 모델, 또는 다른 방식으로 구축된 프리셋 팩터 계산 모델 등 다양한 방법으로 계산할 수 있으며, 본 출원의 실시예는 구체적으로 한정하지 않는다.
구체적으로, 식(1)에 나타난 바와 같이, 최소 제곱법으로 구축된 프리셋 팩터 계산 모델을 예로 하면, 현재 블록 주변의 인접 참조 샘플값(예를 들어, 제 1 화상 컴포넌트 인접 참조값 및 제 2 화상 컴포넌트 인접 참조값이고, 제 1 화상 컴포넌트 인접 참조값과 제 2 화상 컴포넌트 인접 참조값은 전처리를 수행한 다음에 획득됨)의 최소화 회귀 오차로 모델 파라미터를 도출할 수 있다.
Figure pct00010
Figure pct00011
은 다운 샘플링된 현재 블록의 좌측변 및 상측변에 대응하는 제 1 화상 컴포넌트 인접 참조값을 나타내고,
Figure pct00012
은 현재 블록의 좌측변 및 상측변에 대응하는 제 2 화상 컴포넌트 인접 참조값을 나타내며, N은 제 2 화상 컴포넌트의 현재 블록의 변의 길이를 나타내고,
Figure pct00013
이며, 식(1)로 계산하여 제 1 모델 파라미터
Figure pct00014
와 제 2 모델 파라미터
Figure pct00015
를 얻을 수 있다.
최대값과 최소값으로 구축된 프리셋 팩터 계산 모델을 예로 하면, 간소화된 모델 파라미터의 도출 방법을 제공한다. 구체적으로, 식(2)에 나타난 프리셋 팩터 계산 모델처럼, 최대 제 1 화상 컴포넌트 인접 참조값과 최소 제 1 화상 컴포넌트 인접 참조값을 검색한 다음에, 두 점으로 하나의 직선을 확정하는 원칙에 따라 모델 파라미터를 도출할 수 있다.
Figure pct00016
Figure pct00017
Figure pct00018
은 다운 샘플링된 현재 블록의 좌측변 및 상측변에 대응하는 제 1 화상 컴포넌트 인접 참조값에서 검색된 최대값과 최소값을 나타내고,
Figure pct00019
Figure pct00020
Figure pct00021
Figure pct00022
에 대응하는 위치에 있는 참조 샘플에 대응하는 제 2 화상 컴포넌트 인접 참조값을 나타낸다.
Figure pct00023
Figure pct00024
Figure pct00025
Figure pct00026
에 따라, 식(2)로 계산하여도 제 1 모델 파라미터
Figure pct00027
와 제 2 모델 파라미터
Figure pct00028
를 얻을 수 있다.
제 1 모델 파라미터
Figure pct00029
및 제 2 모델 파라미터
Figure pct00030
를 획득한 후에 예측 모델을 구축할 수 있다. 구체적으로,
Figure pct00031
Figure pct00032
를 기반으로 제 1 화상 컴포넌트를 통해 제 2 화상 컴포넌트를 예측한다고 가정하면, 구축된 예측 모델은 식(3)에 나타난 바와 같다.
Figure pct00033
Figure pct00034
는 현재 블록의 샘플의 위치 좌표를 나타내고,
Figure pct00035
는 수평 방향을 나타내고,
Figure pct00036
는 수직 방향을 나타내며,
Figure pct00037
는 현재 블록 중 위치 좌표가
Figure pct00038
인 샘플에 대응하는 제 2 화상 컴포넌트의 예측값을 나타내고,
Figure pct00039
는 같은 현재 블록(다운 샘플링됨) 중 위치 좌표가
Figure pct00040
인 샘플에 대응하는 제 1 화상 컴포넌트의 재구성된 값을 나타낸다.
일부 실시예에 있어서, S403에서 예측 모델을 구축한 다음에, 상기 방법은 또한 아래 내용을 포함할 수 있다.
예측 모델을 기반으로 현재 블록의 제 2 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하여 현재 블록의 제 2 화상 컴포넌트의 예측값을 획득한다.
또한, 식(3)에 나타난 예측 모델을 기반으로, 휘도 컴포넌트를 사용하여 색도 컴포넌트를 예측함으로써, 색도 컴포넌트의 예측값을 얻을 수 있다.
구체적으로, 현재 블록에 대하여 예측 모델을 구축한 다음에, 예측 모델에 따라 화상 컴포넌트의 예측을 수행할 수 있다. 하나의 예시로서, 제 1 화상 컴포넌트를 사용하여 제 2 화상 컴포넌트를 예측할 수 있으며, 예를 들면, 휘도 컴포넌트를 사용하여 색도 컴포넌트를 예측함으로써, 색도 컴포넌트의 예측값을 얻을 수 있다. 다른 예시로서, 제 2 화상 컴포넌트를 사용하여 제 1 화상 컴포넌트를 예측할 수 있으며, 예를 들어, 색도 컴포넌트를 사용하여 휘도 컴포넌트를 예측함으로써, 휘도 컴포넌트의 예측값을 얻을 수 있다. 또 다른 예시로서, 제 2 화상 컴포넌트를 사용하여 제 3 화상 컴포넌트를 예측할 수도 있으며, 예를 들어, 청색 색도 컴포넌트를 사용하여 적색 색도 컴포넌트를 예측함으로써, 적색 색도 컴포넌트의 예측값을 얻을 수 있다. 본 출원의 실시 예에 있어서, 예측 모델을 구축하기 전에 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리를 수행함으로써, 컴포넌트 간 예측을 수행하기 전에 각 화상 컴포넌트의 통계 특성의 균형을 이루고, 그 다음에 처리된 화상 컴포넌트를 사용하여 예측 모델을 구축함으로써 예측 효율을 향상시킬 수 있다.
본 출원의 실시예는 화상 예측 방법을 제공한다. 화상 예측 방법은, 화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정하는 것과, 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하는 것과, 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축하는 것 - 예측 모델은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용됨 - 을 포함한다. 이렇게 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하기 전에 적어도 하나의 화상 컴포넌트에 대하여 전처리를 수행함으로써, 컴포넌트 간 예측을 수행하기 전에 각 화상 컴포넌트의 통계 특성의 균형을 이룸으로써 예측 효율을 향상시킨다. 예측 모델을 이용하여 예측된 화상 컴포넌트의 예측값이 진실값에 더욱 가깝기 때문에 화상 컴포넌트의 예측 잔차(predicted residual)는 비교적 작고, 부호화 및 복호화 과정에서 전송되는 비트 레이트가 적으며, 비디오 화상의 부호화 및 복호화 효율을 향상시킬 수 있다.
도 2 또는 도 3에 도시된 애플리케이션 시나리오의 예시를 기반으로, 도 5를 참조하면, 도 5는 본 출원의 다른 실시예에 따른 화상 예측 방법의 흐름도이다. 상기 방법은 아래 내용을 포함할 수 있다.
S501, 화상 중 현재 블록의 제 1 화상 컴포넌트의 참조값을 확정하며, 현재 블록의 제 1 화상 컴포넌트의 참조값은 현재 블록의 인접 샘플의 제 1 화상 컴포넌트값이다.
S502, 현재 블록의 제 1 화상 컴포넌트의 참조값을 필터링하여 필터링된 참조값을 획득한다.
S503, 필터링된 참조값을 이용하여 예측 모델의 모델 파라미터를 계산하며, 예측 모델은 현재 블록의 제 1 화상 컴포넌트값을 현재 블록의 제 2 화상 컴포넌트값에 매핑하는 데에 사용되며, 제 2 화상 컴포넌트와 제 1 화상 컴포넌트는 다르다.
비디오 화상은 여러 화상 블록으로 분할될 수 있으며, 현재 부호화될 각 화상 블록은 코딩 블록이라고 부를 수 있음에 유념하기 바란다. 각 코딩 블록은 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 및 제 3 화상 컴포넌트를 포함할 수 있다. 현재 블록은 비디오 화상에 있어서 현재 제 1 화상 컴포넌트, 제 2 화상 컴포넌트 또는 제 3 화상 컴포넌트를 예측하려는 코딩 블록이다.
본 출원의 실시예에 따른 화상 예측 방법은 비디오 인코딩 시스템 또는 비디오 디코딩 시스템에 적용할 수 있으며, 심지어 비디오 인코딩 시스템과 비디오 디코딩 시스템에 동시에 적용할 수도 있으며, 본 출원의 실시예는 이것에 대하여 구체적으로 한정하지 않음을 유념하기 바란다.
본 출원의 실시예에 있어서, 우선, 화상 중 현재 블록의 제 1 화상 컴포넌트의 참조값을 확정한다. 현재 블록의 제 1 화상 컴포넌트의 참조값은 현재 블록의 인접 샘플의 제 1 화상 컴포넌트값이다. 다음, 현재 블록의 제 1 화상 컴포넌트의 참조값을 필터링하여 필터링된 참조값을 획득한다. 필터링된 참조값을 이용하여 예측 모델의 모델 파라미터를 계산한다. 예측 모델은 현재 블록의 제 1 화상 컴포넌트값을 현재 블록의 제 2 화상 컴포넌트값에 매핑하는 데에 사용되며, 제 2 화상 컴포넌트와 제 1 화상 컴포넌트는 다르다. 이렇게 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하기 전에 적어도 하나의 화상 컴포넌트에 대하여 필터링처리를 수행함으로써, 컴포넌트 간 예측을 수행하기 전에 각 화상 컴포넌트의 통계 특성의 균형을 이룸으로써 예측 효율을 향상시시키고, 비디오 화상의 부호화 및 복호화 효율을 향상시킨다.
또한, 일부 실시예에 있어서, S503에 관하여, 필터링된 참조값을 이용하여 예측 모델의 모델 파라미터를 계산한다는 것은,
화상의 적어도 하나의 화상 컴포넌트 또는 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 특성 통계를 수행하는 것- 적어도 하나의 화상 컴포넌트는 제 1 화상 컴포넌트 및/또는 제 2 화상 컴포넌트를 포함함 - 과,
특성 통계 결과에 따라 현재 블록의 제 2 화상 컴포넌트의 참조값을 획득하는 것 - 현재 블록의 제 2 화상 컴포넌트의 참조값은 현재 블록의 인접한 샘플의 제 2 화상 컴포넌트값임 - 과,
필터링된 참조값과 현재 블록의 제 2 화상 컴포넌트의 참조값을 사용하여 예측 모델의 모델 파라미터를 계산하는 것을 포함한다.
또한, 서로 다른 화상 컴포넌트는 서로 다른 통계 특성을 갖고 있으며, 각 화상 컴포넌트의 통계 특성에 차이가 존재한다. 예를 들어, 휘도 컴포넌트는 풍부한 텍스처 특성을 갖지만, 색도 컴포넌트는 더 균일하고 평탄하다는 경향이 있다. 본 출원의 실시예는 각 화상 컴포넌트의 통계 특성의 차이를 고려함으로써, 각 화상 컴포넌트의 통계 특성의 균형을 이루는 목표에 도달할 수 있다.
각 화상 컴포넌트의 통계 특성의 차이를 고려한 다음에 현재 블록의 제 2 화상 컴포넌트의 참조값을 얻게 되며, 그 다음에 필터링된 참조값과 현재 블록의 제 2 화상 컴포넌트의 참조값을 기반으로 예측 모델의 모델 파라미터를 계산하고, 계산하여 얻어진 모델 파라미터에 따라 예측 모델을 구축한다. 예측 모델을 이용하여 예측된 화상 컴포넌트의 예측값이 진실값에 더욱 가깝기 때문에 화상 컴포넌트의 예측 잔차는 비교적 작고, 부호화 및 복호화 과정에서 전송되는 비트 레이트가 적으며, 비디오 화상의 부호화 및 복호화 효율을 향상시킬 수 있다.
또한, 본 출원의 실시예에 있어서, S502에 관하여, 현재 블록의 제 1 화상 컴포넌트의 참조값을 필터링하여 필터링된 참조값을 획득한다는 것은,
화상의 제 2 화상 컴포넌트의 해상도와 화상의 제 1 화상 컴포넌트의 해상도가 다른 경우, 현재 블록의 제 1 화상 컴포넌트의 참조값에 대하여 제 1 조정 처리를 수행함으로써 현재 블록의 제 1 화상 컴포넌트의 참조값을 업데이트하는 것 - 제 1 조정 처리는 다운 샘플링 필터링 또는 업 샘플링 필터링 중 하나를 포함함 - 과,
현재 블록의 제 1 화상 컴포넌트의 참조값을 필터링하여 필터링된 참조값을 획득하는 것을 포함한다.
일부 실시예에 있어서, 상기 방법은 또한 아래 내용을 포함한다.
현재 블록의 제 1 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 참조값을 필터링한다. 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화. 비 양자화, 로우 패스 필터링, 적응 필터링(adaptive filtering) 중 적어도 하나를 포함한다.
또한, 일부 실시예에 있어서, S502에 관하여, 현재 블록의 제 1 화상 컴포넌트의 참조값을 필터링하여 필터링된 참조값을 획득한다는 것은,
화상의 제 2 화상 컴포넌트의 해상도와 화상의 제 1 화상 컴포넌트의 해상도가 다른 경우, 현재 블록의 제 2 화상 컴포넌트의 참조값에 대하여 제 2 조정 처리를 수행함으로써 현재 블록의 제 1 화상 컴포넌트의 제 1 참조값을 업데이트하는 것을 포함하며,
제 2 조정 처리는 다운 샘플링 및 평활화 필터링, 또는 업 샘플링 및 평활화 필터링 중 하나를 포함한다.
또한, 각 화상 컴포넌트는 서로 다른 해상도를 가지므로, 예측 모델을 편리하게 구축하기 위하여 화상 컴포넌트의 해상도를 조정할 필요가 있으며(화상 컴포넌트에 대하여 업 샘플링하거나 또는 화상 컴포넌트에 대하여 다운 샘플링하는 것을 포함한다), 따라서 목표 해상도를 달성하도록 한다. 구체적으로 설명하면, 해상도 조정, 즉 해상도 매핑은 제 1 화상 컴포넌트의 해상도를 조정된 제 1 화상 컴포넌트의 해상도에 매핑하는 것을 가리키며, 여기서 해상도 조정 또는 해상도 매핑은 업 샘플링 또는 다운 샘플링을 통해 달성될 수 있다.
제 1 화상 컴포넌트에 대하여 필터링 처리를 수행하는 것과 해상도를 조정하는 것은 캐스케이드될 수 있으며, 예를 들면, 제 1 화상 컴포넌트에 대하여 필터링 처리를 수행하기 전에 해상도를 조정하거나, 또는 제 1 화상 컴포넌트에 대하여 필터링 처리를 수행한 다음에 해상도를 조정한다. 다른 예를 들면, 제 1 화상 컴포넌트에 대하여 필터링 처리를 수행하는 것과 해상도를 조정하는 것(제 1 조정 처리)은 연합 처리될 수도 있다.
또한, 일부 실시예에 있어서, S503에 관하여, 필터링된 참조값을 이용하여 예측 모델의 모델 파라미터를 계산하는 것은,
현재 블록의 제 2 화상 컴포넌트의 참조값을 확정하는 것 - 현재 블록의 제 2 화상 컴포넌트의 참조값은 현재 블록의 인접 샘플의 제 2 화상 컴포넌트값임 - 과,
필터링된 참조값과 현재 블록의 제 2 화상 컴포넌트의 참조값을 사용하여 예측 모델의 모델 파라미터를 계산하는 것을 포함한다.
일부 실시예에 있어서, 상기 방법은 S503 이후에 아래 내용을 더 포함할 수 있다.
예측 모델을 기반으로 현재 블록의 제 1 화상 컴포넌트의 값을 매핑하여 현재 블록의 제 2 화상 컴포넌트의 예측값을 획득한다.
현재 블록의 제 2 화상 컴포넌트의 참조값은 현재 블록의 인접 샘플의 제 2 화상 컴포넌트값일 수 있음에 유념하기 바란다. 이렇게 제 2 화상 컴포넌트의 참조값을 확정한 다음에, 필터링된 참조값과 확정된 제 2 화상 컴포넌트의 참조값을 기반으로 예측 모델의 모델 파라미터를 계산하고, 계산하여 획득한 모델 파라미터에 따라 예측 모델을 구축하며, 예측 모델을 이용하여 예측된 화상 컴포넌트의 예측값은 진실값에 더욱 가깝기 때문에 화상 컴포넌트의 예측 잔차는 비교적 작고, 부호화 및 복호화 과정에서 전송되는 비트 레이트가 적으며, 비디오 화상의 부호화 및 복호화 효율을 향상시킬 수 있다.
도 6은 본 출원의 실시예에 따른 개선된 컴포넌트 간 예측 아키텍처의 구조를 나타내는 도면이다. 도 6에 도시된 바와 같이, 도 1에 도시된 기존의 컴포넌트 간 예측 아키텍처(10)를 기반으로 개선된 컴포넌트 간 예측 아키텍처(60)는 처리 유닛(610)을 더 포함한다. 처리 유닛(610)은 컴포넌트 간 예측 유닛(160)의 앞에서 적어도 하나의 화상 컴포넌트에 대하여 관련 처리를 수행하는 데에 사용된다. 처리 유닛(610)은 해상도 조정 유닛(120)의 앞에 위치할 수 있으며, 해상도 조정 유닛(120)의 뒤에 위치할 수도 있다. 도 6에 도시된 바와 같이, 처리 유닛(610)은 해상도 조정 유닛(120)의 뒤에 위치한다. Y 컴포넌트에 대하여 필터링, 그룹화, 값 수정, 양자화 및 역 양자화 등 관련 처리를 수행함으로써, 보다 정확한 예측 모델을 구축할 수 있으며, 예측에 의해 얻어진 U 컴포넌트의 예측값은 진실값에 더 가깝다.
도 6에 도시된 개선된 컴포넌트 간 예측 아키텍처(60)에 따라, Y 컴포넌트를 통해 U 컴포넌트를 예측한다고 가정하면, 현재 블록의 Y 컴포넌트(110)와 현재 블록의 U 컴포넌트(140)는 해상도가 다르기 때문에, 해상도 조정 유닛(120)에 의해 Y 컴포넌트의 해상도를 조정함으로써, 현재 블록의 U 컴포넌트(140)와 동일한 해상도를 갖는 현재 블록의 Y1 컴포넌트(130)를 획득할 필요가 있다. 그 전에 처리 유닛(610)을 통해 Y 컴포넌트에 대하여 관련 작업을 수행함으로써, 현재 블록의 Y1 컴포넌트(130)를 얻을 수 있다. 그 다음에 현재 블록의 Y1 컴포넌트(130)의 인접한 참조값
Figure pct00041
과 현재 블록의 U 컴포넌트(140)의 인접한 참조값
Figure pct00042
을 사용하여 예측 모델(150)을 구축할 수 있다. 현재 블록의 Y1 컴포넌트(130)의 Y 컴포넌트 재구성된 샘플값 및 예측 모델(150)에 따라, 컴포넌트 간 예측 유닛(160)을 통해 화상 컴포넌트 예측을 수행하여 U 컴포넌트의 예측값을 얻을 수 있다. 컴포넌트 간 예측을 수행하기 전에 Y 컴포넌트에 대하여 관련 처리를 수행하고, 처리된 휘도 컴포넌트에 따라 예측 모델(150)을 구축하며, 예측 모델(150)을 이용하여 예측된 U 컴포넌트의 예측값은 진실값에 더욱 가깝기 때문에, 예측 효율을 향상시킬 수 있으며, 비디오 화상의 부호화 및 복호화 효율을 향상시킬 수도 있다.
본 출원의 실시예에 있어서, 해상도 조정 유닛(120)과 처리 유닛(610)은 화상 컴포넌트에 대하여 캐스케이드 처리를 수행할 수 있으며(예를 들어, 해상도 조정 유닛(120)을 통해 해상도 조정을 수행한 다음에 처리 유닛(610)을 통해 관련 처리를 수행하거나, 또는 처리 유닛(610)을 통해 관련 처리를 수행한 다음에 해상도 조정 유닛(120)을 통해 해상도 조정을 수행한다), 또는 화상 컴포넌트에 대하여 연합 처리를 수행할 수도 있다(해상도 조정 유닛(120)과 처리 유닛(610)을 조합한 후에 처리한다). 도 7은 본 출원의 다른 실시예에 따른 개선된 컴포넌트 간 예측 아키텍처의 구조를 나타내는 도면이다. 도 6에 도시된 개선된 컴포넌트 간 예측 아키텍처(60)에 기초하여 도 7에 도시된 개선된 컴포넌트 간 예측 아키텍처는 조합 유닛(710)을 더 포함하지만, 해상도 조정 유닛(120)과 처리 유닛(610)을 생략할 수 있다. 다시 말하면, 조합 유닛(710)은 해상도 조정 유닛(120)과 처리 유닛(610)의 기능을 모두 갖고 있으며, 적어도 하나의 화상 컴포넌트에 대하여 해상도 조정을 수행할 수 있을 뿐만 아니라, 적어도 하나의 화상 컴포넌트에 대하여 관련 처리를 수행할 수도 있으며, 예를 들어, 필터링, 그룹화, 값 수정, 양자화 및 역 양자화 등이다. 이렇게 하여 보다 정확한 예측 모델(150)을 구축할 수 있으며, 예측 모델(150)을 이용하여 예측된 U 컴포넌트의 예측값은 진실값에 더 가까우며, 따라서 예측 효율을 향상시킬 수 있고, 비디오 화상의 부호화 및 복호화 효율을 향상시킬 수 있다.
또한, 본 출원의 실시예에 있어서, 화상 예측 방법이 인코더에 적용되는 경우, 현재 블록의 예측할 화상 컴포넌트의 참조값과 현재 블록의 참조할 화상 컴포넌트의 참조값을 기반으로 예측 모델의 모델 파라미터를 계산하여 얻을 수 있다. 그리고 계산하여 얻은 모델 파라미터를 비트 스트림에 기입한다. 비트 스트림은 인코더에서 디코더로 전송된다. 화상 예측 방법이 디코더에 적용되는 경우, 비트 스트림을 분석하여 예측 모델의 모델 파라미터를 얻을 수 있으며, 따라서 예측 모델을 구축하고, 예측 모델을 사용하여 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행한다.
본 출원의 실시예는 화상 예측 방법을 제공한다. 화상 예측 방법은 화상 중 현재 블록의 제 1 화상 컴포넌트의 참조값을 확정하는 것 - 현재 블록의 제 1 화상 컴포넌트의 참조값은 현재 블록의 인접 샘플의 제 1 화상 컴포넌트값임 - 과, 현재 블록의 제 1 화상 컴포넌트의 참조값을 필터링하여 필터링된 참조값을 획득하는 것과, 필터링된 참조값을 이용하여 예측 모델의 모델 파라미터를 계산하는 것 - 예측 모델은 현재 블록의 제 1 화상 컴포넌트값을 현재 블록의 제 2 화상 컴포넌트값에 매핑하는 데에 사용되며, 제 2 화상 컴포넌트와 제 1 화상 컴포넌트는 다름 - 을 포함한다. 이렇게 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하기 전에 적어도 하나의 화상 컴포넌트에 대하여 전처리를 수행함으로써, 컴포넌트 간 예측을 수행하기 전에 각 화상 컴포넌트의 통계 특성의 균형을 이룸으로써 예측 효율을 향상시킨다. 예측 모델을 이용하여 예측된 화상 컴포넌트의 예측값이 진실값에 더욱 가깝기 때문에 화상 컴포넌트의 예측 잔차는 비교적 작고, 부호화 및 복호화 과정에서 전송되는 비트 레이트가 적으며, 비디오 화상의 부호화 및 복호화 효율을 향상시킬 수 있다.
상술한 실시예와 같은 발명 구상을 기반으로 도 8을 참조하면, 도 8은 본 출원의 실시예에 따른 인코더(80)의 구조를 나타내는 도면이다. 인코더(80)는 제 1 확정 유닛(801), 제 1 처리 유닛(802) 및 제 1 구축 유닛(803)을 포함한다.
제 1 확정 유닛(801)은 화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정하는 데에 사용된다.
제 1 처리 유닛(802)은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하는 데에 사용된다.
제 1 구축 유닛(803)은 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축하는 데에 사용된다. 예측 모델은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용된다.
상술한 기술방안에 있어서, 도 8에 도시된 바와 같이, 인코더(80)는 제 1 통계 유닛(804) 및 제 1 획득 유닛(805)을 더 포함할 수 있다.
제 1 통계 유닛(804)은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 특성 통계를 수행하는 데에 사용된다. 적어도 하나의 화상 컴포넌트는 제 1 화상 컴포넌트 및/또는 제 2 화상 컴포넌트를 포함한다.
제 1 획득 유닛(805)은 특성 통계 결과에 따라 현재 블록의 제 1 화상 컴포넌트의 참조값 및/또는 현재 블록의 제 2 화상 컴포넌트의 참조값을 획득하는 데에 사용된다. 제 1 화상 컴포넌트는 예측 모델을 구축할 때에 예측에 사용되는 컴포넌트이고, 제 2 화상 컴포넌트는 예측 모델을 구축할 때에 예측되는 컴포넌트이다.
제 1 처리 유닛(802)은 또한 현재 블록의 제 1 화상 컴포넌트의 참조값 및/또는 현재 블록의 제 2 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 제 1 화상 컴포넌트에 대하여 제 1 처리를 실행하는 데에 사용된다. 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화 및 비 양자화 중 적어도 하나를 포함한다.
제 1 획득 유닛(805)은 또한 제 1 처리 결과에 따라 현재 블록의 제 1 화상 컴포넌트의 처리값을 획득하는 데에 사용된다.
상술한 기술방안에서 도 8에 도시된 바와 같이, 인코더(80)는 제 1 조정 유닛(806) 및 제 1 업데이트 유닛(807)을 더 포함할 수 있다.
제 1 조정 유닛(806)은 현재 블록의 제 1 화상 컴포넌트의 해상도와 현재 블록의 제 2 화상 컴포넌트의 해상도가 다른 경우, 제 1 화상 컴포넌트의 해상도를 조정하는 데에 사용된다. 해상도를 조정하는 것은 업 샘플링 또는 다운 샘플링이 포함된다.
제 1 업데이트 유닛(807)은 조정된 제 1 화상 컴포넌트의 해상도를 기반으로 현재 블록의 제 1 화상 컴포넌트의 참조값을 업데이트하는 데에 사용된다. 조정된 제 1 화상 컴포넌트의 해상도와 제 2 화상 컴포넌트의 해상도는 동일하다.
상술한 기술방안에서 제 1 조정 유닛(806)은 또한 현재 블록의 제 1 화상 컴포넌트의 해상도와 현재 블록의 제 2 화상 컴포넌트의 해상도가 다른 경우에 제 1 화상 컴포넌트의 해상도를 조정하는 데에 사용된다. 해상도를 조정하는 것은 업 샘플링 또는 다운 샘플링이 포함된다.
제 1 업데이트 유닛(807)은 또한 조정된 제 1 화상 컴포넌트의 해상도를 기반으로 현재 블록의 제 1 화상 컴포넌트의 처리값을 업데이트하는 데에 사용된다. 조정된 제 1 화상 컴포넌트의 해상도와 제 2 화상 컴포넌트의 해상도는 동일하다.
상술한 기술방안에서 제 1 조정 유닛(806)은 또한 현재 블록의 제 1 화상 컴포넌트의 해상도와 현재 블록의 제 2 화상 컴포넌트의 해상도가 다른 경우, 현재 블록의 제 1 화상 컴포넌트의 참조값 및/또는 현재 블록의 제 2 화상 컴포넌트의 참조값에 따라 제 1 화상 컴포넌트에 대하여 제 2 처리를 수행하는 데에 사용된다. 제 2 처리는 업 샘플링 및 프리셋 처리 모드 관련 처리 또는 다운 샘플링 및 프리셋 처리 모드 관련 처리를 포함한다.
제 1 획득 유닛(805)은 또한 제 2 처리 결과에 따라 현재 블록의 제 1 화상 컴포넌트의 처리값을 획득하는 데에 사용된다. 처리된 현재 블록의 제 1 화상 컴포넌트의 해상도와 현재 블록의 제 2 화상 컴포넌트의 해상도는 동일하다.
상술한 기술방안에서 제 1 확정 유닛(801)은 또한 제 1 화상 컴포넌트의 처리값과 제 2 화상 컴포넌트의 참조값에 따라 예측 모델의 모델 파라미터를 확정하는 데에 사용된다.
제 1 구축 유닛(803)은 또한 모델 파라미터를 기반으로 예측 모델을 구축하는 데에 사용된다.
상술한 기술방안에서 도 8에 도시된 바와 같이, 인코더(80)는 제 1 예측 유닛(808)을 더 포함할 수 있다. 제 1 예측 유닛 (808)은 예측 모델을 기반으로 현재 블록의 제 2 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하여 현재 블록의 제 2 화상 컴포넌트의 예측값을 획득하는 데에 사용된다.
본 출원의 실시예에 있어서, '유닛'은 회로의 일부, 프로세서의 일부, 프로그램의 일부 또는 소프트웨어 등일 수 있으며, 물론 모듈일 수도 있고, 비모듈일 수도 있음을 이해할 수 있다. 또한, 본 출원의 실시예의 각 구성 요소는 하나의 처리 유닛에 통합될 수 있고, 또는 각 유닛이 단독으로 물리적으로 존재할 수도 있으며, 또는 2개 이상의 유닛이 하나의 유닛에 통합될 수도 있다. 상기 통합 유닛은 하드웨어 또는 소프트웨어 기능 모듈의 형태로 실현될 수 있다.
통합된 유닛이 소프트웨어 기능 유닛 형태로 구현되어 별도의 제품으로 판매되거나 사용되는 경우, 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 이러한 이해를 기초로 하여 본 발명의 기술방안의 본질, 혹은 기술 분야에 기여하는 부분 또는 기술적 방안의 전부 또는 일부를 소프트웨어 제품의 형태로 구현될 수 있다. 해당 컴퓨터 소프트웨어 제품은 하나의 저장 매체에 저장되며, 컴퓨터 장치(개인용 컴퓨터, 서버 또는 네트워크 장치일 수 있음) 또는 프로세서가 본 발명의 각 실시예에 따른 방법의 전부 또는 일부를 실행할 수 있도록 하는 다수의 명령어를 포함한다. 전술한 저장 매체는 USB, 외장 하드, 읽기 전용 기억 장치(Read-Only Memory, ROM), 랜덤 액세스 메모리(Random Access Memory, RAM), 디스크 또는 광 디스크 등과 같은 프로그램 코드를 저장할 수 있는 매체를 포함한다.
본 출원의 실시예는 컴퓨터 저장 매체를 제공한다. 컴퓨터 저장 매체에 화상 예측 프로그램이 저장되어 있다. 화상 예측 프로그램이 적어도 하나의 프로세서에 의해 실행될 때에 상술한 실시예의 방법을 실현한다.
인코더(80)의 구성 및 컴퓨터 저장 매체에 따라, 도 9를 참조하면, 도 9는 본 출원의 실시예에 따른 인코더(80)의 구체적인 하드웨어 구조를 나타내는 도면이다. 인코더(80)는 제 1 통신 인터페이스(901), 제 1 메모리(902) 및 제 1 프로세서(903)를 포함할 수 있다. 각 구성 요소는 제 1 버스 시스템(904)을 통해 함께 결합된다. 제 1 버스 시스템(904)은 이러한 구성 요소 간의 연결과 통신을 실현하는 데에 사용된다. 제 1 버스 시스템(904)은 데이터 버스 이외에 또한 전력 버스, 제어 버스 및 상태 신호 버스를 포함한다. 명확하게 설명하기 위하여, 도 9에 도시된 바와 같이, 다양한 버스는 제 1 버스 시스템(904)으로 표기되어 있다.
제 1 통신 인터페이스(901)는 다른 외부 네트워크 요소와 정보를 송수신하는 과정에서 신호를 송수신하는 데에 사용된다.
제 1 메모리(902)는 제 1 프로세서(903)에 의해 실행 가능한 컴퓨터 프로그램을 저장하는 데에 사용된다.
컴퓨터 프로그램이 제 1 프로세서(903)에 의해 실행되면, 화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정하고, 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하며, 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축한다. 예측 모델은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용된다.
본 출원의 실시예의 제 1 메모리(902)는 휘발성 메모리 또는 비 휘발성 메모리일 수 있으며, 또는 휘발성 메모리 및 비 휘발성 메모리 양자를 포함할 수 있다. 비 휘발성 메모리는 읽기 전용 메모리(Read-Only Memory, ROM), 프로그램 가능 읽기 전용 메모리(Programmable Read-Only Memory, PROM), 삭제 가능 프로그램 가능 읽기 전용 메모리(Erasable Programmable Read-Only Memory, EPROM), 전기적 삭제 가능 프로그램 가능 읽기 전용 메모리(Electrically Erasable Programmable Read-Only Memory, EEPROM) 또는 플래시 메모리(Flash Memory)일 수 있다. 휘발성 메모리는 외부 고속 캐시로 사용되는 랜덤 액세스 메모리(Random Access Memory, RAM)일 수 있다. 예시적이지만 한정적이지 않은 예를 들어, 다양한 형태의 RAM을 사용할 수 있으며, 예를 들어, 정적 랜덤 액세스 메모리(Static RAM, SRAM), 동적 랜덤 액세스 메모리(Dynamic Random Access Memory, DRAM), 동기 동적 랜덤 액세스 메모리(Synchronous Dynamic Random Access Memory, SDRAM), 더블 데이터 레이트 동기 동적 랜덤 액세스 메모리(Double Data Rate Synchronous Dynamic Random Access Memory, DDR SDRAM), 강화 동기 동적 랜덤 액세스 메모리(Enhanced Synchronous Dynamic Random Access Memory, ESDRAM), 동기 링크 동적 랜덤 액세스 메모리(Synch-link Dynamic Random Access Memory, SLDRAM) 및 직접 램버스 랜덤 액세스 메모리(Direct Rambus Random Access Memory, DRRAM)이다. 본 명세서에 기재된 시스템 및 방법의 제 1 메모리(902)는 이들과 다른 임의의 적절한 유형의 메모리를 포함하지만, 이것에 한정되지 않는다.
제 1 프로세서(903)는 신호 처리 능력을 갖는 집적 회로 칩일 수 있다. 실시 과정에서 상술한 방법 실시예의 각 단계는 제 1 프로세서(903)의 하드웨어 형태의 집적 논리 회로(integrated logic circuit) 또는 소프트웨어 형태의 명령에 의해 완성될 수 있다. 제 1 프로세서(903)는 범용 프로세서, 디지털 신호 프로세서(Digital Signal Processor, DSP), 주문형 집적 회로(Application Specific Integrated Circuit, ASIC), 필드 프로그래머블 게이트 어레이(Field Programmable Gate Array, FPGA) 또는 다른 프로그래머블 로직 디바이스, 이산 게이트 또는 트랜지스터 논리 장치, 개별 하드웨어 구성 요소일 수 있다. 프로세서는 본 발명의 실시예에 개시된 방법, 단계 및 논리 블록도를 실현 또는 실행할 수 있다. 범용 프로세서는 마이크로 프로세서 또는 임의의 통상적인 프로세서 등일 수 있다. 본 발명의 실시예에서 개시된 방법의 단계는 직접 하드웨어 디코딩 프로세서에 의해 실행 및 완성될 수 있거나, 또는 디코딩 프로세서의 하드웨어 및 소프트웨어 모듈의 조합에 의해 실행 및 완성될 수 있다. 소프트웨어 모듈은 랜덤 액세스 메모리(random access memory, RAM), 플래시 메모리, 읽기 전용 메모리(read only memory, ROM), 프로그래머블 읽기 전용 메모리(programmable ROM, PROM) 또는 전기적으로 지울 수 있는 프로그래머블 메모리, 레지스터 등 본 기술 분야의 성숙한 저장 매체에 있을 수 있다. 저장 매체는 제 1 메모리(902)에 있다. 제 1 프로세서(903)는 제 1 메모리(902)의 정보를 읽고 프로세서의 하드웨어를 사용하여 상술한 방법의 단계를 완성한다.
본 명세서에 기재된 실시예는 하드웨어, 소프트웨어, 펌웨어, 미들웨어, 마이크로 코드 또는 그 조합에 의해 실현될 수 있음을 이해할 수 있다. 하드웨어에 의해 실현되는 경우, 처리 유닛은 하나 이상의 주문형 집적 회로(Application Specific Integrated Circuits, ASIC), 디지털 신호 처리(Digital Signal Processing, DSP), DSP 장치(DSP Device), 프로그래머블 로직 장치(Programmable Logic Device, PLD), 필드 프로그래머블 게이트 어레이(Field-Programmable Gate Array, FPGA), 범용 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서, 본 출원의 상기 기능을 실행하는 다른 전자 유닛 또는 그 조합으로 구현될 수 있다. 소프트웨어에 의해 실현되는 경우, 본 명세서에 기재된 기술은 본 명세서에 기재된 기능을 수행하는 모듈(예를 들어, 절차, 함수(functions) 등)에 의해 실현될 수 있다. 소프트웨어 코드는 메모리에 저장되고, 또한 프로세서에 의해 실행된다. 메모리는 프로세서 내부 또는 프로세서 외부에서 구현될 수 있다.
선택적으로, 다른 실시예로서, 제 1 프로세서(903)는 컴퓨터 프로그램을 실행하면 상기 실시예에 기재된 임의의 하나의 방법을 실행하는 데에 사용된다.
본 출원의 실시예는 인코더를 제공한다. 인코더는 제 1 확정 유닛, 제 1 처리 유닛 및 제 1 구축 유닛을 포함한다. 제 1 확정 유닛은 화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정하는 데에 사용된다. 제 1 처리 유닛은 현재 블록의 적어도 하나의 화상 컴포넌트에 대해 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하는 데에 사용된다. 제 1 구축 유닛은 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축하는 데에 사용되며, 예측 모델은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용된다. 이렇게 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하기 전에 적어도 하나의 화상 컴포넌트에 대하여 전처리를 수행함으로써, 컴포넌트 간 예측을 수행하기 전에 각 화상 컴포넌트의 통계 특성의 균형을 이룸으로써 예측 효율을 향상시키고, 비디오 화상의 부호화 및 복호화 효율을 향상시킬 수 있다.
상술한 실시예와 같은 발명 구상을 기반으로 도 10을 참조하면, 도 10은 본 출원의 실시예에 따른 디코더(100)의 구조를 나타내는 도면이다. 디코더(100)는 제 2 확정 유닛(1001), 제 2 처리 유닛(1002) 및 제 2 구축 유닛(1003)을 포함한다.
제 2 확정 유닛(1001)은 화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정하는 데에 사용된다.
제 2 처리 유닛(1002)은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하는 데에 사용된다.
제 2 구축 유닛(1003)은 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축하는 데에 사용된다. 예측 모델은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용된다.
상술한 기술방안에 있어서, 도 10에 도시된 바와 같이, 디코더(100)는 제 2 통계 유닛(1004) 및 제 2 획득 유닛(1005)을 더 포함할 수 있다.
제 2 통계 유닛(1004)은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 특성 통계를 수행하는 데에 사용된다. 적어도 하나의 화상 컴포넌트는 제 1 화상 컴포넌트 및/또는 제 2 화상 컴포넌트를 포함한다.
제 2 획득 유닛(1005)은 특성 통계 결과에 따라 현재 블록의 제 1 화상 컴포넌트의 참조값 및/또는 현재 블록의 제 2 화상 컴포넌트의 참조값을 획득하는 데에 사용된다. 제 1 화상 컴포넌트는 예측 모델을 구축할 때에 예측에 사용되는 컴포넌트이고, 제 2 화상 컴포넌트는 예측 모델을 구축할 때에 예측되는 컴포넌트이다.
상술한 기술 방안에 있어서, 제 2 처리 유닛(1002)은 또한 현재 블록의 제 1 화상 컴포넌트의 참조값 및/또는 현재 블록의 제 2 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 제 1 화상 컴포넌트에 대하여 제 1 처리를 실행하는 데에 사용되며, 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화 및 비 양자화 중 적어도 하나를 포함한다.
제 2 획득 유닛(1005)은 또한 제 1 처리 결과에 따라 현재 블록의 제 1 화상 컴포넌트의 처리값을 획득하는 데에 사용된다.
상술한 기술 방안에 있어서, 디코더(100)는 제 2 조정 유닛(1006) 및 제 2 업데이트 유닛(1007)을 더 포함할 수 있다.
제 2 조정 유닛(1006)은 현재 블록의 제 1 화상 컴포넌트의 해상도와 현재 블록의 제 2 화상 컴포넌트의 해상도가 다른 경우, 제 1 화상 컴포넌트의 해상도를 조정하는 데에 사용된다. 해상도를 조정하는 것은 업 샘플링 또는 다운 샘플링이 포함된다.
제 2 업데이트 유닛(1007)은 조정된 제 1 화상 컴포넌트의 해상도를 기반으로 현재 블록의 제 1 화상 컴포넌트의 참조값을 업데이트하는 데에 사용된다. 조정된 제 1 화상 컴포넌트의 해상도와 제 2 화상 컴포넌트의 해상도는 동일하다.
상술한 기술 방안에 있어서, 제 2 조정 유닛(1006)은 또한 현재 블록의 제 1 화상 컴포넌트의 해상도와 현재 블록의 제 2 화상 컴포넌트의 해상도가 다른 경우, 제 1 화상 컴포넌트의 해상도를 조정하는 데에 사용된다. 해상도를 조정하는 것은 업 샘플링 또는 다운 샘플링이 포함된다.
제 2 업데이트 유닛(1007)은 또한 조정된 제 1 화상 컴포넌트의 해상도를 기반으로 현재 블록의 제 1 화상 컴포넌트의 처리값을 업데이트하는 데에 사용된다. 조정된 제 1 화상 컴포넌트의 해상도와 제 2 화상 컴포넌트의 해상도는 동일하다.
상술한 기술 방안에 있어서, 제 2 조정 유닛(1006)은 또한 현재 블록의 제 1 화상 컴포넌트의 해상도와 현재 블록의 제 2 화상 컴포넌트의 해상도가 다른 경우, 현재 블록의 제 1 화상 컴포넌트의 참조값 및/또는 현재 블록의 제 2 화상 컴포넌트의 참조값에 따라 제 1 화상 컴포넌트에 대하여 제 2 처리를 수행하는 데에 사용된다. 제 2 처리는 업 샘플링 및 프리셋 처리 모드 관련 처리 또는 다운 샘플링 및 프리셋 처리 모드 관련 처리를 포함한다.
제 2 획득 유닛(1005)은 또한 제 2 처리 결과에 따라 현재 블록의 제 1 화상 컴포넌트의 처리값을 획득하는 데에 사용된다. 처리된 현재 블록의 제 1 화상 컴포넌트의 해상도와 현재 블록의 제 2 화상 컴포넌트의 해상도는 동일하다.
상술한 기술 방안에 있어서, 제 2 구축 유닛(1003)은 비트 스트림을 분석하고, 분서하여 얻어진 모델 파라미터에 따라 예측 모델을 구축하는 데에 사용된다.
상술한 기술 방안에 있어서, 도 10에 도시된 바와 같이, 디코더(100)는 제 2 예측 유닛(1008)을 더 포함할 수 있다. 제 2 예측 유닛(1008)은 예측 모델을 기반으로 현재 블록의 제 2 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하여 현재 블록의 제 2 화상 컴포넌트의 예측값을 획득하는 데에 사용된다.
본 출원의 실시예에 있어서, '유닛'은 회로의 일부, 프로세서의 일부, 프로그램의 일부 또는 소프트웨어 등일 수 있으며, 물론 모듈일 수도 있고, 비모듈일 수도 있음을 이해할 수 있다. 또한, 본 출원의 실시예의 각 구성 요소는 하나의 처리 유닛에 통합될 수 있고, 또는 각 유닛이 단독으로 물리적으로 존재할 수도 있으며, 또는 2개 이상의 유닛이 하나의 유닛에 통합될 수도 있다. 상기 통합 유닛은 하드웨어 또는 소프트웨어 기능 모듈의 형태로 실현될 수 있다.
통합된 유닛이 소프트웨어 기능 유닛 형태로 구현되어 별도의 제품으로 판매되거나 사용되는 경우, 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 이러한 이해를 기초로 하여 본 출원의 실시예는 컴퓨터 저장 매체를 제공한다. 컴퓨터 저장 매체에 화상 예측 프로그램이 저장되어 있다. 화상 예측 프로그램이 제 2 프로세서에 실행되면 상술한 실시예에 기재된 임의의 하나의 방법을 실현한다.
디코더(100)의 구성 및 컴퓨터 저장 매체에 따라, 도 11을 참조하면, 도 11은 본 출원의 실시예에 따른 디코더(100)의 구체적인 하드웨어 구조를 나타내는 도면이다. 디코더(100)는 제 2 통신 인터페이스(1101), 제 2 메모리(1102) 및 제 2 프로세서(1103)를 포함할 수 있다. 각 구성 요소는 제 2 버스 시스템(1104)을 통해 함께 결합된다. 제 2 버스 시스템(1104)은 이러한 구성 요소 간의 연결과 통신을 실현하는 데에 사용된다. 제 2 버스 시스템(1104)은 데이터 버스 이외에 또한 전력 버스, 제어 버스 및 상태 신호 버스를 포함한다. 명확하게 설명하기 위하여, 도 11에 도시된 바와 같이, 다양한 버스는 제 2 버스 시스템(1104)으로 표기되어 있다.
제 2 통신 인터페이스(1101)는 다른 외부 네트워크 요소와 정보를 송수신하면서 신호를 송수신하는 데에 사용된다.
제 2 메모리(1102)는 제 2 프로세서(1103)에 의해 실행 가능한 컴퓨터 프로그램을 저장하는 데에 사용된다.
컴퓨터 프로그램이 제 2 프로세서(1103)에 의해 실행되면, 화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정하고, 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하며, 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축한다. 예측 모델은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용된다.
선택적으로, 다른 실시예에 있어서, 제 2 프로세서(1103)는 컴퓨터 프로그램을 실행할 때, 상기 실시예에 기재된 임의의 하나의 방법을 실행하는 데에 사용된다.
제 2 메모리(1102)와 제 1 메모리(902)의 기능은 유사하고, 제 2 프로세서(1103)와 제 1 프로세서(903)의 기능은 유사함을 이해할 수 있으므로 여기서는 자세히 설명하지 않는다.
본 출원의 실시예는 디코더를 제공한다. 디코더는 제 2 확정 유닛, 제 2 처리 유닛 및 제 2 구축 유닛을 포함한다. 제 2 확정 유닛은 화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정하는 데에 사용된다. 제 2 처리 유닛은 현재 블록의 적어도 하나의 화상 컴포넌트에 대해 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하는 데에 사용된다. 제 2 구축 유닛은 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축하는 데에 사용되며, 예측 모델은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용된다. 이렇게 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하기 전에 적어도 하나의 화상 컴포넌트에 대하여 전처리를 수행함으로써, 컴포넌트 간 예측을 수행하기 전에 각 화상 컴포넌트의 통계 특성의 균형을 이룸으로써 예측 효율을 향상시키고, 비디오 화상의 부호화 및 복호화 효율을 향상시킬 수 있다.
본 출원에 있어서, '포함한다' 또는 그 변형과 같은 용어는 비 배타적인 포함을 커버하기 위한 것으로서 일련의 요소를 포함하는 프로세스, 방법, 개체 또는 장치는 나열된 요소뿐만 아니라 나열되지 않은 다른 요소를 포함하고, 또는 프로세스, 방법, 개체 또는 장치에 고유한 다른 요소를 포함할 수 있다. 더 많은 제한이 없는 상황에서 '...을 포함한다'라는 문구에 의해 제한된 요소를 포함하는 프로세스, 방법, 개체 또는 장치에 다른 동일한 요소가 존재하는 것을 배제하지 않는다.
상술한 실시예의 시퀀스 번호는 실시예의 우열을 나타내는 것이 아니라, 단지 설명하는 데에 사용된다.
본 출원의 여러 방법 실시예에 기재된 방법은 충돌이 없는 한 임의로 조합하여 새로운 방법 실시예를 획득할 수 있음에 유념하기 바란다.
본 출원의 여러 제품 실시예에 개시된 특징은 충돌이 없는 한 임의로 조합하여 새로운 제품 실시예를 획득할 수 있음에 유념하기 바란다.
본 출원의 여러 방법 또는 장치 실시예에 개시된 특징은 충돌이 없는 한 임의로 조합하여 새로운 방법 실시예 또는 장치 실시예를 얻을 수 있다.
상술한 것은 단지 본 발명의 구체적인 실시예이며, 본 발명의 보호 범위는 이것에 한정되는 것은 아니다. 당업자라면 본 발명에 개시된 기술 범위 내에서 변경 또는 교체를 쉽게 도출할 수 있으며, 이러한 변경 또는 교체는 모두 본 발명의 범위 내에 포함되어야 한다. 따라서 본 출원의 보호 범위는 특허 청구 범위에 의해 결정된다.
본 출원의 실시예에 있어서, 우선, 화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정한다. 그 다음에 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득한다. 그 다음에 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축한다. 예측 모델은 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용된다. 이렇게 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하기 전에 적어도 하나의 화상 컴포넌트에 대하여 전처리를 수행함으로써, 컴포넌트 간 예측을 수행하기 전에 각 화상 컴포넌트의 통계 특성의 균형을 이룸으로써 예측 효율을 향상시킨다. 예측 모델을 이용하여 예측된 화상 컴포넌트의 예측값이 진실값에 더욱 가깝기 때문에 화상 컴포넌트의 예측 잔차는 비교적 작고, 부호화 및 복호화 과정에서 전송되는 비트 레이트가 적으며, 비디오 화상의 부호화 및 복호화 효율을 향상시킬 수 있다.

Claims (20)

  1. 인코더 또는 디코더에 적용 가능한 화상 예측 방법으로서,
    화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정하는 것과,
    상기 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하는 것과,
    상기 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축하는 것 - 상기 예측 모델은 상기 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용됨 - 을 포함하는 것을 특징으로 하는 화상 예측 방법.
  2. 제 1 항에 있어서,
    화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정한 다음에, 상기 방법은,
    상기 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 특성 통계를 수행하는 것 - 상기 적어도 하나의 화상 컴포넌트는 제 1 화상 컴포넌트 및/또는 제 2 화상 컴포넌트를 포함함 - 과,
    특성 통계 결과에 따라 상기 현재 블록의 제 1 화상 컴포넌트의 참조값 및/또는 상기 현재 블록의 제 2 화상 컴포넌트의 참조값을 획득하는 것 - 상기 제 1 화상 컴포넌트는 상기 예측 모델을 구축할 때에 예측에 사용되는 컴포넌트이고, 상기 제 2 화상 컴포넌트는 상기 예측 모델을 구축할 때에 예측되는 컴포넌트임 - 을 더 포함하는 것을 특징으로 하는 방법.
  3. 제 2 항에 있어서,
    상기 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하는 것은,
    상기 현재 블록의 제 1 화상 컴포넌트의 참조값 및/또는 상기 현재 블록의 제 2 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 상기 제 1 화상 컴포넌트에 대하여 제 1 처리를 실행하는 것 - 상기 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화 및 비 양자화 중 적어도 하나를 포함함 - 과,
    제 1 처리 결과에 따라 상기 현재 블록의 제 1 화상 컴포넌트의 처리값을 획득하는 것을 포함하는 것을 특징으로 하는 방법.
  4. 제 2 항에 있어서,
    상기 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하기 전에, 상기 방법은,
    상기 현재 블록의 제 1 화상 컴포넌트의 해상도와 상기 현재 블록의 제 2 화상 컴포넌트의 해상도가 다른 경우, 상기 제 1 화상 컴포넌트의 해상도를 조정하는 것 - 상기 해상도를 조정하는 것은 업 샘플링 또는 다운 샘플링이 포함됨 - 과
    조정된 상기 제 1 화상 컴포넌트의 해상도를 기반으로 상기 현재 블록의 제 1 화상 컴포넌트의 참조값을 업데이트하는 것 - 조정된 상기 제 1 화상 컴포넌트의 해상도와 상기 제 2 화상 컴포넌트의 해상도는 동일함 - 을 더 포함하는 것을 특징으로 하는 방법.
  5. 제 3 항에 있어서,
    상기 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득한 후에, 상기 방법은,
    상기 현재 블록의 제 1 화상 컴포넌트의 해상도와 상기 현재 블록의 제 2 화상 컴포넌트의 해상도가 다른 경우, 상기 제 1 화상 컴포넌트의 해상도를 조정하는 것 - 상기 해상도를 조정하는 것은 업 샘플링 또는 다운 샘플링이 포함됨 - 과,
    조정된 상기 제 1 화상 컴포넌트의 해상도를 기반으로 상기 현재 블록의 제 1 화상 컴포넌트의 처리값을 업데이트하는 것 - 조정된 상기 제 1 화상 컴포넌트의 해상도와 상기 제 2 화상 컴포넌트의 해상도는 동일함 - 을 더 포함하는 것을 특징으로 하는 방법.
  6. 제 2 항에 있어서,
    상기 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하는 것은,
    상기 현재 블록의 제 1 화상 컴포넌트의 해상도와 상기 현재 블록의 제 2 화상 컴포넌트의 해상도가 다른 경우, 상기 현재 블록의 제 1 화상 컴포넌트의 참조값 및/또는 상기 현재 블록의 제 2 화상 컴포넌트의 참조값에 따라 상기 제 1 화상 컴포넌트에 대하여 제 2 처리를 수행하는 것 - 상기 제 2 처리는 업 샘플링 및 프리셋 처리 모드 관련 처리 또는 다운 샘플링 및 프리셋 처리 모드 관련 처리를 포함함 - 과,
    제 2 처리 결과에 따라 상기 현재 블록의 제 1 화상 컴포넌트의 처리값을 획득하는 것 - 처리된 상기 현재 블록의 제 1 화상 컴포넌트의 해상도와 상기 현재 블록의 제 2 화상 컴포넌트의 해상도는 동일함 - 을 포함하는 것을 특징으로 하는 방법.
  7. 제 3 항, 제 5 항 또는 제 6 항 중 어느 한 항에 있어서,
    상기 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축하는 것은,
    상기 제 1 화상 컴포넌트의 처리값과 상기 제 2 화상 컴포넌트의 참조값에 따라 상기 예측 모델의 모델 파라미터를 확정하는 것과,
    상기 모델 파라미터를 기반으로 상기 예측 모델을 구축하는 것을 포함하는 것을 특징으로 하는 방법.
  8. 제 7 항에 있어서,
    예측 모델을 구축한 다음에, 상기 방법은,
    상기 예측 모델을 기반으로 상기 현재 블록의 제 2 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하여 상기 현재 블록의 제 2 화상 컴포넌트의 예측값을 획득하는 것을 더 포함하는 것을 특징으로 하는 방법.
  9. 인코더 또는 디코더에 적용 가능한 화상 예측 방법으로서,
    화상 중 현재 블록의 제 1 화상 컴포넌트의 참조값을 확정하는 것 - 상기 현재 블록의 제 1 화상 컴포넌트의 참조값은 상기 현재 블록의 인접 샘플의 제 1 화상 컴포넌트값임 - 과,
    상기 현재 블록의 제 1 화상 컴포넌트의 참조값을 필터링하여 필터링된 참조값을 획득하는 것과,
    상기 필터링된 참조값을 이용하여 예측 모델의 모델 파라미터를 계산하는 것 - 상기 예측 모델은 상기 현재 블록의 제 1 화상 컴포넌트의 값을 상기 현재 블록의 제 2 화상 컴포넌트의 값에 매핑하는 데에 사용되며, 상기 제 2 화상 컴포넌트와 상기 제 1 화상 컴포넌트는 다름 - 을 포함하는 것을 특징으로 하는 화상 예측 방법.
  10. 제 9 항에 있어서,
    상기 필터링된 참조값을 이용하여 예측 모델의 모델 파라미터를 계산한다는 것은,
    상기 화상의 적어도 하나의 화상 컴포넌트 또는 상기 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 특성 통계를 수행하는 것 - 상기 적어도 하나의 화상 컴포넌트는 상기 제 1 화상 컴포넌트 및/또는 상기 제 2 화상 컴포넌트를 포함함 - 과,
    특성 통계 결과에 따라 상기 현재 블록의 제 2 화상 컴포넌트의 참조값을 획득하는 것 - 상기 현재 블록의 제 2 화상 컴포넌트의 참조값은 상기 현재 블록의 인접한 샘플의 제 2 화상 컴포넌트값임 - 과,
    필터링된 참조값과 상기 현재 블록의 제 2 화상 컴포넌트의 참조값을 사용하여 상기 예측 모델의 모델 파라미터를 계산하는 것을 포함하는 것을 특징으로 하는 방법.
  11. 제 9 항에 있어서,
    상기 현재 블록의 제 1 화상 컴포넌트의 참조값을 필터링하여 필터링된 참조값을 획득한다는 것은,
    상기 화상의 제 2 화상 컴포넌트의 해상도와 상기 화상의 제 1 화상 컴포넌트의 해상도가 다른 경우, 상기 현재 블록의 제 1 화상 컴포넌트의 참조값에 대하여 제 1 조정 처리를 수행함으로써 상기 현재 블록의 제 1 화상 컴포넌트의 참조값을 업데이트하는 것 - 상기 제 1 조정 처리는 다운 샘플링 필터링 또는 업 샘플링 필터링 중 하나를 포함함 - 과,
    상기 현재 블록의 제 1 화상 컴포넌트의 참조값을 필터링하여 상기 필터링된 참조값을 획득하는 것을 포함하는 것을 특징으로 하는 방법.
  12. 제 9 항 또는 제 11 항에 있어서,
    상기 방법은 상기 현재 블록의 제 1 화상 컴포넌트의 참조값에 따라 프리셋 처리 모드로 상기 참조값을 필터링하는 것을 더 포함하며,
    상기 프리셋 처리 모드는 필터링, 그룹화, 값 수정, 양자화. 비 양자화, 로우 패스 필터링, 적응 필터링 중 적어도 하나를 포함하는 것을 특징으로 하는 방법.
  13. 제 9 항에 있어서,
    상기 현재 블록의 제 1 화상 컴포넌트의 참조값을 필터링하여 필터링된 참조값을 획득한다는 것은,
    상기 화상의 제 2 화상 컴포넌트의 해상도와 상기 화상의 제 1 화상 컴포넌트의 해상도가 다른 경우, 상기 현재 블록의 제 2 화상 컴포넌트의 참조값에 대하여 제 2 조정 처리를 수행함으로써 상기 현재 블록의 제 1 화상 컴포넌트의 제 1 참조값을 업데이트하는 것을 포함하며,
    상기 제 2 조정 처리는 다운 샘플링 및 평활화 필터링, 또는 업 샘플링 및 평활화 필터링 중 하나를 포함하는 것을 특징으로 하는 방법.
  14. 제 9 항에 있어서,
    상기 필터링된 참조값을 이용하여 예측 모델의 모델 파라미터를 계산하는 것은,
    상기 현재 블록의 제 2 화상 컴포넌트의 참조값을 확정하는 것 - 상기 현재 블록의 제 2 화상 컴포넌트의 참조값은 상기 현재 블록의 인접 샘플의 제 2 화상 컴포넌트값임 - 과,
    상기 필터링된 참조값과 상기 현재 블록의 제 2 화상 컴포넌트의 참조값을 사용하여 상기 예측 모델의 모델 파라미터를 계산하는 것을 포함하는 것을 특징으로 하는 방법.
  15. 제 9 항에 있어서,
    상기 필터링된 참조값을 이용하여 예측 모델의 모델 파라미터를 계산한 다음에, 상기 방법은,
    상기 예측 모델을 기반으로 상기 현재 블록의 제 1 화상 컴포넌트의 값을 매핑하여 상기 현재 블록의 제 2 화상 컴포넌트의 예측값을 획득하는 것을 더 포함하는 것을 특징으로 하는 방법.
  16. 인코더로서,
    상기 인코더는 제 1 확정 유닛, 제 1 처리 유닛 및 제 1 구축 유닛을 포함하고,
    상기 제 1 확정 유닛은 화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정하는 데에 사용되고,
    상기 제 1 처리 유닛은 상기 현재 블록의 적어도 하나의 화상 컴포넌트에 대해 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하는 데에 사용되며,
    상기 제 1 구축 유닛은 상기 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축하는 데에 사용되며, 상기 예측 모델은 상기 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용되는 것을 특징으로 하는 인코더.
  17. 인코더로서,
    상기 인코더는 제 1 메모리 및 제 1 프로세서를 포함하고,
    상기 제 1 메모리는 상기 제 1 프로세서에서 실행할 수 있는 컴퓨터 프로그램을 저장하는 데에 사용되고,
    상기 제 1 프로세서는 상기 컴퓨터 프로그램을 실행함으로써 제 1 항 내지 제 15 항 중 어느 한 항에 기재된 방법을 실행하는 데에 사용되는 것을 특징으로 하는 인코더.
  18. 디코더로서,
    상기 디코더는 제 2 확정 유닛, 제 2 처리 유닛 및 제 2 구축 유닛을 포함하고,
    상기 제 2 확정 유닛은 화상 중 현재 블록의 적어도 하나의 화상 컴포넌트를 확정하는 데에 사용되고,
    상기 제 2 처리 유닛은 상기 현재 블록의 적어도 하나의 화상 컴포넌트에 대해 전처리하여 전처리된 적어도 하나의 화상 컴포넌트를 획득하는 데에 사용되며,
    상기 제 2 구축 유닛은 상기 전처리된 적어도 하나의 화상 컴포넌트를 기반으로 예측 모델을 구축하는 데에 사용되며, 상기 예측 모델은 상기 현재 블록의 적어도 하나의 화상 컴포넌트에 대하여 컴포넌트 간 예측을 수행하는 데에 사용되는 것을 특징으로 하는 디코더.
  19. 디코더로서,
    상기 디코더는 제 2 메모리 및 제 2 프로세서를 포함하고,
    상기 제 2 메모리는 상기 제 2 프로세서에서 실행할 수 있는 컴퓨터 프로그램을 저장하는 데에 사용되고,
    상기 제 2 프로세서는 상기 컴퓨터 프로그램을 실행함으로써 제 1 항 내지 제 15 항 중 어느 한 항에 기재된 방법을 실행하는 데에 사용되는 것을 특징으로 하는 디코더.
  20. 컴퓨터 저장 매체로서,
    상기 컴퓨터 저장 매체에 화상 예측 프로그램이 저장되어 있고, 상기 화상 예측 프로그램이 제 1 프로세서 또는 제 2 프로세서에 의해 실행되면 제 1 항 내지 제 15 항 중 어느 한 항에 기재된 방법을 실현하는 것을 특징으로 하는 컴퓨터 저장 매체.
KR1020217032516A 2019-03-25 2019-10-12 화상 예측 방법, 인코더, 디코더 및 저장 매체 KR20210139327A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962823602P 2019-03-25 2019-03-25
US62/823,602 2019-03-25
PCT/CN2019/110809 WO2020192084A1 (zh) 2019-03-25 2019-10-12 图像预测方法、编码器、解码器以及存储介质

Publications (1)

Publication Number Publication Date
KR20210139327A true KR20210139327A (ko) 2021-11-22

Family

ID=72611297

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217032516A KR20210139327A (ko) 2019-03-25 2019-10-12 화상 예측 방법, 인코더, 디코더 및 저장 매체

Country Status (8)

Country Link
US (1) US20220014765A1 (ko)
EP (1) EP3955571A4 (ko)
JP (1) JP2022528835A (ko)
KR (1) KR20210139327A (ko)
CN (3) CN113228647A (ko)
AU (1) AU2019437150A1 (ko)
MX (1) MX2021011662A (ko)
WO (1) WO2020192084A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230022061A (ko) * 2021-08-06 2023-02-14 삼성전자주식회사 디코딩 장치 및 그의 동작 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140198846A1 (en) * 2013-01-16 2014-07-17 Qualcomm Incorporated Device and method for scalable coding of video information
US20150382016A1 (en) * 2014-06-27 2015-12-31 Mitsubishi Electric Research Laboratories, Inc. Method for Processing Multi-Component Video and Images
CN107079166A (zh) * 2014-10-28 2017-08-18 联发科技(新加坡)私人有限公司 用于视频编码的引导交叉分量预测的方法
US9998742B2 (en) * 2015-01-27 2018-06-12 Qualcomm Incorporated Adaptive cross component residual prediction
US10455249B2 (en) * 2015-03-20 2019-10-22 Qualcomm Incorporated Downsampling process for linear model prediction mode
US10045023B2 (en) * 2015-10-09 2018-08-07 Telefonaktiebolaget Lm Ericsson (Publ) Cross component prediction in video coding
US10200719B2 (en) * 2015-11-25 2019-02-05 Qualcomm Incorporated Modification of transform coefficients for non-square transform units in video coding
US20210297680A1 (en) * 2016-10-12 2021-09-23 Telefonaktiebolaget Lm Ericsson (Publ) Residual refinement of color components

Also Published As

Publication number Publication date
EP3955571A4 (en) 2022-06-15
CN113766233B (zh) 2023-05-23
CN113766233A (zh) 2021-12-07
CN113228647A (zh) 2021-08-06
JP2022528835A (ja) 2022-06-16
CN116634153A (zh) 2023-08-22
EP3955571A1 (en) 2022-02-16
US20220014765A1 (en) 2022-01-13
AU2019437150A1 (en) 2021-11-11
MX2021011662A (es) 2021-10-22
WO2020192084A1 (zh) 2020-10-01

Similar Documents

Publication Publication Date Title
WO2020029187A1 (zh) 视频图像分量的预测方法、装置及计算机存储介质
US20240098255A1 (en) Video picture component prediction method and apparatus, and computer storage medium
US20220014772A1 (en) Method for picture prediction, encoder, and decoder
JP2023510666A (ja) 画像コンポーネント予測方法、エンコーダ、デコーダ及び記憶媒体
JP7437426B2 (ja) インター予測方法および装置、機器、記憶媒体
CN113068025B (zh) 解码预测方法、装置及计算机存储介质
KR20210139327A (ko) 화상 예측 방법, 인코더, 디코더 및 저장 매체
WO2020056767A1 (zh) 视频图像分量的预测方法、装置及计算机存储介质
RU2805048C2 (ru) Способ предсказания изображения, кодер и декодер
WO2020192180A1 (zh) 图像分量的预测方法、编码器、解码器及计算机存储介质
JP2013157950A (ja) 符号化方法、復号方法、符号化装置、復号装置、符号化プログラム及び復号プログラム
US20210321091A1 (en) Intra prediction method and apparatus, and computer-readable storage medium
JP7305769B2 (ja) 予測方向の決定方法、デコーダ及びコンピュータ記憶媒体
CN113261279A (zh) 预测值的确定方法、编码器、解码器以及存储介质