KR102543086B1 - 화상을 인코딩 및 디코딩하기 위한 방법 및 장치 - Google Patents

화상을 인코딩 및 디코딩하기 위한 방법 및 장치 Download PDF

Info

Publication number
KR102543086B1
KR102543086B1 KR1020197011718A KR20197011718A KR102543086B1 KR 102543086 B1 KR102543086 B1 KR 102543086B1 KR 1020197011718 A KR1020197011718 A KR 1020197011718A KR 20197011718 A KR20197011718 A KR 20197011718A KR 102543086 B1 KR102543086 B1 KR 102543086B1
Authority
KR
South Korea
Prior art keywords
block
component
picture
predictor
decoded
Prior art date
Application number
KR1020197011718A
Other languages
English (en)
Other versions
KR20190068555A (ko
Inventor
도미니끄 또로
메흐멧 투르칸
마르틴 알랭
조아캉 즈피다 살바티에라
Original Assignee
인터디지털 매디슨 페턴트 홀딩스 에스에이에스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=57286411&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR102543086(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 인터디지털 매디슨 페턴트 홀딩스 에스에이에스 filed Critical 인터디지털 매디슨 페턴트 홀딩스 에스에이에스
Publication of KR20190068555A publication Critical patent/KR20190068555A/ko
Application granted granted Critical
Publication of KR102543086B1 publication Critical patent/KR102543086B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

화상을 인코딩하기 위한 방법 및 장치가 개시된다. 인코딩할 화상의 적어도 하나의 블록에 대해, 상기 화상의 제1 성분의 재구성된 영역으로부터, 상기 적어도 하나의 블록의 디코딩된 제1 성분(21)에 대해 블록 예측자가 결정된다(22). 상기 적어도 하나의 블록의 적어도 하나의 제2 성분은 다음으로 상기 블록 예측자의 제2 성분으로부터 상기 적어도 하나의 제2 성분을 예측하는 것에 의해 인코딩된다(23). 대응하는 디코딩 방법 및 장치가 개시된다.

Description

화상을 인코딩 및 디코딩하기 위한 방법 및 장치
화상 또는 비디오를 비트스트림으로 인코딩하기 위한 방법 및 장치가 개시된다. 대응하는 디코딩 방법 및 장치가 추가로 개시된다.
네트워크를 통해 디지털 이미지들 또는 비디오 시퀀스들을 송신하기 위해, 디지털 이미지들 또는 비디오 시퀀스들은 그들의 송신에 필요한 대역폭을 감소시키기 위해 압축되어야 한다. 비디오 압축 기법들은 일반적으로 동일 화상(인트라 예측) 또는 이전 또는 다음 이미지(인터 예측)에서 다른 픽셀들에 대한 현재 이미지의 픽셀 예측을 구현하는 것을 제안한다. 이를 행하기 위해, 이미지들은 픽셀들의 블록들로 분할된다. 이러한 블록들은 다음으로, 이미지에서 블록들의 스캐닝 순서에 따라 현재 이미지에서 이전에 인코딩된 / 디코딩된 블록들에 대응하여, 이미 재구성된 정보를 사용하여 예측된다. 현재 블록의 코딩은 현재 블록의 인트라 또는 인터 예측을 사용하여 수행되고, 현재 블록과 예측 블록 사이의 차이에 대응하는 예측 잔여 또는 "잔여 블록(residual block)"이 계산된다. 다음으로, 결과적인 잔여 블록은, 예를 들어 DCT(discrete cosine transform) 타입 변환과 같은 변환을 사용하여 변환된다. 변환된 잔여 블록의 계수들은 다음으로 양자화되고 엔트로피 코딩에 의해 인코딩되어 디코더에 송신된다.
보다 특히, 인트라 예측은 인코딩할 현재 이미지의 공간 중복성들을 활용한다. H.264/AVC 또는 HEVC와 같은, 알려진 비디오 압축 표준들은, 현재 블록의 예측을 구축하기 위해 인코딩할 현재 블록 주위의 인과적 이웃 블록들의 픽셀들을 사용하는 방향성 인트라 예측 모드들을 사용한다. 현재 블록의 휘도 성분을 인코딩하기 위한 인트라 예측 모드들이 도 1a 상의 H.264/AVC 표준 및 도 1b 상의 HEVC 표준에 대해 도시된다.
알려진 비디오 압축 표준들은 일반적으로 화상의 컬러 성분들에 대해 순차적으로 동작한다. 예를 들어, 비디오가 YUV 포맷일 때, 현재 블록의 휘도 Y 성분이 먼저 인코딩되고, 다음으로 색차 성분들 U 및 V가 인코딩된다. H.264/AVC 표준에 따르면, 현재 블록의 색차 성분들은 9개의 인트라 예측 모드들의 서브세트 중에서 선택되는 인트라 예측 모드에 의해 예측될 수 있다, 즉, (인덱스 m의) 9개의 인트라 예측 모드들이 색차 성분들에 대해 모두 이용 가능한 것은 아니다. HEVC 표준에 따르면, 현재 블록의 색차 성분들은 (인덱스 m의) 36개의 인트라 예측 모드들의 서브세트 중에서 선택되는 인트라 예측 모드로부터 유사한 방식으로 또는 휘도 성분에 대해 사용되는 것과 동일한 인트라 예측 모드를 사용하여 예측될 수 있다.
화상을 인코딩하기 위한 신규한 방법 및 장치가 개시된다.
본 개시 내용의 제1 양태에 따르면, 화상을 인코딩하기 위한 방법이 개시된다. 이러한 인코딩 방법은, 상기 화상의 적어도 하나의 블록에 대해,
- 상기 화상의 제1 성분의 재구성된 영역으로부터, 상기 블록의 디코딩된 제1 성분에 대한 블록 예측자를 결정하는 단계,
- 상기 블록의 적어도 하나의 제2 성분을 상기 블록 예측자의 제2 성분으로부터 상기 적어도 하나의 제2 성분을 예측하는 것에 의해 인코딩하는 단계를 포함한다.
본 개시 내용의 다른 양태에 따르면, 화상을 인코딩하기 위한 장치가 개시된다. 이러한 인코딩 장치는,
상기 화상의 제1 성분의 재구성된 영역으로부터, 상기 블록의 디코딩된 제1 성분에 대한 블록 예측자를 결정하는 수단,
상기 블록의 적어도 하나의 제2 성분을 상기 블록 예측자의 제2 성분으로부터 상기 적어도 하나의 제2 성분을 예측하는 것에 의해 인코딩하는 수단을 포함한다.
본 원리에 따르면, 현재 블록의 재구성된 제1 성분이 현재 블록의 다른 성분에 대한 예측을 결정하기 위해 사용된다. 따라서, 현재 블록을 인코딩할 때 현재 블록의 컬러 성분들 사이의 상관이 고려된다. 더욱이, 재구성된 제1 성분에 따라 다른 성분에 대한 블록 예측자가 결정되므로, 시그널링 정보를 전송할 필요없이 디코더에서 동일한 예측이 수행될 수 있고, 예를 들어, 모션 벡터 또는 인트라 모드 예측의 송신이 따라서 회피된다. 본 원리는 압축 효율을 개선하는 것을 허용한다.
본 개시 내용의 실시예에 따르면, 상기 디코딩된 제1 성분의 블록 예측자를 결정하는 단계는 상기 블록의 상기 디코딩된 제1 성분과 상기 화상의 제1 성분의 재구성된 영역에서의 블록의 제1 성분 사이의 왜곡 측정을 최소화하는 것에 의해 상기 블록 예측자를 선택하는 단계를 포함한다.
이러한 실시예에 따르면, 최상의 블록 매칭 예측자가 제1 성분에 대해 선택될 수 있다.
본 개시 내용의 다른 실시예에 따르면, 블록의 상기 제1 성분은 공간 예측을 사용하여 인코딩된다.
본 개시 내용의 다른 실시예에 따르면, 상기 블록의 적어도 하나의 제3 성분을 상기 블록 예측자의 제3 성분으로부터 상기 적어도 하나의 제3 성분을 예측하는 것에 의해 인코딩하는 단계를 인코딩 방법이 추가로 포함하거나 또는 이러한 단계를 위해 인코딩 장치가 구성된다.
본 개시 내용의 다른 실시예에 따르면, 인코딩 방법은 다음의 단계들을 추가로 포함하거나 또는 인코딩 장치는 이러한 단계들을 위해 구성된다:
- 상기 블록의 상기 제2 성분을 디코딩하는 단계,
- 상기 블록의 상기 디코딩된 제1 성분과 상기 화상의 상기 제1 성분의 재구성된 영역에서의 블록의 제1 성분 사이의 차이, 및 상기 블록의 상기 디코딩된 제2 성분과 상기 화상의 제2 성분의 재구성된 영역에서의 블록의 제2 성분 사이의 차이를 최소화하는 것에 의해 다른 블록 예측자를 결정하는 단계,
- 상기 블록의 적어도 하나의 제3 성분을 상기 다른 블록 예측자의 제3 성분으로부터 상기 블록의 상기 적어도 하나의 제3 성분을 예측하는 것에 의해 인코딩하는 단계.
이러한 실시예에 따르면, 현재 블록의 이전에 인코딩된 성분들이 제3 성분에 대한 최상의 예측자를 결정하기 위해 사용될 수 있다. 따라서, 압축 효율이 추가로 개선된다.
본 개시 내용의 다른 실시예에 따르면, 상기 블록에 후속하는 블록에 대해, 인코딩 방법은 다음의 단계들을 추가로 포함하거나 또는 인코딩 장치는 이러한 단계들을 위해 구성된다:
- 데이터를 인코딩하는 단계- 상기 데이터는 상기 후속 블록의 제2 성분이 상기 후속 블록의 제1 성분 이전에 인코딩된다는 점을 표시함 -,
- 상기 후속 블록의 상기 제1 성분을 상기 후속 블록의 재구성된 제2 성분에 따라 결정되는 예측자 블록을 사용하여 인코딩하는 단계.
이러한 실시예에 따르면, 동일한 화상의 상이한 블록들이, 먼저 인코딩된 성분을 변경하는 것이 가능하다. 예를 들어, YUV 화상 포맷의 경우에, 하나의 블록이 Y 성분을 먼저 인코딩하고 다음으로 U 및 V 성분들을 인코딩하고, 다른 블록이 U 성분을 먼저 인코딩하고 다음으로 Y 및 V 성분들을 인코딩하는 것이 가능하다.
본 개시 내용의 다른 양태에 따르면, 코딩된 비트스트림으로부터 화상을 디코딩하기 위한 방법이 개시된다. 이러한 디코딩 방법은,
- 상기 화상의 제1 성분의 재구성된 영역으로부터, 화상의 블록의 디코딩된 제1 성분에 대한 블록 예측자를 결정하는 단계,
- 상기 블록의 적어도 하나의 제2 성분을 상기 블록 예측자의 제2 성분으로부터 상기 블록의 상기 적어도 하나의 제2 성분을 예측하는 것에 의해 디코딩하는 단계를 포함한다.
본 개시 내용의 다른 양태에 따르면, 코딩된 비트스트림으로부터 화상을 디코딩하기 위한 장치가 개시되고, 이러한 디코딩 장치는,
- 상기 화상의 제1 성분의 재구성된 영역으로부터, 화상의 블록의 디코딩된 제1 성분에 대한 블록 예측자를 결정하는 수단,
상기 블록의 적어도 하나의 제2 성분을 상기 블록 예측자의 제2 성분으로부터 상기 블록의 상기 적어도 하나의 제2 성분을 예측하는 것에 의해 디코딩하는 수단을 포함한다.
본 개시 내용의 실시예에 따르면, 상기 디코딩된 제1 성분의 블록 예측자를 결정하는 단계는 상기 디코딩된 제1 성분과 상기 화상의 제1 성분의 재구성된 영역에서의 블록의 제1 성분 사이의 왜곡 측정을 최소화하는 것에 의해 상기 블록 예측자를 선택하는 단계를 포함한다.
본 개시 내용의 다른 실시예에 따르면, 블록의 상기 제1 성분은 공간 예측을 사용하여 디코딩된다.
본 개시 내용의 다른 실시예에 따르면, 디코딩 방법은 상기 블록의 적어도 하나의 제3 성분을 상기 블록 예측자의 제3 성분으로부터 상기 블록의 상기 적어도 하나의 제3 성분을 예측하는 것에 의해 디코딩하는 단계를 추가로 포함하거나 또는 디코딩 장치는 이러한 단계를 위해 추가로 구성된다.
본 개시 내용의 다른 실시예에 따르면, 디코딩 방법은 다음의 단계들을 추가로 포함하거나 또는 디코딩 장치는 이러한 단계들을 위해 구성된다:
- 상기 블록의 상기 재구성된 제1 성분과 상기 화상의 제1 성분의 재구성된 영역에서의 블록의 제1 성분 사이의 차이, 및 블록의 상기 재구성된 제2 성분과 상기 화상의 제2 성분의 재구성된 영역에서의 블록의 제2 성분 사이의 차이를 최소화하는 것에 의해 다른 블록 예측자를 결정하는 단계,
- 상기 블록의 적어도 하나의 제3 성분을 상기 다른 블록 예측자의 제1 성분 및 제2 성분으로부터 상기 블록의 상기 적어도 하나의 제3 성분을 예측하는 것에 의해 디코딩하는 단계.
본 개시 내용의 다른 실시예에 따르면, 현재 블록에 후속하는 블록에 대해, 디코딩 방법은 다음의 단계들을 추가로 포함하거나 또는 디코딩 장치는 이러한 단계들을 위해 구성된다:
- 상기 비트스트림으로부터 데이터를 디코딩하는 단계- 상기 데이터는 상기 후속 블록의 제2 성분이 상기 후속 블록의 제1 성분 이전에 인코딩된다는 점을 표시함 -,
- 상기 후속 블록의 상기 제1 성분을 상기 후속 블록의 디코딩된 제2 성분에 따라 결정되는 예측자 블록을 사용하여 디코딩하는 단계.
본 개시 내용의 다른 양태에 따르면, 코딩된 화상을 나타내는 코딩된 비트스트림이 개시된다. 이러한 코딩된 비트스트림은, 상기 화상의 적어도 하나의 블록에 대해,
- 상기 블록의 제1 성분을 나타내는 코딩된 데이터,
- 상기 블록의 제2 성분을 나타내는 코딩된 데이터,
- 상기 블록의 상기 제2 성분이 블록 예측자의 제2 성분에 의해 예측된다는 점을 표시하는 코딩된 데이터- 상기 블록 예측자는 이전에 재구성된 상기 블록의 상기 제1 성분에 따라 결정됨 -를 포함한다.
본 개시 내용의 실시예에 따르면, 코딩된 비트스트림은, 상기 블록의 적어도 후속 블록에 대해,
- 상기 후속 블록의 제2 성분이 상기 후속 블록의 제1 성분 이전에 인코딩된다는 점을 표시하는 코딩된 데이터,
- 상기 후속 블록의 상기 제2 성분을 나타내는 코딩된 데이터, 및
- 상기 후속 블록의 상기 제1 성분을 나타내는 코딩된 데이터- 상기 제1 성분은 예측자 블록의 제1 성분으로부터의 예측을 사용하여 인코딩되고, 상기 예측자 블록은 이전에 재구성된 상기 후속 블록의 제2 성분에 따라 결정됨 -를 추가로 포함한다.
일 구현에 따르면, 위에 본 명세서에 설명된 바와 같이 화상을 인코딩하기 위한 또는 화상을 디코딩하기 위한 방법의 상이한 단계들은 화상을 인코딩/디코딩하기 위한 장치의 데이터 프로세서에 의해 실행되도록 의도되는 소프트웨어 명령어들을 포함하는 하나 이상의 소프트웨어 프로그램 또는 소프트웨어 모듈 프로그램에 의해 구현되고, 이러한 소프트웨어 명령어들은 본 원리들에 따른 방법들의 상이한 단계들의 실행을 명령하도록 설계된다.
컴퓨터에 의해 또는 데이터 프로세서에 의해 실행될 수 있는 컴퓨터 프로그램이 또한 개시되고, 이러한 프로그램은 위에 본 명세서에 설명된 바와 같이 화상을 인코딩하기 위한 방법의 단계들의 또는 화상을 디코딩하기 위한 방법의 단계들의 실행을 명령하는 명령어들을 포함한다.
이러한 프로그램은 임의의 프로그래밍 언어를 사용할 수 있고, 부분적으로 컴파일된 형태 또는 임의의 다른 바람직한 형태와 같은, 소스 코드, 오브젝트 코드 또는 소스 코드와 오브젝트 코드 사이의 중간 코드의 형태로 존재할 수 있다.
정보 캐리어는 프로그램을 저장할 수 있는 임의의 엔티티 또는 장치일 수 있다. 예를 들어, 캐리어는 ROM, 예를 들어 CD ROM 또는 마이크로 전자 회로 ROM과 같은 저장 수단, 또는 다시 자기 기록 수단, 예를 들어 플로피 디스크 또는 하드 디스크 드라이브를 포함할 수 있다.
다시, 정보 캐리어는 무선에 의해 또는 다른 수단에 의해, 전기 또는 광 케이블을 통해 전달될 수 있는, 전기 또는 광 신호와 같은 송신 가능한 캐리어일 수 있다. 본 원리들에 따른 프로그램은 특히 인터넷 타입 네트워크에 업로드될 수 있다.
대안으로서, 정보 캐리어는 프로그램이 통합되는 집적 회로일 수 있고, 이러한 회로는 해당 방법들을 실행하거나 또는 이러한 실행에 사용되도록 적응된다.
일 실시예에 따르면, 방법들/장치는 소프트웨어 및/또는 하드웨어 성분들에 의해 구현될 수 있다. 이러한 점에서, "모듈(module)" 또는 "유닛(unit)"이라는 용어는 본 문헌에서 소프트웨어 성분에 그리고 하드웨어 성분에 또는 하드웨어 성분 및 소프트웨어 성분들의 세트에 동일하게 잘 대응할 수 있다.
소프트웨어 성분은 하나 이상의 컴퓨터 프로그램, 프로그램의 하나 이상의 서브-프로그램, 또는 보다 일반적으로는 관련된 모듈에 대해 이하 본 명세서에 설명되는 바와 같은 기능 또는 기능들의 세트를 구현할 수 있는 프로그램 또는 소프트웨어의 임의의 엘리먼트에 대응한다. 이러한 소프트웨어 성분은 물리 엔티티(단말, 서버 등)의 데이터 프로세서에 의해 실행되고, 이러한 물리 엔티티의 하드웨어 리소스들(메모리들, 기록 매체, 통신 버스들, 입력/출력 전자 보드들, 사용자 인터페이스등 등)을 액세스할 수 있다.
동일한 방식으로, 하드웨어 성분은 관련된 모듈에 대해 이하 본 명세서에 설명되는 바와 같은 기능 또는 기능들의 세트를 구현할 수 있는 하드웨어 유닛의 임의의 엘리먼트에 대응한다. 이것은 소프트웨어의 실행을 위한 집적 프로세서가 있는 성분 또는 프로그램 가능 하드웨어 성분, 예를 들어 집적 회로, 스마트카드, 메모리 카드, 펌웨어의 실행을 위한 전자 보드 등일 수 있다.
도 1a는 H.264/AVC 비디오 압축 표준에 따른 인트라 예측 모드들을 도시한다.
도 1b는 HEVC 비디오 압축 표준에 따른 인트라 예측 모드들을 도시한다.
도 2a는 본 개시 내용의 실시예에 따른 화상을 인코딩하기 위한 예시적인 방법의 흐름도를 도시한다.
도 2b는 본 개시 내용의 다른 실시예에 따른 화상을 인코딩하기 위한 예시적인 방법의 흐름도를 도시한다.
도 2c는 본 개시 내용의 실시예에 따른 인코딩 또는 디코딩할 현재 블록 및 대응하는 검색 영역을 도시한다.
도 3은 본 개시 내용의 다른 실시예에 따른 화상을 인코딩하기 위한 예시적인 방법의 흐름도를 도시한다.
도 4는 본 명세서에 개시되는 실시예들 중 어느 하나를 구현하기 위해 사용될 수 있는 예시적인 인코더를 도시한다.
도 5a는 본 개시 내용의 실시예에 따른 화상을 디코딩하기 위한 예시적인 방법의 흐름도를 도시한다.
도 5b는 본 개시 내용의 다른 실시예에 따른 화상을 디코딩하기 위한 예시적인 방법의 흐름도를 도시한다.
도 6은 본 개시 내용의 다른 실시예에 따른 화상을 디코딩하기 위한 예시적인 방법의 흐름도를 도시한다.
도 7은 본 명세서에 개시되는 실시예들 중 어느 하나를 구현하기 위해 사용될 수 있는 예시적인 디코더를 도시한다.
도 8은 본 명세서에 개시되는 실시예들 중 어느 하나를 구현하기 위해 사용될 수 있는 인코더의 예시적인 구조를 도시한다.
도 9는 본 명세서에 개시되는 실시예들 중 어느 하나를 구현하기 위해 사용될 수 있는 디코더의 예시적인 구조를 도시한다.
도 10은 코딩된 비트스트림으로부터 화상을 인코딩 또는 디코딩하기 위한 인코더 또는 디코더의 일 실시예를 도시한다.
도면들 및 설명들이, 통상적인 인코딩 및/또는 디코딩 디바이스들에서 발견되는 많은 다른 엘리먼트들을, 명확성의 목적들로, 제거하면서, 본 원리들의 명확한 이해와 관련되는 엘리먼트들을 도시하기 위해 단순화되었다는 점이 이해되어야 한다. 비록 다양한 엘리먼트들을 설명하기 위해 제1 및 제2라는 용어들이 본 명세서에서 사용될 수 있더라도, 이러한 엘리먼트들은 이러한 용어들에 의해 제한되지 않아야 한다는 점이 이해될 것이다. 이러한 용어들은 하나의 엘리먼트를 다른 것으로부터 구별하기 위해 사용될 뿐이다. 다양한 방법들이 위에 설명되고, 이러한 방법들 각각은 설명된 방법을 달성하기 위한 하나 이상의 단계 또는 액션을 포함한다. 이러한 방법의 적절한 동작에 대해 단계들 또는 액션들의 구체적인 순서가 요구되지 않으면, 구체적인 단계들 및/또는 액션들의 순서 및/또는 사용은 수정되거나 또는 조합될 수 있다. 일반적으로, "성분(component)"은 샘플 어레이에서의 구체적인 영역을 다루고(예를 들어, 휘도 Y), "블록(block)"은 모든 인코딩된 컬러 성분들의 병치된 샘플 어레이를 포함한다(Y, Cb, Cr, 또는 흑백, 또는 Y, U, V 등).
이하에서, "재구성된(reconstructed)" 및 "디코딩된(decoded)"이라는 단어는 상호 교환 가능하게 사용될 수 있다. 반드시는 아니지만 일반적으로 "재구성된(reconstructed)"은 인코더 측에서 사용되고 한편 "디코딩된(decoded)"은 디코더 측에서 사용된다.
본 원리에 따르면, 화상을 인코딩하기 위한 방법 및 디코딩하기 위한 방법이 개시된다. 본 원리는, 비디오 시퀀스로부터의 정지 화상 코딩 또는 화상과 같은, 2D 화상들로서 표현되는, 임의의 종류의 화상들에 적용될 수 있다.
본 원리에 따르면, 인코딩할 또는 디코딩할 현재 블록의 성분은 현재 블록의 이전에 재구성된 성분에 따라 인코딩 또는 디코딩된다. 본 원리는 본 명세서에서 화상들이 YUV 컬러 공간에 표현되는 경우에 설명되며, 여기서 Y 성분은 화상의 휘도 데이터에 대응하고, U 및 V 성분들은 인코딩할 또는 디코딩할 화상의 색차 데이터에 대응한다. 본 원리는, RGB, Luv, X, Y, Z, 또는 임의의 다른 표현들과 같은, 화상을 표현하기 위해 사용되는 다른 컬러 공간들에 적용 가능하다.
도 2a는 본 개시 내용의 실시예에 따른 화상을 인코딩하기 위한 예시적인 방법의 흐름도를 도시한다. 화상을 인코딩하기 위해, 화상은 픽셀들의 블록들로 현재 분할되고, 각각의 블록은 인코딩 스캐닝 순서에 따라 인코딩된다. 이하, 화상의 현재 블록 Blk(Y, U, V)의 인코딩이 개시되며, 여기서 Y, U 및 V는 현재 블록의 성분들을 나타낸다.
단계 20에서, 화상의 현재 블록 Blk(Y, U, V)의 휘도 신호 Y가 먼저 인코딩된다. 예를 들어, 휘도 신호는, 예를 들어 비디오 압축 표준으로부터의 인트라 예측 모드를 사용하여, 블록 공간 예측을 사용하여 예측된다. 이를 위해, 이용 가능한 인트라 예측 모드들로부터 최상의 예측 모드가 검색되고, 예측 블록 Ypred가 구축된다.
주어진 블록에 대해, N 모드들 중에서 최상의 인트라 예측 모드의 선택은 예를 들어 Lagrangian 방정식의 최소화에 기초한다:
Figure 112019041832710-pct00001
여기서,
QP는 블록 양자화기이고, λ는 모드 결정을 위한 Lagrangian 승수이고,
여기서, D는 원래의 블록 휘도 신호 y와 그것의 재구성 y' 사이의 제곱된 차이들의 합이고,
R(s,c,ModelQp)는 모드 Mode를 선택하는 것과 연관된 비트들의 수를 나타낸다. 이것은 인트라 예측 모드에 대한 비트들 및 휘도 블록에 대한 DCT-계수들을 포함한다.
마지막으로, 레이트 왜곡 비용 J가 최소인 최상의 인트라 예측 모드가 선택된다.
다음으로, 휘도 블록 Y와 블록 예측 Ypred 사이의 차이 Yres가 계산되고 (예를 들어, DCT(Discrete Cosine Transform)를 사용하여) 주파수 변환되고, 양자화되고 인코딩되고 다음으로 수행된다.
단계 21에서, 현재 블록에 대한 휘도 신호 Y'가 재구성된다. 현재 블록 Blk의 휘도 신호 Y'는 예측 블록 Ypred를 역양자화되고 역 변환된 예측 에러 블록 Y'res에 가산하는 것에 의해 재구축된다.
단계 22에서, 블록 예측자는 검색 영역에서 재구축된 휘도 블록 Y'와 매칭되는 최상의 블록을 검색하는 것에 의해 현재 블록 Blk(Y, U, V)의 휘도 신호 Y에 대해 결정된다. 도 2c는 BLK를 인코딩하는 현재 블록 및, 더 두꺼운 라인들로 표현되는, 연관된 검색 영역을 도시한다. 검색 영역은 인코딩의 스캔 순서에 따라 화상의 이전에 재구성된 블록들을 포함한다(도 2c에서 빗금 라인들에 의해 표현됨). 화상의 휘도 공간에서 검색 영역으로부터의 블록과 휘도 Y'의 재구성된 블록 사이의 최상의 매치가 검색된다.
이를 위해, 단계 220에서, 블록 Y'에 가장 가까운 블록 Y'nst는 블록 Y'의 픽셀들(그 픽셀들 값들이 y'0 내지 y'N -1로 표기됨)과 블록 후보 Y'cd(그 픽셀들 값들이 y'cd,0 내지 y'cd,N -1로 표기됨) 사이의 MSE(Mean Square Error)를 계산하는 것에 의해 검색되고, 여기서:
Figure 112019041832710-pct00002
여기서, N은
Figure 112019041832710-pct00003
과 동일하고, 이는 블록 매칭을 위한 휘도 블록들의 픽셀에서의 크기들(열들 c, 라인들 l)에 대응한다.
단계 221에서, 최저 MSE를 제공하는 후보 블록 Y'cd는, 다음과 같이, 블록 Y'의 최상의 매치로서 선택된다:
Figure 112019041832710-pct00004
, 여기서 Y'cd는 검색 영역에 속한다.
따라서 블록 P(Y'nst, U'pred, V'pred)가 최상의 예측자 블록으로서 선택된다.
단계 23에서, 현재 블록의 색차 성분 U는 다음으로 최상의 예측자 블록 P(Y'nst, U'pred, V'pred)에 연관된 색차 성분 U'pred를 사용하여 인코딩된다. 현재 블록 Blk(Y,U,V)의 원래의 블록 U와 블록 예측 U'pred 사이의 차이 Ures가 계산되고, 다음으로 주파수 변환되고, 양자화되고 인코딩되고 다음으로 수행된다.
본 개시 내용의 실시예에 따르면, 색차 성분들 U 및 V 양자 모두는 단계 22에서 결정되는 최상의 예측자 블록 P(Y'nst, U'pred, V'pred)를 사용하여 인코딩된다. 따라서, 이러한 실시예에 따르면, 단계 24에서, 현재 블록의 색차 성분 V는 다음으로 최상의 예측자 블록 P(Y'nst, U'pred, V'pred)에 연관된 색차 성분 V'pred를 사용하여 인코딩된다. 현재 블록 Blk(Y,U,V)의 원래의 블록 V와 블록 예측 V'pred 사이의 차이 Vres가 계산되고, 다음으로 주파수 변환되고, 양자화되고 인코딩되고 다음으로 수행된다.
다른 실시예에 따르면, 현재 블록 Blk(Y,U,V)의 색차 성분 V를 인코딩하기 위해, 새로운 최상의 예측자 블록이 검색된다. 이러한 실시예는 도 2b와 관련하여 이하 추가로 개시된다.
도 2b에서, 단계들 20 내지 23은 도 2a와 개시되는 단계들 20 내지 23과 유사하고, 추가로 설명되지 않는다.
단계 25에서, 현재 블록에 대한 색차 신호 U'가 재구성된다. 현재 블록 Blk의 색차 신호 U'는 예측 블록 U'pred를 역양자화되고 역 변환된 예측 에러 블록 U'res에 가산하는 것에 의해 재구축된다.
단계 26에서, 제2 최상의 예측자 블록은 단계 22에서와 유사한 방식으로, 하지만 휘도 신호 Y'에 대한 그리고 색차 신호 U'에 대한 에러를 최소화하는 것에 의해 결정된다. 즉, 가장 가까운 블록 Q' 는 다음의 방정식을 최소화하는 것에 의해 검색된다:
Figure 112019041832710-pct00005
여기서 y'0 내지 y'N-1는 휘도 블록 Y'의 픽셀 값들을 나타내고,
u'0 내지 u'N - 1는 색차 블록 U' 의 픽셀 값들을 나타내고,
y'cd,0 내지 y'cdN - 1는 후보 블록의 휘도 블록 Y'cd의 픽셀 값들이고, u'cd,0 내지 u'cd,M - 1는 후보 블록의 색차 블록 U'cd의 픽셀 값들을 나타낸다.
N은
Figure 112019041832710-pct00006
과 동일하고, 이는 블록 매칭을 위한 휘도 블록들의 픽셀에서의 크기들(열들 c, 라인들 l)에 대응하고,
M은, 블록 매칭을 위한 색차 블록들의 픽셀의 크기들(열들 cu, 라인들 lu)에 대응하는, cu × lu와 동일하다.
최소 에러
Figure 112019041832710-pct00007
를 제공하는 검색 영역으로부터의 후보 블록은 제2 최상의 예측자 블록 Q(Y'Q, U'Q, V'pred)로서 선택된다.
단계 27에서, 현재 블록의 색차 성분 V는 다음으로 제2 최상의 예측자 블록 Q(Y'Q, U'Q, V'pred)에 연관된 색차 성분 V'pred를 사용하여 인코딩된다. 현재 블록 Blk(Y,U,V)의 원래의 블록 V과 블록 예측 V'pred 사이의 차이 Vres가 계산되고, 다음으로 주파수 변환되고, 양자화되고 인코딩되고 다음으로 수행된다.
위에 개시된 실시예들에서, 현재 블록의 휘도 성분이 먼저 인코딩되고, 색차 성분들 U 및 V는 현재 블록의 재구축된 휘도 블록에 따라 결정되는 예측자 블록을 사용하여 인코딩된다. 다른 실시예에 따르면, 현재 블록의 임의의 성분들, 예를 들어, U가 먼저 인코딩될 수 있고, 나머지 성분들(Y, V)은 이러한 성분에 따라 인코딩된다.
이러한 실시예에 따르면, 도 3에 도시되는 바와 같이, 단계 30에서, 성분, 예를 들어, U가 다른 성분, 예를 들어 Y 이전에 인코딩된다는 점을 시그널링하기 위한 데이터가 인코딩된다. 이러한 실시예에 따르면, 하나의 블록으로부터 다른 블록으로, 인코딩할 제1 성분은, 예를 들어 레이트-왜곡 결정들에 따라 변할 수 있다.
이러한 실시예에 따르면, 성분들은 다음으로 도 2a 및 도 2b와 관련하여 위에 개시된 실시예들 중 어느 하나에 따라 인코딩된다.
예를 들어, 단계 31에서, 색차 성분 U는 단계 20에서와 유사한 방식으로 인코딩된다. 다음으로, 단계 32에서, 휘도 성분 Y는 도 2a에 개시되는 단계들 21 내지 23을 수행하는 것에 의해 인코딩된다.
도 4는 위에 개시된 화상을 인코딩하기 위한 방법의 실시예들 중 어느 하나를 구현하도록 구성되는 예시적인 인코더를 도시한다. 이하 본 명세서에 개시되는 인코더(40)는 임의의 비디오 또는 정지 화상 인코딩 스킴들에 따를 수 있다. 이하 설명되는 인코딩 및 디코딩 프로세스들은 예시 목적들을 위한 것이다. 일부 실시예들에 따르면, 인코딩 또는 디코딩 모듈들은 추가되거나 또는 제거될 수 있거나, 또는 다음 모듈들로부터 변할 수 있다. 그러나, 본 명세서에 개시되는 원리는 여전히 이러한 변형들에 적용될 수 있다.
고전적으로, 인코더(40)는, 도 4에 도시되는 바와 같이, 블록-기반 비디오 인코딩을 위한 몇몇 모듈들을 포함할 수 있다. 인코딩될 화상 I가 인코더(40)에 입력된다. 화상 I는 세분 모듈에 의해 블록들의 세트로 먼저 세분된다. 다음으로, 화상 I의 각각의 블록 BLK가 인코딩을 위해 처리된다.
인코더(40)는 다음과 같이 화상 I의 각각의 블록 BLK의 인코딩을 수행한다. 인코더(40)는 코딩될 화상의 블록 BLK에 대한 코딩 모드를, 예를 들어, 레이트/왜곡 최적화에 기초하여 선택하기 위한 모드 선택 유닛을 포함한다. 이러한 모드 선택 유닛은,
- 코딩될 화상의 하나의 현재 블록과 참조 화상들 사이의 모션을 추정하기 위한 모션 추정 모듈,
- 추정된 모션을 사용하여 현재 블록을 예측하기 위한 모션 보상 모듈,
- 현재 블록을 공간적으로 예측하기 위한 인트라 예측 모듈을 포함한다.
인트라 예측 모드의 경우, 인트라 예측 모듈은 위에 개시된 실시예들 중 어느 하나에 따른 인코딩을 위한 방법을 구현하도록 구성된다.
예를 들어, 현재 블록 BLK의 제1 성분을 인코딩하기 위해, 레이트-왜곡 최적화에 기초하여, 최상의 인트라 예측 모드가 선택된다. 다음으로, 인트라 예측 모듈은, 현재 블록 BLK의 적어도 제1 성분을 사용하여 결정되는 예측을 사용하여, 도 2a 또는 도 2b를 참조하여 개시되는 실시예들 중 어느 하나에 따라 현재 블록 BLK의 제2 및 제3 성분을 인코딩한다.
제2 및 제3 성분들의 이러한 인코딩은 이러한 성분들에 대해 이용 가능한 고전적인 인트라 예측 코딩 모드들과 경쟁하여 수행될 수 있고, 따라서 레이트-왜곡 의미에서 최상으로 수행하는 코딩 모드가 현재 블록의 제2 및 제3 성분들을 인코딩하기 위해 선택된다.
일단 현재 블록 BLK의 각각의 성분에 대해 코딩 모드가 선택되면, 모드 선택 유닛은 현재 블록 BLK에 대해, 디코더에서 동일한 블록 예측을 수행하기 위해 비트스트림에서 코딩될 대응하는 신택스 엘리먼트들 및 예측 블록 PRED(Y,U,V)를 전달한다. 예측 블록 PRED(Y,U,V)의 각각의 성분은 성분에 대해 결정되는 코딩 모드에 따라 계산되는 예측 샘플 어레이에 대응한다. 현재 블록 BLK의 성분에 대해 선택되는 코딩 모드가 위에 개시된 인코딩을 위한 방법에 대응하는 코딩 모드인 경우에, 이러한 코딩 모드를 디코더에 시그널링하기 위해 추가적인 신택스 엘리먼트가 비트스트림에서 인코딩될 수 있다.
다음으로, 블록 BLK의 원래의 샘플들로부터 예측 블록 PRED(Y,U,V)를 차감하는 것에 의해 잔여 블록 RES(Y,U,V)가 획득된다. 다음으로, 잔여 블록 RES(Y,U,V)의 각각의 성분은 변환된 계수들의 변환 블록 TCOEF(Y,U,V)를 전달하는 변환 처리 모듈에 의해 변환된다. 변환된 계수들은 양자화된 변환 잔여 계수들 QCOEF를 전달하는 양자화 모듈에 의해 양자화된다.
다음으로, 신택스 엘리먼트들 및 양자화된 잔여 변환 계수들 QCOEF는 코딩된 비트스트림 STR을 형성하도록 코딩된 데이터를 전달하는 엔트로피 코딩 모듈에 입력된다.
양자화된 잔여 변환 계수들 QCOEF는 역양자화된 변환 계수들의 블록 TCOEF'(Y,U,V)를 전달하는 역 양자화 모듈에 의해 처리된다. 블록 TCOEF'(Y,U,V)는 잔여 예측의 블록 RES'(Y,U,V)을 재구성하기 위한 역 변환 모듈에 전달된다.
다음으로, 블록 BLK(Y,U,V)의 재구성된 버전 REC(Y,U,V)는 예측 블록 PRED(Y,U,V)를 재구성된 잔여 예측 블록 RES'(Y,U,V)에 추가하는 것에 의해 획득된다.
재구성된 블록 REC(Y,U,V)는 화상 재구성 모듈에 의한 사용을 위해 메모리에 저장된다. 화상 재구성 모듈은 재구성된 블록들 REC(Y,U,V)로부터 화상 I의 디코딩된 버전 I'의 재구성을 수행한다. 다음으로, 재구성된 화상 I'는 코딩할 화상들의 세트의 다음 화상들을 인코딩하기 위한 또는 화상 I의 후속 블록들을 인코딩하기 위한 참조 화상으로서의 차후의 사용을 위해 참조 화상 메모리에 저장된다.
도 5a는 본 개시 내용의 실시예에 따른 화상을 디코딩하기 위한 예시적인 방법의 흐름도를 도시한다. 화상을 디코딩하기 위해, 화상은 픽셀들의 블록들로 현재 분할되고, 각각의 블록은 압축된 비트스트림으로부터 독립적으로 디코딩된다. 이하, 화상의 현재 블록 Blk(Y, U, V)의 디코딩이 개시되며, 여기서, Y, U 및 V는 현재 블록의 성분들을 나타낸다.
단계 50에서, 화상의 현재 블록 Blk(Y, U, V)의 휘도 신호 Y'가 먼저 디코딩된다. 이를 위해, 예측 블록 Ypred가 구축된다. 예를 들어, 현재 블록 Blk의 휘도 신호 Y가 인트라 모드 예측 m에 따라 코딩된다는 점을 비트스트림에서의 신택스 엘리먼트가 시그널링하였다. 따라서, 예측 블록 Ypred는 인트라 모드 예측 m을 수행하는 것에 의해 구축된다. 다음으로, 블록 BlK의 휘도 신호 Y에 대한 잔여 계수들(req)이 비트스트림으로부터 디코딩되고, 역양자화되고 역 변환되어 잔여 에러 예측 블록(Y'res)을 형성한다. 잔여 에러 예측(Y'res)이 재구성된 휘도 블록 Y'를 제공하는 예측 블록 Ypred에 추가된다.
단계 22는 도 2a와 개시되는 단계 22와 유사한 방식으로 수행된다. 단계 22의 종료시, 인코딩 스테이지에서와 동일한 검색 영역에서 디코딩된 휘도 블록 Y'에 대해 수행되는 블록-매칭 검색에 기초하여 최상의 예측 블록 P(Y'nst, U' pred, V'pred)가 발견된다.
단계 51에서, 다음으로 현재 블록의 색차 성분 U'가 최상의 예측자 블록 P(Y'nst, U'pred, V'pred)에 연관된 색차 성분 U'pred를 사용하여 디코딩된다. 블록 Blk의 색차 신호 U에 대한 잔여 계수들은 비트스트림으로부터 디코딩되고, 역양자화되고 역 변환되어 잔여 에러 예측 블록(U'res)을 형성한다. 잔여 에러 예측(U'res)은 디코딩된 색차 블록 U'를 제공하는 예측 블록 U'pred에 추가된다.
본 개시 내용의 실시예에 따르면, 색차 성분들 U 및 V 양자 모두가 단계 22에서 결정되는 최상의 예측자 블록 P(Y'nst, U'pred, V'pred)를 사용하여 예측된다. 따라서, 이러한 실시예에 따르면, 단계 52에서, 현재 블록의 색차 성분 V는 다음으로 최상의 예측자 블록 P(Y'nst, U'pred, V'pred)에 연관된 색차 성분 V'pred를 사용하여 디코딩된다. 블록 Blk의 색차 신호 V에 대한 잔여 계수들이 비트스트림으로부터 디코딩되고, 역양자화되고 역 변환되어, 잔여 에러 예측 블록(V'res)을 형성한다. 잔여 에러 예측(V'res)은 디코딩된 색차 블록 V'를 제공하는 예측 블록 V'pred에 추가된다.
다른 실시예에 따르면, 현재 블록 Blk(Y,U,V)의 색차 성분 V는 디코딩된 휘도 성분 Y' 및 디코딩된 색차 성분 U'에 따라 결정되는 새로운 최상의 예측자 블록으로부터 예측된다. 이러한 실시예는 도 5b와 관련하여 이하 추가로 개시된다.
도 5b에서, 단계들 50 내지 51 및 22는 도 5a 및 도 2a에 개시되는 단계들 50 내지 51 및 22와 유사하며, 추가로 설명되지 않는다.
단계 26에서, 제2 최상의 예측자 블록은 도 2b에 개시되는 단계 26에서와 유사한 방식으로 결정되고, 본 명세서에 추가로 설명되지 않는다. 단계 26의 종료시, 인코딩 스테이지에서와 동일한 검색 영역에서 디코딩된 휘도 블록 Y' 및 디코딩된 색차 블록 U'에 대해 수행되는 블록-매칭 검색에 기초하여 최상의 예측 블록 Q(Y'Q, U'Q, V'pred)가 발견된다.
단계 54에서, 다음으로, 현재 블록의 색차 성분 V가 제2 최상의 예측자 블록 Q(Y'Q, U'Q, V'pred)에 연관된 색차 성분 V'pred를 사용하여 디코딩된다. 블록 Blk의 색차 신호 V에 대한 잔여 계수들이 비트스트림으로부터 디코딩되고, 역양자화되고 역 변환되어, 잔여 에러 예측 블록(V'res)을 형성한다. 잔여 에러 예측(V'res)은 디코딩된 색차 블록 V'를 제공하는 예측 블록 V'pred에 추가된다.
위에 개시된 실시예들에서, 현재 블록의 휘도 성분이 먼저 디코딩되고, 색차 성분들 U 및 V는 현재 블록의 적어도 디코딩된 휘도 블록에 따라 결정되는 예측자 블록을 사용하여 디코딩된다. 다른 실시예에 따르면, 이러한 성분이 압축된 비트스트림으로 먼저 인코딩되는 한, 현재 블록의 임의의 성분들이 먼저 디코딩될 수 있다. 예를 들어, 휘도 성분 Y는 색차 성분 U에 따라 디코딩될 수 있다. 이러한 실시예에 따르면, 도 6에 도시되는 바와 같이, 단계 60에서, 주어진 블록의 성분, 예를 들어, U가 다른 성분, 예를 들어, Y 이전에 인코딩된다는 점을 시그널링하는 데이터가 압축된 비트스트림으로부터 디코딩된다.
이러한 실시예에 따르면, 성분들은 다음으로 도 5a 및 도 5b와 관련하여 위에 개시된 실시예들 중 어느 하나에 따라 디코딩된다.
예를 들어, 단계 61에서, 색차 성분 U'가 단계 50에서와 유사한 방식으로 디코딩된다. 다음으로, 단계 62에서, 휘도 성분 Y'가 도 2a에 개시되는 단계들 22, 및 51을 수행하는 것에 의해 디코딩된다.
도 7은 위에 개시된 화상을 디코딩하기 위한 방법의 실시예들 중 어느 하나를 구현하도록 구성되는 예시적인 디코더를 도시한다.
코딩된 이미지 또는 비디오를 나타내는 비트스트림은 상기 이미지 또는 비디오의 적어도 하나의 블록을 나타내는 코딩된 데이터를 포함하고, 여기서 상기 블록은 본 원리들의 실시예에 따라 코딩되었다.
코딩된 데이터는 비디오 디코더(70)의 비디오 디코딩 모듈에 전달된다. 도 7에 도시되는 바와 같이, 코딩된 데이터는 엔트로피 디코딩을 수행하고 양자화된 계수들 QCOEF'를 역 양자화 모듈에 전달하고 신택스 엘리먼트들을 예측 모듈에 전달하는 엔트로피 디코딩 모듈에 전달된다.
디코딩할 현재 블록의 각각의 컬러 성분에 대해, 양자화된 계수들 QCOEF'는 역 양자화 모듈에 의해 역 양자화되고, 잔여 블록들 데이터 RES'를 전달하는 역 변환 모듈에 의해 역 변환된다.
블록에 대한 코딩 모드들을 명시하는 신택스 엘리먼트들은 비트스트림으로부터 디코딩되고, 현재 블록의 각각의 컬러 성분 Y, U, V를 코딩하기 위해, 예측 모듈은 예측 블록 PRED를 구축한다. 예측 모듈은 위에 개시된 실시예들 중 어느 하나에 따른 블록의 성분의 예측을 수행하도록 구성된다. 보다 구체적으로, 예측 모듈은 디코딩할 현재 블록의 이전에 디코딩된 성분에 대한 최상의 블록 예측자의 블록-매칭 검색(도 2a 및 도 2b에 개시되는 단계들 22, 26)을 수행하도록 구성된다.
재구성된 화상 I'는 현재 블록의 각각의 컬러 성분에 대해 예측 블록들 PRED 및 잔여 블록들 RES'를 추가하는 것에 의해 획득된다. 재구성된 화상 I'는 참조 프레임으로서의 차후 사용을 위해 참조 프레임 메모리에 저장된다. 재구성된 화상 I'는 다음으로 비디오 디코더(70)에 의해 출력된다.
디코더(70)는 하드웨어 또는 소프트웨어 또는 그것의 하드웨어 및 소프트웨어의 조합으로서 구현될 수 있다.
도 8은 본 원리의 실시예에 따른 화상을 인코딩하기 위한 장치(40)의 간략화된 구조를 도시한다. 이러한 장치(40)는 위에 개시된 임의의 실시예들에 따른 본 원리에 따른 화상을 인코딩하기 위한 방법을 구현하도록 구성된다. 인코더 장치(40)의 기능 유닛들이 도 4를 참조하여 개시되었다. 이하 개시되는 구조적 장치(40)는 이러한 기능 유닛들 각각을 개별적으로 또는 조합하여, 그리고 도 2a, 도 2b 또는 도 3을 참조하여 위에 개시된 원리의 실시예들 중 어느 하나에 따라 구현하도록 구성될 수 있다.
실시예에 따르면, 인코더 장치(40)는 예를 들어 프로세서가 있고 메모리 MEM에 저장되는 컴퓨터 프로그램 PG에 의해 구동되고 본 원리에 따른 화상을 인코딩하기 위한 방법을 구현하는 처리 유닛 PROC을 포함한다.
초기화에서, 컴퓨터 프로그램 PG의 코드 명령어들은 예를 들어 RAM(도시되지 않음)에 로드되고, 다음으로 처리 유닛 PROC의 프로세서에 의해 실행된다. 처리 유닛 PROC의 프로세서는, 컴퓨터 프로그램 PG의 명령어들에 따라, 위에 본 명세서에 설명된 화상을 인코딩하기 위한 방법의 단계들을 구현한다.
인코더 장치(40)는 인코딩된 비트스트림 STR을 데이터 네트워크에 송신하는 통신 유닛 COMOUT을 포함한다.
인코더 장치(40)는 인코딩할 화상 또는 비디오를 수신하기 위한 인터페이스 COMIN을 또한 포함한다.
도 9는 본 원리들의 일 실시예에서 사용될 수 있는 예시적인 디코더를 도시한다. 화상을 디코딩하기 위한 이러한 장치는 본 원리들에 따른 화상을 디코딩하기 위한 방법을 구현하도록 구성된다. 도 9의 디코더 장치는 예로서 도 7에 설명되는 바와 같은 디코더(70)일 수 있다.
도 9에 도시되는 예에서, 디코더 장치는 예를 들어 프로세서가 있고 메모리 MEM에 저장되는 컴퓨터 프로그램 PG에 의해 구동되고 본 원리들에 따른 화상을 디코딩하기 위한 방법을 구현하는 처리 유닛 PROC를 포함한다.
초기화에서, 컴퓨터 프로그램 PG의 코드 명령어들은 예를 들어 RAM(도시되지 않음)에 로드되고, 다음으로 처리 유닛 PROC의 프로세서에 의해 실행된다. 처리 유닛 PROC의 프로세서는, 컴퓨터 프로그램 PG의 명령어들에 따라, 위에 본 명세서에 설명된 화상을 디코딩하기 위한 방법의 단계들을 구현한다.
선택적으로, 디코더 장치(70)는 인코더로부터 인코딩된 비트스트림을 수신하는 통신 유닛 COM을 포함한다.
디코더 장치(70)는 재구성된 화상 또는 재구성된 비디오를 디스플레이하기 위한 인터페이스를 또한 포함한다.
본 원리들을 사용하여 코딩된 비트스트림으로부터 화상을 인코딩 또는 디코딩하기 위한 장치(1000)의 일 실시예가 도 10에 도시된다. 이러한 장치는 메모리(1020)에 상호 접속되는 프로세서(1010)로 구성된다. 메모리(1020)에서의 명령어들은 프로세서(1010)로 하여금, 프로세서(1010)의 입력 포트들 중 하나에 입력되거나 또는 메모리(1020)에 저장될 수 있는, 디지털 비디오 이미지 데이터 또는 코딩된 디지털 비디오 이미지 데이터 상에 도 2, 도 3, 도 5 또는 도 6의 방법을 구현하기 위한 명령어들을 실행하게 한다.

Claims (27)

  1. 화상을 인코딩하는 것을 포함하는 방법으로서, 상기 화상의 적어도 하나의 블록에 대해,
    공간 예측 및 예측 블록에 기초하여 상기 적어도 하나의 블록의 제1 성분을 인코딩하는 단계,
    상기 예측 블록을 사용해서 상기 제1 성분을 재구성하여 상기 적어도 하나의 블록의 디코딩된 제1 성분을 형성하는 단계,
    상기 화상의 제1 성분의 재구성된 영역으로부터, 상기 적어도 하나의 블록의 상기 디코딩된 제1 성분에 대한 블록 예측자를 결정하는 단계(22), 및
    상기 블록 예측자의 제2 성분으로부터 상기 블록의 적어도 하나의 제2 성분을 예측하는 것에 의해 상기 적어도 하나의 제2 성분을 인코딩하는 단계(23)를 포함하고,
    인코딩할 상기 화상의 상기 제1 성분은 레이트-왜곡 결정에 기초하여 블록 단위로 변하는 방법.
  2. 화상을 인코딩하기 위한 장치로서,
    메모리, 및
    프로세서를 포함하고, 상기 프로세서는, 상기 화상의 적어도 하나의 블록에 대해,
    공간 예측 및 예측 블록에 기초하여 상기 적어도 하나의 블록의 제1 성분을 인코딩하고,
    상기 예측 블록을 사용해서 상기 제1 성분을 재구성하여 상기 적어도 하나의 블록의 디코딩된 제1 성분을 형성하고,
    상기 화상의 제1 성분의 재구성된 영역으로부터, 상기 블록의 상기 디코딩된 제1 성분에 대한 블록 예측자를 결정하고,
    상기 블록 예측자의 제2 성분으로부터 상기 블록의 적어도 하나의 제2 성분을 예측하는 것에 의해 상기 적어도 하나의 제2 성분을 인코딩하도록 구성되고,
    인코딩할 상기 화상의 상기 제1 성분은 레이트-왜곡 결정에 기초하여 블록 단위로 변하는 장치.
  3. 제1항에 있어서, 상기 디코딩된 제1 성분의 블록 예측자를 결정하는 단계는,
    상기 블록의 상기 디코딩된 제1 성분과 상기 화상의 제1 성분의 재구성된 영역에서의 블록의 제1 성분 사이의 왜곡 측정을 최소화하는 것에 의해 상기 블록 예측자를 선택하는 단계(221)를 포함하는 방법.
  4. 제1항 또는 제3항에 있어서,
    상기 블록 예측자의 제3 성분으로부터 상기 블록의 적어도 하나의 제3 성분을 예측하는 것에 의해 상기 적어도 하나의 제3 성분을 인코딩하는 단계(24, 27)를 추가로 포함하는 방법.
  5. 제1항 또는 제3항에 있어서,
    상기 블록의 상기 제2 성분을 디코딩하는 단계(25),
    상기 블록의 상기 디코딩된 제1 성분과 상기 화상의 상기 제1 성분의 재구성된 영역에서의 블록의 제1 성분 사이의 차이, 및 상기 블록의 상기 디코딩된 제2 성분과 상기 화상의 제2 성분의 재구성된 영역에서의 블록의 제2 성분 사이의 차이를 최소화하는 것에 의해 다른 블록 예측자를 결정하는 단계(26), 및
    상기 다른 블록 예측자의 제3 성분으로부터 상기 블록의 적어도 하나의 제3 성분을 예측하는 것에 의해 상기 블록의 적어도 하나의 제3 성분을 인코딩하는 단계(27)를 추가로 포함하는 방법.
  6. 제1항 또는 제3항에 있어서, 상기 블록에 후속하는 블록에 대해,
    데이터를 인코딩하는 단계(30)- 상기 데이터는 상기 후속 블록의 제2 성분이 상기 후속 블록의 제1 성분 이전에 인코딩된다는 점을 표시함 -, 및
    상기 후속 블록의 상기 제1 성분을 상기 후속 블록의 재구성된 제2 성분에 따라 결정되는 예측자 블록을 사용하여 인코딩하는 단계(32)를 추가로 포함하는 방법.
  7. 코딩된 비트스트림으로부터 화상을 디코딩하는 것을 포함하는 방법으로서,
    공간 예측 및 예측 블록에 기초해서 상기 화상의 적어도 하나의 블록의 제1 성분을 디코딩하여 상기 적어도 하나의 블록의 디코딩된 제1 성분을 형성하는 단계,
    상기 화상의 제1 성분의 재구성된 영역으로부터, 상기 화상의 블록의 상기 디코딩된 제1 성분에 대한 블록 예측자를 결정하는 단계(50), 및
    상기 블록 예측자의 제2 성분으로부터 상기 블록의 적어도 하나의 제2 성분을 예측하는 것에 의해 상기 블록의 적어도 하나의 제2 성분을 디코딩하는 단계(51)를 포함하고,
    디코딩할 상기 화상의 상기 제1 성분은 블록 단위로 변하는 방법.
  8. 코딩된 비트스트림으로부터 화상을 디코딩하기 위한 장치로서,
    메모리, 및
    프로세서를 포함하고, 상기 프로세서는,
    공간 예측 및 예측 블록에 기초해서 상기 화상의 적어도 하나의 블록의 제1 성분을 디코딩하여 상기 적어도 하나의 블록의 디코딩된 제1 성분을 형성하고,
    상기 화상의 제1 성분의 재구성된 영역으로부터, 상기 화상의 블록의 상기 디코딩된 제1 성분에 대한 블록 예측자를 결정하고,
    상기 블록 예측자의 제2 성분으로부터 상기 블록의 적어도 하나의 제2 성분을 예측하는 것에 의해 상기 블록의 적어도 하나의 제2 성분을 디코딩하도록 구성되고,
    디코딩할 상기 화상의 상기 제1 성분은 블록 단위로 변하는 장치.
  9. 제7항에 있어서, 상기 디코딩된 제1 성분의 블록 예측자를 결정하는 단계는,
    상기 디코딩된 제1 성분과 상기 화상의 제1 성분의 재구성된 영역에서의 블록의 제1 성분 사이의 왜곡 측정을 최소화하는 것에 의해 상기 블록 예측자를 선택하는 단계(221)를 포함하는 방법.
  10. 제7항 또는 제9항에 있어서,
    상기 블록 예측자의 제3 성분으로부터 상기 블록의 적어도 하나의 제3 성분을 예측하는 것에 의해 상기 블록의 적어도 하나의 제3 성분을 디코딩하는 단계(52, 54)를 추가로 포함하는 방법.
  11. 제7항 또는 제9항에 있어서,
    상기 블록의 상기 재구성된 제1 성분과 상기 화상의 제1 성분의 재구성된 영역에서의 블록의 제1 성분 사이의 차이, 및 상기 블록의 상기 재구성된 제2 성분과 상기 화상의 제2 성분의 재구성된 영역에서의 블록의 제2 성분 사이의 차이를 최소화하는 것에 의해 다른 블록 예측자를 결정하는 단계(26), 및
    상기 다른 블록 예측자의 제1 성분 및 제2 성분으로부터 상기 블록의 적어도 하나의 제3 성분을 예측하는 것에 의해 상기 블록의 적어도 하나의 제3 성분을 디코딩하는 단계(54)를 추가로 포함하는 방법.
  12. 제7항 또는 제9항에 있어서, 상기 블록에 후속하는 블록에 대해,
    상기 비트스트림으로부터 데이터를 디코딩하는 단계(60)- 상기 데이터는 상기 후속 블록의 제2 성분이 상기 후속 블록의 제1 성분 이전에 인코딩된다는 점을 표시함 -, 및
    상기 후속 블록의 상기 제1 성분을 상기 후속 블록의 디코딩된 제2 성분에 따라 결정되는 예측자 블록을 사용하여 디코딩하는 단계(62)를 추가로 포함하는 방법.
  13. 기록 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때, 제1항, 제3항, 제7항 또는 제9항 중 어느 한 항에 따른 방법을 수행하기 위한 소프트웨어 코드 명령어들을 포함하는, 기록 매체에 저장된 컴퓨터 프로그램.
  14. 코딩된 화상을 나타내는 비트스트림을 처리하는 장치로서, 상기 비트스트림은 상기 화상의 적어도 하나의 블록에 대해,
    공간 예측을 사용하여 인코딩된 상기 블록의 제1 성분을 나타내는 코딩된 데이터,
    상기 블록의 제2 성분을 나타내는 코딩된 데이터, 및
    상기 블록의 상기 제2 성분이 블록 예측자의 제2 성분에 의해 예측된다는 점을 표시- 상기 블록 예측자는 이전에 재구성된 상기 블록의 상기 제1 성분에 대해 상기 화상의 상기 제1 성분의 재구성된 영역으로부터 결정됨 -하고, 상기 화상의 상기 제1 성분이 블록 단위로 변한다는 점을 표시하는 코딩된 데이터를 포함하는, 장치.
  15. 제14항에 있어서,
    상기 비트스트림은 상기 블록의 적어도 후속 블록에 대해,
    상기 후속 블록의 제2 성분이 상기 후속 블록의 제1 성분 이전에 인코딩된다는 점을 표시하는 코딩된 데이터,
    상기 후속 블록의 상기 제2 성분을 나타내는 코딩된 데이터, 및
    상기 후속 블록의 상기 제1 성분을 나타내는 코딩된 데이터- 상기 제1 성분은 예측자 블록의 제1 성분으로부터의 예측을 사용하여 인코딩되고, 상기 예측자 블록은 이전에 재구성된 상기 후속 블록의 제2 성분에 따라 결정됨 -를 추가로 포함하는, 장치.
  16. 제2항에 있어서, 상기 디코딩된 제1 성분의 블록 예측자를 결정하는 것은,
    상기 블록의 상기 디코딩된 제1 성분과 상기 화상의 제1 성분의 재구성된 영역에서의 블록의 제1 성분 사이의 왜곡 측정을 최소화하는 것에 의해 상기 블록 예측자를 선택하는 것을 포함하는 장치.
  17. 제2항 또는 제16항에 있어서,
    상기 블록 예측자의 제3 성분으로부터 상기 블록의 적어도 하나의 제3 성분을 예측하는 것에 의해 상기 적어도 하나의 제3 성분을 인코딩하도록 추가로 구성되는 장치.
  18. 제2항 또는 제16항에 있어서,
    상기 블록의 상기 제2 성분을 디코딩하고,
    상기 블록의 상기 디코딩된 제1 성분과 상기 화상의 상기 제1 성분의 재구성된 영역에서의 블록의 제1 성분 사이의 차이, 및 상기 블록의 상기 디코딩된 제2 성분과 상기 화상의 제2 성분의 재구성된 영역에서의 블록의 제2 성분 사이의 차이를 최소화하는 것에 의해 다른 블록 예측자를 결정하고,
    상기 다른 블록 예측자의 제3 성분으로부터 상기 블록의 적어도 하나의 제3 성분을 예측하는 것에 의해 상기 블록의 적어도 하나의 제3 성분을 인코딩하도록 추가로 구성되는 장치.
  19. 제2항 또는 제16항에 있어서, 상기 블록에 후속하는 블록에 대해,
    데이터를 인코딩하고- 상기 데이터는 상기 후속 블록의 제2 성분이 상기 후속 블록의 제1 성분 이전에 인코딩된다는 점을 표시함 -,
    상기 후속 블록의 상기 제1 성분을 상기 후속 블록의 재구성된 제2 성분에 따라 결정되는 예측자 블록을 사용하여 인코딩하도록 추가로 구성되는 장치.
  20. 제8항에 있어서, 상기 디코딩된 제1 성분의 블록 예측자를 결정하는 것은,
    상기 디코딩된 제1 성분과 상기 화상의 제1 성분의 재구성된 영역에서의 블록의 제1 성분 사이의 왜곡 측정을 최소화하는 것에 의해 상기 블록 예측자를 선택하는 것을 포함하는 장치.
  21. 제8항 또는 제20항에 있어서,
    상기 블록 예측자의 제3 성분으로부터 상기 블록의 적어도 하나의 제3 성분을 예측하는 것에 의해 상기 블록의 적어도 하나의 제3 성분을 디코딩하도록 추가로 구성되는 장치.
  22. 제8항 또는 제20항에 있어서,
    상기 블록의 상기 재구성된 제1 성분과 상기 화상의 제1 성분의 재구성된 영역에서의 블록의 제1 성분 사이의 차이, 및 상기 블록의 상기 재구성된 제2 성분과 상기 화상의 제2 성분의 재구성된 영역에서의 블록의 제2 성분 사이의 차이를 최소화하는 것에 의해 다른 블록 예측자를 결정하고,
    상기 다른 블록 예측자의 제1 성분 및 제2 성분으로부터 상기 블록의 적어도 하나의 제3 성분을 예측하는 것에 의해 상기 블록의 적어도 하나의 제3 성분을 디코딩하도록 추가로 구성되는 장치.
  23. 제8항 또는 제20항에 있어서, 상기 블록에 후속하는 블록에 대해,
    상기 비트스트림으로부터 데이터를 디코딩하고- 상기 데이터는 상기 후속 블록의 제2 성분이 상기 후속 블록의 제1 성분 이전에 인코딩된다는 점을 표시함 -,
    상기 후속 블록의 상기 제1 성분을 상기 후속 블록의 디코딩된 제2 성분에 따라 결정되는 예측자 블록을 사용하여 디코딩하도록 추가로 구성되는 장치.
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
KR1020197011718A 2016-10-25 2017-10-24 화상을 인코딩 및 디코딩하기 위한 방법 및 장치 KR102543086B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16306398.5 2016-10-25
EP16306398.5A EP3316578A1 (en) 2016-10-25 2016-10-25 Method and apparatus for encoding and decoding a picture
PCT/EP2017/077140 WO2018077865A1 (en) 2016-10-25 2017-10-24 Method and apparatus for encoding and decoding a picture

Publications (2)

Publication Number Publication Date
KR20190068555A KR20190068555A (ko) 2019-06-18
KR102543086B1 true KR102543086B1 (ko) 2023-06-14

Family

ID=57286411

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197011718A KR102543086B1 (ko) 2016-10-25 2017-10-24 화상을 인코딩 및 디코딩하기 위한 방법 및 장치

Country Status (6)

Country Link
US (1) US11202097B2 (ko)
EP (2) EP3316578A1 (ko)
JP (1) JP7055134B2 (ko)
KR (1) KR102543086B1 (ko)
CN (1) CN109863751B (ko)
WO (1) WO2018077865A1 (ko)

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0154921B1 (ko) 1994-12-30 1998-11-16 배순훈 동영상 부호화 장치에 이용하기 위한 움직임 추정기
EP1376521A1 (en) 2002-06-28 2004-01-02 Deutsche Thomson Brandt Processing video pictures for improving dynamic false contour effect compensation
US20100246675A1 (en) 2009-03-30 2010-09-30 Sony Corporation Method and apparatus for intra-prediction in a video encoder
KR101503269B1 (ko) * 2010-04-05 2015-03-17 삼성전자주식회사 영상 부호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치, 및 영상 복호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치
US20120243614A1 (en) * 2011-03-22 2012-09-27 Danny Hong Alternative block coding order in video coding
US9288500B2 (en) * 2011-05-12 2016-03-15 Texas Instruments Incorporated Luma-based chroma intra-prediction for video coding
US9154788B2 (en) * 2011-06-03 2015-10-06 Panasonic Intellectual Property Corporation Of America Image coding method and image decoding method
WO2012175003A1 (en) * 2011-06-20 2012-12-27 Mediatek Singapore Pte. Ltd. Method and apparatus of chroma intra prediction with reduced line memory
US9693070B2 (en) * 2011-06-24 2017-06-27 Texas Instruments Incorporated Luma-based chroma intra-prediction for video coding
WO2013102293A1 (en) * 2012-01-04 2013-07-11 Mediatek Singapore Pte. Ltd. Improvements of luma-based chroma intra prediction
CN104718759B (zh) * 2012-01-24 2019-01-18 华为技术有限公司 Lm模式的简化
WO2013155662A1 (en) * 2012-04-16 2013-10-24 Mediatek Singapore Pte. Ltd. Methods and apparatuses of simplification for intra chroma lm mode
JP6137817B2 (ja) * 2012-11-30 2017-05-31 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム
US10397607B2 (en) * 2013-11-01 2019-08-27 Qualcomm Incorporated Color residual prediction for video coding
CN107211121B (zh) * 2015-01-22 2020-10-23 联发科技(新加坡)私人有限公司 视频编码方法与视频解码方法
US10491906B2 (en) * 2015-11-05 2019-11-26 Mediatek Inc. Method and apparatus for block prediction using variable block-size in image compression
US10511859B2 (en) * 2016-02-04 2019-12-17 Mediatek Inc. Method and apparatus for image compression without residue signaling

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Chuohao Yeo, et al. Chroma Intra Prediction Using Reconstructed Luma, CT-VC of ITU-T and ISO/IEC. JCTVC-C040, 2010-10-07, pp. 1-6

Also Published As

Publication number Publication date
KR20190068555A (ko) 2019-06-18
JP7055134B2 (ja) 2022-04-15
EP3316578A1 (en) 2018-05-02
CN109863751B (zh) 2024-03-01
JP2019537328A (ja) 2019-12-19
EP3533225A1 (en) 2019-09-04
WO2018077865A1 (en) 2018-05-03
CN109863751A (zh) 2019-06-07
US20190238886A1 (en) 2019-08-01
US11202097B2 (en) 2021-12-14

Similar Documents

Publication Publication Date Title
US9712816B2 (en) Inter-layer prediction between layers of different dynamic sample value range
KR101246294B1 (ko) 영상의 인트라 예측 부호화, 복호화 방법 및 장치
KR101228020B1 (ko) 사이드 매칭을 이용한 영상의 부호화 방법 및 장치, 그복호화 방법 및 장치
JP5128443B2 (ja) 映像の符号化、復号化の方法及びその装置
US11070839B2 (en) Hybrid video coding
US20160119618A1 (en) Moving-picture encoding apparatus and moving-picture decoding apparatus
US8165411B2 (en) Method of and apparatus for encoding/decoding data
WO2010001916A1 (ja) 画像処理装置および方法
WO2010001918A1 (ja) 画像処理装置および方法、並びにプログラム
US20120269263A1 (en) Method for coding and method for reconstruction of a block of an image
US11695955B2 (en) Image encoding device, image decoding device and program
WO2008004768A1 (en) Image encoding/decoding method and apparatus
CN102077595A (zh) 图像处理装置和方法
KR20120051639A (ko) 화상 처리 장치 및 방법
US20160057419A1 (en) Method and device for determining the value of a quantization parameter
KR20110073263A (ko) 인트라 예측 부호화 방법 및 부호화 방법, 그리고 상기 방법을 수행하는 인트라 예측 부호화 장치 및 인트라 예측 복호화 장치
US20110310975A1 (en) Method, Device and Computer-Readable Storage Medium for Encoding and Decoding a Video Signal and Recording Medium Storing a Compressed Bitstream
KR102543086B1 (ko) 화상을 인코딩 및 디코딩하기 위한 방법 및 장치
CN110710204A (zh) 用于编码和解码表示至少一个图像的数据流的方法和设备
US11985355B2 (en) Methods and devices for encoding and decoding a data stream representing at least one image
US20220159281A1 (en) No Reference Image Quality Assessment Based Decoder Side Intra Prediction
KR101366088B1 (ko) 인트라 예측 부호화, 복호화 방법 및 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right