KR20140026397A - 이미지 블록을 복원하고 코딩하는 방법 - Google Patents

이미지 블록을 복원하고 코딩하는 방법 Download PDF

Info

Publication number
KR20140026397A
KR20140026397A KR1020137026611A KR20137026611A KR20140026397A KR 20140026397 A KR20140026397 A KR 20140026397A KR 1020137026611 A KR1020137026611 A KR 1020137026611A KR 20137026611 A KR20137026611 A KR 20137026611A KR 20140026397 A KR20140026397 A KR 20140026397A
Authority
KR
South Korea
Prior art keywords
parameter
current block
prediction
block
causal
Prior art date
Application number
KR1020137026611A
Other languages
English (en)
Inventor
에두아르 프랑쑤와
도미니끄 또로
파비앵 라까쁘
오렐리 마르땡
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20140026397A publication Critical patent/KR20140026397A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

적어도 하나의 기준 블록으로부터 예측된 현재 블록의 복원을 위한 방법이 설명된다. 이 방법은, - 코딩된 데이터로부터, 명시적 파라미터(explicit parameter)(wp1)라 칭하는 적어도 하나의 가중 예측 파라미터를 디코딩하는 단계(20); - 현재 블록(Be)의 제1 인과적 이웃 영역(Lc1) 및 기준 블록(Br)의 제1 대응하는 이웃 영역(Lr1)으로부터, 암시적 파라미터(implicit parameter)(wp2)라 칭하는 적어도 하나의 가중 예측 파라미터를 계산하는 단계(22); - 명시적 파라미터에 의한 현재 블록의 제2 인과적 이웃 영역(Lc2)의 예측으로부터 발생하는 제1 왜곡(D1) 및 암시적 파라미터에 의한 상기 제2 인과적 이웃 영역(Lc2)의 예측으로부터 발생하는 제2 왜곡(D2)을 계산하는 단계(24); - 제1 왜곡과 제2 왜곡을 비교하는 단계(26); - 비교의 결과에 따라 명시적 파라미터와 암시적 파라미터 사이에서 파라미터를 선택하는 단계(28); 및 - 선택된 파라미터를 사용하여 현재 블록을 복원하는 단계(30)를 포함한다.

Description

이미지 블록을 복원하고 코딩하는 방법{METHOD FOR RECONSTRUCTING AND CODING AN IMAGE BLOCK}
본 발명은 이미지 코딩의 일반적 도메인에 관한 것이다.
더욱 구체적으로는, 본 발명은 이미지의 블록을 코딩하는 방법 및 이러한 블록을 복원하는 대응하는 방법에 관한 것이다.
대부분의 코딩/디코딩 방법들은 이미지들 사이의 예측(인터-이미지 예측) 또는 이미지에서의 예측(인트라-이미지 예측)을 사용한다. 이러한 예측은 이미지들의 시퀀스의 압축을 향상시키기 위해 사용된다. 이는 코딩되어야 하는 현재 이미지에 대한 예측 이미지를 생성하는 것 및 현재 이미지와 예측 이미지 사이의 차이(또한 잔류 이미지라 칭함)를 코딩하는 것으로 이루어진다. 이미지가 현재 이미지와 더 상관될수록, 현재 이미지를 코딩하기 위해 요구되는 비트들의 수는 낮아지고, 따라서, 압축이 더욱 효과적이 된다. 그러나, 예측은 시퀀스의 이미지들 사이 또는 이미지 내부의 광도(luminosity)의 변동이 있을 때 그 효율성을 손실한다. 이러한 광도 변동은 예를 들어, 조명의 변경, 페이드 효과, 플래시 등으로 인한 것이다.
광도의 전체 변동을 고려하여 이미지 시퀀스들을 코딩/디코딩하는 방법들이 공지되어 있다. 따라서, 문헌 ISO/IEC 14496-10에 기재된 표준 H.264의 프레임워크내에서, 광도의 변동의 경우에 압축을 향상시키기 위해 가중 예측 방법을 사용하는 것이 공지되어 있다. 가중 예측 파라미터들은 명시적으로 이미지 슬라이스 마다 송신된다. 조명 보정이 슬라이스의 모든 블록들에 대해 동일하게 적용된다. 이러한 방법에 따르면, 각 블록에 대한 가중 예측 파라미터들을 송신할 수 있다. 이러한 파라미터들을 명시적(explicit) 파라미터들이라 칭한다.
즉, 현재 블록 이전의 코딩된/복원된 픽셀들을 포함하는 블록의 인과적인 이웃 영역(causal neighbouring area)으로부터 현재 블록에 대한 이러한 가중 예측 파라미터들을 결정하는 것이 또한 공지되어 있다. 이러한 방법은 가중 예측 파라미터들이 스트림에서 명시적으로 코딩되지 않기 때문에 비트레이트와 관련하여 덜 고가이다. 이러한 파라미터들을 암시적(implicit) 파라미터들이라 칭한다.
2개의 방법들, 즉, 스트림에서 명시적으로 코딩된 파라미터들을 사용하는 것과 암시적 파라미터들을 사용하는 것의 효율성은 프로세싱된 콘텐츠, 구체적으로는, 시공간 로컬 변동들 및 타겟팅된 비트레이트와 같은 디코딩 구성들에 강하게 의존한다.
본 발명의 목적은 종래 기술의 단점들 중 적어도 하나를 극복하는 것이다.
본 발명은 적어도 하나의 기준 블록으로부터 예측된 이미지의 현재 블록의 복원을 위한 방법에 관한 것이고, 현재 블록은 코딩된 데이터 형태이다. 이 복원 방법은,
- 코딩된 데이터로부터, 명시적 파라미터라 칭하는 적어도 하나의 가중 예측 파라미터를 디코딩하는 단계,
- 현재 블록의 제1 인과적 이웃 영역 및 기준 블록에 대응하는 제1 이웃 영역으로부터, 암시적 파라미터라 칭하는 적어도 하나의 가중 예측 파라미터를 계산하는 단계,
- 명시적 파라미터에 의한 현재 블록의 제2 인과적 이웃 영역의 예측으로부터 발생하는 제1 왜곡 및 암시적 파라미터에 의한 제2 인과적 이웃 영역의 예측으로부터 발생하는 제2 왜곡을 계산하는 단계,
- 제1 왜곡과 제2 왜곡을 비교하는 단계,
- 비교의 결과에 따라 명시적 파라미터와 암시적 파라미터 사이에서 파라미터를 선택하는 단계, 및
- 선택된 파라미터를 사용하여 현재 블록을 복원하는 단계를 포함한다.
바람직하게는, 본 발명에 따른 복원 방법은 신호 특성들의 로컬 변동들, 특히, 조명 변동들에 대한 영구적 적응(permanent adaptation)을 가능하게 한다. 따라서, 조명 변동 파라미터들의 명시적 코딩의 한계들이 보상될 수 있다. 실제로, 이들은 최상의 비트레이트 왜곡 절충의 탐색으로 인해 로컬하게 준최적(sub-optimal)일 수 있다. 제2 암시적 모델의 경쟁에 배치하는 것은 추가의 코딩 비용을 야기하지 않고 특정한 경우들에서 이러한 결함이 정정되게 할 수 있다.
본 발명의 양태에 따르면, 제1 왜곡 및 제2 왜곡 각각은,
- 명시적 예측 파라미터 및 암시적 예측 파라미터 각각을 고려하면서 기준 블록의 제2 대응하는 이웃 영역을 사용하여 현재 블록의 제2 이웃 영역을 예측하는 단계, 및
- 예측과 현재 블록의 제2 이웃 영역 사이에서 제1 왜곡 및 제2 왜곡을 각각 계산하는 단계에 따라 계산된다.
본 발명의 특정한 특징에 따르면, 제1 인과적 이웃 영역은 제2 인과적 이웃 영역과 상이하다. 용어 "상이하다"는 2개의 이웃 영역들이 반드시 별개라는 것을 나타내지 않는다. 제1 인과적 이웃 영역과 상이한 제2 인과적 이웃 영역에 대한 파라미터들의 선택은, 제1 인과적 이웃 영역에 대해 계산된 암시적 모델이 파라미터가 제1 인과적 이웃 영역이 아니라 현재 블록에 할당된 명시적 모델에 관하여 정정된다는 이점을 가능하게 한다.
본 발명의 다른 특정한 특징에 따르면, 제1 인과적 이웃 영역과 제2 인과적 이웃 영역은 별개이다.
바람직하게는, 제1 인과적 이웃 영역은 디코딩된 명시적 파라미터가 현재 블록의 명시적 파라미터와 유사한 각각에 대한 현재 블록의 이웃 블록들에 속하는 픽셀들을 선택하는 동안 결정된다. 디코딩된 명시적 파라미터는, 명시적 파라미터들 사이의 차이의 놈(norm)이 임계값 미만일 때 현재 블록의 명시적 파라미터와 유사하다.
본 발명의 특정한 특징에 따르면, 기준 블록은 현재 블록과 동일한 이미지에 속한다.
변형에 따르면, 기준 블록은 현재 블록이 속하는 이미지와는 상이한 이미지에 속한다.
본 발명은 또한 적어도 하나의 기준 블록을 사용하여 예측에 의해 이미지 시퀀스의 현재 블록을 코딩하는 방법에 관한 것이다. 코딩 방법은,
- 현재 블록 및 기준 블록을 사용하여, 명시적 파라미터라 칭하는 적어도 하나의 가중 예측 파라미터를 계산하는 단계,
- 현재 블록의 제1 인과적 이웃 영역 및 기준 블록에 대응하는 제1 이웃 영역으로부터, 암시적 파라미터라 칭하는 적어도 하나의 가중 예측 파라미터를 계산하는 단계,
- 명시적 파라미터에 의한 현재 블록의 제2 인과적 이웃 영역의 예측으로부터 발생하는 제1 왜곡 및 암시적 파라미터에 의한 제2 인과적 이웃 영역의 예측으로부터 발생하는 제2 왜곡을 계산하는 단계,
- 제1 왜곡과 제2 왜곡을 비교하는 단계,
- 비교의 결과에 따라 명시적 파라미터와 암시적 파라미터 사이에서 파라미터를 선택하는 단계, 및
- 선택된 파라미터를 사용하여 현재 블록을 코딩하는 단계를 포함한다.
바람직하게는, 명시적 파라미터는 시스템적으로 코딩된다.
본 발명은 부록에서의 도면들을 참조하여 제한이 아닌 실시예들 및 바람직한 구현들에 의해 더 양호하게 이해되고 예시될 것이다.
- 도 1은 코딩될(각각 복원될) 현재 블록(Bc)에 속하는 현재 이미지(Ic) 및 기준 이미지(Ir)를 도시한다.
- 도 2는 본 발명에 따른 이미지 블록의 복원을 위한 방법을 도시한다.
- 도 3은 본 발명에 따른 이미지 블록의 코딩을 위한 방법을 도시한다.
- 도 4는 본 발명에 따른 이미지 블록 코딩 디바이스를 도시한다.
- 도 5는 본 발명에 따른 이미지 블록의 복원을 위해 코딩된 데이터의 스트림을 디코딩하는 디바이스를 도시한다.
본 원리들이 하드웨어, 소프트웨어, 펌웨어, 특수용 프로세서들, 또는 이들의 조합의 다양한 형태들로 구현될 수도 있다는 것이 이해되어야 한다. 바람직하게는, 본 원리들은 하드웨어와 소프트웨어의 조합으로서 구현될 수도 있다. 더욱이, 소프트웨어는 바람직하게는 프로그램 저장 디바이스상에 유형으로 (tangibly) 수록된 애플리케이션 프로그램으로서 구현된다. 애플리케이션 프로그램은 임의의 적합한 아키텍처를 포함하는 머신에 업로딩될 수도 있거나 그 머신에 의해 실행될 수도 있다. 바람직하게는, 머신은 하나 이상의 중앙 처리 장치들(CPU), 랜덤 액세스 메모리(RAM), 및 입/출력(I/O) 인터페이스(들)와 같은 하드웨어를 갖는 컴퓨터 플랫폼상에서 구현된다. 컴퓨터 플랫폼은 운영 시스템 및 마이크로명령어 코드를 또한 포함한다. 본 명세서에 설명하는 다양한 프로세스들 및 기능들은 운영 시스템을 통해 실행되는 마이크로명령어 코드의 일부 또는 애플리케이션 프로그램의 일부(또는 이들의 조합)일 수도 있다. 또한, 다양한 다른 주변 디바이스들이 추가 데이터 저장 디바이스 및 프린팅 디바이스와 같은 컴퓨터 플랫폼에 접속될 수도 있다.
본 발명은 대응하게 적응되는 코딩 또는 디코딩 수단을 포함하는 임의의 전자 디바이스상에서 실현될 수도 있다. 예를 들어, 본 발명은 텔레비전, 모바일 비디오폰, 개인 컴퓨터, 디지털 비디오 카메라, 네비게이션 시스템 또는 자동차 비디오 시스템에서 실현될 수도 있다.
이미지 시퀀스는 일련의 여러 이미지들이다. 각 이미지는 픽셀들 또는 이미지 포인트들을 포함하고, 이들 각각은 이미지 데이터의 적어도 하나의 아이템과 연관된다. 예를 들어, 이미지 데이터의 아이템은 조명 데이터의 아이템 또는 색차(chrominance) 데이터의 아이템이다.
용어 "모션 데이터"가 최광의 의미로 이해되어야 한다. 모션 데이터는 모션 벡터들 및 가능하면 기준 이미지 인덱스들을 포함하고, 이 기준 이미지 인덱스는 기준 이미지가 이미지 시퀀스에서 식별되게 할 수 있다. 모션 데이터는 예측 블록을 결정하기 위해 사용된 보간 타입을 나타내는 정보의 아이템을 또한 포함할 수 있다. 사실, 블록(Bc)과 연관된 모션 벡터가 정수 좌표들을 갖지 않은 경우에, 이미지 데이터는 예측 블록을 결정하기 위해 기준 이미지(Iref)에서 보간되어야 한다. 블록과 연관된 모션 데이터는 일반적으로, 예를 들어, 블록 매칭함으로써 모션 추정 방법에 의해 계산된다. 그러나, 본 발명은 모션 벡터를 블록과 연관되게 할 수 있는 방법에 의해 결코 제한되지 않는다.
용어 "잔류 데이터(residual data)"는 다른 데이터의 추출 이후에 획득된 데이터를 나타낸다. 일반적으로, 추출은 소스 데이터로부터 예측 데이터의 픽셀 바이 픽셀(pixel by pixel) 감산이다. 그러나, 추출은 더욱 일반적이고, 특히 가중 감산을 포함한다. 용어 "잔류 데이터"는 용어 "나머지(residue)"와 동의어이다. 잔류 블록은 잔류 데이터가 연관되는 픽셀들의 블록이다.
용어 "예측 데이터"는 다른 데이터를 예측하기 위해 사용된 데이터를 나타낸다. 예측 블록은 예측 데이터가 연관되는 픽셀들의 블록이다.
예측 블록은 예측하는 블록이 속하는 이미지와 동일한 이미지(공간 예측 또는 인트라-이미지 예측)의 일 블록 또는 여러 블록으로부터 또는 예측하는 블록이 속하는 이미지의 상이한 이미지(시간 예측 또는 인터-이미지 예측)의 하나(단-방향성 예측) 또는 여러 블록들(양방향성 또는 양예측성 예측(bi-predicted prediction))로부터 획득된다.
용어 "예측 모드"는 블록이 코딩되는 방식을 나타낸다. 예측 모드들 중에서, 공간 예측에 대응하는 인트라(INTRA) 모드 및 시간 예측에 대응하는 인터(INTER) 모드가 있다. 예측 모드는 블록이 코딩되도록 파티셔닝되는 방식을 나타낼 수 있다. 따라서, 사이즈 16x16의 블록과 연관된 8x8 INTER 예측 모드는, 16x16 블록이 4개의 8x8 블록들로 파티셔닝되고 시간 예측에 의해 예측된다는 것을 나타낸다.
용어 "복원 데이터"는 예측 데이터와 잔류 데이터의 병합 이후에 획득된 데이터를 나타낸다. 일반적으로, 병합은 잔류 데이터에 대한 예측 데이터의 픽셀 바이 픽셀 합이다. 그러나, 병합은 더욱 일반적이고, 특히 가중 합을 포함한다. 복원 블록은 복원 이미지 데이터가 연관되는 픽셀들의 블록이다.
현재 블록의 이웃 블록 또는 이웃 템플릿은 이러한 현재 블록에 반드시 인접하지는 않지만 현재 블록의 다소 큰 이웃에 위치한 블록 및 템플릿 각각이다.
용어 코딩은 최광의 의미로 취해져야 한다. 코딩은 반드시는 아니지만 가능하면, 이미지 데이터의 변환 및/또는 양자화를 포함할 수 있다.
제1 인과적 이웃 영역(Lc1) 및 제2 인과적 이웃 영역(Lc2)이 연관되는 현재 블록(Bc)이 위치되는 현재 이미지(Ic)가 도 1에 도시되어 있다. 현재 블록(Bc)은 기준 이미지(Ir)의 기준 블록(Br)과 연관된다(시간적 예측 또는 INTER). Bc의 이웃 영역(Lc1)에 대응하는 제1 이웃 영역(Lr1) 및 Bc의 이웃 영역(Lc2)에 대응하는 제2 이웃 영역(Lr2)이 이러한 기준 블록(Br)에 연관된다. 이러한 도면에서, 기준 블록(Br)은 현재 블록과 연관된 모션 벡터(mv)를 사용하여 식별된다. 이웃 영역들(Lr1 및 Lr2)은 Bc에 관한 이웃 영역들(Lc1 및 Lc2)과 Br에 관하여 동일한 위치들을 점유한다. 도시되지 않은 변형에 따르면, 기준 블록(Br)은 현재 블록과 동일한 이미지에 속한다(공간 예측 또는 INTRA).
다른 예측 방법에 우선하여 하나의 선험적(a priori) 예측 방법을 선택하지 않기 위해, 본 발명에 따른 복원(각각 코딩) 방법은 2개의 타입의 가중 예측 파라미터들, 즉, 암시적 파라미터들 및 명시적 파라미터들의 사용을 가능하게 한다. 또한, 바람직하게는, 복원(각각 코딩) 방법은 사용된 파라미터의 타입을 코딩된 데이터의 스트림에서 시그널링할 필요가 없게 할 수 있다. 하나 또는 다른 타입의 가중 예측 파라미터들의 선택은 복원될(각각 코딩될) 현재 블록 및 기준 블록과 연관된 대응하는 이웃 영역의 인과적 이웃 영역에 따라 코딩 방법 및 복원 방법 양자를 통해 수행된다.
이하, 용어 명시적 파라미터는 용어 명시적 가중 예측 파라미터와 동의어이고, 용어 암시적 파라미터는 암시적 가중 예측 파라미터와 동의어이다.
도 2를 참조하면, 본 발명은 적어도 하나의 기준 블록(Br)으로부터 예측된 현재 블록(Bc)의 복원을 위한 방법에 관한 것이고, 현재 블록은 코딩된 데이터의 형태이다. 본 발명에 따르면, 기준 블록(Br)은 현재 이미지(Ic) 이외의 기준 이미지(Ir) 또는 현재 이미지(Ic)에 속한다.
단계 20 동안, 명시적 파라미터라 칭하는 가중 예측 파라미터(wp1)가 코딩된 데이터로부터 디코딩된다. 디코딩은 예를 들어, 문헌 ISO/IEC 14496-10에 기재된 H.264 표준을 구현한다. 그러나, 본 발명은 명시적 파라미터(wp1)를 코딩하는 방법에 의해 결코 제한되지 않는다.
단계 22 동안, 암시적 파라미터라 칭하는 가중 예측 파라미터(wp2)가 현재 블록(Bc)의 제1 인과적 이웃 영역(Lc1) 및 기준 블록(Br)의 제1 대응하는 이웃 영역(Lr1)으로부터 계산된다. 이러한 파라미터는 공지된 방법에 따라, 예를 들어, 특허 출원 WO/2007/094792에 기재된 방법에 따라 또는 특허 출원 WO/2010/086393에 기재된 방법에 따라 결정된다. 단순한 예로서, wp2는 Lr1의 픽셀들과 연관된 휘도값들의 평균으로 나눈 Lc1의 픽셀들과 연관된 휘도값들의 평균과 동일하다.
특정한 실시예에 따르면, 제1 이웃 영역(Lc1)의 픽셀들(및 결과적으로 Lr1의 픽셀들)은 명시적 파라미터(wp1)로부터 결정된다. 예를 들어, wp1_c가 현재 블록의 명시적 파라미터라는 것에 유의한다. 명시적 파라미터들(wp1)이 현재 블록의 wp1_c와 유사한 Bc의 이웃 블록들의 픽셀들만이 Lc1에서 고려된다. 사실, 매우 상이한 조명 변동들의 명시적 파라미터들의 이웃 블록들이 현재 블록과 비-코히어런트(non-coherent)인 것으로 고려될 수 있다. 가중 예측 파라미터(wp1)는 가중 예측 파라미터들 사이의 차이의 놈, 예를 들어, 절대값이 임계값(ε) 미만일 때, 즉, |wp1-wp1_c|<ε일 때, 상기 현재 블록의 가중 예측 파라미터(wp1_c)와 유사하다.
단계 24 동안, 제1 왜곡과 제2 왜곡이 계산된다. 제1 왜곡(D1)은 암시적 파라미터(wp2)를 고려하여 현재 블록의 제2 인과적 이웃 영역(Lc2)의 예측으로부터 발생한다. 제2 왜곡(D1)은 명시적 파라미터(wp1)를 고려하여, 현재 블록의 제2 인과적 이웃 영역(Lc2)의 예측으로부터 발생한다.
단순히 예로서, 왜곡들(D1 및 D2)은 아래와 같이 계산된다.
Figure pct00001
여기서, i = 1 또는 2이고,
- Ic2는 Lc2의 픽셀들과 연관된 휘도값들 및/또는 색차값들을 나타내고, Ir2는 Lr2의 픽셀들과 연관된 휘도 및/또는 색차값들을 나타내고, Ip는 예측 신호의 픽셀들과 연관된 휘도 및/또는 색차값들을 나타낸다.
따라서, 명시적 예측 파라미터 및 암시적 예측 파라미터 각각을 고려하면서 기준 블록의 제2 대응하는 이웃 영역(Lr2)을 사용하여 현재 블록의 제2 이웃 영역(Lc2)이 예측된다. 따라서, 제1 왜곡 및 제2 왜곡 각각이 현재 블록의 제2 이웃 영역과 예측(Ip) 사이에서 계산된다.
Ip는 Ir2 및 wpi의 함수이다. 단순히 예로서, 곱셈 가중 예측 파라미터(multiplicative weighted prediction parameter)의 경우에서, Ip=wpi*Ir2이다.
변형에 따르면,
Figure pct00002
이다.
다른 변형에 따르면, 조명 변동들의 암시적 파라미터들이 현재 블록의 암시적 파라미터들과 유사한 현재 블록의 이웃 블록들에 속하는 Lc2 (및 따라서 Lr2)의 픽셀들만이 왜곡들(D1 및 D2)의 계산에서 고려된다.
바람직한 실시예에 따르면, 제1 인과적 이웃 영역(Lc1) 및 제2 인과적 이웃 영역(Lc2)은 별개이고, 즉, 공통으로 픽셀을 갖지 않는다.
다른 변형에 따르면, 2개의 이웃 영역들은 상이하지만 별개는 아니다.
단계 26 동안, 제1 왜곡과 제2 왜곡이 비교된다.
단계 28 동안, 가중 예측 파라미터는 비교의 결과에 따라 선택된다. 예를 들어,
Figure pct00003
이면, 파라미터(wp2)가 선택되고, 그렇지 않으면, wp1이 선택된다.
파라미터들(a 및 b)은 신호에 따라 사전정의되거나 결정된다. 예를 들어, a 및 b는 a=1 및 b=0와 같이 사전정의된다. 다른 예에 따르면, a 및 b는 신호에 따라 결정된다. 파라미터들(wp1 및 wp2)이 유사하다는 것에 따른 가설로 시작하여, 하나 또는 다른 암시적 또는 명시적 방법에 의한 예측 신호가 동일한 분산(σ2)의 비상관 가우시안 백색 잡음이 추가되는 Lc2의 신호에 대응한다는 것이 고려되고, 즉,
Figure pct00004
을 갖는
Figure pct00005
이고, 여기서, N(0, σ2)는 널 기대치 및 분산(σ2)의 정규 분포이다. 이러한 경우에서, D1/σ2 및 D2/σ2 양자는 동일한 자유도(n)를 갖는 χ2의 분포에 따라 분포되고, n은 이웃 영역(Lc2(또는 Lr2))의 픽셀들의 수에 대응한다. 그 후, D2/D1은 n 자유도의 피셔 분포(Fischer distribution)에 따른다. 이러한 예에서, 파라미터(b)는 항상 널이다. 파라미터는 그것이 부합되는(accorded) 에러 레이트(즉, 거짓(false)이더라도 가설의 수용) 및 이웃 영역(Lc2)의 샘플들의 수에 의존한다. 통상적으로, 5%의 에러 레이트에 대해, 다음이 획득된다.
- n=8에 대해, a=3.44
- n=16에 대해, a=2.4
- n=32에 대해, a=1.85
- n=64에 대해, a=1.5
단계 30 동안, 현재 블록은 단계 28에서 선택된 가중 예측 파라미터에 따라 복원된다. 예를 들어, 명시적 파라미터가 선택되면, Bc와 연관된 잔류 블록을 예측 블록(Bp)과 병합하여 B가 복원되고, 여기서, 예측 블록은 기준 블록(Br) 및 파라미터(wp1)에 따라 결정된다.
도 3을 참조하면, 본 발명은 적어도 하나의 기준 블록(Br)으로부터 예측된 현재 블록(Bc)을 코딩하는 방법에 관한 것이다.
단계 32 동안, 명시적 파라미터라 칭하는 가중 예측 파라미터(wp1)가 계산된다. 예를 들어, 명시적 파라미터는 현재 블록의 이미지 데이터(휘도 및/또는 색차) 및 기준 블록(Br)의 이미지 데이터를 사용하여 계산된다. 단순하게 일례로서, wp1은 Br의 픽셀들과 연관된 휘도값들의 평균으로 나눈 Bc의 픽셀들과 연관된 휘도값들의 평균과 동일하다. 이러한 파라미터가 선택되면, 이 파라미터는 코딩되어야 한다. 사실, 디코더가 현재 블록(Bc)을 복원할 때, 그에 이용가능한 현재 블록의 이미지 데이터를 갖지 않아서, wp1을 계산할 수 없다. 이러한 이유로, 이것은 명시적 가중 예측 파라미터라 불린다. 변형에 따르면, 파라미터(wp1)는 선택되지 않은 경우에도 시스템적으로 코딩된다. 이것은 특히 이웃 영역(Lc1)이 결정되게 할 수 있다.
단계 34 동안, 암시적 파라미터라 칭하는 가중 예측 파라미터(wp2)가 현재 블록(Bc)의 제1 인과적 이웃 영역(Lc1) 및 기준 블록(Br)의 제1 대응하는 이웃 영역(Lr1)으로부터 계산된다. 이러한 파라미터는 공지된 방법에 따라, 예를 들어, 특허 출원 WO/2007/094792에 기재된 방법에 따라 또는 특허 출원 WO/2010/086393에 기재된 방법에 따라 결정된다.
특정한 실시예에 따르면, 제1 이웃 영역(Lc1)의 픽셀들(및 결과적으로 Lr1의 픽셀들)은 명시적 파라미터(wp1)로부터 결정된다. 예를 들어, wp1_c가 현재 블록의 명시적 파라미터라는 것에 유의한다. 명시적 파라미터들(wp1)이 현재 블록의 wp1_c와 유사한 Bc의 이웃 블록들의 픽셀들만이 Lc1에서 고려된다. 사실, 매우 상이한 조명 변동들의 명시적 파라미터들의 이웃 블록들이 현재 블록과 비-코히어런트인 것으로 고려될 수 있다. 가중 예측 파라미터(wp1)는 가중 예측 파라미터들 사이의 차이의 놈, 예를 들어, 절대값이 임계값(ε) 미만일 때, 즉, |wp1-wp1_c|<ε일 때, 상기 현재 블록의 가중 예측 파라미터(wp1_c)와 유사하다.
단계 36 동안, 제1 왜곡과 제2 왜곡이 계산된다. 제1 왜곡(D1)은 암시적 파라미터(wp2)를 고려하여 현재 블록의 제2 인과적 이웃 영역(Lc2)의 예측으로부터 발생한다. 제2 왜곡(D1)은 명시적 파라미터(wp1)를 고려하여, 현재 블록의 제2 인과적 이웃 영역(Lc2)의 예측으로부터 발생한다.
단순히 예로서, 왜곡들(D1 및 D2)은 아래와 같이 계산된다.
Figure pct00006
여기서, i = 1 또는 2이고,
- Ic2는 Lc2의 픽셀들과 연관된 휘도값들 및/또는 색차값들을 나타내고, Ir2는 Lr2의 픽셀들과 연관된 휘도 및/또는 색차값들을 나타내고, Ip는 예측 신호의 픽셀들과 연관된 휘도 및/또는 색차값들을 나타낸다.
따라서, 명시적 예측 파라미터 및 암시적 예측 파라미터 각각을 고려하면서 기준 블록의 제2 대응하는 이웃 영역(Lr2)을 사용하여 현재 블록의 제2 이웃 영역(Lc2)이 예측된다. 따라서, 제1 왜곡 및 제2 왜곡 각각이 현재 블록의 제2 이웃 영역과 예측(Ip) 사이에서 계산된다.
Ip는 Ir2 및 wpi의 함수이다. 단순히 예로서, 곱셈 가중 예측 파라미터의 경우에서, Ip=wpi*Ir2이다.
변형에 따라,
Figure pct00007
이다.
다른 변형에 따르면, 조명 변동들의 암시적 파라미터들이 현재 블록의 암시적 파라미터들과 유사한 현재 블록의 이웃 블록들에 속하는 Lc2 (및 따라서 Lr2)의 픽셀들만이 왜곡들(D1 및 D2)의 계산에서 고려된다.
바람직한 실시예에 따르면, 제1 인과적 이웃 영역(Lc1) 및 제2 인과적 이웃 영역(Lc2)은 별개이다.
다른 변형에 따르면, 2개의 이웃 영역들은 상이하지만 별개는 아니다.
단계 38 동안, 제1 왜곡과 제2 왜곡이 비교된다.
단계 40 동안, 가중 예측 파라미터는 비교의 결과에 따라 선택된다. 예를 들어,
Figure pct00008
이면, 파라미터(wp2)가 선택되고, 그렇지 않으면, wp1이 선택된다.
파라미터들(a 및 b)은 신호에 따라 사전정의되거나 결정된다. 예를 들어, a 및 b는 a=1 및 b=0와 같이 사전정의된다. 다른 예에 따르면, a 및 b는 신호에 따라 결정된다. 파라미터들(wp1 및 wp2)이 유사하다는 것에 따른 가설로 시작하여, 하나 또는 다른 암시적 또는 명시적 방법에 의한 예측 신호가 동일한 분산(σ2)의 비상관 가우시안 백색 잡음이 추가되는 Lc2의 신호에 대응한다는 것이 고려되고, 즉,
Figure pct00009
을 갖는
Figure pct00010
이고, 여기서, N(0, σ2)는 널 기대치 및 분산(σ2)의 정규 분포이다. 이러한 경우에서, D1/σ2 및 D2/σ2 양자는 동일한 자유도(n)를 갖는 χ2의 분포에 따라 분포되고, n은 이웃 영역(Lc2(또는 Lr2))의 픽셀들의 수에 대응한다. 그 후, D2/D1은 n 자유도의 피셔 분포(Fischer distribution)에 따른다. 이러한 예에서, 파라미터(b)는 항상 널이다. 파라미터는 그것이 부합되는 에러 레이트(즉, 거짓(false)이더라도 가설의 수용) 및 이웃 영역(Lc2)의 샘플들의 수에 의존한다. 통상적으로, 5%의 에러 레이트에 대해, 다음이 획득된다.
- n=8에 대해, a=3.44
- n=16에 대해, a=2.4
- n=32에 대해, a=1.85
- n=64에 대해, a=1.5
단계 42 동안, 현재 블록(Bc)은 단계 40에서 선택된 가중 예측 파라미터에 따라 코딩된다. 예를 들어, 명시적 파라미터(wp1)가 선택되면, Bc는 현재 블록(Bc)으로부터 예측 블록(Bp)을 추출함으로써 코딩된다. 따라서, 차동 블록(differential block) 또는 잔류 블록(residual block)이 획득된 후, 코딩된다. 예측 블록(Bp)은 기준 블록(Br) 및 파라미터(wp1)에 따라 결정된다.
본 발명은 또한 도 4를 참조하여 설명한 코딩 디바이스(12)에 관한 것이다. 코딩 디바이스(12)는 픽처들의 시퀀스에 속하는 입력 픽처들(I)을 수신한다. 각 이미지는 각각이 이미지 데이터의 적어도 하나의 아이템, 예를 들어, 휘도 및/또는 색차 데이터와 연관되는 픽셀들의 블록들로 분할된다. 코딩 디바이스(12)는 특히, 시간적 예측으로 코딩을 구현한다. 시간적 예측 또는 INTER 코딩에 의한 코딩에 관한 코딩 디바이스(12)의 모듈들만이 도 12에 도시되어 있다. 도시되지 않고 비디오 코더들의 당업자에게 공지되어 있는 다른 모듈들은 공간 예측을 이용하거나 이용하지 않고 INTRA 코딩을 구현한다. 코딩 디바이스(12)는 특히, res라고 기재되어 있는 잔류 이미지 데이터 블록 또는 잔류 블록을 생성하기 위해 현재 블록(Bc)으로부터 픽셀 바이 픽셀로 예측 블록(Bp)을 감산할 수 있는 계산 모듈(ADD1)을 포함한다. 코딩 디바이스(12)는 잔류 블록(res)을 양자화된 데이터로 변환한 후, 양자화할 수 있는 모듈(TQ)을 또한 포함한다. 예를 들어, 변환(T)은 이산 코사인 변환(discrete cosine transform)(또는 DCT)이다. 코딩 디바이스(12)는 양자화된 데이터를 코딩된 데이터의 스트림(F)으로 코딩할 수 있는 엔트로피 코딩 모듈(COD)을 더 포함한다. 코딩 디바이스(12)는 또한, 모듈(TQ)에 대한 역동작을 구현하는 모듈(ITQ)을 포함한다. 모듈(ITQ)는 인버스 양자화(Q-1) 및 그에 후속하여 인버스 변환(T-1)을 구현한다. 모듈(ITQ)는 메모리(MEM)에 저장되는 복원 이미지 데이터의 블록을 생성하기 위해 ITQ 모듈로부터의 데이터의 블록 및 예측 블록(Bp)을 픽셀 바이 픽셀로 가산할 수 있는 계산 모듈(ADD2)에 접속된다.
코딩 디바이스(12)는 메모리(MEM)에 저장된 기준 이미지(Ir)의 블록 및 블록(Bc) 사이의 적어도 하나의 모션 벡터를 추정할 수 있는 모션 추정 모듈(ME)을 더 포함하고, 이러한 이미지는 먼저 코딩된 후 복원된다. 변형에 따르면, 모션 추정은 현재 블록(Bc)과 원래 기준 이미지(Ic) 사이에서 수행될 수 있고, 이 경우에, 메모리(MEM)는 모션 추정 모듈(ME)에 접속되지 않는다. 당업자에게 널리 공지되어 있는 방법에 따르면, 모션 추정 모듈은 상기 모션 벡터에 의해 식별된 기준 이미지(Ir)에서의 블록과 현재 블록(Bc) 사이에서 계산된 에러를 최소화하는 방식으로 모션 벡터에 대한 기준 픽처(Ir)를 탐색한다. 모션 데이터는 모션 추정 모듈(ME)에 의해, 코딩 모드들의 미리 정의된 세트에서 블록(Bc)에 대한 코딩 모드를 선택할 수 있는 결정 모듈(DECISION)로 송신된다. 유지된 코딩 모드는 예를 들어, 비트레이트-왜곡 타입 기준을 최소화시키는 것이다. 그러나, 본 발명은 이러한 선택 방법에 제한되지 않고, 유지된 모드는 다른 기준, 예를 들어, 선험적 타입 기준에 따라 선택될 수 있다. 결정 모듈(DECISION)에 의해 선택된 코딩 모드 뿐만 아니라 모션 데이터, 예를 들어, 시간적 예측 모드 또는 INTER 모드의 경우에서 모션 벡터(들)는 예측 모듈(PRED)로 송신된다. 모션 벡터(들) 및 선택된 코딩 모드는 또한, 스트림(F)에서 코딩되도록 엔트로피 코딩 모듈(COD)로 송신된다. INTER 예측 모드가 결정 모듈(DECISION)에 의해 유지되면, 예측 모듈(PRED)은 이전에 복원되어 메모리(MEM)에 저장된 기준 이미지(Ir)에서, 모션 추정 모듈(ME)에 의해 결정된 모션 벡터 및 결정 모듈(DECISION)에 의해 결정된 코딩 모드로부터 예측 블록(Bp)을 결정한다. INTRA 예측 모드가 결정 모듈(DECISION)에 의해 유지되면, 예측 모듈(PRED)은 현재 이미지에서, 이전에 코딩되어 메모리(MEM)에 저장된 블록들 중에서, 예측 블록(Bp)을 결정한다.
예측 모듈(PRED)은 시퀀스의 이미지들 사이 또는 이미지 내부의 광도 변동을 나타내는 가중 예측 파라미터들에 의해 정의된 광도 변동 모델을 고려하여 예측 블록(Bp)을 결정할 수 있다. 이러한 목적을 위해, 코딩 디바이스(12)는 가중 예측 파라미터들의 선택을 위한 모듈(SELECT1)을 포함한다. 선택 모듈(SELECT1)은 도 3을 참조하여 설명한 방법의 단계들(32 내지 40)을 구현한다.
본 발명은 또한 도 5를 참조하여 설명한 디코딩 디바이스(13)에 관한 것이다. 디코딩 디바이스(13)는 이미지들의 시퀀스를 나타내는 코딩된 데이터의 스트림(F)을 입력에서 수신한다. 스트림(F)은 예를 들어, 코딩 디바이스(12)에 의해 송신된다. 디코딩 디바이스(13)는 디코딩된 데이터, 예를 들어, 코딩 모드들 및 이미지들의 콘텐츠에 관한 디코딩된 데이터를 생성할 수 있는 엔트로피 디코딩 모듈(DEC)을 포함한다. 디코딩 디바이스(13)는 또한 모션 데이터 복원 모듈을 포함한다. 제1 실시예에 따르면, 모션 데이터 복원 모듈은 상기 모션 벡터들을 나타내는 스트림(F)의 일부를 디코딩하는 엔트로피 디코딩 모듈(DEC)이다.
도 5에는 도시되지 않은 변형에 따르면, 모션 데이터 복원 모듈은 모션 추정 모듈이다. 디코딩 디바이스(13)를 통해 모션 데이터를 복원하는 이러한 솔루션은 "템플릿 매칭(template matching)"으로서 공지되어 있다.
그 후, 이미지들의 콘텐츠에 관한 디코딩된 데이터가 인버스 변환이 후속하는 인버스 양자화를 수행할 수 있는 모듈(ITQ)에 송신된다. ITQ 모듈은 코딩된 스트림(F)을 생성한 코딩 디바이스(12)의 ITQ 모듈과 동일하다. ITQ 모듈은 메모리(MEM)에 저장되는 복원 이미지 데이터의 블록을 생성하기 위해 ITQ 모듈로부터의 블록 및 예측 블록(Bp)을 픽셀 바이 픽셀로 가산할 수 있는 계산 모듈(ADD)에 접속된다. 디코딩 디바이스(13)는 또한, 코딩 디바이스(12)의 예측 모듈(PRED)과 동일한 예측 모듈(PRED)을 포함한다. INTER 예측 모드가 디코딩되면, 예측 모듈(PRED)은 이전에 복원되어 메모리(MEM)에 저장된 기준 이미지(Ir)에서, 모션 벡터(MV) 및 엔트로피 디코딩 모듈(DEC)에 의해 현재 블록(Bc)에 대해 디코딩된 코딩 모드로부터 예측 블록(Bp)을 결정한다. INTRA 예측 모드가 디코딩되면, 예측 모듈(PRED)은 현재 이미지에서, 이전에 복원되어 메모리(MEM)에 저장된 블록들 중에서, 예측 블록(Bp)을 결정한다.
예측 모듈(PRED)은 시퀀스의 이미지들 사이 또는 이미지 내부의 광도 변동을 나타내는 가중 예측 파라미터들에 의해 정의된 광도 변동 모델을 고려하여 예측 블록(Bp)을 결정할 수 있다. 이러한 목적을 위해, 디코딩 디바이스(13)는 가중 예측 파라미터들의 선택을 위한 모듈(SELECT2)을 포함한다. 선택 모듈(SELECT2)은 도 2을 참조하여 설명한 복원을 위한 방법의 단계들(22 내지 28)을 구현한다. 바람직하게는, wp1을 디코딩하는 단계(20)는 엔트로피 디코딩 모듈(DEC)에 의해 구현된다.
코딩 및 복원을 위한 방법들이 파라미터(wp1) 및 파라미터(wp2)에 대해 설명되었다. 그러나, 본 발명은 파라미터들의 세트(J1) 및 파라미터들의 세트(J2)에 적용할 수 있다. 따라서, J1은 곱셈 가중 파라미터(multiplicative weighted parameter)(wp1) 및 오프셋(o1)을 포함할 수 있다. 동일한 것이 J2에 적용된다. 더욱 복잡한 파라미터 세트가 구현될 수 있다. 파라미터 세트들은 반드시 동일하지는 않다.
코딩 및 복원을 위한 방법들이 단일 기준 블록(Br)에 대해 설명되었다. 그러나, 본 발명은 여러 기준 블록들이 연관되는 현재 블록(예를 들어, 양방향성 예측의 경우)에 적용될 수 있다.

Claims (10)

  1. 적어도 하나의 기준 블록으로부터 예측된 이미지의 현재 블록을 복원하는 방법으로서 - 상기 현재 블록은 코딩된 데이터의 형태임 - ,
    상기 코딩된 데이터로부터, 명시적 파라미터(explicit parameter)(wp1)라 칭하는 적어도 하나의 가중 예측 파라미터를 디코딩하는 단계(20)
    를 포함하고,
    상기 방법은, 또한
    상기 현재 블록(Bc)의 제1 인과적 이웃 영역(causal neighbouring area)(Lc1) 및 상기 기준 블록(Br)의 제1 대응하는 이웃 영역(Lr1)으로부터, 암시적 파라미터(implicit parameter)(wp2)라 칭하는 적어도 하나의 가중 예측 파라미터를 계산하는 단계(22);
    상기 명시적 파라미터에 의한 상기 현재 블록의 제2 인과적 이웃 영역(Lc2)의 예측으로부터 발생하는 제1 왜곡(D1) 및 상기 암시적 파라미터에 의한 상기 제2 인과적 이웃 영역(Lc2)의 예측으로부터 발생하는 제2 왜곡(D2)을 계산하는 단계(24) - 상기 제2 인과적 이웃 영역은 상기 제1 인과적 이웃 영역과는 상이함 - ;
    상기 제1 왜곡과 제2 왜곡을 비교하는 단계(26);
    상기 비교의 결과에 따라 상기 명시적 파라미터와 상기 암시적 파라미터 사이에서 하나의 파라미터를 선택하는 단계(28); 및
    상기 선택된 파라미터를 사용하여 상기 현재 블록을 복원하는 단계(30)
    를 더 포함하는 것을 특징으로 하는, 이미지의 현재 블록을 복원하는 방법.
  2. 제1항에 있어서,
    상기 제1 왜곡(D1) 및 상기 제2 왜곡(D2) 각각은,
    상기 명시적 예측 파라미터 및 상기 암시적 예측 파라미터 각각을 고려하면서 상기 기준 블록의 제2 대응하는 이웃 영역(Lr2)을 사용하여 상기 현재 블록의 상기 제2 이웃 영역(Lc2)을 예측하는 단계, 및
    상기 예측과 상기 현재 블록의 상기 제2 이웃 영역 사이에서 상기 제1 왜곡 및 상기 제2 왜곡을 각각 계산하는 단계
    에 따라 계산되는, 이미지의 현재 블록을 복원하는 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 제1 인과적 이웃 영역과 상기 제2 인과적 이웃 영역은 별개인, 이미지의 현재 블록을 복원하는 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 제1 인과적 이웃 영역은 디코딩된 상기 명시적 파라미터와 상기 현재 블록의 상기 명시적 파라미터 사이의 차이가 임계값보다 작은 상기 현재 블록의 이웃 블록들에 속하는 픽셀들을 선택함으로써 결정되는, 이미지의 현재 블록을 복원하는 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 기준 블록은 상기 현재 블록과 동일한 이미지에 속하는, 이미지의 현재 블록을 복원하는 방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 기준 블록은 상기 현재 블록이 속하는 이미지 이외의 이미지에 속하는, 이미지의 현재 블록을 복원하는 방법.
  7. 적어도 하나의 기준 블록을 사용하여 예측에 의해 이미지 시퀀스의 현재 블록을 코딩하는 방법으로서,
    상기 현재 블록 및 상기 기준 블록을 사용하여, 명시적 파라미터(wp1)라 칭하는 적어도 하나의 가중 예측 파라미터를 계산하는 단계(32)
    를 포함하고,
    상기 방법은,
    상기 현재 블록(Bc)의 제1 인과적 이웃 영역(Lc1) 및 상기 기준 블록(Br)의 제1 대응하는 이웃 영역(Lr1)으로부터, 암시적 파라미터(wp2)라 칭하는 적어도 하나의 가중 예측 파라미터를 계산하는 단계(34);
    상기 명시적 파라미터에 의한 상기 현재 블록의 제2 인과적 이웃 영역(Lc2)의 예측으로부터 발생하는 제1 왜곡(D1) 및 상기 암시적 파라미터에 의한 상기 제2 인과적 이웃 영역(Lc2)의 예측으로부터 발생하는 제2 왜곡(D2)을 계산하는 단계(36) - 상기 제2 인과적 이웃 영역은 상기 제1 인과적 이웃 영역과는 상이함 -;
    상기 제1 왜곡과 제2 왜곡을 비교하는 단계(38);
    상기 비교의 결과에 따라 상기 명시적 파라미터와 상기 암시적 파라미터 사이에서 파라미터를 선택하는 단계(40); 및
    상기 선택된 파라미터를 사용하여 상기 현재 블록을 코딩하는 단계(42)
    를 더 포함하는 것을 특징으로 하는, 이미지 시퀀스의 현재 블록을 코딩하는 방법.
  8. 제7항에 있어서,
    상기 명시적 파라미터는 코딩되는, 이미지 시퀀스의 현재 블록을 코딩하는 방법.
  9. 적어도 하나의 기준 블록으로부터 예측된 이미지의 현재 블록을 복원하는 디바이스로서 - 상기 현재 블록은 코딩된 데이터의 형태임 - ,
    상기 코딩된 데이터로부터, 명시적 파라미터라 칭하는 적어도 하나의 가중 예측 파라미터를 디코딩하는 수단
    을 포함하고,
    상기 복원하는 디바이스는,
    상기 현재 블록의 제1 인과적 이웃 영역 및 상기 기준 블록의 제1 대응하는 이웃 영역으로부터, 암시적 파라미터라 칭하는 적어도 하나의 가중 예측 파라미터를 계산하는 수단;
    상기 명시적 파라미터에 의한 상기 현재 블록의 제2 인과적 이웃 영역의 예측으로부터 발생하는 제1 왜곡 및 상기 암시적 파라미터에 의한 상기 제2 인과적 이웃 영역의 예측으로부터 발생하는 제2 왜곡을 계산하는 수단 - 상기 제2 인과적 이웃 영역은 상기 제1 인과적 이웃 영역과는 상이함 -;
    상기 제1 왜곡과 제2 왜곡을 비교하는 수단;
    상기 비교의 결과에 따라 상기 명시적 파라미터와 상기 암시적 파라미터 사이에서 하나의 파라미터를 선택하는 수단; 및
    상기 선택된 파라미터를 사용하여 상기 현재 블록을 복원하는 수단
    을 더 포함하는 것을 특징으로 하는, 이미지의 현재 블록을 복원하는 디바이스.
  10. 적어도 하나의 기준 블록을 사용하여 예측에 의해 이미지 시퀀스의 현재 블록을 코딩하는 디바이스로서,
    상기 현재 블록 및 상기 기준 블록을 사용하여, 명시적 파라미터라 칭하는 적어도 하나의 가중 예측 파라미터를 계산하는 수단
    을 포함하고,
    상기 코딩하는 디바이스는,
    상기 현재 블록의 제1 인과적 이웃 영역 및 상기 기준 블록의 제1 대응하는 이웃 영역으로부터, 암시적 파라미터라 칭하는 적어도 하나의 가중 예측 파라미터를 계산하는 수단;
    상기 명시적 파라미터에 의한 상기 현재 블록의 제2 인과적 이웃 영역의 예측으로부터 발생하는 제1 왜곡 및 상기 암시적 파라미터에 의한 상기 제2 인과적 이웃 영역의 예측으로부터 발생하는 제2 왜곡을 계산하는 수단 - 상기 제2 인과적 이웃 영역은 상기 제1 인과적 이웃 영역과는 상이함 -;
    상기 제1 왜곡과 제2 왜곡을 비교하는 수단;
    상기 비교의 결과에 따라 상기 명시적 파라미터와 상기 암시적 파라미터 사이에서 파라미터를 선택하는 수단; 및
    상기 선택된 파라미터를 사용하여 상기 현재 블록을 코딩하는 수단
    을 더 포함하는 것을 특징으로 하는, 이미지 시퀀스의 현재 블록을 코딩하는 디바이스.
KR1020137026611A 2011-03-14 2012-03-08 이미지 블록을 복원하고 코딩하는 방법 KR20140026397A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1152044 2011-03-14
FR1152044 2011-03-14
PCT/EP2012/053978 WO2012123321A1 (en) 2011-03-14 2012-03-08 Method for reconstructing and coding an image block

Publications (1)

Publication Number Publication Date
KR20140026397A true KR20140026397A (ko) 2014-03-05

Family

ID=44131712

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137026611A KR20140026397A (ko) 2011-03-14 2012-03-08 이미지 블록을 복원하고 코딩하는 방법

Country Status (7)

Country Link
US (1) US20140056348A1 (ko)
EP (1) EP2687011A1 (ko)
JP (1) JP5938424B2 (ko)
KR (1) KR20140026397A (ko)
CN (1) CN103430543A (ko)
BR (1) BR112013023405A2 (ko)
WO (1) WO2012123321A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2948845A1 (fr) 2009-07-30 2011-02-04 Thomson Licensing Procede de decodage d'un flux representatif d'une sequence d'images et procede de codage d'une sequence d'images
US9883180B2 (en) 2012-10-03 2018-01-30 Avago Technologies General Ip (Singapore) Pte. Ltd. Bounded rate near-lossless and lossless image compression
CN104363449B (zh) * 2014-10-31 2017-10-10 华为技术有限公司 图像预测方法及相关装置
CN111147845B (zh) * 2014-11-27 2023-10-10 株式会社Kt 对视频信号进行解码的方法和对视频信号进行编码的方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7515637B2 (en) * 2004-05-21 2009-04-07 Broadcom Advanced Compression Group, Llc Video decoding for motion compensation with weighted prediction
CN101023673B (zh) * 2004-09-16 2011-06-08 汤姆逊许可证公司 具有利用局部亮度变化的加权预测的视频编解码器
KR101406156B1 (ko) * 2006-02-02 2014-06-13 톰슨 라이센싱 움직임 보상 예측을 위한 적응 가중 선택 방법 및 장치
JP2009527186A (ja) 2006-02-17 2009-07-23 トムソン ライセンシング 映像データの輝度変化を扱う局部的な重み付け予測
US8457200B2 (en) * 2006-07-07 2013-06-04 Telefonaktiebolaget Lm Ericsson (Publ) Video data management
CN101911708B (zh) * 2008-01-10 2016-03-09 汤姆森特许公司 帧内预测视频的照明补偿方法和装置
JPWO2010035731A1 (ja) * 2008-09-24 2012-02-23 ソニー株式会社 画像処理装置および方法
TWI498003B (zh) 2009-02-02 2015-08-21 Thomson Licensing 代表一序列圖像的碼式資料連流之解碼方法和一序列圖像之寫碼方法及碼式圖像資料結構
US8711930B2 (en) * 2009-07-09 2014-04-29 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding

Also Published As

Publication number Publication date
EP2687011A1 (en) 2014-01-22
JP2014514808A (ja) 2014-06-19
BR112013023405A2 (pt) 2016-12-13
CN103430543A (zh) 2013-12-04
WO2012123321A1 (en) 2012-09-20
JP5938424B2 (ja) 2016-06-22
US20140056348A1 (en) 2014-02-27

Similar Documents

Publication Publication Date Title
US11375229B2 (en) Method, device, and computer program for optimizing transmission of motion vector related information when transmitting a video stream from an encoder to a decoder
CN108012155B (zh) 预拼接图像的视频编码方法、视频解码方法和相关的装置
JP5669278B2 (ja) 画像シーケンスのブロックを符号化する方法およびこのブロックを再構成する方法
US20120269263A1 (en) Method for coding and method for reconstruction of a block of an image
US8204118B2 (en) Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media which store the programs
WO2012095466A1 (en) Video encoding and decoding with improved error resilience
CN107079165B (zh) 使用预测残差的视频编码方法及装置
TWI477154B (zh) 用於編碼數位視訊資料之方法及數位視訊編碼器系統
JP4504230B2 (ja) 動画像処理装置、動画像処理方法、及び動画像処理プログラム
WO2008120867A1 (en) Method of encoding and decoding motion model parameter and video encoding and decoding method and apparatus using motion model parameter
US9979976B2 (en) Light-weight video coding system and decoder for light-weight video coding system
KR20180054715A (ko) 이전의 프레임 잔차를 사용하는 모션 벡터 예측
JP5938424B2 (ja) 画像ブロックを再構成および符号化する方法
US9781446B2 (en) Method for coding and method for decoding a block of an image and corresponding coding and decoding devices
JP2001251627A (ja) 符号化装置、符号化方法及びプログラムを記録した記録媒体
KR101668133B1 (ko) 화상 데이터의 블록을 예측하는 방법, 이 방법을 실행하는 복호 장치 및 부호화 장치
KR100987581B1 (ko) 고속 움직임 추정을 위한 부분 블록정합 방법
KR20130105402A (ko) 추가의 비트 레이트 오버헤드 없이 참조 블록의 로컬 조명 및 콘트라스트 보상에 기초한 멀티 뷰 비디오 코딩 및 디코딩 방법
JP2018050150A (ja) 画像符号化装置、画像符号化方法及びコンピュータプログラム

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid