KR101670532B1 - 픽처 시퀀스를 나타내는 스트림을 디코딩하는 방법, 픽처 시퀀스를 코딩하는 방법, 및 코딩 데이터 스트럭처 - Google Patents

픽처 시퀀스를 나타내는 스트림을 디코딩하는 방법, 픽처 시퀀스를 코딩하는 방법, 및 코딩 데이터 스트럭처 Download PDF

Info

Publication number
KR101670532B1
KR101670532B1 KR1020117018060A KR20117018060A KR101670532B1 KR 101670532 B1 KR101670532 B1 KR 101670532B1 KR 1020117018060 A KR1020117018060 A KR 1020117018060A KR 20117018060 A KR20117018060 A KR 20117018060A KR 101670532 B1 KR101670532 B1 KR 101670532B1
Authority
KR
South Korea
Prior art keywords
sum
current block
picture
block
data
Prior art date
Application number
KR1020117018060A
Other languages
English (en)
Other versions
KR20110107829A (ko
Inventor
에두아르 프랑쑤와
도미니끄 또로
파비앵 라깝
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20110107829A publication Critical patent/KR20110107829A/ko
Application granted granted Critical
Publication of KR101670532B1 publication Critical patent/KR101670532B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 픽처 시퀀스를 나타내는 코딩 데이터의 스트림을 디코딩하는 방법에 관한 것이다. 방법은 스트림의 적어도 일부를 디코딩 데이터로 디코딩하는 단계(100), 적어도 2개의 밝기 변화 모델의 세트로부터 시퀀스의 픽처 간의 밝기 변화를 나타내는 밝기 변화 모델을 선택하는 단계(102), 및 밝기 변화 모델을 고려하여 디코딩 데이터로부터 픽처 데이터를 재구성하는 단계(104)를 포함한다. 본 발명은 또한 픽처 시퀀스를 코딩하는 방법 및 데이터 스트럭처에 관한 것이다.

Description

픽처 시퀀스를 나타내는 스트림을 디코딩하는 방법, 픽처 시퀀스를 코딩하는 방법, 및 코딩 데이터 스트럭처{METHOD FOR DECODING A STREAM REPRESENTATIVE OF A SEQUENCE OF PICTURES, METHOD FOR CODING A SEQUENCE OF PICTURES AND CODED DATA STRUCTURE}
본 발명은 픽처 시퀀스 코딩 및 픽처 시퀀스를 나타내는 코딩 데이터 스트림의 디코딩의 일반적인 분야에 관한 것이다.
본 발명은 특히 픽처 시퀀스를 나타내는 스트림을 디코딩하는 방법, 픽처 시퀀스를 코딩하는 방법, 대응하는 디코딩 및 코딩 장치, 및 코딩 데이터 스트럭처에 관한 것이다.
대부분의 코딩/디코딩 방법은 픽처 사이의 예측 또는 픽처 간 예측을 사용한다. 이러한 예측은 픽처 시퀀스의 압축을 개선하는데 사용된다. 예측은 코딩해야 하는 현재의 픽처에 대한 예측 픽처의 생성 및 잔차 픽처(residual picture)라 불리우는 현재 픽처 및 예측 픽처 간의 차의 코딩을 포함한다. 예측 픽처가 현재 픽처와 더 많이 상관될수록, 현재 픽처를 코딩하는데 필요한 비트 수는 감소하고, 따라서, 압축이 효과적이다. 그러나, 픽처 간 예측은 시퀀스의 픽처 사이에 밝기 변화가 있으면 효율이 떨어진다. 이러한 밝기 변화는 예를 들어, 조명의 변경, 페이드(fade) 효과, 플래시 등 때문이다.
전체 밝기 변화를 처리하는 픽처 시퀀스를 코딩/디코딩하는 방법이 공지되어 있다. 그러므로, 문서 ISO/IEC 14496-10에 기재된 표준 H.264의 프레임워크 내에서, 밝기 변화의 경우 압축을 개선하기 위하여 가중 예측 방법을 사용하는 것으로 알려져 있다. 이러한 방법은 2개의 파라미터, 즉, 승산 파라미터 및 가산 파라미터의 세트에 의존하는 단일 밝기 변화 모델을 이용한다. 단일 파라미터 세트는 현재 픽처의 모든 슬라이스에 대한 각각의 기준 픽처와 관련된다. 그러므로, 동일한 기준 픽처를 참조하는 현재 픽처의 모든 픽처 블록은 단일 밝기 변화 모델을 고려함으로써 예측된다. 이러한 접근법은 전체 픽처에 균일하게 적용되는 전체 밝기의 변화를 모델링하는데 충분하므로, 하나 및 동일한 기준 픽처로부터 예측되는 픽처의 모든 블록을 효율적으로 코딩한다.
밝기 변화가 전체 픽처에 걸쳐 균일하지 않을 경우, 예를 들어, 국부적인 조명 또는 플래시의 변화의 경우, 몇 개의 기준 픽처 인덱스는 기준 픽처를 재조직하기 위한 H.264의 툴을 이용하여 메모리에 저장된 단일 기준 픽처와 관련시킬 수 있다. 이러한 솔루션은 동일한 기준 픽처로부터 예측될 때에도 동일한 픽처의 블록에 대한 상이한 가중치를 이용할 수 있다. 그러나, 이러한 솔루션은 H.264의 프레임워크 내에서 사용될 수 있는 기준 픽처의 수가 프로파일 및 프로파일의 레벨 또는 움직임 추정기의 복잡성에 의해 제한되는 범위에 대한 융통성이 부족하다. 따라서, 이 솔루션은 국부적인 밝기 변화의 경우 효율을 상당히 제한시킨다.
또한, 메모리에 저장된 각 기준 픽처에 상이한 밝기 변화 모델을 할당하는 방법이 공지되어 있다. 그러나, 이러한 솔루션은, 기준 픽처에 관련된 모델의 파라미터의 변경이 허용되어 동일한 기준 픽처로부터 예측될 때에도 동일한 픽처의 블록에 대하여 상이한 가중치가 사용되지만, 블록들이 동일한 기준 픽처로부터 예측될 때 동일한 픽처의 블록들에 대하여 모델이 변경되는 것을 허용하지 않는다.
본 발명의 목적은 종래 기술의 적어도 하나의 단점을 보상하는 것이다.
이목적을 위하여, 본 발명은 픽처 시퀀스를 나타내는 코딩 데이터 스트림을 디코딩하는 방법에 관한 것이며, 픽처는 적어도 하나의 픽처 데이터가 각각 관련된 픽셀을 포함한다. 본 발명에 따른 방법은, 픽처 데이터를 나타내는 스트림의 적어도 일부를 디코딩 데이터로 디코딩하는 단계, 및 시퀀스의 픽처 간의 밝기 변화를 나타내는 적어도 하나의 밝기 변화 모델을 고려하여 디코딩 데이터로부터 픽처 데이터를 재구성하는 단계를 포함한다.
특히 유리한 실시예에 따르면, 방법은 모델링 에러를 최소화하는 방식으로 적어도 2개의 밝기 변화 모델의 세트로부터 적어도 하나의 밝기 변화 모델을 선택하는 단계를 더 포함한다.
바람직하게, 본 발명에 따른 방법은 국부 밝기 변화의 경우에, 코딩 데이터 스트림의 주어진 비트레이트에 대하여 재구성 픽처 시퀀스의 품질을 개선할 수 있다.
제1 실시예에 따르면, 픽처는 블록으로 분할되고, 밝기 변화 모델은 현재 블록의 이웃 픽셀의 미리 재구성된 픽처 데이터와 밝기 변화 모델에 의해 필터링된 미리 재구성된 기준 픽처 내의 대응 픽셀의 픽처 데이터 사이에 산출된 평균 이차 에러를 최소화하는 방식으로 현재 블록에 대하여 선택된다.
바람직하게, 현재 블록에 대한 적어도 하나의 밝기 변화 모델을 선택하는 단계는 밝기 변화 모델의 각각의 파라미터를 결정하는 서브단계 및 현재 블록의 이웃 픽셀의 미리 재구성된 픽처 데이터와 밝기 변화 모델에 의해 필터링된 미리 재구성된 기준 픽처 내의 대응 픽셀의 픽처 데이터에 따라 밝기 변화 모델을 선택하는 서브단계를 포함한다.
특정한 특징에 따르면, 대응 픽셀은 현재 블록과 동일 위치에 있는 기준 픽처의 블록의 이웃 픽셀이다.
변형에 따르면, 대응 픽셀은 상기 현재 블록과 관련된 재구성 움직임 벡터에 의해 식별된 기준 픽처의 기준 블록의 이웃 픽셀이다.
또 다른 특정 특징에 따르면, 현재 블록과 관련된 움직임 벡터의 좌표는 전체 픽셀 값으로 라운딩한다.
또 다른 특정 특징에 따르면, 현재 블록은 서브블록으로 분할되고, 상기 밝기 변화 모델을 선택하는 단계는 각각의 서브블록에 개별적으로 적용된다.
유리하게도, 서브 블록의 각각에 대한 대응 픽셀은 상기 현재 블록과 관련된 기준 블록의 이웃 픽셀이다.
특히 유리한 실시예에 따르면, 선택하는 단계는 제1 합이라 불리우는, 현재 블록의 이웃 픽셀의 미리 재구성된 픽셀 데이터의 합, 제2 합이라 불리우는, 기준 픽처 내의 대응 픽셀의 픽처 데이터의 합, 제3 합이라 불리우는, 기준 픽처 내의 대응 픽셀의 픽처 데이터의 제곱 합, 및 제4 합이라 불리우는, 현재 블록의 이웃 픽셀의 미리 재구성된 픽처 데이터 및 기준 픽처 내의 대응 픽셀의 픽처 데이터의 곱의 합을 계산하는 단계를 포함한다.
동일한 실시예에 따르면, 세트의 밝기 변화 모델의 각각의 파라미터가 결정되고 상기 합에 따라 밝기 변화 모델이 선택된다.
본 실시예는 밝기 변화 모델의 각각의 파라미터가 결정되고 모델이 계산된 합으로부터 단일 단계에서 직접 선택될 정도로 유리하다.
특정한 특징에 따르면, 밝기 변화 모델의 세트는 가산 밝기 변화 모델, 승산 밝기 변화 모델, 및 정도(degree) 1의 선형 밝기 변화 모델을 포함하는 밝기 변화 모델의 세트에 속하는 적어도 2개의 밝기 변화 모델을 포함한다.
특정한 특징에 따르면, 가산 밝기 변화 모델의 파라미터는 현재 블록의 이웃 픽셀 수로 나누어진 제1 합 및 제2 합 간의 차로서 산출된다.
본 발명의 다른 특정한 특징에 따르면, 승산 밝기 변화 모델의 파라미터는 제4 합을 제3 합으로 나눔으로써 산출된다.
바람직하게, Δd가 양이면 승산 밝기 변화 모델이 선택되고, 그렇지 않으면 가산 밝기 변화 모델이 선택되고, 여기서,
Figure 112011059569033-pct00001
이고,
Figure 112011059569033-pct00002
는 승산 밝기 변화 모델의 파라미터이고,
Figure 112011059569033-pct00003
는 가산 밝기 변화 모델의 파라미터이고, S3는 제3 합이고, S4는 제4 합이고, N은 상기 현재 블록의 이웃 픽셀의 수이다.
특정한 특징에 따르면, 본 발명에 따른 디코딩 방법은 적어도 2개의 밝기 변화 모델 세트로부터 선택된 밝기 변화 모델을 고려한 시간 예측 모드에 따라 상기 제1 블록이 시간적으로 예측되었는지를 제1 블록에 대하여 나타내는 추가 데이터(플래그)를 디코딩하는 단계를 포함한다.
본 발명의 다른 형태에 따르면, 본 발명에 따른 디코딩 방법은 제2 블록이 주어진 코딩 모드, 즉, 미리 정의된 코딩 모드에 따라 코딩될 때, 미리 재구성된 이웃 블록과 관련된 추가 데이터의 값으로부터 제2 블록에 대한 추가 데이터(플래그)를 결정하는 단계를 포함한다.
본 발명은 또한 픽처 시퀀스를 코딩하는 방법에 관한 것으로, 시퀀스의 픽처는 적어도 하나의 픽처 데이터가 각각 관련되는 픽셀을 포함한다. 본 발명에 따른 코딩 방법은 시퀀스의 이미지 간의 밝기 변화를 나타내는 적어도 하나의 밝기 변화 모델을 고려한 픽처 데이터를 시간적으로 예측하는 단계, 및 예측 픽처 데이터를 코딩하는 단계를 포함한다.
본 발명에 따른 방법은 모델링 에러를 최소화하는 방식으로 적어도 2개의 밝기 변화 모델의 세트로부터 적어도 하나의 밝기 변화 모델을 선택하는 단계를 더 포함한다.
본 발명은 또한 픽처 시퀀스를 코딩하는 장치에 관한 것으로, 시퀀스의 각 피쳐는 적어도 하나의 픽처 데이터가 각각 관련되는 픽셀의 블록으로 분할된다. 코딩 장치는 픽처의 시퀀스의 현재 블록에 대한 적어도 하나의 움직임 벡터를 추정하는 움직임 추정 모듈, 적어도 하나의 움직임 벡터로부터 현재 블록에 대한 예측 블록을 결정하는 움직임 보상 모듈, 및 시퀀스의 픽처 간의 밝기 변화를 나타내는 밝기 변화 모듈을 고려하여 현재 블록 및 예측 블록 간의 차를 코딩하는 코딩 모듈을 포함한다.
코딩 장치는 적어도 2개의 밝기 변화 모델의 세트로부터 밝기 변화 모델을 선택하는 선택 모듈을 더 포함한다.
바람직하게, 본 발명에 따른 코딩 방법, 코딩 및 디코딩 장치는 국부 밝기 변화의 경우에, 코딩 데이터 스트림의 주어진 비트레이트에 대하여 재구성 픽처 시퀀스의 품질을 개선할 수 있다.
또한 본 발명은 픽처 시퀀스를 나타내는 코딩 데이터의 스트림을 디코딩하는 장치에 관한 것으로, 각각의 픽처는 적어도 하나의 픽처 데이터가 각각 관련되는 픽셀의 블록으로 분할된다. 본 발명에 따른 디코딩 장치는 현재 블록에 대하여 적어도 하나의 움직임 벡터 및 잔여 데이터를 재구성하기 위한 스트림의 디코딩 모듈, 적어도 하나의 움직임 벡터로부터 예측 블록을 결정하는 움직임 보상 모듈, 및 시퀀스의 픽처 간의 밝기 변화를 나타내는 밝기 변화 모델을 고려하여 예측 블록 및 잔여 데이터로부터 현재 블록을 재구성하는 재구성 모듈을 포함한다.
디코딩 장치는 적어도 2개의 밝기 변화 모델의 세트로부터 밝기 변화 모델을 선택하는 선택 모듈을 더 포함한다.
본 발명은 추가 데이터가 적어도 2개의 밝기 변화 모델로부터 선택된 밝기 변화 모델을 고려한 시간 예측 모드에 따라 블록이 코딩되었다는 것을 나타내는 시퀀스의 슬라이스의 블록에 대하여 추가 데이터가 코딩되는 코딩 픽처 데이터 스트럭처 또는 코딩 픽처 데이터 스트림에 관한 것이다.
본 발명은 첨부된 도면을 참조하여 비제한적인 실시예 및 유리한 구현예로 더 잘 이해되고 분명해질 것이다.
도 1은 본 발명의 제1 실시예에 따라 픽처 시퀀스를 나타내는 코딩 데이터의 스트림을 디코딩하는 방법을 나타내는 도면.
도 2는 픽처 시퀀스에 속하는 현재 픽처 및 기준 픽처 뿐만 아니라 현재 픽처 내의 현재 픽처의 블록 및 기준 픽처 내의 기준 블록을 나타내는 움직임 벡터를 나타내는 도면.
도 3은 본 발명의 제2 실시예에 따라 코딩 데이터의 스트림을 디코딩하는 방법을 나타내는 도면.
도 4는 본 발명의 변형 실시예에 따라 움직임 벡터를 라운딩하는 방법을 나타내는 도면.
도 5는 블록을 서브블록으로 분할한 특별한 경우에 현재 블록 및 기준 블록의 이웃을 선택하는 방법을 나타내는 도면.
도 6은 본 발명의 제3 실시예에 따라 코딩 데이터의 스트림을 디코딩하는 방법을 나타내는 도면.
도 7은 본 발명의 제4 실시예에 따라 코딩 데이터의 스트림을 디코딩하는 방법을 나타내는 도면.
도 8은 본 발명의 제5 실시예에 따라 코딩 데이터의 스트림을 디코딩하는 방법을 나타내는 도면.
도 9는 본 발명의 제1 실시예에 따라 코딩 데이터의 스트림을 코딩하는 방법을 나타내는 도면.
도 10은 본 발명의 제2 실시예에 따라 코딩 데이터의 스트림을 코딩하는 방법을 나타내는 도면.
도 11은 본 발명의 제3 실시예에 따라 코딩 데이터의 스트림을 코딩하는 방법을 나타내는 도면.
도 12는 본 발명에 따른 코딩 장치를 나타내는 도면.
도 13은 본 발명에 따른 디코딩 시스템을 나타내는 도면.
"밝기 변화"라는 표현은 "휘도 변화", "광도 변화" 또는 "조도 변화"라는 용어로 알려져 있다. 픽처 시퀀스는 일련의 몇 개의 픽처가다. 각각의 픽처는 적어도 하나의 픽처 데이터가 관련된 픽셀 또는 픽처 포인트를 포함한다. 픽처 데이터는 예를 들어 휘도 데이터 또는 색차 데이터이다. "코딩 모드"라는 용어는 비디오 코딩 표준에 의해 허가된 코딩 모드의 세트로서 이해된다. 일반적으로, 코딩 모드는, 관련된 블록의 시간 예측은 구현하지 않지만 공간 예측을 구현하는 인트라 모드 및 관련된 블록의 시간 예측을 구현하는 인터 모드르 분류될 수 있다.
"움직임 데이터"라는 용어는 가장 넓은 의미로 이해된다. 움직임 데이터는 움직임 벡터 및 기준 픽처가 픽처 시퀀스에서 식별되도록 하는 기준 픽처 인덱스를 포함한다.
"잔여 데이터"라는 용어는 다른 데이터를 감산한 후에 얻어지는 데이터를 의미한다. 이 용어는 "잔여물"이라는 용어와 동의어이다. 잔여 블록은 잔여 데이터가 관련된 픽셀의 블록이다.
"예측 데이터"라는 용어는 다른 데이터를 예측하는데 사용되는 데이터를 의미한다. 예측 블록은 예측 데이터가 관련된 픽셀의 블록이다.
잔여 블록은 예를 들어 예측 블록과 현재 픽처 데이터 블록을 픽셀 별로 구별함으로써 얻어진다.
도 1은 본 발명의 제1 실시예에 따라 픽처 시퀀스를 나타내는 코딩 데이터(F)의 스트림을 디코딩하는 방법을 나타낸다.
단계(100)에서, 스트림(F)의 적어도 일부는 디코딩 데이터로 디코딩된다. 단계(100)는 일반적으로 이진 스트림의 엔트로피(entropy) 디코딩 단계이다. 일반적으로, 디코딩 데이터는 움직임 데이터, 변환 및 양자화 잔차 픽처 데이터(즉, 시간적 또는 공간적으로 예측됨), 또는 변환 및 양자화 픽처 데이터(즉, 예측없음) 등을 포함한다. 변형에 따르면, 움직임 데이터는 디코딩되지 않고 움직임 추정 단계에 의해 재구성된다. 디코딩 프로세스시 움직임 데이터를 재구성하는 방법은 "템플릿 매칭(template matching)"으로 알려져 있다. 이러한 방법은 스테펜 캄프(Steffen Kamp) 등의 명칭이 "Decoder Side Motion Vector Derivation"이고 ITU-T의 VCEG 그룹의 33번째 미팅시 중국 심천에서 2007년 10월 20일에 공개된 문서 VCEG-AG16에 기재되어 있다.
단계(102)에서, 밝기 변화 모델(Mi)은 단계(100)에서 디코딩된 데이터의 적어도 일부로부터 적어도 2개의 밝기 변화 모델의 세트(M={Mi}i∈[0;I-1])로부터 선택된다. 선택된 밝기 변화 모델은 모델링 에러를 최소화하는 모델이다. 이 모델링 에러는 선택된 밝기 변화 모델에 의한 대응 데이터의 필터링 후에 현재 픽처(Ic)의 미리 재구성된 픽처 데이터와 미리 재구성된 기준 픽처(Ir) 내의 대응 데이터 사이에서 산출된다. 모델링 에러는 예를 들어 평균 이차 에러(mean quadratic error)이다. 그러나, 본 발명은 평균 이차 에러로 한정되지 않는다. 변형에 따르면, 모델링 에러는 선택된 밝기 변화 모델에 의한 대응 데이터의 필터링 후에 현재 픽처(Ic)의 미리 재구성된 픽처 데이터와 미리 재구성된 기준 픽처(Ir) 내의 대응 데이터 사이에서 산출된 SAD(Sum of Absolute Difference)이다.
단계(104)에서, 픽처 데이터, 예를 들어, 픽셀의 휘도 값은 단계(102)에서 선택된 밝기 변화 모델 및 단계(100)에서 디코딩된 데이터로부터 재구성된다. 현재 픽처 내의 좌표(x, y)의 픽셀의 픽처 데이터(Ic(x, y))가 다음의 식으로부터 재구성된다.
Figure 112011059569033-pct00004
, 여기서, (mvx, mvy)는 현재 픽처 내의 좌표(x,y)의 픽셀과 관련된 움직임 벡터(MV)의 좌표이고, res(x,y)는, 현재 픽처의 좌표(x,y)의 픽셀과 관련되고 역변환 및 역양자화가 적용된 단계(100)에서 디코딩된 잔여 데이터이다.
도 2에 도시된 제2 실시예에 따르면, 픽처 시퀀스의 픽처는 픽셀 블록으로 분할된다. 도 2에서, 현재의 블록(Bc)은 현재 픽처(Ic)에 위치한다. 이 현재 블록(Bc)은 기준 픽처(Ir) 내에 위치하는 기준 블록(Br)을 가리키는 움직임 벡터(MV)와 관련된다. 현재 블록(Bc)의 이웃은 Nc이다. 이웃(Nc)은 현재 블록(Bc)에 근접하여 위치하지만 이 현재 블록(Bc)과 반드시 인접하지 않는 현재 픽처(Ic)의 픽셀을 포함한다. 마찬가지로, 기준 블록(Br)의 이웃은 Nr이다. 이웃(Nr)은 기준 블록에 근접하여 배치되지만 기준 블록(Br)에 반드시 인접하지 않는 기준 픽처(Ir)의 픽셀을 포함한다. 이 특정 실시예는 도 3을 참조하여 설명한다.
단계(300)에서, 스트림(F)의 적어도 일부가 디코딩 데이터로 디코딩된다. 단계(300)는 도 1을 참조하여 설명한 단계(100)와 동일하다.
단계(301)에서, 밝기 변화 모델이 모델의 세트(M={Mi}i∈[0;I-1])에서 식별되도록 하는 인덱스(i)가 제로로 초기화된다. 세트(M)의 각 모델(Mi)은 하나 이상의 파라미터에 의존한다.
단계(302)에서, 모델(Mi)의 파라미터(
Figure 112011059569033-pct00005
)는 현재 블록(Bc)의 이웃(Nr)의 픽셀 및 대응 픽셀 기준 픽처(Ir) 간의 평균 이차 에러(MQE)를 최소화함으로써 결정된다, 즉,
Figure 112011059569033-pct00006
.
대응 픽셀은 이웃(Nr)의 픽셀이다. 변형에 따르면, 대응 픽셀은 이웃(Nc)의 픽셀과 같은 곳에 위치하는 픽셀, 즉, 이 기준 픽처(Ir)에서 이웃(Nc)의 픽셀의 좌표와 동일한 좌표를 갖는 기준 픽처(Ir)의 픽셀이다. 이 경우에,
Figure 112011059569033-pct00007
이다.
단계(304)에서, 인덱스(i)는 I-1과 비교된다. i<I-1이면, 방법은 단계(306)로 진행하고, 그렇지 않으면, 단계(308)로 진행한다.
단계(306)에서, i는 1만큼 증가하고, 방법은 새로운 밝기 변화 모델로 단계(302)로부터 시작한다.
단계(308)에서, 세트(M)의 모든 밝기 변화 모델이 결정되면, 즉, 각각의 파라미터가 결정되면, 평균 이차 에러를 최소화하는 모델(
Figure 112011059569033-pct00008
)(
Figure 112011059569033-pct00009
)이 선택된다.
단계(310)에서, 현재 블록(Bc)의 픽처 데이터는 단계(308)에서 선택된 밝기 변화 모델(
Figure 112011059569033-pct00010
) 및 미리 재구성된 기준 블록(Br)의 픽처 데이터로부터 다음의 식에 따라 재구성된다.
Figure 112011059569033-pct00011
, 여기서, (mvx, mvy)는 현재 블록(Bc)과 관련된 움직임 벡터(MV)의 좌표이고, res(x, y)는, 현재 픽처의 좌표(x,y)의 픽셀과 관련되고 역변환 및 역양자화가 적용된 단계(100)에서 디코딩된 잔여 데이터이다.
도 4에 도시된 유리한 변형에 따르면, 움직임 벡터(MV)의 좌표는 픽셀로 라운딩된다. 이 변형은 기준 픽처 내의 이웃(Nr)의 픽셀의 보간을 피하여 모델의 파라미터를 결정하고 그 파라미터로부터 하나를 선택할 수 있다. 그러므로, 단계(302)에서, 모델의 파라미터는 다음과 같이 계산된다.
Figure 112011059569033-pct00012
여기서, rd(.)는 라운딩 함수이다.
특히 유리한 다른 변형에 따르면, 블록(Bc)이 서브블록으로 분할되면, 단계(300 내지 310)는 블록(Bc)의 서브블록마다 독립적으로 반복된다. 그러나, 이 경우 발생하는 안과관계의 문제점을 해결하기 위하여, 각 서브블록에 사용되는 이웃(Nc 및 Nr)은 모든 서브블록에 대하여 동일하며 도 5에 도시된 바와 같이 블록(Bc 및 Br)의 이웃이다. 이 변형은 특히 표준 H.264의 경우처럼 블록(Bc)의 서브블록이 블록(Bc)의 재구성 방법의 종료시에 전체적으로 재구성되는 경우에 유리하다. 블록(Bc)은 서브블록으로 분할될 수 있는 크기 16×16의 매크로블록이다. 블록(Bc)의 모든 서브블록은 시간적으로 예측하여 예측 매크로블록을 생성하고, 블록(Bc)의 잔여 블록은 스트림(F)의 일부로부터 재구성되어 예측 매크로블록에 부가된다. 그러므로, 블록(Bc)에 속하는 블록(Bc)의 서브블록의 이웃 픽셀의 픽처 데이터는 아직 재구성되지 않아 이 서브블록에 대한 밝기 변화 모델의 파라미터를 결정하는데 사용될 수 없다.
도 6에 도시된 제3 실시예에 따르면, 디코딩 방법은 스트림(F)의 적어도 일부를 디코딩 데이터로 디코딩하는 단계(600)를 포함한다. 단계(600)는 도 1을 참조하여 설명한 단계(100)와 동일하다.
단계(601)에서, 다음의 4개의 합이 계산된다.
Figure 112011059569033-pct00013
동일한 현재 블록(Bc)에 대하여 몇 개의 움직임 벡터를 테스트하면(몇 개의 세트(Nr)가 고려되는 것을 의미함), 합(S1)은 테스트된 움직임 벡터에 의존하지 않기 때문에 한번만 계산될 필요가 있다.
단계(602)에서, 모델의 세트(M)의 모델(Mi)의 각각의 파라미터(
Figure 112011059569033-pct00014
)는 이들 4개의 합으로부터 결정된다. 단계(604)에서, 세트(M)의 모든 모델이 결정되면, 즉, 이들 각각의 파라미터가 결정되면, 평균 이차 에러를 최소화하는 모델(
Figure 112011059569033-pct00015
)(
Figure 112011059569033-pct00016
)이 선택된다.
단계(606)에서, 현재 블록(Bc)의 픽처 데이터는 단계(308)에서 선택된 밝기 변화 모델 및 미리 재구성된 기준 블록(Br)의 픽처 데이터로부터 다음의 식에 따라 재구성된다.
Figure 112011059569033-pct00017
, 여기서, (mvx, mvy)는 현재 블록(Bc)과 관련된 움직임 벡터(MV)의 좌표이고, res(x, y)는, 현재 픽처의 좌표(x,y)의 픽셀과 관련되고 역변환 및 역양자화가 적용된 단계(100)에서 디코딩된 잔여 데이터이다.
제4 실시예는 도 7을 참조하여 설명한다. 본 실시예는 세트(M)가 2개의 밝기 변화 모델, 즉, 가산 밝기 변화 모델 및 승산 밝기 변화 모델을 포함하는 경우에 적용된다. 가산 모델에 따르면, 현재 블록(Bc)의 예측 데이터가 a+Ir(x+mvx,y+mvy)와 동일하고, 승산 모델에 따르면, 현재 블록(Bc)의 예측 데이터는 b*Ir(x+mvx,y+mvy)와 동일하고, 여기서, a 및 b는 승산 모델의 가산 모델의 파라미터이다.
본 실시예에 따른 방법은 스트림(F)의 적어도 일부를 디코딩 데이터로 디코딩하는 단계(700)를 포함한다. 단계(700)는 도 1을 참조하여 설명하는 단계(100)와 동일하다.
단계(701)에서, 다음의 4개의 합이 계산된다.
Figure 112011059569033-pct00018
동일한 현재 블록(Bc)에 대하여 몇 개의 움직임 벡터를 테스트하면(몇 개의 세트(Nr)가 고려되는 것을 의미함), 합(S1)은 테스트된 움직임 벡터에 의존하지 않기 때문에 한번만 계산될 필요가 있다.
단계(702)에서, 양 모델의 파라미터는 다음의 식에 따라 결정된다.
Figure 112011059569033-pct00019
, 여기서, N은 이웃(Nc 및 Nr)의 각각에서의 픽셀의 수이다.
Figure 112011059569033-pct00020
단계(702)에서, 가산 모델의 모델링 에러와 승산 모델의 모델링 에러 간의 차(Δd)는 다음의 식에 따라 계산된다.
Figure 112011059569033-pct00021
단계(704)에서, 차(Δd)는 제로 값과 비교된다. Δd>0이면, 승산 모델이 단계(706)에서 선택되고, 그렇지 않으면, 가산 모델이 단계(708)에서 선택된다.
몇 개의 움직임 벡터(MVk (k=0, 1, ..., M, M>1)가 동일한 현재 블록(Bc)에 대한 디코딩 방법 동안 테스트되면, 다음의 식에 따라 움직임 벡터에 대하여 선택된 모델에 대한 각 움직임 벡터와 관련된 에러(Ek)를 직접 계산할 수 있다.
선택된 모델이 가산 모델이면,
Figure 112011059569033-pct00022
선택된 모델이 승산 모델이면,
Figure 112011059569033-pct00023
합(
Figure 112011059569033-pct00024
)은, 테스트 움직임 벡터에 의존하지 않기 때문에, 각 테스트 움직임 벡터마다 계산되지 않고 한번만 계산되어야 한다.
단계(710)에서, 현재 블록(Bc)의 픽처 데이터는 다음의 식에 따라 단계(706 또는 708)에서 선택된 밝기 변화 모델 및 이전에 재구성된 기준 블록(Br)의 픽처 데이터로부터 재구성된다.
Figure 112011059569033-pct00025
, 여기서, (mvx, mvy)는 현재 블록(Bc)과 관련된 움직임 벡터(MV)의 좌표이다. 변형에 따라, 본 실시예는 또한 세트(M)는 다음의 모델로부터 적어도 2개의 밝기 변화 모델, 즉, 가산 밝기 변화 모델, 승산 밝기 변화 모델 및 현재 블록(Bc)의 예측 데이터가 a+Ir(x+mvx,y+mvy)+b와 동일한 정도(degree) 1의 선형 밝기 변화 모델을 포함하는 경우에 적용된다.
도 8에 도시된 제5 실시예에 따르면, 본 발명에 따른 방법은 스트림(F)의 적어도 일부를 디코딩 데이터를 디코딩하는 단계(800)를 포함한다. 단계(800)는 도 1을 참조하여 설명한 단계(100)와 동일하다. 그러나, 이 단계에서, 플래그라 불리우는 추가 데이터가 디코딩된다. 변형에서, 추가 데이터 플래그는 조직적으로 디코딩되지 않고, 미리 재구성되는 이웃 블록의 소정의 미리 정의된 코딩 모드, 예를 들어, 스킵 모드 또는 인터 16×16 모드에 대하여 추론된다. 현재 블록(Bc)의 이웃 블록은 예를 들어 현재 블록의 상부에 위치하는 블록 및 현재 블록의 좌측에 위치하는 블록을 포함한다. 예를 들어, 현재 블록(Bc)의 코딩 모드가 스킵 모드 또는 인터 16×16 모드인 경우, 현재 블록(Bc)의 상부에 위치하는 블록의 추가 데이터 플래그와 현재 블록(Bc)의 좌측에 위치하는 블록의 추가 데이터 플래그가 FL과 동일하면, 현재 블록(Bc)의 추가 데이터 플래그는 FL과 동일하고, 그렇지 않으면, 현재 블록(Bc)의 추가 데이터 플래그가 FL의 상이한 값을 갖는다. 변형에 따르면, 현재 블록(Bc)의 이웃 블록은 예를 들어, 현재 블록의 상부에 있는 블록, 현재 블록의 좌측에 위치하는 블록 및 현재 블록(Bc)의 상부 및 좌측에 위치하는 블록을 포함한다.
단계(801)에서, 디코딩되거나 추론된 플래그 데이터가 미리 정의된 값(FL)과 비교된다. 플래그가 FL과 동일하지 않으면, 현재 블록의 픽처 데이터가 단계(802)에서 스트림(F)으로부터 디코딩된 데이터의 적어도 일부로부터 재구성된다. 단계(802)에 따른 블록(Bc)의 재구성은 표준 재구성 단계, 즉, 밝기 변화 모델의 선택 단계를 구현할 수 없는 단계이다. 특정 실시예에 따르면, FL=0이다. 변형에 따르면, FL=1이다.
플래그가 FL과 동일하면, 단계(804)에서, 밝기 변화 모델(Mi)은 도 1 내지 6을 참조하여 설명한 실시예 중의 하나에 따라 디코딩 데이터로부터 또는 그의 적어도 일부로부터의 적어도 2개의 밝기 변화 모델의 세트(M={Mi}i∈[0;I-1])로부터 선택된다.
단계(806)에서, 픽셀 데이터, 예를 들어, 픽셀의 휘도 값은 단계(804)에서 선택된 밝기 변화 모델 및 단계(800)에서 디코딩된 데이터로부터 재구성된다. 현재 블록(Bc)의 픽처 데이터(Bc(x, y))는 다음의 식으로부터 재구성되며, 여기서, (x,y)는 픽처 내의 픽셀의 좌표를 나타낸다.
Figure 112011059569033-pct00026
, 여기서, (mvx, mvy)는 현재 블록(Bc)과 관련된 움직임 벡터(MV)의 좌표이다.
도 8을 참조하여 설명하는 실시예는 밝기 변화 모델의 선택과 관련하여 도 1 내지 도 8을 참조하여 설명한 실시예 중의 임의의 것과 결합할 수 있다.
본 발명은 또한 픽처 시퀀스를 코딩하는 방법에 관한 것이다. 제1 실시예는 도 9를 참조하여 설명한다.
단계(900)에서, 밝기 모델(
Figure 112011059569033-pct00027
)이 도 1 내지 7을 참조하여 설명한 디코딩 방법의 실시예(단계 102, 301 내지 308, 602 내지 604 또는 701 내지 708) 중의 하나에 따라 적어도 2개의 밝기 모델의 세트(M)에서 블록(Bc)에 대하여 선택된다.
단계(902)에서, 이전에 결정된 기준 블록(Br)과 단계(900)에서 선택된 밝기 변화 모델(
Figure 112011059569033-pct00028
)로부터 현재 블록(Bc)에 대하여 예측 블록(Bpred)이 생성된다. 예측 블록(Bpred)은 다음과 같이 정의된다.
Figure 112011059569033-pct00029
, 여기서, (mvx, mvy)는 현재 블록(Bc)과 관련된 움직임 벡터(MV)의 좌표이다.
단계(904)에서, 현재 블록(Bc)과 예측 블록(Bpred) 간의 픽셀 대 픽셀 차가 코딩된다. 엔트로피 코딩 단계에 더하여, 코딩 단계는 변환 단계, 예를 들어, 이들 단계가 필요하다면, DCT(discrete cosine transform) 및 양자화를 포함한다.
도 10을 참조하여 제2 실시예를 설명한다. 단계(1000)에서, 코딩될 현재 블록(Bc)에 대하여 적어도 하나의 움직임 벡터가 결정된다. 특정 실시예에 따르면, 움직임 추정 단계(1000)에서, 현재 블록(Bc)에 대하여, 파라미터(a)에 의해 가중되고 벡터에 의해 식별된 기준 픽처 내의 블록(Br) 및 현재 블록(Bc) 간의 에러, 즉, Err(Bc(x, y), a+Br(x+mvx,y+mvy))를 최소화하는 방식으로 움직임 벡터 및 파라미터(a)가 결정되는 가산 밝기 변화 모델만이 고려된다. 변형에 따르면, 세트(M)의 밝기 변화 모델의 전체를 고려한다. 이 경우, 현재 블록(Bc) 및 세트(M)의 각 밝기 변화 모델(
Figure 112011059569033-pct00030
)에 대하여, 움직임 벡터(MV(mvx, mvy) 및 파라미터(
Figure 112011059569033-pct00031
)의 최적 세트는 관련 파라미터 세트를 갖는 모델에 의해 가중되고 벡터에 의해 식별되는 기준 픽처 내의 블록(Br) 및 현재 블록(Bc) 간의 에러, 즉,
Figure 112011059569033-pct00032
를 최소화하는 방식으로 결정된다.
단계(1002)에서, 움직임 보상 블록(Br)은 단계(1000)에서 결정된 움직임 벡터 또는 벡터들 및 기준 픽처(Ir)로부터 결정된다. 이 단계에서, 픽처(Ir)의 픽셀의 보간은 움직임 벡터(MV)가 비정수(non-integer) 좌표를 갖는 경우에 특히 필요할 수 있다.
단계(1004)에서, 밝기 변화 모델(
Figure 112011059569033-pct00033
)이 도 1 내지 7을 참조하여 설명한 디코딩 방법의 실시예(단계 102, 301 내지 308, 602 내지 604 또는 701 내지 708) 중의 하나에 따라 적어도 2개의 밝기 변화 모델의 세트(M) 내의 현재 블록(Bc)에 대하여 선택된다.
단계(1006)에서, 예측 블록(Bpred)이 다음의 방식으로 단계(1002)에서 결정된 움직임 보상 블록(Br(x+mvx,y+mvy) 및 단계(1004)에서 선택된 밝기 변화 모델로부터 현재 블록(Bc)에 대하여 생성된다.
Figure 112011059569033-pct00034
단계(1008)에서, 현재 블록(Bc)으로부터 픽셀별 예측 블록(Bpred)을 감산함으로써 잔여 블록이 생성된다. 이 잔여 블록이 단계(1010)에서 코딩 데이터의 스트림(F)으로 디코딩된다. 단계(1008)는 일반적으로 변환 단계를 구현하고 그 후 잔차 픽처 데이터의 양자화 단계를 수행한다.
제3 실시예는 도 11을 참조하여 설명한다.
단계(1100)에서, 예를 들어 비트레이트 왜곡 타입 기준에 따라 현재 블록(Bc)에 대하여 코딩 모드가 결정된다.
단계(1102)에서, 선택된 코딩 모드가 인터 모드인지를 결정한다. 인터 모드가 아니면, 단계(1104)에서, 블록(Bc)이 시간 예측없이, 표준 H.264의 경우에서처럼 공간 예측으로, 인트라 코딩 모드에 따라 코딩된다.
선택된 코딩 모드가 인터 모드이면, 방법은 단계(1106)로 진행한다. 선택된 코딩 모드가 밝기 변화 모델을 고려한 모드인지를 결정한다. 밝기 변화 모델을 고려하지 않으면, 방법은 단계(1108)로 진행하고, 블록(Bc)이 표준 인터 모드에 따라, 즉, 밝기 변화 모델에 의한 예측 블록(Bpred)의 가중치 없이, 코딩된다.
반대로, 선택된 코딩 모드가 밝기 변화 모델을 고려한 모드이면, 방법은 단계(1110)로 진행한다. 단계(1110)에서, 모델의 세트의 모델(Mi)의 각각의 파라미터(
Figure 112011059569033-pct00035
)가 결정된다.
단계(1112)에서, 세트(M)의 모든 모델이 결정되면, 즉, 각각의 파라미터가 결정되면, 평균 이차 에러를 최소화하는 모델(
Figure 112011059569033-pct00036
)(
Figure 112011059569033-pct00037
)이 선택된다.
단계(1114)에서, 예측 블록(Bpred)이 다음의 방식으로 선택된 밝기 변화 모델 및 움직임 보상 블록(Br(x+mvx,y+mvy)으로부터 현재 블록(Bc)에 대하여 생성된다.
Figure 112011059569033-pct00038
단계(1112 및 1114)는 단계(1004)와 동등하다.
단계(1116)에서, 현재 블록(Bc)이 코딩된다, 즉, 변환 및 양자화 후에 단계(1112)에서 선택된 모델에 의해 가중된 예측 블록(Bpred)과 블록(Bc) 간의 차가 코딩된다.
본 발명은 또한 도 12를 참조하여 설명하는 코딩 장치(12)에 관한 것이다. 코딩 장치(12)는 픽처 시퀀스에 속하는 픽처(I)를 입력에서 수신한다. 각각의 픽처는 적어도 하나의 픽처 데이터가 관련된 픽셀의 블록으로 분할된다. 코딩 장치(12)는 시간 예측으로 코딩을 구현한다. 시간 예측 또는 인터 코딩에 의한 코딩에 관한 코딩 장치(12)의 모듈만이 도 12에 도시된다. 도시되지 않고 비디오 코더 기술에서 당업자에게 공지된 다른 모듈은 공간 예측으로 또는 공간 예측 없이 인트라 코딩을 구현한다. 코딩 장치(12)는 현재 블록(Bc)으로부터 픽셀별 예측 블록(Bpred)를 감산하여 잔차 픽처 데이터 블록 또는 잔여 블록(res)을 생성할 수 있는 계산 모듈(1200)을 포함한다. 코딩 장치는 잔여 블록(res)을 변환 및 양자화하여 양자화된 데이터를 생성하는 모듈(1202)을 더 포함한다. 변환(T)은 예를 들어, DCT이다. 코딩 모듈(12)은 양자화 데이터를 코딩 데이터의 스트림(F)으로 코딩할 수 있는 엔트로피 코딩 모듈(1204)을 더 포함한다. 코딩 장치는 모듈(1202)의 역 동작을 수행하는 모듈(1206)을 더 포함한다. 모듈(1206)은 역양자화(Q-1) 및 역변환(T-1)을 수행한다. 모듈(1206)은 모듈(1206)로부터의 블록 및 예측 블록(Bpred)을 픽셀별로 가산하여 메모리(1210)에 저장된 재구성 픽처 데이터의 블록을 생성할 수 있는 산출 모듈(1208)에 접속된다.
코딩 장치(12)는 블록(Bc) 및 메모리(1210)에 저장된 기준 픽처(Ir)의 블록 간의 적어도 하나의 움직임 벡터를 추정할 수 있는 움직임 추정 모듈(1212)을 더 포함하고, 이 픽처는 미리 코딩되어 재구성된다. 변형에 따르면, 움직임 추정은 현재 블록(Bc)과 본래의 기준 블록(Ic) 사이에서 수행될 수 있으며, 이 경우, 메모리(1210)는 움직임 추정 모듈(1212)에 접속되지 않는다. 당업자에 잘 알려진 방법에 따르면, 움직임 추정 모듈은 움직임 벡터에 의해 식별된 기준 픽처(Ir) 내의 블록 및 현재 블록(Bc) 사이에서 계산된 에러를 최소화하는 방식으로 움직임 벡터에 대하여 기준 픽처(Ir)를 탐색한다. 본 발명에 따르면, 움직임 추정 모듈(1212)은 밝기 변화 모델을 고려하기에 적합하다. 특정한 실시예에 따라, 움직임 추정 단계(1212)는 가산 밝기 변화 모델을 고려한다, 즉, 모듈은, 현재 블록(Bc)에 대하여, 파라미터(a)에 의해 가중되고 움직임 벡터(MV(mvx, mvy))에 의해 메모리(1210)에 저장된 기준 픽처(Ir)에서 식별된 블록(Br) 및 현재 블록 간의 에러, 즉, Err(Bc(x,y), a+Br(x+mvx,y+mvy))를 최소화하는 방식으로 움직임 벡터 및 파라미터(a)를 결정한다. 변형에 따르면, 움직임 추정 모듈(1212)은 세트(M)의 밝기 변화 모듈 모두를 고려한다. 이 경우, 움직임 추정 모듈(1212)은, 현재의 블록(Bc) 및 세트(M)의 각각의 밝기 변화 모델(Mi)에 대하여, 관련 파라미터 세트를 갖는 모델에 의해 가중되고 벡터에 의해 식별된 기준 픽처 내의 블록 및 현재 블록 간의 에러, 즉, Err(Bc(x,y), Mi(mi,Br(x+mvx,y+mvy)))를 최소화하는 방식으로 움직임 벡터(mvx, mvy) 및 파라미터(
Figure 112011059569033-pct00039
)의 최적 세트를 결정한다. 움직임 추정 모듈(1212)은 또한 밝기 변화 모델을 고려하지 않고 움직임 벡터를 결정할 수 있다.
밝기 변화 모델에 의한 가중으로 또는 가중 없이 결정된 움직임 데이터는 움직임 추정 모듈(1212)에 의해 코딩 모드의 미리 정의된 세트 내에서 블록(Bc)에 대한 코딩 모드를 선택할 수 있는 결정 모듈(1214)로 전송된다. 선택된 코딩 모드는 예를 들어 비트레이트 왜곡 타입 기준을 최소화하는 모드이다. 그러나, 본 발명은 이 선택 방법에 제한되지 않고 선택된 모드는 다른 기준, 예를 들어, 연역적인 타입 기준에 따라 선택될 수 있다. 결정 모듈(1214)에 의해 선택된 코딩 모드 뿐만 아니라 움직임 데이터, 예를 들어, 시간 예측 모드 또는 인터 모드의 경우 움직임 벡터 또는 벡터들이 움직임 보상 모듈(1216)로 전송된다. 움직임 벡터 또는 벡터들 및 선택된 코딩 모드는 엔트로피 코딩 모듈로 전송되어 스트림(F) 내에서 코딩된다. 움직임 보상 모듈(1216)은 미리 재구성되어 메모리(1210)에 저장된 기준 픽처(Ir) 내에서 움직임 추정 모듈(1212)에 의해 결정된 움직임 벡터로부터 및 결정 모듈(1214)에 의해 결정된 코딩 모드로부터의 예측 블록(Bpred)을 결정한다. 결정 모듈(1214)에 의해 선택된 코딩 모드가 밝기 변화 모델을 인식하지 않는 인터 코딩 모드인 경우, 스위치(S)는 위치(S0)로 설정된다. 결정 모듈(1214)에 의해 선택된 코딩 모드가 밝기 변화 모델을 인식하는 인터 코딩 모드인 경우, 스위치(S)는 위치(S1)로 설정된다.
스위치가 위치(S1)에 있으면, 예측 블록(Bpred)은 선택 모듈(1218)에 의해 적어도 2개의 모델의 세트로부터 선택된 밝기 변화 모델에 의해 가중된다. 선택 모듈(1218)은 도 1 내지 7과 관련하여 상술한 실시예(단계 102, 301 내지 308, 602 내지 604 또는 701 내지 708) 중의 하나에 따라 밝기 변화 모델의 선택 단계를 구현한다.
모듈(1200, 1202, 1204, 1206, 1210 및 1214)은 코딩 모듈이라 불리우는 모듈 그룹을 형성한다. 코딩 모듈은 시퀀스의 픽처 간의 밝기 변화를 나타내는 밝기 변화 모델을 고려하여 현재 블록과 예측 블록간의 차를 코딩할 수 있다.
본 발명은 도 13을 참조하여 설명하는 디코딩 장치(13)에 관한 것이다. 디코딩 장치(13)는 픽처 시퀀스를 나타내는 코딩 데이터의 스트림(F)을 입력에서 수신한다. 스트림(F)은 예를 들어 코딩 장치(12)에 의해 전송된다. 디코딩 장치(13)는 디코딩 데이터, 예를 들어, 코딩 모드 및 픽처의 콘텐츠에 관련된 디코딩 데이터, 즉, 잔여 데이터를 생성할 수 있는 엔트로피 디코딩 모듈(1300)을 포함한다.
디코딩 장치(13)는 움직임 데이터 재구성 모듈을 더 포함한다. 제1 실시예에 따르면, 움직임 데이터 재구성 모듈은 움직임 벡터를 나타내는 스트림(F)의 일부를 디코딩하는 엔트로피 디코딩 모듈(1300)이다.
도 13에 도시되지 않은 변형에 따르면, 움직임 데이터 재구성 모듈은 움직임 추정 모듈이다. 디코딩 장치(13)에 의해 움직임 데이터를 재구성하는 이 솔루션은 "템플릿 매칭"으로 공지되어 있다.
픽처의 콘텐츠에 관한 디코딩 데이터는 역양자화를 수행한 후에 역변환을 수행할 수 있는 모듈(1302)로 전송된다. 모듈(1302)은 코딩 스트림(F)을 생성하는 코딩 모듈(12)의 모듈(1202)과 동일하다. 모듈(1302)은 모듈(1302)로부터의 블록 및 예측 블록(Bpred)을 픽셀별로 가산하여 메모리(1306)에 저장된 재구성 픽처 데이터의 블록을 생성할 수 있는 계산 모듈(1304)에 접속된다. 디코딩 장치(13)는 코딩 장치(12)의 모듈(1216)과 동일한 움직임 보상 모듈(1308)을 더 포함한다. 움직임 보상 모듈(1308)은, 미리 재구성되어 메모리(1306)에 저장된 기준 픽처(Ir)에서, 움직임 벡터(MV)로부터의 예측 블록(Bpred) 및 엔트로피 디코딩 모듈(1300)에 의한 현재 블록(Bc)에 대한 디코딩된 코딩 모드를 결정한다. 디코딩된 코딩 모드가 밝기 변화 모드를 인식하지 않는 인터 코딩 모드이면, 스위치(S)는 위치(S0)로 설정된다.
코딩 모드가 밝기 변화 모델을 인식하는 인터 코딩 모드이면, 스위치(S)는 위치(S1)로 설정된다.
스위치가 위치(S1)에 있으면, 예측 블록(Bpred)은 선택 모듈(1310)에 의해 적어도 2개의 모델의 세트로부터 선택된 밝기 변화 모델에 의해 가중된다. 선택 모듈(1310)은 선택 모듈(1218)과 동일하다.
모듈(1302, 1304, 1306)은 재구성 모듈이라 불리우는 모듈 그룹을 형성한다. 재구성 모듈은 시퀀스의 픽처 간의 밝기 변화를 나타내는 밝기 변화 모델을 고려하여 예측 블록과 잔여 데이터로부터 현재 블록을 재구성할 수 있다.
본 발명은 또한 코딩 데이터의 스트림(F) 또는 코딩 픽처 데이터 스트럭처에 관한 것이며, 추가 데이터는 적어도 2개의 밝기 변화 모델의 세트로부터 선택된 밝기 변화 모델을 고려한 시간 예측 모드에 따라 블록이 코딩되는지를 나타내는 인터 모드에서 코딩된 각 블록에 대하여 코딩된다. 변형에 따르면, 이 추가 데이터는 하나 이상의 특정한 미리 정의된 모드에 따라, 예를 들어, 스킵 모드에 따라, 또는 인터 16×16 모드에 따라 코딩된 블록을 제외하고 인터 모드로 코딩된 각각의 블록에 대하여 코딩된다. 이들 특정 모드 중의 하나에 따라 코딩된 블록의 특정한 경우에, 이 추가 데이터는 스트림 내에 명시적으로 코딩되지 않고 이들 특정 모드 중의 하나에 따라 코딩 블록의 이웃 블록의 추가 데이터로부터 코딩 장치 내에서 추론된다.
본 발명은 상술한 실시예에 한정되지 않는다.
특히, 당업자는 임의의 변형을 상기 실시예에 적용할 수 있고 다양한 이점으로부터의 이득에 이들을 결합할 수 있다. 도 8을 참조하여 설명하는 실시예는 밝기 변화 모델의 선택과 관련하여 도 1 내지 8을 참조하여 설명하는 실시예의 임의의 것과 결합될 수 있다.

Claims (26)

  1. 픽처들의 시퀀스를 나타내는 코딩된 데이터 스트림(F)을 디코딩하는 방법으로서 - 상기 픽처들은 각각이 적어도 하나의 픽처 데이터와 관련되는 픽셀들의 블록들로 분할됨 -,
    현재 픽처의 현재 블록의 픽처 데이터를 나타내는 상기 스트림의 적어도 한 부분을 디코딩된 데이터가 되도록 디코딩하는 단계(600, 700);
    적어도 2개의 밝기 변화 모델(brightness variation model)의 세트로부터 적어도 하나의 밝기 변화 모델을 선택하는 단계(604, 706, 708) - 상기 밝기 변화 모델의 세트는 적어도 가산 밝기 변화 모델 및 승산 밝기 변화 모델을 포함함 -; 및
    상기 선택된 밝기 변화 모델을 고려하여 상기 디코딩된 데이터로부터 기준 픽처의 기준 블록으로부터의 상기 현재 블록의 상기 픽처 데이터를 재구성하는 단계(606, 710)
    를 포함하고,
    상기 선택하는 단계(604, 706, 708)는,
    상기 현재 블록의 이웃 픽셀들의 미리 재구성된 픽처 데이터의 제1 합(S1)을 계산하는 단계,
    상기 현재 블록의 이웃 픽셀들과 대응되는 위치에 있는 상기 기준 픽처 내의 대응 픽셀들의 픽처 데이터의 제2 합(S2)을 계산하는 단계,
    상기 현재 블록의 이웃 픽셀들과 대응되는 위치에 있는 상기 기준 픽처 내의 대응 픽셀들의 제곱 픽처 데이터(squared picture data)의 제3 합(S3)을 계산하는 단계, 및
    상기 현재 블록의 이웃 픽셀들의 미리 재구성된 픽처 데이터와 상기 현재 블록의 이웃 픽셀들과 대응되는 위치에 있는 상기 기준 픽처 내의 대응 픽셀들의 픽처 데이터의 곱들의 제4 합(S4)을 계산하는 단계를 포함하고,
    Δd가 양이면 상기 승산 밝기 변화 모델이 선택되고, 그렇지 않으면 상기 가산 밝기 변화 모델이 선택되고, 여기서,
    Figure 112016067923996-pct00056
    이고,
    Figure 112016067923996-pct00057
    는 상기 승산 밝기 변화 모델의 파라미터이고 상기 제4 합을 상기 제3 합으로 나눔으로써 계산되고,
    Figure 112016067923996-pct00058
    는 상기 가산 밝기 변화 모델의 파라미터이고 상기 현재 블록의 이웃 픽셀들의 수로 나누어진 상기 제1 합과 상기 제2 합 간의 차인 것으로서 계산되고, S3은 상기 제3 합이고, S4는 상기 제4 합이고, N은 상기 현재 블록의 이웃 픽셀들의 수인, 디코딩 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 제1항에 있어서, 적어도 2개의 밝기 변화 모델의 세트로부터 선택된 밝기 변화 모델을 고려한 시간 예측 모드에 따라 제1 블록이 시간적으로 예측되는지를 상기 제1 블록에 대하여 나타내는 추가 데이터(플래그)를 디코딩하는 단계를 포함하는 디코딩 방법.
  7. 제6항에 있어서, 제2 블록이 미리 정의된 코딩 모드에 따라 코딩될 때, 미리 재구성된 이웃 블록들과 관련된 추가 데이터의 값으로부터 상기 제2 블록에 대한 추가 데이터(플래그)를 결정하는 단계를 포함하는 디코딩 방법.
  8. 픽처들의 시퀀스를 코딩하는 방법으로서 - 상기 픽처들은 각각이 적어도 하나의 픽처 데이터와 관련되는 픽셀들의 블록들로 분할됨 -,
    적어도 2개의 밝기 변화 모델의 세트로부터 적어도 하나의 밝기 변화 모델을 선택하는 단계(604, 706, 708) - 상기 밝기 변화 모델의 세트는 적어도 가산 밝기 변화 모델 및 승산 밝기 변화 모델을 포함함 -;
    상기 선택된 밝기 변화 모델을 고려하여 기준 픽처에 속하는 기준 블록으로부터 현재 픽처에 속하는 현재 블록의 픽처 데이터를 시간적으로 예측하는 단계(902); 및
    상기 예측된 픽처 데이터를 코딩하는 단계(904)
    를 포함하고,
    상기 선택하는 단계(900, 604, 706, 708)는,
    상기 현재 블록의 이웃 픽셀들의 미리 재구성된 픽처 데이터의 제1 합(S1)을 계산하는 단계,
    상기 현재 블록의 이웃 픽셀들과 대응되는 위치에 있는 상기 기준 픽처 내의 대응 픽셀들의 픽처 데이터의 제2 합(S2)을 계산하는 단계,
    상기 현재 블록의 이웃 픽셀들과 대응되는 위치에 있는 상기 기준 픽처 내의 대응 픽셀들의 제곱 픽처 데이터의 제3 합(S3)을 계산하는 단계, 및
    상기 현재 블록의 이웃 픽셀들의 미리 재구성된 픽처 데이터와 상기 현재 블록의 이웃 픽셀들과 대응되는 위치에 있는 상기 기준 픽처 내의 대응 픽셀들의 픽처 데이터의 곱들의 제4 합(S4)을 계산하는 단계를 포함하고,
    Δd가 양이면 상기 승산 밝기 변화 모델이 선택되고, 그렇지 않으면 상기 가산 밝기 변화 모델이 선택되고, 여기서,
    Figure 112016067923996-pct00059
    이고,
    Figure 112016067923996-pct00060
    는 상기 승산 밝기 변화 모델의 파라미터이고 상기 제4 합을 상기 제3 합으로 나눔으로써 계산되고,
    Figure 112016067923996-pct00061
    는 상기 가산 밝기 변화 모델의 파라미터이고 상기 현재 블록의 이웃 픽셀들의 수로 나누어진 상기 제1 합과 상기 제2 합 간의 차인 것으로서 계산되고, S3은 상기 제3 합이고, S4는 상기 제4 합이고, N은 상기 현재 블록의 이웃 픽셀들의 수인, 코딩 방법.
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
  13. 제8항에 있어서, 적어도 2개의 밝기 변화 모델의 세트로부터 선택된 밝기 변화 모델을 고려한 시간 예측 모드에 따라 제1 블록이 시간적으로 예측되는지를 상기 제1 블록에 대하여 나타내는 추가 데이터(플래그)를 코딩하는 단계를 포함하는 코딩 방법.
  14. 픽처들의 시퀀스를 나타내는 코딩된 데이터 스트림(F)의 디코딩 장치로서 - 상기 픽처들은 각각이 적어도 하나의 픽처 데이터와 관련되는 픽셀들의 블록들로 분할됨 -,
    현재 픽처의 현재 블록의 픽처 데이터를 나타내는 상기 스트림의 적어도 한 부분을 디코딩된 데이터가 되도록 디코딩하기 위한 수단;
    적어도 2개의 밝기 변화 모델의 세트로부터 적어도 하나의 밝기 변화 모델을 선택하기 위한 수단 - 상기 밝기 변화 모델의 세트는 적어도 가산 밝기 변화 모델 및 승산 밝기 변화 모델을 포함함 -; 및
    상기 선택된 밝기 변화 모델을 고려하여 상기 디코딩된 데이터로부터 기준 픽처의 기준 블록으로부터의 상기 현재 블록의 상기 픽처 데이터를 재구성하기 위한 수단
    을 포함하며,
    상기 선택하기 위한 수단은,
    상기 현재 블록의 이웃 픽셀들의 미리 재구성된 픽처 데이터의 제1 합(S1)을 계산하고,
    상기 현재 블록의 이웃 픽셀들과 대응되는 위치에 있는 상기 기준 픽처 내의 대응 픽셀들의 픽처 데이터의 제2 합(S2)을 계산하고,
    상기 현재 블록의 이웃 픽셀들과 대응되는 위치에 있는 상기 기준 픽처 내의 대응 픽셀들의 제곱 픽처 데이터의 제3 합(S3)을 계산하며,
    상기 현재 블록의 이웃 픽셀들의 미리 재구성된 픽처 데이터와 상기 현재 블록의 이웃 픽셀들과 대응되는 위치에 있는 상기 기준 픽처 내의 대응 픽셀들의 픽처 데이터의 곱들의 제4 합(S4)을 계산하도록 구성되고,
    Δd가 양이면 상기 승산 밝기 변화 모델이 선택되고, 그렇지 않으면 상기 가산 밝기 변화 모델이 선택되고, 여기서,
    Figure 112016067923996-pct00062
    이고,
    Figure 112016067923996-pct00063
    는 상기 승산 밝기 변화 모델의 파라미터이고 상기 제4 합을 상기 제3 합으로 나눔으로써 계산되고,
    Figure 112016067923996-pct00064
    는 상기 가산 밝기 변화 모델의 파라미터이고 상기 현재 블록의 이웃 픽셀들의 수로 나누어진 상기 제1 합과 상기 제2 합 간의 차인 것으로서 계산되고, S3은 상기 제3 합이고, S4는 상기 제4 합이고, N은 상기 현재 블록의 이웃 픽셀들의 수인, 디코딩 장치.
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 제14항에 있어서, 적어도 2개의 밝기 변화 모델의 세트로부터 선택된 밝기 변화 모델을 고려한 시간 예측 모드에 따라 제1 블록이 시간적으로 예측되는지를 상기 제1 블록에 대하여 나타내는 추가 데이터(플래그)를 디코딩하도록 또한 구성되는 디코딩 장치.
  20. 제19항에 있어서, 제2 블록이 미리 정의된 코딩 모드에 따라 코딩될 때, 미리 재구성된 이웃 블록들과 관련된 추가 데이터의 값으로부터 상기 제2 블록에 대한 추가 데이터(플래그)를 결정하도록 또한 구성되는 디코딩 장치.
  21. 픽처들의 시퀀스의 코딩 장치로서 - 상기 픽처들은 각각이 적어도 하나의 픽처 데이터와 관련되는 픽셀들의 블록들로 분할됨 -,
    적어도 2개의 밝기 변화 모델의 세트로부터 적어도 하나의 밝기 변화 모델을 선택하기 위한 수단 - 상기 밝기 변화 모델의 세트는 적어도 가산 밝기 변화 모델 및 승산 밝기 변화 모델을 포함함 -;
    상기 선택된 밝기 변화 모델을 고려하여 기준 픽처에 속하는 기준 블록으로부터 현재 픽처에 속하는 현재 블록의 픽처 데이터를 시간적으로 예측하기 위한 수단; 및
    상기 예측된 픽처 데이터를 코딩하기 위한 수단
    을 포함하고,
    상기 선택하기 위한 수단은
    상기 현재 블록의 이웃 픽셀들의 미리 재구성된 픽처 데이터의 제1 합(S1)을 계산하고,
    상기 현재 블록의 이웃 픽셀들과 대응되는 위치에 있는 상기 기준 픽처 내의 대응 픽셀들의 픽처 데이터의 제2 합(S2)을 계산하고,
    상기 현재 블록의 이웃 픽셀들과 대응되는 위치에 있는 상기 기준 픽처 내의 대응 픽셀들의 제곱 픽처 데이터의 제3 합(S3)을 계산하며,
    상기 현재 블록의 이웃 픽셀들의 미리 재구성된 픽처 데이터와 상기 현재 블록의 이웃 픽셀들과 대응되는 위치에 있는 상기 기준 픽처 내의 대응 픽셀들의 픽처 데이터의 곱들의 제4 합(S4)을 계산하도록 구성되고,
    Δd가 양이면 상기 승산 밝기 변화 모델이 선택되고, 그렇지 않으면 상기 가산 밝기 변화 모델이 선택되고, 여기서,
    Figure 112016067923996-pct00065
    이고,
    Figure 112016067923996-pct00066
    는 상기 승산 밝기 변화 모델의 파라미터이고 상기 제4 합을 상기 제3 합으로 나눔으로써 계산되고,
    Figure 112016067923996-pct00067
    는 상기 가산 밝기 변화 모델의 파라미터이고 상기 현재 블록의 이웃 픽셀들의 수로 나누어진 상기 제1 합과 상기 제2 합 간의 차인 것으로서 계산되고, S3은 상기 제3 합이고, S4는 상기 제4 합이고, N은 상기 현재 블록의 이웃 픽셀들의 수인, 코딩 장치.
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 제21항에 있어서, 적어도 2개의 밝기 변화 모델의 세트로부터 선택된 밝기 변화 모델을 고려한 시간 예측 모드에 따라 제1 블록이 시간적으로 예측되는지를 상기 제1 블록에 대하여 나타내는 추가 데이터(플래그)를 인코딩하도록 또한 구성되는 코딩 장치.
KR1020117018060A 2009-02-02 2010-01-29 픽처 시퀀스를 나타내는 스트림을 디코딩하는 방법, 픽처 시퀀스를 코딩하는 방법, 및 코딩 데이터 스트럭처 KR101670532B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR0950641 2009-02-02
FR0950641 2009-02-02
PCT/EP2010/051041 WO2010086393A1 (en) 2009-02-02 2010-01-29 Method for decoding a stream representative of a sequence of pictures, method for coding a sequence of pictures and coded data structure

Publications (2)

Publication Number Publication Date
KR20110107829A KR20110107829A (ko) 2011-10-04
KR101670532B1 true KR101670532B1 (ko) 2016-10-28

Family

ID=41110666

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117018060A KR101670532B1 (ko) 2009-02-02 2010-01-29 픽처 시퀀스를 나타내는 스트림을 디코딩하는 방법, 픽처 시퀀스를 코딩하는 방법, 및 코딩 데이터 스트럭처

Country Status (7)

Country Link
US (1) US9232223B2 (ko)
EP (1) EP2392140B1 (ko)
JP (1) JP5490823B2 (ko)
KR (1) KR101670532B1 (ko)
CN (1) CN102301716B (ko)
TW (1) TWI498003B (ko)
WO (1) WO2010086393A1 (ko)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2948845A1 (fr) 2009-07-30 2011-02-04 Thomson Licensing Procede de decodage d'un flux representatif d'une sequence d'images et procede de codage d'une sequence d'images
KR101058726B1 (ko) * 2009-11-11 2011-08-22 삼성전자주식회사 조명 성분을 제거하기 위한 이미지 보정 장치 및 방법
KR102006443B1 (ko) * 2010-09-30 2019-08-02 한국전자통신연구원 오차 보상을 이용한 영상 부호화/복호화 방법 및 장치
US9161041B2 (en) 2011-01-09 2015-10-13 Mediatek Inc. Apparatus and method of efficient sample adaptive offset
US8792549B2 (en) * 2011-02-28 2014-07-29 Sony Corporation Decoder-derived geometric transformations for motion compensated inter prediction
JP5717886B2 (ja) * 2011-03-09 2015-05-13 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft デジタル画像のシーケンスを符号化する方法
JP5938424B2 (ja) 2011-03-14 2016-06-22 トムソン ライセンシングThomson Licensing 画像ブロックを再構成および符号化する方法
KR102103682B1 (ko) * 2011-06-30 2020-04-22 가부시키가이샤 제이브이씨 켄우드 화상 부호화 장치, 화상 부호화 방법, 화상 부호화 프로그램, 화상 복호 장치, 화상 복호 방법 및 화상 복호 프로그램
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
US8824011B2 (en) * 2012-06-01 2014-09-02 Oce-Technologies B.V. Method for processing rasterized image data
EP2683165B1 (en) * 2012-07-04 2015-10-14 Thomson Licensing Method for coding and decoding a block of pixels from a motion model
WO2014078068A1 (en) 2012-11-13 2014-05-22 Intel Corporation Content adaptive transform coding for next generation video
BR112015015575A2 (pt) 2013-01-30 2020-02-04 Intel Corp particionamento adaptativo ao conteúdo para a previsão e codificação para vídeo da próxima geração
TWI511530B (zh) * 2014-12-09 2015-12-01 Univ Nat Kaohsiung 1St Univ Sc Distributed video coding system and decoder for distributed video coding system
CN106358041B (zh) * 2016-08-30 2019-05-10 北京奇艺世纪科技有限公司 一种帧间预测编码方法及装置
US10880570B2 (en) * 2016-10-05 2020-12-29 Qualcomm Incorporated Systems and methods of adaptively determining template size for illumination compensation
WO2020228764A1 (en) * 2019-05-14 2020-11-19 Beijing Bytedance Network Technology Co., Ltd. Methods on scaling in video coding
CN113422959A (zh) * 2021-05-31 2021-09-21 浙江智慧视频安防创新中心有限公司 视频编解码的方法、装置、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070147507A1 (en) 2002-04-10 2007-06-28 Shinichiro Koto Video encoding method and apparatus and video decoding method and apparatus

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6041145A (en) * 1995-11-02 2000-03-21 Matsushita Electric Industrial Co., Ltd. Device and method for smoothing picture signal, device and method for encoding picture and device and method for decoding picture
US7010047B2 (en) 2002-10-11 2006-03-07 Ub Video Inc. Global brightness change compensation system and method
IL157787A (en) * 2003-09-07 2010-12-30 Mosaid Technologies Inc Modular outlet for data communications network
MXPA06002210A (es) * 2003-08-26 2006-05-19 Thomson Licensing Metodo y aparato para la decodificacion de bloques intra-inter codificados hibridos.
US8284837B2 (en) * 2004-09-16 2012-10-09 Thomson Licensing Video codec with weighted prediction utilizing local brightness variation
KR100763182B1 (ko) * 2005-05-02 2007-10-05 삼성전자주식회사 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
US8457203B2 (en) 2005-05-26 2013-06-04 Ntt Docomo, Inc. Method and apparatus for coding motion and prediction weighting parameters
KR100750136B1 (ko) * 2005-11-02 2007-08-21 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
WO2007094792A1 (en) 2006-02-17 2007-08-23 Thomson Licensing Localized weighted prediction handling video data brightness variations
US8059902B2 (en) 2006-10-31 2011-11-15 Ntt Docomo, Inc. Spatial sparsity induced temporal prediction for video compression
GB2444992A (en) 2006-12-21 2008-06-25 Tandberg Television Asa Video encoding using picture division and weighting by luminance difference data
TWI563369B (en) * 2014-12-31 2016-12-21 Hsien Chin Su Compensating method of power frequency for heat dissipating device and heat dissipating system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070147507A1 (en) 2002-04-10 2007-06-28 Shinichiro Koto Video encoding method and apparatus and video decoding method and apparatus

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
D. Liu, et al. Linear transform based motion compensated prediction for luminance intensity changes. IEEE Int'l Symp. on Circuits and Systems, May 2005, pp.304-307
K. Kamikura, et al. Video Coding Using Global Motion and Brightness-Variation Compensation with Complexity Reduction. Electronics and Communications in Japan. Part 1, 2003, Vol.86, No.2, pp.80-93*

Also Published As

Publication number Publication date
US9232223B2 (en) 2016-01-05
TWI498003B (zh) 2015-08-21
US20110280309A1 (en) 2011-11-17
EP2392140B1 (en) 2017-08-23
CN102301716A (zh) 2011-12-28
TW201031219A (en) 2010-08-16
EP2392140A1 (en) 2011-12-07
JP2012517132A (ja) 2012-07-26
CN102301716B (zh) 2014-07-02
JP5490823B2 (ja) 2014-05-14
KR20110107829A (ko) 2011-10-04
WO2010086393A1 (en) 2010-08-05

Similar Documents

Publication Publication Date Title
KR101670532B1 (ko) 픽처 시퀀스를 나타내는 스트림을 디코딩하는 방법, 픽처 시퀀스를 코딩하는 방법, 및 코딩 데이터 스트럭처
JP6347860B2 (ja) 画像復号装置、画像復号方法、画像符号化装置および画像符号化方法
JP5211263B2 (ja) 符号化ユニットの映像符号化時に局所的多重仮説予測を行う方法および装置
JP5289440B2 (ja) 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
KR101192026B1 (ko) 소스 픽쳐의 시퀀스를 코딩하는 방법 또는 장치
KR101420957B1 (ko) 화상 부호화 장치, 화상 복호 장치, 화상 부호화 방법 및 화상 복호 방법
JP2019050637A (ja) 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法および符号化データのデータ構造
WO2011013253A1 (ja) 幾何変換動き補償予測を用いる予測信号生成装置、動画像符号化装置及び動画像復号化装置
CA2672924A1 (en) Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media which store the programs
EP2036358A1 (en) Image encoding/decoding method and apparatus
TW201640898A (zh) 動畫像編碼裝置、動畫像解碼裝置、動畫像編碼方法、動畫像解碼方法及動畫像編碼資料
JP2013509063A (ja) 画像シーケンスのブロックを符号化する方法およびこのブロックを再構成する方法
KR20120027145A (ko) 화상 처리 장치 및 방법
KR20080069069A (ko) 인트라/인터 예측 방법 및 장치
KR100856392B1 (ko) 현재 영상의 복원영역을 참조하는 동영상 부호화/복호화장치 및 그 방법
US20150271502A1 (en) Video encoding device, video decoding device, video encoding method, and video decoding method
KR100807330B1 (ko) H.264/avc 인코더의 인트라 매크로블록 모드 스킵 방법
KR20120058584A (ko) 이미지들의 시퀀스를 코딩하는 방법
KR101891192B1 (ko) 영상 부호화 방법 및 장치
KR20110134404A (ko) 화상 데이터의 블록을 예측하는 방법, 이 방법을 실행하는 복호 장치 및 부호화 장치
CN105338365A (zh) 视频编码方法和视频编码装置
Han et al. Low complexity H. 264 encoder using Machine learning
JP5194039B2 (ja) イントラ予測装置、符号化器、復号器、及びプログラム
JP2006157214A (ja) 動画像符号化装置
KR20140068741A (ko) 영상 부호화 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191014

Year of fee payment: 4