KR20050084138A - 가중된 예측을 이용하는 비디오 크로스-페이드의 인코딩 - Google Patents

가중된 예측을 이용하는 비디오 크로스-페이드의 인코딩 Download PDF

Info

Publication number
KR20050084138A
KR20050084138A KR1020057010096A KR20057010096A KR20050084138A KR 20050084138 A KR20050084138 A KR 20050084138A KR 1020057010096 A KR1020057010096 A KR 1020057010096A KR 20057010096 A KR20057010096 A KR 20057010096A KR 20050084138 A KR20050084138 A KR 20050084138A
Authority
KR
South Korea
Prior art keywords
picture
fade
reference picture
cross
motion
Prior art date
Application number
KR1020057010096A
Other languages
English (en)
Other versions
KR101017907B1 (ko
Inventor
질 맥도널드 보이스
Original Assignee
톰슨 라이센싱 소시에떼 아노님
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 소시에떼 아노님 filed Critical 톰슨 라이센싱 소시에떼 아노님
Publication of KR20050084138A publication Critical patent/KR20050084138A/ko
Application granted granted Critical
Publication of KR101017907B1 publication Critical patent/KR101017907B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Circuits (AREA)

Abstract

비디오 인코더(200)는 페이드-아웃 시작 화상과 페이드-인 종료 화상 사이에 배치된 적어도 하나의 크로스-페이드 화상에 대한 비디오 신호 데이터를 인코딩하기 위해 제공된다. 인코더부는 페이드-아웃 시작 화상 및 페이드-인 종료 화상 각각에 대응하는 가중치 인자를 할당하기 위한 기준 화상 가중치 인자 유닛(272)을 포함한다.

Description

가중된 예측을 이용하는 비디오 크로스-페이드의 인코딩{ENCODING OF VIDEO CROSS-FADES USING WEIGHTED PREDICTION}
본 출원은 참고용으로 본 명세서에 전부 병합되어 있는 "ENCODING OF VIDEO CROSS-FADES USING WEIGHTED PREDICTION"이라는 제목으로 2002년 12월 4일에 출원된 미국 가특허 출원 제 60/430,793호(출원인 관리 번호 PU020487)의 이익을 청구한다.
본 발명은 비디오 인코더에 관한 것으로, 더 구체적으로, 화상 사이의 비디오 크로스-페이드(cross-fades)를 효과적으로 생성하는 장치 및 방법에 관한 것이다.
비디오 데이터는 일반적으로 비트 스트림의 형태로 처리되고 전송된다. 일반적인 비디오 압축 코더 및 디코더(CODEC)는, 인코딩될 화상의 기준 화상 예측을 형성하고 현재 화상과 예측 사이의 차이를 인코딩함으로써 큰 압축 효율을 얻는다. 예측이 현재 화상과 상관되는 것이 더욱 더 밀접해질수록, 상기 화상을 압축하는데 필요한 비트는 더 적어져서, 프로세스의 효율을 증가시킨다. 따라서, 최상의 가능한 기준 화상 예측이 형성되는 것이 바람직하다.
MPEG(Moving Picture Experts Group)-1, MPEG-2 및 MPEG-4를 포함하는 많은 비디오 압축 표준에서, 이전 기준 화상의 움직임 보상 버전은 현재 화상에 대한 예측으로서 사용되고, 현재 화상과 예측 사이의 차이만이 코딩된다. 단일 화상 예측("P" 화상)이 사용되면, 기준 화상은 움직임 보상 예측이 형성될 때 스케일(scaled)되지 않는다. 양방향 화상 예측("B" 화상)이 사용되면, 중간 예측은 2개의 상이한 화상으로부터 형성되고, 그 다음에 2개의 중간 예측은 각각에 대해 (1/2, 1/2)의 동일한 가중치 인자를 이용하여 함께 평균화되어, 단일 평균화 예측을 형성한다.
특히 페이드를 갖는 몇몇 비디오 시퀀스에서, 코딩될 현재 화상은 기준 화상 자체보다 가중치 인자만큼 스케일된 기준 화상에 더 강하게 상관된다. JVT(Joint Video Team) 비디오 압축 표준은 가중치 인자 및 오프셋이 각 기준 화상에 대해 송신되도록 한다. 상기 표준은 디코더가 가중치 인자를 어떻게 이용할 것인지를 규정하지만, 인코더가 적절한 가중치 인자를 어떻게 결정할 수 있는지를 규정하지는 않는다. 크로스-페이드를 포함하는 시퀀스에 대해, 사용할 적절한 가중치 인자 및 기준 화상을 결정하는 것은 매우 어렵다.
도 1은 표준 비디오 인코더에 대한 블록도를 도시한 도면.
도 2는 비디오 크로스-페이드에 대한 암시적인 기준 화상 가중치를 갖는 비디오 인코더에 대한 블록도를 도시한 도면.
도 3은 비디오 크로스-페이드에 대한 명백한 기준 화상 가중치를 갖는 비디오 인코더에 대한 블록도를 도시한 도면.
도 4는 비디오 크로스-페이드에 대한 암시적인 기준 화상 가중치를 갖는 비디오 디코더에 대한 블록도를 도시한 도면.
도 5는 한 쌍의 화상 사이의 비디오 크로스-페이드를 도시한 도면.
도 6은 예시적인 인코딩 프로세스를 도시한 흐름도.
종래 기술의 이들 및 다른 결점 및 단점은 JVT 가중된 예측을 이용하여 비디오 크로스-페이드를 효율적으로 압축하는 장치 및 방법에 의해 다루어진다. 크로스-페이드의 종점(end-point)이 결정되고, 크로스-페이드 영역에서 화상을 인코딩하기 위한 기준 화상으로서 사용된다.
페이드-아웃 또는 시작 화상과 페이드-인 또는 종료 화상 사이에 배치된 크로스-페이드 화상에 대한 비디오 신호 데이터를 인코딩하기 위한 장치 및 방법이 제공되며, 여기서 인코더부는 페이드-아웃 시작 화상 및 페이드-인 종료 화상 각각에 대응하는 가중치 인자를 각각 할당하기 위한 기준 화상 가중치 인자 유닛을 포함하고, 화상 사이의 크로스-페이드를 인코딩하는 방법은, 크로스-페이드가 사이에서 요구되는 화상을 식별하는 단계와, 크로스-페이드에 대한 적절한 종점을 결정하는 단계와, 크로스-페이드 화상을 인코딩하기 전에 종점을 인코딩하는 단계를 포함한다.
본 개시의 이들 및 다른 양상, 특징 및 장점은 첨부 도면과 연계하여 읽혀질 다음의 예시적인 실시예의 설명으로부터 명백해질 것이다.
본 발명은 다음 예시적인 도면을 참조하여 더 잘 이해될 것이다.
움직임 벡터 추정 및 적응성 기준 화상 가중치 인자 할당을 포함하는, 가중된 예측을 이용하는 비디오 크로스-페이드를 인코딩하기 위한 장치 및 방법이 개시된다. 특히 페이딩을 갖는 몇몇 비디오 시퀀스에서, 코딩될 현재 화상 또는 이미지 블록은 기준 화상 자체보다 가중치 인자만큼 스케일된 기준 화상에 더 크게 상관된다. 기준 화상에 적용된 가중치 인자 없는 비디오 인코더는 페이딩 시퀀스를 매우 비효율적으로 인코딩한다. 가중치 인자가 인코딩에 사용될 때, 비디오 인코더는 가중치 인자 및 움직임 벡터 모두를 결정하는 것이 필요하지만, 이들 각각에 대한 최상의 선택은 다른 것에 따라 좌우된다.
따라서, JVT 가중된 예측을 이용하여 비디오 크로스-페이드를 효율적으로 압축하는 방법이 설명된다. 크로스-페이드의 종점이 먼저 결정되고, 크로스-페이드 영역에서 화상을 인코딩하기 위한 기준 화상으로서 사용된다.
본 설명은 본 발명의 원리를 예시한다. 따라서, 당업자는 본 명세서에 명백히 설명되거나 도시되지 않지만, 본 발명의 원리를 구현하고 본 발명의 사상 및 범주 내에 포함되는 다양한 장치를 고안할 수 있음이 이해될 것이다.
본 명세서에 언급된 모든 예 및 조건부 언어는 종래 기술을 촉진시키기 위해 본 발명자에 의해 기여된 개념 및 본 발명의 원리를 이해하는데 독자(reader)에게 도움을 주도록 의도되고, 그러한 특별히 언급된 예 및 상태에 대한 제한 없이 해석되어야 한다.
더욱이, 본 발명의 원리, 양상 및 실시예를 본 명세서에서 언급한 모든 설명 뿐 아니라 본 발명의 특정한 예는 본 발명의 구조 및 기능적 등가물 모두를 포함하도록 의도된다. 더욱이, 그러한 등가물이 현재 알려진 등가물 뿐 아니라 미래에 개발된 등가물, 즉 구조에 상관없이 동일한 기능을 수행하는 개발된 임의의 요소 모두를 포함하는 것으로 의도된다.
따라서, 예를 들어, 본 명세서의 블록도가 본 발명의 원리를 구현하는 예시적인 회로의 개념도를 나타낸다는 것이 당업자에 의해 인식될 것이다. 이와 유사하게, 임의의 플로우챠트, 흐름도, 상태 전이도, 의사 코드(pseudocode), 등은, 실질적으로 컴퓨터 판독가능 매체에 표현될 수 있고, 컴퓨터 또는 프로세서가 명백히 도시되는지의 여부에 상관없이 컴퓨터 또는 프로세서에 의해 실행되는 다양한 프로세스를 나타낸다는 것이 인식될 것이다.
도면에 도시된 여러 요소의 기능은 적절한 소프트웨어와 연관된 소프트웨어를 실행할 수 있는 하드웨어 뿐 아니라 전용 하드웨어의 이용을 통해 제공될 수 있다. 프로세서에 의해 제공될 때, 그 기능은 단일의 전용 프로세서에 의해, 단일의 공유 프로세서에 의해, 또는 몇몇이 공유될 수 있는 복수의 개별적인 프로세서에 의해 제공될 수 있다. 더욱이, "프로세서" 또는 "제어기"라는 용어의 명백한 사용은 소프트웨어를 실행할 수 있는 하드웨어만을 전적으로 언급하는 것으로 해석되어서는 안되고, 한계 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하는 판독-전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 및 비-휘발성 저장부를 암시적으로 포함할 수 있다.
종래의 및/또는 맞춤형 다른 하드웨어도 또한 포함될 수 있다. 유사하게, 도면에 도시된 임의의 스위치는 단지 개념적이다. 그 기능은 프로그램 논리 회로의 동작을 통해, 전용 논리 회로를 통해, 프로그램 제어 및 전용 논리 회로의 상호 작용을 통해, 또는 심지어 수동으로, 실행될 수 있으며, 특정한 기술은 문맥으로부터 더 명백히 이해된 구현자에 의해 선택가능하다.
본 발명의 청구항에서, 특정 기능을 수행하는 수단으로서 표현된 임의의 요소는, 예를 들어 a) 상기 기능을 수행하는 회로 요소의 조합, 또는 b) 기능을 수행하기 위해 소프트웨어를 실행하는 적절한 회로와 조합된, 펌웨어, 마이크로코드 등을 포함하는 임의의 형태의 소프트웨어를 포함하는 기능을 수행하는 임의의 방식을 포함하도록 의도된다. 그러한 청구항에 의해 한정된 본 발명은 다양하게 언급된 수단에 의해 제공된 기능이 조합되고, 청구항이 청구하는 방식으로 이루어진다. 이에 따라 출원인은 그러한 기능을 제공할 수 있는 임의의 수단을 본 명세서에 도시된 것의 등가물로서 간주한다.
특히 페이딩을 갖는 몇몇 비디오 시퀀스에서, 코딩될 현재 화상 또는 이미지 블록은 기준 화상 자체보다 가중치 인자만큼 스케일된 기준 화상에 더 크게 상관된다. 기준 화상에 적용된 가중치 인자 없는 비디오 인코더는 페이딩 시퀀스를 매우 비효율적으로 인코딩한다.
JVT 비디오 압축 표준에서, 각 P 화상은 화상의 예측을 형성하기 위해 다수의 기준 화상을 이용할 수 있지만, 각 개별적인 매크로블록 또는 매크로블록 파티션(16×8, 8×16, 또는 8×8의 크기를 갖는)은 예측을 위해 단일 기준 화상만을 이용한다. 움직임 벡터를 코딩 및 송신하는 것 외에, 기준 화상 인덱스는 각 매크로블록 또는 매크로블록 파티션에 대해 송신되며, 어떤 기준 화상이 사용되는지를 나타낸다. 가능한 기준 화상의 한정된 세트는 인코더 및 디코더 모두에 저장되고, 허용가능한 기준 화상의 번호가 송신된다. MPEG-2와 같은 이전 표준과 달리, JVT 인코더는 이전에 코딩된 화상이 기준 화상으로서 사용될 수 있다는 점에서 상당한 융통성을 갖는다.
양방향-예측 화상(또한 소위 "B" 화상)에 대한 JVT 표준에서, 2개의 예측자(predictor)는 각 매크로블록 또는 매크로블록 파티션에 대해 형성되며, 각 예측자는 별도의 기준 화상으로부터 생성되고, 2개의 예측자는 단일의 평균화 예측자를 형성하기 위해 함께 평균화된다. 양방향-예측 코딩된 움직임 블록에 대해, 기준 화상은 모두 순방향으로부터 생성될 수 있고, 모두 역방향으로부터 생성될 수 있거나, 각각 순방향 및 역방향으로부터 생성될 수 있다.
예측에 사용될 수 있는 이용가능한 기준 화상으로 된 2개의 리스트가 유지된다. 2개의 기준 화상은 리스트 0 및 리스트 1 예측자로 언급된다. 각 기준 화상에 대한 인덱스, 즉 각각 리스트 0 및 리스트 1 기준 화상에 대해 ref_idx_l0 및 ref_idx_l1가 코딩되고 송신된다.
JVT 표준은 2가지 가중된 예측 모드를 제공하며, 이것은 가중치 인자 및/또는 오프셋이 예측을 형성할 때 기준 화상에 적용되도록 한다. 사용될 가중치 인자는 현재 매크로블록 또는 매크로블록 파티션에 대한 기준 화상 인덱스(또는 양방향-예측의 경우에 인덱스들)에 기초한다. 기준 화상 인덱스들은 비트스트림에 코딩되거나, 스킵되거나 직접적인 모드 매크로블록에 대한 것과 같이 유도될 수 있다. 단일 가중치 인자 및 단일 오프셋은 현재 화상의 모든 슬라이스에 대한 각 기준 화상 인덱스와 연관된다. 명시적 모드(explicit mode)에서, 이들 파라미터는 슬라이스 헤더에서 코딩된다. 암시적 모드(implicit mode)에서, 이들 파라미터가 유도된다. 가중치 인자 및 오프셋 파라미터는, 인터-예측 프로세스에서 16비트 수치 연산을 허용하도록 제약된다. 인코더는 각 코딩된 화상에 대해 암시적 모드 또는 명시적 모드 중 어느 하나를 선택할 수 있다.
JVT 양방향-예측 또는 "B" 화상은 2가지 예측 사이의 적응성 가중치, 즉 Pred=[(P0)*(Pred0)]+[(P1)*(Pred1)]+D를 허용하며, 여기서 P0 및 P1은 가중치 인자이고, Pred0 및 Pred1은 각각 리스트 0 및 리스트 1에 대한 기준 화상 예측이고, D는 오프셋이다.
도 1에 도시된 바와 같이, 표준 비디오 인코더는 일반적으로 참조 번호 100으로 표시된다. 인코더(100)의 입력은 합산 접합(110)의 비-반전 입력과 신호 통신 상태로 연결된다. 합산 접합(110)의 출력은 블록 변환 기능(120)과 신호 통신 상태로 연결된다. 변환(120)은 양자화기(130)와 신호 통신 상태로 연결된다. 양자화기(130)의 출력은 가변 길이 코더(VLC)(140)와 신호 통신 상태로 연결되고, 여기서 VLC(140)의 출력은 외부적으로 이용가능한 인코더(100)의 출력이다.
양자화기(130)의 출력은 역 양자화기(150)와 신호 통신 상태로 추가로 연결된다. 역 양자화기(150)는 반전 블록 변환기(160)와 신호 통신 상태로 연결되고, 상기 반전 블록 변환기(160)는 다시 기준 화상 저장부(170)와 신호 통신 상태로 연결된다. 기준 화상 저장부(170)의 제 1 출력은 움직임 추정기(180)의 제 1 입력과 신호 통신 상태로 연결된다. 인코더(100)의 입력은 움직임 추정기(180)의 제 2 입력과 신호 통신 상태로 추가로 연결된다. 움직임 추정기(180)의 출력은 움직임 보상기(190)의 제 1 입력과 신호 통신 상태로 연결된다. 기준 화상 저장부(170)의 제 2 출력은 움직임 보상기(190)의 제 2 입력과 신호 통신 상태로 연결된다. 움직임 보상기(190)의 출력은 합산 접합(110)의 반전 입력과 신호 통신 상태로 연결된다.
도 2를 참조하면, 암시적 기준 화상 가중치를 갖는 비디오 인코더는 일반적으로 참조 번호 200으로 표시된다. 인코더(200)의 입력은 합산 접합(210)의 비-반전 입력과 신호 통신 상태로 연결된다. 합산 접합(210)의 출력은 블록 변환기(220)와 신호 통신 상태로 연결된다. 변환기(220)는 양자화기(230)와 신호 통신 상태로 연결된다. 양자화기(230)의 출력은 VLC(240)와 신호 통신 상태로 연결되고, 여기서 VLC(240)의 출력은 외부적으로 이용가능한 인코더(200)의 출력이다.
양자화기(230)의 출력은 역 양자화기(250)와 신호 통신 상태로 추가로 연결된다. 역 양자화기(250)는 반전 블록 변환기(260)와 신호 통신 상태로 연결되고, 상기 반전 블록 변환기(260)는 다시 기준 화상 저장부(270)와 신호 통신 상태로 연결된다. 기준 화상 저장부(270)의 제 1 출력은 기준 화상 가중치 인자 할당기(272)의 제 1 입력과 신호 통신 상태로 연결된다. 인코더(200)의 입력은 기준 화상 가중치 인자 할당기(272)의 제 2 입력과 신호 통신 상태로 추가로 연결된다. 기준 화상 저장부(270)의 제 2 출력은 움직임 추정기(280)의 제 2 입력과 신호 통신 상태로 연결된다.
인코더(200)의 입력은 움직임 추정기(280)의 제 3 입력과 신호 통신 상태로 추가로 연결된다. 움직임 벡터를 나타내는 움직임 추정기(280)의 출력은 움직임 보상기(290)의 제 1 입력과 신호 통신 상태로 연결된다. 기준 화상 저장부(270)의 제 3 출력은 움직임 보상기(290)의 제 2 입력과 신호 통신 상태로 연결된다. 움직임 보상 기준 화상을 나타내는 움직임 보상기(290)의 출력은 곱셈기 또는 기준 화상 가중치 애플리케이터(292)의 제 1 입력과 신호 통신 상태로 연결된다. 예시적인 곱셈기 실시예가 도시되지만, 기준 화상 가중치 인자(292)는 예를 들어 시프트 레지스터에 의한 것과 같이 대안적인 방식으로 구현될 수 있다. 가중치 인자를 나타내는 기준 화상 가중치 인자 할당기(272)의 출력은 기준 화상 가중치 애플리케이터(292)의 제 2 입력과 신호 통신 상태로 연결된다. 기준 화상 가중치 애플리케이터(292)의 출력은 합산 접합(210)의 반전 입력과 신호 통신 상태로 연결된다.
도 3을 참조하면, 명시적 기준 화상 가중치를 갖는 비디오 인코더는 일반적으로 참조 번호 300으로 표시된다. 인코더(300)의 입력은 합산 접합(310)의 비-반전 입력과 신호 통신 상태로 연결된다. 합산 접합(310)의 출력은 불록 변환기(320)와 신호 통신 상태로 연결된다. 변환기(320)는 양자화기(330)와 신호 통신 상태로 연결된다. 양자화기(330)의 출력은 VLC(340)와 신호 통신 상태로 연결되며, 여기서 VLC(340)의 출력은 외부적으로 이용가능한 인코더(300)의 출력이다.
양자화기(330)의 출력은 역 양자화기(350)와 신호 통신 상태로 추가로 연결된다. 역 양자화기(350)는 반전 블록 변환기(360)와 신호 통신 상태로 연결되고, 상기 반전 블록 변환기(360)는 다시 기준 화상 저장부(370)와 신호 통신 상태로 연결된다. 기준 화상 저장부(370)의 제 1 출력은 기준 화상 가중치 인자 할당기(372)의 제 1 입력과 신호 통신 상태로 연결된다. 인코더(300)의 입력은 기준 화상 가중치 인자 할당기(372)의 제 2 입력과 신호 통신 상태로 추가로 연결된다. 가중치 인자를 나타내는 기준 화상 가중치 인자 할당기(372)의 제 1 출력은 움직임 추정기(380)와 신호 통신 상태로 연결된다. 기준 화상 저장부(370)의 제 2 출력은 움직임 추정기(380)의 제 2 입력과 신호 통신 상태로 연결된다.
인코더(300)의 입력은 움직임 추정기(380)의 제 3 입력과 신호 통신 상태로 추가로 연결된다. 움직임 벡터를 나타내는 움직임 추정기(380)의 출력은 움직임 보상기(390)의 제 1 입력과 신호 통신 상태로 연결된다. 기준 화상 저장부(370)의 제 3 출력은 움직임 보상기(390)의 제 2 입력과 신호 통신 상태로 연결된다. 움직임 보상 기준 화상을 나타내는 움직임 보상기(390)의 출력은 곱셈기 또는 기준 화상 가중치 애플리케이터(392)의 제 1 입력과 신호 통신 상태로 연결된다. 가중치 인자를 나타내는 기준 화상 가중치 인자 할당기(372)의 제 2 출력은 기준 화상 가중치 애플리케이터(392)의 제 2 입력과 신호 통신 상태로 연결된다. 기준 화상 가중치 애플리케이터(392)의 출력은 합산 접합(394)의 제 1의 비-반전 입력과 신호 통신 상태로 연결된다. 오프셋을 나타내는 기준 화상 가중치 인자 할당기(372)의 제 3 출력은 합산 접합(394)의 제 2의 비-반전 입력과 신호 통신 상태로 연결된다. 합산 접합(394)의 출력은 합산 접합(310)의 반전 입력과 신호 통신 상태로 연결된다.
도 4에 도시된 바와 같이, 명시적 기준 화상 가중치를 갖는 비디오 디코더는 일반적으로 참조 번호 500으로 표시된다. 비디오 디코더(500)는 역 양자화기(520)와 신호 통신 상태로 연결된 가변 길이 디코더(VLD)(510)를 포함한다. 역 양자화기(520)는 반전 변환기(530)와 신호 통신 상태로 연결된다. 상기 반전 변환기(530)는 합산 접합(540)의 제 1 입력 단자와 신호 통신 상태로 연결되며, 여기서 합산 접합(540)의 출력은 비디오 디코더(500)의 출력을 제공한다. 합산 접합(540)의 출력은 기준 화상 저장부(550)와 신호 통신 상태로 연결된다. 기준 화상 저장부(550)는 움직임 보상부(560)와 신호 통신 상태로 연결되며, 상기 움직임 보상기(560)는 곱셈기 또는 기준 화상 가중치 애플리케이터(570)의 제 1 입력과 신호 통신 상태로 연결된다. 당업자가 인식하는 바와 같이, 명시적 가중치 예측을 위한 디코더(500)는 또한 암시적 가중치 예측에 사용될 수 있다.
VLD(510)는 계수 인덱스를 룩업(lookup)(580)에 제공하기 위한 기준 화상 가중치 인자 룩업(580)과 신호 통신 상태로 추가로 연결된다. 룩업(580)의 제 1 출력은 가중치 인자를 제공하기 위한 것이고, 기준 화상 가중치 애플리케이터(570)의 제 2 입력과 신호 통신 상태로 연결된다. 기준 화상 가중치 애플리케이터(570)의 출력은 합산 접합(590)의 제 1 입력과 신호 통신 상태로 연결된다. 룩업(580)의 제 2 출력은 오프셋을 제공하기 위한 것이고, 합산 접합(590)의 제 2 입력과 신호 통신 상태로 연결된다. 합산 접합(590)의 출력은 합산 접합(540)의 제 2 입력 단자와 신호 통신 상태로 연결된다.
도 5에 도시된 바와 같이, 화상 크로스-페이드는 일반적으로 참조 번호 600으로 표시된다. 예시적인 화상 크로스-페이드(600)는 FP0으로 식별된 페이드-아웃 또는 시작 화상(610), 및 FP1으로 식별된 페이드-인 또는 종료 화상(612)을 포함한다.
이제 도 6을 참조하면, 이미지 블록을 위해 비디오 신호 데이터를 인코딩하기 위한 예시적인 프로세스는 일반적으로 참조 번호 700으로 표시된다. 프로세스(700)는 도 2 및 도 3의 인코더(200 또는 300)와 같은 인코더로 각각 구현된다. 프로세스(700)는 결정 블록(712)에 제어를 전달하는 시작 블록(710)을 포함한다. 결정 블록(712)은, 크로스-페이드가 존재하는 지를 결정하고, 만약 어떤 것도 존재하지 않으면, 제어를 기능 블록(713)으로 전달한다. 기능 블록(713)은 정상 인코딩을 수행하고, 제어를 종료 블록(724)에 전달한다.
그러나, 결정 블록(712)이 크로스-페이드를 찾는다면, 제어를 기능 블록(714)에 전달한다. 기능 블록(714)은 페이드-아웃 시작점(FP0)을 찾고, 제어를 기능 블록(716)에 전달하며, 상기 기능 블록(716)은 페이드-인 종료점(FP1)을 찾는다. 블록(716)은 기능 블록(718)에 제어를 전달하고, 상기 기능 블록(718)은 페이드-아웃 시작 화상(FP0)을 코딩하고 제어를 기능 블록(720)에 전달한다. 블록(720)은 페이드-인 종료 화상(FP1)을 코딩하고, 제어를 기능 블록(722)에 전달한다.
기능 블록(722)은 다시 리스트 0 기준으로서 화상(FP0) 및 리스트 1 기준으로서 화상(FP1)을 갖는 가중된 예측을 이용하여 FP0과 FP1 사이의 디스플레이 순서로 배치된 화상을 코딩한다. 기능 블록(722)은 제어를 종료 블록(724)에 전달한다.
한 쌍의 화상 사이의 비디오 크로스-페이드에 사용된 저작 툴은 도 2의 인코더(200)와 같은 비디오 인코더를 포함하고, 사전-저장된 비디오 컨텐트에 대해 동작한다. 압축되지 않은 비디오 컨텐트 외에도, 결정 리스트 및 편집 스플라이스(splice) 지점과 같은 몇몇 추가적인 정보가 이용가능할 수 있다. 저작 둘에서의 비디오 인코더는 반드시 실시간으로 동작할 필요가 없다. 페이드 및 크로스-페이드와 같은 특수 효과가 저작 툴에 적용될 수 있다.
비디오 시퀀스에서 디졸브(dissolve)로서 또한 알려진, 페이드 및 크로스-페이드를 검출하기 위한 다양한 기술이 잘 알려져 있다. 각 매크로블록 또는 매크로블록 파티션에 대해 특정 화상을 인코딩할 때, JVT 인코더는 코딩 결정 모드, 하나 또는 2개의 기준 화상, 및 하나 이상의 움직임 벡터를 선택해야 한다. JVT 인코더가 화상 또는 슬라이스마다 한번 가중된 예측을 이용할 때, 사용된 각 기준 인덱스에 적용될 가중치 인자를 또한 선택할 수 있다. 하나 이상의 기준 인덱스는 각 허용가능한 기준 화상으로 언급되므로, 다중 가중치는 각 개별적인 기준 화상에 사용될 수 있다.
저작 툴은 크로스-페이드가 발생할 때를 검출한다. 저작 툴은, 크로스-페이드 자체를 적용하기 때문이거나, 결정 리스트로부터 판독하기 때문이거나, 페이드 검출 알고리즘을 이용하기 때문에, 크로스-페이드가 발생할 때를 검출하는데 충분한 정보를 갖는다. 크로스-페이드에 대해, 페이드-아웃 시작점으로서 식별된 화상은 FP0으로서 식별되고, 페이드-인 종료점 화상은 FP1으로서 식별된다. 크로스-페이드가 검출될 때, 크로스-페이드 화상이라 언급된, 디스플레이 순서로 FP0과 FP1 사이의 화상을 코딩하기 이전에 인코더는 화상(FP0 및 FP1)을 코딩한다. 따라서, 본 발명의 특징은, 페이드-인 종료 화상(FP1)이 중간 화상 이전에 코딩된다는 것이다.
I, P, B 화상 코딩 유형의 고정된 패턴을 이용하는 것과, 코딩 순서가 디스플레이 순서와 다르다는 것이 비디오 인코더에서 공통적이다. 예를 들어, 그러한 공통 패턴은 다음을 포함한다:
공통 코딩 순서: I0 P3 B1 B2 P6 B4 B5 P9 B7 B8
공통 디스플레이 순서: I0 B1 B2 P3 B4 B5 P6 B7 B8 P9
이러한 공통 패턴에 대해, 화상(P3)은 중간 B1 및 B2 화상 앞에서 코딩된다. B1 및 B2 화상은 예측 프로세스에서 기준 화상으로서 I0 및 P3을 이용한다.
JVT 표준은 고정된 화상 코딩 유형 패턴의 이용을 필요로 하지 않고, 인코더가 코딩 효율을 최대화하기 위해 패턴을 조정할 수 있는 방법을 제안하지 않는다. 본 발명에 따라, 크로스-페이딩 시퀀스의 코딩 효율은 화상 코딩 유형 및 코딩 순서를 조정함으로써 개선될 수 있다. 예를 들어, 화상 0 및 화상 9가 각각 페이드-인 시작 및 페이드-아웃 종료 화상으로서 식별되면, 다음 코딩 및 디스플레이 순서가 사용될 수 있다:
본 발명의 코딩 순서: I0 P9 B1 B2 B3 B4 B5 B6 B7 B8
본 발명의 디스플레이 순서: I0 B1 B2 B3 B4 B5 B6 B7 B8 P9
크로스-페이드 화상이 인코딩될 때, 인코더는 필요시 기준 화상 선택 순서 재배치(reordering)를 이용하여 기준 화상 리스트의 순서를 배치(order)하여, FP0는 리스트 0 상의 제 1 화상이고, FP1은 리스트 1 상의 제 1 화상이 된다. 이것은 추가적인 코딩 효율을 제공하는데, 그 이유는 기준 화상 리스트에서 제 1 화상을 언급하는 0의 기준 인덱스가 다른 기준 인덱스보다 더 적은 수의 비트를 이용하여 코딩될 수 있기 때문이다. 그 다음에, 가중치 인자는 현재 화상의 합성물(composition)에서 제 1 화상 및 제 2 화상의 상대적인 기여에 기초하여 각 FP0 및 FP1에 대응하는 기준 인덱스에 대해 선택된다. 크로스-페이드 화상을 생성하는데 사용된 수학식이 저작 툴이 크로스-페이드를 생성하기 때문에 또는 사이드-정보(side-information)로부터 알려져 있는 경우, 합성 수학식으로부터의 가중치 인자가 사용될 수 있다. 정확한 수학식이 알려져 있지 않으면, 가중치 인자는 예를 들어 FP0 및 FP1으로부터 현재 화상의 상대적인 거리에 기초한 것과 같은 수 개의 상이한 알고리즘 중 임의의 알고리즘을 이용하여 계산될 수 있다.
이러한 전술한 알고리즘은 크로스-페이드 영역에서 코딩된 모든 화상에 적용될 수 있거나, 기준 화상으로서 저장되도록 마킹된 그러한 화상에만 적용될 수 있다. 대안적인 실시예에서, 암시적 모드 또는 명시적 모드의 가중된 예측 중 어느 하나는 크로스-페이드 화상을 코딩하는데 사용될 수 있다. 명시적 모드가 사용되면, 임의의 가중치 인자가 사용될 수 있다. 암시적 모드가 사용되면, 가중치 인자는 FP0 및 FP1으로부터 현재 화상의 상대적인 거리에 따라 좌우된다.
이러한 시스템 및 기술은, 단일 예측자로 인코딩되는 예측 "P" 화상, 또는 2개의 예측자로 인코딩되는 양방향-예측 "B" 화상 중 어느 하나에 적용될 수 있다. 인코더 및 디코더에 존재하는 디코딩 프로세스는 P 및 B 화상 경우에 대해 아래에 설명된다. 대안적으로, 이 기술은 I, B, 및 P 화상과 유사한 개념을 이용하는 코딩 시스템에 또한 적용될 수 있다.
동일한 가중치 인자는 B 화상에서의 단일 방향 예측, 및 B 화상에서의 양방향 예측에 사용될 수 있다. 단일 예측자가 P 화상에서의 매크로블록에 사용되거나, B 화상에서의 단일 방향 예측에 사용되면, 단일 기준 화상 인덱스는 블록에 대해 송신된다. 움직임 보상의 디코딩 프로세스 단계가 예측자를 생성한 후에, 가중치 인자는 예측자에 적용된다. 가중치 예측자는 코딩된 잔여물(residual)에 추가되고, 클리핑(clipping)이 그 합에서 수행되어, 디코딩 화상을 형성한다. P 화상에서의 블록, 또는 리스트 0 예측만을 이용하는 B 화상에서의 블록에 대해 사용하기 위해, 가중치 인자는 수학식 1로서 형성된다:
Pred=W0*Pred0+D0
여기서 W0는 리스트 0 기준 화상과 연관된 가중치 인자이고, D0은 리스트 0 기준 화상과 연관된 오프셋이고, Pred0은 리스트 0 기준 화상으로부터 움직임-보상된 예측 블록이다.
리스트 1 예측만을 이용하는 B 화상에서의 블록에 대해 사용하기 위해, 가중치 인자는 수학식 2로서 형성된다:
Pred=W1*Pred1+D1
여기서 W1은 리스트 1 기준 화상과 연관된 가중치 인자이고, D1은 리스트 1 기준 화상과 연관된 오프셋이고, Pred1은 리스트 1 기준 화상으로부터 움직임-보상된 예측 블록이다.
가중치 예측자는, 결과적인 값이 일반적으로 0 내지 255인 픽셀 값의 허용가능한 범위 내에 있다는 것을 보장하기 위해 클리핑될 수 있다. 가중치 수학식에서의 곱셈의 정밀도는 임의의 미리 결정된 비트의 수의 분해능으로 한정될 수 있다.
양방향-예측 경우에, 기준 화상 인덱스는 2개의 예측자 각각에 대해 송신된다. 움직임 보상은 2개의 예측자를 형성하도록 수행된다. 각 예측자는 기준 화상 인덱스와 연관된 가중치 인자를 사용하여, 2개의 가중치 예측자를 형성한다. 그 다음에, 2개의 가중치 예측자는 평균화 예측자를 형성하기 위해 함께 평균화되고, 그 다음에 상기 평균화 예측자는 코딩된 잔여물에 추가된다.
리스트 0 및 리스트 1 예측을 이용하는 B 화상에서의 블록에 대해 사용하기 위해, 가중치 인자는 수학식 3으로서 형성된다:
Pred=(P0*Pred0+D0+P1*Pred1+D1)/2
클리핑은, 결과적인 값이 일반적으로 0 내지 255인 픽셀 값의 허용가능한 범위 내에 있다는 것을 보장하기 위해 가중치 예측자 또는 가중치 예측자의 계산에서의 임의의 중간 값에 적용될 수 있다.
따라서, 가중치 인자는 다중 기준 화상을 이용하는 비디오 압축 인코더 및 디코더의 기준 화상 예측에 적용된다. 가중치 인자는 움직임 블록에 사용되는 기준 화상 인덱스에 기초하여 화상 내의 개별적인 움직임 블록에 대해 적응한다. 기준 화상 인덱스가 압축된 비디오 비트스트림에서 이미 송신되기 때문에, 움직임 블록 기반으로 가중치 인자를 적응하기 위한 추가적인 경비는 극적으로 감소된다. 동일한 기준 화상에 대해 코딩되는 모든 움직임 블록은 동일한 가중치 인자를 기준 화상 예측에 적용한다.
JVT 위원회의 JM(Joint Model) 소프트웨어에서, 속도 왜곡 최적화를 이용하는 후천적(posteriori) 방법은 움직임 벡터, 매크로블록 파티셔닝, 예측 모드, 및 기준 화상 인덱스들의 선택에 사용된다. 이 방법에서, 이들 선택 각각에 대한 허용가능한 값의 범위는 테스트되고, 각 선택에 대한 비용이 결정된다. 최소 비용을 초래하는 선택이 선택된다.
움직임 추정 기술은 광범위하게 연구되어 왔다. 코딩되는 화상의 각 움직임 블록에 대해, 기준 화상으로부터 움직임 블록의 변위를 나타내는 움직임 벡터가 선택된다. 검색 영역 내의 철저한 검색 방법에서, 움직임 블록 위치에 대한 미리 결정된 범위의 오프셋 내의 변위마다 테스트된다. 이 테스트는 기준 화상에서 변위된 움직임 블록으로 현재 화상에서의 움직임 블록에서 각 픽셀의 절대 차이의 합(SAD: Sum of Absolute Difference) 또는 평균 제곱 에러(MSE: Mean Squared Error)를 계산하는 것을 포함한다. 가장 낮은 SAD 또는 MSE를 갖는 오프셋은 움직임 벡터로서 선택된다. 이러한 기술에 대한 여러 변형이 제안되었으며, 이러한 변형은 예를 들어 3 단계 검색 및 속도-왜곡 최적화된 움직임 추정이며, 이러한 움직임 추정 모두는 기준 화상에서 변위된 움직임 블록으로 현재 움직임 블록의 SAD 또는 MSE를 계산하는 단계를 포함한다.
움직임 벡터 및 적응성 기준 화상 가중치 인자를 결정하는 계산상 비용은 반복 프로세스를 이용하는 한편, 여전히 높은 압축 효율을 달성할 수 있는 가중치 인자 및 움직임 벡터를 선택함으로써, 감소될 수 있다. 움직임 벡터 및 가중치 인자 결정 프로세스의 예시적인 실시예는, 본 발명의 원리가 그렇게 한정되는 것으로 해석되어서는 안되지만, 단일 가중치 인자가 전체 기준 화상에 적용된다고 가정하여 설명된다. 이 프로세스는 예를 들어 슬라이스와 같은 화상의 더 작은 영역에 걸쳐 또한 적용될 수 있다. 더욱이, 하나의 예시적인 실시예가 단일 기준 화상만을 이용하는 것으로 설명되지만, 그 원리는 다수의 기준 화상 예측 및 양방향-예측 화상에도 또한 적용될 수 있다.
움직임 블록에 대한 움직임 벡터의 계산은 일반적으로, 사용될 가중치 인자가 알려져 있을 때 가장 잘 이루어질 수 있다. 예시적인 실시예에서, 가중치 인자의 추정은 기준 화상 및 현재 화상 픽셀 값을 이용하여 형성된다. 가중치 인자는 해상도의 비트의 수에 한정될 수 있다. 가중치 인자가 1에 매우 가깝다면, 움직임 추정 프로세스에서 가중치 인자를 고려할 필요가 없고, 정상 움직임 추정은 1인 것으로 간주되는 가중치 인자로 이루어질 수 있다. 1에 가깝지 않으면, 가중치 인자 추정은 기준 화상에 적용된다. 그 다음에, 움직임 추정은, SAD 또는 MSE를 계산하는 임의의 방법을 이용하지만, 가중되지 않은 기준 화상이 아닌 기준 화상의 가중된 버전에서 현재 화상 움직임 블록과 변위된 움직임 블록 사이에 수행된 SAD 또는 MSE 계산을 이용하여 수행된다. 가중치 인자의 추정은 필요시 움직임 벡터가 선택된 후에 수정될 수 있다.
현재 움직임 벡터는 가중된 기준 화상에 적용되어, 가중되고 움직임 보상된 기준 화상을 형성한다. 가중되고 움직임 보상된 기준 화상과 현재 화상 사이의 차이 측정치가 계산된다. 차이 측정치가 임계치보다 작거나, 이전의 최대 차이 측정치보다 작으면, 프로세스가 완료되고, 현재 후보 움직임 벡터 및 가중치 인자가 허용된다.
차이 측정치가 몇몇 임계치보다 높으면, 가중치 인자는 수정될 수 있다. 이 경우에, 움직임 보상되지만 가중되지 않은 기준 화상은 현재 후보 움직임 벡터에 기초하여 형성된다. 가중치 인자 추정치는, 가중치 인자의 초기 추정치를 형성할 때 이루어진 바와 같이 보상되지 않은 기준 화상을 이용하지 않고 움직임 보상된 기준 화상 및 현재 화상을 이용하여 수정된다.
일실시예에서, 가중치 인자(w)의 초기 추정치는 기준 화상(ref)에서의 픽셀의 평균값으로 나누어진 현재 화상(cur)에서의 픽셀의 평균값 사이의 비율이다.
w=avg(cur)/avg(ref)
수정 추정치는 현재 화상에서의 픽셀의 평균과 움직임 보상된 기준 화상(mcref)에서의 픽셀의 평균 사이의 비율이며, 여기서:
w=avg(cur)/avg(mcref)
차이 측정치(diff)는 현재 화상(cur)과 가중되고 움직임 보상된 기준 화상(wmcref) 사이의 픽셀 차이의 평균의 절대값이며, 여기서:
diff=|∑cur-wmcref|
다른 실시예에서, 차이 측정치는 현재 화상 및 가중되고 움직임 보상된 기준 화상에서의 픽셀의 절대 차이의 합이며, 여기서:
diff=∑|cur-wmcref|
블록 기반의 움직임 추정이 수행될 때, 기준 화상에서의 동일한 픽셀은 다수의 SAD 계산에 사용된다. 예시적인 실시예에서, 움직임 추정 프로세스 동안, 일단 가중치 인자가 기준 화상에서의 픽셀에 적용되었으면, 정상 픽셀 외에도 가중된 픽셀이 저장된다. 저장은 화상의 영역, 또는 전체 화상에 대해 이루어질 수 있다.
가중된 기준 화상 값은 가중되지 않은 기준으로서 예를 들어 8비트와 같은 동일한 수의 비트로 저장되도록 클리핑될 수 있거나, 더 많은 비트를 이용하여 저장될 수 있다. 클리핑이 더 메모리에 효과적인 움직임 보상 프로세스에 대해 수행되면, 가중치 인자는 실제로 선택된 움직임 벡터에 대한 기준 화상에 다시 적용되고, 그 차이는 추가 비트를 이용하여 계산되고, 클리핑은 디코더와의 잘못된 매치를 피하기 위해 그 차이 후에 수행되는데, 이러한 잘못된 매치는, 이러한 수행이 없을 경우 가중치 인자가 적용된 후에 디코더가 클리핑을 수행하지 않은 경우 발생할 수 있다.
다수의 기준 화상이 하나의 화상을 인코딩하는데 사용되면, 별도의 가중치 인자는 각 기준 화상에 대해 계산될 수 있다. 움직임 추정 동안, 움직임 벡터 및 기준 화상 인덱스는 각 움직임 블록에 대해 선택된다. 프로세스의 각 반복 동안, 움직임 벡터 및 가중치 인자는 각 기준 화상에 대해 발견된다.
바람직한 실시예에서, 움직임 추정 동안, 주어진 움직임 블록에 대한 최상의 기준 화상이 결정된다. 차이 측정치의 계산은, 계산에 사용되는 기준 화상을 이용하는 그러한 움직임 블록만을 이용하여 각 기준 화상에 대해 개별적으로 이루어진다. 주어진 기준 화상에 대한 가중치 인자 추정치의 수정은 또한 상기 기준 화상을 이용하여 코딩되는 그러한 움직임 블록만을 이용한다. 양방향-예측 코딩에 대해, 가중치 인자 및 움직임 벡터는 2개의 예측 각각에 대해 개별적으로 결정될 수 있으며, 상기 2개의 예측은 평균화 예측을 형성하기 위해 함께 평균화될 것이다.
본 발명의 원리는 많은 상이한 유형의 움직임 추정 알고리즘에 적용될 수 있다. 계층적인 접근법으로 사용될 때, 가중치 인자 선택 및 움직임 벡터 선택의 반복은 임의의 레벨의 움직임 추정 계층으로 사용될 수 있다. 예를 들어, 반복 접근법은 정수 화상 요소(pel)의 움직임 추정으로 사용될 수 있다. 가중치 인자 및 정수 움직임 벡터가 제공된 반복 알고리즘을 이용하여 발견된 후에, 서브-펠(sub-pel) 움직임 벡터는 가중치 인자 선택의 다른 반복을 필요로 하지 않고도 발견될 수 있다.
본 발명의 이들 및 다른 특징 및 장점은 본 명세서에서 가르침에 기초하여 당업자에 의해 쉽게 확인될 수 있다. 본 발명의 원리가 하드웨어, 소프트웨어, 펌웨어, 특수한 목적의 프로세서, 또는 이들의 조합의 다양한 형태로 구현될 수 있음을 이해할 것이다.
더 바람직하게, 본 발명의 원리는 하드웨어와 소프트웨어의 조합으로서 구현된다. 더욱이, 소프트웨어는 프로그램 저장 유닛 상에 명백하게 구현된 애플리케이션 프로그램으로서 구현되는 것이 바람직하다. 애플리케이션 프로그램은 임의의 적합한 구조를 포함하는 기계에 업로드되고, 이 기계에 의해 실행될 수 있다. 바람직하게, 이 기계는 하나 이상의 중앙 처리 유닛(CPU), 랜덤 액세스 메모리(RAM), 및 입/출력(I/O) 인터페이스와 같은 하드웨어를 갖는 컴퓨터 플랫폼 상에서 구현된다. 컴퓨터 플랫폼은 또한 운영 체계 및 마이크로지령 코드를 포함할 수 있다. 본 명세서에 설명된 다양한 프로세스 및 기능은 CPU에 의해 실행될 수 있는 마이크로지령 코드의 부분 또는 애플리케이션 프로그램의 부분, 또는 이들의 임의의 조합일 수 있다. 더욱이, 추가 데이터 저장 유닛 및 프린팅 유닛과 같은 다양한 다른 주변 유닛이 컴퓨터 플랫폼에 연결될 수 있다.
첨부 도면에 도시된 구성 시스템 성분 및 방법의 일부가 소프트웨어에서 구현되는 것이 바람직하기 때문에, 시스템 성분 또는 프로세스 기능 블록 사이의 실제 연결은, 본 발명이 프로그래밍되는 방식에 따라 달라질 수 있다는 것이 더 이해될 것이다. 본 명세서에 가르침이 주어지면, 당업자는 본 발명의 이들 및 유사한 구현 또는 구성을 구상할 수 있다.
예시적인 실시예가 첨부 도면을 참조하여 본 명세서에 설명되었지만, 본 발명이 그러한 정밀한 실시예에 한정되지 않고, 다양한 변화 및 변형이 본 발명의 사상 또는 범주에서 벗어나지 않고도 당업자에 의해 본 명세서에서 달성될 수 있음이 이해될 것이다. 그러한 모든 변화 및 변형은 첨부된 청구항에 설명된 바와 같이 본 발명의 범주 내에 포함되도록 의도된다.
상술한 바와 같이, 본 발명은 비디오 인코더에 관한 것으로, 더 구체적으로, 화상 사이의 비디오 크로스-페이드(cross-fades)를 효과적으로 생성하는 장치 및 방법 등에 이용된다.

Claims (25)

  1. 적어도 하나의 크로스-페이드(cross-fade) 화상을 코딩하기 위한 기준 화상으로서 사용되는 시간적으로 페이드-아웃 시작 화상과 페이드-인 종료 화상 사이에 배치된 적어도 하나의 크로스-페이드 화상에 대한 비디오 신호 데이터를 인코딩하는 비디오 인코더(200, 300)로서,
    기준 화상 가중치 애플리케이터(applicator)(292, 393)와;
    상기 적어도 하나의 크로스-페이드 화상을 코딩하기 위해, 상기 페이드-아웃 시작 화상 및 페이드-인 종료 화상 각각에 대응하는 가중치 인자를 각각 할당하기 위한 상기 기준 화상 가중치 애플리케이터와 신호 통신 상태에 있는 기준 화상 가중치 인자 유닛(272, 372)을
    포함하는, 비디오 인코더.
  2. 제 1항에 있어서, 상기 적어도 하나의 크로스-페이드 화상을 코딩하기 위해, 상기 기준 화상 가중치 인자 유닛에 응답하여 움직임 보상된 페이드-아웃 시작 화상 및 움직임 보상된 페이드-인 종료 화상 중 적어도 하나를 제공하기 위해 상기 기준 화상 가중치 애플리케이터와 신호 통신 상태에 있는 움직임 보상 유닛(290, 390)을 더 포함하는, 비디오 인코더.
  3. 제 2항에 있어서, 상기 페이드-아웃 시작 화상 및 페이드-인 종료 화상 각각을 저장하기 위해 상기 기준 화상 가중치 인자 유닛 및 상기 움직임 보상 유닛 각각과 신호 통신 상태에 있는 기준 화상 저장부(270, 370)를 더 포함하는, 비디오 인코더.
  4. 제 2항에 있어서, 상기 기준 화상 가중치 애플리케이터는 상기 기준 화상 가중치 인자 유닛에 의해 선택된 가중치 인자를 상기 움직임 보상된 페이드-아웃 시작 화상 및 상기 움직임 보상된 페이드-인 종료 화상 중 적어도 하나에 적용하는, 비디오 인코더.
  5. 제 4항에 있어서, 양방향-예측 화상 예측자로 사용가능하고,
    상기 가중되고 움직임 보상된 페이드-아웃 시작 및 페이드-인 종료 화상으로부터 제 1 및 제 2 예측자(predictor)를 각각 형성하기 위한 예측 수단을 더 포함하는, 비디오 인코더.
  6. 제 5항에 있어서, 상기 가중되고 움직임 보상된 페이드-아웃 시작 및 페이드-인 종료 화상 각각은 적어도 하나의 크로스-페이드 화상 전체에 대해 반대 방향으로부터 나오는, 비디오 인코더.
  7. 제 1항에 있어서, 명시적(explicit) 동작 모드에서 가중치 인자에 응답하여 움직임 추정을 제공하기 위해 상기 기준 화상 가중치 인자 유닛과 신호 통신 상태에 있는 움직임 추정 유닛(380)을 더 포함하는, 비디오 인코더.
  8. 제 2항에 있어서, 명시적 동작 모드에서 오프셋을 상기 가중된 움직임 보상된 기준 화상에 적용하기 위해 상기 기준 화상 가중치 인자와 신호 통신 상태에 있는 합산 유닛(394)을 더 포함하는, 비디오 인코더.
  9. 화상 사이의 크로스-페이드를 인코딩하는 방법(700)으로서,
    크로스-페이드가 한정되는 화상을 식별하는 단계와;
    상기 크로스-페이드가 한정되는 화상으로부터 적절한 종점(end-point)을 결정하는 단계(714, 716)와;
    상기 종점의 중간에 적어도 하나의 화상을 인코딩(722)하기 전에 상기 종점을 인코딩하는 단계(718, 720)를
    포함하는, 화상 사이의 크로스-페이드를 인코딩하는 방법.
  10. 제 9항에 있어서, 상기 크로스-페이드가 한정되는 화상으로부터 상기 종점은 상기 종점의 중간에 적어도 하나의 화상을 인코딩할 때 기준 화상으로서 사용되는, 화상 사이의 크로스-페이드를 인코딩하는 방법.
  11. 제 9항에 있어서,
    실질적으로 압축되지 않은 페이드-아웃 시작 화상을 수신하고; 실질적으로 압축되지 않은 페이드-인 종료 화상을 수신하는 단계와;
    상기 페이드-아웃 시작 화상에 대응하는 적어도 하나의 화상에 대해 가중치 인자를 할당하는 단계와;
    상기 페이드-인 종료 화상에 대응하는 적어도 하나의 화상에 대해 가중치 인자를 할당하는 단계를
    더 포함하는, 화상 사이의 크로스-페이드를 인코딩하는 방법.
  12. 제 11항에 있어서,
    상기 적어도 하나의 크로스-페이드 화상과, 상기 페이드-아웃 시작 화상 및 상기 페이드-인 종료 화상 중 적어도 하나 사이의 차이에 대응하는 움직임 벡터를 계산하는 단계와;
    상기 움직임 벡터에 따라 상기 페이드-아웃 시작 화상 및 상기 페이드-인 종료 화상 중 적어도 하나를 움직임 보상하는 단계와;
    적어도 하나의 가중되고 움직임 보상된 기준 화상을 형성하기 위해, 상기 페이드-아웃 시작 화상 및 상기 페이드-인 종료 화상 중 움직임 보상된 적어도 하나를 상기 할당된 가중치 인자와 각각 곱하는 단계와;
    상기 적어도 하나의 크로스-페이드 화상으로부터 상기 적어도 하나의 가중되고 움직임 보상된 기준 화상을 감산하고; 상기 적어도 하나의 크로스-페이드 화상과 상기 적어도 하나의 가중되고 움직임 보상된 기준 화상 사이의 차이를 나타내는 신호를 인코딩하는 단계를
    더 포함하는, 화상 사이의 크로스-페이드를 인코딩하는 방법.
  13. 제 12항에 있어서, 미리-코딩된 페이드-아웃 시작 화상, FP0, 및 페이드-인 종료 화상, FP1을 포함하는, 정확히 2개의 기준 화상이 사용되는, 화상 사이의 크로스-페이드를 인코딩하는 방법.
  14. 제 13항에 있어서,
    상기 적어도 하나의 크로스-페이드 화상으로부터 감산하기 전에 상기 움직임 보상된 페이드-아웃 시작 화상과 상기 움직임 보상된 페이드-인 종료 화상을 조합하는 단계를 더 포함하는, 화상 사이의 크로스-페이드를 인코딩하는 방법.
  15. 제 12항에 있어서, 움직임 벡터를 계산하는 단계는,
    상기 적어도 하나의 크로스-페이드 화상에 대해 미리 결정된 범위의 오프셋 내의 변위마다 검색 영역 내에서 테스트하는 단계와;
    움직임 보상된 기준 화상으로 상기 적어도 하나의 크로스-페이드 화상에서의 각 픽셀의 절대 차이의 합과 평균 제곱 에러 중 적어도 하나를 계산하는 단계와;
    상기 움직임 벡터로서 가장 낮은 상기 절대 차이의 합과 평균 제곱 에러를 이용하여 오프셋을 선택하는 단계를
    포함하는, 화상 사이의 크로스-페이드를 인코딩하는 방법.
  16. 제 12항에 있어서, 움직임 벡터를 계산하는 단계는,
    상기 적어도 하나의 크로스-페이드 화상에 대해 미리 결정된 범위의 오프셋 내의 변위마다 검색 영역 내에서 테스트하는 단계와;
    상기 페이드-아웃 시작 화상에 대응하는 제 1 움직임 보상된 기준 화상으로 상기 적어도 하나의 크로스-페이드 화상에서의 각 픽셀의 절대 차이의 합과 평균 제곱 에러의 합 중 적어도 하나를 계산하는 단계와;
    상기 페이드-아웃 시작 화상에 대한 상기 움직임 벡터로서 가장 낮은 상기 절대 차이의 합과 평균 제곱 에러를 이용하여 오프셋을 선택하는 단계와;
    상기 페이드-인 종료 화상에 대응하는 제 2 움직임 보상된 기준 화상으로 상기 이미지 블록에서의 각 픽셀의 절대 차이의 합과 평균 제곱 에러 중 적어도 하나를 계산하는 단계와;
    상기 페이드-인 종료 화상에 대한 움직임 벡터로서 가장 낮은 상기 절대 차이의 합과 평균 제곱 에러를 이용하여 오프셋을 선택하는 단계를
    포함하는, 화상 사이의 크로스-페이드를 인코딩하는 방법.
  17. 제 11항에 있어서, 상기 페이드-아웃 시작 화상 및 상기 페이드-인 종료 화상 각각에 대한 가중치 인자는 암시적(implicit) 동작 모드에서 상기 적어도 하나의 크로스-페이드 화상과 상기 페이드-아웃 시작 화상 또는 페이드-인 종료 화상 사이의 상대적인 거리에 각각 따르는, 화상 사이의 크로스-페이드를 인코딩하는 방법.
  18. 비디오 코덱으로서,
    제 1항에 기재된 인코더와, 크로스-페이드 화상을 예측하기 위해 페이드-아웃 시작 화상 및 페이드-인 종료 화상 각각에 대해 크로스-페이드 화상에 대한 비디오 신호 데이터를 디코딩하는 디코더(500)를 포함하며, 상기 디코더는 페이드-아웃 시작 화상 및 페이드-인 종료 화상 각각에 대응하는 가중치 인자를 결정하기 위한 출력을 갖는 기준 화상 가중치 인자 유닛(580)을 포함하는, 비디오 코덱.
  19. 제 18항에 있어서, 상기 기준 화상 가중치 인자 유닛은 상기 페이드-아웃 시작 화상 및 페이드-인 종료 화상 각각에 대응하는 오프셋을 결정하기 위한 제 2 출력을 갖는, 비디오 코덱.
  20. 제 18항에 있어서, 상기 페이드-아웃 시작 화상 및 페이드-인 종료 화상 각각에 대응하는 인덱스들을 상기 기준 화상 가중치 인자 유닛에 제공하기 위해 기준 화상 가중치 인자 유닛과 신호 통신 상태에 있는 가변 길이 디코더(510)를 더 포함하는, 비디오 코덱.
  21. 제 18항에 있어서, 상기 기준 화상 가중치 인자 유닛에 따라 움직임 보상된 기준 화상을 제공하기 위해 상기 기준 화상 가중치 인자 유닛과 신호 통신 상태에 있는 움직임 보상기(560)를 더 포함하는, 비디오 코덱.
  22. 제 21항에 있어서, 가중치 인자를 각 움직임 보상된 기준 화상에 적용하기 위해 상기 움직임 보상기 및 상기 기준 화상 가중치 인자 유닛과 신호 통신 상태에 있는 기준 화상 가중치 애플리케이터(570)를 더 포함하는, 비디오 코덱.
  23. 제 21항에 있어서, 각 움직임 보상된 기준 화상에 대한 오프셋을 적용하기 위해 상기 움직임 보상기 및 상기 기준 화상 가중치 인자와 신호 통신 상태에 있는 가산기(590)를 더 포함하는, 비디오 코덱.
  24. 제 18항에 있어서, 상기 비디오 신호 데이터는 블록 변환 계수를 포함하는 스트리밍 비디오 신호 데이터인, 비디오 코덱.
  25. 제 18항에 있어서, 양방향-예측 화상 예측자로 사용가능하며, 상기 디코더는
    2개의 상이한 기준 화상으로부터 제 1 및 제 2 예측자를 형성하기 위한 예측 수단과;
    단일 평균화 예측자를 형성하기 위해 대응하는 가중치 인자를 이용하여 상기 제 1 및 제 2 예측자를 함께 평균화하기 위한 평균화 수단을
    더 포함하는, 비디오 코덱.
KR1020057010096A 2002-12-04 2003-11-13 화상 사이의 크로스-페이드를 인코딩하는 방법, 비디오 인코더 및 비디오 코덱 KR101017907B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US43079302P 2002-12-04 2002-12-04
US60/430,793 2002-12-04

Publications (2)

Publication Number Publication Date
KR20050084138A true KR20050084138A (ko) 2005-08-26
KR101017907B1 KR101017907B1 (ko) 2011-03-04

Family

ID=32507656

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020057010096A KR101017907B1 (ko) 2002-12-04 2003-11-13 화상 사이의 크로스-페이드를 인코딩하는 방법, 비디오 인코더 및 비디오 코덱

Country Status (10)

Country Link
US (1) US20060093038A1 (ko)
EP (1) EP1568222B1 (ko)
JP (1) JP4756573B2 (ko)
KR (1) KR101017907B1 (ko)
CN (1) CN100403793C (ko)
AU (1) AU2003290895A1 (ko)
BR (1) BR0316963A (ko)
MX (1) MXPA05005988A (ko)
MY (1) MY165549A (ko)
WO (1) WO2004054225A2 (ko)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4015934B2 (ja) * 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
DE10214397A1 (de) * 2002-03-30 2003-10-16 Bts Media Solutions Gmbh Verfahren und Vorrichtung zum Verarbeiten von Signalen
CN100566420C (zh) 2002-07-15 2009-12-02 株式会社日立制作所 动态图像的编码方法
WO2004064398A1 (en) * 2003-01-10 2004-07-29 Thomson Licensing S.A. Fast mode decision making for interframe encoding
MXPA05013727A (es) 2003-06-25 2006-07-06 Thomson Licensing Metodo y aparato para el calculo de prediccion ponderada con el uso de diferencial de cuadro desplazado.
US20050129111A1 (en) * 2003-12-16 2005-06-16 Nokia Corporation Transform-domain video editing
WO2005094086A1 (en) * 2004-02-27 2005-10-06 Thomson Licensing Error concealment technique using weighted prediction
CN101023673B (zh) * 2004-09-16 2011-06-08 汤姆逊许可证公司 具有利用局部亮度变化的加权预测的视频编解码器
JP2006209082A (ja) * 2004-12-27 2006-08-10 Matsushita Electric Ind Co Ltd 表示処理装置
RU2405217C2 (ru) * 2005-01-31 2010-11-27 Скайп Лимитед Способ взвешенного сложения с перекрытием
EP1881707A4 (en) * 2005-04-13 2009-11-04 Ntt Docomo Inc DEVICE FOR DYNAMIC IMAGE DEFINITION, DEVICE FOR DYNAMIC IMAGE DEFINITION, METHOD FOR DYNAMIC IMAGE ENCODING, METHOD FOR DYNAMIC IMAGE DECODING, DYNAMIC IMAGE ENCODING PROGRAM, AND DYNAMIC IMAGE DECODING PROGRAM
US8239766B2 (en) * 2005-09-27 2012-08-07 Qualcomm Incorporated Multimedia coding techniques for transitional effects
EP1806930A1 (en) * 2006-01-10 2007-07-11 Thomson Licensing Method and apparatus for constructing reference picture lists for scalable video
JP5165593B2 (ja) 2006-02-02 2013-03-21 トムソン ライセンシング 組合せ参照双方向予測を用いて動き推定を行う方法および装置
KR101406156B1 (ko) 2006-02-02 2014-06-13 톰슨 라이센싱 움직임 보상 예측을 위한 적응 가중 선택 방법 및 장치
BRPI0600823B1 (pt) * 2006-03-14 2018-02-14 Whirlpool S.A. Sistema de programação de equipamentos eletrodomésticos e método de programação de equipamentos eletrodomésticos programáveis em linha de montagem
KR100771879B1 (ko) * 2006-08-17 2007-11-01 삼성전자주식회사 내부 메모리 용량을 감소시키는 디블록킹 필터링 방법 및그 방법을 이용하는 영상 처리 장치
JP2008193503A (ja) * 2007-02-06 2008-08-21 Oki Electric Ind Co Ltd 動画像符号化装置および動画像符号化方法
JP2008219100A (ja) * 2007-02-28 2008-09-18 Oki Electric Ind Co Ltd 予測画像生成装置、方法及びプログラム、並びに、画像符号化装置、方法及びプログラム
US8238432B2 (en) 2007-03-05 2012-08-07 Nec Corportion Weighted prediction information calculation method, apparatus, and program, and video coding method, apparatus, and program
JP2008227702A (ja) 2007-03-09 2008-09-25 Oki Electric Ind Co Ltd 動きベクトル探索装置、動きベクトル探索方法及び動きベクトル探索プログラム
CN104023242B (zh) * 2007-04-09 2017-07-07 株式会社Ntt都科摩 图像预测编码装置及方法、图像预测解码装置及方法
EP2193659A4 (en) * 2007-09-20 2015-08-12 Lg Electronics Inc METHOD AND DEVICE FOR PROCESSING A SIGNAL
EP2154893A1 (en) * 2008-08-13 2010-02-17 Thomson Licensing Method for modifying a reference block of a reference image, method for encoding or decoding a block of an image by help of a reference block and device therefor and storage medium or signal carrying a block encoded by help of a modified reference block
US8326075B2 (en) 2008-09-11 2012-12-04 Google Inc. System and method for video encoding using adaptive loop filter
CN101686403B (zh) * 2008-09-28 2011-08-17 扬智科技股份有限公司 图片交互淡入淡出的处理方法及装置
US8995526B2 (en) * 2009-07-09 2015-03-31 Qualcomm Incorporated Different weights for uni-directional prediction and bi-directional prediction in video coding
US9161057B2 (en) * 2009-07-09 2015-10-13 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
WO2011019384A1 (en) * 2009-08-11 2011-02-17 Thomson Licensing Methods and apparatus for generalized weighted prediction
EP2514209A4 (en) * 2009-12-17 2014-03-26 Ericsson Telefon Ab L M METHOD AND DEVICE FOR VIDEO CODING
JP2011147049A (ja) * 2010-01-18 2011-07-28 Sony Corp 画像処理装置および方法、並びにプログラム
JP5882984B2 (ja) * 2010-03-16 2016-03-09 トムソン ライセンシングThomson Licensing ビデオ符号化およびビデオ復号化のための暗示的適応型動きベクトル予測子選択の方法および装置
US9161058B2 (en) * 2010-03-27 2015-10-13 Texas Instruments Incorporated Method and system for detecting global brightness change for weighted prediction in video encoding
JP5606625B2 (ja) * 2010-07-21 2014-10-15 ドルビー ラボラトリーズ ライセンシング コーポレイション ビデオ符号化のための高度な動きモデルを使った参照処理
US9524523B2 (en) * 2010-09-01 2016-12-20 Vigor Systems Inc. Fail-safe switch for media insertion server in a broadcast stream
US8503528B2 (en) 2010-09-15 2013-08-06 Google Inc. System and method for encoding video using temporal filter
US9532059B2 (en) 2010-10-05 2016-12-27 Google Technology Holdings LLC Method and apparatus for spatial scalability for video coding
US8693547B2 (en) * 2011-04-06 2014-04-08 Google Inc. Apparatus and method for coding using motion vector segmentation
US8780971B1 (en) 2011-04-07 2014-07-15 Google, Inc. System and method of encoding using selectable loop filters
US8781004B1 (en) 2011-04-07 2014-07-15 Google Inc. System and method for encoding video using variable loop filter
US8780996B2 (en) 2011-04-07 2014-07-15 Google, Inc. System and method for encoding and decoding video data
US8989256B2 (en) 2011-05-25 2015-03-24 Google Inc. Method and apparatus for using segmentation-based coding of prediction information
US8885706B2 (en) 2011-09-16 2014-11-11 Google Inc. Apparatus and methodology for a video codec system with noise reduction capability
KR101738289B1 (ko) 2011-10-17 2017-05-19 가부시끼가이샤 도시바 복호 장치 및 복호 방법
US9779736B2 (en) 2011-11-18 2017-10-03 Sirius Xm Radio Inc. Systems and methods for implementing efficient cross-fading between compressed audio streams
MX356063B (es) 2011-11-18 2018-05-14 Sirius Xm Radio Inc Sistemas y metodos que implementan la transicion gradual, los intersticiales y otros efectos corriente abajo.
US9247257B1 (en) 2011-11-30 2016-01-26 Google Inc. Segmentation based entropy encoding and decoding
US9094681B1 (en) 2012-02-28 2015-07-28 Google Inc. Adaptive segmentation
US9131073B1 (en) 2012-03-02 2015-09-08 Google Inc. Motion estimation aided noise reduction
MX343807B (es) 2012-03-06 2016-11-24 Sirius Xm Radio Inc Sistemas y métodos para el mapeo de atributos de audio.
JP6012014B2 (ja) * 2012-03-30 2016-10-25 サン パテント トラスト 画像符号化方法および画像復号方法
RU2609063C2 (ru) 2012-06-27 2017-01-30 Кабусики Кайся Тосиба Устройство кодирования, устройство декодирования, способ кодирования и способ декодирования
US9344729B1 (en) 2012-07-11 2016-05-17 Google Inc. Selective prediction signal filtering
US9332276B1 (en) 2012-08-09 2016-05-03 Google Inc. Variable-sized super block based direct prediction mode
US9380298B1 (en) 2012-08-10 2016-06-28 Google Inc. Object-based intra-prediction
US20140267679A1 (en) * 2013-03-13 2014-09-18 Leco Corporation Indentation hardness test system having an autolearning shading corrector
JP6087747B2 (ja) * 2013-06-27 2017-03-01 Kddi株式会社 映像符号化装置、映像復号装置、映像システム、映像符号化方法、映像復号方法、およびプログラム
US20150341659A1 (en) * 2014-05-22 2015-11-26 Apple Inc. Use of pipelined hierarchical motion estimator in video coding
US10102613B2 (en) 2014-09-25 2018-10-16 Google Llc Frequency-domain denoising
WO2019191714A1 (en) * 2018-03-30 2019-10-03 Hulu, LLC Template based adaptive weighted bi-prediction for video coding
CA3039702A1 (en) * 2018-04-06 2019-10-06 Comcast Cable Communications, Llc Systems and methods for compressing video
US11706404B2 (en) * 2018-04-28 2023-07-18 Intel Corporaton Weighted prediction mechanism

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2853553B2 (ja) * 1994-02-22 1999-02-03 日本電気株式会社 動画像符号化方式
CN1166751A (zh) * 1996-04-27 1997-12-03 日本胜利株式会社 图象切换装置
US6195458B1 (en) * 1997-07-29 2001-02-27 Eastman Kodak Company Method for content-based temporal segmentation of video
US5978029A (en) * 1997-10-10 1999-11-02 International Business Machines Corporation Real-time encoding of video sequence employing two encoders and statistical analysis
GB2356997A (en) * 1999-12-02 2001-06-06 Sony Uk Ltd Video signal processing
US7903742B2 (en) * 2002-07-15 2011-03-08 Thomson Licensing Adaptive weighting of reference pictures in video decoding
US7376186B2 (en) * 2002-07-15 2008-05-20 Thomson Licensing Motion estimation with weighting prediction

Also Published As

Publication number Publication date
WO2004054225A3 (en) 2004-10-07
KR101017907B1 (ko) 2011-03-04
CN1720730A (zh) 2006-01-11
MY165549A (en) 2018-04-03
JP2006509467A (ja) 2006-03-16
WO2004054225A2 (en) 2004-06-24
AU2003290895A1 (en) 2004-06-30
EP1568222B1 (en) 2019-01-02
MXPA05005988A (es) 2005-08-18
US20060093038A1 (en) 2006-05-04
BR0316963A (pt) 2005-10-25
AU2003290895A8 (en) 2004-06-30
CN100403793C (zh) 2008-07-16
EP1568222A4 (en) 2012-10-03
EP1568222A2 (en) 2005-08-31
JP4756573B2 (ja) 2011-08-24

Similar Documents

Publication Publication Date Title
KR101017907B1 (ko) 화상 사이의 크로스-페이드를 인코딩하는 방법, 비디오 인코더 및 비디오 코덱
US7376186B2 (en) Motion estimation with weighting prediction
KR100958504B1 (ko) 가중치 예측을 사용한 움직임 추정
US7903742B2 (en) Adaptive weighting of reference pictures in video decoding
ZA200500416B (en) Adaptive weighting of reference pictures in video encoding

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140120

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150120

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160119

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170119

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180118

Year of fee payment: 8