KR20010073031A - 모션 벡터의 송신 비용 절감을 위한 모션 추정 방법 - Google Patents

모션 벡터의 송신 비용 절감을 위한 모션 추정 방법 Download PDF

Info

Publication number
KR20010073031A
KR20010073031A KR1020017002510A KR20017002510A KR20010073031A KR 20010073031 A KR20010073031 A KR 20010073031A KR 1020017002510 A KR1020017002510 A KR 1020017002510A KR 20017002510 A KR20017002510 A KR 20017002510A KR 20010073031 A KR20010073031 A KR 20010073031A
Authority
KR
South Korea
Prior art keywords
vector
vectors
image
motion
main
Prior art date
Application number
KR1020017002510A
Other languages
English (en)
Other versions
KR100649654B1 (ko
Inventor
크리스토프 슈반스
삐에르 루엘루
도미니끄 또로
Original Assignee
브릭크만 게오르그
톰슨 멀티미디어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 브릭크만 게오르그, 톰슨 멀티미디어 filed Critical 브릭크만 게오르그
Publication of KR20010073031A publication Critical patent/KR20010073031A/ko
Application granted granted Critical
Publication of KR100649654B1 publication Critical patent/KR100649654B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

본 방법은, 움직임 벡터 필드를 얻기 위해서 비디오 이미지를 이미지 블록들로 분할(segmentation)하며, 이미지 블록마다 움직임을 추정하는 것을 포함한다. 본 발명은 벡터들의 필드에 속하는 N개의 주(predominant) 벡터들중에서 하나의 움직임 벡터를 선택함으로써 벡터를 블록에 재할당하는 단계를 포함하는 것을 특징으로 한다. 본 출원은 예컨대 이미지-블록 매칭에 의한 움직임 추정에 관한 것이다.

Description

모션 벡터의 송신 비용 절감을 위한 모션 추정 방법{METHOD OF MOTION ESTIMATION FOR TRANSMISSION COST REDUCTION OF MOTION VECTORS}
비디오 코딩에서 구현되는 대부분의 움직임-추정 알고리즘은 "블록 매칭(block matching)" 기법을 사용한다.
이미지는 매크로블록(macroblock)으로 지칭되는 N*N 크기의 블록들로 분할되며, 추정기는 현재 이미지 블록과, 기준 이미지 블록 사이의 차이를 최소화하는 벡터를 탐색한다. 이 차이는 일반적으로 휘도 픽셀 상에서 계산된 MSE(평균 제곱 차 : Mean Square Difference) 또는 MAE(평균 절대값 차 : Mean Absolute Difference)이다.
이러한 유형의 추정기는, 휘도의 변동에 기초하며, 시퀀스에서의 실제 움직임에 기초하지 않으므로, 이질적인(heterogeneous) 움직임 필드를 공급할 수 있다. 이것은, 코더에 의해 벡터를 코딩하기 위해 오버헤드(overhead)를 수반할 것이며, 이러한 코딩이 일반적으로 다른 유형이어서, 성능의 감소를 수반할 것이다.
본 발명은 MPEG(동화상 전문가 그룹 : Motion Picture Experts Group)-유형 비디오 코딩에 적용되는 움직임 추정(movement estimation) 방법에 관한 것이다.
도 1은 움직임 벡터의 히스토그램(histogram)을 나타낸 도면.
도 2는 영역-최대치 탐색 윈도우(window)를 나타낸 도면.
도 3은 미디언 필터링(median filtering)의 예를 나타낸 도면.
도 4는 고려되고 있는 선행하는 이미지 벡터의 예를 나타낸 도면.
도 5는 줌(zoom) 동작 동안에 움직임-벡터 필드를 나타낸 도면.
도 6은 검출될 수 도 있는 움직임의 여러 유형을 나타낸 도면.
본 발명의 목적은 앞서 언급한 결점들을 해결하는 것이다.
본 발명의 요지는 움직임 벡터 필드를 얻기 위해서 비디오 이미지를 이미지 블록들로 분할하며 이미지 블록마다 움직임을 추정하는 움직임 추정 방법이며, 이 움직임 추정 방법은 벡터 필드에 속한 N개의 주(predominant) 벡터 사이에서 하나의 움직임 벡터를 선택함으로써 벡터를 블록에 재할당하는 단계를 포함하는 것을 특징으로 한다.
하나의 특정한 구현에 따라서, 다른 주 벡터들을 선택하는 동안에 고려되지 않도록 하나의 주 벡터에 대해 2차적인 영역 최대치(second-order regional maxima)가 검출된다.
또 다른 구현에 따라서, 주 벡터들은 네 방향 각각에서 선택된다.
본 방법의 특정한 구현에 따라서, 재할당된 벡터의 선택은 변위된 이미지간 차이(DFD : inter-displaced-image difference) 값에 기초한다.
본 발명의 특정한 특징은, 만약 N개의 주 벡터들과 관련된 DFD들이 원래의(original) 벡터와 관련된 DFD보다 더 크다면 제로 벡터를 채택하며, 또는 만약 N개의 주 벡터들과 관련된 DFD들이 원래의 벡터와 관련된, 가중된(weighted) DFD보다 더 크다면 원래의 벡터를 실제로 계속 유지한다는데 있다.
본 방법의 또 다른 구현에 따라서, 재할당된 벡터의 선택은 이미지간 차이 블록(현재 블록 - 추정 블록)에서의 동작(activity) 계산{공간 그레디언트(gradient)}에 기초한다. 만약 N개의 주 벡터들에 대응하는 동작들이 원래의 벡터에 대응하는 동작보다 더 크다면, 제로 벡터가 채택된다. 만약 N개의 주벡터들에 대응하는 동작들이 원래의 벡터에 대응하는 가중된 동작보다 더 크다면, 원래의 벡터가 계속 유지된다.
본 방법의 또 다른 특정한 구현에 따라서, 각 이미지에 대해서, 주 벡터들이 현재의 이미지에 대한 벡터 필드와, 적어도 하나의 선행하는 이미지에 대한 벡터 필드 사이에서 선택된다.
본 발명에 의해서, "블록 매칭" 유형의 추정기에 의해 계산된 움직임 벡터 필드들은 동질화될 수 있다(homogenize).
본 발명의 특징과 장점은, 실시예를 통해 그리고 첨부된 도면에 대한 참조를 통해 제공된 다음의 설명으로부터 더 명백해질 것이다.
벡터 필드의 동질화(homogenization)는 조건적 재할당 방법을 통해서 얻어진다.
시퀀스의 이미지들과 관련된 벡터들은 추정기에 의해서 계산되고 저장된다.
이 벡터들에 대한 처리를 수행하기 위해서, 2차원 히스토그램이 512*512의 크기로 구성되며, 여기서 좌표들은 이러한 벡터들의 수평 및 수직 성분값인 값(dx, dy)을 나타낸다.
도 1의 왼편은 움직임 벡터들이 할당되는 매크로블록들로 구성된 이미지를 나타내며, 오른편은 이에 대응하는 히스토그램을 나타낸다.
주 벡터들 선택
움직임 필드를 좀더 동질화하기 위해서, 본 개념(the idea)은 사용자에 의해 제 1 위치에서 정해진 특정한 개수의 벡터들을 채택할 것이다. 이러한 개수는 움직임의 이질성(heterogeneity)에 비례해서 더 커질 것이다.
제 1 해결책은 가장 높은 출현(appearance) 빈도에 대응하는 N개의 벡터들을 채택하는 것이다.
또 다른 가능성은 본 알고리즘이 네 방위면 각각에서 N/4개의 주 벡터를 선택해야 함을 규정하는 것이다. 이러한 해결책은 시퀀스에서의 줌 동작 검출시의 출력 표준으로서 선택사항으로 채택될 수 있다. 이것은, 이러한 현상이 벡터 필드의 모든 방향에서의 분포를 수반하기 때문이다.
고려되는 마지막 해결책은 영역 최대치에 대한 검출을 수행하는 것이다. 이것은, 제 1 해결책에서의 문제가 몇 개의 연속적인 최대치를 가질 수 있기 때문이며, 이러한 몇 개의 연속적인 최대치를 갖는 문제는 더 적은 수의 최대치를 채택하는 것과 비교해서 많은 이점들을 제공하지는 않는다.
그러므로, 히스토그램은, 다른 더 많은 주 벡터들 근처에서 나타나는 N개의주 벡터들 사이에서 이러한 벡터들을 거부하면서 주사된다. 따라서, 이러한 2차적인 최대치의 존재는 두 최대치가 예컨대 3*3의 크기를 갖는 동일한 윈도우에 놓이는지를 알기 위해서 히스토그램을 조사함으로써 식별된다.
도 2는, 영역 최대치를 탐색하기 위한 그러한 윈도우(1)를 나타내며, 이 윈도우의 중심은 대략 (dx, dy)으로 채택된 주 벡터이며, 이 주 벡터의 발생 횟수는 n이다.
매크로블록(MB)에 할당된 벡터 선택. 재할당
-DFD 방법
일단 주 벡터들이 추출되어지면, 이러한 벡터들 각각을 각 MB에 재할당하기 위해서 임의의 표준이 발견되어서 유지된다. 움직임 추정기가 움직임 벡터들을 계산하기 위해서 최소 DFD(변위된-프레임 차이 : Displaced-Frame Difference) 표준을 사용하므로, 채택된 벡터와, 처리될 이미지의 매크로블록 사이에 최대로 가능한 일치(best possible correspondence)를 발견하기 위해서 이 표준을 사용하는 것은 유용할 것이다.
벡터들의 출현 빈도가 증가하는 순서로 벡터들을 정돈한 후, 이 벡터들 각각과 관련된 DFD에 대한 계산이 각 MB에 대해 수행된다. 이 계산은 다음의 공식에 의해서 간단하게 표현될 수 있다:
여기서, (i, j)는 처리될 MB의 좌표이며; N(=16)은 MB의 크기이며; (dx, dy)는 테스트될 벡터 성분들로서, [-128; +127.5]에 속한다.
이 공식을 적용하기 이전에, 테스트될 벡터가 기준 이미지의 바깥쪽을 지시하지 않는지를 검사하는 것이 중요하다. 만약 적합한 벡터가 없다면, 제로 벡터가 할당된다.
그러므로 최소 DFD에 대응하는 벡터가 각 MB에 할당된다.
-그레디언트 방법
이것은 예상 기준 이미지와, 현재 이미지로 구성된 "차이" 이미지의 각 MB에 대해 MB의 국부적인 동작에 대한 정보(수평 및 수직 그레디언트 유형)를 제공하는 최소 그레디언트에 대응하는 벡터를 찾는 것이다.
MB_그레디언트=블록_활성이며,
여기서,블록_활성=
재할당의 증가
DFD/그레디언트 표준
작은 크기의 물체에 관련된 특정한 움직임들을 유지하기 위해서, 다음의 표준이 한정된다:
만약 DFD 방법을 적용한 후, MB에 채택된 벡터가 가중된 원래의 DFD보다 더큰 DFD를 생성한다면, 원래의 벡터가 유지된다.
마찬가지로, 그레디언트 방법에 관해서는, 이미지간 차이 이후 얻어진 각 MB에 대해서, 재할당에 의해서 얻어진 그레디언트가 원래 벡터의 그레디언트와 비교된다. 만약 가중된 원래의 그레디언트가 새 그레디언트보다 더 작다면, 원래의 벡터가 유지된다.
움직임 벡터들에 적용되는 필터링
벡터 필드들을 좀더 동질화시키기 위해서, 다른 표준, 즉 공간 필터링 또는 시간 필터링이 사용될 수 도 있다.
- 공간 필터링
채택된 필터는 2차원의 3*3 미디언 필터이다:
원리는, 필터링하기 이전의 이미지(2)와 필터링한 후의 이미지(3)를 나타내는 도 3을 고려하여 이하에서 설명된다. 벡터(4)는 처리될 벡터이다.
해당 MB 성분들의 수평 및 수직 인접 성분들(dx, dy)은 각 방향을 따라서 정렬되며, 이때 각 성분의 중간 값이 선택된다. 다음으로, 성분중 하나가 필터링되거나, 모두 필터링되거나, 어떠한 성분도 필터링되지 않는 경우에, 각 MB와 관련된 여러 DFD들이 비교된다. 그러므로, 명백히 가중된 원래의 DFD인 최소 DFD에 대응하는 벡터가 선택된다.
-시간 필터링
시간 코히어런스(coherence) 개념은, 이미지 벡터의 재할당에서 선행하는 이미지들의 움직임 필드들을 고려할 것이다. 이것은 하나의 이미지로부터 또 다른 이미지로의 움직임들의 불일치(disparity)를 제한할 목적으로 수행된다.
맨 먼저, 순방향 벡터들(지연된-움직임 벡터들)에 대한 시간 필터링 원리를 상세하게 다룰 것이다.
순방향 벡터들에 대한 공간-시간 히스토그램:
여러 가지의 히스토그램들을 고려하기 위해서, 벡터들에 대한 크기조정 (scaling)이 첫 단계로 수행되며, 그런 다음 처리된 히스토그램에 대한 여러 가지의 히스토그램들의 위치 함수인 발생에 대한 가중이 수행된다.
그러므로, 도 4의 P 이미지에 대해서, 원래 벡터들의 히스토그램에 인자(3)만큼 가중된 벨터들의 발생, 인자(1)만큼 가중된 제 1 B 벡터들(3이 곱해진 크기를 가짐)의 발생뿐만 아니라 인자(2)만큼 가중된 제 2 B 벡터들(3/2이 곱해진 크기를 가짐)의 발생을 추가하는 것이 가능하다.
시간 코히어런스는 균등한 움직임이 존재하고, 움직임의 브레이크(breaks in movement)(장면의 변화)가 존재하지 않을 때와 관련되어야 한다.
역방향 벡터들{앞선(anticipated)-움직임 벡터들}의 경우:
만약 하나의 이미지에서 그 다음 이미지로의 균등한 "순방향" 움직임들이 존재한다면, B 이미지들과 관련된 "역방향" 벡터들의 경우에도 균등한 "순방향" 움직임들이 존재할 것으로 생각하는 것이 논리적일 것이다. B 이미지들과 관련된 "역방향" 벡터들을 필터링하기 위해서, 상기 역방향 벡터들이 해당 B 다음에 올 P 또는 I에 기초하고 있음을 잊지 말아야 한다. 그러므로, 제 1 B에 대해서, 제 1 B의 역방향 벡터들이 제 2 B와 관련된 역방향 벡터들에 두 배인 것으로 생각할 수 도 있다. 제 2 B의 벡터들에 대한 크기조정이 인자(2)만큼 수행되며, 가중된 발생이 제 1 B와 관련된 히스토그램에 더해질 것이다.
균등한 필드 검출
예컨대 줌 동작과 같은 다수 방향 움직임을 갖는 시퀀스 상에서 N개의 벡터를 가지고 재할당을 적용한다는 개념은 적절하지 않다. 이것은, 이러한 아주 특정한 경우에 단지 N개의 주 벡터들을 채택한다는 것이 다수의 벡터들로 구성된 필드들을 알맞게 처리할 수는 없기 때문이다.
도 5는 줌 동작 동안의 벡터들의 이미지를 나타낸다. 필드에서의 불일치가 임의의 이러한 균등성을 허용하지 않음을 쉽게 알 수 있다.
그러므로, 벡터들이 단방향 또는 모든 방향으로(줌 동작) 균등하게 분포된 필드를 제 1 위치에서 검출하는 것이 결정된다. 이러한 검출은, N개의 주 벡터들 사이에서 계산된 평균 표준 편차에 근접한 제 1 주 벡터의 표준 편차로 전달된다. 이것은 다음과 같이 표현된다:
만약≤임계치*평균치이면, 균등한 필드가 존재하며, 여기서 임계치는 사용자에 의해 정해진다(예컨대, 임계치=1.34).
성공적으로 검출된 움직임들의 유형에 관련된 예들이 도 6a, 6b, 6c, 6d에 나타내어졌다.
여기에서, 목적은 현재 경우(c) 및 (d)가 존재할 때 본 알고리즘을 적용하지 않기 위한 것이다. 이러한 경우들은 경우(a) 및 (b)와 여전히 구별되어야 한다. 이를 위해서 채택된 N개중에서 dx 및 dy 움직임들의 평균값들이 검사되며, 이들 평균값들이 0에 근접한지의 여부가 알려진다. 이것은, 줌 동작에서의 움직임들이 단방향 움직임과는 대조적으로 만약 이들 움직임들이 더해진다면 취소되는 것처럼 관찰될 수 도 있기 때문이다. 다섯 개의 픽셀들 사이의 최대 차이가 dx, dy를 위해 세팅될 수 있다.
시간 필터링상의 제한사항
움직임의 브레이크시에 히스토그램을 시간적으로 필터링하지 않는 것이 유용하다. 다음과 같은 것이 가능하다:
- P-유형 이미지에 대한 최초 또는 재할당된 벡터들의 히스토그램을 저장하는 것과;
그 다음 P-유형 이미지{P(t)}에서, 새로운 "이미지" 벡터들이 비교된다. 만약 이 새 "이미지" 벡터들이 P(t-n)로부터 발생한 자신들의 대응벡터(counterpart)와 너무 많이 다르다면, 원래의 벡터들이 유지된다.
주 벡터들의 개수 선택
필요한 벡터의 수는, 랜덤(random)한 움직임을 갖는 시퀀스들에 대해 균등한 움직임들을 갖는 시퀀스들{"트레인(train)"}보다 더 많은 벡터들이 존재하는 방식으로 자동으로 다이내믹하게 결정될 수 있을 것이다.
상술한 바와 같이, 본 발명은 MPEG-유형 비디오 코딩에 적용되는 움직임 추정에 응용된다.

Claims (14)

  1. 움직임 벡터 필드를 얻기 위해서, 비디오 이미지를 이미지 블록들로 분할(segmentation)하며, 이미지 블록마다 움직임을 추정하는 움직임 추정(movement estimation) 방법으로서,
    상기 벡터 필드에 속하는 N개의 주(predominant) 벡터들 사이에서 하나의 움직임 벡터를 선택함으로써 벡터를 블록에 재할당하는 단계를 포함하는 것을 특징으로 하는, 움직임 추정 방법.
  2. 제 1항에 있어서, 주 벡터에 대해서, 다른 주 벡터들을 선택하는 동안에 고려되지 않도록, 2차적인 영역 최대치(second-order regional maxima)가 검출되는 것을 특징으로 하는, 움직임 추정 방법.
  3. 제 1항에 있어서, 상기 주 벡터는 네 방향 각각에서 선택되는 것을 특징으로 하는, 움직임 추정 방법.
  4. 제 1항에 있어서, 상기 재할당된 벡터에 대한 선택은 변위된 이미지간 차이(DFD : inter-displaced-image difference)의 값에 기초하는 것을 특징으로 하는, 움직임 추정 방법.
  5. 제 4항에 있어서, 만약 상기 N개의 주 벡터들과 관련된 상기 DFD들이 원래의 벡터와 관련된 상기 DFD보다 더 크다면, 제로 벡터가 채택되는 것을 특징으로 하는, 움직임 추정 방법.
  6. 제 4항에 있어서, 만약 상기 N개의 주 벡터들과 관련된 상기 DFD들이 상기 원래의 벡터와 관련된 가중된(weighted) DFD보다 더 크다면, 상기 원래의 벡터가 유지되는 것을 특징으로 하는, 움직임 추정 방법.
  7. 제 1항에 있어서, 상기 재할당된 벡터에 대한 선택은 이미지간 차이 블록(현재 블록 - 추정된 블록)에서의 동작에 대한 계산{공간 그레디언트(gradient)}에 기초하는 것을 특징으로 하는, 움직임 추정 방법.
  8. 제 7항에 있어서, 만약 상기 N개의 주 벡터들에 대응하는 동작들이 상기 원래의 벡터에 대응하는 동작보다 더 크다면, 제로 벡터가 채택되는 것을 특징으로 하는, 움직임 추정 방법.
  9. 제 7항에 있어서, 만약 상기 N개의 주 벡터들에 대응하는 동작들이 상기 원래의 벡터에 대응하는 가중된 동작보다 더 크다면, 상기 원래의 벡터가 유지되는 것을 특징으로 하는, 움직임 추정 방법.
  10. 제 4항에 있어서, 상기 DFD를 계산하는 동안에 사용된 벡터들의 성분들은 공간적으로 필터링된 성분들인 것을 특징으로 하는, 움직임 추정 방법.
  11. 제 7항에 있어서, 상기 공간-그레디언트를 계산하는 동안에 사용된 벡터들의 성분들은 공간적으로 필터링된 성분들인 것을 특징으로 하는, 움직임 추정 방법.
  12. 제 1항에 있어서, 각 이미지에 대해서, 상기 주 벡터들은 현재의 이미지에 대한 벡터 필드와, 적어도 하나의 선행하는 이미지에 대한 벡터 필드 사이에서 선택되는 것을 특징으로 하는, 움직임 추정 방법.
  13. 제 12항에 있어서, 상기 선행하는 이미지에 대한 벡터들은 크기가 조정되는 것 외에 시간 간격(temporal distance)의 함수로써 가중되는 것을 특징으로 하는, 움직임 추정 방법.
  14. 제 12항에 있어서, 움직임의 브레이크(break in movement)가 검출될 때, 상기 선행하는 이미지에 대한 벡터들은 고려되지 않는 것을 특징으로 하는, 움직임 추정 방법.
KR1020017002510A 1998-09-07 1999-09-06 모션 벡터의 송신 비용 절감을 위한 모션 추정 방법 KR100649654B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR98/11140 1998-09-07
FR9811140 1998-09-07

Publications (2)

Publication Number Publication Date
KR20010073031A true KR20010073031A (ko) 2001-07-31
KR100649654B1 KR100649654B1 (ko) 2006-11-24

Family

ID=9530178

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020017002510A KR100649654B1 (ko) 1998-09-07 1999-09-06 모션 벡터의 송신 비용 절감을 위한 모션 추정 방법

Country Status (9)

Country Link
US (1) US7408987B1 (ko)
EP (1) EP1110176B1 (ko)
JP (1) JP4443767B2 (ko)
KR (1) KR100649654B1 (ko)
CN (1) CN1198245C (ko)
AT (1) ATE230140T1 (ko)
AU (1) AU5973899A (ko)
DE (1) DE69904610T2 (ko)
WO (1) WO2000014682A2 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6438168B2 (en) * 2000-06-27 2002-08-20 Bamboo Media Casting, Inc. Bandwidth scaling of a compressed video stream
JP4148041B2 (ja) * 2003-06-27 2008-09-10 ソニー株式会社 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
FR2868579A1 (fr) * 2004-03-30 2005-10-07 St Microelectronics Sa Procede et dispositif de generation de vecteurs candidats pour les systemes d'interpolation d'images par estimation et compensation de mouvement
US7609765B2 (en) 2004-12-02 2009-10-27 Intel Corporation Fast multi-frame motion estimation with adaptive search strategies
WO2006039843A1 (en) * 2004-10-14 2006-04-20 Intel Corporation Fast multi-frame motion estimation with adaptive search strategies
KR100714698B1 (ko) * 2005-08-29 2007-05-07 삼성전자주식회사 향상된 움직임 추정 방법, 상기 방법을 이용한 비디오인코딩 방법 및 장치
EP1841232A1 (en) * 2006-03-31 2007-10-03 Sony Deutschland Gmbh Method and apparatus to improve the convergence speed of a recursive motion estimator
US8526502B2 (en) * 2007-09-10 2013-09-03 Entropic Communications, Inc. Method and apparatus for line based vertical motion estimation and compensation
EP2490448A1 (de) * 2011-02-18 2012-08-22 Siemens Aktiengesellschaft Kodierverfahren und Bildkodiervorrichtung zur Kompression einer Bildsequenz
TWI499283B (zh) * 2012-07-05 2015-09-01 Ind Tech Res Inst 視訊壓縮方法與視訊壓縮裝置
GB2513112B (en) * 2013-04-08 2020-01-08 Snell Advanced Media Ltd Video sequence processing
US9836831B1 (en) * 2014-07-30 2017-12-05 Google Inc. Simulating long-exposure images

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2648979B1 (fr) * 1989-06-27 1996-09-06 Thomson Consumer Electronics Procede de segmentation du champ de mouvement d'une image et son application au codage d'images video
JP3679426B2 (ja) * 1993-03-15 2005-08-03 マサチューセッツ・インスティチュート・オブ・テクノロジー 画像データを符号化して夫々がコヒーレントな動きの領域を表わす複数の層とそれら層に付随する動きパラメータとにするシステム
SG49308A1 (en) * 1993-09-08 1998-05-18 Thomson Multimedia Sa Method and apparatus for motion estimation using block matching
US6178265B1 (en) * 1994-09-22 2001-01-23 Intel Corporation Method and apparatus for motion vector compression
US5654771A (en) * 1995-05-23 1997-08-05 The University Of Rochester Video compression system using a dense motion vector field and a triangular patch mesh overlay model
EP0765087B1 (en) * 1995-08-29 2003-11-12 Sharp Kabushiki Kaisha Video coding device
US6404813B1 (en) * 1997-03-27 2002-06-11 At&T Corp. Bidirectionally predicted pictures or video object planes for efficient and flexible video coding
US6462791B1 (en) * 1997-06-30 2002-10-08 Intel Corporation Constrained motion estimation and compensation for packet loss resiliency in standard based codec
US6072542A (en) * 1997-11-25 2000-06-06 Fuji Xerox Co., Ltd. Automatic video segmentation using hidden markov model
US6178205B1 (en) * 1997-12-12 2001-01-23 Vtel Corporation Video postfiltering with motion-compensated temporal filtering and/or spatial-adaptive filtering
US6539058B1 (en) * 1998-04-13 2003-03-25 Hitachi America, Ltd. Methods and apparatus for reducing drift due to averaging in reduced resolution video decoders
US6195389B1 (en) * 1998-04-16 2001-02-27 Scientific-Atlanta, Inc. Motion estimation system and methods
US6317460B1 (en) * 1998-05-12 2001-11-13 Sarnoff Corporation Motion vector generation by temporal interpolation
CN1224264C (zh) * 1999-01-12 2005-10-19 皇家菲利浦电子有限公司 摄像机运动参数估计方法
US6353678B1 (en) * 1999-07-14 2002-03-05 Sarnoff Corporation Method and apparatus for detecting independent motion in three-dimensional scenes

Also Published As

Publication number Publication date
ATE230140T1 (de) 2003-01-15
JP2003521828A (ja) 2003-07-15
US7408987B1 (en) 2008-08-05
EP1110176A2 (en) 2001-06-27
CN1198245C (zh) 2005-04-20
DE69904610D1 (de) 2003-01-30
EP1110176B1 (en) 2002-12-18
KR100649654B1 (ko) 2006-11-24
CN1357133A (zh) 2002-07-03
WO2000014682A3 (en) 2002-09-26
WO2000014682A2 (en) 2000-03-16
AU5973899A (en) 2000-03-27
JP4443767B2 (ja) 2010-03-31
DE69904610T2 (de) 2003-10-02

Similar Documents

Publication Publication Date Title
KR100906298B1 (ko) 모션 벡터 추정을 위한 방법 및 장치
US8625671B2 (en) Look-ahead system and method for pan and zoom detection in video sequences
EP1339223A2 (en) Adaptive motion estimation apparatus and method
JPH09179987A (ja) 動きベクトル検出方法及び動きベクトル検出装置
KR100649654B1 (ko) 모션 벡터의 송신 비용 절감을 위한 모션 추정 방법
WO2005006762A2 (en) Optical flow estimation method
KR100727795B1 (ko) 모션 추정
US7702168B2 (en) Motion estimation or P-type images using direct mode prediction
EP1703736A1 (en) Global motion estimation
KR20030034271A (ko) 저전송율 동영상 부호화에 적합한 움직임 추정 방법
Wei et al. An enhancement to MRMC scheme in video compression
KR19980036073A (ko) 움직임 벡터 검출 방법 및 장치
Zan et al. New techniques for multi-resolution motion estimation
Kundu Modified block matching algorithm for fast block motion estimation
Chen et al. A novel structure for digital image stabilizer
Kim et al. Stochastic approach for motion vector estimation in video coding
Jovanov et al. Combinedwavelet domain and motion compensated filtering compliant with video codecs
Shaik et al. A new approach to variable block size motion estimation with fast and effective searching technique
Ayele et al. Motion estimation in video coding using simplified optical flow technique.
Duanmu et al. A continuous tracking algorithm for long-term memory motion estimation [video coding]
Mietens et al. New flexible motion estimation technique for scalable MPEG encoding using display frame order and multi-temporal references
Cho et al. Design of advanced block matching algorithm by using RAVR
Lin et al. Adaptive block-matching algorithm for video compression
Kim et al. Block motion estimation based on spatio-temporal correlation
Moschetti et al. A nested-multilevel redundancy exploitation for fast block matching

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121019

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20131018

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20141022

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20151016

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20161018

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20171018

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20181112

Year of fee payment: 13