DE60204447T2 - Verfahren zur codierung und decodierung von bewegungsschätzungen - Google Patents

Verfahren zur codierung und decodierung von bewegungsschätzungen Download PDF

Info

Publication number
DE60204447T2
DE60204447T2 DE60204447T DE60204447T DE60204447T2 DE 60204447 T2 DE60204447 T2 DE 60204447T2 DE 60204447 T DE60204447 T DE 60204447T DE 60204447 T DE60204447 T DE 60204447T DE 60204447 T2 DE60204447 T2 DE 60204447T2
Authority
DE
Germany
Prior art keywords
motion vector
spatial
block
predictor
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60204447T
Other languages
English (en)
Other versions
DE60204447D1 (de
Inventor
Vincent Bottreau
Beatrice Pesquet-Popescu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of DE60204447D1 publication Critical patent/DE60204447D1/de
Application granted granted Critical
Publication of DE60204447T2 publication Critical patent/DE60204447T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Control Of Electric Motors In General (AREA)

Description

  • BEREICH DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Codieren von Bewegungsinformation, assoziiert mit einer Videosequenz, aufgeteilt in aufeinander folgende Frames, wobei dieses Verfahren die nachfolgenden Verfahrensschritte umfasst:
    • – Unterteilung eines aktuellen Frames in zweidimensionale Blöcke;
    • – für jeden aktuellen Block des genannten aktuellen Frames, Selektion in einem vorhergehenden Frame mit Hilfe eines Blockübereinstimmungsalgorithmus, eines verschobenen Blocks als eine Vorhersage des genannten Blocks, und Bestimmung eines Bewegungsvektors zwischen dem genannten verschobenen und dem aktuellen Block, wobei alle Bewegungsvektoren, die auf gleiche Weise für das aktuelle Frame bestimmt worden sind, ein Bewegungsvektorfeld bilden, das mit dem genannten aktuellen Frame assoziiert ist;
    • – Codierung des genannten Bewegungsvektorfeldes mit Hilfe einer differenziellen Codierungstechnik, einschließlich der Erzeugung für jeden Block eines betreffenden Prediktors des assoziierten Bewegungsvektors.
  • Die vorliegende Erfindung bezieht sich ebenfalls auf ein entsprechendes Verfahren zum Decodieren von Bewegungsinformation, die nach diesem Codierungsverfahren codiert worden ist. In der detaillierten Beschreibung einer Implementierung der vorliegenden Erfindung, die nachstehend gegeben wird, sind die zweidimensionalen Blöcke beispielsweise Makroblöcke, wie diese in den Normen der MPEG-Familie definiert sind.
  • HINTERGRUND DER ERFINDUNG
  • Die Codierungsschemen, die für digitale Videokompression vorgeschlagen sind, benutzen im Allgemeinen Schätzung und Kompensation zum Reduzieren der zeitlichen Redundanz zwischen den aufeinander folgenden Frames der verarbeiteten Videosequenz. Bei derartigen Methoden wird ein Satz von Bewegungsvektoren an der Codierungsseite bestimmt und zu dem Decoder übertragen. Die meisten Videocodierungsnormen benutzen für den Bewegungsschätzungsvorgang den sog. Block-Matching-Algorithmus (BMA), beschrieben beispielsweise in dem Dokument: "MPEG video coding: a basic tutorial introduction", S. R. Ely, BBC Research and Development Report, 1996. Der genannte Algorithmus, dargestellt in 1, versucht für jeden Block Bc eines aktuellen Bildes It den Block Br eines vorhergehenden Bezugsbildes It-1 zu finden, der am besten passt, wobei der genannte vorhergehende Block nur in einem begrenzten Gebiet dieses vorhergehenden Bildes (oder Suchfensters SW) um die Position des Blocks Bc gesucht wird. Der auf diese Art und Weise in dem Codierer für jeden Block Bc des aktuellen Frames bestimmte Satz von Bewegungsvektoren muss dem Decoder zugesendet werden.
  • Um die zum Übertragen der Bewegungsvektoren erforderliche Bitrate zu minimieren werden diese Vektoren in Bezug auf die vorher bestimmten Vektoren (oder Prediktoren) im Allgemeinen unterschiedlich codiert. Genauer gesagt die Codierung der Bewegungsvektoren, welche die Bewegung von vorhergehenden Blöcken Br zu den aktuellen Bc beschreiben, wird mit Hilfe einer prediktiven Technik auf Basis vorher übertragener räumlicher Nachbarn verwirklicht. Die Bewegungsvektoren werden in Bezug auf einen Prediktionswert unterschieden und unter Verwendung variabler Längencodes codiert.
  • Dabei sei auf das Patent US 5.574.663 verwiesen, das ein Verfahren und eine Anordnung schafft zum Erzeugen eines dichten Bewegungsvektorfeldes, das die Bewegung zwischen zwei einstweilig benachbarten Frames einer Videosequenz beschreibt, und zwar unter Verwendung eines vorhergehenden dichten Bewegungsvektorfeldes. Bei diesem Verfahren werden eine räumliche DVT und eine zeitliche DVF bestimmt und summiert zum Schaffen einer DVF Prediktion.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Es ist eine erste Aufgabe der vorliegenden Erfindung ein Verfahren zum Codieren von Bewegungsvektoren zu schaffen, das eine verbesserte Prediktion dieser Bewegungsvektoren umfasst.
  • Dazu bezieht sich ein erster Aspekt der vorliegenden Erfindung auf ein Codierungsverfahren, wie dies in dem einleitenden Teil der vorliegenden Beschreibung definiert ist und das dadurch gekennzeichnet ist, dass für jeden aktuellen Block der erzeugte Prediktor P mit Hilfe einer linearen Kombination erhalten wird, definiert durch eine Beziehung der nachfolgenden Art: P = α·S + β·Twobei S und T räumliche bzw. zeitliche Prediktoren sind, die mit dem aktuellen Block assoziiert sind, und wobei (α, β) Gewichtungskoeffizienten sind, die mit dem genannten räumlichen bzw. zeitlichen Prediktor assoziiert und derart gewählt worden sind, dass eine Summe der mittleren quadratischen Fehler zwischen Bewegungsvektoren des aktuellen Frames und deren assoziierten Prediktoren minimiert wird.
  • Das Kriterium für die Wahl der Gewichtungskoeffizienten ist die Verzerrung zwischen dem zu codierenden Bewegungsvektor C und dem Prediktor P in dem LMS-Sinne zu minimieren, d.h. den nachfolgenden Operator zu minimieren: F = Σ[C – (α·S + β·T)]2,wobei die Summierung an dem ganzen Bewegungsvektorfeld durchgeführt wird, d.h. für alle Blöcke des aktuellen Frames.
  • Vorzugsweise wird der räumliche Prediktor dadurch erhalten, dass auf einen Satz von Bewegungsvektorkandidaten, gewählt aus der Umgebung des aktuellen Blocks, eine Medianfilterung angewandt wird, wobei der genannte Satz von Bewegungsvektorkandidaten drei Bewegungsvektorkandidaten aufweist, wenn eine räumliche Prediktion entsprechend der MPEG-4 Norm erforderlich ist.
  • Der zeitliche Prediktor kann dadurch bestimmt werden, dass entweder der bereits bestimmte räumliche Prediktor für den Bewegungsvektor des aktuellen Blocks wieder verwendet wird um auf den Block innerhalb des vorher übertragenen Bewegungsvektorfeldes zu zeigen, oder dadurch, dass die räumlichen Prediktorkandidaten gespeichert werden, die während der Berechnung des räumlichen Prediktors verwendet wurden, die mit denjenigen aus den entsprechenden Blöcken in dem aktuellen Bild übereinstimmen mit Blöcken des vorhergehenden Bildes, deren Bewegungsvektoren auch als räumliche Prediktoren für den zeitlichen zu bestimmenden Prediktor gesehen werden können, und durch Implementierung einer Medianfilterung dieser räumlichen Prediktoren innerhalb des vorhergehenden Bewegungsvektorfeldes, wobei das erhaltene Ergebnis der genannte zeitliche zu bestimmende Prediktor ist.
  • Es ist eine andere Aufgabe der vorliegenden Erfindung, ein Verfahren zum Decodieren von Bewegungsinformation zu schaffen, die mit Hilfe des genannten Codierungsverfahrens codiert worden ist.
  • Dazu bezieht sich ein zweiter Aspekt der vorliegenden Erfindung auf ein Verfahren zum Decodieren von Bewegungsinformation entsprechend einer Bildsequenz, und die vorher, vor der Übertragung und/oder Speicherung, mit Hilfe eines Codierungsverfahrens nach einem ersten Aspekt der vorliegenden Erfindung codiert worden ist, wobei dieses Decodierungsverfahren das Kennzeichen aufweist, dass es zwei Typen von Decodie rungsschritten aufweist:
    • – für das erste Bewegungsvektorfeld der Sequenz, einen ersten Typ eines Decodierungsschrittes, nur auf Basis von räumlichen Prediktoren;
    • – für die anderen Bewegungsvektorfelder, einen zweiten Typ eines Decodierungsschrittes, der Folgendes umfasst: für einen zu decodierenden Bewegungsvektor eine Berechnung des räumlich-zeitlichen Prediktors P auf Basis der Bewegungsvektoren eines vorhergehenden bereits decodierten Bewegungsvektorfeldes, räumlicher Prediktoren definiert in einer Nähe des zu decodierenden Bewegungsvektors, und der Gewichtungsvektoren α und β.
  • KURZE BESCHREIBUNG DER ZEICHNUNG
  • Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden im Folgenden näher beschrieben. Es zeigen:
  • 1 den bekannten "block matching Algorithmus",
  • 2 die Stellen der Prediktoren, die in einem bekannten dreidimensionalen (3D) Bewegungsschätzungsverfahren verwendet werden,
  • 3 die möglichen Stellen räumlicher Kandidaten zur Bewegungsvektorcodierung mit Hilfe einer prediktiven Technik.
  • 4 eine erste Lösung zur Bestimmung eines Bewegungsvektorszeitprediktors,
  • 5 eine zweite Lösung einer derartigen Bestimmung,
  • 6 eine Implementierung eines Codierers, wodurch es ermöglicht wird, das Codierungsverfahren nach der vorliegenden Erfindung durchzuführen,
  • 7 eine Implementierung eines Decoders, durch den es ermöglicht wird, das Decodierungsverfahren nach der vorliegenden Erfindung durchzuführen.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Wie oben anhand der 1 erläutert, basiert die Bewegungsschätzung auf einem Suchschema, das versucht, die möglichst beste Deckungsposition eines Blocks innerhalb eines begrenzten Suchgebietes SW in dem vorhergehenden Frame zu finden, wobei die genannte Deckungsposition für jeden Block (oder "Makroblock" im Falle der MPEG-Normen) durch einen Bewegungsvektor beschrieben wird, nach Subtrahierung des Predik tors und der variablen Längencodierung (VLC) von dem Codierer zu dem Decoder übertragen wird.
  • Das Prinzip der vorliegenden Erfindung ist, in die Prediktion (geliefert vor der variablen Längencodierung (VLC) der differentiellen Werte, die jedem aktuellen Bewegungsvektor entsprechen) einen zusätzlichen Vorgang einzuführen, wobei die zeitliche Korrelation berücksichtigt wird, die zwischen zwei aufeinander folgenden Bewegungsvektorfeldern beobachtet werden kann. Eine Bewegungsschätzung auf Blockbasis, wobei zeitliche Prediktoren verwendet werden, die bereits beschrieben worden sind, beispielsweise in "True motion estimation with 3D recursive block matching" von G. de Haan u. a. in "IEEE Transaction on Circuits and Systems for Video Technology" Heft 3, Nr. 5, Oktober 1993, Seiten 368–379. Diese Technik, die auf einer 3-D rekursiven Suche basiert, benutzt in einer der möglichen Implementierungen, dargestellt in 2, drei räumliche Prediktoren Pa, P2, P3, gewählt aus den Nachbarblöcken des aktuellen Blocks Bc, einen zusätzlichen räumlichen Prediktor, der eine lineare Kombination von P1 und dem besten Kandidaten des vorher verarbeiteten Blocks ist, und einen zeitlichen Prediktor P4 ("zeitlich" bedeutet, dass der entsprechende Bewegungsvektor zu dem vorhergehenden Bewegungsvektorfeld gehört).
  • Meistens wurden bei bisherigen Arbeiten nur räumliche Prediktor betrachtet um den aktuellen Bewegungsvektor differentiell zu codieren. Im falle von 16 × 16 Pixelbewegungsvektoren (ein Bewegungsvektor für einen Makroblock mit vier Blöcken), bestand die räumliche Prediktion aus der Wahl verschiedener Bewegungskandidaten (drei in dem Fall von MPEG-4) in der Nähe des aktuellen Makroblocks, wie beispielsweise in 3 dargestellt, wobei mögliche Stellen derartiger Kandidaten MV1, MV2 und MV3 gezeigt werden (wobei der räumliche Prediktor für den aktuellen Bewegungsvektor dann dadurch erhalten wird, dass ein Medianfiltervorgang an diesen Bewegungsvektorkandidaten durchgeführt wird). Zum Verbessern der Bewegungsvektorcodierung wird nun vorgeschlagen, die Korrelation zu benutzen, die es zwischen den Bewegungsvektoren längs der Bewegungsstrecke gibt um den Bewegungsvektor des zu codierenden aktuellen Makroblocks besser vorhersagen zu können.
  • Wie in 4 dargestellt, kann eine erste Lösung zur Bestimmung, für das aktuelle Bewegungsvektorfeld CMVF, eines geeigneten zeitlichen Prediktors P sein, den bereits für den Bewegungsvektor des aktuellen Makroblocks bestimmten räumlichen Prediktor neu zu verwenden um mit dem Makroblock innerhalb des vorher übertragenen Be wegungsvektorfeldes PMVF überein zu stimmen. Weiterhin kann um die Beeinflussung einer Prediktion einer schlechten Qualität zu reduzieren abermals ein Medianfiltervorgang durchgeführt werden, durchgeführt an einer Umgebung von acht Makroblöcken um den selektierten Makroblock herum.
  • Eine zweite Lösung zur Bestimmung des Prediktors P ist, wie in 5 dargestellt, die räumlichen Prediktorkandidaten SPC zu speichern, die während der Berechnung des räumlichen Prediktors verwendet worden sind. Diese Bewegungsvektorkandidaten zeigen von Makroblöcken in dem aktuellen Frame zu Makroblöcken in dem vorhergehenden Frame, deren Bewegungsvektoren auch als räumliche Prediktoren für den zu bestimmenden zeitlichen Prediktor gesehen werden können. Dieser zeitliche Prediktor für den aktuellen Bewegungsvektor ist dann das Ergebnis einer Medianfilterung dieser räumlichen Prediktoren innerhalb des vorhergehenden Bewegungsvektorfeldes.
  • Welche die gewählt Lösung auch sein mag, der Prediktor P, der als räumlich-zeitlich bezeichnet werden kann, wird mit Hilfe einer linearen Kombination von dem nachfolgenden Typ erhalten: P = α·S + β·7wobei S und T der zusätzliche räumliche bzw. der zeitliche Prediktor sind, bestimmt wie oben beschrieben, und wobei (α und β) Gewichtungskoeffizienten sind, assoziiert mit dem genannten räumlichen bzw. zeitlichen Prediktor. Ein mögliches Kriterium für die Wahl von α und β ist, in dem mittleren quadratischen Sinne die Verzerrung zwischen dem ursprünglichen Bewegungsvektor C und dem Prediktor P zu minimieren, d.h. den Operator F zu minimieren: F = Σ[C – (α·S + β·T)]2,wobei die Summierung Σ an dem ganzen Bewegungsvektorfeld durchgeführt wird, d.h. dadurch, dass alle Makroblöcke des aktuellen Frames hinzugezogen werden (diese Gewichtungskoeffizienten α und β sollen in Richtung der Decodierungsseite übertragen werden, da die Decodierungsanordnung die symmetrischen Vorgänge um sie zu berechnen nicht durchführen kann: gegenüber den gesamten Übertragungskosten muss dazu zwischen der von dem zeitlichen Prediktor gelieferten Übertragungsverstärkung und den zusätzlichen Übertragungskosten der zwei Werte (α, β) für jedes Bewegungsvektorfeld ein guter Kompromiss erreicht werden).
  • Die Bewegungsvektoren werden im Allgemeinen mit einer DPCM-Technik ("Differential Pulse Code Modulation") codiert, wobei nur die Differenzen zwischen dem Eingang und einer Prediktion auf Basis eines vorher örtlich decodierten Ausgangs quantisiert und Übertragen werden, wonach ein Entropiecodierungsschritt folgt, und zwar unter Verwendung von VLC-Tabellen und unter Erzeugung der codierten Daten entsprechend den Bewegungsvektoren). Wenn ein Codierungsverfahren, wie oben beschrieben, in einem Videocodierungsschema angewandt worden ist, müssen die codierten Daten, die den Bewegungsvektoren entsprechen und die an der Decodierungsseite empfangen worden sind, spezifisch decodiert werden. Die Bewegungsvektorrekonstruktion wird danach entsprechend den nachfolgenden Verfahrensschritten durchgeführt:
    • – für das erste Bewegungsvektorfeld (d.h. das Feld, das überhaupt keine Vorgänger hat) wird ein bekannter Decodierungsschritt, nur basiert auf räumlichen Prediktoren implementiert;
    • – für die anderen Bewegungsvektorfelder (d.h. diejenigen, die zeitliche Vorgänger haben), werden die in dem Codierer vorgesehenen Vorgänge auf gleiche Weise implementiert: wenn man die zeitlichen Prediktoren des Bewegungsvektors kennt (wobei es sich um die Bewegungsvektoren des bereits decodierten vorhergehenden Bewegungsvektorfeldes handelt), wenn man die räumlichen Prediktoren kennt (= Bewegungsvektoren in der Nähe des aktuellen zu decodierenden Bewegungsvektors) und wenn man die Gewichtungskoeffizienten α und β kennt (die übertragen worden sind), wird der Endprediktor P = α·S + β·T, bereits an der Codierungsseite verwendet, berechnet, was danach ermöglicht, den aktuellen Bewegungsvektor mit Hilfe der Übereinstimmung, festgestellt in den VLC-Tabellen des Codierers differentiell zu decodieren.
  • Die oben beschriebene Codierungstechnik kann in vielen Codierungsschemen durchgeführt werden, beispielsweise in einem MPEG-4 Video-Codierer. 6 zeigt eine Illustration eines derartigen Codierers: die Eingangs-Videoinformation VIF wird mit Hilfe einer Segmentierungsschaltung 61 in Video-Objekte (VOs) aufgeteilt, eine Codierungssteuerschaltung 62 entscheidet (beispielsweise auf Basis von Anforderungen des Benutzers, oder auf Basis der Fähigkeiten des Decoders) welche VOs übertragen werden sollen, die selektierten VOs werden danach in Codierungsschaltungen 63a bis 63n codiert (jedes Objekt unabhängig von den anderen) und ein Multiplexer 64 mischt die auf diese Art und Weise erhaltenen n Bitströme (welche die verschiedenen VOs darstellen) zu einem ein zigen Video-Bitstrom. Da jedes VO durch seine Form, seine Textur und seine Bewegungskomponenten definiert ist, muss der Codierungsmechanismus jeder Codierungsschaltung Form-, Textur- und Bewegungscodierungsvorgänge durchführen. Die Form- und Texurvorgänge werden durchgeführt, wie dies beispielsweise in "MPEG-4 natural video coding – An overview" von T. Ebrahimi u. a. in "Signal Processing : Image Communication" Heft 15, Nr. 4-5. Januar 2000 Seiten 365–385 beschrieben worden ist. Der Bewegungsvorgang kann nach der vorliegenden Erfindung durchgeführt werden, d.h. durch Implementierung des oben beschriebenen Bewegungsinformationscodierungsverfahrens.
  • Auf gleiche Art und Weise kann das oben beschriebene Decodierungsverfahren, das dem Codierungsverfahren nach der vorliegenden Erfindung entspricht, in einem Decodierungsschema durchgeführt werden, wie dies in demselben Dokument beschrieben worden ist. 7 zeigt eine Illustration eines Decoders, der es ermöglicht, dass ein codierter Bitstrom, wie derjenige, der erhalten wird, wenn das genannte Codierungsverfahren durchgeführt wird, empfangen und decodiert wird: der Eingangsbitstrom wird zunächst in einer Demultiplexerschaltung 71 gedemultiplext, die auf diese Art und Weise gedemultiplexten elementaren Ströme, die den verschiedenen VOs entsprechen, werden grammatisch bestimmt und betreffenden Decodern (Formdecodierungsschaltung 72, Texturdecodierungsschaltung 73, Bewegungsdecodierungsschaltung 74) und einer Rekonstruktionsschaltung 75 zugeführt, und zwar unter Verwendung der decodierten Daten zusammen mit Szenenbeschreibungsinformation zum wieder Zusammensetzen der ursprünglichen Szene mit den VOs, bietet die Möglichkeit, schlussendlich ein wiedergegebenes Videobild zu erhalten. Das Bewegungsinformationsdecodierungsverfahren nach der vorliegenden Erfindung wird in der genannten Schaltungsanordnung 74 durchgeführt.
  • Die oben stehende Beschreibung der bevorzugten Ausführungsformen der vorliegenden Erfindung ist zur Illustration und zur Beschreibung gegeben. Ist wird nicht beabsichtigt, dass die vorliegende Erfindung sich auf die beschriebene genaue Form beschränkt oder darauf begrenzt wird, und offenbar sind viele Modifikationen und Variationen, die dem Fachmann einleuchten dürften und die im Rahmen der vorliegenden Erfindung liegen, im Lichte der oben stehenden Lehre möglich.
  • Es dürfte beispielsweise einleuchten, dass die hier beschriebenen Schaltungsanordnungen in Hardware, in Software oder in einer Kombination von Hardware und Software implementiert werden können, ohne dass ausgeschlossen wird, dass ein einziges Element von Hardware oder Software mehrere Funktionen durchführen kann oder dass ein Gebilde aus Elementen von Hardware und Software oder von beiden eine einzige Funktion durchführt. Die beschriebenen Verfahren und Anordnungen können durch jeden beliebigen Typ von Computersystem oder von einem anderen Gerät zum Durchführen der oben beschriebenen Verfahren implementiert werden. Eine typische Kombination von Hardware und Software könnte ein Allzweck-Computersystem mit einem Computerprogramm sein, das, wen geladen und durchgeführt, das Computersystem derart steuert, dass es die hier beschriebenen Verfahren durchführt. Auf alternative Art und Weise könnte ein Computer für einen spezifischen Gebrauch, mit spezialisierter Hardware zum Durchführen einer oder mehrerer funktioneller Aufgaben der vorliegenden Erfindung verwendet werden.
  • Die vorliegende Erfindung kann auch in einem Computerprogrammprodukt eingebettet sein, das alle Elemente aufweist, welche die Implementierung der hier beschriebenen Verfahren und Funktionen ermöglichen, und die – wenn in einem Computersystem geladen – imstande ist, diese Verfahren und Funktionen durchzuführen. Computerprogramm, Softwareprogramm, Programm, Programmprodukt oder Software bedeutet in dem vorliegenden Kontext jeden Ausdruck, in jeder beliebigen Sprache, in jedem beliebigen Code oder in jeder beliebigen Notierung eines Satzes von Instruktionen mit der Absicht, ein System zu schaffen mit einer Information verarbeitenden Fähigkeit zum Durchführen einer bestimmten Funktion, entweder unmittelbar oder mittelbar oder beiden des Folgenden:
    • (a) Umwandlung in eine andere Sprache, in einen anderen Code oder in eine andere Notierung; und/oder
    • (b) Reproduktion in einer anderen materiellen Form.

Claims (6)

  1. Verfahren zur Codierung von Bewegungsinformation, assoziiert mit einer Videosequenz, aufgeteilt in aufeinander folgende Frames, wobei dieses Verfahren die nachfolgenden Verfahrensschritte umfasst: – Unterteilung eines aktuellen Frames (It) in zweidimensionale Blöcke; – für jeden aktuellen Block (Bc) des genannten aktuellen Frames, Selektion in einem vorhergehenden Frame (It-1) mit Hilfe eines Blockübereinstimmungsalgorithmus, eines verschobenen Blocks (Br) als eine Vorhersage des genannten Blocks, und Bestimmung eines Bewegungsvektors zwischen dem genannten verschobenen und dem aktuellen Block, wobei alle Bewegungsvektoren, die auf gleiche Weise für das aktuelle Frame bestimmt worden sind, ein Bewegungsvektorfeld (CMVF) bilden, das mit dem genannten aktuellen Frame assoziiert ist; – Codierung des genannten Bewegungsvektorfeldes mit Hilfe einer differenziellen Codierungstechnik, einschließlich der Erzeugung für jeden Block eines betreffenden Prediktors des assoziierten Bewegungsvektors; dadurch gekennzeichnet, dass für jeden aktuellen Block der erzeugte Prediktor P mit Hilfe einer linearen Kombination erhalten wird, definiert durch eine Beziehung der nachfolgenden Art: P = α·S + β·Twobei S und T räumliche bzw. zeitliche Prediktoren sind, die mit dem aktuellen Block assoziiert sind, und wobei (α, β) Gewichtungskoeffizienten sind, die mit dem genannten räumlichen bzw. zeitlichen Prediktor assoziiert und derart gewählt worden sind, dass eine Summe der mittleren quadratischen Fehler zwischen Bewegungsvektoren des aktuellen Frames und deren assoziierten Prediktoren minimiert wird.
  2. Codierungsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass der räumliche Prediktor jedes aktuellen Blocks dadurch erhalten wird, dass eine Median-Filterung an einem Satz von Bewegungsvektorkandidaten (MV1, MV2, MV3), gewählt in der Nähe des aktuellen Blocks, durchgeführt wird.
  3. Codierungsverfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Satz mit Bewegungsvektorkandidaten drei Bewegungsvektorkandidaten entsprechend dem MPG-4-Standard umfasst.
  4. Codierungsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass der zeitliche Prediktor durch Neuverwendung des bereits für den Bewegungsvektor des aktuellen Blocks bestimmten räumlichen Prediktors bestimmt wird, um auf den Block innerhalb eines vorher übertragenen Bewegungsvektorfeldes (PMVF) zu zeigen.
  5. Codierungsverfahren nach Anspruch 2, dadurch gekennzeichnet, dass der zeitliche Prediktor dadurch bestimmt wird, dass die räumlichen Prediktorkandidaten, die während der Berechnung des räumlichen Prediktors verwendet worden sind, im Gedächtnis gehalten werden, wobei mit ihnen von entsprechenden Blöcken in dem aktuellen Bild auf Blöcke eines vorhergehenden Bildes gezeigt wird, dessen Bewegungsvektoren als räumliche Prediktoren für den zeitlichen zu bestimmten Prediktor gesehen werden können, und wobei eine Median-Filterung dieser räumlichen Prediktoren innerhalb eines vorhergehenden Bewegungsvektorfeldes implementiert wird, wobei das erhaltene Ergebnis der genannte zeitliche zu bestimmende Prediktor ist.
  6. Verfahren zum Decodieren von Bewegungsinformation entsprechend einer Bildsequenz, und die vorher, vor der Übertragung und/oder Speicherung, mit Hilfe eines Codierungsverfahrens nach Anspruch 1 codiert worden ist, wobei das genannte Decodierungsverfahren dadurch gekennzeichnet ist, dass es zwei Typen von Decodierungsschritten umfasst: – für das erste Bewegungsvektorfeld der Sequenz, einen ersten Typ eines Decodierungsschrittes, nur auf Basis von räumlichen Prediktoren; – für die anderen Bewegungsvektorfelder, einen zweiten Typ eines Decodierungsschrittes, der Folgendes umfasst: für einen zu decodierenden Bewegungsvektor eine Berechnung des räumlich-zeitlichen Prediktors P auf Basis der Bewegungsvektoren eines vorhergehenden bereits decodierten Bewegungsvektorfeldes, räumlicher Prediktoren definiert in einer Nähe des zu decodierenden Bewegungsvektors, und der Gewichtungsvektoren a und β.
DE60204447T 2001-02-13 2002-02-11 Verfahren zur codierung und decodierung von bewegungsschätzungen Expired - Lifetime DE60204447T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP01400375 2001-02-13
EP01400375 2001-02-13
PCT/IB2002/000777 WO2002065784A1 (en) 2001-02-13 2002-02-11 Motion information coding and decoding method

Publications (2)

Publication Number Publication Date
DE60204447D1 DE60204447D1 (de) 2005-07-07
DE60204447T2 true DE60204447T2 (de) 2006-04-27

Family

ID=8182624

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60204447T Expired - Lifetime DE60204447T2 (de) 2001-02-13 2002-02-11 Verfahren zur codierung und decodierung von bewegungsschätzungen

Country Status (8)

Country Link
US (1) US6825885B2 (de)
EP (1) EP1378124B1 (de)
JP (1) JP2004519167A (de)
KR (1) KR100887524B1 (de)
CN (1) CN1248509C (de)
AT (1) ATE297099T1 (de)
DE (1) DE60204447T2 (de)
WO (1) WO2002065784A1 (de)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4130783B2 (ja) * 2002-04-23 2008-08-06 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
US20040190615A1 (en) * 2002-05-22 2004-09-30 Kiyofumi Abe Moving image encoding method, moving image decoding method, and data recording medium
US20050013498A1 (en) * 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US7499495B2 (en) * 2003-07-18 2009-03-03 Microsoft Corporation Extended range motion vectors
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US7599438B2 (en) * 2003-09-07 2009-10-06 Microsoft Corporation Motion vector block pattern coding and decoding
US7620106B2 (en) * 2003-09-07 2009-11-17 Microsoft Corporation Joint coding and decoding of a reference field selection and differential motion vector information
US7616692B2 (en) * 2003-09-07 2009-11-10 Microsoft Corporation Hybrid motion vector prediction for interlaced forward-predicted fields
US7724827B2 (en) * 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US7623574B2 (en) * 2003-09-07 2009-11-24 Microsoft Corporation Selecting between dominant and non-dominant motion vector predictor polarities
US7567617B2 (en) * 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
CN1306821C (zh) * 2004-07-30 2007-03-21 联合信源数字音视频技术(北京)有限公司 一种视频图像中运动矢量预测生成的方法及其装置
US8588304B2 (en) 2005-03-31 2013-11-19 Panasonic Corporation Video decoding device, video decoding method, video decoding program, and video decoding integrated circuit
US8457203B2 (en) * 2005-05-26 2013-06-04 Ntt Docomo, Inc. Method and apparatus for coding motion and prediction weighting parameters
MX2008000906A (es) * 2005-07-21 2008-03-18 Thomson Licensing Metodo y aparato para la prediccion ponderada para la codificacion escalable de video.
BRPI0616619B1 (pt) * 2005-10-12 2019-09-10 Interdigital Madison Patent Holdings método e aparelho para prognóstico ponderal na codificação e decodificação de vídeo com abordagem de escala
DE102005051091A1 (de) * 2005-10-25 2007-04-26 Siemens Ag Verfahren und Vorrichtungen zur Bestimmung und Rekonstruktion eines prädizierten Bildbereichs
EP1982530A2 (de) * 2006-02-06 2008-10-22 Thomson Licensing Procede et appareil permettant de reutiliser des donnees de mouvement disponibles comme predicteur d'estimation de mouvement pour un codage video
CN101491107B (zh) * 2006-07-07 2012-07-18 艾利森电话股份有限公司 一种对图像元素组进行解码的方法及其相关的编码器、解码器
KR101383540B1 (ko) 2007-01-03 2014-04-09 삼성전자주식회사 복수의 움직임 벡터 프리딕터들을 사용하여 움직임 벡터를추정하는 방법, 장치, 인코더, 디코더 및 복호화 방법
EP2104356A1 (de) * 2008-03-18 2009-09-23 Deutsche Thomson OHG Verfahren und Vorrichtung zur Erzeugung eines Bilddatenstroms, Verfahren und Vorrichtung zur Rekonstruktion eines aktuellen Bildes aus einem Bilddatenstrom, Bilddatenstrom und Speichermedium, das den Bilddatenstrom trägt
KR101361005B1 (ko) * 2008-06-24 2014-02-13 에스케이 텔레콤주식회사 인트라 예측 방법 및 장치와 그를 이용한 영상부호화/복호화 방법 및 장치
US8290712B2 (en) * 2008-11-14 2012-10-16 The Invention Science Fund I, Llc Food content detector
EP2493195A1 (de) * 2009-10-20 2012-08-29 Sharp Kabushiki Kaisha Videokodiervorrichtung, videodekodiervorrichtung und datenstruktur
KR20120016991A (ko) * 2010-08-17 2012-02-27 오수미 인터 프리딕션 방법
KR101341993B1 (ko) * 2010-10-06 2013-12-16 에스케이텔레콤 주식회사 고정밀 필터를 이용한 영상 부호화/복호화 방법 및 장치
RU2010144450A (ru) 2010-10-29 2012-05-10 ЭлЭсАй Корпорейшн (US) Оценка движения для видео транскодера
GB2488815C (en) * 2011-03-09 2018-03-28 Canon Kk Video decoding
US10264276B2 (en) * 2011-06-14 2019-04-16 Samsung Electronics Co., Ltd. Method and apparatus for encoding motion information and method and apparatus for decoding same
US8483516B2 (en) * 2011-08-16 2013-07-09 National Taiwan University Super resolution system and method with database-free texture synthesis
CN107396100B (zh) 2011-11-08 2020-05-05 株式会社Kt 利用解码装置对视频信号进行解码的方法
CN103248894B (zh) * 2013-05-14 2016-09-14 讯美电子科技有限公司 一种多通道遍码方法及系统
JP6640468B2 (ja) 2015-04-22 2020-02-05 Necディスプレイソリューションズ株式会社 表示システム、表示装置、調整方法
US10445862B1 (en) * 2016-01-25 2019-10-15 National Technology & Engineering Solutions Of Sandia, Llc Efficient track-before detect algorithm with minimal prior knowledge
US11665365B2 (en) * 2018-09-14 2023-05-30 Google Llc Motion prediction coding with coframe motion vectors

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU559363B2 (en) * 1982-06-22 1987-03-05 Hughes Aircraft Co. Low temperature process for depositing epitaxial layers
US5072293A (en) 1989-08-29 1991-12-10 U.S. Philips Corporation Method of estimating motion in a picture signal
US5301019A (en) * 1992-09-17 1994-04-05 Zenith Electronics Corp. Data compression system having perceptually weighted motion vectors
US5574663A (en) 1995-07-24 1996-11-12 Motorola, Inc. Method and apparatus for regenerating a dense motion vector field
KR100482898B1 (ko) 1996-05-24 2005-08-31 코닌클리케 필립스 일렉트로닉스 엔.브이. 모션벡터를추정하는방법,장치및그장치를포함하는비디오디스플레이장치
GB9712651D0 (en) * 1997-06-18 1997-08-20 Nds Ltd Improvements in or relating to encoding digital signals

Also Published As

Publication number Publication date
US20030076883A1 (en) 2003-04-24
CN1248509C (zh) 2006-03-29
ATE297099T1 (de) 2005-06-15
EP1378124B1 (de) 2005-06-01
DE60204447D1 (de) 2005-07-07
KR20020093032A (ko) 2002-12-12
CN1457604A (zh) 2003-11-19
WO2002065784A1 (en) 2002-08-22
US6825885B2 (en) 2004-11-30
KR100887524B1 (ko) 2009-03-09
EP1378124A1 (de) 2004-01-07
JP2004519167A (ja) 2004-06-24

Similar Documents

Publication Publication Date Title
DE60204447T2 (de) Verfahren zur codierung und decodierung von bewegungsschätzungen
DE69130329T2 (de) System und verfahren zur codierung eines zeilensprunghalbbildes
DE69323586T2 (de) Gerät zur Schichtkodierung/-dekodierung für ein progressives Eingangsbildsignal
DE69021500T2 (de) Bedingungsgemässe bewegungskompensierte Interpolation von digitalen Bewegtbildsignalen.
DE60015566T2 (de) Verfahren und vorrichtung zur komprimierung eines bewegungsvektorfeldes
DE69425919T2 (de) Adaptive Komprimierung von digitalen Videodaten
DE69834902T2 (de) Bewegungskompensierte prädiktive bildkodierung und -dekodierung
DE10190285B4 (de) Verfahren und System zur Verarbeitung von komprimierten Videosignalen
DE69232063T2 (de) Adaptive Bewegungskompensation mit mehreren Bewegungskompensatoren
DE69530336T2 (de) Bewegungskompensation für digitale Videosignale mit Zeilensprung
DE69525009T2 (de) Verfahren zur differentiellen Kodierung von Bewegungsvektoren mit Mittelwertprädiktion
DE69632232T2 (de) Verfahren und Vorrichtung zur Komprimierung von Videoinformationen mit bewegungsabhängiger Prädiktion
DE69131438T2 (de) Adaptive Bewegungskompensation für das digitale Fernsehen
DE60027955T2 (de) Verfahren und Vorrichtung zur kontextbasierten Inter/Intra Kodierungsmodeauswahl
DE69524141T2 (de) Adaptiver Bildkodierer mit dynamischer Bitzuteilung
DE69131257T2 (de) Verfahren zur Kompression von bewegten Bildsignalen nach dem Zeilensprungverfahren
DE69432142T2 (de) Verfahren und vorrichtung zur effizienten transkodierung
DE69817460T2 (de) Bildsequenzdekodierungsverfahren
DE69620160T2 (de) Bildkodierungsgerät und Bilddekodierungsgerät
DE69525525T2 (de) Bildverarbeitungssystem unter Verwendung von Pixel-zu-Pixel Bewegungsschätzung und Bilddezimation
DE69224250T2 (de) Ableitung und Verwendung von Bewegungsvektoren in einem Differenzpulskodemodulationssystem
DE69422564T2 (de) Verfahren zur halbpixel Bewegungskompensation in Bilddekodierung
DE69620984T2 (de) Geräuschschätzungs- und Geräuschreduzierungsgerät zur Videosignalverarbeitung
EP0359094B1 (de) Übertragungssystem für ein zeitlich und örtlich hochaufgelöstes Bildsignal
DE69522861T2 (de) Verfahren und Einrichtung zur Codeumwandlung von codiertem Datenstrom

Legal Events

Date Code Title Description
8364 No opposition during term of opposition