DE69836473T2 - Bewegungsschätzung und bewegungskompensierte interpolation - Google Patents

Bewegungsschätzung und bewegungskompensierte interpolation Download PDF

Info

Publication number
DE69836473T2
DE69836473T2 DE69836473T DE69836473T DE69836473T2 DE 69836473 T2 DE69836473 T2 DE 69836473T2 DE 69836473 T DE69836473 T DE 69836473T DE 69836473 T DE69836473 T DE 69836473T DE 69836473 T2 DE69836473 T2 DE 69836473T2
Authority
DE
Germany
Prior art keywords
motion
motion parameter
parameter set
image
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69836473T
Other languages
English (en)
Other versions
DE69836473D1 (de
Inventor
Gerard De Haan
Jan Robert SCHUTTEN
Anna Pelagotti
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Trident Microsystems Far East Ltd Cayman Islands
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Application granted granted Critical
Publication of DE69836473D1 publication Critical patent/DE69836473D1/de
Publication of DE69836473T2 publication Critical patent/DE69836473T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0112Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards corresponding to a cinematograph film standard

Description

  • Die vorliegende Erfindung bezieht sich auf ein Verfahren und eine Anordnung zur Bewegungsschätzung, und auf eine Videowiedergabeanordnung mit einer bewegungskompensierten Interpolationsanordnung.
  • Der Artikel: "Spatio-temporal segmentation of Video data" von John Wang und Edward H. Adelson, in "Proceedings of SPIE", Heft 2182, "Image and Video Processing II", 1994, Seiten 120–131, [37] beschreibt, dass Bildsegmentierung eine kräftige semantische Beschreibung von Videobildern, wesentlich bei dem Verstehen von Bildern und effizienter Manipulation von Bilddaten. Insbesondere definiert Segmentierung auf Basis von Bildbewegung Gebiete, die eine gleiche Bewegung erfahren wobei ein Bildcodierungssystem erlaubt ist um Videosequenzen effizienter darzustellen. Der Artikel beschreibt ein allgemeines iteratives Netzwerk zur Segmentierung von Videodaten. Aufgabe unserer räumlichzeitlichen Segmentierung ist, eine geschichtete Bilddarstellung des Videos für Bildcodierungsapplikationen, wobei Videodaten auf einfache Weise als ein Sat sich verlagernder Schichten beschrieben werden.
  • Der Artikel: "A Unified Mixture Framework for Motion Segmentation: Incorporating Spatial Coherence and Estimating the Number of Models" von Yair Weibb und Edward H. Adelson, in "1996 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'96)" Seiten 321–326, beschreibt, dass Beschreibung einer Videosequenz in Termen einer geringen Anzahl kohärent sich verlagernder Segmente nützlich ist für Aufgaben, die von Videokompression bis Ereignisperzeption reichen. Eine hoffnungsvolle Annäherung ist, das Bewegungssegmentierungsproblem in einem Mischungsschätzungsrahmen zu sehen. Aber bestehende Formulierungen benutzen im Allgemeinen nur die Bewegungsdaten und benutzen nicht die statischen Stichwörter beim Segmentieren der Sequenz. Weiterhin ist die Anzahl Modelle entweder im Voraus spezifiziert oder außerhalb des Mischungsmodellrahmens geschätzt. Der Artikel zeigt, wie räumliche Beschränkungen den Mischformulieren hinzugefügt werden können und bieten eine Variante des EM Algorithmus, der die Form sowie die Bewegungsbeschränkungen benutzt.
  • Der Artikel: "Representing Moving Images with Layers" von Wang, J.Y.A. und Adelson, E.H., in "IEEE Transactions on Image Processing", "Special Issue: Image Sequence Compression" Heft 3, Nr. 5, September 1994, Seiten 625–638, beschreibt ein Sys tem zum Darstellen sich verlagernder Bilder mit Sätzen sich überlappender Schichten. Jede Schicht enthält eine Intensitätsmappe, die die additiven Werte jedes Pixels definiert, zusammen mit einer Alphamappe, die wie eine Maske wirksam ist, welche die Transparenz angibt. Die Schichten sind in der Tiefe geordnet und sie verdecken einander entsprechend den Regeln der Zusammensetzung. Geschwindigkeitsmappen definieren, wie die Schichten in der Zeit gefaltet werden müssen. Die geschichtete Darstellung ist flexibler als Standardbildtransformationen und kann viele wichtige Eigenschaften von natürlichen Bildsequenzen erfassen. Der Artikel beschreibt einige Verfahren zum Zerlegen von Bildsequenzen in Schichten unter Anwendung von Bewegungsanalyse und beschreibt, wie die Darstellung für Bildcodierungs- und andere Applikationen verwendet werden kann.
  • Bewegungsvektoren werden in einem Bereich von Applikationen, wie Codierung, Rauschunterdrückung und Abtastratenumwandlung verwendet. Einige dieser Applikationen, insbesondere die Frameratenumwandlung, erfordern, dass die wirkliche Bewegung von Objekten geschätzt wird [10, 11]. Andere Applikationen, beispielsweise verschachtelt-zu-sequentielle Abtastumwandlung, erfordern eine hohe Genauigkeit der Bewegungsvektoren zum Erreichen einer niedrigen Amplitude restlicher Alias [12, 13]. Zum Schluss gibt es eine Kategorie von Applikationen, beispielsweise Konsumentenapplikationen von Bewegungsschätzung, wobei die Kosten des Bewegungsschätzers von wesentlicher Bedeutung sind [14, 15]. Es wurden bereits viele Algorithmen vorgeschlagen zum Erzielen einer wirklichen Bewegungsschätzung [3, 10, 11, 15–17]. Es wurden ebenfalls Algorithmen vorgeschlagen zum Verwirklichen einer Bewegungsschätzung mit einem niedrigen Komplexitätspegel, beispielsweise [3, 14, 15, 18–20] und zusätzlich zu den pixelrekursiven Algorithmen, die meistens eine Subpixelgenauigkeit ermöglichen, siehe beispielsweise [21, 22] wobei eine Anzahl Blockübereinstimmungsalgorithmen genannt wurden, die äußerst genaue Bewegungsvektoren ergeben [10, 23, 24].
  • Voreinigen Jahren wurde eine rekursiver Suchblockanpassungsanordnung vorgeschlagen, die wirkliche Bewegungsschätzung, wie diese für Frameratenumwandlung erforderlich ist, mit der niedrigen Komplexitätsbeschränkung kombiniert wird, die für Konsumentenapplikationen erforderlich ist [3]. Dieser Entwurf wurde in einer IC von Philips (MELZONIC, SAA4991) kommerzialisiert [6,25], wobei Bewegungsschätzungs- und Kompensationstechniken angewandt werden, um die Bewegungsdarstellung von Filmmaterial, wenn im Fernsehen vorgeführt, zu verbessern, und um Unschärfe von Bilddetails zu eliminieren in dem Fall, dies auftritt, wenn Sequenzen mit einer Bilderneuerungsrate wiedergegeben werden, die von der Übertragungsrate abweicht. Die meist herausfordernde Aufgabe einer derartigen Verarbeitung ist die Schätzung von Bewegungsvektoren, die angeben, ob an einer bestimmen Stelle des Schirms, Objekte sich ggf. verlagern, und sollte dies der Fall sein, wie schnell und in welcher Richtung. Bei der bekannten IC wird diese Aufgabe durch eine sog. Blockanpassungsschaltung durchgeführt, die das Bild in Blöcke aufteilt und einen Bewegungsvektor für jeden Block mit Pixeln berechnet durch Minimierung eines Anpassungskriteriums. De Gefahr einer derartigen Verarbeitung ist, dass das bewegungskompensierte Bild, interpoliert aus benachbarten Bildern die Bewegungsvektoren verwendend, Blockstörungen aufweisen kann, wenn das Bewegungsvektorfeld an unerwünschten Inhomogenitäten leidet. Zum Reduzieren dieser Gefahr auf einen akzeptierbaren Pegel benutzt die IC in [6] eine Blockanpassungsschaltung mit einer verbesserten Konsistenz auf Basis einer räumlichen und zeitlichen Prädiktion von Kandidatvektoren [3]. Ein vorteilhafter Nebeneffekt dieser Annäherung der Bewegungsschätzung ist die sehr signifikante Reduktion der Verarbeitungsleistung, erforderlich für die Funktion, was insbesondere dem sehr beschränkten Kandidatvektorzählwert zuzuschreiben ist.
  • Der Artikel: "Layered representation for motion analysis" von J.Y.A. Wang und E.A. Adelson in "Proceedings of the 1993 IEEE Computer Society conference on Computer vision and pattern regognition", Seiten 361–366 [29] beschreibt einen Satz von Techniken zur Segmentierung von Bildern in kohärent sich verlagernde Gebiete, wobei ein affine Bewegungsanalysen- und Clustertechniken angewandt werden. Ein Bild wird in einen Satz von Schichten zerlegt, zusammen mit Information über Verstopfung und Tiefenordnung. Eine Szene wird in vier Schichten analysiert und danach wird eine Sequenz mit einem einzigen Bild jeder Schicht dargestellt, zusammen mit assoziierten Bewegungsparametern.
  • Es ist u. a. eine Aufgabe der vorliegenden Erfindung, einen Bewegungsschätzer mit einer weiter reduzierten Komplexität zu schaffen, Dazu schafft ein erste Aspekt der vorliegenden Erfindung ein Verfahren und eine Anordnung, wie in den Ansprüchen 1 und 9 definiert. Ein zweiter Aspekt der vorliegenden Erfindung schafft ein Verfahren und eine Anordnung, wie in den Ansprüchen 7 und 10 definiert. Ein dritter Aspekt der vorliegenden Erfindung schafft eine Videowiedergabeanordnung, wie in Anspruch 11 definiert. Vorteilhafte Ausführungsformen sind in den Unteransprüchen definiert.
  • In einem Verfahren zum Schätzen von Bewegung nach einem Hauptaspekt der vorliegenden Erfindung werden wenigstens zwei Bewegungsparametersätze aus den Eingangsvideodaten erzeugt, wobei ein Bewegungsparametersatz ein Satz mit Parametern ist, die Bewegung in einem Bild beschreiben, wobei mit Hilfe dieses Bewegungsparametersatzes Bewegungsvektoren berechnet werden können. Ein Bewegungsparametersatz gibt eine Nullgeschwindigkeit für alle Bildteile in einem Bild und jeder Bewegungsparametersatz hat entsprechende örtliche Übereinstimmungsfehler, wie Übereinstimmungsfehler, ermittelt je Pixelblock. Ausgangsbewegungsdaten werden aus den Eingangsvideodaten ermittelt, und zwar in Abhängigkeit von wenigstens zwei Bewegungsparametersätzen, wobei die Bedeutung jedes Bewegungsparametersatzes (ermittelt durch Gewichtungsfaktoren W, siehe die Gleichungen 17, 18 und zwischen den Gleichungen 20, 21) beim Berechnen der Ausgangsbewegungsdaten von den örtlichen Anpassungsfehlern der Bewegungsparametersätze abhängig ist. Örtliche Anpassungsfehlern sollen im Gegensatz zu globalen Anpassungsfehlern, wie Anpassungsfehler, berechnet für das ganze Bild verstanden werden.
  • Bei einem Verfahren zur Bewegungskompensation von Videodaten nach einem anderen Aspekt der vorliegenden Erfindung werden wenigstens zwei Bewegungsparametersätze aus den Eingangsvideodaten erzeugt, wobei ein Bewegungsparametersatz eine Nullgeschwindigkeit angibt, und jeder Bewegungsparametersatz entsprechende Anpassungsfehler hat, und Ausgangsvideodaten aus den Eingangsvideodaten in Abhängigkeit von den wenigstens zwei Bewegungsparametersätzen interpoliert werden, wobei die Bedeutung jedes Bewegungsparametersatzes beim Berechnen der Ausgangsvideodaten von den Anpassungsfehlern der Bewegungsparametersätze abhängig ist.
  • Bei dem Verfahren der Bewegungskompensation von Videodaten nach einem anderen Aspekt der vorliegenden Erfindung werden aus Eingangsvideodaten wenigstens zwei Bewegungsparametersätze erzeugt, wobei der eine Bewegungsparametersatz eine Nullgeschwindigkeit angibt, und wobei jeder Bewegungsparametersatz entsprechende Übereinstimmungsfehler hat, und Ausgangsdaten von den Eingangsdaten interpoliert werden, und zwar in Abhängigkeit von den wenigstens zwei Bewegungsparametersätzen, wobei die Bedeutung jedes Bewegungsparametersatzes beim Berechnen der Ausgangsvideodaten von den Übereinstimmungsfehlern der Bewegungsparametersätze abhängig ist.
  • In einer Ausführungsform ist die Reduktion derart signifikant, dass die Verarbeitung an einer völlig programmierbaren Anordnung durchgeführt werden kann, insbesondere dem Philips TriMedia Prozessor.
  • Ausführungsbeispiele der vorliegenden Erfindung sind in der Zeichnung dargestellt und werden im Folgenden näher beschrieben. Es zeigen:
  • 1 zwei Möglichkeiten zur Bewegungskompensation nach der vorliegenden Erfindung,
  • 2 eine erste Ausführungsform eines bewegungskompensierten Interpolators nach der vorliegenden Erfindung,
  • 3 eine zweite Ausführungsform eines bewegungskompensierten Interpolators nach der vorliegenden Erfindung,
  • 4 ein Blockschaltbild eines Bewegungsparameterschätzers nach der vorliegenden Erfindung und
  • 5 einen bevorzugten Parameterschätzer nach der vorliegenden Erfindung.
  • In [5] wurde ein Verfahren beschrieben, wie eine globale Bewegung von einer Bildsequenz geschätzt werden soll. Es wird vorausgesetzt, dass Bewegung in dem Bild mit einer zweidimensionalen linearen Gleichung erster Ordnung beschrieben werden kann, und zwar unter Anwendung von
    Figure 00050001
    für den Verlagerungsvektor an der Stelle
    Figure 00050002
    in dem Bild mit dem Index n:
    Figure 00050003
  • Es ist erkannt, dass wenn wir nur globale Bewegungsvektoren schätzen möchten, die Eingabe zu den Parameterberechnungsmitteln einfacher sein kann als was in [5] beschrieben worden ist.
  • Wenn nur derartige globale Bewegungsvektoren verfügbar sind, wird das Problem der Aufwärtsmischung der Teil der Verarbeitung mit der höchsten Herausforderung. [1, 4] beschreibt ein Verfahren zur robusten bewegungskompensierten zeitlichen Interpolation von Bilddaten. Der Grundgedanke bestand aus einem Mediafilter mit drei Abgriffen, das ein Ausgangspixel erzeugt, selektiert um entweder das bewegungskompensierte Pixel mcl(eft) aus dem vorhergehenden Teilbild n–1 zu sein, das bewegungskompensierte Pixel mcr(ight) aus dem nächsten Teilbild n, oder der nicht-bewegungskompensierte Mittelwert av von den beiden benachbarten Teilbildern n–1, n:
    Figure 00060001
    Mit
    Figure 00060002
  • Die bei der Bewegungskompensation verwendeten Pixel sind in 1 schematisch dargestellt. Obschon ziemlich robust, könnte ein noch robusterer Algorithmus betrachtet werden für unseren sehr begrenzten Bewegungsschätzervorschlag, der ein Mediafilter mit drei Abgriffen umfasst, das ein Ausgangspixel erzeugt, durch Selektion entweder des entsprechenden Pixels l(eft) in dem vorhergehenden Teilbild n–1, des entsprechenden Pixels r(ight) in dem nächsten Teilbild n, oder der bewegungskompensierte Mittelwert mcav von den beiden benachbarten Teilbildern n–1, n:
    Figure 00060003
    Mit
    Figure 00070001
  • Dieser Aufwärtsmischer aber, der tatsächlich sehr robust ist, begrenzt den Vorteil von Bewegungskompensation wesentlich (die Bewegungskompensation ist nur auf die unteren Frequenzen begrenzt). Deswegen wird nach der vorliegenden Erfindung der Aufwärtsmischer zwischen die erste und die zweite Möglichkeit angepasst, und zwar abhängig von der erwarteten Qualität der Bewegungsvektoren. Ein vorteilhaftes Merkmal der vorgeschlagenen Interpolatoren ist, dass Umschaltung zwischen den zwei robusten Möglichkeiten nicht sehr kritisch ist. Dies bedeutet, dass eine ziemlich grobe Entscheidung akzeptierbar ist, die mit geringer Verarbeitungsleistung an einer Version der Eingangssequenz mit einer (räumlich) reduzierten Größe durchgeführt werden kann. Diese Eingangssequenz reduzierter Größe wird verwendet zum berechnen von Anpassungsfehlern, erhalten mit (wenigstens) zwei Bewegungsvektoren je Stelle, entweder erzeugt aus einem Parametermodell oder dem Nullvektor.
  • Das Ergebnis einer Segmentierung, die das Bild in Schichten aufteilt, wobei das Nullvektormodell oder das berechnete Parametermodell geeigneter ist. Die Segmentierungsmaske SM wird nun als extra Eingabe des Aufwärtsmischer UC verwendet, der die Maske SM zum Umschalten/Blenden zwischen den beiden oben beschriebenen Aufwärtsmischern verwendet (siehe 2). Im Falle eines gültigen Parametermodells neigt der Aufwärtsmischer zu der Interpolation der Gleichung 2, sonst zu der Interpolation der Gleichung 7.
  • In 2 werden die Werte l und r (siehe 1) einer ersten Mittelwertbestimmungsschaltung AV1 zugeführt um den Wert av zu erzeugen. Ein erstes Mittelwertfilter MED1 bestimmt den Mittelwert der Werte av, mcl und mcr. Die Werte mcl und mcr werden einer zweiten Mittelwertbestimmungsschaltung AV2 zugeführt zum Erzeugen des Wertes mcav. Ein zweites Mittelwertfilter MED2 bestimmt den Mittelwert der Werte mcav, l und r. Der Aufwärtsmischer UC1 liefert den interpolierten Wert aus den Ausgangssignalen der Mittelwertfilter MED1, MWD2 in Abhängigkeit von der Segmentierungsmaske SM. Das Ausgangssignal des Aufwärtsmischers UC1 wird einer Wiedergabeeinheit (D) zur Wiedergabe der Ausgangsvideodaten (n–1/2) zwischen den Eingangsvideodaten (n, n–1) zugeführt.
  • Von dieser Stelle an können Erweiterungen in Richtung vieler Schichten betrachtet werden wobei viele Parameterschätzer PE1...Pen (siehe 3, die einen geschichteten auf Parametern basierten Schätzer und Aufwärtsmischer zeigt) parallel laufen, die je Parametermodelle für verschiedene, nicht unbedingt feste Teile von Bildern erzeugen. Diese Parameterschätzer PEi sind wieder der Eingang einer Segmentierungsschaltung SC, die die Teile des Bildes findet, für die jedes Modell gültig ist, oder mit anderen Worten, bestimmt eine Segmentierungsmaske SM, die das beste Interpolationsverfahren (Parametersatz) für jeden Teil des Bildes angibt. Der Aufwärtsmischer UC2 sollte wieder das bestmögliche Interpolationsverfahren für jede einzelne Schicht innerhalb des Bildes in Abhängigkeit von der Segmentierungsmaske SM wählen.
  • In 3 werden Daten des aktuellen Bildes von dem Eingangsteilbild n und vorhergehende Bilddaten von dem Eingangsteilbild n–1 den Parameterschätzern PE2...Pen zugeführt, und zwar zum Ermitteln von Bewegungsparametern p21–p2m...pn1–pnm. Ein erster Parameterschätzer PE1 liefert Nullparameter. Die Eingangsteilbilder n und n–1 werden ebenfalls der Segmentierungsschaltung SC zugeführt, und zwar über Abwärtssampler D1, D2. Der Aufwärtsmischer UC2 berechnet Bewegungsvektoren auf die Art und Weise, wie durch die Gleichung 1 aus dem Parametersatz angegeben, durch die Segmentierungsmaske SM angegeben, zum Interpolieren des Ausgangsteilbildes n–1/2 von den Eingangsteilbildern n und n–1. Die Gewichtungsfaktoren W werden nachstehend anhand der Gleichungen 17 und 18 erläutert, und zwischen den Gleichungen 20 und 21. Jeder Parameterschätzer PE2...PEn umfasst eine Fehlerberechnung zum Einstellen der Bewegungsparameter. Die Berechnung beschränkt sich vorzugsweise auf diejenigen Bildteile, die mit dem Parametersatz übereinstimmen, behandelt durch den betreffenden Parameterschätzer PE. Dazu wird ein Gewicht W zugeordnet, wobei dieses Gewicht dem Betrag der Übereinstimmung entspricht (Art von Fuzzy-Logik). Schlussendlich bei der Interpolation wird für jedes Pixel derjenige Parametersatz verwendet, der den geringsten Schätzungsfehler für jedes Pixel ergibt.
  • In dem nachfolgenden Teil dieser Beschreibung, werden bevorzugte Parameterschätzer beschrieben.
  • In [2] werden Verfahren zum Schätzen globaler Bewegungsparameter aus einer Bildsequenz beschrieben. Das Buch richtet sich auf mehrere Möglichkeiten zum Lösen des mehrdimensionalen Optimierungsproblems, wie auf Gradienten basierte Verfahren, simuliertes Glühen, usw. Nach einem weiteren Aspekt der vorliegenden Erfindung werden diese Bewegungsparameter mit einer wesentlich reduzierten Vorgangszählung geschätzt um entweder die Kosten des Siliziums zu reduzieren oder sogar die Verarbeitung an einer programmierbaren Architektur zu ermöglichen (insbesondere den TriMedia Prozessor von Philips).
  • In [5] wurde ein Verfahren beschrieben zum Schätzen von globalen Bewegungsparametern aus einer Bildsequenz. Es wird dabei vorausgesetzt, dass Bewegung in dem Bild mit einer zweidimensionalen linearen Gleichung erster Ordnung beschrieben werden kann. Komplexere parametrische Bewegungsmodelle wurden bereits vorgeschlagen [2] und können tatsächlich in Kombination mit der vorliegenden Erfindung angewandt werden, werden aber in dieser Beschreibung nicht näher erläutert. In [5] wurde das Parametermodell zum Erzeugen interessanter Kandidatvektoren für einen auf Blöcke basierten Bewegungsschätzer verwendet. Das Eingangssignal für den Parameterschätzer war das vorhergehende Ausgangsvektorfeld, erhalten aus diesem auf Blöcke basierten Schätzer. Es dürfte einleuchten, dass wenn wir nur globale Bewegungsvektoren schätzen wollen, der Eingang zu den Parameterberechnungsmitteln einfacher sein kann.
  • Wenn wir und der Deutlichkeit halber auf die vier Parametermodell der Gleichung 1 beschränken, definieren wir zunächst den Parametervektor
    Figure 00090001
    Figure 00090002
    und definieren unsere Aufgabe als Selektion von
    Figure 00090003
    aus einer Anzahl Kandidatparame tervektoren
    Figure 00090004
    als derjeniege, der den minimalen Wert eines Anpassungskriteriums hat, berechnet entsprechend der nachfolgenden Gleichung:
    Figure 00090005
  • Die Berechnung dieser Fehlerfunktion kann weitgehend vereinfacht werden, und zwar durch Anwendung einer starken Unterabtastung. Versuche geben an, dass mit einem Anpassungskriterium, berechnen an nur 300 Pixeln je Teilbild, gute Ergebnisse erzielt werden können, d.h. mit einem Abtastfaktor der Größenordnung 1000. Weitaus effektiver ist aber eine angehäufte Unterabtastung, d.h. die selektierten Pixel bilden Gruppen, die spärlich über das Feld verteilt sind.
  • Der Vorschlag zum Durchführen der Minimierung erfordert, dass ein Prädiktionsvektor genommen wird (nun wenigstens dreidimensional, in unserem Beispiel vierdimensional), dass wenigstens ein Aktualisierungsvektor hinzugefügt wird, und dass entsprechend der Gleichung 13 der beste selektiert wird. Gute Ergebnisse könnten versuchsweise erzielt werden, wenn ein Kandidatvektorsatz CSp(n) erzeugt wird, der drei Kandidatparametervektoren
    Figure 00100001
    enthält, und zwar entsprechend:
    Figure 00100002
    wobei USp(n) entsprechend der nachfolgenden Gleichung selektiert worden ist:
    Figure 00100003
  • Strafen können zu dem Anpassungsfehler einzelner Kandidatvektoren (Parametersätze) zum Erhalten beispielsweise zeitlicher Geschmeidigkeit, hinzugefügt werden. Auch zeitliche Filterung der Parametervektoren, entweder innerhalb oder außerhalb der Prädiktionsschleife, wird derart betrachtet, dass dies eine plötzliche Änderung der Bewegungsvektoren von dem einen Bild zum anderen vermeidet.
  • Obschon in der bisherigen Beschreibung bereits vorgeschlagen wurde, dass das parametrische Bewegungsmodell die globale Bewegung des ganzen Bildes beschreibt, lassen sich Alternativen bedenken, wobei das Bild in einige, beispielsweise 9 große Blöcke aufgeteilt wird, und mögliche Prädiktionen sind nicht nur die zeitliche Prädiktion, sondern auch eine oder mehrere räumliche Prädiktionen. Eine weitere Alternative umfasst Segmentierung und eine feste Anzahl Parameterschätzer laufen parallel, je sich auf ein Segment des Bildes richtend, angegeben durch den Segmentierungsalgorithmus, der über ein vorhergehendes Bild läuft.
  • Der Vorgangszählwert ist unglaublich niedrig. Berechnung des Fehlerkriterium beträgt etwa 1000 Vorgänge je Kandidatvektor je Wiederholung. Für die beschriebene Implementierung führt dies zu: 3.16.1000 / 720.288 ≈ 48 / 207 ≈ 0.23 Vorgängen je Pixel. Dies ist eine Reduktion um eine andere Größenordnung von zwei Größenordnungen, im Vergleich zu dem Schätzer von [6].
  • 4 zeigt ein Blockschaltbild eines Bewegungsparameterschätzers nach der vorliegenden Erfindung. Ein erster und ein zweiter Kandidatparametersatz Cp1, Cp2 werden einem Multiplexer MUX und einem Parameter-zu-Vektorwandler PVC zugeführt, zum Erhalten zweier Kandidatbewegungsvektoren Cv1, Cv2. Der erste Kandidatparametersatz Cp1 ist der vorhergehende Ausgangsparametersatz P(n) des Multiplexer MUX. Der zweite Kandidatparametersatz Cp2 ist wird dadurch erhalten, dass ein Aktualisierungsparametersatz Up zu dem ersten Kandidatparametersatz Cp1 hinzuaddiert wird (Addierer AD). Der Aktualisierungsparametersatz Up wird dadurch erhalten, dass das Ergebnis eines mod(n)-Zählers CNT einer Nachschlagtabelle LUT zugeführt wird. Die Kandidatbewegungsvektoren Cv1, Cv2 werden einem Fehlerberechnet EC zugeführt, dem das aktuelle und das vorhergehende Teilbild n, n–1 auch zugeführt werden, und zwar zum Erhalten zweier Fehler E1, E2. Eine Minimumschaltung MIN bestimmt, welcher Fehler der kleinere ist zum Erhalten eines Selektionssignals s für den Multiplexer MUX zum Erhalten des Ausgangsparametersatzes P(n).
  • Der nachfolgende Teil dieser Beschreibung befasst sich mit einem bevorzugten Verfahren zum Schätzen von Bewegungsparametern aus Videodaten. Bewegungsschätzung wird beim Codieren und bei der Abtastratenumwandlung von Videodaten angewandt. Obschon meistens die Bildrate dieser Videodaten am Eingang des Bewegungsschätzers fest ist, kann die Bildrate der Videoquelle, von der diese Daten herrühren, von der der verarbeiteten Daten abweichen. Insbesondere tritt dies auf, wenn Filmmaterial zu Video umgesetzt wird, oder wenn Videomaterial von der einen Norm in eine andere Norm umgesetzt wird, und zwar irgendwo in der Videokette vor dem Bewegungsschätzer.
  • Eine übliche Art und Weise mit den erforderlichen Bildratenumwandlungen fertig zu werden, ist die Verwendung des jüngsten Bildes bis ein neues verfügbar wird. Wenn von einer niedrigen Bildrate zu einer höheren Bildrate umgesetzt wird, bedeutet dies die Wiederholung von Quellenbildern in dem neuen Format, während eine Umwandlung von einer hohen zu einer niedrigeren Rate zu einer gelegentlichen Überspringung von Bildern des Quellenmaterials. In beiden Fällen zeigt das resultierende Video ein unregelmäßiges Bewegungsmuster ("judder"), was die übliche Annahme bei Bewegungsschätzers, dass Bewegung eine starke zeitliche Konsistenz hat, verletzt. Bei Bewegungsschätzern, die versuchen, Vorteil aus dieser Voraussetzung zu ziehen, durch Verwendung zeitlicher Prädiktionsvektoren, führt das Problem dazu, dass das unregelmäßige Bewegungsverhalten den Nutzen dieser zeitlichen Prädiktionsvektoren eliminiert. Dadurch kann eine wesentliche Verringerung der geschätzten Bewegungsvektoren das Ergebnis sein.
  • In [9] wurde eine Lösung dieses Problems beschrieben, für Filmmaterial, das in eine 50 Hz Fernsehnorm umgewandelt wird. Der Gedanke dabei ist, den Vektorprädiktionsspeicher umlaufen zu lassen, wenn ein wiederholtes Bild auftritt. In [8] wurde ein Verfahren beschrieben, wobei der Bildspeicher das "vorhergehende" Bild speichert, das in Umlauf gebracht wird, bis ein nicht wiederholtes Bild auftrat. Eine Charakteristik, die von den beiden bekannten Verfahren geteilt wird, ist, dass das Muster bekannt sein soll um die Speichersteuerung zu ändern.
  • Es ist nun u. a. eine Aufgabe dieses Aspektes der vorliegenden Erfindung, ein sehr robustes Bewegungsschätzungsverfahren zu schaffen, das überhaupt keine Vorkenntnisse des Wiederholungsmusters braucht um auf zuverlässige Art und Weise Bewegung zu schätzen. Dazu nimmt der Bewegungsschätzer zeitliche Prädiktionsvektoren aus mehr als nur einem vorhergehenden Bilderpaar (ebensoviel wie die maximale Länge des Wiederholungsmusters) und selektiert die besten daraus als Basis für den Schätzungsprozess, oder benutzt sie alle als Kandidat in einem Anpassungsprozess.
  • Diese Lösung ist wirtschaftlich berechtigt, insbesondere bei objektbasierten Bewegungsschätzern, wobei die Anzahl zu speichernder Bewegungsvektoren sehr gering ist. Eine Software-Version des Algorithmus ist dargestellt um in Echtzeit in dem Philips TM 1000 (TriMedia) Prozessor zu laufen.
  • 5 zeigt einen bevorzugten Parameterschätzer nach der vorliegenden Erfindung. Aktuelle Bilddaten aus dem aktuellen Teilbild n und vorhergehende Bilddaten aus dem vorhergehenden Teilbild n–1 werden einer Bewegungsparameterschätzungseinheit MPE zugeführt zum Erhalten von Bewegungsparametern P(n). Bildverzögerungen D1, D2,...Dn liefern verzögerte Versionen TP1, TP2,...TPn der Bewegungsparameter P(n) zu der Bewegungsparameterschätzungseinheit MPE.
  • Der nachfolgende Teil dieser Beschreibung bezieht sich auf eine geschichtete Bewegungsschätzung, d.h. das Bild wird in eine Anzahl Schichten segmentiert.
  • Es wurden bereits Region-basierte Bewegungsschätzer eingeführt als Alternative für Block-basierte Bewegungsschätzer. Block-basierte Bewegungsschätzer sind in die internationalen Normen für Videokompression aufgenommen, wie H.261/263 (Videokonferenz über ISDN-Leitungen), MPEG-1 (Multimedia) und MPEG-2 (ganz-digitale Fernsehapplikationen). Obschon diese Normen nicht ein bestimmtes Bewegungsschätzungsverfahren spezifizieren, wird Block-basierte Bewegungsschätzung eine natürliche Wahl.
  • Die Verwendung aber von Blöcken als Einheiten für Bewegungsschätzung kann zu sperrenden Artefakten führen, weil die Begrenzungen von Objekten im Allgemeinen nicht mit den Blockgrenzen übereinstimmen, und Nachbarblöcken können wesentlich andere Bewegungsvektoren zugeordnet werden, wenn es keine räumlich-zeitliche Konsistenzbeschränkung gibt.
  • Eine viel versprechende Annäherung zum Lösen des Problems von Blockartefakten und zum Schaffen einer genaueren Prädiktion über sich verlagernder Ränder ist, das Bewegungsfeld zu segmentieren. Bewegungsinformation und Musterinformation (Intensität, Konturstruktur) werden verwendet um eine Gebiets-basierte (beliebig geformte) Bewegungsschätzung zu erzielen, wobei das nächste Ziel ist, Objekte zu behandeln und möglicherweise MPEG-4 "Audio-Visuelle Objekte".
  • Es wurden bereits viele Verfahren vorgeschlagen [2] zum Segmentieren von Bildern und zum Schätzen von Bewegungsparametern für diese Segmente aus eine Bildsequenz. Je nach der Strategie beim Durchführen der Segmentierung können diese Verfahren in Verfahren mit Aufwärtsstruktur und Verfahren mit Abwärtsstruktur, sowie mit einer geschichteten Darstellung aufgeteilt werden. Wir werden die Kennzeichen der einzelnen Kategorien kurz zusammenfassen.
  • Verfahren mit einer Aufwärtsstruktur.
  • Die Verarbeitung startet mit einer Intraframe-Segmentierung des Bildes auf Basis von Musterinformation oder auf Bas eines vorher berechneten dichten Bewegungsvektorfeldes. Die Segmentierung führt im Allgemeinen zu einer Anzahl kleiner Gebiete. Diese Gebiete werden danach zusammengefügt, wobei im Allgemeinen Information über ihre Bewegung verwendet wird, d.h. Gebiete mit ähnlicher Bewegung werden zu einem einzigen Gebiet zusammengefügt und Bewegungsparameter werden danach neu berechnet. Diese Prozedur erweist sich als sehr beliebt, wenn das Ziel Objekt-orientierte Codierung ist. Beispiele in [26–29].
  • Verfahren mit einer Abwärtsstruktur.
  • Die Verarbeitung startet mit einer Ausgangsbildsegmentierung in große Gebiete. Diese werden unterteilt, wobei dem berechneten Bewegungsmodell Genauigkeit fehlt, und es werden Bewegungsparameter neu berechnet. Die Ausgangssegmentierung ist im Allgemeinen auf einer "geändert/nicht geändert" Regel basiert, d.h. das aktuelle Bild wird mit dem vorhergehenden Bild verglichen; wenn in derselben Lage der Leuchtdichtewert in dem einen Frame wesentlich anders ist als der Leuchtdichtewert in dem anderen Frame, wird dieses Pixel als "geändert" gemerkt, sonst als "nicht geändert". Daraufhin kann der als "geändert" klassifizierte Teil bewegungskompensiert werden, und zwar entsprechend dem Bewegungsfeld, berechnet für dieses Gebiet, und die oben beschriebene Prozedur wird wiederholt um die verschiedenen Bewegungsgebiete zu identifizieren. Beispiele in [11, 30, 31, 36].
  • Die zwei Techniken können auch kombiniert werden, so kann beispielsweise der Start der jeweiligen Ausgangssegmentierungen beliebig sein, oder basiert auf einer vorhergehenden Schätzung [11,32], und in beiden Richtungen gibt es aufeinander folgende Verfeinerungen. Die Schätzung und die Segmentierung können auch simultan durchgeführt werden, und zwar unter Anwendung einer statistischen Annäherung der Analyse von Bildsequenzen, beispielsweise mit einem Verfahren der maximalen Wahrscheinlichkeitsschätzung [33].
  • Verfahren mit einer geschichteten Darstellung.
  • Die ideale Szenensegmentierung führt zu separaten Objekten und betrifft dreidimensionale Information, aber dies lässt sich schwer erzielen und ist relativ intensiv. Deswegen werden die Videodaten segmentiert und als einen Satz sich verlagernder Schichten beschrieben, d.h. die Bildteile, die eine ähnliche Bewegung erfahren, sogar wenn nicht verbunden. Danach wie die Ordnung (Tiefe) der Schichten ermittelt. Beispiele in [29, 34, 35]. Ein Modell, d viel weiniger kompliziert ist als das voll-dreidimensionale Modell und weniger kompliziert als ein Modell, das mit allen Objekten in der Sequenz klar kommt, wurde bereits vorgeschlagen. Da dies das in einer bevorzugten Ausführungsform angenommene Modell ist, wird dies in den nachfolgenden Abschnitten näher beschrieben.
  • Entsprechend diesen Verfahren der geschichteten Darstellung werden die Videodaten segmentiert und als einen Satz sich verlagernder Schichten beschrieben, d.h. als Satz von Gebieten, die eine gleiche Bewegung erfahren, sogar wenn nicht verbunden. Die Tiefenordnung der Schichten kann danach ermittelt werden. Eine geschichtete Darstellung einer Videosequenz ist für verschiedene Applikationen interessant, wie Abtastratenumwandlung, Objektverfolgung, Videokompression, Codierung, Videonotierung und Indexierung. Eine Anzahl Algorithmen wurde bereits präsentiert für eine geschichtete Bewegungsdarstellung [29.34–37].
  • Einer der wesentlichen Punkte in diesen Algorithmen ist die Art und Weise, wie das Bewegungsschätzung/Segmentierungsproblem gelöst wird. Es wurden bereits zwei Hauptannäherungen vorgeschlagen.
  • Sequentielle Annäherung
  • Die sequentielle Annäherung zerlegt viele Schichten durch sequentielle Schätzung einer dominierenden Bewegung, entsprechend dem, was bei dem Verfahren mit Abwärtsstruktur gemacht wird. Der Hauptnachteil einer derartigen Annäherung ist der, dass, da die schlussendliche Segmentierung noch nicht bekannt ist, während die eine Schicht behandelt wird, ein Teil des Bildes mit einer anderen Bewegung in die Schätzung der Bewegungsparameter eingeschlossen sein kann, was die Ergebnisse beeinflusst.
  • Die simultane Annäherung
  • Die simultane Annäherung versucht alle Schichten in dem Bild simultan zu schätzen. Dies kann durch Verwendung eines vorher berechneten dichten Bewegungsvektorfeldes gemacht werden. Der Ausgangssatz mit: Bewegungsmodellen kann durch Verwendung eines angehäuften Algorithmus über das bestimmte Bewegungsvektorfeld [29] hergeleitet werden. Beim Berechnen des Bewegungsvektorfeldes werden im Allgemeinen einige Gleichmäßigkeitsannahmen gemacht. Dies kann zu einem Bewegungsvektorfeld führen, in dem die Grenzen nicht mit Grenzen von Objekten/Schichten übereinstimmen, so dass eine einwandfreie Segmentierung nicht möglich ist. Auf alternative Weise kann das Problem als ein stochastisches Problem formuliert werden und eine maximale Wahrscheinlichkeitsschätzung der vielen Modelle und deren Trägerschichten können unter Anwendung eines Erwartungsmaximierungsalgorithmus [36] durchgeführt werden. Der Hauptnachteil der zwei letzten Verfahren ist ihre Komplexität.
  • Ein anderer wesentlicher Punkt ist die Art und Weise, wie die Bewegungsparameter geschätzt werden. Abhängig davon, ob die Schätzung von Bewegungsparametern an dem Leuchtdichtesignal selber oder nicht durchgeführt wird, kann sie als direkt oder als indirekt klassifiziert werden. Die direkten Verfahren werden im Allgemeinen als robuster betrachtet. In [2] werden viele Verfahren zum Schätzen globaler Bewegungsparameter aus einer Bildsequenz beschrieben. Es wurden bereits mehrere Möglichkeiten zum Lösen des mehrdimensionalen Optimierungsproblems, wie Gradienten-basierte Verfahren, simuliertes Glühen, usw. vorgeschlagen. Es ist nun das Ziel des vorgeschlagenen Algorithmus, diese Bewegungsparameter mit einem wesentlich reduzierten Vorgangszählwert zu schätzen um eine Bewegungsschätzung an einer programmierbaren Architektur zu ermöglichen.
  • Es ist nun der Gegenstand des vorliegenden Teils dieser Beschreibung, Bildsequenzen zu schätzen/Segmentieren mit einem wesentlich reduzierten Vorgangszählwert um entweder die Kosten des zugeordneten Siliziums zu reduzieren oder sogar eine Verarbeitung an einer programmierbaren Architektur (insbesondere der Philips TriMedia Prozessor) zu ermöglichen.
  • Der aktuelle Aspekt der vorliegenden Erfindung befasst sich mit Bewegungsschätzung/Segmentierung befasst, abzielend auf eine geschichtete Darstellung. Um die Kosten der Implementierung möglichst niedrig zu halten richten wir uns auf eine Implementierung als ein direktes Verfahren, obschon eineindirekte Version denkbar scheint. Es schafft eine elegante Lösung für das Problem "was war zuerst, das Huhn oder das Ei " einer kombinierten Bewegungsschätzung/Segmentierung. Die Lösung besteht aus einem Gewichtungsprozess, der die Verunreinigung der Optimierungskriterien eines Parameterschätzers für eine bestimmte Schicht durch Information besorgt von den anderen Parameterschätzern, die parallel laufen, begrenzt. Das Entwerfen eines Bewegungsschätzers um in Echtzeit in bestehenden programmierbaren Architekturen zu laufen setzt strenge Grenzen an das Problem der Bewegungsschätzung, da die Komplexität des Algorithmus drastisch reduziert werden soll. Zu diesem Zweck ist ein geschichteter Bewegungsschätzer gewählt worden, da man glaubt, dass es im Grunde einfacher ist eine programmierbare Architektur zu implementieren als beispielsweise eine Block-basierte Bewegungsschätzung, wenn man besieht, dass es weniger Schichten als Blöcke gibt.
  • In einer geschichteten Darstellung wird ein Bild in eine Anzahl Schichten aufgeteilt, d.h. Teile des Bildes erfahren eine kohärente Bewegung, sogar wenn sie nicht verbunden sind. Es wird vorausgesetzt, dass die sichtbare Bewegung (optischer Fluss) in einer Sequenz dann mit parametrischen Modellen beschrieben werden kann, d.h. es ist nur auf eine Kombination von Kamerabewegung und starre Bewegung undurchsichtiger Objekte zurückzuführen. Folglich kann ein einziger Satz mit Bewegungsparametern für jede Schicht statt für das Bewegungsfeld selber geschätzt werden.
  • Segmentierung einer Sequenz von Bildern in Gebiete, die gleiche Bewegungen erfahren und simultan ihre Bewegung schätzen ist an sich ein Problem, da die zwei Zuordnungen voneinander abhängig sind. Um die Bewegung in einem einzigen Gebiet einwandfrei zu schätzen soll das Gebiet bekannt sein. Um die Gebiete des Bildes, die kohärent bewegen, zu ermitteln, soll ihre Bewegung bekannt sein. Ein neues Verfahren für eine quasi-simultane Bewegungsschätzung und Segmentierung bis zu einer festen Anzahl Schichten wird präsentiert. Wir richten uns auf das Problem der Schätzung der Bewegungsparameter für jede Schicht und segmentieren gleichzeitig das Bild durch Einführung einer Hierarchie, d.h. dadurch, dass ein andere Bewertung gegeben wird. Die zwei Ziele, für die diese Hierarchie bestimmt ist, sind:
    • – Das Vermeiden, dass eine bestimmte Schicht in Teilen des Bildes geschätzt wird, die durch Schichten bedeckt sind, die in der Hierarchie eine höhere Bewertung haben.
    • – Das Vermeiden, dass eine bestimmte Schicht durch Teile des Bildes verschmutzt werden, die besser durch Schichten bedeckt sind, die in der Hierarchie eine geringere Bewertung haben.
  • Die Parametervektoren werden danach parallel geschätzt, und zwar unter Anwendung einer rekursiven Annäherung, d.h. der früh geschätzte Parametervektor für jede Schicht wird als eine Prädiktion verwendet, zu der Aktualisierungsvektoren hinzuaddiert werden. Der selektierte Parametervektor ist derjenige, der zu dem kleinsten Anpassungsfehler führt. Danach werden die Parametervektoren aller Schichten zusammen bei der Segmentierung des Bildes in die gewünschten verschiedenen Schichten verwendet.
  • Die Bewegung jeder Schicht 1 wird durch ein einfaches Bewegungsmodell beschrieben. Es wird vorausgesetzt, dass die Bewegung innerhalb einer Schicht mit einem zweidimensionalen linearen Modell erster Ordnung beschrieben werden kann.
    Figure 00180001
    wobei
    Figure 00180002
    für den Verlagerungsvektor der Schicht 1 an der Stelle
    Figure 00180003
    in dem Bild mit dem Index n verwendet wird. Mit diesem vier-Parametermodell können horizontale und vertikale geradlinige Bewegungen ("Pan" und "Tilt") sowie "Zoom" beschrieben werden. Es wurden bereits komplexere parametrische Bewegungsmodelle vorgeschlagen [2] und können tatsächlich in Kombination mit dem vorgeschlagenen Algorithmus angewandt werden, werden aber an dieser Stelle nicht näher beschrieben. In den Versuchen wurde dieses Bewegungsmodell mit verschiedenen Freiheitsgraden verwendet:
    • – Alle vier Parameter frei.
    • – Die Parameter sx und sy frei, dx und dy gekoppelt mit einem festen Verhältnis entsprechend dem Seitenverhältnis des Bildes (drei-Parametermodell).
    • – Die Parameter sx und sy frei, dx und dy fest auf Null (Zwei-Parameter, Translationsmodell).
    • – Die Parameter sr frei, sy, dx und dy fest auf Null (Ein-Parameter, "Panning"-Modell).
  • In einer Ausführungsform hat eine erste Schicht 4 oder 8 freie Parameter, während jede nachfolgende Schicht weniger freie Parameter hat als die vorhergehende Schicht, und zwar zum Reduzieren der rechnerische Belastung.
  • Der vorliegenden Erfindung liegt die Erkenntnis zugrunde, dass der Nullvektor (keine Bewegung) sehr üblich ist und in Videosequenzen wichtig, und insbesondere wichtig für die beabsichtigte Anwendung in der Abtastratenumwandlung. Deswegen startet der vorgeschlagene Algorithmus mit einer Schicht 0, wobei die Bewegung durch den Nullparametervektor beschrieben wird (der offenbar nicht geschätzt wird). Die Parametervektoren zusätzlicher Schichten 1, 1 > 0 werden einzeln geschätzt, und zwar durch ihre betreffenden Parameterschätzer PE1.
  • Jeder PE1 hat dasselbe Basisprinzip wie die dreidimensionale rekursive Suchblockanpassungsschaltung von [3]. Ein vorher geschätzter Parametervektor wird ent sprechend einem pseudobeliebigen Rauschvektor aktualisiert, wonach der am besten passende Parametervektor gewählt wird.
  • In Anbetracht des Parametermodells der Gleichung (15) werden die Parameter der Schicht 1, 1 > 0 betrachtet als ein Parametervektor
    Figure 00190001
    Figure 00190002
    und wir definieren unsere Aufgabe als das Wählen von
    Figure 00190003
    aus einer Anzahl Kandidatparametervektoren
    Figure 00190004
    als derjenige, der den minimalen Wert eines Anpassungskriteriums hat. Die Fehlerfunktion wird entsprechend der nachfolgenden Gleichung berechnet:
    Figure 00190005
    wobei Strafen
    Figure 00190006
    zu dem Anpassungsfehler einzelner Kandidatvektoren (Parametersätze) hinzugefügt werden um beispielsweise eine räumliche Glätte zu erhalten und wobei ε Folgendes ist:
    Figure 00190007
    wobei
    Figure 00190008
    ein Gewichtungsfaktor ist, der von der Lage abhängig ist und wobei
    Figure 00190009
    der Leuchtdichtewert an der Stelle
    Figure 00190010
    in dem unterabgetasteten Bild mit dem Index n ist, und wobei X1 ein Satz der Stellen
    Figure 00190011
    ist, wobei die Bewegung der Schicht 1 geschätzt werden soll (die Mode der Selektion der Stellen
    Figure 00190012
    wird nachstehend noch näher erläutert).
  • Die Bilder werden mit einem Faktor 4 horizontal und 2 vertikal auf Teilbildbasis unterabgetastet, wobei ein unterabgetastetes Bild Fs(n) aus jedem ursprünglichen Teilbild F(n) erzeugt wird. Dies liefert einen starken Beitrag zu der gewünschten Reduktion des Vorgängezählwertes. Die Unterabtastung ist erlaubt, weil die Objekte, für die Bewegung geschätzt wird, groß genug sind. Um eine Pixelgenauigkeit oder sogar eine Subpixel genauigkeit in dem ursprünglichen Pixelgitter von F zu erzielen ist Interpolation in dem Unterabtastungsgitter [7] erforderlich.
  • Die vorgeschlagene Minimierung zeigt eine gewisse Übereinstimmung mit der Strategie, die in [3, 7] angewandt worden ist, d.h. einen Prädiktionsvektor (in diesem Fall vierdimensional) nehmen, wenigstens einen Aktualisierungsvektor hinzufügen und den hend der Gleichung 18 selektieren. Gute Ergebnisse könnten versuchsweise erzielt werden, wenn ein Kandidatparametersatz
    Figure 00200001
    erzeugt wird, der drei Kandidaten
    Figure 00200002
    enthält, und zwar entsprechend:
    Figure 00200003
    wobei Aktualisierungsparameter
    Figure 00200004
    aus dem Aktualisierungsparametersatz
    Figure 00200005
    selektiert wird:
    Figure 00200006
  • Zeitliche Filterung der Parametervektoren, innerhalb sowie außerhalb der Prädiktionsschleife, wird angewandt um eine plötzliche Änderung von Bewegungsvektoren von dem einen Bild zu dem anderen zu vermeiden.
  • Der bisher beschriebene Algorithmus führt eine einzige Wiederholung an einem Paar Eingangsbilder durch. Eine schnellere Konvergenz des Algorithmus wird mit vielen Wiederholungen der Parameterschätzer an demselben Paar Eingangsbilder erreicht, in dem vorliegenden Fall wird
    Figure 00200007
    in der Gleichung (19) durch den Ausgang der vorhergehenden Wiederholung
    Figure 00200008
    nach der Ausgangswiederholung an einem Bilderpaar ersetzt.
  • Es wird eine hierarchische Struktur der Schichten vorgeschlagen. Dies wird wie folgt erzielt:
    • – Selektion von Stellen
      Figure 00200009
      wobei Bildteile ausgeschlossen werden, die durch Schich ten mit einer höheren Bewertung bedeckt sind.
    • – Innerhalb von X1 Reduktion des Effektes von Bildteilen, die möglicherweise besser bedeckt sind durch Schichten mit einer niedrigeren Bewertung in der Hierarchie: Zuordnung von höheren Gewichtungen
      Figure 00210001
      zu den Pixeln, die der Schicht 1 in der vorhergehenden Segmentierung zugeordnet wurden.
  • Jeder Schätzer, mit Ausnahme des höchsten in der Hierarchie (der Null-Schätzer), minimiert einen Anpassungsfehler, der in Gebieten berechnet worden ist, in denen alle Schätzer eines höheren Pegels nicht erfolgreich waren in dem vorhergehenden Bild. Der Satz mit Stellen X1 wird mit den Stellen
    Figure 00210002
    gefüllt, wobei der Anpassungsfehler aller höher bewerteten Schichten den mittleren Blockanpassungsfehler um einen festen Faktor übersteigt.
  • Versuche geben an, dass gute Ergebnisse erreicht werden, wenn die Anzahl Stellen in X1 auf einige 2–5% aller Pixel in dem Bild begrenzt wird. Am effektivsten ist eine angehäufte Unterabtastung innerhalb des Bereichs, d.h. die selektierten Pixel bilden Gruppen spärlich verteilt über das ganze Bild. In der aktuellen Applikation werden maximal 50 Cluster von 16 Pixeln gewählt (3% aller Pixel in Fs).
  • Eine einwandfreie Selektion von X1 ist notwendig um zu vermeiden, dass der aktuelle Schätzer Bewegung schätzt, die bereits durch vorhergehende Schichten bedeckt ist.
  • Der stellenabhängige Gewichtungsfaktor
    Figure 00210003
    wird durch die Segmentierungsmaske SM(n–1) bestimmt, gefunden in dem vorhergehenden Bild. Stellen
    Figure 00210004
    die zu der aktuellen Schicht 1 gehören, werden entsprechend der Segmentierungsmaske einen Gewichtungsfaktor haben, der größer ist als Eins, wobei Stellen, die zu einer anderen Schicht gehören, einen Gewichtungsfaktor gleich Eins haben. Eine einwandfreie Selektion von
    Figure 00210005
    ist notwendig um zu vermeiden, dass der aktuelle Schätzer Bewegung schätzt, die durch nachfolgende Schichten in der Hierarchie bedeckt werden können.
  • Der Segmentierungsschritt ist der meist kritische Schritt in dem Algorithmus. Die Aufgabe ist es, eine der Schichten, d.h. ein Bewegungsmodell, in dem Bild jeder Gruppe von Pixeln zuzuordnen. Dies wird im Grunde dadurch erreicht, dass das am besten assende Modell jeder Gruppe von Pixeln zugeordnet wird (einen Block
    Figure 00210006
    der typischerweise 8×8 Pixel auf Framebasis groß ist).
  • Für jede Schicht wird ein Anpassungsfehler berechnet, und zwar entsprechend:
    Figure 00220001
  • Die Segmentierungsmaske
    Figure 00220002
    ordnet die Schicht 1 mit der niedrigs ten ε dem Block
    Figure 00220003
    zu. Die zeitliche Lage der Segmentierung wird durch α definiert, wobei dieser Wert in unseren versuchen auf ½ gesetzt wurde.
  • Um Verarbeitungsleistung zu sparen braucht die Segmentierungsmaske SM nicht für jeden Block
    Figure 00220004
    berechnet zu werden. Stattdessen können die berechneten Blöcke in einem Fünfermuster unterabgetastet werden, wonach die fehlenden Stellen in der Segmentierungsmaske interpoliert werden (beispielsweise durch Wahl der am meisten auftretenden Schichtnummer aus einer Umgebung) [7].
  • Segmentierung ist schwieriger je nachdem es mehr Schichten gibt, da die Segmentierungsaufgabe mehr und mehr derjenigen einer Vollsuchblockanpassungsschaltung entspricht. Um zu vermeiden, dass ein Ausgang des Bewegungsschätzers Inkonsistenz ähnlich der einer Vollsuchblockanpassungsschaltung hat, sind zusätzliche (Glättungs) Beschränkungen zu dem Algorithmus hinzugefügt worden. Aktuelle Glättungsbeschränkungen bestehen aus:
    • – Räumlicher Glättung: wobei ein größeres Fenster bei der Berechnung der ε genommen wird als die Größe des Blocks
      Figure 00220005
      dem die Schicht zugeordnet ist.
    • – Zeitliche Glättung: wobei die berechnete ε einer Schicht um einen Bonuswert reduziert wird, wenn diese Schicht bei der Segmentierung des vorhergehenden Bildes gewählt wird.
    • – Räumliche Glättung: durch Verwendung eines Majoritätsfilters zum Entfernen bemerkenswerter Punkte bei der Segmentierung.
  • Als Ergebnis von Versuchen wurde bei der ersten Implementierung von TriMedia eine dreischichtige Struktur gewählt. Die Schicht 0 wird nicht geschätzt, entsprechend keiner Bewegung, d.h. alle Parametergleich 0. Schicht 1 hat zwei freie Parameter und die Schicht 2 hat nur einen freien Parameter. Der Parameterschätzer der Schicht 1 wiederholt 5 mal und der Schätzer der Schicht 2 wiederholt 3 mal bei jedem Eingangsbilderpaar.
  • Eine einfache Vorfilterung der Unterabtastung wird durch die Mittelwertbestimmung von Pixelwerten in einem Block von 4×2 Pixeln erreicht. Dies dauert etwa 10 Vorgänge je unterabgetasteter Ausgangspixel oder 180.144.10 / 720.288 ≈ 1,25 Vorgänge je Pixel des Eingangsgitters (CCIR 601/625 Zeilen/2:1).
  • Berechnung des Fehlerkriteriums in einem Parameterschätzer dauert etwa 1000 Vorgänge je Kandidatvektor je Wiederholung. Für die beschriebene Implementierung führt dies zu 3.(5 + 3).1000 / 720.288 ≈ 0,12 Vorgängen je Pixel (dies deckt nicht alle Funktionen der Parameterschätzung). Die Berechnung des Fehlerkriteriums bei der Segmentierung dauert etwa 10 Vor an je Schicht je Block folglich 3.(72.90/2).10 / 720.288 ≈ 0,47 Vorgänge je Pixel (dies deckt nicht alle Funktionen der Segmentierung). Dies ist eine Reduktion einer anderen Größenordnung im vergleich zu dem Schätzer von MELZONIC (SAA4991) [3]. Messungen in teilweise optimierten Code für TriMedia gegen einen erreichten Vorgangszählwert von etwa 1,25 für die Unterabtastung an. 1.0 für den Parameterschätzer und 6.1 Vorgänge je Pixel für die Segmentierung.
  • Der vorgeschlagene geschichtete Bewegungsschätzer wurde simuliert, einschließlich der Verwendung des resultierenden Verlagerungsvektors für Bildratenumwandlung von 25 Hz Film in 50 Hz Wiedergabe.
  • Das Vektorfeld, herrührend aus dem Bewegungsschätzer, hat sich als hoch konsistent gezeigt und als durchaus geeignet zur Abtastratenumwandlung. Die erhaltene Qualität wird als interessant betrachtet und für die meisten Szenen vergleichbar mit der Qualität, die mit MELZONIC (SAA4991) erreicht wird.
  • Der vorgeschlagene Bewegungsschätzungsalgorithmus hat keine Vektorbereichsbegrenzung auf Grund der Implementierung, was ein Vorteil gegenüber MELZONIC (SAA4991) ist.
  • Es ist ein Verfahren zum Erweitern globaler Bewegungsschätzungsalgorithmen zu der Schätzung von Bewegungsparametern in einer geschichteten Darstellung präsentiert worden. Eine feste Anzahl Parameterschätzer läuft parallel, die je Parameter für eine einzige Bildschicht berechnen. Eine Segmentierung ordnet jeder Teil des Bildes der richtigen Schicht zu.
  • Obschon die Schätzer parallel arbeiten, gibt es dennoch eine gewisse Hierarchie. Jeder Schätzer, ausgenommen der höchste in der Hierarchie, arbeitet an Bildteilen, wo Schätzer mit einer höheren Bewertung in der Hierarchie in dem vorhergehenden Bild nicht erfolgreich waren. Zweitens wird vermieden, dass jeder Schätzer verschmutzt wird durch Teile des Bildes, die durch Schätzer mit einer niedrigeren Bewertung in der Hierarchie, besser bedeckt werden.
  • Versuche zeigen, dass das vorliegende Ergebnis nicht weit entfernt ist von demjenigen, was mit einem speziellen Entwurf erreicht wird: Natürliche Bewegung mit dem MELZONIC (SAA4991). Der Algorithmus ist aber viel geeigneter zur Implementierung in Software bei einem Prozessor wie TriMedia.
  • Zum Schluss können die Algorithmen nach der vorliegenden Erfindung interessant sein für andere Anwendungsbereiche von Bewegungsschätzung, wie Videokompression und Codierung, Videokommentar und Indexierung, Objektverfolgung und Rauschunterdrückung.
  • Ein erster Aspekt der Erfindung kann wie folgt zusammengefasst werden. Es wird ein neues Verfahren zur globalen bewegungskompensierten Aufwärtsmischung beschrieben und es werden Möglichkeiten angeboten um den Vorschlag zur Anwendung in einer geschichteten Videodarstellung zu erweitern. Im Wesentlichen werden Parameter geschätzt, die die globale Bewegung beschreiben, vorzugsweise unter Anwendung einer rekursiven Annäherung. Die mit diesen Parametern erzeugten örtlichen Bewegungsvektoren werden verwendet zum Erzeugen eines bewegungskompensierten Bildes. Gleichzeitig wird eine Segmentierungsmaske über ein Bild reduzierter Größe berechnet, wobei der Ausgang zum Schalten zwischen verschiedenen Parametersätzen oder Implementierungsverfahren benutz wird. Eine interessante preisgünstige Version wird detailliert beschrieben, die geeignet ist zum Implementieren in aktuell verfügbaren völlig programmierbaren Anordnungen (natürliche Bewegung in einem TriMedia).
  • Die nachfolgenden hervorspringenden Merkmale bevorzugter Ausführungsformen sind bemerkenswert. Ein Verfahren und eine Anordnung, das dieses Verfahren verwirklicht, zur Bewegungskompensation von Videodaten, das die nachfolgenden Elemente umfasst:
    Wenigstens zwei Mittel zum Berechnen globaler Bewegungsparameter aus den Eingangs-Videodaten,
    Interpolationsmittel zum Berechnen von Ausgangs-Videodaten aus einem oder mehreren Eingangsteilbildern, in Abhängigkeit von den wenigstens zwei Sätzen globaler Bewegungsparameter, wobei eines der wenigstens zwei Mittel zum Berechnen globaler Bewegungsparameter Parameter schafft, die eine Nullgeschwindigkeit für das ganze Bild angeben, ungeachtet des Bildinhaltes.
  • Vorzugsweise ist das Interpolationsmittel ein Filter statistischer Ordnung, beispielsweise ein Mittelwertfilter mit drei Abgriffen, das ein Ausgangspixel erzeugt, entweder aus:
    • – dem entsprechenden Pixel in dem vorhergehenden Teilbild, dem entsprechenden Pixel in dem nächsten Teilbild und dem bewegungskompensierten Mittelwert der beiden Nachbarteilbildern (erste Möglichkeit), oder
    • – dem bewegungskompensierten Pixel aus dem vorhergehenden Teilbild, dem bewegungskompensierten Pixel aus dem nächsten Teilbild, und dem nicht bewegungskompensierten Mittelwert der beiden Nachbarteilbilder (zweite Möglichkeit).
  • Vorzugsweise aktiviert ein Segmentierungssignal die erste Entscheidung, in dem Fall, dass der örtliche Bewegungsvektor, der aus dem zweiten Parametersatz berechnet worden ist, die beste Übereinstimmung mit dem Eingangsbild reduzierter Größe ergibt.
  • Vorzugsweise wird das Segmentierungssignal von einer Version des Eingangssignals mit reduzierter Größe hergeleitet.
  • Ein Verfahren und eine Anordnung zur Verwirklichung dieses Verfahrens zur Bewegungskompensation von Videodaten, das die nachfolgenden Elemente umfasst:
    • – wenigstens zwei Mittel zum Berechnen globaler Bewegungsparameter aus den Eingangs-Videodaten,
    • – Interpolationsmittel zum Berechnen von Ausgangs-Videodaten aus einem oder mehreren Eingangsteilbildern, in Abhängigkeit von den wenigstens zwei Sätzen globaler Bewegungsparameter und einem Segmentierungssignal, hergeleitet von einer Version des Eingangssignals reduzierter Größe.
  • Vorzugsweise schafft eines der globalen Bewegungsparameterberechnungsmittel Parameter, die eine Nullgeschwindigkeit für das ganze Bild angeben, ungeachtet des Bildinhaltes.
  • Ein zweiter Aspekt der vorliegenden Erfindung kann wie folgt zusammengepasst werden. Ein neues Verfahren zu globalen Bewegungsparameterschätzung wird beschrieben. Im Wesentlichen werden Parameter, die die globale Bewegung in dem Bild beschreiben, geschätzt, und zwar unter Anwendung einer rekursiven Annäherung, d.h. es wird eine frühere n-dimensionale (n ist die Anzahl Parameter in dem Bewegungsmodell) Schät zung angewandt als eine Prädiktion, zu der (n-dimensionale) Aktualisierungsvektoren hinzu addiert werden. Der Ausgangsparametervektor ist derjenige, der zudem kleinsten Übereinstimmungsfehler führt. Die extrem geringe Komplexität des Algorithmus und die hohe Qualität machen es sehr interessant für künftigen Gebrauch in Fernseh- und Multimedia-Applikationen, die möglicherweise in völlig programmierbaren Anordnungen, wie TriMedia laufen.
  • Die nächsten hervorspringenden Merkmale einer bevorzugten Ausführungsform sind bemerkenswert. Ein Verfahren und eine Anordnung zum Verwirklichen dieses Verfahrens zum Schätzen von Bewegungsparametern (des Parametervektors) einer Bildsequenz umfasst die nachfolgenden Elemente:
    • – Mittel zum Liefern eines Prädiktionsparametervektors, d.h. eine vorher berechnete Bewegungsparameterschätzung,
    • – Mittel zum Selektieren wenigstens eines Aktualisierungsparametervektors aus einem Aktualisierungssatz,
    • – Mittel zum Addieren des genannten Prädiktionsvektors zu dem genannten wenigstens einen Aktualisierungsvektor,
    • – Mittel zum berechnen der Qualität (Kostenfunktion) der resultierenden, wenigstens zwei Parametervektoren, und zwar unter Anwendung von Daten aus wenigstens zwei Teilbildern,
    • – Mittel zum Selektieren des besten Vektors aus den oben genannten wenigstens zwei Parametervektoren auf Basis deren Qualität,
    • – Mittel zum Ausliefern des selektierten Parametervektors als Bewegungsparameterschät zung.
  • Vorzugsweise werden Strafen, eine zeitliche Filterung und eine zeitliche und/oder räumliche Prädiktion angewandt.
  • Ein dritter Aspekt der vorliegenden Erfindung kann wie folgt zusammengefasst werden. Es wird ein Verfahren zum Schätzen von Bewegungsparametern aus Videodaten beschrieben. Die vorliegende Erfindung ermöglicht eine zeitliche prädiktive Bewegungsschätzung an Videodaten, und zwar auf Grund einfacher Bildratenumwandlungstechniken (Wiederholung des jüngsten Bildes), zeigt eine unregelmäßige Bewegung. Die Lösung besteht aus der Verwendung vieler zeitlicher Prädiktionsvektoren, genommen aus mehreren vorhergehenden Bilderpaaren. Diese Lösung ist wirtschaftlich berechtigt, insbe sondere bei objektbasierten Bewegungsschätzern, wobei die Anzahl zu speichernder Bewegungsvektoren sehr gering ist. Eine Software-Version des Algorithmus ist dargestellt um in Echtzeit in dem Philips TM1000 (TriMedia) Prozessor zu laufen.
  • Die nachfolgenden hervorragenden Merkmale einer bevorzugten Ausführungsform sind bemerkenswert. Ein Verfahren, und eine Anordnung zum Verwirklichen dieses Verfahrens, zum Schätzen von Bewegungsparametervektoren aus Videodaten, was für wenigstens einige Bildteile wenigstens zwei (zeitliche) Prädiktionsvektoren ergibt, geschätzt aus Daten verschiedener vorhergehender Bilderpaare. Vorzugsweise sind die oben genannten wenigstens zwei Prädiktionsvektoren Kandidaten in einem Vektorselektionsprozess, wobei der Ausgangsvektor für ein Bild (einen Bildteil) ermittelt wird. Auf vorteilhafte Weise wird entsprechend einer Kriteriumfunktion der bessre der oben genannten wenigstens zwei Prädiktionsvektoren als Basis zum Berechnen von Kandidatvektoren verwendet (beispielsweise ein Aktualisierungsprozess), die Eingang eines Vektorselektionsprozesses sind, wobei der Ausgangsvektor für ein Bild (einen Bildteil) ermittelt wird. Vorzugsweise wird die Entscheidungsinformation (welcher der wenigstens zwei Prädiktionsvektoren der bessere ist, entsprechend einer Kriteriumfunktion) über eine Anzahl aufeinander folgender Bilder (Bildteile), zum Detektieren von Bildwiederholungsmustern verwendet (beispielsweise 3-2 Transport und 2-2 Transport von Filmmaterial, aber auch andere Muster auf Grund von Quelle-Ziel-Bildfrequenzfehlanpassungen).
  • Ein vierter Aspekt der vorliegenden Erfindung bezieht sich auch eine Verbindung von Bewegungsschätzung und Segmentierung von Videodaten und kann wie folgt zusammengefasst werden. Ein Verfahren zum Segmentieren eines Bildes in eine feste Anzahl Schichten und Schätzung von Bewegungsparametern für einzelne Schichten wird beschrieben. Die vorliegende Erfindung schafft eine Lösung für das "Huhn-Ei-Problem" einer kombinierten Bewegungsschätzung und Segmentierung. Die Lösung besteht aus einem Gewichtungsprozess, der die Verunreinigung des Optimierungskriteriums eines Parameterschätzers für eine bestimmte Schicht durch Information, erledigt von den anderen Parameterschätzern, die parallel laufen, begrenzt. Die äußerst geringe Komplexität des Algorithmus und die hohe Qualität machen es sehr interessant für künftige Anwendung in Fernseh- und Multimedia-Applikationen. Eine Software-Version des Algorithmus Informationssignal dargestellt um in Echtzeit in dem Philips TM1000 (TriMedia) Prozessor zu laufen.
  • In einer bevorzugten Ausführungsform wird ein geschichteter Bewegungsschätzungsalgorithmus vorgeschlagen, der eine quasi-simultane Bewegungsschätzung/Segmentierung bis zu einer maximalen Anzahl Schichten ermöglicht. Die Schätzung führt zu einem einzigen Bewegungsparametersatz je Schicht, und zu einer Segmentierungsabbildung, die diese Sätze verschiedenen Teilen des Bildes (Bewegungsschichten) zuordnet. Bewegung in einer Schicht wird mit einem Maximum von vier Parametern modelliert, die imstande sind, eine Pan-Bewegung, Tilt-Bewegung oder Zoom-Bewegung zu beschreiben. Das Konzept zeigt eine gewisse Hierarchie, d.h. eine Rangordnung der Bewegungsschichten. Auf diese Weise schließt die Bewegungsparameterschätzung, die sich auf eine einzige Schicht bezieht, Teile des Bildes aus, die durch eine Schicht beschrieben worden sind, die eine höhere Bewertung in der Hierarchie hat und nicht durch Teile des Bildes verschmutzt wird, die durch Schichten mit einer niedrigeren Bewertung in der Hierarchie bessert beschrieben worden sind. Der Konzept führt zu eine, sehr niedrigen Vorgangszählwert. Er hat sich als sehr gut erwiesen, sogar in kritischen Umwandlungsapplikationen, insbesondere in Bildratenaufwärtsmischung. Es ist eine Variante mit drei Schichten geplant um in Echtzeit in einem Philips Trimedia Prozessor zu laufen.
  • Die nachfolgenden hervorragenden Merkmale bevorzugter Ausführungsformen sind bemerkenswert. Ein Verfahren und eine Anordnung zum Verwirklichen dieses Verfahrens zum Segmentieren eines Bildes in einen Satz von Schichten mit einer gewissen Rangordnung und zum Schätzen von Bewegungsparametern für jede Schicht, weist die nachfolgenden Verfahrensschritte auf:
    • – einen Parameterschätzungsprozess (PE) für jede Schicht in dem aktuellen Bild, wobei eine Kriteriumfunktion optimiert wird, und zwar auf Basis von (Gruppen von) Pixeln von wenigstens zwei Bildern,
    • – einen Segmentierungsprozess (SP), wobei Bildteilen Bewegungsparametersätze zugeordnet werden,
    • – einen Gewichtungsprozess (WP) zum Definieren des einzelnen Effektes von Information aus verschiedenen Teilen auf die Kriteriumfunktion eines Bewegungsparameterschätzers, in dem der WP
    • – den Effekt von Information von denjenigen Bildteilen reduziert oder eliminiert, die ein erstes Kriterium erfüllen, und
    • – den Effekt von Information von denjenigen Bildteilen steigert, die ein zweites Kriterium erfüllen.
  • Vorzugsweise wird das erste Kriterium erfüllt, wenn bei einer vorhergehenden Wiederholung des Algorithmus auf dasselbe oder auf ein anderes Bilderpaar, die Bildteile in Gebiete fallen, die auf entsprechende Weise von beliebigen Bewegungsparametersätzen beschrieben wurden, geschätzt von PEen, die bei Schichten mit einer höheren Bewertung aktiv sind. "Auf entsprechende Weise" bedeutet in diesem Zusammenhang, dass eine Fehlerfunktion, die die Parametersätze der PEen verwendet, die bei Schichten mit einer höheren Bewertung in der Hierarchie aktiv sind, unter einer Schwelle bleiben (entweder fest oder angepasst, beispielsweise an einen Mittelwertfehler).
  • Vorzugsweise wird das zweite Kriterium erfüllt, wenn in einer vorhergehenden Wiederholung des Algorithmus an demselben oder einem anderen Bilderpaar, die Bildteile in Gebiete fielen, die durch die Bewegungsparametersätze beschrieben wurden, die von diesem bestimmten PE Bewegungsparametersätze geschätzt wurden. "Am besten" bedeutet in diesem Zusammenhang, dass eine Fehlerfunktion, wobei die Parametersätze des bestimmten PEs, niedriger ist als die eines der anderen PEen.
  • Vorzugsweise ist diese Fehlerfunktion auf der bewegungskompensierten Differenz zwischen den Pixeln in dem aktuellen Teilbild und den entsprechenden Pixeln in dem vorhergehenden Teilbild basiert, und zwar unter Verwendung der Parametersätze, die bewertet werden müssen (direktes Verfahren).
  • Vorzugsweise basiert diese Fehlerfunktion auf der Differenz zwischen Bewegungsvektoren, berechnet mit irgendeinem Verfahren, und Bewegungsvektoren, herrührend aus dem Bewegungsparametersatz, der bewertet werden soll (indirektes Verfahren).
  • Vorzugsweise werden Bildteile, die dem ersten Kriterium entsprechen, in der Fehlerfunktion eines bestimmten PEs eliminiert und wird dieses erste Kriterium derart angepasst, dass das Bildgebiet, in dem die Kriteriumfunktion berechnet wird, in einem bestimmten Bereich bleibt (Steuerschleife um die maximal verfügbare Verarbeitungsleistung auf effiziente Weise zu benutzen).
  • Vorzugsweise arbeitet der PE und/oder der SP und/oder der WPP an herunter gemischten und/oder unterabgetasteten Videodaten.
  • Ein Verfahren und eine Anordnung zum Verwirklichen dieses Verfahrens zum Segmentieren eines Bildes in einen Rangordnungssatz von Schichten und zum Schät zen von Bewegungsparametern für jede Schicht, der die nachfolgenden Verfahrensschritte umfasst:
    • – einen iterativen Parameterschätzungsprozess für jede Schicht in dem aktuellen Bild zum Optimieren einer Kriteriumfunktion auf Basis selektierter (Gruppen von) Pixel(n) von wenigstens zwei Bildern, einen Segmentierungsprozess, wobei jedem Teil des Bildes einer der Bewegungsparametersätze zugeordnet wird,
    • • einen Selektionsprozess um zu definieren, auf welche (Gruppen von) Pixel(n) von den wenigstens zwei Bildern der (die) Bewegungsparameterschätzer ihre Kriteriumfunktion optimieren soll(en),
    • • wobei der Parameterschätzungsprozess dieses Prozess an den Daten öfter als die anderen Prozesse wiederholt.
  • Vorzugsweise selektiert der Selektionsprozess für eine bestimmte Schicht diejenigen (Gruppen von) Pixel(n), für die die Parametersätze von Schichten mit einer höheren Bewegung in der Hierarchie, in einem vorhergehenden Bild keine befriedigenden Ergebnisse entsprechend einer Regel gebracht hat. Vorzugsweise betrifft diese Regel den Vergleich einer Fehler(summe) von (Gruppen von) Pixeln mit einer festen oder adaptiven Schwelle.
  • Vorzugsweise wird die Schwelle derart angepasst, dass die Anzahl Pixel, für die die Kriteriumfunktion berechnet wird, innerhalb eines bestimmten Bereichs bleibt.
  • Vorzugsweise ist die Kriteriumsumme ein summierter Fehler, berechnet zwischen selektierten (Gruppen von) Pixeln von dem vorhergehenden Bild und entsprechenden Pixeln von dem aktuellen Bild, kompensiert auf Bewegung entsprechend den Kandidatbewegungsparametern.
  • Vorzugsweise wird der Beitrag der selektierten Pixel zu der Kriteriumfunktion gewichtet, und zwar abhängig davon, welcher Schicht sie zugeordnet wurde (in dem vorhergehenden Bild).
  • Vorzugsweise wird der Beitrag der selektierten Pixel zu der Kriteriumfunktion gesteigert, wenn sie vorher derselben Schicht zugeordnet wurden.
  • Ein Verfahren und eine Anordnung zum Verwirklichen dieses Verfahrens zum Segmentieren eines Bildes in einen bewerteten Satz von Schichten und zum Schätzen von Bewegungsparametern für jede Schicht, wobei dieses Verfahren die nachfolgenden Verfahrensschritte umfasst:
    • • einen Parameterschätzungsprozess (PE) für jede Schicht in dem aktuellen Bild zum Optimieren einer Kriteriumfunktion auf Basis von (Gruppen von) Pixeln von wenigstens zwei Bildern,
    • • einen Segmentierungsprozess (SP) zum Zuordnen eines der Bewegungsparametersätze zu jedem Teil des Bildes,
    • • einen Selektionsprozess um zu definieren, welche (Gruppen von) Pixel(n) von den wenigstens zwei Bildern der (die) Bewegungsparameterschätzer ihre Kriteriumfunktion optimieren soll(en), wobei der Selektionsprozess es ermöglicht, dass nur ein kleiner Teil der Pixel einen Beitrag zu der von den PEs optimierten Kriteriumfunktion liefert, ungeachtet der Größe der Schicht, der diese Parameter von dem Segmentierungsprozess zugeordnet werden.
  • Obschon ursprünglich entworfen um als Applikation in dem Philips TriMedia Prozessor zu laufen, sind mehr Applikationen möglich. Insbesondere kann der Konzept für VGA-Controller der nächsten Generation entworfen werden. Da dies speziellen Silizium ist, sind die Kosten vernachlässigbar. Ein derartiger VGA-Controller kann eine verbesserte Leistung haben, und zwar im Vergleich zu der TriMedia-Lösung, weil in speziellem Silizium viel mehr Verarbeitungsleistung verfügbar ist. Weiterhin wird erwartet, dass wenn mehr als zwei parallele Parameterschätzer angewandt werden, die Leistung auf einen Pegel gebracht werden kann, der ggf. bessert ist als der der aktuellen "High-End"-Lösungen zu möglicherweise geringeren Kosten.
  • Es sei bemerkt, dass die oben genannten Ausführungsformen die vorliegende Erfindung erläutern statt begrenzen, und dass der Fachmann imstande sein wird, im Rahmen der beiliegenden Patentansprüche viele alternative Ausführungsformen zu entwerfen. In den Ansprüchen sollen eingeklammerte Bezugszeichen nicht als den Anspruch begrenzend betrachtet werden. Die vorliegende Erfindung kann mit Hilfe von Hardware mit verschiedenen einzelnen Elementen, und mit Hilfe eines auf geeignete Art und Weise programmierten Computers implementiert werden. In dem Anordnungsanspruch können verschiedene dieser Mittel von ein und demselben Hardware-Item verkörpert werden. In den Patentansprüchen schließt der Ausdruck "enthalten" das Vorhandensein anderer Elemente oder Verfahrensschritte als diejenigen, die hier in einem Anspruch genannt werden, nicht aus.
  • Bezugsmaterial:
    • [1] US-A-5,534,946 (Attorneys' docket PHN 14,066).
    • [2] A. M. Tekalp, "Digital Video Processing", Prentice Hall Signal Processing Series, ISBN 0-13190075-7, pp. 200–203.
    • [3] G. de Haan, P.W.A.C. Biezen, H. Huijgen and O.A. Ojo, "True Motion Estimation with 3-D Recursive Search Block-Matching", IEEE Transactions on Circuits and Systems for Video Technology, Vol.3, October 1993, pp. 368–388.
    • [4] G. de Haan, P.W.A.C Biezen, H. Huijgen, and O.A. Ojo, "Graceful Degradation in Motion Compensated Field-Rate Conversion", in: Signal Processing of HDTV, V, L. Stenger, L. Chiariglione and M. Akgun (Eds.), Elsevier 1994, pp. 249–256.
    • [5] WO-A-97/046022 (PCT/IB97/00548), published on 04.12.1997 and prior art under Art. 54(3) EPC (Attorneys' docket PHN 16,112).
    • [6] G. de Haan, J. Kettenis, and B. Deloore,'IC for Motion Compensated 100 Hz TV, with a Smooth Motion Movie-Mode', International Conference on Consumer Electronics, ICCE 95, June 1995, Chicago.
    • [7] G. de Haan, P.W.A.C Biezen, "Sub-pixel motion estimation with 3-D recursive search block-matching", Signal Processing: Image Communication 6 (1994), pp. 229–239.
    • [8] WO-A-98/011721 (PCT/IB97/00884), published on 19.03.1998 and prior art under Art. 54(3) EPC (Attorneys' docket PHN 15,943).
    • [9] US-A-5,495,300 (Attorneys' docket PHN 14,079).
    • [10] G. Thomas, "Television motion measurement for DATV and other applications," BBC Research Report, no. BBC RD 1987/11, 1987.
    • [11] R. Thoma and M. Bierling, "Motion campensating interpolation considering covered and uncovered background," Signal Processing: Image Communications 1, pp. 191–212, 1989.
    • [12] F. Wang, D. Anastassiou, and A. Netravali, "Time-recursive deinterlacing for IDTV and pyramid coding," Signal Processing: Image Communications 2, pp. 365–374, 1990.
    • [13] Kwon, Seo, Kim, and Kim, "A motion adaptive deinterlacing method," IEEE Transactions on Consumer Electronics, vol. 38, pp. 145–150, August 1992.
    • [14] G. de Haan and H. Huijgen, "New algorithm for motion estimation," in Chiariglione [38], pp. 109–116.
    • [15] G. de Haan and H. Huijgen, "Motion estimation for TV picture enhancement," in Signal Processing of HDTV III (H. Yasuda and L. Chiariglione, eds.), pp. 241–248, Elseviers Science Publishers B.V., 1992.
    • [16] T. Reuter, "A modified block-matching algorithm with vector reliability checking and adaptive smoothing," in Third International Conference on Image Processing and its Applications, (England), University of Warwick, July 1989.
    • [17] J. Konrad and E. Dubois, "A comparison of stochastic and deterministic solution methods in bayesian estimation of 2-d motion," Image and Vision Computing, vol. 8, pp. 304–317, November 1990.
    • [18] J. Jain and A. Jain, "Displacement measurement and its application in interframe image coding," IEEE Transactions on Communications, COM-29, no. 12, 1981.
    • [19] T. Koga, K. Linuma, A. Hirano, Y. Iilima, and T. Ishiguro, "Motion-compensated interframe coding for video conferencing," in IEEE, Proceedings of the NTC 81, G5.3.1., (New Orleans LA), 1981.
    • [20] R. Srinivasan and K. Rao, "Predictive coding based on efficient motion estimation," IEEE Transactions on Communication, no. 8, pp. 888–896, 1985.
    • [21] H. Musmann, P. Pirsch, and J. Grallert, "Advances in picture coding," Proceedings of the IEEE, vol. 73, pp. 523–548, April 1985.
    • [22] A. Netravali and J. Robbins, "Motion compensated television coding," Bell Systems Technical Journal, no. 3, pp. 629–668, 1979.
    • [23] M. Ziegler, "Hierarchical motion estimation using the phase correlation method in 140 Mbit/s HDTV-coding," in Chiariglione [38], pp. 131–137.
    • [24] DE-C 40 23 449.
    • [25] G. de Haan, J. Kettenis, and B. Deloore, "IC for motion compensated 100 Hz TV, with a smooth motion movie-mode," IEEE Transactions on Consumer Electronics, vol. 42, pp. 165–174, May 1996.
    • [26] J. G. Choi and S.-D. Kim, "Multi-stage segmentation of optical flow field," Signal Processing, vol. 54, pp. 109–118, 1996.
    • [27] D. Bagni, R. Lancini, P. Vicari, and S. Tubaro, "Motion estimation method using region-based segmentation methods," in Proc. International Workshop on HDTV '96, (Los Angeles), p. Sess. A2, October 1996.
    • [28] D. LeQuang, Z. Zaccarin, and S. Caron, "Object-oriented coding using successive motion field segmentation and estimation," in Proc. International Conference on Image Processing (ICIP'95), (Washington D.C.), pp. 207–210, October 1995.
    • [29] J. Y. A. Wang and E. H. Adelson, "Layered representation for motion analysis," in Proceedings of the IEEE Computer Vision and Pattern Recognition Conference, pp. 361–366, 1993.
    • [30] P. Csillag and L. Boroczky, "Frame rate conversion based on acceleration and motion-based segmentation," in SPIE, vol. 2952, pp. 438–448, 1996.
    • [31] F. Dufaux and F. Moscheni, "Motion estimation techniques for digital tv: a review and a new contribution," in Proceeding of the IEEE, vol. 83 n.6, pp. 858–876 1995.
    • [32] S. Jeannin, "On the combination of a polynomial motion estimation with a hierarchical segmentation based video coding scheme," in Proc. International Conference on Image Processing (ICIP'96), (Lausanne, Switzerland), pp. 489–492, September 1996.
    • [33] K. E. Matthews and N. M. Namazi, "Simultaneous motion parameter estimation and image segmentation using the EM algorithm," in Proc. International Conference on Image Processing (ICIP'95), (Washington D.C.), pp. 542–545, October 1995.
    • [34] T. Darrel and D. Fleet, "Second-order method for occlusion relationships in motion layers," Tech. Rep. 314, MIT Media Laboratory Vision and Modelling Group, 1995.
    • [35] H. S. Sawhney, S. Ayer, and M. Gorkani, "Model-based 2D-3D dominant motion estimation for mosaicing video representation:" On the net, 1995. A shorter version appeared in the IEEE Intl. Conf. on Computer Vision, Cambridge, MA, USA, June 1995.
    • [36] H. S. Sawhney and S. Ayer, "Layered representation of motion video using robust maximum-likelihood estimation of mixture models and MDL encoding." On the net, 1995. A shorter version appeared in the IEEE Intl. Conf. on Computer Vision, Cambridge, MA, USA, June 1995.
    • [37] J. Y. A. Wang and E. H. Adelson, "Spatio-temporal segmentation of video data," in Proceeding of the SPIE: Image and Video Processing II, vol. 2182, (San Jose), pp. 120–131, 1994.
    • [38] L. Chiariglione, ed., Signal Processing of HDTV II, Elseviers Science Publishers B.V., 1990. This collection work includes references [14] and [23] and belongs to the general state of the art.

Claims (11)

  1. Verfahren zum Schätzen von Bewegung in Videodaten, wobei das Verfahren die nachfolgenden Verfahrensschritte umfasst: – das Liefern (PE1–PEn) von wenigstens zwei Bewegungsparametersätzen von Eingangs-Videodaten (n, n–1), wobei der eine Bewegungsparametersatz eine Null-Geschwindigkeit für alle Teile in einem Bild angibt, und jeder Bewegungsparametersatz entsprechende örtliche Übereinstimmungsfehler für alle Bildteile in einem Bild hat, wobei ein Bewegungsparametersatz ein Satz mit Parametern ist, die eine Bewegung in einem Bild beschreiben, wobei mit Hilfe dieses Bewegungsparametersatzes Bewegungsvektoren berechnet werden können, – das Ermitteln eines eingestellten Bewegungsparametersatzes in Abhängigkeit von globalen Übereinstimmungsfehlern für jeden Bewegungsparametersatz anders als der Null-Geschwindigkeitssatz, und – das Ermitteln (MPE) von Ausgangsbewegungsdaten (P(n)) aus den genannten Videodaten (n, n–1) in Abhängigkeit von dem genannten einen Bewegungsparametersatz und dem genannten eingestellten Bewegungsparametersatz oder den genannten eingestellten Bewegungsparametersätzen, wobei die Bedeutung Bewegungsparametersatzes bei der Berechnung der genannten Ausgangsbewegungsdaten (P(n)) von den örtlichen Übereinstimmungs fehlern der Bewegungsparametersätze abhängig ist.
  2. Verfahren nach Anspruch 1, wobei der Lieferungsschritt der genannten Bewegungsparametersätze die nachfolgenden Schritte umfasst: – das Liefern wenigstens eines vorher berechneten Bewegungsparametersatzes als wenigstens einen ersten Prädiktionsparametervektor (Cp1); – das Hinzufügen (AD) wenigstens eines Aktualisierungsparametervektors (UP) zu dem wenigstens einen ersten Prädiktionsparametervektor zum Erhalten weiterer Prädiktionsparametervektoren (Cp2); und – das Selektieren (PVC, EC, MIN, MUX) eines Vektors aus den genannten ersten und weiteren Prädiktionsparametervektoren (CP1, CP2).
  3. Verfahren nach Anspruch 2, wobei der genannte Lieferungsschritt den Schritt der Lieferung von Bewegungsparametersätzen (Tp1–TPn) umfasst, berechnet für wenigstens zwei vorhergehende Teilbilder.
  4. Verfahren nach Anspruch 1, wobei die genannten globalen Übereinstimmungsfehler für Bildteile entsprechend den Bildteilen zugeordneten Gewichtungen berechnet werden.
  5. Verfahren nach Anspruch 4, wobei für eine bestimmte eingestellte Bewegungsparametersatzermittlung (PEi) die genannten Gewichtungen für diejenigen Teile erhöht werden, für die der bestimmte Bewegungsparametersatz den niedrigsten örtlichen Übereinstimmungsfehler im Vergleich mit den örtlichen Übereinstimmungsfehlern anderer eingestellter Bewegungsparametersatzermittlungen (PE1–PEn) hat.
  6. Verfahren nach Anspruch 4, wobei für eine bestimmte eingestellte Bewegungsparametersatzermittlung (PEi) die genannten Gewichtungen für diejenigen Teile verringert werden, für die der örtliche Übereinstimmungsfehler einer anderen eingestellten Bewegungsparametersatzermittlung (PE1–PEn) einen bestimmten Schwellenwert unterschreitet.
  7. Verfahren zur Bewegungskompensation von Videodaten, wobei das Verfahren die nachfolgenden Verfahrensschritte umfasst: – das Liefern (PE1–PEn) von wenigstens zwei Bewegungsparametersätzen von Eingangs-Videodaten (n, n–1), wobei der eine Bewegungsparametersatz eine Null-Geschwindigkeit für alle Bildteile in einem Bild angibt, und jeder Bewegungsparametersatz entsprechende örtliche Übereinstimmungsfehler für alle Bildteile in einem Bild hat, wobei ein Bewegungsparametersatz ein Satz mit Parametern ist, die eine Bewegung in einem Bild beschreiben, wobei mit Hilfe dieses Bewegungsparametersatzes Bewegungsvektoren berechnet werden können, – das Ermitteln eines eingestellten Bewegungsparametersatzes in Abhängigkeit von globalen Übereinstimmungsfehlern für jeden Bewegungsparametersatz anders als der Null- Geschwindigkeitssatz, und – das Interpolieren (UC2) von Ausgangsvideodaten (n–1/2) von den genannten Eingangsvideodaten (n, n–1) in Abhängigkeit von dem genannten einen Bewegungsparametersatzes und dem genannten eingestellten Bewegungsparametersatz oder den eingestellten Bewegungsparametersätzen, wobei die Bedeutung jedes Bewegungsparametersatzes bei der Berechnung der genannten Ausgangsbewegungsdaten (n–1/2) von den örtlichen Übereinstimmungsfehlern der Bewegungsparametersätze abhängig ist.
  8. Verfahren nach Anspruch 7, wobei der genannte Interpolationsschritt Folgendes liefert: – einen Medianwert (MED2) eines entsprechenden Pixels (l) in einem vorhergehenden Teilbild (n–1), eines entsprechenden Pixels (r) in einem nächsten Teilbild (n), und einen bewegungskompensierten Mittelwert (mcav) aus den beiden vorhergehenden und nächsten Teilbildern (n–1 bzw. n), wenn der Übereinstimmungsfehler des Bewegungsvektors (D), verwendet zur Berechnung des genannten Bewegungskompensierten Mittelwertes (mcav) den Übereinstimmungsfehler des Null-Bewegungsvektors übersteigt, oder – einen Medianwert (MED1) eines bewegungskompensierten Pixels (mcl) aus dem vorhergehenden Teilbild (n–1), eines bewegungskompensierten Pixels (mcr) aus dem nächsten Teilbild (n), und einen nicht-bewegungskompensierten Mittelwert (av) aus den beiden vorhergehenden und nächsten Teilbildern (n–1 bzw. n), wenn der Übereinstimmungsfehler des Bewegungsvektors (D), verwendet zum Liefern der genannten bewegungskompensierten Pixel, den Übereinstimmungsfehler des Null-Bewegungsvektors unterschreitet.
  9. Anordnung zur Bewegungsschätzung in Videodaten, wobei die Anordnung die nachfolgenden Elemente umfasst: – Mittel zum Liefern (PE1–PEn) von wenigstens zwei Bewegungsparametersätzen von Eingangs-Videodaten (n, n–1), wobei der eine Bewegungsparametersatz eine Null-Geschwindigkeit für alle Bildteile in einem Bild angibt, und jeder Bewegungsparametersatz entsprechende örtliche Übereinstimmungsfehler für alle Bildteile in einem Bild hat, wobei ein Bewegungsparametersatz ein Satz mit Parametern ist, die eine Bewegung in einem Bild beschreiben, wobei mit Hilfe dieses Bewegungsparametersatzes Bewegungsvektoren berechnet werden können, – Mittel zum Ermitteln eines eingestellten Bewegungsparametersatzes in Abhängigkeit von globalen Übereinstimmungsfehlern für jeden Bewegungsparametersatz anders als der Null-Geschwindigkeitssatz, und – Mittel zum Ermitteln (MPE) von Ausgangsbewegungsdaten (P(n)) aus den genannten Videodaten (n, n–1) in Abhängigkeit von dem genannten einen Bewegungsparametersatz und dem genannten eingestellten Bewegungsparametersatz oder den genannten eingestellten Bewegungsparametersätzen, wobei die Bedeutung Bewegungsparametersatzes bei der Berechnung der genannten Ausgangsbewegungsdaten (P(n)) von den örtlichen Übereinstimmungsfehlern der Bewegungsparametersätze abhängig ist.
  10. Anordnung zur Bewegungskompensation von Videodaten, wobei diese Anordnung die nachfolgenden Elemente umfasst: – Mittel zum Liefern (PE1–PEn) von wenigstens zwei Bewegungsparametersätzen von Eingangs-Videodaten (n, n–1), wobei der eine Bewegungsparametersatz eine Null-Geschwindigkeit für alle Bildteile in einem Bild angibt, und jeder Bewegungsparametersatz entsprechende örtliche Übereinstimmungsfehler für alle Bildteile in einem Bild hat, wobei ein Bewegungsparametersatz ein Satz mit Parametern ist, die eine Bewegung in einem Bild beschreiben, wobei mit Hilfe dieses Bewegungsparametersatzes Bewegungsvektoren berechnet werden können, – Mittel zum Ermitteln eines eingestellten Bewegungsparametersatzes in Abhängigkeit von globalen Übereinstimmungsfehlern für jeden Bewegungsparametersatz anders als der Null-Geschwindigkeitssatz, und – Mittel zum Interpolieren (UC2) von Ausgangsvideodaten (n–1/2) von den genannten Eingangsvideodaten (n, n–1) in Abhängigkeit von dem genannten einen Bewegungsparametersatz und dem genannten eingestellten Bewegungsparametersatz oder den eingestellten Bewegungsparametersätzen, wobei die Bedeutung jedes Bewegungsparametersatzes bei der Berechnung der genannten Ausgangsbewegungsdaten (n–1/2) von den örtlichen Übereinstimmungsfehlern der Bewegungsparametersätze abhängig ist.
  11. Videowiedergabeanordnung, die Folgendes umfasst: – eine Anordnung zur Bewegungskompensation von Videodaten nach Anspruch 10, – eine Wiedergabeeinheit (D) zur Wiedergabe der genannten Eingangs-Videodaten (n, n–1) und der genannten Ausgangs-Videodaten (n–1/2).
DE69836473T 1997-09-23 1998-08-12 Bewegungsschätzung und bewegungskompensierte interpolation Expired - Lifetime DE69836473T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP97202912 1997-09-23
EP97202912 1997-09-23
PCT/IB1998/001241 WO1999016251A1 (en) 1997-09-23 1998-08-12 Motion estimation and motion-compensated interpolation

Publications (2)

Publication Number Publication Date
DE69836473D1 DE69836473D1 (de) 2007-01-04
DE69836473T2 true DE69836473T2 (de) 2007-09-20

Family

ID=8228750

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69836473T Expired - Lifetime DE69836473T2 (de) 1997-09-23 1998-08-12 Bewegungsschätzung und bewegungskompensierte interpolation

Country Status (6)

Country Link
US (1) US6385245B1 (de)
EP (1) EP0940041B1 (de)
JP (1) JP2001506472A (de)
KR (1) KR100582856B1 (de)
DE (1) DE69836473T2 (de)
WO (1) WO1999016251A1 (de)

Families Citing this family (121)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100308016B1 (ko) 1998-08-31 2001-10-19 구자홍 압축 부호화된 영상에 나타나는 블럭현상 및 링현상 제거방법및 영상 복호화기
DE59902078D1 (de) * 1998-09-30 2002-08-22 Micronas Munich Gmbh Schaltung zur wandlung einer bildrate
US6535643B1 (en) * 1998-11-03 2003-03-18 Lg Electronics Inc. Method for recovering compressed motion picture for eliminating blocking artifacts and ring effects and apparatus therefor
JP4344964B2 (ja) * 1999-06-01 2009-10-14 ソニー株式会社 画像処理装置および画像処理方法
EP1075147A1 (de) * 1999-08-02 2001-02-07 Koninklijke Philips Electronics N.V. Bewegungsschätzung
JP4344968B2 (ja) * 1999-10-28 2009-10-14 ソニー株式会社 画像処理装置および画像処理方法、並びにデータ処理装置およびデータ処理方法
JP3753578B2 (ja) * 1999-12-07 2006-03-08 Necエレクトロニクス株式会社 動きベクトル探索装置および方法
JP2003517795A (ja) * 1999-12-17 2003-05-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオ画像における動き推定方法
FI116819B (fi) * 2000-01-21 2006-02-28 Nokia Corp Menetelmä kuvien lähettämiseksi ja kuvakooderi
US6714258B2 (en) * 2000-03-15 2004-03-30 Koninklijke Philips Electronics N.V. Video-apparatus with noise reduction
JP4409035B2 (ja) * 2000-03-22 2010-02-03 本田技研工業株式会社 画像処理装置、特異箇所検出方法、及び特異箇所検出プログラムを記録した記録媒体
FR2809267B1 (fr) * 2000-05-19 2002-09-27 Thomson Multimedia Sa Procede de detection de saturation d'un champ de vecteurs mouvement
US6532380B1 (en) * 2000-06-30 2003-03-11 Cedars Sinai Medical Center Image guidance for coronary stent deployment
US6760376B1 (en) * 2000-11-06 2004-07-06 Koninklijke Philips Electronics N.V. Motion compensated upconversion for video scan rate conversion
WO2002056597A1 (en) * 2001-01-11 2002-07-18 Koninklijke Philips Electronics N.V. Recognizing film and video objects occuring in parrallel in single television signal fields
US9781408B1 (en) 2001-01-23 2017-10-03 Visual Effect Innovations, Llc Faster state transitioning for continuous adjustable 3Deeps filter spectacles using multi-layered variable tint materials
US10742965B2 (en) * 2001-01-23 2020-08-11 Visual Effect Innovations, Llc Faster state transitioning for continuous adjustable 3Deeps filter spectacles using multi-layered variable tint materials
US8750382B2 (en) 2001-01-23 2014-06-10 Kenneth Martin Jacobs System and method for calculating 3Deeps action specs motion estimation from the motion vectors in an MPEG file
US7405801B2 (en) * 2001-01-23 2008-07-29 Kenneth Jacobs System and method for Pulfrich Filter Spectacles
US7850304B2 (en) 2001-01-23 2010-12-14 Kenneth Martin Jacobs Continuous adjustable 3Deeps filter spectacles for optimized 3Deeps stereoscopic viewing and its control method and means
US7508485B2 (en) * 2001-01-23 2009-03-24 Kenneth Martin Jacobs System and method for controlling 3D viewing spectacles
US7604348B2 (en) * 2001-01-23 2009-10-20 Kenneth Martin Jacobs Continuous adjustable 3deeps filter spectacles for optimized 3deeps stereoscopic viewing and its control method and means
US7522257B2 (en) * 2001-01-23 2009-04-21 Kenneth Jacobs System and method for a 3-D phenomenoscope
WO2003079746A2 (en) * 2001-02-05 2003-10-02 Bristol-Myers Squibb Company A novel human g-protein coupled receptor, hgprbmy14, related to the orphan gpcr, gpr73
US7042945B2 (en) * 2001-04-24 2006-05-09 Bellers Erwin B 3-D recursive vector estimation for video enhancement
US6738099B2 (en) * 2001-02-16 2004-05-18 Tektronix, Inc. Robust camera motion estimation for video sequences
KR100857731B1 (ko) * 2001-02-21 2008-09-10 코닌클리케 필립스 일렉트로닉스 엔.브이. 움직임 추정을 용이하게 하는 방법 및 장치
US6704055B1 (en) 2001-03-30 2004-03-09 Pixelworks, Inc. 3:2 pull-down film mode detection using fuzzy logic
US6782054B2 (en) * 2001-04-20 2004-08-24 Koninklijke Philips Electronics, N.V. Method and apparatus for motion vector estimation
US20020196854A1 (en) * 2001-06-15 2002-12-26 Jongil Kim Fast video encoder using adaptive hierarchical video processing in a down-sampled domain
KR100525785B1 (ko) 2001-06-15 2005-11-03 엘지전자 주식회사 이미지 화소 필터링 방법
US7110525B1 (en) 2001-06-25 2006-09-19 Toby Heller Agent training sensitive call routing system
KR100396558B1 (ko) * 2001-10-25 2003-09-02 삼성전자주식회사 적응 움직임 보상형 프레임 및/또는 레이트 변환 장치 및그 방법
US7085431B2 (en) * 2001-11-13 2006-08-01 Mitutoyo Corporation Systems and methods for reducing position errors in image correlation systems during intra-reference-image displacements
AU2002356364A1 (en) * 2002-01-17 2003-07-30 Koninklijke Philips Electronics N.V. Unit for and method of estimating a current motion vector
US7092924B1 (en) * 2002-02-28 2006-08-15 Raytheon Company Method and system for assigning observations
EP1361541B1 (de) 2002-04-09 2011-06-22 STMicroelectronics Srl Verfahren und Vorrichtung zur globalen Bewegungsschätzung innerhalb einer Bildsequenz, z.B. für optische Mäuse
JP4724351B2 (ja) * 2002-07-15 2011-07-13 三菱電機株式会社 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置
DE10236207A1 (de) * 2002-08-07 2004-02-26 Micronas Gmbh Verfahren zur bewegungsvektorgestützten Interpolation eines Bildpunktes eines Zwischenbildes einer Bildfolge
US7197075B2 (en) * 2002-08-22 2007-03-27 Hiroshi Akimoto Method and system for video sequence real-time motion compensated temporal upsampling
EP1406447A1 (de) * 2002-10-04 2004-04-07 STMicroelectronics S.r.l. System und Verfahren zur Verarbeitung von Signalen durch perceptive Vektorquantifizierung und Computerprogramm
US8023563B2 (en) * 2002-10-04 2011-09-20 Stmicroelectronics S.R.L. Method and system for processing signals via perceptive vectorial quantization, computer program product therefor
KR100486284B1 (ko) * 2002-11-22 2005-04-29 삼성전자주식회사 연속되는 두 개의 디인터레이스 프레임들을 출력할 수있는 디인터레이스 장치 및 디인터레이스 방법
US9818136B1 (en) 2003-02-05 2017-11-14 Steven M. Hoffberg System and method for determining contingent relevance
US7197074B2 (en) * 2003-02-20 2007-03-27 The Regents Of The University Of California Phase plane correlation motion vector determination method
DE10318620A1 (de) 2003-04-24 2004-11-25 Micronas Gmbh Verfahren und Vorrichtung zur Ermittlung eines Abstandes zwischen einer ersten und zweiten Signalfolge
DE10327576A1 (de) * 2003-06-18 2005-01-13 Micronas Gmbh Verfahren und Vorrichtung zur bewegungsvektorgestützten Bildpunktinterpolation
DE10327577A1 (de) * 2003-06-18 2005-01-13 Micronas Gmbh Verfahren zur Ermittlung eines Verschiebungsvektors in der Bildverarbeitung
US7596284B2 (en) * 2003-07-16 2009-09-29 Hewlett-Packard Development Company, L.P. High resolution image reconstruction
US20050013496A1 (en) * 2003-07-16 2005-01-20 Bruls Wilhelmus Hendrikus Alfonsus Video decoder locally uses motion-compensated interpolation to reconstruct macro-block skipped by encoder
US7620254B2 (en) * 2003-08-07 2009-11-17 Trident Microsystems (Far East) Ltd. Apparatus and method for motion-vector-aided interpolation of a pixel of an intermediate image of an image sequence
US20050105621A1 (en) * 2003-11-04 2005-05-19 Ju Chi-Cheng Apparatus capable of performing both block-matching motion compensation and global motion compensation and method thereof
KR20050045746A (ko) * 2003-11-12 2005-05-17 삼성전자주식회사 계층 구조의 가변 블록 크기를 이용한 움직임 추정 방법및 장치
US7830959B2 (en) * 2003-12-26 2010-11-09 Electronics And Telecommunications Research Institute Apparatus and method for performing intra prediction for image decoder
JP4198608B2 (ja) * 2004-01-15 2008-12-17 株式会社東芝 補間画像生成方法および装置
KR100995398B1 (ko) * 2004-01-20 2010-11-19 삼성전자주식회사 수직 및 수평 방향의 패턴을 고려한 전역 움직임 보상순차주사화 방법
US7433497B2 (en) * 2004-01-23 2008-10-07 Hewlett-Packard Development Company, L.P. Stabilizing a sequence of image frames
KR20050081730A (ko) * 2004-02-16 2005-08-19 엘지전자 주식회사 움직임 보상 기반의 영상 신호 프레임율 변환 방법
JP4375080B2 (ja) * 2004-03-29 2009-12-02 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US8036494B2 (en) * 2004-04-15 2011-10-11 Hewlett-Packard Development Company, L.P. Enhancing image resolution
EP1592250A1 (de) * 2004-04-30 2005-11-02 Matsushita Electric Industrial Co., Ltd. Film-Mode-Detektion in Videosequenzen
EP1592255A1 (de) * 2004-04-30 2005-11-02 Matsushita Electric Industrial Co., Ltd. Bewegungsvektorschätzung mit verbesserter Selektion der Bewegungsvektoren
EP1592246A1 (de) * 2004-04-30 2005-11-02 Matsushita Electric Industrial Co., Ltd. Film-Mode-Bestimmung in unbeweglichen Videobildbereichen
EP1592248B1 (de) * 2004-04-30 2006-09-20 Matsushita Electric Industrial Co., Ltd. Bewegungsvektorschätzung durch adaptive zeitliche Vorhersage
EP1592247A1 (de) 2004-04-30 2005-11-02 Matsushita Electric Industrial Co., Ltd. Blocktyp adaptive Bewegungskompensation
EP1592258B1 (de) 2004-04-30 2011-01-12 Panasonic Corporation Bewegungsschätzung unter Verwendung von adaptiven räumlichen Verfeinerungsvektoren
JP5014987B2 (ja) * 2004-06-30 2012-08-29 トライデント マイクロシステムズ インコーポレイテッド ビデオモード検出による動き補償
US7684628B2 (en) * 2004-08-12 2010-03-23 Industrial Technology Research Institute System and method for non-iterative global motion estimation
US7730406B2 (en) * 2004-10-20 2010-06-01 Hewlett-Packard Development Company, L.P. Image processing system and method
JP2006165935A (ja) * 2004-12-07 2006-06-22 Nec Corp 制御情報の変換装置及び制御情報の変換方法
CN101073256B (zh) * 2004-12-09 2010-06-16 汤姆森许可贸易公司 产生运动补偿图像的方法和设备
US9225994B2 (en) * 2005-03-14 2015-12-29 British Telecommunications Public Limited Company Global motion estimation using reduced frame lines
EP1703736A1 (de) * 2005-03-14 2006-09-20 BRITISH TELECOMMUNICATIONS public limited company Globale Bewegungsschätzung
US7522749B2 (en) * 2005-04-08 2009-04-21 Microsoft Corporation Simultaneous optical flow estimation and image segmentation
US7760956B2 (en) 2005-05-12 2010-07-20 Hewlett-Packard Development Company, L.P. System and method for producing a page using frames of a video stream
KR100676704B1 (ko) * 2005-07-07 2007-02-01 삼성전자주식회사 움직임 추정장치 및 그 추정방법
US7668366B2 (en) * 2005-08-09 2010-02-23 Seiko Epson Corporation Mosaic image data processing
US9258519B2 (en) * 2005-09-27 2016-02-09 Qualcomm Incorporated Encoder assisted frame rate up conversion using various motion models
US20070074251A1 (en) * 2005-09-27 2007-03-29 Oguz Seyfullah H Method and apparatus for using random field models to improve picture and video compression and frame rate up conversion
US20070076796A1 (en) * 2005-09-27 2007-04-05 Fang Shi Frame interpolation using more accurate motion information
EP1841231A1 (de) * 2006-03-29 2007-10-03 Sony Deutschland Gmbh Verfahren zur Bewegungsschätzung
JP2008035436A (ja) * 2006-07-31 2008-02-14 Fujitsu Ltd プルダウンシーケンス検出装置およびプルダウンシーケンス検出方法
US7809212B2 (en) * 2006-12-20 2010-10-05 Hantro Products Oy Digital mosaic image construction
TWI327866B (en) * 2006-12-27 2010-07-21 Realtek Semiconductor Corp Apparatus and related method for decoding video blocks in video pictures
JP4821642B2 (ja) * 2007-02-15 2011-11-24 株式会社ニコン 画像処理方法、画像処理装置、ディジタルカメラ及び画像処理プログラム
US20080212687A1 (en) * 2007-03-02 2008-09-04 Sony Corporation And Sony Electronics Inc. High accurate subspace extension of phase correlation for global motion estimation
US8243790B2 (en) * 2007-09-28 2012-08-14 Dolby Laboratories Licensing Corporation Treating video information
US20090161978A1 (en) * 2007-12-20 2009-06-25 Marinko Karanovic Halo Artifact Removal Method
US8559518B2 (en) * 2008-06-30 2013-10-15 Samsung Electronics Co., Ltd. System and method for motion estimation of digital video using multiple recursion rules
JP4687772B2 (ja) * 2008-11-06 2011-05-25 ソニー株式会社 画像処理装置、画像処理方法、プログラム
WO2010093430A1 (en) * 2009-02-11 2010-08-19 Packetvideo Corp. System and method for frame interpolation for a compressed video bitstream
FI20095273A0 (fi) * 2009-03-17 2009-03-17 On2 Technologies Finland Oy Digitaalinen videokoodaus
KR101710883B1 (ko) 2009-11-04 2017-02-28 삼성전자주식회사 필터 정보를 이용한 영상 압축 장치 및 방법과 영상 복원 장치 및 방법
US8233085B1 (en) 2009-12-08 2012-07-31 Kolorific, Inc. Method and system for interpolating a pixel value of a pixel located at an on-screen display
US8488007B2 (en) * 2010-01-19 2013-07-16 Sony Corporation Method to estimate segmented motion
JP5583992B2 (ja) * 2010-03-09 2014-09-03 パナソニック株式会社 信号処理装置
US8285079B2 (en) * 2010-03-19 2012-10-09 Sony Corporation Method for highly accurate estimation of motion using phase correlation
EP2405661B1 (de) 2010-07-06 2017-03-22 Google, Inc. Verlustrobuste Videoübertragung mit zwei Decodierern
GB201113527D0 (en) * 2011-08-04 2011-09-21 Imagination Tech Ltd External vectors in a motion estimation system
US9014265B1 (en) 2011-12-29 2015-04-21 Google Inc. Video coding using edge detection and block partitioning for intra prediction
US9288484B1 (en) 2012-08-30 2016-03-15 Google Inc. Sparse coding dictionary priming
US9210424B1 (en) 2013-02-28 2015-12-08 Google Inc. Adaptive prediction block size in video coding
US9300906B2 (en) * 2013-03-29 2016-03-29 Google Inc. Pull frame interpolation
US9313493B1 (en) 2013-06-27 2016-04-12 Google Inc. Advanced motion estimation
US9286653B2 (en) 2014-08-06 2016-03-15 Google Inc. System and method for increasing the bit depth of images
US9153017B1 (en) 2014-08-15 2015-10-06 Google Inc. System and method for optimized chroma subsampling
US10726593B2 (en) * 2015-09-22 2020-07-28 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US10222932B2 (en) 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US10242474B2 (en) 2015-07-15 2019-03-26 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10147211B2 (en) 2015-07-15 2018-12-04 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US9807416B2 (en) 2015-09-21 2017-10-31 Google Inc. Low-latency two-pass video coding
US11783864B2 (en) 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
US11202017B2 (en) 2016-10-06 2021-12-14 Fyusion, Inc. Live style transfer on a mobile device
US10595039B2 (en) 2017-03-31 2020-03-17 Nvidia Corporation System and method for content and motion controlled action video generation
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
US11069147B2 (en) 2017-06-26 2021-07-20 Fyusion, Inc. Modification of multi-view interactive digital media representation
AT520839B1 (de) * 2018-01-25 2019-08-15 Ait Austrian Inst Tech Gmbh Verfahren zur Erstellung einer Bildstapel-Datenstruktur
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
CN116848843A (zh) * 2021-02-08 2023-10-03 华为技术有限公司 可切换的密集运动向量场插值

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4862264A (en) * 1985-12-24 1989-08-29 British Broadcasting Corporation Method of coding a video signal for transmission in a restricted bandwidth
DE3851655T2 (de) * 1987-06-09 1995-02-09 Sony Corp Verarbeitung des Bewegungsvektors in Fernsehbildern.
US5093720A (en) * 1990-08-20 1992-03-03 General Instrument Corporation Motion compensation for interlaced digital television signals
US5371539A (en) * 1991-10-18 1994-12-06 Sanyo Electric Co., Ltd. Video camera with electronic picture stabilizer
KR0180170B1 (ko) * 1995-06-30 1999-05-01 배순훈 움직임 추정 방법 및 추정 장치
GB9519923D0 (en) * 1995-09-29 1995-11-29 Philips Electronics Nv Motion estimation for predictive image coding
WO1997046022A2 (en) * 1996-05-24 1997-12-04 Philips Electronics N.V. Motion estimation
US5825930A (en) * 1997-03-05 1998-10-20 Samsung Electronics Co., Ltd. Motion estimating method
EP0874523B1 (de) * 1997-04-24 2004-03-03 STMicroelectronics S.r.l. Verfahren zur Erhöhung der bewegungsgeschätzten und bewegungskompensierten Bildfrequenz für Videoanwendungen, und Vorrichtung zur Verwendung eines solchen Verfahrens
JPH10327415A (ja) * 1997-05-22 1998-12-08 Mitsubishi Electric Corp 動きベクトル検出装置
KR100235356B1 (ko) * 1997-08-13 1999-12-15 전주범 개선된 움직임 추정 장치 및 그 추정 방법

Also Published As

Publication number Publication date
KR100582856B1 (ko) 2006-05-24
KR20000069107A (ko) 2000-11-25
EP0940041A1 (de) 1999-09-08
JP2001506472A (ja) 2001-05-15
EP0940041B1 (de) 2006-11-22
WO1999016251A1 (en) 1999-04-01
DE69836473D1 (de) 2007-01-04
US6385245B1 (en) 2002-05-07

Similar Documents

Publication Publication Date Title
DE69836473T2 (de) Bewegungsschätzung und bewegungskompensierte interpolation
DE69920429T2 (de) Bewegungsschätzungssystem und -verfahren
DE69908562T2 (de) Bewegungsvektorenextrapolation zur transkodierung von videosequenzen
DE69725186T2 (de) Sprite-gestütztes videocodiersystem
DE69831961T2 (de) Bildobjekterzeugungsverfahren für objektbasierte kodierungssysteme unter verwendung von masken und gerundeten mittelwerten
EP0293644B1 (de) Verfahren zur Ermittlung von Bewegungsvektorfeldern aus digitalen Bildsequenzen
DE69530336T2 (de) Bewegungskompensation für digitale Videosignale mit Zeilensprung
DE60014444T2 (de) Verfahren und vorrichtung zur bewegungsschätzung unter verwendung von nachbarmacroblöcken
DE4322343C2 (de) Mittel zum Erfassen eines Bewegungsvektors und Verfahren zum Bestimmen eines Bewegungsvektors
DE60003070T2 (de) Adaptive bewegungsvektorfeldkodierung
DE69722637T2 (de) Bewegungsschätzungssystem und -verfahren für einen videokodierer
DE69726508T2 (de) Optimale Disparitätsschätzung zur Kodierung stereoskopischer Videosignale
DE69928010T2 (de) Erhöhte videowiedergabebildfrequenz in videoanwendungen
DE19704439C2 (de) Verfahren und Vorrichtung zur Bewegungsschätzung in einem digitalen Videocodierer unter Verwendung von Trajektorien
DE69629137T2 (de) Bildkodierungsgerät und Bilddekodierungsgerät
DE69634962T2 (de) Extrapolation von Pixelwerten eines in einem Block enthaltenen Videoobjektes
DE69232993T2 (de) Prädiktives Videokodierungssystem
DE19506372B4 (de) Bi-Direktionales Bewegungsschätzverfahren und ein dafür vorgesehenes Gerät
WO2012110491A1 (de) Kodierverfahren und bildkodiervorrichtung zur kompression einer bildsequenz
DE112005000033T5 (de) Adaptiv gewichtetes Bewegungsabschätzungsverfahren und Bildwechselfrequenz-Wandlereinrichtung, die das Verfahren einsetzt
WO2008034715A2 (de) Verfahren zur datenkompression in einer videosequenz
EP1371229B1 (de) Verfahren zur komprimierung und dekomprimierung von videodaten
DE69732089T2 (de) Vorrichtung und verfahren zur zeitlichen und räumlichen integration und verwaltung einer vielzahl von videos sowie speichermedium zur speicherung eines programms dafür
DE19739266A1 (de) Verfahren und Vorrichtung zum Kodieren binärer Formen
DE19743202A1 (de) Verfahren und Vorrichtung zum Codieren eines Bewegungsvektors

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: NXP B.V., EINDHOVEN, NL

8327 Change in the person/name/address of the patent owner

Owner name: TRIDENT MICROSYSTEMS (FAR EAST) LTD., GRAND CA, KY

8328 Change in the person/name/address of the agent

Representative=s name: EPPING HERMANN FISCHER, PATENTANWALTSGESELLSCHAFT

R082 Change of representative

Ref document number: 940041

Country of ref document: EP

Representative=s name: EPPING HERMANN FISCHER, PATENTANWALTSGESELLSCH, DE