DE69223925T2 - Videobildverarbeitung - Google Patents

Videobildverarbeitung

Info

Publication number
DE69223925T2
DE69223925T2 DE69223925T DE69223925T DE69223925T2 DE 69223925 T2 DE69223925 T2 DE 69223925T2 DE 69223925 T DE69223925 T DE 69223925T DE 69223925 T DE69223925 T DE 69223925T DE 69223925 T2 DE69223925 T2 DE 69223925T2
Authority
DE
Germany
Prior art keywords
vectors
field
vector
input
fields
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69223925T
Other languages
English (en)
Other versions
DE69223925D1 (de
Inventor
Michael Twickenham Middlesex Tw1 4Qr Burl
Phillip Sutton Surrey Sm2 5Eq Layton
Roderick Richmond Surrey Tw9 2Ld Thomson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
British Broadcasting Corp
Original Assignee
British Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB919111348A external-priority patent/GB9111348D0/en
Priority claimed from GB919118781A external-priority patent/GB9118781D0/en
Application filed by British Broadcasting Corp filed Critical British Broadcasting Corp
Application granted granted Critical
Publication of DE69223925D1 publication Critical patent/DE69223925D1/de
Publication of DE69223925T2 publication Critical patent/DE69223925T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/547Motion estimation performed in a transform domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Television Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Color Television Image Signal Generators (AREA)
  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Lubricants (AREA)
  • Lubrication Of Internal Combustion Engines (AREA)
  • Picture Signal Circuits (AREA)
  • Studio Circuits (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Description

    Hintergrund der Erfindung
  • Diese Erfindung betrifft die Videobildverarbeitung und insbesondere die Ableitung und Zuteilung bzw. Zuordnung von Bewegungsvektoren, die die Richtung und Größe einer augenblicklichen Bewegung zu verschiedenen Bereichen eines Videobildes angeben, um die Erzeugung von gewünschten Ausgabe- bzw. Ausgangsbildern zu fördern.
  • Unser britisches Patent Nr. GB-B-2188510 beschreibt ein Verfahren zur Erzeugung eines Verzeichnisses bzw. einer Liste von Bewegungsvektoren, die über den gesamten Bereich eines Videobildes anwendbar sind, und zur Zuordnung eines passenden Bewegungsvektors von den Bewegungsvektoren in dem Verzeichnis zu jedem Bereich des Bildes. Andere Verfahren zur Erzeugung solcher Listen von Bewegungsvektoren sind möglich. Die Bereiche, auf die die Vektoren angewendet werden, können so klein sein wie ein einzelnes Bildelement (Pixel) oder können eine Anzahl von Pixeln umfassen, d.h. einen Block des Bildes.
  • Solche Bewegungsvektoren sind besonders geeignet, wenn Ausgangsvideohalbbilder erzeugt werden sollen, die einem Zeitpunkt zwischen zwei Eingangshalbbildern entsprechen. Solche Ausgangshalbbilder sind in Videobildverarbeitungssystemen erforderlich, die Videobilder an einen Film oder von diesem übertragen, bei der Umwandlung von Normen bzw. Standards oder bei der Erzeugung von Zeitlupeneffekten (Slow Motion).
  • Bei allen solchen Anwendungen ist es wünschenswert, ein scharfes, sich gleichmäßig bewegendes Bild zu erzeugen. Für den Fall einer Slow-Motion-Erzeugung, falls das Verfahren beispielsweise mit einer mit einem Verschluß versehenen CCD-Kamera verwendet wird, können dann Bilder mit einer Qualität erzeugt werden, die derjenigen Qualität nahekommt, die man mit einer Kamera mit hoher Bildfrequenz erreichen kann. Ein mögliches Verfahren zur Erzeugung der Liste von Bewegungsvektoren und zur anschließenden Zuordung von diesen zu einzelnen Bildelementen ist in unserer internationalen Patentanmeldung WO-A-9205662 vorgeschlagen worden. Dieses Verfahren ist als Vier-Halbbild-Algorithmus bekannt und verwendet insgesamt vier Eingangshalbbilder zur Zuordnung bzw. Zuteilung eines Ausgangsvektorhaibbildes. Man hat herausgefunden, daß für gewisse Bewegungsarten und insbesondere für eine Drehbewegung diese Art von System nicht immer zufriedenstellende Ergebnisse herbeiführt.
  • Ein weiteres bekanntes System wird in der britischen Patentanmeldung GB-A- 2231743 beschrieben. Bei diesem Verfahren wird eine Liste von Versuchsvektoren abgeleitet, und zwar unter Verwendung eines Blockübereinstimmungsverfahrens zwischen einem Paar von Halbbildern, die mit F&sub1; und F&sub1; bezeichnet werden. Diese Liste oder Menii bzw. Auswahl von Vektoren wird dann über drei Halbbildintervalle F&sub1; bis F&sub4; angewendet, um ein Vektorhalbbild zum Zeitpunkt eines gewünschten Ausgangsvektorhalbbildes zu erzeugen. Bei diesem Verfahren treten auch Schwierigkeiten auf, weil dem Ausgangsvektorhalbbild Vektoren zugeordnet werden, ohne daß notwendigerweise berücksichtigt würde, ob ein durch den Vektor dargestelltes Objekt in den beiden benachbarten Halbbilder vorhanden ist oder nicht. Somit können Fehler in Ausgangshalbbildem auftreten. Wenn das nächste Intervall (F&sub2; bis F&sub3;) verwendet wird, muß auch ein neuer Satz von Vektoren für F&sub2; abgeleitet und anschließend zugeordnet werden. Dies führt zu einer zusätzlichen Berechnung und erhöht die Komplexität.
  • Das Dokument "Motion Compensated Image Interpolation" von C. Cafforio et al., publiziert in den IEEE Transactions on Communications, Band 38, Nr.2, Februar 1990, New York, Seiten 215-222, beschreibt einen Algorithmus zur bewegungsausgleichenden Halbbildinterpolation. Dieser Algoritlimus verwendet Vorwärts- und Rückwärtsbewegungsvektorhalbbilder, um zuverlässig verbundene Punkte in aufeinanderfolgenden Bildern zu detektieren. Eine offensichtliche Schwierigkeit bei diesem Algorithmus liegt jedoch in dem Vorhandensein von verdeckten oder nicht verdeckten Teilen, die in nur einem der zwei zur Verfügung stehenden Bilder auftreten.
  • Zusammenfassung der Erfindung
  • Wir sind uns bewußt gewesen, daß für eine Folge von drei Videobildern jegliches Objekt, das in einem Eingangshalbbild vorliegt, entweder in dem vorherigen Eingangsvideohalbbild oder in dem darauffolgenden Eingangsvideohalbbild vorhanden sein wird. Somit liegt in diesen drei Halbbildern die gesamte Information vor, die benötigt wird, um ein Ausgangszwischenhalbbild zu erzeugen. Somit besteht der einzige Weg, um sicherzustellen, daß Vektoren korrekt zugeordnet werden, wenn Ausgangshalbbilder erzeugt werden, darin, die Vektoren speziell den Eingangshalbbildern zuzuordnen, bevor Ausgangshalbbilder erzeugt werden. Zwei Verfahren zur Erzeugung der notwendigen Vektormenüs und zur Zuordnung dieser zu Eingangshalbbildern vor der Ableitung von Ausgangshalbbildem werden in dieser Patentanmeldung beschrieben. Wegen der Art und Weise, in der diese funktionieren, werden diese als der Drei-Halbbild-Algorithmus (three field algorithm) und als der Zwei- Halbbild-Algorithmus (two field algorithm) bezeichnet.
  • Die vorliegende Erfindung wird in den beigefügten Patentansprüchen festgelegt, auf die nachfolgend Bezug genommen werden soll.
  • Ausführliche Beschreibung bevorzugter Ausführungsformen
  • Die Effindung wird nachfolgend ausführlicher und in beispielhafter Weise, unter Bezugnahme auf die beigefügten Figuren, beschrieben werden, in denen:
  • Fig. 1 eine Darstellung ist, die die Ableitung einer Korrelationsfläche mit Hilfe des Drei-Halbbild-Algorithmusses darstellt;
  • Fig. 2 eine Darstellung ist, die die Bewegung des Vordergrundes und des Hintergrundes beispielsweise zwischen einer Folge von vier aufeinanderfolgenden Halbbildern darstellt;
  • Fig. 3 eine Darstellung ist, die ein Verfahren zur Vektorzuteilung darstellt;
  • Fig. 4 eine Darstellung ist, die die Ableitung einer Korrelationsfläche mit Hilfe des Zwei-Halbbild-Algorithmusses darstellt;
  • Fig. 5 eine Darstellung ist, die die Vektorzuordnung für Vektormenüs darstellt, wie sie in Fig. 4 erzeugt werden;
  • Fig. 6 ein Blockschema einer Schaltung ist, die die Korrelationsfläche aus Fig. 1 erzeugt; und
  • Fig. 7 ein Blockschema einer Schaltung zur Erzeugung der Korrelationsfläche aus Fig. 4 ist.
  • Zunächst wird das zuvor bezeichnete Drei-Vektorhalbbild-Zuordnungsverfahren beschrieben werden.
  • Das Drei-Vektorhalbbild-Zuordnungsverfahren wird anhand von Fig. 1 beschrieben, die drei zeitlich versetzte Haibbilder f&sub0;, f&sub1; und f&sub2; zu den Zeitpunkten t&sub0;, t&sub1; und t&sub2; zeigt.
  • Unter Verwendung eines Verfahrens von dem in unserer britischen Patentschrift Nr. GB-B-2188510 dargelegten Typ, einem Phasenkorrelationsverfahren auf Grundlage einer schnellen Fourier-Transformation (Fast Fourier Transformation), wird eine Phasenkorrelationsfläche bzw. ein Phasenkorrelationsflächenraum P&sub1; abgeleitet, um das Vektorhalbbild darzustellen, welche bzw. welcher die Differenzen zwischen Halbbildern f&sub0; und f&sub1; festlegt. Eine zweite Korrelationsfläche P2 wird abgeleitet, um die Differenzen zwischen f&sub1; und f&sub2; darzustellen. Diese Korrelationsflächen werden für jeden einer Anzahl von Blöcken bzw. Feldern der Eingangshalbbilder F&sub0;, F&sub1; und F&sub2; abgeleitet. Typischerweise wird das Eingangsbild vor der Phasenkorrelation in 108 Blöcke unterteilt, die in Form von 9 Zeilen auf 12 Blöcke bzw. Spalten angeordnet sind. Die Phasenkorrelation wird zwischen demselben Block von zwei aufeinanderfolgenden sequentiellen Halbbildern f&sub0; und f&sub1; ausgeführt.
  • Nachdem die Korrelationsflächen P&sub1; und P2 für entsprechende Blöcke in f&sub0; und f&sub1; und f&sub2; abgeleitet worden sind, werden diese zeitlich gefiltert, indem diese in einem Summierer 2 aufaddiert werden. Dies erzeugt eine Korrelationsfläche PT, die verwendet werden kann, um dem Eingangshalbbild f&sub1; Vektoren zuzuordnen. Diese Fläche PT wird Information über Objekte beinhalten, die in allen drei Haibbildern vorhanden sind, ebenso wie über Objekte, die nur in f&sub0; und f&sub1; oder in f&sub1; und f&sub2; vorhanden sind. Somit sollte es möglich sein, jedem Bildbereich in f&sub1; einen Vektor zuzuordnen.
  • Ein Vektormenü bzw. eine Vektorauswahl wird von PT vor der Zuordnung von Vektoren zu f&sub1; abgeleitet, indem eine Suche vorgenommen wird, um die Peaks bzw. Extremwerte in der Korrelationsfläche zu lokalisieren. Eine Liste von beispielsweise bis zu fünf Extremwerten oberhalb eines voreingestellten Schwellenwertes wird ausgewählt, um eine Auswahl von Versuchsvektoren zur Zuordnung von Bild bereichen in dem Block in f&sub1; zu erzeugen, von dem die Fläche abgeleitet worden ist.
  • Bevor die Auswahl von Versuchsvektoren f&sub1; zugeordnet wird, wird sie auf Kameraschwenk- und Zoombestandteile untersucht und werden geeignete Einstellungen vorgenommen. Verfahren zur Durchführung dieser Einstellungen werden in unserer britischen Patentanmeldung 9206396.5, veröffentlicht als GB-A-2280082, beschrieben.
  • Diese so abgeleitete Vektorauswahl sollte einen Vektor umfassen, der für jedes Pixel in f&sub1; die Bewegung zwischen f&sub0; und f&sub1; sowie zwischen f&sub1; und f&sub2; eindeutig beschreibt.
  • Der Zweck der Zuordnung ist es, Vektoren zu erzeugen, die den Pixeln von f&sub1; zugeordnet sind, die verwendet werden können, um zu der Ableitung eines Ausgangshalbbildes entweder zwischen f&sub0; und f&sub1; oder zwischen f&sub1; und f&sub2; beizutragen, indem die Daten dieses Pixels auf die Zeitposition des Ausgangshalbbildes projiziert werden. Ein Verfahren zur Zuordnung dieser Vektoren wird in unserer internationalen Patentanmeldung Nr. WO-A-9205662 beschrieben. Darin wird ein Vektor einem Pixel in f&sub1; gemäß demjenigen Vektor in der Versuchsvektorliste zugeordnet, der den kleinsten Gesamtfehler (Übereinstimmungsfehler) bei Ableitung der Projektion dieses Pixels mit diesem Vektor auf f&sub2; und auf f&sub0; ergibt. Schwierigkeiten bei einer solchen Zuordnung treten auf, wenn sich Vordergrundobjekte bewegen und folglich Bereiche des Hintergrundes des Bildes zwischen Halbbildem zum Vorschein bringen und abdunkeln bzw. verdecken. Einige Vorschläge, um mit diesen Schwierigkeiten fertigzuwerden, wurden in unserer internationalen Patentanmeldung wo- A-9205662 im Zusammenhang mit dem Vier-Halbbild-Algorithmus dargelegt und Abwandlungen dieser Vorschläge können bei der Zuordnung von Vektoren verwendet werden, die unter Verwendung des Drei-Halbbild-Algorithmusses abgeleitet werden.
  • Von einer Szene von Vordergrundobjekten, die sich vor Hintergrundobjekten bewegen, sei angenommen, daß das Vordergrundobjekt den Hintergrund abdunkelt bzw. verdeckt. Die Bewegung des Vordergrundobjektes verdeckt ständig den Hintergrund bzw. macht diesen unscharf und bringt diesen wieder zum Vorschein. Alles, was bei einer Folge von drei Halbbildern im mittleren Halbbild sichtbar ist, sollte entweder in dem vorherigen Halbbild, in dem nächsten Halbbild oder in beiden vorhanden sein. Dies wird in Fig. 2 gezeigt. Die Ausnahme von dieser Regel ist der Fenstereffekt (window effect), der von einer Öffnung in dem Vordergrund hervorgerufen wird, die in jedem Halbbild etwas völlig anderes zeigt.
  • Der Drei-Halbbild-Algorithmus wird verwendet, um eine Liste von Versuchsvektoren zu erzeugen und bei Verwendung von diesen kann jedes Element eines Bildes auf eine der folgenden Arten zugeordnet werden:
  • a) Vordergrundobjekt; kleiner Übereinstimmungsfehler in Periode bzw. Zeitraum des mittleren Halbbildes
  • b) verdeckter Hintergrund; kleiner Übereinstimmungsfehler in Periode des vorherigen Halbbildes, falls Halbbild 1 zugeordnet wird
  • c) zum Vorschein gebrachter Hintergrund; kleiner Übereinstimmungsfehler in Periode des nächsten Halbbildes, falls Halbbild 2 zugeordnet wird
  • d) fehlender Vektor/Fensterproblem; keine gute Übereinstimmung (match)
  • Drei-Halbbild-Zuordnungen erzeugen ein Vektorhalbbild und ein Statushalbbild, die mit einem Eingangs- bzw. Eingabehalbbild zeitlich zusammenfallen. Falls ein synchronisiertes bzw. zeitlich abgestimmtes Eingangsvektorhalbbild für zwei aufeinanderfolgende Eingangshalbbilder zur Verfügung steht, ist die Erzeugung eines Ausgangszwischenhalbbildes bzw. eines zwischengeordneten Ausgangshalbbildes ein Logikproblem. Falls ein Vektor gerade in der Auswahl fehlt, ist natürlich ein Bereich des Bildes dazu bestimmt, mit Hilfe eines Bereitschaftsmodusses (fallback mode) erzeugt zu werden, und wird nicht bewegungskompensiert.
  • Zuordnung mehrerer Vektoren
  • Nach diesem Verfahren der Zuordnung wird der Vektorauswählprozeß ausgedehnt, um die Erzeugung von bis zu zwei Vektoren für jedes Ausgangspixel in Bereichen eines zum Vorschein gebrachten und verdeckten Hintergrundes zu ermöglichen. Dies ermöglicht einen sanften Ubergang bzw. Wechsel zwischen Vektoren, die zur Bildinterpolation an Übergangsbereichen zwischen Vordergrund- und Hintergrundobjekten verwendet werden. Beispielsweise wird für jedes Pixel, das als zum Vorschein gebrachter Hintergrund zugeordnet wird (d.h. zwischen den zwei letzten Halbbildern tritt der kleinste gewichtete Zuordnungsfehler auf), auch der Vektor bestimmt, der den kleinsten Zuordnungsfehler über die ersten zwei Halbbilder ergibt. Das Ausgangshalbbild wird dann von den darauffolgenden Halbbildem interpoliert, verschoben um den zugeordneten Vektor für einen zum Vorschein gebrachten Hintergrund (auf die erforderliche Ausgangszeit skaliert) gemeinsam mit einem Beitrag von den vorherigen Halbbildern, verschoben um diesen sekundären Vektor. Das relative Verhältnis der zwei Beiträge kann wie folgt festgelegt werden: ein Steuersignal wird für jedes zu interpolierende Pixel berechnet, das den Anteil des Ausgangshalbbildes spezifiziert, der den folgenden Halbbildern entnommen werden soll. Für alle Teilbilder bzw. Proben in Vordergrundbereichen wird dies eine Konstante gleich δt in Fig. 2 sein, was die normale Betriebsart eines zeitlichen Interpolationsfilters darstellt. In einem Bereich, der als zum Vorschein gebrachter Hintergrund markiert bzw. gekennzeichnet ist, wird das Steuersignal auf den Einheitswert gesetzt, weil die gesamte Information den folgenden Haibbildern entnommen werden sollte, wie zuvor für den Bereich e in Fig. 2 beschrieben wurde. Dieses Steuersignal wird dann einem räumlichen Tiefpaßfilter unterzogen, so daß es nicht länger nur innerhalb der Bereiche von zum Vorschein gebrachtem Hintergrund gleich dem Einheitswert sein wird.
  • Die Bildelemente, die das Ausgangshalbbild umfassen, können dann in einer Art und Weise zusammengefaßt werden, die harte Kanten bzw. Kantenverläufe minimiert. In einem Originalausgangsbild bzw. Originalquellbild tritt eine Vermischung über einen sehr begrenzten Randbereich zwischen Objekten auf. Dieser Rand wird durch die Auflösung (resolution) beschrieben bzw. festgelegt.
  • Für den Großteil des Ausgangshalbbildes werden die Bildelemente in beiden Bildern vor dem Bild nach der augenblicklichen Ausgangshalbbildposition vorhanden sein. Das Ausgangsbild wird mit Hilfe einer gewichteten Summe der zwei Eingangsbilder erzeugt. Der Beitrag von jeder der Eingangsvariablen ist ein Bildgrößenfeld (array), das mit assn_ff bezeichnet wird.
  • Wenn verdeckter oder zum Vorschein gebrachter Hintergrund verwendet wird, wird das Ausgangs- bzw. Ausgabebild nur von einem Bild gebildet. Bei Erzeugung des Ausgangsbildes tritt ein Bildübergang bzw. ein Bildwechsel zwischen der Ein- Halbbild-Bilderzeugung und der Zwei-Halbbild-Bilderzeugung auf. Dieser Wechsel tritt zweimal auf, einmal zwischen dem Hintergrund von einem Halbbild und dem Hintergrund von zwei Halbbildern und wiederum zwischen dem Hintergrund bei Verwendung eines Halbbildes und dem Vordergrund, der von zwei Halbbildern erzeugt wird.
  • Zwei einer Bildgröße zugeordnete Vektorhalbbilder werden während der Vektorzuordnung erzeugt (als assn_Vi und assn_2 bezeichnet). Das erste Vektorhalbbild entspricht dem Halbbild unmittelbar vor dem Zeitpunkt des Ausgangsbildes und das zweite dem Halbbild danach. Jedes Vektorhalbbild wird von einer anderen Auswahl abgeleitet, die für dieses Halbbild unter Verwendung des Drei-Halbbild-Algorithmusses abgeleitet wurde. Wenn ein minimaler Übereinstimrnungsfehler während der zentralen Periode bzw. während des mittleren Zeitintervalles gefunden wurde, wird beiden Vektorhaibbildern der gleiche Wert zugeteilt und assn_ff wird gleich dem Abstand (dist) zwischen Halbbild 1 und T0 gesetzt, der Ausgangshalbbildzeit. Das Ausgangsbild wird als ein gewichteter Mittelwert der zwei Haibbilder berechnet, und zwar in Abhängigkeit assn_ff:
  • Aout = A1 x (1 - ass_ff) + A2 assn_ff
  • assn_ff = dist (Abstand), falls die beste Übereinstimmung in der vorherigen Inter-Halbbildperiode vorlag
  • Wenn die beste Übereinstimmung in der vorherigen Inter-Halbbildperiode vorliegt, wird der beste Vektor für diese Periode bzw. dieses Zeitintervall in Vektorhalbbild assn_vi eingesetzt und der beste Vektor für das mittlere Zeitintervall in assn_v2 eingesetzt. In diesem Fall wird assn_ff auf 0 gesetzt, um zu erzwingen, daß das Ausgangsbild aus Halbbild 1 erzeugt wird. Wenn die beste Übereinstimmung in der nächstfolgenden Inter-Halbbildperiode vorliegt, wird der beste Vektor für das mittlere Zeitintervall in das Vektor-Halbbild assn-v1 eingesetzt und der beste Vektor für dieses Zeitintervall in assn_v2. Dann wird assn_ff auf 1 gesetzt, um zu erzwingen, daß das Ausgangsbild aus Halbbild 2 erzeugt wird. Dies ist in Fig. 3 dargestellt.
  • Man erkennt deshalb, daß zwei Vektoren jedem Pixel in jedem Halbbild zugeordnet sind; ein Vektor wird verwendet, wenn man in die Vorwärtsrichtung "schaut" und der andere Vektor wird verwendet, wenn man in die Rückwärtsrichtung "schaut". Während eines verdeckten und zum Vorschein gebrachten Hintergrundes zeigt ein Vektor auf den Hintergrund und wird verwendet, um den Hintergrund zu erhalten, während der andere Vektor auf das Vordergrundobjekt zeigt. Wegen der zugeteilten Werte von assn_ff wird zu einem Zeitpunkt nur ein Vektor verwendet, solange das Feld assn_ff räumlich gefiltert wird. Ein kleiner bzw. schmaler Tiefpaßfilter, angewendet auf assn_ff, wird eine Vermischung während Betriebsartänderungen bewirken.
  • Das Ausgangshalbbild wird somit pixeiweise erzeugt, wobei das Halbbild vor T0 um dist*assn_V1 verschoben ist und das Halbbild nach T0 um (1-dist)*assn_V1.
  • Es ist auch möglich, unter anderen Bedingungen jedem Pixel eine Anzahl von Bewegungsvektoren zuzuordnen, beispielsweise zwei. Diese Zuordnung könnte zum Eingabezeitpunkt oder zum Ausgabezeitpunkt erfolgen.
  • Bei der bevorzugten, nachfolgend beschriebenen Ausführungsform wird das zum ersten Halbbild zeitgleiche (co-timed) Vektorhalbbild immer in Vorwärtsrichtung projiziert und das mit dem zweiten Halbbild zeitgleiche Vektorhalbbild immer rückwärts projiziert.
  • Vorfilterung
  • Vor der Zuordnung wird das Eingangsbild durch einen kleinen bzw. schmalen 2D- Raumfilter gegeben. Die Impulsantwort des Filters entspricht einem Rechteck, so daß die Stufenantwort einer linearen Schräge entsprechen wird. Wenn der Übereinstimmungsfehler aus der Differenz zwischen Bildern berechnet wird, wird auch der Bildgradient berechnet. Wenn die Differenz durch den Gradienten dividiert wird, entspricht das Ergebnis einem Positionsfehler. Dies entspricht dem Gradientenverfahren zur Bewegungsmessung und wäre dann am genauesten, wenn die Gradienten in dem Bild linear verlaufen.
  • Falls die Verschiebung sehr groß ist, funktioniert das Verfahren nicht mehr und die Folge ist keine Messung der Verschiebung, sondern ein großer Fehler. Das Verfahren wird einfach dazu verwendet, den besten Vektor auszuwählen. Eine weitere Verbesserung besteht darin, die Verschiebungsmessung dazu zu verwenden, um kleine Fehler in dem zugeordneten Vektor zu korrigieren.
  • Unterabgetastete (sub-sampled) Vektorhalbbilder
  • Die zeitlich abgestimmten bzw. synchronisierten Eingangsvektorhalbbilder werden für altemierende Pixel berechnet. Das Originalbild wird vollständig abgetastet und die Genauigkeit der Übereinstimmungsfehler wird folglich nicht signifikant von der Unterabtastung (sub-sampling) beeinflußt, es tritt jedoch eine beträchtliche Ersparnis bei der Hardware auf.
  • Übereinstimmungsfehlerberechnung (match error calculation)
  • Die normale Bedeutung und das normale Verfahren für Übereinstimmungsfehler kann wie folgt zusammengefaßt werden: Übereinstimmungsfehler sind ein Mittel, um herauszufinden, ob ein bestimmter Vektor in der Vektorauswahl auf ein bestimmtes Bildelement Anwendung findet. Der Übereinstimmungsfehler wird durch Verschiebung der zwei Bilder um die vorgeschlagene Vektorbewegung und durch anschließende Subtraktion der zwei Bilder berechnet. Dies wird für den Bereich des Zuordnungsblockes durchgeführt und der Absolutwert dieses Fehlersignales wird durch den Bildgradienten des zentralen bzw. mittleren Bildelementes dividiert und anschließend räumlich gefiltert.
  • Bei dem Drei-Halbbild-Algorithmus wird das Eingangsbild, das mit dem erforderlichen Eingangsvektorhalbbild zeitlich zusammenfällt, stationär gehalten und die vorherigen und darauffolgenden Bild-Halbbilder werden um einen Versuchsvektor verschoben. Dies muß sowohl flir das Halbbild vor als auch flir das Halbbild nach dem erforderlichen Ausgabezeitpunkt ausgeführt werden.
  • Dies führt zu zwei Übereinstimmungsfehlern, einer vor und einer nach dem Eingangsbild. Wenn das Vektorhalbbild vorwärts projiziert wird, entspricht der zweite Übereinstimmungsfehler einem Zeitintervall der Ausgangsbildzeit und ein kleiner Übereinstimmungsfehler wird einen Vordergrund anzeigen. Diesem mittleren bzw. zentralen Übereinstimmungsfehler wird eine kleine Präferenz gegeben, indem dieser mit einem Gewichtungsfaktor zwischen 0,5 und 0,99 multipliziert wird. Wenn das Vektorhalbbild rückwärts projiziert wird, entspricht der erste Übereinstimmungsfehler einem Zeitintervall der Ausgangsbild-Zeit und ein kleiner Übereinstimmungsfehler wird einen Vordergrund anzeigen. Dieser mittlere bzw. zentrale Halbbild- Übereinstimmungsfehler wird in der gleichen Art und Weise wie zuvor gewichtet.
  • Ein weiterer Übereinstimmungsfehler wird berechnet, indem die anderen zwei Übereinstimmungsfehler aufaddiert werden und dieser wird ebenfalls gewichtet. Es scheint so, daß der zentrale Halbbild-Übereinstimmungsfehler und der kombinierte Zwei-Halbbild-Übereinstimmungsfehler zur Identifizierung eines Vordergrundes gleich gut ist und folglich sind die Gewichtungsfaktoren ähnlich.
  • In der Praxis ist das Vektorhalbbild, das mit dem ersten Bild zeitlich zusammenfällt, flir die Vorwärts-Projektion dem Vektorhalbbild flir das gleiche Bild sehr ähnlich, wenn es sich in der zweiten Bildposition befand und rückwärts projiziert wurde. Die Berechnungen des Übereinstimmungsfehlers sind die gleichen, aber die halbbildabhängigen Gewichtungen werden geändert und folglich die zugeordneten Vektoren und die Statuswerte. Das Vorwärts-Projektionshalbbild und die Rückwärts-Projektionsvektorhalbbilder werden zum gleichen Zeitpunkt berechnet, aber das Vorwärtsvektorhalbbild wird um eine Eingangshalbbildperiode verzögert.
  • Zuordnung und Status
  • Bei dieser Vorgehensweise wird das Eingangsvektorhalbbild zu 360 Pixel und 288 Halbbildzeilen unterabgetastet (sub-sampled). Für jedes Element in dem Eingangsvektorhalbbild werden die gewichteten Übereinstimmungsfehler verglichen. Der Versuchsvektor mit dem kleinsten gewichteten Übereinstimmungsfehler wird dem Bildelement zugeordnet.
  • Für das Vorwärts-Projektionsvektorhalbbild sind die Statusregeln die folgenden:
  • Vordergrund wird durch den kleinsten Übereinstimmungsfehler angezeigt, welcher der zweite Halbbildmittelwert bzw. der Zwei-Halbbildmittelwert ist.
  • Verdeckter Hintergrund wird durch den kleinsten Übereinstimmungsfehler angezeigt, der dem ersten Halbbild entspricht.
  • Ein fehlender Bewegungsvektor wird durch einen großen Übereinstimmungsfehler angezeigt.
  • Für das Rückwärts-Projektionsvektorhalbbild sind die Statusregeln wie folgt:
  • Vordergrund wird durch den kleinsten Übereinstimmungsfehler angezeigt, der der erste Halbbildmittelwert oder der Zwei-Halbbildmittelwert ist.
  • Zum Vorschein gebrachter Hintergrund wird durch den kleinsten Übereinstimmungsfehler angezeigt, der dem zweiten Halbbild entspricht.
  • Ein fehlender Bewegungsvektor wird durch einen großen Übereinstirnmungsfehler angezeigt.
  • Der Status wird gemeinsam mit jedem zugeordneten Vektor in den ersten und zweiten Vektorhalbbildem abgespeichert.
  • Ausgangsvektorhalbbild-Zeit
  • Die Karte bzw. die Fläche der zugeordneten Eingangsvektoren kann über das zeitgleiche Bild gelegt werden, um anzugeben, auf welche Weise sich alles bewegt. Das Ausgangsvektorhalbbild wird erzeugt, indem jedes Element des ersten Eingangsvektorhalbbildes vorwärts bzw. in Vorwärtsrichtung auf den Ausgabezeitpunkt projiziert wird und das zweite Vektorhalbbild rückwärts auf die Ausgabeposition. Obwohl das Eingangsvektorhalbbild unterabgetastet wird, besitzt das Ausgangsvektorhalbbild die gesamten 720 horizontalen Teilbilder (samples).
  • Das zeitlich abgestimmte bzw. synchronisierte Ausgangsvektorhalbbild wird in einem gewissen zeitlichen Abstand von dem Eingangsvektorhalbbild benötigt. Diese Situation ist in Fig. 4 gezeigt. Wenn das erste Vektorhalbbild projiziert wird, wird die Stelle bzw. Position jedes zeitlich abgestimmten Eingangsvektors zu dem zugeordneten Vektor addiert, skaliert um den Abstand, und diese neue Stelle hat den zugeordneten Vektor abgespeichert. Für das zweite Vektorhalbbild wird die Stelle jedes zeitlich abgestimmten Eingangsvektors zu dem zugeordneten Vektor, skaliert um 1-Abstand (1-dist), addiert und diese neue Position besitzt den zugeordneten, abgespeicherten Vektor. Eine geringfügige Komplikation besteht darin, daß es unwahrscheinlich ist, daß die projizierte Position eine exakte Position in dem Ausgangsvektorhalbbild ist, und daß auch das Ausgangsvektorhalbbild dichter bzw. enger abgetastet wird als das Eingangsvektorhalbbild. Beide Probleme werden dadurch gelöst, daß der Vektor bei der Position auf jeder Seite des projizierten Vektors gespeichert wird.
  • Status und Betriebsarten
  • Der Status des zeitlich abgestimmten Eingangsvektorhalbbildes folgt dem projizierten Vektor und ein neuer Ausgangsvektorstatus wird erzeugt. Die Regeln für den Ausgangsvektorhalbbildstatus sind wie folgt:
  • Vordergrund
  • Vordergrundvektoren werden von beiden zeitlich abgestimmten Eingangsvektorhalbbildern in Vorwärtsrichtung und in Rückwärtsrichtung projiziert. Falls zwei Vordergrundvektoren an der gleichen Stelle landen, werden beide Vektoren abgespeichert und der Status zeigt zwei Vordergrundvektoren an.
  • Hintergrund
  • Ein verdeckter Hintergrund wird vorwärts projiziert und der Status markiert den Bereich als verdeckten Hintergrund.
  • Zum Vorschein gebrachter Hintergrund wird rückwärts projiziert und der Status markiert den Bereich als zum Vorschein gebrachten Hintergrund.
  • Bereitschaftsmodus (fall back modus)
  • Falls ein Bereich des Bildes einen großen Übereinstimmungsfehler in jedem der zeitlich abgestimmten Eingangsvektorhalbbilder aufweist, wird angenommen, daß kein Bewegungsvektor zur Verfügung steht. Um einen Verlust des Objektes zu einem projizierten Hintergrund zu vermeiden, wird der Bereich als ein nicht zuzuordnender Bereich markiert und geht in den Bereitschaftsmodus. Der augenblicklich verwendete Bereitschaftsmodus soll einen stationären Vektor verwenden und soll die zwei Bilder im Verhältnis zur Position des Ausgangshalbbildes und in Beziehung zu den Eingangshalbbildern zusammenmischen. Ein Bild mit weicherer bzw. feinerer Auflösung wird zur Bereitschaft bzw. zum Rückgriff (fall back) verwendet, um die Härte von nicht bewegungskompensierten Bildelementen zu verringern.
  • Verarbeitung des Ausgangsvektorhalbbildes
  • Es ist eine Folge der Vektorprojektion, daß Löcher in dem Vektorhalbbild vorhanden sein können. Die Löcher werden durch einen in der Nähe befindlichen zugeordneten Vektor und den Status aufgefüllt.
  • Das Ausgangsbild wird aus einem verschobenen Gemisch aus zur Verfügung stehenden Eingangsbildern erzeugt. Der Bildüberblendfaktor (crossfade) steuert die Mischung der zwei Eingangshalbbilder, um das Ausgangsbild zu erzeugen. Dieses crossfade-Signal bzw. "Überblend"-Signal nimmt den Wert von 0 bis 1,0 entsprechend den folgenden Regeln ein:
  • Verdeckter Hintergrund: crossfade = 0
  • nimmt das Bild von dem vorherigen Bild zum Vorschein gebrachter Hintergrund: crossfade = 1
  • nimmt das Bild von dem nächsten Bild
  • Vordergrund: crossfade = dist (Abstand) nimmt das Bild sowohl von dem vorherigen als auch von dem nachfolgenden Bild. Falls zwei Vordergrundvektoren vorliegen, wird das erste Halbbild um den ersten zuzuordnenden Vektor bewegt und der zweite Vektor verwendet, um das zweite Bild zu verschieben.
  • Bereich großer Fehler: crossfade = dist (Abstand) Bereitschaftsmodus, zugeordnete Vektoren gleich 0
  • Verdeckter Hintergrund und zum Vorschein gebrachter Hintergrund:
  • Dies kann der Fall sein, wenn eine kleine Mittelpunktübereinstimmung nicht erreicht werden kann und wenn herausgefunden wurde, daß crossfade = dist bzw. Abstand ist.
  • Ausgangsbild erzeugen
  • Das Verfahren zur Erzeugung des Ausgangsbildes geht jedes Element der Ausgangsbildposition durch und wendet den folgenden Algorithmus an:
  • pic_output(x, y) =
  • pic_1(x,y verschoben um dist * vec_1) * (1-crossfade) +
  • pic_2(x,y verschoben um (dist-1) * vec_2) *crossfade
  • vec_1 und vec_2 sind zwei zugeordnete Vektoren, falls es nur einen zugeordneten Vektor gibt, wird vec_2 gleich vec_1 gemacht.
  • Ein Interpolator wurde verwendet, um Pixel-Teilverschiebungen zu erzeugen, aber die genaue Form steht dennoch einer gewissen Optimierung offen. Dieser Teilaspekt wird die Qualität der endgültigen Bilder beeinflussen, ist jedoch für den zugrundeliegenden Drei-Halbbild-Algorithmus nicht von Bedeutung.
  • Zwei-Halbbild-Vektorprojektionsalgorithmus
  • Der Zwei-Halbbild-Algorithmus erhält seinen Namen vom Vergleich von nur zwei Halbbildern während des ersten Stadiums der Vektorzuordnung. Die Eingangsvektorauswahlen für das Zwei-Halbbildsystem sind Vektoren, die zeitlich mit den Intervallen zwischen Bildern zusammenfallen, statt daß sie zeitlich mit Bildern zusammenfallen, wie dies für das Drei-Halbbildsystem erforderlich ist.
  • Dieses Verfahren ist schematisch in Fig. 5 dargestellt. Diese zeigt eine Folge von vier Videobildern f&sub0; bis f&sub3;. Eine Phasenkorrelationsfläche wird für das Intervall zwischen jedem Paar von Bildern abgeleitet und diese Korrelationsflächen sind P&sub0;&sub1;, P&sub1;&sub2; und P&sub2;&sub3;. Jede dieser Flächen kann auf ein ganz bestimmtes Intervall angewendet werden. Falls jede dieser Flächen einfach nur dazu verwendet wird, den Halbbildern, von denen sie abgeleitet wurden, Vektoren zuzuordnen, wird es bei Objekten zu Problemen kommen, die in einem Halbbild nicht jedoch in dem anderen vorhanden sind. Deshalb wird ein gewichteter Mittelwert der drei Korrelationsflächen abgeleitet und anschließend dazu verwendet, um Vektoren zur Erzeugung von Bildern in dem zentralen Intervall f&sub1; bis f&sub2;, zuzuordnen. In diesem speziellen Beispiel wird sowohl P&sub0;&sub1; als auch P&sub2;&sub3; jeweils mit Gewichten von einem Viertel versehen und P&sub1;&sub2; mit einem Gewicht von einhalb, bevor diese alle zusammenaddiert werden, um eine zeitlich gefilterte Korrelationsfiäche abzuleiten, aus der eine Vektorauswahl 12 abgeleitet werden kann. Sobald Vektoren zugeordnet worden sind, wird das Verfahren wiederholt, indem eine weitere Korrelationsfläche in dem Interfall f&sub3; bis f&sub4; abgeleitet wird und indem diese Fläche bzw. dieser Flächenraum gemeinsam mit P&sub1;&sub2; und P&sub2;&sub3; verwendet wird, um eine Vektorauswahl zur Zuordnung über das Intervall f&sub2; bis f&sub3; abzuleiten. Das Verfahren schreitet durch die gesamte Folge von Videobildern fort.
  • Auf diese Weise wird für jedes Bildintervall in der Folge von Videobildern eine Phasenkorrelationsfläche abgeleitet und diese Korrelationsflächen werden zu einem gewichteten Mittelwert kombiniert, um eine Vektorauswahl zu erzeugen, die über ein einziges Bildintervall anwendbar ist. Die Tatsache, daß die Auswahl über ein Intervall zwischen zwei Bildern anwendbar ist, ist der Grund dafür, warum diese als Zwei-Halbbild-Algorithmus bezeichnet wird.
  • Wie zuvor diskutiert wurde, wird es bevorzugt, daß die Vektoren Eingangshalbbildern zugeordnet werden, anstatt daß sie Ausgangshalbbildern zugeordnet werden, und es wird berücksichtigt, daß, falls beispielsweise Auswahl&sub1;&sub2; f&sub1; und f&sub2; zugeordnet wird und dann Auswahl&sub2;&sub3; f&sub2; und f&sub3; zugeordnet wird, f&sub2; zwei Vektorhalbbilder zugeordnet sind. Eines dieser Halbbilder hängt mit f&sub1; zusammen und das andere mit f&sub3;. Diese werden als die Vorwärts- bzw. Rückwärts-Projektionshalbbilder bezeichnet und ihre Verwendung ermöglicht eine sehr zuverlässige Erzeugung von Zwischenhalbbildern von der Art, die bei der Slow-Motion-Folgenerzeugung verwendet werden. Der Grund für die Erzeugung von diesen und die Art und Weise, in der Ausgangsbilder erzeugt werden, wird nachfolgend diskutiert.
  • Das erzeugte, zugeordnete Vektorhalbbild ist ähnlich zu dem, das mit Hilfe der in unserer britischen Patentanmeldung Nr.9013642.5, veröffentlicht als GB-A-225962 5, vorgeschlagenen Vorwärts-/Rückwärtszuordnung erzeugt wird. Die Vorwärts/Rückwärtsvektorhalbbilder werden in Paaren mit dem zugehörigen Übereinstimmungsfehler abgespeichert und kombiniert, um den Vektorstatus zu bestimmen.
  • Die kombinierten bzw. vereinigten Vektorhalbbilder werden zur Ausgabezeit vorwärts- und rückwärts-projiziert, um ein zweifach synchronisiertes Ausgangsvek torhalbbild zu erzeugen. Der erste, zeitlich abgestimmte Ausgangsvektor ist der Vorwärts-Projektion zugeordnet und der zweite ist der Rückwärts-Projektion zugeordnet und diese werden kombiniert bzw. vereinigt, um die zwei Vektoreingaben an das Bilderzeugungssystem zu steuern.
  • Bewegungsabschätzung
  • Die meisten der Eigenschaften des Bewegungsabschätzers sind ähnlich wie beim zuvor beschriebenen "Drei-Halbbild"-Algorithmus. Der Hauptunterschied ist wie folgt:
  • Vektorauswahl-Zeitsteuerung
  • Die Auswahl (menu) für die "Drei-Halbbild"-Version erfordert es, daß die Vektorauswahlen sowohl für die Periode vor als auch für die Periode nach dem Zeitpunkt des Eingangshalbbildes gültig sind. Ein Zeitfilter von geradzahliger Ordnung wird auf die Korrelationsfläche angewendet, um eine bestmögliche Abschätzung dieses Bewegungsaugenblickes zu machen. Dies stellt einen Kompromiß dar, der die Bewegungsabschätzung verbessert, wenn die Bewegung in etwa kontinuierlich erfolgt, zu Lasten einer Messung bzw. Bestimmung plötzlich auftretender Bewegungen und schneller Beschleunigungen.
  • Der "Zwei-Halbbild"-Algorithmus verwendet jede Auswahl nur während einer Halbbildperiode und deshalb gibt es keine Veränderung in der Zeitsteuerung. Es ist wahrscheinlicher, daß eine Auswahl während eines Halbbild-Augenblicks gültig ist anstatt während zwei und folglich unterliegt das Vektorauswahlproblem einem Kompromiß weniger stark.
  • Korrelationsfilter
  • Man hat herausgefünden, daß eine spezielle Auslegung des zeitlichen Korrelationsfilters Probleme beheben wird, die durch eine Überlappung bzw. Verschachtelung bewirkt werden, wenn Halbbild-Frequenzkorrelationen vorgenommen werden. Die Auslegung des Zeitfilters wird vorzugsweise die Bedingung erfüllen, daß die Summe der Abstände der ungeradzahligen Koeffizienten gleich der Summe der Abstände der geradzahligen Koeffizienten ist. Weil die wahrscheinlichste Anzahl von Abständen drei ist, werden die Koeffizienten dann 0,25, 0,5, 0,25 betragen.
  • Fig. 4 zeigt schematisch den Zwei-Halbbild-Algorithmus und zugeordnete Vektorhalbbilder und auf diese Figur wird in den nachfolgenden Abschnitten Bezug genommen.
  • Synchronisiertes Eingangsvektorhalbbild
  • Für jede von dem Abschätzer beschaffte Auswahl wird die Zuordnung zweifach durchgeführt, einmal unter Verwendung der Vorwärtszuordnung und einmal unter Verwendung der Rückwärtszuordnung. Die Vorwärtszuordnung wird dadurch bewerkstelligt, daß das erste Halbbild stationär bzw. ortsfest gehalten wird und daß das zweite um einen Versuchsvektor verschoben wird und daß der Übereinstimmungsfehler aus der Größe der Differenz berechnet wird. Die Differenz wird durch den Gradienten geteilt, worin eine Anwendung der Gradientenverfahren-Vektormessung besteht, aber das Ergebnis wird nur zur Auswahl eingesetzt, wobei der Fehler einem Abstand entspricht. Dieser kann zu einem späteren Zeitpunkt zur Berichtigung verwendet werden. Das Rückwärts-Projektionshalbbild wird dadurch erzeugt, daß das zweite Halbbild stationär bzw. ortsfest gehalten wird und das erste verschoben wird und der Vorgang wiederholt wird. Jedes neue Eingangshalbbild und jede neue Auswahl erzeugt zwei zugeordnete Vektorhalbbilder, z.B. werden aus Auswahl 2 die Halbbilder b und c erzeugt.
  • Vereinigung der synchronisierten Eingangsvektorhalbbilder
  • Zu diesem Zeitpunkt haben wir vier zugeordnete Vektorhalbbilder, ein Paar für das Halbbild vor dem Ausgabezeitpunkt und ein Paar nach dem Ausgabezeitpunkt. Für jedes Paar wurde das erste durch Rückwärtszuordnung der vorherigen Auswahl erzeugt und das zweite durch Vorwärtszuordnung der zweiten Auswahl.
  • Falls das Eingangsvektorhalbbild zur Vorwärtsprojektion bestimmt ist, entspricht das zweite Vektorhalbbild "b" der zentralen bzw. mittleren Periode und wird dem Vordergrund zugeordnet. Auf das zweite Vektorhalbbild und den Übereinstimmungsfehler wird das Gewicht centre_wt angewendet und dieser wird dann mit dem Übereinstimmungsfehler des äußeren Halbbilds "a" verglichen. Der Vektor mit dem kleinsten Übereinstimmungsfehler wird zugeordnet. Die folgenden Regeln werden angewendet, wenn die Vektorhalbbilder "a" und "b" vereinigt bzw. zusammengeführt werden, um das Vektorhalbbild "c" zu ergeben:
  • zentrales Halbbild niedrig: Vordergrund (Status = 3)
  • äußeres Halbbild niedrig: verdeckter Hintergrund (Status = 1)
  • beide Übereinstimmungsfehler hoch: fehlender Vektor (Status = 5)
  • Diese Situation ist ähnlich zu derjenigen, wenn das Eingangsvektorhalbbild zur Rückwärtsprojektion bestimmt ist, außer daß centre_wt auf Übereinstimmungsfehler des rückwärts zugeordneten Vektorhalbbildes "c" angewendet wird. Die gewichteten Übereinstimmungsfehler von "c" werden mit den Übereinstimmungsfehlern von "d" verglichen, um das Rückwärts-Projektionsvektorhalbbild "f" zu erzeugen. Die Regeln werden nun:
  • zentrales Halbbild niedrig: Vordergrund (Status = 3)
  • äußeres Halbbild niedrig: zum Vorschein gebrachter Hintergrund (Status = 2)
  • beide Übereinstimmungsfehler hoch: fehlender Vektor (Status = 5)
  • Die vereinigten Vektorhalbbilder, die mit Vorher und Nachher (e und f in Fig. 1) bezeichnet werden, sind ähnlich zu den synchronisierten Eingangsvektorhalbbildern, die bei dem Drei-Halbbild-Algorithmus erzeugt werden.
  • Synchronisiertes Ausgangsvektorhalbbild
  • Genau wie bei den synchronisierten Eingangsvektorhalbbildem sind dem Ausgangshalbbild zwei Vektorhalbbilder zugeordnet. Das erste wird durch Projektion des "Vorher e"-Vektorhalbbildes in Vorwärtsrichtung und das zweite durch Projektion des "Nachher f"-Vektorhalbbildes in Rückwärtsrichtung erhalten.
  • Vektorprojektion (in Vorwärtsrichtung)
  • Die Vektorprojektion erhält man dadurch, daß jede Position bzw. Stelle in dem Eingangsvektorhalbbild "e" besucht bzw. herangezogen wird, daß "dist" mit dem der Stelle des Vektors zugeordneten Vektor multipliziert wird und daß der Vektor und der Status in das Ausgangsvektorhalbbild geschrieben wird. Es ist ziemlich wahrscheinlich, daß es einen Vordergrund-/Hintergrundwettbewerb geben wird, um in eine spezielle Ausgangsposition hineinzuschreiben. Die Situation kann dann eintreten, wenn zwei Vordergrundvektoren an der gleichen Stelle im Raum ankommen, und deshalb gibt es einen einfachen Satz von Regeln zum Schreiben in das Ausgangsvektorhalbbild.
  • Die Regel wird wie folgt zusammengefaßt:
  • 1) Das gesamte Vektorfeld wird auf Status = 0, nicht zugeordnet, initialisiert.
  • 2) Ein beliebiger Vektor kann in das Ausgangsvektorhalbbild schreiben, vorausgesetzt, sein Status ist höher als der, der gerade vorherrscht. Der zweite Vektor wird ignoriert.
  • Vektorprojektion (in Rückwärtsrichtung)
  • Die Vektorprojektion von dem nächsten Eingangshalbbild in Rückwärtsrichtung auf die Ausgangshalbbildposition erfolgt ähnlich zu der Vorwärtsprojektion. Das synchronisierte Ausgangsvektorhalbbild in Rückwärtsrichtung wird in der Figur als h dargestellt und der Status wird auf 0 gesetzt, bevor die Projektion beginnt. Der Unterschied besteht darin, daß der Abstand 1-dist beträgt.
  • Zusammenführen synchronisierter Ausgangsvektorhalbbilder
  • Die zwei Ausgangsvektorhalbbilder werden gemäß einem anderen Satz von Regeln vereinigt bzw. zusammengeführt, die in einer Tabelle zusammengefaßt sind (verwendete Abkürzungen: Hg steht für Hintergrund):
  • !! Arten, die viermal beginnen, könnten mit dist oder 0,5 übergeblendet werden und sind noch Gegenstand einer Optimierung.
  • Nach der Vektorverarbeitung sind alle Stellen bzw. Plätze des Vektors g, h und der crossfade-Faktor bzw. Bildüberblendfaktor eingesetzt worden. Man hat eine sichtbare Verbesserung des Ausgangsbildes festgestellt, indem ein zweidimensionales Raumfilter über das Vektorhalbbild und die Bildüberblendfläche gelegt wird.
  • Ausgangsbilderzeugung
  • Das Ausgangsbilderzeugungsverfahren geht jedes Element der Ausgangsbildstelle durch und wendet den folgenden Algorithmus an:
  • Pic_output (x, y) =
  • pic_1 (x,y verschoben um dist * vec_1) * (1-crossfade) +
  • pic_2(x,y verschoben um (dist-1) * vec_2) *crossfade
  • Ein Interpolator wurde verwendet, um Pixelteilverschiebungen zu erzeugen, aber die exakte Form unterliegt noch einer gewissen Optimierung. Der Teilaspekt wird die Qualität der endgültigen Bilder beeinflussen, ist jedoch für den eigentlichen Drei- Halbbild-Algorithmus nicht von Bedeutung.
  • Fig. 6 zeigt Schaltungen zum Ausführen des Drei-Halbbild-Algorithmusses. Diese umfassen ein Paar von Halbbildverzögerungen 20, die in Reihe geschaltet sind und eine Folge von Videohalbbildern empfangen. Der Eingang und der Ausgang von jeder Halbbildverzögerung ist mit einem entsprechenden Eingang eines Phasenkorrelators 22 verbunden. Jeder von diesen erzeugt eine Korrelationsfläche, die die Bewegung zwischen zwei aufeinanderfolgenden Haibbildem darstellt. Diese Flächen werden mit Hilfe der Multiplizierer 24 mit Gewichten von 0,5 versehen und werden dann in einem Addierer 26 vereinigt. Diese gemittelte Korrelationsfläche gelangt dann durch einen Spitzenwertdetektor 28, der nur diejenigen Vektoren durchläßt, die einen vorbestimmten Schwellenwert überschreiten. Auf diese Weise erzeugt dieser eine Vektorauswahl zur Zuordnung eines zentralen Halbbildes eines Satzes aus drei Halbbildern. Zu dem Zeitpunkt, zu dem diese Vektorauswahl verfügbar wird, wird das Eingangshalbbild, dem diese zugeordnet werden soll, dem Ausgang der zweiten der Halbbildverzögerungen 20 zur Verfügung stehen. Die Vektorauswahl und die Ausgangsgrößen der beiden Halbbildverzögerungen bilden die Eingangsgrößen für eine Zuordnungseinheit, wo Vektoren zu dem zentralen Halbbild der Folge von drei Halbbildern zugeordnet werden können, von der die Auswahl abgeleitet wurde.
  • Fig. 7 ist eine Modifikation der Schaltung aus Fig. 6 und ist geeignet zum Ausführen des Zwei-Halbbild-Algorithmus. Sie umfaßt eine zusätzliche Halbbildverzögerung 20 in Reihe mit den anderen Halbbildverzögerungen. Diese besitzt einen zugeordneten Phasenkorrelator 22, dessen Ausgangsgröße mit Hilfe eines vierten Multiplizierers 21 gewichtet wird, bevor sie mit den Ausgangsgrößen der anderen Phasenkorrelatoren in dem Addierer 26 vereinigt wird. Die erzeugte Vektorauswahl und die verschiedenen Eingangshalbbilder, von denen diese abgeleitet wurden, werden in eine Zuordnungseinheit (nicht dargestellt) gegeben.
  • Sowohl die Vektorzuordnung als auch die zeitlichen Interpolationsvorgänge wurden ohne Berücksichtigung einer Überlappung beschrieben. Die Vorgänge können unmittelbar auf ein überlapptes bzw. verschachteltes Signal angewendet werden (unter Berücksichtigung der vertikalen Positionierung der abgetasteten Zeilen); alternativ kann ein verschachteltes Signal vor der Verarbeitung in eine sequentielle oder progressive Form gewandelt werden.
  • Bezüglich einer schematischen Darstellung eines Zeitlupe- bzw. Slow-Motion- Wiedergabesystems, in das die vorliegende Erfindung integriert werden kann, wird auf die IEEE Konferenz-Publikation, Nr. 327 (IBC'90), Seiten 121 bis 125m, verwiesen, deren Offenbarung und auch die Offenbarung der in diesem Dokument verzeichneten Literaturhinweise ausdrücklich im Wege der Bezugnahme in dieser Patentanmeldung mit beinhaltet sei.
  • Es ist auch berücksichtigt, daß die zuvor beschriebenen Vorgänge generell mit Hilfe eines Computersystems anstatt einer diskreten Schaltung realisiert werden. Die vorstehende Verfahrensbeschreibung hält die gesamte Information bereit, die zur Herstellung eines solchen Systems notwendig ist, wie von einem Fachmann auf diesem Gebiet leicht erkannt werden kann, und eine ausführliche Beschreibung der Programmblöcke bzw. Programmanweisungen ist deshalb nicht notwendig und ist hierin nicht enthalten.

Claims (31)

1. Verfahren zum Videosignal-Bewegungsausgleich zur Verwendung in einem Videosignal-Bewegungsausgleichssystem, welches Verfahren die Schritte umfaßt, daß für jedes Eingangshalbbild aus einem Vergleich dieses Halbbildes mit vorherigen und nachfolgenden Halbbildem ein Satz von Bewegungsvektoren abgeleitet wird, daß jedem der Vektoren bzw. einem jeweiligen der Vektoren einzelne bzw. besondere Bildpunktbereiche des Eingangshalbbildes zugeordnet werden, daß durch Zuordnung von Vektoren von zumindest einem der Eingangshalbbilder zu Bildpunktbereichen des Ausgangshalbbildes ein Ausgangshalbbild zwischen zwei Eingangshalbbildern abgeleitet wird, wobei gewisse Bildpunktbereiche des Ausgangshalbbildes zwei oder mehr Vektoren aufweisen, die diesen zugeordnet sind.
2. Verfahren nach Anspruch 1, bei dem in den genannten gewissen Bildpunktbereichen ein erster der zugeordneten Vektoren verwendet wird, um die Bewegung des Eingangshalbbildes zu einer Seite des Ausgangshalbbildes zu spezifizieren, und der zweite zugeordnete Vektor verwendet wird, um die Bewegung des Eingangshalbbildes zu der anderen Seite des Ausgangshalbbildes zu spezifizieren.
3. Verfahren nach Anspruch 1, bei dem einer der zugeordneten Vektoren mit einem ersten Bildbereich im Zusammenhang steht und ein zweiter der zugeordneten Vektoren mit einem zweiten Bildbereich im Zusammenhang steht, der sich anders als der erste bewegt, wobei der entsprechende Ausgangsbildbereich aus einer Kombination der Vektorsumme bzw. der Resultierenden der zwei Vektoren auf die jeweiligen Eingangsbildbereiche gebildet wird, um das Auftreten eines Verschwimmens bzw. einer Unschärfe an der Kante eines sich bewegenden Objektes anzugeben.
4. Verfahren nach Anspruch 2, bei dem die zwei zugeordneten Vektoren mit den zwei jeweiligen Objekten in Zusammenhang stehen und die Vektorsumme kombiniert bzw. gebildet wird, um das Ausgangshalbbild zu bilden, falls festgestellt wird, daß zwei Objekte eine gleiche Wahrscheinlichkeit bzw. ein gleiches Recht dafür besitzen, daß sie sich in dem Ausgangsbild befinden.
5. Verfahren nach Anspruch 1, bei dem in den genannten gewissen Bildpunktbereichen keine zulässige Bewegungsbestimmung vorgenommen werden kann, und bei dem ein erster Vektor der zugeordneten Vektoren einem Bereitschafts- bzw. Rückfallmode und der zweite der zugeordneten Vektoren einem Vektor aus einem benachbarten Meßblock entspricht.
6. Verfahren nach Anspruch 1, bei dem auf der Basis der zwei zugeordneten Vektoren zwei Vorhersagen für den Wert der gewissen Bildpunktbereiche gemacht werden und bei dem die zwei Vektorsummen mit Hilfe eines einfachen oder gewichteten Mittelwertes kombiniert bzw. gebildet werden.
7. Verfahren nach Anspruch 6, bei dem die Zusammensetzung in Abhängigkeit von einem zeitabhängigen Koeffizienten vorgenommen wird, an den eine glättende Filterfunktion angelegt wird.
8. Verfahren nach Anspruch 1, bei dem für jeden aus einer Anzahl von Blöcken des Bildes Bewegungsvektoren abgeleitet werden und die so abgeleiteten Vektoren ausgewählt werden, um eine Anzahl von Vektoren für das Bild oder Teilbereiche davon zur Verfügung zu stellen.
9. Verfahren nach Anspruch 1, bei dem die Vektoren mit Hilfe eines Phasenkorrelationsverfahrens abgeleitet werden.
10. Verfahren nach Anspruch 2, bei dem die Zuordnung durch gleichzeitigen Vergleich der Inhalte von drei Eingangsbildern erfolgt.
11. Verfahren nach Anspruch 1, bei dem einem Eingangshalbbild zwei Vektorhalbbilder zugeordnet werden, wobei ein erstes Vektorhalbbild durch Rückwärtsprojektion auf ein vorheriges Eingangshalbbild zugeordnet wird und ein zweites Eingangshalbbild durch Vorwärtsprojektion auf ein darauffolgendes Eingangshalbbild zugeordnet wird.
12. Verfahren nach Anspruch 1, bei dem Bildpunktbereichen, denen zwei oder mehr Vektoren zugeordnet sind, diese Vektoren aus verschiedenen Sätzen von Bewegungsvektoren zugeordnet wurden.
13. Vorrichtung zum Video-Bewegungsausgleich, die eine Vektorableitungseinrichtung zum Ableiten einer Anzahl von Bewegungsvektoren für jeden einer Anzahl von Blöcken von jedem Eingangshalbbild aus einem Vergleich des Eingangshalbbildes mit vorherigen und darauffolgenden Eingangshalbbildern und eine Vektorzuordnungseinrichtung zur Zuordnung von jedem der Vektoren zu einzelnen bzw. besonderen Bildpunktbereichen des Eingangshalbbildes sowie eine Einrichtung zum Ableiten eines Ausgangshalbbildes durch Zuordnung von Vektoren von zumindest einem der Eingangshalbbilder zu Bildpunktbereichen des Ausgangshalbbildes umfaßt, wobei gewisse Bildpunktbereiche zwei oder mehr gültige bzw. zulässige Vektoren zugeordnet sind.
14. Verfahren nach Anspruch 1, bei dem jedem Bildpunktbereich eines Eingangshalbbildes zumindest zwei Vektoren zugeordnet sind.
15. Verfahren nach Anspruch 1, bei dem ein erster Vektor, der einem Bildpunktbereich eines Eingangshalbbildes zugeordnet ist, durch Rückwärtsprojektion auf ein vorheriges Eingangshalbbild und ein zweiter Vektor, der dem gleichen Bildpunktbereich zugeordnet ist, durch Vorwärtsprojektion auf ein darauffolgendes Eingangshalbbild abgeleitet wird.
16. Verfahren nach Anspruch 1, bei dem der Satz von Bewegungsvektoren einen Durchschnitt bzw. Mittelwert der Sätze von Bewegungsvektoren bildet, der aus Vergleichen zwischen dem Eingangshalbbild und den diesem unmittelbar vorangehenden und unmittelbar folgenden Eingangshalbbildern abgeleitet wird.
17. Verfahren nach Anspruch 16, bei dem der Mittelwert ein gewichteter Mittelwert ist.
18. Verfahren nach Anspruch 1, bei dem der Vektorableitungsschritt die Schritte umfaßt, daß ein erster Satz von Bewegungsvektoren durch Vergleichen eines ersten und zweiten Eingangshalbbildes abgeleitet wird, daß ein zweiter Satz von Bewegungsvektoren durch Vergleichen des zweiten und eines dritten Eingangshalbbildes abgeleitet wird, und daß ein dritter Satz von Vektoren aus den ersten und zweiten Sätzen abgeleitet wird.
19. Verfahren nach Anspruch 18, bei dem die Eingangshalbbilder aufeinanderfolgende Halbbilder in einer Sequenz bzw. Bildfolge darstellen.
20. Verfahren nach Anspruch 18, das den Schritt einer Zuordnung der Vektoren des dritten Satzes zu Bildpunktbereichen des Bildes einschließt.
21. Verfahren nach Anspruch 18, bei dem der Zuordnungsschritt eine Zuordnung der Vektoren des dritten Satzes zu Bildpunktbereichen des Bildes in dem zweiten Eingangshalbbild umfaßt.
22. Verfahren nach Anspruch 1, bei dem der Vektorableitungsschritt die Schritte umfaßt, daß erste, zweite und dritte Sätze von Bewegungsvektoren von ersten und zweiten, zweiten und dritten sowie dritten und vierten Eingangshalbbildem abgeleitet werden und daß ein vierter Satz von Bewegungsvektoren aus den ersten, zweiten und dritten Sätzen abgeleitet wird.
23. Verfahren nach Anspruch 22, bei dem der vierte Satz von Bewegungsvektoren aus einem Mittelwert der ersten, zweiten und dritten Sätze abgeleitet wird.
24. Verfahren nach Anspruch 23, bei dem der Mittelwert ein gewichteter Mittelwert ist.
25. Verfahren nach Anspruch 24, bei dem die Eingangshalbbilder aufeinanderfolgende Halbbilder in einer Bildfolge darstellen.
26. Verfahren nach Anspruch 24, das den Schritt einer Zuordnung von Vektoren des vierten Satzes zu Bildpunktbereichen in einem Bild einschließt, das von dem Videosignal dargestellt wird.
27. Verfahren nach Anspruch 26, bei dem die Vektoren Bildpunktbereichen der zweiten und dritten Eingangshalbbilder zugeordnet sind.
28. Verfahren nach Anspruch 27, bei dem dem zweiten Eingangshalbbild Vektoren mit Hilfe eines Vorwärtsprojektionsverfahrens und dem dritten Eingangshalbbild Vektoren mit Hilfe eines Rückwärtsprojektionsverfahrens zugeordnet werden.
29. Verfahren nach Anspruch 24, das den Schritt einer Wiederholung des Vorgangs für das zweite, dritte, vierte und ein fünftes Eingangshalbbild einschließt und so einen fünften Satz von Bewegungsvektoren ableitet.
30. Verfahren nach Anspruch 24, bei dem die Sätze von Bewegungsvektoren mit Hilfe eines Phasenkorrelationsverfahrens abgeleitet werden.
31. Vorrichtung zum Ableiten eines Satzes von Bewegungsvektoren, geeignet zur Verwendung in einem Bewegungsausgleichssystem, das gemäß dem Verfahren nach irgendeinem vorhergehenden Anspruch arbeitet, welche Vorrichtung mindestens zwei Halbbildverzögerungseinrichtungen, die in Reihe geschaltet sind und eine Sequenz von Videohalbbildern empfangen, mindestens zwei Bewegungsvektor-Ableitungseinrichtungen, die jeweils Eingangshalbbilder von dem Eingang und Ausgang einer entsprechenden Halbbildverzögerungseinrichtung empfangen, und eine Vereinigungseinrichtung umfaßt, die mit den Ausgängen der Vektorableitungseinrichtungen verbunden ist und einen Ausgang aufweist, der den Satz von Bewegungsvektoren erzeugt.
DE69223925T 1991-05-24 1992-05-26 Videobildverarbeitung Expired - Lifetime DE69223925T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB919111348A GB9111348D0 (en) 1991-05-24 1991-05-24 Video signal processing
GB919118781A GB9118781D0 (en) 1991-09-03 1991-09-03 Video image processing
PCT/GB1992/000952 WO1992021201A1 (en) 1991-05-24 1992-05-26 Video image processing

Publications (2)

Publication Number Publication Date
DE69223925D1 DE69223925D1 (de) 1998-02-12
DE69223925T2 true DE69223925T2 (de) 1998-06-18

Family

ID=26298953

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69223925T Expired - Lifetime DE69223925T2 (de) 1991-05-24 1992-05-26 Videobildverarbeitung

Country Status (19)

Country Link
US (1) US6011596A (de)
EP (1) EP0540714B1 (de)
JP (1) JP3226539B2 (de)
CN (1) CN1079350A (de)
AT (1) ATE162037T1 (de)
AU (1) AU660020B2 (de)
BG (1) BG97326A (de)
BR (1) BR9205296A (de)
CA (1) CA2087946A1 (de)
CZ (1) CZ399892A3 (de)
DE (1) DE69223925T2 (de)
DK (1) DK0540714T3 (de)
ES (1) ES2112316T3 (de)
FI (1) FI930280A (de)
GB (1) GB2256341B (de)
HU (1) HU9300005D0 (de)
NO (1) NO930221L (de)
SK (1) SK399892A3 (de)
WO (1) WO1992021201A1 (de)

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2265783B (en) * 1992-04-01 1996-05-29 Kenneth Stanley Jones Bandwidth reduction employing a classification channel
GB9214218D0 (en) * 1992-07-03 1992-08-12 Snell & Wilcox Ltd Motion compensated video processing
GB2277000B (en) * 1993-04-08 1997-12-24 Sony Uk Ltd Motion compensated video signal processing
GB2279531B (en) * 1993-06-24 1997-07-16 Sony Uk Ltd Motion compensated image interpolation
US20010041843A1 (en) * 1999-02-02 2001-11-15 Mark Modell Spectral volume microprobe arrays
GB2311183A (en) * 1996-03-13 1997-09-17 Innovision Plc Gradient based motion estimation
US6847490B1 (en) * 1997-01-13 2005-01-25 Medispectra, Inc. Optical probe accessory device for use in vivo diagnostic procedures
US6711278B1 (en) * 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
US6983018B1 (en) 1998-11-30 2006-01-03 Microsoft Corporation Efficient motion vector coding for video compression
US6563953B2 (en) 1998-11-30 2003-05-13 Microsoft Corporation Predictive image compression using a single variable length code for both the luminance and chrominance blocks for each macroblock
US6418166B1 (en) 1998-11-30 2002-07-09 Microsoft Corporation Motion estimation and block matching pattern
US6411838B1 (en) * 1998-12-23 2002-06-25 Medispectra, Inc. Systems and methods for optical examination of samples
US6427082B1 (en) * 1998-12-23 2002-07-30 Medispectra, Incorporated Optical methods and systems for rapid screening of the cervix
US6499060B1 (en) 1999-03-12 2002-12-24 Microsoft Corporation Media coding for loss recovery with remotely predicted data units
US7260248B2 (en) * 1999-12-15 2007-08-21 Medispectra, Inc. Image processing using measures of similarity
US7187810B2 (en) * 1999-12-15 2007-03-06 Medispectra, Inc. Methods and systems for correcting image misalignment
US20020007122A1 (en) * 1999-12-15 2002-01-17 Howard Kaufman Methods of diagnosing disease
GB2361372B (en) * 2000-04-07 2004-08-25 Snell & Wilcox Ltd Video signal processing
US6839661B2 (en) * 2000-12-15 2005-01-04 Medispectra, Inc. System for normalizing spectra
WO2002067576A1 (en) * 2001-02-21 2002-08-29 Koninklijke Philips Electronics N.V. Facilitating motion estimation
EP1442608B1 (de) * 2001-10-29 2015-05-06 Ceva D.S.P. Ltd. Verfahren und vorrichtung zur bewegungsschätzung in einer digitalen bildsequenz
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
US7305034B2 (en) * 2002-04-10 2007-12-04 Microsoft Corporation Rounding control for multi-stage interpolation
US7620109B2 (en) * 2002-04-10 2009-11-17 Microsoft Corporation Sub-pixel interpolation in motion estimation and compensation
KR100985026B1 (ko) * 2002-05-28 2010-10-04 코닌클리케 필립스 일렉트로닉스 엔.브이. 영상의 모션 블러, 플리커 및 밝기 손실을 감소시키기 위한 방법, 비-스트로보스코픽 디스플레이 디바이스
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7280700B2 (en) * 2002-07-05 2007-10-09 Microsoft Corporation Optimization techniques for data compression
US7136518B2 (en) * 2003-04-18 2006-11-14 Medispectra, Inc. Methods and apparatus for displaying diagnostic data
US7459696B2 (en) * 2003-04-18 2008-12-02 Schomacker Kevin T Methods and apparatus for calibrating spectral data
US7282723B2 (en) * 2002-07-09 2007-10-16 Medispectra, Inc. Methods and apparatus for processing spectral data for use in tissue characterization
US7309867B2 (en) * 2003-04-18 2007-12-18 Medispectra, Inc. Methods and apparatus for characterization of tissue samples
US20040209237A1 (en) * 2003-04-18 2004-10-21 Medispectra, Inc. Methods and apparatus for characterization of tissue samples
US20040208390A1 (en) * 2003-04-18 2004-10-21 Medispectra, Inc. Methods and apparatus for processing image data for use in tissue characterization
US20040208385A1 (en) * 2003-04-18 2004-10-21 Medispectra, Inc. Methods and apparatus for visually enhancing images
US7469160B2 (en) * 2003-04-18 2008-12-23 Banks Perry S Methods and apparatus for evaluating image focus
US6818903B2 (en) * 2002-07-09 2004-11-16 Medispectra, Inc. Method and apparatus for identifying spectral artifacts
US6768918B2 (en) * 2002-07-10 2004-07-27 Medispectra, Inc. Fluorescent fiberoptic probe for tissue health discrimination and method of use thereof
US7154952B2 (en) 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
US10554985B2 (en) 2003-07-18 2020-02-04 Microsoft Technology Licensing, Llc DC coefficient signaling at small quantization step sizes
US7426308B2 (en) * 2003-07-18 2008-09-16 Microsoft Corporation Intraframe and interframe interlace coding and decoding
US20050013498A1 (en) 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US7738554B2 (en) 2003-07-18 2010-06-15 Microsoft Corporation DC coefficient signaling at small quantization step sizes
US7609763B2 (en) * 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
US7499495B2 (en) * 2003-07-18 2009-03-03 Microsoft Corporation Extended range motion vectors
KR101135454B1 (ko) * 2003-09-02 2012-04-13 엔엑스피 비 브이 특정 이미지의 특정 픽셀 값 결정 방법, 픽셀 값 결정 유닛, 이미지 처리 장치 및 컴퓨터 판독 가능한 저장 매체
US7577198B2 (en) * 2003-09-07 2009-08-18 Microsoft Corporation Number of reference fields for an interlaced forward-predicted field
US7577200B2 (en) * 2003-09-07 2009-08-18 Microsoft Corporation Extended range variable length coding/decoding of differential motion vector information
US7599438B2 (en) * 2003-09-07 2009-10-06 Microsoft Corporation Motion vector block pattern coding and decoding
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US8085844B2 (en) * 2003-09-07 2011-12-27 Microsoft Corporation Signaling reference frame distances
US7317839B2 (en) * 2003-09-07 2008-01-08 Microsoft Corporation Chroma motion vector derivation for interlaced forward-predicted fields
US7620106B2 (en) * 2003-09-07 2009-11-17 Microsoft Corporation Joint coding and decoding of a reference field selection and differential motion vector information
US7724827B2 (en) 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US7567617B2 (en) * 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
US7623574B2 (en) * 2003-09-07 2009-11-24 Microsoft Corporation Selecting between dominant and non-dominant motion vector predictor polarities
US7616692B2 (en) * 2003-09-07 2009-11-10 Microsoft Corporation Hybrid motion vector prediction for interlaced forward-predicted fields
EP1665806A1 (de) * 2003-09-17 2006-06-07 Koninklijke Philips Electronics N.V. Bewegungsvektorfeld-neu-timing
US8000392B1 (en) 2004-02-27 2011-08-16 Vbrick Systems, Inc. Phase correlation based motion estimation in hybrid video compression
US7751482B1 (en) * 2004-02-27 2010-07-06 Vbrick Systems, Inc. Phase correlation based motion estimation in hybrid video compression
EP1723607B1 (de) * 2004-03-02 2018-11-07 Philips Intellectual Property & Standards GmbH Bewegungskompensation
US8634413B2 (en) 2004-12-30 2014-01-21 Microsoft Corporation Use of frame caching to improve packet loss recovery
US9077960B2 (en) 2005-08-12 2015-07-07 Microsoft Corporation Non-zero coefficient block pattern coding
US8265145B1 (en) 2006-01-13 2012-09-11 Vbrick Systems, Inc. Management and selection of reference frames for long term prediction in motion estimation
US8254455B2 (en) * 2007-06-30 2012-08-28 Microsoft Corporation Computing collocated macroblock information for direct mode macroblocks
US7990476B2 (en) * 2007-09-19 2011-08-02 Samsung Electronics Co., Ltd. System and method for detecting visual occlusion based on motion vector density
KR101540138B1 (ko) * 2007-12-20 2015-07-28 퀄컴 인코포레이티드 적응적 조사영역을 갖는 모션추정 장치 및 방법
KR101536794B1 (ko) * 2007-12-20 2015-07-14 퀄컴 인코포레이티드 후광현상이 줄어든 영상보간 장치 및 방법
US8189666B2 (en) 2009-02-02 2012-05-29 Microsoft Corporation Local picture identifier and computation of co-located information
US8537283B2 (en) 2010-04-15 2013-09-17 Qualcomm Incorporated High definition frame rate conversion
US8902359B1 (en) * 2011-03-08 2014-12-02 Marvell International Ltd. Processor implemented systems and methods for handling of occlusion for frame rate upconversion
CN102542575B (zh) * 2011-12-06 2014-09-10 晶门科技(深圳)有限公司 基于运动向量投影的静止物体和运动背景区域的检测方法及装置
US9774881B2 (en) 2014-01-08 2017-09-26 Microsoft Technology Licensing, Llc Representing motion vectors in an encoded bitstream
US9749642B2 (en) 2014-01-08 2017-08-29 Microsoft Technology Licensing, Llc Selection of motion vector precision
US9942560B2 (en) 2014-01-08 2018-04-10 Microsoft Technology Licensing, Llc Encoding screen capture data
WO2015147689A1 (en) * 2014-03-28 2015-10-01 Huawei Technologies Co., Ltd. Method and device for generating a motion-compensated video frame
US9794588B2 (en) 2015-09-30 2017-10-17 Sony Corporation Image processing system with optical flow recovery mechanism and method of operation thereof
US10352838B2 (en) * 2016-09-05 2019-07-16 Omnitek Partners Llc Mechanical high spin-shock testing machines
US10671646B2 (en) * 2016-12-22 2020-06-02 Aon Global Operations Ltd (Singapore Branch) Methods and systems for linking data records from disparate databases

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR910009880B1 (ko) * 1983-07-25 1991-12-03 가부시기가이샤 히다찌세이사꾸쇼 인터레이스된 텔레비젼 신호중의 화상의 움직임 검출회로
DE3663875D1 (en) * 1986-03-08 1989-07-13 Ant Nachrichtentech Motion compensating field interpolation method using a hierarchically structured displacement estimator
WO1987005769A1 (en) * 1986-03-19 1987-09-24 British Broadcasting Corporation Tv picture motion measurement
DE3622487A1 (de) * 1986-07-02 1988-01-14 Schering Ag Arzneimittel mit verzoegerter wirkstoffabgabe
FR2616248B1 (fr) * 1987-06-04 1992-04-24 Thomson Grand Public Procede d'interpolation temporelle d'images et dispositif pour la mise en oeuvre de ce procede
EP0294956B1 (de) * 1987-06-09 1994-07-20 Sony Corporation Reduzierung der Bewegungsvektoren in Fernsehbildern
GB2231226B (en) * 1989-04-27 1993-09-22 Sony Corp Motion dependent video signal processing
GB2231752B (en) * 1989-04-27 1993-08-04 Sony Corp Motion dependent video signal processing
GB2231225B (en) * 1989-04-27 1993-10-20 Sony Corp Motion dependent video signal processing
GB2231227B (en) * 1989-04-27 1993-09-29 Sony Corp Motion dependent video signal processing
GB2231743B (en) * 1989-04-27 1993-10-20 Sony Corp Motion dependent video signal processing
US5170144A (en) * 1989-07-31 1992-12-08 Solatrol, Inc. High efficiency, flux-path-switching, electromagnetic actuator
GB9013642D0 (en) * 1990-06-19 1990-08-08 British Broadcasting Corp Video signal processing
CA2092076A1 (en) * 1990-09-20 1992-03-21 Graham Alexander Thomas Video image processing
GB2248361B (en) * 1990-09-28 1994-06-01 Sony Broadcast & Communication Motion dependent video signal processing
GB2249906B (en) * 1990-11-15 1994-04-27 Sony Broadcast & Communication Motion compensated interpolation of images
US5185819A (en) * 1991-04-29 1993-02-09 General Electric Company Video signal compression apparatus for independently compressing odd and even fields
GB9206396D0 (en) * 1992-03-24 1992-05-06 British Broadcasting Corp Video image motion measurement

Also Published As

Publication number Publication date
WO1992021201A1 (en) 1992-11-26
CA2087946A1 (en) 1992-11-25
GB9211154D0 (en) 1992-07-08
FI930280A0 (fi) 1993-01-22
BG97326A (bg) 1993-12-24
DK0540714T3 (da) 1998-09-07
SK399892A3 (en) 1993-07-07
US6011596A (en) 2000-01-04
FI930280A (fi) 1993-01-22
DE69223925D1 (de) 1998-02-12
CN1079350A (zh) 1993-12-08
AU660020B2 (en) 1995-06-08
CZ399892A3 (en) 1993-05-12
JPH06500225A (ja) 1994-01-06
EP0540714B1 (de) 1998-01-07
GB2256341B (en) 1995-02-15
HU9300005D0 (en) 1993-04-28
NO930221L (no) 1993-01-25
NO930221D0 (no) 1993-01-22
GB2256341A (en) 1992-12-02
BR9205296A (pt) 1993-07-27
JP3226539B2 (ja) 2001-11-05
EP0540714A1 (de) 1993-05-12
ES2112316T3 (es) 1998-04-01
AU1760192A (en) 1992-12-30
ATE162037T1 (de) 1998-01-15

Similar Documents

Publication Publication Date Title
DE69223925T2 (de) Videobildverarbeitung
DE69605936T2 (de) Bewegungskompensierte interpolation
DE69123359T3 (de) Videobildverarbeitung
DE69031055T2 (de) Bewegungsabhängige Videosignalverarbeitung
DE69022470T2 (de) Bewegungsabhängige Videosignalverarbeitung.
DE3850709T2 (de) Reduzierung der Bewegungsvektoren in Fernsehbildern.
DE69625632T2 (de) Verfahren und Vorrichtung zum Erzeugen eines Bildes hoher Auflösung aus einer Folge von Bewegungsbildern niedriger Auflösung
DE69515287T2 (de) Verfahren zur erzeugung von synthesebild
DE69324922T2 (de) Bewegungsausgeglichene fernsehbildbearbeitung
DE69418244T2 (de) Videorauschreduktionsystem unter Verwendung einer Mehrbild-Bewegungsabschätzung, Unterdrückung von Abweichungen und Bahnkorrektur
DE69609482T2 (de) Verfahren zur Interpolation von Vollbilden
DE69509141T2 (de) Verfahren und digitale Schaltung zum Aufheben des Zeilensprungverfahrens während der Darstellung von Videobildern
EP0472239B1 (de) Verfahren zur Ermittlung horizontaler Bewegungen in den Bildinhalten eines Fernsehsignals
DE69021431T2 (de) Bewegungsabhängige Videosignalverarbeitung.
DE69230115T2 (de) Auswertungsvorrichtung und Methode verwendbar für ein Gerät zur Detektion von Bewegungsvektoren
DE69126930T2 (de) Video-Bewegungsvektorabschätzung mit asymmetrischem Aktualisierungsgebiet
DE2062922A1 (de) Voraussage Video Codierung unter Ver Wendung der gemessenen Objektgeschwin digkeit
EP0154125A2 (de) Verfahren zur bewegungsadaptiven Interpolation von Fernsehbildsequenzen sowie Anordnung und Anwendungen hierzu
DE69028792T2 (de) Bewegungsabhängige Videosignalverarbeitung
DE69320461T2 (de) Bewegungskompensierte Videobildverarbeitung
DE4023449C1 (de)
DE69031144T2 (de) Bewegungsabhängige Videosignalverarbeitung
DE69123844T2 (de) Videosignalverarbeitung
DE69031322T2 (de) Bewegungsabhängige Videosignalverarbeitung
DE69028239T2 (de) Bewegungsabhängige Videosignalverarbeitung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition