DE69223925T2 - Videobildverarbeitung - Google Patents
VideobildverarbeitungInfo
- Publication number
- DE69223925T2 DE69223925T2 DE69223925T DE69223925T DE69223925T2 DE 69223925 T2 DE69223925 T2 DE 69223925T2 DE 69223925 T DE69223925 T DE 69223925T DE 69223925 T DE69223925 T DE 69223925T DE 69223925 T2 DE69223925 T2 DE 69223925T2
- Authority
- DE
- Germany
- Prior art keywords
- vectors
- field
- vector
- input
- fields
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000012545 processing Methods 0.000 title description 6
- 239000013598 vector Substances 0.000 claims abstract description 285
- 238000000034 method Methods 0.000 claims abstract description 69
- 230000033001 locomotion Effects 0.000 claims abstract description 62
- 230000008569 process Effects 0.000 claims description 7
- 238000009795 derivation Methods 0.000 claims description 5
- 238000005259 measurement Methods 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims 1
- 230000036962 time dependent Effects 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 description 26
- 238000013507 mapping Methods 0.000 description 12
- 230000001360 synchronised effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 230000001934 delay Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000002156 mixing Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 101100243951 Caenorhabditis elegans pie-1 gene Proteins 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0135—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
- H04N7/014—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/262—Analysis of motion using transform domain methods, e.g. Fourier domain methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/547—Motion estimation performed in a transform domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/144—Movement detection
- H04N5/145—Movement estimation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Television Systems (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Color Television Image Signal Generators (AREA)
- Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
- Lubricants (AREA)
- Lubrication Of Internal Combustion Engines (AREA)
- Picture Signal Circuits (AREA)
- Studio Circuits (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Image Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Color Television Systems (AREA)
Description
- Diese Erfindung betrifft die Videobildverarbeitung und insbesondere die Ableitung und Zuteilung bzw. Zuordnung von Bewegungsvektoren, die die Richtung und Größe einer augenblicklichen Bewegung zu verschiedenen Bereichen eines Videobildes angeben, um die Erzeugung von gewünschten Ausgabe- bzw. Ausgangsbildern zu fördern.
- Unser britisches Patent Nr. GB-B-2188510 beschreibt ein Verfahren zur Erzeugung eines Verzeichnisses bzw. einer Liste von Bewegungsvektoren, die über den gesamten Bereich eines Videobildes anwendbar sind, und zur Zuordnung eines passenden Bewegungsvektors von den Bewegungsvektoren in dem Verzeichnis zu jedem Bereich des Bildes. Andere Verfahren zur Erzeugung solcher Listen von Bewegungsvektoren sind möglich. Die Bereiche, auf die die Vektoren angewendet werden, können so klein sein wie ein einzelnes Bildelement (Pixel) oder können eine Anzahl von Pixeln umfassen, d.h. einen Block des Bildes.
- Solche Bewegungsvektoren sind besonders geeignet, wenn Ausgangsvideohalbbilder erzeugt werden sollen, die einem Zeitpunkt zwischen zwei Eingangshalbbildern entsprechen. Solche Ausgangshalbbilder sind in Videobildverarbeitungssystemen erforderlich, die Videobilder an einen Film oder von diesem übertragen, bei der Umwandlung von Normen bzw. Standards oder bei der Erzeugung von Zeitlupeneffekten (Slow Motion).
- Bei allen solchen Anwendungen ist es wünschenswert, ein scharfes, sich gleichmäßig bewegendes Bild zu erzeugen. Für den Fall einer Slow-Motion-Erzeugung, falls das Verfahren beispielsweise mit einer mit einem Verschluß versehenen CCD-Kamera verwendet wird, können dann Bilder mit einer Qualität erzeugt werden, die derjenigen Qualität nahekommt, die man mit einer Kamera mit hoher Bildfrequenz erreichen kann. Ein mögliches Verfahren zur Erzeugung der Liste von Bewegungsvektoren und zur anschließenden Zuordung von diesen zu einzelnen Bildelementen ist in unserer internationalen Patentanmeldung WO-A-9205662 vorgeschlagen worden. Dieses Verfahren ist als Vier-Halbbild-Algorithmus bekannt und verwendet insgesamt vier Eingangshalbbilder zur Zuordnung bzw. Zuteilung eines Ausgangsvektorhaibbildes. Man hat herausgefunden, daß für gewisse Bewegungsarten und insbesondere für eine Drehbewegung diese Art von System nicht immer zufriedenstellende Ergebnisse herbeiführt.
- Ein weiteres bekanntes System wird in der britischen Patentanmeldung GB-A- 2231743 beschrieben. Bei diesem Verfahren wird eine Liste von Versuchsvektoren abgeleitet, und zwar unter Verwendung eines Blockübereinstimmungsverfahrens zwischen einem Paar von Halbbildern, die mit F&sub1; und F&sub1; bezeichnet werden. Diese Liste oder Menii bzw. Auswahl von Vektoren wird dann über drei Halbbildintervalle F&sub1; bis F&sub4; angewendet, um ein Vektorhalbbild zum Zeitpunkt eines gewünschten Ausgangsvektorhalbbildes zu erzeugen. Bei diesem Verfahren treten auch Schwierigkeiten auf, weil dem Ausgangsvektorhalbbild Vektoren zugeordnet werden, ohne daß notwendigerweise berücksichtigt würde, ob ein durch den Vektor dargestelltes Objekt in den beiden benachbarten Halbbilder vorhanden ist oder nicht. Somit können Fehler in Ausgangshalbbildem auftreten. Wenn das nächste Intervall (F&sub2; bis F&sub3;) verwendet wird, muß auch ein neuer Satz von Vektoren für F&sub2; abgeleitet und anschließend zugeordnet werden. Dies führt zu einer zusätzlichen Berechnung und erhöht die Komplexität.
- Das Dokument "Motion Compensated Image Interpolation" von C. Cafforio et al., publiziert in den IEEE Transactions on Communications, Band 38, Nr.2, Februar 1990, New York, Seiten 215-222, beschreibt einen Algorithmus zur bewegungsausgleichenden Halbbildinterpolation. Dieser Algoritlimus verwendet Vorwärts- und Rückwärtsbewegungsvektorhalbbilder, um zuverlässig verbundene Punkte in aufeinanderfolgenden Bildern zu detektieren. Eine offensichtliche Schwierigkeit bei diesem Algorithmus liegt jedoch in dem Vorhandensein von verdeckten oder nicht verdeckten Teilen, die in nur einem der zwei zur Verfügung stehenden Bilder auftreten.
- Wir sind uns bewußt gewesen, daß für eine Folge von drei Videobildern jegliches Objekt, das in einem Eingangshalbbild vorliegt, entweder in dem vorherigen Eingangsvideohalbbild oder in dem darauffolgenden Eingangsvideohalbbild vorhanden sein wird. Somit liegt in diesen drei Halbbildern die gesamte Information vor, die benötigt wird, um ein Ausgangszwischenhalbbild zu erzeugen. Somit besteht der einzige Weg, um sicherzustellen, daß Vektoren korrekt zugeordnet werden, wenn Ausgangshalbbilder erzeugt werden, darin, die Vektoren speziell den Eingangshalbbildern zuzuordnen, bevor Ausgangshalbbilder erzeugt werden. Zwei Verfahren zur Erzeugung der notwendigen Vektormenüs und zur Zuordnung dieser zu Eingangshalbbildern vor der Ableitung von Ausgangshalbbildem werden in dieser Patentanmeldung beschrieben. Wegen der Art und Weise, in der diese funktionieren, werden diese als der Drei-Halbbild-Algorithmus (three field algorithm) und als der Zwei- Halbbild-Algorithmus (two field algorithm) bezeichnet.
- Die vorliegende Erfindung wird in den beigefügten Patentansprüchen festgelegt, auf die nachfolgend Bezug genommen werden soll.
- Die Effindung wird nachfolgend ausführlicher und in beispielhafter Weise, unter Bezugnahme auf die beigefügten Figuren, beschrieben werden, in denen:
- Fig. 1 eine Darstellung ist, die die Ableitung einer Korrelationsfläche mit Hilfe des Drei-Halbbild-Algorithmusses darstellt;
- Fig. 2 eine Darstellung ist, die die Bewegung des Vordergrundes und des Hintergrundes beispielsweise zwischen einer Folge von vier aufeinanderfolgenden Halbbildern darstellt;
- Fig. 3 eine Darstellung ist, die ein Verfahren zur Vektorzuteilung darstellt;
- Fig. 4 eine Darstellung ist, die die Ableitung einer Korrelationsfläche mit Hilfe des Zwei-Halbbild-Algorithmusses darstellt;
- Fig. 5 eine Darstellung ist, die die Vektorzuordnung für Vektormenüs darstellt, wie sie in Fig. 4 erzeugt werden;
- Fig. 6 ein Blockschema einer Schaltung ist, die die Korrelationsfläche aus Fig. 1 erzeugt; und
- Fig. 7 ein Blockschema einer Schaltung zur Erzeugung der Korrelationsfläche aus Fig. 4 ist.
- Zunächst wird das zuvor bezeichnete Drei-Vektorhalbbild-Zuordnungsverfahren beschrieben werden.
- Das Drei-Vektorhalbbild-Zuordnungsverfahren wird anhand von Fig. 1 beschrieben, die drei zeitlich versetzte Haibbilder f&sub0;, f&sub1; und f&sub2; zu den Zeitpunkten t&sub0;, t&sub1; und t&sub2; zeigt.
- Unter Verwendung eines Verfahrens von dem in unserer britischen Patentschrift Nr. GB-B-2188510 dargelegten Typ, einem Phasenkorrelationsverfahren auf Grundlage einer schnellen Fourier-Transformation (Fast Fourier Transformation), wird eine Phasenkorrelationsfläche bzw. ein Phasenkorrelationsflächenraum P&sub1; abgeleitet, um das Vektorhalbbild darzustellen, welche bzw. welcher die Differenzen zwischen Halbbildern f&sub0; und f&sub1; festlegt. Eine zweite Korrelationsfläche P2 wird abgeleitet, um die Differenzen zwischen f&sub1; und f&sub2; darzustellen. Diese Korrelationsflächen werden für jeden einer Anzahl von Blöcken bzw. Feldern der Eingangshalbbilder F&sub0;, F&sub1; und F&sub2; abgeleitet. Typischerweise wird das Eingangsbild vor der Phasenkorrelation in 108 Blöcke unterteilt, die in Form von 9 Zeilen auf 12 Blöcke bzw. Spalten angeordnet sind. Die Phasenkorrelation wird zwischen demselben Block von zwei aufeinanderfolgenden sequentiellen Halbbildern f&sub0; und f&sub1; ausgeführt.
- Nachdem die Korrelationsflächen P&sub1; und P2 für entsprechende Blöcke in f&sub0; und f&sub1; und f&sub2; abgeleitet worden sind, werden diese zeitlich gefiltert, indem diese in einem Summierer 2 aufaddiert werden. Dies erzeugt eine Korrelationsfläche PT, die verwendet werden kann, um dem Eingangshalbbild f&sub1; Vektoren zuzuordnen. Diese Fläche PT wird Information über Objekte beinhalten, die in allen drei Haibbildern vorhanden sind, ebenso wie über Objekte, die nur in f&sub0; und f&sub1; oder in f&sub1; und f&sub2; vorhanden sind. Somit sollte es möglich sein, jedem Bildbereich in f&sub1; einen Vektor zuzuordnen.
- Ein Vektormenü bzw. eine Vektorauswahl wird von PT vor der Zuordnung von Vektoren zu f&sub1; abgeleitet, indem eine Suche vorgenommen wird, um die Peaks bzw. Extremwerte in der Korrelationsfläche zu lokalisieren. Eine Liste von beispielsweise bis zu fünf Extremwerten oberhalb eines voreingestellten Schwellenwertes wird ausgewählt, um eine Auswahl von Versuchsvektoren zur Zuordnung von Bild bereichen in dem Block in f&sub1; zu erzeugen, von dem die Fläche abgeleitet worden ist.
- Bevor die Auswahl von Versuchsvektoren f&sub1; zugeordnet wird, wird sie auf Kameraschwenk- und Zoombestandteile untersucht und werden geeignete Einstellungen vorgenommen. Verfahren zur Durchführung dieser Einstellungen werden in unserer britischen Patentanmeldung 9206396.5, veröffentlicht als GB-A-2280082, beschrieben.
- Diese so abgeleitete Vektorauswahl sollte einen Vektor umfassen, der für jedes Pixel in f&sub1; die Bewegung zwischen f&sub0; und f&sub1; sowie zwischen f&sub1; und f&sub2; eindeutig beschreibt.
- Der Zweck der Zuordnung ist es, Vektoren zu erzeugen, die den Pixeln von f&sub1; zugeordnet sind, die verwendet werden können, um zu der Ableitung eines Ausgangshalbbildes entweder zwischen f&sub0; und f&sub1; oder zwischen f&sub1; und f&sub2; beizutragen, indem die Daten dieses Pixels auf die Zeitposition des Ausgangshalbbildes projiziert werden. Ein Verfahren zur Zuordnung dieser Vektoren wird in unserer internationalen Patentanmeldung Nr. WO-A-9205662 beschrieben. Darin wird ein Vektor einem Pixel in f&sub1; gemäß demjenigen Vektor in der Versuchsvektorliste zugeordnet, der den kleinsten Gesamtfehler (Übereinstimmungsfehler) bei Ableitung der Projektion dieses Pixels mit diesem Vektor auf f&sub2; und auf f&sub0; ergibt. Schwierigkeiten bei einer solchen Zuordnung treten auf, wenn sich Vordergrundobjekte bewegen und folglich Bereiche des Hintergrundes des Bildes zwischen Halbbildem zum Vorschein bringen und abdunkeln bzw. verdecken. Einige Vorschläge, um mit diesen Schwierigkeiten fertigzuwerden, wurden in unserer internationalen Patentanmeldung wo- A-9205662 im Zusammenhang mit dem Vier-Halbbild-Algorithmus dargelegt und Abwandlungen dieser Vorschläge können bei der Zuordnung von Vektoren verwendet werden, die unter Verwendung des Drei-Halbbild-Algorithmusses abgeleitet werden.
- Von einer Szene von Vordergrundobjekten, die sich vor Hintergrundobjekten bewegen, sei angenommen, daß das Vordergrundobjekt den Hintergrund abdunkelt bzw. verdeckt. Die Bewegung des Vordergrundobjektes verdeckt ständig den Hintergrund bzw. macht diesen unscharf und bringt diesen wieder zum Vorschein. Alles, was bei einer Folge von drei Halbbildern im mittleren Halbbild sichtbar ist, sollte entweder in dem vorherigen Halbbild, in dem nächsten Halbbild oder in beiden vorhanden sein. Dies wird in Fig. 2 gezeigt. Die Ausnahme von dieser Regel ist der Fenstereffekt (window effect), der von einer Öffnung in dem Vordergrund hervorgerufen wird, die in jedem Halbbild etwas völlig anderes zeigt.
- Der Drei-Halbbild-Algorithmus wird verwendet, um eine Liste von Versuchsvektoren zu erzeugen und bei Verwendung von diesen kann jedes Element eines Bildes auf eine der folgenden Arten zugeordnet werden:
- a) Vordergrundobjekt; kleiner Übereinstimmungsfehler in Periode bzw. Zeitraum des mittleren Halbbildes
- b) verdeckter Hintergrund; kleiner Übereinstimmungsfehler in Periode des vorherigen Halbbildes, falls Halbbild 1 zugeordnet wird
- c) zum Vorschein gebrachter Hintergrund; kleiner Übereinstimmungsfehler in Periode des nächsten Halbbildes, falls Halbbild 2 zugeordnet wird
- d) fehlender Vektor/Fensterproblem; keine gute Übereinstimmung (match)
- Drei-Halbbild-Zuordnungen erzeugen ein Vektorhalbbild und ein Statushalbbild, die mit einem Eingangs- bzw. Eingabehalbbild zeitlich zusammenfallen. Falls ein synchronisiertes bzw. zeitlich abgestimmtes Eingangsvektorhalbbild für zwei aufeinanderfolgende Eingangshalbbilder zur Verfügung steht, ist die Erzeugung eines Ausgangszwischenhalbbildes bzw. eines zwischengeordneten Ausgangshalbbildes ein Logikproblem. Falls ein Vektor gerade in der Auswahl fehlt, ist natürlich ein Bereich des Bildes dazu bestimmt, mit Hilfe eines Bereitschaftsmodusses (fallback mode) erzeugt zu werden, und wird nicht bewegungskompensiert.
- Nach diesem Verfahren der Zuordnung wird der Vektorauswählprozeß ausgedehnt, um die Erzeugung von bis zu zwei Vektoren für jedes Ausgangspixel in Bereichen eines zum Vorschein gebrachten und verdeckten Hintergrundes zu ermöglichen. Dies ermöglicht einen sanften Ubergang bzw. Wechsel zwischen Vektoren, die zur Bildinterpolation an Übergangsbereichen zwischen Vordergrund- und Hintergrundobjekten verwendet werden. Beispielsweise wird für jedes Pixel, das als zum Vorschein gebrachter Hintergrund zugeordnet wird (d.h. zwischen den zwei letzten Halbbildern tritt der kleinste gewichtete Zuordnungsfehler auf), auch der Vektor bestimmt, der den kleinsten Zuordnungsfehler über die ersten zwei Halbbilder ergibt. Das Ausgangshalbbild wird dann von den darauffolgenden Halbbildem interpoliert, verschoben um den zugeordneten Vektor für einen zum Vorschein gebrachten Hintergrund (auf die erforderliche Ausgangszeit skaliert) gemeinsam mit einem Beitrag von den vorherigen Halbbildern, verschoben um diesen sekundären Vektor. Das relative Verhältnis der zwei Beiträge kann wie folgt festgelegt werden: ein Steuersignal wird für jedes zu interpolierende Pixel berechnet, das den Anteil des Ausgangshalbbildes spezifiziert, der den folgenden Halbbildern entnommen werden soll. Für alle Teilbilder bzw. Proben in Vordergrundbereichen wird dies eine Konstante gleich δt in Fig. 2 sein, was die normale Betriebsart eines zeitlichen Interpolationsfilters darstellt. In einem Bereich, der als zum Vorschein gebrachter Hintergrund markiert bzw. gekennzeichnet ist, wird das Steuersignal auf den Einheitswert gesetzt, weil die gesamte Information den folgenden Haibbildern entnommen werden sollte, wie zuvor für den Bereich e in Fig. 2 beschrieben wurde. Dieses Steuersignal wird dann einem räumlichen Tiefpaßfilter unterzogen, so daß es nicht länger nur innerhalb der Bereiche von zum Vorschein gebrachtem Hintergrund gleich dem Einheitswert sein wird.
- Die Bildelemente, die das Ausgangshalbbild umfassen, können dann in einer Art und Weise zusammengefaßt werden, die harte Kanten bzw. Kantenverläufe minimiert. In einem Originalausgangsbild bzw. Originalquellbild tritt eine Vermischung über einen sehr begrenzten Randbereich zwischen Objekten auf. Dieser Rand wird durch die Auflösung (resolution) beschrieben bzw. festgelegt.
- Für den Großteil des Ausgangshalbbildes werden die Bildelemente in beiden Bildern vor dem Bild nach der augenblicklichen Ausgangshalbbildposition vorhanden sein. Das Ausgangsbild wird mit Hilfe einer gewichteten Summe der zwei Eingangsbilder erzeugt. Der Beitrag von jeder der Eingangsvariablen ist ein Bildgrößenfeld (array), das mit assn_ff bezeichnet wird.
- Wenn verdeckter oder zum Vorschein gebrachter Hintergrund verwendet wird, wird das Ausgangs- bzw. Ausgabebild nur von einem Bild gebildet. Bei Erzeugung des Ausgangsbildes tritt ein Bildübergang bzw. ein Bildwechsel zwischen der Ein- Halbbild-Bilderzeugung und der Zwei-Halbbild-Bilderzeugung auf. Dieser Wechsel tritt zweimal auf, einmal zwischen dem Hintergrund von einem Halbbild und dem Hintergrund von zwei Halbbildern und wiederum zwischen dem Hintergrund bei Verwendung eines Halbbildes und dem Vordergrund, der von zwei Halbbildern erzeugt wird.
- Zwei einer Bildgröße zugeordnete Vektorhalbbilder werden während der Vektorzuordnung erzeugt (als assn_Vi und assn_2 bezeichnet). Das erste Vektorhalbbild entspricht dem Halbbild unmittelbar vor dem Zeitpunkt des Ausgangsbildes und das zweite dem Halbbild danach. Jedes Vektorhalbbild wird von einer anderen Auswahl abgeleitet, die für dieses Halbbild unter Verwendung des Drei-Halbbild-Algorithmusses abgeleitet wurde. Wenn ein minimaler Übereinstimrnungsfehler während der zentralen Periode bzw. während des mittleren Zeitintervalles gefunden wurde, wird beiden Vektorhaibbildern der gleiche Wert zugeteilt und assn_ff wird gleich dem Abstand (dist) zwischen Halbbild 1 und T0 gesetzt, der Ausgangshalbbildzeit. Das Ausgangsbild wird als ein gewichteter Mittelwert der zwei Haibbilder berechnet, und zwar in Abhängigkeit assn_ff:
- Aout = A1 x (1 - ass_ff) + A2 assn_ff
- assn_ff = dist (Abstand), falls die beste Übereinstimmung in der vorherigen Inter-Halbbildperiode vorlag
- Wenn die beste Übereinstimmung in der vorherigen Inter-Halbbildperiode vorliegt, wird der beste Vektor für diese Periode bzw. dieses Zeitintervall in Vektorhalbbild assn_vi eingesetzt und der beste Vektor für das mittlere Zeitintervall in assn_v2 eingesetzt. In diesem Fall wird assn_ff auf 0 gesetzt, um zu erzwingen, daß das Ausgangsbild aus Halbbild 1 erzeugt wird. Wenn die beste Übereinstimmung in der nächstfolgenden Inter-Halbbildperiode vorliegt, wird der beste Vektor für das mittlere Zeitintervall in das Vektor-Halbbild assn-v1 eingesetzt und der beste Vektor für dieses Zeitintervall in assn_v2. Dann wird assn_ff auf 1 gesetzt, um zu erzwingen, daß das Ausgangsbild aus Halbbild 2 erzeugt wird. Dies ist in Fig. 3 dargestellt.
- Man erkennt deshalb, daß zwei Vektoren jedem Pixel in jedem Halbbild zugeordnet sind; ein Vektor wird verwendet, wenn man in die Vorwärtsrichtung "schaut" und der andere Vektor wird verwendet, wenn man in die Rückwärtsrichtung "schaut". Während eines verdeckten und zum Vorschein gebrachten Hintergrundes zeigt ein Vektor auf den Hintergrund und wird verwendet, um den Hintergrund zu erhalten, während der andere Vektor auf das Vordergrundobjekt zeigt. Wegen der zugeteilten Werte von assn_ff wird zu einem Zeitpunkt nur ein Vektor verwendet, solange das Feld assn_ff räumlich gefiltert wird. Ein kleiner bzw. schmaler Tiefpaßfilter, angewendet auf assn_ff, wird eine Vermischung während Betriebsartänderungen bewirken.
- Das Ausgangshalbbild wird somit pixeiweise erzeugt, wobei das Halbbild vor T0 um dist*assn_V1 verschoben ist und das Halbbild nach T0 um (1-dist)*assn_V1.
- Es ist auch möglich, unter anderen Bedingungen jedem Pixel eine Anzahl von Bewegungsvektoren zuzuordnen, beispielsweise zwei. Diese Zuordnung könnte zum Eingabezeitpunkt oder zum Ausgabezeitpunkt erfolgen.
- Bei der bevorzugten, nachfolgend beschriebenen Ausführungsform wird das zum ersten Halbbild zeitgleiche (co-timed) Vektorhalbbild immer in Vorwärtsrichtung projiziert und das mit dem zweiten Halbbild zeitgleiche Vektorhalbbild immer rückwärts projiziert.
- Vor der Zuordnung wird das Eingangsbild durch einen kleinen bzw. schmalen 2D- Raumfilter gegeben. Die Impulsantwort des Filters entspricht einem Rechteck, so daß die Stufenantwort einer linearen Schräge entsprechen wird. Wenn der Übereinstimmungsfehler aus der Differenz zwischen Bildern berechnet wird, wird auch der Bildgradient berechnet. Wenn die Differenz durch den Gradienten dividiert wird, entspricht das Ergebnis einem Positionsfehler. Dies entspricht dem Gradientenverfahren zur Bewegungsmessung und wäre dann am genauesten, wenn die Gradienten in dem Bild linear verlaufen.
- Falls die Verschiebung sehr groß ist, funktioniert das Verfahren nicht mehr und die Folge ist keine Messung der Verschiebung, sondern ein großer Fehler. Das Verfahren wird einfach dazu verwendet, den besten Vektor auszuwählen. Eine weitere Verbesserung besteht darin, die Verschiebungsmessung dazu zu verwenden, um kleine Fehler in dem zugeordneten Vektor zu korrigieren.
- Unterabgetastete (sub-sampled) Vektorhalbbilder
- Die zeitlich abgestimmten bzw. synchronisierten Eingangsvektorhalbbilder werden für altemierende Pixel berechnet. Das Originalbild wird vollständig abgetastet und die Genauigkeit der Übereinstimmungsfehler wird folglich nicht signifikant von der Unterabtastung (sub-sampling) beeinflußt, es tritt jedoch eine beträchtliche Ersparnis bei der Hardware auf.
- Übereinstimmungsfehlerberechnung (match error calculation)
- Die normale Bedeutung und das normale Verfahren für Übereinstimmungsfehler kann wie folgt zusammengefaßt werden: Übereinstimmungsfehler sind ein Mittel, um herauszufinden, ob ein bestimmter Vektor in der Vektorauswahl auf ein bestimmtes Bildelement Anwendung findet. Der Übereinstimmungsfehler wird durch Verschiebung der zwei Bilder um die vorgeschlagene Vektorbewegung und durch anschließende Subtraktion der zwei Bilder berechnet. Dies wird für den Bereich des Zuordnungsblockes durchgeführt und der Absolutwert dieses Fehlersignales wird durch den Bildgradienten des zentralen bzw. mittleren Bildelementes dividiert und anschließend räumlich gefiltert.
- Bei dem Drei-Halbbild-Algorithmus wird das Eingangsbild, das mit dem erforderlichen Eingangsvektorhalbbild zeitlich zusammenfällt, stationär gehalten und die vorherigen und darauffolgenden Bild-Halbbilder werden um einen Versuchsvektor verschoben. Dies muß sowohl flir das Halbbild vor als auch flir das Halbbild nach dem erforderlichen Ausgabezeitpunkt ausgeführt werden.
- Dies führt zu zwei Übereinstimmungsfehlern, einer vor und einer nach dem Eingangsbild. Wenn das Vektorhalbbild vorwärts projiziert wird, entspricht der zweite Übereinstimmungsfehler einem Zeitintervall der Ausgangsbildzeit und ein kleiner Übereinstimmungsfehler wird einen Vordergrund anzeigen. Diesem mittleren bzw. zentralen Übereinstimmungsfehler wird eine kleine Präferenz gegeben, indem dieser mit einem Gewichtungsfaktor zwischen 0,5 und 0,99 multipliziert wird. Wenn das Vektorhalbbild rückwärts projiziert wird, entspricht der erste Übereinstimmungsfehler einem Zeitintervall der Ausgangsbild-Zeit und ein kleiner Übereinstimmungsfehler wird einen Vordergrund anzeigen. Dieser mittlere bzw. zentrale Halbbild- Übereinstimmungsfehler wird in der gleichen Art und Weise wie zuvor gewichtet.
- Ein weiterer Übereinstimmungsfehler wird berechnet, indem die anderen zwei Übereinstimmungsfehler aufaddiert werden und dieser wird ebenfalls gewichtet. Es scheint so, daß der zentrale Halbbild-Übereinstimmungsfehler und der kombinierte Zwei-Halbbild-Übereinstimmungsfehler zur Identifizierung eines Vordergrundes gleich gut ist und folglich sind die Gewichtungsfaktoren ähnlich.
- In der Praxis ist das Vektorhalbbild, das mit dem ersten Bild zeitlich zusammenfällt, flir die Vorwärts-Projektion dem Vektorhalbbild flir das gleiche Bild sehr ähnlich, wenn es sich in der zweiten Bildposition befand und rückwärts projiziert wurde. Die Berechnungen des Übereinstimmungsfehlers sind die gleichen, aber die halbbildabhängigen Gewichtungen werden geändert und folglich die zugeordneten Vektoren und die Statuswerte. Das Vorwärts-Projektionshalbbild und die Rückwärts-Projektionsvektorhalbbilder werden zum gleichen Zeitpunkt berechnet, aber das Vorwärtsvektorhalbbild wird um eine Eingangshalbbildperiode verzögert.
- Bei dieser Vorgehensweise wird das Eingangsvektorhalbbild zu 360 Pixel und 288 Halbbildzeilen unterabgetastet (sub-sampled). Für jedes Element in dem Eingangsvektorhalbbild werden die gewichteten Übereinstimmungsfehler verglichen. Der Versuchsvektor mit dem kleinsten gewichteten Übereinstimmungsfehler wird dem Bildelement zugeordnet.
- Für das Vorwärts-Projektionsvektorhalbbild sind die Statusregeln die folgenden:
- Vordergrund wird durch den kleinsten Übereinstimmungsfehler angezeigt, welcher der zweite Halbbildmittelwert bzw. der Zwei-Halbbildmittelwert ist.
- Verdeckter Hintergrund wird durch den kleinsten Übereinstimmungsfehler angezeigt, der dem ersten Halbbild entspricht.
- Ein fehlender Bewegungsvektor wird durch einen großen Übereinstimmungsfehler angezeigt.
- Für das Rückwärts-Projektionsvektorhalbbild sind die Statusregeln wie folgt:
- Vordergrund wird durch den kleinsten Übereinstimmungsfehler angezeigt, der der erste Halbbildmittelwert oder der Zwei-Halbbildmittelwert ist.
- Zum Vorschein gebrachter Hintergrund wird durch den kleinsten Übereinstimmungsfehler angezeigt, der dem zweiten Halbbild entspricht.
- Ein fehlender Bewegungsvektor wird durch einen großen Übereinstirnmungsfehler angezeigt.
- Der Status wird gemeinsam mit jedem zugeordneten Vektor in den ersten und zweiten Vektorhalbbildem abgespeichert.
- Die Karte bzw. die Fläche der zugeordneten Eingangsvektoren kann über das zeitgleiche Bild gelegt werden, um anzugeben, auf welche Weise sich alles bewegt. Das Ausgangsvektorhalbbild wird erzeugt, indem jedes Element des ersten Eingangsvektorhalbbildes vorwärts bzw. in Vorwärtsrichtung auf den Ausgabezeitpunkt projiziert wird und das zweite Vektorhalbbild rückwärts auf die Ausgabeposition. Obwohl das Eingangsvektorhalbbild unterabgetastet wird, besitzt das Ausgangsvektorhalbbild die gesamten 720 horizontalen Teilbilder (samples).
- Das zeitlich abgestimmte bzw. synchronisierte Ausgangsvektorhalbbild wird in einem gewissen zeitlichen Abstand von dem Eingangsvektorhalbbild benötigt. Diese Situation ist in Fig. 4 gezeigt. Wenn das erste Vektorhalbbild projiziert wird, wird die Stelle bzw. Position jedes zeitlich abgestimmten Eingangsvektors zu dem zugeordneten Vektor addiert, skaliert um den Abstand, und diese neue Stelle hat den zugeordneten Vektor abgespeichert. Für das zweite Vektorhalbbild wird die Stelle jedes zeitlich abgestimmten Eingangsvektors zu dem zugeordneten Vektor, skaliert um 1-Abstand (1-dist), addiert und diese neue Position besitzt den zugeordneten, abgespeicherten Vektor. Eine geringfügige Komplikation besteht darin, daß es unwahrscheinlich ist, daß die projizierte Position eine exakte Position in dem Ausgangsvektorhalbbild ist, und daß auch das Ausgangsvektorhalbbild dichter bzw. enger abgetastet wird als das Eingangsvektorhalbbild. Beide Probleme werden dadurch gelöst, daß der Vektor bei der Position auf jeder Seite des projizierten Vektors gespeichert wird.
- Der Status des zeitlich abgestimmten Eingangsvektorhalbbildes folgt dem projizierten Vektor und ein neuer Ausgangsvektorstatus wird erzeugt. Die Regeln für den Ausgangsvektorhalbbildstatus sind wie folgt:
- Vordergrundvektoren werden von beiden zeitlich abgestimmten Eingangsvektorhalbbildern in Vorwärtsrichtung und in Rückwärtsrichtung projiziert. Falls zwei Vordergrundvektoren an der gleichen Stelle landen, werden beide Vektoren abgespeichert und der Status zeigt zwei Vordergrundvektoren an.
- Ein verdeckter Hintergrund wird vorwärts projiziert und der Status markiert den Bereich als verdeckten Hintergrund.
- Zum Vorschein gebrachter Hintergrund wird rückwärts projiziert und der Status markiert den Bereich als zum Vorschein gebrachten Hintergrund.
- Falls ein Bereich des Bildes einen großen Übereinstimmungsfehler in jedem der zeitlich abgestimmten Eingangsvektorhalbbilder aufweist, wird angenommen, daß kein Bewegungsvektor zur Verfügung steht. Um einen Verlust des Objektes zu einem projizierten Hintergrund zu vermeiden, wird der Bereich als ein nicht zuzuordnender Bereich markiert und geht in den Bereitschaftsmodus. Der augenblicklich verwendete Bereitschaftsmodus soll einen stationären Vektor verwenden und soll die zwei Bilder im Verhältnis zur Position des Ausgangshalbbildes und in Beziehung zu den Eingangshalbbildern zusammenmischen. Ein Bild mit weicherer bzw. feinerer Auflösung wird zur Bereitschaft bzw. zum Rückgriff (fall back) verwendet, um die Härte von nicht bewegungskompensierten Bildelementen zu verringern.
- Es ist eine Folge der Vektorprojektion, daß Löcher in dem Vektorhalbbild vorhanden sein können. Die Löcher werden durch einen in der Nähe befindlichen zugeordneten Vektor und den Status aufgefüllt.
- Das Ausgangsbild wird aus einem verschobenen Gemisch aus zur Verfügung stehenden Eingangsbildern erzeugt. Der Bildüberblendfaktor (crossfade) steuert die Mischung der zwei Eingangshalbbilder, um das Ausgangsbild zu erzeugen. Dieses crossfade-Signal bzw. "Überblend"-Signal nimmt den Wert von 0 bis 1,0 entsprechend den folgenden Regeln ein:
- Verdeckter Hintergrund: crossfade = 0
- nimmt das Bild von dem vorherigen Bild zum Vorschein gebrachter Hintergrund: crossfade = 1
- nimmt das Bild von dem nächsten Bild
- Vordergrund: crossfade = dist (Abstand) nimmt das Bild sowohl von dem vorherigen als auch von dem nachfolgenden Bild. Falls zwei Vordergrundvektoren vorliegen, wird das erste Halbbild um den ersten zuzuordnenden Vektor bewegt und der zweite Vektor verwendet, um das zweite Bild zu verschieben.
- Bereich großer Fehler: crossfade = dist (Abstand) Bereitschaftsmodus, zugeordnete Vektoren gleich 0
- Verdeckter Hintergrund und zum Vorschein gebrachter Hintergrund:
- Dies kann der Fall sein, wenn eine kleine Mittelpunktübereinstimmung nicht erreicht werden kann und wenn herausgefunden wurde, daß crossfade = dist bzw. Abstand ist.
- Ausgangsbild erzeugen
- Das Verfahren zur Erzeugung des Ausgangsbildes geht jedes Element der Ausgangsbildposition durch und wendet den folgenden Algorithmus an:
- pic_output(x, y) =
- pic_1(x,y verschoben um dist * vec_1) * (1-crossfade) +
- pic_2(x,y verschoben um (dist-1) * vec_2) *crossfade
- vec_1 und vec_2 sind zwei zugeordnete Vektoren, falls es nur einen zugeordneten Vektor gibt, wird vec_2 gleich vec_1 gemacht.
- Ein Interpolator wurde verwendet, um Pixel-Teilverschiebungen zu erzeugen, aber die genaue Form steht dennoch einer gewissen Optimierung offen. Dieser Teilaspekt wird die Qualität der endgültigen Bilder beeinflussen, ist jedoch für den zugrundeliegenden Drei-Halbbild-Algorithmus nicht von Bedeutung.
- Der Zwei-Halbbild-Algorithmus erhält seinen Namen vom Vergleich von nur zwei Halbbildern während des ersten Stadiums der Vektorzuordnung. Die Eingangsvektorauswahlen für das Zwei-Halbbildsystem sind Vektoren, die zeitlich mit den Intervallen zwischen Bildern zusammenfallen, statt daß sie zeitlich mit Bildern zusammenfallen, wie dies für das Drei-Halbbildsystem erforderlich ist.
- Dieses Verfahren ist schematisch in Fig. 5 dargestellt. Diese zeigt eine Folge von vier Videobildern f&sub0; bis f&sub3;. Eine Phasenkorrelationsfläche wird für das Intervall zwischen jedem Paar von Bildern abgeleitet und diese Korrelationsflächen sind P&sub0;&sub1;, P&sub1;&sub2; und P&sub2;&sub3;. Jede dieser Flächen kann auf ein ganz bestimmtes Intervall angewendet werden. Falls jede dieser Flächen einfach nur dazu verwendet wird, den Halbbildern, von denen sie abgeleitet wurden, Vektoren zuzuordnen, wird es bei Objekten zu Problemen kommen, die in einem Halbbild nicht jedoch in dem anderen vorhanden sind. Deshalb wird ein gewichteter Mittelwert der drei Korrelationsflächen abgeleitet und anschließend dazu verwendet, um Vektoren zur Erzeugung von Bildern in dem zentralen Intervall f&sub1; bis f&sub2;, zuzuordnen. In diesem speziellen Beispiel wird sowohl P&sub0;&sub1; als auch P&sub2;&sub3; jeweils mit Gewichten von einem Viertel versehen und P&sub1;&sub2; mit einem Gewicht von einhalb, bevor diese alle zusammenaddiert werden, um eine zeitlich gefilterte Korrelationsfiäche abzuleiten, aus der eine Vektorauswahl 12 abgeleitet werden kann. Sobald Vektoren zugeordnet worden sind, wird das Verfahren wiederholt, indem eine weitere Korrelationsfläche in dem Interfall f&sub3; bis f&sub4; abgeleitet wird und indem diese Fläche bzw. dieser Flächenraum gemeinsam mit P&sub1;&sub2; und P&sub2;&sub3; verwendet wird, um eine Vektorauswahl zur Zuordnung über das Intervall f&sub2; bis f&sub3; abzuleiten. Das Verfahren schreitet durch die gesamte Folge von Videobildern fort.
- Auf diese Weise wird für jedes Bildintervall in der Folge von Videobildern eine Phasenkorrelationsfläche abgeleitet und diese Korrelationsflächen werden zu einem gewichteten Mittelwert kombiniert, um eine Vektorauswahl zu erzeugen, die über ein einziges Bildintervall anwendbar ist. Die Tatsache, daß die Auswahl über ein Intervall zwischen zwei Bildern anwendbar ist, ist der Grund dafür, warum diese als Zwei-Halbbild-Algorithmus bezeichnet wird.
- Wie zuvor diskutiert wurde, wird es bevorzugt, daß die Vektoren Eingangshalbbildern zugeordnet werden, anstatt daß sie Ausgangshalbbildern zugeordnet werden, und es wird berücksichtigt, daß, falls beispielsweise Auswahl&sub1;&sub2; f&sub1; und f&sub2; zugeordnet wird und dann Auswahl&sub2;&sub3; f&sub2; und f&sub3; zugeordnet wird, f&sub2; zwei Vektorhalbbilder zugeordnet sind. Eines dieser Halbbilder hängt mit f&sub1; zusammen und das andere mit f&sub3;. Diese werden als die Vorwärts- bzw. Rückwärts-Projektionshalbbilder bezeichnet und ihre Verwendung ermöglicht eine sehr zuverlässige Erzeugung von Zwischenhalbbildern von der Art, die bei der Slow-Motion-Folgenerzeugung verwendet werden. Der Grund für die Erzeugung von diesen und die Art und Weise, in der Ausgangsbilder erzeugt werden, wird nachfolgend diskutiert.
- Das erzeugte, zugeordnete Vektorhalbbild ist ähnlich zu dem, das mit Hilfe der in unserer britischen Patentanmeldung Nr.9013642.5, veröffentlicht als GB-A-225962 5, vorgeschlagenen Vorwärts-/Rückwärtszuordnung erzeugt wird. Die Vorwärts/Rückwärtsvektorhalbbilder werden in Paaren mit dem zugehörigen Übereinstimmungsfehler abgespeichert und kombiniert, um den Vektorstatus zu bestimmen.
- Die kombinierten bzw. vereinigten Vektorhalbbilder werden zur Ausgabezeit vorwärts- und rückwärts-projiziert, um ein zweifach synchronisiertes Ausgangsvek torhalbbild zu erzeugen. Der erste, zeitlich abgestimmte Ausgangsvektor ist der Vorwärts-Projektion zugeordnet und der zweite ist der Rückwärts-Projektion zugeordnet und diese werden kombiniert bzw. vereinigt, um die zwei Vektoreingaben an das Bilderzeugungssystem zu steuern.
- Die meisten der Eigenschaften des Bewegungsabschätzers sind ähnlich wie beim zuvor beschriebenen "Drei-Halbbild"-Algorithmus. Der Hauptunterschied ist wie folgt:
- Die Auswahl (menu) für die "Drei-Halbbild"-Version erfordert es, daß die Vektorauswahlen sowohl für die Periode vor als auch für die Periode nach dem Zeitpunkt des Eingangshalbbildes gültig sind. Ein Zeitfilter von geradzahliger Ordnung wird auf die Korrelationsfläche angewendet, um eine bestmögliche Abschätzung dieses Bewegungsaugenblickes zu machen. Dies stellt einen Kompromiß dar, der die Bewegungsabschätzung verbessert, wenn die Bewegung in etwa kontinuierlich erfolgt, zu Lasten einer Messung bzw. Bestimmung plötzlich auftretender Bewegungen und schneller Beschleunigungen.
- Der "Zwei-Halbbild"-Algorithmus verwendet jede Auswahl nur während einer Halbbildperiode und deshalb gibt es keine Veränderung in der Zeitsteuerung. Es ist wahrscheinlicher, daß eine Auswahl während eines Halbbild-Augenblicks gültig ist anstatt während zwei und folglich unterliegt das Vektorauswahlproblem einem Kompromiß weniger stark.
- Man hat herausgefünden, daß eine spezielle Auslegung des zeitlichen Korrelationsfilters Probleme beheben wird, die durch eine Überlappung bzw. Verschachtelung bewirkt werden, wenn Halbbild-Frequenzkorrelationen vorgenommen werden. Die Auslegung des Zeitfilters wird vorzugsweise die Bedingung erfüllen, daß die Summe der Abstände der ungeradzahligen Koeffizienten gleich der Summe der Abstände der geradzahligen Koeffizienten ist. Weil die wahrscheinlichste Anzahl von Abständen drei ist, werden die Koeffizienten dann 0,25, 0,5, 0,25 betragen.
- Fig. 4 zeigt schematisch den Zwei-Halbbild-Algorithmus und zugeordnete Vektorhalbbilder und auf diese Figur wird in den nachfolgenden Abschnitten Bezug genommen.
- Für jede von dem Abschätzer beschaffte Auswahl wird die Zuordnung zweifach durchgeführt, einmal unter Verwendung der Vorwärtszuordnung und einmal unter Verwendung der Rückwärtszuordnung. Die Vorwärtszuordnung wird dadurch bewerkstelligt, daß das erste Halbbild stationär bzw. ortsfest gehalten wird und daß das zweite um einen Versuchsvektor verschoben wird und daß der Übereinstimmungsfehler aus der Größe der Differenz berechnet wird. Die Differenz wird durch den Gradienten geteilt, worin eine Anwendung der Gradientenverfahren-Vektormessung besteht, aber das Ergebnis wird nur zur Auswahl eingesetzt, wobei der Fehler einem Abstand entspricht. Dieser kann zu einem späteren Zeitpunkt zur Berichtigung verwendet werden. Das Rückwärts-Projektionshalbbild wird dadurch erzeugt, daß das zweite Halbbild stationär bzw. ortsfest gehalten wird und das erste verschoben wird und der Vorgang wiederholt wird. Jedes neue Eingangshalbbild und jede neue Auswahl erzeugt zwei zugeordnete Vektorhalbbilder, z.B. werden aus Auswahl 2 die Halbbilder b und c erzeugt.
- Zu diesem Zeitpunkt haben wir vier zugeordnete Vektorhalbbilder, ein Paar für das Halbbild vor dem Ausgabezeitpunkt und ein Paar nach dem Ausgabezeitpunkt. Für jedes Paar wurde das erste durch Rückwärtszuordnung der vorherigen Auswahl erzeugt und das zweite durch Vorwärtszuordnung der zweiten Auswahl.
- Falls das Eingangsvektorhalbbild zur Vorwärtsprojektion bestimmt ist, entspricht das zweite Vektorhalbbild "b" der zentralen bzw. mittleren Periode und wird dem Vordergrund zugeordnet. Auf das zweite Vektorhalbbild und den Übereinstimmungsfehler wird das Gewicht centre_wt angewendet und dieser wird dann mit dem Übereinstimmungsfehler des äußeren Halbbilds "a" verglichen. Der Vektor mit dem kleinsten Übereinstimmungsfehler wird zugeordnet. Die folgenden Regeln werden angewendet, wenn die Vektorhalbbilder "a" und "b" vereinigt bzw. zusammengeführt werden, um das Vektorhalbbild "c" zu ergeben:
- zentrales Halbbild niedrig: Vordergrund (Status = 3)
- äußeres Halbbild niedrig: verdeckter Hintergrund (Status = 1)
- beide Übereinstimmungsfehler hoch: fehlender Vektor (Status = 5)
- Diese Situation ist ähnlich zu derjenigen, wenn das Eingangsvektorhalbbild zur Rückwärtsprojektion bestimmt ist, außer daß centre_wt auf Übereinstimmungsfehler des rückwärts zugeordneten Vektorhalbbildes "c" angewendet wird. Die gewichteten Übereinstimmungsfehler von "c" werden mit den Übereinstimmungsfehlern von "d" verglichen, um das Rückwärts-Projektionsvektorhalbbild "f" zu erzeugen. Die Regeln werden nun:
- zentrales Halbbild niedrig: Vordergrund (Status = 3)
- äußeres Halbbild niedrig: zum Vorschein gebrachter Hintergrund (Status = 2)
- beide Übereinstimmungsfehler hoch: fehlender Vektor (Status = 5)
- Die vereinigten Vektorhalbbilder, die mit Vorher und Nachher (e und f in Fig. 1) bezeichnet werden, sind ähnlich zu den synchronisierten Eingangsvektorhalbbildern, die bei dem Drei-Halbbild-Algorithmus erzeugt werden.
- Genau wie bei den synchronisierten Eingangsvektorhalbbildem sind dem Ausgangshalbbild zwei Vektorhalbbilder zugeordnet. Das erste wird durch Projektion des "Vorher e"-Vektorhalbbildes in Vorwärtsrichtung und das zweite durch Projektion des "Nachher f"-Vektorhalbbildes in Rückwärtsrichtung erhalten.
- Die Vektorprojektion erhält man dadurch, daß jede Position bzw. Stelle in dem Eingangsvektorhalbbild "e" besucht bzw. herangezogen wird, daß "dist" mit dem der Stelle des Vektors zugeordneten Vektor multipliziert wird und daß der Vektor und der Status in das Ausgangsvektorhalbbild geschrieben wird. Es ist ziemlich wahrscheinlich, daß es einen Vordergrund-/Hintergrundwettbewerb geben wird, um in eine spezielle Ausgangsposition hineinzuschreiben. Die Situation kann dann eintreten, wenn zwei Vordergrundvektoren an der gleichen Stelle im Raum ankommen, und deshalb gibt es einen einfachen Satz von Regeln zum Schreiben in das Ausgangsvektorhalbbild.
- Die Regel wird wie folgt zusammengefaßt:
- 1) Das gesamte Vektorfeld wird auf Status = 0, nicht zugeordnet, initialisiert.
- 2) Ein beliebiger Vektor kann in das Ausgangsvektorhalbbild schreiben, vorausgesetzt, sein Status ist höher als der, der gerade vorherrscht. Der zweite Vektor wird ignoriert.
- Die Vektorprojektion von dem nächsten Eingangshalbbild in Rückwärtsrichtung auf die Ausgangshalbbildposition erfolgt ähnlich zu der Vorwärtsprojektion. Das synchronisierte Ausgangsvektorhalbbild in Rückwärtsrichtung wird in der Figur als h dargestellt und der Status wird auf 0 gesetzt, bevor die Projektion beginnt. Der Unterschied besteht darin, daß der Abstand 1-dist beträgt.
- Die zwei Ausgangsvektorhalbbilder werden gemäß einem anderen Satz von Regeln vereinigt bzw. zusammengeführt, die in einer Tabelle zusammengefaßt sind (verwendete Abkürzungen: Hg steht für Hintergrund):
- !! Arten, die viermal beginnen, könnten mit dist oder 0,5 übergeblendet werden und sind noch Gegenstand einer Optimierung.
- Nach der Vektorverarbeitung sind alle Stellen bzw. Plätze des Vektors g, h und der crossfade-Faktor bzw. Bildüberblendfaktor eingesetzt worden. Man hat eine sichtbare Verbesserung des Ausgangsbildes festgestellt, indem ein zweidimensionales Raumfilter über das Vektorhalbbild und die Bildüberblendfläche gelegt wird.
- Das Ausgangsbilderzeugungsverfahren geht jedes Element der Ausgangsbildstelle durch und wendet den folgenden Algorithmus an:
- Pic_output (x, y) =
- pic_1 (x,y verschoben um dist * vec_1) * (1-crossfade) +
- pic_2(x,y verschoben um (dist-1) * vec_2) *crossfade
- Ein Interpolator wurde verwendet, um Pixelteilverschiebungen zu erzeugen, aber die exakte Form unterliegt noch einer gewissen Optimierung. Der Teilaspekt wird die Qualität der endgültigen Bilder beeinflussen, ist jedoch für den eigentlichen Drei- Halbbild-Algorithmus nicht von Bedeutung.
- Fig. 6 zeigt Schaltungen zum Ausführen des Drei-Halbbild-Algorithmusses. Diese umfassen ein Paar von Halbbildverzögerungen 20, die in Reihe geschaltet sind und eine Folge von Videohalbbildern empfangen. Der Eingang und der Ausgang von jeder Halbbildverzögerung ist mit einem entsprechenden Eingang eines Phasenkorrelators 22 verbunden. Jeder von diesen erzeugt eine Korrelationsfläche, die die Bewegung zwischen zwei aufeinanderfolgenden Haibbildem darstellt. Diese Flächen werden mit Hilfe der Multiplizierer 24 mit Gewichten von 0,5 versehen und werden dann in einem Addierer 26 vereinigt. Diese gemittelte Korrelationsfläche gelangt dann durch einen Spitzenwertdetektor 28, der nur diejenigen Vektoren durchläßt, die einen vorbestimmten Schwellenwert überschreiten. Auf diese Weise erzeugt dieser eine Vektorauswahl zur Zuordnung eines zentralen Halbbildes eines Satzes aus drei Halbbildern. Zu dem Zeitpunkt, zu dem diese Vektorauswahl verfügbar wird, wird das Eingangshalbbild, dem diese zugeordnet werden soll, dem Ausgang der zweiten der Halbbildverzögerungen 20 zur Verfügung stehen. Die Vektorauswahl und die Ausgangsgrößen der beiden Halbbildverzögerungen bilden die Eingangsgrößen für eine Zuordnungseinheit, wo Vektoren zu dem zentralen Halbbild der Folge von drei Halbbildern zugeordnet werden können, von der die Auswahl abgeleitet wurde.
- Fig. 7 ist eine Modifikation der Schaltung aus Fig. 6 und ist geeignet zum Ausführen des Zwei-Halbbild-Algorithmus. Sie umfaßt eine zusätzliche Halbbildverzögerung 20 in Reihe mit den anderen Halbbildverzögerungen. Diese besitzt einen zugeordneten Phasenkorrelator 22, dessen Ausgangsgröße mit Hilfe eines vierten Multiplizierers 21 gewichtet wird, bevor sie mit den Ausgangsgrößen der anderen Phasenkorrelatoren in dem Addierer 26 vereinigt wird. Die erzeugte Vektorauswahl und die verschiedenen Eingangshalbbilder, von denen diese abgeleitet wurden, werden in eine Zuordnungseinheit (nicht dargestellt) gegeben.
- Sowohl die Vektorzuordnung als auch die zeitlichen Interpolationsvorgänge wurden ohne Berücksichtigung einer Überlappung beschrieben. Die Vorgänge können unmittelbar auf ein überlapptes bzw. verschachteltes Signal angewendet werden (unter Berücksichtigung der vertikalen Positionierung der abgetasteten Zeilen); alternativ kann ein verschachteltes Signal vor der Verarbeitung in eine sequentielle oder progressive Form gewandelt werden.
- Bezüglich einer schematischen Darstellung eines Zeitlupe- bzw. Slow-Motion- Wiedergabesystems, in das die vorliegende Erfindung integriert werden kann, wird auf die IEEE Konferenz-Publikation, Nr. 327 (IBC'90), Seiten 121 bis 125m, verwiesen, deren Offenbarung und auch die Offenbarung der in diesem Dokument verzeichneten Literaturhinweise ausdrücklich im Wege der Bezugnahme in dieser Patentanmeldung mit beinhaltet sei.
- Es ist auch berücksichtigt, daß die zuvor beschriebenen Vorgänge generell mit Hilfe eines Computersystems anstatt einer diskreten Schaltung realisiert werden. Die vorstehende Verfahrensbeschreibung hält die gesamte Information bereit, die zur Herstellung eines solchen Systems notwendig ist, wie von einem Fachmann auf diesem Gebiet leicht erkannt werden kann, und eine ausführliche Beschreibung der Programmblöcke bzw. Programmanweisungen ist deshalb nicht notwendig und ist hierin nicht enthalten.
Claims (31)
1. Verfahren zum Videosignal-Bewegungsausgleich zur Verwendung in einem
Videosignal-Bewegungsausgleichssystem, welches Verfahren die Schritte umfaßt, daß
für jedes Eingangshalbbild aus einem Vergleich dieses Halbbildes mit vorherigen und
nachfolgenden Halbbildem ein Satz von Bewegungsvektoren abgeleitet wird, daß jedem
der Vektoren bzw. einem jeweiligen der Vektoren einzelne bzw. besondere
Bildpunktbereiche des Eingangshalbbildes zugeordnet werden, daß durch Zuordnung von
Vektoren von zumindest einem der Eingangshalbbilder zu Bildpunktbereichen des
Ausgangshalbbildes ein Ausgangshalbbild zwischen zwei Eingangshalbbildern abgeleitet wird,
wobei gewisse Bildpunktbereiche des Ausgangshalbbildes zwei oder mehr Vektoren
aufweisen, die diesen zugeordnet sind.
2. Verfahren nach Anspruch 1, bei dem in den genannten gewissen
Bildpunktbereichen ein erster der zugeordneten Vektoren verwendet wird, um die Bewegung des
Eingangshalbbildes zu einer Seite des Ausgangshalbbildes zu spezifizieren, und der
zweite zugeordnete Vektor verwendet wird, um die Bewegung des Eingangshalbbildes
zu der anderen Seite des Ausgangshalbbildes zu spezifizieren.
3. Verfahren nach Anspruch 1, bei dem einer der zugeordneten Vektoren mit
einem ersten Bildbereich im Zusammenhang steht und ein zweiter der zugeordneten
Vektoren mit einem zweiten Bildbereich im Zusammenhang steht, der sich anders als
der erste bewegt, wobei der entsprechende Ausgangsbildbereich aus einer Kombination
der Vektorsumme bzw. der Resultierenden der zwei Vektoren auf die jeweiligen
Eingangsbildbereiche gebildet wird, um das Auftreten eines Verschwimmens bzw.
einer Unschärfe an der Kante eines sich bewegenden Objektes anzugeben.
4. Verfahren nach Anspruch 2, bei dem die zwei zugeordneten Vektoren mit den
zwei jeweiligen Objekten in Zusammenhang stehen und die Vektorsumme kombiniert
bzw. gebildet wird, um das Ausgangshalbbild zu bilden, falls festgestellt wird, daß
zwei Objekte eine gleiche Wahrscheinlichkeit bzw. ein gleiches Recht dafür besitzen,
daß sie sich in dem Ausgangsbild befinden.
5. Verfahren nach Anspruch 1, bei dem in den genannten gewissen
Bildpunktbereichen keine zulässige Bewegungsbestimmung vorgenommen werden kann, und bei
dem ein erster Vektor der zugeordneten Vektoren einem Bereitschafts- bzw.
Rückfallmode und der zweite der zugeordneten Vektoren einem Vektor aus einem benachbarten
Meßblock entspricht.
6. Verfahren nach Anspruch 1, bei dem auf der Basis der zwei zugeordneten
Vektoren zwei Vorhersagen für den Wert der gewissen Bildpunktbereiche gemacht
werden und bei dem die zwei Vektorsummen mit Hilfe eines einfachen oder
gewichteten Mittelwertes kombiniert bzw. gebildet werden.
7. Verfahren nach Anspruch 6, bei dem die Zusammensetzung in Abhängigkeit
von einem zeitabhängigen Koeffizienten vorgenommen wird, an den eine glättende
Filterfunktion angelegt wird.
8. Verfahren nach Anspruch 1, bei dem für jeden aus einer Anzahl von Blöcken
des Bildes Bewegungsvektoren abgeleitet werden und die so abgeleiteten Vektoren
ausgewählt werden, um eine Anzahl von Vektoren für das Bild oder Teilbereiche
davon zur Verfügung zu stellen.
9. Verfahren nach Anspruch 1, bei dem die Vektoren mit Hilfe eines
Phasenkorrelationsverfahrens abgeleitet werden.
10. Verfahren nach Anspruch 2, bei dem die Zuordnung durch gleichzeitigen
Vergleich der Inhalte von drei Eingangsbildern erfolgt.
11. Verfahren nach Anspruch 1, bei dem einem Eingangshalbbild zwei
Vektorhalbbilder zugeordnet werden, wobei ein erstes Vektorhalbbild durch Rückwärtsprojektion
auf ein vorheriges Eingangshalbbild zugeordnet wird und ein zweites Eingangshalbbild
durch Vorwärtsprojektion auf ein darauffolgendes Eingangshalbbild zugeordnet wird.
12. Verfahren nach Anspruch 1, bei dem Bildpunktbereichen, denen zwei oder
mehr Vektoren zugeordnet sind, diese Vektoren aus verschiedenen Sätzen von
Bewegungsvektoren zugeordnet wurden.
13. Vorrichtung zum Video-Bewegungsausgleich, die eine
Vektorableitungseinrichtung zum Ableiten einer Anzahl von Bewegungsvektoren für jeden einer Anzahl
von Blöcken von jedem Eingangshalbbild aus einem Vergleich des Eingangshalbbildes
mit vorherigen und darauffolgenden Eingangshalbbildern und eine
Vektorzuordnungseinrichtung zur Zuordnung von jedem der Vektoren zu einzelnen bzw. besonderen
Bildpunktbereichen des Eingangshalbbildes sowie eine Einrichtung zum Ableiten eines
Ausgangshalbbildes durch Zuordnung von Vektoren von zumindest einem der
Eingangshalbbilder zu Bildpunktbereichen des Ausgangshalbbildes umfaßt, wobei gewisse
Bildpunktbereiche zwei oder mehr gültige bzw. zulässige Vektoren zugeordnet sind.
14. Verfahren nach Anspruch 1, bei dem jedem Bildpunktbereich eines
Eingangshalbbildes zumindest zwei Vektoren zugeordnet sind.
15. Verfahren nach Anspruch 1, bei dem ein erster Vektor, der einem
Bildpunktbereich
eines Eingangshalbbildes zugeordnet ist, durch Rückwärtsprojektion auf ein
vorheriges Eingangshalbbild und ein zweiter Vektor, der dem gleichen
Bildpunktbereich zugeordnet ist, durch Vorwärtsprojektion auf ein darauffolgendes
Eingangshalbbild abgeleitet wird.
16. Verfahren nach Anspruch 1, bei dem der Satz von Bewegungsvektoren einen
Durchschnitt bzw. Mittelwert der Sätze von Bewegungsvektoren bildet, der aus
Vergleichen zwischen dem Eingangshalbbild und den diesem unmittelbar vorangehenden
und unmittelbar folgenden Eingangshalbbildern abgeleitet wird.
17. Verfahren nach Anspruch 16, bei dem der Mittelwert ein gewichteter Mittelwert
ist.
18. Verfahren nach Anspruch 1, bei dem der Vektorableitungsschritt die Schritte
umfaßt, daß ein erster Satz von Bewegungsvektoren durch Vergleichen eines ersten
und zweiten Eingangshalbbildes abgeleitet wird, daß ein zweiter Satz von
Bewegungsvektoren durch Vergleichen des zweiten und eines dritten Eingangshalbbildes abgeleitet
wird, und daß ein dritter Satz von Vektoren aus den ersten und zweiten Sätzen
abgeleitet wird.
19. Verfahren nach Anspruch 18, bei dem die Eingangshalbbilder
aufeinanderfolgende Halbbilder in einer Sequenz bzw. Bildfolge darstellen.
20. Verfahren nach Anspruch 18, das den Schritt einer Zuordnung der Vektoren
des dritten Satzes zu Bildpunktbereichen des Bildes einschließt.
21. Verfahren nach Anspruch 18, bei dem der Zuordnungsschritt eine Zuordnung
der Vektoren des dritten Satzes zu Bildpunktbereichen des Bildes in dem zweiten
Eingangshalbbild umfaßt.
22. Verfahren nach Anspruch 1, bei dem der Vektorableitungsschritt die Schritte
umfaßt, daß erste, zweite und dritte Sätze von Bewegungsvektoren von ersten und
zweiten, zweiten und dritten sowie dritten und vierten Eingangshalbbildem abgeleitet
werden und daß ein vierter Satz von Bewegungsvektoren aus den ersten, zweiten und
dritten Sätzen abgeleitet wird.
23. Verfahren nach Anspruch 22, bei dem der vierte Satz von Bewegungsvektoren
aus einem Mittelwert der ersten, zweiten und dritten Sätze abgeleitet wird.
24. Verfahren nach Anspruch 23, bei dem der Mittelwert ein gewichteter Mittelwert
ist.
25. Verfahren nach Anspruch 24, bei dem die Eingangshalbbilder
aufeinanderfolgende Halbbilder in einer Bildfolge darstellen.
26. Verfahren nach Anspruch 24, das den Schritt einer Zuordnung von Vektoren
des vierten Satzes zu Bildpunktbereichen in einem Bild einschließt, das von dem
Videosignal dargestellt wird.
27. Verfahren nach Anspruch 26, bei dem die Vektoren Bildpunktbereichen der
zweiten und dritten Eingangshalbbilder zugeordnet sind.
28. Verfahren nach Anspruch 27, bei dem dem zweiten Eingangshalbbild Vektoren
mit Hilfe eines Vorwärtsprojektionsverfahrens und dem dritten Eingangshalbbild
Vektoren mit Hilfe eines Rückwärtsprojektionsverfahrens zugeordnet werden.
29. Verfahren nach Anspruch 24, das den Schritt einer Wiederholung des Vorgangs
für das zweite, dritte, vierte und ein fünftes Eingangshalbbild einschließt und so einen
fünften Satz von Bewegungsvektoren ableitet.
30. Verfahren nach Anspruch 24, bei dem die Sätze von Bewegungsvektoren mit
Hilfe eines Phasenkorrelationsverfahrens abgeleitet werden.
31. Vorrichtung zum Ableiten eines Satzes von Bewegungsvektoren, geeignet zur
Verwendung in einem Bewegungsausgleichssystem, das gemäß dem Verfahren nach
irgendeinem vorhergehenden Anspruch arbeitet, welche Vorrichtung mindestens zwei
Halbbildverzögerungseinrichtungen, die in Reihe geschaltet sind und eine Sequenz von
Videohalbbildern empfangen, mindestens zwei
Bewegungsvektor-Ableitungseinrichtungen, die jeweils Eingangshalbbilder von dem Eingang und Ausgang einer
entsprechenden Halbbildverzögerungseinrichtung empfangen, und eine Vereinigungseinrichtung
umfaßt, die mit den Ausgängen der Vektorableitungseinrichtungen verbunden ist und
einen Ausgang aufweist, der den Satz von Bewegungsvektoren erzeugt.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB919111348A GB9111348D0 (en) | 1991-05-24 | 1991-05-24 | Video signal processing |
GB919118781A GB9118781D0 (en) | 1991-09-03 | 1991-09-03 | Video image processing |
PCT/GB1992/000952 WO1992021201A1 (en) | 1991-05-24 | 1992-05-26 | Video image processing |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69223925D1 DE69223925D1 (de) | 1998-02-12 |
DE69223925T2 true DE69223925T2 (de) | 1998-06-18 |
Family
ID=26298953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69223925T Expired - Lifetime DE69223925T2 (de) | 1991-05-24 | 1992-05-26 | Videobildverarbeitung |
Country Status (19)
Country | Link |
---|---|
US (1) | US6011596A (de) |
EP (1) | EP0540714B1 (de) |
JP (1) | JP3226539B2 (de) |
CN (1) | CN1079350A (de) |
AT (1) | ATE162037T1 (de) |
AU (1) | AU660020B2 (de) |
BG (1) | BG97326A (de) |
BR (1) | BR9205296A (de) |
CA (1) | CA2087946A1 (de) |
CZ (1) | CZ399892A3 (de) |
DE (1) | DE69223925T2 (de) |
DK (1) | DK0540714T3 (de) |
ES (1) | ES2112316T3 (de) |
FI (1) | FI930280A (de) |
GB (1) | GB2256341B (de) |
HU (1) | HU9300005D0 (de) |
NO (1) | NO930221L (de) |
SK (1) | SK399892A3 (de) |
WO (1) | WO1992021201A1 (de) |
Families Citing this family (78)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2265783B (en) * | 1992-04-01 | 1996-05-29 | Kenneth Stanley Jones | Bandwidth reduction employing a classification channel |
GB9214218D0 (en) * | 1992-07-03 | 1992-08-12 | Snell & Wilcox Ltd | Motion compensated video processing |
GB2277000B (en) * | 1993-04-08 | 1997-12-24 | Sony Uk Ltd | Motion compensated video signal processing |
GB2279531B (en) * | 1993-06-24 | 1997-07-16 | Sony Uk Ltd | Motion compensated image interpolation |
US20010041843A1 (en) * | 1999-02-02 | 2001-11-15 | Mark Modell | Spectral volume microprobe arrays |
GB2311183A (en) * | 1996-03-13 | 1997-09-17 | Innovision Plc | Gradient based motion estimation |
US6847490B1 (en) * | 1997-01-13 | 2005-01-25 | Medispectra, Inc. | Optical probe accessory device for use in vivo diagnostic procedures |
US6711278B1 (en) * | 1998-09-10 | 2004-03-23 | Microsoft Corporation | Tracking semantic objects in vector image sequences |
US6983018B1 (en) | 1998-11-30 | 2006-01-03 | Microsoft Corporation | Efficient motion vector coding for video compression |
US6563953B2 (en) | 1998-11-30 | 2003-05-13 | Microsoft Corporation | Predictive image compression using a single variable length code for both the luminance and chrominance blocks for each macroblock |
US6418166B1 (en) | 1998-11-30 | 2002-07-09 | Microsoft Corporation | Motion estimation and block matching pattern |
US6411838B1 (en) * | 1998-12-23 | 2002-06-25 | Medispectra, Inc. | Systems and methods for optical examination of samples |
US6427082B1 (en) * | 1998-12-23 | 2002-07-30 | Medispectra, Incorporated | Optical methods and systems for rapid screening of the cervix |
US6499060B1 (en) | 1999-03-12 | 2002-12-24 | Microsoft Corporation | Media coding for loss recovery with remotely predicted data units |
US7260248B2 (en) * | 1999-12-15 | 2007-08-21 | Medispectra, Inc. | Image processing using measures of similarity |
US7187810B2 (en) * | 1999-12-15 | 2007-03-06 | Medispectra, Inc. | Methods and systems for correcting image misalignment |
US20020007122A1 (en) * | 1999-12-15 | 2002-01-17 | Howard Kaufman | Methods of diagnosing disease |
GB2361372B (en) * | 2000-04-07 | 2004-08-25 | Snell & Wilcox Ltd | Video signal processing |
US6839661B2 (en) * | 2000-12-15 | 2005-01-04 | Medispectra, Inc. | System for normalizing spectra |
WO2002067576A1 (en) * | 2001-02-21 | 2002-08-29 | Koninklijke Philips Electronics N.V. | Facilitating motion estimation |
EP1442608B1 (de) * | 2001-10-29 | 2015-05-06 | Ceva D.S.P. Ltd. | Verfahren und vorrichtung zur bewegungsschätzung in einer digitalen bildsequenz |
US7003035B2 (en) | 2002-01-25 | 2006-02-21 | Microsoft Corporation | Video coding methods and apparatuses |
US7305034B2 (en) * | 2002-04-10 | 2007-12-04 | Microsoft Corporation | Rounding control for multi-stage interpolation |
US7620109B2 (en) * | 2002-04-10 | 2009-11-17 | Microsoft Corporation | Sub-pixel interpolation in motion estimation and compensation |
KR100985026B1 (ko) * | 2002-05-28 | 2010-10-04 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 영상의 모션 블러, 플리커 및 밝기 손실을 감소시키기 위한 방법, 비-스트로보스코픽 디스플레이 디바이스 |
US20040001546A1 (en) | 2002-06-03 | 2004-01-01 | Alexandros Tourapis | Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation |
US7280700B2 (en) * | 2002-07-05 | 2007-10-09 | Microsoft Corporation | Optimization techniques for data compression |
US7136518B2 (en) * | 2003-04-18 | 2006-11-14 | Medispectra, Inc. | Methods and apparatus for displaying diagnostic data |
US7459696B2 (en) * | 2003-04-18 | 2008-12-02 | Schomacker Kevin T | Methods and apparatus for calibrating spectral data |
US7282723B2 (en) * | 2002-07-09 | 2007-10-16 | Medispectra, Inc. | Methods and apparatus for processing spectral data for use in tissue characterization |
US7309867B2 (en) * | 2003-04-18 | 2007-12-18 | Medispectra, Inc. | Methods and apparatus for characterization of tissue samples |
US20040209237A1 (en) * | 2003-04-18 | 2004-10-21 | Medispectra, Inc. | Methods and apparatus for characterization of tissue samples |
US20040208390A1 (en) * | 2003-04-18 | 2004-10-21 | Medispectra, Inc. | Methods and apparatus for processing image data for use in tissue characterization |
US20040208385A1 (en) * | 2003-04-18 | 2004-10-21 | Medispectra, Inc. | Methods and apparatus for visually enhancing images |
US7469160B2 (en) * | 2003-04-18 | 2008-12-23 | Banks Perry S | Methods and apparatus for evaluating image focus |
US6818903B2 (en) * | 2002-07-09 | 2004-11-16 | Medispectra, Inc. | Method and apparatus for identifying spectral artifacts |
US6768918B2 (en) * | 2002-07-10 | 2004-07-27 | Medispectra, Inc. | Fluorescent fiberoptic probe for tissue health discrimination and method of use thereof |
US7154952B2 (en) | 2002-07-19 | 2006-12-26 | Microsoft Corporation | Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures |
US10554985B2 (en) | 2003-07-18 | 2020-02-04 | Microsoft Technology Licensing, Llc | DC coefficient signaling at small quantization step sizes |
US7426308B2 (en) * | 2003-07-18 | 2008-09-16 | Microsoft Corporation | Intraframe and interframe interlace coding and decoding |
US20050013498A1 (en) | 2003-07-18 | 2005-01-20 | Microsoft Corporation | Coding of motion vector information |
US7738554B2 (en) | 2003-07-18 | 2010-06-15 | Microsoft Corporation | DC coefficient signaling at small quantization step sizes |
US7609763B2 (en) * | 2003-07-18 | 2009-10-27 | Microsoft Corporation | Advanced bi-directional predictive coding of video frames |
US7499495B2 (en) * | 2003-07-18 | 2009-03-03 | Microsoft Corporation | Extended range motion vectors |
KR101135454B1 (ko) * | 2003-09-02 | 2012-04-13 | 엔엑스피 비 브이 | 특정 이미지의 특정 픽셀 값 결정 방법, 픽셀 값 결정 유닛, 이미지 처리 장치 및 컴퓨터 판독 가능한 저장 매체 |
US7577198B2 (en) * | 2003-09-07 | 2009-08-18 | Microsoft Corporation | Number of reference fields for an interlaced forward-predicted field |
US7577200B2 (en) * | 2003-09-07 | 2009-08-18 | Microsoft Corporation | Extended range variable length coding/decoding of differential motion vector information |
US7599438B2 (en) * | 2003-09-07 | 2009-10-06 | Microsoft Corporation | Motion vector block pattern coding and decoding |
US8064520B2 (en) * | 2003-09-07 | 2011-11-22 | Microsoft Corporation | Advanced bi-directional predictive coding of interlaced video |
US8085844B2 (en) * | 2003-09-07 | 2011-12-27 | Microsoft Corporation | Signaling reference frame distances |
US7317839B2 (en) * | 2003-09-07 | 2008-01-08 | Microsoft Corporation | Chroma motion vector derivation for interlaced forward-predicted fields |
US7620106B2 (en) * | 2003-09-07 | 2009-11-17 | Microsoft Corporation | Joint coding and decoding of a reference field selection and differential motion vector information |
US7724827B2 (en) | 2003-09-07 | 2010-05-25 | Microsoft Corporation | Multi-layer run level encoding and decoding |
US7567617B2 (en) * | 2003-09-07 | 2009-07-28 | Microsoft Corporation | Predicting motion vectors for fields of forward-predicted interlaced video frames |
US7623574B2 (en) * | 2003-09-07 | 2009-11-24 | Microsoft Corporation | Selecting between dominant and non-dominant motion vector predictor polarities |
US7616692B2 (en) * | 2003-09-07 | 2009-11-10 | Microsoft Corporation | Hybrid motion vector prediction for interlaced forward-predicted fields |
EP1665806A1 (de) * | 2003-09-17 | 2006-06-07 | Koninklijke Philips Electronics N.V. | Bewegungsvektorfeld-neu-timing |
US8000392B1 (en) | 2004-02-27 | 2011-08-16 | Vbrick Systems, Inc. | Phase correlation based motion estimation in hybrid video compression |
US7751482B1 (en) * | 2004-02-27 | 2010-07-06 | Vbrick Systems, Inc. | Phase correlation based motion estimation in hybrid video compression |
EP1723607B1 (de) * | 2004-03-02 | 2018-11-07 | Philips Intellectual Property & Standards GmbH | Bewegungskompensation |
US8634413B2 (en) | 2004-12-30 | 2014-01-21 | Microsoft Corporation | Use of frame caching to improve packet loss recovery |
US9077960B2 (en) | 2005-08-12 | 2015-07-07 | Microsoft Corporation | Non-zero coefficient block pattern coding |
US8265145B1 (en) | 2006-01-13 | 2012-09-11 | Vbrick Systems, Inc. | Management and selection of reference frames for long term prediction in motion estimation |
US8254455B2 (en) * | 2007-06-30 | 2012-08-28 | Microsoft Corporation | Computing collocated macroblock information for direct mode macroblocks |
US7990476B2 (en) * | 2007-09-19 | 2011-08-02 | Samsung Electronics Co., Ltd. | System and method for detecting visual occlusion based on motion vector density |
KR101540138B1 (ko) * | 2007-12-20 | 2015-07-28 | 퀄컴 인코포레이티드 | 적응적 조사영역을 갖는 모션추정 장치 및 방법 |
KR101536794B1 (ko) * | 2007-12-20 | 2015-07-14 | 퀄컴 인코포레이티드 | 후광현상이 줄어든 영상보간 장치 및 방법 |
US8189666B2 (en) | 2009-02-02 | 2012-05-29 | Microsoft Corporation | Local picture identifier and computation of co-located information |
US8537283B2 (en) | 2010-04-15 | 2013-09-17 | Qualcomm Incorporated | High definition frame rate conversion |
US8902359B1 (en) * | 2011-03-08 | 2014-12-02 | Marvell International Ltd. | Processor implemented systems and methods for handling of occlusion for frame rate upconversion |
CN102542575B (zh) * | 2011-12-06 | 2014-09-10 | 晶门科技(深圳)有限公司 | 基于运动向量投影的静止物体和运动背景区域的检测方法及装置 |
US9774881B2 (en) | 2014-01-08 | 2017-09-26 | Microsoft Technology Licensing, Llc | Representing motion vectors in an encoded bitstream |
US9749642B2 (en) | 2014-01-08 | 2017-08-29 | Microsoft Technology Licensing, Llc | Selection of motion vector precision |
US9942560B2 (en) | 2014-01-08 | 2018-04-10 | Microsoft Technology Licensing, Llc | Encoding screen capture data |
WO2015147689A1 (en) * | 2014-03-28 | 2015-10-01 | Huawei Technologies Co., Ltd. | Method and device for generating a motion-compensated video frame |
US9794588B2 (en) | 2015-09-30 | 2017-10-17 | Sony Corporation | Image processing system with optical flow recovery mechanism and method of operation thereof |
US10352838B2 (en) * | 2016-09-05 | 2019-07-16 | Omnitek Partners Llc | Mechanical high spin-shock testing machines |
US10671646B2 (en) * | 2016-12-22 | 2020-06-02 | Aon Global Operations Ltd (Singapore Branch) | Methods and systems for linking data records from disparate databases |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR910009880B1 (ko) * | 1983-07-25 | 1991-12-03 | 가부시기가이샤 히다찌세이사꾸쇼 | 인터레이스된 텔레비젼 신호중의 화상의 움직임 검출회로 |
DE3663875D1 (en) * | 1986-03-08 | 1989-07-13 | Ant Nachrichtentech | Motion compensating field interpolation method using a hierarchically structured displacement estimator |
WO1987005769A1 (en) * | 1986-03-19 | 1987-09-24 | British Broadcasting Corporation | Tv picture motion measurement |
DE3622487A1 (de) * | 1986-07-02 | 1988-01-14 | Schering Ag | Arzneimittel mit verzoegerter wirkstoffabgabe |
FR2616248B1 (fr) * | 1987-06-04 | 1992-04-24 | Thomson Grand Public | Procede d'interpolation temporelle d'images et dispositif pour la mise en oeuvre de ce procede |
EP0294956B1 (de) * | 1987-06-09 | 1994-07-20 | Sony Corporation | Reduzierung der Bewegungsvektoren in Fernsehbildern |
GB2231226B (en) * | 1989-04-27 | 1993-09-22 | Sony Corp | Motion dependent video signal processing |
GB2231752B (en) * | 1989-04-27 | 1993-08-04 | Sony Corp | Motion dependent video signal processing |
GB2231225B (en) * | 1989-04-27 | 1993-10-20 | Sony Corp | Motion dependent video signal processing |
GB2231227B (en) * | 1989-04-27 | 1993-09-29 | Sony Corp | Motion dependent video signal processing |
GB2231743B (en) * | 1989-04-27 | 1993-10-20 | Sony Corp | Motion dependent video signal processing |
US5170144A (en) * | 1989-07-31 | 1992-12-08 | Solatrol, Inc. | High efficiency, flux-path-switching, electromagnetic actuator |
GB9013642D0 (en) * | 1990-06-19 | 1990-08-08 | British Broadcasting Corp | Video signal processing |
CA2092076A1 (en) * | 1990-09-20 | 1992-03-21 | Graham Alexander Thomas | Video image processing |
GB2248361B (en) * | 1990-09-28 | 1994-06-01 | Sony Broadcast & Communication | Motion dependent video signal processing |
GB2249906B (en) * | 1990-11-15 | 1994-04-27 | Sony Broadcast & Communication | Motion compensated interpolation of images |
US5185819A (en) * | 1991-04-29 | 1993-02-09 | General Electric Company | Video signal compression apparatus for independently compressing odd and even fields |
GB9206396D0 (en) * | 1992-03-24 | 1992-05-06 | British Broadcasting Corp | Video image motion measurement |
-
1992
- 1992-05-26 GB GB9211154A patent/GB2256341B/en not_active Expired - Fee Related
- 1992-05-26 DE DE69223925T patent/DE69223925T2/de not_active Expired - Lifetime
- 1992-05-26 HU HU9300005A patent/HU9300005D0/hu unknown
- 1992-05-26 AT AT92910412T patent/ATE162037T1/de not_active IP Right Cessation
- 1992-05-26 DK DK92910412T patent/DK0540714T3/da active
- 1992-05-26 BR BR9205296A patent/BR9205296A/pt not_active Application Discontinuation
- 1992-05-26 ES ES92910412T patent/ES2112316T3/es not_active Expired - Lifetime
- 1992-05-26 EP EP92910412A patent/EP0540714B1/de not_active Expired - Lifetime
- 1992-05-26 CA CA002087946A patent/CA2087946A1/en not_active Abandoned
- 1992-05-26 SK SK399892A patent/SK399892A3/sk unknown
- 1992-05-26 WO PCT/GB1992/000952 patent/WO1992021201A1/en active IP Right Grant
- 1992-05-26 JP JP51052392A patent/JP3226539B2/ja not_active Expired - Fee Related
- 1992-05-26 AU AU17601/92A patent/AU660020B2/en not_active Ceased
- 1992-11-21 CN CN92113443A patent/CN1079350A/zh active Pending
- 1992-12-30 CZ CS923998A patent/CZ399892A3/cs unknown
-
1993
- 1993-01-20 BG BG097326A patent/BG97326A/bg unknown
- 1993-01-22 FI FI930280A patent/FI930280A/fi unknown
- 1993-01-22 NO NO93930221A patent/NO930221L/no unknown
-
1997
- 1997-06-11 US US08/871,925 patent/US6011596A/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
WO1992021201A1 (en) | 1992-11-26 |
CA2087946A1 (en) | 1992-11-25 |
GB9211154D0 (en) | 1992-07-08 |
FI930280A0 (fi) | 1993-01-22 |
BG97326A (bg) | 1993-12-24 |
DK0540714T3 (da) | 1998-09-07 |
SK399892A3 (en) | 1993-07-07 |
US6011596A (en) | 2000-01-04 |
FI930280A (fi) | 1993-01-22 |
DE69223925D1 (de) | 1998-02-12 |
CN1079350A (zh) | 1993-12-08 |
AU660020B2 (en) | 1995-06-08 |
CZ399892A3 (en) | 1993-05-12 |
JPH06500225A (ja) | 1994-01-06 |
EP0540714B1 (de) | 1998-01-07 |
GB2256341B (en) | 1995-02-15 |
HU9300005D0 (en) | 1993-04-28 |
NO930221L (no) | 1993-01-25 |
NO930221D0 (no) | 1993-01-22 |
GB2256341A (en) | 1992-12-02 |
BR9205296A (pt) | 1993-07-27 |
JP3226539B2 (ja) | 2001-11-05 |
EP0540714A1 (de) | 1993-05-12 |
ES2112316T3 (es) | 1998-04-01 |
AU1760192A (en) | 1992-12-30 |
ATE162037T1 (de) | 1998-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69223925T2 (de) | Videobildverarbeitung | |
DE69605936T2 (de) | Bewegungskompensierte interpolation | |
DE69123359T3 (de) | Videobildverarbeitung | |
DE69031055T2 (de) | Bewegungsabhängige Videosignalverarbeitung | |
DE69022470T2 (de) | Bewegungsabhängige Videosignalverarbeitung. | |
DE3850709T2 (de) | Reduzierung der Bewegungsvektoren in Fernsehbildern. | |
DE69625632T2 (de) | Verfahren und Vorrichtung zum Erzeugen eines Bildes hoher Auflösung aus einer Folge von Bewegungsbildern niedriger Auflösung | |
DE69515287T2 (de) | Verfahren zur erzeugung von synthesebild | |
DE69324922T2 (de) | Bewegungsausgeglichene fernsehbildbearbeitung | |
DE69418244T2 (de) | Videorauschreduktionsystem unter Verwendung einer Mehrbild-Bewegungsabschätzung, Unterdrückung von Abweichungen und Bahnkorrektur | |
DE69609482T2 (de) | Verfahren zur Interpolation von Vollbilden | |
DE69509141T2 (de) | Verfahren und digitale Schaltung zum Aufheben des Zeilensprungverfahrens während der Darstellung von Videobildern | |
EP0472239B1 (de) | Verfahren zur Ermittlung horizontaler Bewegungen in den Bildinhalten eines Fernsehsignals | |
DE69021431T2 (de) | Bewegungsabhängige Videosignalverarbeitung. | |
DE69230115T2 (de) | Auswertungsvorrichtung und Methode verwendbar für ein Gerät zur Detektion von Bewegungsvektoren | |
DE69126930T2 (de) | Video-Bewegungsvektorabschätzung mit asymmetrischem Aktualisierungsgebiet | |
DE2062922A1 (de) | Voraussage Video Codierung unter Ver Wendung der gemessenen Objektgeschwin digkeit | |
EP0154125A2 (de) | Verfahren zur bewegungsadaptiven Interpolation von Fernsehbildsequenzen sowie Anordnung und Anwendungen hierzu | |
DE69028792T2 (de) | Bewegungsabhängige Videosignalverarbeitung | |
DE69320461T2 (de) | Bewegungskompensierte Videobildverarbeitung | |
DE4023449C1 (de) | ||
DE69031144T2 (de) | Bewegungsabhängige Videosignalverarbeitung | |
DE69123844T2 (de) | Videosignalverarbeitung | |
DE69031322T2 (de) | Bewegungsabhängige Videosignalverarbeitung | |
DE69028239T2 (de) | Bewegungsabhängige Videosignalverarbeitung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition |