DE602004002935T2 - Bearbeitung von Tickern in Videosequenzen - Google Patents

Bearbeitung von Tickern in Videosequenzen Download PDF

Info

Publication number
DE602004002935T2
DE602004002935T2 DE602004002935T DE602004002935T DE602004002935T2 DE 602004002935 T2 DE602004002935 T2 DE 602004002935T2 DE 602004002935 T DE602004002935 T DE 602004002935T DE 602004002935 T DE602004002935 T DE 602004002935T DE 602004002935 T2 DE602004002935 T2 DE 602004002935T2
Authority
DE
Germany
Prior art keywords
image data
motion
column
motion vector
scene change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE602004002935T
Other languages
English (en)
Other versions
DE602004002935D1 (de
Inventor
Frank Janssen
Sven Salzer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of DE602004002935D1 publication Critical patent/DE602004002935D1/de
Application granted granted Critical
Publication of DE602004002935T2 publication Critical patent/DE602004002935T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • H04N7/013Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter the incoming video signal comprising different parts having originally different frame rate, e.g. video and graphics
    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04BGENERAL BUILDING CONSTRUCTIONS; WALLS, e.g. PARTITIONS; ROOFS; FLOORS; CEILINGS; INSULATION OR OTHER PROTECTION OF BUILDINGS
    • E04B2/00Walls, e.g. partitions, for buildings; Wall construction with regard to insulation; Connections specially adapted to walls
    • E04B2/02Walls, e.g. partitions, for buildings; Wall construction with regard to insulation; Connections specially adapted to walls built-up from layers of building elements
    • E04B2/04Walls having neither cavities between, nor in, the solid elements
    • E04B2/06Walls having neither cavities between, nor in, the solid elements using elements having specially-designed means for stabilising the position
    • E04B2/10Walls having neither cavities between, nor in, the solid elements using elements having specially-designed means for stabilising the position by filling material with or without reinforcements in small channels in, or in grooves between, the elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Television Systems (AREA)
  • Image Analysis (AREA)

Description

  • Die vorliegende Erfindung betrifft eine verbesserte bewegungskompensierte Erzeugung von neuen Bilddaten. Im besonderen betrifft die vorliegende Erfindung ein Verfahren zur Erzeugung von Bilddaten basierend auf bewegungskompensierten Daten, die von anderen Bildern stammen, wobei die anderen Bilder separate Bildbereiche umfassen.
  • Bewegungskompensation wird in einer zunehmenden Anzahl von Anwendungen verwendet, im besonderen in der digitalen Signalverarbeitung von aktuellen Fernsehempfängern. Speziell moderne Fernsehempfänger führen eine Vollbildumwandlung durch, im besonderen in Form einer bewegungskompensierten Hochkonvertierung zur Verbesserung der Bildqualität der wiederzugegebenen Bilder. Bewegungskompensierte Hochkonvertierung wird zum Beispiel auf eine Videosequenz mit einer Halbbild- oder Vollbildrate von 50 Hz angewandt, um höhere Frequenzen wie 60 Hz, 66,67 Hz, 75 Hz, 100 Hz, usw. zu erhalten. Während eine 50 Hz Eingangsignalfrequenz hauptsächlich für Fernsehsignale verwendet wird, die gemäß PAL oder SECAM Standard ausgestrahlt werden, besitzen NTSC-basierende Videosignale einer Halbbildrate von 60 Hz. Ein 60 Hz Eingangsvideosignal kann zu einer höheren Frequenz wie 72 Hz, 80 Hz, 90 Hz, 120 Hz, usw. hochkonvertiert werden.
  • Algorithmen zur Konvertierung von Vollbildraten erfordern die Erzeugung von Zwischenbildern, die den Videoinhalt zu einer zeitlichen Position darstellen, die sich von der Eingangsvideosequenz, zum Beispiel 50 Hz oder 60 Hz, unterscheiden. Während der Interpolation der Bilddaten des Eingangsbilds muss die Bewegung der bewegten Objekte in Betracht gezogen werden, um die Veränderung des Bildinhalts aufgrund von Objektbewegungen angemessen zu berücksichtigen.
  • Die Bewegung, die während der Interpretation der Bilddaten verwendet wird, wird basierend auf den zwei nächstliegenden Bildern der Eingangsvideosequenz bestimmt. Im Allgemeinen wird die Bewegungsschätzung auf Blockbasis durchgeführt. Um sichtbare Blockstrukturen in den bewegungskompensierten Bildern zu vermeiden, werden die Bewegungsvektoren, die auf Blockbasis bestimmt wurden, vorzugsweise jedem einzelnen Pixel zugeordnet, wobei das resultierende Feld von Bewegungsvektoren einer Filterung unterzogen wird, um scharfe Übergänge zu glätten.
  • In Übereinstimmung mit dem Bewegungsvektor, der einer bestimmten Bildposition zugeordnet ist, verschiebt die Bewegungskompensation die Bilddaten einer Bildposition, die durch den Bewegungsvektor angegeben wird. Die Größe der Verschiebung der angegebenen Bilddaten hängt nicht nur von der Länge des erhaltenen Bewegungsvektors ab, sondern auch von der relativen zeitlichen Positionen des neuen Bildes, das zwischen dem vorherigen und den nachfolgenden Bild erzeugt werden soll.
  • Wenn aus den zwei Bildern, vorzugsweise dem vorherigen und dem nachfolgenden Bild, neue Bilddaten erzeugt werden, bezieht sich der Bewegungskompensationsalgorithmus auf die Bilddaten in dem vorherigen und dem nachfolgenden Bild. Während die Bilddaten aus dem vorherigen Bild in Richtung des Bewegungsvektors vorwärts verschoben werden, werden die Bilddaten aus den nachfolgenden Bild rückwärts verschoben. Die Größe der Verschiebung nach vorne und nach hinten wird in Abhängigkeit der zeitlichen Positionen des neuen Bildes im Bezug auf die referenzierten Bilder bestimmt. Während die Verschiebung der Vorwärtsverschiebung entsprechend eines berechneten Bruchteils der Bewegungsvektorlänge ausgeführt wird, wird die rückwärts Verschiebung mit dem umgekehrten negativen Bruchteil des Bewegungsvektors ausgeführt. Die referenzierten Pixelwerte an jeder Pixelposition werden interpoliert. Die Interpolation kann auch auf einer Gewichtung der Bilddaten der referenzierten Bilder basierend, die auf den zeitlichen Positionen bezüglich des neuen zu erzeugenden Bildes basieren.
  • Der herkömmliche Ansatz zur Ausführung einer Bewegungsschätzung ist in 1A dargestellt. Aus einer Eingangssequenz 101113, werden Bilddaten von zwei benachbarten Bildern verwendet, um bewegungskompensierte neue Bilddaten 130 zu erzeugen. Die neu erzeugten Bilddaten 130 spiegeln die zeitliche Position des bewegten Objekts 100 innerhalb der Bildsequenzen, gemäß der zeitlichen Positionen der neuen Bilddaten 130, wieder. Wie in 1A zu erkennen ist, liegt die Position des bewegten Objekts 100 in dem neuen Bild 130 zwischen den Positionen der Bilder 102, 103, die für die Bewegungskompensation herangezogen wurden. Daher stellt Bild 130 die Bewegungsphasen des bewegten Objekts 100 richtig dar.
  • Eine bewegungskompensierte Interpolation zur Erzeugung zusätzlicher Vollbilder ist in EP-A-0 883 298 beschrieben. Die bewegungskompensierte Interpolation wird nur auf Bildbereiche von "besonderer Bewegung", wie zum Beispiel Lauftext oder horizontales oder vertikales Schwenken, angewandt. Ein Szenenwechsel wird auf Basis von Vollbildern detektiert. Wenn ein Szenenwechsel detektiert wird, wird die Bewegungskompensation während des gesamten Vollbilds ausgesetzt.
  • Jedes Bild der Eingangsbildsequenz 101113 besteht aus zwei separaten Bildbereichen. Im Besonderen wird einen Nachrichtenfenster 123 einem Hintergrundbild 122 überlagert. Solch ein getrennter Bildbereich ist in Rundfunk-Fernsehsignalen immer öfter zu finden. Das überlagerte Nachrichtenfenster besitzt normalerweise die Form eines Textbanners, das im unteren Bereich des Videobildes eingefügt wird. Das Textbanner zeigte Serviceinformationen an, die durch den Sender bereitgestellt werden. Die angezeigte Serviceinformation kann sich entweder auf den angezeigten Bildinhalt, auf entsprechende Programminformationen oder einen bestimmten Nachrichtendienst, wie Börseninformationen, beziehen. Die individuelle Positionen für das Einfügen eines Nachrichtenfensters in das Videobild kann abhängig vom Sender oder Sendeland verschieden sein.
  • Wie in 1A dargestellt, wird der Text, der Nachrichtenfenster 123 angezeigt wird, nach links verschoben, so dass der Text mit einer vordefinierten Geschwindigkeit kontinuierlich über den Bildschirm läuft.
  • Obwohl der separate Bildbereichen 123 und der Hintergrund 122 unterschiedliche Bildinhalts betreffen, stellt die Bewegungskompensation eine akkurate Erzeugung neuer Bilddaten für beide Bildbereiche bereit.
  • Um einen Szenenwechsel 120 in einer Eingangsvideosignalsequenz 101113 zu detektieren führt die Signalverarbeitung der vorliegenden Erfindung zur bewegungskompensierten Interpolation eine Detektion eines Szenenwechsels durch. Der Detektor für einen Szenenwechsel detektiert eine abrupte Änderung des Bildinhalts zwischen den Bildern, die in die Erzeugung eines neuen Bildes einbezogen sind. Details zur Implementierung einer der Detektion eines Szenenwechsels sind zum Beispiel aus EP-A-0 787 176 bekannt.
  • Wenn ein Szenenwechsel 120 zwischen zwei verwendeten Bildern 103, 111 detektiert wird, wird die Bewegungskompensation unterbunden, um zu vermeiden, dass Störungen in das interpolierte Bild 140 gelangen. Zu diesem Zweck wird der Bewegungskompensationsalgorithmus durch einen anderen vordefinierten Interpolationsalgorithmus ersetzt.
  • Vorzugsweise wird das Bild 140 unter Bezug auf nur eines der beiden Bilder 103, 111, die für die Bewegungskompensation verwendet werden, erzeugt. Vorzugsweise werden neue Bilddaten 140 basierend auf einer linearen Interpolation des aktuellen Bildes 111 erzeugt.
  • Da die lineare Interpolation, wie in 1B dargestellt, für alle Bildbereiche 122, 123 sich nur auf ein einzelnes Bild bezieht, wird die gleichmäßige Bewegung des Textes in dem Nachrichtenfenster 143 unterbrochen und es entsteht eine ruckartige Erscheinung.
  • Nachdem der Szenenwechsel 120 stattgefunden hat, wird die bewegungskompensierte Interpolation, wie in 1C dargestellt, fortgesetzt.
  • Ein Szenenwechsel 120, der für ein komplettes Bild detektiert wurde, betrifft nicht auch automatisch das überlagerte Nachrichtenfenster 123. Im Allgemeinen verursacht einen Szenenwechsel in dem Hintergrundbild 122 ein Szenenwechsel-Detektionssignal. Die Erscheinung der Nachrichtenfensters, das nur einen kleinen Teil des vollständigen Bildes betrifft, hat sich jedoch nicht geändert. Eine verbesserte bewegungskompensierte Interpretationen zu einem Szenenschnitt gemäß dem in 1B dargestellten Ansatz wirkt sich nachteilig auf die Erscheinung der Bewegung in einem Nachrichtenfensterbereich aus.
  • Die vorliegenden Erfindung versucht diesen Nachteil zu beseitigen und stellt ein verbessertes Verfahren und einen Signalprozessor zur Erzeugung neuer Bilddaten bereit.
  • Dies wird durch die Merkmale der unabhängigen Patentansprüche erreicht.
  • Gemäß eines ersten Aspekts der vorliegenden Erfindung wird ein Verfahren zur Erzeugung von Bilddaten von Videodaten aus Bildern in einer Videosequenz bereitgestellt. Das Verfahren bestimmt separate Bildbereiche, die sich auf unterschiedliche Bildinhalte beziehen. Ein Szenenwechsel zwischen zwei zur Erzeugung von Bilddaten ausgewählten Bildern wird detektiert. Neue Bilddaten werden basierend auf Bewegungskompensation erzeugt, wenn kein Szenenwechsel detektiert wird. Wenn eine Szenenwechsel detektiert wird, werden die neuen Bilddaten basierend auf einer Interpolation von Bilddaten aus einem einzigen Bild erzeugt, wobei die Bilddaten der separaten Bildbereichen basie rend auf Bewegungskompensation von Bilddaten beider ausgewählter Bilder erzeugt werden.
  • Gemäß eines weiteren Aspekts der vorliegenden Erfindung wird ein Signalprozessor zur Erzeugung von Bilddaten aus Videodaten von Bildern in einer Videosequenz bereitgestellt. Der Signalprozessor umfasst eine Detektionseinheit, einen Szenenwechseldetektor und eine Ausgaberecheneinheit. Die Detektionseinheit bestimmt einen separaten Bildbereich, der einen anderen Bildinhalt betrifft. Der Szenenwechseldetektor detektiert einen Szenenwechsel zwischen zwei Bildbereichen, die zur Erzeugung neuer Bilddaten ausgewählt wurden. Die Ausgaberecheneinheit erzeugt, basierend auf einer Bewegungskompensation Bilddaten, wenn ein Szenenwechsel nicht detektiert wurde. Wenn ein Szenenwechsel detektiert wurde, werden die neuen Bilddaten basierend auf Bilddaten eines einzigen Bildes erzeugt, wobei die Bilddaten für den separaten Bildbereich basierend auf Bewegungskompensation von Bilddaten aus den beiden ausgewählten Bildern erzeugt werden.
  • Es ist der besondere Ansatz der vorliegenden Erfindung auf einen Laufschriftbereich eine andere Verarbeitung anzuwenden, wenn es Szenenwechsel detektiert wird. Indem die bewegungskompensierte Interpolation für den Laufschriftbereich beibehalten wird, während die Hintergrundbilddaten nur auf Basis eines einzigen Bildes interpoliert werden, werden Bewegungsartefakte in dem Laufschriftbereich vermieden.
  • Vorzugsweise wird der separate Bildbereich basierend auf einer Bewegungsvektorschätzungen bestimmt. Dementsprechend ist keine besondere Indikation des separaten Bildbereichs in der erhaltenen Videosequenz erforderlich. Ferner wird die Technik einer separaten Bildbereichs auf einfache Weise implementiert, da die entsprechenden Bewegungsvektoren bereits für die eingesetzte Bewegungskompensation erforderlich sind. Eine Detektion eines separaten Bildbereichs basierend auf Bewegungsvektoren führt ferner dazu, dass eine separate Verarbeitung nur dann beginnt, wenn die bewegungskompensierte Interpolation in dem separaten Bereich aktuelle unterbrochen würde. Durch Anwendung einer Detektion auf Basis von Bewegungsvektoren kann ein Bildinhalt mit konstanter Bewegung zuverlässig detektiert und unterschiedlich verarbeitet werden.
  • Vorzugsweise wird die Bewegungsvektorschätzungen zwischen den zwei für die Erzeugung neuer Bilddaten ausgewählten Bilder ausgeführt.
  • Gemäß eines bevorzugten Ausführungsbeispiels wird ein Zeilen- oder Spaltenbewegungsvektor zur Bestimmung der separaten Bildbereichs bestimmt. Auf diese Weise kann eine kontinuierliche Bewegung innerhalb eines Bildbereichs zwischen gegenüberliegenden Bildkrändern auf einfache Weise detektiert werden.
  • Der Zeilen- oder Spaltenbewegungsvektor wird vorzugsweise basierend auf den Bewegungsvektoren detektiert, die für eine vollständige Zeile oder Spalte des Bildes bestimmt wurden. Wenn eine gemeinsame Bewegung für eine fast vollständige Zeile oder Spalte bestimmt werden kann, wird ein entsprechender Bewegungsvektor berechnet.
  • Zusätzlich können weitere Kriterien zur Bestimmung eines separaten Bildbereichs in Betracht gezogen werden. Beispielsweise wird nur eine bestimmte Bildposition, nämlich nahe dem unteren Bereich eines Videobildes, hierzu analysiert. Ferner kann die Detektion eines separaten Bildbereichs in Abhängigkeit einer kontinuierlichen Detektion von entsprechenden Bewegungsvektoren in einer Mehrzahl von, vorzugsweise einer vorbestimmten Anzahl von aufeinander folgenden Bildern, bestimmt werden.
  • Vorzugsweise wird eine lineare Interpolation angewandt, um neue Bilddaten aus einem einzigen Bild zu erzeugen, falls ein Szenenwechsel auftritt.
  • Andere Ausführungsbeispiele und Vorteile der vorliegenden Erfindung werden aus der folgenden Beschreibung der bevorzugten Ausführungsbeispiele ersichtlich, wobei:
  • 1A1C zeigt eine verbesserte bewegungskompensierte Interpolation;
  • 2A2C zeigt eine verbesserte bewegungskompensierte Interpolation gemäß der vorliegenden Erfindung;
  • 3 zeigt eine Teilung eines Bildes in eine Mehrzahl von Blöcken mit gleicher Größe;
  • 4 zeigt einen detektierten Bewegungsvektor, der das Vorhandensein eines Nachrichtenfensters anzeigt; und
  • 5 zeigt in einem Blockschaubild eine Anordnung eines Signalprozessors gemäß der vorliegenden Erfindung.
  • Die vorliegende Erfindung betrifft die digitale Signalverarbeitung, im besonderen die Signalverarbeitung in modernen Fernsehempfängern. Moderne Fernsehempfänger verwenden Hochkonvertierungs-Algorithmen um die Qualität der wiedergegebenen Bilder zu verbessern. Zu diesem Zweck werden Zwischenbilder aus zwei aufeinander folgenden Bildern erzeugt. Zur Erzeugung eines Zwischenbilds muss die Bewegung von bewegten Objekten berücksichtigt werden, um die Objektposition innerhalb des neuen Bildes zu dem Zeitpunkt des Zwischenbilds entsprechend anzupassen.
  • Wie im Zusammenhang mit 1B beschriebenen, verschlechtern bewegungskompensierte Interpolationsalgorithmen, die die Bewegungskompensation aussetzen wenn eine Szenenwechsel detektiert wird, die Bildqualität eines Nachrichtenfensters. Wie in 1 zu erkennen ist, ist das Textbanner des Nachrichtenfensters zwischen den Bildern mit einer konstanten Verschiebung von zwei Zeichen verschoben. Wenn Zwischenbilder zwischen den Bildern 101113 der Eingangsvideosequenz erzeugt werden, wird der bewegungskompensierte Text gemäß der detektierten Bewegung und der zeitlichen Bildposition verschoben, wie in dem dargestellten Beispiel daregestell, bezüglich den benachbarten Bildern, um ein Zeichen.
  • Wenn jedoch eine Szenenschnitt 120 detektiert wird, wird die Bewegungskompensation für das komplette Bild ausgesetzt und das Textbanner 143 des neu erzeugten Bild 140 unterscheidet sich nicht von dem aktuellen Bild 111. Somit kann keine glatte Bewegung eines Textbanner erreicht werden und ein Betrachter wird eine ruckartige Erscheinung wahrnehmen.
  • Um diesen Nachteil zu unterdrücken verarbeitet die vorliegende Erfindung Bilddaten eines Textbanner und einen Hintergrundbild einzeln. Wie in 2B dargestellt, wird die bewegungskompensierte Interpolation für ein Hintergrundbild ausgesetzt, und eine lineare Interpolation 220, 224 wird für die Bildbereiche des Hintergrundbild 242 angewandt. Im Gegensatz dazu wird der Bildbereich des Textbanner 243 basierend auf bewegungskompensierter Interpolation 222 erzeugt.
  • Durch Anwendung anderer Signalverarbeitungs-Algorithmen zur Hochkonvertierung eines Nachrichtenfensters können Bewegungsartefakte vermieden werden und ein Interpolationsergebnis mit einer hohen Bildqualität wird erhalten.
  • Wie in den 2A bis 2C dargestellt, werden die Bildinhalte des Hintergrundbildbereichs 122 und des Nachrichtenbereichs 123 basierend auf bewegungskompensierten Interpolation verarbeitet solange kein Szenenwechsel 120 auftritt. Bewegungskompensierte Interpolation wird auf den gesamten Bildbereichen angewandt, um Zwischenbilder 130, 150 zu erzeugen, die interpolierte Hintergrundbilddaten 132, 152 und Nachrichtenbilddaten 133,153 enthalten.
  • Sobald ein Szenenwechsel 120 detektiert wird, wird eine Ansatz zur getrennten Signalverarbeitung angewandt. Während auf die Hintergrundbilddaten 220, 224 eine lineare Interpolation der aktuellen Bilddaten zur Erzeugung interpolierter Hintergrundbilddaten 242 angewandt wird, wird auf den Nachrichtenfensterbereich eine Bewegungskompensation 222 angewandt, um die kontinuierliche Bewegung des Textbanners während der Interpolation angemessen zu berücksichtigen.
  • Der Nachrichtenbereich, der anders verarbeitet werden soll, wird vorzugsweise basierend auf einem Detektor für Zeilen- oder Spaltenvektor detektiert. Ein Detektor für einen Spaltenvektor detektiert den Bereich, der den gleichen horizontalen Bewegungsvektor besitzt. Der Nachrichtenbereich hat eine zeitliche Beziehung zu dem vorherigen erhaltenen Halbbild. Basierend auf der bestimmten entsprechenden Informationen kann die Bewegungskompensation für den Nachrichtenbereich ausgeführt werden. Diese andere Verarbeitung des Nachrichtenbereichs führt zu einer glatten und gleichmäßigeren Bewegung der Nachricht, nachdem ein Szenenwechsel auftritt. Als nächstes wird die Bestimmung eines Zeilen- oder Spaltenbewegungsvektors für die Detektion eines Nachrichtenbereichs beschrieben.
  • 3 beschreibt die Teilung jedes Videobilds in einer Mehrzahl von Blöcken B(x, y). Jeder Block hat eine breite X und eine Höhe Y, wobei X und Y jeweils die Anzahl der Pixel in Zeilen- und Spaltenrichtung angeben. Die Anzahl der Blöcke pro Zeile oder Spalte kann durch Anwendung der folgenden Formel berechnet werden: Xmax = Pixel pro Zeile/X Ymax = Pixel pro Spalte/Y
  • Um die gleichförmige Bewegung aller Blöcke eines großen Bildbereichs, z.B. eines Nachrichtenbereichs, genau zu bestimmen, wird die Bewegung einer vollständigen Zeile oder Spalte von Blöcken bestimmt. Für den Fall, dass die Bewegung in einer vorherrschenden Anzahl von Blöcken in einer Zeile oder Spalte auftritt, entspricht der Zeilen- oder Spaltenvektor der Bewegung des größten Objekts in dieser Zeile oder Spalte.
  • Sobald die Bestimmung des Bewegungsvektors für ein aktuelles Bild n (Halbbild oder Vollbild) abgeschlossen ist, wird mit der Berechnung der entsprechenden Zeilen- und Spaltenvektoren begonnen. Die berechneten Zeilen- und Spaltenvektoren werden für die Verwendung während der Bewegungsschätzung der nächsten Halb- oder Vollbilds bereitgestellt.
  • Zuerst werden Bewegungsvektoren mit einer geringeren Länge ausgeschlossen. Hierzu wird der Bewegungsvektor v → jedes Blocks mit einem vordefinierten Schwellenwert vthr verglichen. Das Ergebnis hieraus wird in dem binären „vecthr"-Flag angezeigt, das jedem Block zugeordnet ist. Dieses Flag wird, wie in Gleichung (1) angegeben, berechnet:
    Figure 00090001
  • Vorzugsweise wird der Satz von Bewegungsvektoren, die für alle Blöcke eines Bildes n bestimmt wurden, so überarbeitet, dass die Bewegungsvektoren vthr, die die vordefinierte Schwelle nicht überschreiten auf null (0; 0) eingestellt werden. Diese Änderungen wird durch Gleichungen (2) geschrieben:
    Figure 00090002
  • Gemäß Gleichung (2) wird einen Schwellenwertvektor v →threshold berechnet. Der Schwellenwertvektor wird auf null eingestellt, wenn das zuvor berechnete Flag (vgl. Gleichung (1)) null ist. Andernfalls wird dem bestimmten Vektor v → der Schwellenwertvektor v →threshold zugeordnet.
  • Zur Berechnung eines Zeilen- oder Spaltenvektors wird vorzugsweise ein Mittelwert eines von null verschiedenen Schwellenwertvektors berechnet. Ein Fachmann kann jedoch jeden anderen Algorithmus anwenden, um einen Bewegungsvektor zu bestimmen, der einen gemeinsamen Bewegungsvektor für eine Mehrzahl von einzelnen Bewegungsvektoren in einer Zeile oder Spalte darstellt.
  • Für die Berechnung des Zeilen- der Spaltenvektors werden die einzelnen Blocklängen und die Anzahl der Blöcke, die den Schwellenwert vthr überschreiten, zusammengezählt, wie in den folgenden Gleichungen (3) bis (6) angegeben:
    Figure 00100001
  • Die Zeilen- und Spaltenvektoren v →line, v →column werden gemäß der folgenden Gleichungen (7) und (8) berechnet. Ein Bewegungsvektor wird nur berechnet, wenn die Anzahl der Blöcke, die den vordefinierten Schwellenwert vthr für eine Zeile oder einen anderen vordefinierten Schwellenwert nthrline, nthrcolumn für eine Spalte überschreiten.
  • Figure 00100002
  • Figure 00110001
  • Diese berechneten Zeilen- und Spaltenvektoren werden in den folgenden Halb-/Vollbildern als zusätzliche Kandidaten für Vektoren während der Bewegungsschätzung verwendet.
  • Bezüglich oben genannten Schwellwerte vthr, nthrline, nthrcolumn werden vorzugsweise die folgenden Werte verwendet: v →thr = 4 nthrline = xmax/2 (45 für PAL-Standard und X = 8) nthrcolumn = ymax/2 (36 für PAL-Standard und Y = 8),wobei xmax und ymax die vollständige Breite/Höhe eines Halb- oder Vollbilds darstellen.
  • Die Werte werden vorzugsweise für eine Blockgröße von 8×8 Pixel verwendet.
  • Während die vorherige Beschreibung auf der Annahme basiert, dass Zeilen- und Spaltenvektoren für jede Zeile und Spalte einzeln berechnet werden, kann ein gemeinsamer Bewegungsvektor zusätzlich oder alternativ aus einer Kombination von zwei Zeilen oder Spalten berechnet werden. Ein zweiteiliger oder zweispaltiger Bewegungsvektor kann die Bewegungsgenauigkeit für Objekte, die eine vorherrschende Bewegung innerhalb zwei Zeilen oder Spalten beschreiben, zusätzlich verbessern.
  • Der Hardwareaufwand kann durch Vermeiden von Übertragungen aufgrund der Kombination von mehreren Zeilen oder Spalten reduziert werden.
  • Auf die gleiche Weise können mehr als zwei Zeilen oder Spalten, zum Beispiel 3, 4 oder 5, kombiniert werden, um einen Bewegungsvektor mit einer verbesserten Genauigkeit für Objekte der entsprechenden Größe zu erhalten.
  • Obwohl beschrieben wurde, den Schwellenwertvektor vthr für die Berechnung eines Zeilen- und Spaltenvektors gleichförmig einzustellen, können unterschiedliche Schwellenwerte für eine Zeile und eine Spalte verwendet werden. Zusätzlich kann der Schwellenwertvektor vthr in zwei unterschiedliche Schwellenwerte geteilt werden, die für eine horizontale Bewegungsvektorkomponente und eine vertikale Bewegungsvektorkomponente verwendet werden.
  • 4 zeigt ein Beispiel für ein Bild 400, das einen Nachrichtenbereich 420 enthält. Der Nachrichtenbereich 420, der den Hintergrundbilden 410 überlagert ist, wird basierend auf dem Zeilenvektor 430 detektiert
  • Eine Anordnung eines Signalprozessors 500 gemäß der vorliegenden Erfindung ist in 5 dargestellt. Signalprozessor 500 empfängt zwei Eingabebilder 510, 520 von aufeinander folgenden Positionen n, n-1. Ein Szenenwechseldetektor 510, der in Signalprozessor 500 enthalten ist, bestimmt, ob ein Szenenwechsel 120 zwischen den beiden Bildern 501, 502 auftritt. Wenn ein Szenenwechsel detektiert wurde, wird dies durch Ausgabesignal c angegeben.
  • Signalprozessor 500 umfasst ferner eine Detektionseinheit 520 für einen Zeilen- oder Spaltenvektor, zur Bestimmung ob ein Zeilenvektor detektiert wurde. Das Detektionsergebnis wird durch Ausgabesignal rv angezeigt.
  • Entsprechend den Detektionsergebnis c des Szenenwechseldetektors 510 und den Detektionsergebnis rv der Detektionseinheit 520 für den Zeilenvektor, leitet die Umschaltetmatrix 530 die erforderlichen Daten der Eingabebilder 501, 502 zusammen mit der erforderlichen Verarbeitung an die Signalverarbeitungseinheit 540. Die Signalverarbeitungseinheit 540 führt die erforderliche bewegungskompensierte Interpolation oder lineare Interpolation aus und erzeugt Ausgabebilddaten 550.
  • Gemäß den erhaltenen Szenenwechsel- und Zeilenvektor-Detektionsergebnisen c, rv, sendet die Umschaltmatrix 530 die entsprechenden Eingabehalbbilder und die Verarbeitung, die zurückgegeben werden soll, an Signalverarbeitungseinheit 540. Gemäß dem Detektionsergebnis wird der Signalverarbeitungseinheit 540 die folgende Verarbeitung angezeigt:
    • 1. c = kein Szenenwechsel detektiert rv = nicht verwendet Bewegungskompensation zwischen n und n-1
    • 2a. c = Szenenwechsel detektiert rv = kein Zeilenvektor Lineare Interpolation von n in dem Bereich ohne Zeilenvektor
    • 2b. c = Szenenwechsel detektiert rv = Zeilenvektor Bewegungskompensation zwischen n und n-1 in dem Bereich mit Zeilenvektor
  • Obwohl die folgende Beschreibung sich hauptsächlich auf Bilder bezieht, ist in dem Fachmann bekannt, dass diese Bilder entweder Halbbilder oder Vollbilder sein können.
  • Zusammenfassend betrifft die vorliegende Erfindung eine verbesserte bewegungskompensierte Interpolation von Bildern in einer Videosequenz, im besonderen für die Verwendung zur Hochkonvertierungs-Verarbeitung. Um eine gleichmäßige Objektbewegung in der interpolierten Bildsequenz zu erhalten, werden separate Bildbereiche unterschiedlich verarbeitet, wenn ein Szenenwechsel in der Videosequenz auftritt. Während für den einen Bildbereichen die Bewegungskompensation ausgesetzt wird, wird in dem anderen Bildbereichen die bewegungskompensierte Interpolation angewandt.

Claims (26)

  1. Verfahren zur Erzeugung von Bilddaten (130, 240) aus Videodaten von Bildern (101113) einer Videosequenz, das Verfahren umfasst die Schritte: Bestimmen eines separaten Bildbereichs (123) innerhalb der Bilder (101113), wobei der separate Bildbereichs (123) einen anderen Bildinhalt betrifft; Detektieren eines Szenenwechsels zwischen zwei für die Erzeugung neuer Bilddaten (240) ausgewählten Bildern (103, 111) und Erzeugen der neuen Bilddaten (130) basierend auf Bewegungskompensation, wenn ein Szenenwechsel (120) nicht detektiert wurde, gekennzeichnet durch den Schritt Erzeugen der neuen Bilddaten (240) basierend auf einer Interpolation von Bilddaten eines einzelnen Bildes (111), wenn ein Szenenwechsel (120) detektiert wurde, wobei die Bilddaten des separaten Bildbereichs (243) basierend auf Bewegungskompensation von Bilddaten beider ausgewählten Bilder (103, 110) erzeugt werden.
  2. Verfahren nach Anspruch 1, wobei der separate Bildbereich (123) basierend auf Bewegungsvektorschätzung bestimmt wird.
  3. Verfahren nach Anspruch 2, wobei die Bewegungsvektorschätzung zwischen den zwei für die Erzeugung neuer Bilddaten (130, 240) ausgewählten Bildern (103, 111) durchgeführt wird.
  4. Verfahren nach Anspruch 2 oder 3, wobei die Bewegungsvektorschätzung einen Zeilen- oder Spaltenbewegungsvektor (430) bestimmt.
  5. Verfahren nach Anspruch 4, wobei der Zeilen- oder Spaltenbewegungsvektor (430) basierend auf den für eine Zeile oder Spalte geschätzten Bewegungsvektoren bestimmt wird.
  6. Verfahren nach Anspruch 5, wobei die Bewegungsvektorschätzungen auf Blockbasis durchgeführt wird und der Zeilen- oder Spaltenbewegungsvektor (430) basierend auf den Blöcken einer vollständigen Zeile oder Spalte berechnet wird.
  7. Verfahren nach Anspruch 5 oder 6, wobei nur die Bewegungsvektoren für die Zeilen- oder Spaltenbewegungsvektorschätzung (430) in Betracht gezogen werden, die einen vordefinierten Schwellenwert überschreiten.
  8. Verfahren nach einem der Ansprüche 1 bis 7, wobei die zwei ausgewählten Bilder das aktuelle und das vorherige Bild (111, 103) sind.
  9. Verfahren nach einem der Ansprüche 1 bis 8, wobei die Interpolation eine Interpolation basierend auf einem einzelnen Bild ist, die eine lineare Interpolation des aktuellen Bildes (111) ist.
  10. Verfahren nach einem der Ansprüche 1 bis 9, wobei der Schritt zur Detektion eines Szenenwechsels die Schritte umfasst: Zusammenzählen der absoluten Pixeldifferenzen, die zwischen zwei ausgewählten Bildern (103, 111) bestimmt wurden und Vergleichen der zusammengezählten Summe mit einer vordefinierten Schwelle und Detektieren eines Szenenwechsels (120), wenn die zusammengezählte Summe einen vordefinierten Schwellenwert überschreitet.
  11. Verfahren nach einem der Ansprüche 1 bis 10, wobei der separate Bildbereich (123) aus Bilddaten besteht, die Hintergrundbilddaten der Videosequenz überlagert werden.
  12. Verfahren nach einem der Ansprüche 1 bis 11, wobei der separate Bildbereich (123) ein Laufschriftfenster ist.
  13. Verfahren nach Anspruch 11, wobei der separate Bildbereich (123) durch Detektion eines Zeilenbewegungsvektors (430) detektiert wird.
  14. Signalprozessor zu Erzeugung von Bilddaten (130, 240) aus Videodaten von Bildern (101113) in einer Videosequenz, umfassend: eine Detektiereinheit (520) zur Bestimmung eines separaten Bildbereichs (123) innerhalb der Bilder (101113), wobei der separate Bildbereich (123) einen anderen Bildinhalt betrifft, einen Szenenwechseldetektor (510) für die Detektion eines Szenenwechsel zwischen zwei zu Erzeugung neuer Bilddaten ausgewählten Bildern (103, 111) und eine Ausgaberecheneinheit (530, 540) zu Erzeugung neuer Bilddaten (130) basierend auf Bewegungskompensation, wenn eine Szenenwechsel (120) nicht detektiert wurde, dadurch gekennzeichnet, dass die Ausgaberecheneinheit (530, 540) die neuen Bilddaten (240) basierend auf Bilddaten eines einzelnen Bildes (111) erzeugt, wenn ein Szenenwechsel (120) detektiert wurde, wobei die Bilddaten für den separaten Bildbereich (243) basierend auf Bewegungskompensation von Bilddaten beider ausgewählter Bilder (103, 111) erzeugt werden.
  15. Signalprozessor nach Anspruch 14, wobei die Detektiereinheit (520) den separaten Bildbereich (123) basierend auf Bewegungsvektoren detektiert.
  16. Signalprozessor nach Anspruch 15, wobei die erhaltenen Bewegungsvektoren die Bewegung zwischen zwei für die Erzeugung neuer Bilddaten (130, 240) ausgewählten Bilder (103, 111) darstellen.
  17. Signalprozessor nach Anspruch 15 oder 16, wobei die Detektiereinheit (520) einen Zeilen- oder Spaltenbewegungsvektor (430) basierend auf den erhaltenen Bewegungsvektoren bestimmt.
  18. Signalprozessor nach Anspruch 17, wobei die Detektiereinheit (520) den Zeilen- oder Spaltenbewegungsvektor (430) basierend auf den für eine Zeile oder Spalte geschätzten Bewegungsvektoren bestimmt.
  19. Signalprozessor nach Anspruch 18, wobei die erhaltenen Bewegungsvektoren die Bewegung auf Blockbasis angeben und die Detektiereinheit (520) den Zeilen- oder Spaltenbewegungsvektor (430) basierend auf Blöcken einer vollständigen Zeile oder Spalte berechnet.
  20. Signalprozessor nach Anspruch 18 oder 19, wobei die Detektiereinheit (520) nur die Bewegungsvektoren für die Zeilen- oder Spalten-Bewegungsvektorschätzungen (430) in Betracht zieht, die einen vordefinierten Schwellenwert überschreiten.
  21. Signalprozessor nach einem der Ansprüche 14 bis 20, wobei die zwei ausgewählten Bilder das aktuelle und das vorherige Bild (111, 103) sind.
  22. Signalprozessor nach einem der Ansprüche 14 bis 21, wobei die Ausgaberecheneinheit (530, 540) die neuen Bilddaten basierend auf einer linearen Interpretationen von Bilddaten des aktuellen Bildes (111) erzeugt.
  23. Signalprozessor nach einem der Ansprüche 14 bis 22, wobei der Szenenwechseldetektor (510) umfasst: eine Summiereinheit zum Zusammenzählen absoluter Pixeldifferenzen, die zwischen zwei ausgewählten Bildern (103, 111) bestimmt wurden und eine Vergleichseinheit zum Vergleichen der zusammengezählten Summe mit einem vordefinierten Schwellenwert, und zur Detektion eines Szenenwechsels (120), wenn die zusammengezählte Summe einen vordefinierten Schwellenwert überschreitet.
  24. Signalprozessor nach einem der Ansprüche 14 bis 23, wobei der separate Bildbereich (123) aus Bilddaten besteht, die Hintergrundbilddaten der Videosequenz überlagert werden.
  25. Signalprozessor nach einem der Ansprüche 14 bis 24, wobei der separate Bildbereich (123) eine Laufschriftfenster ist.
  26. Signalprozessor nach Anspruch 24, wobei die Detektiereinheit (520) den separaten Bildbereich (123) durch Detektion eines Zeilenbewegungsvektors (34) detektiert.
DE602004002935T 2004-04-30 2004-04-30 Bearbeitung von Tickern in Videosequenzen Expired - Lifetime DE602004002935T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP04010304A EP1592251B1 (de) 2004-04-30 2004-04-30 Bearbeitung von Tickern in Videosequenzen

Publications (2)

Publication Number Publication Date
DE602004002935D1 DE602004002935D1 (de) 2006-12-07
DE602004002935T2 true DE602004002935T2 (de) 2007-02-01

Family

ID=34924808

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602004002935T Expired - Lifetime DE602004002935T2 (de) 2004-04-30 2004-04-30 Bearbeitung von Tickern in Videosequenzen

Country Status (6)

Country Link
US (1) US7978266B2 (de)
EP (1) EP1592251B1 (de)
JP (1) JP4847040B2 (de)
KR (1) KR20060047573A (de)
CN (1) CN1694502B (de)
DE (1) DE602004002935T2 (de)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI286026B (en) * 2004-04-09 2007-08-21 Mstar Semiconductor Inc Method of processing fields of images and related device for data lines similarity detection
TWI280061B (en) * 2005-04-27 2007-04-21 Novatek Microelectronics Corp Image processing method and device thereof
KR20070020994A (ko) * 2005-08-17 2007-02-22 삼성전자주식회사 영상신호 변환장치 및 그 방법
GB2431794A (en) * 2005-10-31 2007-05-02 Sony Uk Ltd Filtering pixels
US7705913B2 (en) * 2005-12-20 2010-04-27 Lsi Corporation Unified approach to film mode detection
KR100727390B1 (ko) * 2005-12-26 2007-06-12 삼성전자주식회사 적응적인 영상크기 변환장치 및 그의 영상크기 변환방법
EP1850589A1 (de) * 2006-03-29 2007-10-31 Sony Deutschland Gmbh Verfahren zur Erfassung des Videomodus
EP1848203B2 (de) 2006-04-18 2018-05-02 Vestel Elektronik Sanayi ve Ticaret A.S. Verfahren und System für die Bildseitenverhältnisumwandlung eines Videobildes
EP1876823A1 (de) * 2006-07-07 2008-01-09 Matsushita Electric Industrial Co., Ltd. Videobearbeitungsgerät und Verfahren zur Videobearbeitung
US20080025390A1 (en) * 2006-07-25 2008-01-31 Fang Shi Adaptive video frame interpolation
JP4157579B2 (ja) * 2006-09-28 2008-10-01 シャープ株式会社 画像表示装置及び方法、画像処理装置及び方法
CN101536506A (zh) * 2006-09-28 2009-09-16 夏普株式会社 图像显示装置及方法、图像处理装置及方法
JP4917867B2 (ja) * 2006-11-14 2012-04-18 シャープ株式会社 テロップ検出装置及び方法、並びに画像表示装置及び方法
JP4956239B2 (ja) * 2007-03-13 2012-06-20 三洋電機株式会社 フレームレート変換装置および映像表示装置
JP5029112B2 (ja) * 2007-04-13 2012-09-19 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US20080304568A1 (en) * 2007-06-11 2008-12-11 Himax Technologies Limited Method for motion-compensated frame rate up-conversion
JP4618305B2 (ja) * 2008-02-19 2011-01-26 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP5114274B2 (ja) * 2008-04-04 2013-01-09 株式会社日立製作所 テレビジョン受信機及びそのフレームレート変換方法
GB2470570B (en) * 2009-05-27 2014-07-16 Snell Ltd Determining a regional shot change parameter
JP2010283548A (ja) * 2009-06-04 2010-12-16 Hitachi Ltd 映像補間装置及び映像表示装置
CN102281450A (zh) * 2010-06-13 2011-12-14 深圳Tcl新技术有限公司 3d视频清晰度调整系统及方法
US8629939B1 (en) * 2012-11-05 2014-01-14 Lsi Corporation Television ticker overlay
US20140254659A1 (en) 2013-03-11 2014-09-11 Mediatek Inc. Video coding method using at least evaluated visual quality and related video coding apparatus
JP2015056695A (ja) * 2013-09-10 2015-03-23 株式会社東芝 動画再生装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2263601B (en) * 1992-01-24 1995-05-24 Sony Broadcast & Communication Motion compensated video signal processing
GB9206651D0 (en) * 1992-03-26 1992-05-06 Solid State Logic Ltd Video processing
US5565921A (en) * 1993-03-16 1996-10-15 Olympus Optical Co., Ltd. Motion-adaptive image signal processing system
US5617149A (en) * 1994-11-22 1997-04-01 Electronics And Telecommunications Research Institute Apparatus and method for detecting scene changes using the difference of mad between image frames
EP0883298A3 (de) * 1997-06-04 2000-03-29 Hitachi, Ltd. Vorrichtung zur Umsetzung von Bildsignalen sowie Fernsehempfänger
JP4092778B2 (ja) * 1997-06-04 2008-05-28 株式会社日立製作所 画像信号の方式変換装置及びテレビジョン受像機
JP4083266B2 (ja) * 1997-10-07 2008-04-30 株式会社日立製作所 動きベクトルの生成方法および装置
JP4092773B2 (ja) * 1998-04-14 2008-05-28 株式会社日立製作所 画像信号のフレーム数変換方法および装置
JP2000134585A (ja) * 1998-10-23 2000-05-12 Hitachi Ltd 動きベクトル決定方法、画像信号のフレーム数変換方法および回路
JP2000165821A (ja) * 1998-11-30 2000-06-16 Fujitsu Ltd 画像フォーマット変換装置及び画像フォーマット変換方法
JP2001054075A (ja) * 1999-08-06 2001-02-23 Hitachi Ltd 画像信号の動き補償走査変換回路
EP1198139A1 (de) * 2000-10-13 2002-04-17 Matsushita Electric Industrial Co., Ltd. Verfahren und Vorrichtung zur Codierung von Videofeldern
EP1404130A1 (de) * 2002-09-24 2004-03-31 Matsushita Electric Industrial Co., Ltd. Verfahren und Vorrichtung zur Verarbeitung eines mit einem zusätzlichen Bildsignal gemischten Videosignals

Also Published As

Publication number Publication date
US7978266B2 (en) 2011-07-12
JP2005318621A (ja) 2005-11-10
JP4847040B2 (ja) 2011-12-28
DE602004002935D1 (de) 2006-12-07
EP1592251A1 (de) 2005-11-02
CN1694502B (zh) 2010-05-26
EP1592251B1 (de) 2006-10-25
KR20060047573A (ko) 2006-05-18
CN1694500A (zh) 2005-11-09
US20050253964A1 (en) 2005-11-17

Similar Documents

Publication Publication Date Title
DE602004002935T2 (de) Bearbeitung von Tickern in Videosequenzen
DE69422255T2 (de) Verfahren und Vorrichtung zum bewegungsausgeglichenen Interpolieren von zwischenliegenden Halbbildern oder Bildern
DE60305274T2 (de) Bewegungsschätzungsvorrichtung, Verfahren und maschinenlesbares Speichermedium geeignet zur Erkennung von Verschiebungen von Text und grafischen Daten
DE69623891T2 (de) System zum Umwandeln von Zeilensprungvideo in Video mit einer progressiven Abtastung auf Basis der Flanken
DE69324922T2 (de) Bewegungsausgeglichene fernsehbildbearbeitung
DE602004002455T2 (de) Bewegungsvektorschätzung durch adaptive zeitliche Vorhersage
DE69605936T2 (de) Bewegungskompensierte interpolation
DE69328602T2 (de) Schaltungen zur Rauschunterdrückung
DE68915912T2 (de) Videosignalerzeugung als Zeitlupenaufnahme.
DE69225863T2 (de) Verfahren zur prädiktiven Kodierung mit Bewegungskompensation
DE69609482T2 (de) Verfahren zur Interpolation von Vollbilden
US6181382B1 (en) HDTV up converter
DE69510851T2 (de) Verfahren und Gerät zur Reduzierung von Umwandlungsartefakten
EP0154125B1 (de) Verfahren zur bewegungsadaptiven Interpolation von Fernsehbildsequenzen sowie Anordnung und Anwendungen hierzu
DE2937282C2 (de)
DE60024389T2 (de) Subpixelgenaue bewegungsvektorschätzung und bewegungskompensierte interpolation
DE60307942T2 (de) Digitale Rauschverminderungstechniken
EP0677958A2 (de) Abtastumsetzung mit Bewegungsadaptation unter Verwendung einer richtungsabhängigen Interpolation der Kanten
DE602005003624T2 (de) Bildverarbeitungsvorrichtung und - verfahren
EP0445336B1 (de) Verfahren und Vorrichtung zur Reduktion des Kantenflackerns eines Fernsehbildes
DE69318216T2 (de) Verfahren und Vorrichtung zur adaptiven Interpolation
DE69015419T2 (de) Umwandlung eines Videosignals auf einen photographischen Film.
DE69609028T2 (de) Bewegungskompensierte bildfrequenzumwandlung
DE60209773T2 (de) Vorrichtung und verfahren zum erkennen von verdeckung
DE69626475T2 (de) Verfahren zur Korrektur von Bewegungsschätzung in Bildern mit periodischen Strukturen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: PANASONIC CORP., KADOMA, OSAKA, JP

8320 Willingness to grant licences declared (paragraph 23)