DE60031746T2 - Videosignalverarbeitung - Google Patents

Videosignalverarbeitung Download PDF

Info

Publication number
DE60031746T2
DE60031746T2 DE60031746T DE60031746T DE60031746T2 DE 60031746 T2 DE60031746 T2 DE 60031746T2 DE 60031746 T DE60031746 T DE 60031746T DE 60031746 T DE60031746 T DE 60031746T DE 60031746 T2 DE60031746 T2 DE 60031746T2
Authority
DE
Germany
Prior art keywords
information
video
frames
frame
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE60031746T
Other languages
English (en)
Other versions
DE60031746D1 (de
Inventor
Robert Basingstoke Hampshire Webb
Nicholas Ian Basingstoke Saunders
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Europe Ltd
Original Assignee
Sony United Kingdom Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony United Kingdom Ltd filed Critical Sony United Kingdom Ltd
Application granted granted Critical
Publication of DE60031746D1 publication Critical patent/DE60031746D1/de
Publication of DE60031746T2 publication Critical patent/DE60031746T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/467Embedding additional information in the video signal during the compression process characterised by the embedded information being invisible, e.g. watermarking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Circuits (AREA)

Description

  • Die Erfindung betrifft die Videosignalverarbeitung, z.B. eine Verarbeitung, bei der komprimierte Daten, die zwei oder mehr Videosignale repräsentieren, miteinander kombiniert werden. Verkörperungen der Erfindung betreffen Videosignale, die nach dem bekannten MPEG-2-Standard komprimiert sind, wobei die Erfindung jedoch nicht auf solche Signale beschränkt ist.
  • Es ist oft erwünscht, zwei oder mehr Videosignale zu mischen, zu überblenden oder zu überlagern. Der sogenannte Überblendeffekt kann z.B. für Übergänge zwischen zwei verschiedenen Szenen in einem Fernsehprogramm benutzt werden, oder es kann notwendig sein, einem Videobild ein sogenanntes Logo oder ein anderes computergeneriertes Signal, z.B. einen Untertitel oder einen Vor- oder Nachspannsatz zu überlagern, ohne das darunterliegende Bild zu unterbrechen.
  • Diese Operation ist bei analogen Videosignalen oder auch sogar bei unkomprimierten digitalen Videosignalen vergleichsweise unkompliziert. Es kann ein Schlüsselsignal benutzt werden, um an jeder Pixelposition den Pegel der Videosignale (z.B. der Signale "A" und "B"), die die einzelnen Bestandteile bilden, zu steuern, wobei die beiden pegelgesteuerten Signale dann addiert werden. Die grundsätzliche Beziehung zwischen dem Pegel des Schlüsselsignals K, den Pegeln A und B der Eingangspixel und dem Pegel des Ausgangspixels an jeder Pixelposition könnte z.B. lauten: Ausgangspixelwert = A(1 – K) + BK
  • Diese Berechnung wird für jedes Ausgangspixel durchgeführt. Wenn das Signal A an einer speziellen Pixelposition vollständig durch das Signal B ersetzt werden soll, hat das Schlüsselsignal den Wert 1 (anders ausgedrückt 100%), und falls die beiden Pixel im Verhältnis 50:50 gemsicht werden sollen, ist der Schlüsselwert gleich 0,5 oder 50%.
  • Die Situation ist sehr viel schwieriger, wenn eines der Eingangssignale oder beide einen komprimierten Videostrom bilden. In einem komprimierten Videostrom, z.B. einem MPEG-2-Videostrom, sind die Pixel im allgemeinen in Form von Blöcken komprimiert, die als Makroblöcke bekannt sind, so daß es nicht möglich ist, den Wert eines speziellen Pixels direkt aus dem komprimierten Videosignal herzuleiten.
  • Komprimierte Videosignale sind außerdem bezüglich der Datenmenge, die für die Übertragung oder Speicherung des Signals benutzt werden kann, häufig einer Begrenzung unterworfen. Während gewisse Änderungen von Bild zu Bild oder sogar von Bildergruppe (GOP) zu Bildergruppe auftreten können, ist die zeitlich gemittelte Datenrate häufig an die Kapazität eines Übertragungs- oder Speicherkanals gebunden. Diese zulässige Änderung von Bild zu Bild oder von GOP zu GOP kann bedeuten, daß zwei Signale, die miteinander kombiniert werden sollen, zwar die gleiche nominale Datenrate, jedoch sehr unterschiedliche Augenblickswerte ihrer Datenraten haben. Wenn ein Videosignalgemisch aus einer Gruppe von Videosignalen zusammengesetzt wird, die ein oder mehrere komprimierte Signale enthalten, ist deshalb große Sorgfalt erforderlich, um einen Datenüberlauf oder -unterlauf zu vermeiden.
  • Ein drittes Merkmal von komprimierten Videosignalen, das für diese Diskussion relevant ist, besteht darin, daß diese oft von Bewegungsvektoren Gebrauch machen, um Blöcke von zeitlich vorangehenden oder nachfolgenden Bildern zu indizieren, die einem Block eines laufenden Bildes gleichen, so daß die zum Kodieren des laufenden Bilds benötigte Datenmenge reduziert werden kann.
  • Eine Möglichkeit zur Behandlung dieser Probleme besteht darin, die gesamten komprimierten Eingangssignale zu dekomprimieren, das Mischen oder ähnliche Prozesse dann im unkomprimierten Bereich durchzuführen und das resultierende Kompositbild dann neu zu komprimieren.
  • Das Dokument US 5 594 507 offenbart einen Videosignalprozessor und ein Verfahren zur Verarbeitung eines Videosignals nach dem Oberbegriff von Anspruch 1 bzw. Anspruch 21.
  • In Systemen, wie dem MPEG-2-System, reduziert jede Kompressionsgeneration die Qualität der resultierenden Bilder tendenziell. Es ist unerwünscht, wenn das einfache Addieren eines Logos oder einer ähnlichen Information die Bildqualität der Bilder, zu denen die Logo-Information hinzugefügt ist, insgesamt verschlechtert.
  • Nach einem Aspekt der Erfindung ist ein Videosignalprozessor vorgesehen
    mit einem ersten Eingang für die Aufnahme eines ersten komprimierten Videosignals, das Parameter enthält, die mit den Rahmen des Signals verknüpft sind und sich auf die Kompression beziehen,
    mit einem Dekodierer zum Dekodieren des komprimierten ersten Videosignals, wobei die mit den Rahmen verknüpften Parameter aufbewahrt werden,
    mit einem zweiten Eingang für die Aufnahme einer zusätzlichen Videoinformation, die mit der ersten Videoinformation kombiniert werden soll,
    mit einem Kombinierer zum Kombinieren der zusätzlichen Videoinformation mit der ersten Videoinformation, um Rahmen einer kombinierten Videoinformation zu erzeugen, und
    mit einem Kodierer zum Kodieren der Rahmen der kombinierten Videoinformation, wobei die aufbewahrten Parameter jedes Rahmens wiederbenutzt werden, um einen Teil eines Rahmens der komprimierten Information zu kodieren, der keine zusätzliche Videoinformation enthält, und um eine Kantenregion eines anderen Teils des Rahmens, welcher andere Teil zusätzliche Informationen enthält, mit einer höheren Bildqualität zu kodieren, als eine Region des anderen Teils, die nicht die Kantenregion ist.
  • Die Wiederbenutzung der Kompressionsparameter für den Teil oder die Teile der kombinierten Information, die keine zusätzliche Information (Logo-Information) enthalten, führt dazu, daß der Verlust an Bildqualität insgesamt kleiner ist, als bei vollständigem Neukodieren des gesamten Rahmens der kombinierten Videoinformation.
  • Es hat sich herausgestellt, daß Kantenregionen der Logo-Information für die subjektive Bildqualität tendenziell signifikant sind. Wenn die Kanten mit höherer Qualität kodiert werden, als andere Teile innerhalb des Logos, verbessert dies die subjektive Bildqualität.
  • In einem bevorzugten Ausführungsbeispiel wird die Kantenregion der Logo-Information nur dann zu einer höheren Bildqualität kodiert als die Nichtkantenregion, wenn das erste Signal eine höhere Bildqualität hat als die Nichtkantenregion.
  • In einem bevorzugten Ausführungsbeispiel kodiert der Kodierer die Kantenregion mit einem vorbestimmten Wert des Quantisierungsparameters Q. In dem Ausführungsbeispiel kann die Kantenregion durch einen Wert des Schlüsselsignals definiert werden, der unterhalb eines Schwellwerts liegt.
  • In einem bevorzugten Ausführungsbeispiel der Erfindung werden die nach einem vorbestimmten Algorithmus festgelegten Quantisierungsparameter nur auf Nichtkantenregionen des Teils desjenigen Rahmens angewendet, der Logo-Information enthält. Dadurch kann die Quantisierung des Logos getrennt von derjenigen der Bildregionen festgelegt werden, die nur die erste Information enthalten. Auf diese Weise kann das Logo mit einer beliebigen gewünschten Qualität quantisiert werden. Diese Qualität kann im Prinzip höher oder geringer sein als diejenige der ersten Information. Häufig geht man jedoch davon aus, daß Benutzer dazu tendieren, für die Zusatzinformation niedrigere Qualität wählen, um die Qualität der ersten Information beizubehalten.
  • In einem Ausführungsbeispiel wird die Quantisierung für die Zusatzinformation vom Benutzer gewählt und ist beispielsweise ein fester Wert. Der Benutzer wählt einen Wert, der ihm die gewünschte Qualität für die Zusatzinformation liefert. Ein Beispiel für eine solche Zusatzinformation ist ein Stationsidentifizierungslogo oder "Ident", das der Hauptinformation überlagert wird und möglicherweise nicht die gleiche Qualität erfordert, wie die Hauptbildinformation.
  • Wenn der Bereich sowohl die erste Information als auch die Zeitinformation enthält, wird dieser Bereich bei einem anderen Ausführungsbeispiel nach Maßgabe eines gewichteten Mittelwerts aus dem festen Quantisierungswert der Zeitinformation und dem aufbewahrten Quantisierungswert der ersten Information in dem Bereich quantisiert.
  • Die genannten Bereiche sind z.B. Makroblöcke, wie sie in MPEG2-Bitströmen benutzt werden.
  • In bevorzugten Ausführungsbeispielen der Erfindung umfaßt der Prozessor einen Schlüsselsignalgenerator zum Erzeugen eine Schlüsselsignals K, das die Bereiche des Bilds definiert, die die Zeitinformation enthalten. In einem solchen Ausführungsbeispiel wird der genannte Quantisierungsparameter QW nach einem vorbestimmten Algorithmus festgelegt: QW = KAQF + (1 – KA)QB worin KA der Mittelwert des Schlüsselsignals für einen Makroblock, QF ein vorbestimmter fester Wert und QB der aufbewahrte Wert des Quantisierungsparameters des ersten Videosignals bedeuten.
  • Nach einem anderen Aspekt der Erfindung ist ein Verfahren zum Verarbeiten eines Videosignals vorgesehen mit den Verfahrensschritten:
    Aufnehmen eines ersten komprimierten Videosignals, das Parameter enthält, die mit den Rahmen des Signals verknüpft sind und sich auf die Kompression beziehen,
    Dekodieren des komprimierten ersten Videosignals, wobei die mit den Rahmen verknüpften Parameter aufbewahrt werden,
    Aufnehmen einer zusätzlichen Videoinformation, die mit der ersten Videoinformation kombiniert werden soll,
    Kombinieren der zusätzlichen Videoinformation mit der ersten Videoinformation, um Rahmen einer kombinierten Videoinformation zu erzeugen, und
    Kodieren der Rahmen der kombinierten Videoinformation, wobei die aufbewahrten Parameter jedes Rahmens wiederbenutzt werden, um einen Teil eines Rahmens der komprimierten Information zu kodieren, der keine zusätzliche Videoinformation enthält, und um eine Kantenregion eines anderen Teils des Rahmens, welcher andere Teil zusätzliche Informationen enthält, mit einer höheren Bildqualität zu kodieren, als eine Region des anderen Teils, die nicht die Kantenregion ist.
  • Nach einem weiteren Aspekt der Erfindung ist ein Computerprogrammprodukt vorgesehen, das von einem Computer ausführbare Instruktionen liefert, die bewirken, daß der Prozessor das Verfahren nach dem genannten anderen Aspekt der Erfindung implementiert, wenn es in einen programmierbaren Signalprozessor geladen ist.
  • Nach einem weiteren Aspekt der vorliegenden Erfindung ist ein Computerprogrammprodukt vorgesehen, das von einem Computer ausführbare Instruktionen liefert und den Prozessor veranlaßt, als Prozessor nach dem genannten einen Aspekt der Erfindung zu fungieren, wenn es in einen programmierbaren Signalprozessor geladen ist.
  • Im folgenden werden Ausführungsbeispiele der Erfindung beschrieben, wobei auf die anliegenden Zeichnungen Bezug genommen wird.
  • 1 zeigt eine schematische Darstellung einer Videoverarbeitungsoperation mit hartem Schnitt,
  • 2 zeigt eine schematische Darstellung einer Videoverarbeitungsoperation mit weichem Übergang,
  • 3 zeigt eine schematische Darstellung einer Videoverarbeitungsoperation mit Einfügen eines Logos,
  • 4 zeigt eine schematische Darstellung einer Videoverarbeitungsoperation mit Wischblende,
  • 5 und 6 zeigen eine Videoverarbeitungsoperation mit Einfügen eines Logos in detaillierterer schematischer Darstellung,
  • 7 zeigt eine schematische Nahansicht eines Teils von 6 mit der Darstellung einer Überlappung zwischen einem eingefügten Logo und einem Hintergrundvideo,
  • 8 zeigt ein schematisches Diagramm eines Videosignalprozessors nach Aspekten der vorliegenden Erfindung,
  • 9 zeigt ein schematisches Flußdiagramm, in dem die Operation des Prozessors von 8 dargestellt ist,
  • 10 zeigt eine schematische Darstellung eines Bitmaps eines Logobereichs,
  • 11 zeigt eine schematische Darstellung eines Schlüsselsignals und der Änderung von Q nach einem Ausführungsbeispiel eines Aspekts der vorliegenden Erfindung,
  • 12 bis 14 zeigen Bitmaps,
  • 15 zeigt eine weitere Bitmap.
  • Überblick
  • 1 bis 4 zeigen schematische Darstellungen einiger Videoverarbeitungsoperationen, die ausgeführt werden können, um ein Videosignal (A) mit einem anderen Videosignal (B) zu kombinieren.
  • 1 und 2 zeigen schematische "Zeitleisten"-Darstellungen für einen harten Schnitt bzw. einen weichen Übergang. In 1 findet in einem speziellen Zeitpunkt t ein abrupter Wechsel von dem Signal A zu dem Signal B statt. In 2 findet eine allmähliche Änderung statt, so daß das Signal A über eine bestimmte Zeitperiode in das Signal B gemischt wird.
  • 3 und 4 zeigen schematische Darstellungen von Fernsehbildern. 3 zeigt das Einfügen eines "Logos", wobei ein Teilbereich des Bilds A durch das Bild B ersetzt oder mit diesem gemischt wird, und 4 zeigt eine Wischblendenoperation, bei der die beiden Bilder komplementäre Teile des Bildschirms besetzen und die Grenze zwischen den beiden bewegbar ist.
  • Die vorliegende Beschreibung befaßt sich mit den Arten von Videoverarbeitungsoperationen, die in Verbindung mit den in 2, 3 und 4 dargestellten Videoverarbeitungsoperationen ausgeführt werden müssen. Mit anderen Worten, es handelt sich um Operationen, bei denen Teile der beiden Bilder A und B gleichzeitig auf dem Bildschirm vorhanden sind. Der Gegenstand von 1, der harte Schnitt von einem Videosignal zu einem anderen, wird im Rahmen der vorliegenden Erfindung nicht behandelt.
  • 5 bis 7 zeigen, wieder in schematischer Form, die Überlagerung eines Logos auf einem Videobild, d.h., eine detailliertere Version der Darstellung von 3.
  • In 5 zeigt ein Videobild einer Originalszene, die typischerweise bewegte Objekte 1, 2 und statische Objekte 3 enthalten kann. In 5 wird dem Originalbild eine zusätzliche Videoinformation überlagert, die ein Textlogo 6 sowie weitere Informationen, wie eine Landkarte 5, enthält. Ein Beispiel für Situationen, in denen dies wünschenswert sein könnte, ist eine Rundfunksendung mit einer Warnung vor einem drohenden Ereignis, z.B. einer Wetterwarnung für eine bestimmte Region, wobei das darunterliegende Programm nicht zu sehr gestört wird.
  • 7 ist eine schematische Nahansicht eines Teils von 6 und zeigt die Überlappung zwischen der statischen Landkarte 5 und Teilen des Originalbilds 3. Man erkennt, daß in einem blockbasierten System, wie MPEG2, bei dem jedes Bild in sogenannte Makroblöcke unterteilt ist, eine Anzahl von Makroblöcken durch die Überlappung der Bilder beeinträchtigt wird. Die Makroblöcke sind in 7 als quadratische Blöcke 10 dargestellt.
  • Der restliche Teil der vorliegenden Beschreibung befaßt sich mit einem Videosignalprozessor, der das Vorhandensein von Videoinformationen aus zwei Quellen A und B behandeln kann, die gleichzeitig auf dem Bildschirm erscheinen. Zunächst wird anhand von 8 ein Blockdiagramm des Geräts beschrieben, gefolgt von dem Flußdiagramm in 9, das seine Arbeitsweise definiert. Anhand weiterer entsprechender Figuren werden dann spezielle Funktionsmerkmale beschrieben.
  • Es wird nun also auf 8 Bezug genommen, in der ein schematisches Diagramm eines Videosignalprozessors dargestellt ist.
  • Ein Kodierer E1 nimmt ein Eingangsvideosignal A auf und kodiert es mit einer gewünschten Ausgangs-Zielbitrate TBR und entsprechend dem GOP-Format. In Situationen, in denen keine Mischung zwischen den beiden Videosignalen erforderlich ist, kann das von dem Kodierer E1 kodierte Videosignal unter dem Steuereinfluß einer Steuerung 100 direkt einem Schalter S1 für die Ausgabe zugeführt werden. Die Bezeichnung des Kodierers E1 ist in Klammern gesetzt, um die auf Tatsache hinzuweisen, daß der Kodierer E1 natürlich nicht erforderlich ist, wenn das Eingangsvideosignal bereits in dem benötigten Format vorliegt.
  • Das Ausgangssignal des Kodierers E1 wird einem komplementären Dekodierer D1 zugeführt, der das Video in die unkomprimierte oder "Basisband"-Form zurückdekodiert. Das Basisband-Videosignal wird einem Mischer 110 zugeführt, und die bei der ursprünglichen Komprimierung in jedem Block des Eingangsvideosignals A benutzten Kompressionsparameter werden der Steuerung 100 zugeführt.
  • Eine Quelle 120 für ein zu mischendes Videosignal, das Video B, liefert das Videosignal B an einen weiteren Kodierer E3. E3 ist wieder in Klammern gesetzt, um die auf Tatsache hinzuweisen, daß er nicht erforderlich ist, wenn das Videosignal B bereits in dem benötigten Format vorliegt. Das Ausgangssignal des Kodierers E3 ist ein Videosignal, das bezüglich der Bitrate und bezüglich des GOP-Formats dem Ausgangssignal des Kodierers E1 entspricht, und wird einem weiteren Dekodierer D3 zugeführt, der aus dem Videosignal Kompressionsparameter herleitet und das Video B in die Basisbandform zurückdekodiert, um es dem Mischer 110 zuzuführen.
  • Auf Wunsch kann eines der Kodierer-Dekodierer-Paare E1/D1 oder E3/D3 weggelassen werden, und einem der Eingänge des Mischers 110 wird unkomprimiertes oder "Basisband"-Video direkt zugeführt, das zu dem dekodierten komprimierten Video an dem anderen der Eingänge hinzuaddiert wird.
  • Die Quelle 120 liefert auch ein Schlüsselsignal K an den Mischer 110 (obwohl dieses Schlüsselsignal natürlich auch aus einer anderen externen Quelle kommen könnte). Das Schlüsselsignal definiert die relativen Proportionen des Videos A und des Videos B, für jedes Pixel des geforderten Ausgangsbilds zu benutzen sind. Das Schlüsselsignal K kann zwischen dem Wert 0 (das gesamte Video A ist zu benutzen) und dem Wert 1 (das gesamte Video B ist zu benutzen) variieren. Diese Änderung findet auf einer Pixel-zu-Pixel-Basis statt, wobei K-Werte zwischen 0 und 1 einen Mix zwischen den beiden Signalen an dieser Position anzeigen.
  • Der Mischer 110 arbeitet also in allgemein bekannter Weise und auf einer Pixel-für-Pixel-Basis, um in einem Multiplizierer 112 Pixel des Videos B mit K zu multiplizieren, in einem Multiplizierer 114 Pixel des Videos A mit (1 – K) zu multiplizieren und dann die beiden Produkte in einem Addierer 116 zu addieren, um Pixel eines gemischten Ausgangsvideosignals zu erzeugen. Das gemischte Videosignal wird einem weiteren Kodierer E2 zugeführt, der wiederum mit der gleichen nominalen Bitrate und dem GOP-Format arbeitet wie die Kodierer E1 und E3 und der dazu dient, das gemischte Signal für die Ausgabe über den Schalter S1 zu kodieren.
  • Die Steuerung 100 steuert die Funktion des Kodierers E2. Die Steuerung 100 regelt grundsätzlich, ob der Kodierer E2 einen Teil oder alle Kompressionsparameter wiederbenutzt, die mit der Kompression von Blöcken des Videosignals A und B verknüpft waren, bevor sie gemischt wurden, oder neue Kompressionsparameter zum Kodieren der Blöcke des gemischten Videosignals C erzeugt.
  • Als Teil dieser Operation, die weiter unten ausführlicher beschrieben wird, nimmt die Steuerung 100 Details der Kompressionsparameter des Videosignals A, Details der Kompressionsparameter des Videosignals B und eine Spezifikation der Ausgangszieldatenrate (TBR) auf. Die Steuerung 100 greift auch auf Speicher 130 zu, in denen verschiedene Informationsteile gespeichert sein können, einschließlich einiger Informationsteile, die aus dem Schlüsselsignal K hergeleitet sind.
  • 9 zeigt ein Flußdiagramm, in dem die Funktion des Prozessors von 8 schematisch dargestellt ist.
  • In dem Schritt 220 werden aus dem Schlüsselsignal "Bitmaps" hergeleitet, die die Positionen in den komprimierten Rahmen des Logos angeben. Dies wird weiter unten anhand von 12A und B, 13A und B und 14A bis D näher erläutert.
  • In dem Schritt 230 nimmt die Steuerung 100 eine Schätzung der Gesamtbitzahl vor, die zum Kodieren des laufenden Rahmens des gemischten Videosignals benötigt werden. Zu diesem Zweck wendet sie nicht wirklich einen Raten-Steuerungsalgorithmus auf das gemischte Videosignal an, sondern sie berechnet statt dessen den Schätzwert zumindest teilweise aus historischen Daten, die sich auf die Bitzahl beziehen, die zum Kodieren der einzelnen Makroblöcke der beiden individuellen Quellvideosignale A und B benötigt werden. Dieser Prozeß wird weiter unten näher beschrieben.
  • In dem nächsten Schritt 245 werden die Quantisierungsparameter (und andere Transkodier-Parameter) von Logo-Makroblöcken an der Kante des Logos bestimmt, wie dies weiter unten näher beschrieben wird.
  • In dem Schritt 260 werden die Quantisierungsparameter (und andere Transkodier-Parameter) von Logo-Makroblöcken bestimmt, die keine Kanten-Makroblöcke sind, wie dies weiter unten näher beschrieben wird.
  • Falls der Schritt 245, wie in einem Ausführungsbeispiel der Erfindung, weggelassen wird, kann der Schritt 260 auf alle Logo-Makroblöcke angewendet werden.
  • In dem Schritt 270 wird ein Test durchgeführt, um festzustellen, ob die mit den Makroblöcken des gemischten Signals C verknüpften Bewegungsvektoren auf gültige Bereiche von Referenzbildern zeigen. Ein Makroblock kann z.B. vollständig innerhalb des Videos A liegen, sein zugeordneter Bewegungsvektor kann jedoch in eine Region zeigen, die in dem Referenzrahmen durch das Video B ersetzt wird. Unter diesen Umständen wäre es ungünstig, diesen Bewegungsvektor zu benutzen. Dieser Prozeß wird weiter unten anhand von 12, 13 und 14 näher beschrieben.
  • Sobald der Test beendet ist, wird in dem Schritt 280 der volle Satz an Rekodierungs- oder Wiederbenutzungsparameterinformationen von der Steuerung 100 dem Kodierer E2 zugeführt, der dann das gemischte Videosignal C nach Maßgabe dieser Informationen kodiert. In den Fällen, in denen eine Mischung zwischen dem Video A und dem Video B stattfindet, betätigt die Steuerung 100 den Schalter S1, so daß dieser in dem Schritt 280 den Ausgang des Kodierers E2 auswählt.
  • Der Kodierer E2 enthält einen Raten-Steuerungsalgorithmus. Dies kann z.B. ein Prädiktionsraten-Steuerungsalgorithmus sein, wie das sogenannte "Testmodell 5" des MPEG-Systems oder auch ein Präkodier- oder Proberaten-Steuerungsalgorithmus, wie der in GB-A-2-306 831 beschrieben ist. Auf jeden Fall sind die Parameter, die die Steuerung 100 auf den Raten-Steuerungsalgorithmus anwendet, mit den ursprünglichen Kompressionsparametern identisch, die von den Dekodierern D1 und D3 empfangen werden, falls es sich um Makroblöcke handelt, für die entschieden wurde, daß die Parameter wiederbenutzt werden sollten. Für Makroblöcke, für die entschieden wurde, daß die Parameter nicht wiederbenutzt werden sollten, umfassen sie ein Indikator-Flag, das dem Raten-Steuerungsalgorithmus anzeigt, daß neue Parameter hergeleitet werden sollten.
  • Ein besonderer Fall ist hier die spezielle Situation eines eingefügten Logos, bei dem es zur Beibehaltung der Bildqualität des Logos selbst wünschenswert sein kann, einen Grenzwert für die Quantisierungsparameter zu spezifizieren, die in solchen Blöcken verwendet werden sollen, die Logo-Material enthalten, um einen maximalen Grad an Schärfe des Quantisierungsprozesses einzustellen. Diese Bedingung kann wieder von der Steuerung 100 an den Raten-Steuerungsalgorithmus für solche Makroblöcke signalisiert werden, von denen festgestellt wurde, daß sie primär oder ausschließlich Video-B-Material enthalten. (Dies hängt natürlich von der subjektiven Entscheidung ab, ob das eingefügte Videosignal ein Logo oder anderes Material enthält, und dies ist natürlich eine Entscheidung, die von der Bedienungsperson oder dem Benutzer getroffen wird).
  • Der Raten-Steuerungsalgorithmus des Kodierers E2 erzeugt Kompressionsparameter für Makroblöcke, die neu kodiert werden sollen, und der Kodierer E2 kodiert dann den gesamten Rahmen auf der Basis der empfangenen oder hergeleiteten Parameter.
  • In der folgenden Beschreibung wird als Beispiel angenommen, daß dem Video A z.B. die in 3 durch das Video B repräsentierte Logo-Information (z.B. ein Text-Logo und Landkarten) überlagert wird. Es wird außerdem angenommen, daß sowohl der Kodierer E3 als auch der Dekodierer D3 von 8 weggelassen sind.
  • Bitmap
  • Wie oben beschrieben wurde, wird in bekannter Weise ein Schlüsselsignal K Pixel für Pixel erzeugt. Das Schlüsselsignal wird, wie oben beschrieben, benutzt, um die Logo-Information der Originalszene zu überlagern. Die Steuerung 100 erzeugt aus dem Schlüsselsignal eine Bitmap.
  • Die Bitmap kann Pixelauflösung haben, um Pixel für Pixel die Pixelpositionen anzuzeigen, die Logo-Information enthalten.
  • Alternativ kann die Bitmap Makroblockauflösung haben, um die Makroblöcke anzuzeigen, die Logo-Information enthalten.
  • So zeigt die Bitmap die Pixel oder Makroblöcke MB an, die Logo-Information (Logo-Bereiche) enthalten und diejenigen, die dies nicht tun (Nicht-Logo-Bereiche).
  • Parameter-Transkodierung
  • Die in der folgenden Diskussion diskutierten Beispiele der Erfindung betreffen die folgenden Transkodier-Parameter (unter anderen, die in MPEG2 benutzt werden):
    • 1) Q, das ist der Parameter, der die auf einen Rahmen anzuwendenden Quantisierungsstufen definiert,
    • 2) DCT_type, das ist der Parameter, der den Typ (Halbbild oder Vollbild) der DCT-Verarbeitung definiert, und
    • 3) Bewegungsvektoren.
  • Der erste Videobitstrom A hat I-, P- und B-Rahmen. Diese werden in dem Dekodierer D dekodiert und in dem Kodierer E2 neu kodiert. Der Kodierer E2 wird von der Steuerung 100 so gesteuert, daß ein I-Rahmen des ersten Bitstroms A in dem Strom C als I-Rahmen neu kodiert wird, ein P-Rahmen als P-Rahmen neu kodiert wird und ein B-Rahmen als B-Rahmen neu kodiert wird.
  • Die Parameter Q und DCT_type werden bei der Neukodierung der Kombination aus ursprünglicher Information und Logo alternativ nach einem ersten Verfahren oder nach einem zweiten Verfahren angewendet.
  • A. Detektierung von Logo-Makroblöcken
  • 10 zeigt eine schematische Darstellung einer Bitmap. In 10 ist ein Array von Makroblöcken dargestellt. Die mit L bezeichneten Makroblöcke enthalten Logo-Informationen. Diese Makroblöcke sind von anderen Makroblöcken umgeben, die keine Logo-Informationen enthalten. Es sei erwähnt, daß 10 sehr stark vereinfacht ist, um die Darstellung zu erleichtern. Das von dem Schlüsselsignalgenerator 120 von 8 erzeugte Schlüsselsignal definiert Pixel für Pixel die Stellen innerhalb eines Rahmens, die Logo-Information enthalten. Aus dem Schlüsselsignal wird eine Bitmap 18 erzeugt. Bitmaps werden weiter unten näher beschrieben.
  • A1. Fester Makroblock
  • In einer Version der vorliegenden Erfindung wird das Vorhandensein eines Logos in einem Makroblock getestet, indem geprüft wird, ob ALLE Pixel des dem Makroblock entsprechenden Teils der Bitmap Logo-Information enthalten. Wenn dies der Fall ist, wird entschieden, daß der Makroblock ein "festes" Logo enthält, und er wird hier als "fester Makroblock" bezeichnet. Diese eine Version arbeitet mit Pixel-Auflösung.
  • A2. Zentraler Makroblock
  • In einer anderen Version, die auf 10 Bezug nimmt, wird entschieden, daß ein Makroblock Logo-Information enthält, wenn dieser Makroblock (C in 10) und seine acht benachbarten Makroblöcke alle Logo-Information enthalten. Diese andere Version arbeitet mit Makroblock-Auflösung und erfordert so weniger Verarbeitungsaufwand als die genannte eine Version, ist jedoch weniger genau als diese. Der Makroblock C kann tatsächlich eine erste Videoinformation enthalten: In dem Test wird geprüft, ob er und seine Nachbarn alle Logo-Information enthalten. Somit wird dieser Makroblocktyp hier als "zentraler Makroblock" bezeichnet.
  • A3. Kodieren von festen und zentralen Makroblöcken
    • a) Die aus den I-Rahmen des ursprünglichen ersten Video-Bitstroms aufbewahrten Parameter Q und DCT_type werden unverändert auf die Makroblöcke von I-Rahmen der kombinierten Videoinformation angewendet, die keine festen oder zentralen Makroblöcke sind.
  • Deshalb kann jeder Makroblock, der nicht ein fester oder zentraler Makroblock ist, mit den aufbewahrten Parametern kodiert werden, selbst wenn er etwas Logo-Information enthält.
    • b) b1) In P-Rahmen werden Makroblöcke, die keine festen oder zentralen Makroblöcke sind, vorzugsweise unter Wiederverwendung der aus dem ersten Videobitstrom aufbewahrten Transkodier-Parameter neu kodiert, und alle Makroblöcke von B-Rahmen werden vollständig neukodiert. b2) Alternativ werden alle Makroblöcke von P- und B-Rahmen der kombinierten Videoinformation vollständig neukodiert.
    • c) Der DCT_type wird für alle Makroblöcke aller Rahmen wiederbenutzt.
    • d) Nach einem Beispiel der vorliegenden Erfindung ist Q in I-Rahmen (und vorzugsweise auch in P-Rahmen) für feste und zentrale Makroblöcke ein vorbestimmter fester Wert, der von dem Benutzer ausgewählt wird. Der ausgewählte Wert wird z.B. festgelegt, wenn das System anfänglich eingerichtet wird. Er kann variiert werden, wenn der Benutzer hierfür einen neuen Wert wählen möchte.
  • Dieses Verfahren wird vorzugsweise für Logos benutzt, die eine feste Position innerhalb eines Rahmens haben, wie z.B. eine Stationsidentifizierung oder ein "Ident". Der Benutzer wählt einen Wert Q, der ein Logo mit der von dem Benutzer gewünschten Qualität erzeugt. Je kleiner der Wert Q ist, desto höher ist die für das Kodieren des Logos benutzte Bitzahl und damit die Bildqualität.
  • Die I-Rahmen der kombinierten Information enthalten mehr Daten als der erste Videobitstrom. Die Ratensteuerung des Kodierers E2 kodiert außerhalb der Logo-Makroblöcke L entsprechend den Q-Werten des ersten Videobitstroms. Die Ratensteuerung ordnet den I-, P- und B-Rahmen die Bits so zu, daß die Zielbitrate erfüllt wird.
  • B "transparente" Makroblöcke
  • Dieses Verfahren ist eine Alternative zu dem oben beschriebenen Verfahren der "festen" oder "zentralen" Makroblöcke.
  • Ein Makroblock eines Logos kann "transparent" genannt werden. Das heißt, ein Logo-Bereich eines Rahmens kann die erste Videoinformation (B) und das Logo (A) enthalten, die nach der Formel A·K + (1 – K)·B gemischt sind, wobei K die Magnitude des Schlüsselsignals bedeutet. Wenn K = 0 ist, ist das Logo nicht vorhanden. Wenn K = 1 ist, ist das Logo fest. Wenn 0 < K < 1 ist, ist das Logo transparent.
  • Das Schlüsselsignal K repräsentiert Pixel für Pixel den Mischungsgrad von A und B. Um festzustellen, ob ein Makroblock transparent ist, wird der Wert K über den Makroblock gemittelt. Wenn der Mittelwert KA = 0 ist, ist nur das erste Video vorhanden. Wenn der Mittelwert gleich 1 ist, ist der Makroblock fest. Wenn der Mittelwert zwischen 0 und 1 liegt, ist der Makroblock transparent.
  • Kodieren von transparenten Makroblöcken
  • Für Makroblöcke, die keine Logo-Information enthalten, werden die aus den I-Rahmen des ursprünglichen ersten Videobitstroms aufbewahrten Parameter Q und DCT_type unverändert auf diese Makroblöcke angewendet.
    • b) b1) In P-Rahmen werden Makroblöcke, die keine Logo-Information enthalten, vorzugsweise neu kodiert, wobei die aus dem ersten Videobitstrom aufbewahrten Transkodier-Parameter wiederbenutzt werden, und alle Makroblöcke von B-Rahmen werden vollständig neukodiert. b2) Alternativ werden alle Makroblöcke von P- und B-Rahmen der kombinierten Videoinformation vollständig neukodiert.
    • c) Der Parameter DCT_type wird für alle Makroblöcke aller Rahmen wiederbenutzt.
  • Bestimmen von Q
  • Für den Schritt d) wird in I-Rahmen (und vorzugsweise auch in P-Rahmen) der Wert von Q für einen Makroblock, der Logo-Information enthält, als gewichteter Mittelwert QW bestimmt QW = KAQF + (1 – KA)QB worin KA der mittlere Schlüsselwert für den Makroblock, QF ein fester Wert von Q ist, wie er in dem oben unter "1. Feste Makroblöcke" beschriebenen Verfahren ausgewählt wird, und QB der aufbewahrte Wert von Q der ersten Videoinformation sind. Falls der Makroblock "fest" ist, ist KA = 1, und der feste Wert QF wird auf den Makroblock angewendet. Falls der Makroblock transparent ist, werden die gemischten Werte von QF und QB angewendet.
  • Der gewichtete Mittelwert QW wird vorzugsweise benutzt, wenn QB = QF, d.h., wenn das Hintergrundvideo eine höhere Bildqualität hat als die feste Qualität des Logos.
  • Falls QB > QF, wird vorzugsweise der feste Wert QF in dem Makroblock benutzt.
  • Logo-Kanten
  • 11 zeigt die Magnitude des Schlüsselsignals schematisch und als stark vereinfachtes Beispiel für einen Teil einer Videozeile, die ein Hintergrundvideo VB, eine Kante E eines Logos und Logo-Information VL enthält. Es ist unerwünscht, die Bildqualität des Hintergrundvideos an den Kanten eines Logos zu reduzieren. Deshalb wird nach diesem Aspekt der Erfindung der Wert von Q relativ zu dem Wert QB des Hintergrundvideos VB in unmittelbarer Nachbarschaft der Kante des Logos, wie durch das Schlüsselsignal angezeigt, herabgesetzt, wie durch R angegeben, und dadurch die Bildqualität an der Kante erhöht. Im Abstand von der Kante ist der Wert Q der in der oben beschriebenen Weise festgelegte Wert. In einem bevorzugten Ausführungsbeispiel der Erfindung geschieht dies nur dann, wenn QB kleiner ist als der für das Logo gesetzte Wert Q, d.h. wenn die Qualität des Hintergrunds besser ist als die des Logos.
  • Der für das Logo im Abstand von dem Kantenbereich gesetzte Wert Q kann der feste Wert QF sein oder der oben beschriebene Wert QW = KAQF + (1 – KA)QB
  • Die Region mit niedrigerem Q an der Kante des Logos kann durch Vergleichen des Schlüsselsignals K mit einem Schwellwert Kt festgelegt werden. Der Kantenbereich befindet sich innerhalb des Logo-Bereichs und ist durch 0 < K = Kt definiert. Es sei angenommen, daß der Kantenbereich Hintergrundvideo (erstes Video) enthält, dessen Qualität beibehalten werden soll.
  • E) Ratensteuerung
  • Das Neukodieren benutzt vorzugsweise die Ratensteuerung nach dem Test Modell 5 (ISO-IEC/JCT1/SC29/WG11/NO44), die folgendermaßen modifiziert wird:
    In Nicht-Logo-Bereichen eines I-Rahmens werden die für jeden Makroblock MB erzeugten Bits akkumuliert, um einen Wert "Reuse_Bits" zu bilden. In Logo-Bereichen des I-Rahmens wird dieser in Verbindung mit der Zahl der Logo-Makroblöcke an diesem Punkt in dem Rahmen benutzt, um das Ziel für die Ratensteuerung in der folgenden Weise zu ändern: New_Target = Reuse_Bits + (target_bit_frame·logo_MB_so_far/total_MB)
  • Dies beeinflußt die Gleichung für die Ratensteuerung in der folgenden Weise: New_virtual_buf = init_virtual_buf + picture_bit_generated – New_Target worin picture_bit_generated die an dem laufenden Punkt in dem Rahmen erzeugte Bitzahl ist und die durch Wiederverwendung erzeugten Bits umfaßt sowie die durch Ratensteuerung der Logo-Bereiche erzeugten Bits. i.e.picture_bit_generated = logo_bits + Reuse_Bits
  • Auf diese Weise eliminiert New_Target den Effekt der Wiederverwendung auf die Zielbitzahl für die Logo-Bereiche des I-Rahmens und erlaubt es, die Ratensteuerung so durchzuführen, als ob der gesamte Rahmen neu kodiert würde.
  • Bewegungsvektorverarbeitung
  • 12 bis 16 zeigen die in den Schritten 220 und 270 von 9 ausgeführten Prozesse, d.h., das Erzeugen einer Bitmap und das Anwenden von Rändern auf die Grenzen zwischen Bereichen aus den zwei Videoquellen und dann das Testen der wiederzuverwendenden Bewegungsvektoren, um zu prüfen, ob sie auf geeignete Teile des Materials aus der gleichen Videoquelle zeigen.
  • Es sei auf 3 Bezug genommen. Wenn eine Entscheidung zur Wiederverwendung von Kodierparametern getroffen wird, ist es wichtig, sicherzustellen, daß ein aufbewahrter Bewegungsvektor, der für einen Makroblock der Video-A-Region wiederbenutzt werden soll, tatsächlich auf einen Teil des Bildes zeigt, der noch von dem Video A gebildet wird, d.h. nicht durch das Video B als Teil des Mischungs-, Überblend- oder Einfügungsprozesses ersetzt wurde. Das Gleiche gilt für das Video B.
  • In 14 und 15 kann ein Rand (mit der Breite eines Makroblocks in 14D) um das neu eingefügte Material erzeugt werden. Dies hat den Vorteil, daß es die Durchführung von Vektor-Tests um das neu eingefügte Material ermöglicht. Dies wiederum hat den Vorteil, daß die Vektortests im Makroblock-Maßstab statt im Pixel-Maßstab (wie in 12 und 13) durchgeführt werden können, weil der breite Rand einen größeren Sicherheitsabstand liefert, um Fehler zu vermeiden, die andernfalls durch diese Lösung mit gröberem Maßstab eingeschleppt würden.
  • So kann z.B. um alle Makroblöcke, die nicht vollständig aus der Region A hergeleitet sind, ein Rand erzeugt werden, und um alle Makroblöcke, die nicht vollständig aus der Region B hergeleitet sind, kann ein Rand erzeugt werden.
  • Falls ein aufbewahrter Bewegungsvektor, der mit einem Makroblock aus der Region B verknüpft ist, auf
    • a) die Region A,
    • b) Makroblöcke, die nicht vollständig aus der Region B stammen, oder
    • c) den um solche Makroblöcke, die nicht vollständig aus der Region B stammen, erzeugten Rand
    zeigt oder hinweist, wird er nicht wiederbenutzt, sondern statt dessen wird ein neuer Bewegungsvektor erzeugt.
  • Falls ein Bewegungsvektor, der mit einem Makroblock aus der Region A verknüpft ist,
    • a) auf die Region B,
    • b) Makroblöcke, die nicht vollständig aus der Region A stammen, oder
    • c) den um solche Makroblöcke, die nicht vollständig aus der Region A stammen, er zeugten Rand
    zeigt, wird er ebenfalls nicht wiederbenutzt, sondern an seiner Stelle wird ein neuer Bewegungsvektor erzeugt.
  • Beispiele
  • Bewegungsvektoren können nach einem der im folgenden beschriebenen beispielhaften Verfahren A, B und C verarbeitet werden. Jedes dieser Bewegungsvektorverfahren A, B und C kann mit den oben beschriebenen Verfahren zum Kodieren von festen, zentralen und transparenten Makroblöcken benutzt werden.
  • Wie oben diskutiert wurde, werden die Bewegungsvektoren V1 des ursprünglichen Bitstroms A in dem Kodierer E2 für die Wiederbenutzung aufbewahrt. Für die kombinierte Videoinformation, die die Logo-Information und die ursprüngliche Videoinformation enthält, werden neue Bewegungsvektoren V2 berechnet. Die Sätze von Bewegungsvektoren V1, V2 werden in Dateien zusammen mit Hinweisen gespeichert, die die Makroblöcke bezeichnen, für die die Bewegungsvektoren gelten. In den unten beschriebenen Verfahren A, B und C sind nur den P- und B-Rahmen Bewegungsvektoren zugeordnet. Die Dateien für B-Rahmen enthalten Vektoren sowohl für die Vorwärts- als auch für die Rückwärts-Prädiktion.
  • Bitmaps
  • Wie oben beschrieben wurde, werden Bitmaps erzeugt. Bitmaps werden für jeden Rahmen erzeugt und zeigen, wo sich die Logo-Information in diesem Rahmen befindet.
  • Eine Bitmap wird für einen I-Rahmen erzeugt.
  • Jeder B-Rahmen benutzt zwei Referenz-Bitmaps, nämlich die Bitmaps des vorderen Rahmens und des hinteren Rahmens, auf die sich die Bewegungsvektoren des B-Rahmens beziehen.
  • Jeder P-Rahmen besitzt bis zu zwei Bitmaps. Eine dieser Bitmaps ist die Bitmap dieses Rahmens selbst. Die andere Bitmap ist die Referenz-Bitmap, d.h. die Bitmap des Rahmens, auf den sich die Bewegungsvektoren des P-Rahmens beziehen.
  • Verfahren A
  • Die Bitmaps enthalten für jedes Pixel ein logisches Bit "1" oder "0", das anzeigt, ob das Pixel Logo-Information enthält oder nicht.
    "1" = Logo "0" = Nicht-Logo.
  • Es werde in 12A ein Makroblock MB(n) in einem P- oder B-Rahmen der kombinierten Videoinformation betrachtet. Es sei angenommen, daß MB(n) keine Logo-Information enthält.
  • Der aufbewahrte Bewegungsvektor von MB(n) wird gegen die Logo-Bitmaps mit Pixelauflösung getestet. In 12B wird er erneut gegen einen Bereich mit 16 Pixel×16 Pixel getestet, der mit xxxx bezeichnet ist.
  • Falls ein Pixel in dem Bereich xxxx gleich 1 ist, enthält er Logo-Information. Dann wird für MB(n) ein neuer Vektor V2 benutzt.
  • Wenn alle Pixel in dem Bereich xxxx gleich 0 sind, enthält er keine Logo-Information. Dann wird für MB(n) ein aufbewahrter Vektor V1 benutzt.
  • Statt den neuen Vektor V2 zu benutzen, wenn irgendein Pixel in dem Bereich xxxx Logo-Information enthält, könnte als Modifizierung ein aufbewahrter Vektor V1 benutzt werden, falls eine Minorität der Pixel in dem Bereich xxxx Logo-Information enthalten.
  • Verfahren B
  • Bei diesem Verfahren B haben die Bitmaps für die P- und B-Rahmen Makroblockauflösung. Das heißt für jeden Makroblock
    "1" zeigt an, daß der Makroblock Logo-Information enthält
    "0" zeigt an, daß der Makroblock keine Logo-Information enthält.
  • Die aufbewahrten Vektoren werden auf eine Auflösung von nur einem Makroblock getestet, z.B. auf eine Auflösung von 16 Pixeln, falls der Makroblock 16×16 Pixel enthält.
  • Es werde die Situation von 13A und 13B betrachtet.
  • 13A zeigt einen Makroblock MB(n) eines P- oder B-Rahmens, der keine Logo-Information enthält. Sein Bewegungsvektor zeigt auf einen Bereich xxxx bester Anpassung in einem anderen Rahmen, wie dies in 13B dargestellt ist. Der Bereich xxxx ist dem Makroblock (n) benachbart. Damit befindet er sich innerhalb der 16 Pixel von MB(n).
  • Falls MB(n) einen horizontalen Vektor mit einem Wert im Bereich von 0 bis 15 Pixeln nach rechts hat, könnte er fälschlicherweise Logo-Pixel auswählen, wenn er auf einen Logo-Bereich zeigt.
  • Die Bitmap, die 13B entspricht, ist in 14B dargestellt. Zum Schutz gegen die Situation, die oben anhand von 13A und 13B diskutiert wurde, ist in den Referenz-Rahmen um jeden Makroblock, der Logo-Information enthält, ein Rand vorgesehen, der eine Breite von einem Makroblock hat, wie dies in 14C und 14D dargestellt ist. Der Rand entspricht in Ausführungsbeispielen dieses zweiten Verfahrens immer einem Makroblock und ist von der Vektorgröße und dem Bildtyp unabhängig.
  • Für die Zwecke der Vektorverarbeitung ist der Rand so festgelegt, daß er Logo-Information enthält.
  • Der Bewegungsvektor von MB(n) in 14C wird auf eine Auflösung von Vielfachen von 16 Pixeln gegen Makroblöcke in der Bitmap-Datei getestet.
  • Falls ein Makroblock, auf den der aufbewahrte Bewegungsvektor zeigt, eine logische 1 enthält (d.h. er enthält eine Logo-Information oder ist ein Rand), wird für MB(n) ein neuer Bewegungsvektor V2 benutzt.
  • Falls alle Makroblöcke, gegen die der aufbewahrte Bewegungsvektor getestet wird, keine Logo-Information enthalten, wird der aufbewahrte Bewegungsvektor V1 für MB(n) benutzt.
  • B-Rahmen benutzen, wie oben beschrieben, zwei Referenz-Bitmaps. Ein B-Rahmen kann einen Makroblock mit Bewegungsvektoren haben, die sowohl auf einen Vorwärts- als auch auf einen Rückwärts-Referenzrahmen und somit auf zwei Referenz-Bitmaps zeigen, wobei ein Bewegungsvektor in einer Richtung auf eine Nicht-Logo-Information zeigen kann und der andere auf eine Logo-Information. Ein Ausführungsbeispiel der Erfindung kann in einer solchen Situation den Referenz-Rahmen auswählen, der keine Logo-Information enthält und für diesen Makroblock den aufbewahrten Bewegungsvektor V1 wiederverwenden. Der andere Referenzrahmen bleibt unberücksichtigt.
  • Verfahren C
  • In 15 ist eine Bitmap für einen B- oder P-Rahmen dargestellt, der eine Logo-Information 4 besitzt. Um die Logo-Information auf dem laufenden Rahmen, der gerade verarbeitet wird, (nicht der Referenz-Rahmen wie in den obigen Verfahren A und B) ist ein Rand 22 vorgesehen. Der Rand hat eine von der maximalen Vektorgröße abhängige Breite w. Die Breite w beträgt z.B. 64 Pixel horizontal und 32 Pixel vertikal.
  • Die Breite w ist vorzugsweise doppelt so groß wie die maximale Vektorgröße.
  • In einer Version des Verfahrens C wird die maximale Vektorgröße entweder aus den MPEG-Parametern des originalen Videobitstroms detektiert, oder er wird für jeden Rahmen gemessen.
  • Der Rand hat vorzugsweise eine solche Breite w, daß alle Makroblöcke außerhalb des Rands keine Bewegungsvektoren haben können, die auf Makroblöcke innerhalb der Grenze zeigen, die Logo-Information enthalten.
  • Auf diese Weise werden aufbewahrte Bewegungsvektoren V1 für alle Makroblöcke außerhalb des Randes benutzt, und für alle Makroblöcke innerhalb des Randes werden neue Bewegungsvektoren V2 berechnet.
  • Es sei darauf hingewiesen, daß in der obigen Beschreibung Hinweise auf "Rahmen" nur beispielhaft sind, im allgemeinen erfolgt die Kodierung Bild für Bild, wobei es sich um Vollbilder, Halbbilder, eine Kombination oder andere Bilder handeln kann.
  • Der oben beschriebene Bitstrom kann I-, P- und B-Rahmen enthalten. Er kann jedoch auch I-Rahmen nur zusammen mit P-Rahmen oder nur zusammen mit B-Rahmen aufweisen.
  • Der einschlägige Fachmann erkennt, daß das oben beschriebene Gerät zumindest teilweise von einem Universalcomputer implementiert sein kann, auf dem eine geeignete Software läuft. Eine solche Software und ein Speichermedium, auf dem eine solche Software gespeichert ist, werden als Ausführungsbeispiele der Erfindung betrachtet.

Claims (23)

  1. Videosignalprozessor mit einem ersten Eingang für die Aufnahme eines ersten komprimierten Videosignals, das Parameter enthält, die mit den Rahmen des Signals verknüpft sind und sich auf die Kompression beziehen, mit einem Dekodierer zum Dekodieren des komprimierten ersten Videosignals, wobei die mit den Rahmen verknüpften Parameter aufbewahrt werden, mit einem zweiten Eingang für die Aufnahme einer zusätzlichen Videoinformation, die mit der ersten Videoinformation kombiniert werden soll, mit einem Kombinierer zum Kombinieren der zusätzlichen Videoinformation mit der ersten Videoinformation, um Rahmen einer kombinierten Videoinformation zu erzeugen, und mit einem Kodierer zum Kodieren der Rahmen der kombinierten Videoinformation, wobei die aufbewahrten Parameter jedes Rahmen wiederbenutzt werden, um einen Teil eines Rahmens der komprimierten Information zu kodieren, der keine zusätzliche Videoinformation enthält, dadurch gekennzeichnet, daß der Kodierer die aufbewahrten Parameter jedes Rahmens auch dazu wiederbenutzt, um eine Kantenregion eines anderen Teils des Rahmens, welcher andere Teil zusätzliche Informationen enthält, mit einer höheren Bildqualität zu kodieren, als eine Region des anderen Teils, die nicht die Kantenregion ist.
  2. Prozessor nach Anspruch 1, bei dem der Kodierer die Kantenregion mit einem vorbestimmten Wert eines Quantisierungsparameters kodiert.
  3. Prozessor nach Anspruch 1 oder 2, ferner mit einem Schlüsselsignalgenerator zum Erzeugen eines Schlüsselsignals K, das den Teil des Rahmens definiert, der die zusätzliche Information enthält.
  4. Prozessor nach Anspruch 3, soweit dieser von Anspruch 2 abhängt, bei dem die Kantenregion durch einen Wert des Schlüsselsignals K definiert ist, der unter einem Schwellwert liegt.
  5. Prozessor nach Anspruch 4, bei dem für das Schlüsselsignal K die Beziehung 0 < K ≤ Kt gilt, worin Kt der genannte Schwellwert ist.
  6. Prozessor nach einem der vorhergehenden Ansprüche, bei dem die genannten Regionen Makroblöcke sind.
  7. Videosignalprozessor nach Anspruch 6, bei dem das erste Videosignal I-Rahmen zusammen mit P-Rahmen und/oder B-Rahmen enthält, wobei der Kodierer ausgebildet ist, um I-, P- und B-Rahmen der ersten Videoinformation als I-, P- bzw. B-Rahmen zu kodieren, wenn sie mit der zusätzlichen Videoinformation kombiniert sind.
  8. Prozessor nach Anspruch 7, bei dem der Kodierer die aufbewahrten Parameter, die mit I-Rahmen der ersten Information verknüpft sind, wiederbenutzt, wenn er den Teil der entsprechenden I-Rahmen kodiert, der keine zusätzliche Videoinformation enthält.
  9. Prozessor nach Anspruch 8, bei dem der Kodierer die aufbewahrten Parameter, die mit P-Rahmen der ersten Information verknüpft sind, wiederbenutzt, wenn er den Teil der entsprechenden P-Rahmen kodiert, der keine zusätzliche Videoinformation enthält.
  10. Prozessor nach Anspruch 7 oder 8, bei dem der Kodierer die P-Rahmen voll rekodiert.
  11. Prozessor nach einem der Ansprüche 7 bis 10, bei dem der Kodierer B-Rahmen voll rekodiert.
  12. Prozessor nach einem der vorhergehenden Ansprüche, bei dem die genannten Region des anderen Teils, der keine Kantenregion ist, entsprechend einem Quantisierungsparameter kodiert wird, der nach einem vorbestimmten Algorithmus festgelegt ist.
  13. Prozessor nach Anspruch 12, bei dem der nach einem vorbestimmten Algorithmus festgelegte Quantisierungsparameter einen vorbestimmten festen Wert QF hat.
  14. Prozessor nach Anspruch 12, bei dem der nach einem vorbestimmten Algorithmus festgelegte Quantisierungsparameter Q ein gewichteter Mittelwert aus einem vorbestimmten festen Wert QF und dem aufbewahrten Wert QB des Quantisierungsparameters des ersten Videosignals ist.
  15. Prozessor nach Anspruch 14, soweit dieser von Anspruch 3 abhängt, bei dem der nach einem vorbestimmten Algorithmus festgelegte Quantisierungsparameter gleich QW = KAQF + (1 – KA)QB ist, worin KA der Mittelwert des Schlüsselsignals für den Makroblock ist, QF ein vorbestimmter fester Wert ist und der aufbewahrte Wert QB des Quantisierungsparameters des ersten Videosignals ist.
  16. Prozessor nach einem der Ansprüche 12 bis 15, bei dem Kodierer Mittel aufweist, um zu prüfen, ob alle Pixel in einer der Regionen zusätzliche Information enthalten.
  17. Prozessor nach Anspruch 16, soweit dieser von Anspruch 13 abhängt, bei dem der Quantisierungsparameter Q den festen Wert QF hat, wenn alle Pixel der genannten Region zusätzliche Information enthalten.
  18. Prozessor nach einem der Ansprüche 12 bis 15, bei dem Kodierer Mittel aufweist, um zu prüfen, ob ein Makroblock und alle seine Nachbarn zusätzliche Information enthalten.
  19. Prozessor nach Anspruch 18, bei dem der Quantisierungsparameter den festen Wert QF hat, wenn ein Makroblock und alle seine Nachbarn zusätzliche Information enthalten.
  20. Prozessor nach einem der vorhergehenden Ansprüche, bei dem die genannten Kantenregion nur dann zu einer höheren Bildqualität kodiert wird als die Region, die keine Kantenregion ist, wenn das erste Signal eine höhere Bildqualität hat als die Region, die keine Kantenregion ist.
  21. Verfahren zum Verarbeiten eines Videosignals mit den Verfahrensschritten: Aufnehmen eines ersten komprimierten Videosignals, das Parameter enthält, die mit den Rahmen des Signals verknüpft sind und sich auf die Kompression beziehen, Dekodieren des komprimierten ersten Videosignals, wobei die mit den Rahmen verknüpften Parameter aufbewahrt werden, Aufnehmen einer zusätzlichen Videoinformation, die mit der ersten Videoinformation kombiniert werden soll, Kombinieren der zusätzlichen Videoinformation mit der ersten Videoinformation, um Rahmen einer kombinierten Videoinformation zu erzeugen, und Kodieren der Rahmen der kombinierten Videoinformation, wobei die aufbewahrten Parameter jedes Rahmens wiederbenutzt werden, um einen Teil eines Rahmens der komprimierten Information zu kodieren, der keine zusätzliche Videoinformation enthält, dadurch gekennzeichnet, daß die genannte Wiederbenutzung auch dazu dient, eine Kantenregion eines anderen Teils des Rahmens, welcher andere Teil zusätzliche Informationen enthält, mit einer höheren Bildqualität zu kodieren, als eine Region des anderen Teils, die nicht die Kantenregion ist.
  22. Verfahren zum Verarbeiten eines Videosignals nach Anspruch 21, ferner mit Verfahrensschritten, die die Merkmale des Videosignalprozessors nach einem der Ansprüche 2 bis 20 in Verfahrensschritten widerspiegeln.
  23. Computerprogrammprodukt mit von einem Computer ausführbaren Instruktionen, die adaptiert sind, um alle des Verfahrensschritte des Verfahrens nach den Ansprüchen 21, 22 auszuführen, wenn das Programm auf einem programmierbaren Signalprozessor abläuft.
DE60031746T 1999-09-03 2000-08-30 Videosignalverarbeitung Expired - Fee Related DE60031746T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GBGB9920929.8A GB9920929D0 (en) 1999-09-03 1999-09-03 Video signal processor
GB9920929 1999-09-03

Publications (2)

Publication Number Publication Date
DE60031746D1 DE60031746D1 (de) 2006-12-21
DE60031746T2 true DE60031746T2 (de) 2007-09-06

Family

ID=10860359

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60031746T Expired - Fee Related DE60031746T2 (de) 1999-09-03 2000-08-30 Videosignalverarbeitung

Country Status (5)

Country Link
US (1) US6567128B1 (de)
EP (1) EP1081957B1 (de)
JP (1) JP2001128184A (de)
DE (1) DE60031746T2 (de)
GB (1) GB9920929D0 (de)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5715009A (en) 1994-03-29 1998-02-03 Sony Corporation Picture signal transmitting method and apparatus
CA2265089C (en) * 1998-03-10 2007-07-10 Sony Corporation Transcoding system using encoding history information
US7236526B1 (en) * 1999-02-09 2007-06-26 Sony Corporation Coding system and its method, coding device and its method, decoding device and its method, recording device and its method, and reproducing device and its method
JP3694888B2 (ja) * 1999-12-03 2005-09-14 ソニー株式会社 復号装置および方法、符号化装置および方法、情報処理装置および方法、並びに記録媒体
WO2002085027A1 (en) * 2001-04-12 2002-10-24 Koninklijke Philips Electronics N.V. Watermark embedding
JP4523413B2 (ja) * 2002-09-30 2010-08-11 アドビ システムズ, インコーポレイテッド 複数のメディア参照でのサーチ不明確性の減少
RU2327302C2 (ru) * 2002-10-30 2008-06-20 Конинклейке Филипс Электроникс Н.В. Маркировка водяным знаком сигнала с переменным расходом битов
JP4196726B2 (ja) * 2003-05-14 2008-12-17 ソニー株式会社 画像処理装置および画像処理方法、記録媒体、並びに、プログラム
JP4151962B2 (ja) * 2003-08-25 2008-09-17 インターナショナル・ビジネス・マシーンズ・コーポレーション テロップ画像送信装置、テロップ画像受信装置、テロップ画像送受信システム、エンコード装置、及びデコード装置
GB0321083D0 (en) * 2003-09-09 2003-10-08 British Telecomm Video communications method and system
EP1583364A1 (de) * 2004-03-30 2005-10-05 Matsushita Electric Industrial Co., Ltd. Bewegungskompensierte Bildinterpolation an Bildrändern zur Bildfrequenzumwandlung
KR100612691B1 (ko) * 2004-04-30 2006-08-16 에스케이 텔레콤주식회사 동영상 화질 평가시스템 및 방법
JP4739295B2 (ja) * 2007-08-27 2011-08-03 日本電信電話株式会社 映像信号生成装置、映像信号生成方法、映像信号生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP5216303B2 (ja) * 2007-11-01 2013-06-19 株式会社東芝 合成映像配信装置ならびにその方法およびプログラム
US9794562B2 (en) * 2009-12-04 2017-10-17 Arris Enterprises, Inc. Generation and detection of private metadata in an encoded video transport stream
US8878996B2 (en) * 2009-12-11 2014-11-04 Motorola Mobility Llc Selective decoding of an input stream
US9542611B1 (en) * 2011-08-11 2017-01-10 Harmonic, Inc. Logo detection for macroblock-based video processing

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR910006465B1 (ko) 1988-12-31 1991-08-26 삼성전자 주식회사 영상신호와 보색관계를 가지는 문자를 영상신호에 삽입하는 문자 합성장치
US5594507A (en) * 1990-09-28 1997-01-14 Ictv, Inc. Compressed digital overlay controller and method for MPEG type video signal
KR940001439B1 (ko) 1991-08-30 1994-02-23 삼성전자 주식회사 자막정보 중첩회로
JP2624087B2 (ja) * 1992-07-02 1997-06-25 松下電器産業株式会社 映像信号復号化方法
DE69422960T2 (de) * 1993-12-01 2000-06-15 Matsushita Electric Ind Co Ltd Verfahren und Vorrichtung zum Editieren oder zur Mischung von komprimierten Bildern
US6208693B1 (en) * 1997-02-14 2001-03-27 At&T Corp Chroma-key for efficient and low complexity shape representation of coded arbitrary video objects
US5974172A (en) * 1997-02-14 1999-10-26 At&T Corp Method and apparatus for coding segmented regions which may be transparent in video sequences for content-based scalability
US6038347A (en) * 1997-11-03 2000-03-14 Victor Company Of Japan, Ltd. Method and apparatus for compressing picture-representing data
CN1183778C (zh) * 1998-02-13 2005-01-05 松下电器产业株式会社 图象解码装置及记录媒体
JP3544852B2 (ja) * 1998-03-12 2004-07-21 株式会社東芝 映像符号化装置
EP0995316A2 (de) * 1998-03-31 2000-04-26 Koninklijke Philips Electronics N.V. Verfahren und vorrichtung zur veränderung von daten in einem kodierten datenbstrom
US6373530B1 (en) * 1998-07-31 2002-04-16 Sarnoff Corporation Logo insertion based on constrained encoding
US6122014A (en) * 1998-09-17 2000-09-19 Motorola, Inc. Modified chroma keyed technique for simple shape coding for digital video

Also Published As

Publication number Publication date
EP1081957B1 (de) 2006-11-08
JP2001128184A (ja) 2001-05-11
EP1081957A1 (de) 2001-03-07
GB9920929D0 (en) 1999-11-10
US6567128B1 (en) 2003-05-20
DE60031746D1 (de) 2006-12-21

Similar Documents

Publication Publication Date Title
DE60031746T2 (de) Videosignalverarbeitung
DE69915277T2 (de) Verfahren und vorrichtung zur reduzierung von breathing-artefakten in komprimierten videodaten
DE69725186T2 (de) Sprite-gestütztes videocodiersystem
DE69733007T2 (de) Vorrichtung zur codierung und decodierung von bewegtbildern
EP1635578B1 (de) Verfahren und Anordnung zur Videocodierung, wobei die Videocodierung Texturanalyse und Textursynthese sowie Texturverzerrung umfasst, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
DE69827548T2 (de) Anordnung zur Vorverarbeitung für MPEG-2-Kodierung
DE69936264T2 (de) Verfahren und vorrichtung zur verwaltung einer multimediadatei
DE69908562T2 (de) Bewegungsvektorenextrapolation zur transkodierung von videosequenzen
DE69913990T2 (de) System zum editieren komprimierter bildsequenzen
DE69914426T2 (de) Logoeinfügung in ein Videosignal
DE69836609T2 (de) Umwandlung von in DV-Format kodierten Videodaten in MPEG-Format
DE60220106T2 (de) Verfahren und Vorrichtung zur Reduzierung von Störungen in dekodierten Bildern mit Nachfilterung
DE60033485T2 (de) Formatierung und Speicherung von Videodaten
DE69636277T2 (de) Verfahren und Vorrichtung zur Erzeugung von Farbart-Forminformation einer Video-Objektebene in einem Videosignal
DE69835211T2 (de) Umschaltung zwischen komprimierten videobitströmen
DE69919205T2 (de) Verfahren und gerät für die mpeg-bildkodierung von eingefügten bildern
DE10219132A1 (de) System und Verfahren zum Verbessern der Bildqualität bei verarbeiteten Bildern
EP2521357A1 (de) Verfahren und Vorrichtung zur Filterung von kodierten Bildpartitionen
DE60300591T2 (de) Verfahren und Vorrichtung zur Dekomprimierung von Bildern durch Transkodierung in komprimierte Bewegtbilder
DE602005000425T2 (de) Verfahren und Anordnung zur Erzeugung von Kandidatenvektoren für Bildinterpolierungssysteme, die Bewegungsabschätzung und -kompensation verwenden
DE10296787B4 (de) Selektive Prädikation für ein Intra-Codieren eines Videodatenblocks
DE102011006036B4 (de) Verfahren und Vorrichtungen zur Bildung eines Prädiktionswertes
DE69928494T2 (de) Videosignalkompression
EP1941744B1 (de) Verfahren und vorrichtungen zur bestimmung und rekonstruktion eines prädizierten bildbereichs
DE69833785T2 (de) Farbstanzverfahren für ein digitales videokompressionssystem

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee