DE69928616T2 - System zur extrahierung von codierungsparametern aus videodaten - Google Patents

System zur extrahierung von codierungsparametern aus videodaten Download PDF

Info

Publication number
DE69928616T2
DE69928616T2 DE69928616T DE69928616T DE69928616T2 DE 69928616 T2 DE69928616 T2 DE 69928616T2 DE 69928616 T DE69928616 T DE 69928616T DE 69928616 T DE69928616 T DE 69928616T DE 69928616 T2 DE69928616 T2 DE 69928616T2
Authority
DE
Germany
Prior art keywords
video data
coding
histogram
frequency band
correlation function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69928616T
Other languages
English (en)
Other versions
DE69928616D1 (de
Inventor
Yingwei Chen
Kiran Challapali
Mahesh Balakrishnan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Arris Global Ltd
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of DE69928616D1 publication Critical patent/DE69928616D1/de
Application granted granted Critical
Publication of DE69928616T2 publication Critical patent/DE69928616T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer

Description

  • Die hier beschriebene Erfindung wurde entsprechend dem US Government Kontrakt Nr. 70N1NB5H1174 entwickelt, der von dem "National Institute For Standards And Technology (NIST) erteilt wurde.
  • HINTERGRUND DER ERFINDUNG
  • Bereich der Erfindung
  • Die vorliegende Erfindung bezieht sich auf ein System, das aus nicht codierten Videodaten Codierungsparameter extrahiert, die sich auf einen vorhergehenden Codierungsprozess beziehen. Die vorliegende Erfindung findet insbesondere Anwendung bei Mehrgenerationscodierungssystemen Anwendung, wobei dieselben Videodaten mehrere Male codiert und decodiert werden.
  • Beschreibung des Standes der Technik
  • Im Allgemeinen umfasst ein Mehrgenerationscodierungssystem Codierungs-/Decodierungspaare, die gegenüber Übertragungsmedien in Reihe geschaltet sind. Im Betrieb ist jeder der Codierer dazu vorgesehen, nicht codierte Videodaten zu codieren und diese codierten Videodaten danach über ein Übertragungsmedium zu einem Decoder zu übertragen, der dazu vorgesehen ist, die codierten Videodaten zu decodieren. Diese Systeme werden zur Zeit allgemein angewandt, insbesondere dort, wo oft Übertragung von Videodaten von der einen Stelle zu einer anderen erforderlich ist, wie in der Fernsehindustrie. Bei Mehrgenerationscodierungssystemen des bekannten Typs entstehen Probleme durch die Art und Weise, wie Codierer bei diesen Systemen Videodaten codieren. Insbesondere codieren bei diesen Systemen verschiedene Codierer dieselben Videodaten durch Neuberechnung von Codierungsparametern für jeden Codierungsvorgang. Unterschiedene in den Codierungsparametern, herrührend aus diesen Berechnungen, sorgen dafür, dass Quantisierungsrauschen in die Videodaten eingeführt wird. Letztendlich werden nach mehreren Codierungsgenerationen genügend Quantisierungsrauschwerte in die Videodaten eingeführt um eine wesentliche Degradation in der Videobildqualität zu verursachen.
  • Eine herkömmliche Lösung des oben genannten Problems betrifft die Einführung zusätzlicher Daten, durch "mole" bezeichnet, in decodierte Videodaten. Diese zu sätzlichen Daten definieren Codierungsparameter, die für die Videodaten verwendet werden, und die zusammen mit den Videodaten zwischen Codierern und Decodern übertragen werden. Die Verwendung einer "mole" hat aber mehrere Nachteile. Erstens muss die "mole" unsichtbar sein, sonst würde dies die Qualität der aus den Videodaten erzeugten Bilder beeinträchtigen. Um zu gewährleisten, dass die mole unsichtbar ist, kann aus technischem Gesichtspunkt schwierig sein. Zweitens kann spezielle Hardware erforderlich sein um Videodaten mit einer mole zu übertragen, sonst kann die mole während der Signalübertragung geändert werden. Zum Schluss können Hardware-Modifikationen erforderlich sein um zu gewährleisten, dass Decoder imstande sind, die mole zu detektieren und die mole von den Videodaten zu trennen. Wenigstens aus diesen Gründen hat es sich herausgestellt, dass die mole und derartige Systeme eine nicht entsprechende Lösung für das oben genannte mit der Mehrgenerationscodierung einhergehende Problem sind.
  • Folglich gibt es ein Bedürfnis nach einem System, das den Betrag an Quantisierungsrauschen, das während vielen Codierungsprozessen in Videodaten eingeführt worden ist, zu reduzieren, ohne dass zusätzliche Information in die Videodaten selber eingeführt wird.
  • CA 2 063 972 (Familienmitglied EP0509576) beschreibt eine Technik zum Ermitteln eines Quantisierungsfaktors für Prozesse, die vielfachen Komprimieren/Dekomprimieren von Daten erfordern.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf das oben genannte Bedürfnis, indem ein Verfahren geschaffen wird zum Extrahieren von Parametern aus nicht codierten Videodaten, die im Wesentlichen Codierungsdaten entsprechen, die in einem Codierungsvorgang verwendet wurden, der vorher an den Videodaten durchgeführt wurde. Dazu bietet die vorliegende Erfindung den Vorteil der Tatsache, dass bei einigen Codierungstechniken wie bei der "Motion Picture Experts Group" (nachstehend als MPEG bezeichnet) Codierung, Codierungsparameter von einem vorhergehenden Codierungsvorgang augenscheinlich auf nicht codierten Videodaten basiert sind. Insbesondere schafft die vorliegende Erfindung eine Reihe von Prozessen in AC-Frequenzbändern in den Videodaten um diese Codierungsparameter aus den nicht codierten Videodaten zu extrahieren.
  • Insbesondere ist nach einem Aspekt die vorliegende Erfindung ein Verfahren und eine entsprechende Anordnung, das bzw. die Codierungsparameter aus nicht co dierten Videodaten extrahiert, wobei die Codierungsparameter im Wesentlichen Codierungsparametern entsprechen, die in einem Codierungsvorgang verwendet wurden, der vorher an den Videodaten durchgeführt wurde. Das Verfahren umfasst die Erzeugung eines Histogramms für wenigstens ein AC-Frequenzband in den nicht codierten Videodaten und die Berechnung einer Korrelationsfunktion für das Histogramm. Es wird ein maximaler Wert der Korrelationsfunktion identifiziert, wonach unter Anwendung des maximalen Wertes der Korrelationsfunktion ein Codierungsparameter für das wenigstens eine AC-Frequenzband ermittelt wird.
  • Durch den Vorteil von Codierungsparametern, die im Wesentlichen bereits in den Videodaten vorhanden sind, ist die vorliegende Erfindung imstande, Codierungsparameter zu extrahieren, die mit einem vorhergehenden Codierungsprozess im Zusammenhang stehen, ohne dass dazu die Verwendung einer mole oder dergleichen erforderlich ist. In dieser Hinsicht, weil die vorliegende Erfindung Videodaten Codiert, wobei extrahierte Codierungsparameter statt berechnete Codierungsparameter verwendet werden, führt die vorliegende Erfindung, relativ geringe Mengen an Rauschwerten in die Videodaten ein. Weiterhin ist die vorliegende Erfindung zugänglicher als die herkömmlichen Gegenhänger für etwaige Änderungen des decodierten Videos. Weiterhin ist, weil die vorliegende Erfindung im Wesentlichen in Software implementiert werden kann, die Notwendigkeit speziell entworfener Hardware reduziert.
  • Bei bevorzugten Ausführungsformen der vorliegenden Erfindung umfasst der Schritt der Berechnung der Korrelationsfunktion das Identifizieren einer vorbestimmten Anzahl Spitzen in dem Histogramm der nicht codierten Videodaten, und die Berechnung (i) einer Standard-Autokorrelationsfunktion für das Histogramm in einem Fall, dass die Anzahl Spitzen kleiner ist als ein vorbestimmter Wert oder diesem Wert entspricht, wobei die Standard-Autokorrelationsfunktion für alle identifizierten Spitzen durchgeführt wird, und (ii) eine modifizierte Auto-Korrelationsfunktion für das Histogramm in einem Fall, dass die Anzahl Spitzen größer ist als der vorbestimmte Wert, wobei die modifiziere Auto-Korrelationsfunktion für weniger als alle identifizierten Spitzen durchgeführt wird. Durch Berechnung einer modifizierten Auto-Korrelationsfunktion, wenn die Anzahl Spitzen größer ist als der vorbestimmte Wert, ist die vorliegende Erfindung imstande, die Berechnungszeit zu reduzieren, ohne dass dabei die Genauigkeit wesentlich reduziert wird.
  • In der vorliegenden Erfindung entspricht der maximale Wert der Korrelationsfunktion einem differenzierten dominanten Rekonstruktionspegel ("DDRL") des wenigstens einen AC-Frequenzbandes. Folglich umfasst, bei anderen bevorzugten Ausführungsformen der vorliegenden Erfindung der Identifikationsschritt das Ermitteln, ob die Korrelationsfunktion Spitzen aufweist, die sich überlappen und in dem Fall, dass Spitzen sich überlappen, das Untersuchen zusätzlicher Werte der Korrelationsfunktion um den DDRL zu ermitteln. Durch dieses Merkmal ist die vorliegende Erfindung imstande, Fehler bei der Ermittlung des DDRLs zu reduzieren, die durch überlappende Spitzen in dem Histogramm entstehen.
  • Auf gleiche Weise reduziert eine andere Ausführungsform der vorliegenden Erfindung Fehler in dem DDRL durch einen Vergleich erster und zweiter Spitzen der Korrelationsfunktion um zu ermitteln, welche der ersten und zweiten Spitzen größer ist und welche kleiner ist, und um zu ermitteln, ob die größere Spitze eine Harmonische der kleinem Spitze ist. In einem Fall, wo die größere Spitze eine Harmonische der kleineren Spitze ist, wird die kleinere Spitze als der maximale Wert bezeichnet, aber in einem Fall, dass die größere Spitze nicht eine Harmonische der kleineren Spitze ist, wird die größere Spitze als der maximale Wert bezeichnet.
  • Bei noch einer anderen bevorzugten Ausführungsform der vorliegenden Erfindung wird der DDRL auf Basis eines Mittelwertes der Abstände zwischen dominanten Rekonstruktionspegeln in dem Histogramm ermittelt. Dies reduziert Fehler in dem DDRL, die aus Unterschieden in Abständen zwischen verschiedenen dominanten Rekonstruktionspegeln entstehen können.
  • Nach einem anderen Aspekt ist die vorliegende Erfindung ein Verfahren und eine entsprechende Anordnung zur Anwendung bzw. Verwendung in einem Mehrgenerationen-Codierungssystem, zum Codieren nicht codierter Videodaten. Das Verfahren ermittelt zunächst, ob die nicht codierten Videodaten in einer vorhergehenden Generation des Mehrgenerationen-Codierungssystems einem Codierungsvorgang ausgesetzt worden sind. In dem Fall, dass das Verfahren ermittelt, dass die nicht codierten Videodaten nicht einem Codierungsvorgang ausgesetzt worden sind, codiert das Verfahren nicht codierte Videodaten unter Anwendung vorbestimmter Codierungsparameter. Andererseits extrahiert in einem Fall, dass das Verfahren ermittelt, dass die nicht codierten Videodaten einem Codierungsvorgang ausgesetzt worden sind, das Verfahren Codierungsparameter aus den nicht codierten Videodaten und codiert die Videodaten unter Anwendung der extrahierten Codierungsparameter.
  • Durch Ermittlung, ob die nicht codierten Videodaten in einer vorhergehenden Generation des Mehrgenerationen-Codierungssystems einem Codierungsvorgang ausgesetzt worden sind und dadurch, dass danach auf entsprechende Weise auf Basis dieser Ermittlung fortgefahren wird, ist die vorliegende Erfindung imstande, Videodaten, die nicht vorher codiert worden sind sowie Videodaten, die vorher codiert wurden, genau zu verarbeiten.
  • Nach einem weiteren Aspekt ist die vorliegende Erfindung ein Mehrgenerationen-Codierungssystem, das erste und zweite Codierungsmittel umfasst. Das erste Codierungsmittel codiert ursprüngliche Videodaten unter Verwendung vorbestimmter Codierungsparameter zum produzieren codierter Videodaten, decodiert die codierten Videodaten und liefert nicht codierte Videodaten. Das zweite Mittel empfängt die nicht codierten Videodaten von dem ersten Codierungsmittel, ermittelt, dass die nicht codierten Videodaten einem vorhergehenden Codierungsvorgang ausgesetzt worden sind und extrahiert Codierungsparameter aus den nicht codierten Videodaten. In diesem Aspekt der vorliegenden Erfindung entsprechen die von dem zweiten Codierungsmittel extrahierten Codierungsparameter im Wesentlichen den von dem ersten Codierungsmittel verwendeten vorbestimmten Codierungsparametern.
  • Diese kurze Zusammenfassung ist gegeben, so dass die Art der vorliegenden Erfindung schnell verstanden werden kann.
  • KURZE BESCHREIBUNG DER ZEICHNUNG
  • Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden im Folgenden näher beschrieben. Es zeigen:
  • 1 ein Blockschaltbild von einem Mehrgenerationen-Codierungssystem, wobei die vorliegende Erfindung implementiert werden kann,
  • 2 ein Blockschaltbild eines Codierers nach der vorliegenden Erfindung,
  • 3 ein Flussdiagramm eines Codierungsprozesses nach der vorliegenden Erfindung,
  • 4 ein Histogramm der DCT-Koeffizienten für ein AC-Frequenzband von ursprünglichen Videodaten, die nicht einem Codierungsvorgang ausgesetzt wurden,
  • 5 ein Histogramm von DCT-Koeffizienten für ein AC-Frequenzband von Videodaten, die vorher bereits einem Codierungsvorgang ausgesetzt wurden,
  • 6 ein Flussdiagramm eines Quantisierungsmatrixextraktionsprozesses nach der vorliegenden Erfindung,
  • 7 einen vergleich zwischen Werten einer Quantisierungsmatrix, extrahiert entsprechend der vorliegenden Erfindung, und Werten einer vorgegebenen Quantisierungsmatrix,
  • 8A bis 8C einen ersten Satz mit Simulationsergebnissen, wobei die Wirkung der Matrixextraktion nach der vorliegenden Erfindung mit einer herkömmlichen Matrixberechnung verglichen wird,
  • 9A bis 9C einen zweiten Satz mit Simulationsergebnissen, wobei die Wirkung der Matrixextraktion nach der vorliegenden Erfindung mit einer herkömmlichen Matrixberechnung verglichen wird.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Die bevorzugten Ausführungsformen der vorliegenden Erfindung werden nachstehend in Bezug auf ein Mehrgenerationen-Codierungssystem, und zwar das Codierungssystem 1 aus 1, beschrieben, wobei unter Anwendung von MPEG2 Videodaten codiert werden. Es sei aber bemerkt, dass andere Codierungstechniken, Wiedergabeelement JPEG oder dergleichen, statt MPEG2 angewandt werden können. Weiterhin sei bemerkt, dass die vorliegende Erfindung außerhalb des Kontextes eines Mehrgenerationen-Codierungssystems implementiert werden kann.
  • Als Hintergrund Folgendes: die MPEG2 Codierung erfolgt an einem Bild durch Aufteilung des Bildes in Makroblöcke von 16 × 16 Pixeln, die je einen einzelnen damit assoziierten Quantisierungsskalierungswert (nachstehend als "qm" bezeichnet) haben. Die Makroblöcke werden danach in einzelne Blöcke von 8 × 8 Pixeln aufgeteilt. Diese 8 × 8 Pixelblöcke werden je einer diskreten Kosinustransformation (nachstehend als "DCT" bezeichnet) ausgesetzt, wobei DCT Koeffizienten für jedes der 64 AC-Frequenzbänder (d.h. Pixel) darin erzeugt werden. DCT Koeffizienten in einem 8 × 8 Pixelblock werden danach durch einen entsprechenden Codierungsparameter, und zwar ein Quantisierungsgewicht, aufgeteilt. Danach werden zusätzliche Berechnungen an den DCT Koeffizienten effektuiert, damit u. a. qm berücksichtigt wird und dadurch die komplette MPEG2 Codierung.
  • Bei MPEG2 werden die Quantisierungsgewichte für einen bestimmten 8 × 8 Pixelblock in Termen einer 8 × 8 Quantisierungsmatrix ausgedrückt. Die hier beschriebene Erfindung bezieht sich auf das Extrahieren dieser Quantisierungsmatrizes aus Videodaten, die vorher einem Codierungsvorgang ausgesetzt worden sind. Wie nachstehend noch detailliert beschrieben wird, ist dies möglich, insbesondere im Falle von MPEG2, weil Codierungsparameter, wie die oben genannten Quantisierungsmatrizes, auf Basis von Rekonstruktionspegeln von DCT Koeffizienten in nicht codierten Videodaten ermittelt werden können.
  • In 1 umfasst das Codierungssystem eine Videoquelle 2, Codierer 4 und 5, Decoder 6 und 7 und mehrere (nicht dargestellte) Übertragungsmedien zwischen der Videoquelle, den Codierern und den Decodern. Es können auch (nicht dargestellte) Signalprozessoren zum Durchführen von Bildeditierung, Wiedergabe usw. an verschiedenen Stellen in dem System, wie zwischen dem Decoder 6 und dem Codierer 5, vorgesehen sein. Der Einfachheit halber ist deswegen auf diese Signalprozessoren verzichtet.
  • Die Decoder 6 und 7 können jeden beliebigen herkömmlichen Decoder aufweisen, der imstande ist, MPEG2-codierte Videodaten zu empfangen und codierte Videodaten zu decodieren. Auf gleiche Weise kann die Quelle 2 jeden beliebigen Gerätetyp aufweisen, wie eine Fernsehkamera oder eine entsprechende Videoausrüstung, die imstande ist, auf Basis eines ursprünglichen Bildes Videodaten zu erzeugen. Die Codierer 4 und 5, die in ihrer Struktur sowie in ihrer Funktion identisch sind, umfassen die vorliegende Erfindung. Ein funktionelles Blockschaltbild des Codierers 4 ist in 2 dargestellt. Aus dem Gesichtspunkt von Hardware können Funktionen der in 2 dargestellten Blöcke und insbesondere der Blöcke nach der vorliegenden Erfindung primär in Software implementiert werden, und zwar unter Verwendung eines oder mehrerer Mikroprozessoren, die in einem Speicher gespeicherte Prozessschritte durchführen.
  • Wie in 2 dargestellt, umfasst der Codierer 4 einen überflüssigen Teilbild-/Bilddetektionsblock 9, einen Makroblock Farbklassifikationsblock 10, DCT Blöcke 11 und 12, einen adaptiven Teilbild/Bildentscheidungsblock 14, einen ersten Durchlasscodierungsblock 16, einen Matrixberechnungs-/extraktionsblock 17, einen adaptiven Quantisierungssteuerungsblock 19, einen zweiten Durchlasscodierungsblock 20, einen Historien block 21, einen Ratenzuordnungsblock 22, einen Puffer 24, einen Bildspeicher 26 und einen Bewegungsschätzungs- (nachstehend als "ME" bezeichnet) und ME-Modeselektionsblock 27. Die fetten Linien in 2, wie die Linie 29, geben den Strom von Videodaten an, während die dünnen Linien, wie die Linie 30, den Strom von Steuerdaten oder einen schlussendlichen Ausgangsbitstrom angeben. Obschon die vorliegende Erfindung primär in einem Matrixberechnungs-/extraktionsblock 17 implementiert ist, wird an dieser Stelle der Vollständigkeit halber eine kurze Beschreibung der Wirkungsweise der weiteren Elemente des Codierers 4 gegeben.
  • Insbesondere werden im Betrieb Videodaten von einer externen Quelle (beispielsweise über ein LAN oder dergleichen) von dem Block 9 empfangen. Der Block 9 detektiert überflüssige Teilbilder in den Eingangsvideodaten, die vorhanden sein können durch eine Umwandlung zwischen dem Filmvideo und dem Fernsehvideo, und markiert diese überflüssigen Teilbilder um anzugeben, dass diese nicht codiert werden sollen. Der Codierer 4 umfasst auch einen (nicht dargestellten) Entscheidungsblock, der einen Teil des Blocks 9 enthalten kann, und der ermittelt, ob Videodaten ein Intrabild (d.h. "I") darstellen, was bedeutet, dass jedes Teilbild davon unabhängig codiert wird, oder ein Prädiktionsbild (d.h. "P"), was bedeutet, dass jedes Bild von dort auf Basis anderer Teilbilder codiert wird, und zwar unter Anwendung von Bewegungsschätzung oder dergleichen. Währen die vorliegende Erfindung zur Anwendung bei Intrabildern gemeint ist, ist die vorliegende Erfindung nicht unbedingt auf eine derartige Anwendung begrenzt. In dieser Hinsicht sei bemerkt, dass Reduktion im Quantisierungsrauschen von Intrabildern nach der vorliegenden Erfindung auch einen Effekt auf die Verbesserung der Qualität von Nicht-Intrabildern hat, da Nicht-Intrabilder ihre Bewegungsschätzung auf diese Intrabilder gründen.
  • In 2 klassifiziert der Block 10 Makroblöcke der Videodaten auf Basis von Textur und Komposition und überträgt relevante Information zu dem nachstehend zu beschreibenden adaptiven Quantisierungssteuerungsblock 19. Der ME & ME Modeselektionsblock 27 führt eine Bewegungsschätzung für Nicht-Intrabild-Eingangsvideodaten durch, und zwar auf Basis der Eingangsvideodaten und eines vorhergehenden Bildes mit Videodaten, das in dem Bildspeicher 26 gespeichert ist. Der Block 14 ermittelt, ob an den Eingangsvideodaten ein Teilbild- oder Bild-DCT durchgeführt werden soll und selektiert den geeigneten DCT-Block aus den DCT-Blöcken 11 und 12 zum Durchführen des geeigneten DCTs an den Videodaten. Der erste Durchlasscodierungsblock 16 sammelt Information über die Codierung der Videodaten und lässt diese Information zu dem adaptiven Quantisierungssteuerungsblock 19 sowie zu dem Matrixberechnungs-/Extraktionsblock 17 durch Wie bereits oben bemerkt, implementiert der Block 17 im Wesentlichen die vorliegende Erfindung. Das heißt, der Block 17 ermittelt, ob eingegebene nicht codierte Videodaten vorher codiert worden sind. In dem Fall, dass die Videodaten vorher codiert worden sind, erzeugt für jedes AC Frequenzband in jedem 8 × 8 Pixelblock in den Videodaten der Block 17 ein Histogramm, berechnet eine Korrelationsfunktion für das Histogramm, identifiziert einen maximalen Wert der Korrelationsfunktion und ermittelt ein Quantisierungsgewicht unter Verwendung des maximalen Wertes der Korrelationsfunktion. Die extrahierten Quantisierungsgewichte werden danach zum zweiten Durchlasscodierungsblock 20 durchgelassen. Eine detaillierte Beschreibung der Wirkungsweise des Blocks 17 wird nachstehend gegeben.
  • Der Ratenzuordnungsblock 22 ermittelt eine restliche Anzahl verfügbarer Bits in dem Bitbudget des Codierers und lässt diese Information zu dem adaptiven Quantisierungssteuerungsblock 19 durch. Der Block 19 ermittelt, wie mehrere Teile der Videodaten auf Basis der Information aus dem Ratenzuordnungsblock 22, dem Makroblock-Farbklassifizierungsblock 10, dem ersten Codierungsblock 16 und dem Block 9 codiert werden sollen. Der zweite Durchlasscodierungsblock 20 empfängt Information von dem adaptiven Quantisierungssteuerungsblock 19 und codiert die Videodaten auf Basis dieser Information und auf Basis der von dem Block 17 gelieferten Quantisierungsgewichte. Danach werden die codierten Videodaten in dem Puffer 24 gepuffert und von dem Codierer 4 als Bitstrom 31 ausgeliefert.
  • 3 ist ein Flussdiagramm, das die Codierung der Videodaten nach der vorliegenden Erfindung darstellt. Insbesondere werden in 1 in dem Schritt S301 nicht codierte Videodaten für ein Bild aus der Quelle 2 in den Codierer 4 eingegeben. Wie oben anhand der 2 bereits beschrieben, werden die nicht codierten Videodaten einer DCT Verarbeitung ausgesetzt, damit DCT Koeffizienten für AC Frequenzbänder in den Videodaten erzeugt werden, wonach die Videodaten dem Block 17 zugeführt werden. In diesem Block bestimmt der Schritt S302, ob die nicht codierten Videodaten vorher einem Codierungsvorgang ausgesetzt wurden. In Termen dieser Beschreibung umfassen Videodaten, die nicht vorher einem Codierungsvorgang ausgesetzt wurden, Videodaten, die unmittelbar von einem ursprünglichen Bild eingefangen wurden, sowie Videodaten, die vorher "leicht co diert" wurden, was bedeutet, dass die Effekte einer derartigen "leichten Codierung" so gering waren, dass nur wenig oder überhaupt kein Quantisierungsrauschen in die Videodaten eingeführt wurde.
  • Um zu ermitteln, ob die Videodaten vorher einem Codierungsvorgang ausgesetzt wurden, untersucht der Schritt 302 das erste AC Frequenzband in dem durch die Videodaten dargestellten Bild. Insbesondere erzeugt der Schritt S302 ein Histogramm von DCT Koeffizienten für das (0, 1). AC Frequenzband. Das Histogramm wird wie folgt erzeugt: (Gleichung 1)
    Figure 00100001
    wobei "H" dem Histogramm entspricht, wobei "C" einem DCT Koeffizienten in dem AC Frequenzband entspricht, und wobei "v" Werte zwischen 0 und 2048 annimmt, wobei diese Werte etwaigen Werten des (0, 1). Frequenzband entsprechen. Danach wird das Histogramm dadurch untersucht, dass daran eine Autokorrelationsfunktion durchgeführt wird. Insbesondere wird die Autokorrelation R d / 0,1 von H v / 0,1 wie folgt ermittelt: (Gleichung 2)
    Figure 00100002
    wobei "d" Werte zwischen 0 und 2048 annimmt, wobei diese Werte etwaigen Werten des (0, 1). Frequenzband entsprechen, und wobei max0,1 sich auf den höchst möglichen Wert des (0, 1). Frequenzband bezieht. Wenn R d / 0,1 für alle "d" einmal gefunden worden ist, bestimmt der Schritt S302 die Stelle des maximalen Wertes von R d / 0,1, und zwar D0,1 wie folgt:
  • (Gleichung 3)
    • D0,1 = arg max Rd0,1 d ≠ 0, wobei D0,1 sich auf einen Abstand zwischen Rekonstruktionspegeln des (0, 1). AC Frequenzband bezieht. In dieser Hinsicht stellen Rekonstruktionspegel rekonstruierte Quantisierte DCT Koeffizienten für das (0, 1), AC Frequenzband dar.
  • Es hat sich versuchsweise ergeben, dass wenn D0,1 einen Wert hat, der weniger ist als 4 oder gleich 4, Videodaten für das Bild nicht vorher einem Codierungsvorgang ausgesetzt worden sind, d.h. die Videodaten weisen entweder Daten auf, die von einem ursprünglichen Bild eingefangen wurden, oder wurden nur "leicht codiert". Unter Anwendung dieser Information untersucht der Schritt S302 D0,1 um zu ermitteln, ob mit dem Schritt S303 oder dem Schritt S305 fortgefahren werden soll.
  • In einem Fall, dass der Schritt S302 ermittelt, dass die Videodaten nicht vorher einem Codierungsschritt ausgesetzt wurden, fährt die Verarbeitung mit dem Schritt S303 fort. Der Schritt S303 codiert die Videodaten unter Verwendung einer entweder vorgespeicherten, vorgegebenen Quantisierungsmatrix oder einer berechneten Quantisierungsmatrix. Die vorgegebene Quantisierungsmatrix kann zur Zeit der Herstellung in einem Speicher des Codierers gespeichert werden, oder sie kann aus einer externen Quelle erhalten werden. Die berechnete Quantisierungsmatrix kann entsprechend einem bekannten Matrixberechnungsverfahren, wie dem in der ebenfalls eingereichten US Patentanmeldung Nr. mit dem Titel: "Method Of Frame-By-Frame Calculation Of Quantization Matrices" eingereicht am 16. Dezember 1997 (Aktenzeichen der Anmelderin: PHA 23.321) deren Inhalt durch Bezeichnung als hierin aufgenommen betrachtet wird, berechnet werden. Auf jeden Fall fährt nach der Codierung unter Verwendung beispielsweise der Vorgabematrix die Verarbeitung mit dem Schritt S304 fort, wobei die codierten Videodaten als Bitstrom übertragen werden.
  • Andererseits, wenn der Schritt S302 ermittelt, dass die Videodaten vorher einem Codierungsvorgang ausgesetzt wurden, fährt die Verarbeitung mit dem Schritt S305 fort. Der Schritt S305 extrahiert aus den Videodaten Quantisierungsmatrizes, die denen entsprechend, die in einem vorhergehenden Codierungsvorgang verwendet wurden. Dies ist möglich in MPEG2, weil Codierungsparameter, wie die oben genannten Quantisierungsmatrizes auf Basis der Rekonstruktionspegel der DCT Koeffizienten nicht codierter Videodaten ermittelt werden können. Insbesondere entsprechen quantisierte DCT Koeffizienten in den nicht codierten Videodaten einem Satz Rekonstruktionspegeln, die auf Basis von Quantisierungsgewichten aus einem vorhergehenden Codierungsvorgang ermittelt wurden. Für jedes Frequenzband gruppieren sich diese Rekonstruktionspegel um eine Reihe dominanter Rekonstruktionspegel. Folglich gruppieren sich die quantisierten DCT Koeffizienten auch um diese dominanten Rekonstruktionspegel. Durch Analyse von Gruppierungsstrukturen quantisierter DCT Koeffizienten ist es möglich, die Quantisierungsgewichte gewünschtenfalls aus dem vorhergehenden Codierungsvorgang wiederherzustellen, und zwar zusammen mit anderen Quantisierungsparametern. Diese wiederhergestellten Quantisierungsgewichte können dann verwendet werden zum Codieren der Videodaten mit einem niedrigeren zusätzlichen Quantisierungsrauschen als wenn die Videodaten unter Verwendung berechneter Quantisierungsgewichte codiert worden wären.
  • 4 zeigt ein Histogramm von DCT Koeffizienten für ein AC Frequenzband eines Bildes, das nicht codiert worden ist. 5 zeigt ein Histogramm desselben AC Frequenzbandes, wobei die Videodaten vorher codiert wurden. Wie in 5 dargestellt, zeigt das Histogramm für die vorher codierten Videodaten eine Reihe Spitzen, von denen Beispiele mit dem Bezugszeichen 34, 35 und 36 versehen sind. Diese Spitzen entsprechen Rekonstruktionspegeln für DCT Koeffizienten des in der Untersuchung begriffenen AC Frequenzbandes. Es ist der Raum zwischen diesen Spitzen, der Information über das Quantisierungsgewicht enthält, das vorher zum Codieren dieses AC Frequenzbandes benutzt wurde.
  • Insbesondere in MPEG2 werden Stellen von Rekonstruktionspegeln (nachstehend als "RL" bezeichnet) eines AC Frequenzbandes auf Basis eines Quantisierungsgewichtes, das bei einem vorhergehenden Codierungsvorgang verwendet wurde, ermittelt, und zwar zusammen mit einem relatierten Quantisiererskalierungswert. Folglich werden Stellen von RLs für ein (k. l). Frequenzband eines 8 × 8 Pixelblocks in einem (m). Makroblock wie folgt ermittelt: (Gleichung 4)
    Figure 00120001
    wobei Wk,l eine (k, l). Eingabe in eine Quantisierungsmatrix entsprechend dem 8 × 8 Pixelblock aufweist, wobei qm den Quantisiererskalierungswert für den (m). Makroblock auf weist (siehe oben), und wobei "i", die Werte 0, ±1, ±2 ... annehmen kann, einen Indexwert jedes Rekonstruktionspegels enthält.
  • Werte von qm können für verschiedene Makroblöcke eine codierten Bildes variieren. Aber durch die Art und Weise, wie MPEG2 Codierung durchgeführt wird, und zwar den Typ der adaptiven Quantisierung, der bei der Codierung verwendet wurde, variiert qm um einen dominanten Wert Q. Stellen dieser dominanten Rekonstruktionspegel (nachstehend als "DRL" bezeichnet) für das (k. l). Frequenzband können wie folgt ermittelt werden:
  • (Gleichung 5)
    Figure 00130001
  • Beispiele von DRL sind in dem Histogramm nach 5 durch 35, 36 und 37 bezeichnet.
  • Ein differenzierter dominanter Rekonstruktionspegel (nachstehend als "DDRL" bezeichnet entspricht dem Abstand zwischen benachbarten DRLs, wie in 5 dargestellt. Da Abstände zwischen benachbarten DRLs nicht von dem Indexwert "i" abhängig sind, wird der DDRL für die DCT Koeffizienten in dem (k, l). Frequenzband auf einfache Art und Weise durch Entfernung von "i" aus der Gleichung 5 wie folgt ermittelt:
  • (Gleichung 6)
    Figure 00130002
  • Folglich kann das Quantisierungsgewicht Wk,l für DCT Koeffizienten in dem (k, l). Frequenzband auf einfache Art und Weise durch Lösung für Wk,l wie folgt ermittelt werden:
  • (Gleichung 7)
    Figure 00130003
  • Deswegen ist es um Wk,l zu ermitteln notwendig, DDRLk,l und Q zu ermitteln. Werte dieser Variablen werden wie folgt ermittelt.
  • In Bezug auf Q verlässt sich die MPEG2 Codierungsgenauigkeit auf relative und nicht absolute Quantisierungsgewichte in einer Quantisierungsmatrix. Auf entsprechende Weise ist es nur notwendig, die relativen Größen von Quantisierungsgewichten Wk,l zu ermitteln. Deswegen kann ein beliebiger Wert, in diesem Fall 16, als das Quantisierungsgewicht für das (0, 1). AC Frequenzband W0,1 gewählt werden. Auf entsprechende Weise ergibt der Ersatz von W0,1 durch 16 in der nachfolgenden Gleichung:
  • (Gleichung 8)
    Figure 00140001
  • (Gleichung 9)
    • Q = DDRL0,1.
  • Da Q in Termen eines DDRL ausgedrückt werden kann, wird das Problem der Extraktion von Quantisierungsmatrizes geringer um DDRLs für DCT Koeffizienten entsprechender AC Frequenzbänder zu finden. Wie nachstehend deutlich werden wird, umfasst dieser Prozess Schritte, die denen entsprechen, die oben zum Finden von Dk,l beschrieben worden sind.
  • In 6 werden in dem Schritt 5601 Prozessschritte durchgeführt um ein Histogramm für DCT Koeffizienten in dem (k, l). AC Frequenzband in den Eingangsvideodaten zu erzeugen. Dieses Histogramm wird wie folgt erzeugt: (Gleichung 10)
    Figure 00140002
    wobei die Variablen sind, wie oben definiert.
  • Danach werden in dem Schritt S602 Prozessschritte durchgeführt zum Berechnen einer Autokorrelationsfunktion für H v / k,l. Der Schritt S602 kann die Standard-Auttokorrelationsfunktion für das (k, l). Frequenzband berechnen, die wie folgt ist: (Gleichung 11)
    Figure 00150001
    wobei die Variablen sind, wie oben definiert.
  • Bei bevorzugten Ausführungsformen der vorliegenden Erfindung aber führt der Schritt S602 entweder die Standard-Autokorrelationsfunktion oder eine modifizierte Autokorrelationsfunktion durch. Die modifizierte Korrelationsfunktion schafft eine Korrelation an weniger als allen Spitzen in dem Histogramm. Welche Funktion verwendet wird, ist abhängig von der Anzahl Spitzen in dem Histogramm der DCT Koeffizienten des (k, l). Frequenzbandes. Das heiß, bei diesen Ausführungsformen der vorliegenden Erfindung wird die Anzahl Spitzen in dem Histogramm ermittelt, und wenn die Anzahl Spitzen kleiner ist als ein beliebiger voreingestellter Wert oder diesem Wert entspricht, wird die (oben definierte) Standard-Autokorrelationsfunktion für das Histogramm durchgeführt. Wenn dagegen die Anzahl Spitzen größer ist als der voreingestellte Wert, wird die modifizierte Autokorrelationsfunktion für das Histogramm durchgeführt. Dieses Merkmal der vorliegenden Erfindung ist besonders nützlich bei Berechnungssystemen mit einer begrenzten Kapazität, da dies die Anzahl erforderlicher Berechnungen reduziert, und zwar durch Verringerung der Spitzen, für welche die Autokorrelation berechnet wird.
  • In einer speziell bevorzugten Ausführungsform der vorliegenden Erfindung erzeugt der Schritt D602 entweder die Standard-Autokorrelationsfunktion oder die modifizierte Autokorrelationsfunktion, und zwar unter Verwendung von Werten, die anders sind als die oben genannten Werte "v" und "d". Bei dieser Ausführungsform wird das Histogramm in dem Schritt S601 für Werte von "v" reichend von 0 bis 511 erzeugt. Danach wird Maxk,l auf Basis des Histogramms gefunden. Die Variable TP wird dem Minimum von 10 und maxk,l zugeordnet. Die TP maximalen Histogramm y-Achsenwerte werden danach gefunden und deren entsprechende x-Achsenwerte werden gespeichert in Vi H| TP–1 / i=0. Danach wird die Autokorrelationsfunktion in dem Schritt S602 für Vi H berechnet für i = 0 bis TP – 1, und zwar wie folgt:
    • (1) wenn Vi H ≤ 4 ist, dann (Gleichung 12)
      Figure 00160001
      aber
    • (2) wenn Vi H > 4 ist, dann (Gleichung 13)
      Figure 00160002
      wobei die Variablen sind, wie oben definiert.
  • In 6 berechnet der Schritt S602 einmal eine Autokorrelationsfunktion für das in dem Schritt S601 erzeugte Histogramm, der maximale Wert der Autokorrelationsfunktion Rk,l wird in dem Schritt S603 identifiziert. Die Stelle dieses Maximalwertes von Rk,l wird als der DDRL für das (k, l). AC Frequenzband eingestellt. Insbesondere
  • (Gleichung 14)
    • DDRLk,l = arg max Rdk,l d ≠ 0, wobei die Variablen sind, wie oben definiert. So entspricht beispielsweise in 5 die Spitze 35 dem Maximalwert Rk,l des darin dargestellten Histogramms. Folglich umfasst DDRL den Abstand zwischen "0" und der Stelle der Spitze 35.
  • Bei bevorzugten Ausführungsformen der vorliegenden Erfindung, wird wenn zwei Spitzen in dem Histogramm innerhalb eines vorbestimmten Abstandes voneinander liegen, beispielsweise wenn sie relativ nahe bei einander liegen, ein mittlerer Wert der Stellen der Spitzen ermittelt und der DDRL wird auf diesen Mittelwert gesetzt. Dieses Merkmal der vorliegenden Erfindung reduziert die Wahrscheinlichkeit von Fehlern in dem DDRL. Außerdem können auch mehrere andere Korrekturen durchgeführt werden um Fehler in dem DDRL zu reduzieren.
  • Insbesondere untersucht die vorliegende Erfindung zum Korrigieren des Vorhandenseins überlappender Spitzen in Rekonstruktionspegeln des Histogramms zusätzliche maximale Werte der Korrelationsfunktion. Das heißt, wenn Spitzenüberlappung auftritt, kann die Autokorrelationsfunktion des Histogramms größere Werte bei niedrigeren Rückständen als bei höheren Rückständen geben. Folglich kann der wirkliche DDRL nicht dem größten Wert des Histogramms entsprechen, kann aber dem zweitgrößten Wert, dem drittgrößten Wert usw. entsprechen. In diesen Fällen werden die überlappenden Spitzen außer Acht gelassen und zusätzliche Werte der Korrelationsfunktion werden untersucht um zu ermitteln, welcher Wert dem DDRL entspricht.
  • Bei der Ermittlung des DDRLs können durch die Harmonischen des Basis-DDRLs andere Fehler auftreten. Dies kann dazu führen, dass ein Quantisierungsgewicht extrahiert wird, das ein Vielfaches des wirklichen Quantisierungsgewichtes ist. Um etwaige Fehler dieser Art zu korrigieren werden erste und zweite Spitzen der Korrelationsfunktion miteinander verglichen um zu ermitteln, welche Spitze der ersten und zweiten Spitzen größer ist und welche kleiner ist. Es wird dann ermittelt, ob die größere Spitze eine Harmonische der kleineren Spitze ist. In einem Fall, dass die größere Spitze eine Harmonische der kleineren Spitze ist, wird die kleinere Spitze als Maximalwert gewählt, d.h. als DDRL, und in einem Fall, dass die größere Spitze nicht eine Harmonische der kleineren Spitze ist, wird die größere Spitze als Maximalwert gewählt.
  • Da es sein kann, dass die Abstände zwischen verschiedenen Spitzen in einem Histogramm nicht identisch sind, nimmt die vorliegende Erfindung einen Vorteil aus diesen Abständen um den genauesten DDRL für die DCT Koeffizienten des (k, l). Frequenzband zu finden.
  • Wenn der DDRLk,l einmal ermittelt worden ist, fährt der Prozess mit dem Schritt S604 fort. In dem Schritt S604 wird das Quantisierungsgewicht, Wk,l für das (k, l). AC Frequenzband dadurch ermittelt, dass der in der Gleichung 14 gefundene DDRLk,l und der in der Gleichung 9 gefundene Wert Q (d.h. DDRL0,1) in die Gleichung 7 ersetzt werden. Dies geschieht für alle (k, l) Frequenzbänder in einem 8 × 8 Pixelblock, wodurch dafür die Quantisierungsmatrix erhalten wird. 7 zeigt einen Vergleich der entsprechend der vorliegenden Erfindung extrahierten Quantisierungsgewichte (nicht schraffiert) mit Quantisierungsgewichten aus einer Vorgabematrix, die verwendet wird zum Codieren der ursprünglichen Videodaten (schraffiert). Wie aus 7 ersichtlich ist, gibt es zwischen den extra hierten Quantisierungsgewichten und den Vorgabe-Quantisierungsgewichten eine wesentliche Übereinstimmung.
  • Nach dem Schritt S604 geht die Verarbeitung mit dem Schritt S306 aus 3 weiter. In dem Schritt S306 werden die Videodaten codiert (in einem zweiten Durchlasscodierungsblock 20) unter Verwendung einer Quantisierungsmatrix, extrahiert entsprechend der vorliegenden Erfindung, wonach die codierten Videodaten von dem Codierer in dem Schritt S304 ausgeliefert werden.
  • Die 8A bis 8C zeigen die Ergebnisse von Simulationen, wobei erzeugte Leuchtdichtesignale (Y) und Farbartsignale (U, V) verglichen werden, und zwar unter Verwendung von Vorgabematrizes (100), wobei die Matrizes entsprechend der vorliegenden Erfindung (101) extrahiert worden sind, und Matrizes, die entsprechend herkömmlichen Verfahren (102) berechnet worden sind. Die Werte neben der X-Achse bezeichnen Teilbildnummern. Wie aus den Figuren deutlich ersichtlich ist, liegen Leuchtdichte- und Farbartsignale die erzeugt wurden unter Verwendung von Matrizes, die nach der vorliegenden Erfindung extrahiert worden sind, näher bei denen, die unter Verwendung von Vorgabematrizes erzeug worden sind, als die Leuchtdichte- und Farbartsignale, die unter Verwendung von Matrizes erzeugt wurden, die entsprechend herkömmlichen Verfahren berechnet wurden. Die 9A bis 9C zeigen Ergebnisse einer anderen Simulation entsprechend den Ergebnissen der 8A bis 8C.
  • Die vorliegende Erfindung ist in Bezug auf spezielle illustrative Ausführungsformen beschrieben worden. Es dürfte einleuchten, dass die vorliegende Erfindung sich nicht auf die oben beschriebenen Ausführungsformen und auf Modifikationen dazu begrenzt, und dass der Fachmann im Rahmen der beiliegenden Patentansprüche mehrere Änderungen und Modifikationen durchführen kann.

Claims (14)

  1. Verfahren zum Extrahieren von Codierungsparammetern aus nicht codierten Videodaten, wobei die Codierungsparameter im Wesentlichen Codierungsparametern entsprechen, die in einem Codierungsvorgang verwendet werden, der vorher an den Videodaten durchgeführt wurde, wobei das Verfahren die nachfolgenden Verfahrensschritte aufweist: – das Erzeugen eines Histogramms für wenigstens ein AC-Frequenzband in den nicht codierten Videodaten (S601); – das Berechnen einer Korrelationsfunktion für das Histogramm (S602); – das Identifizieren eines maximalen Wertes der Korrelationsfunktion (S603); und – das Ermitteln eines Codierungsparameters für das wenigstens eine AC-Frequenzband unter Verwendung des maximalen Wertes der Korrelationsfunktion (S604).
  2. Verfahren nach Anspruch 1, wobei der Schritt der Berechnung der Korrelationsfunktion Folgendes umfasst: – das Identifizieren einer vorbestimmten Anzahl Spitzen in dem Histogramm der nicht codierten Videodaten; und – das Berechnen (i) einer Standard-Autokorrelationsfunktion für das Histogramm in einem Fall, dass die Anzahl Spitzen kleiner ist als ein vorbestimmter Wert oder demselben entspricht, wobei die Standard-Autokorrelationsfunktion für alle identifizierten Spitzen durchgeführt wird, und (ii) eine modifizierte Autokorrelationsfunktion für das Histogramm in dem Fall, dass die Anzahl Spitzen größer ist als der vorbestimmte Wert, wobei die modifizierte Autokorrelationsfunktion für weniger als alle identifizierten Spitzen durchgeführt wird.
  3. Verfahren nach Anspruch 2, wobei die Standard-Autokorrelationsfunktion für ein (k.l). AC-Frequenzband Folgendes umfasst:
    Figure 00190001
    wobei die modifizierte Autokorrelationsfunktion für das (k, l). Frequenzband Folgendes umfasst:
    Figure 00200001
    wobei Rk.l ein Wert der Autokorrelationsfunktion für ein (k. l). Frequenzband ist. Hk.l entspricht den Histogrammwerten für das Frequenzband, maxk.l ist ein maximaler Wert eines Koeffizienten für das (k. l). AC Frequenzband, und Vi H entspricht einem Spitzenwert des Histogramms.
  4. Verfahren nach Anspruch 1, das weiterhin den Verfahrensschritt der Durchführung einer diskreten Kosinustransformation (DCT) an dem wenigstens einen Frequenzband vor der Erzeugung des Histogramms umfasst.
  5. Verfahren nach Anspruch 1, wobei der maximale Wert der Korrelationsfunktion einem differenzierten dominanten Rekonstruktionspegel (DDRL) des wenigstens einen AC Frequenzbandes derart entspricht, dass in dem Ermittlungsschritt ein Codierungsparameter, Wk.l, für ein (k. l). Frequenzband durch Lösung der nachfolgenden Gleichung ermittelt wird:
    Figure 00200002
    wobei Q einen adaptiven Quantisierungswert eines Blocks von Videodaten definiert, der das (k. l), Frequenzband enthält.
  6. Verfahren nach Anspruch 5, wobei der Identifizierungsschritt die Ermittlung umfasst, ob Spitzen in dem Histogramm der Videodaten einander überlappen, und wenn dies der Fall ist, zusätzliche Werte der Korrelationsfunktion überprüfen, damit der DDRL ermittelt werden kann.
  7. Verfahren nach Anspruch 5, wobei der Identifizierungsschritt Folgendes umfasst: – das Vergleichen erster und zweiter Spitzen der Korrelationsfunktion um zu ermitteln, welche der ersten und zweiten Spitzen größer ist und welche kleiner ist; und – das Ermitteln, ob die größere Spitze eine Harmonische der kleiner Spitze ist; – wobei (i) in einem Fall, dass die größere Spitze eine Harmonische der kleineren Spitze ist, die kleinere Spitze als maximaler Wert gesetzt wird, und (ii) in einem Fall, dass die größere Spitze nicht eine Harmonische der kleineren Spitze ist, die größere Spitze als maximaler Wert gesetzt wird.
  8. Verfahren nach Anspruch 5, wobei DDRLk.l einen Mittelwert von Abständen zwischen Rekonstruktionspegeln in dem Histogramm der Videodaten aufweist.
  9. Verfahren zur Anwendung in einem Multi-Generationscodierungssystem zum Codieren nicht codierter Videodaten, wobei das Verfahren die nachfolgenden Verfahrensschritte umfasst: – das Ermitteln, ob die nicht codierten Videodaten bei einer vorhergehenden Erzeugung des Multi-Generationscodierungssystems (S302) einem Codierungsvorgang ausgesetzt worden ist; – wobei in dem Fall, dass der Ermittlungsschritt bestimmt, dass die nicht codierten Videodaten nicht einem Codierungsvorgang ausgesetzt worden sind, das Verfahren das Codieren der nicht codierten Videodaten umfasst, und zwar unter Verwendung vorbestimmter Codierungsparameter (S303); und – wobei in einem Fall, dass der Ermittlungsschritt ermittelt, dass die nicht codierten Videodaten einem Codierungsvorgang ausgesetzt worden sind, das Verfahren das Extrahieren von Codierungsparametern von den nicht codierten Videodaten umfasst sowie das Codieren der Videodaten, unter Verwendung der extrahierten Codierungsparameter (S306).
  10. Verfahren nach Anspruch 9, wobei der Ermittlungsschritt Folgendes umfasst: – das Erzeugen eines Histogramms für ein erstes AC Frequenzband der nicht codierten Videodaten; – das Berechnen einer Korrelationsfunktion für das Histogramm; – das Identifizieren eines maximalen Wertes der Korrelationsfunktion; und – das Vergleichen des maximalen Wertes mit einem vorbestimmten Wert.
  11. Codieranordnung, die Codierungsparameter aus nicht codierten Videodaten extrahiert, wobei die Codierungsparameter im Wesentlichen Codierungsparametern entsprechen, die in einem Codierungsvorgang verwendet wurden, der vorher an den Videodaten durchgeführt wurde, wobei die Codieranordnung die nachfolgenden Elemente umfasst: – einen Speicher (17), der vom Computer durchführbare Prozessschritte speichert; und – einen Prozessor (17), der die von dem Computer durchführbaren Prozessschritte durchführt, die in dem Speicher gespeichert sind um (i) ein Histogramm für wenigstens ein AC Frequenzband in den nicht codierten Videodaten (S601) zu erzeugen, (ii) um eine Korrelationsfunktion für das Histogramm (S602) zu berechnen, (iii) um einen maximalen Wert der Korrelationsfunktion (S603) zu identifizieren, und (iv) um einen Codierungsparameter für das wenigstens eine AC Frequenzband zu ermitteln, wobei der maximale Wert der Korrelationsfunktion (S604) verwendet wird.
  12. Codieranordnung nach Anspruch 11, wobei der maximale Wert der Korrelationsfunktion einem differenzierten dominanten Rekonstruktionspegel (DDRL) des wenigstens einen Frequenzbandes entspricht; und – wobei der Prozessor Prozessschritte durchführt um den Codierungsparameter auf basis des DDRL (S604) zu ermitteln.
  13. Codieranordnung zur Verwendung in einem Multi-Generationscodierungssystem, das nicht codierte Daten codiert, wobei die Codieranordnung Folgendes umfasst: – einen Speicher (17), der vom Computer durchführbare Prozessschritte speichert; und – einen Prozessor (17), der die Prozessschritte durchführt um zu ermitteln, ob die nicht codierten Videodaten bei einer vorhergehenden Erzeugung des Multi-Generationscodierungssystems (S302) einem Codierungsvorgang ausgesetzt wurden; wobei in einem Fall, dass der Prozessor ermittelt, dass die nicht modulierten Videodaten nicht einem Codierungsvorgang ausgesetzt wurden, der Prozessor Verfahrensschritte durchführt um die nicht codierten Videodaten unter Verwendung vorbestimmter Codierungsparameter (S303) zu codieren; und wobei in einem Fall, dass der Prozessor ermittelt, dass die nicht codierten Videodaten einem Codierungsvorgang ausgesetzt worden sind, der Prozessor Prozessschritte durchführt um Codierungsparameter aus den nicht codierten Videodaten zu extrahieren und die Videodaten unter Verwendung der extrahierten Codierungsparameter (S306) zu codieren.
  14. Multigenerationscodierungssystem, das Folgendes umfasst: – ein erstes Codierungsmittel (4, 5), das ursprüngliche Videodaten codiert, und zwar unter Verwendung vorbestimmter Codierungsparameter zum Erzeugen codierter Videodaten, das die codierten Videodaten decodiert und das nicht codierte Videodaten ausliefert; und – ein weites Codierungsmittel (5, 6), das die nicht codierten Videodaten von dem ersten Codierungsmittel empfängt, das ermittelt, ob die nicht codierten Videodaten einem vorhergehenden Codierungsvorgang ausgesetzt wurden, und das Codierungsparameter aus den nicht codierten Videodaten extrahiert; wobei die Codierungsparameter, die von dem zweiten Codierungsmittel extrahiert wurden, wenigstens teilweise mit den vorbestimmten Codierungsparametern übereinstimmen, die von dem ersten Codierungsmittel verwendet wurden.
DE69928616T 1998-01-30 1999-01-18 System zur extrahierung von codierungsparametern aus videodaten Expired - Lifetime DE69928616T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/016,038 US6101278A (en) 1998-01-30 1998-01-30 System for extracting coding parameters from video data
US16038 1998-01-30
PCT/IB1999/000074 WO1999039508A2 (en) 1998-01-30 1999-01-18 System for extracting coding parameters from video data

Publications (2)

Publication Number Publication Date
DE69928616D1 DE69928616D1 (de) 2006-01-05
DE69928616T2 true DE69928616T2 (de) 2006-08-10

Family

ID=21775048

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69928616T Expired - Lifetime DE69928616T2 (de) 1998-01-30 1999-01-18 System zur extrahierung von codierungsparametern aus videodaten

Country Status (5)

Country Link
US (1) US6101278A (de)
EP (1) EP0985318B1 (de)
JP (1) JP2001519988A (de)
DE (1) DE69928616T2 (de)
WO (1) WO1999039508A2 (de)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7187805B1 (en) * 1999-11-23 2007-03-06 Xerox Corporation Maximum likelihood estimation of JPEG quantization values
US6810082B1 (en) * 1999-12-17 2004-10-26 Koninklijke Philips Electronics N.V. Chroma based adaptive signal peaking
US6834080B1 (en) * 2000-09-05 2004-12-21 Kabushiki Kaisha Toshiba Video encoding method and video encoding apparatus
EP1189451A1 (de) * 2000-09-13 2002-03-20 Kabushiki Kaisha Toshiba Digitaler Videokoder
US6895122B2 (en) * 2001-06-25 2005-05-17 Eastman Kodak Company Method and system for determining DCT block boundaries
US6810083B2 (en) 2001-11-16 2004-10-26 Koninklijke Philips Electronics N.V. Method and system for estimating objective quality of compressed video data
US6990146B2 (en) * 2001-11-16 2006-01-24 Koninklijke Philips Electronics N.V. Method and system for detecting intra-coded pictures and for extracting intra DCT precision and macroblock-level coding parameters from uncompressed digital video
GB2387055A (en) * 2002-03-28 2003-10-01 Sony Uk Ltd Data compression method including target data quantity allocation
GB2387057A (en) * 2002-03-28 2003-10-01 Sony Uk Ltd Multi-generation compression using rounding effects to estimate previously used quantisation parameters
US7092448B2 (en) * 2002-05-24 2006-08-15 Koninklijke Philips Electronics N.V. Method and system for estimating no-reference objective quality of video data
EP1534016A3 (de) * 2003-11-21 2007-03-07 Matsushita Electric Industrial Co., Ltd. Geräuschdämpfende Bildverarbeitung stützend auf die Häufingkeit von Quantisierungsniveaus von Koeffizienten und auf Bewegungsvektoren
GB2437337A (en) * 2006-04-21 2007-10-24 Snell & Wilcox Ltd Measuring block artefacts in video data using an auto-correlation function
JP4989416B2 (ja) * 2007-10-26 2012-08-01 Kddi株式会社 動画像圧縮符号化装置
EP2144449A1 (de) * 2008-07-07 2010-01-13 BRITISH TELECOMMUNICATIONS public limited company Videoqualitätsmessung
US8644374B2 (en) * 2009-08-31 2014-02-04 Cisco Technology, Inc. Multiple description coding with spatial shifting
US9565439B2 (en) * 2009-10-15 2017-02-07 Nbcuniversal Media, Llc System and method for enhancing data compression using dynamic learning and control
CN102223527B (zh) * 2010-04-13 2013-04-17 华为技术有限公司 频带加权量化编解码方法和装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5072290A (en) * 1986-09-19 1991-12-10 Canon Kabushiki Kaisha Color image signal encoding device
US5146324A (en) * 1990-07-31 1992-09-08 Ampex Corporation Data compression using a feedforward quantization estimator
US5150208A (en) * 1990-10-19 1992-09-22 Matsushita Electric Industrial Co., Ltd. Encoding apparatus
TW256010B (de) * 1991-04-18 1995-09-01 Ampex
JP3165296B2 (ja) * 1992-12-25 2001-05-14 三菱電機株式会社 フレーム間符号化処理方式及びフレーム間符号化処理方法及び符号化制御方式
US5719643A (en) * 1993-08-10 1998-02-17 Kokusai Denshin Denwa Kabushiki Kaisha Scene cut frame detector and scene cut frame group detector
FR2743246B1 (fr) * 1995-12-29 1998-01-23 Thomson Broadcast Systems Procede et dispositif de compression de donnees numeriques
US5905819A (en) * 1996-02-05 1999-05-18 Eastman Kodak Company Method and apparatus for hiding one image or pattern within another

Also Published As

Publication number Publication date
JP2001519988A (ja) 2001-10-23
EP0985318A2 (de) 2000-03-15
WO1999039508A2 (en) 1999-08-05
DE69928616D1 (de) 2006-01-05
US6101278A (en) 2000-08-08
EP0985318B1 (de) 2005-11-30
WO1999039508A3 (en) 1999-09-30

Similar Documents

Publication Publication Date Title
DE69928616T2 (de) System zur extrahierung von codierungsparametern aus videodaten
DE69433272T2 (de) Vorrichtung zum Vermeiden von Rundungsfehlern bei der inversen Transformation von Transformationskoeffizienten eines Bewegtbildsignales
DE10300048B4 (de) Verfahren und Vorrichtung zur Bildcodierung und -decodierung
DE69735679T2 (de) Verfahren zur Bilddecodierung
DE69434668T2 (de) Adaptives Codierungs- und Decodierungsverfahren mit variabler Länge für Bilddaten
EP1635578B1 (de) Verfahren und Anordnung zur Videocodierung, wobei die Videocodierung Texturanalyse und Textursynthese sowie Texturverzerrung umfasst, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
EP0309669B1 (de) Verfahren zur szenenmodellgestützten Bilddatenreduktion für digitale Fernsehsignale
DE69911569T2 (de) Verfahren zur Szenenänderungs- und Überblendungensdetektion für Videosequenzindexierung
DE69822773T2 (de) Videosignalverarbeitung für elektronisches Wasserzeichensetzen
DE60001896T2 (de) Quantisierer für videokompression
DE69837497T2 (de) Verfahren und vorrichtung zum kodieren eines videosignals
DE19743202B4 (de) Verfahren zum Codieren eines Bewegungsvektors
EP0283715A2 (de) Verfahren zur Codierung von Bildsignalen
DE602004001993T2 (de) Transformations basiertes restbewegungsrahmen kodierungsverfahren mit übervollständiger basis und zugehörige vorrichtung zur videokompression
DE19737805A1 (de) Verfahren und Vorrichtung zum Kodieren eines Bewegungsvektors
DE19802860B4 (de) Verfahren und Vorrichtung zum kontext-basierten arithmetischen Codieren/Decodieren
DE60309039T2 (de) Verfahren und vorrichtung zur optimierung der bildschärfe während der kodierung
DE10204617B4 (de) Verfahren und Vorrichtungen zur Kompression und Dekompression eines Videodatenstroms
DE10296787B4 (de) Selektive Prädikation für ein Intra-Codieren eines Videodatenblocks
EP3434015A1 (de) Datenkompression mittels adaptiven unterabtastens
DE10084763B3 (de) Verfahren und Vorrichtung zur Wiedergewinnung von codierten Daten unter Heranziehung eines zentralen Wertes
EP1425920B1 (de) Verfahren zur videocodierung und computerprogrammprodukt
DE60218560T2 (de) Bildkompression
DE19749655B4 (de) Verfahren und Vorrichtung zum Kodieren eines Bewegungsvektors
DE60319742T2 (de) Lauflängencodierung eines quantisierten digitalen bildes

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: PACE PLC, SALTAIRE, SHIPLEY, GB