DE102005040026A1 - Vorrichtung und Verfahren zur Verarbeitung von Video-/Bilddaten - Google Patents

Vorrichtung und Verfahren zur Verarbeitung von Video-/Bilddaten Download PDF

Info

Publication number
DE102005040026A1
DE102005040026A1 DE102005040026A DE102005040026A DE102005040026A1 DE 102005040026 A1 DE102005040026 A1 DE 102005040026A1 DE 102005040026 A DE102005040026 A DE 102005040026A DE 102005040026 A DE102005040026 A DE 102005040026A DE 102005040026 A1 DE102005040026 A1 DE 102005040026A1
Authority
DE
Germany
Prior art keywords
data
mpeg
jpeg
video
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102005040026A
Other languages
English (en)
Inventor
Shu-Wen Teng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MediaTek Inc
Original Assignee
MediaTek Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MediaTek Inc filed Critical MediaTek Inc
Publication of DE102005040026A1 publication Critical patent/DE102005040026A1/de
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

Die Erfindung betrifft Vorrichtungen und Verfahren zur Video-/Bildverarbeitung. Ein Speicher speichert erste verarbeitete Daten, zweite verarbeitete Daten und gemäß einer diskreten Kosinus-Transformation (DCT) transformierte Daten. Ein MPEG-Untersystem verarbeitet eine MPEG-Kodierung/Dekodierung gemäß ersten Eingangsdaten und den DCT-transformierten Daten und erzeugt die ersten verarbeiteten Daten und ein erstes Triggersignal in Reaktion auf den Empfang eines ersten Freigabesignals. Ein JPEG-Untersystem verarbeitet eine JPEG-Kodierung/Dekodierung entsprechend zweiten Eingangsdaten und den DCT-transformierten Daten und erzeugt die zweiten verarbeiteten Daten und ein zweites Triggersignal in Reaktion auf den Empfang eines zweiten Freigabesignals. Ein DCT-Modul transformiert die ersten verarbeiteten Daten gemäß dem ersten Triggersignal in DCT-transformierte Daten und transformiert die zweiten verarbeiteten Daten gemäß dem zweiten Triggersignal in die DCT-transformierten Daten. Ein Prozessor stellt das erste Freigabesignal und das zweite Freigabesignal bereit.

Description

  • Hintergrund der Erfindung
  • Die vorliegende Offenbarung betrifft allgemein das Gebiet der Bildverarbeitung. Insbesondere betrifft die vorliegende Offenbarung eine Bildverarbeitung, die ein MPEG-Verfahren (Moving Picture Experts Group) und eine JPEG-Kodierung/Dekodierung (nachfolgend auch als codec bezeichnet; Joint Photographic Experts Group) verwendet.
  • MPEG wird in vielen aktuellen und zukünftigen Produkten eingesetzt, einschließlich von Digitalfernseh-Set-Top-Boxen, digitalen Satellitensystemen (DSS), bei Decodern für hochauflösendes Fernsehen (HDTV), DVD-Abspielgeräten, Videokonferenzsystemen, internetbasierter Videoübertragung und anderen Anwendungen. Diese Anwendungen profitieren von der Kompression der Videodaten, weil weniger Speicherplatz zum Archivieren der Videodaten erforderlich ist. Außerdem ist zur Übertragung der Videodaten eine geringere Bandbreite notwendig.
  • MPEG-4 ist eine Norm zur Videokompression zur Übermittlung und Manipulation von Videodaten in Multimediaumgebungen. In diesem Zusammenhang stellt die 1 ein herkömmliches MPEG-System 10 dar. Das herkömmliche MPEG-System 10 umfasst einen MPEG-Encoder 102 und einen MPEG-Decoder 104. Der MPEG-Encoder 102 umfasst eine Bewegungsschätzungseinrichtung 1021, ein FDCT-Modul (forward discrete cosine transform) 1023, einen Quantisierer 1025, eine Abtasteinrichtung (Scan device) 1027 und eine Einrichtung 1029 zur variablen Längenkodierung (variable-length coding; VLC). Der MPEG-Decoder 104 umfasst einen Bewegungskompensationsprozessor 1041, ein IDCT-Modul 1043 (inverse discrete cosine transform), eine Invers-Abtasteinrichtung 1045, einen Dequantisierer 1047 und eine Einrichtung 1049 zur variablen Längendekodierung (variablelength decoding; VLD).
  • Bei einem Kodierungs-Vorgang erzeugt die Bewegungsschätzungseinrichtung 1021 geschätzte (estimated) Videodaten in Übereinstimmung mit den Eingangs-Videodaten VIDEO und den Rückkopplungsdaten. Bei gewissen Ausführungsformen bestimmt die Bewegungsschätzungseinrichtung 1021 einen Kompressionsmodus für die Videodaten VIDEO gemäß der Differenz zwischen den Videodaten VIDEO und den Rückkopplungsdaten. Das FDCT-Modul 1023 verarbeitet die geschätzten Videodaten mittels einer diskreten Kosinus-Transformation, um transformierte MPEG-Daten zu erzeugen. Der Quantisierer 1025 quantisiert die transformierten MPEG-Daten. Die Abtasteinrichtung 1027 tastet die quantisierten MPEG-Daten ab, um die quantisierten MPEG-Daten in eine serielle Folge von quantisierten Koeffizienten zu transformieren. Der Lauflängenwert und der Wert, der von null verschiedenen Koeffizienten, welche dem Lauf von Null-Koeffizienten vorausgeht, werden dann unter Verwendung der VLC-Einrichtung 1029 verknüpft und kodiert, um komprimierte Daten zu erzeugen. Der MPEG-Encoder 102 kann eine Rückkopplungsschleife zwischen dem Quantisierer 1025 und der Bewegungsschätzungseinrichtung 1021 umfassen. Die Rückkopplungsstrecke wird unter Verwendung des Dequantisierers 1047 und des IDCT-Moduls 1043 des MPEG-Decoders 104 ausgebildet. Der Dequantisierer 1047 entquantisiert die quantisierten MPEG-Daten, die von dem Quantisierer 1025 erzeugt wurden, und erzeugt entsprechende dequantisierte Daten. Das IDCT-Modul 1043 führt eine inverse diskrete Kosinus-Transformation mittels einer Zeile-Spalte-Zerlegung für die dequantisierten Daten aus, um die Rückkopplungsdaten für die Schätzung (estimation) zu erzeugen.
  • Bei einem Dekodierungs-Vorgang verarbeitet die VLD-Einrichtung 1049 die MPEG-komprimierten Daten mittels einer Variablen-Längen-Dekodierung, um eine Folge von seriellen Daten zu erzeugen. Die Invers-Abtasteinrichtung 1045 transformiert die serielle Folge von Daten in abgetastete Videodaten. Der Dequantisierer 1047 dequantisiert die abgetasteten Videodaten in dequantisierte Videodaten. Das IDCT-Modul 1043 verarbeitet die dequantisierten Videodaten in transformierte MPEG-Daten mittels einer inversen diskreten Kosinus-Transformation, um mittels einer inversen diskreten Kosinus-Transformation transformierte Daten zu erzeugen. Die Bewegungsschätzungseinrichtung 1041 kompensiert die gemäß der diskreten Kosinus-Transformation transformierten Daten und erzeugt kompensierte MPEG-Daten.
  • Bei der MPEG-Kompression berechnen Bewegungsschätzungs-Algorithmen die Bewegung zwischen aufeinander folgenden Videoframes und sagen diese ein aktuelles Frame anhand von zuvor übermittelten Frames unter Verwendung von Bewegungsdaten vorher. Globale Bewegungsschätzungs-Algorithmen (GME; global motion estimation) schätzen ein einparametriges Bewegungsmodell für ein gesamtes Frame ab, das komprimiert werden kann, um entweder statische oder dynamische Sprites (Hintergründe) zu erzeugen. Statische Sprites sind Mosaiken bzw. Rasterbilder, die visuelle Daten von Objekten enthalten, die über eine gesamte Sequenz sichtbar sind. Obwohl verschiedene Mosaik-Erzeugungsalgorithmen entwickelt worden sind, ist deren Anwendbarkeit auf Allzweck-Videokompressionsapplikationen aufgrund der typischerweise signifikanten Verzögerung begrenzt, die aufgrund einer Frame-Akkumulierung und der Mosaikbild-Kodierung (as intra frames) auftritt. Außerdem ist das von der MPEG-4-Kodierungsnorm verwendete projektive Bewegungsmodell mit 8-Parametern nur für einen begrenzten Bereich von Kamerabewegungen geeignet. Somit kann jedes statische Sprite nur für ein einzelnes kurzes Videosegment verwendet werden.
  • JPEG ist ein anderer genormter Bildkompressionsmechanismus. Die 2 stellt ein schematisches Diagramm eines herkömmlichen JPEG-Systems 20 dar. Das herkömmliche JPEG-System 20 umfasst einen JPEG-Encoder 202 und einen JPEG-Decoder 204. Der JPEG-Encoder 202 umfasst ein FDCT-Modul 2021, einen Quantisierer 2023, eine Abtasteinrichtung 2025 und eine Einrichtung 2027 zur variablen Längenkodierung. Der JPEG-Decoder 204 umfasst ein IDCT-Modul 2041, eine Invers-Abtasteinrichtung 2043, einen Dequantisierer 2045 und eine Einrichtung 2047 zur variablen Längendekodierung.
  • Bei einem Kodierungsvorgang verarbeitet das FDCT-Modul 2021 Bilddaten mittels einer diskreten Kosinus-Transformation, um transformierte JPEG-Daten zu erzeugen. Der Quantisierer 2023 quantisiert die transformierten JPEG-Daten. Die Abtasteinrichtung 2025 tastet die transformierten JPEG-Daten ab, um die transformierten JPEG-Daten in eine serielle Folge von quantisierten Koeffizienten zu transformieren. Der Lauflängenwert und der Wert der von null verschiedenen Koeffizienten, welche der Folge von Null-Koeffizienten vorausgeht, werden dann verknüpft und unter Verwendung der VLC-Einrichtung 2027 kodiert, um komprimierte Daten zu erzeugen. Bei einem Dekodierungsvorgang verarbeitet die VLD-Einrichtung 2047 die JPEG-komprimierten Daten mittels einer variablen Längendekodierung, um eine serielle Folge von Daten zu erzeugen. Die Invers-Abtasteinrichtung 2043 transformiert die serielle Folge von Daten in abgetastete Bilddaten. Der Dequantisierer 2045 dequantisiert die abgetasteten Bilddaten in dequantisierte Bilddaten. Das IDCT-Modul 2041 verabeitet die dequantisierten Bilddaten in transformierte JPEG-Daten mittels einer inversen diskreten Kosinus-Transformation, um mittels einer inversen diskreten Kosinus-Transformation transformierte Daten zu erzeugen.
  • JPEG ist für die Kompression von Vollfarbenbildern oder Graustufenbildern von natürlichen, realen Szenen ausgelegt. Die JPEG-Kompression ist besonders geeignet für Fotografien, für naturgetreue künstlerische Darstellungen und vergleichbare Materialien und ist weniger geeignet für Briefe, einfache Skizzen oder Linienzeichnungen. Die JPEG-Kompression handhabt nur Standbilder. Kleine Fehler, die durch die JPEG-Kompression eingeführt werden, können für Bilder problematisch sein, die für eine Maschinenanalyse gedacht sind, weil JPEG hauptsächlich für die menschliche visuelle Wahrnehmung ausgelegt ist.
  • Die Technologie der MPEG- und JPEG-Kompression ist in populärer Weise für die Anzeige von Bildern aus persönlichen mobilen elektronischen Geräten, beispielsweise Mobiltelefonen und persönlichen digitalen Assistenten (PDAs), umgesetzt worden, die eine unabhängige Hardware umfassen, um jeweils die Technologie einer MPEG-Kompression und einer JPEG-Kompression zu realisieren.
  • Zusammenfassung der Erfindung
  • Erfindungsgemäß werden Vorrichtungen zur Verarbeitung von Video-/Bilddaten bereitgestellt. Eine Vorrichtung zur Verarbeitung von Video-/Bilddaten zur Verarbeitung von Eingangs-/Ausgangs-Video-/Bilddaten umfasst: ein MPEG-Untersystem zum Verarbeiten der Eingangs-/Ausgangs-Videodaten in einer ersten Videoverarbeitungsphase und einer zweiten Videoverarbeitungsphase; ein JPEG-Untersystem zur Verarbeitung der Eingangs-/Ausgangs-Bilddaten in einer ersten Bildverarbeitungsphase und einer zweiten Bildverarbeitungsphase; ein DCT-Untersystem, das zwischen das MPEG-Untersystem und das JPEG-Untersystem geschaltet ist, um die Eingangs-/Ausgangs-Video-/Bilddaten zu transformieren; einen Speicher, der mit dem DCT-Untersystem, dem MPEG-Untersystem und dem JPEG-Untersystem verbunden ist; wobei in Reaktion darauf, dass das MPEG/JPEG-Untersystem die erste Video-/Bilddaten-Verarbeitungsphase zur Verarbeitung der Eingangs-/Ausgangs-Video-/Bilddaten beendet, das MPEG/JPEG-Untersystem erste MPEG/JPEG-verarbeitete Daten in dem Speicher speichert und ein MPEG/JPEG-Steuersignal an das DCT-Untersystem sendet; in Reaktion auf das MPEG/JPEG-Steuersignal das DCT-Untersystem die ersten MPEG/JPEG-verarbeiteten Daten aus dem Speicher liest, die ersten MPEG/JPEG-verarbeiteten Daten in transformierte MPEG/JPEG-Daten transformiert, die transformierten MPEG/JPEG-Daten in dem Speicher speichert und ein DCT-Steuersignal an das MPEG/JPEG-Untersystem sendet; in Reaktion auf das DCT-Steuersignal das MPEG/JPEG-Untersystem die transformierten MPEG/JPEG-Daten aus dem Speicher liest und die zweite Video-/Bilddaten-Verarbeitungsphase der Verarbeitung der Eingangs-/Ausgangs-Video-/Bilddaten ausführt.
  • Eine weitere Ausführungsform einer Video-/Bilddaten-Kodierungsvorrichtung zum Kodieren von Eingangs-Video-/Bilddaten umfasst: einen MPEG-Unterencoder zum Kodieren der Eingangs-Videodaten in einer ersten Videokodierungsphase und einer zweiten Videokodierungsphase; einen JPEG-Unterencoder zum Kodieren der Eingangs-Bilddaten in einer ersten Bildkodierungsphase und einer zweiten Bildkodierungsphase; ein FDCT-Modul zum Transformieren der Eingangs-Video-/Bilddaten; und einen Speicher, der mit dem MPEG-Unterencoder, dem JPEG-Unterencoder und dem FDCT-Modul verbunden ist; wobei in Reaktion darauf, dass der MPEG/JPEG-Unterencoder die erste Video-/Bildkodierungsphase zum Kodieren der Eingangs-Video-/Bilddaten beendet, der MPEG/JPEG-Unterencoder erste MPEG/JPEG-kodierte Daten in dem Speicher speichert und das MPEG/JPEG-Steuersignal an das FDCT-Modul sendet; in Reaktion auf das MPEG/JPEG-Steuersignal das FDCT-Modul die ersten MPEG/JPEG-kodierten Daten aus dem Speicher liest, die ersten MPEG/JPEG-kodierten Daten in transformierte MPEG/JPEG-Daten transformiert, die transformierten MPEG/JPEG-Daten in dem Speicher speichert und das DCT-Steuersignal an den MPEG/JPEG-Unterencoder sendet; in Reaktion auf das DCT-Steuersignal der MPEG/JPEG-Unterencoder die transformierten MPEG/JPEG-Daten aus dem Speicher liest und die zweite Video-/Bildkodierungsphase zur Kodierung der Eingangs-Video-/Bilddaten ausführt.
  • Eine weitere Ausführungsform einer Video-/Bilddaten-Dekodierungsvorrichtung zum Dekodieren von Ausgangs-Video-/Bilddaten umfasst: einen MPEG-Unterdecoder zum Dekodieren der Ausgangs-Videodaten in einer ersten Videodekodierungsphase und einer zweiten Videodekodierungsphase; einen JPEG-Unterdecoder zum Dekodieren der Ausgang-Bilddaten in einer ersten Bilddekodierungsphase und einer zweiten Bilddekodierungsphase; ein IDCT-Modul zum Transformieren der Ausgangs-Video-/Bilddaten; und einen Speicher, der mit dem MPEG-Unterdecoder, dem JPEG-Unterdecoder und dem IDCT-Modul verbunden ist; wobei in Reaktion darauf, dass der MPEG/JPEG-Unterdecoder die erste Video-/Bilddekodierungsphase zum Dekodieren der Ausgangs-Video-/Bilddaten beendet, der MPEG/JPEG-Unterdecoder erste MPEG/JPEG-dekodierte Daten in dem Speicher speichert und das MPEG/JPEG-Steuersignal an das IDCT-Modul sendet; in Reaktion auf das MPEG/JPEG-Steuersignal das IDCT-Modul die ersten MPEG/JPEG-dekodierten Daten aus dem Speicher liest, die ersten MPEG/JPEG-dekodierten Daten in transformierte MPEG/JPEG-Daten transformiert, die transformierten MPEG/JPEG-Daten in dem Speicher speichert und das DCT-Steuersignal an den MPEG/JPEG-Unterdecoder sendet; in Reaktion auf das DCT-Steuersignal der MPEG/JPEG-Unterdecoder die transformierten MPEG/JPEG-Daten aus dem Speicher liest und die zweite Video-/Bilddekodierungsphase der Dekodierung der Ausgangs-Video-/Bilddaten ausführt.
  • Eine weitere Ausführungsform eines elektronischen Geräts zur Verarbeitung von Eingangs-/Ausgangs-Video-/Bilddaten umfasst eine Video-/Bilddatenverarbeitungseinrichtung sowie: ein MPEG-Untersystem zur Verarbeitung der Eingangs-/Ausgangs-Videodaten in einer ersten Videoverarbeitungsphase und einer zweiten Videoverarbeitungsphase; ein JPEG-Untersystem zur Verarbeitung der Eingangs-/Ausgangs-Bilddaten in einer ersten Bildverarbeitungsphase und einer zweiten Bildverarbeitungsphase; ein DCT-Untersystem, das zwischen das MPEG-Untersystem und das JPEG-Untersystem geschaltet ist, um die Eingangs-/Ausgangs-Video-/Bilddaten zu transformieren; einen Speicher, der mit dem DCT-Untersystem, dem MPEG-Untersystem und dem JPEG-Untersystem verbunden ist; wobei in Reaktion darauf, dass das MPEG/JPEG-Untersystem die erste Video-/Bildverarbeitungsphase der Verarbeitung der Eingangs-/Ausgangs-Video-/Bilddaten beendet, das MPEG/JPEG-Untersystem erste MPEG/JPEG-verarbeitete Daten in dem Speicher speichert und ein MPEG/JPEG-Steuersignal an das DCT-Untersystem sendet; in Reaktion auf das MPEG/JPEG-Steuersignal das DCT-Untersystem die ersten MPEG/JPEG-verarbeiteten Daten aus dem Speicher liest, die ersten MPEG/JPEG-verarbeiteten Daten in transformierte MPEG/JPEG-Daten transformiert, die transformierten MPEG/JPEG-Daten in dem Speicher speichert und ein DCT-Steuersignal an das MPEG/JPEG-Untersystem sendet; in Reaktion aus das DCT-Steuersignal das MPEG/JPEG-Untersystem die transformierten MPEG/JPEG-Daten aus dem Speicher liest und die zweite Video-/Bildverarbeitungsphase der Verarbeitung der Eingangs-/Ausgangs-Video-/Bilddaten ausführt.
  • Eine weitere Ausführungsform eines Video-/Bildverarbeitungsverfahrens zur Verarbeitung von Eingangs-/Ausgangs-Video-/Bilddaten umfasst: eine Verarbeitung der Eingangs-/Ausgangs-Video-/Bilddaten und das Erzeugen von ersten MPEG/JPEG-verarbeiteten Daten in einer ersten Video-/Bildverarbeitungsphase mittels eines MPEG/JPEG-Untersystems; ein Speichern der ersten MPEG-/JPEG-verarbeiteten Daten in einem Speicher mittels des MPEG/JPEG-Untersystems; das Senden eines MPEG/JPEG-Steuersignals an ein DCT-Untersystem durch das MPEG/JPEG-Untersystem; das Lesen der ersten MPEG/JPEG-verarbeiteten Daten aus dem Speicher durch das DCT-Untersystem; das Transformieren der ersten MPEG/JPEG-verarbeiteten Daten in transformierte MPEG/JPEG-Daten mittels des DCT-Untersystems; das Speichern der transformierten MPEG/JPEG-Daten in dem Speicher durch das DCT-Untersystem; das Senden eines DCT-Steuersignals an das MPEG/JPEG-Untersystem mittels des DCT-Untersystems; das Lesen der transformierten MPEG/JPEG-Daten aus dem Speicher mittels des MPEG/JPEG-Untersystems; und das Verarbeiten der transformierten MPEG/JPEG-Daten in einer zweiten Video-/Bildverarbeitungsphase mittels eines MPEG/JPEG-Untersystems.
  • Eine weitere Ausführungsform eines Video-/Bildkodierungsverfahrens zur Kodierung von Eingangs-Video-/Bilddaten umfasst die Schritte: Kodieren der Eingangs-Video-/Bilddaten und Erzeugen von ersten MPEG/JPEG-kodierten Daten in einer ersten Video-/Bildkodierungsphase mittels eines MPEG/JPEG-Unterencoders; das Speichern der ersten MPEG/JPEG-kodierten Daten in einem Speicher mittels des MPEG/JPEG-Unterencoders; das Senden des MPEG/JPEG-Steuersignals an ein FDCT-Modul durch den MPEG/JPEG-Unterencoder; das Lesen der ersten MPEG/JPEG-kodierten Daten aus dem Speicher durch das FDCT-Modul; das Transformieren der ersten MPEG/JPEG-kodierten Daten in transformierte MPEG/JPEG-Daten durch das FDCT-Modul; das Speichern der transformierten MPEG/JPEG-Daten in dem Speicher durch das FDCT-Modul; das Senden eines DCT-Steuersignals an den MPEG/JPEG-Unterencoder durch das FDCT-Modul; das Lesen der transformierten MPEG/JPEG-Daten aus dem Speicher durch den MPEG/JPEG-Unterencoder; das Kodieren der Eingangs-Video-/Bilddaten in einer zweiten Video-/Bildkodierungsphase mit Hilfe des MPEG/JPEG-Unterencoders.
  • Eine weitere Ausführungsform eines Video-/Bilddekodierungsverfahrens zum Dekodieren von Ausgangs-Video-/Bilddaten umfasst die Schritte: Dekodieren von Ausgangs-Video-/Bilddaten und Erzeugen von ersten MPEG/JPEG-dekodierten Daten in einer ersten Video-/Bilddekodierungsphase durch einen MPEG/JPEG-Unterdecoder; das Speichern der ersten MPEG/JPEG-dekodierten Daten in einem Speicher durch den MPEG/JPEG-Unterdecoder; das Senden des MPEG/JPEG-Steuersignals an ein IDCT-Modul durch den MPEG/JPEG-Unterdecoder; das Lesen der ersten MPEG/JPEG-dekodierten Daten aus dem Speicher durch das IDCT-Modul; das Transformieren der ersten MPEG/JPEG-dekodierten Daten in transformierte MPEG/JPEG-Daten durch das IDCT-Modul; das Speichern der transformierten MPEG/JPEG-Daten in dem Speicher mit Hilfe des IDCT-Moduls; das Senden eines DCT-Steuersignals an den MPEG/JPEG-Unterdecoder durch das IDCT-Modul; das Lesen der transformierten MPEG/JPEG-Daten aus dem Speicher durch den MPEG/JPEG-Unterdecoder; das Dekodieren der Ausgangs-Video-/Bilddaten in einer zweiten Video-/Bilddekodierungsphase durch den MPEG/JPEG-Unterdecoder.
  • Eine weitere Ausführungsform einer Video-/Bildverarbeitungsvorrichtung umfasst: einen Speicher zum Speichern von ersten verarbeiteten Daten, von zweiten verarbeiteten Daten, von gemäß einer diskreten Kosinus-Transformation transformierten Daten und von gemäß einer inversen diskreten Kosinus-Transformation transformierten Daten; ein MPEG-Untersystem zum Verarbeiten von einer MPEG-Kodierung/Dekodierung in Übereinstimmung mit ersten Eingangsdaten und den gemäß der diskreten Kosinus-Transformation transformierten Daten, um die ersten verarbeiteten Daten und ein erstes Triggersignal zu erzeugen und um die ersten verarbeiteten Daten in dem Speicher in Reaktion auf den Empfang eines ersten Freigabesignals zu speichern; ein JPEG-Untersystem, um eine JPEG-Kodierung/Dekodierung in Übereinstimmung mit zweiten Eingangsdaten und den gemäß der diskreten Kosinus-Transformation transformierten Daten zu verarbeiten, um die zweiten verarbeiteten Daten und ein zweites Triggersignal zu erzeugen, und um die zweiten verarbeiteten Daten in dem Speicher in Reaktion auf den Empfang eines zweiten Freigabesignals zu speichern; und ein DCT-Modul (diskrete Kosinus-Transformation), das mit dem MPEG-Untersystem und dem JPEG-Untersystem gekoppelt bzw. verbunden ist, um die ersten verarbeiteten Daten in Übereinstimmung mit dem ersten Triggersignal entweder in gemäß einer diskreten Kosinus-Transformation transformierte Daten oder in gemäß einer inversen diskreten Kosinus-Transformation transformierte Daten zu transformieren, um die zweiten verarbeiteten Daten in Übereinstimung mit dem zweiten Triggersignal entweder in gemäß einer diskreten Kosinus-Transformation transformierte Daten oder in gemäß der inversen diskreten Kosinus-Transformation transformierte Daten zu transformieren, und um ein Ausgangssignal des DCT-Moduls in dem Speicher zu speichern.
  • Figurenübersicht
  • Die Erfindung wird aus der nachfolgenden ausführlichen Beschreibung und den beigefügten Zeichnungen besser verstanden werden. Die Zeichnungen und die Beschreibung erfolgen nur zum Zwecke der Erläuterung und sollen somit die vorliegende Erfindung nicht beschränken.
  • 1 ist ein schematisches Diagramm eines herkömmlichen MPEG-Untersystems.
  • 2 ist ein schematisches Diagramm eines herkömmlichen JPEG-Untersystems.
  • 3 ist ein schematisches Diagramm einer Ausführungsform einer Video-/Bildverarbeitungsvorrichtung.
  • 4 ist ein schematisches Diagramm einer weiteren Ausführungsform einer Video-/Bildverarbeitungsvorrichtung.
  • 5 ist ein Flussdiagramm eines Verfahrens zur Video-/Bilddatenverarbeitung zur Verarbeitung von Eingangs-/Ausgangs-Video-/Bilddaten gemäß von Ausführungsbeispielen gemäß der vorliegenden Erfindung.
  • 6 ist ein Flussdiagramm eines Verfahrens zur Kodierung von Video-/Bilddaten zur Kodierung von Eingangs-Video-/Bilddaten gemäß von Ausführungsbeispielen gemäß der vorliegenden Erfindung.
  • 7 ist ein Flussdiagramm eines Dekodierungsverfahrens von Video-/Bilddaten zur Dekodierung von Ausgangs-Video-/Bilddaten gemäß von Ausführungsbeispielen gemäß der vorliegenden Erfindung.
  • Ausführliche Beschreibung bevorzugter Ausführungsbeispiele
  • Erfindungsgemäß werden Vorrichtungen zur Verarbeitung von Video-/Bilddaten bereitgestellt. Genauer gesagt, wird bei gewissen Ausführungsbeispielen ein integriertes DCT-Modul (discrete cosine transform; DCT) dazu verwendet, um eine Transformation (Kompression und/oder Dekomprimierung) von MPEG-Daten und JPEG-Daten auszuführen. Außerdem werden bei gewissen Ausführungsbeispielen Daten an einen gemeinsamen Speicher ausgegeben, der dazu verwendet wird, um sowohl MPEG-Daten als auch JPEG-Daten zu speichern. Auf diese Weise bieten gewisse Ausführungsbeispiele potentiell den Vorteil einer geringeren Größe und/oder von geringeren Kosten gegenüber herkömmlichen Vorrichtungen zur Verarbeitung von Video-/Bilddaten, die in der Lage sind, eine MPEG- und JPEG-Verarbeitung auszuführen. Insbesondere kann dies dadurch erzielt werden, dass MPEG-Daten und JPEG-Daten unter Verwendung eines gemeinsamen Transformationsmoduls transformiert werden, und dadurch, dass MPEG- und JPEG-Daten unter Verwendung eines gemeinsamen Speichers gespeichert werden.
  • Die 3 ist ein schematisches Diagramm eines Ausführungsbeispiels einer Vorrichtung 30 zur Verarbeitung von Video-/Bilddaten. Wie in der 3 gezeigt ist, umfasst die Bildverarbeitungsvorrichtung 30 ein MPEG-Untersystem 31 und ein JPEG-Untersystem 32, die mit einem DCT-Untersystem 33 kommunizieren. Das DCT-Untersystem 33 kommuniziert auch mit dem Speicher 34. Außerdem kommunizieren das MPEG-Untersystem 31 und das JPEG-Untersystem 32 mit einer Anzeige 35, beispielsweise einem Fernsehgerät oder Monitor, welche dazu verwendet wird, um Bilder anzuzeigen, die den Daten entsprechen, die von den jeweiligen Untersystemen ausgegeben werden.
  • Im Betrieb verarbeitet das MPEG-Untersystem 31 Eingangs-Videodaten VIDEO. Während der diskreten Kosinus-Transformation speichert das MPEG-Untersystem 31 verarbeitete Daten in dem Speicher 34 und triggert dieses das DCT-Untersystem 33. Das DCT-Untersystem 33 greift auf den Speicher 34 zu und transformiert die verarbeiteten Daten in dem Speicher 34 mittels einer diskreten Kosinus-Transformation, gibt dann Steuersignale an das MPEG-Untersystem 31 aus. Als nächstes greift das MPEG-Untersystem 31 auf die gemäß der diskreten Kosinus-Transformation transformierten Daten in dem Speicher 34 zu und beendet die MPEG-Kompression. Außerdem werden die MPEG-komprimierten Daten mit Hilfe des MPEG-Untersystems 31 von dem DCT-Untersystem 33 dekodiert und dann ausgegeben an die Anzeige 35 zur Bilddarstellung.
  • Das JPEG-Untersystem 32 verarbeitet Eingangs-Bilddaten IMAGE. Während der diskreten Kosinus-Transformation speichert das JPEG-Untersystem 32 verarbeitete Daten in dem Speicher 34 und triggert dieses das DCT-Untersystem 33. Das DCT-Untersystem 33 greift auf den Speicher 34 zu und transformiert die verarbeiteten Daten in dem Speicher 34 mittels einer diskreten Kosinus-Transformation und gibt dann Steuersignale an das JPEG-Untersystem 32 aus. Als nächstes greift das JPEG-Untersystem 32 auf die gemäß einer diskreten Kosinus-Transformation transformierten Daten in dem Speicher 34 zu und beendet die JPEG-Kompression. Außerdem werden die JPEG-komprimierten Daten mit Hilfe des JPEG-Untersystems 32 mit dem DCT-Untersystem 33 dekodiert und dann an eine Anzeige 35 zur Bilddarstellung ausgegeben.
  • Die 4 ist ein schematisches Diagramm eines weiteren Ausführungsbeispiels für eine Vorrichtung zur Verarbeitung von Video-/Bilddaten. Wie in der 4 gezeigt ist, wird eine MPEG-Kompression und eine JPEG-Kompression mittels einer Bildverarbeitungsvorrichtung 40 unter Verwendung eines einzigen DCT-Untersystems 46 ausgeführt.
  • Im Betrieb wählt der Prozessor 41 einen MPEG-Betriebsmodus oder einer JPEG-Betriebsmodus in Übereinstimmung mit einem Modus-Auswahlsignal SMS aus. Außerdem, weil der MPEG-Betriebsmodus und der JPEG-Betriebsmodus gleichzeitig angenommen werden, verwendet der Prozessor 41 den MPEG-Betriebsmodus oder JPEG-Betriebsmodus entsprechend einer vorbestimmten Priorität. Bei gewissen Ausführungsbeispielen wird der JPEG-Betriebsmodus vor dem MPEG-Betriebsmodus freigegeben.
  • Das Modus-Auswahlsignal SMS wird entsprechend einem Eingangssignal von der Nutzerschnittstelle oder mit Hilfe von Steuersignalen von einer anderen Hardware oder Software erzeugt. In dem MPEG-Betriebsmodus triggert der Prozessor 41 das MPEG-Untersystem 42, und ansonsten triggert der Prozessor 41 in dem JPEG-Betriebsmodus das JPEG-Untersystem 44.
  • Das grundlegende Kompressionsschema für das MPEG-Untersystem 42 kann wie folgt zusammengefasst werden: Ein Bild wird in 8x8-Mikroblöcke unterteilt; eine relevante Bildinformation wird bestimmt und redundante oder nicht erhebliche Information wird verworfen; und relevante Bildinformation wird mit der niedrigsten Anzahl von Bits (least number of bits) kodiert.
  • Das MPEG-Untersystem 42 verarbeitet eine Video-Kodierung/Dekodierung zur Eingabe/Ausgabe von Videodaten VIDEO mit MPEG-Kompressionsalgorithmen, beispielsweise mit Hilfe einer MPEG-1-, MPEG-2- und MPEG-4-Norm, und umfasst einen MPEG-Unterencoder 422 und einen MPEG-Unterdecoder 424. Bei gewissen Ausführungsbeispielen verarbeitet das MPEG-Untersystem 42 die Video-Kodierung/Dekodierung in einer ersten Videoverarbeitungsphase und einer zweiten Videoverarbeitungsphase.
  • Der MPEG-Unterencoder 422 umfasst ein Empfängermodul 4221, eine Bewegungsschätzungseinrichtung 4222, einen Quantisierer 4223, eine Abtasteinrichtung 4225, eine variable Längenkodierungseinrichtung (VLC; variable length coding) 4227 und einen Sendepufferspeicher 4229.
  • In der ersten Videoverarbeitungsphase empfängt das Empfängermodul 4221 die Eingangs-Videodaten VIDEO. Die Bewegungsschätzungseinrichtung 4222 schätzt die Eingangs-Videodaten VIDEO und erzeugt geschätzte Videodaten. Im Allgemeinen neigen aufeinander folgende Bilder in einer Bewegungs-Videosequenz dazu, miteinander hoch korreliert zu sein, das heißt die Bilder ändern sich über ein kurzes Zeitintervall nur wenig. Dies impliziert, dass die arithmetische Differenz zwischen diesen Bildern klein ist. Aus diesem Grund können die Kompressionsverhältnisse für Bewegungs-Videosequenzen dadurch erhöht werden, dass die arithmetische Differenz zwischen zwei oder mehr aufeinander folgenden Frames kodiert wird. Im Gegensatz dazu haben Objekte, die in Bewegung sind, eine größere arithmetische Differenz zwischen Frames, was seinerseits impliziert, dass mehrere Bits zur Kodierung der Sequenz erforderlich sind. Um diesen Gesichtspunkt zu adressieren, ist eine Bewegungsschätzungseinrichtung 4222 realisiert, um die Verschiebung einer Objektbewegungsschätzung zu bestimmen, mittels der Elemente in einem Bild am besten mit Elementen in anderen Bildern (einem vorherigen oder nachfolgenden Bild) um die geschätzte Größe der Bewegung korreliert sind. Die Größe der Bewegung ist in dem Bewegungsvektor enthalten (encapsulated). Vorwärts-Bewegungsvektoren betreffen eine Korrelation mit vorhergehenden Bildern. Rückwärts-Bewegungsvektoren betreffen eine Korrelation mit zukünftigen Bildern.
  • Wenn die erste Videoverarbeitungsphase beendet ist, speichert der MPEG-Unterencoder 422 einen Bildblock (erste MPEG-kodierte Daten) in dem Speicher 48 und stellt MPEG-Steuersignale bereit, um ein DCT-Untersystem 46 zu triggern. Bei gewissen Ausführungsbeispielen für Video-/Bildverarbeitungsvorrichtungen kann es sich bei dem Speicher 48 um einen Speicherarray handeln. Eine kürzere Latenzzeit beim Zugriff wird benötigt, wenn ein Speicherarray verwendet wird, weil auf den Speicherarray direkt und ohne Erzeugung von Adressanfragen zugegriffen wird. Außerdem kann auf die Speicherelemente des Speicherarrays einzeln zugegriffen werden, was die Effizienz des Zugriffs verbessert. Bei gewissen Ausführungsbeispielen kann es sich bei dem Speicher 48 um einen 8x8-Speicherarray mit 64 Speicherelementen handeln.
  • Das DCT-Untersystem 46 greift auf die ersten MPEG-kodierten Daten in dem Speicher 48 zu und verarbeitet die ersten MPEG-kodierten Daten mit Hilfe einer diskreten Kosinus-Transformation, und zwar unter Verwendung eines FDCT-Moduls (forward discrete cosine transform) 462, um die ersten MPEG-kodierten Daten in transformierte MPEG-Daten zu transformieren. Die diskrete Kosinus-Transformation ist eng verwandt mit der diskreten Fourier-Transformation (FFT) und ermöglicht als solche, dass Daten durch ihre Frequenzkomponenten dargestellt werden können. Mit anderen Worten, bei Bildverarbeitungsapplikationen bildet die zweidimensionale (2D) DCT den Bildblock in seine 2D-Frequenzkomponenten ab. Das DCT-Unterystem 46 speichert dann die gemäß der diskreten Kosinus-Transformation transformierten MPEG-Daten in dem Speicher 48 ab und erzeugt DCT-Steuersignale, um das MPEG-Untersystem 42 zu triggern.
  • In Reaktion auf das DCT-Steuersignal liest das MPEG-Untersystem die transformierten MPEG-Daten aus dem Speicher 48 aus und führt die zweite Videoverarbeitungsphase der Verarbeitung der Eingangs-Videodaten aus.
  • Der Quantisierer 4223 liest die transformierten MPEG-Daten aus dem Speicher 48 aus, transformiert die transformierten MPEG-Daten, erzeugt quantisierte MPEG-Daten und sendet die quantisierten MPEG-Daten an die Abtasteinrichtung 4225. Der Quantisierer 4223 reduziert die Menge an Information, die zur Darstellung der Frequenzfächer (bin) des gemäß der diskreten Kosinus-Transformation transformierten Bildblocks benötigt wird, dadurch, dass Amplituden, die in gewisse Bereiche fallen, in eine eins in einem Satz von Quantisierungspegeln gewandelt werden. Eine unterschiedliche Quantisierung wird auf jeden Koeffizienten in Abhängigkeit von der Raumfrequenz innerhalb des Blocks, den dieser repräsentiert, angewendet. Für gewöhnlich kann ein größerer Quantisierungsfehler in den hochfrequenten Komponenten toleriert werden, weil ein hochfrequentes Rauschen weniger stark sichtbar ist als ein niederfrequentes Quantisierungsrauschen. Das MPEG-Untersystem 42 verwendet Gewichtungsmatrizen, um die relative Genauigkeit der Quantisierung der verschiedenen Koeffizienten zu definieren. Unterschiedliche Gewichtungsmatrizen können für unterschiedliche Frames verwendet werden, in Abhängigkeit von dem Vorhersagemodus, der verwendet wird. Außerdem kann der MPEG-Decoder 422 eine Rückkopplungsschleife zwischen dem Quantisierer 4223 und der Bewegungsschätzungseinrichtung 4222 umfassen. Die Rückkopplungsstrecke wird unter Verwendung des Dequantisierers 4247 und der IDCT 464 ausgebildet. Der Dequantisierer 4247 dequantisiert die quantisierten MPEG-Daten, die von dem Quantisierer 4223 erzeugt werden, erzeugt entsprechende dequantisierte Daten, speichert die dequantisierten Daten in dem Speicher 48 ab und stellt MPEG-Steuersignale bereit, um das DCT-Untersystem 46 zu triggern. Das getriggerte DCT-Untersystem 46 greift auf die dequantisierten Daten aus dem Speicher 48 zu und verarbeitet die dequantisierten Daten mittels einer inversen diskreten Kosinus-Transformation und unter Verwendung des IDCT 464 in transformierte MPEG-Daten. Das IDCT 464 führt eine inverse diskrete Kosinus-Transformation unter Verwendung einer Zeile-Spalte-Zerlegung (row-column decomposition) für die dequantisierten Daten aus, um die Rückkopplungsdaten zur Schätzung zu erzeugen.
  • Nach der Quantisierung werden die quantisierten Daten mit DCT-Koeffizienten mittels der Abtasteinrichtung 4225 in einer vorbestimmten Richtung abgetastet, beispielsweise in einem Zickzack-Abtastmuster oder auf andere Weise, um den 2D-Array in eine serielle Folge von quantisierten Koeffizienten zu transformieren. Die Koeffizientenfolgen (abgetastete Videodaten), die durch die Zickzack-Abtastung erzeugt werden, werden durch Zählen der Anzahl von zu Null identischen Koeffizienten, die einem von Null verschiedenen Koeffizienten vorausgehen, kodiert, das heißt lauflängenkodiert, und unter Verwendung der Huffman-Kodierung kodiert. Der Lauflängenwert und der Wert bzw. die Anzahl der von Null verschiedenen Koeffizienten, welcher dem Lauf von zu Null identischen Koeffizienten vorausgeht, werden dann verknüpft und unter Verwendung der variablen Längenkodierungseinrichtung (VLC) 4227 kodiert, um komprimierte Daten zu erzeugen. Die VLC-Einrichtung 4227 nutzt die Tatsache aus, dass kurze Verläufe von Nullen wahrscheinlicher sind als lange Verläufe von Nullen und dass kleine Koeffizienten wahrscheinlicher sind als große Koeffizienten. Die VLC ordnet Codes zu, die unterschiedliche Längen besitzen, und zwar in Abhängigkeit von der erwarteten Frequenz des Auftretens von jeder Null-Lauf-Länge/Nicht-Null-Koeffizientenwert-Kombination.
  • Gemeinsame Kombinationen verwenden kurze Codeworte; weniger häufige Kombinationen verwenden lange Codeworte. Alle anderen Kombinationen werden durch die Kombination eines Escape-Codes bzw. des Steuerzeichens für Escape und zwei feste Längencodes kodiert, nämlich einem 6-Bit-Wort, um die Lauflänge anzuzeigen und einem 12-Bit-Wort, um den Koeffizientenwert anzuzeigen. Die komprimierten Daten werden dann in dem Sende-Pufferspeicher 4229 gespeichert, was die zweite Videokodierungsphase der Kodierung der Eingangs-Videodaten abschließt.
  • Der MPEG-Unterdecoder 424 umfasst einen Empfäger-Pufferspeicher 4241, eine variable Längen-Dekodierungseinrichtung (VLD; variable-length decoding) 4243, eine Invers-Abtasteinrichtung 4245, einen Dequantisierer 4247, eine Bewegungsschätzungseinrichtung 4248 und ein Ausgabemodul 4249. Allgemein verarbeitet der MPEG-Unterdecoder 424 Signale im Vergleich zu dem MPEG-Unterencoder 422 in umgekehrter Reihenfolge.
  • In der ersten Videodekodierungsphase stellt der Empfänger-Pufferspeicher 4241 MPEG-komprimierte Daten bereit. Die MPEG-komprimierten Daten können mit Hilfe des MPEG-Unterencoders 422 in den MPEG-Kodierungsschritten erzeugt werden. Die variable Länge-Dekodierungseinrichtung 4243 verarbeitet die komprimierten Daten mittels einer variablen Längendekodierung, um serielle Folgedaten bzw. eine serielle Folge von Daten (VLD-dekodierte Daten) zu erzeugen.
  • Die Invers-Abtasteinrichtung 4245 transformiert die VLD-dekodierten Daten in abgetastete Videodaten. Der Dequantisierer 4247 greift auf die abgetasteten Videodaten zu und dequantisiert die abgetasteten Videodaten in dequantisierte Videodaten. Außerdem speichert das MPEG-Untersystem 42 die dequantisierten Videodaten (erste MPEG-dekodierte Daten) in dem Speicher 48 und erzeugt MPEG-Steuersignale, um das DCT-Untersystem 46 triggern.
  • Das getriggerte DCT-Untersystem 46 greift auf die dequantisierten Videodaten von dem Speicher 48 zu und verarbeitet die dequantisierten Videodaten in transformierte MPEG-Daten mittels einer diskreten Kosinus-Transformation unter Verwendung des IDCT-Moduls 464 (invers discrete cosine transform). Das IDCT 464 transformiert die dequantisierten Videodaten hinsichtlich ihrer Frequenzkomponenten in Pixelkomponenten. Mit anderen Worten, die zweidimensionale (2D) DCT bildet den Bildblock in seine 2D-Pixelkomponenten ab. Als nächstes speichert das DCT-Untersystem 46 den gemäß der inversen diskreten Kosinus-Transformation transformierten Bildblock (die transformierten MPEG-Daten) in dem Speicher 48 ab und erzeugt DCT-Steuersignale, um das MPEG-Untersystem 42 zu triggern.
  • In der zweiten Videodekodierungsphase greift die Bewegungskompensationseinrichtung 4248 auf die gemäß der inversen diskreten Kosinus-Transformation transformierten Daten von dem Speicher 48 zu, kompensiert die gemäß der diskreten Kosinus-Transformation transformierten Daten und erzeugt kompensierte MPEG-Daten. Das Ausgabemodul 4249 gibt die kompensierten MPEG-Daten VIDEO aus, was die zweite Videodekodierungsphase der Dekodierung der Ausgangs-Videodaten abschließt.
  • Weil das JPEG-Untersystem 44, das das JPEG-Kodierungsmodul 442 und das JPEG-Dekodierungsmodul 444 umfasst, von einem Prozessor 41 getriggert wird, verarbeitet das JPEG-Untersystem 44 eine Bild-Kodierung/Dekodierung für eine Eingabe/Ausgabe von Bilddaten IMAGE mit JPEG-Kompressionsalgorithmen. Bei gewissen Ausführungsbeispielen verarbeitet das JPEG-Untersystem 44 die Bild-Kodierung/Dekodierung in einer ersten Bildverarbeitungsphase und einer zweiten Bildverarbeitungsphase.
  • Der JPEG-Unterencoder 442 partitioniert jedes Farbkomponentenbild in 8x8-Pixelblöcke von Bildtastwerten und umfasst das Empfängermodul 4421, den Quantisierer 4423, die Abtasteinrichtung 4425, die variable Längenkodierungseinrichtung (VLC) 4427 und den Sende-Pufferspeicher 4429.
  • In der ersten Bildverarbeitungsphase empfängt das Empfängermodul 4421 die Eingangs-Bilddaten IMAGE. Wenn die erste Bildverarbeitungsphase beendet ist, speichert der JPEG-Unterencoder 442 erste JPEG-kodierte Daten in dem Speicher 48 und stellt dieses JPEG-Steuersignale bereit, um das DCT-Untersystem 46 zu triggern.
  • Das DCT-Untersystem 46 greift auf die ersten JPEG-kodierten Daten in dem Speicher 48 zu und verarbeitet die ersten JPEG-kodierten Daten mittels einer diskreten Kosinus-Transformation unter Verwendung des FDCT-Moduls 462 (forward discrete cosine transform), um die ersten JPEG-kodierten Daten in transformierte JPEG-Daten zu transformieren. Die diskrete Kosinus-Transformation ist eng verwandt mit der diskreten Fourier-Transformation (FFT) und ermöglicht als solche die Darstellung von Daten hinsichtlich ihrer Frequenzkomponenten. Mit anderen Worten, in Bildverarbeitungsapplikationen bildet die zweidimensionale (2D) DCT den Bildblock in seine 2D-Frequenzkomponenten ab. Das DCT-Untersystem 46 speichert dann die mittels der diskreten Kosinus-Transformation transformierten JPEG-Daten in dem Speicher 48 ab und erzeugt DCT-Steuersignale, um das JPEG-Untersystem 44 zu triggern.
  • In Reaktion auf das DCT-Steuersignal liest das JPEG-Untersystem 44 die transformierten JPEG-Daten aus dem Speicher 48 aus und führt die zweite Bildverarbeitungsphase der Verarbeitung der Eingangs-Bilddaten aus.
  • Der Quantisierer 4423 liest die transformierten JPEG-Daten aus dem Speicher 48 aus, quantisiert die transformierten JPEG-Daten, erzeugt quantisierte JPEG-Daten und übermittelt die quantisierten JPEG-Daten an die Abtasteinrichtung 4425. Der Quantisierer 4423 reduziert die Menge an Information, die erforderlich ist, um die Frequenzfächer (frequency bins) des mittels der diskreten Kosinus-Transformation transformierten Bildblocks darzustellen, und zwar dadurch, dass Amplituden, die in gewisse Bereiche fallen, in einem Satz von Quantisierungspegeln in eine eins gewandelt werden.
  • Zur Quantisierung verwendet das JPEG-Untersystem 44 Quantisierungsmatrizen. Das JPEG-Untersystem 44 ermöglicht die Spezifizierung einer unterschiedlichen Quantisierungsmatrix für jede Farbkomponente. Die Verwendung von Quantisierungsmatrizen ermöglicht, dass jedes Frequenzfach in eine unterschiedliche Schrittgröße quantisiert werden kann. Allgemein werden die tieferen Frequenzkomponeten in eine kleine Schrittgröße quantisiert und werden die hohen Frequenzkomponenten in eine große Schrittgröße transformiert. Dieses Merkmal nutzt vorteilhaft die Tatsache aus, dass das menschliche Auge weniger empfindlich für hochfrequentes sichtbares Rauschen ist, aber empfindlicher für niederfrequentes Rauschen ist, was sich in störenden Artefakten manifestiert. Eine Modifikation der Quantisierungsmatrizen ist das primäre Verfahren zum Kontrollieren der Qualität und des Komprimierungsgrads des JPEG-Verfahrens. Obwohl die Quantisierungs-Schrittgröße für eine beliebige der Frequenzkomponenten individuell modifiziert werden kann, besteht eine üblichere Vorgehensweise darin, sämtliche der Elemente der Matrizen gemeinsam zu skalieren.
  • Nach der Quantisierung werden die quantisierten Daten mit DCT-Koeffizienten mittels der Abtasteinrichtung 4425 in einer vorbestimmten Richtung abgetastet, beispielsweise mittels eines Zickzack-Abtastmusters oder dergleichen, um den 2D-Array in eine serielle Folge von quantisierten Koeffizienten zu transformieren. Die Koeffizientenfolgen (abgetastete Bilddaten), die durch die Zickzack-Abtastung erzeugt werden, werden durch Zählen der Anzahl von mit Null identischen Koeffizienten, die einem von Null verschiedenen Koeffizienten vorausgehen, kodiert, das heißt, lauflängenkodiert (run-length coded), und mittels einer Huffman-Kodierung kodiert. Der Lauflängenwert und der Wert bzw. die Anzahl der von Null verschiedenen Koeffizienten, die dem Lauf der mit Null identischen Koeffizienten vorausgehen, werden dann verknüpft und unter Verwendung einer variablen Lauflängenkodierungseinrichtung 4427 (VLC) kodiert, um komprimierte Daten zu erzeugen. Die VLC-Einrichtung 4427 nutzt die Tatsache aus, dass kurze Verläufe von Nullen wahrscheinlicher sind als lange Verläufe von Einsen und dass kleine Koeffizienten wahrscheinlicher sind als große Koeffizienten. Die VLC ordnet Codes mit unterschiedlichen Längen zu, und zwar in Abhängigkeit von der erwarteten Frequenz des Auftretens von jeder Kombination aus Null-Lauf-Länge/von-Null-verschieden-Koeffizientenwert. Übliche Kombinationen verwenden kurze Code-Worte; weniger übliche Kombinationen verwenden lange Code-Worte. Sämtliche andere Kombinationen werden mittels der Kombination aus einem Escape-Code und zwei Festlängen-Codes kodiert, nämlich einem 6-Bit-Wort, um die Lauflänge anzuzeigen, und einem 12-Bit-Wort, um die den Koeffizientenwert anzuzeigen.
  • Die komprimierten Daten werden dann in dem Sende-Pufferspeicher 4429 gespeichert, was die zweite Bildkodierungsphase der Kodierung der Eingangs-Bilddaten abschließt.
  • Der JPEG-Unterdecoder 444 umfasst einen Empfangs-Pufferspeicher 4441, eine variable Längendekodierungseinrichtung 4443 (VLD), eine Invers-Abtasteinrichtung 4445, einen Dequantisierer 4447 und ein Ausgabemodul 4449. Allgemein verarbeitet der JPEG-Unterdecoder 444 Signalfolgen verglichen mit einem JPEG-Unterencoder 442 in umgekehrter Reihenfolge.
  • In der ersten Bilddekodierungsphase stellt der Empfangspufferspeicher 4441 JPEG-komprimierte Daten bereit (Ausgangs-Bilddaten). Die JPEG-komprimierten Daten können mit Hilfe eines JPEG-Unterencoders 442 in den MPEG-Kodierungsschritten erzeugt werden. Die variable Längendekodierungseinrichtung 4443 verarbeitet die komprimierten Daten mittels einer variablen Längendekodierung, um eine serielle Folge von Daten zu erzeugen (VLD-dekodierte Daten).
  • Die Invers-Abtasteinrichtung 4445 transformiert die VLD-dekodierten Daten in abgetastete Bilddaten. Der Dequantisierer 4447 greift auf die abgetasteten Bilddaten zu und dequantisiert die abgetasteten Bilddaten in dequantisierte Bilddaten. Außerdem speichert das JPEG-Untersystem 44 die dequantisierten Bilddaten (erste JPEG-dekodierte Daten) in dem Speicher 48 und erzeugt JPEG-Steuersignale, um das DCT-Untersystem 46 (discrete cosine transform) zu triggern.
  • Das getriggerte DCT-Untersystem 46 greift auf die dequantisierten Bilddaten von dem Speicher 48 zu und verarbeitet die dequantisierten Bilddaten mittels einer inversen diskreten Kosinus-Transformation und unter Verwendung des Invers-DCT-Moduls 446 (IDCT) in transformierte JPEG-Daten. Das IDCT 446 transformiert die dequantisierten Bilddaten hinsichtlich ihrer Frequenzkomponenten in ihre Pixelkomponenten. Mit anderen Worten, die zweidimensionale (2D) DCT bildet den Bildblock in 2D-Pixelkomponenten ab. Als nächstes speichert das DCT-Untersystem 46 den mittels der inversen diskreten Kosinus-Transformation transformierten Bildblock (die transformierten JPEG-Daten) in dem Speicher 48 und erzeugt DCT-Steuersignale, um das JPEG-Untersystem 44 zu triggern.
  • In der zweiten Bilddekodierungsphase gibt das Ausgabe-Modul 4449 die kompensierten JPEG-Daten IMAGE aus, was die zweite Bilddekodierungsphase der Dekodierung der Ausgangs-Bilddaten abschließt.
  • Bei gewissen Ausführungsbeispielen greifen das MPEG-Untersystem 42, das JPEG-Untersystem 44 und das DCT-Untersystem 46 direkt auf Daten von dem Speicher 48 zu. Somit werden nur Steuersignale zwischen dem MPEG-Untersystem 42 und dem DCT-Untersystem 46 sowie zwischen dem JPEG-Untersystem 44 und dem DCT-Untersystem 46 gesendet.
  • Bei gewissen Ausführungsbeispielen kann die Kontrolle über das DCT-Untersystem 46 mit Hilfe von Hardware erreicht werden, ohne dass Software verwendet wird, was somit potentiell das Leistungsverhalten des Systems verbessert. Zusätzlich oder alternativ wechseln gewisse Ausführungsbeispiele zwischen der Verwendung einer MPEG-Kodierung/Dekodierung oder einer JPEG-Kodierung/Dekodierung, während zugleich ein einziges DCT-Model verwendet wird, was so potentiell die Kosten für die Hardware reduziert.
  • Die 5 ist ein Flussdiagramm eines Video-/Bildverarbeitungsverfahrens zur Verarbeitung von Eingangs-/Ausgangs-Video-/Bilddaten entsprechend von Ausführungsbeispielen gemäß der vorliegenden Erfindung. Hierbei bezeichnet der Ausdruck „Eingangs-/Ausgangs-Video-/Bilddaten" die Video-/Bilddaten, die mit Hilfe des Video-/Bildverarbeitungsverfahrens eingegeben oder ausgegeben werden können, bezeichnet der Ausdruck „Video-/Bilddaten" Video- oder Bilddaten, bezeichnet der Ausdruck „MPEG/JPEG-verarbeitete Daten" MPEG-verarbeitete Daten oder JPEG-verarbeitete Daten, bezeichnet der Ausdruck „Video-/Bildverarbeitungsphase" eine Videoverarbeitungsphase oder eine Bildverarbeitungsphase und bezeichnet der Ausdruck „MPEG/JPEG-Untersystem" ein MPEG-Untersystem oder JPEG-Untersystem.
  • Als erstes verarbeitet das MPEG/JPEG-Untersystem die Eingangs-/Ausgangs-Video-/Bilddaten und erzeugt erste MPEG/JPEG-verarbeitete Daten in einer ersten Video-/Bildverarbeitungsphase (S50). Als nächstes speichert das MPEG/JPEG-Untersystem die ersten MPEG/JPEG-verarbeiteten Daten in einem Speicher (S51). Als nächstes sendet das MPEG/JPEG-Untersystem ein MPEG/JPEG-Steuersignal an ein DCT-Untersystem (discrete consine transform) (S52). Das DCT-Untersystem liest die ersten MPEG/JPEG-verarbeiteten Daten aus dem Speicher aus (S53). Als nächstes transformiert das DCT-Untersystem die ersten MPEG/JPEG-verarbeiteten Daten in transformierte MPEG/JPEG-Daten unter Verwendung einer diskreten Kosinus-Transformation (S54). Als nächstes speichert das DCT-Untersystem die transformierten MPEG/JPEG-Daten in dem Speicher (S55). Als nächstes sendet das DCT-Untersystem ein DCT-Steuersignal an das MPEG/JPEG-Untersystem (S56). Das MPEG/JPEG-Untersystem liest die transformierten MPEG/JPEG-Daten aus dem Speicher aus (S57). Schließlich verarbeitet das MPEG/JPEG-Untersystem die transformierten MPEG/JPEG-Daten in einer zweiten Video-/Bildverarbeitungsphase (S58).
  • Die 6 ist ein Flussdiagramm eines Video-/Bildkodierungsverfahrens zum Kodieren von Eingangs-Video-/Bilddaten gemäß von Ausführungsbeispielen der vorliegenden Erfindung. Als erstes kodiert der MPEG/JPEG-Unterencoder die Eingangs-Video-/Bilddaten und erzeugt erste MPEG/JPEG-kodierte Daten in einer ersten Video-/Bildkodierungsphase (S60). Als nächstes speichert der MPEG/JPEG-Unterencoder die ersten MPEG/JPEG-kodierten Daten in dem Speicher (S61). Als nächstes sendet der MPEG/JPEG-Unterencoder das MPEG/JPEG-Steuersignal an das FDCT-Modul (forward discrete consine transform) (S62). Das FDCT-Modul liest die ersten MPEG/JPEG-kodierten Daten aus dem Speicher aus (S63). Als nächstes transformiert das FDCT-Modul die ersten MPEG/JPEG-kodierten Daten in transformierte MPEG/JPEG-Daten unter Verwendung einer diskreten Kosinus-Transformation (S64). Als nächstes speichert das FDCT-Modul die transformierten MPEG/JPEG-Daten in dem Speicher (S65). Als nächstes sendet das FDCT-Modul das DCT-Steuersignal an den MPEG/JPEG-Unterencoder (S66). Der MPEG/JPEG-Unterencoder liest die transformierten MPEG/JPEG-Daten aus dem Speicher aus (S67). Schließlich kodiert der MPEG/JPEG-Unterencoder die Eingangs-Video-/Bilddaten in einer zweiten Video-/Bildkodierungsphase (S68).
  • Die 7 ist ein Flussdiagramm eines Video-/Bilddekodierungsverfahrens zum Dekodieren von Ausgangs-Video-/Bilddaten gemäß von Ausführungsbeispielen der vorliegenden Erfindung. Als erstes dekodiert ein MPEG/JPEG-Unterdecoder die Ausgangs-Video-/Bilddaten und erzeugt in einer ersten Video-/Bilddekodierungsphase erste MPEG/JPEG-dekodierte Daten (S70). Als nächstes speichert der MPEG/JPEG-Unterdecoder die ersten MPEG/JPEG-dekodierten Daten in dem Speicher (S71). Als nächstes sendet der MPEG/JPEG-Unterdecoder das MPEG/JPEG-Steuersignal an das IDCT-Modul (invers discrete cosine transform) (S72). Das IDCT-Modul liest die ersten MPEG/JPEG-dekodierten Daten aus dem Speicher aus (S73). Als nächstes transformiert das IDCT-Modul die ersten MPEG/JPEG-dekodierten Daten in transformierte MPEG/JPEG-Daten unter Verwendung einer invseren diskreten Kosinus-Transformation (S74). Als nächstes speichert das IDCT-Modul die transformierten MPEG/JPEG-Daten in dem Speicher (S75). Als nächstes sendet das IDCT-Modul das DCT-Steuersignal an den MPEG/JPEG-Unterdecoder (S76). Der MPEG/JPEG-Unterdecoder liest die transformierten MPEG/JPEG-Daten aus dem Speicher aus (S77). Schließlich dekodiert der MPEG/JPEG-Unterdecoder die Ausgangs-Video-/Bilddaten in einer zweiten Video-/Bilddekodierungsphase.
  • Bei gewissen Ausführungsbeispielen werden die Vorrichtungen zur Video-/Bilddatenverarbeitung mittels elektronischer Geräte realisiert, beispielsweise in Form eines DVD-Abspielgeräts, eines DVD-Recoders, einer Digitalkamera, eines Mobiltelefons oder eines Computers, der eine Anzeige zur Darstellung der Ausgangs-Video-/Bilddaten umfasst.
  • Die vorstehende Beschreibung von verschiedenen Ausführungsbeispielen ist zum Zwecke der Erläuterung und Beschreibung erfolgt. Offensichtliche Modifikationen oder Variationen sind im Lichte der vorstehenden technischen Lehre möglich. Die Ausführungsformen wurden nur deshalb gewählt und beschrieben, um die Prinzipien der vorliegenden Erfindung und ihre praktische Anwendung bestmöglich darzulegen, so dass ein Fachmann auf diesem Gebiet in die Lage versetzt wird, die Erfindung in zahlreichen Ausführungsformen und mit verschiedenen Modifikationen einzusetzen, wie diese für den speziell angedachten Einsatzzweck geeignet sind. Sämtliche solcher Modifikationen und Variationen sollen deshalb innerhalb des Schutzbereichs der vorliegenden Erfindung liegen, wie dieser durch die beigefügten Patentansprüche festgelegt wird, wenn diese in einer der Breite angemessenen Weise ausgelegt werden, zu der die Patentansprüche vernünftig, rechtlich zulässig und zu Recht ausgelegt werden.
  • Zusammenfassend betrifft die Erfindung somit Vorrichtungen und Verfahren zur Video-/Bildverarbeitung. Ein Speicher speichert erste verarbeitete Daten, zweite verarbeitete Daten und gemäß einer diskreten Kosinus-Transformation (DCT) transformierte Daten. Ein MPEG-Untersystem verarbeitet eine MPEG-Kodierung/Dekodierung gemäß ersten Eingangsdaten und den DCT-transformierten Daten und erzeugt die ersten verarbeiteten Daten und ein erstes Triggersignal in Reaktion auf den Empfang eines ersten Freigabesignals. Ein JPEG-Untersystem verarbeitet eine JPEG-Kodierung/Dekodierung entsprechend zweiten Eingangsdaten und den DCT-transformierten Daten und erzeugt die zweiten verarbeiteten Daten und ein zweites Triggersignal in Reaktion auf den Empfang eines zweiten Freigabesignals. Ein DCT-Modul transformiert die ersten verarbeiteten Daten gemäß dem ersten Triggersignal in DCT-transformierte Daten und transformiert die zweiten verarbeiteten Daten gemäß dem zweiten Triggersignal in die DCT-transformierten Daten. Ein Prozessor stellt das erste Freigabesignal und das zweite Freigabesignal bereit.

Claims (48)

  1. Vorrichtung zur Verarbeitung von Video-/Bilddaten, um Eingangs-/Ausgangs-Video-/Bilddaten zu verarbeiten, mit: einem MPEG/JPEG-Untersystem (31; 42), um die Eingangs-/Ausgangsvideodaten in einer ersten Videoverarbeitungsphase und einer zweiten Videoverarbeitungsphase zu verarbeiten; einem JPEG-Untersystem (32; 44), um die Eingangs-/Ausgangs-Bilddaten in einer ersten Bildverarbeitungsphase und einer zweiten Bildverarbeitungsphase zu verarbeiten; einem DCT-Untersystem (33; 46), das zwischen das MPEG-Untersystem und das JPEG-Untersystem geschaltet ist, um die Eingangs-/Ausgangs-Video-/Bilddaten zu transformieren; einem Speicher (34; 48), der mit dem DCT-Untersystem, dem MPEG-Untersystem und dem JPEG-Untersystem verbunden ist; wobei in Reaktion darauf, dass das MPEG/JPEG-Untersystem die erste Video-/Bildverarbeitungsphase der Verarbeitung der Eingangs-/Ausgangs-Video-/Bilddaten beendet (S50), das MPEG/JPEG-Untersystem erste MPEG/JPEG-verarbeitete Daten in dem Speicher speichert (S51) und ein MPEG/JPEG-Steuersignal an das DCT-Untersystem sendet (S52); in Reaktion auf das MPEG/JPEG-Steuersignal das DCT-Untersystem die ersten MPEG/JPEG-verarbeiteten Daten aus dem Speicher ausliest (S53), die ersten MPEG/JPEG-verarbeiteten Daten in transformierte MPEG/JPEG-Daten transformiert (S54), die transformierten MPEG/JPEG-Daten in dem Speicher speichert (S55) und ein DCT-Steuersignal an das MPEG/JPEG-Untersystem sendet (S56); und in Reaktion auf das DCT-Steuersignal das MPEG/JPEG-Untersystem die transformierten MPEG/JPEG-Daten aus dem Speicher ausliest (S57) und die zweite Video-/Bildverarbeitungsphase der Verarbeitung der Eingangs-/Ausgangs-Video-/Bilddaten ausführt (58).
  2. Vorrichtung nach Anspruch 1, wobei das MPEG-Untersystem (42) einen MPEG-Unterencoder (422) umfasst, um die Eingangs-Videodaten in einer ersten Videokodierungsphase und einer zweiten Videokodierungsphase zu kodieren; das JPEG-Untersystem (44) einen JPEG-Unterencoder (442) umfasst, um die Eingangs-Bilddaten in einer ersten Bildkodierungsphase und einer zweiten Bildkodierungsphase zu kodieren; das DCT-Untersystem (46) ein FDCT-Modul (462) zum Transformieren der Eingangs-Video-/Bilddaten umfasst; wobei in Reaktion darauf, dass der MPEG/JPEG-Unterencoder (422) die erste Video-/Bildkodierungsphase der Kodierung der Eingangs-Video-/Bilddaten beendet (S60), der MPEG/JPEG-Unterencoder erste MPEG/JPEG-kodierte Daten in dem Speicher speichert (S61) und das MPEG/JPEG-Steuersignal an das FDCT-Modul sendet (S62); in Reaktion auf das MPEG/JPEG-Steuersignal das FDCT-Modul die ersten MPEG/JPEG-kodierten Daten aus dem Speicher ausliest (S63), die ersten MPEG/JPEG-kodierten Daten in transformierte MPEG/JPEG-Daten transformiert (S64), die transformierten MPEG/JPEG-Daten in dem Speicher speichert (S65) und das DCT-Steuersignal an den MPEG/JPEG-Unterencoder sendet (S66); und in Reaktion auf das DCT-Steuersignal der MPEG/JPEG-Unterencoder die transformierten MPEG/JPEG-Daten aus dem Speicher ausliest (S67) und die zweite Video-/Bildkodierungsphase der Kodierung der Eingangs-Video-/Bilddaten ausführt (S68).
  3. Vorrichtung nach Anspruch 2, wobei der MPEG-Unterencoder (422) umfasst: ein Empfängermodul (4221), um die Eingangs-Videodaten in der ersten Videokodierungsphase zu empfangen; eine Bewegungsschätzungseinrichtung (4222), um die Eingangs-Videodaten abzuschätzen und geschätzte Videodaten in der ersten Videokodierungsphase zu erzeugen; einen Quantisierer (4223), um die transformierten MPEG-Daten zu quantisieren und quantisierte MPEG-Daten in der zweiten Videokodierungsphase zu erzeugen; eine Zickzack-Abtasteinrichtung (4225), um die quantisierten MPEG-Daten abzutasten und in der zweiten Videokodierungsphase abgetastete Videodaten zu erzeugen; und eine Einrichtung (4227) zur variablen Längenkodierung (VLC; variable-length coding), um die abgetasteten Videodaten in der zweiten Videokodierungsphase zu kodieren; wobei in Reaktion darauf, dass die Bewegungsschätzungseinrichtung das Abschätzen der Eingangs-Videodaten in der ersten Videokodierungsphase beendet, der MPEG-Unterencoder die geschätzten Videodaten in dem Speicher speichert und das MPEG-Steuersignal an das FDCT-Modul sendet; in Reaktion auf das MPEG-Steuersignal das FDCT-Modul die geschätzten Videodaten aus dem Speicher ausliest, die geschätzten Videodaten in transformierte MPEG-Daten transformiert, die transformierten MPEG-Daten in dem Speicher speichert und das DCT-Steuersignal an den MPEG-Unterencoder sendet; und in Reaktion auf das DCT-Steuersignal der Quantisierer die transformierten MPEG-Daten aus dem Speicher ausliest, die transformierten MPEG-Daten quantisiert, die quantisierten MPEG-Daten erzeugt und die quantisierten MPEG-Daten an die Zickzack-Abtasteinrichtung sendet, in Reaktion auf den Empfang der quantisierten MPEG-Daten die Zickzack-Abtasteinrichtung die quantisierten MPEG-Daten abtastet, die abgetasteten Videodaten erzeugt und die abgetasteten Videodaten an die VLC-Einrichtung sendet; in Reaktion auf den Empfang der abgetasteten MPEG-Daten die VLC-Einrichtung die abgetasteten Videodaten kodiert, um die zweite Videokodierungsphase der Kodierung der Eingangs-Videodaten zu beenden.
  4. Vorrichtung nach Anspruch 2 oder 3, wobei der JPEG-Unterencoder (442) umfasst: ein Empfängermodul (4421), um die Eingangs-Bilddaten in der ersten Bildkodierungsphase zu empfangen; einen Quantisierer (4423), um die transformierten JPEG-Daten zu quantisieren und in der zweiten Bildkodierungsphase quantisierte JPEG-Daten zu erzeugen; eine Zickzack-Abtasteinrichtung (4425), um die quantisierten JPEG-Daten abzutasten und in der zweiten Bildkodierungsphase abgetastete Bilddaten zu erzeugen; und eine Einrichtung (4427) zur variablen Längenkodierung (VLC; variable length coding), um die abgetasteten Bilddaten in der zweiten Bildkodierungsphase zu kodieren; wobei in Reaktion darauf, dass das Empfängermodul den Empfang der Eingangs-Bilddaten in der ersten Bildkodierungsphase beendet, der JPEG-Unterencoder die empfangenen Eingangs-Bilddaten in dem Speicher speichert und das JPEG-Steuersignal an das FDCT-Modul sendet; in Reaktion auf das JPEG-Steuersignal das FDCT-Modul die empfangenen Eingangs-Bilddaten aus dem Speicher ausliest, die empfangenen Eingangs-Bilddaten in transformierte JPEG-Daten transformiert, die transformierten JPEG-Daten in dem Speicher speichert und das DCT-Steuersignal an den JPEG-Unterencoder sendet; und in Reaktion auf das DCT-Steuersignal der Quantisierer die transformierten JPEG-Daten aus dem Speicher ausliest, die transformierten JPEG-Daten quantisiert, quantisierte JPEG-Daten erzeugt und die quantisierten JPEG-Daten an die Zickzack-Abtasteinrichtung sendet, in Reaktion auf den Empfang der quantisierten JPEG-Daten die Zickzack-Abtasteinrichtung die quantisierten JPEG-Daten abtastet, die abgetasteten Bilddaten erzeugt und die abgetasteten Bilddaten an die VLC-Einrichtung sendet; und in Reaktion auf den Empfang der abgetasteten Bilddaten die VLC-Einrichtung die abgetasteten Bilddaten kodiert, um die zweite Bildkodierungsphase der Kodierung der Eingangs-Bilddaten zu beendet.
  5. Vorrichtung nach einem der Ansprüche 1 bis 4, wobei das MPEG-Untersystem (42) einen MPEG-Unterdecoder (424) umfasst, um die Ausgangs-Videodaten in einer ersten Videodekodierungsphase und einer zweiten Videodekodierungsphase zu dekodieren; das JPEG-Untersystem (44) einen JPEG-Unterdecoder (144) umfasst, um die Ausgangs-Bilddaten in einer ersten Bilddekodierungsphase und einer zweiten Bilddekodierungsphase zu dekodieren; das DCT-Untersystem (46) ein IDCT-Modul (464) (inverse diskrete Kosinus-Transformation) umfasst, um die Ausgangs-Video-/Bilddaten zu transformieren; wobei in Reaktion darauf, dass der MPEG/JPEG-Unterdecoder (424, 144) die erste Video-/Bilddekodierungsphase des Dekodierens der Ausgangs-Video-/Bilddaten beendet (S70), der MPEG/JPEG-Unterdecoder erste MPEG/JPEG-dekodierte Daten in dem Speicher speichert (S71) und das MPEG/JPEG-Steuersignal an das IDCT-Modul sendet (S72); in Reaktion auf das MPEG/JPEG-Steuersignal das IDCT-Modul die ersten MPEG/JPEG-dekodierten Daten aus dem Speicher ausliest (S73), die ersten MPEG/JPEG-dekodierten Daten in transformierte MPEG/JPEG-Daten transformiert (S74), die transformierten MPEG/JPEG-Daten in dem Speicher speichert (S75) und das DCT-Steuersignal an den MPEG/JPEG-Unterdecoder sendet (S76); und in Reaktion auf das DCT-Steuersignal der MPEG/JPEG-Unterdecoder die transformierten MPEG/JPEG-Daten aus dem Speicher ausliest (S77) und die zweite Video-/Bilddekodierungsphase des Dekodierens der Ausgangs-Video-/Bilddaten ausführt (S78).
  6. Vorrichtung nach Anspruch 5, wobei der MPEG-Unterdecoder (424) umfasst: einen Decoder (4243) zur variablen Längendekodierung (VLD; variable length decoder), um die Ausgangs-Videodaten zu dekodieren und VLD-dekodierte Daten in der ersten Videodekodierungsphase zu erzeugen; eine Invers-Abtasteinrichtung (4245), um die VLD-dekodierten Daten abzutasten und abgetastete Videodaten in der ersten Videodekodierungsphase zu erzeugen; einen Dequantisierer (4247), um die abgetasteten Videodaten zu dequantisieren und dequantisierte Videodaten in der ersten Videodekodierungsphase zu erzeugen; eine Bewegungskompensationseinrichtung (4248), um die transformierten MPEG-Daten zu kompensieren und kompensierte MPEG-Daten in der zweiten Videodekodierungsphase zu erzeugen; und ein Ausgabemodul (4249), um die kompensierten MPEG-Daten in der zweiten Videodekodierungsphase auszugeben; wobei in Reaktion darauf, dass der Dequantisierer die abgetasteten Daten dequantisiert und die dequantisierten Videodaten in der ersten Videodekodierungsphase erzeugt, der MPEG-Unterdecoder die dequantisierten Videodaten in dem Speicher speichert und das MPEG-Steuersignal an das IDCT-Modul sendet; in Reaktion auf das MPEG-Steuersignal das IDCT-Modul die dequantisierten Videodaten aus dem Speicher ausliest, die dequantisieren Videodaten in transformierte MPEG-Daten transformiert, die transformierten MPEG-Daten in dem Speicher speichert und das DCT-Steuersignal an den MPEG-Unterdecoder sendet; und in Reaktion auf das DCT-Steuersignal die Bewegungskompensationseinrichtung die transformierten MPEG-Daten aus dem Speicher ausliest, die transformierten MPEG-Daten kompensiert und die kompensierten MPEG-Daten erzeugt und das Ausgabemodul die kompensierten MPEG-Daten in der zweiten Videodekodierungsphase ausgibt.
  7. Vorrichtung nach Anspruch 5 oder 6, wobei der JPEG-Unterdecoder (144) umfasst: einen variablen Längendekoder (VLD; variable-length decoder) (4443), um die Ausgangs-Bilddaten zu dekodieren und VLD-dekodierte Daten in der ersten Bilddekodierungsphase zu erzeugen; eine Invers-Abtasteinrichtung (4445), um die VLD-dekodierten Daten abzutasten und abgetastete Bilddaten in der ersten Bilddekodierungsphase zu erzeugen; einen Dequantisierer (4447), um die abgetasteten Bilddaten zu dequantisieren und dequantisierte Bilddaten in der ersten Bilddekodierungsphase zu erzeugen; und ein Ausgabemodul (4449), um die transformierten JPEG-Daten in der zweiten Bilddekodierungsphase auszugeben; wobei in Reaktion darauf, dass der Dequantisierer die abgetasteten Bilddaten dequantisiert und die dequantisierten Bilddaten in der ersten Videodekodierungsphase erzeugt, der JPEG-Unterdecoder die dequantisierten Bilddaten in dem Speicher speichert und das JPEG-Steuersignal an das IDCT-Modul sendet; in Reaktion auf das JPEG-Steuersignal das IDCT-Modul die dequantisierten Bilddaten aus dem Speicher ausliest, die dequantisierten Bilddaten in transformierte JPEG-Daten transformiert, die transformierten JPEG-Daten in dem Speicher speichert und das DCT-Steuersignal an den JPEG-Unterdecoder sendet; und in Reaktion auf das DCT-Steuersignal das Ausgabemodul die transformierten JPEG-Daten aus dem Speicher ausliest und die transformierten JPEG-Daten in der zweiten Videodekodierungsphase ausgibt.
  8. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei der Speicher ein 8x8-Speicherarray (48) ist.
  9. Vorrichtung zur Kodierung von Video-/Bilddaten, um Eingang-Video-/Bilddaten zu kodieren, mit: einem MPEG-Unterencoder (422), um die Eingangs-Videodaten in einer ersten Videokodierungsphase und einer zweiten Videokodierungsphase zu kodieren; einem JPEG-Unterencoder (442), um die Eingangs-Bilddaten in einer ersten Bildkodierungsphase und einer zweiten Bildkodierungsphase zu kodieren; einem FDCT-Modul (462) (vorwärtsgerichtete diskrete Kosinus-Transformation), um die Eingangs-Video-/Bilddaten zu transformieren; und einem Speicher (48), der mit dem MPEG-Unterencoder (422), dem JPEG-Unterencoder (442) und dem FDCT-Modul (462) verbunden ist; wobei in Reaktion darauf, dass der MPEG/JPEG-Unterencoder die erste Video-/Bildkodierungsphase der Kodierung der Eingangs-Video-/Bilddaten beendet, der MPEG/JPEG-Unterencoder erste MPEG/JPEG-kodierte Daten in dem Speicher speichert und das MPEG/JPEG-Steuersignal an das FDCT-Modul sendet; in Reaktion auf das MPEG/JPEG-Steuersignal das FDCT-Steuersignal die ersten MPEG/JPEG-kodierten Daten aus dem Speicher ausliest, die ersten MPEG/JPEG-kodierten Daten in transformierte MPEG/JPEG-Daten transformiert, die transformierten MPEG/JPEG-Daten in dem Speicher speichert und das DCT-Steuersignal an den MPEG/JPEG-Unterencoder sendet; und in Reaktion auf das DCT-Steuersignal der MPEG/JPEG-Unterencoder die transformierten MPEG/JPEG-Daten aus dem Speicher ausliest und die zweite Video-/Bildkodierungsphase der Kodierung der Eingangs-Video-/Bilddaten ausführt.
  10. Vorrichtung nach Anspruch 9, wobei der MPEG-Unterencoder (422) umfasst: ein Empfängermodul (4221), um die Eingangs-Videodaten in der ersten Videokodierungsphase zu empfangen; eine Bewegungsschätzungseinrichtung (4222), um die Eingangs-Videodaten abzuschätzen und geschätzte Videodaten in der ersten Videokodierungsphase zu erzeugen; einen Quantisierer (4223), um die transformierten MPEG-Daten zu quantisieren und quantisierte MPEG-Daten in der zweiten Videokodierungsphase zu erzeugen; einer Zickzack-Abtasteinrichtung (4225), um die quantisierten MPEG-Daten abzutasten und in der zweiten Videokodierungsphase abgetastete Videodaten zu erzeugen; und eine Einrichtung (4227) zur variablen Längenkodierung (VLC; variable-length coding), um die abgetasteten Videodaten in der zweiten Videokodierungsphase zu kodieren; wobei in Reaktion darauf, dass die Bewegungsschätzungseinrichtung das Abschätzen der Eingangs-Videodaten in der ersten Videokodierungsphase beendet, der MPEG-Unterencoder die geschätzten Videodaten in dem Speicher speichert und das MPEG-Steuersignal an das FDCT-Modul sendet; in Reaktion auf das MPEG-Steuersignal das FDCT-Modul die geschätzten Videodaten aus dem Speicher ausliest, die geschätzten Videodaten in transformierte MPEG-Daten transformiert, die transformierten MPEG-Daten in dem Speicher speichert und das DCT-Steuersignal an den MPEG-Unterencoder sendet; und in Reaktion auf das DCT-Steuersignal der Quantisierer die transformierten MPEG-Daten aus dem Speicher ausliest, die transformierten MPEG-Daten quantisiert, die quantisierten MPEG-Daten erzeugt und die quantisierten MPEG-Daten an die Zickzack-Abtasteinrichtung sendet, in Reaktion auf den Empfang der quantisierten MPEG-Daten die Zickzack-Abtasteinrichtung die quantisierten MPEG-Daten abtastet, die abgetasteten Videodaten erzeugt und die abgetasteten Videodaten an die VLC-Einrichtung sendet; und in Reaktion auf den Empfang der abgetasteten MPEG-Daten die VLC-Einrichtung die abgetasteten Videodaten kodiert, um die zweite Videokodierungsphase der Kodierung der Eingangs-Videodaten zu beenden.
  11. Vorrichtung nach Anspruch 9 oder 10, wobei der JPEG-Unterencoder (442) umfasst: ein Empfängermodul (4421), um die Eingangs-Bilddaten in der ersten Bildkodierungsphase zu empfangen; einen Quantisierer (4423), um die transformierten JPEG-Daten zu quantisieren und in der zweiten Bildkodierungsphase quantisierte JPEG-Daten zu erzeugen; eine Zickzack-Abtasteinrichtung (4425), um die quantisierten JPEG-Daten abzutasten und in der zweiten Bildkodierungsphase abgetastete Bilddaten zu erzeugen; und eine Einrichtung (4427) zur variablen Längenkodierung (VLC; variable length coding), um die abgetasteten Bilddaten in der zweiten Bildkodierungsphase zu kodieren; wobei in Reaktion darauf, dass das Empfängermodul den Empfang der Eingangs-Bilddaten in der ersten Bildkodierungsphase beendet, der JPEG-Unterencoder die empfangenen Eingangs-Bilddaten in dem Speicher speichert und das JPEG-Steuersignal an das FDCT-Modul sendet; in Reaktion auf das JPEG-Steuersignal, das FDCT-Modul die empfangenen Eingangs-Bilddaten aus dem Speicher ausliest, die empfangenen Eingangs-Bilddaten in transformierte JPEG-Daten transformiert, die transformierten JPEG-Daten in dem Speicher speichert und das DCT-Steuersignal an den JPEG-Unterencoder sendet; und in Reaktion auf das DCT-Steuersignal der Quantisierer die transformierten JPEG-Daten aus dem Speicher ausliest, die transformierten JPEG-Daten quantisiert, quantisierte JPEG-Daten erzeugt und die quantisierten JPEG-Daten an die Zickzack-Abtasteinrichtung sendet, in Reaktion auf den Empfang der quantisierten JPEG-Daten die Zickzack-Abtasteinrichtung die quantisierten JPEG-Daten abtastet, die abgetasteten Bilddaten erzeugt und die abgetasteten Bilddaten an die VLC-Einrichtung sendet; und in Reaktion auf den Empfang der abgetasteten Bilddaten die VLC-Einrichtung die abgetasteten Bilddaten kodiert, um die zweite Bildkodierungsphase der Kodierung der Eingangs-Bilddaten zu beendet.
  12. Vorrichtung nach einem der Ansprüche 9 bis 11, Vorrichtung nach einem der vorhergehenden Ansprüche, wobei der Speicher ein 8x8-Speicherarray (48) ist.
  13. Vorrichtung zur Dekodierung von Video-/Bilddaten, um Ausgangs-Video-/Bilddaten zu dekodieren, mit: einem MPEG-Unterdecoder (424), um die Ausgangs-Videodaten in einer ersten Videodekodierungsphase und einer zweiten Videodekodierungsphase zu dekodieren; einem JPEG-Unterdecoder (144), um die Ausgangs-Bilddaten in einer ersten Bilddekodierungsphase und einer zweiten Bilddekodierungsphase zu dekodieren; einem IDCT-Modul (464) (inverse diskrete Kosinus-Transformation), um die Ausgangs-/Video-/Bilddaten zu transformieren; und einem Speicher (48), der mit dem MPEG-Unterdecoder (424), dem JPEG-Unterdecoder (144) und dem IDCT-Modul (464) verbunden ist; wobei in Reaktion darauf, dass der MPEG/JPEG-Unterdecoder die erste Video-Bilddekodierungsphase der Dekodierung der Ausgangs-Video-/Bilddaten beendet, der MPEG/JPEG-Unterdecoder erste MPEG/JPEG-dekodierte Daten in dem Speicher speichert und das MPEG/JPEG-Steuersignal an das IDCT-Modul sendet; in Reaktion auf das MPEG/JPEG-Steuersignal das IDCT-Modul die ersten MPEG/JPEG-dekodierten Daten aus dem Speicher ausliest, die ersten MPEG/JPEG-dekodierten Daten in transformierte MPEG/JPEG-Daten transformiert, die transformierten MPEG/JPEG-Daten in dem Speicher speichert und das DCT-Steuersignal an den MPEG/JPEG-Unterdecoder sendet; und in Reaktion auf das DCT-Steuersignal der MPEG/JPEG-Unterdecoder die transformierten MPEG/JPEG-Daten aus dem Speicher ausliest und die zweite Video-/Bilddekodierungsphase der Dekodierung der Ausgangs-Video-/Bilddaten ausführt.
  14. Vorrichtung nach Anspruch 13, wobei der MPEG-Unterdecoder (424) umfasst: einen Decoder (4243) zur variablen Längendekodierung (VLD; variable length decoder), um die Ausgangs-Videodaten zu dekodieren und VLD-dekodierte Daten in der ersten Videodekodierungsphase zu erzeugen; eine Invers-Abtasteinrichtung (4245), um die VLD-dekodierten Daten abzutasten und abgetastete Videodaten in der ersten Videodekodierungsphase zu erzeugen; einen Dequantisierer (4247), um die abgetasteten Videodaten zu dequantisieren und dequantisierte Videodaten in der ersten Videodekodierungsphase zu erzeugen; eine Bewegungskompensationseinrichtung (4248), um die transformierten MPEG-Daten zu kompensieren und kompensierte MPEG-Daten in der zweiten Videodekodierungsphase zu erzeugen; und ein Ausgabemodul (4249), um die kompensierten MPEG-Daten in der zweiten Videodekodierungsphase auszugeben; wobei in Reaktion darauf, dass der Dequantisierer die abgetasteten Daten dequantisiert und die dequantisierten Videodaten in der ersten Videodekodierungsphase erzeugt, der MPEG-Unterdecoder die dequantisierten Videodaten in dem Speicher speichert und das MPEG-Steuersignal an das IDCT-Modul sendet; in Reaktion auf das MPEG-Steuersignal das IDCT-Modul die dequantisierten Videodaten aus dem Speicher ausliest, die dequantisieren Videodaten in transformierte MPEG-Daten transformiert, die transformierten MPEG-Daten in dem Speicher speichert und das DCT-Steuersignal an den MPEG-Unterdecoder sendet; und in Reaktion auf das DCT-Steuersignal die Bewegungskompensationseinrichtung die transformierten MPEG-Daten aus dem Speicher ausliest, die transformierten MPEG-Daten kompensiert und die kompensierten MPEG-Daten erzeugt und das Ausgabemodul die kompensierten MPEG-Daten in der zweiten Videodekodierungsphase ausgibt.
  15. Vorrichtung nach Anspruch 13 oder 14, wobei der JPEG-Unterdecoder (144) umfasst: einen variablen Längendekoder (VLD; variable-length decoder) (4443), um die Ausgangs-Bilddaten zu dekodieren und VLD-dekodierte Daten in der ersten Bilddekodierungsphase zu erzeugen; eine Invers-Abtasteinrichtung (4445), um die VLD-dekodierten Daten abzutasten und abgetastete Bilddaten in der ersten Bilddekodierungsphase zu erzeugen; einen Dequantisierer (4447), um die abgetasteten Bilddaten zu dequantisieren und dequantisierte Bilddaten in der ersten Bilddekodierungsphase zu erzeugen; und ein Ausgabemodul (4449), um die transformierten JPEG-Daten in der zweiten Bilddekodierungsphase auszugeben; wobei in Reaktion darauf, dass der Dequantisierer die abgetasteten Bilddaten dequantisiert und die dequantisierten Bilddaten in der ersten Videodekodierungsphase erzeugt, der JPEG-Unterdecoder die dequantisierten Bilddaten in dem Speicher speichert und das JPEG-Steuersignal an das IDCT-Modul sendet; in Reaktion auf das JPEG-Steuersignal das IDCT-Modul die dequantisierten Bilddaten aus dem Speicher ausliest, die dequantisierten Bilddaten in transformierte JPEG-Daten transformiert, die transformierten JPEG-Daten in dem Speicher speichert und das DCT-Steuersignal an den JPEG-Unterdecoder sendet; und in Reaktion auf das DCT-Steuersignal das Ausgabemodul die transformierten JPEG-Daten aus dem Speicher ausliest und die transformierten JPEG-Daten in der zweiten Videodekodierungsphase ausgibt.
  16. Vorrichtung nach einem der Ansprüche 13 bis 15, wobei der Speicher ein 8x8-Speicherarray (48) ist.
  17. Elektronisches Gerät zur Verarbeitung von Eingangs-/Ausgangs-Video-/Bilddaten, mit: einer Video-/Bildverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 8.
  18. Elektronisches Gerät nach Anspruch 17, weiterhin umfassend eine Anzeige zum Anzeigen der Ausgangs-Video-/Bilddaten.
  19. Elektronisches Gerät nach Anspruch 17 oder 18, wobei es sich bei dem elektronischen Gerät um einen DVD-Player, einen DVD-Recorder, eine Digitalkamera, ein Mobiltelefon oder einen Computer handelt.
  20. Verfahren zur Verarbeitung von Video-/Bilddaten, um Eingangs-/Ausgangs-Video-/Bilddaten zu verarbeiten, mit den Schritten: Verarbeiten (S50) der Eingangs-/Ausgangs-Video-/Bilddaten und Erzeugen von ersten MPEG/JPEG-verarbeiteten Daten in einer ersten Video-/Bildverarbeitungsphase mit Hilfe eines MPEG/JPEG-Untersystems (31, 32; 42, 44); Speichern (S51) der ersten MPEG/JPEG-verarbeiteten Daten in einem Speicher (34; 48) durch das MPEG/JPEG-Untersystem; Senden (S52) eines MPEG/JPEG-Steuersignals an ein DCT-Untersystem (33; 46) durch das MPEG/JPEG-Untersystem; Lesen (S53) der ersten MPEG/JPEG-verarbeiteten Daten aus dem Speicher durch das DCT-Untersystem; Transformieren (S54) der ersten MPEG/JPEG-verarbeiteten Daten in transformierte MPEG/JPEG-Daten durch das DCT-Untersystem; Speichern (S55) der transformierten MPEG/JPEG-Daten in dem Speicher durch das DCT-Steuersystem; Senden (S56) eines DCT-Steuersignals an das MPEG/JPEG-Untersystem durch das DCT-Untersystem; Lesen (S57) der transformierten MPEG/JPEG-Daten aus dem Speicher durch das MPEG/JPEG-Untersystem; und Verarbeiten (S58) der transformierten MPEG/JPEG-Daten in einer zweiten Video-/Bildverarbeitungsphase durch das MPEG/JPEG-Untersystem.
  21. Verfahren nach Anspruch 20, bei dem das Video-/Bildverarbeitungsverfahren einen Video-/Bildkodierungsprozess umfasst, das MPEG/JPEG-Untersystem (42, 44) einen MPEG/JPEG-Unterencoder (422, 442) umfasst und das DCT-Untersytem (46) ein FDCT-Modul (462) (vorwärts gerichtete diskrete Kosinus-Transformation) umfasst, wobei der Video-/Bildkodierungsprozess die folgenden Schritte umfasst: Kodieren (S60) der Eingangs-Video-/Bilddaten und Erzeugen von ersten MPEG/JPEG-kodierten Daten in einer ersten Video-/Bildkodierungsphase durch den MPEG/JPEG-Unterencoder (422, 442); Speichern (S61) der ersten MPEG/JPEG-kodierten Daten in dem Speicher (48) durch den MPEG/JPEG-Unterencoder; Senden (S62) des MPEG/JPEG-Steuersignals an das FDCT-Modul (464) durch den MPEG/JPEG-Unterencoder; Lesen (S63) der ersten MPEG/JPEG-kodierten Daten aus dem Speicher durch das FDCT-Modul; Transformieren (S64) der ersten MPEG-JPEG-kodierten Daten in transformierte MPEG/JPEG-Daten durch das FDCT-Modul; Speichern (S65) der transformierten MPEG/JPEG-Daten in dem Speicher durch das FDCT-Modul; Senden (S66) des DCT-Steuersignals an den MPEG/JPEG-Unterencoder durch das FDCT-Modul; Lesen (S67) der transformierten MPEG/JPEG-Daten aus dem Speicher durch den MPEG/JPEG-Unterencoder; und Kodieren (S68) der Eingangs-Video-/Bilddaten in einer zweiten Video-/Bildkodierungsphase durch den MPEG/JPEG-Unterencoder.
  22. Verfahren nach Anspruch 21, wobei der MPEG-Unterencoder (422) ein Empfängermodul (4221), eine Bewegungsschätzungseinrichtung (4222), einen Quantisierer (4223), eine Zickzack-Abtasteinrichtung (4225) und eine Einrichtung (4227) für eine variable Längenkodierung (VCL; variable-length coding) umfasst und wobei der Videokodierungsprozess die folgenden Schritte umfasst: die Eingangs-Videodaten werden in der ersten Videokodierungsphase von dem Empfängermodul empfangen; die Eingangs-Videodaten werden abgeschätzt und die geschätzten Videodaten werden in der ersten Videokodierungsphase mit Hilfe der Bewegungsschätzungseinrichtung erzeugt; die geschätzten Videodaten werden von dem MPEG-Unterencoder in dem Speicher gespeichert; das MPEG-Steuersignal wird von dem MPEG-Unterencoder an das FDCT-Modul gesendet; die geschätzten Videodaten werden von dem FDCT-Modul aus dem Speicher ausgelesen; die geschätzten Videodaten werden durch das FDCT-Modul in transformierte MPEG-Daten transformiert; die transformierten MPEG-Daten werden von dem FDCT-Modul in dem Speicher gespeichert; das DCT-Steuersignal wird von dem FDCT-Modul an den MPEG-Unterencoder gesendet; die transformierten MPEG-Daten werden in der zweiten Videokodierungsphase von dem Quantisierer aus dem Speicher ausgelesen; die transformierten MPEG-Daten werden quantisiert und die quantisierten MPEG-Daten werden in der zweiten Videokodierungsphase von dem Quantisierer erzeugt; die quantisierten MPEG-Daten werden in der zweiten Videokodierungsphase von dem Quantisierer an die Zickzack-Abtasteinrichtung gesendet; die quantisierten MPEG-Daten werden abgetastet und die abgetasteten Videodaten werden in der zweiten Videokodierungsphase von der Zickzack-Abtasteinrichtung erzeugt; die abgetasteten Videodaten werden in der zweiten Videokodierungsphase von der Zickzack-Abtasteinrichtung an die VLC-Einrichtung gesendet; und die abgetasteten Videodaten werden in der zweiten Videokodierungsphase von der VLC-Einrichtung kodiert.
  23. Verfahren nach Anspruch 21 oder 22, wobei der JPEG-Unterencoder (442) ein Empfängermodul (4421), einen Quantisierer (4423), eine Zickzack-Abtasteinrichtung (4425) und eine Einrichtung (4427) zur variablen Längenkodierung (VCL) umfasst und wobei der Bildkodierungsprozess die folgenden Schritte umfasst: die Eingangs-Bilddaten werden in der ersten Bildkodierungsphase von dem Empfängermodul empfangen; die Eingangs-Bilddaten werden von dem JPEG-Unterencoder in dem Speicher gespeichert; das JPEG-Steuersignal wird von dem JPEG-Unterencoder an das FDCT-Modul gesendet; die empfangenen Eingangs-Bilddaten werden von dem FDCT-Modul aus dem Speicher ausgelesen; die empfangenen Eingangs-Bilddaten werden von dem FDCT-Modul in transformierte JPEG-Daten transformiert; die transformierten JPEG-Daten werden von dem FDCT-Modul in dem Speicher gespeichert; das DCT-Steuersignal wird von dem FDCT-Modul an den JPEG-Unterencoder gesendet; die transformierten JPEG-Daten werden in der zweiten Bildkodierungsphase von dem Quantisierer aus dem Speicher ausgelesen; die transformierten JPEG-Daten werden quantisiert und die quantisierten JPEG-Daten werden in der zweiten Bildkodierungsphase von dem Quantisierer erzeugt; die quantisierten JPEG-Daten werden in der zweiten Bildkodierungsphase von dem Quantisierer an die Zickzack-Abtasteinrichtung gesendet; die quantisierten JPEG-Daten werden abgetastet und die abgetasteten Bilddaten werden in der zweiten Bildkodierungsphase von der Zickzack-Abtasteinrichtung erzeugt; die abgetasteten Bilddaten werden in der zweiten Bildkodierungsphase von der Zickzack-Abtasteinrichtung an die VLC-Einrichtung gesendet; und die abgetasteten Bilddaten werden in der zweiten Bildkodierungsphase von der VLC-Einrichtung codiert.
  24. Verfahren nach einem der Ansprüche 20 bis 23, welches Video-/Bildverarbeitungsverfahren einen Video-/Bilddekodierungsprozess umfasst, wobei das MPEG/JPEG-Untersystem (42, 44) einen MPEG/JPEG-Unterdecoder (424, 144) umfasst und das DCT-Untersystem (46) ein IDCT-Modul (464) (inverse diskrete Kosinus-Transformation) umfasst, wobei der Video-/Bilddekodierungsprozess die folgenden Schritte umfasst: Dekodieren (S70) der Ausgangs-Video-/Bilddaten und Erzeugen von ersten MPEG/JPEG-dekodierten Daten in einer ersten Video-/Bilddekodierungsphase durch den MPEG/JPEG-Unterdecoder (424, 144); Speichern (S71) der ersten MPEG/JPEG-dekodierten Daten in dem Speicher durch den MPEG/JPEG-Unterdecoder; Senden (S72) des MPEG/JPEG-Steuersignals an das IDCT-Modul durch den MPEG/JPEG-Unterdecoder; Auslesen (S73) der ersten MPEG/JPEG-dekodierten Daten aus dem Speicher durch das IDCT-Modul; Transformieren (S74) der ersten MPEG/JPEG-dekodierten Daten in transformierte MPEG/JPEG-Daten, und zwar mit Hilfe des IDCT-Moduls; Speichern (S75) der transformierten MPEG/JPEG-Daten in dem Speicher durch das IDCT-Modul; Senden (S76) des DCT-Steuersignals an den MPEG/JPEG-Unterdecoder durch IDCT-Modul; Auslesen (S77) der tranformierten MPEG/JPEG-Daten aus dem Speicher durch den MPEG/JPEG-Unterdecoder; und Dekodieren (S78) der Ausgangs-Video-/Bilddaten in einer zweiten Video-/Bilddekodierungsphase mit Hilfe des MPEG/JPEG-Unterdecoders.
  25. Verfahren nach Anspruch 24, wobei der MPEG-Unterdecoder (424) eine Einrichtung (4243) zur variablen Längendekodierung (VLD; variable-length decoding), eine Invers-Abtasteinrichtung (4245), einen Dequantisierer (4247), eine Bewegungskompensationseinrichtung (4248) und ein Ausgabemodul (4249) umfasst, und wobei der Videodekodierungsprozess die folgenden Schritte umfasst: die Ausgangs-Videodaten werden kodiert und in der ersten Videodekodierungsphase werden von der VLD-Einrichtung VLD-dekodierte Daten erzeugt; die VLD-dekodierten Daten werden in der ersten Videodekodierungsphase durch die VLD-Einrichtung an die Invers-Abtasteinrichtung gesendet; die VLD-dekodierten Daten werden abgetastet und in der ersten Videodekodierungsphase werden von der Invers-Abtasteinrichtung abgetastete Videodaten erzeugt; die abgetasteten Videodaten werden in der ersten Videodekodierungsphase durch die Invers-Abtasteinrichtung an den Dequantisierer gesendet; die abgetasteten Videodaten werden dequantisiert und in der ersten Videodekodierungsphase werden von dem Dequantisierer dequantisierte Videodaten erzeugt; die dequantisierten Videodaten werden von dem MPEG-Unterdecoder in dem Speicher gespeichert; das MPEG-Steuersignal wird von dem MPEG-Unterdecoder an das IDCT-Modul gesendet; die dequantisierten Videodaten werden von dem IDCT-Modul aus dem Speicher ausgelesen; die dequantisierten Videodaten werden von dem IDCT-Modul in transformierte MPEG-Daten transformiert; die transformierten MPEG-Daten werden von dem IDCT-Modul in dem Speicher gespeichert; das DCT-Steuersignal wird von dem IDCT-Modul an den MPEG-Unterdecoder gesendet; die transformierten MPEG-Daten werden in der zweiten Videodekodierungsphase von der Bewegungskompensierungseinrichtung aus dem Speicher ausgelesen; die transformierten MPEG-Daten werden kompensiert und die kompensierten MPEG-Daten werden in der zweiten Video-Dekodierungsphase von der Bewegungskompensationseinrichtung erzeugt; und die kompensierten MPEG-Daten werden in der zweiten Videodekodierungsphase von dem Ausgabemodul ausgegeben.
  26. Verfahren nach Anspruch 24 oder 25, wobei der JPEG-Unterdecoder (144) eine Einrichtung (4443) zur variablen Längendekodierung (VLD; variable-length decoding), eine Invers-Abtasteinrichtung (4445), einen Dequantisierer (4447) und ein Ausgabemodul (4449) umfasst, und wobei der Bilddekodierungsprozess die folgenden Schritte umfasst: die Ausgangs-Bilddaten werden kodiert und in der ersten Bilddekodierungsphase werden von der VLD-Einrichtung VLD-dekodierte Daten erzeugt; die VLD-dekodierten Daten werden in der ersten Bilddekodierungsphase von der VLD-Einrichtung an die Invers-Abtasteinrichtung gesendet; die VLD-dekodierten Daten werden abgetastet und in der ersten Bilddekodierungsphase werden von der Invers-Abtasteinrichtung abgetastete Bilddaten erzeugt; die abgetasteten Bilddaten werden in der ersten Bilddekodierungsphase von der Invers-Abtasteinrichtung an den Dequantisierer gesendet; die abgetasteten Bilddaten werden dequantisiert und in der ersten Bilddekodierungsphase werden von dem Dequantisierer dequantisierte Bilddaten erzeugt; die dequantisierten Bilddaten werden von dem JPEG-Unterdecoder in dem Speicher gespeichert; das JPEG-Steuersignal wird von dem JPEG-Unterdecoder an das IDCT-Modul gesendet; die dequantisierten Bilddaten werden von dem IDCT-Modul aus dem Speicher ausgelesen; die dequantisierten Bilddaten werden von dem IDCT-Modul in transformierte JPEG-Daten transformiert; die transformierten JPEG-Daten werden von dem IDCT-Modul in dem Speicher gespeichert; das DCT-Steuersignal wird von dem IDCT-Modul an den JPEG-Unterdecoder gesendet; die transformierten JPEG-Daten werden in der zweiten Bilddekodierungsphase von dem JPEG-Unterdecoder aus dem Speicher ausgelesen; und die JPEG-Daten werden in der zweiten Bilddekodierungsphase von dem Ausgabemodul ausgegeben.
  27. Verfahren nach einem der Ansprüche 20 bis 26, wobei der Speicher ein 8x8 Speicherarray ist.
  28. Verfahren zur Kodierung von Video-/Bilddaten, um Eingangs-Video-/Bilddaten zu kodieren, mit den Schritten: Kodieren (S60) der Eingangs-Video-/Bilddaten und Erzeugen von ersten MPEG/JPEG-kodierten Daten in einer ersten Video-/Bildkodierungsphase durch den MPEG/JPEG-Unterencoder (422, 442); Speichern (S61) der ersten MPEG/JPEG-kodierten Daten in dem Speicher (48) durch den MPEG/JPEG-Unterencoder; Senden (S62) des MPEG/JPEG-Steuersignals an das FDCT-Modul (464) durch den MPEG/JPEG-Unterencoder; Lesen (S63) der ersten MPEG/JPEG-kodierten Daten aus dem Speicher durch das FDCT-Modul; Transformieren (S64) der ersten MPEG-JPEG-kodierten Daten in transformierte MPEG/JPEG-Daten durch das FDCT-Modul; Speichern (S65) der transformierten MPEG/JPEG-Daten in dem Speicher durch das FDCT-Modul; Senden (S66) des DCT-Steuersignals an den MPEG/JPEG-Unterencoder durch das FDCT-Modul; Lesen (S67) der transformierten MPEG/JPEG-Daten aus dem Speicher durch den MPEG/JPEG-Unterencoder; und Kodieren (S68) der Eingangs-Video-/Bilddaten in einer zweiten Video-/Bildkodierungsphase durch den MPEG/JPEG-Unterencoder.
  29. Verfahren nach Anspruch 28, wobei der MPEG-Unterencoder (422) ein Empfängermodul (4221), eine Bewegungsschätzungseinrichtung (4222), einen Quantisierer (4223), eine Zickzack-Abtasteinrichtung (4225) und eine Einrichtung (4227) für eine variable Längenkodierung (VCL; variable-length coding) umfasst und wobei der Videokodierungsprozess die folgenden Schritte umfasst: die Eingangs-Videodaten werden in der ersten Videokodierungsphase von dem Empfängermodul empfangen; die Eingangs-Videodaten werden abgeschätzt und die geschätzten Videodaten werden in der ersten Videokodierungsphase mit Hilfe der Bewegungsschätzungseinrichtung erzeugt; die geschätzten Videodaten werden von dem MPEG-Unterencoder in dem Speicher gespeichert; das MPEG-Steuersignal wird von dem MPEG-Unterencoder an das FDCT-Modul gesendet; die geschätzten Videodaten werden von dem FDCT-Modul aus dem Speicher ausgelesen; die geschätzten Videodaten werden durch das FDCT-Modul in transformierte MPEG-Daten transformiert; die transformierten MPEG-Daten werden von dem FDCT-Modul in dem Speicher gespeichert; das DCT-Steuersignal wird von dem FDCT-Modul an den MPEG-Unterencoder gesendet; die transformierten MPEG-Daten werden in der zweiten Videokodierungsphase von dem Quantisierer aus dem Speicher ausgelesen; die transformierten MPEG-Daten werden quantisiert und die quantisierten MPEG-Daten werden in der zweiten Videokodierungsphase von dem Quantisierer erzeugt; die quantisierten MPEG-Daten werden in der zweiten Videokodierungsphase von dem Quantisierer an die Zickzack-Abtasteinrichtung gesendet; die quantisierten MPEG-Daten werden abgetastet und die abgetasteten Videodaten werden in der zweiten Videokodierungsphase von der Zickzack-Abtasteinrichtung erzeugt; die abgetasteten Videodaten werden in der zweiten Videokodierungsphase von der Zickzack-Abtasteinrichtung an die VLC-Einrichtung gesendet; und die abgetasteten Videodaten werden in der zweiten Videokodierungsphase von der VLC-Einrichtung kodiert.
  30. Verfahren nach Anspruch 28 oder 29, wobei der JPEG-Unterencoder (442) ein Empfängermodul (4421), einen Quantisierer (4423), eine Zickzack-Abtasteinrichtung (4425) und eine Einrichtung (4427) zur variablen Längenkodierung (VCL) umfasst und wobei der Bildkodierungsprozess die folgenden Schritte umfasst: die Eingangs-Bilddaten werden in der ersten Bildkodierungsphase von dem Empfängermodul empfangen; die Eingangs-Bilddaten werden von dem JPEG-Unterencoder in dem Speicher gespeichert; das JPEG-Steuersignal wird von dem JPEG-Unterencoder an das FDCT-Modul gesendet; die empfangenen Eingangs-Bilddaten werden von dem FDCT-Modul aus dem Speicher ausgelesen; die empfangenen Eingangs-Bilddaten werden von dem FDCT-Modul in transformierte JPEG-Daten transformiert; die transformierten JPEG-Daten werden von dem FDCT-Modul in dem Speicher gespeichert; das DCT-Steuersignal wird von dem FDCT-Modul an den JPEG-Unterencoder gesendet; die transformierten JPEG-Daten werden in der zweiten Bildkodierungsphase von dem Quantisierer aus dem Speicher ausgelesen; die transformierten JPEG-Daten werden quantisiert und die quantisierten JPEG-Daten werden in der zweiten Bildkodierungsphase von dem Quantisierer erzeugt; die quantisierten JPEG-Daten werden in der zweiten Bildkodierungsphase von dem Quantisierer an die Zickzack-Abtasteinrichtung gesendet; die quantisierten JPEG-Daten werden abgetastet und die abgetasteten Bilddaten werden in der zweiten Bildkodierungsphase von der Zickzack-Abtasteinrichtung erzeugt; die abgetasteten Bilddaten werden in der zweiten Bildkodierungsphase von der Zickzack-Abtasteinrichtung an die VLC-Einrichtung gesendet; und die abgetasteten Bilddaten werden in der zweiten Bildkodierungsphase von der VLC-Einrichtung codiert.
  31. Verfahren nach einem der Ansprüche 28 bis 30, wobei der Speicher (48) ein 8x8 Speicherarray ist.
  32. Verfahren zur Dekodierung von Video-/Bilddaten, um Ausgangs-Video-/Bilddaten zu dekodieren, mit den Schritten: Dekodieren (S70) der Ausgangs-Video-/Bilddaten und Erzeugen von ersten MPEG/JPEG-dekodierten Daten in einer ersten Video-/Bilddekodierungsphase durch den MPEG/JPEG-Unterdecoder (424, 144); Speichern (S71) der ersten MPEG/JPEG-dekodierten Daten in dem Speicher durch den MPEG/JPEG-Unterdecoder; Senden (S72) des MPEG/JPEG-Steuersignals an das IDCT-Modul durch den MPEG/JPEG-Unterdecoder; Auslesen (S73) der ersten MPEG/JPEG-dekodierten Daten aus dem Speicher durch das IDCT-Modul; Transformieren (S74) der ersten MPEG/JPEG-dekodierten Daten in transformierte MPEG/JPEG-Daten, und zwar mit Hilfe des IDCT-Moduls; Speichern (S75) der transformierten MPEG/JPEG-Daten in dem Speicher durch das IDCT-Modul; Senden (S76) des DCT-Steuersignals an den MPEG/JPEG-Unterdecoder durch IDCT-Modul; Auslesen (S77) der tranformierten MPEG/JPEG-Daten aus dem Speicher durch den MPEG/JPEG-Unterdecoder; und Dekodieren (S78) der Ausgangs-Video-/Bilddaten in einer zweiten Video-/Bilddekodierungsphase mit Hilfe des MPEG/JPEG-Unterdecoders.
  33. Verfahren nach Anspruch 32, wobei der MPEG-Unterdecoder (424) eine Einrichtung (4243) zur variablen Längendekodierung (VLD; variable-length decoding), eine Invers-Abtasteinrichtung (4245), einen Dequantisierer (4247), eine Bewegungskompensationseinrichtung (4248) und ein Ausgabemodul (4249) umfasst, und wobei der Videodekodierungsprozess die folgenden Schritte umfasst: die Ausgangs-Videodaten werden kodiert und in der ersten Videodekodierungsphase werden von der VLD-Einrichtung VLD-dekodierte Daten erzeugt; die VLD-dekodierten Daten werden in der ersten Videodekodierungsphase durch die VLD-Einrichtung an die Invers-Abtasteinrichtung gesendet; die VLD-dekodierten Daten werden abgetastet und in der ersten Videodekodierungsphase werden von der Invers-Abtasteinrichtung abgetastete Videodaten erzeugt; die abgetasteten Videodaten werden in der ersten Videodekodierungsphase durch die Invers-Abtasteinrichtung an den Dequantisierer gesendet; die abgetasteten Videodaten werden dequantisiert und in der ersten Videodekodierungsphase werden von dem Dequantisierer dequantisierte Videodaten erzeugt; die dequantisierten Videodaten werden von dem MPEG-Unterdecoder in dem Speicher gespeichert; das MPEG-Steuersignal wird von dem MPEG-Unterdecoder an das IDCT-Modul gesendet; die dequantisierten Videodaten werden von dem IDCT-Modul aus dem Speicher ausgelesen; die dequantisierten Videodaten werden von dem IDCT-Modul in transformierte MPEG-Daten transformiert; die transformierten MPEG-Daten werden von dem IDCT-Modul in dem Speicher gespeichert; das DCT-Steuersignal wird von dem IDCT-Modul an den MPEG-Unterdecoder gesendet; die transformierten MPEG-Daten werden in der zweiten Videodekodierungsphase von der Bewegungskompensierungseinrichtung aus dem Speicher ausgelesen; die transformierten MPEG-Daten werden kompensiert und die kompensierten MPEG-Daten werden in der zweiten Video-Dekodierungsphase von der Bewegungskompensationseinrichtung erzeugt; und die kompensierten MPEG-Daten werden in der zweiten Videodekodierungsphase von dem Ausgabemodul ausgegeben.
  34. Verfahren nach Anspruch 32 oder 33, wobei der JPEG-Unterdecoder (144) eine Einrichtung (4443) zur variablen Längendekodierung (VLD; variable-length decoding), eine Invers-Abtasteinrichtung (4445), einen Dequantisierer (4447) und ein Ausgabemodul (4449) umfasst, und wobei der Bilddekodierungsprozess die folgenden Schritte umfasst: die Ausgangs-Bilddaten werden kodiert und in der ersten Bilddekodierungsphase werden von der VLD-Einrichtung VLD-dekodierte Daten erzeugt; die VLD-dekodierten Daten werden in der ersten Bilddekodierungsphase von der VLD-Einrichtung an die Invers-Abtasteinrichtung gesendet; die VLD-dekodierten Daten werden abgetastet und in der ersten Bilddekodierungsphase werden von der Invers-Abtasteinrichtung abgetastete Bilddaten erzeugt; die abgetasteten Bilddaten werden in der ersten Bilddekodierungsphase von der Invers-Abtasteinrichtung an den Dequantisierer gesendet; die abgetasteten Bilddaten werden dequantisiert und in der ersten Bilddekodierungsphase werden von dem Dequantisierer dequantisierte Bilddaten erzeugt; die dequantisierten Bilddaten werden von dem JPEG-Unterdecoder in dem Speicher gespeichert; das JPEG-Steuersignal wird von dem JPEG-Unterdecoder an das IDCT-Modul gesendet; die dequantisierten Bilddaten werden von dem IDCT-Modul aus dem Speicher ausgelesen; die dequantisierten Bilddaten werden von dem IDCT-Modul in transformierte JPEG-Daten transformiert; die transformierten JPEG-Daten werden von dem IDCT-Modul in dem Speicher gespeichert; das DCT-Steuersignal wird von dem IDCT-Modul an den JPEG-Unterdecoder gesendet; die transformierten JPEG-Daten werden in der zweiten Bilddekodierungsphase von dem JPEG-Unterdecoder aus dem Speicher ausgelesen; und die JPEG-Daten werden in der zweiten Bilddekodierungsphase von dem Ausgabemodul ausgegeben.
  35. Verfahren nach einem der Ansprüche 32 bis 34, wobei der Speicher (48) ein 8x8 Speicherarray ist.
  36. Vorrichtung zur Verarbeitung von Video-/Bilddaten mit: einem Speicher (34; 48), um erste verarbeitete Daten, zweite verarbeitete Daten, gemäß einer diskreten Kosinus-Transformation transformierte Daten und gemäß einer inversen diskreten Kosinus-Transformation transformierte Daten zu speichern. einem MPEG-Untersystem (31; 42), um eine MPEG-Kodierung/Dekodierung in Entsprechung zu ersten Eingangsdaten und zu gemäß einer diskreten Kosinus-Transformation transformierten Daten zu verarbeiten, um die ersten verarbeiteten Daten und ein erstes Triggersignal zu erzeugen und um die ersten verarbeiteten Daten in dem Speicher in Reaktion auf den Empfang eines ersten Freigabesignals abzuspeichern; einem JPEG-Untersystem (32; 44), um eine JPEG-Kodierung/Dekodierung in Entsprechung zu zweiten Eingangsdaten und zu gemäß einer diskreten Kosinus-Transformation transformierten Daten zu verarbeiten, um die zweiten verarbeiteten Daten und ein zweites Triggersignal zu erzeugen und um die zweiten verarbeiteten Daten in dem Speicher in Reaktion auf den Empfang eines zweiten Freigabesignals zu speichern; und einem DCT-Modul (33; 46), das mit dem MPEG-Untersystem und dem JPEG-Untersystem verbunden ist, um die ersten verarbeiteten Daten in Entsprechung zu dem ersten Triggersignal in gemäß einer diskreten Kosinus-Transformation transformierte Daten oder in gemäß einer inversen diskreten Kosinus-Transformation transformierte Daten zu transformieren, um die zweiten verarbeiteten Daten in Entsprechung zu dem zweiten Triggersignal entweder in gemäß einer diskreten Kosinus-Transformation transformierte Daten oder in die gemäß einer inversen diskreten Kosinus-Transformation transformierte Daten zu transformieren, und um ein Ausgangssignal des DCT-Moduls in dem Speicher zu speichern.
  37. Vorrichtung nach Anspruch 36, weiterhin umfassend einen Prozessor (41), um das erste Freigabesignal und das zweite Freigabesignal bereit zu stellen.
  38. Vorrichtung nach Anspruch 36 oder 37, wobei das MPEG-Untersystem (42) umfasst: eine Bewegungsschätzungseinrichtung (4222), die aus den ersten Eingangsdaten eine Abschätzungsinformation (estimation information) erzeugt und mit dem DCT-Modul (462) verbunden ist; einen Quantisierer (4223), der mit der Bewegungsschätzungseinrichtung verbunden ist; eine Abtasteinrichtung (4225), die mit dem Quantisierer verbunden ist; eine Einrichtung (4227) für eine variable Längenkodierung, die mit der Abtasteinrichtung verbunden ist; einen Sende-Pufferspeicher (4229), der mit der Einrichtung zur variablen Längenkodierung verbunden ist, um komprimierte Daten zu speichern; einen Empfänger-Pufferspeicher (4241), um die komprimierten Daten bereit zu stellen; eine Einrichtung (4243) zur variablen Längendekodierung, die mit dem Empfänger-Pufferspeicher verbunden ist; eine Invers-Abtasteinrichtung (4245), die mit der Einrichtung zur variablen Längendekodierung verbunden ist, einen Dequantisierer (4247), der mit der Invers-Abtasteinrichtung verbunden ist; und einen Bewegungskompensationsprozessor (4248), der mit dem Dequantisierer verbunden ist, um ein Anzeigebild zu erzeugen.
  39. Vorrichtung nach einem der Ansprüche 36 bis 38, wobei das JPEG-Untersystem (44) umfasst: einen Quantisierer (4423), der mit dem Speicher (48) verbunden ist; eine Abtasteinrichtung (4425), die mit dem Quantisierer verbunden ist; eine Einrichtung (4427) zur variablen Längenkodierung, die mit der Abtasteinrichtung verbunden ist; einen Sende-Pufferspeicher (4429), der mit der Einrichtung zur variablen Längenkodierung verbunden ist, um komprimierte Daten zu speichern; einen Empfänger-Pufferspeicher (4441), um die komprimierten Daten bereit zu stellen; eine Einrichtung (4443) zur variablen Längendekodierung, die mit dem Empfänger-Pufferspeicher verbunden ist; eine Invers-Abtasteinrichtung (4445), die mit der Einrichtung zur variablen Längendekodierung verbunden ist; und einen Dequantisierer (4447), der mit der Invers-Abtasteinrichtung verbunden ist.
  40. Vorrichtung nach einem der Ansprüche 36 bis 39, wobei das MPEG-Untersystem (42) umfasst: eine Bewegungsschätzungseinrichtung (4222), die die ersten verarbeiteten Daten, das erste Triggersignal zum Triggern des DCT-Moduls und eine Abschätzungsinformation aus den ersten Eingangsdaten erzeugt und die ersten verarbeiteten Daten in dem Speicher speichert; einen Quantisierer (4223), um die gemäß der diskreten Kosinus-Transformation transformierten Daten zu quantisieren, um quantisierte Daten zu erzeugen und um die quantisierten Daten in dem Speicher zu speichern; eine Abtasteinrichtung (4225), um die quantisierten Daten in dem Speicher zu speichern und um die quantisierten Daten in eine serielle Folge von Daten zu transformieren; eine Einrichtung (4227) zur variablen Längenkodierung, für eine variable Längenkodierung der seriellen Folge von Daten, um komprimierte Daten zu erzeugen; und einen Sende-Pufferspeicher (4229), der mit der Einrichtung zur variablen Längenkodierung verbunden ist, um die komprimierten Daten zu speichern.
  41. Vorrichtung nach einem der Ansprüche 36 bis 40, wobei das MPEG-Untersystem (42) umfasst: einen Pufferspeicher (4241), um komprimierte Daten bereitzustellen; eine Einrichtung (4243) zur variablen Längendekodierung, um die komprimierten Daten mit variabler Länge zu dekodieren, um eine serielle Folge von Daten zu erzeugen; eine Invers-Abtasteinrichtung (4245), um die serielle Folge von Daten in quantisierte Daten zu transformieren und die quantisierten Daten in dem Speicher zu speichern; einen Dequantisierer (4247), um auf die quantisierten Daten zuzugreifen, die quantisierten Daten in die ersten verarbeiteten Daten zu dequantisieren, die ersten verarbeiteten Daten in dem Speicher zu speichern und das erste Triggersignal zum Triggern des DCT-Moduls zu erzeugen; und einen Bewegungskompensationsprozessor (4248), um auf die gemäß einer inversen diskreten Kosinus-Transformation transformierten Daten zuzugreifen und ein Anzeigebild zu erzeugen.
  42. Vorrichtung nach Anspruch 36, wobei das MPEG-Untersystem (42) umfasst, ein Mittel (4241), um komprimierte Daten bereit zu stellen; ein Mittel (4243), um die komprimierten Daten mittels einer variablen Längedkodierung zu dekodieren, um eine serielle Folge von Daten zu erzeugen; ein Mittel (4223) um die serielle Folge von Daten in quantisierte Daten zu transformieren und die quantisierten Daten in dem Speicher zu speichern; ein Mittel (4247), um auf die quantisierten Daten zuzugreifen, die quantisierten Daten in die ersten verarbeiteten Daten zu dequantisierten, die ersten verarbeiteten Daten in dem Speicher zu speichern und das erste Triggersignal zum Triggern des DCT-Moduls zu erzeugen; und ein Mittel (4249), um auf die gemäß der inversen diskreten Kosinus-Transformation transformierten Daten zuzugreifen und ein Anzeigebild zu erzeugen.
  43. Vorrichtung nach einem der Ansprüche 36 bis 42, wobei das JPEG-Untersystem (44) umfasst: einen Quantisierer (4423), um die gemäß der diskreten Kosinus-Transformation transformierten Daten zu quantisieren, quantisierte Daten zu erzeugen und die quantisierten Daten in dem Speicher zu speichern; eine Abtasteinrichtung (4425), um die quantisierten Daten in dem Speicher abzutasten und die quantisierten Daten in eine serielle Folge von Daten zu transformieren; eine Einrichtung (4427) zur variablen Längenkodierung, um die serielle Folge von Daten mittels einer variablen Längenkodierung zu kodieren, um komprimierte Daten zu erzeugen; und einen Sende-Pufferspeicher (4429), der mit der Einrichtung (4427) zur variablen Längenkodierung verbunden ist, um die komprimierten Daten zu speichern.
  44. Vorrichtung nach einem der Ansprüche 36 bis 42, wobei das JPEG-Untersystem (44) umfasst: ein Mittel (4423), um die gemäß der diskreten Kosinus-Transformation transformierten Daten zu quantisieren, quantisierte Daten zu erzeugen und die quantisierten Daten in dem Speicher zu speichern; ein Mittel (4425), um die quantisierten Daten in dem Speicher abzutasten und die quantisierten Daten in eine serielle Folge von Daten zu transformieren; eine Mittel (4427), um die serielle Folge von Daten mittels einer variablen Längenkodierung zu kodieren, um komprimierte Daten zu erzeugen; und ein Mittel (4429), um die komprimierten Daten zu speichern.
  45. Vorrichtung nach einem der Ansprüche 36 bis 42, wobei das JPEG-Untersystem (44) umfasst: einen Empfänger-Pufferspeicher (4441), um komprimierte Daten bereit zu stellen; eine Einrichtung (4443) für eine variable Längendekodierung, um die komprimierten Daten mittels einer variablen Längendekodierung zu dekodieren, um eine serielle Folge von Daten zu erzeugen; eine Invers-Abtasteinrichtung (4445), um die serielle Folge von Daten in quantisierte Daten zu transformieren und die quantisierten Daten in dem Speicher zu speichern; einen Dequantisierer (4447), um auf die quantisierten Daten zuzugreifen, die quantisierten Daten in die zweiten verarbeiteten Daten zu dequantisieren, die zweiten verarbeiteten Daten in dem Speicher zu speichern und das zweite Triggersignal zum Triggern des DCT-Moduls zu erzeugen, um ein Anzeigebild zu erzeugen.
  46. Vorrichtung nach einem der Ansprüche 36 bis 42, wobei das JPEG-Untersystem (44) umfasst: ein Mittel (4441) zum Bereitstellen von komprimierten Daten; ein Mittel (4443) für eine variable Längendekodierung, um die komprimierten Daten mittels der variablen Längendekodierung zu dekodieren und eine serielle Folge von Daten zu erzeugen; ein Mittel (4445), um die serielle Folge von Daten in quantisierte Daten zu transformieren und die quantisierten Daten in dem Speicher zu speichern; ein Mittel (4447), um auf die quantisierten Daten zuzugreifen, die quantisierten Daten in die zweiten verarbeiteten Daten zu dequantisieren, die zweiten verarbeiteten Daten in dem Speicher zu speichern und das zweite Triggersignal zum Trigger des DCT-Moduls zu erzeugen, um ein Anzeigebild zu erzeugen.
  47. Vorrichtung nach einem der Ansprüche 36 bis 46, wobei der Speicher ein Speicherarray ist.
  48. Vorrichtung nach einem der Ansprüche 36 bis 47, wobei die Abtasteinrichtung die quantisierten Daten in dem Speicher gemäß einem Zickzack-Abtastmuster abtastet.
DE102005040026A 2004-11-15 2005-08-23 Vorrichtung und Verfahren zur Verarbeitung von Video-/Bilddaten Ceased DE102005040026A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/988,936 2004-11-15
US10/988,936 US20060104351A1 (en) 2004-11-15 2004-11-15 Video/image processing devices and methods

Publications (1)

Publication Number Publication Date
DE102005040026A1 true DE102005040026A1 (de) 2006-05-24

Family

ID=36313929

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005040026A Ceased DE102005040026A1 (de) 2004-11-15 2005-08-23 Vorrichtung und Verfahren zur Verarbeitung von Video-/Bilddaten

Country Status (4)

Country Link
US (1) US20060104351A1 (de)
CN (1) CN1777285A (de)
DE (1) DE102005040026A1 (de)
TW (1) TWI279144B (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006254319A (ja) * 2005-03-14 2006-09-21 Toshiba Corp 映像出力装置及び映像出力方法
JP2007329903A (ja) * 2006-05-11 2007-12-20 Matsushita Electric Ind Co Ltd 可変長復号化装置、可変長復号化方法および撮像システム
JP2008131569A (ja) * 2006-11-24 2008-06-05 Sony Corp 画像情報伝送システム、画像情報送信装置、画像情報受信装置、画像情報伝送方法、画像情報送信方法、画像情報受信方法
CN101207818B (zh) * 2006-12-20 2010-08-11 普诚科技股份有限公司 数据转换装置
US7932843B2 (en) * 2008-10-17 2011-04-26 Texas Instruments Incorporated Parallel CABAC decoding for video decompression
US20110135198A1 (en) * 2009-12-08 2011-06-09 Xerox Corporation Chrominance encoding and decoding of a digital image
TWI391877B (zh) * 2009-12-24 2013-04-01 Univ Nat Taiwan Science Tech 相連元件標記方法及其電腦系統
EP2397953B1 (de) * 2010-06-15 2019-02-20 Accenture Global Services Limited Computerimplementiertes Verfahren, Computerprogrammprodukt und eingebettetes System zur wirksameren Anzeige von Daten
TWI501649B (zh) * 2011-05-31 2015-09-21 Jvc Kenwood Corp 影像訊號處理裝置及方法
JP5942463B2 (ja) * 2012-02-17 2016-06-29 株式会社ソシオネクスト オーディオ信号符号化装置およびオーディオ信号符号化方法
JP5994367B2 (ja) * 2012-04-27 2016-09-21 富士通株式会社 動画像符号化装置、動画像符号化方法
US9621905B2 (en) 2012-06-29 2017-04-11 Qualcomm Incorporated Tiles and wavefront parallel processing
US20140192266A1 (en) * 2013-01-04 2014-07-10 Qualcomm Incorporated Method and apparatus of reducing compression noise in digital video streams
US10547491B2 (en) * 2017-08-28 2020-01-28 Genband Us Llc Transcoding with a vector processing unit

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05308622A (ja) * 1992-04-28 1993-11-19 Mitsubishi Electric Corp 画像符号化・復号化装置
US5649077A (en) * 1994-03-30 1997-07-15 Institute Of Microelectronics, National University Of Singapore Modularized architecture for rendering scaled discrete cosine transform coefficients and inverse thereof for rapid implementation
JP3703195B2 (ja) * 1995-03-27 2005-10-05 ヒューレット・パッカード・カンパニー カラー画像伝送装置
US5793658A (en) * 1996-01-17 1998-08-11 Digital Equipment Coporation Method and apparatus for viedo compression and decompression using high speed discrete cosine transform
JPH1131137A (ja) * 1997-07-11 1999-02-02 Nec Corp レジスタファイル
EP0982950A3 (de) * 1998-08-24 2004-09-29 Sony Corporation Elektronische Videokamera mit MPEG Kodierer
KR100313217B1 (ko) * 1998-12-23 2001-12-28 서평원 파이프라인dct장치
US7142251B2 (en) * 2001-07-31 2006-11-28 Micronas Usa, Inc. Video input processor in multi-format video compression system
US7149360B2 (en) * 2002-01-09 2006-12-12 Hewlett-Packard Development Company, L.P. Method for using a JPEG engine to assist in efficiently constructing MPEG I-frames
US7254272B2 (en) * 2003-08-21 2007-08-07 International Business Machines Corporation Browsing JPEG images using MPEG hardware chips
TWI297994B (en) * 2005-12-08 2008-06-11 Inst Information Industry Encoder, method for adjusting decoding calculation, and computer readable record medium therefor

Also Published As

Publication number Publication date
TWI279144B (en) 2007-04-11
TW200616457A (en) 2006-05-16
US20060104351A1 (en) 2006-05-18
CN1777285A (zh) 2006-05-24

Similar Documents

Publication Publication Date Title
DE102005040026A1 (de) Vorrichtung und Verfahren zur Verarbeitung von Video-/Bilddaten
DE60305325T2 (de) System und verfahren zur ratenverzerrungsoptimierten datenpartitionierung zur videocodierung unter verwendung von rückwärtsadaption
DE69813911T2 (de) VERFAHREN ZUR BESTIMMUNG VON BEWEGUNGSVEKTORFELDERN MIT LOKALER BEWEGUNGSSCHäTZUNG
DE69116869T2 (de) Digitale bildkodierung mit einer zufallsabtastung der bilder
DE19702048C2 (de) Skalierbarer Videocodierer gemäß MPEG2-Standard
DE69913990T2 (de) System zum editieren komprimierter bildsequenzen
DE69824554T2 (de) Verfahren und anordnung zum erzeugen eines standbildes mit hoher auflösung
DE69815922T2 (de) Verfahren und Vorrichtung zur prädiktiven Bildkodierung und -dekodierung
US6597739B1 (en) Three-dimensional shape-adaptive wavelet transform for efficient object-based video coding
US8098947B2 (en) Method and apparatus for processing image data by rearranging wavelet transform data
DE69838729T2 (de) Verfahren und vorrichtung zur verringerung des benötigten speicherplatzes zur speicherung von referenzbildern in einem videodekoder
US7876976B2 (en) Method and apparatus for resizing images using discrete cosine transform
EP1995971A1 (de) Verfahren und vorrichtung zur realisierung von quantisierung beim codieren/decodieren
DE19755345C2 (de) Umgekehrtes Abspielen von Videosignalen im MPEG-Standard
DE10248019A1 (de) Verfahren der adaptiven Codierung und Decodierung von bewegten Bildern und Apparat dafür
CN111901596B (zh) 基于深度学习的视频混合编码与解码方法及装置、介质
US8331454B2 (en) Integer transform function for video compression systems
DE69915843T2 (de) Teilbandkodierung/-dekodierung
US6795504B1 (en) Memory efficient 3-D wavelet transform for video coding without boundary effects
DE102020125206A1 (de) Verfahren und system zur mehrkanalvideocodierung mit frameratenänderung und kanalübergreifender referenzierung
Richter et al. JPEG-XS—A high-quality mezzanine image codec for video over IP
DE69126525T2 (de) Digitale bildverarbeitung mit filterung der blockkanten
US20140037012A1 (en) Integer transform video compression system, method and computer program product
DE102005051723A1 (de) Vorrichtung und Verfahren zur Bildverarbeitung
DE19819405B4 (de) Implementation eines reversiblen eingebetteten Wavelet-Systems

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8128 New person/name/address of the agent

Representative=s name: 2K PATENTANWAELTE BLASBERG KEWITZ & REICHEL, PARTN

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final

Effective date: 20120626