DE69328686T2 - Bewegungskompensierte aufhebung des zwischenzeilenverfahrens mit digitalem unterstützungssignal - Google Patents

Bewegungskompensierte aufhebung des zwischenzeilenverfahrens mit digitalem unterstützungssignal

Info

Publication number
DE69328686T2
DE69328686T2 DE69328686T DE69328686T DE69328686T2 DE 69328686 T2 DE69328686 T2 DE 69328686T2 DE 69328686 T DE69328686 T DE 69328686T DE 69328686 T DE69328686 T DE 69328686T DE 69328686 T2 DE69328686 T2 DE 69328686T2
Authority
DE
Germany
Prior art keywords
interleaved
image frames
sequence
frame
modes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69328686T
Other languages
English (en)
Other versions
DE69328686D1 (de
Inventor
Dimitris Anastassiou
Kristian Jensen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Columbia University in the City of New York
Original Assignee
Columbia University in the City of New York
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Columbia University in the City of New York filed Critical Columbia University in the City of New York
Publication of DE69328686D1 publication Critical patent/DE69328686D1/de
Application granted granted Critical
Publication of DE69328686T2 publication Critical patent/DE69328686T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/007Systems with supplementary picture signal insertion during a portion of the active part of a television signal, e.g. during top and bottom lines in a HDTV letter-box system

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Systems (AREA)

Description

    Hintergrund der Erfindung
  • Die vorliegende Erfindung betrifft die Verwendung von Hilfssignalen für verbesserte Bildauflösung beim "Enhanced Definition Television" ("EDTV").
  • Derzeitige US-amerikanische Fernsehübertragungssignale entsprechen dem vom National Television System Committee (NTSC) augearbeiteten Standard, der 525 horizontale Abtastlinien, ein 4-3-Bildschirm-Seitenverhältnis und die Zuteilung einer Bandbreite von 6 MHz pro Kommunikationskanal vorsieht. Dieser Standard fordert ferner die alternierende Übertragung der ungeraden und geraden Abtastlinien.
  • Im Vergleich zu z. B. 35 mm-Filmbildern produzieren Übertragungen auf der Basis des NTSC-Standards Bilder mit geringerer Detailauflösung und einem weniger ansprechenden Seitenverhältnis, wobei Ähnliches für einen in anderen Teilen der Welt verwendeten Standard des Fernsehens herkömmlicher Auflösung namens PAL (Phase Alternation Line) gilt. Angesichts dieser Unzulänglichkeiten und zur Verbesserung der Qualität aktueller Fernsehbilder wurden Vorschläge betreffend einen neuen Standard für das so genannte hochauflösende Fernsehen (HDTV) mit größerer vertikaler und horizontaler Auflösung gemacht. Praktikable vorgeschlagene Systeme sind inkompatibel für den Empfang durch derzeit verwendete Empfänger. Als Alternative wurden Systeme vorgeschlagen, die mit aktuellen Empfängernormen kompatibel sind und einen Hilfskanal geringer Bandbreite für Zusatzinformationen verwenden, um die Qualität derzeitiger Übertragungen zu steigern. Obwohl solche Systeme in der Literatur manchmal als HDTV bezeichnet werden, sollte man sie eher EDTV nennen, da sie als Zwischenstufe zur Einführung von HDTV angesehen werden können.
  • Die folgenden Publikationen sind als Hintergrund für das Gebiet von HDTV/EDTV zu sehen:
  • US-Patent 4.916.525 (veröffentlicht am 10. April 1990, J.E. Drummond) offenbart ein System, in dem komprimierte vertikal auflösungsverbessernde Bilddaten während des vertikalen Zeilenrücklaufintervalls eines NTSC-Fernsehsignals übertragen werden. Ein in geeigneter Weise ausgestatteter Empfänger kann die komprimierten Bilddaten dekomprimieren und zu den normalen Bilddaten des NTSC-Signals zusätzliche Datenzeilen als Zwischenzeilen hinzufügen. In einem nicht so ausgerüsteten Empfänger werden die hinzugefügten Daten einfach ignoriert.
  • US-Patent 4.967.263 (veröffentlicht am 30. Oktober 1990, C.B. Dieterich), US-Patent 4.926.244 (veröffentlicht am 15. Mai 1990, M.A. Isnardi) und die Arbeit von M.A. Isnardi et al. mit dem Titel "Encoding for Compatibility and Recoverability in the ACTV System", IEEE Transactions on Broadcasting, Bd. BC-33 (1987), S. 116-123; sowie die Arbeit von S.N. Baron et al. mit dem Titel "An Evolutionary Approach to Advanced Television Services: The ACTV (Advanced Compatible Television) System" offenbaren jeweils ein NTSC-kompatibles Vierkomponenten-Breitschirm-EDTV-Übertragungsformat, in dem die erste Komponente das Seitenverhältnis und die Bandbreitenspezifikationen eines Standard-NTSC-Signals aufweist und in dem die anderen drei Komponenten neue Information enthalten, die zur ersten Komponente in kompatibler Weise hinzugefügt wird, um ein breiteres Seitenverhältnis und verbesserte Auflösung zu erzielen. Der Sender fügt komprimierte hochfrequente Komponenten der Seitenteilinformation und horizontalen auflösungsverbessernden Information in einen Bandbreitenabschnitt ein, der dem Chrominanzsignal zugewiesen ist, und liefert auch ein vertikal-momentanes Hilfssignal im Basisband, das vom EDTV-Empfänger zu verwenden ist, um das empfangene Signal zu entflechten. Das vertikal-momentane Hilfssignal besteht aus der Differenz zwischen einem berechneten Durchschnittwert und dem tatsächlichen Wert der fehlenden fortlaufenden Abtastlinie.
  • US-Patent 4.980.764, veröffentlicht am 25. Dezember 1990 (J.M Henot), offenbart die Verwendung eines Hilfssignals bei der Übertragung von Bildblöcken und Superblöcken.
  • B. Girod et al., "Motion-compensating Field Interpolation from Interlaced and Noninterlaced Grids", 2nd international technical Symposium On Optical and Electro-optical Applied Science and Engineering: Image Processing Symposium, Cannes, Dezember 1985, S. 1-8, offenbaren die bewegungskompensierte Interpolation nicht-verschachtelter und verschachtelter Raster zur Minimierung von Verschwimmen und Ruckeln.
  • M. Pecot et al., "Compatible Coding of Television Images, Part 1: Coding Algorithm", Image Communication Journal (Sonderheft über HDTV", S. 1-18, offenbaren die Optimierung von Bandteilungs- und Zerlegungsfiltern beim Subband-Codieren von hochauflösender Bildinformation.
  • G.W. Meeker, "High Definition and High Frame Rate Compatible N.T.S.C. Broadcast Television System", IEEE Transactions on Broadcasting, Bd. 34 (1988), S. 313-322, offenbart ein hochauflösendes Breitschirm-Fernsehsystem, das mit dem aktuellen NTSC- System kompatibel ist. Der Sender fügt die horizontale Auflösung verbessernde Information in die Bandbreite ein, die für das Chrominanzsignal vorgesehen ist, und liefert innerhalb der NTSC-Bandbreite Bewegungsvektoren, die vom Empfänger für das bewegungskompensierte Entflechten zu verwenden sind, um die vertikale Auflösung zu verbessern.
  • T. Fukinuki et al., "Extended Definition TV Fully Compatible with Existing Standards", IEEE Transactions of Communications, Bd. COM-32 (1984), S. 948-953, und T. Fukinuki et al., "Extended-Definition TV Fully Compatible with Existing Standards - Proposals and Experimental Results, 1984 Winter TV Conference, S. 354-367, offenbaren ein EDTV-System, das mit bestehenden NTSC- oder PAL-Standards kompatibel ist. Die horizontale Auflösung wird durch den Sender verbessert, der hochauflösende Helligkeitskomponenten in ungenutzte Abschnitte der Bandbreite einfügt, die dem Chrominanzsignal zugeteilt ist. Die hochauflösenden Komponenten werden bei einem entsprechend ausgestatteten Empfänger durch Feld-zu-Fefd-Verarbeitung detektiert.
  • W. F. Schreiber et al., ",,A Compatible High-Definition Television System Using the Noise-Margin Method of Hiding Enhancement Information", SMPTE Journal, Dezember 1989, S. 873-879, offenbaren ein NTSC-empfängerkompatibles EDTV-System, in dem digitale audio- und horizontale Auflösung verbessernde Information durch den Sender in überschüssige Chrominanzbandbreite eingefügt wird.
  • IEEE Transcations on Consumer Electronics, Bd. 35, Nr. 3, 1. August 1989, S. 266-270, XP000065820 Norihiro Suzuki et al., "Improved Synthetic Motion Signal for Perfect Motion-adaptive Pro-scan Conversion in IDTV-Receivers", zeigt eine bewegungsadaptive Abtastungsumwandlung, worin eine Bewegungsdetektion erfolgt und ein synthetisches Bewegungssignal, das Bereiche mit Bewegung identifiziert, dem übertragenen Signal hinzugefügt wird.
  • Zusammenfassung der Erfindung
  • In einem bevorzugten EDTV-VErfahren wird ein Hilfssignal erzeugt und übertragen, damit ein in geeigneter Weise ausgestatteter Empfänger aus einer Anzahl vorbestimmter Entflechtungsmodi wählen kann. Das Hilfssignal wird beim Sender erzeugt und zeigt auf der Basis einer Analayse eines Rahmens vor der Übertragung den besten Entflechtungsmodus an. Der Modus stellt Interpolationsoptionen zur Abschätzung von Linien dar, die in einem aktuellen verschachtelten Bildfeld fehlen, wodurch vertikale Auflösung verbessert wird. Beispielsweise können Optionen wie folgt vorbestimmt sein: (1) Interpolation innerhalb des Rahmens, (2) Verwendung von Information aus einem vorangehenden Rahmen, (3) Verwendung von Information aus einem nachfolgenden Rahmen, (4) Kombinieren/Mitteln der Ergebnisse von (1) und (2) sowie (5) Kombinieren/Mitteln der Ergebnisse von (1) und (3). Vorzugsweise werden Interpolationsoptionen auf Blockbasis abgeleitet und mit codierten Bewegungsvektoren übertragen, die komprimiert sein können, um die vorhandene Bandbreite bestmöglich zu nutzen.
  • Günstigerweise wird das Hilfssignal in verschachtelungskompatiblem Format übertragen, um den Empfang eines, herkömmlichen Signals durch derzeit verwendete Empfänger nicht zu beeinflussen. Beispielsweise kann das Hilfssignal innerhalb der vertikalen und/oder horizontalen Austastlücken einer verschachtelten NTSC- oder PAL- Fernsehübertragung übertragen werden.
  • Kurze Erklärung der Abbildungen
  • Fig. 1 ist ein Blockdiagramm eines EDTV-Systems gemäß einer bevorzugten Ausführungsform der Erfindung;
  • Fig. 2 ist ein Blockdiagramm eines Rahmencodierers, der im EDTV-System von Fig. 1 enthalten ist;
  • Fig. 3 ist ein Blockdiagramm eines Hilfsstreamcodierers, der im Rahmencodierer von Fig. 2 enthalten ist;
  • Fig. 4 ist ein Blockdiagramm eines Bestmodusgenerators, der im Rahmencodierer von Fig. 2 enthalten ist;
  • Fig. 5 ist ein Blockdiagramm eines im EDTV-System von Fig. 1 enthaltenen Rahmendecoders;
  • Fig. 6 ist ein Blockdiagramm eines im Rahmendecoder von Fig. 5 enthaltenen Hilfsstreamdecoders;
  • Fig. 7 ist ein Blockdiagramm eines Blockmultiplexing- und Mittlungssubsystems, das im Rahmendecoder von Fig. 5 enthalten ist;
  • Fig. 8A ist ein Diagramm der im MPEG-Codierprozess verwendeten Abtastreihenfolge;
  • Fig. 8B ist ein Diagramm, das eine Abtastreihenfolge für die blocksegmentierte Bewegung darstellt; und
  • Fig. 9 ist eine experimentell erhaltene Codiertabelle.
  • Ausführliche Beschreibung 1. Sender
  • In der oberen Hälfte von Fig. 1 ist schematisch ein Beispiel für einen Sender in einem System gemäß einer bevorzugten. Ausführungsform der Erfindung dargestellt. Im Sender befinden sich eine fortlaufende Bildquelle 101, ein Verschachtelungsmittel 102, eine Feldverzögerungseinheit 103, ein Rahmencodierer 2 und eine Übertragungseinheit 104.
  • Die fortlaufende Bildquelle 101 (z. B. eine fortlaufende Abtastkamera) produziert eine digitalisierte fortlaufende Bildsequenz, über der Codiervorgänge durchgeführt werden sollen. Typischerweise kann das Digitalisieren im Fall einer fortlaufenden Abtastkamera durch interne Analog-Digital-Umwandlung (A/D-Umwandlung) erfolgen. In anderen Fällen, z. B. bei der Übertragung von Filmen, kann ein getrennter Digitalisierer verwendet werden. Die fortlaufende Bildquelle sorgt ferner für die Zerlegung von Bildern in drei Bildkomponenten Q, I und Y, d. h. zwei Chrominanzkomponenten (Q und I) und eine Helligkeitskomponente (Y) eines Bilds.
  • Die funktionale Notation wird im Folgenden für Zeitbezüge verwendet. Die jeweiligen Bezüge bestehen zu einer aktuellen Rahmenzeit t, einer vorhergehenden Rahmenzeit t-1 und zu einer nachfolgenden Rahmenzeit t+1. Das Verschachtelungsmittel 102 wandelt die zwei fortlaufenden Chrominanzrahmen Q(t+1) und I(T+1) in korrespondierende verschachtelte Felder Qi(t+1) und Ii(t+1) zur Übertragung um. Da das Verschachteln eines digitalisierten fortlaufenden Rahmens einfach das Fallenlassen entweder der ungeraden und geraden Linien (auf der Basis eines alternierenden Rahmens) umfasst, kann das Verschachtelungsmittel 102 wirkungsvoll als 2-zu-1- Demultiplexer unter der Steuerung eines alternierenden Zählers ausgebildet sein.
  • Die Feldverzögerungseinheit 103 dient der verzögerten Kopplung, d. h. sie erzeugt Felddaten Qi(t) und Ii(t) an ihrem Ausgang, wenn Felddaten Qi(t+1) und Ii(t+1) ihrem Eingang zugeführt werden. Gegebenenfalls kann die Feldverzögerungseinheit 103 als Paar getrennter Einzelfeldverzögerungseinheiten für die Bildkomponenten Q und I ausgebildet sein.
  • Während die Felder Qi(t) und Ii(t) wie oben isoliert sind, erzeugt der Rahmencodierer 2 das verschachtelte Helligkeitsfeld Yi(t) und den korrespondierenden digitalen Hilfsstream C(t) (siehe unten), wobei als Eingang der fortlaufende Helligkeitsrahmen Y(t+1) herangezogen wird. Auf diese Weise basiert der digitale Hilfsstream günstigerweise nur auf der Helligkeitskomponente, sodass er dem Wiederaufbau aller drei Bildkomponenten dient.
  • Sobald die verschachtelten Dreikomponentenfelder getrennt wurden und der korrespondierende digitale Hilfsstream erzeugt wurde, gelangen die resultierenden vier Komponenten Qi(t), Ii(t), Yi(t) und C(t) zur Übertragungseinheit 104, z. B. zur Übertragung an Empfänger. Für eine mit existierenden Fernsehausstrahlungen kompatible Übertragung müssen die Komponenten Qi(t), Ii(t) und Yi(t) durch einen D/A-Wandler in analoge Form umgewandelt werden. Der Hilfsstream C(t) kann über eine Vielzahl verfügbarer Hilfskanäle geringer Bandbreite übertragen werden. Vorzugsweise wird C(t) z. B. in die vertikale oder horizontale Austastlücke derzeit verwendeter verschachtelter Übertragungssignale gesetzt, sodass verschachtelte Standardempfänger durch die Gegenwart zusätzlicher Information nicht beeinflusst werden. Auf diese Weise wird Kompatibilität mit aktuellen Übertragungen beibehalten und keine zusätzliche Bandbreite aufgebraucht.
  • Es wurde geschätzt, dass derzeit die Codierung digitaler Hilfsinformation in Austastlücken zu einer Hilfsbitrate von 1,0 bis 1,35 Mb/s führen kann; Siehe F.W.P. Vreeswijk et al., "An HD-MAC Coding System", in: L. Chiariglione, Hg., Signal Processing of HDTV, S. 137-143, Elsevier Science Publishers, B.V. (North Holland), 1988, und Y. Ninomiya et al., "An HDTV Broadcasting System Utilizing a Bandwidth Compression Technique - MUSE", IEEE Transactions on Broadcasting, BC-33(4), S. 130-160, Dezember 1987. Technologische Fortschritte können in Zukunft zu einer Erhöhung dieser Werte führen.
  • 2. Rahmencodierer
  • Fig. 2 zeigt einen Rahmencodierer zur Erzeugung des digitalen Hilfsstreams C(t) und zur Abtrennung des Helligkeitsfelds Yi(t) für verschachtelte Übertragung. Nur die Helligkeit Y(t+1) ist als Eingang für den Rahmencodierprozess erforderlich. Der Rahmencodierer enthält den Feldtrenner 201, die Feldverzögerungseinheiten 202 und 203, den Interpolator 204, die Rahmenverzögerungseinheiten 208 und 210, das Vorwärtsblockübereinstimmungsmittel 205, das Rückwärtsblockübereinstimmungsmittel 211, den Bestmodusgenerator 4 und den Hilfsstreamcodierer 3.
  • Der Feldtrenner 201 teilt den fortlaufenden Rahmen Y(t+1) in seine ungeraden und geraden Komponentenfelder, sodass die fortlaufende Sequenz Y in die verschachtelte Sequenz Yi für die Übertragung und die verschachtelte Sequenz Yi zur Verwendung beim Erzeugen von Hilfsdaten umgewandelt wird. Die verschachtelte Sequenz Yi alterniert zwischen den ungeraden und den geraden Feldern von Y von Rahmen zu Rahmen. Yi hingegen alterniert zwischen den geraden und ungeraden Feldern von Y. Der Feldtrenner 201 kann mit einem Multiplexer unter Verwendung eines alternierenden Zählers zur Steuerung ausgebildet sein, um die ungeraden und geraden Felder mit der Feldverzögerungseinheit 202 und dem Interpolator 204 zu verknüpfen. Wenn Yc(t+1) und Yi(t+1) zu jeweiligen Feldverzögerungseinheiten 202 und 203 übertragen werden, wird Yi(t) zur Übertragung weitergeleitet. Die Rahmenverzögerungseinheiten 208 und 210 dienen zur Pufferung der fortlaufenden Rahmen Y*(t) und Y*(t-1) zur späteren Verwendung.
  • Beim Ausgang der Feldverzögerungseinheit 202 wird Yc(t) gleichzeitig dem Vorwärtsblockübereinstimmungsmittel 205 und dem Rückwärtsblockübereinstimmungsmittel 211 zur Blockübereinstimmung mit den jeweiligen interpolierten Rahmen Y*(t+1) und Y*(t-1) zugeführt, die vom Interpolator 204 und der Rahmenverzögerungseinheit 210 bereitgestellt werden. In einem Ausführungsbeispiel ist der Interpolator 204 als bilinearer Interpolator ausgebildet; andere möglicherweise nichtlineare Interpolationsmittel können stattdessen verwendet werden.
  • Für jeden Block von Pixeln in Yc(t) findet die Blockübereinstimmung den korrespondierenden Block im interpolierten Rahmen Y*, der bei der Suche in einem vordefinierten Bereich, z. B. einem Quadrat oder Rechteck, mit dem jeweiligen Block sehr genau übereinstimmt. Für die gefundenen Vorwärts- und Rückwärtsübereinstimmungen errechnet das Blockübereinstimmungsmittel einen jeweiligen Bewegungsvektor und Ausgänge des Vorwärtsbewegungsvektors für beste Übereinstimmungen (fmv) und des Rückwärtsbewegungsvektors für beste Übereinstimmungen (bmv). Die Blockübereinstimmungsmittel 205 und 211 übertragen auch die jeweiligen besten Übereinstimmungsblöcke f und b zum Bestmodusgenerator 4, wo Fehlervergleiche stattfinden. Beispielsweise verfolgt die Blockübereinstimmung das Ziel, die beste Annäherung für jeden Block von Yc(t) so präzise wie möglich zu bestimmen, um den Empfänger zu informieren, wo die jeweils beste Übereinstimmung für das Entflechten des derzeitigen Rahmens Y nur unter Verwendung der am Empfangsende zur Verfügung stehenden Bildinformation zu finden ist. Die Annäherungen b und f werden nicht an den Empfänger übertragen. Da Yc(t) verschachtelt ist und daher jede zweite Linie fehlt, umfasst die Übereinstimmugn eines K-über-L-Blocks Gruppen von nur K·L/2-Pixeln.
  • In einer Ausführungsform erfolgt die Suche nach Blockübereinstimmung über einem Quadrat, z. B. mit -7 bis +8 Pixelverschiebungen in beiden Bildrichtungen, was zur Erzeugung eines 8-Bit-Bewegungsvektors für jede beste Übereinstimmung führt. Wie aus Fig. 2 ersichtlich, kann jedes Blockübereinstimmungsmittel 205 und 211 Schaltungen zur Übereinstimmung bei unterschiedlichen Blockgrößen, z. B. 16 · 16-, 8 · 8- und 4 · 4- Blöcken, enthalten. Die oben besprochene Blockübereinstimmung ist im Bereich der Bildverarbeitung in zahlreichen Anwendungen bekannt. Ein geeignetes Blockübereinstimmungssystem ist in US-Patent 4.897.720 (veröffentlicht am 30. Januar 1990, L. Wu et al.) geoffenbart.
  • Bei der Auswahl des besten Rekonstruktionsmodus werden nur die interpolierten Rahmen Y*(t+1), Y*(t) und Y*(t-1) verwendet, um die Feldlinien jedes Blocks des Felds Yc(t) anzunähern (Rekonstruktionsmodi oder -optionen sind im nachstehenden Teil über den Bestmodusgenerator erläutert.) Bestimmte Entflechtungsmodi und zugehörige Bewegungsvektoren werden durch den Hilfsstreamcodierer 3 codiert, was zur Erzeugung des digitalen Codes C(t) führt. Die Eingänge des Hilfsstreamcodierers 4 sind: Modus (bester Rekonstruktionsmodus), mv (Bewegungsvektor) und err (Übereinstimmungsfehler).
  • 3. Hilfsstreamcodierer
  • Der Hilfsstreamcodierer von Fig. 3 enthält die Sortiereinheiten 301 und 310, den Anfangs-Segmentationsfeldpuffer 302, die Adressiermittel 303 und 307, die Direktzugriffsspeicher (RAM) 304 und 309, den Bewegungs- und Moduscodierer 308, den Resegmentationsfeldpuffer 311, den Sequenzierer 312, den Puffer 313, den Multiplexer 305 und den Hilfsstrompuffer 306:
  • Bei der Erzeugung digitaler Hilfsdaten wird das Sequenzieren durch den Sequenzierer 312 gesteuert. Die bestübereingestimmten Bewegungsvektoren und Modi (über allen Blockgrößen, erzeugt durch den Bestmodusgenerator 4 im Codierer von Fig. 2) werden für späteren Zugriff in RAM 304 geladen. Das RAM 304 muss ausreichend Kapazität aufweisen, um die bestübereingestimmten Modi und Bewegungsvektoren in allen drei Auflösungsmaßstäben, d. h. M·N/256 + M·N/64 + M·N/16 8-Bit-Bewegungsvektoren, und die gleiche Anzahl an Modi zu halten. Bei fünf Modi wie im vorliegenden Beispiel erfordert dies etwa log&sub2;5 ~ 2,32 Bits pro Modus. Die bestübereingestimmten Blockfehler über die 16 · 16- und 8 · 8-Blackauflösungen, err (auch vom Bestmodusgenerator 4 von Fig. 2 erzeugt), werden in die Sortiereinheit 301 sowie in ein RAM 309 geladen, um später verwendet zu werden, wenn Resegmentierung möglich wird. Das RAM 309 muss ausreichende Größe aufweisen, um M·N/256-Übereinstimmungsfehler über die 16 · 16- Blockauflösung zu halten. Die Sortiermittel 301 und 310 können mit einer beliebigen Anzahl verfügbarer rasch sortierender Algorithmen oder digitalen Architekturen versehen sein.
  • Mithilfe von D Bits digitaler Hilfsinformation pro Rahmen und nach Zuteilung eines Bits zu jedem 16 · 16-Block, um anzuzeigen, ob dieser Block in vier korrespondierende 8 · 8- Blöcker "viertelsegmentiert" ist oder nicht, werden anfängliche P-Segmentierungen möglich, worin P die Lösung zu folgender Gleichung ist:
  • D = 42,288 · P + 11,322 · (M · N / 256 - P).
  • Die Konstante 42,288 entspricht der Anzahl an Bits, die erforderlich sind, um ein Segmentationsbit, vier 8-Bit-Bewegungsvektoren und vier Modi anzuzeigen; die Konstante 11,322 entspricht der Anzahl an Bits, die erforderlich sind, um ein Segmentationsbit, einen 8-Bit-Bewegungsvektor und einen Modus anzuzeigen.
  • Die Sortiereinheit 301 findet die P größten Bestübereinstimmungsfehler über die 16 · 16- Blockauflösung und lädt das Bit "1" in den anfänglichen Segmentationsfeldpuffer 302, damit diese Blöcke segmentiert werden, und "0" in alle anderen. Da jedes Bit im Puffer 302 einem 16 · 16-Block in der Rahmensegmentierung entspricht, ist eine Speicherkapazität von M·N/256-Bits erforderlich.
  • Der Inhalt des anfänglichen Segmentationsfeldpuffers 302 wird durch den Multiplexer 305 hindurch unter der Steuerung des Sequenzierers 312 in den Hilfsstreampuffer 306 geladen. Der Puffer 302 kann auch für das indirekte Adressieren der im RAM 304 durch das Adressiermittel 303 gespeicherten Bewegungsvektoren und Modi verwendet werden. Jedes Bit im Puffer 302 entspricht der Position in der RAM-Einheit 304 korrespondierender 16 · 16- und 8 · 8-Blockdaten für einen bestimmten Block von 16 · 16- Pixeln, d. h. jedes Bit ist ein Bezug auf die Information entweder eines 16 · 16-Blocks oder vier 8 · 8-Blöcken, einschließlich Bewegungs- und Modusinformation für einen 16 · 16-Pixel-Bereich im Bildrahmen. Der Sequenzierer 312 leitet dann ein Codierverfahren im Bewegungs- und Moduscodierer 308 ein, d. h. das Huffman-Codieren. Da in Bewegungsvektoren und Rekonstruktionsmodi zwischen benachbarten Blöcken üblicherweise beträchtliche Redundanz besteht, kann günstigerweise eine Kompressionstechnik wie z. B. Differenz-Pulscodemodulation (DPCM) zur Anwendung kommen, um die Anzahl an zur Darstellung des Bewegungsfelds erforderlichen Bits zu reduzieren. Somit wird günstigerweise die Differenz benachbarter Vektoren für die Übertragung codiert.
  • Für das Huffman-Codieren eignen sich die MPEG-1-Standardtabellen, die z. B. in MPEG Video Committee Draft, ISO-IEC/JTC1/SC2/WG11, Coding of Moving Pictures and Associated Audio, Juni 1991, erläutert sind. Im Vergleich zur Abtastreihenfolge des ; uIPEG-Codierprozesses (siehe Fig. 8A) nutzt eine in Fig. 8B dargestellte bevorzugte Abtastreihenfolge die Tatsache aus, dass Bewegung über eine begrenzte "Viertelbaum- Segmentierung" des Bewegungsvektorfelds codiert wird. Die Anwendung anderer geeigneter Codierverfahren ist nicht ausgeschlossen, wobei die Codierung von Modusinformation vorzugsweise unter Bezugnahme auf eine jeweils bedarfsspezifische Codiertabelle (siehe Fig. 9) erfolgen kann. Diese Tabelle wurde auf der Basis einer experimentellen Bestätigung der relativen Häufigkeiten der weiter unten beschriebenen Beispiele für Entflechtmodi (1)-(5) erstellt - die häufiger angewendeten Modi entsprechen kürzeren Wörtern.
  • Die Adressiereinheit 303 sorgt für die Übertragung der relevanten Bewegungsvektoren und Modi der im Anfangs-Segmentierungsfeld angegebenen zu Codierenden Blöcke, wobei die Codierung wie beschrieben über die 16 · 16- und 8 · 8-Blockauflösungen durchgeführt wird. Der erzeugte Code von Bits mit der Länge L wird vorübergehend in der Codiereinrichtung gepuffert, und die Zahl möglicher Resegmentierungen R wird auf der Basis der Länge des resultierenden Codes wie folgt ermittelt: unter der Annahme von D Bits Hilfsdaten pro Rahmen ist eine resultierende Codelänge von L Bits, die ein Segmentationsbit pro (möglicherweise bereits segmentierten) Block erfordert, und ein Code von Bits der Länge L
  • R = (D - L - S)/41,288
  • worin
  • S = 3·P + M·N/256
  • die Zahl an Segmentierungsbits, die zur Anzeige möglicher Resegmentierungen notwendig ist. In diesem Fall kann ein zuvor nicht-segmentierter 16 · 16-Block auf vier 8 · 8-Blöcke reduziert und ein 8 · 8-Block zu vier 4 · 4-Blöcken umgewandelt werden. Die Konstante 41,288 entspricht der Anzahl an Bits, die erforderlich sind, um jeden der vier neuen 8-Bit-Bewegungsvektoren und vier zugehörige Modi darzustellen. P ist die Anzahl anfänglicher Segmentierungen. R wird auf eine ganze Zahl abgerundet und in Puffer 313 verlagert.
  • Wenn R größer als 0 ist, leitet der Sequenzierer 312 die Neusortierung von Übereinstimmungsfehlern durch das Sortiermittel 310 ein. Zu diesem Zeitpunkt kann der Puffer 302 wieder für das indirekte Adressieren der im RAM 309 gespeicherten relevanten Fehler durch das Adressiermittel 307 verwendet werden. Die größten R-Rekonstruktionsfehler über die anfängliche 16 · 16- und 8 · 8-Segmentierung werden lokalisiert und das neue Resegmentierungsfehld in den Resegmentierungsfeldpuffer 311 geladen. Aus Gründen der Effizienz kann das Neusortieren in der Einheit 310 gleichzeitig mit dem Codieren im Bewegungs- und Moduscodierer 308 erfolgen. Der Puffer 311 muss eine Größe von zumindest S Bits aufweisen. Wenn R größer als 0 ist, hängt der Sequenzierer 312 an den Hilfsstreampuffer 306 zunächst ein Markerbit von "1" an (um anzuzeigen, dass Resegmentierung möglich ist und die Kompression der anfänglichen Segmentierung verwendet wird) und als nächstes den Code im Bewegungs- und Moduscodierer 308. Da das im Puffer 302 gespeicherte anfängliche Segmentationsfeld eine fixierte Länge von M·N/256 Bits aufweist, nimmt das Markerbit immer die Bitposition (M·N/256)+ 1 im Hilfsstream ein und kann daher durch den Decoder identifiziert werden. Der Puffer 306 wird dann mit dem Resegmentierungsfeld im Puffer 311 versehen. Schließlich leitet der Sequenzierer 312 die Übertragung relevanter resegmentierter Modi und Bewegungsvektoren aus RAM 304 unter der Steuerung des Adressiermittels 303 ein. Das neu geschaffene Resegmentierungsfeld ist nicht komprimiert.
  • Wen R 0 ist, ist keine Resegmentierung möglich. In diesem Fall bewirkt der Sequenzierer 312, dass das Markerbit "0" an den Puffer 306 angehängt wird; dies zeigt an, dass für diesen Rahmen keine Huffman-Kompression angewendet wird. Schließlich werden die uncodierten Bewegungsvektoren und Modi aus RAM 304 an den Puffer 306 angehängt.
  • 4. Bestmodusgenerator
  • Der Bestmodusgenerator von Fig. 4 enthält Fehlergeneratoreinheiten 401, 402, 403, 406 und 407, Blockmittelungseinheiten 404 und 405 sowie Multiplexer 408 und 409. Die Suche nach dem besten Interpolationsmodus erfolgt auf drei Auflösungsebenen - 4 · 4, 8 · 8 und 16 · 16, z. B. durch drei getrennte Prozessorsubsysteme. Unter Annahme (a) des aktuellen Felds y', das als bestmögliches zu rekonstruieren ist, (b) des bestübereingestimmten Vorwärtsblocks f mit dem zugehörigen Bewegungsvektor fmv, (c) des bestübereingestimmten Rückwärtsblocks b mit dem zugehörigen Bewegungsvektor bmv und (d) des linear interpolierten Nullbewegungsblocks y* produziert der Bestmodusgenerator (i) den Bewegungsvektor mv, (ii) den Modus und (iii) den Fehler err, der mit der besten vorgefundenen Übereinstimmung assoziiert ist. Die jeweiligen Fehlergeneratoreinheiten 403, 401, 402, 406 und 407 dienen dazu, Übereinstimmungsfehler gegen (1) lineare Interpolation innerhalb des Rahmens, (2) die beste Vorwärtsübereinstimmung, (3) die beste Rückwärtsübereinstimmung, (4) die mit linearer Interpolation gemittelte Vorwärtsübereinstimmung und (5) die mit linearer Interpolation gemittelte Rückwärtsübereinstimmung zu rechnen. Andere Fehlergeneratoreinheiten sind möglich, z. B. um Interpolation mit Vorwärs- sowie mit Rückwärtsübereinstimmung vorzusehen. Die Fehler werden nur über jene Pixel berechnet, die nicht übertragen werden. Auf diese Weise wird ein bester Rekonstruktionsmodus für jeden Block nicht übertragener Felddaten auf Blockbasis ermittelt. Blockmittelungseinheiten 404 und 405 dienen dazu, die gemittelten erforderlichen Blöcke zu erzeugen, und können leicht mit einem Zähler und drei mit einem Addierer gekoppelten Blockpuffern versehen werden.
  • Der Multiplexer 408 dient zur Erzeugung eines Modus - je nachdem, welcher seiner Eingänge zum geringsten Übereinstimmungsfehler führte. Alternativ dazu könnte zu diesem Zweck ein Komparator verwendet werden. Das Bestmodussignal ermöglicht es dann dem Multiplexer 409, den Bestübereinstimmungs-Bewegungsvektor wie erforderlich zu passieren. Da eine Interpolation innerhalb des Rahmens keinen Bewegungsvektor erfordert, muss in diesem Fall keiner passiert werden. Der Multiplexer 408 passiert auch den mit dem Bestübereinstimmungsmodus assoziierten Fehler.
  • 5. Empfänger
  • Der in der unteren Hälfte von Fig. 1 gezeigte Empfänger enthält eine Empfangseinheit 105, einen Rahmendecoder 5 und eine fortlaufende Bildanzeige 106. Die Empfangseinheit empfängt die verschachtelten Übertragungsfelder Qi(t), Ii(t), Yi(t) und den Hilfsstream C(t) und sorgt für A/D-Wandlung dieser Komponenten, wenn der Codierprozess mit aktuellen, verschachtelten, analogen Übertragungsstandards vorgenommen wird. In einem Beispiel für ein EDTV-System umfasst dies die Extraktion des Hilfsstreams C(t) aus der vertikalen (und/oder horizontalen) Austastlücke (siehe oben). Alternativ dazu kann auf C(t) durch den zur Übertragung dienenden Hilfskanal zugegriffen werden.
  • Der Rahmendecoder 5 nimmt als Eingang die redigitalisierten, verschachtelten Komponentenfelddaten Qi(t), Ii(t), Yi(t) und den digitalen Hilfsstream C(t) für das Entflechten an, gefolgt von der Erzeugung der forlaufenden Komponentenrahmendaten Qp(t-1), Ip(t-1) und Yp(t-1), die zur Betrachtung der fortlaufenden Bildanzeige 106 zugeführt werden.
  • 6. Rahmendecoder
  • Der Rahmendecoder von Fig. 5 enthält den Interpolator 501, die Rahmenverzögerungseinheiten 502 und 503, die Hilfsstreamverzögerungseinheit 504, den Hilfsstreamdecoder 6 sowie die Blockmultiplex- und Mittelungseinheit 7. Die drei Felder digitalisierter Bilddaten Qi(t), Ii(t) und Yi(t) werden durch den Interpolator 501 geschickt, der den gleichen Interpolationsalgorithmus wie der Rahmencodierer von Fig. 2 implementiert, wodurch die interpolierten Bilddaten rekonstruiert werden, über die das Codieren beim Sender erfolgte. Für die Bildrekonstruktion wird die Interpolation über alle drei Felder durchgeführt, sodass der Interpolator 501 drei räumliche parallel laufende Interpolatoreinheiten repräsentiert. Die resultierenden Interpolationen gelangen durch die Rahmenverzögerungspuffer 502 und 503, wodurch den interpolierten Rahmen Q*(t), I*(t), Y*(t), Q*(t-1), I*(t-1), Y*(t-1), Q*(t-2), I*(t-2) und Y*(t-2) zum Zeitpunkt t-1 Zugriff zur Blockmultiplex- und Mittelungseinheit 7 gewährt wird. Analog zum Interpolator 501 bestehen die Rahmenverzögerungseinheiten 502 und 503 jeweils aus drei individuellen Rahmenpuffern.
  • Der Hilfsstream C(t) wird in der Verzögerungseinheit 504 für eine Zeiteinheit während des Entflechtens der Rahmendaten zum Zeitpunkt t-1 unter Verwendung von C(t-1) gepuffert. Die Verzögerungseinheit 504 muss eine ausreichende Größe aufweisen, um D Bits von Daten zu untertützen, wobei D die Anzahl digitaler Hilfsbits ist, die pro Rahmen zur Verfügung stehen (siehe oben). Von der Verzögerungseinheit 504 gelangt C(t-1) zum Hilfsstreamdecoder 6, um in (i) den erforderlichen Modus md, (ii) den Bewegungsvektor mv und (iii) Adressierinformation für jeden Block umgewandelt zu werden, die schließlich durch die Einheit 7 verwendet wird, um den Entflechtungsprozess abzuschließen, was zur Erzeugung der fortlaufenden Rahmendaten Qp(t-1), Ip(t- 1) und Yp(t-1) für die Anzeige führt.
  • 7. Hilfsstreamdecoder
  • Der Hilfsstreamdecoder von Fig. 6 enthält zur Extraktion der für das Entflechten jedes codierten Blocks erforderlichen Rekonstruktionsvorgänge den Hilfsstreampuffer 601, den Multiplexer 602, den Markerbitkomparator 603, den Sequenzierer 604, den anfänglichen Segmentierungsfeldpuffer 605, den Resegmentierungsfeldpuffer 606, den Bewegungs- und Modusdecoder 607, die Adressiereinheit 608, den Multiplexer 609 und den Direktzugriffsspeicher 610.
  • C(t-1) wird anfänglich zum Hilfsstreampuffer 601 bewegt. Zugriff auf diesen Puffer steht unter der Steuerung des Multiplexers 602, der seine Befehle vom Sequenzierer 604 empfängt. Der Puffer 605 wird mit der anfänglichen Blocksegmentierungs-Information beladen, die von den ersten (M·N)/256 Bits des Hilfsstreams spezifiziert wird. Der Kompressionsmarkerbit an der Bitposition (M·N/256)+ 1 des Hilfsstreams wird vom Komparator 603 kontrolliert, um zu sehen, ob Bewegung und Moduskompression für diesen Rahmen angewendet werden. Ein Wert von "1" zeigt an, dass die anfängliche Segmentierungsinformation komprimiert wurde und bewirkt, dass der Sequenzierer 604 das Decodieren in der Bewegungs- und Modusdecodiereinheit 607 einleitet.
  • Die decodierten Bewegungsvektoren und Modi für jeden Block werden für späteren Zugriff durch das Blockmultiplex- und Mittelungssystem 7 in RAM 610 gemultiplext. Das Resegmentierungsfeld wird in den Puffer 606 gelesen und vom Adressiermittel 608 verwendet, während die letzte Gruppe an unkomprimierten Modi und Bewegungsvektoren in RAM 610 geladen werden.
  • Wenn das Markerbit "0" ist und anzeigt, dass Bewegungs- und Modusinformation für diesen Rahmen nicht komprimiert ist, werden die Multiplexereinheit 602 und die Adressiereinheit 608 instruiert, RAM 610 mit den uncodierten Bewegungsvektoren und Modi für den späteren Zugriff durch das Blockmultiplex- und Mittelungssystem 7 direkt zu faden. Dieses wird durch den Sequenzer 604 ausgelöst und durch die Adressiereinheit 608 mit dem RAM 610 verknüpft, um die geladenen Modi und Bewegungsvektoren aufzurufen.
  • 8. Blockmultiplex und Mittelung
  • Das Blockmultiplexier- und Mittelungssystem von Fig. 7 dient zur Konstruktion des endgültigen Bildrahmens für die Anzeige. Es umfasst den Multiplexer 701, die Adressiereinheit 702, den Sequenzierer 703, die Blockmittelungseinheit 704, den Multiplexer 705 und den Rahmenpuffer 706. Rekonstruktion auf der Basis der Modi und jeweiligen Bewegungsvektoren ist für jede der Helligkeits- und Chrominanzkomponenten gleich. Aus Gründen der Einfachheit ist nur das Decodierverfahren des Helligkeitssignals dargestellt.
  • Nach Decodieren des Hilfsstreams auf der Basis der spezifizierten Segmentierungsfelder (siehe oben, Erklärung zu Fig. 6) werden Blockbewegung und Modi hintereinander aus RAM 610 extrahiert und dazu verwendet, die geeigneten Blöcke aus Y*(t), Y*(t-1) und Y*(t-2) durch die Multiplexer 701 und 705 hindurch zum Rahmenpuffer 706 zu multiplexe, um das endgültige entflochtene Bild zu speichern. Die Adressiereinheit 702 ermöglicht den entsprechenden Informationsabruf.
  • Wenn der aus Y*(t) oder Y*(t-2) abgerufene Block mit dem korrespondierenden Nullbewegungsblock aus der aktuellen linearen Interpolation innerhalb des Rahmens Y*(t-1) zu mitteln ist, sorgt die Blockmittelungseinheit 704 für Pixel-für-Pixel-Mittelung dieser aufgerufenen Blöcke. In Fig. 7 stellen m und y den aufgerufenen Block bester Übereinstimmung bzw. den linearen Nullbewegungs-Interpolationsblock innerhalb des Rahmens dar (für das Mittelungsverfahren erforderlich). Günstigerweise kann das Blockmittelungsmittel 704 mit einem Addierer, einem Zähler und drei Blockpuffern versehen sein: zwei für die Speicherung der Eingangsblöcke, wenn sie gemittelt werden, und einen für das Puffern des Ausgangsblocks. Ein entflochtenes Bild kann dann von Rahmenpuffer 706 auf eine geeignete Anzeige, z. B. einen Fernsehempfänger, übertragen werden.

Claims (14)

1. Verfahren zum Übertragen einer Abfolge fortlaufender Bildrahmen in einem verschachtelten Feldformat zum Entflechten durch einen Empfänger, um eine Abfolge interpolierter fortlaufender Bildrahmen bereitzustellen, wobei das Verfahren umfasst:
für einen jeden der fortlaufenden Bildrahmen das Ableiten (102) von (i) Signalen (Qi(t), Ii(t), Yi(t)), die ein entsprechendes verschachteltes Bildfeld darstellen, und (ii) eines zugeordneten digitalen Hilfssignals (C(t)), das mit einem Interpolationsverfahren in Beziehung steht, das eingesetzt wird, um das zugeordnete fehlende verschachtelte Bildfeld aus einem entsprechenden fortlaufenden Bildrahmen abzuleiten, und das digitale Spezifizieren eines von zumindest zwei vorbestimmten Entflechtungsmodi innerhalb des digitalen Hilfssignals, um einen entsprechenden interpolierten fortlaufenden Bildrahmen aus den Signalen bereitzustellen; sowie
das Übertragen (104) der Signale, die jedes jeweilige verschachtelte Bildfeld darstellen, und des zugeordneten digitalen Hilfssignals zum Empfänger.
2. Verfahren nach Anspruch 1, worin im Hilfssignal (C(t)) Bewegungsvektorinformation entfalten ist.
3. Verfahren nach Anspruch 1, worin der eine der zumindest zwei vorbestimmten Entflechtungsmodi das Entflechten eines Blocks in einer Segmentierung des Bildrahmens spezifiziert.
4. Verfahren nach Anspruch 1, worin zumindest einer der vorbestimmten Entflechtungsmodi Interpolation innerhalb des Rahmens umfasst.
5. Verfahren nach Anspruch 1, worin zumindest einer der vorbestimmten Entflechtungsmodi die Bezugnahme auf einen vorhergehenden verschachtelten Bildrahmen umfasst.
6. Verfahren nach Anspruch 1, worin zumindest einer der vorbestimmten Entflechtungsmodi die Bezugnahme auf einen nachfolgenden verschachtelten Bildrahmen umfasst.
7. Verfahren nach Anspruch 1, worin zumindest einer der vorbestimmten Entflechtungsmodi das Kombinieren von Interpolation innerhalb des Rahmens mit Bezugnahme auf einen vorangehenden verschachtelten Bildrahmen umfasst.
8. Verfahren nach Anspruch 1, worin zumindest einer der vorbestimmten Entflechtungsmodi das Kombinieren von Interpolation innerhalb des Rahmens mit Bezugnahme auf einen nachfolgenden verschachtelten Bildrahmen umfasst.
9. Verfahren nach Anspruch 1, worin das Hilfssignal in einer Austastlücke zwischen aufeinanderfolgenden verschachtelten Bildrahmen übertragen wird.
10. Verfahren nach Anspruch 1, worin das Hilfssignal von einer Luminanzkomponente eines verschachtelten Bildrahmens abgeleitet ist.
11. Verfahren zum Ableiten einer Abfolge interpolierter fortlaufender Bildrahmen aus einer entsprechenden Abfolge verschachtelter Bildrahmen in einem Empfänger mit zumindest zwei vorbestimmten Entflechtungsmodi, umfassend:
das Empfangen von Signalen (Qi(t), Ii(t), Yi(t)) von einem Sender, die eine Abfolge verschachtelter Bildrahmen darstellen, und zugeordneter digitaler Hilfssignale (C(t)), die mit einem Interpolationsverfahren in Beziehung stehen, das im Sender eingesetzt wird, um fehlende verschachtelte Bildfelder von entsprechenden fortlaufenden Bildrahmen abzuleiten, und die digital einen von den zumindest zwei vorbestimmten Entflechtungsmodi spezifizieren; und
das Ableiten (5) entsprechender interpolierter fortlaufender Bildrahmen aus den Signalen, die die übertragenen verschachtelten Bildfelder und die zugeordnete Hilfsinformation darstellen, unter Einsatz der durch das digitale Hilfssignal spezifizierten Entflechtungsmodi.
12. Sender zum Übertragen einer Abfolge fortschreitender Bildrahmen in einem verschachtelten Feldformat zum Entflechten durch einen Empfänger, um eine Abfolge interpolierter fortlaufender Bildrahmen bereitzustellen, umfassend:
für einen jeden der fortlaufenden Bildrahmen Mittel (102) zum Ableiten von (i) Signalen (Qi(t), Ii(t), Yi(t)), die ein entsprechendes verschachteltes Bildfeld darstellen, und (ii) eines zugeordneten digitalen Hilfssignals (C(t)), das mit einem Interpolationsverfahren in Beziehung steht, das eingesetzt wird, um das zugeordnete fehlende verschachtelte Bildfeld aus einem entsprechenden fortlaufenden Bildrahmen abzuleiten, und zum digitalen Spezifizieren eines von zumindest zwei vorbestimmten Entflechtungsmodi innerhalb des digitalen Hilfssignals, um einen entsprechenden interpolierten fortlaufenden Bildrahmen aus den Signalen bereitzustellen; sowie
Mittel (104) zum Übertragen der Signale, die jedes jeweilige verschachtelte Bildfeld darstellen, und des zugeordneten digitalen Hilfssignals zum Empfänger.
13. Empfänger zum Ableiten einer Abfolge interpolierter fortlaufender Bildrahmen aus einer entsprechenden Abfolge verschachtelter Bildrahmen, der zumindest zwei vorbestimmte Entflechtungsmodi aufweist, umfassend:
Mittel (105) zum Empfangen von Signalen (Qi(t), Ii(t), Yi(t)) von einem Sender, die eine Abfolge verschachtelter Bildrahmen darstellen, und zugeordneter digitaler Hilfssignale (C(t)), die mit einem Interpolationsverfahren in Beziehung stehen, das im Sender eingesetzt wird, um fehlende verschachtelte Bildfelder aus entsprechenden fort laufenden Bildrahmen abzuleiten, und die digital einen von den zumindest zwei vorbestimmten Entflechtungsmodi spezifizieren: und
Mittel (5) zum Ableiten entsprechender interpolierter fortlaufender Bildrahmen aus den Signalen, die die übertragenen verschachtelten Bildfelder und die zugeordnete Hilfsinformation darstellen, unter Einsatz der durch das digitale Hilfssignal spezifizierten Entflechtungsmodi.
14. System zur Erzeugung einer Abfolge fortlaufender Bildrahmen aus einer Abfolge verschachtelter Bildrahmen, umfassend:
einen Sender zum Übertragen einer Abfolge fortlaufender Bildrahmen in einem verschachtelten Feldformat zum Entflechten durch einen Empfänger, um eine Abfolge interpolierter fortlaufender Bildrahmen bereitzustellen, und
einen Empfänger zum Ableiten einer Abfolge interpolierter fortlaufender Bildrahmen aus einer entsprechenden Abfolge verschachtelter Bildrahmen;
wobei der Sender umfasst:
für einen jeden der fortlaufenden Bildrahmen Mittel (102) zum Ableiten von (i) Signalen (Qi(t), Ii(t), Yi(t)), die ein entsprechendes verschachteltes Bildfeld darstellen, und (ii) eines zugeordneten digitalen Hilfssignals (C(t)), das mit einem Interpolationsverfahren in Beziehung steht, das eingesetzt wird, um das zugeordnete fehlende verschachtelte Bildfeld aus einem entsprechenden fortlaufenden Bildrahmen abzuleiten, und zum digitalen Spezifizieren eines von zumindest zwei vorbestimmten Entflechtungsmodi innerhalb des digitalen Hilfssignals, um einen entsprechenden interpolierten fortlaufenden Bildrahmen aus den Signalen bereitzustellen; sowie
Mittel (104) zum Übertragen der Signale, die jedes jeweilige verschachtelte Bildfeld darstellen, und des zugeordneten digitalen Hilfssignals zum Empfänger;
wobei der Empfänger umfasst:
Mittel (105) zum Empfangen von Signalen von einem Sender, die eine Abfolge verschachtelter Bildrahmen darstellen, und zugeordneter Hilfssignale, die mit einem Interpolationsverfahren in Beziehung stehen, das im Sender eingesetzt wird, um fehlende verschachtelte Bildfelder aus entsprechenden Fortlaufenden Bildrahmen abzuleiten; und
Mittel (5) zum Ableiten entsprechender interpolierter fortlaufender Bildrahmen aus den Signalen, die die übertragenen verschachtelten Bildfelder und die zugeordnete Hilfsinformation darstellen, unter Einsatz der durch das digitale Hilfssignal spezifizierten Entflechtungsmodi.
DE69328686T 1992-07-27 1993-07-27 Bewegungskompensierte aufhebung des zwischenzeilenverfahrens mit digitalem unterstützungssignal Expired - Fee Related DE69328686T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US07/919,857 US5305104A (en) 1992-07-27 1992-07-27 Digitally assisted motion compensated deinterlacing for enhanced definition television
PCT/US1993/007049 WO1994004000A1 (en) 1992-07-27 1993-07-27 Digitally assisted motion compensated deinterlacing for enhanced definition television

Publications (2)

Publication Number Publication Date
DE69328686D1 DE69328686D1 (de) 2000-06-21
DE69328686T2 true DE69328686T2 (de) 2000-10-26

Family

ID=25442756

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69328686T Expired - Fee Related DE69328686T2 (de) 1992-07-27 1993-07-27 Bewegungskompensierte aufhebung des zwischenzeilenverfahrens mit digitalem unterstützungssignal

Country Status (6)

Country Link
US (1) US5305104A (de)
EP (1) EP0657080B1 (de)
JP (1) JPH08501912A (de)
CA (1) CA2140746A1 (de)
DE (1) DE69328686T2 (de)
WO (1) WO1994004000A1 (de)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR960010487B1 (ko) * 1993-08-18 1996-08-01 엘지전자 주식회사 움직임 벡터를 이용한 순차주사식 영상포맷변환장치
US5689305A (en) * 1994-05-24 1997-11-18 Kabushiki Kaisha Toshiba System for deinterlacing digitally compressed video and method
JP3172387B2 (ja) * 1994-06-01 2001-06-04 インターナショナル・ビジネス・マシーンズ・コーポレ−ション 入出力通信サブシステム及び方法
US5880941A (en) * 1994-12-22 1999-03-09 Sony Corporation Digital video signal recording/reproducing apparatus for storing a vertical resolution signal
US5661525A (en) * 1995-03-27 1997-08-26 Lucent Technologies Inc. Method and apparatus for converting an interlaced video frame sequence into a progressively-scanned sequence
US5575286A (en) * 1995-03-31 1996-11-19 Siemens Medical Systems, Inc. Method and apparatus for generating large compound ultrasound image
US5566674A (en) * 1995-06-30 1996-10-22 Siemens Medical Systems, Inc. Method and apparatus for reducing ultrasound image shadowing and speckle
KR100416370B1 (ko) * 1995-11-08 2004-04-30 제너시스 마이크로칩 인코포레이티드 비디오필드들을순차주사비디오프레임들로디인터레이싱하기위한방법및장치
WO1997032277A1 (en) * 1996-02-29 1997-09-04 Acuson Corporation Multiple ultrasound image registration system, method and transducer
KR100425615B1 (ko) 1996-11-07 2004-04-01 마쯔시다덴기산교 가부시키가이샤 부호화 방법 및 장치와 복호화 방법 및 장치
JP3121778B2 (ja) * 1996-12-16 2001-01-09 松下電器産業株式会社 信号処理装置
JP3164031B2 (ja) * 1997-05-30 2001-05-08 日本ビクター株式会社 動画像符号化復号化装置、動画像符号化復号化方法、及び動画像符号化記録媒体
US6269484B1 (en) * 1997-06-24 2001-07-31 Ati Technologies Method and apparatus for de-interlacing interlaced content using motion vectors in compressed video streams
EP1034657A2 (de) 1998-07-08 2000-09-13 Koninklijke Philips Electronics N.V. Übertragung von progressiv abgetasteten bildern über einen zur übertragung von mit zeilensprung abgetasteten bildern vorgesehenen kanal
US6456329B1 (en) 1999-04-19 2002-09-24 Sarnoff Corporation De-interlacing of video signals
WO2000072585A1 (en) * 1999-05-25 2000-11-30 Koninklijke Philips Electronics N.V. Conversion of interlaced image signals into progressive scanned image signals
US7573529B1 (en) 1999-08-24 2009-08-11 Digeo, Inc. System and method for performing interlaced-to-progressive conversion using interframe motion data
US6847405B2 (en) * 2001-09-14 2005-01-25 Sony Corporation Motion-adaptive de-interlacing method and system for digital televisions
KR20050084219A (ko) * 2002-12-10 2005-08-26 코닌클리케 필립스 일렉트로닉스 엔.브이. Mpeg-2 mp@ml 압축된 비디오로부터 고화질 비디오효과를 생성하기 위한 시스템 및 방법
US7382937B2 (en) * 2003-03-07 2008-06-03 Hewlett-Packard Development Company, L.P. Method and apparatus for re-constructing high-resolution images
US7626635B2 (en) * 2003-04-04 2009-12-01 Koplar Interactive Systems International, L.L.C. Method and system of detecting signal presence from a video signal presented on a digital display device
EP1592259B1 (de) * 2004-04-30 2011-10-05 Panasonic Corporation Verarbeitung von Hilfsdaten von Videosequenzen
US7974435B2 (en) * 2005-09-16 2011-07-05 Koplar Interactive Systems International Llc Pattern-based encoding and detection
WO2008073455A1 (en) * 2006-12-11 2008-06-19 Koplar Interactive Systems International, L.L.C. Spatial data encoding and decoding
US8964117B2 (en) 2007-09-28 2015-02-24 Ati Technologies Ulc Single-pass motion adaptive deinterlacer and method therefore
US8300987B2 (en) * 2007-09-28 2012-10-30 Ati Technologies Ulc Apparatus and method for generating a detail-enhanced upscaled image
US8259228B2 (en) * 2007-12-10 2012-09-04 Ati Technologies Ulc Method and apparatus for high quality video motion adaptive edge-directional deinterlacing
US8396129B2 (en) * 2007-12-28 2013-03-12 Ati Technologies Ulc Apparatus and method for single-pass, gradient-based motion compensated image rate conversion
US8508661B1 (en) 2008-02-01 2013-08-13 Zenverge, Inc. Enhanced deinterlacing using predictors from motion estimation engine
US9049445B2 (en) 2012-01-04 2015-06-02 Dolby Laboratories Licensing Corporation Dual-layer backwards-compatible progressive video delivery

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4575756A (en) * 1983-07-26 1986-03-11 Nec Corporation Decoder for a frame or field skipped TV signal with a representative movement vector used for individual vectors
GB8721565D0 (en) * 1987-09-14 1987-10-21 Rca Corp Video signal processing system
US4897720A (en) * 1988-03-14 1990-01-30 Bell Communications Research, Inc. Circuit implementation of block matching algorithm
FR2633136B1 (fr) * 1988-06-16 1991-10-11 France Etat Procede et installation de diffusion de programmes de television haute definition compatible
FR2633468B1 (fr) * 1988-06-24 1990-11-09 France Etat Procede de codage de donnees d'assistance a la reconstruction d'images electroniques animees sous-echantillonnees
US4916525A (en) * 1988-08-29 1990-04-10 Hughes Aircraft Company High definition TV system
US4967263A (en) * 1988-09-07 1990-10-30 General Electric Company Widescreen television signal processor system with interpolator for reducing artifacts
US4989089A (en) * 1988-11-08 1991-01-29 U.S. Philips Corporation Television picture coding device and corresponding decoding device, a television picture transmission system incorporating such devices, and transmission and receiving stages of such a system
JP2732650B2 (ja) * 1989-02-28 1998-03-30 株式会社東芝 垂直エッジ検出回路
GB2240230B (en) * 1990-01-18 1994-04-13 British Broadcasting Corp Field-rate upconversion of television signals
US5134480A (en) * 1990-08-31 1992-07-28 The Trustees Of Columbia University In The City Of New York Time-recursive deinterlace processing for television-type signals

Also Published As

Publication number Publication date
EP0657080A1 (de) 1995-06-14
DE69328686D1 (de) 2000-06-21
US5305104A (en) 1994-04-19
EP0657080B1 (de) 2000-05-17
JPH08501912A (ja) 1996-02-27
EP0657080A4 (de) 1997-03-26
CA2140746A1 (en) 1994-02-17
WO1994004000A1 (en) 1994-02-17

Similar Documents

Publication Publication Date Title
DE69328686T2 (de) Bewegungskompensierte aufhebung des zwischenzeilenverfahrens mit digitalem unterstützungssignal
DE69120139T2 (de) Gerät und Verfahren zur adaptiven Kompression von aufeinanderfolgenden Blöcken eines digitalen Videosignals
DE3854302T2 (de) Erzeugung von symbolcoden, ausgehend von der zwischenbild-pulscodenmodulation von zeitmultiplexierten raumfrequenzanalysen von videosignalen.
DE69131438T2 (de) Adaptive Bewegungskompensation für das digitale Fernsehen
DE69232063T2 (de) Adaptive Bewegungskompensation mit mehreren Bewegungskompensatoren
EP0445177B1 (de) Kompatibles fernsehübertragungsverfahren
DE69220391T2 (de) Zweibereichs-Progressive-Scan-Konverter mit Rauschreduktion
DE69221744T2 (de) Videorauschverminderungssystem mit Verwendung mehrerer Frequenzbänder
DE19826313A1 (de) Vorrichtung und Verfahren zum Ändern der Vollbildfrequenz
DE69319378T2 (de) Videospeichersystem mit Doppelmultiplexierung von Video- und Bewegungs-Abtastwerten in einen Halbbildspeicher zur bewegungsadaptiven Kompensierung von verarbeiteten Videosignalen
US5274449A (en) Letterbox television signal with edge regions containing transformed pixel values
DE3852491T2 (de) Verfahren und anordnung zur erhöhung der vertikalen auflösung eines übertragenen fernsehsignals.
DE69227879T2 (de) Stehbildübertragungssystem
DE3341393C2 (de) Verfahren zum Übertragen eines Fernsehsignals höherer Auflösung
DE3841173C1 (en) Compatible television transmission system
DD292353A5 (de) Einrichtung zur erzeugung eines televisionssignals
US4912556A (en) Apparatus for compensating contour of television signal
EP0346637B1 (de) Verfahren zur Aufbereitung und Übertragung einer Bildsequenz
DE3782814T2 (de) Verbesserungen bezueglich des fernsehens.
EP0533675B1 (de) Übertragungssystem
EP0451205B1 (de) Mit herkömmlichen fernsehnormen kompatibles fernsehübertragungssystem
EP0346636B1 (de) Verfahren zur Aufbereitung und Übertragung einer Bildsequenz
DE68923178T2 (de) Verfahren und gerät zum erhöhen der auflösung eines ntsc-videosignals mittels eines zusatzkanals.
DE69221246T2 (de) Verfahren zur Verarbeitung von einem HDTV-Signal das in Form einer Sequenz von Abtastwerten ankommt
DE69923725T2 (de) Verfahren und Gerät für die Herausziehung von Farbkonturinformation aus Videohalbbildern

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee