DE69328686T2 - Bewegungskompensierte aufhebung des zwischenzeilenverfahrens mit digitalem unterstützungssignal - Google Patents
Bewegungskompensierte aufhebung des zwischenzeilenverfahrens mit digitalem unterstützungssignalInfo
- Publication number
- DE69328686T2 DE69328686T2 DE69328686T DE69328686T DE69328686T2 DE 69328686 T2 DE69328686 T2 DE 69328686T2 DE 69328686 T DE69328686 T DE 69328686T DE 69328686 T DE69328686 T DE 69328686T DE 69328686 T2 DE69328686 T2 DE 69328686T2
- Authority
- DE
- Germany
- Prior art keywords
- interleaved
- image frames
- sequence
- frame
- modes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 31
- 239000013598 vector Substances 0.000 claims description 32
- 230000011218 segmentation Effects 0.000 claims description 19
- 230000000750 progressive effect Effects 0.000 claims 2
- 239000000872 buffer Substances 0.000 description 35
- 230000005540 biological transmission Effects 0.000 description 21
- 238000012935 Averaging Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 9
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 239000003550 marker Substances 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 229940028444 muse Drugs 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/007—Systems with supplementary picture signal insertion during a portion of the active part of a television signal, e.g. during top and bottom lines in a HDTV letter-box system
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Television Systems (AREA)
Description
- Die vorliegende Erfindung betrifft die Verwendung von Hilfssignalen für verbesserte Bildauflösung beim "Enhanced Definition Television" ("EDTV").
- Derzeitige US-amerikanische Fernsehübertragungssignale entsprechen dem vom National Television System Committee (NTSC) augearbeiteten Standard, der 525 horizontale Abtastlinien, ein 4-3-Bildschirm-Seitenverhältnis und die Zuteilung einer Bandbreite von 6 MHz pro Kommunikationskanal vorsieht. Dieser Standard fordert ferner die alternierende Übertragung der ungeraden und geraden Abtastlinien.
- Im Vergleich zu z. B. 35 mm-Filmbildern produzieren Übertragungen auf der Basis des NTSC-Standards Bilder mit geringerer Detailauflösung und einem weniger ansprechenden Seitenverhältnis, wobei Ähnliches für einen in anderen Teilen der Welt verwendeten Standard des Fernsehens herkömmlicher Auflösung namens PAL (Phase Alternation Line) gilt. Angesichts dieser Unzulänglichkeiten und zur Verbesserung der Qualität aktueller Fernsehbilder wurden Vorschläge betreffend einen neuen Standard für das so genannte hochauflösende Fernsehen (HDTV) mit größerer vertikaler und horizontaler Auflösung gemacht. Praktikable vorgeschlagene Systeme sind inkompatibel für den Empfang durch derzeit verwendete Empfänger. Als Alternative wurden Systeme vorgeschlagen, die mit aktuellen Empfängernormen kompatibel sind und einen Hilfskanal geringer Bandbreite für Zusatzinformationen verwenden, um die Qualität derzeitiger Übertragungen zu steigern. Obwohl solche Systeme in der Literatur manchmal als HDTV bezeichnet werden, sollte man sie eher EDTV nennen, da sie als Zwischenstufe zur Einführung von HDTV angesehen werden können.
- Die folgenden Publikationen sind als Hintergrund für das Gebiet von HDTV/EDTV zu sehen:
- US-Patent 4.916.525 (veröffentlicht am 10. April 1990, J.E. Drummond) offenbart ein System, in dem komprimierte vertikal auflösungsverbessernde Bilddaten während des vertikalen Zeilenrücklaufintervalls eines NTSC-Fernsehsignals übertragen werden. Ein in geeigneter Weise ausgestatteter Empfänger kann die komprimierten Bilddaten dekomprimieren und zu den normalen Bilddaten des NTSC-Signals zusätzliche Datenzeilen als Zwischenzeilen hinzufügen. In einem nicht so ausgerüsteten Empfänger werden die hinzugefügten Daten einfach ignoriert.
- US-Patent 4.967.263 (veröffentlicht am 30. Oktober 1990, C.B. Dieterich), US-Patent 4.926.244 (veröffentlicht am 15. Mai 1990, M.A. Isnardi) und die Arbeit von M.A. Isnardi et al. mit dem Titel "Encoding for Compatibility and Recoverability in the ACTV System", IEEE Transactions on Broadcasting, Bd. BC-33 (1987), S. 116-123; sowie die Arbeit von S.N. Baron et al. mit dem Titel "An Evolutionary Approach to Advanced Television Services: The ACTV (Advanced Compatible Television) System" offenbaren jeweils ein NTSC-kompatibles Vierkomponenten-Breitschirm-EDTV-Übertragungsformat, in dem die erste Komponente das Seitenverhältnis und die Bandbreitenspezifikationen eines Standard-NTSC-Signals aufweist und in dem die anderen drei Komponenten neue Information enthalten, die zur ersten Komponente in kompatibler Weise hinzugefügt wird, um ein breiteres Seitenverhältnis und verbesserte Auflösung zu erzielen. Der Sender fügt komprimierte hochfrequente Komponenten der Seitenteilinformation und horizontalen auflösungsverbessernden Information in einen Bandbreitenabschnitt ein, der dem Chrominanzsignal zugewiesen ist, und liefert auch ein vertikal-momentanes Hilfssignal im Basisband, das vom EDTV-Empfänger zu verwenden ist, um das empfangene Signal zu entflechten. Das vertikal-momentane Hilfssignal besteht aus der Differenz zwischen einem berechneten Durchschnittwert und dem tatsächlichen Wert der fehlenden fortlaufenden Abtastlinie.
- US-Patent 4.980.764, veröffentlicht am 25. Dezember 1990 (J.M Henot), offenbart die Verwendung eines Hilfssignals bei der Übertragung von Bildblöcken und Superblöcken.
- B. Girod et al., "Motion-compensating Field Interpolation from Interlaced and Noninterlaced Grids", 2nd international technical Symposium On Optical and Electro-optical Applied Science and Engineering: Image Processing Symposium, Cannes, Dezember 1985, S. 1-8, offenbaren die bewegungskompensierte Interpolation nicht-verschachtelter und verschachtelter Raster zur Minimierung von Verschwimmen und Ruckeln.
- M. Pecot et al., "Compatible Coding of Television Images, Part 1: Coding Algorithm", Image Communication Journal (Sonderheft über HDTV", S. 1-18, offenbaren die Optimierung von Bandteilungs- und Zerlegungsfiltern beim Subband-Codieren von hochauflösender Bildinformation.
- G.W. Meeker, "High Definition and High Frame Rate Compatible N.T.S.C. Broadcast Television System", IEEE Transactions on Broadcasting, Bd. 34 (1988), S. 313-322, offenbart ein hochauflösendes Breitschirm-Fernsehsystem, das mit dem aktuellen NTSC- System kompatibel ist. Der Sender fügt die horizontale Auflösung verbessernde Information in die Bandbreite ein, die für das Chrominanzsignal vorgesehen ist, und liefert innerhalb der NTSC-Bandbreite Bewegungsvektoren, die vom Empfänger für das bewegungskompensierte Entflechten zu verwenden sind, um die vertikale Auflösung zu verbessern.
- T. Fukinuki et al., "Extended Definition TV Fully Compatible with Existing Standards", IEEE Transactions of Communications, Bd. COM-32 (1984), S. 948-953, und T. Fukinuki et al., "Extended-Definition TV Fully Compatible with Existing Standards - Proposals and Experimental Results, 1984 Winter TV Conference, S. 354-367, offenbaren ein EDTV-System, das mit bestehenden NTSC- oder PAL-Standards kompatibel ist. Die horizontale Auflösung wird durch den Sender verbessert, der hochauflösende Helligkeitskomponenten in ungenutzte Abschnitte der Bandbreite einfügt, die dem Chrominanzsignal zugeteilt ist. Die hochauflösenden Komponenten werden bei einem entsprechend ausgestatteten Empfänger durch Feld-zu-Fefd-Verarbeitung detektiert.
- W. F. Schreiber et al., ",,A Compatible High-Definition Television System Using the Noise-Margin Method of Hiding Enhancement Information", SMPTE Journal, Dezember 1989, S. 873-879, offenbaren ein NTSC-empfängerkompatibles EDTV-System, in dem digitale audio- und horizontale Auflösung verbessernde Information durch den Sender in überschüssige Chrominanzbandbreite eingefügt wird.
- IEEE Transcations on Consumer Electronics, Bd. 35, Nr. 3, 1. August 1989, S. 266-270, XP000065820 Norihiro Suzuki et al., "Improved Synthetic Motion Signal for Perfect Motion-adaptive Pro-scan Conversion in IDTV-Receivers", zeigt eine bewegungsadaptive Abtastungsumwandlung, worin eine Bewegungsdetektion erfolgt und ein synthetisches Bewegungssignal, das Bereiche mit Bewegung identifiziert, dem übertragenen Signal hinzugefügt wird.
- In einem bevorzugten EDTV-VErfahren wird ein Hilfssignal erzeugt und übertragen, damit ein in geeigneter Weise ausgestatteter Empfänger aus einer Anzahl vorbestimmter Entflechtungsmodi wählen kann. Das Hilfssignal wird beim Sender erzeugt und zeigt auf der Basis einer Analayse eines Rahmens vor der Übertragung den besten Entflechtungsmodus an. Der Modus stellt Interpolationsoptionen zur Abschätzung von Linien dar, die in einem aktuellen verschachtelten Bildfeld fehlen, wodurch vertikale Auflösung verbessert wird. Beispielsweise können Optionen wie folgt vorbestimmt sein: (1) Interpolation innerhalb des Rahmens, (2) Verwendung von Information aus einem vorangehenden Rahmen, (3) Verwendung von Information aus einem nachfolgenden Rahmen, (4) Kombinieren/Mitteln der Ergebnisse von (1) und (2) sowie (5) Kombinieren/Mitteln der Ergebnisse von (1) und (3). Vorzugsweise werden Interpolationsoptionen auf Blockbasis abgeleitet und mit codierten Bewegungsvektoren übertragen, die komprimiert sein können, um die vorhandene Bandbreite bestmöglich zu nutzen.
- Günstigerweise wird das Hilfssignal in verschachtelungskompatiblem Format übertragen, um den Empfang eines, herkömmlichen Signals durch derzeit verwendete Empfänger nicht zu beeinflussen. Beispielsweise kann das Hilfssignal innerhalb der vertikalen und/oder horizontalen Austastlücken einer verschachtelten NTSC- oder PAL- Fernsehübertragung übertragen werden.
- Fig. 1 ist ein Blockdiagramm eines EDTV-Systems gemäß einer bevorzugten Ausführungsform der Erfindung;
- Fig. 2 ist ein Blockdiagramm eines Rahmencodierers, der im EDTV-System von Fig. 1 enthalten ist;
- Fig. 3 ist ein Blockdiagramm eines Hilfsstreamcodierers, der im Rahmencodierer von Fig. 2 enthalten ist;
- Fig. 4 ist ein Blockdiagramm eines Bestmodusgenerators, der im Rahmencodierer von Fig. 2 enthalten ist;
- Fig. 5 ist ein Blockdiagramm eines im EDTV-System von Fig. 1 enthaltenen Rahmendecoders;
- Fig. 6 ist ein Blockdiagramm eines im Rahmendecoder von Fig. 5 enthaltenen Hilfsstreamdecoders;
- Fig. 7 ist ein Blockdiagramm eines Blockmultiplexing- und Mittlungssubsystems, das im Rahmendecoder von Fig. 5 enthalten ist;
- Fig. 8A ist ein Diagramm der im MPEG-Codierprozess verwendeten Abtastreihenfolge;
- Fig. 8B ist ein Diagramm, das eine Abtastreihenfolge für die blocksegmentierte Bewegung darstellt; und
- Fig. 9 ist eine experimentell erhaltene Codiertabelle.
- In der oberen Hälfte von Fig. 1 ist schematisch ein Beispiel für einen Sender in einem System gemäß einer bevorzugten. Ausführungsform der Erfindung dargestellt. Im Sender befinden sich eine fortlaufende Bildquelle 101, ein Verschachtelungsmittel 102, eine Feldverzögerungseinheit 103, ein Rahmencodierer 2 und eine Übertragungseinheit 104.
- Die fortlaufende Bildquelle 101 (z. B. eine fortlaufende Abtastkamera) produziert eine digitalisierte fortlaufende Bildsequenz, über der Codiervorgänge durchgeführt werden sollen. Typischerweise kann das Digitalisieren im Fall einer fortlaufenden Abtastkamera durch interne Analog-Digital-Umwandlung (A/D-Umwandlung) erfolgen. In anderen Fällen, z. B. bei der Übertragung von Filmen, kann ein getrennter Digitalisierer verwendet werden. Die fortlaufende Bildquelle sorgt ferner für die Zerlegung von Bildern in drei Bildkomponenten Q, I und Y, d. h. zwei Chrominanzkomponenten (Q und I) und eine Helligkeitskomponente (Y) eines Bilds.
- Die funktionale Notation wird im Folgenden für Zeitbezüge verwendet. Die jeweiligen Bezüge bestehen zu einer aktuellen Rahmenzeit t, einer vorhergehenden Rahmenzeit t-1 und zu einer nachfolgenden Rahmenzeit t+1. Das Verschachtelungsmittel 102 wandelt die zwei fortlaufenden Chrominanzrahmen Q(t+1) und I(T+1) in korrespondierende verschachtelte Felder Qi(t+1) und Ii(t+1) zur Übertragung um. Da das Verschachteln eines digitalisierten fortlaufenden Rahmens einfach das Fallenlassen entweder der ungeraden und geraden Linien (auf der Basis eines alternierenden Rahmens) umfasst, kann das Verschachtelungsmittel 102 wirkungsvoll als 2-zu-1- Demultiplexer unter der Steuerung eines alternierenden Zählers ausgebildet sein.
- Die Feldverzögerungseinheit 103 dient der verzögerten Kopplung, d. h. sie erzeugt Felddaten Qi(t) und Ii(t) an ihrem Ausgang, wenn Felddaten Qi(t+1) und Ii(t+1) ihrem Eingang zugeführt werden. Gegebenenfalls kann die Feldverzögerungseinheit 103 als Paar getrennter Einzelfeldverzögerungseinheiten für die Bildkomponenten Q und I ausgebildet sein.
- Während die Felder Qi(t) und Ii(t) wie oben isoliert sind, erzeugt der Rahmencodierer 2 das verschachtelte Helligkeitsfeld Yi(t) und den korrespondierenden digitalen Hilfsstream C(t) (siehe unten), wobei als Eingang der fortlaufende Helligkeitsrahmen Y(t+1) herangezogen wird. Auf diese Weise basiert der digitale Hilfsstream günstigerweise nur auf der Helligkeitskomponente, sodass er dem Wiederaufbau aller drei Bildkomponenten dient.
- Sobald die verschachtelten Dreikomponentenfelder getrennt wurden und der korrespondierende digitale Hilfsstream erzeugt wurde, gelangen die resultierenden vier Komponenten Qi(t), Ii(t), Yi(t) und C(t) zur Übertragungseinheit 104, z. B. zur Übertragung an Empfänger. Für eine mit existierenden Fernsehausstrahlungen kompatible Übertragung müssen die Komponenten Qi(t), Ii(t) und Yi(t) durch einen D/A-Wandler in analoge Form umgewandelt werden. Der Hilfsstream C(t) kann über eine Vielzahl verfügbarer Hilfskanäle geringer Bandbreite übertragen werden. Vorzugsweise wird C(t) z. B. in die vertikale oder horizontale Austastlücke derzeit verwendeter verschachtelter Übertragungssignale gesetzt, sodass verschachtelte Standardempfänger durch die Gegenwart zusätzlicher Information nicht beeinflusst werden. Auf diese Weise wird Kompatibilität mit aktuellen Übertragungen beibehalten und keine zusätzliche Bandbreite aufgebraucht.
- Es wurde geschätzt, dass derzeit die Codierung digitaler Hilfsinformation in Austastlücken zu einer Hilfsbitrate von 1,0 bis 1,35 Mb/s führen kann; Siehe F.W.P. Vreeswijk et al., "An HD-MAC Coding System", in: L. Chiariglione, Hg., Signal Processing of HDTV, S. 137-143, Elsevier Science Publishers, B.V. (North Holland), 1988, und Y. Ninomiya et al., "An HDTV Broadcasting System Utilizing a Bandwidth Compression Technique - MUSE", IEEE Transactions on Broadcasting, BC-33(4), S. 130-160, Dezember 1987. Technologische Fortschritte können in Zukunft zu einer Erhöhung dieser Werte führen.
- Fig. 2 zeigt einen Rahmencodierer zur Erzeugung des digitalen Hilfsstreams C(t) und zur Abtrennung des Helligkeitsfelds Yi(t) für verschachtelte Übertragung. Nur die Helligkeit Y(t+1) ist als Eingang für den Rahmencodierprozess erforderlich. Der Rahmencodierer enthält den Feldtrenner 201, die Feldverzögerungseinheiten 202 und 203, den Interpolator 204, die Rahmenverzögerungseinheiten 208 und 210, das Vorwärtsblockübereinstimmungsmittel 205, das Rückwärtsblockübereinstimmungsmittel 211, den Bestmodusgenerator 4 und den Hilfsstreamcodierer 3.
- Der Feldtrenner 201 teilt den fortlaufenden Rahmen Y(t+1) in seine ungeraden und geraden Komponentenfelder, sodass die fortlaufende Sequenz Y in die verschachtelte Sequenz Yi für die Übertragung und die verschachtelte Sequenz Yi zur Verwendung beim Erzeugen von Hilfsdaten umgewandelt wird. Die verschachtelte Sequenz Yi alterniert zwischen den ungeraden und den geraden Feldern von Y von Rahmen zu Rahmen. Yi hingegen alterniert zwischen den geraden und ungeraden Feldern von Y. Der Feldtrenner 201 kann mit einem Multiplexer unter Verwendung eines alternierenden Zählers zur Steuerung ausgebildet sein, um die ungeraden und geraden Felder mit der Feldverzögerungseinheit 202 und dem Interpolator 204 zu verknüpfen. Wenn Yc(t+1) und Yi(t+1) zu jeweiligen Feldverzögerungseinheiten 202 und 203 übertragen werden, wird Yi(t) zur Übertragung weitergeleitet. Die Rahmenverzögerungseinheiten 208 und 210 dienen zur Pufferung der fortlaufenden Rahmen Y*(t) und Y*(t-1) zur späteren Verwendung.
- Beim Ausgang der Feldverzögerungseinheit 202 wird Yc(t) gleichzeitig dem Vorwärtsblockübereinstimmungsmittel 205 und dem Rückwärtsblockübereinstimmungsmittel 211 zur Blockübereinstimmung mit den jeweiligen interpolierten Rahmen Y*(t+1) und Y*(t-1) zugeführt, die vom Interpolator 204 und der Rahmenverzögerungseinheit 210 bereitgestellt werden. In einem Ausführungsbeispiel ist der Interpolator 204 als bilinearer Interpolator ausgebildet; andere möglicherweise nichtlineare Interpolationsmittel können stattdessen verwendet werden.
- Für jeden Block von Pixeln in Yc(t) findet die Blockübereinstimmung den korrespondierenden Block im interpolierten Rahmen Y*, der bei der Suche in einem vordefinierten Bereich, z. B. einem Quadrat oder Rechteck, mit dem jeweiligen Block sehr genau übereinstimmt. Für die gefundenen Vorwärts- und Rückwärtsübereinstimmungen errechnet das Blockübereinstimmungsmittel einen jeweiligen Bewegungsvektor und Ausgänge des Vorwärtsbewegungsvektors für beste Übereinstimmungen (fmv) und des Rückwärtsbewegungsvektors für beste Übereinstimmungen (bmv). Die Blockübereinstimmungsmittel 205 und 211 übertragen auch die jeweiligen besten Übereinstimmungsblöcke f und b zum Bestmodusgenerator 4, wo Fehlervergleiche stattfinden. Beispielsweise verfolgt die Blockübereinstimmung das Ziel, die beste Annäherung für jeden Block von Yc(t) so präzise wie möglich zu bestimmen, um den Empfänger zu informieren, wo die jeweils beste Übereinstimmung für das Entflechten des derzeitigen Rahmens Y nur unter Verwendung der am Empfangsende zur Verfügung stehenden Bildinformation zu finden ist. Die Annäherungen b und f werden nicht an den Empfänger übertragen. Da Yc(t) verschachtelt ist und daher jede zweite Linie fehlt, umfasst die Übereinstimmugn eines K-über-L-Blocks Gruppen von nur K·L/2-Pixeln.
- In einer Ausführungsform erfolgt die Suche nach Blockübereinstimmung über einem Quadrat, z. B. mit -7 bis +8 Pixelverschiebungen in beiden Bildrichtungen, was zur Erzeugung eines 8-Bit-Bewegungsvektors für jede beste Übereinstimmung führt. Wie aus Fig. 2 ersichtlich, kann jedes Blockübereinstimmungsmittel 205 und 211 Schaltungen zur Übereinstimmung bei unterschiedlichen Blockgrößen, z. B. 16 · 16-, 8 · 8- und 4 · 4- Blöcken, enthalten. Die oben besprochene Blockübereinstimmung ist im Bereich der Bildverarbeitung in zahlreichen Anwendungen bekannt. Ein geeignetes Blockübereinstimmungssystem ist in US-Patent 4.897.720 (veröffentlicht am 30. Januar 1990, L. Wu et al.) geoffenbart.
- Bei der Auswahl des besten Rekonstruktionsmodus werden nur die interpolierten Rahmen Y*(t+1), Y*(t) und Y*(t-1) verwendet, um die Feldlinien jedes Blocks des Felds Yc(t) anzunähern (Rekonstruktionsmodi oder -optionen sind im nachstehenden Teil über den Bestmodusgenerator erläutert.) Bestimmte Entflechtungsmodi und zugehörige Bewegungsvektoren werden durch den Hilfsstreamcodierer 3 codiert, was zur Erzeugung des digitalen Codes C(t) führt. Die Eingänge des Hilfsstreamcodierers 4 sind: Modus (bester Rekonstruktionsmodus), mv (Bewegungsvektor) und err (Übereinstimmungsfehler).
- Der Hilfsstreamcodierer von Fig. 3 enthält die Sortiereinheiten 301 und 310, den Anfangs-Segmentationsfeldpuffer 302, die Adressiermittel 303 und 307, die Direktzugriffsspeicher (RAM) 304 und 309, den Bewegungs- und Moduscodierer 308, den Resegmentationsfeldpuffer 311, den Sequenzierer 312, den Puffer 313, den Multiplexer 305 und den Hilfsstrompuffer 306:
- Bei der Erzeugung digitaler Hilfsdaten wird das Sequenzieren durch den Sequenzierer 312 gesteuert. Die bestübereingestimmten Bewegungsvektoren und Modi (über allen Blockgrößen, erzeugt durch den Bestmodusgenerator 4 im Codierer von Fig. 2) werden für späteren Zugriff in RAM 304 geladen. Das RAM 304 muss ausreichend Kapazität aufweisen, um die bestübereingestimmten Modi und Bewegungsvektoren in allen drei Auflösungsmaßstäben, d. h. M·N/256 + M·N/64 + M·N/16 8-Bit-Bewegungsvektoren, und die gleiche Anzahl an Modi zu halten. Bei fünf Modi wie im vorliegenden Beispiel erfordert dies etwa log&sub2;5 ~ 2,32 Bits pro Modus. Die bestübereingestimmten Blockfehler über die 16 · 16- und 8 · 8-Blackauflösungen, err (auch vom Bestmodusgenerator 4 von Fig. 2 erzeugt), werden in die Sortiereinheit 301 sowie in ein RAM 309 geladen, um später verwendet zu werden, wenn Resegmentierung möglich wird. Das RAM 309 muss ausreichende Größe aufweisen, um M·N/256-Übereinstimmungsfehler über die 16 · 16- Blockauflösung zu halten. Die Sortiermittel 301 und 310 können mit einer beliebigen Anzahl verfügbarer rasch sortierender Algorithmen oder digitalen Architekturen versehen sein.
- Mithilfe von D Bits digitaler Hilfsinformation pro Rahmen und nach Zuteilung eines Bits zu jedem 16 · 16-Block, um anzuzeigen, ob dieser Block in vier korrespondierende 8 · 8- Blöcker "viertelsegmentiert" ist oder nicht, werden anfängliche P-Segmentierungen möglich, worin P die Lösung zu folgender Gleichung ist:
- D = 42,288 · P + 11,322 · (M · N / 256 - P).
- Die Konstante 42,288 entspricht der Anzahl an Bits, die erforderlich sind, um ein Segmentationsbit, vier 8-Bit-Bewegungsvektoren und vier Modi anzuzeigen; die Konstante 11,322 entspricht der Anzahl an Bits, die erforderlich sind, um ein Segmentationsbit, einen 8-Bit-Bewegungsvektor und einen Modus anzuzeigen.
- Die Sortiereinheit 301 findet die P größten Bestübereinstimmungsfehler über die 16 · 16- Blockauflösung und lädt das Bit "1" in den anfänglichen Segmentationsfeldpuffer 302, damit diese Blöcke segmentiert werden, und "0" in alle anderen. Da jedes Bit im Puffer 302 einem 16 · 16-Block in der Rahmensegmentierung entspricht, ist eine Speicherkapazität von M·N/256-Bits erforderlich.
- Der Inhalt des anfänglichen Segmentationsfeldpuffers 302 wird durch den Multiplexer 305 hindurch unter der Steuerung des Sequenzierers 312 in den Hilfsstreampuffer 306 geladen. Der Puffer 302 kann auch für das indirekte Adressieren der im RAM 304 durch das Adressiermittel 303 gespeicherten Bewegungsvektoren und Modi verwendet werden. Jedes Bit im Puffer 302 entspricht der Position in der RAM-Einheit 304 korrespondierender 16 · 16- und 8 · 8-Blockdaten für einen bestimmten Block von 16 · 16- Pixeln, d. h. jedes Bit ist ein Bezug auf die Information entweder eines 16 · 16-Blocks oder vier 8 · 8-Blöcken, einschließlich Bewegungs- und Modusinformation für einen 16 · 16-Pixel-Bereich im Bildrahmen. Der Sequenzierer 312 leitet dann ein Codierverfahren im Bewegungs- und Moduscodierer 308 ein, d. h. das Huffman-Codieren. Da in Bewegungsvektoren und Rekonstruktionsmodi zwischen benachbarten Blöcken üblicherweise beträchtliche Redundanz besteht, kann günstigerweise eine Kompressionstechnik wie z. B. Differenz-Pulscodemodulation (DPCM) zur Anwendung kommen, um die Anzahl an zur Darstellung des Bewegungsfelds erforderlichen Bits zu reduzieren. Somit wird günstigerweise die Differenz benachbarter Vektoren für die Übertragung codiert.
- Für das Huffman-Codieren eignen sich die MPEG-1-Standardtabellen, die z. B. in MPEG Video Committee Draft, ISO-IEC/JTC1/SC2/WG11, Coding of Moving Pictures and Associated Audio, Juni 1991, erläutert sind. Im Vergleich zur Abtastreihenfolge des ; uIPEG-Codierprozesses (siehe Fig. 8A) nutzt eine in Fig. 8B dargestellte bevorzugte Abtastreihenfolge die Tatsache aus, dass Bewegung über eine begrenzte "Viertelbaum- Segmentierung" des Bewegungsvektorfelds codiert wird. Die Anwendung anderer geeigneter Codierverfahren ist nicht ausgeschlossen, wobei die Codierung von Modusinformation vorzugsweise unter Bezugnahme auf eine jeweils bedarfsspezifische Codiertabelle (siehe Fig. 9) erfolgen kann. Diese Tabelle wurde auf der Basis einer experimentellen Bestätigung der relativen Häufigkeiten der weiter unten beschriebenen Beispiele für Entflechtmodi (1)-(5) erstellt - die häufiger angewendeten Modi entsprechen kürzeren Wörtern.
- Die Adressiereinheit 303 sorgt für die Übertragung der relevanten Bewegungsvektoren und Modi der im Anfangs-Segmentierungsfeld angegebenen zu Codierenden Blöcke, wobei die Codierung wie beschrieben über die 16 · 16- und 8 · 8-Blockauflösungen durchgeführt wird. Der erzeugte Code von Bits mit der Länge L wird vorübergehend in der Codiereinrichtung gepuffert, und die Zahl möglicher Resegmentierungen R wird auf der Basis der Länge des resultierenden Codes wie folgt ermittelt: unter der Annahme von D Bits Hilfsdaten pro Rahmen ist eine resultierende Codelänge von L Bits, die ein Segmentationsbit pro (möglicherweise bereits segmentierten) Block erfordert, und ein Code von Bits der Länge L
- R = (D - L - S)/41,288
- worin
- S = 3·P + M·N/256
- die Zahl an Segmentierungsbits, die zur Anzeige möglicher Resegmentierungen notwendig ist. In diesem Fall kann ein zuvor nicht-segmentierter 16 · 16-Block auf vier 8 · 8-Blöcke reduziert und ein 8 · 8-Block zu vier 4 · 4-Blöcken umgewandelt werden. Die Konstante 41,288 entspricht der Anzahl an Bits, die erforderlich sind, um jeden der vier neuen 8-Bit-Bewegungsvektoren und vier zugehörige Modi darzustellen. P ist die Anzahl anfänglicher Segmentierungen. R wird auf eine ganze Zahl abgerundet und in Puffer 313 verlagert.
- Wenn R größer als 0 ist, leitet der Sequenzierer 312 die Neusortierung von Übereinstimmungsfehlern durch das Sortiermittel 310 ein. Zu diesem Zeitpunkt kann der Puffer 302 wieder für das indirekte Adressieren der im RAM 309 gespeicherten relevanten Fehler durch das Adressiermittel 307 verwendet werden. Die größten R-Rekonstruktionsfehler über die anfängliche 16 · 16- und 8 · 8-Segmentierung werden lokalisiert und das neue Resegmentierungsfehld in den Resegmentierungsfeldpuffer 311 geladen. Aus Gründen der Effizienz kann das Neusortieren in der Einheit 310 gleichzeitig mit dem Codieren im Bewegungs- und Moduscodierer 308 erfolgen. Der Puffer 311 muss eine Größe von zumindest S Bits aufweisen. Wenn R größer als 0 ist, hängt der Sequenzierer 312 an den Hilfsstreampuffer 306 zunächst ein Markerbit von "1" an (um anzuzeigen, dass Resegmentierung möglich ist und die Kompression der anfänglichen Segmentierung verwendet wird) und als nächstes den Code im Bewegungs- und Moduscodierer 308. Da das im Puffer 302 gespeicherte anfängliche Segmentationsfeld eine fixierte Länge von M·N/256 Bits aufweist, nimmt das Markerbit immer die Bitposition (M·N/256)+ 1 im Hilfsstream ein und kann daher durch den Decoder identifiziert werden. Der Puffer 306 wird dann mit dem Resegmentierungsfeld im Puffer 311 versehen. Schließlich leitet der Sequenzierer 312 die Übertragung relevanter resegmentierter Modi und Bewegungsvektoren aus RAM 304 unter der Steuerung des Adressiermittels 303 ein. Das neu geschaffene Resegmentierungsfeld ist nicht komprimiert.
- Wen R 0 ist, ist keine Resegmentierung möglich. In diesem Fall bewirkt der Sequenzierer 312, dass das Markerbit "0" an den Puffer 306 angehängt wird; dies zeigt an, dass für diesen Rahmen keine Huffman-Kompression angewendet wird. Schließlich werden die uncodierten Bewegungsvektoren und Modi aus RAM 304 an den Puffer 306 angehängt.
- Der Bestmodusgenerator von Fig. 4 enthält Fehlergeneratoreinheiten 401, 402, 403, 406 und 407, Blockmittelungseinheiten 404 und 405 sowie Multiplexer 408 und 409. Die Suche nach dem besten Interpolationsmodus erfolgt auf drei Auflösungsebenen - 4 · 4, 8 · 8 und 16 · 16, z. B. durch drei getrennte Prozessorsubsysteme. Unter Annahme (a) des aktuellen Felds y', das als bestmögliches zu rekonstruieren ist, (b) des bestübereingestimmten Vorwärtsblocks f mit dem zugehörigen Bewegungsvektor fmv, (c) des bestübereingestimmten Rückwärtsblocks b mit dem zugehörigen Bewegungsvektor bmv und (d) des linear interpolierten Nullbewegungsblocks y* produziert der Bestmodusgenerator (i) den Bewegungsvektor mv, (ii) den Modus und (iii) den Fehler err, der mit der besten vorgefundenen Übereinstimmung assoziiert ist. Die jeweiligen Fehlergeneratoreinheiten 403, 401, 402, 406 und 407 dienen dazu, Übereinstimmungsfehler gegen (1) lineare Interpolation innerhalb des Rahmens, (2) die beste Vorwärtsübereinstimmung, (3) die beste Rückwärtsübereinstimmung, (4) die mit linearer Interpolation gemittelte Vorwärtsübereinstimmung und (5) die mit linearer Interpolation gemittelte Rückwärtsübereinstimmung zu rechnen. Andere Fehlergeneratoreinheiten sind möglich, z. B. um Interpolation mit Vorwärs- sowie mit Rückwärtsübereinstimmung vorzusehen. Die Fehler werden nur über jene Pixel berechnet, die nicht übertragen werden. Auf diese Weise wird ein bester Rekonstruktionsmodus für jeden Block nicht übertragener Felddaten auf Blockbasis ermittelt. Blockmittelungseinheiten 404 und 405 dienen dazu, die gemittelten erforderlichen Blöcke zu erzeugen, und können leicht mit einem Zähler und drei mit einem Addierer gekoppelten Blockpuffern versehen werden.
- Der Multiplexer 408 dient zur Erzeugung eines Modus - je nachdem, welcher seiner Eingänge zum geringsten Übereinstimmungsfehler führte. Alternativ dazu könnte zu diesem Zweck ein Komparator verwendet werden. Das Bestmodussignal ermöglicht es dann dem Multiplexer 409, den Bestübereinstimmungs-Bewegungsvektor wie erforderlich zu passieren. Da eine Interpolation innerhalb des Rahmens keinen Bewegungsvektor erfordert, muss in diesem Fall keiner passiert werden. Der Multiplexer 408 passiert auch den mit dem Bestübereinstimmungsmodus assoziierten Fehler.
- Der in der unteren Hälfte von Fig. 1 gezeigte Empfänger enthält eine Empfangseinheit 105, einen Rahmendecoder 5 und eine fortlaufende Bildanzeige 106. Die Empfangseinheit empfängt die verschachtelten Übertragungsfelder Qi(t), Ii(t), Yi(t) und den Hilfsstream C(t) und sorgt für A/D-Wandlung dieser Komponenten, wenn der Codierprozess mit aktuellen, verschachtelten, analogen Übertragungsstandards vorgenommen wird. In einem Beispiel für ein EDTV-System umfasst dies die Extraktion des Hilfsstreams C(t) aus der vertikalen (und/oder horizontalen) Austastlücke (siehe oben). Alternativ dazu kann auf C(t) durch den zur Übertragung dienenden Hilfskanal zugegriffen werden.
- Der Rahmendecoder 5 nimmt als Eingang die redigitalisierten, verschachtelten Komponentenfelddaten Qi(t), Ii(t), Yi(t) und den digitalen Hilfsstream C(t) für das Entflechten an, gefolgt von der Erzeugung der forlaufenden Komponentenrahmendaten Qp(t-1), Ip(t-1) und Yp(t-1), die zur Betrachtung der fortlaufenden Bildanzeige 106 zugeführt werden.
- Der Rahmendecoder von Fig. 5 enthält den Interpolator 501, die Rahmenverzögerungseinheiten 502 und 503, die Hilfsstreamverzögerungseinheit 504, den Hilfsstreamdecoder 6 sowie die Blockmultiplex- und Mittelungseinheit 7. Die drei Felder digitalisierter Bilddaten Qi(t), Ii(t) und Yi(t) werden durch den Interpolator 501 geschickt, der den gleichen Interpolationsalgorithmus wie der Rahmencodierer von Fig. 2 implementiert, wodurch die interpolierten Bilddaten rekonstruiert werden, über die das Codieren beim Sender erfolgte. Für die Bildrekonstruktion wird die Interpolation über alle drei Felder durchgeführt, sodass der Interpolator 501 drei räumliche parallel laufende Interpolatoreinheiten repräsentiert. Die resultierenden Interpolationen gelangen durch die Rahmenverzögerungspuffer 502 und 503, wodurch den interpolierten Rahmen Q*(t), I*(t), Y*(t), Q*(t-1), I*(t-1), Y*(t-1), Q*(t-2), I*(t-2) und Y*(t-2) zum Zeitpunkt t-1 Zugriff zur Blockmultiplex- und Mittelungseinheit 7 gewährt wird. Analog zum Interpolator 501 bestehen die Rahmenverzögerungseinheiten 502 und 503 jeweils aus drei individuellen Rahmenpuffern.
- Der Hilfsstream C(t) wird in der Verzögerungseinheit 504 für eine Zeiteinheit während des Entflechtens der Rahmendaten zum Zeitpunkt t-1 unter Verwendung von C(t-1) gepuffert. Die Verzögerungseinheit 504 muss eine ausreichende Größe aufweisen, um D Bits von Daten zu untertützen, wobei D die Anzahl digitaler Hilfsbits ist, die pro Rahmen zur Verfügung stehen (siehe oben). Von der Verzögerungseinheit 504 gelangt C(t-1) zum Hilfsstreamdecoder 6, um in (i) den erforderlichen Modus md, (ii) den Bewegungsvektor mv und (iii) Adressierinformation für jeden Block umgewandelt zu werden, die schließlich durch die Einheit 7 verwendet wird, um den Entflechtungsprozess abzuschließen, was zur Erzeugung der fortlaufenden Rahmendaten Qp(t-1), Ip(t- 1) und Yp(t-1) für die Anzeige führt.
- Der Hilfsstreamdecoder von Fig. 6 enthält zur Extraktion der für das Entflechten jedes codierten Blocks erforderlichen Rekonstruktionsvorgänge den Hilfsstreampuffer 601, den Multiplexer 602, den Markerbitkomparator 603, den Sequenzierer 604, den anfänglichen Segmentierungsfeldpuffer 605, den Resegmentierungsfeldpuffer 606, den Bewegungs- und Modusdecoder 607, die Adressiereinheit 608, den Multiplexer 609 und den Direktzugriffsspeicher 610.
- C(t-1) wird anfänglich zum Hilfsstreampuffer 601 bewegt. Zugriff auf diesen Puffer steht unter der Steuerung des Multiplexers 602, der seine Befehle vom Sequenzierer 604 empfängt. Der Puffer 605 wird mit der anfänglichen Blocksegmentierungs-Information beladen, die von den ersten (M·N)/256 Bits des Hilfsstreams spezifiziert wird. Der Kompressionsmarkerbit an der Bitposition (M·N/256)+ 1 des Hilfsstreams wird vom Komparator 603 kontrolliert, um zu sehen, ob Bewegung und Moduskompression für diesen Rahmen angewendet werden. Ein Wert von "1" zeigt an, dass die anfängliche Segmentierungsinformation komprimiert wurde und bewirkt, dass der Sequenzierer 604 das Decodieren in der Bewegungs- und Modusdecodiereinheit 607 einleitet.
- Die decodierten Bewegungsvektoren und Modi für jeden Block werden für späteren Zugriff durch das Blockmultiplex- und Mittelungssystem 7 in RAM 610 gemultiplext. Das Resegmentierungsfeld wird in den Puffer 606 gelesen und vom Adressiermittel 608 verwendet, während die letzte Gruppe an unkomprimierten Modi und Bewegungsvektoren in RAM 610 geladen werden.
- Wenn das Markerbit "0" ist und anzeigt, dass Bewegungs- und Modusinformation für diesen Rahmen nicht komprimiert ist, werden die Multiplexereinheit 602 und die Adressiereinheit 608 instruiert, RAM 610 mit den uncodierten Bewegungsvektoren und Modi für den späteren Zugriff durch das Blockmultiplex- und Mittelungssystem 7 direkt zu faden. Dieses wird durch den Sequenzer 604 ausgelöst und durch die Adressiereinheit 608 mit dem RAM 610 verknüpft, um die geladenen Modi und Bewegungsvektoren aufzurufen.
- Das Blockmultiplexier- und Mittelungssystem von Fig. 7 dient zur Konstruktion des endgültigen Bildrahmens für die Anzeige. Es umfasst den Multiplexer 701, die Adressiereinheit 702, den Sequenzierer 703, die Blockmittelungseinheit 704, den Multiplexer 705 und den Rahmenpuffer 706. Rekonstruktion auf der Basis der Modi und jeweiligen Bewegungsvektoren ist für jede der Helligkeits- und Chrominanzkomponenten gleich. Aus Gründen der Einfachheit ist nur das Decodierverfahren des Helligkeitssignals dargestellt.
- Nach Decodieren des Hilfsstreams auf der Basis der spezifizierten Segmentierungsfelder (siehe oben, Erklärung zu Fig. 6) werden Blockbewegung und Modi hintereinander aus RAM 610 extrahiert und dazu verwendet, die geeigneten Blöcke aus Y*(t), Y*(t-1) und Y*(t-2) durch die Multiplexer 701 und 705 hindurch zum Rahmenpuffer 706 zu multiplexe, um das endgültige entflochtene Bild zu speichern. Die Adressiereinheit 702 ermöglicht den entsprechenden Informationsabruf.
- Wenn der aus Y*(t) oder Y*(t-2) abgerufene Block mit dem korrespondierenden Nullbewegungsblock aus der aktuellen linearen Interpolation innerhalb des Rahmens Y*(t-1) zu mitteln ist, sorgt die Blockmittelungseinheit 704 für Pixel-für-Pixel-Mittelung dieser aufgerufenen Blöcke. In Fig. 7 stellen m und y den aufgerufenen Block bester Übereinstimmung bzw. den linearen Nullbewegungs-Interpolationsblock innerhalb des Rahmens dar (für das Mittelungsverfahren erforderlich). Günstigerweise kann das Blockmittelungsmittel 704 mit einem Addierer, einem Zähler und drei Blockpuffern versehen sein: zwei für die Speicherung der Eingangsblöcke, wenn sie gemittelt werden, und einen für das Puffern des Ausgangsblocks. Ein entflochtenes Bild kann dann von Rahmenpuffer 706 auf eine geeignete Anzeige, z. B. einen Fernsehempfänger, übertragen werden.
Claims (14)
1. Verfahren zum Übertragen einer Abfolge fortlaufender Bildrahmen in einem
verschachtelten Feldformat zum Entflechten durch einen Empfänger, um eine Abfolge
interpolierter fortlaufender Bildrahmen bereitzustellen, wobei das Verfahren umfasst:
für einen jeden der fortlaufenden Bildrahmen das Ableiten (102) von (i) Signalen (Qi(t),
Ii(t), Yi(t)), die ein entsprechendes verschachteltes Bildfeld darstellen, und (ii) eines
zugeordneten digitalen Hilfssignals (C(t)), das mit einem Interpolationsverfahren in
Beziehung steht, das eingesetzt wird, um das zugeordnete fehlende verschachtelte
Bildfeld aus einem entsprechenden fortlaufenden Bildrahmen abzuleiten, und das
digitale Spezifizieren eines von zumindest zwei vorbestimmten Entflechtungsmodi
innerhalb des digitalen Hilfssignals, um einen entsprechenden interpolierten
fortlaufenden Bildrahmen aus den Signalen bereitzustellen; sowie
das Übertragen (104) der Signale, die jedes jeweilige verschachtelte Bildfeld darstellen,
und des zugeordneten digitalen Hilfssignals zum Empfänger.
2. Verfahren nach Anspruch 1, worin im Hilfssignal (C(t)) Bewegungsvektorinformation
entfalten ist.
3. Verfahren nach Anspruch 1, worin der eine der zumindest zwei vorbestimmten
Entflechtungsmodi das Entflechten eines Blocks in einer Segmentierung des Bildrahmens
spezifiziert.
4. Verfahren nach Anspruch 1, worin zumindest einer der vorbestimmten
Entflechtungsmodi Interpolation innerhalb des Rahmens umfasst.
5. Verfahren nach Anspruch 1, worin zumindest einer der vorbestimmten
Entflechtungsmodi die Bezugnahme auf einen vorhergehenden verschachtelten Bildrahmen umfasst.
6. Verfahren nach Anspruch 1, worin zumindest einer der vorbestimmten
Entflechtungsmodi die Bezugnahme auf einen nachfolgenden verschachtelten Bildrahmen umfasst.
7. Verfahren nach Anspruch 1, worin zumindest einer der vorbestimmten
Entflechtungsmodi das Kombinieren von Interpolation innerhalb des Rahmens mit Bezugnahme auf
einen vorangehenden verschachtelten Bildrahmen umfasst.
8. Verfahren nach Anspruch 1, worin zumindest einer der vorbestimmten
Entflechtungsmodi das Kombinieren von Interpolation innerhalb des Rahmens mit Bezugnahme auf
einen nachfolgenden verschachtelten Bildrahmen umfasst.
9. Verfahren nach Anspruch 1, worin das Hilfssignal in einer Austastlücke zwischen
aufeinanderfolgenden verschachtelten Bildrahmen übertragen wird.
10. Verfahren nach Anspruch 1, worin das Hilfssignal von einer Luminanzkomponente
eines verschachtelten Bildrahmens abgeleitet ist.
11. Verfahren zum Ableiten einer Abfolge interpolierter fortlaufender Bildrahmen aus
einer entsprechenden Abfolge verschachtelter Bildrahmen in einem Empfänger mit
zumindest zwei vorbestimmten Entflechtungsmodi, umfassend:
das Empfangen von Signalen (Qi(t), Ii(t), Yi(t)) von einem Sender, die eine Abfolge
verschachtelter Bildrahmen darstellen, und zugeordneter digitaler Hilfssignale (C(t)), die
mit einem Interpolationsverfahren in Beziehung stehen, das im Sender eingesetzt wird,
um fehlende verschachtelte Bildfelder von entsprechenden fortlaufenden Bildrahmen
abzuleiten, und die digital einen von den zumindest zwei vorbestimmten
Entflechtungsmodi spezifizieren; und
das Ableiten (5) entsprechender interpolierter fortlaufender Bildrahmen aus den
Signalen, die die übertragenen verschachtelten Bildfelder und die zugeordnete
Hilfsinformation darstellen, unter Einsatz der durch das digitale Hilfssignal spezifizierten
Entflechtungsmodi.
12. Sender zum Übertragen einer Abfolge fortschreitender Bildrahmen in einem
verschachtelten Feldformat zum Entflechten durch einen Empfänger, um eine Abfolge
interpolierter fortlaufender Bildrahmen bereitzustellen, umfassend:
für einen jeden der fortlaufenden Bildrahmen Mittel (102) zum Ableiten von (i) Signalen
(Qi(t), Ii(t), Yi(t)), die ein entsprechendes verschachteltes Bildfeld darstellen, und (ii) eines
zugeordneten digitalen Hilfssignals (C(t)), das mit einem Interpolationsverfahren in
Beziehung steht, das eingesetzt wird, um das zugeordnete fehlende verschachtelte
Bildfeld aus einem entsprechenden fortlaufenden Bildrahmen abzuleiten, und zum
digitalen Spezifizieren eines von zumindest zwei vorbestimmten Entflechtungsmodi
innerhalb des digitalen Hilfssignals, um einen entsprechenden interpolierten
fortlaufenden Bildrahmen aus den Signalen bereitzustellen; sowie
Mittel (104) zum Übertragen der Signale, die jedes jeweilige verschachtelte Bildfeld
darstellen, und des zugeordneten digitalen Hilfssignals zum Empfänger.
13. Empfänger zum Ableiten einer Abfolge interpolierter fortlaufender Bildrahmen aus
einer entsprechenden Abfolge verschachtelter Bildrahmen, der zumindest zwei
vorbestimmte Entflechtungsmodi aufweist, umfassend:
Mittel (105) zum Empfangen von Signalen (Qi(t), Ii(t), Yi(t)) von einem Sender, die eine
Abfolge verschachtelter Bildrahmen darstellen, und zugeordneter digitaler Hilfssignale
(C(t)), die mit einem Interpolationsverfahren in Beziehung stehen, das im Sender
eingesetzt wird, um fehlende verschachtelte Bildfelder aus entsprechenden
fort
laufenden Bildrahmen abzuleiten, und die digital einen von den zumindest zwei
vorbestimmten Entflechtungsmodi spezifizieren: und
Mittel (5) zum Ableiten entsprechender interpolierter fortlaufender Bildrahmen aus den
Signalen, die die übertragenen verschachtelten Bildfelder und die zugeordnete
Hilfsinformation darstellen, unter Einsatz der durch das digitale Hilfssignal spezifizierten
Entflechtungsmodi.
14. System zur Erzeugung einer Abfolge fortlaufender Bildrahmen aus einer Abfolge
verschachtelter Bildrahmen, umfassend:
einen Sender zum Übertragen einer Abfolge fortlaufender Bildrahmen in einem
verschachtelten Feldformat zum Entflechten durch einen Empfänger, um eine Abfolge
interpolierter fortlaufender Bildrahmen bereitzustellen, und
einen Empfänger zum Ableiten einer Abfolge interpolierter fortlaufender Bildrahmen aus
einer entsprechenden Abfolge verschachtelter Bildrahmen;
wobei der Sender umfasst:
für einen jeden der fortlaufenden Bildrahmen Mittel (102) zum Ableiten von (i) Signalen
(Qi(t), Ii(t), Yi(t)), die ein entsprechendes verschachteltes Bildfeld darstellen, und (ii) eines
zugeordneten digitalen Hilfssignals (C(t)), das mit einem Interpolationsverfahren in
Beziehung steht, das eingesetzt wird, um das zugeordnete fehlende verschachtelte
Bildfeld aus einem entsprechenden fortlaufenden Bildrahmen abzuleiten, und zum
digitalen Spezifizieren eines von zumindest zwei vorbestimmten Entflechtungsmodi
innerhalb des digitalen Hilfssignals, um einen entsprechenden interpolierten
fortlaufenden Bildrahmen aus den Signalen bereitzustellen; sowie
Mittel (104) zum Übertragen der Signale, die jedes jeweilige verschachtelte Bildfeld
darstellen, und des zugeordneten digitalen Hilfssignals zum Empfänger;
wobei der Empfänger umfasst:
Mittel (105) zum Empfangen von Signalen von einem Sender, die eine Abfolge
verschachtelter Bildrahmen darstellen, und zugeordneter Hilfssignale, die mit einem
Interpolationsverfahren in Beziehung stehen, das im Sender eingesetzt wird, um
fehlende verschachtelte Bildfelder aus entsprechenden Fortlaufenden Bildrahmen
abzuleiten; und
Mittel (5) zum Ableiten entsprechender interpolierter fortlaufender Bildrahmen aus den
Signalen, die die übertragenen verschachtelten Bildfelder und die zugeordnete
Hilfsinformation darstellen, unter Einsatz der durch das digitale Hilfssignal spezifizierten
Entflechtungsmodi.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US07/919,857 US5305104A (en) | 1992-07-27 | 1992-07-27 | Digitally assisted motion compensated deinterlacing for enhanced definition television |
PCT/US1993/007049 WO1994004000A1 (en) | 1992-07-27 | 1993-07-27 | Digitally assisted motion compensated deinterlacing for enhanced definition television |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69328686D1 DE69328686D1 (de) | 2000-06-21 |
DE69328686T2 true DE69328686T2 (de) | 2000-10-26 |
Family
ID=25442756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69328686T Expired - Fee Related DE69328686T2 (de) | 1992-07-27 | 1993-07-27 | Bewegungskompensierte aufhebung des zwischenzeilenverfahrens mit digitalem unterstützungssignal |
Country Status (6)
Country | Link |
---|---|
US (1) | US5305104A (de) |
EP (1) | EP0657080B1 (de) |
JP (1) | JPH08501912A (de) |
CA (1) | CA2140746A1 (de) |
DE (1) | DE69328686T2 (de) |
WO (1) | WO1994004000A1 (de) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR960010487B1 (ko) * | 1993-08-18 | 1996-08-01 | 엘지전자 주식회사 | 움직임 벡터를 이용한 순차주사식 영상포맷변환장치 |
US5689305A (en) * | 1994-05-24 | 1997-11-18 | Kabushiki Kaisha Toshiba | System for deinterlacing digitally compressed video and method |
JP3172387B2 (ja) * | 1994-06-01 | 2001-06-04 | インターナショナル・ビジネス・マシーンズ・コーポレ−ション | 入出力通信サブシステム及び方法 |
US5880941A (en) * | 1994-12-22 | 1999-03-09 | Sony Corporation | Digital video signal recording/reproducing apparatus for storing a vertical resolution signal |
US5661525A (en) * | 1995-03-27 | 1997-08-26 | Lucent Technologies Inc. | Method and apparatus for converting an interlaced video frame sequence into a progressively-scanned sequence |
US5575286A (en) * | 1995-03-31 | 1996-11-19 | Siemens Medical Systems, Inc. | Method and apparatus for generating large compound ultrasound image |
US5566674A (en) * | 1995-06-30 | 1996-10-22 | Siemens Medical Systems, Inc. | Method and apparatus for reducing ultrasound image shadowing and speckle |
KR100416370B1 (ko) * | 1995-11-08 | 2004-04-30 | 제너시스 마이크로칩 인코포레이티드 | 비디오필드들을순차주사비디오프레임들로디인터레이싱하기위한방법및장치 |
WO1997032277A1 (en) * | 1996-02-29 | 1997-09-04 | Acuson Corporation | Multiple ultrasound image registration system, method and transducer |
KR100425615B1 (ko) | 1996-11-07 | 2004-04-01 | 마쯔시다덴기산교 가부시키가이샤 | 부호화 방법 및 장치와 복호화 방법 및 장치 |
JP3121778B2 (ja) * | 1996-12-16 | 2001-01-09 | 松下電器産業株式会社 | 信号処理装置 |
JP3164031B2 (ja) * | 1997-05-30 | 2001-05-08 | 日本ビクター株式会社 | 動画像符号化復号化装置、動画像符号化復号化方法、及び動画像符号化記録媒体 |
US6269484B1 (en) * | 1997-06-24 | 2001-07-31 | Ati Technologies | Method and apparatus for de-interlacing interlaced content using motion vectors in compressed video streams |
EP1034657A2 (de) | 1998-07-08 | 2000-09-13 | Koninklijke Philips Electronics N.V. | Übertragung von progressiv abgetasteten bildern über einen zur übertragung von mit zeilensprung abgetasteten bildern vorgesehenen kanal |
US6456329B1 (en) | 1999-04-19 | 2002-09-24 | Sarnoff Corporation | De-interlacing of video signals |
WO2000072585A1 (en) * | 1999-05-25 | 2000-11-30 | Koninklijke Philips Electronics N.V. | Conversion of interlaced image signals into progressive scanned image signals |
US7573529B1 (en) | 1999-08-24 | 2009-08-11 | Digeo, Inc. | System and method for performing interlaced-to-progressive conversion using interframe motion data |
US6847405B2 (en) * | 2001-09-14 | 2005-01-25 | Sony Corporation | Motion-adaptive de-interlacing method and system for digital televisions |
KR20050084219A (ko) * | 2002-12-10 | 2005-08-26 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Mpeg-2 mp@ml 압축된 비디오로부터 고화질 비디오효과를 생성하기 위한 시스템 및 방법 |
US7382937B2 (en) * | 2003-03-07 | 2008-06-03 | Hewlett-Packard Development Company, L.P. | Method and apparatus for re-constructing high-resolution images |
US7626635B2 (en) * | 2003-04-04 | 2009-12-01 | Koplar Interactive Systems International, L.L.C. | Method and system of detecting signal presence from a video signal presented on a digital display device |
EP1592259B1 (de) * | 2004-04-30 | 2011-10-05 | Panasonic Corporation | Verarbeitung von Hilfsdaten von Videosequenzen |
US7974435B2 (en) * | 2005-09-16 | 2011-07-05 | Koplar Interactive Systems International Llc | Pattern-based encoding and detection |
WO2008073455A1 (en) * | 2006-12-11 | 2008-06-19 | Koplar Interactive Systems International, L.L.C. | Spatial data encoding and decoding |
US8964117B2 (en) | 2007-09-28 | 2015-02-24 | Ati Technologies Ulc | Single-pass motion adaptive deinterlacer and method therefore |
US8300987B2 (en) * | 2007-09-28 | 2012-10-30 | Ati Technologies Ulc | Apparatus and method for generating a detail-enhanced upscaled image |
US8259228B2 (en) * | 2007-12-10 | 2012-09-04 | Ati Technologies Ulc | Method and apparatus for high quality video motion adaptive edge-directional deinterlacing |
US8396129B2 (en) * | 2007-12-28 | 2013-03-12 | Ati Technologies Ulc | Apparatus and method for single-pass, gradient-based motion compensated image rate conversion |
US8508661B1 (en) | 2008-02-01 | 2013-08-13 | Zenverge, Inc. | Enhanced deinterlacing using predictors from motion estimation engine |
US9049445B2 (en) | 2012-01-04 | 2015-06-02 | Dolby Laboratories Licensing Corporation | Dual-layer backwards-compatible progressive video delivery |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4575756A (en) * | 1983-07-26 | 1986-03-11 | Nec Corporation | Decoder for a frame or field skipped TV signal with a representative movement vector used for individual vectors |
GB8721565D0 (en) * | 1987-09-14 | 1987-10-21 | Rca Corp | Video signal processing system |
US4897720A (en) * | 1988-03-14 | 1990-01-30 | Bell Communications Research, Inc. | Circuit implementation of block matching algorithm |
FR2633136B1 (fr) * | 1988-06-16 | 1991-10-11 | France Etat | Procede et installation de diffusion de programmes de television haute definition compatible |
FR2633468B1 (fr) * | 1988-06-24 | 1990-11-09 | France Etat | Procede de codage de donnees d'assistance a la reconstruction d'images electroniques animees sous-echantillonnees |
US4916525A (en) * | 1988-08-29 | 1990-04-10 | Hughes Aircraft Company | High definition TV system |
US4967263A (en) * | 1988-09-07 | 1990-10-30 | General Electric Company | Widescreen television signal processor system with interpolator for reducing artifacts |
US4989089A (en) * | 1988-11-08 | 1991-01-29 | U.S. Philips Corporation | Television picture coding device and corresponding decoding device, a television picture transmission system incorporating such devices, and transmission and receiving stages of such a system |
JP2732650B2 (ja) * | 1989-02-28 | 1998-03-30 | 株式会社東芝 | 垂直エッジ検出回路 |
GB2240230B (en) * | 1990-01-18 | 1994-04-13 | British Broadcasting Corp | Field-rate upconversion of television signals |
US5134480A (en) * | 1990-08-31 | 1992-07-28 | The Trustees Of Columbia University In The City Of New York | Time-recursive deinterlace processing for television-type signals |
-
1992
- 1992-07-27 US US07/919,857 patent/US5305104A/en not_active Expired - Fee Related
-
1993
- 1993-07-27 DE DE69328686T patent/DE69328686T2/de not_active Expired - Fee Related
- 1993-07-27 JP JP6505388A patent/JPH08501912A/ja active Pending
- 1993-07-27 EP EP93919840A patent/EP0657080B1/de not_active Expired - Lifetime
- 1993-07-27 WO PCT/US1993/007049 patent/WO1994004000A1/en active IP Right Grant
- 1993-07-27 CA CA002140746A patent/CA2140746A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
EP0657080A1 (de) | 1995-06-14 |
DE69328686D1 (de) | 2000-06-21 |
US5305104A (en) | 1994-04-19 |
EP0657080B1 (de) | 2000-05-17 |
JPH08501912A (ja) | 1996-02-27 |
EP0657080A4 (de) | 1997-03-26 |
CA2140746A1 (en) | 1994-02-17 |
WO1994004000A1 (en) | 1994-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69328686T2 (de) | Bewegungskompensierte aufhebung des zwischenzeilenverfahrens mit digitalem unterstützungssignal | |
DE69120139T2 (de) | Gerät und Verfahren zur adaptiven Kompression von aufeinanderfolgenden Blöcken eines digitalen Videosignals | |
DE3854302T2 (de) | Erzeugung von symbolcoden, ausgehend von der zwischenbild-pulscodenmodulation von zeitmultiplexierten raumfrequenzanalysen von videosignalen. | |
DE69131438T2 (de) | Adaptive Bewegungskompensation für das digitale Fernsehen | |
DE69232063T2 (de) | Adaptive Bewegungskompensation mit mehreren Bewegungskompensatoren | |
EP0445177B1 (de) | Kompatibles fernsehübertragungsverfahren | |
DE69220391T2 (de) | Zweibereichs-Progressive-Scan-Konverter mit Rauschreduktion | |
DE69221744T2 (de) | Videorauschverminderungssystem mit Verwendung mehrerer Frequenzbänder | |
DE19826313A1 (de) | Vorrichtung und Verfahren zum Ändern der Vollbildfrequenz | |
DE69319378T2 (de) | Videospeichersystem mit Doppelmultiplexierung von Video- und Bewegungs-Abtastwerten in einen Halbbildspeicher zur bewegungsadaptiven Kompensierung von verarbeiteten Videosignalen | |
US5274449A (en) | Letterbox television signal with edge regions containing transformed pixel values | |
DE3852491T2 (de) | Verfahren und anordnung zur erhöhung der vertikalen auflösung eines übertragenen fernsehsignals. | |
DE69227879T2 (de) | Stehbildübertragungssystem | |
DE3341393C2 (de) | Verfahren zum Übertragen eines Fernsehsignals höherer Auflösung | |
DE3841173C1 (en) | Compatible television transmission system | |
DD292353A5 (de) | Einrichtung zur erzeugung eines televisionssignals | |
US4912556A (en) | Apparatus for compensating contour of television signal | |
EP0346637B1 (de) | Verfahren zur Aufbereitung und Übertragung einer Bildsequenz | |
DE3782814T2 (de) | Verbesserungen bezueglich des fernsehens. | |
EP0533675B1 (de) | Übertragungssystem | |
EP0451205B1 (de) | Mit herkömmlichen fernsehnormen kompatibles fernsehübertragungssystem | |
EP0346636B1 (de) | Verfahren zur Aufbereitung und Übertragung einer Bildsequenz | |
DE68923178T2 (de) | Verfahren und gerät zum erhöhen der auflösung eines ntsc-videosignals mittels eines zusatzkanals. | |
DE69221246T2 (de) | Verfahren zur Verarbeitung von einem HDTV-Signal das in Form einer Sequenz von Abtastwerten ankommt | |
DE69923725T2 (de) | Verfahren und Gerät für die Herausziehung von Farbkonturinformation aus Videohalbbildern |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |