DE69116902T2 - Fernsehen mit verbesserter Auflösung - Google Patents

Fernsehen mit verbesserter Auflösung

Info

Publication number
DE69116902T2
DE69116902T2 DE1991616902 DE69116902T DE69116902T2 DE 69116902 T2 DE69116902 T2 DE 69116902T2 DE 1991616902 DE1991616902 DE 1991616902 DE 69116902 T DE69116902 T DE 69116902T DE 69116902 T2 DE69116902 T2 DE 69116902T2
Authority
DE
Germany
Prior art keywords
data
processor
svp
signal
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE1991616902
Other languages
English (en)
Other versions
DE69116902D1 (de
Inventor
Jimmie D Childers
Hiroshi Miyaguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Texas Instruments Inc
Original Assignee
Texas Instruments Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US07/486,663 external-priority patent/US5091783A/en
Priority claimed from US07/486,662 external-priority patent/US5093722A/en
Priority claimed from US07/486,666 external-priority patent/US5091786A/en
Application filed by Texas Instruments Inc filed Critical Texas Instruments Inc
Publication of DE69116902D1 publication Critical patent/DE69116902D1/de
Application granted granted Critical
Publication of DE69116902T2 publication Critical patent/DE69116902T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/4448Receiver circuitry for the reception of television signals according to analogue transmission standards for frame-grabbing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/205Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
    • H04N5/208Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/012Conversion between an interlaced and a progressive signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/77Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase
    • H04N9/78Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase for separating the brightness signal or the chrominance signal from the colour television signal, e.g. using comb filter

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Television Systems (AREA)
  • Color Television Systems (AREA)

Description

    Technisches Gebiet der Erfindung
  • Diese Erfindung bezieht sich allgemein auf Fernsehempfangssysteme und insbesondere auf ein Empfangssystem, das einen Ein-Befehl-Mehrfach-Daten-Prozessor verwendet, um ein Bild mit verbesserter Auflösung aus einem Standardfernsehsignal herzustellen.
  • Hintergrund der Erfindung
  • Das heutzutage in den Vereinigten Staaten verwendete Fernsehsystem basiert auf dem Standard des National Television Systems Committee (NTSC). Dieser Standard wurde 1953 eingeführt und ist seitdem unverändert geblieben. Obwohl der Standard in vielen anderen Ländern verwendet wird, weist er Einschränkungen auf, die neuere Standards versuchen zu vermeiden. Daher wurden zusätzliche Standards wie Phase Alternate Line (PAL), Sequential Color and Memory (SECAM) und Multiplexed Analog Component (MAC) entwickelt und außerhalb der Vereinigten Staaten verwendet.
  • Auf der Empfangsseite des Fersehsystems ist eine bedeutende Einschränkung des NTSC-Standardsignals das Übersprechen zwischen den Ausgangssignalen des Demodulators, das Farbverfälschung verursacht. Außerdem ist das NTSC-System empfindlich gegenüber Differenzen im Übertragungsweg, die Phasenfehler einbringen, welche Farbfehler verursachen. Diese letztgenannte Einschränkung der NTSC-Systeme ist es, die der PAL-Standard zu verbessern sucht. PAL-Signale drehen die Phase der Farbinformation bei benachbarten horizontalen Zeilen um, so daß die Phasenfehler durch die Augen des Betrachters herausgemittelt werden können.
  • Sowohl die NTSC- als auch die PAL-Systeme verwenden gemischte Fernsehsignale, die ein Luminanzsignal und zwei Chrominanzsignale enthalten, die auf einem Farbzwischenträger moduliert sind. Der Farbzwischenträger ist durch die Farbsignale sowohl amplituden als auch phasenmoduliert. Ein anderer Typ des Gemisch-Systems ist das SECAM-System, bei dem die Farbübertragung in zeilensequentieller Form stattfindet, wobei nur eines von zwei Farbdifferenzsignalen zur Zeit übertragen wird. Zunächst wird ein Farbdifferenzsignal in einer Zeile übertragen, dann wird das andere Farbdifferenzsignal in der folgenden Zeile übertragen. Zwei frequenzmodulierte Zwischenträger werden verwendet, um die Farbdifferenzsignale darzustellen. Im Vergleich zu den Gemisch-Systemen ist das MAC-System ein Komponentensystem, das die Chrominanz- und Luminanzsignale einem Zeitmultiplexverfahren unterzieht.
  • Eine neuere Verbesserung in der Unterhaltungselektronik gibt es auf dem Gebiet der verbesserten Fernsehbilder, die diese Standardsignalübertragungen verwenden. Da die bestehenden Übertragungsstandards tief verwurzelt und schwierig zu ändem sind, bestände ein Ansatz darin, die Fernsehempfänger umzugestalten, um die Anzeige zu verbessern, die durch Standardsignalübertragungen hergestellt wird. Dieser Ansatz wird als Fernsehen mit verbesserter Auflösung (IDTV) bezeichnet.
  • IDTV-Systeme hätten gegenüber analogen Systemen viele Vorteile. Die Bildverbesserungen enthielten Verfahren ohne Zeilensprung, Filterung und Verminderung des Rauschens. Vom Standpunkt des Betrachters aus sollte die Folge eine Verminderung von Bildfehlern wie Zeilenkriechen, Sichtbarkeit der Zeilenstruktur, Zeilenflimmern, großflächiges Flimmern und Bildstörung sein. IDTV-Systeme sollten ebenfalls die Cross- Luminanz und die Cross-Chrominanz vermindern und schwache Signale vom Rauschen befreien.
  • Es besteht ein Bedürfnis nach einem Digitalprozessorsystem zur Herstellung von IDTV-Bildern, das in Echtzeit arbeitet und den Gesamtaufwand für die Speicher/Prozessor-Eingabe und -Ausgabe minimiert. Idealerweise sollte das System durch Software programmierbar sein, so daß die Verarbeitungsfunktionen entwickelt und getestet werden können, bevor das System fest programmiert ist.
  • Die Verwendung von Digitalprozessoren und Teilbildspeicherbauelementen macht Sonderfunktionen möglich, die bei analogen Femsehempfängern nicht verfügbar sind. Diese Sonderfunktionen enthielten Mehrfachbildschirmanzeigen und Standbilder. Folglich besteht ebenfalls ein Bedürfnis nach einem digitalen Fernsehempfängersystem, das die Sonderfunktionen dieser Art liefert.
  • In EP-A-0 253 074 ist ein Digitalvideobildprozessor mit einem Vollbild- oder Teilbildspeicherfeld zur Speicherung von Videodaten von wenigstens einem Vollbild, einem Zeilenpufferspeicher, der in einer Abtastzeile enthaltene Videodaten asynchron schreiben und lesen kann, um diese Videodaten mit hoher Geschwindigkeit zu verarbeiten, und einem Zeilenadressenzählwerk beschrieben. Besondere Aufgaben des Prozessors sind die Lieferung eines beliebigen Unterbildes an einer gewünschten Stelle auf dem Bildschirm, die Herstellung eines Standbildes, von Bildern mit doppelter oder verlangsamter Geschwindigkeit, einer Ausfall-Korrektur, einer Zeitablenkkorrektur und einer Schnittstelle zur Umwandlung in Bildabtastung ohne Zeilensprung.
  • Zusammenfassung der Erfindung
  • Gemäß der vorliegenden Erfindung wird eine Digitalverarbeitungseinheit für die Verwendung in einem Fernsehempfänger mit verbesserter Auflösung geschaffen, um eine Standbildanzeige aus Datenabtastwerten eines ein Fernsehbild darstellenden Standardfernsehsignals zu liefern, umfassend:
  • einen Ein-Befehl-Mehrfach-Daten-Prozessor zur Verarbeitung der Datenabtastwerte, wobei der Prozessor eine der Anzahl der Datenabtastwerte entsprechende Anzahl von Verarbeitungselementen aufweist und wobei der Prozessor ein Paket der Datenabtastwerte, das eine Zeile des Fernsehbildes darstellt, wortweise seriell empfängt, und wobei der Prozessor die Zeile von Datenabtastwerten parallel verarbeitet;
  • mehrere Teilbildspeicher, um Datenabtastwerte, die verzögerte Teilbilder des Fernsehbildes darstellen, zu dem Prozessor zu liefern;
  • eine Steuereinheit, um Steuer- und Taktsignale zu dem Prozessor zu liefern;
  • einen Befehlsgenerator, um Befehle zu dem Prozessor zu liefern;
  • Speicher zur Speicherung der von dem Prozessor benutzten Befehle; und
  • mehrere Multiplexer, um eine Dateneingabe in den Prozessor aus nichtverarbeiteten Daten auszuwählen, wenn ein Standmodus-Auswahlsignal Normalbetrieb anzeigt, oder aus von dem Prozessor verarbeiteten, an den Multiplexer zurückgeführten Daten, wenn das Standmodus-Auswahlsignal einen Standmodus anzeigt.
  • Die Erfindung verwendet ein Digitalverarbeitungssystem zur Herstellung von Bildern aus Datenabtastwerten eines Standardfernsehübertragungssignals. Ein serieller Videoprozessor, der die Datenabtastwerte verarbeitet, besitzt eine Anzahl von Verarbeitungselementen, die der Anzahl an Datenabtastwerten pro horizontaler Zeile des ankommenden Signals entspricht. Der Prozessor empfängt Daten für eine Zeile wortweise seriell, und seine Recheneinheiten wirken parallel auf die Daten für eine Zeile ein. Der Prozessor besitzt Eingabe- und Ausgaberegister und Recheneinheiten, die es ihm ermöglichen, gleichzeitig Daten zu empfangen, zu verarbeiten und auszugeben. Eine Steuereinheit liefert die Steuer-, Adress- und Taktsignale zu dem Prozessor, und ein Speicher speichert die von dem Prozessor verwendeten Befehle.
  • Ein technischer Vorteil der Erfindung besteht darin, daß das Prozessorsystem durch Software programmierbar ist, um die Systementwicklung zu erleichtern. Außerdem liefert sie Echtzeitverarbeitung. Videoprozesse und Taktsignale können auf einem Hauptrechner entwickelt und getestet werden und dann auf das Prozessorsystem heruntergeladen werden. Dieser Ansatz eines Mehrzweck-Prozessors beseitigt die Notwendigkeit für kundenspezifische Vorrichtungen und ermöglicht es, den gleichen Prozessor für verschiedene Aufgaben zu verwenden.
  • Kurze Beschreibung der Zeichnungen
  • Fig. 1 ist ein Blockdiagramm eines seriellen Videoprozessors.
  • Fig. 2 ist ein Blockdiagramm eines einzelnen Verarbeitungselements des Prozessors der Fig. 1.
  • Fig. 3 ist ein Zeitsteuerungsdiagramm eines Zyklus einer horizontalen Zeile des Prozessors der Fig. 1.
  • Fig. 4 zeigt die Kommunikation nahe beieinanderliegender Nachbarn zwischen den Verarbeitungselementen des Prozessors der Fig. 1.
  • Fig. 5A ist ein Blockdiagramm eines Prozessorsystems, das wenigstens einen seriellen Videoprozessor verwendet.
  • Fig. 5B ist ein Blockdiagramm eines Fernsehempfängersystems, das das Prozessorsystem der Fig. 5A als Teil einer Digitaleinheit enthält.
  • Fig. 6A ist ein Blockdiagramm der Dateneingabe und der Verarbeitungsschritte eines Bewegungserkennungsprozesses.
  • Fig. 6B ist ein Blockdiagramm von Einzelheiten der Bewegungserkennungsverarbeitung der Fig. 6A.
  • Fig. 6C-6G sind Flußdiagramme, die weitere Einzelheiten der verschiedenen Schritte der Bewegungserkennungsverarbeitung der Fig. 6B zeigen.
  • Fig. 7 ist ein Blockdiagramm der Schritte eines Luminanzsignal-Reinigungsprozesses.
  • Fig. 8 zeigt den Mischungsschritt bei dem Prozess der Fig. 7.
  • Fig. 9 zeigt die Ergebnisse des Mischungsschrittes der Fig. 8.
  • Fig. 10 ist ein Blockdiagramm der Schritte des Chrominanzsignal-Reinigungsprozesses.
  • Fig. 11 zeigt die Ergebnisse eines Prozesses des Verfahrens ohne Zeilensprung in Gebieten, wo es keine Bewegung gibt.
  • Fig. 12 zeigt die Ergebnisse eines Prozesses des Verfahrens ohne Zeilensprung in Gebieten, wo es Bewegung gibt.
  • Fig. 13 ist ein Blockdiagramm der Schritte eines Prozesses des Verfahrens ohne Zeilensprung für Luminanzsignale.
  • Fig. 14 ist ein Blockdiagramm der Schritte eines Prozesses des Verfahrens ohne Zeilensprung für Chrominanzsignale.
  • Fig. 15 zeigt einen Konturenkompensationsprozeß.
  • Fig. 16 zeigt ferner den Filterungsschritt des Konturenkompensationsprozesses der Fig. 15.
  • Fig. 17 ist ein Blockdiagramm eines Komponenten-Fernsehempfängers für Fernsehen mit verbesserter Auflösung.
  • Fig. 18 ist ein Blockdiagramm der Digitaleinheit der Fig. 5B, die zwei Prozessoren besitzt und in dem Empfänger der Fig. 17 verwendet wird.
  • Fig. 19A-19C sind Zeitsteuerungsdiagramme für das Verarbeitungssystem der Fig. 18.
  • Fig. 20 ist eine alternative Ausführungsform der Zweiprozessor-Digitaleinheit der Fig. 18.
  • Fig. 21 ist ein Blockdiagramm der Digitaleinheit der Fig. 5B, die drei Prozessoren besitzt und in dem Empfänger der Fig. 17 verwendet wird.
  • Fig. 22A-22C sind Zeitsteuerungsdiagramme für das Verarbeitungssystem der Fig. 21.
  • Fig. 23 ist ein Blockdiagramm eines Gemisch-Fernsehempfängers für Fersehen mit verbesserter Auflösung.
  • Fig. 24 ist ein Blockdiagramm der Digitaleinheit der Fig. 5B, die zwei Prozessoren besitzt und in dem Empfänger der Fig. 23 verwendet wird.
  • Fig. 25 ist ein Blockdiagramm der Schnittstelle zwischen dem Prozessorsystem der Fig. 5A und einer Multiplexereinheit, um Sonderfunktionen zu liefern.
  • Fig. 26 ist ein Blockdiagramm des Verarbeitungssystems der Fig. 18, das zur Lieferung eines Standmodus modifiziert ist.
  • Fig. 27 ist ein Blockdiagramm des Verarbeitungssystems der Fig. 20, das zur Lieferung eines Standmodus modifiziert ist.
  • Fig. 28 ist ein Blockdiagramm des Verarbeitungssystems der Fig. 23, das zur Lieferung eines Standmodus modifiziert ist.
  • Fig. 29 ist ein Blockdiagramm des Verarbeitungssystems der Fig. 26, das zur Lieferung eines Mehrfachbildschirmmodus modifiziert ist.
  • Fig. 30 ist ein Blockdiagramm des Verarbeitungssystems der Fig. 27, das zur Lieferung eines Mehrfachbildschirmmodus modifiziert ist.
  • Fig. 31 ist ein Blockdiagramm des Verarbeitungssystems der Fig. 28, das zur Lieferung eines Mehrfachbildschirmmodus modifiziert ist.
  • Genaue Beschreibung der Erfindung Verwandte Anmeldungen
  • Diese Anmeldung ist mit den folgenden amerikanischen Patentanmeldungen verwandt: Aktenzeichen 119,890 (TI-13116), eingereicht am 13. November 1987; Aktenzeichen 435,862 (TI-13116A), Aktenzeichen 119,889 (TI-13117), eingereicht am 13. November 1987; Aktenzeichen 256,150 (TI-13117A), Aktenzeichen 323,045 (TI-13117B) und Aktenzeichen 402,975 (TI-13117C). Diese Anmeldungen weisen eine entsprechende europäische Patentanmeldung EP-A-0 317 218 auf, die am 11. November 1988 eingereicht und am 24. Mai 1989 veröffentlicht wurde.
  • Diese Anmeldung ist ebenfalls mit der US-A-5 163 120 verwandt, die in den Vereinigten Staaten am 13. Oktober 1989 eingereicht wurde. Diese Anmeldungen sind auf den Rechtsnachfolger des Anmelders übertragen worden, und der Inhalt dieser Anmeldungen ist hiermit hierin durch Hinweis einbezogen.
  • Diese Sache ist mit den folgenden Nachanmeldungen verwandt: EP-A-0 317 218, eingereicht in Europa am 11. November 1988; Nachanmeldung EP-A-0 422 964, eingereicht in Europa am 15. Oktober 1990; Nachanmeldung EP-A-0 422 963, eingereicht in Europa am 1. Oktober 1990; Nachanmeldung EP-A-0 428 269, eingereicht in Europa am 15. Oktober 1990; Nachanmeldung EP-A-0 422 965, eingereicht in Europa am 15. Oktober 1990.
  • Serieller Video-Prozessor
  • Fig. 1 zeigt ein Beispiel eines seriellen Videoprozessors (SVP) 10, der auch als ein synchroner Vektorprozessor (auch SVP) beschrieben werden kann. Der SVP 10 der Fig. 1 ist das Thema der gleichzeitig anhängigen, oben zitierten Patentanmeldungen, wobei die verschiedenen Verwendungen des SVPs 10 das Thema der nachfolgenden Abschnitte dieser Patentanmeldung sind. Jedoch sind die hierin erläuterten verschiedenen Ausführungsformen nicht notwendigerweise auf die Verwendung mit diesem speziellen SVP 10 beschränkt, und es können Abwandlungen des SVPs 10 verwendet werden.
  • Die Gesichtspunkte "Serieller Video-" des SVPs 10 rühren von der Tatsache her, daß dieser besonders für Videoverarbeitung geeignet ist, wo einzelne Pakete ankommender Daten, die eine einheitliche Größe haben, in wortweise serieller Art einund ausgegeben, jedoch parallel verarbeitet werden. Die Gesichtspunkte "synchroner Vektor-" des SVPs 10 rühren von der Tatsache her, daß er Datenvektoren in Synchronisation mit einer Echtzeitdatenquelle empfängt und verarbeitet. In der Hauptsache arbeitet der SVP 10 unter Verwendung feinstrukturierter Parallelverfahren, bei denen viele Verarbeitungselemente gleichzeitig auf die Daten einwirken.
  • Der SVP 10 ist ein Mehrzweck-, maskenprogrammierbares, Ein- Befehl-Mehrfach-Daten- (SIMD), mit reduziertem Befehlsvorrat rechnendes (RISC) Bauelement. In Einklang mit dem SIND- Merkmal hat das SVP 10 eine Anzahl von Verarbeitungselementen (PEs), die den gleichen Befehl zur gleichen Zeit ausführen. Externe Mikrobefehle steuern die einfachen Logikund Rechen-Grundfunktionen für jeden Taktzyklus.
  • In Fig. 1 und 2 ist das SVP 10 ein eindimensionales Feld aus Ein-Bit-PEs 20. Jedes PE 20 besitzt die folgenden Grundbestandteile: ein Dateneingaberegister (DIR) 11, zwei unabhängig adressierte Registerdateien (R0 und R1) 12 und 15, eine Gruppe von Arbeitsregistern (WRs) 13, eine Ein-Bit-Recheneinheit (ALU) 14 und ein Datenausgaberegister (DOR) 16. Diese sind in diesem Abschnitt kurz beschrieben, und der Bezug auf die oben zitierten verwandten Patente wird, besonders im Hinblick auf Befehle und Zeitsteuerung, eine weitere Beschreibung liefern.
  • DIR 11 kann als die "Eingabeschicht" betrachtet werden. R0 12 und R1 15, die WRs 13 und das ALU 14 sind die "Rechenschicht". DOR 16 ist die "Ausgabeschicht". Obwohl jede Schicht durch jede Schicht hindurch unabhängig taktgesteuert werden kann, arbeiten die PEs 20 bei jedem Taktzyklus unisono. Die Eingabe zum DIR 11 ist wortweise seriell in dem Sinne, daß Wörter eines ankommenden Datenpakets in dem DIR 11 Wort für Wort empfangen werden. Entsprechend ist die Ausgabe vom DOR 16 wortweise seriell.
  • Obwohl Eingabe und Ausgabe wortweise seriell sind, ist die Verarbeitung jedes Datenpaketes parallel. Auch können wegen des "geschichteten" Ansatzes für die Verarbeitung die Dateneingabe, die Berechnung und die Datenausgabe gleichzeitige Operationen sein, wobei jede unabhängig taktgesteuert wird. Jedes PE 20 führt diese Operationen an einem kompletten Datenvektor zugleich aus und ist daher eine "Pipeline", die es verschiedenen Operationen ermöglicht, zugleich in verschiedenen Stufen zu sein. Wenn ein Vektorbefehl ausgeführt wird, werden die Elemente des Vektors in die geeignete Pipeline einzeln eingespeist, verzögert durch die Zeit, die benötigt wird, um eine Stufe der Pipeline zu vollenden. Eingabe und Ausgabe sind in Synchronisation mit der Datenguelle, z.B. einer Videokamera, und mit der Datensenke, z.B. einer Rasterabtastungsanzeige.
  • Zu Zwecken der Veranschaulichung hat das SVP 10 eine Anzahl N von PEs 20 mit N = 1024. Die Speichergröße für jedes PE 20 beträgt 256 Bit, jeweils 128 Bit für R0 und R1. DIR 11 ist 40 Bit groß und DOR 16 24 Bit groß. Diese Größen sind jedoch wahlfrei und können ohne Änderung des wesentlichen Inhalts der Erfindung geändert werden. Weitere Eingabe- und Ausgabebitgrößen sind in Fig. 1 und 2 enthalten, um verschiedene Eingabe/Ausgabe- und Bauelement-Größenverhältnisse zu veranschaulichen. Diese Bitgrößen können jedoch leicht verändert werden.
  • Nimmt man diese Werte, so kann ein einzelner SVP 10 Datenpakete von 1 bis zu 1024 Wörtern 40 Bit verarbeiten. Typischerweise sind die Pakete von gleicher Größe und stellen periodisch wiederkehrende Daten dar, z.B. Zeilen eines Fernsehbildes, wobei jedes Paket in eine Anzahl N von Datenabtastwerten digitalisiert wird, und wobei jeder Abtastwert S(i), i = 1...N, ein Datenwort ist, das verwendet wird, um ein Ausgabewort zu erzeugen. Bei Femsehanwendungen, wo das SVP 10 N PEs 20 hat, stellt N auch die Anzahl der Datenabtastwerte pro Zeile dar.
  • Fig. 2 zeigt ein einzelnes PE 20(i) und seine zugehörigen Komponenten, wobei i = 1...1024 ist. Ein vertikaler Schnitt durch das SVP 10 der Fig. 1 liefert ein einzelnes PE 20 der Fig. 2. Demgemäß wird jedes PE 20(i) und seine Komponenten in Hinsicht auf das gesamte Feld des SVPs 10 hierin als eine "Spalte" bezeichnet.
  • DIR 11 und DOR 16 sind die Grund-Eingabe/Ausgabe-Elemente des SVPs 10. Sowohl DIR 11 und DOR 16 sind Felder von sequentiell adressierten, mit zwei Ports versehenen Speicherzellen. Wenn in dieser Beschreibung "DIR 11" benutzt wird, bezieht sich das auf das ganze Feld, und wenn "DIR 11(i)" benutzt wird, bezieht sich das auf die Spalte des DIRs 11, die den Datenabtastwert S(i) empfängt.
  • Sowohl auf Fig. 1 und Fig. 2 Bezug nehmend, beträgt die Größe des Eingabefeldes zum SVP 10, die vom DIR 11 erlaubt wird, 1024 Wörter 40 Bit. Ein Port des DIRs 11 ist für 1024 Wörter jeweils 40 Bit eingerichtet und ermöglicht, daß in das DIR 11 von einer 40-Bit-Eingangsleitung parallel geschrieben wird. Daher emuliert dieser erste Port des DIRs 11 den Schreibport eines 1024-Wort-Zeilenspeichers, der wortweise serielle Eingabe erlaubt. Der zweite Port des DIRs 11 ist mit 40 Wörtern 1024 Bit eingerichtet, wobei jedes Bit einem PE 20(i) entspricht. Dieser zweite Port liefert eine Schnittstelle zwischen dem DIR 11 und den PEs 20. Er ist physisch ein Teil des absoluten Adressraumes des R0s 12 und wird in diesen abgebildet. Dieses ermöglicht es&sub1; daß die Inhalte des DIRs 11 zur Auswahl, um in den Speicher zu schreiben, adressiert werden und wird parallel gelesen.
  • Wie DIR 11 ist auch DOR 16 ein Element mit zwei Ports. In gleicher Weise wie das DIR 11 bietet es einen 1-Bit-Zugang zu jedem ALU 14(i) und eine 24-Bit-Ausgabe vom SVP 10. Ein Port des DORs 16 ist für 1024 Wörter 24 Bit eingerichtet. Dieser Port emuliert funktionell den Leseport eines 1024- Wort-Zeilenspeichers und wird für wortweise serielle Ausgabe verwendet. Der zweite Port des DORS 16 ist für 24 Wörter jeweils 1024 Bit eingerichtet, wobei jedes Bit einem PE(i) entspricht. Dieser zweite Port ist mit R1 15 gekoppelt, und in ihn wird parallel geschrieben.
  • Die Schreib- und Lesesteuersignale zum DIR 11 und vom DOR 16 werden im einzelnen in nachfolgenden Abschnitten dieser Anmeldung erklärt, aber im allgemeinen besitzen DIR 11 und DOR 16 jeweils einen 1024-Bit-Wort-Auswahl-Kommutator, der das Laden in und das Lesen von DIR 11 bzw. DOR 16 steuert. Auch haben DIR 11 und DOR 16 jeweils ein Freigabe- und ein Rücksetzsignal
  • Die Dateneingaben zum DIR 11 werden durch die Signale Schreibfreigabe (WE), Schreiben Zurücksetzen (RSTWH) und Taktimpuls für serielles Schreiben (SWCK) gesteuert. WE steuert sowohl die Schreibfunktion als auch die Weiterrückfunktion des Adresszeigers synchron mit dem SWCK, dem Datenabtastwert-Takteingabesignal. Wenn es sich im H-Zustand befindet, setzt das RSTWH den Adresszeiger zum ersten Wort im Dateneingabepuffer auf die nächste ansteigende Flanke des SWCKs. Nach einer anfänglichen drei Taktimpulse langen Verzögerung wird ein 40-Bit-Datenwort auf jede nachfolgende ansteigende Flanke des SWCKs hin geschrieben. Wenn Datenworte 1 bis M geschrieben werden sollen, bleibt WE für M ansteigende Flanken des SWCKs im H-Zustand, wobei 1 ≤ M ≤ N und N die Anzahl der PEs 20 ist. Die Steuersignale für das DOR 16 sind Lesefreigabe (RE), Lesen Zurücksetzen (RSTRH) und Taktimpuls für serielles Lesen (SRCK), die in entsprechender Weise wie bei den DIR-Signalen wirken.
  • R0 12 und R1 15 haben jeweils 128 Wörter 1 Bit an Lese/- Schreib-Speicher pro PE 20. Verschiedene Adressierungsstrukturen umfassen das R0 12 und das R1 15. Jedoch teilen sich R0 12 und R1 15 den gleichen Steuer- und Zeitsteuerungsschaltungskomplex. R0 12 und R1 15 bestehen aus Direktzugriffsspeicher (RAM)-Zellen. Wenn dynamische RAM-Zellen verwendet werden, müssen sie wieder aufgefrischt werden, jedoch führen typische digitale Femsehanwendungen die Wiederauffrischung durch Arbeiten in einer Wiederauffrischungszeit durch, die kürzer als die erforderliche Wiederauffrischungsdauer ist.
  • Jedes R0 12(i) und Rl 15(i) ist einzeln adressierbar und zu einem 1-Bit-Lesen-Modifizieren-Schreiben-Zyklus in der Lage, so daß es in einem einzigen Taktzyklus gelesen werden kann, auf die Daten durch das ALU 14 eingewirkt werden kann und das Ergebnis in dieses zurückgeschrieben werden kann. R0 12 und R1 15 lesen Daten zur gleichen Zeit, schreiben jedoch getrennt.
  • Die Arbeitsregister (WR)-Gruppe 13(i) umfaßt für jedes PE 20(i) vier Register: M, A, B und C. Diese Register sind, außer was ihre Datenguellen- und Senken angeht, die gleichen. Jedes WR 13(i) ist mit einem Eingangsmultiplexer zur Lieferung von Daten zu den vier Eingängen jedes ALUs 14(i) verbunden. Das M-Register wird für Division, Multiplikation und Logik- und Bedingungsoperationen verwendet. Die Register A, B und C sind Summanden-, Minuenden- beziehungsweise Übertrag/Borgübertrag-Register.
  • ALU 14 ist ein einfacher Volladdierer/Substrahierer und ein 1-Bit-Multiplizierer. Die Eingaben zum ALU 14 stammen von den WRs 13. Diese ALUs führen jeden Befehl aus, der von der Steuereinheit des SVPs lD angegeben wird. Ein Merkmal des SVPs lD besteht darin, daß jedes ALU 14 Befehle aus einem Satz von Befehlen ausführt, die direkt auf Daten einwirken. Eine Steuereinheit, die einen Befehlsstrom in das SVP lD einspeist, hat einen zusätzlichen Satz an Befehlen, der eine Basis-Ausführungssteuerung liefert. Die Steuereinheit wird unten in Verbindung mit der Fig. 5A näher beschrieben.
  • Fig. 3 ist ein Zeitsteuerungsdiagramm eines einzelnen Zyklus des SVPs 1D. Ein Verarbeitungstaktimpuls (PCLK) ist einer von drei Taktimpulsen des SVPs 10, wobei jeder Taktimpuls einer Eingabe-, Rechen- oder Ausgabeschicht entspricht. Obwohl die Taktimpulse asynchron sind, um gleichzeitige Operationen dieser drei Schichten zu ermöglichen, stoppen die Eingabe- und Ausgabetaktimpulse, um Datenübertragungen in die Rechenschicht und aus dieser heraus zu ermöglichen.
  • In Fig. 3 hat ein PCLK-Zyklus N eine Periode T. Die markierten Zeitsteuerungspunkte zeigen verknüpfte Flanken an, wobei NCGATE und PCGATE Steuersignale für (nicht dargestellte) Leseverstärker sind und YSEL 0/1 ein Signal zur Auswahl ungerader oder gerader Adressen des R0s 12 oder des R0s 15 anzeigt. Die Leseverstärker verstärken und steuern die Bitleitungen für R0 12- und R1 15-Übertragungen. Um in einem Zyklus ausführbare, 1024-Bit- und parallele Rechnungen zu erzielen, sind die Datenübertragungen zwischen R0 12, R1 15 und ALU 14 genau zeitlich abgestimmt. Jede derartige Datenübertragung wird durch eine Berechnungsblockierungsschaltung hingehalten bis das Ende der Berechnung angezeigt wird. Dieses Verfahren liefert eine schnelle Speicher/Prozessor-Datenübertragungsgeschwindigkeit.
  • Fig. 4 zeigt die Kommunikation nahe beiemanderliegender Nachbarn zwischen den PEs 20. Ein linker/rechter (L/R) Bus 41 liefert direktes Speicher- und Register-Lesen/Schreiben von jedem PE 20 zu seinen vier nächsten Nachbar-PEs 20, d.h. den zwei PEs 20 zur Linken und den zwei PEs 20 zur Rechten. Um diese Kommunikation auszuführen, erzeugt jedes PE 20 eine Ausgabe, die zu seinen vier Nachbar-PEs 20 ausgebreitet wird. Diese Ausgabe kann von irgend einer von vier Quellen sein: eine logische Null, die Inhalte des B-Registers des WRs 13 oder eine Speicherstelle von entweder R0 12 oder R1 15. Jedes PE 20 empfängt ebenfalls vier Signale, eines von jedem seiner vier nächsten Nachbarn.
  • Wie weiter unten erklärt werden wird, umfassen viele IDTV- Verarbeitungsaufgaben die Verwendung von Filteralgorithmen, um unerwünschte Signalbildfehler zu entfernen. Der L/R-Kommunikationsbus 41 der Fig. 4 ist besonders nützlich für Mehrfachabgriff-FIR-Filter, die in fünf oder weniger Abgriffe zerlegt werden können.
  • SVP-Videoanwendungen
  • Wie oben angedeutet wurde, ist der SVP 10 besonders nützlich für Videoverarbeitung. Jede horizontale Zeile eines Femsehsignals wird als ein Daten-"Paket" digitalisiert, das aus einem Wortmuster besteht, das jedes Pixel repräsentiert. SVP 10 lädt, verarbeitet und gibt Daten für jedes Pixel in einer horizontalen Zeile parallel aus. Die Architektur des SVPs 10 ermglicht es Datenvektoren von mehreren Pixeln, mehreren Zeilen oder mehreren Teilbildern parallel verarbeitet zu werden, und somit ist das SVP 10 in der Lage zu "dreidimensionaler Verarbeitung", die für digitales Fernsehen erforderlich ist.
  • Ein besonderer Vorteil der Verwendung des SVPs 10 besteht darin, daß seine Registerdateien R0 12 und R1 15 die Notwendigkeit für einzelne Zeilenspeicher beseitigen. Zeilenweise Speicherung wird bei der Verarbeitung des SVPs 10 emuliert, wobei eine Softwareprozedur verwendet wird, die als "globale Rotation" bezeichnet wird. Diese Prozedur ist in der oben zitierten US-Patentanmeldung US-A-5 163 120 detailliert erklärt.
  • Diese Anwendung richtet sich auf verschiedene Konfigurationen und Verwendungen des SVPs 10 in einem Digitalverarbeitungssystem für Fernsehen mit verbesserter Auflösung. Fig. 5A zeigt ein Grund-Prozessorsystem 50a mit einem einzigen SVP 10. Fig. 5A zeigt die Steuerungs-,Adressierungsund Befehlseingänge zum SVP 10 und kann durch die Beschreibung derselben Schaltungen in der oben zitierten U.S.-Patentanmeldung US-A-5 163 120 ergänzt werden. Der Femsehempfänger-Schaltungskomplex, der das Prozessorsystem 50a umgibt, ist in Verbindung mit der Fig. 5B beschrieben, die auch die Dateneingänge zum SVP 10 darstellt. Nun zu Fig. 5A, in der die Grundbestandteile des Prozessorsystems 50a das SVP 10, eine Steuereinheit 51 des SVPs und ein Befehlsgenerator 52 sind. Ob man ein SVP 10 oder mehr als ein SVP 10 einsetzt, hängt von der Komplexität der Verarbeitungsaufgaben und daher von der Ausführungszeit ab. Für Vollschirm-Echtzeit-Videoverarbeitung müssen die Operationen, die an einer Zeile von Bilddaten ausgeführt werden, in einer einzigen 1-H-Periode durchgeführt werden, wobei H die Periode einer horizontalen Abtastzeile darstellt. Wenn jedoch iH nicht genügend Zeit ist, kann mehr als ein SVP 10 zwischengeschaltet werden und die Verarbeitungsaufgaben können zwischen diesen aufgeteilt werden. In diesem Fall verwendet jedes SVP 10 seinen eigenen Befehlsgenerator 52, um verschiedene Algorithmen zu berechnen, kann jedoch die Steuereinheit 51 teilen.
  • Jedes SVP 10 braucht nicht die genaue Konfiguration der Fig. 1 und 2 zu besitzen. Wie bereits erwähnt, ist das unterscheidende Merkmal eines SVPs 10 die Fähigkeit, ein Datenpaket, das ein aus einer ganzen Zeile eines Fernsehbildes bestehendes Datenpaket darstellt, parallel zu verarbeiten, wobei für jedes Pixel ein Verarbeitungselement verwendet wird.
  • Die SVP-Steuereinheit 51 weist mehrere Bestandteile auf: Controller 51a, Vertikalzeitsteuerungs-Generator 51b, Honzontalzeitsteuerungs-Generator 51c und Konstanten-Generator 51d. Idealerweise ist jede dieser Vorrichtungen programmierbar und hat Zugriff auf ihren eigenen Programmspeicher. In Fig. 5A besitzt jedes dieser Bestandteile seinen eigenen Direktzugriffsspeicher (ROM). Um die Entwicklung der Verarbeitungsaufgaben zu vereinfachen, können die ROMs durch RAM ersetzt werden, und Programme können auf einem (nicht dargestellten) Hauptrechnersystem entwickelt und auf jedes RAM heruntergeladen werden, wobei Standardschnittstellenverfahren verwendet werden. Eine Hauptrechnerschnittstelle 53 kann entweder für parallele oder serielle Datenübertragungen dienen, z.B. eine RS-232C-Schnittstelle.
  • Während des Betriebes erzeugt die SVP-Steuereinheit 51 Steuersignale für das SVP 10, die mit dem vertikalen Synchronisationssignal und dem horizontalen Synchronisationssignal der ankommenden Fernsehübertragung synchronisiert werden. Diese Steuersignale enthalten Betriebskonstanten, Befehle und Taktsignale. Ein Überblick über den Zeitsteuerungsbetrieb der SVP-Steuereinheit 51: Controller 51a steuert die Videosignalverarbeitung mit einer Teilbild- oder Vollbildrate, der Vertikalzeitsteuerungs-Generator 51b steuert die Verarbeitung mit einer Zeilenrate und der Horizontalzeitsteuerungs-Generator 51c steuert die Verarbeitung mit einer Pixelrate.
  • Die SVP-Steuereinheit 51 liefert auch Takt- und Steuersignale zu anderen Systemkomponenten, z.B. für horizontale und vertikale Synchronisation. Diese letzteren Taktsignale sind "extern" in dem Sinne, daß sie das Prozessorsystem 50a nicht steuern. Statt dessen steuern sie Vorrichtungen wie Teilbildspeicher, wie in den nachfolgenden Abschnitten dieser Anmeldung beschrieben wird.
  • Der Controller 51a empfängt und interpretiert externe Befehle von einer Hauptsteuereinheit des Fernsehempfängers (in Fig. 5B dargestellt). Er erzeugt eine Reihe von Steuercodes für den Vertikalzeitsteuerungs-Generator 51b und den Horizontalzeitsteuerungs-Generator Slc. Der Controller 51a ist mit verschiedenen Befehlen, einschließlich Bedingungs- und gerichteten Sprüngen programmierbar.
  • Der Vertikalzeitsteuerungs-Generator 51b liefert Steuercodes zum Horizontalzeitsteuerungs-Generator 51c, zum Konstanten- Generator 51d und zum Befehlsgenerator 52. Er liefert eine Zeitsteuerung für die externen Schaltungen, die eine Zeitsteuerungsauflösung von einer horizontalen Zeile erfordern.
  • Der Horizontalzeitsteuerungs-Generator 51c erzeugt Taktsignale für Schaltungen, die Taktimpulsflanken mit der Taktfrequenz der Abtastwerte erfordern, z.B. DIR 11, DOR 16, Teilbildspeicher und Analog-Digital- und Digital-Analog-Wandler (dargestellt in Fig. 5B). Er ist in der Lage, Taktimpulsflanken mit einer Auflösung herzustellen, die so klein ist wie ein Abtastwerttakt.
  • Entsprechend liefert der Konstanten-Generator Sld konstante Werte zu den einzelnen PEs 20. Es gibt zwei wesentliche Gründe für die Verwendung solcher Konstanten. Erstens ist es möglich, Wellenformen auf die PEs 20 abzubilden. Zweitens unterscheiden die lokalen Konstanten das I-Chrominanzsignal vom Q-Signal und erlauben den PEs 20, das Chrominanzsignal zu multiplexieren und zu demultiplexieren und die Algorithmen in der horizontalen Richtung zu modifizieren, wenn zwei Bilder verschmolzen werden.
  • Der Befehlsgenerator 52 empfängt Algorithmenspezifizierer- Codes vom Vertikalzeitsteuerungs-Generator Sib und Zustandsflagen vom Horizontalzeitsteuerungs-Generator 51c. Der Befehlsgenerator 52 ist mit einer Programmspeicherung verbunden, z.B. einem ROM. In der Entwicklungsphase kann das ROM durch einen RAM ersetzt werden, in den Befehle von einem (nicht dargestellten) Hauptrechnersystem heruntergeladen werden können. Dieser Programmspeicher gibt Mikrobefehle zum ALU 14 und Adressen für R0 12 und R1 15 aus. Der Programmspeicher liefert außerdem die Basisausführungssteuerungsbefehle für den Befehlsgenerator 52, z.B. für Sprünge, Aufrufe und Rücksprünge, Testflagen und globale Rotation.
  • Die verschiedenen, durch das Prozessorsystem 50a durchgeführten IDTV-Verarbeitungsfunktionen können Verfahren ohne Zeilensprung, Bewegungserkennung, Trennung des Luminanz- und Chrominanzsignals, Beseitigung des Übersprechens, Interpolation und Dezimierung, Abtastungsumwandlung und Konturenkompensation enthalten. Die nachfolgenden Abschnitte dieser Patentanmeldung beschreiben verschiedene Ausführungsformen des Prozessorsystems 50a, im allgemeinen jedoch führt jede Ausführungsform wenigstens einige dieser IDTV-Aufgaben durch.
  • Fig. 5B ist ein Blockdiagramm der Grundbestandteile des Fernsehempfangssystems, das das Prozessorsystem 50a enthält. Das Prozessorsystem 50a ist insbesondere ein Teil einer Digitaleinheit 5db, die außerdem den Teilbildspeicher 56 enthält.
  • Auf der Eingangsseite des Systems wird ein Videosignal von einer Antenne oder einer anderen Quelle in der üblichen Weise durch die Standard-RF/IF-Einheit 55a erkannt, die ein analoges Videosignal Va herstellt.
  • Wie in Fig. 5B angezeigt gibt es zwei verschiedene Zugänge zu digitalen Fernsehempfängersystemen, die sich in Bezug auf die Art unterscheiden, mit der ein ankommendes Signal auf der Eingangsseite getrennt und digitalisiert wird. Besondere Ausführungsforinen sowohl des Komponenten- als auch des Gemischempfängers sind unten in Verbindung mit den Fig. 17 - 31 beschrieben, wobei dieser Abschnitt in erster Linie als eine allgemeine Einführung ihrer gemeinsamen Gesichtspunkte gedacht ist.
  • Für Komponenten-Verarbeitung wird die Trennung des Luminanz- und Chrominanzsignals durch eine analoge Trennungseinheit 55b ausgeführt, um Ya und Ca zu erhalten. Ca wird durch den Demodulator 55c demoduliert. Eine Digital/Analog-Einheit 55d wandelt die Signale in Yd und Cd um, die die Eingaben zur Digitaleinheit 5db darstellen, die die Beseitigung des Übersprechens durchführt.
  • Für Gemisch-Verarbeitung wird das ankommende Signal Va unter Verwendung der A/D-Einheit 55e in ein digitales Signal Vd umgewandelt. Vd ist das Eingangssignal zur Digitaleinheit 50b, die die Trennung von Luminanz und Chrominanz digital durchführt.
  • Ohne Rücksicht darauf, ob Komponenten- oder Gemisch-Verarbeitung durchgeführt wird, werden die Daten, die hierin, weil sie ein kontinuierlich ankommendes Bildsignal darstellen, als das "Signal" bezeichnet werden, in digitaler Form zur Digitaleinheit 50b geliefert. Obwohl die Wortgrößen und Abtastraten variieren können, beträgt die Abtastfrequenz hierin beispielsweise 4 fsc für die Luminanzsignale und 1 fsc für die zwei Chrominanzsignale, wobei fsc die Farbzwischenträgerfrequenz ist. Die zwei mit 1 fsc abgetasteten 8- Bit-Chrominanzsignale werden multiplexiert, um ein mit 2 fsc abgetastetes 8-Bit-Signal zu erhalten. Außerdem wird das 8- Bit-Signal multiplexiert, um ein 4-Bit-großes mit 4 fsc abgetastetes Signal zu erhalten. Daher sind die Eingangssignale zum Prozessorsystem 5da für die Komponenten-Verarbeitungsstrecke ein mit 4 fsc abgetastetes 8-Bit-Luminanzsignal Yd, und ein mit 4 fsc abgetastetes 4-Bit-Chrominanzsignal Cd.
  • Die Dateneingaben zur Digitaleinheit 5db gehen über DIR 11 und DOR 16, wie oben in Verbindung mit Fig. 1, 2 und 5A erklärt wurde. Die Steuerungseingaben sind so wie in Verbindung mit Fig. 5A erklärt wurde.
  • Die Digitaleinheit 5db hat ein Prozessorsystem 50a und einen Teilbildspeicher 56. Das Prozessorsystem 5da stellt sich wie in Fig. 5A dar und kann mehr als ein SVP 10 aufweisen, jeweils mit einem zugeordneten Befehlsgenerator 52. Der Teilbildspeicher 56 ist einfach ein Standard-First-In-First-Out- Speicher für die Speicherung von Teilbildern von Videodaten. Der Teilbildspeicher 56 besteht tatsächlich aus einer Anzahl von Teilbildspeichern 56(i), die die Digitaleinheit 50b mit um Teilbilder verzögerten Daten versorgen, die für verschiedene Verarbeitungsaufgaben verwendet werden. Jeder dieser Teilbildspeicher 56(i) kann irgend eines von einer Anzahl wohlbekannter Speicherbauelemente sein, z.B. der TMS4C1060, der von Texas Instruments Inc. hergestellt wird. Der Teilbildspeicher 56 kann eine Bank aus DRAMs sein, oder, da Direktzugriff nicht erforderlich ist, nur serielle Eingabe und Ausgabe liefern. Je nach den Algorithmen, die durch das ALU 14 durchgeführt werden, kann der Teilbildspeicher 56 ein Teil der Rückkopplungsstrecke zum SVP 10 sein, oder er kann einfach eine Speicherung vor und nach der Verarbeitung liefern.
  • Verschiedene Ausführungsformen der Digitaleinheit 50b, die besonders für Komponenten- oder Gemisch-Verarbeitung eingerichtet sind, sind unten in Verbindung mit den Fig. 17 - 31 beschrieben. Diese Ausführungsformen variieren in Bezug auf die Anzahl und die Plazierung der SVPs 10 und der Teilbildspeicher 56 für verschiedene Anwendungen.
  • Eine Hauptsteuerungseinheit 58 des Empfängers empfängt externe Signale, z.B. die von einem Tastaturblock, einer Fernbedienung oder einem Video-Decoder. Sie decodiert diese Signale und überträgt sie zu anderen Empfängerkomponenten, z.B. der SVP-Steuereinheit 51.
  • Von der Digitaleinheit 50b wird das verarbeitete Videodatensignal parallel in Forin von 8-Bit-Wörtern zur D/A-Einheit 57a ausgegeben. Die resultierenden Signale von der D/A-Einheit 57a sind die gleichen analogen Signale, die die Anzeigeeinheit 57b empfangen würde, wenn das Prozessorsystem 50 nicht enthalten wäre. Daher ist die Digitaleinheit 50b einfach in die Signalstrecke am Ausgang einer herkömmlichen Fernsehempfänger-RF/IF-Einheit 55a eingefügt.
  • Die Anzeigeeinheit 57b wandelt die verarbeiteten Signale unter Verwendung von Standard-Matrixverfahren in rote, grüne und blaue Signale um.
  • Die Anzeige 57c empfängt das analoge Videosignal von der Anzeigeeinheit 57b. Typischerweise ist die Anzeige 57c vom Rasterabtastungstyp, z.B. eine Kathodenstrahlröhre Jedoch kann die Erfindung bei irgendeinem Typ von Anzeige mit geeigneten Anpassungsschaltungen zur Verwendung des vom SVP 10 erzeugten Signals verwendet werden. Die Anzeige 57c könnte z.B. mit einem (nicht dargestellten) Anzeigenspeicher verwendet werden, der die Signale vom Prozessorsystem 50a empfängt und alle Pixelelemente parallel ausgibt.
  • IDTV-Verarbeitungsaufgaben
  • Wie oben angedeutet führen die verschiedenen Ausführungsformen der Digitaleinheit 5db eine Reihe von IDTV-Prozessen durch. Fig. 6 - 17 stellen diese Prozesse als Funktionsblockdiagramme dar. Die Hardwarekonfigurationen zur Durchführung dieser Aufgaben sind das Thema der Fig. 18 - 30 und der begleitenden Beschreibungen.
  • In Fig. 6 - 17 werden Verschiedene Bezeichnungen verwendet, um dabei zu helfen, die dreidimensionalen Gesichtspunkte der Fernsehverarbeitung zu erklären. Positionsindizes gibt es in Hinsicht auf ein Teilbild (f), eine Zeile (h) oder einen Abtastwert (t). Verzögerungsindizes gibt es in Hinsicht auf ein aktuelles Teilbild (V), eine aktuelle Zeile (H) oder einen aktuellen Abtastwert (T). Die Namen der Signale werden angegeben als ein Bewegungssignal (Mxx), ein Luminanzsignal (Yxx) oder ein Chrominanzsignal (Cxx). Einige Beispiele sind:
  • M25 Signalname
  • M25(H) keine Verzögerung in M25 relativ zu einem anderen Signal
  • M25(H-3) M25 ist um 3 Zeilen gegenüber M25(H) verzögert
  • M25(H-525) dieses entspricht M25(V-2)
  • M25(H(T-3)) M25 ist die aktuelle Zeile, verzögert um 3 Abtastwerte
  • Die Zeitsteuerung ist an ein Referenzsignal gebunden, das das Farbsynchronsignal darstellt. Dieses Signal wird am Beginn jeder horizontalen Zeile übertragen. Seine Frequenz ist die Farbzwischenträgerfrequenz, die als "fsc" bezeichnet wird. Bei einer NTSC-Übertragung beträgt fsc z.B. ungefähr 3,58 MHz, was 227,5 fh entspricht, wobei fh die Zeilenfrequenz ist. Die Zeilendauer H = 1/fh beträgt ungefähr 64 Mikrosekunden. Bei dem hier beschriebenen Empfängersystem beträgt die digitale Abtastrate 4 fsc.
  • Ein Begriff, der hierin in Verbindung mit verschiedenen Verarbeitungsaufgaben verwendet wird, ist "digitale Filterung". Im allgemeinen können digitale Filter als z-Transformationsfunktionen ausgedrückt werden, bei denen die Terme gewichtete Zeitverzögerungen darstellen. Die Periodizität der Fernsehsignale überträgt Frequenzcharakteristika auf diese Zeitverzögerungsfunktionen.
  • Für die Implementierung eines Filterprozesses wird die Filterfunktion unter Verwendung der gewünschten Filtercharakteristik erhalten. Jede Dateneingabezeile repräsentiert einen Filterabgriff. Die Bezeichnung zn kann eine Verzögerung von n Abtastwerten, Zeilen oder Teilbildern darstellen, je nachdem, ob der Filter horizontal, vertikal beziehungsweise zeitlich ist. Diese Verzögerungsbezeichnungen können daher ebenso als (T-n), (H-n) oder (V-n) ausgedrückt werden.
  • In Einklang mit den dreidimensionalen Gesichtspunkten der Fernsehverarbeitung, d.h. horizontal, vertikal und zeitlich, kann die digitale Filterung ebenso räumlich, was horizontal und vertikal einschließt, oder zeitlich sein. Bei Erstgenanntem sind die Verzögerungen Abtastwertverzögerungen (T) beziehungsweise Zeilenverzögerungen (H). Bei Letztgenanntem sind die Verzögerungen Teilbildverzögerungen (V). Wie unten erklärt wird, kann die An- oder Abwesenheit von Bewegung in dem anzuzeigenden Bild die Art des Filters bestimmen.
  • Die hierin beschriebenen IDTV-Verarbeitungsaufgaben richten sich auf gemischte Übertragungssignale, wie diejenigen, die die NTSC-, PAL-, und SECAM-Standards verwenden. Jedoch sind für Komponenten-übertragungen wie diejenigen, die MAC verwenden, einige der gleichen Aufgaben anwendbar. Der MAC- Standard hat z.B. eine 50 Hz-Teilbildfrequenz, die für großflächiges Flimmern anfällig ist. Daher sind die Verfahren zur Erhöhung der Teilbild- oder Vollbildfolgefrequenzen, die unten in Verbindung mit dem Verfahren ohne Zeilensprung besprochen werden, auf MAC-Systeme anwendbar.
  • Die verschiedenen unten besprochenen IDTV-Aufgaben schließen Bewegungserkennung, Luininanz- und Chrominanzreinigung, Verfahren ohne Zeilensprung und Konturenkompensation ein. Die Beschreibung der Bewegungserkennung ist besonders detailliert, da viele der gleichen Konzepte und Algorithinen bei anderen IDTV-Aufgaben anwendbar sind.
  • Bewegungserkennung
  • Fig. 6A-6G sind Blockdiagramme der Schritte eines IDTV-Bewegungserkennungsprozesses. Wie in den nachfolgenden Abschnitten dieser Anmeldung deutlich werden wird, sind verschiedene Filterungsaufgaben durch Bewegung beeinflußt. Insbesondere wenn zeitliche, d.h. Feld-zu-Feld, Filterung erwünscht ist, würde die Filterung von Gebieten, in denen Bewegung ist, zu Verschmierung führen. Aus diesem Grunde ist es wünschenswert, von zeitlicher zu räumlicher, d.h. Zeilezu-Zeile- oder Abtastwert-zu-Abtastwert-, Filterung in Gebieten zu wechseln, wo Bewegung erkannt wurde. Dieser Wechsel wird durch ein Bewegungserkennungssignal erzielt, das durch den Prozeß der Fig. 6A und 6B hergestellt wird.
  • Fig. 6A ist ein Überblick des Prozesses, der sowohl Dateneingabe- als auch Verarbeitungsschritte enthält. Wie in Fig. 6A angezeigt und oben bemerkt emulieren die Registerdateien R0 12 und R1 15 Zeilenspeicher. Dieses erlaubt es dem SVP 10, Daten von mehr als einer Zeile zur Zeit ohne zeitaufwendige externe Speicherabrufaktionen zu verarbeiten. Daher umfassen die Schritte 61-63 der Fig. 6A einen "globalen Rotations"-Prozeß, bei dem Daten für eine alte Zeile über das DOR 16 ausgegebenen werden und Daten für eine neue Zeile über das DIR 11 empfangen werden. Wenn SVP 10 z.B. einen 5-Zeilen-Speicher emuliert, wird die Zeile n-5 ausgegeben und die Zeile n empfangen.
  • Die Durchführung des Prozesses beginnt bei einem Signal vom Horizontalzeitsteuerungs-Generator 51c, das den Beginn einer horizontalen Austastung anzeigt. Zu diesem Zeitpunkt ist die vorhergehende Iteration vollendet, d.h. alle Daten von externen Quellen sind in das DIR 11 geladen, alle nichtverwendeten Daten sind aus dem DOR 16 geschoben und die vorhergehende Verarbeitung ist beendet.
  • Beim Schritt 61 werden die während einer vorhergehenden Zeile berechneten Daten zum DOR 16 übertragen, so daß sie während der bevorstehenden Zeile verschoben werden können. Einfache Bewegungsbefehle werden verwendet, um Daten vom R0 12 zum DOR 16 zu kopieren. Beim Schritt 62, einem globalen Rotationsschritt, verschiebt der Befehlsgenerator 52 einem globalen Rotationsgebiet zugeordnete Daten. Beim Schritt 63, da nun die Daten der vorhergehenden Zeile verschoben wurden, können die Daten der aktuellen Zeile in das DIR 11 eingegeben werden. Wiederum werden einfache Bewegungsbefehle verwendet, um die Daten vom DIR 11 zum R1 15 zu kopieren.
  • Fig. 6B zeigt weitere Details des Verarbeitungsschritts, also des Schritts 64 der Fig. 6A. Die hierin beschriebenen Schritte entsprechen den Ausgangssignalen der Fig. 6B. Daher entspricht z.B. der erste Schritt dem in Fig. 6 dargestellten Erhalten des M0-Signals.
  • Bewegungserkennungsverfahren variieren, jedoch werden im Prinzip aufeinanderfolgende Vollbilder Pixel für Pixel verglichen. Wenn sich der Betrag des Pixelwertes von einem Vollbild zum nächsten über eine vorbestimmte Schwelle hinaus ändert, wird Bewegung angenommen.
  • Um ein Bewegungssignal aus Luminanzdaten zu erhalten, besteht der erste Schritt darin, aufeinanderfolgende Vollbilder zu subtrahieren. Da es zwei Teilbilder pro Vollbild gibt, erfordert dieses ein um zwei Teilbilder verzögertes Teilbild. Der Algorithmus lautet:
  • M0(V) = Y(V) - Y(V-2),
  • wobei Y(V) der aktuelle Luminanzdatenwert, Y(V-2) der Luminanzdatenwert von zwei Teilbildern vorher und M0(V) ein aktuelles Luminanzbewegungssignal ist. Das Ergebnis M0 enthält zwei Komponenten: Luminanzbewegung und Chrominanz-Übersprechen. Das Übersprechen ist unerwünscht, da es eher Farbinformation als Bewegungsinformation darstellt.
  • Für Standardsignale wird ein Zeilen-Kammfilterschritt Mla verwendet, um die Chrominanzkomponente herauszukämmen. Der erste "Zahn" des Kammfilters in dem Frequenzbereich ist die Null-Frequenz und nachfolgende Zähne liegen im Abstand von Intervallen der Länge fh. Da die Verstärkung des Kammfilters bei der Null-Frequenz Eins ist, wird er als ein "DC"-Zeilen- Kammfilter bezeichnet. Die Funktion des Filters lautet:
  • M1a(H-1) = ((MO(H) + 2*M0(H-1) + MO(H-2)) / 4,
  • wobei M0(H) der aktuelle M0-Datenwert, M0(H-n) der um n horizontale Zeilen verzögerte M0-Datenwert und M1a(H-1) der um 1H relativ zu M0 versetzte M1a-Datenwert ist.
  • Fig. 6C zeigt die Schritte für die Verwendung des SVPs 10, um M1a zu erhalten. SCR1 stellt einen Hilfsregisterbereich dar, der als Akkumulator verwendet wird. M0(H-n) ist ein Eingabewert in den Raum der globalen Rotation, wobei n = 0..2 ist. Schritt 6C1 ist das Speichern des M0(H)-Datenwertes in dem Akkumulator. Schritt 6C2 ist das Addieren des M0(H-2)-Datenwertes zum Akkumulator. Der Schritt 6C3 ist das Nachvorneschieben des M0(H-1)-Datenwertes um ein Bit vor der Addition zum Akkumulator. Der Schritt 6C4 ist ein Divisionsschritt, um die vier Additionsterme zu kompensieren.
  • Für nichtstandardisierte Signale wird der Kammfilter nicht verwendet, da es keine Phasenbeziehung zwischen dem Synchronisationspuls und dem Farbpuls gibt. Stattdessen beseitigt ein horizontaler Tiefpaßfilter (HLPF)-Schritt M1b das Chrominanz-Übersprechen. Dieser Filter hat die folgende Funktion:
  • M1b(t) = (-2/x&sup4; + 1/x³ + 2/x² + 3/x + 8 + 3*x + 2*x² + 1*x³ - 2*x&sup4;) / 16,
  • wobei xn n Abtastwertverzögerungen darstellt. Um von der L/R-Kommunikation des SVPs 10 Gebrauch zu machen, kann die Funktion in drei Terme niedrigerer Ordnung faktorisiert werden:
  • = (1/x + 2 + x) /4 * (1/x² + 2 + x²) /4 * (-2/x + 5 - 2*x)
  • Diese drei Ausdrücke stellen Filter dar, die nacheinander mit den folgenden Berechnungen wirken können:
  • M1bi(T) = ((M0(T-1) + 2*M0(T) + M0(T+1)) /4
  • M1bj(T) = (M1bi(T-2) + 2*M1bi(T) + M1bi(T+2)) /4
  • M1b(T) = -*M1bj(T-1) * 5*M1bj(T) - 2*M1bj(T+1) Wenn das Chrominanz-Übersprechen beseitigt worden ist, besteht der Schritt M2 in der Bestimmung des absoluten Wertes von M1, was die Größe der Luminanzbewegung ist.
  • Entsprechende Schritte M3 - M5 werden unternommen, um das Chrominanzbewegungssignal zu erhalten, außer daß die Verzögerung statt einer Verzögerung um zwei Teilbilder eine Verzögerung vier Teilbilder ist. Daher gilt:
  • M3(V) = C(V) - C(V-4)
  • Fig. 6D zeigt noch detaillierter die Schritte für den Einsatz des SVPs 10, um M3 zu erhalten. Der Chrominanzdatenwert besteht aus zwei Komponenten : I und Q, die beide 8-Bit- Wörter sind. Die A/D-Schnittstelle 55e multiplexiert diese Daten so, daß die Eingabe zum SVP 10 in der Form von vier 4-Bit-Wörtern geschieht. Daher verteilen sich die im SVP 10 gespeicherten Daten über 4 PEs 20. Die Schritte der Fig. 6D berechnen die gewünschte 8-Bit-Chrominanz-Vollbild-Differenz. Der Schritt 6D1 stellt die Datenadressen fest, um zwischen geraden und ungeraden PEs 20 zu unterscheiden. Der Schritt 6D2 berechnet die Differenz in den unteren 4 Bits des Chrominanzdatenwertes. Der Schritt 6D3 berechnet die Differenz in den oberen 4 Bits des Chrominanzdatenwertes und verkettet. An diesem Punkt haben lediglich ungerade PEs 20 gültige Bewegungswerte. Der Schritt 6D4 lädt WR 13(M) mit geraden/ungeraden PE-Bezeichnern. Je nach dem Wert von M bewegen die Schritte 6D5 und 6D6 gültige Daten in die geraden PEs 20. Schritt 6D7 kopiert die Daten in den Raum der globalen Rotation.
  • Für den Schritt M4 hat ein DC-Zeilen-Kammfilter-Schritt die folgende Funktion:
  • M4(H-1) = ((M3(H) + 2*M3(H-1) + M3(H-2)) /4,
  • wobei M3(H) der aktuelle M3-Datenwert, M3(H-n) der um n horizontale Zeilen verzögerte M3-Datenwert und M4(H-1) der gegenüber M3 um 1H versetzte M4-Datenwert ist. Dieses ist der gleiche vertikale Filter wie zur Erzielung von M1a, mit unterschiedlichen Eingaben und Ausgaben. Beim Schritt M5 wird, wie bei dein Luminanzdatenwert, der absolute Wert genommen, so daß M4 in M5 resultiert.
  • Der Schritt M6 nimmt den Maximalwert von M2 und M5, um Fehlerkennung zu vermeiden. An diesem Punkt ist der Datenwert immer noch 8 Bit groß. Fig. 6E zeigt die Schritte der Verwendung des SVPs 10, um M6 zu erhalten. Schritt 6E1 dient der Vorbereitung, um M2 von M5 zu subtrahieren. Schritt 6E2 ist das Initialisieren eines Bitindexes. Schritt 6E3 ist das N-1-malige Durchlaufen einer Schleife, wobei N die Anzahl der Bits von M2 und M5 ist. Schritt 6E4 ist das Speichern des Vorzeichens des Ergebnisses in WR 13(M), wobei M = 1, wenn M2 > M5 und M = 0, wenn M2 < M5. Die Schritte 6E5 und 6E6 hängen von dem Ergebnis des Schritts 6E4 ab und bewegen entweder M2 oder M5 zu M6.
  • Da bei niedrigen Bereichen der Bewegung die Notwendigkeit auftritt, von zeitlicher zu räumlicher Filterung zu wechseln, braucht das Signal der Größe der Bewegung nicht 8 Bit groß zu sein. Daher ist der nächste Schritt M7 ein nichtlinearer Schritt zur Begrenzung des Bewegungsdatenwerts auf 4 Bit, oder von 0 bis 15. Von Bewegungswerten unter 4 nimmt man an, daß sie Rauschen darstellen, und sie werden auf 0 abgeglichen Von Bewegungswerten über 19 nimmt man an, daß sie Bewegung sind, und sie werden auf 15 begrenzt.
  • Das Ergebnis des nichtlinearen Schritts M7 wird mit dem rückgeführten Bewegungsdatenwert M11 verglichen, um den Maximalwert M8 zu erhalten. Die Schritte M9 - M11 sind eine Rückführungsschleife. Ein konstanter Wert alpha bestimmt die Schleifenverstärkung und umgeht das Sperren. Um Mli zu bekommen, wird M8 mit alpha multipliziert und zu einer Verzögerung um ein Teilbild (262H) zurückgeführt. Alpha ist ein 4-Bit-Wert, für den 0 < alpha < 1 gilt. Mit anderen Worten:
  • M9 = M8 * alpha
  • M10(H) = M9(H-262)
  • Der aktuelle Bewegungsdatenwert M7 liegt zwischen den Bewegungsdatenwerten des vorhergehenden Teilbildes. Die um ein Teilbild verzögerten Zeilen werden durch Berechnung eines Durchschnittswertes interpoliert. Diese Funktion ist ein vertikaler Zweistufenfilter, der die folgende Berechnung ausführt:
  • M11 = ((M10(H) + M10(H-1)) / 2,
  • wobei M10(H) eine Wertangabe vom Teilbildspeicher 56 ist und M10(H-1) ein vorhergehender M10(H)-Wert ist, der durch die Verwendung der globalen Rotation verschoben wurde.
  • Das Ausgangssignal der Rückführungsschritte ist M8. Um den M8-Datenwert zu glätten und die Wahrscheinlichkeit einer Fehlerkennung auf Grund von Rauschen zu vermindern, führen die Schritte M12 und M13 M8 durch einen horizontalen und einen DC-Zeilen-Kammfilter. Um M12 zu erhalten lautet die Funktion:
  • M12(T-1) = ((M8(T) + 2*M8(T-1) + M8(T-2)) / 4
  • Fig. 6F zeigt die Schritte für die Verwendung des SVPs 10, um M12 zu erhalten. SCR0 ist ein Hilfsregisterbereich, der als Akkumulator verwendet wird, M8(T) ist ein Eingabewert, der in dem PE 20 zur Linken des Bezugs-PEs 20 liegt, M8(T-1) ist ein Eingabewert, der in dem Bezugs-PE 20 liegt und M8(T-2) ist ein Eingabewert, der in dem PE 20 zur Rechten des Bezugs-PEs 20 liegt. Die Schritte 6F1 - 6F4 werden in Fig. 6F erklärt.
  • Die Funktion für M13 ist ein fünfstuf iger vertikaler Tiefpaßfilter
  • M13(H-2) = ((M12(H) + 2*M12(H-1) + 3*M12(H-2) + 2*M12(H-3) + M12(H-4)) /4.
  • Fig. 6G zeigt die Schritte, um M13 zu erhalten, wobei SCR0 ein Hilfsregisterbereich ist, der als Akkumulator verwendet wird. M12(H-n) ist ein Eingabewert vom Raum der globalen Rotation, wobei n = 0...4. Die Schritte 6G1 - 6G7 werden in Fig. 6G erklärt.
  • Der letzte Schritt Mm ist das Abgleichen von M13, wobei eine nichtlineare Funktion verwendet wird, um Unterlauf oder Überlauf zu vermeiden und den Maximalwert auf 16 festzulegen. Zwischen den Eingabewerten von 0 und 32 gibt es eine proportionale Mischung von zeitlich und vertikal gefilterten Werten. Zum Beispiel,
  • M13 = M13/2 für 0 < = M13 < 32 (Übergang)
  • M13 = 16 für 32 < M13 (ganze Bewegung)
  • Diese Umwandlung in einen 5-Bit-Bewegungswert mit einem Bereich von 0 bis 16 vereinfacht die Logik bei verschiedenen Mischungsschritten oder anderen IDTV-Prozessen, die die Bewegungsdaten verwenden.
  • Der Bewegungserkennerprozeß der Fig. 6B ist eine Alternative zu einem Bewegungserkennungsprozeß, der getrennte Bewegungserkennung für den Luminanz- und Chrominanzdatenwert verwendet. Solch ein Prozeß würde die gleichen, in Fig. 6B dargestellten Schritte einsetzen, um M2 und M5 zu erhalten, würde sie aber nicht für einen Maximalwert kombinieren. Statt dessen würden getrennte Verarbeitungsstrecken für M2 und M5 fortlaufen. Dieses Verfahren würde jedoch zusätzlichen Teilbildspeicher erfordern.
  • Luminanz-Reinigungverarbeitung
  • IDTV-Anwendungen sowohl für Komponenten- als auch Gemisch- Fernsehempfänger verwenden Reinigungsverarbeitung, um Signalübersprechen zu beseitigen. Bei Gemisch-Systemen wird diese Verarbeitung in Verbindung mit einer Y/C-Trennung ausgeführt, während bei Komponenten-Systemen diese Reinigungsverarbeitung an den getrennten Y- und C-Signalen durchgeführt wird. Die Grundkonzepte sind dieselben, jedoch richtet sich die folgende Beschreibung auf ein NTSC-Komponenten- System.
  • Fig. 7 ist ein Blockdiagramm der Schritte des IDTV-Prozesses zur Reinigung des Luminanzsignals. Wiederum sind die Schritte in Hinsicht auf ihre Ausgangssignale bezeichnet.
  • Der Zweck dieser Reinigungsverarbeitung besteht darin, die übrige Chrominanzinformation, d.h. die Cross-Chrominanz von dem getrennten Luminanzsignal zu entfernen. Im allgemeinen wird die Cross-Luminanz in dem ursprünglichen Luminanz-Signal erkannt und dann von diesem Signal subtrahiert, um ein reines Luminanzsignal zu liefern. Ein Bewegungssignal von einem Bewegungserkennungsprozeß, z.B. dem oben in Verbindung mit der Fig. 6B beschriebenen Prozeß, wird verwendet, um zwischen zeitlicher und räumlicher Filterung zu wechseln.
  • Der Schritt Y0 ist ein zeitlicher Filterungsschritt, der für stehende Bereiche des Bildes verwendet wird. Kammfilterung trennt Y(V) und Y(V-2), um das Chrominanz-Übersprechen zu liefern. Mit anderen Worten gilt:
  • Y0(V) = Y(V) - Y(V-2).
  • Schritt Y1 ist ein räumlicher Filterungsschritt für Bereiche, in denen es Bewegung gibt. Diese Filterung wird mit einem Kammfilter durchgeführt, bei dem der erste "Zahn" in dem Frequenzbereich bei fh/2 liegt und darauffolgende Zähne in Intervallen der Länge fh angeordnet sind. Da seine Verstärkung bei einer Frequenz von Null Null ist, wird er auch als ein "AC"-Zeilen-Kammfilter bezeichnet. Die Filterfunktion ist folgende:
  • Y1(H-1) = (Y(V(H)) - 2*Y(V(H-1)) + Y(V(H-2))) / 4,
  • wobei Y(V(H)) eine aktuelle Zeile von Y(V), Y(V(H-n)) ein um n horizontale Zeilen verzögerter Y(V)-Datenwert und Y1(H-l) ein relativ zu Y(V) um 1H versetzter Y1-Datenwert ist.
  • Schritt Y2 mischt das Y0-Signal und das Y1-Signal. Fig. 8 zeigt diesen Mischungsschritt näher. Ein Bewegungssignal Mm verursacht einen schrittweisen Wechsel vom Vollbild-Kammfilter zu einem AC-Zeilen-Kammfilter, um Y2 zu erhalten. Das allgemeine Prinzip des Schritts Y2 besteht darin, die Mischung der zwei Eingangssignale so einzustellen, daß ihre Summe konstant bleibt. Im Ergebnis ist die Schaltungsverstärkung eins. Ein 5-Bit-Bewegungswert erlaubt einen Bereich von 0% bis 100%-Mischungen. Die Gleichung des Mischelementes lautet:
  • OUT = IN1 * (1 - Mm) + 1N2 * Mm.
  • Nach Umstellung der Ausdrücke lautet die Gleichung:
  • OUT = IN1 + Mm * (IN2 - IN1).
  • Mit Ausdrücken der Luminanzdaten führt der Mischungsschritt die folgende Funktion aus:
  • Y2 = Y0 + Mm * (Y1 - Y0).
  • Bei dem Schritt des Mischelements ist Mm skaliert, z.B. durch Teilen seines Wertes durch 16. Fig. 9 zeigt die Prozentmischung zwischen den Eingaben IN1 und IN2 in Abhängigkeit von der Größe der Bewegung.
  • Schritt Y3 ist ein Horizontal-Bandpaßfilterungsschritt. Da das aus dem Luminanzsignal extrahierte Rauschen gemischtes Rauschen im Gegensatz zum Basisbandrauschen ist, liegt dessen Mittenfrequenz bei 3,58 MHz Das untere Seitenband des Chrominanzsignals liegt 1,5 MHz unter der Farbträgerfrequenz und das obere Seitenband 0,5 MHz darüber. Um lediglich diesen Frequenzbereich hindurch zu lassen und um die Luminanz herauszufiltern, ist ein Bandpaßfilter mit den folgenden Eigenschaften wünschenswert:
  • fc (Mittenfrequenz) = 3,58 MHz
  • fcl (Untere Grenzfrequenz) = 2,1 MHz
  • fch (Obere Grenzfrequenz) = 4,1 MHz.
  • Wenn dieser Filterungsschritt durchgeführt ist, stellt das resultierende Signal Y3 die in dem Luminanzsignal enthaltene Cross-Chrominanz dar.
  • Der Schritt Yc, der das gereinigte Luminanzsignal herstellt, besteht im Subtrahieren dieser Cross-Chrominanz vom ursprünglichen Luminanzsignal:
  • Yc1 = Y(V) - Y3.
  • In einem Gemisch-System, im Gegensatz zu einem Komponenten- System, wird der Begriff "modulierte Chrominanz" verwendet, um unerwünschte Farbdaten in einem Luminanzsignal zu bezeichnen. Der Luminanz-Reinigungsprozeß wird als Y/C-Trennung bezeichnet, und die Basisband-Chrominanz wird durch Demodulation erhalten.
  • Chrominanz-Reinigungsverarbeitung
  • Fig. 10 ist ein Blockdiagramm der Schritte des IDTV-Prozesses zur Reinigung der Chrominanzdaten. Wiederum sind die Schritte der Fig. 10 auf Komponenten-Empfänger gerichtet. Das Chrominanzsignal kann aus dem Luminanz-Übersprechen unter Verwendung eines Prozesses herausgezogen werden, der bis auf einen wichtigen Unterschied dem Prozeß entspricht, der verwendet wurde, um das Luminanzsignal aus dem Chrominanz-Übersprechen zu extrahieren: Das Chrominanzsignal ist ein Basisbandsignal, da es demoduliert wurde. Außerdem kann die Chrominanz wegen der geringeren Bandbreite des Chrominanzsignals direkt extrahiert werden, um ein gereinigtes Chrominanzsignal zu erhalten.
  • Beim Schritt C0 wird die Trennung für die stehenden Bereiche des Bildes unter Verwendung eines DC-Vollbild-Kammfilterschritts zwischen C(V) und C(V-4) durchgeführt:
  • C0 = C(V) + C(V-4).
  • Dieses liefert das Chrominanzsignal und dazu das Luminanz- Übersprechen.
  • Beim Schritt C1 verursacht, wenn Bewegung vorliegt, das Bewegungssignal einen schrittweisen Wechsel vom Vollbild- Kammfilter zu einem DC-Zeilen-Kammfilter, so daß:
  • C1(H-1) = (C(V(H)) - 2*C(V(H-1)) + C(V(H-2))) /4,
  • wobei C1(H-1) der um 1H relativ zu C(V) verschobene C1- Datenwert, C(V(H)) der aktuelle Luminanzdatenwert C(V) und C(V(H-n)) der um n horizontale Zeilen verzögerte C(V)-Datenwert ist.
  • Der Schritt Cc1 ist ein Mischungsschritt, der dem Mischungsschritt der Fig. 8 entspricht, jedoch die folgende Funktion durchführt:
  • Cc1 = C0 + Mm * (C1 - C0).
  • Das Ausgangssignal des Schrittes des Mischelements ist das gereinigte Chrominanzsignal Ccl.
  • Verfahren ohne Zeilensprung
  • Wie oben angedeutet, ist eine andere IDTV-Aufgabe das Verfahren ohne Zeilensprung. Ganz allgemein ist das Verfahren ohne Zeilensprung der Prozeß des Verschmelzens der zwei durch Zeilensprungverfahren verketteten Teilbilder, die ein Vollbild bilden, und das Verdoppeln der Abtastrate. Diese Technik des Verfahrens ohne Zeilensprung und der Verdoppelung der Abtastrate wird manchmal als "fortschreitendes Abtasten" bezeichnet.
  • Die Bilder sind wegen des 2:1-Zeilensprungverfahrens der Standard-Fernsehübertragungssignale nicht nur zeitlich versetzt, sondern auch in der vertikalen Richtung um eine halbe Zeile versetzt. Zweidimensionale Verarbeitung, d.h. vertikale und zeitliche, wird verwendet, um zwei aufeinanderfolgende Teilbilder zu verschmelzen, um ein ganzes Bild herzustellen und anzuzeigen. Die Teilbild-zu-Teilbild-Bewegung verkompliziert jedoch diesen Prozeß und erfordert Eingaben vom Prozeß des Bewegungserkenners.
  • Gemäß der obigen Darstellung zeigt Fig. 11 die Ergebnisse eines Prozesses des Verfahrens ohne Zeilensprung in Bereichen, wo es keine Bewegung gibt. Fig. 11 läßt sich am besten durch Vorstellung einer Endansicht der Zeilen eines Teilbildes der verarbeiteten Buddaten verstehen, wobei die "o's" Datenwerte darstellen, die von der Rundfunkstation übertragen wurden, und die "x's" Datenwerte darstellen, die durch das Verfahren ohne Zeilensprung hergestellt wurden. Die Zeilen h(H-1), h(H), und h(H+1) sind aufeinanderfolgende Zeilen im Teilbild V. Die Zeilen h(H-263) und h(H-262) sind aufeinanderfolgende Zeilen im Teilbild V-1 und die Zeilen h(H-526), h(H-525) und h(H-524) sind aufeinanderfolgende Zeilen im Teilbild (V-2).
  • Die "o"-Pixel des Teilbildes f(V-2) bewegen sich vorwärts, um die Zwischenräume zwischen den "o"-Pixeln des Teilbildes f(V-1) aufzufüllen und so weiter. So wird in den Bereichen des empfangenen Bildes, in denen keine Bewegung erkannt wird, jede Zeile des vorhergehenden Teilbildes, die in einem Teilbildspeicher gespeichert wurde, nach vorne gebracht und zwischen zwei Zeilen des aktuellen Teilbildes gesetzt.
  • Fig. 12 zeigt die Ergebnisse des Verfahrens ohne Zeilensprung für die Luminanzdaten in Gebieten, wo es Bewegung gibt. Fig. 12 stellt ein einzelnes Teilbild f(V) dar, bei dem jedes "x"-Pixel aus dem Durchschnitt der zwei vertikal benachbarten "o"-Pixel in dem aktuellen Teilbild erzeugt wird. Demgemäß werden in Bereichen, wo Bewegung erkannt wurde, die neuen Pixel aus Pixeln in dem aktuellen Teilbild statt aus von einem vorhergehenden Teilbild nach vorne gebrachten Pixeln gebildet, so daß ein Nachzieheffekt vermieden wird.
  • Fig. 13 ist ein Blockdiagramm der Schritte eines Prozesses des Verfahrens ohne Zeilensprung. Das Eingangssignal ist Ycl, was darauf hinweist, daß das Verfahren ohne Zeilensprung an einem gereinigten Signal durchgeführt wird. Ys stellt einen Luminanzwert eines stillstehenden Bereiches dar und Ym stellt einen Luminanzwert eines Bewegungsbereiches dar.
  • Der Schritt Ys ist die Ausführung der folgenden Funktion für die Datenstrecke des stillstehenden Bereiches:
  • Ys(H-0.5) = Ycl(H-263)
  • Der Schritt Ym ist die Ausführung der folgenden Funktion für die Datenstrecke des Bewegungsbereiches:
  • Ym(H-0.5) = ((Ycl(H) + Ycl(H-1)) / 2
  • Der Schritt Yint ist ein Mischungsschritt, entsprechend dem Mischungsschritt der Fig. 8. Er liefert eine interpolierte Zeile Yint mit der folgenden Funktion:
  • Yint = Ys + Md * (Ym - Ys)
  • Die tatsächliche Zeile und die interpolierte Zeile werden nacheinander mit der doppelten Zeilenrate zum Bildschirm übertragen. Das Ergebnis sind zweimal so viele Zeilen pro Teilbild, und die Abtastungsrate ist verdoppelt. Das Ergebnis beträgt zum Beispiel bei einer NTSC-Signalübertragung 525 Zeilen pro Teilbild bei einer Teilbudrate von 60 Teilbildern pro Sekunde. Dieser Prozeß macht die Verdopplung der Pixeirate für das Luminanzausgangssignal vom SVP 10 erforderlich.
  • Fig. 14 zeigt den Prozeß des Verfahrens ohne Zeilensprung bezüglich der Chrominanz, das durch die Tatsache, daß die Chrominanzbandbreite geringer als die des Luminanzsignals ist, vereinfacht ist. Anstatt das Chrominanzsignal des vorhergehenden Teilbildes mit demjenigen des aktuellen Teilbildes zu verschmelzen, wird eine einfache Interpolation zwischen vertikalen Pixeln durchgeführt. Wie bei Yout wird die Datenrate des Cout vom SVP 10 verdoppelt. Nach dern Demultiplexieren der Daten jedoch beträgt die Datenrate jedes Chrominanzsignals zur D/A-Einheit 56 2fsc.
  • Konturenkompensation
  • Der Zweck der Konturenkompensation ist es, die Bildränder schärfer zu machen oder die Struktur des Bildes zu glätten und ein körniges Aussehen zu beseitigen. Fig. 15 ist ein Blockdiagramm eines Konturenkompensationsprozesses, der die tatsächliche Zeile Ycl und die interpolierte Zeile Yint nach einem Prozeß des Verfahrens ohne Zeilensprung wie dem Prozeß der Fig. 13 empfängt.
  • Zwei Konturenfilterprozesse werden verwendet: einer für die tatsächliche Zeile und einer für die interpolierte Zeile. Die Prozesse sind gleich, außer in Bezug auf ihre Eingangssignale und die Tatsache, daß die Eingangssignale um 1/2 H versetzt sind. Die Zeilen sind in Inkrementen einer halben Zeile nummeriert, da das die Wirkung der Interpolation innerhalb eines Teilbildes ist.
  • Zwei Pixelzeilen Ydwi und Ydwr werden jede 1H-Periode berechnet. Wenn die Verarbeitung jeder Zeile abgeschlossen ist, wird Ydwi zum DOR 16 übertragen, um mit einem Takt von 8 fsc ausgegeben zu werden, während Ydwr für die Dauer einer halben Zeile im Zeilenspeicher gehalten wird. Nach diesem Halteintervall wird Ydwr zum DOR 16 übertragen und mit einem Takt von 8 fsc ausgegeben. Der Schaltschritt der Fig. 15 veranschaulicht diesen Schritt.
  • Der Filterungsprozeß der Fig. 15 ist in Fig. 16 veranschaulicht. Die "S"-Eingabe ist eine Schärfeeingabe, die durch den Anwender extern gesteuert wird, und ist eine Softwarevariable. Diese Eingabe ist ein Beispiel für eine der Eingaben, die von der Hauptsteuerungseinheit 58 des Empfängers interpretiert werden. Jeder 5 x 5-Bandpaßfilter(BPF)-Schritt berechnet fünf Filterfunktionen an jedem von fünf horizontalen Pixeln und kombiniert dann die Ergebnisse. In der Praxis ist der Filter symmetrisch in der vertikalen Richtung ausgeführt, so daß die Berechnungen, die für die Zeile Y(H) angestellt wurden, für zwei Zeilenperioden gespeichert werden und wiederum als Zeile Y(H-2) verwendet werden können. Entsprechend können Berechnungen, die für die Zeile Y(H-0.5) angestellt wurden, für eine Zeilenperiode gespeichert und wiederum für die Zeile Y(H-1.5) verwendet werden.
  • Komponenten-Fernsehempfänger
  • Fig. 17 zeigt einen Femsehempfänger, der eine Digitalemheit 50b und eine Komponentenverarbeitung verwendet, um ein IDTV-Bild herzustellen. Das System der Fig. 17 ist eine genauer spezifizierte Version des Systems der Fig. 5B und zeigt, daß für Komponentenverarbeitung die Digitaleinheit 50b Komponentensignale Yd und Cd empfängt.
  • Die analoge Y/C-Trennungseinheit 55b wandelt das gemischte Videosignal Va in seine Luminanz- und Chrominanzkomponenten Ya und Ca um. Die Signalsteuerungseinheit 172 erlaubt es dem Empfängersystem, in Verbindung mit Signalen von Videorecorder (VCR)-Geräten (nicht dargestellt) verwendet zu werden. Die Signale von diesen Geräten Ya(Svhs) und Ca(Svhs) werden über Schalter eingeführt und als Ya und Ca verwendet. Der Demodulator 55c demoduliert Ca, so daß sich daraus eine Ausgabe von zwei Chrominanzsignalen Ia und Qa ergibt.
  • Die A/D-Einheit 55d wandelt Ya, Ia und Qa in 8-Bit-Abtastwertsignale Yd, Id und Qd um. Ebenso werden Id und Qd zu dem 4-Bit-großen Datenwert Cd multiplexiert, mit dem oberen 4- Bit-Wort 1, dem unteren 4-Bit-Wort 1, dem oberen 4-Bit Wort Q und dem unteren 4-Bit-Wort Q. Hierbei beträgt beispielsweise die Abtastungsfrequenz für Ya 4 fsc und für Ia und Qa 1 fsc, wobei fsc die Farbzwischenträgerfrequenz ist. Daher sind die Eingangssignale zur Digitaleinheit 50b ein mit 4 fsc abgetastetes 8-Bit-Luminanzsignal Yd und ein mit 4 fsc abgetastetes multiplexiertes 4-Bit-Chrominanzsignal Cd.
  • Die Digitaleinheit 50b enthält ein oder mehrere SVPs 10. Für Komponentens igna le sind zwei Zwei-Prozessor-Ausführungsformen und eine Drei-Prozessor-Ausführungsform unten in Verbindung mit den Fig. 18 - 22 beschrieben. Wie erklärt werden wird, führt die Digitaleinheit 50b die IDTV-Aufgaben der Bewegungserkennung, der Beseitigung der Cross-Luminanz und der Cross-Chrominanz und des Verfahrens ohne Zeilensprung durch. Ein weiterer Prozeß, der durch die Digitaleinheit 50b durchgeführt werden kann, ist als Formerkennung bekannt, die ein Signal Sd herstellt, das verwendet wird, um die Art der vertikalen und horizontalen Filter in der Digitaleinheit 50b je nach der Form des Bildes zu ändern.
  • Von der Digitaleinheit 5db werden die verarbeiteten Videodatensignale Yw und Cw parallel als 8-Bit-Wörter zur D/A-Einheit 57a ausgegeben. Die sich ergebenden Signale sind Yw, Iw und Qw, wobei Cw als erstes in Iw und Qw demultiplexiert wird. Die Anzeigeeinheit 57b wandelt Yw, Iw und Qw in rote, grüne und blaue Signale zur Anzeige auf der Anzeige 57c um.
  • Prozessorsystem für Komponenten-Fernsehen (2 SVPs)
  • Fig. 18 zeigt eine Ausführungsform einer Digitaleinheit 50b, die zwei SVPs 10 verwendet. Fig. 18 zeigt lediglich jedes SVP 10 und nicht die Steuereinheit 51 oder den Befehlsgenerator 52, aber es ist so zu verstehen, daß die Digitalemheit 50b ebenfalls diese Bestandteile enthält. Wie oben in Verbindung mit den Fig. 5A und 5B erklärt wurde, ist jedes SVP 10 mit seinem eigenen Befehisgenerator 52 verbunden, kann sich jedoch eine Steuereinheit 51 teilen.
  • Die anderen Bestandteile der Digitaleinheit 5db umfassen verschiedene Teilbildspeicherbauelemente 56, insbesondere drei Luminanzteilbildspeicher (Yfm) 56a - 56c, vier Chrominanzteilbildspeicher (Cfm) 56d - 56g und einen Bewegungsteilbildspeicher (Mfm) 56h. Eine typische Speichergröße für einen Luminanzteilbildspeicher ist 256K 8 Bit. Eine typische Größe für einen Bewegungsteilbildspeicher oder einen Chrominanzteilbildspeicher ist 256K 4 Bit.
  • Wie oben erklärt, sind die Dateneingaben zur Digitaleinheit 50b Yd and Cd, wobei Yd ein mit 4 fsc abgetastetes 8-Bit- Luminanzsignal und Cd ein mit 4 fsc abgetastetes multiplexiertes 4-Bit-Chrominanzsignal ist.
  • Fig. 18 läßt sich am besten mit Bezug auf die Fig. 19A - 19C verstehen, die Zeitsteuerungsdiagramme von verschiedenen Steuersignalen darstellen. Wie oben in Verbindung mit Fig. 1 und 2 erklärt wurde, sind RSTW (SVP) und WE (SVP) die Schreibsteuersignale. Die gleichen Schreibsteuersignale werden sowohl für SVP 10(1) als auch für SVP 10(2) verwendet. RSTR(svpl) und RE(svp1) sind Lesesteuersignale für SVP 10(1), und RSTR(svp2) und RE(svp2) sind Lesesteuersignale für SVP 10(2). RSTW(fm), WE(fm), RSTR(fm) und RE(fm) sind Schreib- und Lesesteuersignale für sämtliche Teilbildspeicher, außer dem Luminanzteilbildspeicher 56c. Die Schreibsteuersignale für den letztgenannten Teilbildspeicher sind RSTW(fmc) und WE(fmc).
  • T ist die Periode des aktiven Bildbereiches für eine Zeile der Bilddaten. Diese Periode plus eine Zeitperiode, die die Bereiche der horizontalen Bildaustastlücke repräsentiert, ist die Periode einer horizontalen Zeile oder 1H.
  • Die Luminanzteilbildspeicher 56a und 56b verzögern jeweils Yd um eine Teilbildperiode. Das Ausgangssignal des Luminanzteilbildspeichers 56b ist ein um zwei Teilbilder verzögertes Luminanzdatensignal Y2.
  • Die Chrominanzteilbildspeicher 56d - 56g verzögern jeweils Cd für eine Teilbildperiode. Das Ausgangssignal des Chrominanzteilbildspeichers 56g ist ein um vier Teilbilder verzögertes Chrominanzdatensignal C4.
  • SVP 10(1) erkennt unter Verwendung von Yd, Y2, Cd und C4 die Bewegung und Form der ankommenden Videodaten. Je nach der Geschwindigkeit der verwendeten Algorithmen kann die Luminanzreinigung durch SVP 10(1) oder SVP 10(2) durchgeführt werden, oder die Reinigungsverarbeitungsaufgaben können zwischen diesen aufgeteilt werden. In Fig. 18 ist zum Beispiel ein Ausgangssignal des SVPs 10(1) ein vorverarbeiteter Luminanzdatenwert Yi, der anzeigt, daß die Reinigungsverarbeitungsaufgaben aufgeteilt sind und Yi ein Zwischenwert ist.
  • Weitere Ausgangssignale des SVPs 10(1) sind der erkannte Bewegungswert Md und der Formwert Sd.
  • Der Bewegungsteilbildspeicher 56h wird zur zeitlichen Filterung verwendet, um die Bewegungswerte zu glätten. Diese Glättung ist ein Teil des in Verbindung mit Fig. 68 beschriebenen Bewegungserkennungsprozesses. Die Eingangssignale und Ausgangssignale des Bewegungsteilbildspeichers 56h sind M9 und M10 der Fig. 6B.
  • SVP 10(2) entfernt die Cross-Chrominanz unter Verwendung von Yd, Yi, Md und Sd vom Luminanzsignal. Dieses ergibt ein gereinigtes Luminanzsignal Ycl.
  • Der Luminanzteilbildspeicher 56c verzögert Ycl um eine Teilbildperiode. Sein Ausgangssignal ist ein um ein Teilbild verzögertes Ycl-Signal Ycl1. Wie in Fig. 19C dargestellt, ist die Schreibgeschwindigkeit des Luminanzteilbildspeichers 56c doppelt zu groß wie seine Lesegeschwindigkeit. Er schreibt lediglich eine Hälfte einer horizontalen Periode.
  • Für das Verfahren ohne Zeilensprung interpoliert SVP 10(2) die Luminanzabtastungszeile unter Verwendung von Ycl, Ycl1 und Md. Außerdem entfernt das SVP 10(2) die Cross-Luminanz von dem Chrominanzsignal. Dann interpoliert es die Chrominanzabtastzeile unter Verwendung von Cd, C4 und Md.
  • Die Lese/Schreib-Taktfrequenz jedes Teilbildspeichers 56 und jedes SVPs 10 der Digitaleinheit 5db beträgt 4 fsc, außer für die Schreibfrequenz des Luminanzteilbildspeichers 56c und die Lesefrequenz des SVPs 10(2). Diese letztgenannten Frequenzen betragen, wegen der Notwendigkeit die Datenrate nach dem Verfahren ohne Zeilensprung zu verdoppeln, 8 fsc. Obwohl das Lesen von Ycl vom SVP 10(2) und das Schreiben von Ycl in den Teilbildspeicher 56c bei 4 fsc stattfinden kann, kann das Auslesen von Daten von beiden SVPs 10 nicht bei verschiedenen Taktgeschwindigkeiten stattfinden und findet daher bei 8 fsc statt.
  • In Fig. 19A und 19B sind alle Steuersignale während des Bereiches der vertikalen Bildaustastlücke mit Ausnahme einer Zeile inaktiv (L-Zustand). Während dieser einen Zeile werden RSTW(fm), RSTV(fmc) und RSTR(fm) wenigstens einmal in dem Bereich der vertikalen Bildaustastlücke aktiv (H-Zustand). Diese Aktivierung setzt das Adressenzählwerk des zugehörigen Teilbildspeichers zurück.
  • Wie in Fig. 19C dargestellt, werden WE(fm), WE(fmc), WE(SVP), RE(fm) und RE(svp1) während des aktiven Bildbereiches einmal aktiv. RE(svp2) wird zweimal aktiv, um während einer horizontalen Periode zweimal abzutasten. Wenn WE(SVP) RE(svp1) und RE(svp2) aktiv werden, werden RSTW(SVP), RSTR(svp1) und RSTR(svp2) ebenfalls aktiv.
  • Fig. 20 ist eine alternative Ausführungsform einer Zwei- Prozessor-Digitaleinheit 50b für die Verwendung in einem Komponenten-Empfänger. Diese Ausführungsform kann IDTV-Aufgaben wie Chrominanz- und Luminanzreinigung, Verfahren ohne Zeilensprung und Konturenkompensation liefern.
  • Zwei Teilbildspeicher 56a und 56b liefern um Teilbilder verzögerte Signale Yd und Cd. Teilbildspeicher 56h liefert ein um ein Teilbild verzögertes Bewegungsdatensignal Mm.
  • SVP 10(1) liefert Bewegungserkennung, Bewegungsdatenglättung und beseitigt Cross-Luminanz und Cross-Chrominanz. Die Ausgangssignale des SVPs 10(1) sind Mm, ein gereinigtes Luminanzsignal Ycl und ein gereinigtes Chrominanzsignal Ccl.
  • Der Teilbildspeicher 56c liefert ein um ein Teilbild verzögertes Luminanzsignal Ycl1, das zusammen mit den Ausgangssignalen des SVPs 10(1) zum SVP 10(2) geliefert wird. SVP 10(2) liefert Abtastzeileninterpolation und Konturenkompensation. Seine Ausgangssignale sind wie bei allen anderen Ausführungsformen der Digitaleinheit 50b Yw und Cw.
  • Prozessorsystem für Komponenten-Fernsehen (3 SVPs)
  • Fig. 21 ist ein Blockdiagramm einer Drei-Prozessor-Ausführungsform der Digitaleinheit 5db, die sich mit der Zwei- Prozessor-Ausführungsform der Fig. 18 vergleichen läßt. Es gibt viele Gemeinsamkeiten zwischen den Ausführungsformen der Fig. 18 und 21. Die Datenraten und der Inhalt der Eingangs- und Ausgangsdatensignale Yd, Cd, Yw und Cw sind gleich. Beide Ausführungsformen verwenden die gleiche Anzahl an Teilbildspeichern 56a - 56h. Die Luminanzteilbildspeicher 56a und 56b, die Chrominanzteilbildspeicher 56d - 56g und der Bewegungsteilbildspeicher 56h sind die gleichen, wobei jeder verwendet wird, um Eingangsdaten zum SVP 10(1) zu liefern. SVP 10(1) erkennt die Bewegung und Form der ankommenden Daten und gibt die Bewegungs- und Formdatensignale Md und Sd aus.
  • Der wesentliche Unterschied zwischen der Zwei-Prozessor- und der Drei-Prozessor-Ausführungsform der Digitaleinheit 50b besteht darin, daß bei der Drei-Prozessor-Ausführungsform die Verarbeitung nach dein SVP 10(1) zwischen zwei Prozessoren aufgeteilt ist. Der Luminanzteilbildspeicher 56c besteht nicht mehr aus einem Rückführungsspeicher in das SVP 10(2), sondern liefert stattdessen eine Verzögerung für das Eingangssignal zum SVP 10(3). Außerdem liefert SVP 10(2) kein vorverarbeitetes Luminanzdatensignal Yi.
  • SVP 10(2) beseitigt das Chrominanz-Übersprechen von den Luminanzdaten, wobei Yd, Y2, Md und Sd verwendet werden. SVP 10(2) gibt ein gereinigtes Luminanzsignal Ycl aus, das um ein Teilbild durch den Luminanzteilbildspeicher 56c verzögert werden kann, um Ycl1 zu erhalten.
  • Für das Verfahren ohne Zeilensprung interpoliert SVP 10(3) unter Verwendung von Ycl, Ycl1 und Md die Luminanzabtastungszeile. Lediglich der aktuelle Teilbuddatenwert Ycl wird zur Interpolation des Bewegungsteils des Bildes verwendet. Lediglich der um ein Teilbild verzögerte Datenwert Ycl1 wird für die Interpolation des stationären Teils des Bildes verwendet. Außerdem werden Zwischenzustände erkannt, in denen sowohl Ycl als auch Ycl1 für die Interpolation verwendet werden, wobei das Verhältnis von Ycl und Ycl1 eine Funktion von Md ist. SVP 10(3) entfernt außerdem unter Verwendung von Cd, C4, Sd und Md das Luminanz-Übersprechen von den Chrominanzdaten. SVP 10(3) interpoliert dann die Chrominanzabtastungszeile.
  • Wegen der Abtastungsumwandlung beträgt die Datenausgaberate des SVPs 10(3), d.h. die Datenrate von Cw und Yw, das Doppelte seiner Eingaberate. Bei dein Beispiel der Fig. 21 beträgt die Ausgaberate 8 fsc, verglichen mit einer Eingaberate von 4 fsc. Die Lese/Schreib-Taktfrequenzen jedes Teilbildspeichers 56 und jedes SVPs 10 betragen 4 fsc, außer für die Lesefrequenz des SVPs(3). Diese letztere Frequenz beträgt 8 fsc.
  • Fig. 21 läßt sich am besten unter Bezug auf die Fig. 22A - 22C verstehen, die Zeitsteuerungsdiagramme der verschiedenen Steuersignale sind. Wie oben in Verbindung mit Fig. 1 und Fig. 2 erklärt wurde, sind RSTW(SVP) und WE(SVP) Schreibsteuersignale. Die gleichen Schreibsteuersignale werden für alle SVPs 10 verwendet. RSTR(svp1, svp2) und RE(svp1, svp2) sind Lesesteuersignale für SVP 10(1) und SVP 10(2). RSTR(svp3) und RE(svp3) sind die Lesesteuersignale für SVP 10(3). RSTW(fm), WE(fm), RSTR(fm) und RE(fm) sind die Schreib- und Lesesteuersignale für alle Teilbildspeicher.
  • In Fig. 22A und 22B sind während des Betriebs des Empfangssystems in dem Bereich der vertikalen Bildaustastlücke alle Steuersignale außer für eine Zeile inaktiv (L-Zustand). Während dieser einen Zeile werden RSTW(fm) und RSTR(fm) wenigstens einmal in dem Bereich der vertikalen Bildaustastlücke aktiv (H-Zustand). Diese Aktivierung setzt das Adressenzählwerk des zugehörigen Teilbildspeichers zurück.
  • Wie in Fig. 22C dargestellt, werden im Bereich des aktiven Bildes WE(fm), WE(SVP), RE(fm) und RE(svp1, svp2) einmal aktiv. RE (svp3) wird zweimal aktiv, um während einer horizontalen Periode zweimal abzutasten. Wenn WE(SVP), RE(svp1, svp2) und RE(svp3) aktiv werden, werden RSTW(SVP), RSTR(svp1, svp2) und RSTR(svp3) ebenfalls aktiv.
  • SVP-Videoanwendungen für Fernsehen mit gemischten Signalen
  • Fig. 23 zeigt einen Femsehempfänger, der eine Digitaleinheit 50b und eine Gemisch-Verarbeitung verwendet, um ein IDTV-Bild herzustellen. Ähnlich wie Fig. 17 ist Fig. 23 eine genauer spezifizierte Version der Fig. 5B. Im Gegensatz zu Fig. 17 zeigt Fig. 23 jedoch, daß bei Gemisch-Verarbeitung die Digitaleinheit 50b ein digitalisiertes gemischtes Signal Vd empfängt. Die Luminanz- und Chrominanztrennung wird statt durch das analoge Y/C-Trennungselement 55b durch die Digitaleinheit 50b digital durchgeführt. Wenn ein Chrominanzsignal extrahiert worden ist, werden seine zwei Komponenten, d.h. 1 und Q bei NTSC oder U und V bei PAL demoduliert.
  • Wie bei der Digitaleinheit 5db der Fig. 17 beträgt die Abtastungsfrequenz hier beispielsweise 4 fsc. Daher ist das Eingangssignal zur Digitaleinheit 50b ein mit 4 fsc abgetastetes gemischtes 8-Bit Videosignal Vd. Die Digitaleinheit 50b lädt, verarbeitet und gibt die Daten für jedes Pixel in einer horizontalen Zeile parallel aus.
  • Wie oben angedeutet, besteht eine der Funktionen der Digitaleinheit 50b in der Y/C-Trennung. Die verschiedenen anderen Verarbeitungsfunktionen, die von der Digitaleinheit 50b durchgeführt werden, können Bewegungserkennung, Formerkennung, Luminanz- und Chrominanzsignal-Reinigungsverarbeitung, Verfahren ohne Zeilensprung und Konturenkompensation umfassen.
  • Die Digitaleinheit 50b liefert außerdem eine Signalsteuerung, um es dem Empfängersystem zu ermöglichen, mit Signalen von Videorecorder (VCR)-Geräten verwendet zu werden. Wenn ein S-VHS-Gerät verwendet wird, wird sein Signal in der gleichen Weise umgewandelt, außer daß das ankommende Signal sowohl ein Luminanz- als auch ein Chrominanzdatensignal Yd und Cd herstellen wird. Die digitalisierten Signale von diesem Gerät Yd(svhs) und Cd(svhs) werden über Schalter eingeführt und als Yd und Cd verwendet.
  • Nach der Verarbeitung ist die Behandlung der verarbeiteten Videodatensignale Yw und Cw die gleiche wie bei dem Empfängersystem der Fig. 5B.
  • Prozessorsystem für Fernsehen mit gemischten Signalen (2 SVPs)
  • Fig. 24 ist ein Blockdiagramm einer Digitaleinheit 5db, wie sie in dem Gemisch-Einpfängersystem der Fig. 22 verwendet wird.
  • Die Teilbildspeicher 56a - 56d sind von der gleichen Art wie die Teilbildspeicher, die in den vorher beschriebenen Ausführungsformen verwendet werden, dienen jedoch einer unterschiedlichen Funktion. Da es lediglich ein ankommendes Signal Vd gibt, besteht keine Notwendigkeit für getrennte Luminanz- und Chrominanzteilbildspeicher.
  • Die Konfiguration der Teilbildspeicher 56a - 56d und die Eingangsleitungen zum SVP 10(1) erlauben den Empfang eines nichtverzögerten Signals Vd, eines um zwei Teilbilder verzögerten Signals V2 und eines um vier Teilbilder verzögerten Signals V4.
  • SVP 10(1) erkennt unter Verwendung von Vd, V2 und V4 die Bewegung und Form der ankommenden Videodaten. SVP 10(1) gibt vorverarbeitete Luminanzdaten Yi, Bewegungsdaten Md und Formdaten Sd aus.
  • SVP 10(2) trennt unter Verwendung von Vd, Vi, Md und Sd die Luminanz und Chrominanz von dem gemischten Videosignal. Dieser Prozeß nutzt die Art aus, in der die Luminanz- und Farbsignale vor der Übertragung gemischt wurden. Bei jedem aufeinander folgenden Vollbild kehrt sich die Phasenbeziehung des Farbsignals hinsichtlich des Luminanzsignals um, was es ermöglicht, daß das Chrominanzsignal durch Subtrahieren eines Vollbildes von einem anderen extrahiert wird. Wenn das Chrominanzsignal erhalten wurde, wird das Luminanzsignal durch Subtrahieren des Chrominanzsignals von dem ursprünglichen gemischten Signal Vd erhalten. Dieses wird oft als "zeitliche Y/C-Trennung" bezeichnet.
  • Diese zeitliche Y/C-Trennung kann jedoch ein Problem erzeugen, wenn es Bewegung in dem Bild gibt. Wenn es Bewegung gibt, ist die Information über aufeinander folgende Vollbilder nicht mehr aneinander angepaßt, und die zeitliche Trennung erzeugt Übersprechen. Dennoch gibt es wegen des festen Verhältnisses zwischen der Farbzwischenträgerfrequenz und der Zeilenfrequenz andere Verfahren zur Y/C-Trennung. Bei Verwendung des NTSC-Standards ist zum Beispiel fsc = 455/2*fh, wobei fsc die Farbzwischenträgerfrequenz und fh die Honzontalzeilenfrequenz ist. Das sich ergebende 227,5: 1-Verhältnis führt zu einer Verschachtelung der Chrominanz- und Luminanzfrequenzspektren und ermöglicht es Vertikalkammfiltern, die Chrominanz aus der Luminanz herauszukämmen, oder umgekehrt. In der vertikalen Richtung dreht die Chrominanzphase ebenfalls jede Zeile um, so daß die Luminanz, wenn benachbarte vertikale Pixel subtrahiert werden, verschwindet und die Chrominanz sich verdoppelt. Dieses Verfahren wird oft als vertikale Y/C-Trennung bezeichnet. Obwohl die vertikale Y/C-Trennung durch Bewegung nicht beeinflußt wird, besteht ein Problem bei der vertikalen Y/C-Trennung darin, daß sie durch vertikale Details beeinflußt wird.
  • Ein drittes Verfahren der Y/C-Trennung wird als horizontale Y/C-Trennung bezeichnet, die nicht durch Bewegung beeinflußt ist, jedoch keine adäquate Auflösung in der Gegenwart eines horizontalen Details herstellt.
  • Insgesamt ist die beste Lösung für die Y/C-Trennung eine Kombination aus zeitlicher, vertikaler und horizontaler Trennung. Zeitliche Trennung wird in Bereichen verwendet, wo es keine Bewegung gibt. Unter Verwendung des Bewegungssignais Md wechselt SVP 10(2) in Gebieten, wo Bewegung erkannt wurde, von zeitlicher zu räumlicher Filterung. Vertikale und horizontale Trennung werden in Bereichen des Bildschirms verwendet, wo es Bewegung gibt, mit einem Formerkennungssignal Sd, das verwendet wird, um das Verhältnis des horizontalen und vertikalen Filterausgangssignals zu verändern.
  • Ein anderer vom SVP 10(2) durchgeführter Prozeß ist die Chrominanz-Demodulation. Dieser Prozeß kann durch Phasenrastung des Digitalabtastungstaktes zum Farbsynchronsignal mit der vierfachen Farbsynchronfrequenz vereinfacht werden.
  • SVP 10(2) gibt ein gereinigtes Luminanzsignal Ycl aus, das in den Teilbildspeicher 56f eingegeben wird, um Ycl1 zu erhalten. Für das Verfahren ohne Zeilensprung interpoliert SVP 10(2) unter Verwendung von Ycl, Ycl1, Yi, den getrennten Chrominanzsignalen und Md die Luminanz- und Chrominanzdaten. Die Ausgangssignale des SVPs 10(2) sind Yw und Cw.
  • Die Teilbildspeicher 56a - 56d werden in der gleichen Weise wie der Luminanzteilbildspeicher 56a in der Zwei-Prozessor- Ausführungsform der Fig. 18 gesteuert. Außerdem werden der Bewegungsteilbildspeicher 56e, der Luminanzteilbildspeicher 56f, das SVP 10(1) und das SVP 10(2) in der gleichen Weise wie die entsprechenden Teile der Ausführungsform der Fig. 18 gesteuert und es passen dazu die Zeitsteuerungsdiagramme der Fig. 19A - 19C.
  • Die Ausgaberate des SVPs 10(2) beträgt das Doppelte seiner Eingaberate, d.h. 8 fsc gegenüber 4 fsc. Die Lese/Schreib- Taktfrequenzen jedes Teilbildspeichers 56 und jedes SVPs 10 der Digitaleinheit 5db betragen 4 fsc, außer für die Schreibfrequenz des Luminanzteilbildspeichers 56f und die Lesefrequenz des SVPs 10(2). Diese letzteren Frequenzen betragen 8 fsc.
  • Sonderfunktionen
  • Die folgende Beschreibung beschreibt zusammen mit den Fig. 25 - 31 Sonderfunktionen, die die oben beschriebenen IDTV- Konfigurationen und -Prozesse verbessern. Diese Sonderfunktionen werden hauptsächlich durch die Manipulation der Dateneingaben und -ausgaben der Teilbildspeicher 56 inner halb der Digitaleinheit 5db erreicht. Das wird mit verschiedenen Multiplexern erreicht, die die Datenstrecke so umlenken, daß keine weiteren Teilbildspeicher erforderlich sind.
  • Wie weiter unten erklärt werden wird, lenken diese Multiplexer Daten gemäß einem vom Anwender ausgewählten Modus, der "Normal-" für Vollschirm-Echtzeit-Anzeige, "Stand-" für eine Anzeige eines eingefrorenen Bildes oder "Mehrfachbildschirm-" für eine sich bewegende Anzeige verminderter Größe sein kann. Der Normalmodus kann mit den verschiedenen IDTV-Verfahren, die oben diskutiert wurden, übereinstimmen.
  • Fig. 25 ist ein Blockdiagramm, das die Schnittstelle zwischen den Multiplexern 251 und 291 und der Steuereinheit 51 der Fig. 5A darstellt. Die Multiplexer 251 ermöglichen es der Digitaleinheit 50b, in einem Standinodus betrieben zu werden. Die Multiplexer 291, zusammen mit den Multiplexern 251, erlauben es der Digitaleinheit 50b, in einem Mehrfachbildschirmmodus betrieben zu werden. Diese Modi werden unten erklärt.
  • Die in Fig. 25 dargestellten Eingaben zur Modusauswahl werden über eine Anwenderschnittstelle, z.B. die Hauptsteuerungseinheit 58 des Empfängers gemacht.
  • Standmodus
  • Fig. 26-28 sind wechselnde Konfigurationen der Digitalemheiten 50b der Fig. 18, 21 bzw. 24. Die Veränderungen dienen zur Lieferung eines Standbildmodus in einem Fernsehsystem mit verbesserter Auflösung. Jeder dieser wechselnden Konfigurationen, wie deren Gegenstück, verarbeitet ein Standard- Gemisch-Fernsehsignal. Die Konfigurationen der Fig. 26 und 27 werden bei Komponenten-Empfängern verwendet, während die Konfiguration der Fig. 28 in einem Gemisch-Empfänger verwendet wird.
  • Fig. 26 ist ein Blockdiagramm der Digitaleinheit 5db, die zwei Prozessoren aufweist und ein Standbild liefert. Diese Konfiguration der Digitaleinheit 5ob ist der Digitaleinheit 50b der Fig. 18 ähnlich, wobei der wesentliche Unterschied darin besteht, daß zwei 2-zu-1 8-Bit-Mulitplexer 251a und 251b und ein 2-zu-1 4-Bit-Multiplexer 251c hinzugefügt sind. Außerdem gibt SVP 10(2) ein gereinigtes Chrominanzsignal Ccl aus.
  • Im Normalmodus wählen alle Multiplexer 251a - 251c eine "N"- Eingabe aus, um eine normale IDTV-Datenstrecke zu bilden. Dieses ergibt ein Fernsehbild gemäß den oben in Verbindung mit Fig. 18 - 24 beschriebenen IDTV-Verfahren, d.h. ein Vollschirm-Echtzeit-Bild mit verbesserter Auflösung.
  • Im Standinodus sind zwei grundsätzliche Schritte erforderlich, um ein Standbild herzustellen. Allgemein ausgedrückt besteht der erste Schritt in einem Übergangsmodus, bei dem die gereinigten Daten, statt nacheinander für die Ausgabe verarbeitet zu werden, gespeichert werden. Der zweite Schritt führt zu einem stabilen Standinodus, bei dem der Prozessor, statt neuer unverarbeiteter Daten, verarbeitete Daten empfängt, die zu ihm über die Teilbildspeicher und Multiplexer zurückgeführt wurden.
  • Gemäß dem obigen allgemeinen Überblick und Bezug nehmend auf Fig. 26 besteht der erste Schritt in einem Übergangsmodus einer Teilbildperiode, um vom Normalmodus zum Standmodus zu wechseln. Bei diesem Modus wählen alle Multiplexer 251a - 251c das SD-Eingangssignal aus. Das Ausgangssignal des Teilbildspeichers 56c, das ein um ein Teilbild verzögertes gereinigtes Luminanzsignal ist, wird im Teilbildspeicher 56b gespeichert. Die gereinigten Chrominanzdaten Ccl, die das Ausgangssignal des SVPs 10(2) darstellen, werden im Chrominanzteilbildspeicher 56g gespeichert. Obwohl dieser Schritt in Hinsicht auf den Luminanzteilbildspeicher 56c und den Chrominanzteilbildspeicher 56g von dein normalen Verarbeitungsmodus abweicht, setzen SVP 10(1) und SVP 10(2) wie die Teilbildspeicher 56a, 56d, 56e und 56f die Normalmodus-Verarbeitung fort. Dieses ermöglicht ein schnelles Zurückkehren zum Normalmodus.
  • Um den stabilen Standmodus zu erhalten, wählt der Multiplexer 251b das S1-Eingangssignal aus. Der Normalmodus- Schreibbetrieb der Teilbildspeicher 56b, 56c, 569 und 56h wird gestoppt. Das Ausgangssignal der Teilbildspeicher 56b, 56c und 56h wird verwendet, um Daten von den Bereichen des übertragenen Bildes, in denen keine Bewegung ist, zu interpolieren. Das Ausgangssignal des Teilbildspeichers 56h, das aus Bewegungsdaten besteht, wird unter Einsatz des SVPs 10(1) verwendet, um das Verfahren der Interpolation in den Bereichen des übertragenen Bildes zu verändern, in denen es Bewegung gab. Diese Art des Schaltens zwischen räumlicher und zeitlicher Filterung stimmt mit dem oben in Verbindung mit den Fig. 11 - 13 beschriebenen Schaltprozeß überein.
  • Fig. 27 ist ein Blockdiagramm einer Drei-Prozessor-Digitaleinheit 50b zur Lieferung eines Standbildes in einem Komponenten-Empfänger. Diese Konfiguration hat Ähnlichkeit mit der Digitaleinheit 50b der Fig. 21. Der wesentliche Unterschied zwischen Fig. 27 und Fig. 20 besteht darin, daß zwei 2-zu-1 8-Bit-Multiplexer 251a und 251b und ein 2-zu-1 4-Bit- Multiplexer 251c hinzugefügt sind und SVP 10(2) ein gereinigtes Chrominanzsignal Ccl ausgibt. Das Betriebsverfahren entspricht dem der Zwei-Prozessor-Digitaleinheit 50b der Fig. 26.
  • Fig. 28 ist ein Blockdiagramm einer Digitaleinheit 50b zur Lieferung eines Standbildes in einem Gemisch-Empfänger. Diese Konfiguration hat Ähnlichkeit mit der Digitaleinheit 50b der Fig. 23. Der wesentliche Unterschied zwischen Fig. 28 und Fig. 23 besteht darin, daß vier 2-zu-1 8-Bit-Multiplexer 251a - 251d hinzugefügt sind. Das Betriebsverfahren entspricht dem der Zwei-Prozessor-Konfiguration der Fig. 26. Um ein schnelles Zurückkehren vom Stand- zum Normalmodus zu liefern, fährt der Teilbildspeicher 56a fort, im Normalmodus zu arbeiten, so daß er immer aktuelle Daten enthält.
  • Mehrfachbildschirmmodus
  • Wie beim Standmodus, umfaßt der Mehrfachbildschirmmodus das Hinzufügen von Multiplexern, um die Datenstrecke umzulenken.
  • Außerdem werden zwei Steuereinheiten 51 verwendet, da ein Mehrfachbildschirmbild die Verarbeitung von simultanen asynchronen Bildern erfordert.
  • Fig. 29 - 31 sind weitere Variationen der Digitaleinheiten 50b der Fig. 26 - 28. Diese Variationen dienen der Lieferung eines Mehrfachbildschirmmodus in einem Fernsehsystem mit verbesserter Auflösung. Jede dieser wechselnden Konfigurationen verarbeitet, wie deren Gegenstück, ein Standard-Gemisch-Fernsehsignal, wobei die Konfiguration der Fig. 29 und 30 bei Komponenten-Empfängern und die Konfiguration der Fig. 31 bei Gemisch-Empfängern verwendet wird.
  • Fig. 29 ist ein Blockdiagramm einer Zwei-Prozessor-Digitaleinheit 5db zur Lieferung von Mehrfachbildschirmbildern. Diese Konfiguration hat Ähnlichkeit mit der Konfiguration der Fig. 26, wobei jedoch vier Mehrfachbildschirmmodus- Multiplexer 291a - 291d hinzugefügt sind. Die Multiplexer 291a und 291b sind 2-zu-1 8-Bit-Multiplexer und die Multiplexer 291c und 291d sind 2-zu-1 4-Bit-Multiplexer.
  • Im Normalmodus wählen alle Multiplexer 251 und 291 die "N"- Eingangssignale aus. Dieses ergibt ein Vollschirm-Echtzeit- Fernsehbild mit verbesserter Auflösung. Um in einen Standmodus zu wechseln, werden die Multiplexer 251 in der oben beschriebenen Art betrieben, indem sie zuerst in den "SO"- Modus und dann in den "S1"-Modus geschaltet werden. Die Multiplexer 291 werden in dem "S"-Modus betrieben.
  • Während des "S1"-Modus kann ein Mehrfachbildschirmmodus durch Wechseln der Auswahl der Multiplexer 251 und 291 auf "M" eingeführt werden. Ein eingefrorenes Hauptbild wird auf der Stelle bleiben, während ein Unterbild den gesamten Bereich des Hauptbildes bedeckt.
  • Daten für das Unterbild werden mit den Yd- und Cd-Eingangssignalen eingeführt. SVP 10(1) führt vor dem Verkleinern des Unterbildes eine Vorverarbeitung durch, um einen Treppeneffekt sowohl in horizontaler als auch in vertikaler Richtung zu vermeiden. Die Vorverarbeitung kann zum Beispiel aus einer Tiefpaßfilterung in der horizontalen und vertikalen Richtung bestehen.
  • Die Unterbuddaten Yd und Cd werden unter Verwendung der Teilbildspeicher 56a bzw. 56f verkleinert. Um das Unterbild auf eine 1/n-Größe zu verkleinern, speichern diese Teilbildspeicher 56a und 56f die Daten mit einer 1/n-Rate in der horizontalen Richtung und einmal pro n Abtastungszeilen in der vertikalen Richtung. Sie lesen die Daten in einen Unterbildbereich aus, indem sie eine normale Rate sowohl für die horizontale als auch die vertikale Richtung verwenden.
  • Luminanz- und Chrominanzdaten des verkleinerten Teilbildes werden in geeignete Bereiche der Teilbildspeicher 56c bzw. 56g über die Multiplexer 291b bzw. 251c geschrieben. Dieser Prozeß aktualisiert das vorhergehende Teilbild, falls vorhanden. Zur gleichen Zeit füllt das SVP 10(1) den entsprechenden Bereich des Teilbildspeichers 56h mit Daten, die vollständige Bewegung anzeigen. Das Ausgangssignal des Teilbildspeichers 56h wird über den Multiplexer 291d zum SVP 10(2) geliefert. Dann interpoliert das SVP 10(2) diesen Bereich der Luminanz- und Chrominanzdaten unter Verwendung von lediglich Daten der Teilbildspeicher 56c oder 56g, die die Daten des verkleinerten Unterbildes darstellen. Das sich ergebende Unterbild ist ein Bewegungsbild, jedoch ohne zeitliche Verarbeitung.
  • Beim Mehrfachbildschirmmodus sind die folgenden Bauelemente mit dem angezeigten Bild synchronisiert: SVP 10(2), die Leseoperationen der Teilbildspeicher 56a, 56b, 56c, 56f, 56g und 56h und die Schreiboperationen der Teilbildspeicher 56c, 56g und 56h. Die folgenden Bauelemente sind mit dem Unterbild synchronisiert: SVP 10(1) und die Schreiboperationen der Teilbildspeicher 56a, 56f und 56h. Die Teilbildspeicher 56d und 56e fahren damit fort, im Normalmodus zu arbeiten, um sie mit aktuellen Chrominanzdaten zu füllen und ein schnelles Zurückgehen vom Mehrfachbildschirm- zum Normalmodus zu verbessern.
  • Fig. 30 ist ein Blockdiagramm einer Drei-Prozessor-Digitaleinheit zur Lieferung von Mehrfachbildschirmbildern. Diese Konfiguration hat Ähnlichkeit mit der Konfiguration der Fig. 27, wobei drei Mehrfachbildschirmmodus-Multiplexer 291a - 291c hinzugefügt sind. Die Multiplexer 291a und 291b sind 2-zu-1 8-Bit-Multiplexer und der Multiplexer 291c ist ein 2-zu-1 4-Bit-Multiplexer.
  • Die Arbeitsweise der Digitaleinheit 50b der Fig. 30 entspricht bis auf wenige Unterschiede derjenigen der Digitaleinheit 50b der Fig. 29. Ein Unterschied besteht darin, daß vor dem Verkleinern des Unterbildes eine Vorverarbeitung durch SVP 10(2) durchgeführt wird. Außerdem wird eine Interpolation durch das SVP 10(3) durchgeführt. Sowohl SVP 10(3) als auch SVP 10(1) und SVP 10(2) sind mit dem angezeigten Bild synchronisiert.
  • Fig. 31 ist ein Blockdiagramm einer Zwei-Prozessor-Digitaleinheit zur Lieferung von Mehrfachbildschirmbildern in einem Gemisch-Empfänger. Diese Konfiguration hat Ähnlichkeit mit der Konfiguration der Fig. 28, wobei vier Mehrfachbildschirmmodus-Multiplexer 291a - 291d hinzugefügt sind. Die Multiplexer 291a - 291c sind 2-zu-1 8-Bit-Multiplexer und der Multiplexer 291d ist ein 2-zu-1 4-Bit-Multiplexer.
  • Die Wirkungsweise der Digitaleinheit 5db der Fig. 31 entspricht derjenigen der Fig. 29 und 30, mit der Ausnahme, daß die Dateneingabe zum SVP 10(1) Vd ist, ein digitalisiertes gemischtes Signal, statt einem Signal, bei dem Y und C getrennt sind. SVP 10(1) trennt das Signal in Luminanz und Chrominanz und führt eine Vorverarbeitung dieser Daten durch. Diese Verarbeitung stimmt mit der oben in Verbindung mit der Fig. 23 besprochenen Zwei-Prozessor-Digitaleinheit 50b überein.
  • Ein Luminanz-Unterbild und ein Chrominanz-Unterbild werden von den Teilbildspeichern 56a und 56c verkleinert und in die geeigneten Bereiche der Teilbildspeicher 56f bzw. 56d über die Multiplexer 291c und 251b geschrieben. Das aktualisiert das vorhergehende Unterbild, falls vorhanden. Zur gleichen Zeit füllt das SVP 10(1) den entsprechenden Bereich des Teilbildspeichers 56e mit Daten, die vollständige Bewegung anzeigen. Das Ausgangssignal des Teilbildspeichers 56e wird über den Multiplexer 291d zum SVP 10(2) geliefert. Dann interpoliert das SVP 10(2) diesen Bereich der Luminanz- und Chrominanzdaten, wobei lediglich Daten vom Teilbildspeicher 56c oder 56g verwendet werden, die verkleinerte Unterbilddaten darstellen. Das sich ergebende Unterbild ist ein Bewegungsbild, jedoch ohne zeitliche Verarbeitung.
  • Beim Mehrfachbildschirmmodus sind die folgenden Bauelemente mit dem angezeigten Bild synchronisiert: SVP 10(2), die Leseoperationen der Teilbildspeicher 56a, 56b, 56c, 56d, 56e und 56f und die Schreiboperationen der Teilbildspeicher 56f, 56d und 56e. Die folgenden Bauelemente sind mit dem Unterbild synchronisiert: SVP 10(1) und die Teilbildspeicher 56a, 56c und 56e.
  • Bei einer alternativen Ausführungsform können die Md- und Sd-Ausgangssignale des SVPs 10(1) für die Unterbuddaten verwendet werden. Dies hat den Vorteil von weniger SVP 10(1)- Ausgangssignalen
  • Andere Ausführungsformen
  • Obwohl die Erfindung in Bezug auf besondere Ausführungsformen beschrieben wurde, ist diese Beschreibung nicht dazu gedacht, in einem einschränkenden Sinne ausgelegt zu werden. Sowohl verschiedene Modifikationen der offenbarten Ausführungsformen als auch alternative Ausführungsformen der Erfindung werden für Fachleute offenbar werden. Es ist daher beabsichtigt, daß die beigefügten Ansprüche alle Modifikationen umfassen, die in den wahren Schutzumfang der Erfindung fallen.
  • Zusammenfassung der bevorzugten Ausführungsformen
  • Eine erste Gruppe der Ausführungsformen sind "normale" IDTV- Modi. Eine Normalmodus-Ausführungsform ist eine Digitalverarbeitungseinheit für die Verwendung in einem Fernsehempfänger zur Lieferung eines verbesserten Fernsehsignals aus Datenabtastwerten eines Standard-Fernsehsignals. Der Prozessor ist ein Ein-Befehl-Mehrfach-Datenprozessor mit einer Anzahl von Verarbeitungselementen, die der Anzahl der Datenabtastwerte entspricht. Der Prozessor empfängt ein Paket der Datenabtastwerte, die eine Zeile des Fernsehbildes darstellen, wortweise seriell und wirkt auf die Zeile der Datenabtastwerte parallel ein. Mehrere Teilbildspeicher liefern um Teilbilder verzögerte Datenabtastwerte zu dem Prozessor. Eine Steuereinheit liefert Steuer- und Taktsignale und ein Befehlsgenerator liefert Befehle. Ein Speicher speichert die Befehle und wird mit Befehlen für verschiedene IDTV-Aufgaben programmiert.
  • Eine Normalmodussystem-Ausführungsform ist ein Fernsehempfangssystem zum Empfangen eines Standard-Fernsehübertragungssignals und zum Herstellen eines Bildes mit verbesserter Auflösung. Ein Analog-Digital-Wandler wandelt das empfangene Signal um, um ein Signal mit digitalen Bildabtastwerten zu erzeugen. Das System weist außerdem, wie im vorhergehenden Abschnitt beschrieben, eine Digitalverarbeitung zur Durchführung verschiedener IDTV-Aufgaben auf. Eine Digital-Analog-Schaltung wandelt das verarbeitete Signal in ein analoges Bildsignal um, eine Anzeigeeinheit erzeugt Bildsignale und eine Anzeige zeigt die Bildsignale an.
  • Eine Normalmodusverfahren-Ausführungsform ist ein Verfahren, das einen Ein-Befehl-Mehrfach-Daten-Prozessor zur Verarbeitung eines digitalisierten Standard-Fernsehsignals verwendet, um ein verbessertes Bild für die Anzeige zu liefern. Ein Schritt besteht darin, Bereiche des Bildes zu erkennen, in denen es Bewegung gibt. Ein weiterer Schritt besteht darin, reine Luminanz- und reine Chrominanz-Signale durch Entfernen der Cross-Signale von den Luminanz- und Chrominanzanteilen des übertragenen Signais zu liefern, wobei digitale Filterungstechniken verwendet werden. Diese Filterung ist in den Bereichen des Bildes, in denen es Bewegung gibt, räumlich und in den Bereichen des Bildes, in denen es keine Bewegung gibt, zeitlich. Diese Schritte werden an digitalen Datenabtastwerten einer horizontalen Zeile dieses Bildes hinsichtlich der Datenabtastwerte gleichzeitig durchgeführt, und alle diese Schritte erscheinen in weniger als einer Horizontalabtastungsperiode in Hinsicht auf jede Zeile.
  • Andere Verfahrensgesichtspunkte der Erfindung umfassen verschiedene Verfahren für besondere IDTV-Verarbeitungsaufgaben. Diese Aufgaben enthalten Bewegungserkennung, Luminanzund Chrominanzreinigung und Verfahren ohne Zeilensprung.
  • Eine zweite Gruppe der Ausführungsformen sind Standmodus- Ausführungsformen Eine Standmodus-Ausführungsform ist eine Digitalverarbeitungseinheit, die der Normalmodus-Digitalverarbeitungseinheit ähnlich ist, jedoch eine Anzahl von Standmodus-Multiplexern aufweist, die die verarbeiteten Daten zurück durch den Prozessor umlenken. Eine zweite Ausführungsform des Standmodussystems ist dem Normalmodus-Fernsehempfänger ähnlich, weist jedoch diese Hinzufügung dieser Standmodus-Multiplexer auf. Eine Ausführungsform eines Standmodusverfahrens ist ein Verfahren der Verwendung eines seriellen Videoprozessors zur Herstellung von Standbildern.
  • Eine dritte Gruppe von Ausführungsformen sind Mehrfachbildschirm-Ausführungs formen. Eine Mehrfachbildschirmmodus-Ausführungsforin ist eine Digitalverarbeitungseinheit, die den Standmodus-Digitalverarbeitungseinheiten ähnlich ist, jedoch außerdem eine Anzahl von Mehrfachbildschirmmodus-Multiplexern aufweist, die verwendet werden, um ein Bild verminderter Größe zu erzeugen. Außerdem hat die Digitalverarbeitungseinheit getrennte Steuereinheiten zur Synchronisierung der mehreren Bilder. Eine zweite Mehrfachbildschirmmodus- Ausführungsform ist eine Ausführungsform des Systems, die dem Standmodus-Fernsehempfänger ähnlich ist, bei der jedoch diese Mehrfachbildschirmmodus-Multiplexer hinzugefügt sind. Eine Ausführungsform des Mehrfachbildschirmmodus-Verfahrens ist ein Verfahren der Verwendung eines seriellen Videoprozessors zur Herstellung mehrerer Bilder.

Claims (6)

1. Digitalverarbeitungseinheit für die Verwendung in einem Fernsehempfänger mit verbesserter Auflösung, um eine Standbildanzeige aus Datenabtastwerten eines ein Fernsehbild darstellenden Standardfernsehsignals zu liefern, umfassend: einen Ein-Befehl-Mehrfach-Daten-Prozessor (SVP10(1) + SVP10(2)) zur Verarbeitung der Datenabtastwerte, wobei der Prozessor eine der Anzahl der Datenabtastwerte entsprechende Anzahl von Verarbeitungselementen aufweist und wobei der Prozessor ein Paket der Datenabtastwerte, das eine Zeile des Fernsehbildes darstellt, wortweise seriell empfängt, und wobei der Prozessor die Zeile von Datenabtastewerten parallel verarbeitet;
mehrere Teilbildspeicher (56a, 56b,..), um Datenabtastwerte, die verzögerte Teilbilder des Fernsehbildes darstellen, zu dem Prozessor zu liefern;
eine Steuereinheit (51), um Steuer- und Taktsignale zu dem Prozessor zu liefern;
einen Befehlsgenerator (52), um Befehle zu dem Prozessor zu liefern;
Speicher (ROM in 52) zur Speicherung der von dem Prozessor benutzten Befehle; und
mehrere Multiplexer (251a, 251b, 251c, 251d), um eine Dateneingabe in den Prozessor aus nichtverarbeiteten Daten auszuwählen, wenn ein Standmodus-Auswahlsignal Normalbetrieb anzeigt, oder aus von dem Prozessor verarbeiteten, an den Multiplexer zurückgeführten Daten, wenn das Standmodus-Auswahlsignal einen Standmodus anzeigt.
2. Digitalverarbeitungseinheit nach Anspruch 1, bei der die mehreren Multiplexer einen ersten Multiplexer (251a), der in einen Leuchtdichte-Datenweg eingefügt ist, und einen zweiten Multiplexer enthalten, der in einen Chrominanz-Datenweg eingefügt ist.
3. Digitalverarbeitungseinheit nach Anspruch 1 oder Anspruch 2, bei der die Multiplexer (251a, 251b, 251c, 251d) so in einen Datenweg zwischen den Teilbildspeichern und dem Prozessor eingefügt sind, daß sie während des Standmodus vorverarbeitete Daten zu dem Prozessor liefern.
4. Digitalverarbeitungseinheit nach Anspruch 1, die darüber hinaus zusätzliche Prozessoren (SVP10(2)) umfaßt und bei der für jeden der zusätzlichen Prozessoren einer der Multiplexer (251b, 251c, 251d) zwischen die Teilbildspeicher (56) und den Prozessor gelegt ist und so betrieben wird, daß jeder Prozessor die gleichen Daten als Reaktion auf ein Standmodus-Signal empfängt.
5. Digitalverarbeitungseinheit nach Anspruch 4, bei der wenigstens einer der Multiplexer (251b, 251c) als eine Eingabe von Leuchtdichtedaten in wenigstens einen der zusätzlichen Prozessoren (SVP10(2)) nichtverarbeitete Daten auswählt, wenn das Standmodus-Auswahlsignal entweder normalen Betrieb oder einen Übergangsstandmodus anzeigt, und bei dem die vorverarbeiteten Daten gespeichert werden, während der Normalbetrieb fortdauert, oder der wenigstens eine Multiplexer verarbeitete Daten auswählt, die zurückgeführt werden, wenn das Standmodus-Auswahlsignal einen stabilen Standmodus anzeigt.
6. Digitalverarbeitungseinheit nach einem der vorhergehenden Ansprüche, die darüber hinaus umfaßt:
eine Analog-Digital-Wandler-Einheit (55d, 55e), um ein empfangenes Signal zu digitalisieren und die Datenabtastwerte dem Ein-Befehl-Mehrfach-Daten-Prozessor zuzuführen;
eine Digital-Analog-Wandler-Einheit (57a), die mit dem Ein-Befehl-Mehrfach-Daten-Prozessor verbunden ist, um die verarbeiteten Datenabtastwerte in ein analoges Signal umzuwandeln;
eine Anzeigeeinheit (57b), um das analoge Signal zu empfangen und Bildsignale zu erzeugen; und eine Anzeigevorrichtung (57c), um das Bildsignal zu empfangen und das entsprechende Bild anzuzeigen.
DE1991616902 1990-03-01 1991-03-01 Fernsehen mit verbesserter Auflösung Expired - Fee Related DE69116902T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US07/486,663 US5091783A (en) 1990-03-01 1990-03-01 Still more feature for improved definition television digital processing units, systems, and methods
US07/486,662 US5093722A (en) 1990-03-01 1990-03-01 Definition television digital processing units, systems and methods
US07/486,666 US5091786A (en) 1990-03-01 1990-03-01 Multi-screen feature for improved definition television digital processing units, systems, and methods

Publications (2)

Publication Number Publication Date
DE69116902D1 DE69116902D1 (de) 1996-03-21
DE69116902T2 true DE69116902T2 (de) 1996-10-17

Family

ID=27413744

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1991616902 Expired - Fee Related DE69116902T2 (de) 1990-03-01 1991-03-01 Fernsehen mit verbesserter Auflösung

Country Status (3)

Country Link
EP (1) EP0444947B1 (de)
JP (1) JP3187851B2 (de)
DE (1) DE69116902T2 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2960803B2 (ja) * 1991-08-28 1999-10-12 株式会社日立製作所 デジタル放送信号受信装置およびデジタル放送信号受信テレビジョン受信機
KR0140674B1 (ko) * 1993-04-12 1998-06-15 모리시다 요이치 영상신호처리장치 및 처리방법
US5499060A (en) * 1994-01-04 1996-03-12 Texas Instruments Incorporated System and method for processing video data
US6320620B1 (en) * 1995-04-27 2001-11-20 Texas Instruments Incorporated Low cost progressive scan television with special features
CA2183796A1 (en) * 1995-08-24 1997-02-25 Todd A. Clatanoff Video processing system using scan-line video processors
WO2000010326A2 (en) * 1998-08-12 2000-02-24 Focus Enhancements, Inc. Two-dimensional adjustable flicker filter
US6975359B2 (en) * 2002-04-25 2005-12-13 Trident Microsystems, Inc. Method and system for motion and edge-adaptive signal frame rate up-conversion
JP4987364B2 (ja) * 2006-06-23 2012-07-25 株式会社東芝 ラインメモリ実装装置とテレビジョン受信装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07113821B2 (ja) * 1986-04-21 1995-12-06 日本テキサス・インスツルメンツ株式会社 半導体記憶装置
EP0317218B1 (de) * 1987-11-13 1998-01-28 Texas Instruments Incorporated Serieller Videoprozessor und Verfahren
US4809069A (en) * 1988-03-10 1989-02-28 North American Philips Corporation Multifunction memory for digital television

Also Published As

Publication number Publication date
EP0444947A3 (en) 1992-02-26
DE69116902D1 (de) 1996-03-21
JPH0583680A (ja) 1993-04-02
EP0444947B1 (de) 1996-02-07
JP3187851B2 (ja) 2001-07-16
EP0444947A2 (de) 1991-09-04

Similar Documents

Publication Publication Date Title
DE69028981T2 (de) Fernsehen mit verbesserter Auflösung
DE3688058T2 (de) Bild-in-bild-farbfernsehempfaenger.
DE69319452T2 (de) Anzeigegerät
DE3888005T2 (de) Zoomvorrichtung für Fernsehbild.
DE69218396T2 (de) Rekursiver Video Signal Prozessor
DE69033421T2 (de) Fernsehgerät
DE69519398T2 (de) Abtastumsetzung mit Bewegungsadaptation unter Verwendung einer richtungsabhängigen Interpolation der Kanten
DE69324332T2 (de) Automatischer Synchronisierschalter für Mehrfachbildwiedergabe
DE3853555T2 (de) Verarbeitung des Bewegungsvektors in digitalen Fernsehbildern.
DE69819613T2 (de) Videorastererfassung und Vorschau
DE3239362C2 (de) System zur Erzeugung eines Bildes einer zeilenweise verschachtelt abgetasteten Szene
DE3685781T2 (de) Kompatibles grossbildfernsehsystem.
DE69325097T2 (de) Digitaler video-signalverarbeitungsprozessor mit einem vorprozessor der non-interlace-scan-videosignale aus interlace-scan-videosignalen erzeugt und entsprechendes dekompressions- und nachverarbeitungsvorrichtung
DE3888221T2 (de) Speichersystem für bemusterte Daten, zum Beispiel für ein Bildvergrösserungssystem in einem Fernsehempfänger.
DE69628082T2 (de) Universeller Umsetzer für Videoformatabtastrate
DE3885764T2 (de) Fernsehempfänger mit gespeichertem zweitem signal.
DE69329332T2 (de) Fernsehbilderdekodierarchitektur zur Ausführung eines 40 ms-Prozessalgorithmus in HDTV
AT395667B (de) Farbfernsehwiedergabegeraet
DE69026174T2 (de) Zwischenraumzeilengenerator
DE69434182T2 (de) Videosignalverarbeitung mit arithmetischem Processor und Interrupt
DE69022665T2 (de) Speichereffizientes Gerät und Verfahren für eine Bild-im-Bild-Anzeige.
DE69116902T2 (de) Fernsehen mit verbesserter Auflösung
DE3924249A1 (de) Bewegungs-erfassungsschaltung
DE3788898T2 (de) Vertikalfilter für Videosignale.
DE69506952T2 (de) Digitaler Dekodierer für Videosignale und Verfahren zur digitalen Dekodierung von Videosignalen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee