DE69324399T2 - Videoprozessorsystem - Google Patents

Videoprozessorsystem

Info

Publication number
DE69324399T2
DE69324399T2 DE69324399T DE69324399T DE69324399T2 DE 69324399 T2 DE69324399 T2 DE 69324399T2 DE 69324399 T DE69324399 T DE 69324399T DE 69324399 T DE69324399 T DE 69324399T DE 69324399 T2 DE69324399 T2 DE 69324399T2
Authority
DE
Germany
Prior art keywords
video
processor system
signal
video processor
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69324399T
Other languages
English (en)
Other versions
DE69324399D1 (de
Inventor
Kia Silverbrook
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Information Systems Research Australia Pty Ltd
Original Assignee
Canon Information Systems Research Australia Pty Ltd
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Information Systems Research Australia Pty Ltd, Canon Inc filed Critical Canon Information Systems Research Australia Pty Ltd
Publication of DE69324399D1 publication Critical patent/DE69324399D1/de
Application granted granted Critical
Publication of DE69324399T2 publication Critical patent/DE69324399T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/27Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving both synthetic and natural picture components, e.g. synthetic natural hybrid coding [SNHC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Studio Circuits (AREA)
  • Processing Or Creating Images (AREA)
  • Picture Signal Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

  • Die Erfindung betrifft ein Videoprozessorsystem, wie beispielsweise ein Gerät, das bewegte Grafik-Objektbilder mit einem Live-Video in Echtzeit mit einer kombinierten Audioverarbeitungsfähigkeit kombiniert.
  • Rechnergestützte Systeme zur Zusammensetzung bzw. Mischung von Videobildern sind aus dem Stand der Technik bekannt. Diese Systeme schließen jedoch üblicherweise die Verwendung eines Hochgeschwindigkeits-Vollbildpuffers mit ein, wobei das Bild zusammengesetzt wird und dann in der Vollbild-Pufferspeicher-Einrichtung bildelementweise gespeichert wird, bevor das Bild mit einem Videosignal vermischt wird, um ein endgültiges Videosignal zu erzeugen.
  • Die Notwendigkeit, einen Vollbildpuffer zu verwenden, kann zu einer erheblichen Kostensteigerung des kompletten rechnergestützten Zusammensetzungssystem führen, wodurch im allgemeinen ein derartiges System außerhalb des normalen Verbrauchermarkts liegt.
  • Die Veröffentlichung "Creation and animation of computergenerated images combined with a camera and suart graphics card" von Mallem et al., in Microprocessors and Microsystems, Band 15, Nr. 8, Oktober 1991, Seiten 427- 5 433 offenbart ein System zum Überlagern rechner-erzeugter Bilder (grafische Hilfen) auf Videobildern. Das System setzt sich aus VME-Busmodulen zusammen, und weist eine übergeorndete CPU (Zentrale Recheneinheit), eine Datenerfassungskarte, und eine untergeordnete CPU (Slave-CPU) mit einer Grafikkarte auf. Die VME-Standardeinheit weist die nachstehenden Eigenschaften auf: Auflösung mit 512 · 512 Bildelementen, zwei durch eine Grafiksteuereinrichtung angesteuerte Grafikseiten, wobei jede Seite drei Speicherebenen (jeweils eine für Rot, Grün und Blau) aufweist, und einen CCIR-Standardausgang. Die beiden Grafikseiten werden durch die CPU umgeschaltet, das Bild wird auf einer Seite erzeugt, während das vorhergehende Bild auf der anderen Seite angezeigt wird.
  • Die Erfindung stellt ein Videoprozessorsystem bereit, mit einer Videoeingabeeinrichtung zum Empfang eines erstem Videosignals, mindestens einer Farb- und Mischeinheit zur Verknüpfung des ersten Videosignals mit bildelementbasierten Bilddaten zur Erzeugung eines zweiten Videosignals, und einer Videoausgabeeinrichtung zur Ausgabe des zweiten Videosignals, gekennzeichnet durch eine Echtzeit-Objektprozessoreinrichtung (RTO) zur Wiedergabe objekt-basierter Grafikbilddaten, die ein objektbasiertes Grafikbild beschreiben, um die bildelementbasierten Bilddaten zu formen, wobei die RTO-Prozessoreinrichtung eine erste Speichereinrichtung aufweist zur vorübergehenden Speicherung der objekt-basierten Grafikbilddaten, wobei die RTO-Prozessoreinrichtung zur Wiedergabe der bildelement-basierten Grafikdaten aus den in der ersten Speichereinrichtung gespeicherten objekt-basierten Grafikbilddaten in Echtzeit ohne Verwendung eines bildelement-basierenden Vollbildspeichers vorgesehen ist und wobei die Farb- und Mischeinheit zur Verknüpfung des ersten Videosignals mit bildelement-basierten Bilddaten vorgesehen ist, während die bildelement-basierten Bilddaten von dem RTO-Prozessor dargestellt werden, um das zweite Videosignal bereitzustellen.
  • Ein Ausführungsbeispiel der Erfindung stellt ein effizientes, kostengünstiges und effektives rechnergestütztes Zusammensetztungssystem bereit.
  • Ein Ausführungsbeispiel der Erfindung stellt ein Audiound Videoprozessorsystem mit einer Echtzeit-Objekt (RTO)- Prozessoreinrichtung zur Wiedergabe objekt-basierter Grafikbilder, eine Videoeingabeeinrichtung zum Empfang eines ersten Videosignals, mindestens eine Farb- und Mischeinheit zur Verknüpfung des ersten Videosignals mit von der RTO-Prozessoreinrichtung wiedergegebenen Bilddaten, um ein zweites Videosignal und eine Videoausgabeeinrichtung zu seiner Ausgabe bereitzustellen, und eine Steuereinrichtung mit einer zugehörigen zweiten Speichereinrichtung zur Erzeugung von Audio-Ausgangssignalen in Verbindung mit dem zweiten Videosignal bereit.
  • Die Audio-Ausgangssignale können im wesentlichen in Synchronisation mit sichtbaren, in dem zweiten Videosignal dargestellten Ereignissen erzeugt werden.
  • Ein Ausführungsbeispiel der Erfindung wird nachstehend 1 unter Bezugnahme auf die beigefügte Zeichnung beschrieben.
  • Dabei zeigen:
  • Fig. 1A und 1B ein schematisches Blockschaltbild des gesamten Aufbaus des Audio- und Videoverarbeitungssystems,
  • Fig. 2 ein schematisches Blockschaltbild der Farb- und Mischeinheit gemäß Fig. 1, und
  • Fig. 3 eine Veranschaulichung eines beispielhaften Entwurfs des bevorzugten Ausführungsbeispiels.
  • Die vorliegenden Ausführungsbeispiele wenden Technologien an, die in den nachstehenden Druckschriften offenbart wurden:
  • (i) Au-A-38 244/93 (Anwalts-Bzg: (RTO7)(202 788)), Beanspruchung der Priorität der australischen Patentanmeldung Nr. PL 2147 vom 29 April 1992 mit dem Titel "A Real-Time Object Based Graphics System",
  • (ii) Au-A-38 240/93 (Anwalts-Bzg: (RTO7)(202 790)), Beanspruchung der Priorität der australischen Patentanmeldung Nr. PL 2148 vom 29 April 1992 mit dem Titel "Method and Apparatus for Filling an Object Based Rasterised Image",
  • (iii) Au-A-38 242/93 (Anwalts-Bzd: (RTO13)(202 800) Beanspruchung der Priorität der australischen Patentanmeldung Nr. PL 2153 vom 29 April 1992 mit dem Titel "Method and Apparatus for Providing Transparency in an Object Based Rasterised Image",
  • (iv) Au-A-38 233/93 (Anwalts-Bzg: (RTO16)(202 813)), Beanspruchung der Priorität der australischen Patentanmeldung Nr. PL 2156 vom 29 April 1992 mit, dem Titel " Edge Calculation for Graphics Systems" und der australischen Patentanmeldung Nr. PL 2145 vom 29 April mit dem Titel "Object Sorting for Graphics Systems",
  • (v) Au-A-38 250/93 (Anwalts-Bzg: (RTO2)(202 826)), Beanspruchung der Priorität der australischen Patentanmeldung Nr. PL 2142 vom 29 April 1992 mit dem Titel " A Preprocessing Pipeline for RTO Graphics System"
  • (vi) Au-A-38 246/93 (Anwalts-Bzg: (RTO10)(203 161)), Beanspruchung der Priorität der australischen Patentanmeldung Nr. PL 2150 vom 29 April 1992 mit dem Titel "Object Based Graphics Using Quadratic Polynomial Fragments", und
  • (vii) Au-A-38 239/93 (Anwalts-Bzg: (RTO9)(203 174)), Beanspruchung der Priorität der australischen Patentanmeldung Nr. PL 2149 vom 29 April 1992 mit dem Titel "Bezier Spline to Quadrat Polynomial Fragment Conversion",
  • wobei sämtliche Anmeldungen vom vorliegenden Anmelder angemeldet wurden
  • In den Fig. 1A und 1B ist ein Videoverarbeitungssystem 1 gezeigt, das eine an einen Prozessorbus 3 angeschlossene Verarbeitungsrecheneinrichtung bzw. ein Verarbeitungsrechner bzw. Hostprozessor 2 aufweist. An dem Prozessorbus 3 sind ebenfalls ein System-ROM 4, ein System-RAM 5, ein erster Speicherkarten-Steckplatz 6, ein zweiter Speicherkarten-Steckplatz 7, eine Peripherie-Mikrosteuereinrichtung 9, eine RTO-Prozessoreinrichtung bzw. ein RTO-Prozessor 10, eine Farb- und Mischeinheit 13 und eine Toneffekteinrichtung 12 (SFX) über eine FIFO-Warteschlange 11 angeschlossen.
  • Der Verarbeitungsrechner 2 dient als ein Mehrzweck- Mikroprozessor, der angeordnet ist, die Erzeugung von objekt-basierter bewegter Bilder zu steuern. Bei der vorliegenden Erfindung stellt der Verarbeitungsrechner 2 einen 32-Bit-Mikroprozessor wie beispielsweise den INTEL i360SA dar, der einen Hochgeschwindigkeits-Betrieb bei niedrigen Kosten erlaubt und der einen großen Adressierbereich aufweist. Der Verarbeitungsrechner 2 dient zur Erzeugung und Aufrechterhaltung einer Vielzahl von in einem RAM 5 gespeicherten Objektlisten, die eine Vielzahl von Objekten enthalten, die schließlich zur Bildung eines bewegten Bildes vom RTO-Prozessor 10 vorbereitet werden. Die Berechnungen werden im allgemeinen nur auf der Grafik-Objektebene durchgeführt. Für jedes Video-Halbbild bestimmt der Verarbeitungsrechner 2 die Position, die Größe, das Seitenverhältnis und die Farbe jedes Objekts, das in dem bewegten Bild erscheinen soll. Cer Verarbeitungsrechner 2 und die Peripherie-Mikrosteuereinrichtung 9 arbeiten zusammen zur Bereitstellung einer grafischen Benutzer-Schnittstelle für einen Anwender des Videoverarbeitungssystems.
  • Der Verarbeitungsrechner 2 weist einen externen 16-Bit- Datenbus auf, der mit einem 32-Bit-Adressbus einer Multiplex-Verarbeitung unterzogen wird. Zusätzlich werden durch den Verarbeitungsrechner 2 16 Steuersignale bereitgestellt. Die wichtigsten 16 Adressbits (Bits 31-16) werden nicht einer Multiplex-Verarbeitung unterzogen. Die Adressbits 15 bis 4 werden durch Adress-Signalspeicher 15 einer Demultiplex-Verarbeitung unterzogen. Der Verarbeitungsrechner 2 weist eine sekundäre Steuerung des Prozessorbuses auf, während die RTO-Prozessoreinrichtung 10 einen Zugriff auf den Bus 3 über die DMA (Direkter Speicherzugriff) erhalten kann, denn sie einen derartigen Zugriff benötigt, außer wenn sie speziell über eine den Verarbeitungsrechner 2 steuernde Software ausgeschlossen wird. Die Adress-Signalspeicher 15 weisen eine Drei- Zustandsform bzw. Tri-State-Form auf und werden nur verwendet, wenn der Verarbeitungarechner 2 den Bus steuert. Die Adressbits 3, 2 und 1 werden direkt durch den Verarbeitungsrechner 2 einer Demultiplex-Verarbeicung unterzogen, um Signalspeicher-Verzögerungen bzw. Latch- Verzögerungen während Burstzugriffe zu vermeiden. Während des Bursts verbleiben die oberen Adressbits und die singal-gespeicherten Adressbits unverändert, während die Adressbits 3-1 aufwärts zählen. Dadurch sind die Bursts des Verarbeitungsrechners auf 16 Bytes beschränkt. Diese Bursts können in verschiedenen Kombinationen von Byte- und Halbwort-Zugriffen auftreten. Alle Adressdekodierungen basieren auf den oberen 4 Adresszeilen (entsprechend 256 Mbyte-Grenzen), somit kann ein Verarbeitungsrechner-Burst nicht mehrere Einrichtungen bedienen.
  • Der einer Multiplex-Verarbeitung unterzogene Datenbus des Verarbeitungsrechners 2 wird zur direkten Steuerung der RTO-Prozessoreinrichtung 10, des System-RANfs 5, des System-ROMs 4, der Peripherie-Microsteuereinrchtung 9 und der Toneffekteinrichtung 12 (SFX) verwendet. Die Farbund Mischeinheit 13, der erste Speicherkarten-Steckplatz 6 und der zweite Speicherkarten-Steckplatz 7 werden durch eine Puffereinrichtung 16 für den Prozessorbus gepuffert.
  • Eine Buszuteilung des Prozessorbuses 3 findet zwischen dem Verarbeitungsrechner 2 und der RTO-Prozessoreinrichtung 10 statt. Der Verarbeitungsrechner 2 steuert hauptsächlich den Bus, bis die RTO-Prozessoreinrichtung 10 (durch den Verarbeitungsrechner 2) angewiesen wird, den Betriebsvorgang einzuleiten. Die RTO-Prozessoreinrichtung 10 übernimmt dann die Steuerung des Prozessorbusses 3 und benachrichtigt den Verarbeitungsrechner 2, wenn dies beendet ist. Der Verarbeitungsrechner 2 kann die RTO-Prozessoreinrichtung 10 nicht daran hindern, Zugriff auf den Prozessorbus 3 zu erhalten, außer durch Anhalten des Verarbeitungsbetriebs der RTO-Prozessoreinrichtung 10. Die RTO-Prozessoreinrichtung 10 wird versuchen, eine Objektliste zur Darstellung komplett bereitzustellen bzw. vorzubereiten, wenn dieser Vorgang eingeleitet worden ist, und kann bei erfolgtem Zugriff den Prozessorbus 3 kontinuierlich verwenden (falls die RTO-Prozessoreinrichtung 10 zur gleichen Zeit überträgt, kann es intern zu einem Engpaß kommen und der Prozessorbus 3 wird freigegeben, bis die RTO-Prozessoreinrichtung 10 den Bus wieder verwenden kann). Mehrere Objektlisten können verwendet werden, um ein Vollbild zu erzeugen, ferner kann diese Vorgehensweise verwendet werden, um zu verhindern, daß die RTO-Prozessoreinrichtung 10 den Prozessorbus 3 zu lange unter ihrer Steuerung hält.
  • Der Prozessorbus 3 weist 4 externe Unterbrechungen bzw. Interrupts auf. INT0 hat die höchste Priorität und ist mit dem Interrupt-Ausgang der RTO-Prozessoreinrichtung 10 verbunden. Dieser Interrupt wird durch viele interne Ereignisse der RTO-Prozessoreinrichtung 10 gesetzt.
  • INT1 hat die zweithöchste Priorität und bildet einen Mehrzweck-Interrupt für allgemeine Zwecke von der Peripherie-Mikrosteuereinrichtung 9 an den Verarbeitungsrechner 2. Dieser Interrupt dient der Aufrechterhaltung eines Kommunikations-Protokolls zwischen der Peripherie- Mikrosteuereinrichtung 9 und dem Verarbeitungsrechner 2 durch Trennen von Interrupts bezüglich der Daten von anderen Interruptgründen. Zeitgeber-Ereignisse, serielle Kommunikation, spezielle Tastatur-Tasten, Speicherkarten- Eingabe und -Entfernen können durch diesen Interrupt an den Verarbeitungsrechner 2 übermittelt werden.
  • Der Verarbeitungsrechner 2 kommuniziert mit verschiedenen anderen Einrichtungen des Vidoeve rarbeitundssystems 1 durch einen speicherbelegten Eingang/Ausgang, was ein dem Fachmann bekanntes Kommunikationsverfahren darstellt.
  • Ein Bussteuer-Logikmodul 18 stellt alle benötigten Freigabe- und Auswahlsignale, Lese- und Schreib-Abtastimpulse, Puffersteuerungen und das Bereit-Signal für den Verarbeitungsrechner 2 bereit. Diese Logik ist aktiv, wenn der Verarbeitungsrechner 2 oder die RTO-Prozessoceinrichtung 10 den Bus hauptsächlich steuert.
  • Die Peripherie-Mikrosteuereinrichtung 9 und der Verarbeitungsrechner 2 kommunizieren durch Ablegen von Informationen in einer Mail-Box bzw. einem elektronischen Briefkasten 17. INT2 hat den dritthöchsten Interrupt- Pegel und wird durch die Peripherie-Mikrosteuereinrichtung 28 bereitgestellt zur Anzeige, daß Daten in der Mail-Box 17 zur Abholung bzw. zur Leerung bereitstehen.
  • INT3 hat die geringste Interrupt-Priorität und wird durch die Peripherie-Mikrosteuereinrichtung 9 gesetzt, um anzuzeigen, daß sie die in die Mail-Box 17 durch den Verarbeitungsrechner 2 hineingeschriebenen Daten aus der Mail-Box 17 heraus genommen hat. Dies erlaubt dem Verarbeitungsrechner 2 festzustellen, wann er ein anderes Daten-Byte an die Mail-Box 17 übermitteln kann.
  • Das System-ROM 4 umfaßt 512 kBytes ROM-Speicherplatz, der üblicherweise durch eine einzige 256K · 16 Einrichtung bereitgestellt wird. Das System-ROM 4 umfaßt das Steuerprogramm des Videoverarbeitungssystems 1 sowie verschiedene Beispiele von Trickfilmen, Schriftarten, Clip-Titeln und andere in dem Videoverarbeitungssystem 1 verwendete Daten. Der Verarbeitungrechner 2 und die RTO- Prozessoreinrichtung können beide auf den Speicher des System-ROM 4 zugreifen, und einzelne Zugriffe sowie Burstzugriffe werden unterstützt.
  • Das System-RAM 5 umfaßt 256K Bytes RAM, das aus zwei 128K x 8 Einrichtungen besteht. Das System-RAM 5 wird durch den Verarbeitungsrechner 2 zum Caching bzw. zum Pufferspeichern von Grafik-Objekten, zum Pufferspeichern kritischer Verarbeitungskodes und als variabler Speicher verwendet. Einzel- und Burstzugriffe sowie Byte-weises Schreiben werden unterstützt. Das System-RAM 5 wird vorzugsweise so verdrahtet, daß größere RAMs verwendet werden können, sobald sie erhältlich sind.
  • Der erste Speicherkarten-Steckplatz 6 und der zweiter Speicherkarten-Steckplatz 7 werden zum Einfügen von standardisierten Speicherkarten bereitgestellt. Diese Steckplatz sind typischerweise zum Aufnehmen von Karten angeordnet, die den JEIDS- und PCMCIA-Standards entsprechen. Die JEIDS (Japanese Electronics Industry Development Association) und die PCMCIA. (PC Memory Card International Organization) haben im wesentlichen identische Standards zur Verwendung von auswechselbaren Speicherkarten mit 68 Anschlüssen veröffentlicht. Jede Speicherkarte 19 kann typischerweise als Objekt-Grafikdaten aufweisende ROM-Einrichtung verwendet werden, kann aber ebenfalls entweder ein Flash-EPROM (elektrisch programmierbarer Festwertspeicher) oder ein statisches RAM mit einer batteriebetriebene Ersatzstromquelle darstellen. Jede Speicherkarte 19 wird verwendet, um eine Bibliothek mit Grafik-Objekten, Trickfilm-Bearbeitungslisten, Clip-Trickfilme, Clip-Titel, Schriftarten, bewegte Zeichen, Toneffekte und/oder speziellen Programmen zum Ersetzten oder zum Ergänzen aller oder eines Teils der in dem System-ROM 4 befindlichen Programme zu speichern. Wenn statische RAM-Karten verwendet werden, dann können diese ebenfalls zur Speicherung von Trickfilm-Sequenzen eines Anwenders zur späteren Wiedergabe verwendet werden. Jeder Steckplatz kann vorzugsweise Karten mit vergrößerten Speicherkapazitäten aufnehmen, sobald diese erhältlich sind.
  • Der Datenbus 20 zu den Speicherkarten wird vorzugsweise durch einen Puffer 16 vor allen anderen auf den Prozessorbus 3 zugreifenden Einrichtungen, mit der Ausnahme der Farb- und Mischeinheit 13, gepuffert. Dies gewährleistet, daß die Speicherkarten 19 die Logikpegel des Prozessorbuses 3 zu keinem Zeitpunkt beeinflussen. Einige Busproblem lassen sich allerdings nicht vermeiden, da eine Speicherkarte 19 von einem Anwender zur jeder Zeit eingefügt oder entfernt werden kann. Kurzschlußstifte jeder Speicherkarte können verwendet werden, um Interrupts kurz vor Entfernen der Karte zu erzeugen. Somit kann Programmablaufzeit für die Entfernung der Karte bereitgestellt werden. Falls die RTO-Prozessoreinrichtung 10 den Prozessorbus 3 bei der Entfernung der Karte 19 hauptsächlich steuert, wird die Wiederherrstellungs-Zeit der Software des Verarbeitungsrechners 2 durch die maximale Busbenützungsdauer bzw. Buszugriff der RTO-Processoreinrichtung 10 reduziert. Der erste Speicherkarten-Steckplatz 6 und der zweite Speicherkarten-Steckplatz 7 umfassen Kurzschlußerfassungsstifte, die Einfügungs- und Entfernen-Interrupts zum Anzeigen der Anwesenheit oder Abwesenheit einer Speicherkarte 19 erzeugen. Die Interrupts werden an die Peripherie- Mikrosteuereinrichtung 9 (nicht gezeigt) übermittelt, wobei sie für von positiven Flanken getriggerte Interrupts (Entfernen), von negativen Flanken getriggerte Interrupts (Einfügen) oder zur Feststellung einer defekten Speicherkarte 19 programmiert werden können. Erfaßte Interrupts können an den Verarbeitungsrechner 2 durch den Mehrzweck-Interrupt übertragen werden können. Dieser Interrupt muß charakterisiert werden, um eine Kommunikation über die Mail-Box 17 zu erreichen.
  • Um die Art der eingefügten Speicherkarte 19 zu bestimmen, kann ein wahlfreier Merkmalspeicher bzw. ein Eigenschaftsspeicher von der Speicherkarte 19 ausgelesen werden. Dieser Merkmalspeicher bzw. Eigenschaftsspeicher ist lediglich 8 Bit breit und wird durch den niedrigen Datenbus ausgelesen.
  • Dies erlaubt es, das Videoverarbeitungssystem 1 in Verbindung mit Speicherkarten zu verwenden, die verschiedene Merkmale und Geschwindigkeiten aufweisen. Vorzugsweise wird eine System-Software bereitgestellt, um die Speicherkarten abzufragen und um auf Grundlage ihrer Geschwindigkeit und des wahlfreien Merkmalspeicher zu entscheiden, wie es der RTO-Prozessoreinrichtung 10 und dem Verarbeitungsrechner 2 am besten möglich ist, sicher auf die Speicherkarten zu zugreifen.
  • Werden SRAM-Speicherkarten-Einrichtungen mit einer batteriebetriebenen Ersatzstromquelle bereitgestellt, dann werden die Speicherkarten-Steckplätze 6 und 7 mit Batterie-Zustands-Signalen ausgestattet, die mit der Peripherie-Mikrosteuereinrichtung 9 (nicht gezeigt) verbunden sind, und die anzeigen, ob die Batterie voll oder leer ist.
  • Die RTO-Prozessoreinrichtung 10 wird eingestellt und wird durch den Verarbeitungsrechner 2 zur Echtzeit-Darstelltng von objekt-basierten Grafikbilder gesteuert, und eine vollständige Beschreibung eines speziellen Beispiels der RTO-Prozessoreinrichtung 10 ist in der Druckschrift AU-A- 38 244/94 (Anwalts-Bzg: (RTO7)(202 788)) enthalten, die die Priorität der australischen Patentanmeldung Nr. PL 2147 vom 29 April 1992 durch den gleichen Anmelder beansprucht.
  • Die RTO-Prozessoreinrichtung 10 weist neben einer Schnittstelle zu dem Prozessorbus 3 auch eine Schnittstelle zu ihren eigenen zugeordneten QPF-Speicher 21 auf, die mit zwei SRAM-Einrichtungen 22 und 23 ausgestaltet ist. Die RTO-Prozessoreinrichtung 10 umfaßt 256k Bytes bei 25 ns eines lokal zugeordneten QPF-Speichers 21 (zwei 64K · 16 RAMs). Diese RAMs sind immer freigegeben, und die RTO-Prozessoreinrichtung 10 steuert die Lese- und Schreib-Abtastimpulse direkt an.
  • Nachdem die RTO-Prozessoreinrichtung 10 eingestellt ist und gestartet wird, liest sie Listen von Objekten aus dem System-ROM 4, aus dem System-RAM 5 oder aus den Speicherkarten 19 in ihren eigenen lokalen Speicher ein, bereitet die Objekte auf und stellt die Objekte dar, wobei ein 8- Bit Datenwort in Form eines RTO-Prozessor-Ausgangspegeibuses 24 für jedes Bildelement der Ausgabe-Anzeigeeinrichtung ausgegeben wird, das den Pegel und gewünschte Effekte für das am besten sichtbare Objekt, das an dem Bildelements aktiv ist, beschreibt. Die Anzeige-Listen umfassen vorzugsweise Objektumriß-Daten, die die Berechnung von Grafik-Bildern in Echtzeit erlauben. Ein Beispiel derartiger Daten stellen die quadratischen polynomischen Fragmente (nachstehend auch QPF genannt) dar, die üblicherweise in dem System-RAM 5 zwischengespeichert sind, aber sie können auch direkt aus dem System-ROM 4 oder aus einer der Speicherkarten ausgelesen werden.
  • Nachdem die Anzeige-Liste gelesen worden ist, skaliert und überträgt die RTO-Prozessoreinrichtung 10 die QPF- Objekte jeweils in die X- und die Y-Richtung. Dies führt zu Quetsch- und Streck-Effekten ebenso wie zu einer Kompensation verschiedener Bildelement-Seitenverhältnissen wie beispielsweise Seitenverhältnisse bei PAL- und NTSC-Fernsehsystemen zu. Nach der Skalierung und Übertragung werden die QPFs für eine Zeilensprung- Anzeigeeinrichtungen berechnet, da die Berechnungen von Umrißkurven für geradzahlige und für ungeradzahlige Halbblider des Videosignals verschieden sein müssen, um eine maximale vertikale Auflösung zu erreichen. Als nächstes werden QPFs, die gänzlich außerhalb des Schirms skaliert und übertragen wurden, durch Ausschneiden von Objekt-Listen entfernt. QPFs, die zu klein sind, um sichtbar zu sein, werden ebenfalls ausgeschnitten. QPFs, die die Grenzen des Schirms überschreiten, werden ebenfalls abgeschnitten. Nach einer anfänglichen Verarbeitung werden die QPFs in dem zugeordneten QPF-Speicher 21 gespeichert. Wenn alle QPFs in dem zugeordneten QPF- Speicher 21 gespeichert sind, werden sie in eine Zeilenreihenfolge und dann in eine Bildelementreihenfolge bezüglich der Position jedes ersten Bildelementes in jedem QPF sortiert. Nachfolgend werden die Schnittpunkte aller QPFs mit den von ihnen gekreuzten Abtastzeilen berechnet. Dies wird in Echtzeit ohne Verwendung eines Vollbildspeichers durchgeführt. QPFs werden nicht vor der Schnittpunktberechnung in gerade Linien abgeflacht, und demgemäß wird eine Krümmung der Kurven auch bei großer Vergrößerung erhalten. Nach der Schnittpunktberechnung wird die sichtbare Reihenfolge bzw. Anordnung von Objekten bestimmt und versteckte Oberflächen werden entfernt. Farbbereiche werden dann durch Erstrecken bzw. Erweiterung der Prioriätspegel des jeweiligen QPFs bis zum nächsten Schnittpunkt gefüllt. Transparenz- und Effekt-Berechnungen werden dann hardwaremäßig und bei Echtzeit-Datenraten durchgeführt.
  • Auf diese Weise gibt die RTO-Prozessoreinrichtung 10 Bildelementdaten zur Anzeige durch Raster-Anzeigeeinrichtungen auf eine synchrone Weise aus und weist lediglich Farb-Pegeldaten auf, die über einen 8-Bit- Pegel-RTO-Prozessorausgabe-Pegelbus 24 übertragen werden. Die Ausgabe-Bildelementrate beträgt 13,5 Millionen Bilclelemente pro Sekunde, und ist für PAL- und NTSC-SystemE: konstant.
  • Wenn die RTO-Prozessoreinrichtung 10 (Slave) dem Verarbeitungsrechner 2 unterstellt ist, ist der Verarbeitungsrechner 2 in der Lage, zusätzlich zum Auslesen des zugeordneten QPF-Speichers 21, die Steuerregister der RTO-Prozessoreinrichtung 10 zu lesen. Ein Zugriff auf die Steuerregister der RTO-Prozessoreinrichtung 10 wird durch die Verwendung von speicherabbildenden Eingang/Ausgang- Techniken durchgeführt. Die Basisadresse für den Zugriff auf den zugeordneten QPF-Speicher 21 wird beim Start in die Register der RTO-Prozessoreinrichtung 10 programmiert, und ebenso entsprechend der Speicher- Belegungstabelle des Verarbeitungsrechner gesetzt. Die RTO-Prozessoreinrichtung 10 unterstützt einen Burstzugriff oder Byte-Schreiben in ihre Register und den zugeordneten QPF-Speicher 21 nicht.
  • Wenn die RTO-Prozessoreinrichtung 10 den. Prozessorbus 3 steuert, steuert die RTO-Prozessoreinrichtung 10 die einer Demultiplex-Verarbeitung unterzogenen Adressen und Datenbusse direkt an. Wie vorstehend angeführt, fordert sie eine Verwendung des Prozessorbuses 3 durch Benach richtigung, und nachfolgend Bestätigung des Verarbeitungsrechners 2 an. Die RTO-Prozessoreinrichtung 10 weist ein Interruptausgangssignal auf, das mit dem Verarbeitungsrechner 2 verbunden ist und den. Interrupt der höchsten Priorität (INT0) bildet. Dieser Interrupt wird zur Anzeige von vielen Ereignissen einschließlich der Beendigung des Betriebs und interner Fehler verwendet.
  • Die RTO-Prozessoreinrichtung 10 umfaßt Eingänge für Bildelement-Taktsignale, Zeilen- und Einheitensysnchronisiersignale und gerad-/ungeradzahiige Halbbildsignale. Das an die RTO-Prozessoreinrichtung 10 eingegebene Bildelement-Taktsignal wird durch einen von einem Taktgeber bzw. einer Taktsignalerzeugungseinrichtung 26 angesteuerten Sysnchronisationsbus mit dem empfangenen Videosignal synchronisiert bzw. gen-locked Die Zeilensyschronisation, die Halbbild-Synchronisation und das Zeilenschnittpunkt-Signal werden durch einen Video-Dekodierer 27 bereitgestellt.
  • Der Videoverarbeitungsabschnitt des Videoverarbeitungssystems 1 umfaßt Videoeingänge 28. Empfangene analoge gemischte bzw. zusammengesetzte Videosignale werden über einen RCA-Verbindungsstecker eingegeben und dann durch eine RFI-Ferrit-Perle geführt. Dieses Signal wird dann durch einen Widerstand nach Masse (GND) abgeschlossen und wechselspannungsmäßig über einen 1 uF Kondensator an den Eingang des Video-Analog/Digital-Wandlers 29 angekoppelt. Luminanz bzw. Helligkeit (Y)- und Chrominanz bzw. Farb (C)-Komponenten von S-Videosignale werden durch einen Mini-DIN-Verbindungsstecker mit 4 Anschlüssen eingegeben. Diese werden ebenfalls durch RFI-Ferrit-Perlen geleitet, bevor sie durch einen 75 Ohm Widerstand nach Masse abgeschlossen werden. Diese Signale werden ebenfalls wechselspannungsmäßig mit einen 1 uF Kondensator angekoppelt. Die Luminanz-Komponente des eingegeben S- Videosignals wird an den Analog/Digital-Wander 29 weitergeleitet, wogegen die Chrominanz-Komponente an einen zweiten Analog/Digital-Wander 30 weitergeleitet wird.
  • Der Analog/Digital-Wandler 29 wird vorzugsweise durch Hochgeschwindigkeits-8-Bit-Analog/Digital-Wandler wie beispielsweise den Philips TDA 8708 realisiert und wird zur Digitalisierung des gemischten bzw. zusammengesetzten Videosignals oder der Y-Komponente des S-Videosignals verwendet. Ein Eingangs-Multiplexer, der einen Teil des Analog/Digital-Wandlers 29 bildet, wird durch ein programmierbares Bit des Video-Dekodierers 27 gesteuert, der über eine Dekodierer-Multiplex-Steuerung 31 entweder das gemischte bzw. zusammengesetzte Videosignal oder das Y-Signal auswählt. Das ausgewählte Signal wird dann an einen Verstärker mit einer Klemm- und Verstärkungs- Steuerung weitergeleitet. Die beiden Signale HSY und HCL sind programmierbare Signale, die ebenso von dem Video- Dekodierer 27 über die Dekodierer-Multiplex-Steuerung 31 eingegeben werden und die jeweils die Synchronisier (sync)- und Schwarz-Abschnitte des eingegebenen analogen Video-Signalverlaufs anzeigen. Falls ihre aktiven Impulse derart programmiert werden, daß sie einander überlappen, wird der Analog/Digital-Wandler 29 in einer Konfigurier- Betriebsart betrieben, wobei die Verstärkung des Video- Verstärkers derart eingestellt wird, daß a-128 bei einem Synchronisations-Pegel ausgegeben und daß 127 bei einem Spitzenwert-Pegel ausgegeben wird. Diese Betriebsart sollte nur bei schwach empfangenen Signalen verwendet werden. Wenn die aktiven Impulse von HSY und HCL derart programmiert werden, daß sie einander nicht überlappen (Konfigurier-Betriebsart 2), wird die Verstärkung so eingestellt, daß a-128 von dem Wandler beim niedrigsten Pegel des Synchronisations-Impulses ausgegeben und daß - 64 für den Schwarz-Pegel ausgegeben wird. Standard Videosignale sollten 85 nicht überschreiten. Das Aus gangssignal des Verstärkers wird über einen externen Tiefpaßfilter (LPF) mit einem -3dB-Punkt bei ungefähr 6,2 MHz in den Analog/Digital-Wandler 29 eingegeben. Das digitale Ausgangssignal befindet sich im Zweier- Komplement-Format.
  • Der Analog/Digital-Wandler 30 wird vorzugweise durch eine Philips TDA 8709-Einrichtung realisiert und wird zur Digitalisierung der Chrominanz (C)-Komponente des S- Video-Eingangssignals verwendet. Ein anderer Analog/- Digital-Wandler 30 wird benötigt, da die Klemm- und Analog/Digital-Umwandlungsfunktionen für Luminanz- und Chrominanz-Signale bzw. Helligkeits- und Farbsignale verschieden sind. Ein Eingangs-Multiplexer wählt das 0- Signal aus, das dann durch einen Videoverstärker mit einer Verstärkungs- und Klemm-Steuerung geführt wird. Das HCL-Signal des Video-Dekodierers 27 wird verwendet, um die Klemm-Schaltung zu aktivieren, so daß 128 als geklemmter Wert für ein Chrominanz-Eingangssignal ausgegeben wird. Das Ausgangssignal des Verstärkers wird über einen externen Tiefpaßfilter (LPF) mit einem -3dB PunkL bei ungefähr 6,2 MHz in den Wandler eingegeben. Das Ausgangssignal befindet sich im Zweier-Komplement-Format.
  • Beide Analog/Digital-Wandler (nachfolgend auch ADC genannt) 29 und 30 sind rauschempfindliche analoge Schaltungen und beide Einrichtungen benötigen passive Komponenten in bekannter Art und Weise.
  • Die ADCs 29 und 30 geben an den Video-Dekodierer 27 aus, der vorzugsweise durch einen Philips SAA7151B, digitaler Multi-Standard-Dekodierer (DMSD) realisiert wird, der in der Lage ist, die digitalisierte PAL/NTaC-Composit-Video- Daten oder S-Video-Daten in Daten im Verhältnis 4 : 2 : 2 der (Y, U, V)-Komponenten in Übereinstimmung dem CCIR Rec- 601-Standard formatierte Daten zu dekodieren. Der Video- Dekodierer 27 benötigt sowohl für PAL-Signale als auch für NTSC-Signale lediglich ein einzelnes 24,576 MHz Taktsignal von dem Taktgeber bzw. der Taktsignalerzeugungseinrichtung 26 und ist in der Lage, den Fernsehstandard des empfangenen Signals automatisch zu erfassen, oder er kann in eine bestimmte Betriebsart "versetzt" werden. Der Video-Dekodierer 27 kann bei Start über seine I²C-Schnittstelle durch die Peripherie-Mikrosteuereinrichtung 9 programmiert werden. Der Video-DEkodierer 27 verwendet viele programmierbare Softwareparameter, die initialisiert werden müssen. Diese Parameter schließen Parameter der drei Hauptbereiche des Video-Dekodierers 27 mit ein: Synchronisationsverarbeitung, Luminanzverarbeitung und Chomonanzverarbeitung. Ferner sind viele Sofwareparameter bezüglich einer Zeitablaufsteuerung und der Eigenschaften der digitalen Filter vorhanden. Die Programmierung eines Video-Dekodierers 27 ist komplex, aber dem Fachmann bekannt. Eine Dekodierung der eingegebenen Daten wird ausschließlich im digitalen Bereich durchgeführt und ist vollständig in dem bei dem Philips Konzern erhältlichen SAA7199 Datenblatt beschrieben.
  • Die Synchronisations-Informationen werden aus den Video- Eingangsdaten extrahiert und 6 Signale VS, HS, ODD, HREF, HSY und HCL werden durch den Video-Dekodierer 27 erzeugt.
  • VS ist die vertikale Synchronisierungs-Information, HSY und HCL sind programmierbare Signale, die durch die Analog/Digital-Wandler 29 und 30 verwendet werden, um Synchronisations- und Schwarz-Abschnitte des empfangenen analogen Videosignals anzuzeigen. HS ist die horizontale Synchronisation und ihre vordere Flanke ist bezüglich der vorderen Flanke einer empfangenen horizontalen Synchronisation einstellbar. Diese Programmierbarkeit ermöglicht eine horizontale Einstellung der endgültigen Videoausgabe, um durch die Farb- und Mischeinheit 13 erzeugte Verzögerungen zu kompensieren. HREF ist immer bei dem ersten Bildelement einer Zeile aktiv und wird nach dem letzten Bildelement einer Zeile nicht-aktiv bzw. inaktiv. Die fallende Flanke dieses Signals kann durch die RTO-Prozessoreinrichtung 10 und die Farb- und Mischeinheit 13 als Zeilensynchronisations-Signal verwendet werden.
  • Die Phaseninformation des empfangenen Videosignals ist in einem sägezahnförmigen Signalverlauf (LFCO) mit 6,75 MEz enthalten, der der Taktsignalerzeugungseinrichtung 26 zur Erzeugung zeilen-synchronisierter 27-MHz und. 13,5-MHz- Taktsignale zugeführt wird.
  • Der Video-Dekodierer 27 weist vier digitale 8-Bit Busse auf. Gemäß Fig. 1A stellt ein CVBS/Yin-Bus ein zusammengesetztes digitale Video-Basisband-Signal-Eingangssignal (CVBS) oder ein Luminanz-Eingangssignal dar, wenn das S- Video-Eingangssignal des Videoverarbeitungssystems 1 verwendet wird. Cin ist ein Chrominanz-Eingangssignal für das S-Videosignal. Das Signal weist zwei auf einen Farb- Hilfsträger quadratur-modulierte Chrominanz-Komponenten (U und V) auf. Wenn die Chrominanz-Abtastung zeilensynchronisiert ist, während der Farb-Hilfsträger dies nicht ist, ist die Demodulation dieser beiden Farbkomponenten eingeschlossen.
  • Yout ist das Luminanz-Ausgangssignal des Video-Dekodieces 27. Es wird mit 13,5 Millionen Abtastungen pro Sekunde abgetastet und ist direkt mit dem Abschnitt der Farb- und Mischeinheiten 13 verbunden, die die Luminanz des verknüpfte Farbbildsignals verarbeitet.
  • Der Video-Dekodierer 27 weist ebenfalls ein das Chrominanz-Ausgangssignal darstellendes UV-Ausgangssignal auf. Es enthält einer Multiplex-Verarbeitung unterzogene Cr- und Cb-Signale bei jeweils 6,75 Millionen Abtastungen pro Sekunde. Der Hauptunterschied zwischen denen und dem Chrominanz-Eingangssignal ist, daß das UV-Ausgangssignal eher zeilen-synchronisiert und einer Zeit-Multiplex- Verarbeitung unterzogene als auf einem nicht synchronisierten Chrominanz-Hilfträger quadraturmoduliert wird. Daher ist dieses Signal digital kompatibel.
  • Die Taktsignalerzeugungseinrichtung bzw. der Taktgeber 26 ist vorzugsweise durch eine Phillips SAA7157-Einrichtung realisiert und stellt Hochgeschwindigkeits-Phasenregelkreise (PLL) zur Erzeugung zeilen-synchronisierter Video- Taktsignale bereit. Die Taktsignalerzeugungseinrichtung 26 erzeugt in Verbindung mit dem Video-Dekodierer 27 die gesamten zeilen-synchronisierten Video-Taktsignale der Videoverarbeitungsschaltungen einschließlich der 27 MHz und 13,5 MHz Taktsignale zusätzlich zu dem "Einschalt"- Rücksetz-Impuls des Videoverarbeitungssystems 1.
  • Aus dem vorstehend beschriebenen wird deutlich, daß ein in den Video-Eingang 28 eingegebenes Videosignal in seine Farbkomponenten aufgeteilt und in die Farb- und Mischeinheit 13 eingegeben wird.
  • In Fig. 2 ist die Farb- und Mischeinheit 13 ausführlicher gezeigt. Die Farb- und Mischeinheit. 13 ist unter Verwendung von vier Farberzeugungs- und Mischeinrichtungen. (nachstehend auch CGM genannt) 32, 33, 34 und 35 zusammengestellt. Eine vollständige Beschreibung eines spezifischen Beispiels einer Farberzeugungs- und Mischeinrichtung entsprechend CGM 32-35 ist in der Druckschrift AU-A-38 245/93 (Anwalts-Bzg: (RTO) (2135 746) 9 enthalten, die die Priorität der australischen Patentanmeldung Nr. PL 2152 vom 29. April 1992 mit dem Titel "A Colour Generation and Mixing Device" desselben Anmelders beansprucht.
  • Die CGM 32-35 sind zur Video-Zusammensetzung, zur Farbzuweisung und für Mischfunktionen bereitgestellt, die die Berechnung der aktuellen Farbe eines Bildelementes basierend auf den von dem RTO-Prozessor-Ausgangspegel-Eus 24 ausgegebenen Pegel dieses Bildelements erlauben. In diesem Ausführungsbeispiel dienen die CGP4-Einrichtungen 32-35 der Verknüpfung des RTO-Prozessor-Ausgangspegel-Eus 24 mit den von dem Video-Dekodierer 27 ausgegebenen digitalen Daten.
  • Jede der CGM-Einrichtungen 32-35 weist eine Anzahl von Eingangssignalen auf. Zuerst wird jede CGM mit dem Datenbus 20 verbunden, was dem Verarbeitungsrechner 2 erlaubt, verschiedene zur Bildung der Ausgabe jedes entsprechenden CGM verwendete Farbtafeln einzurichten. Ebenso weist jede CGM-Einrichtgung 32-35 einen von der RTO-Prozessoreinrichtung 10 eingegebenen Pegel des RTO- Prozessor-Ausgangspegel-Busses 24 auf, wobei der Pegel 6 Bits Prioritätsinformationen und 2 Bits "Effekte" umfaßt.
  • Jede der CGM-Einrichtungen 32-35 umfaßt einen Farb- oder Videoeingang, der für CGM4 35 nicht verwendet wird, aber der für jede der anderen CGM-Einrichtungen mit den Ausgänge 36 und 37 des Video-Dekodierers 27 verbunden ist.
  • Jede der CGM-Einrichtungen 32-35 weist ebenfalls eine Mischung von Transparenz-Einganssignalen auf, wobei die Transparenz-Eingänge der CGM1 32, CGM2 33 und CGM3 34 mit der CGM4 35 verbunden sind. Die Video-Ausgangssignale der jeweiligen CGM 32-34 stellen eine durch das Transparenz- Eingangssignal gesteuerte Verknüpfung zwischen den Farben der Video-Eingabe bereit. Folglich kann CGM4 35 als Steuereinrichtung zur Steuerung des Mischungspegels berechneter, von der RTO-Prozessoreinrichtung 10 ausgegebener Pegeldaten und zur Steuerung durch den Video- Dekodierer 27 bereitgestellter spezieller Farbvideo- Hintergrund-Daten verwendet werden.
  • Die Arbeitsweise jeder CGM-Einrichtung 52-55 wird über ein Bildelement-Taktsignal, horizontale und vertikale Synchronisations-Signale des Synchronisations-Bus 25 mit der RTO-Prozessoreinrichtung 10 und dem Video-Dekodierer 27 synchronisiert.
  • Aufgrund der Arbeitsweise der CGM4 35, die die Mischungs- Transparenz-Verhältnisse für die anderen Grundfarben berechnet, werden die jeweiligen Verarbeitungs-Ausgangssignale der CGM-Einrichtungen 32-34 um einige Bildelemente verzögert, um die Verarbeitungsverzögerung der CGM4 35 zu berücksichtigen.
  • Ferner besteht eine mehrfache Bildelement-Verzögerung zwischen dem Ausgang der RTO-Prozessoreinrichtung 10 über die CGM-Einrichtungen 32-35 sowie einem nachfolgend angeschlossenen Video-Kodierer 38 zu den tatsächlichen Video-Ausgängen 39 und 40. Diese Verzögerung wird durch. Verwendung einer Software ausgeglichen, die eine Verschiebung in die Berechnung der horizontalen Position aller QPF-Objekte in der RTO-Prozessoreinrichtung 10 einbezieht.
  • Die CGM-Einrichtungen 50-52 geben an den Video-Kodierer 38 aus, der als digitaler Video-Kodierer aufgebaut ist und der in Verhältnis 4 : 2 : 2 digitale Videosignalkomponenten entgegennimmt und sie in analoge zusammengesetzte Videosignale und S-Videosignale umwandelt. Eine derartige Einrichtung stellt der digitale Video-Kodierer Philips SA7199 dar.
  • Der Video-Kodierer 38 nimmt Synchronisations-Signale von wiedererzeugten Synchronisations-Informationen auf, die über den Synchronisations-Bus 25 mit dem empfangenen Videosignal synchronisiert sind. Diese Synchronisations- Signale werden durch den Video-Dekodierer 27 und die Taktsignalerzeugungseinrichtung 26 und nicht durch interne Synchronisations-Einrichtungen bzw. Genlocking- Einrichtungen des Video-Kodierers 38 erzeugt.
  • Der Video-Kodierer 38 wird ausschließlich von der Peripherie-Mikrosteuereinrichtung 9 über seine I²C- Schnittstelle programmiert. Der interne Speicherraum des Video-Kodierers 38 ist in die Farb-Nachschlagtabelle (nachstehend auch Tabelle CLUT genannt) und die Steuertabelle unterteilt. Die Adresse wird in das geeignete 8- Bit Register der Tabelle CLUT oder der Steuertabelle geschrieben und auf Daten wird über eine Tabelle CLUT oder einen Steuertabellen-Datenanschluß zugegriffen. Die Adressen werden automatisch nach jedem Zugriff auf den Datenanschluß inkrementiert. Die Ausnahme dazu erfolgt bei einem Zugriff auf die Tabelle CLUT.
  • Die Tabelle CLUT kann zur Bereichsbeschränkung des digitalen Videosignals der Farb- und Mischeinheit 13 verwendet werden, so daß sie den CCIR-601-Werten entsprechen, falls diese Verarbeitung bereits anderweitig durchgeführt wurde.
  • Die eingegebene Video-Datenfolge der Farb- und Mischeinheit 13 weist ein mit 13,5 MHz getaktetes 4-2-2 Y,U,V Datenformat auf. Der Video-Kodierer 38 ist zur Entgegennahme von "Format3: individuelle 4-·2-2 YUV"-Daten gemäß dem SAA7199 Datenblatt des Philips Konzerns eingestellt. Der einzigen Unterschied zwischen diesem Format und dem Standard 4-2-2-Format ist, daß die U- und die V-Daten simultan an verschiedenen Bussen verfügbar bzw. vorhanden sind, wodurch ihnen ermöglicht bzw. erlaubt wird, durch verschiedene CMG-Einrichtungen verarbeitet zu werden, wobei die Werten der eingegebenen Videodaten dem CCIR- 601-Standard entsprechenden.
  • Die Position der Videodaten relativ zur horizontalen Synchronisation zu den analogen Videoausgaben 39 und der Ausgabe des zusammengesetzten Videosignals 40 muß die gleiche sein, wie die des in das Videoverarbeitungssystem 1 eingegebenen analogen Videosignals. Dies erfolgt zur Vermeidung einer Horizontalbewegung des Bildes auch wenn dasselbe Videosignal mehrfach durch das Videoverarbeitungssystem 1 verarbeitet wird. Dies kann durch eine geeignete Positionierung der horizontalen Synchronisation des Video-Dekodierers 27 und durch Programmierung der relevanten Parameter in dem Kodierer erreicht werden. Ferner sind viele Sofwareparameter bezüglich einer Eingabe-Verarbeitung, einer Synchronisations-Verarbeitung, einer Taktsignalsteueruncyund einer Ausgabeverarbeitung vorhanden. Die Programmierung des Video- Dekodierers 38 ist komplex, aber dem Fachmann bekannt.
  • Die analogen Ausgänge des Video-Kodierers 38 werden über Tiefpaßfilter 41 geführt, bevor das analoge Video-Ausgangssignal 39 eingegeben und das zusammengesetzte Video- Ausgangssignal 40 gebildet wird.
  • Die Peripherie-Mikrosteuereinrichtung 9 wird vorzugsweise durch eine Philips 83C552-Mikrosteuereinrichtung mit einem 8 kBytes programmierbaren ROM, einem 256 bytes RAM, 3 16-Bit Zeitgebern/Zählern, einem 10-Bit Analog/Digital- Wandler mit 8 einer Multiplex-Verarbeitung unterzogenen. Eingängen, 40 bits für allgemeine Zwecke eines Eingangs/ Ausgangsbetriebs, einer I²C seriellen Datenbus-Steuereinrichtung und einem seriellen Duplex UART Anschluß. Die Peripherie-Mikrosteuereinrichtung 9 wird zur Steuerung der Toneffekteinrichtung 12, eines Tastenfeldes 42, eines Zeichenfeldes 44, einer seriellen Datenkommunikationsverbindung 43 und zur Überwachung des I²C-Bus 45 verwendet, der wiederum zur Initialisierung und zur Überwachung des Video-Dekodierers 27, des Video-Kodierers 38 und der seriellen Datenkommunikationsverbindung 43 verwendet wird.
  • Die Peripherie-Mikrosteuereinrichtung 9 kommuniziert mit dem Verarbeitungsrechner 2 unter Verwendung der Mail-Box 17, die einen 8-Bit bidirektionalen Signalspeicher aufweist. Wenn die Peripherie-Mikrosteuereinrichtung 9 mit dem Verarbeitungsrechner 2 kommunizieren möchte, legt sie die relevanten Daten in der Mail-Box 17 ab und benachrichtigt den Verarbeitungsrechner 2 durch einen Interrupt, daß Daten zur Verfügung stehen. Die Kommunikation des Verarbeitungsrechners 2 mit der Peripherie-Mikrosteuereinrichtung 9 geschieht in der gleichen Weise.
  • Die Toneffekteinrichtung 12 erzeugt Toneffekte für bewegte Video-Sequenzen und vermischt Ton mit einem empfangenen Videosignal. Das Videoverarbeitungssystem 1 erzeugt Toneffekte zusammen mit erzeugten Trickfilm- Sequenzen. Die Toneffekte nehmen die Form von digital abgetasteten Daten an, die in einer Speicher karte 19 in einer "Bibliothek" gespeichert sind. Ein Anwender des Videoverarbeitungssystems 1 kann Ton-Clips auswählen, die den Trickfilm-Sequenzen zugeordnet werden sollen. Wenn die Trickfilm-Sequenz wieder abgespielt werden soll, liest der Verarbeitungsrechner 2 die abgetasteten Tondaten aus der Speicherkarte 19 zu einem geeigneten Zeitpunkt aus und übermittelt sie zur Wiedergabe an die Toneffekteinrichtung 12.
  • Die Toneffekte werden durch die Toneffekteinrichtung 12 erzeugt, die vorzugsweise durch einen SEIKO 5800A Sprach- Aufzeichnungs-Wiedergabe-Chip realisiert wird. Der SEIKO 5800A ist für eine Verwendung in unabhängigen Aufzeichnungs/Abspiel-Schaltungen gedacht, wie beispielsweise in einem Telefon-Anrufbeantworter. Die Aufzeichnungs-Merkmale der Toneffekteinrichtung 12 werden nicht verwendet, wenn jedoch der SEIKO 5800A in einem Telefon-Anrufbeantworter verwendet wird, wird üblicherweise eine SRAM-Speichereinrichtung an den SEIKO 5800A angeschlossen, und wenn er angewiesen wird aufzuzeichnen, wandelt er ein empfangenes analoges Tonsignal in digitale Adaptive-Differentielle-Impuls-Kode-Modulierte (ADPCM) Daten um und schreibt diese in die SRAN-Speichereinrichtung. Üblicherweise stoppt er die Aufzeichnung, wenn er dazu angewiesen wird oder wenn sein Adresszähler einen vorab eingerichteten Stopp-Zählwert erreicht. Wenn er zum Abspielen angewiesen wird, liest er die (ADPCM)- Daten aus der SRAN-Speichereinrichtung, wandelt sie in analoge Signale um und gibt sie durch einen wahlfreien Tiefpaßfilter aus.
  • Das Videoverarbeitungssystem 1 benötigt das Aufzeichnungsmerkmal der SEIKO 5800A nicht. Da Tondaten aus dem Verarbeitungsrechner 2 abgegeben werden sollen, und da Daten zur Wiedergabe aus dem Verarbeitungsrechner 2 an die Toneffekteinrichtung 12 übertragen werden sollen, wird eine FIFO-Warteschlange 11 anstelle der SRAM- Speichereinrichtung der Toneffekteinrichtung 12 verwendet. Der Verarbeitungsrechner 2 schreibt Daten in die FIFO-Warteschlange 11 und die Toneffekteinrichtung 12 liest die Daten aus und wandelt sie in ein analoges Audiosignal um. Die Toneffekteinrichtung 12 wird durch die Peripherie-Mikrosteuereinrichtung 9 gesteuert. Die Toneffekteinrichtung 12 kann angewiesen werden, die Wiedergabe zu starten und zu stoppen. Ein interner Adresszähler in der Toneffekteinrichtung 12 zählt jedesmal hoch, wenn ein Byte Daten zur Wiedergabe gelesen wird. Die Wiedergabe stoppt, wenn dieser Adresszähler mit einem Stopp-Adressregister übereinstimmt. Dieses Stopp- Adressregister muß durch die Periepherie-Mikrosteuereinrichtung 9 beschrieben werden bevor die Wiedergabe beginnt. Die Periepherie-Mikrosteuereinrichtung 9 kann ebenfalls die Startadresse des Adresszählers setzten. Die Adresse wird beim Auslesen von Daten aus der FIFO-Warteschlange ignoriert, wird aber jedesmal hochgezählt, wenn ein Auslesen durchgeführt wird.
  • Vorzugsweise weist die Toneffekteinrichtung 12 einige Merkmale zur Aufrechterhaltung einer angemessenen Synchronisation mit dem entsprechenden Trickfilm auf. Die Toneffekteinrichtung 12 stellt das Tonsignal bei einer festen Rate mit geringfügigen Abweichungen (0,5% Genauigkeit über die Temperatur und Zeit) wieder her. Die Toneffekteinrichtung 12 kann zum Abtasten und Abspielen bei 8 KHz oder 4 KHz programmiert werden, was eine kurze Laufdauer mit einer Geschwindigkeit für hohe Qualität und eine lange Laufdauer mit einer Geschwindigkeit für geringe Qualität ergibt. Bei einer Abtastrate von 8 KHz (hohe Qualität) liest die Toneffekteinrichtung 12 4k Bytes pro Sekunde (jedes Byte enthält zwei 4-bit-Daten- Abtastwerte) aus. Dies entspricht 80 Bytes pro Einheit bei einer Vollbildrate von 25 Hz (PAL) und 66,7 Bytes pro Einheit bei einer Vollbildrate von 30 Hz (NTSC). Der Verarbeitungsrechner 2 ist in der Lage, diese Anzahl von Bytes aus der Speicherkarte 19 auszulesen und in die FIFO-Warteschlange 11 auf der Grundlage des Vollbildinterrupts zu schreiben. Das Videoausgangssignal wird mit der eingehenden Videoquelle synchronisiert, die einige Zeitbasis-Fehler aufweisen kann. Somit kann die Anzahl von Bytes pro Vollbild eines Videosignals variieren. Dadurch können die Toneffekte und das Videosignal in Laufe der Zeit die Synchronisation verlieren.
  • Verschiedene Synchronisations-Verfahren sind möglich. Die einfachste ist die Toneffekteinrichtung 12 zu stoppen und die FIFO-Warteschlange 11 rückgesetzten. Vorzugsweise werden nur kurze Ton-Clips verwendet, so daß dieser Ablauf aufeinanderfolgend auftreten kann. Falls eine lange erzeugte Tonsequenz in guter Synchronisation mit den Videosignal erhalten werden soll, könnte ein anspruchsvolleres Verfahren die Adresse der Toneffekteinrichtung 12 nach einer vorbestimmten Anzahl von Vollbildern überprüfen und dem Verarbeitungsrechner 2 erlauben, die Anzahl der in der FIFO-Warteschlange 11 geschriebenen Bytes anzupassen, wobei sie vergrößert wird, wenn die Adresse höher als erwartet ist oder sie verkleinert wird, wenn die Adresse niedriger als erwartet ist. Um eine gute Synchronisation mit dem Videosignal zu erhalten, muß jeder einem Vollbild entsprechende Tonverlauf durch den Verarbeitungsrechner 2 zerhackt und aufgefüllt werden. Falls beispielsweise der Verarbeitungsrechner 2 benötigt wird, um 80 Bytes/e-Basis- Fehler zu übermitteln, dann müssen 8 Bytes entfernt oder addiert werden. Um den Ton glatt zu halten, kann eine Interpolation zwischen den Abschneidepunkten bzw. den Scheidepunkten durch den Verarbeitungsrechner 2 ausgeführt werden. Aufgrund der relative langen Zeit zwischen Abtastpunkten (125 us bei 8 KHz) und der kurzen Zeit, die zum Stoppen, Überprüfen von Adressen, Rücksetzten von Adressen und Wiederbeginnen eines Abspielens verwendet wird, sollten keine wahrnehmbare Effekte in der Tonausgabe auftreten. Wenn das Tonsignal beendet ist, teilt der Verarbeitungsrechner 2 dies der Peripherie-Mikrosteuereinrichtung 9 mit bevor die FIFO-Warteschlange 11 leer ist, so daß die Peripherie-Mikrosteuereinrichtung 9 die Toneffekteinrichtung 12 stoppen und die FIFO-Warteschlange 11 durch Rücksetzten entleeren kann.
  • Der Verarbeitungsrechner 2 schreibt in die FIFO-Warteschlange hinein. Die niedrigen 8 Bits des Prozessorbusses 3 werden verwendet, die FIFO-Warteschlange 11 umfaßt 1k Byte und nur 80 Bytes pro Vollbild werden benötigt. Die FIFO-Warteschlange 11 wird durch die Periepherie-Mikrosteuereinrichtung 9 vor dem ersten Beschreiben der FIFO- Warteschlange 11 rückgesetzt.
  • Die Peripherie-Mikrosteuereinrichtung 9 steuert die Toneffekteinrichtung 12 und ist in der Lage, Anweisungen zu schreiben und einen Zustand und die Daten der Toneffekteinrichtung 12 auszulesen. Die Ausgabe der FIFO- Warteschlange 11 kann ebenfalls durch die Toneffekt einrichtung 12 ausgelesen werden, wenn die Peripherie- Mikrosteuereinrichtung 9 die FIFO-Warteschlange 11 testet. Die herkömmliche SRAM-Speicher-Schnittstelle der Toneffekteinrichtung 12 ist geeignet mit der FIFO-Warteschlange 11 zu kommunizieren bzw. in Verbindung zu treten, und die Software des Verarbeitungsrechner 2 ist ausgelegt, um sicher zu stellen, daß die Toneffekteinrichtung 12 nicht versucht auf die FIFO-Warteschlange 11 zuzugreifen, wenn sie leer ist.
  • Das analoge Ausgangssignal der Toneffekteinrichtung 12 wird mit einem Audio-Eingangssignal 46 vermischt und zur Erzeugung eines Audio-Ausgangssignal 47 verstärkt.
  • Das Audio-Eingangssignal 46 wird ebenfalls in einen Analog/Digital-Wandler in der Peripherie-Steuereinrichtung 9 zur Verarbeitung eingegeben, um einen ungefähren Lautstärke-Pegel zu extrahieren. Dieser Pegel kann an den Verarbeitungsrechner 2 übermittelt werden, um bei Echtzeit-Trickfilmen verwendet zu werden. Beispielsweise kann der Pegel bei der Erzeugung einer Mundbewegung bei einem Personen-Trickfilm automatisch verwendet werden. Eine Mundbewegungsdarstellung benötigt keine Genauigkeit, um einen angemessenen Eindruck von sprechenden Gestalten bzw. Personen zu hinterlassen. Beispielsweise weisen nachsynchronisierte Filme nur eine geringe Korrelation zwischen den Lippen und dem Ton auf, werden aber trotzdem weithin verwendet. Digitale Sprachverarbeitung in Synchronisation mit einer Videoerzeugung kann zu erheblich verbesserten Ergebnissen führen.
  • Die Periepherie-Mikrosteuereinrichtung 9 stellt eine serielle Kommunikation über die serielle Datenkommunikationsverbindung 43 bereit, die die Verbindung des Videoverarbeitungssystems 1 mit gleichen Systemen und mit einem Personal Computer erlaubt.
  • Gemäß Fig. 3 ist eine Veranschaulichung des Videoverarbeitungssystems gezeigt, das ein Zeichen-Feld 44 mit einem entsprechenden Digitalisier-Stift 64 und einem Tasten-Feld 42 aufweist, das eine alphanumerische Tastatur und eine Rücksetz-Taste, Trickfilm-Bearbeitungs- Tasten 65, Virtuell-Kamera-Steuertasten 66 und Trickfilm- Steuertasten 67 aufweist. Zusätzlich ist der erste Speicherkarten-Steckplatz 6 und der zweite Speicherkarten-Steckplatz 7 zum Einfügen von Speicherkarten gezeigt.
  • Vorstehend ist lediglich ein Ausführungsbeispiel der vorliegenden Erfindung beschrieben, wobei jedoch andere Ausführungen und Abwandlungen möglich sind.

Claims (24)

1. Videoprozessorsystem (1) mit
einer Videoeingabeeinrichtung (28) zum Empfang eines ersten Videosignals,
mindestens einer Farbmisch- und Erzeugungseinrichtung (13) zur Verknüpfung des ersten Videosignals mit bildelement-basierten Bilddaten zur Erzeugung eines zweiten Videosignals, und
einer Videoausgabeeinrichtung (39, 40) zur Ausgabe des zweiten Videosignals (39),
gekennzeichnet durch
eine Echtzeit-Objektprozessoreinrichtung (RTO) (10) zur Wiedergabe objekt-basierter Grafikbilddaten, die ein objektbasiertes Grafikbild beschreiben, um die bildelement-basierten Bilddaten zu formen, wobei die RTO- Prozessoreinrichtung eine erste Speichereinrichtung (2 : 2, 23) aufweist zur vorübergehenden Speicherung der objektbasierten Grafikbilddaten, wobei die RTO-Prozessoreinrichtung zur Wiedergabe der bildelement-basierten Grafikdaten aus den in der ersten Speichereinrichtung gespeicherten objekt-basierten Grafikbilddaten in Echtzeit ohne Verwendung eines bildelement-basierenden Vollbildspeichers vorgesehen ist und wobei die Farbmisch- und Erzeugungseinrichtung vorgesehen ist zur Verknüpfung des ersten Videosignals mit bildelement-basierten Bilddaten, während die bildelement-basierten Bilddaten von dem RTO-Prozessor dargestellt werden, um das zweite Videosignal bereitzustellen.
2. Videoprozessorsystem nach Anspruch 1, dadurch gekennzeichnet, daß das System (1) weiterhin eine Verarbeitungsrechneneinrichtung (2) zur Zusammensetzung und zur Bearbeitung der objekt-basierten Grafikbilder umfaßt.
3. Videoprozessorsystem nach Anspruch 2, dadurch gekennzeichnet, daß das System (1) weiterhin eine vom Benutzter steuerbare Eingabeeinrichtung (42, 44) umfaßt zur Auswahl und Bearbeitung der Objektbilddaten, um bearbeitete Bilddaten zu erzeugen.
4. Videoprozessorsystem nach Anspruch 1, 2 oder 3, dadurch gekennzeichnet, daß die objekt-basierten Bilddaten unter Verwendung quadratischer polynomischer Fragmente (QPF) Grafikobjekte beschreiben.
5. Videoprozessorsystem nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, daß
die RTO-Prozessoreinrichtung (10) weiterhin folgendes umfaßt:
eine Randbestimmungseinrichtung zur Bestimmung der gegenwärtigen Zeilenobjektrandpositionsdaten, und
eine Bildelementfarbbestimmungseinrichtung zum Empfang der gegenwärtigen Zeilenobjektrandpositionsdaten von der Randbestimmungseinrichtung und zur Erzeugung eines gegenwärtigen Bildelementfarbwerts für jedes darstellbare Bildelement des objekt-basierten Grafikbildes.
6. Videoprozessorsystem nach Anspruch 5, dadurch gekennzeichnet, daß die gegenwärtigen Zeilenrandpositionsdaten Farbobjekt- und Objektdurchläßigkeitsinformationen beinhalten.
7. Videoprozessorsystem nach Anspruch 5 oder 6, dadurch gekennzeichnet, daß die Bildelementfarbbestimmungseinrichtung vorgesehen ist zur Ausgabe an die Farbmisch- und Erzeugungseinrichtung, und die Farbmisch- und Erzeugungseinrichtung; eine Farbmisch- und Erzeugungseinheit (32-35) für jede Farbkomponenten (Y, Cr, Cb) des zweiten Videosignals umfaßt.
8. Videoprozessorsystem nach Anspruch 7, dadurch gekennzeichnet, daß die Farbmisch- und Erzeugungseinrichtung (13) mit dem Verarbeitungsrechner (2) verbunden ist, und sich die Einstell- und Steuerungsinformationen der Fa rbmisch- und Erzeugungseinrichtung (13) durch den Verarbeitungsrechner (2) verändern lassen.
9. Videoprozessorsystem nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, daß das System weiterhin eine Steuereinrichtung (12) mit einer zugehörigen zweiten Speichereinrichtung zur Erzeugung von Audioausgangssignalen in Verbindung mit dem zweiten Videosignal umfaßt.
10. Videoprozessorsystem nach Anspruch 9, dadurch gekennzeichnet, daß die Audioausgangssignale im wesentlichen in Synchronisation mit sichtbaren, in dem zweiten Videosignal dargestellten Ereignissen erzeugt werden.
11. Videoprozessorsystem nach Anspruch 9 oder 10, dadurch gekennzeichnet, daß das System (1) weiterhin eine Peripherieprozessoreinrichtung (9) zur Betrieb der Steuereinrichtung (12) umfaßt.
12. Videoprozessorsystem nach Anspruch 9, 10 oder 11, dadurch gekennzeichnet, daß die zweite Speichereinrichtung (11) eine First-in-Firstout-(FIFO)-Warteschlange darstellt.
13. Videoprocessorsystem nach einem der Ansprüche 3 bis 12, wenn sie auf Anspruch 3 rückbezogen sind, gekennzeichnet durch eine weitere Eingabeeinrichtung, die eine Vielzahl von Speichergehäuseeinrichtungen (6, 7) aufweist zur Aufnahme abnehmbarer Speichereinheiten, die Grafikobjektbilddaten beinhalten.
14. Videoprozessorsystem nach Anspruch 13, dadurch gekennzeichnet, daß die abnehmbaren Speichereinheiten (19) nicht-flüchtige Speicherkarten umfassen.
15. Videoprozessorsystem nach 13 oder 19, dadurch gekennzeichnet, daß die Speichereinheiten (19) einen Systemkode zur Ver wendung in dem Betrieb des Grafiksystem umfaßt.
16. Videoprozessorsystem nach Anspruch 13, 14 oder 15, dadurch gekennzeichnet, daß die weitere Eingabeeinrichtung (6, 7) eine Erfassungseinrichtung zur Bestimmung der An- oder Abwesenheit der abnehmbaren Speichereinheiten (19) umfaßt.
17. Videoprozessorsystem nach einem der Ansprüche 2 bis 16, wenn sie auf Anspruch 2 rückbezogen sind, dadurch gekennzeichnet, daß der Verarbeitungsrechner (2) aufgebaut ist zur Zusammenstellung einer Liste graphischer Objekte, die zusammen ein bewegtes Bild bilden, und die Echtzeitobjektprozessoreinrichtung vorgesehen ist zur Wiedergabe der bewegten Bilder in einem Rasterformat zur Verknüpfung mit einem im ersten Videosignal enthaltenen Videobild.
18. Videoprozessor nach Anspruch 17, dadurch gekennzeichnet, daß das System ferner eine dritte Speichereinrichtung (4, 19) umfaßt, in der die Grafikobjekte gespeichert sind, wobei der Verarbeitungsrechner (2) zur Erzeugung der Liste auf die dritte Speichereinrichtung (4, 5, 19) zugreifen kann.
19. Videoprozessorsystem nach Anspruch 18, dadurch gekennzeichnet, daß die dritte Speichereinrichtung (4, 5, 19) durch den Benutzer veränderbare Speichereinheiten (19) aufweist, die an das System durch die komplementären Anschlüsse (6, 7) angeschlossen werden können.
20. Videoprozessorsystem nach Anspruch 17, 18 oder 19, dadurch gekennzeichnet, daß die Liste eine Liste individueller Kurvenabschnitte für jedes Objekt umfaßt, und die RTO-Prozessoreinrichtung (10) vorgesehen ist zur Manipulation jedes Abschnittes, um das bewegte Bild zu erzeugen.
21. Videoprozessorsystem nach Anspruch 20, dadurch gekennzeichnet, daß die Abschnitte die Kurven durch quadratische polynomische Daten (QPF) beschreiben, die durch die RTO- Prozessoreinrichtung (10) berechnet werden können, um das bewegte Bild in Echtzeitdatenraten zu erzeugen, die geeignet sind für eine echtzeitgerasterte Anzeige.
22. System nach einem der Ansprüche 17 bis 21, gekennzeichnet durch eine Videodekodiereinrichtung (27) zur Dekodierung des Videoeingangssignal in eine Vielzahl von Farbkomponenten (Y, U, V) zur Eingabe an die Farbmisch- und Erzeugungseinrichting (13), wobei die Farbmisch- und Erzeugungseinrichtung vorgesehen ist zur getrennten Verknüpfung jeder Komponente mit Pegeldaten, die bildelement-basierte Grafikbilder aufweisen, um einen Bildelementwert für eine entsprechende Farbkomponente (Y, Cr, Cb) bereitzustellen, und wobei die Videoausgabeeinrichtung (39, 40) vorgesehen ist zur Kodierung der entsprechenden kombinierten Farbkomponenten, um das Videoausgangssignal bereit zu stellen.
23. System nach Anspruch 22, wenn auf von Anspruch 7 rückbezogen, dadurch gekennzeichnet, daß die Farbmisch- und Erzeugungseinrichtung (13) eine weitere CGM-Einheit (35) umfaßt, die lediglich Pegeldaten empfängt und vorgesehen ist zur Ausgabe eines Mischsignalpegels zur Steuerung der Mischung der Videobilder und bewegten Bilder, an die anderen CGM-Einheiten (32- 34).
24. System nach einem der Ansprüche 17 bis 23, wenn sie auf Anspruch 10 rückbezogen sind, gekennzeichnet durch eine Toneinrichtung (9, 12) zur Erzeugung des Audioausgangssignals, wobei die Toneinrichtung, die eine Audioeingangseinrichtung aufweist zum Empfang eines Audioeingangssignals, das in einem zur Ausgabe des Audioausgangssignals dienenden Toneffektgenerator verarbeitet werden kann.
DE69324399T 1992-04-29 1993-04-28 Videoprozessorsystem Expired - Lifetime DE69324399T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
AUPL214192 1992-04-29

Publications (2)

Publication Number Publication Date
DE69324399D1 DE69324399D1 (de) 1999-05-20
DE69324399T2 true DE69324399T2 (de) 1999-09-30

Family

ID=3776118

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69324399T Expired - Lifetime DE69324399T2 (de) 1992-04-29 1993-04-28 Videoprozessorsystem

Country Status (4)

Country Link
US (1) US5590252A (de)
EP (1) EP0568356B1 (de)
JP (1) JPH06214557A (de)
DE (1) DE69324399T2 (de)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0664527A1 (de) * 1993-12-30 1995-07-26 Eastman Kodak Company Verfahren und Gerät zur Standardisierung von Gesichtbildern für personifizierte Videounterhaltung
EP0664526A3 (de) * 1994-01-19 1995-12-27 Eastman Kodak Co Verfahren und Gerät für dreidimensionales personifiziertes dreidimensionales Spiel mit 3-D-Modellen und Tiefemessungsgerät.
DE19518705C1 (de) * 1995-05-22 1996-11-21 Siemens Ag Verfahren zur Kodierung von Bildersequenzen in einer Sendeeinheit
GB9510507D0 (en) * 1995-05-24 1995-07-19 Thomson Consumer Electronics User interface animation using mpeg video compression techniques
US5969770A (en) * 1995-05-24 1999-10-19 Thomson Consumer Electronics, Inc., Animated "on-screen" display provisions for an MPEG video signal processing system
US6058459A (en) * 1996-08-26 2000-05-02 Stmicroelectronics, Inc. Video/audio decompression/compression device including an arbiter and method for accessing a shared memory
US5903868A (en) * 1995-11-22 1999-05-11 Yuen; Henry C. Audio recorder with retroactive storage
JP4397054B2 (ja) * 1996-06-13 2010-01-13 株式会社ニコン 情報入力装置
DE19782200B4 (de) 1996-12-19 2011-06-16 Magnachip Semiconductor, Ltd. Maschine zur Videovollbildaufbereitung
ATE331390T1 (de) * 1997-02-14 2006-07-15 Univ Columbia Objektbasiertes audiovisuelles endgerät und entsprechende bitstromstruktur
US6201580B1 (en) * 1997-03-31 2001-03-13 Compaq Computer Corporation Apparatus for supporting multiple video resources
US6430589B1 (en) 1997-06-20 2002-08-06 Hynix Semiconductor, Inc. Single precision array processor
US6172712B1 (en) 1997-12-31 2001-01-09 Intermec Ip Corp. Television with hard disk drive
GB2340363B (en) 1998-07-31 2002-09-11 Sony Uk Ltd Image processing and rendering
US20030001981A1 (en) * 2001-05-21 2003-01-02 Sony Corporation Modular digital television architecture
US20020180890A1 (en) * 2001-05-21 2002-12-05 Milne James R. Modular digital television architecture
KR100597406B1 (ko) 2004-06-29 2006-07-06 삼성전자주식회사 Osd 화면 상에서 애니메이션이 진행되는 동안 실시간키입력이 가능한 셋탑박스 및 osd 데이터 출력 방법
US7725609B2 (en) * 2005-08-05 2010-05-25 Qimonda Ag System memory device having a dual port
WO2007097036A1 (ja) * 2006-02-27 2007-08-30 Fujitsu Limited 中央処理装置、中央処理装置の制御方法、情報処理システム
US8990673B2 (en) * 2008-05-30 2015-03-24 Nbcuniversal Media, Llc System and method for providing digital content
CN110719416A (zh) * 2019-09-30 2020-01-21 咪咕视讯科技有限公司 一种直播方法、通信设备及计算机可读存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5077608A (en) * 1990-09-19 1991-12-31 Dubner Computer Systems, Inc. Video effects system able to intersect a 3-D image with a 2-D image
JP2522873B2 (ja) * 1990-12-11 1996-08-07 インターナショナル・ビジネス・マシーンズ・コーポレイション マルチメディア・システム用の情報処理装置
JP3315464B2 (ja) * 1992-04-29 2002-08-19 キヤノン株式会社 画像描写方法及び装置
US5428741A (en) * 1993-07-26 1995-06-27 Ncr Corporation High speed image preprocessing system including a multi-purpose buffer for storing digital image data and data cropping means for selectively cropping the digital image data

Also Published As

Publication number Publication date
US5590252A (en) 1996-12-31
DE69324399D1 (de) 1999-05-20
EP0568356A3 (en) 1994-07-20
EP0568356A2 (de) 1993-11-03
EP0568356B1 (de) 1999-04-14
JPH06214557A (ja) 1994-08-05

Similar Documents

Publication Publication Date Title
DE69324399T2 (de) Videoprozessorsystem
DE3854324T2 (de) Farbkorrektur für Videographiksysteme.
DE69428447T2 (de) Datenanzeigegerät und verfahren zur anzeige von numerischen mustern eines datensignals auf einem bitorganisierten anzeigesystem
DE69712799T2 (de) Interpolieren von pixelwerten und alphawerten in einer anzeigevorrichtung für computergrafiken
DE69917489T2 (de) Anzeigesystem zur mischung von graphischen daten und videodaten
DE3586730T2 (de) Geraet zur kodierung von bilddaten.
DE69635970T2 (de) Schaltung und Verfahren zur Umwandlung eines Fernsehsignals
DE3650764T2 (de) Bildverarbeitungsgerät
EP0927496B1 (de) Vorrichtung und verfahren zur erzeugung eines kompositbildes
DE69604969T2 (de) Verfahren und Einrichtung zur Synchronisierung von Videodaten und graphischen Daten in einem Multimediaanzeigesystem mit einem gemeinsamen Rasterpufferspeicher
DE69126909T2 (de) Videosignalanzeigevorrichtung
DE69125914T2 (de) Farbbildverarbeitung für Überlappung von Bildteilen
DE69716376T2 (de) Fensterverarbeitung in einem Bildschirmanzeigensystem
DE69113241T2 (de) Busschnittstellenschaltung für ein Multimediensystem.
DE3650486T2 (de) Videobildgestaltungssysteme
DE69127269T2 (de) Gerät zum Steuern einer Anzeigezone und externer Speicher zu seiner Benutzung
DE4012910A1 (de) Verfahren und einrichtung zur uebertragung von rasterdatenbildern an ein graphisches wiedergabesystem
DE4200470A1 (de) Bildbearbeitungsvorrichtung in einem digitalen standbild-videokamerasystem
JPS59198494A (ja) フオント呼出し方式
DE3153277C2 (de) Video-Ausgabe-Prozessor für ein Computergraphiksystem
DE10261373A1 (de) Apparat und Verfahren für die Umwandlung von Bildelementen von dem YUV-Format zu dem RGB-Format unter Verwendung von Farbumwertetabellen
DE69125869T2 (de) Gradationskorrekturvorrichtung
DE60033589T2 (de) Bildverarbeitung
DE3727012A1 (de) Bildverarbeitungsgeraet
DE69116537T2 (de) Arbiterschaltung für ein Multimediensystem

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: CANON INFORMATION SYSTEMS RESEARCH AUSTRALIA PTY.