DE69324399T2 - Videoprozessorsystem - Google Patents
VideoprozessorsystemInfo
- Publication number
- DE69324399T2 DE69324399T2 DE69324399T DE69324399T DE69324399T2 DE 69324399 T2 DE69324399 T2 DE 69324399T2 DE 69324399 T DE69324399 T DE 69324399T DE 69324399 T DE69324399 T DE 69324399T DE 69324399 T2 DE69324399 T2 DE 69324399T2
- Authority
- DE
- Germany
- Prior art keywords
- video
- processor system
- signal
- video processor
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000012545 processing Methods 0.000 claims description 50
- 230000000694 effects Effects 0.000 claims description 38
- 238000002156 mixing Methods 0.000 claims description 32
- 230000002093 peripheral effect Effects 0.000 claims description 28
- 239000012634 fragment Substances 0.000 claims description 4
- 230000000295 complement effect Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 2
- 230000001419 dependent effect Effects 0.000 claims 4
- 238000004891 communication Methods 0.000 description 9
- 230000001360 synchronised effect Effects 0.000 description 9
- RRLHMJHRFMHVNM-BQVXCWBNSA-N [(2s,3r,6r)-6-[5-[5-hydroxy-3-(4-hydroxyphenyl)-4-oxochromen-7-yl]oxypentoxy]-2-methyl-3,6-dihydro-2h-pyran-3-yl] acetate Chemical compound C1=C[C@@H](OC(C)=O)[C@H](C)O[C@H]1OCCCCCOC1=CC(O)=C2C(=O)C(C=3C=CC(O)=CC=3)=COC2=C1 RRLHMJHRFMHVNM-BQVXCWBNSA-N 0.000 description 8
- 239000002131 composite material Substances 0.000 description 8
- 238000000034 method Methods 0.000 description 8
- 101100192137 Homo sapiens PSG4 gene Proteins 0.000 description 5
- 102100022021 Pregnancy-specific beta-1-glycoprotein 4 Human genes 0.000 description 5
- 239000000203 mixture Substances 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 240000007320 Pinus strobus Species 0.000 description 2
- 239000011324 bead Substances 0.000 description 2
- 239000003990 capacitor Substances 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 229910000859 α-Fe Inorganic materials 0.000 description 2
- 102100025466 Carcinoembryonic antigen-related cell adhesion molecule 3 Human genes 0.000 description 1
- 102100025474 Carcinoembryonic antigen-related cell adhesion molecule 7 Human genes 0.000 description 1
- 102100028043 Fibroblast growth factor 3 Human genes 0.000 description 1
- 101000914337 Homo sapiens Carcinoembryonic antigen-related cell adhesion molecule 3 Proteins 0.000 description 1
- 101000914321 Homo sapiens Carcinoembryonic antigen-related cell adhesion molecule 7 Proteins 0.000 description 1
- 101100192139 Homo sapiens PSG6 gene Proteins 0.000 description 1
- 102100024061 Integrator complex subunit 1 Human genes 0.000 description 1
- 101710092857 Integrator complex subunit 1 Proteins 0.000 description 1
- 108050002021 Integrator complex subunit 2 Proteins 0.000 description 1
- 101710092886 Integrator complex subunit 3 Proteins 0.000 description 1
- 102100025254 Neurogenic locus notch homolog protein 4 Human genes 0.000 description 1
- 102100022026 Pregnancy-specific beta-1-glycoprotein 6 Human genes 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
- H04N19/27—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving both synthetic and natural picture components, e.g. synthetic natural hybrid coding [SNHC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Studio Circuits (AREA)
- Processing Or Creating Images (AREA)
- Picture Signal Circuits (AREA)
- Controls And Circuits For Display Device (AREA)
Description
- Die Erfindung betrifft ein Videoprozessorsystem, wie beispielsweise ein Gerät, das bewegte Grafik-Objektbilder mit einem Live-Video in Echtzeit mit einer kombinierten Audioverarbeitungsfähigkeit kombiniert.
- Rechnergestützte Systeme zur Zusammensetzung bzw. Mischung von Videobildern sind aus dem Stand der Technik bekannt. Diese Systeme schließen jedoch üblicherweise die Verwendung eines Hochgeschwindigkeits-Vollbildpuffers mit ein, wobei das Bild zusammengesetzt wird und dann in der Vollbild-Pufferspeicher-Einrichtung bildelementweise gespeichert wird, bevor das Bild mit einem Videosignal vermischt wird, um ein endgültiges Videosignal zu erzeugen.
- Die Notwendigkeit, einen Vollbildpuffer zu verwenden, kann zu einer erheblichen Kostensteigerung des kompletten rechnergestützten Zusammensetzungssystem führen, wodurch im allgemeinen ein derartiges System außerhalb des normalen Verbrauchermarkts liegt.
- Die Veröffentlichung "Creation and animation of computergenerated images combined with a camera and suart graphics card" von Mallem et al., in Microprocessors and Microsystems, Band 15, Nr. 8, Oktober 1991, Seiten 427- 5 433 offenbart ein System zum Überlagern rechner-erzeugter Bilder (grafische Hilfen) auf Videobildern. Das System setzt sich aus VME-Busmodulen zusammen, und weist eine übergeorndete CPU (Zentrale Recheneinheit), eine Datenerfassungskarte, und eine untergeordnete CPU (Slave-CPU) mit einer Grafikkarte auf. Die VME-Standardeinheit weist die nachstehenden Eigenschaften auf: Auflösung mit 512 · 512 Bildelementen, zwei durch eine Grafiksteuereinrichtung angesteuerte Grafikseiten, wobei jede Seite drei Speicherebenen (jeweils eine für Rot, Grün und Blau) aufweist, und einen CCIR-Standardausgang. Die beiden Grafikseiten werden durch die CPU umgeschaltet, das Bild wird auf einer Seite erzeugt, während das vorhergehende Bild auf der anderen Seite angezeigt wird.
- Die Erfindung stellt ein Videoprozessorsystem bereit, mit einer Videoeingabeeinrichtung zum Empfang eines erstem Videosignals, mindestens einer Farb- und Mischeinheit zur Verknüpfung des ersten Videosignals mit bildelementbasierten Bilddaten zur Erzeugung eines zweiten Videosignals, und einer Videoausgabeeinrichtung zur Ausgabe des zweiten Videosignals, gekennzeichnet durch eine Echtzeit-Objektprozessoreinrichtung (RTO) zur Wiedergabe objekt-basierter Grafikbilddaten, die ein objektbasiertes Grafikbild beschreiben, um die bildelementbasierten Bilddaten zu formen, wobei die RTO-Prozessoreinrichtung eine erste Speichereinrichtung aufweist zur vorübergehenden Speicherung der objekt-basierten Grafikbilddaten, wobei die RTO-Prozessoreinrichtung zur Wiedergabe der bildelement-basierten Grafikdaten aus den in der ersten Speichereinrichtung gespeicherten objekt-basierten Grafikbilddaten in Echtzeit ohne Verwendung eines bildelement-basierenden Vollbildspeichers vorgesehen ist und wobei die Farb- und Mischeinheit zur Verknüpfung des ersten Videosignals mit bildelement-basierten Bilddaten vorgesehen ist, während die bildelement-basierten Bilddaten von dem RTO-Prozessor dargestellt werden, um das zweite Videosignal bereitzustellen.
- Ein Ausführungsbeispiel der Erfindung stellt ein effizientes, kostengünstiges und effektives rechnergestütztes Zusammensetztungssystem bereit.
- Ein Ausführungsbeispiel der Erfindung stellt ein Audiound Videoprozessorsystem mit einer Echtzeit-Objekt (RTO)- Prozessoreinrichtung zur Wiedergabe objekt-basierter Grafikbilder, eine Videoeingabeeinrichtung zum Empfang eines ersten Videosignals, mindestens eine Farb- und Mischeinheit zur Verknüpfung des ersten Videosignals mit von der RTO-Prozessoreinrichtung wiedergegebenen Bilddaten, um ein zweites Videosignal und eine Videoausgabeeinrichtung zu seiner Ausgabe bereitzustellen, und eine Steuereinrichtung mit einer zugehörigen zweiten Speichereinrichtung zur Erzeugung von Audio-Ausgangssignalen in Verbindung mit dem zweiten Videosignal bereit.
- Die Audio-Ausgangssignale können im wesentlichen in Synchronisation mit sichtbaren, in dem zweiten Videosignal dargestellten Ereignissen erzeugt werden.
- Ein Ausführungsbeispiel der Erfindung wird nachstehend 1 unter Bezugnahme auf die beigefügte Zeichnung beschrieben.
- Dabei zeigen:
- Fig. 1A und 1B ein schematisches Blockschaltbild des gesamten Aufbaus des Audio- und Videoverarbeitungssystems,
- Fig. 2 ein schematisches Blockschaltbild der Farb- und Mischeinheit gemäß Fig. 1, und
- Fig. 3 eine Veranschaulichung eines beispielhaften Entwurfs des bevorzugten Ausführungsbeispiels.
- Die vorliegenden Ausführungsbeispiele wenden Technologien an, die in den nachstehenden Druckschriften offenbart wurden:
- (i) Au-A-38 244/93 (Anwalts-Bzg: (RTO7)(202 788)), Beanspruchung der Priorität der australischen Patentanmeldung Nr. PL 2147 vom 29 April 1992 mit dem Titel "A Real-Time Object Based Graphics System",
- (ii) Au-A-38 240/93 (Anwalts-Bzg: (RTO7)(202 790)), Beanspruchung der Priorität der australischen Patentanmeldung Nr. PL 2148 vom 29 April 1992 mit dem Titel "Method and Apparatus for Filling an Object Based Rasterised Image",
- (iii) Au-A-38 242/93 (Anwalts-Bzd: (RTO13)(202 800) Beanspruchung der Priorität der australischen Patentanmeldung Nr. PL 2153 vom 29 April 1992 mit dem Titel "Method and Apparatus for Providing Transparency in an Object Based Rasterised Image",
- (iv) Au-A-38 233/93 (Anwalts-Bzg: (RTO16)(202 813)), Beanspruchung der Priorität der australischen Patentanmeldung Nr. PL 2156 vom 29 April 1992 mit, dem Titel " Edge Calculation for Graphics Systems" und der australischen Patentanmeldung Nr. PL 2145 vom 29 April mit dem Titel "Object Sorting for Graphics Systems",
- (v) Au-A-38 250/93 (Anwalts-Bzg: (RTO2)(202 826)), Beanspruchung der Priorität der australischen Patentanmeldung Nr. PL 2142 vom 29 April 1992 mit dem Titel " A Preprocessing Pipeline for RTO Graphics System"
- (vi) Au-A-38 246/93 (Anwalts-Bzg: (RTO10)(203 161)), Beanspruchung der Priorität der australischen Patentanmeldung Nr. PL 2150 vom 29 April 1992 mit dem Titel "Object Based Graphics Using Quadratic Polynomial Fragments", und
- (vii) Au-A-38 239/93 (Anwalts-Bzg: (RTO9)(203 174)), Beanspruchung der Priorität der australischen Patentanmeldung Nr. PL 2149 vom 29 April 1992 mit dem Titel "Bezier Spline to Quadrat Polynomial Fragment Conversion",
- wobei sämtliche Anmeldungen vom vorliegenden Anmelder angemeldet wurden
- In den Fig. 1A und 1B ist ein Videoverarbeitungssystem 1 gezeigt, das eine an einen Prozessorbus 3 angeschlossene Verarbeitungsrecheneinrichtung bzw. ein Verarbeitungsrechner bzw. Hostprozessor 2 aufweist. An dem Prozessorbus 3 sind ebenfalls ein System-ROM 4, ein System-RAM 5, ein erster Speicherkarten-Steckplatz 6, ein zweiter Speicherkarten-Steckplatz 7, eine Peripherie-Mikrosteuereinrichtung 9, eine RTO-Prozessoreinrichtung bzw. ein RTO-Prozessor 10, eine Farb- und Mischeinheit 13 und eine Toneffekteinrichtung 12 (SFX) über eine FIFO-Warteschlange 11 angeschlossen.
- Der Verarbeitungsrechner 2 dient als ein Mehrzweck- Mikroprozessor, der angeordnet ist, die Erzeugung von objekt-basierter bewegter Bilder zu steuern. Bei der vorliegenden Erfindung stellt der Verarbeitungsrechner 2 einen 32-Bit-Mikroprozessor wie beispielsweise den INTEL i360SA dar, der einen Hochgeschwindigkeits-Betrieb bei niedrigen Kosten erlaubt und der einen großen Adressierbereich aufweist. Der Verarbeitungsrechner 2 dient zur Erzeugung und Aufrechterhaltung einer Vielzahl von in einem RAM 5 gespeicherten Objektlisten, die eine Vielzahl von Objekten enthalten, die schließlich zur Bildung eines bewegten Bildes vom RTO-Prozessor 10 vorbereitet werden. Die Berechnungen werden im allgemeinen nur auf der Grafik-Objektebene durchgeführt. Für jedes Video-Halbbild bestimmt der Verarbeitungsrechner 2 die Position, die Größe, das Seitenverhältnis und die Farbe jedes Objekts, das in dem bewegten Bild erscheinen soll. Cer Verarbeitungsrechner 2 und die Peripherie-Mikrosteuereinrichtung 9 arbeiten zusammen zur Bereitstellung einer grafischen Benutzer-Schnittstelle für einen Anwender des Videoverarbeitungssystems.
- Der Verarbeitungsrechner 2 weist einen externen 16-Bit- Datenbus auf, der mit einem 32-Bit-Adressbus einer Multiplex-Verarbeitung unterzogen wird. Zusätzlich werden durch den Verarbeitungsrechner 2 16 Steuersignale bereitgestellt. Die wichtigsten 16 Adressbits (Bits 31-16) werden nicht einer Multiplex-Verarbeitung unterzogen. Die Adressbits 15 bis 4 werden durch Adress-Signalspeicher 15 einer Demultiplex-Verarbeitung unterzogen. Der Verarbeitungsrechner 2 weist eine sekundäre Steuerung des Prozessorbuses auf, während die RTO-Prozessoreinrichtung 10 einen Zugriff auf den Bus 3 über die DMA (Direkter Speicherzugriff) erhalten kann, denn sie einen derartigen Zugriff benötigt, außer wenn sie speziell über eine den Verarbeitungsrechner 2 steuernde Software ausgeschlossen wird. Die Adress-Signalspeicher 15 weisen eine Drei- Zustandsform bzw. Tri-State-Form auf und werden nur verwendet, wenn der Verarbeitungarechner 2 den Bus steuert. Die Adressbits 3, 2 und 1 werden direkt durch den Verarbeitungsrechner 2 einer Demultiplex-Verarbeicung unterzogen, um Signalspeicher-Verzögerungen bzw. Latch- Verzögerungen während Burstzugriffe zu vermeiden. Während des Bursts verbleiben die oberen Adressbits und die singal-gespeicherten Adressbits unverändert, während die Adressbits 3-1 aufwärts zählen. Dadurch sind die Bursts des Verarbeitungsrechners auf 16 Bytes beschränkt. Diese Bursts können in verschiedenen Kombinationen von Byte- und Halbwort-Zugriffen auftreten. Alle Adressdekodierungen basieren auf den oberen 4 Adresszeilen (entsprechend 256 Mbyte-Grenzen), somit kann ein Verarbeitungsrechner-Burst nicht mehrere Einrichtungen bedienen.
- Der einer Multiplex-Verarbeitung unterzogene Datenbus des Verarbeitungsrechners 2 wird zur direkten Steuerung der RTO-Prozessoreinrichtung 10, des System-RANfs 5, des System-ROMs 4, der Peripherie-Microsteuereinrchtung 9 und der Toneffekteinrichtung 12 (SFX) verwendet. Die Farbund Mischeinheit 13, der erste Speicherkarten-Steckplatz 6 und der zweite Speicherkarten-Steckplatz 7 werden durch eine Puffereinrichtung 16 für den Prozessorbus gepuffert.
- Eine Buszuteilung des Prozessorbuses 3 findet zwischen dem Verarbeitungsrechner 2 und der RTO-Prozessoreinrichtung 10 statt. Der Verarbeitungsrechner 2 steuert hauptsächlich den Bus, bis die RTO-Prozessoreinrichtung 10 (durch den Verarbeitungsrechner 2) angewiesen wird, den Betriebsvorgang einzuleiten. Die RTO-Prozessoreinrichtung 10 übernimmt dann die Steuerung des Prozessorbusses 3 und benachrichtigt den Verarbeitungsrechner 2, wenn dies beendet ist. Der Verarbeitungsrechner 2 kann die RTO-Prozessoreinrichtung 10 nicht daran hindern, Zugriff auf den Prozessorbus 3 zu erhalten, außer durch Anhalten des Verarbeitungsbetriebs der RTO-Prozessoreinrichtung 10. Die RTO-Prozessoreinrichtung 10 wird versuchen, eine Objektliste zur Darstellung komplett bereitzustellen bzw. vorzubereiten, wenn dieser Vorgang eingeleitet worden ist, und kann bei erfolgtem Zugriff den Prozessorbus 3 kontinuierlich verwenden (falls die RTO-Prozessoreinrichtung 10 zur gleichen Zeit überträgt, kann es intern zu einem Engpaß kommen und der Prozessorbus 3 wird freigegeben, bis die RTO-Prozessoreinrichtung 10 den Bus wieder verwenden kann). Mehrere Objektlisten können verwendet werden, um ein Vollbild zu erzeugen, ferner kann diese Vorgehensweise verwendet werden, um zu verhindern, daß die RTO-Prozessoreinrichtung 10 den Prozessorbus 3 zu lange unter ihrer Steuerung hält.
- Der Prozessorbus 3 weist 4 externe Unterbrechungen bzw. Interrupts auf. INT0 hat die höchste Priorität und ist mit dem Interrupt-Ausgang der RTO-Prozessoreinrichtung 10 verbunden. Dieser Interrupt wird durch viele interne Ereignisse der RTO-Prozessoreinrichtung 10 gesetzt.
- INT1 hat die zweithöchste Priorität und bildet einen Mehrzweck-Interrupt für allgemeine Zwecke von der Peripherie-Mikrosteuereinrichtung 9 an den Verarbeitungsrechner 2. Dieser Interrupt dient der Aufrechterhaltung eines Kommunikations-Protokolls zwischen der Peripherie- Mikrosteuereinrichtung 9 und dem Verarbeitungsrechner 2 durch Trennen von Interrupts bezüglich der Daten von anderen Interruptgründen. Zeitgeber-Ereignisse, serielle Kommunikation, spezielle Tastatur-Tasten, Speicherkarten- Eingabe und -Entfernen können durch diesen Interrupt an den Verarbeitungsrechner 2 übermittelt werden.
- Der Verarbeitungsrechner 2 kommuniziert mit verschiedenen anderen Einrichtungen des Vidoeve rarbeitundssystems 1 durch einen speicherbelegten Eingang/Ausgang, was ein dem Fachmann bekanntes Kommunikationsverfahren darstellt.
- Ein Bussteuer-Logikmodul 18 stellt alle benötigten Freigabe- und Auswahlsignale, Lese- und Schreib-Abtastimpulse, Puffersteuerungen und das Bereit-Signal für den Verarbeitungsrechner 2 bereit. Diese Logik ist aktiv, wenn der Verarbeitungsrechner 2 oder die RTO-Prozessoceinrichtung 10 den Bus hauptsächlich steuert.
- Die Peripherie-Mikrosteuereinrichtung 9 und der Verarbeitungsrechner 2 kommunizieren durch Ablegen von Informationen in einer Mail-Box bzw. einem elektronischen Briefkasten 17. INT2 hat den dritthöchsten Interrupt- Pegel und wird durch die Peripherie-Mikrosteuereinrichtung 28 bereitgestellt zur Anzeige, daß Daten in der Mail-Box 17 zur Abholung bzw. zur Leerung bereitstehen.
- INT3 hat die geringste Interrupt-Priorität und wird durch die Peripherie-Mikrosteuereinrichtung 9 gesetzt, um anzuzeigen, daß sie die in die Mail-Box 17 durch den Verarbeitungsrechner 2 hineingeschriebenen Daten aus der Mail-Box 17 heraus genommen hat. Dies erlaubt dem Verarbeitungsrechner 2 festzustellen, wann er ein anderes Daten-Byte an die Mail-Box 17 übermitteln kann.
- Das System-ROM 4 umfaßt 512 kBytes ROM-Speicherplatz, der üblicherweise durch eine einzige 256K · 16 Einrichtung bereitgestellt wird. Das System-ROM 4 umfaßt das Steuerprogramm des Videoverarbeitungssystems 1 sowie verschiedene Beispiele von Trickfilmen, Schriftarten, Clip-Titeln und andere in dem Videoverarbeitungssystem 1 verwendete Daten. Der Verarbeitungrechner 2 und die RTO- Prozessoreinrichtung können beide auf den Speicher des System-ROM 4 zugreifen, und einzelne Zugriffe sowie Burstzugriffe werden unterstützt.
- Das System-RAM 5 umfaßt 256K Bytes RAM, das aus zwei 128K x 8 Einrichtungen besteht. Das System-RAM 5 wird durch den Verarbeitungsrechner 2 zum Caching bzw. zum Pufferspeichern von Grafik-Objekten, zum Pufferspeichern kritischer Verarbeitungskodes und als variabler Speicher verwendet. Einzel- und Burstzugriffe sowie Byte-weises Schreiben werden unterstützt. Das System-RAM 5 wird vorzugsweise so verdrahtet, daß größere RAMs verwendet werden können, sobald sie erhältlich sind.
- Der erste Speicherkarten-Steckplatz 6 und der zweiter Speicherkarten-Steckplatz 7 werden zum Einfügen von standardisierten Speicherkarten bereitgestellt. Diese Steckplatz sind typischerweise zum Aufnehmen von Karten angeordnet, die den JEIDS- und PCMCIA-Standards entsprechen. Die JEIDS (Japanese Electronics Industry Development Association) und die PCMCIA. (PC Memory Card International Organization) haben im wesentlichen identische Standards zur Verwendung von auswechselbaren Speicherkarten mit 68 Anschlüssen veröffentlicht. Jede Speicherkarte 19 kann typischerweise als Objekt-Grafikdaten aufweisende ROM-Einrichtung verwendet werden, kann aber ebenfalls entweder ein Flash-EPROM (elektrisch programmierbarer Festwertspeicher) oder ein statisches RAM mit einer batteriebetriebene Ersatzstromquelle darstellen. Jede Speicherkarte 19 wird verwendet, um eine Bibliothek mit Grafik-Objekten, Trickfilm-Bearbeitungslisten, Clip-Trickfilme, Clip-Titel, Schriftarten, bewegte Zeichen, Toneffekte und/oder speziellen Programmen zum Ersetzten oder zum Ergänzen aller oder eines Teils der in dem System-ROM 4 befindlichen Programme zu speichern. Wenn statische RAM-Karten verwendet werden, dann können diese ebenfalls zur Speicherung von Trickfilm-Sequenzen eines Anwenders zur späteren Wiedergabe verwendet werden. Jeder Steckplatz kann vorzugsweise Karten mit vergrößerten Speicherkapazitäten aufnehmen, sobald diese erhältlich sind.
- Der Datenbus 20 zu den Speicherkarten wird vorzugsweise durch einen Puffer 16 vor allen anderen auf den Prozessorbus 3 zugreifenden Einrichtungen, mit der Ausnahme der Farb- und Mischeinheit 13, gepuffert. Dies gewährleistet, daß die Speicherkarten 19 die Logikpegel des Prozessorbuses 3 zu keinem Zeitpunkt beeinflussen. Einige Busproblem lassen sich allerdings nicht vermeiden, da eine Speicherkarte 19 von einem Anwender zur jeder Zeit eingefügt oder entfernt werden kann. Kurzschlußstifte jeder Speicherkarte können verwendet werden, um Interrupts kurz vor Entfernen der Karte zu erzeugen. Somit kann Programmablaufzeit für die Entfernung der Karte bereitgestellt werden. Falls die RTO-Prozessoreinrichtung 10 den Prozessorbus 3 bei der Entfernung der Karte 19 hauptsächlich steuert, wird die Wiederherrstellungs-Zeit der Software des Verarbeitungsrechners 2 durch die maximale Busbenützungsdauer bzw. Buszugriff der RTO-Processoreinrichtung 10 reduziert. Der erste Speicherkarten-Steckplatz 6 und der zweite Speicherkarten-Steckplatz 7 umfassen Kurzschlußerfassungsstifte, die Einfügungs- und Entfernen-Interrupts zum Anzeigen der Anwesenheit oder Abwesenheit einer Speicherkarte 19 erzeugen. Die Interrupts werden an die Peripherie- Mikrosteuereinrichtung 9 (nicht gezeigt) übermittelt, wobei sie für von positiven Flanken getriggerte Interrupts (Entfernen), von negativen Flanken getriggerte Interrupts (Einfügen) oder zur Feststellung einer defekten Speicherkarte 19 programmiert werden können. Erfaßte Interrupts können an den Verarbeitungsrechner 2 durch den Mehrzweck-Interrupt übertragen werden können. Dieser Interrupt muß charakterisiert werden, um eine Kommunikation über die Mail-Box 17 zu erreichen.
- Um die Art der eingefügten Speicherkarte 19 zu bestimmen, kann ein wahlfreier Merkmalspeicher bzw. ein Eigenschaftsspeicher von der Speicherkarte 19 ausgelesen werden. Dieser Merkmalspeicher bzw. Eigenschaftsspeicher ist lediglich 8 Bit breit und wird durch den niedrigen Datenbus ausgelesen.
- Dies erlaubt es, das Videoverarbeitungssystem 1 in Verbindung mit Speicherkarten zu verwenden, die verschiedene Merkmale und Geschwindigkeiten aufweisen. Vorzugsweise wird eine System-Software bereitgestellt, um die Speicherkarten abzufragen und um auf Grundlage ihrer Geschwindigkeit und des wahlfreien Merkmalspeicher zu entscheiden, wie es der RTO-Prozessoreinrichtung 10 und dem Verarbeitungsrechner 2 am besten möglich ist, sicher auf die Speicherkarten zu zugreifen.
- Werden SRAM-Speicherkarten-Einrichtungen mit einer batteriebetriebenen Ersatzstromquelle bereitgestellt, dann werden die Speicherkarten-Steckplätze 6 und 7 mit Batterie-Zustands-Signalen ausgestattet, die mit der Peripherie-Mikrosteuereinrichtung 9 (nicht gezeigt) verbunden sind, und die anzeigen, ob die Batterie voll oder leer ist.
- Die RTO-Prozessoreinrichtung 10 wird eingestellt und wird durch den Verarbeitungsrechner 2 zur Echtzeit-Darstelltng von objekt-basierten Grafikbilder gesteuert, und eine vollständige Beschreibung eines speziellen Beispiels der RTO-Prozessoreinrichtung 10 ist in der Druckschrift AU-A- 38 244/94 (Anwalts-Bzg: (RTO7)(202 788)) enthalten, die die Priorität der australischen Patentanmeldung Nr. PL 2147 vom 29 April 1992 durch den gleichen Anmelder beansprucht.
- Die RTO-Prozessoreinrichtung 10 weist neben einer Schnittstelle zu dem Prozessorbus 3 auch eine Schnittstelle zu ihren eigenen zugeordneten QPF-Speicher 21 auf, die mit zwei SRAM-Einrichtungen 22 und 23 ausgestaltet ist. Die RTO-Prozessoreinrichtung 10 umfaßt 256k Bytes bei 25 ns eines lokal zugeordneten QPF-Speichers 21 (zwei 64K · 16 RAMs). Diese RAMs sind immer freigegeben, und die RTO-Prozessoreinrichtung 10 steuert die Lese- und Schreib-Abtastimpulse direkt an.
- Nachdem die RTO-Prozessoreinrichtung 10 eingestellt ist und gestartet wird, liest sie Listen von Objekten aus dem System-ROM 4, aus dem System-RAM 5 oder aus den Speicherkarten 19 in ihren eigenen lokalen Speicher ein, bereitet die Objekte auf und stellt die Objekte dar, wobei ein 8- Bit Datenwort in Form eines RTO-Prozessor-Ausgangspegeibuses 24 für jedes Bildelement der Ausgabe-Anzeigeeinrichtung ausgegeben wird, das den Pegel und gewünschte Effekte für das am besten sichtbare Objekt, das an dem Bildelements aktiv ist, beschreibt. Die Anzeige-Listen umfassen vorzugsweise Objektumriß-Daten, die die Berechnung von Grafik-Bildern in Echtzeit erlauben. Ein Beispiel derartiger Daten stellen die quadratischen polynomischen Fragmente (nachstehend auch QPF genannt) dar, die üblicherweise in dem System-RAM 5 zwischengespeichert sind, aber sie können auch direkt aus dem System-ROM 4 oder aus einer der Speicherkarten ausgelesen werden.
- Nachdem die Anzeige-Liste gelesen worden ist, skaliert und überträgt die RTO-Prozessoreinrichtung 10 die QPF- Objekte jeweils in die X- und die Y-Richtung. Dies führt zu Quetsch- und Streck-Effekten ebenso wie zu einer Kompensation verschiedener Bildelement-Seitenverhältnissen wie beispielsweise Seitenverhältnisse bei PAL- und NTSC-Fernsehsystemen zu. Nach der Skalierung und Übertragung werden die QPFs für eine Zeilensprung- Anzeigeeinrichtungen berechnet, da die Berechnungen von Umrißkurven für geradzahlige und für ungeradzahlige Halbblider des Videosignals verschieden sein müssen, um eine maximale vertikale Auflösung zu erreichen. Als nächstes werden QPFs, die gänzlich außerhalb des Schirms skaliert und übertragen wurden, durch Ausschneiden von Objekt-Listen entfernt. QPFs, die zu klein sind, um sichtbar zu sein, werden ebenfalls ausgeschnitten. QPFs, die die Grenzen des Schirms überschreiten, werden ebenfalls abgeschnitten. Nach einer anfänglichen Verarbeitung werden die QPFs in dem zugeordneten QPF-Speicher 21 gespeichert. Wenn alle QPFs in dem zugeordneten QPF- Speicher 21 gespeichert sind, werden sie in eine Zeilenreihenfolge und dann in eine Bildelementreihenfolge bezüglich der Position jedes ersten Bildelementes in jedem QPF sortiert. Nachfolgend werden die Schnittpunkte aller QPFs mit den von ihnen gekreuzten Abtastzeilen berechnet. Dies wird in Echtzeit ohne Verwendung eines Vollbildspeichers durchgeführt. QPFs werden nicht vor der Schnittpunktberechnung in gerade Linien abgeflacht, und demgemäß wird eine Krümmung der Kurven auch bei großer Vergrößerung erhalten. Nach der Schnittpunktberechnung wird die sichtbare Reihenfolge bzw. Anordnung von Objekten bestimmt und versteckte Oberflächen werden entfernt. Farbbereiche werden dann durch Erstrecken bzw. Erweiterung der Prioriätspegel des jeweiligen QPFs bis zum nächsten Schnittpunkt gefüllt. Transparenz- und Effekt-Berechnungen werden dann hardwaremäßig und bei Echtzeit-Datenraten durchgeführt.
- Auf diese Weise gibt die RTO-Prozessoreinrichtung 10 Bildelementdaten zur Anzeige durch Raster-Anzeigeeinrichtungen auf eine synchrone Weise aus und weist lediglich Farb-Pegeldaten auf, die über einen 8-Bit- Pegel-RTO-Prozessorausgabe-Pegelbus 24 übertragen werden. Die Ausgabe-Bildelementrate beträgt 13,5 Millionen Bilclelemente pro Sekunde, und ist für PAL- und NTSC-SystemE: konstant.
- Wenn die RTO-Prozessoreinrichtung 10 (Slave) dem Verarbeitungsrechner 2 unterstellt ist, ist der Verarbeitungsrechner 2 in der Lage, zusätzlich zum Auslesen des zugeordneten QPF-Speichers 21, die Steuerregister der RTO-Prozessoreinrichtung 10 zu lesen. Ein Zugriff auf die Steuerregister der RTO-Prozessoreinrichtung 10 wird durch die Verwendung von speicherabbildenden Eingang/Ausgang- Techniken durchgeführt. Die Basisadresse für den Zugriff auf den zugeordneten QPF-Speicher 21 wird beim Start in die Register der RTO-Prozessoreinrichtung 10 programmiert, und ebenso entsprechend der Speicher- Belegungstabelle des Verarbeitungsrechner gesetzt. Die RTO-Prozessoreinrichtung 10 unterstützt einen Burstzugriff oder Byte-Schreiben in ihre Register und den zugeordneten QPF-Speicher 21 nicht.
- Wenn die RTO-Prozessoreinrichtung 10 den. Prozessorbus 3 steuert, steuert die RTO-Prozessoreinrichtung 10 die einer Demultiplex-Verarbeitung unterzogenen Adressen und Datenbusse direkt an. Wie vorstehend angeführt, fordert sie eine Verwendung des Prozessorbuses 3 durch Benach richtigung, und nachfolgend Bestätigung des Verarbeitungsrechners 2 an. Die RTO-Prozessoreinrichtung 10 weist ein Interruptausgangssignal auf, das mit dem Verarbeitungsrechner 2 verbunden ist und den. Interrupt der höchsten Priorität (INT0) bildet. Dieser Interrupt wird zur Anzeige von vielen Ereignissen einschließlich der Beendigung des Betriebs und interner Fehler verwendet.
- Die RTO-Prozessoreinrichtung 10 umfaßt Eingänge für Bildelement-Taktsignale, Zeilen- und Einheitensysnchronisiersignale und gerad-/ungeradzahiige Halbbildsignale. Das an die RTO-Prozessoreinrichtung 10 eingegebene Bildelement-Taktsignal wird durch einen von einem Taktgeber bzw. einer Taktsignalerzeugungseinrichtung 26 angesteuerten Sysnchronisationsbus mit dem empfangenen Videosignal synchronisiert bzw. gen-locked Die Zeilensyschronisation, die Halbbild-Synchronisation und das Zeilenschnittpunkt-Signal werden durch einen Video-Dekodierer 27 bereitgestellt.
- Der Videoverarbeitungsabschnitt des Videoverarbeitungssystems 1 umfaßt Videoeingänge 28. Empfangene analoge gemischte bzw. zusammengesetzte Videosignale werden über einen RCA-Verbindungsstecker eingegeben und dann durch eine RFI-Ferrit-Perle geführt. Dieses Signal wird dann durch einen Widerstand nach Masse (GND) abgeschlossen und wechselspannungsmäßig über einen 1 uF Kondensator an den Eingang des Video-Analog/Digital-Wandlers 29 angekoppelt. Luminanz bzw. Helligkeit (Y)- und Chrominanz bzw. Farb (C)-Komponenten von S-Videosignale werden durch einen Mini-DIN-Verbindungsstecker mit 4 Anschlüssen eingegeben. Diese werden ebenfalls durch RFI-Ferrit-Perlen geleitet, bevor sie durch einen 75 Ohm Widerstand nach Masse abgeschlossen werden. Diese Signale werden ebenfalls wechselspannungsmäßig mit einen 1 uF Kondensator angekoppelt. Die Luminanz-Komponente des eingegeben S- Videosignals wird an den Analog/Digital-Wander 29 weitergeleitet, wogegen die Chrominanz-Komponente an einen zweiten Analog/Digital-Wander 30 weitergeleitet wird.
- Der Analog/Digital-Wandler 29 wird vorzugsweise durch Hochgeschwindigkeits-8-Bit-Analog/Digital-Wandler wie beispielsweise den Philips TDA 8708 realisiert und wird zur Digitalisierung des gemischten bzw. zusammengesetzten Videosignals oder der Y-Komponente des S-Videosignals verwendet. Ein Eingangs-Multiplexer, der einen Teil des Analog/Digital-Wandlers 29 bildet, wird durch ein programmierbares Bit des Video-Dekodierers 27 gesteuert, der über eine Dekodierer-Multiplex-Steuerung 31 entweder das gemischte bzw. zusammengesetzte Videosignal oder das Y-Signal auswählt. Das ausgewählte Signal wird dann an einen Verstärker mit einer Klemm- und Verstärkungs- Steuerung weitergeleitet. Die beiden Signale HSY und HCL sind programmierbare Signale, die ebenso von dem Video- Dekodierer 27 über die Dekodierer-Multiplex-Steuerung 31 eingegeben werden und die jeweils die Synchronisier (sync)- und Schwarz-Abschnitte des eingegebenen analogen Video-Signalverlaufs anzeigen. Falls ihre aktiven Impulse derart programmiert werden, daß sie einander überlappen, wird der Analog/Digital-Wandler 29 in einer Konfigurier- Betriebsart betrieben, wobei die Verstärkung des Video- Verstärkers derart eingestellt wird, daß a-128 bei einem Synchronisations-Pegel ausgegeben und daß 127 bei einem Spitzenwert-Pegel ausgegeben wird. Diese Betriebsart sollte nur bei schwach empfangenen Signalen verwendet werden. Wenn die aktiven Impulse von HSY und HCL derart programmiert werden, daß sie einander nicht überlappen (Konfigurier-Betriebsart 2), wird die Verstärkung so eingestellt, daß a-128 von dem Wandler beim niedrigsten Pegel des Synchronisations-Impulses ausgegeben und daß - 64 für den Schwarz-Pegel ausgegeben wird. Standard Videosignale sollten 85 nicht überschreiten. Das Aus gangssignal des Verstärkers wird über einen externen Tiefpaßfilter (LPF) mit einem -3dB-Punkt bei ungefähr 6,2 MHz in den Analog/Digital-Wandler 29 eingegeben. Das digitale Ausgangssignal befindet sich im Zweier- Komplement-Format.
- Der Analog/Digital-Wandler 30 wird vorzugweise durch eine Philips TDA 8709-Einrichtung realisiert und wird zur Digitalisierung der Chrominanz (C)-Komponente des S- Video-Eingangssignals verwendet. Ein anderer Analog/- Digital-Wandler 30 wird benötigt, da die Klemm- und Analog/Digital-Umwandlungsfunktionen für Luminanz- und Chrominanz-Signale bzw. Helligkeits- und Farbsignale verschieden sind. Ein Eingangs-Multiplexer wählt das 0- Signal aus, das dann durch einen Videoverstärker mit einer Verstärkungs- und Klemm-Steuerung geführt wird. Das HCL-Signal des Video-Dekodierers 27 wird verwendet, um die Klemm-Schaltung zu aktivieren, so daß 128 als geklemmter Wert für ein Chrominanz-Eingangssignal ausgegeben wird. Das Ausgangssignal des Verstärkers wird über einen externen Tiefpaßfilter (LPF) mit einem -3dB PunkL bei ungefähr 6,2 MHz in den Wandler eingegeben. Das Ausgangssignal befindet sich im Zweier-Komplement-Format.
- Beide Analog/Digital-Wandler (nachfolgend auch ADC genannt) 29 und 30 sind rauschempfindliche analoge Schaltungen und beide Einrichtungen benötigen passive Komponenten in bekannter Art und Weise.
- Die ADCs 29 und 30 geben an den Video-Dekodierer 27 aus, der vorzugsweise durch einen Philips SAA7151B, digitaler Multi-Standard-Dekodierer (DMSD) realisiert wird, der in der Lage ist, die digitalisierte PAL/NTaC-Composit-Video- Daten oder S-Video-Daten in Daten im Verhältnis 4 : 2 : 2 der (Y, U, V)-Komponenten in Übereinstimmung dem CCIR Rec- 601-Standard formatierte Daten zu dekodieren. Der Video- Dekodierer 27 benötigt sowohl für PAL-Signale als auch für NTSC-Signale lediglich ein einzelnes 24,576 MHz Taktsignal von dem Taktgeber bzw. der Taktsignalerzeugungseinrichtung 26 und ist in der Lage, den Fernsehstandard des empfangenen Signals automatisch zu erfassen, oder er kann in eine bestimmte Betriebsart "versetzt" werden. Der Video-Dekodierer 27 kann bei Start über seine I²C-Schnittstelle durch die Peripherie-Mikrosteuereinrichtung 9 programmiert werden. Der Video-DEkodierer 27 verwendet viele programmierbare Softwareparameter, die initialisiert werden müssen. Diese Parameter schließen Parameter der drei Hauptbereiche des Video-Dekodierers 27 mit ein: Synchronisationsverarbeitung, Luminanzverarbeitung und Chomonanzverarbeitung. Ferner sind viele Sofwareparameter bezüglich einer Zeitablaufsteuerung und der Eigenschaften der digitalen Filter vorhanden. Die Programmierung eines Video-Dekodierers 27 ist komplex, aber dem Fachmann bekannt. Eine Dekodierung der eingegebenen Daten wird ausschließlich im digitalen Bereich durchgeführt und ist vollständig in dem bei dem Philips Konzern erhältlichen SAA7199 Datenblatt beschrieben.
- Die Synchronisations-Informationen werden aus den Video- Eingangsdaten extrahiert und 6 Signale VS, HS, ODD, HREF, HSY und HCL werden durch den Video-Dekodierer 27 erzeugt.
- VS ist die vertikale Synchronisierungs-Information, HSY und HCL sind programmierbare Signale, die durch die Analog/Digital-Wandler 29 und 30 verwendet werden, um Synchronisations- und Schwarz-Abschnitte des empfangenen analogen Videosignals anzuzeigen. HS ist die horizontale Synchronisation und ihre vordere Flanke ist bezüglich der vorderen Flanke einer empfangenen horizontalen Synchronisation einstellbar. Diese Programmierbarkeit ermöglicht eine horizontale Einstellung der endgültigen Videoausgabe, um durch die Farb- und Mischeinheit 13 erzeugte Verzögerungen zu kompensieren. HREF ist immer bei dem ersten Bildelement einer Zeile aktiv und wird nach dem letzten Bildelement einer Zeile nicht-aktiv bzw. inaktiv. Die fallende Flanke dieses Signals kann durch die RTO-Prozessoreinrichtung 10 und die Farb- und Mischeinheit 13 als Zeilensynchronisations-Signal verwendet werden.
- Die Phaseninformation des empfangenen Videosignals ist in einem sägezahnförmigen Signalverlauf (LFCO) mit 6,75 MEz enthalten, der der Taktsignalerzeugungseinrichtung 26 zur Erzeugung zeilen-synchronisierter 27-MHz und. 13,5-MHz- Taktsignale zugeführt wird.
- Der Video-Dekodierer 27 weist vier digitale 8-Bit Busse auf. Gemäß Fig. 1A stellt ein CVBS/Yin-Bus ein zusammengesetztes digitale Video-Basisband-Signal-Eingangssignal (CVBS) oder ein Luminanz-Eingangssignal dar, wenn das S- Video-Eingangssignal des Videoverarbeitungssystems 1 verwendet wird. Cin ist ein Chrominanz-Eingangssignal für das S-Videosignal. Das Signal weist zwei auf einen Farb- Hilfsträger quadratur-modulierte Chrominanz-Komponenten (U und V) auf. Wenn die Chrominanz-Abtastung zeilensynchronisiert ist, während der Farb-Hilfsträger dies nicht ist, ist die Demodulation dieser beiden Farbkomponenten eingeschlossen.
- Yout ist das Luminanz-Ausgangssignal des Video-Dekodieces 27. Es wird mit 13,5 Millionen Abtastungen pro Sekunde abgetastet und ist direkt mit dem Abschnitt der Farb- und Mischeinheiten 13 verbunden, die die Luminanz des verknüpfte Farbbildsignals verarbeitet.
- Der Video-Dekodierer 27 weist ebenfalls ein das Chrominanz-Ausgangssignal darstellendes UV-Ausgangssignal auf. Es enthält einer Multiplex-Verarbeitung unterzogene Cr- und Cb-Signale bei jeweils 6,75 Millionen Abtastungen pro Sekunde. Der Hauptunterschied zwischen denen und dem Chrominanz-Eingangssignal ist, daß das UV-Ausgangssignal eher zeilen-synchronisiert und einer Zeit-Multiplex- Verarbeitung unterzogene als auf einem nicht synchronisierten Chrominanz-Hilfträger quadraturmoduliert wird. Daher ist dieses Signal digital kompatibel.
- Die Taktsignalerzeugungseinrichtung bzw. der Taktgeber 26 ist vorzugsweise durch eine Phillips SAA7157-Einrichtung realisiert und stellt Hochgeschwindigkeits-Phasenregelkreise (PLL) zur Erzeugung zeilen-synchronisierter Video- Taktsignale bereit. Die Taktsignalerzeugungseinrichtung 26 erzeugt in Verbindung mit dem Video-Dekodierer 27 die gesamten zeilen-synchronisierten Video-Taktsignale der Videoverarbeitungsschaltungen einschließlich der 27 MHz und 13,5 MHz Taktsignale zusätzlich zu dem "Einschalt"- Rücksetz-Impuls des Videoverarbeitungssystems 1.
- Aus dem vorstehend beschriebenen wird deutlich, daß ein in den Video-Eingang 28 eingegebenes Videosignal in seine Farbkomponenten aufgeteilt und in die Farb- und Mischeinheit 13 eingegeben wird.
- In Fig. 2 ist die Farb- und Mischeinheit 13 ausführlicher gezeigt. Die Farb- und Mischeinheit. 13 ist unter Verwendung von vier Farberzeugungs- und Mischeinrichtungen. (nachstehend auch CGM genannt) 32, 33, 34 und 35 zusammengestellt. Eine vollständige Beschreibung eines spezifischen Beispiels einer Farberzeugungs- und Mischeinrichtung entsprechend CGM 32-35 ist in der Druckschrift AU-A-38 245/93 (Anwalts-Bzg: (RTO) (2135 746) 9 enthalten, die die Priorität der australischen Patentanmeldung Nr. PL 2152 vom 29. April 1992 mit dem Titel "A Colour Generation and Mixing Device" desselben Anmelders beansprucht.
- Die CGM 32-35 sind zur Video-Zusammensetzung, zur Farbzuweisung und für Mischfunktionen bereitgestellt, die die Berechnung der aktuellen Farbe eines Bildelementes basierend auf den von dem RTO-Prozessor-Ausgangspegel-Eus 24 ausgegebenen Pegel dieses Bildelements erlauben. In diesem Ausführungsbeispiel dienen die CGP4-Einrichtungen 32-35 der Verknüpfung des RTO-Prozessor-Ausgangspegel-Eus 24 mit den von dem Video-Dekodierer 27 ausgegebenen digitalen Daten.
- Jede der CGM-Einrichtungen 32-35 weist eine Anzahl von Eingangssignalen auf. Zuerst wird jede CGM mit dem Datenbus 20 verbunden, was dem Verarbeitungsrechner 2 erlaubt, verschiedene zur Bildung der Ausgabe jedes entsprechenden CGM verwendete Farbtafeln einzurichten. Ebenso weist jede CGM-Einrichtgung 32-35 einen von der RTO-Prozessoreinrichtung 10 eingegebenen Pegel des RTO- Prozessor-Ausgangspegel-Busses 24 auf, wobei der Pegel 6 Bits Prioritätsinformationen und 2 Bits "Effekte" umfaßt.
- Jede der CGM-Einrichtungen 32-35 umfaßt einen Farb- oder Videoeingang, der für CGM4 35 nicht verwendet wird, aber der für jede der anderen CGM-Einrichtungen mit den Ausgänge 36 und 37 des Video-Dekodierers 27 verbunden ist.
- Jede der CGM-Einrichtungen 32-35 weist ebenfalls eine Mischung von Transparenz-Einganssignalen auf, wobei die Transparenz-Eingänge der CGM1 32, CGM2 33 und CGM3 34 mit der CGM4 35 verbunden sind. Die Video-Ausgangssignale der jeweiligen CGM 32-34 stellen eine durch das Transparenz- Eingangssignal gesteuerte Verknüpfung zwischen den Farben der Video-Eingabe bereit. Folglich kann CGM4 35 als Steuereinrichtung zur Steuerung des Mischungspegels berechneter, von der RTO-Prozessoreinrichtung 10 ausgegebener Pegeldaten und zur Steuerung durch den Video- Dekodierer 27 bereitgestellter spezieller Farbvideo- Hintergrund-Daten verwendet werden.
- Die Arbeitsweise jeder CGM-Einrichtung 52-55 wird über ein Bildelement-Taktsignal, horizontale und vertikale Synchronisations-Signale des Synchronisations-Bus 25 mit der RTO-Prozessoreinrichtung 10 und dem Video-Dekodierer 27 synchronisiert.
- Aufgrund der Arbeitsweise der CGM4 35, die die Mischungs- Transparenz-Verhältnisse für die anderen Grundfarben berechnet, werden die jeweiligen Verarbeitungs-Ausgangssignale der CGM-Einrichtungen 32-34 um einige Bildelemente verzögert, um die Verarbeitungsverzögerung der CGM4 35 zu berücksichtigen.
- Ferner besteht eine mehrfache Bildelement-Verzögerung zwischen dem Ausgang der RTO-Prozessoreinrichtung 10 über die CGM-Einrichtungen 32-35 sowie einem nachfolgend angeschlossenen Video-Kodierer 38 zu den tatsächlichen Video-Ausgängen 39 und 40. Diese Verzögerung wird durch. Verwendung einer Software ausgeglichen, die eine Verschiebung in die Berechnung der horizontalen Position aller QPF-Objekte in der RTO-Prozessoreinrichtung 10 einbezieht.
- Die CGM-Einrichtungen 50-52 geben an den Video-Kodierer 38 aus, der als digitaler Video-Kodierer aufgebaut ist und der in Verhältnis 4 : 2 : 2 digitale Videosignalkomponenten entgegennimmt und sie in analoge zusammengesetzte Videosignale und S-Videosignale umwandelt. Eine derartige Einrichtung stellt der digitale Video-Kodierer Philips SA7199 dar.
- Der Video-Kodierer 38 nimmt Synchronisations-Signale von wiedererzeugten Synchronisations-Informationen auf, die über den Synchronisations-Bus 25 mit dem empfangenen Videosignal synchronisiert sind. Diese Synchronisations- Signale werden durch den Video-Dekodierer 27 und die Taktsignalerzeugungseinrichtung 26 und nicht durch interne Synchronisations-Einrichtungen bzw. Genlocking- Einrichtungen des Video-Kodierers 38 erzeugt.
- Der Video-Kodierer 38 wird ausschließlich von der Peripherie-Mikrosteuereinrichtung 9 über seine I²C- Schnittstelle programmiert. Der interne Speicherraum des Video-Kodierers 38 ist in die Farb-Nachschlagtabelle (nachstehend auch Tabelle CLUT genannt) und die Steuertabelle unterteilt. Die Adresse wird in das geeignete 8- Bit Register der Tabelle CLUT oder der Steuertabelle geschrieben und auf Daten wird über eine Tabelle CLUT oder einen Steuertabellen-Datenanschluß zugegriffen. Die Adressen werden automatisch nach jedem Zugriff auf den Datenanschluß inkrementiert. Die Ausnahme dazu erfolgt bei einem Zugriff auf die Tabelle CLUT.
- Die Tabelle CLUT kann zur Bereichsbeschränkung des digitalen Videosignals der Farb- und Mischeinheit 13 verwendet werden, so daß sie den CCIR-601-Werten entsprechen, falls diese Verarbeitung bereits anderweitig durchgeführt wurde.
- Die eingegebene Video-Datenfolge der Farb- und Mischeinheit 13 weist ein mit 13,5 MHz getaktetes 4-2-2 Y,U,V Datenformat auf. Der Video-Kodierer 38 ist zur Entgegennahme von "Format3: individuelle 4-·2-2 YUV"-Daten gemäß dem SAA7199 Datenblatt des Philips Konzerns eingestellt. Der einzigen Unterschied zwischen diesem Format und dem Standard 4-2-2-Format ist, daß die U- und die V-Daten simultan an verschiedenen Bussen verfügbar bzw. vorhanden sind, wodurch ihnen ermöglicht bzw. erlaubt wird, durch verschiedene CMG-Einrichtungen verarbeitet zu werden, wobei die Werten der eingegebenen Videodaten dem CCIR- 601-Standard entsprechenden.
- Die Position der Videodaten relativ zur horizontalen Synchronisation zu den analogen Videoausgaben 39 und der Ausgabe des zusammengesetzten Videosignals 40 muß die gleiche sein, wie die des in das Videoverarbeitungssystem 1 eingegebenen analogen Videosignals. Dies erfolgt zur Vermeidung einer Horizontalbewegung des Bildes auch wenn dasselbe Videosignal mehrfach durch das Videoverarbeitungssystem 1 verarbeitet wird. Dies kann durch eine geeignete Positionierung der horizontalen Synchronisation des Video-Dekodierers 27 und durch Programmierung der relevanten Parameter in dem Kodierer erreicht werden. Ferner sind viele Sofwareparameter bezüglich einer Eingabe-Verarbeitung, einer Synchronisations-Verarbeitung, einer Taktsignalsteueruncyund einer Ausgabeverarbeitung vorhanden. Die Programmierung des Video- Dekodierers 38 ist komplex, aber dem Fachmann bekannt.
- Die analogen Ausgänge des Video-Kodierers 38 werden über Tiefpaßfilter 41 geführt, bevor das analoge Video-Ausgangssignal 39 eingegeben und das zusammengesetzte Video- Ausgangssignal 40 gebildet wird.
- Die Peripherie-Mikrosteuereinrichtung 9 wird vorzugsweise durch eine Philips 83C552-Mikrosteuereinrichtung mit einem 8 kBytes programmierbaren ROM, einem 256 bytes RAM, 3 16-Bit Zeitgebern/Zählern, einem 10-Bit Analog/Digital- Wandler mit 8 einer Multiplex-Verarbeitung unterzogenen. Eingängen, 40 bits für allgemeine Zwecke eines Eingangs/ Ausgangsbetriebs, einer I²C seriellen Datenbus-Steuereinrichtung und einem seriellen Duplex UART Anschluß. Die Peripherie-Mikrosteuereinrichtung 9 wird zur Steuerung der Toneffekteinrichtung 12, eines Tastenfeldes 42, eines Zeichenfeldes 44, einer seriellen Datenkommunikationsverbindung 43 und zur Überwachung des I²C-Bus 45 verwendet, der wiederum zur Initialisierung und zur Überwachung des Video-Dekodierers 27, des Video-Kodierers 38 und der seriellen Datenkommunikationsverbindung 43 verwendet wird.
- Die Peripherie-Mikrosteuereinrichtung 9 kommuniziert mit dem Verarbeitungsrechner 2 unter Verwendung der Mail-Box 17, die einen 8-Bit bidirektionalen Signalspeicher aufweist. Wenn die Peripherie-Mikrosteuereinrichtung 9 mit dem Verarbeitungsrechner 2 kommunizieren möchte, legt sie die relevanten Daten in der Mail-Box 17 ab und benachrichtigt den Verarbeitungsrechner 2 durch einen Interrupt, daß Daten zur Verfügung stehen. Die Kommunikation des Verarbeitungsrechners 2 mit der Peripherie-Mikrosteuereinrichtung 9 geschieht in der gleichen Weise.
- Die Toneffekteinrichtung 12 erzeugt Toneffekte für bewegte Video-Sequenzen und vermischt Ton mit einem empfangenen Videosignal. Das Videoverarbeitungssystem 1 erzeugt Toneffekte zusammen mit erzeugten Trickfilm- Sequenzen. Die Toneffekte nehmen die Form von digital abgetasteten Daten an, die in einer Speicher karte 19 in einer "Bibliothek" gespeichert sind. Ein Anwender des Videoverarbeitungssystems 1 kann Ton-Clips auswählen, die den Trickfilm-Sequenzen zugeordnet werden sollen. Wenn die Trickfilm-Sequenz wieder abgespielt werden soll, liest der Verarbeitungsrechner 2 die abgetasteten Tondaten aus der Speicherkarte 19 zu einem geeigneten Zeitpunkt aus und übermittelt sie zur Wiedergabe an die Toneffekteinrichtung 12.
- Die Toneffekte werden durch die Toneffekteinrichtung 12 erzeugt, die vorzugsweise durch einen SEIKO 5800A Sprach- Aufzeichnungs-Wiedergabe-Chip realisiert wird. Der SEIKO 5800A ist für eine Verwendung in unabhängigen Aufzeichnungs/Abspiel-Schaltungen gedacht, wie beispielsweise in einem Telefon-Anrufbeantworter. Die Aufzeichnungs-Merkmale der Toneffekteinrichtung 12 werden nicht verwendet, wenn jedoch der SEIKO 5800A in einem Telefon-Anrufbeantworter verwendet wird, wird üblicherweise eine SRAM-Speichereinrichtung an den SEIKO 5800A angeschlossen, und wenn er angewiesen wird aufzuzeichnen, wandelt er ein empfangenes analoges Tonsignal in digitale Adaptive-Differentielle-Impuls-Kode-Modulierte (ADPCM) Daten um und schreibt diese in die SRAN-Speichereinrichtung. Üblicherweise stoppt er die Aufzeichnung, wenn er dazu angewiesen wird oder wenn sein Adresszähler einen vorab eingerichteten Stopp-Zählwert erreicht. Wenn er zum Abspielen angewiesen wird, liest er die (ADPCM)- Daten aus der SRAN-Speichereinrichtung, wandelt sie in analoge Signale um und gibt sie durch einen wahlfreien Tiefpaßfilter aus.
- Das Videoverarbeitungssystem 1 benötigt das Aufzeichnungsmerkmal der SEIKO 5800A nicht. Da Tondaten aus dem Verarbeitungsrechner 2 abgegeben werden sollen, und da Daten zur Wiedergabe aus dem Verarbeitungsrechner 2 an die Toneffekteinrichtung 12 übertragen werden sollen, wird eine FIFO-Warteschlange 11 anstelle der SRAM- Speichereinrichtung der Toneffekteinrichtung 12 verwendet. Der Verarbeitungsrechner 2 schreibt Daten in die FIFO-Warteschlange 11 und die Toneffekteinrichtung 12 liest die Daten aus und wandelt sie in ein analoges Audiosignal um. Die Toneffekteinrichtung 12 wird durch die Peripherie-Mikrosteuereinrichtung 9 gesteuert. Die Toneffekteinrichtung 12 kann angewiesen werden, die Wiedergabe zu starten und zu stoppen. Ein interner Adresszähler in der Toneffekteinrichtung 12 zählt jedesmal hoch, wenn ein Byte Daten zur Wiedergabe gelesen wird. Die Wiedergabe stoppt, wenn dieser Adresszähler mit einem Stopp-Adressregister übereinstimmt. Dieses Stopp- Adressregister muß durch die Periepherie-Mikrosteuereinrichtung 9 beschrieben werden bevor die Wiedergabe beginnt. Die Periepherie-Mikrosteuereinrichtung 9 kann ebenfalls die Startadresse des Adresszählers setzten. Die Adresse wird beim Auslesen von Daten aus der FIFO-Warteschlange ignoriert, wird aber jedesmal hochgezählt, wenn ein Auslesen durchgeführt wird.
- Vorzugsweise weist die Toneffekteinrichtung 12 einige Merkmale zur Aufrechterhaltung einer angemessenen Synchronisation mit dem entsprechenden Trickfilm auf. Die Toneffekteinrichtung 12 stellt das Tonsignal bei einer festen Rate mit geringfügigen Abweichungen (0,5% Genauigkeit über die Temperatur und Zeit) wieder her. Die Toneffekteinrichtung 12 kann zum Abtasten und Abspielen bei 8 KHz oder 4 KHz programmiert werden, was eine kurze Laufdauer mit einer Geschwindigkeit für hohe Qualität und eine lange Laufdauer mit einer Geschwindigkeit für geringe Qualität ergibt. Bei einer Abtastrate von 8 KHz (hohe Qualität) liest die Toneffekteinrichtung 12 4k Bytes pro Sekunde (jedes Byte enthält zwei 4-bit-Daten- Abtastwerte) aus. Dies entspricht 80 Bytes pro Einheit bei einer Vollbildrate von 25 Hz (PAL) und 66,7 Bytes pro Einheit bei einer Vollbildrate von 30 Hz (NTSC). Der Verarbeitungsrechner 2 ist in der Lage, diese Anzahl von Bytes aus der Speicherkarte 19 auszulesen und in die FIFO-Warteschlange 11 auf der Grundlage des Vollbildinterrupts zu schreiben. Das Videoausgangssignal wird mit der eingehenden Videoquelle synchronisiert, die einige Zeitbasis-Fehler aufweisen kann. Somit kann die Anzahl von Bytes pro Vollbild eines Videosignals variieren. Dadurch können die Toneffekte und das Videosignal in Laufe der Zeit die Synchronisation verlieren.
- Verschiedene Synchronisations-Verfahren sind möglich. Die einfachste ist die Toneffekteinrichtung 12 zu stoppen und die FIFO-Warteschlange 11 rückgesetzten. Vorzugsweise werden nur kurze Ton-Clips verwendet, so daß dieser Ablauf aufeinanderfolgend auftreten kann. Falls eine lange erzeugte Tonsequenz in guter Synchronisation mit den Videosignal erhalten werden soll, könnte ein anspruchsvolleres Verfahren die Adresse der Toneffekteinrichtung 12 nach einer vorbestimmten Anzahl von Vollbildern überprüfen und dem Verarbeitungsrechner 2 erlauben, die Anzahl der in der FIFO-Warteschlange 11 geschriebenen Bytes anzupassen, wobei sie vergrößert wird, wenn die Adresse höher als erwartet ist oder sie verkleinert wird, wenn die Adresse niedriger als erwartet ist. Um eine gute Synchronisation mit dem Videosignal zu erhalten, muß jeder einem Vollbild entsprechende Tonverlauf durch den Verarbeitungsrechner 2 zerhackt und aufgefüllt werden. Falls beispielsweise der Verarbeitungsrechner 2 benötigt wird, um 80 Bytes/e-Basis- Fehler zu übermitteln, dann müssen 8 Bytes entfernt oder addiert werden. Um den Ton glatt zu halten, kann eine Interpolation zwischen den Abschneidepunkten bzw. den Scheidepunkten durch den Verarbeitungsrechner 2 ausgeführt werden. Aufgrund der relative langen Zeit zwischen Abtastpunkten (125 us bei 8 KHz) und der kurzen Zeit, die zum Stoppen, Überprüfen von Adressen, Rücksetzten von Adressen und Wiederbeginnen eines Abspielens verwendet wird, sollten keine wahrnehmbare Effekte in der Tonausgabe auftreten. Wenn das Tonsignal beendet ist, teilt der Verarbeitungsrechner 2 dies der Peripherie-Mikrosteuereinrichtung 9 mit bevor die FIFO-Warteschlange 11 leer ist, so daß die Peripherie-Mikrosteuereinrichtung 9 die Toneffekteinrichtung 12 stoppen und die FIFO-Warteschlange 11 durch Rücksetzten entleeren kann.
- Der Verarbeitungsrechner 2 schreibt in die FIFO-Warteschlange hinein. Die niedrigen 8 Bits des Prozessorbusses 3 werden verwendet, die FIFO-Warteschlange 11 umfaßt 1k Byte und nur 80 Bytes pro Vollbild werden benötigt. Die FIFO-Warteschlange 11 wird durch die Periepherie-Mikrosteuereinrichtung 9 vor dem ersten Beschreiben der FIFO- Warteschlange 11 rückgesetzt.
- Die Peripherie-Mikrosteuereinrichtung 9 steuert die Toneffekteinrichtung 12 und ist in der Lage, Anweisungen zu schreiben und einen Zustand und die Daten der Toneffekteinrichtung 12 auszulesen. Die Ausgabe der FIFO- Warteschlange 11 kann ebenfalls durch die Toneffekt einrichtung 12 ausgelesen werden, wenn die Peripherie- Mikrosteuereinrichtung 9 die FIFO-Warteschlange 11 testet. Die herkömmliche SRAM-Speicher-Schnittstelle der Toneffekteinrichtung 12 ist geeignet mit der FIFO-Warteschlange 11 zu kommunizieren bzw. in Verbindung zu treten, und die Software des Verarbeitungsrechner 2 ist ausgelegt, um sicher zu stellen, daß die Toneffekteinrichtung 12 nicht versucht auf die FIFO-Warteschlange 11 zuzugreifen, wenn sie leer ist.
- Das analoge Ausgangssignal der Toneffekteinrichtung 12 wird mit einem Audio-Eingangssignal 46 vermischt und zur Erzeugung eines Audio-Ausgangssignal 47 verstärkt.
- Das Audio-Eingangssignal 46 wird ebenfalls in einen Analog/Digital-Wandler in der Peripherie-Steuereinrichtung 9 zur Verarbeitung eingegeben, um einen ungefähren Lautstärke-Pegel zu extrahieren. Dieser Pegel kann an den Verarbeitungsrechner 2 übermittelt werden, um bei Echtzeit-Trickfilmen verwendet zu werden. Beispielsweise kann der Pegel bei der Erzeugung einer Mundbewegung bei einem Personen-Trickfilm automatisch verwendet werden. Eine Mundbewegungsdarstellung benötigt keine Genauigkeit, um einen angemessenen Eindruck von sprechenden Gestalten bzw. Personen zu hinterlassen. Beispielsweise weisen nachsynchronisierte Filme nur eine geringe Korrelation zwischen den Lippen und dem Ton auf, werden aber trotzdem weithin verwendet. Digitale Sprachverarbeitung in Synchronisation mit einer Videoerzeugung kann zu erheblich verbesserten Ergebnissen führen.
- Die Periepherie-Mikrosteuereinrichtung 9 stellt eine serielle Kommunikation über die serielle Datenkommunikationsverbindung 43 bereit, die die Verbindung des Videoverarbeitungssystems 1 mit gleichen Systemen und mit einem Personal Computer erlaubt.
- Gemäß Fig. 3 ist eine Veranschaulichung des Videoverarbeitungssystems gezeigt, das ein Zeichen-Feld 44 mit einem entsprechenden Digitalisier-Stift 64 und einem Tasten-Feld 42 aufweist, das eine alphanumerische Tastatur und eine Rücksetz-Taste, Trickfilm-Bearbeitungs- Tasten 65, Virtuell-Kamera-Steuertasten 66 und Trickfilm- Steuertasten 67 aufweist. Zusätzlich ist der erste Speicherkarten-Steckplatz 6 und der zweite Speicherkarten-Steckplatz 7 zum Einfügen von Speicherkarten gezeigt.
- Vorstehend ist lediglich ein Ausführungsbeispiel der vorliegenden Erfindung beschrieben, wobei jedoch andere Ausführungen und Abwandlungen möglich sind.
Claims (24)
1. Videoprozessorsystem (1) mit
einer Videoeingabeeinrichtung (28) zum Empfang eines
ersten Videosignals,
mindestens einer Farbmisch- und
Erzeugungseinrichtung (13) zur Verknüpfung des ersten Videosignals mit
bildelement-basierten Bilddaten zur Erzeugung eines
zweiten Videosignals, und
einer Videoausgabeeinrichtung (39, 40) zur Ausgabe
des zweiten Videosignals (39),
gekennzeichnet durch
eine Echtzeit-Objektprozessoreinrichtung (RTO) (10)
zur Wiedergabe objekt-basierter Grafikbilddaten, die ein
objektbasiertes Grafikbild beschreiben, um die
bildelement-basierten Bilddaten zu formen, wobei die RTO-
Prozessoreinrichtung eine erste Speichereinrichtung (2 : 2,
23) aufweist zur vorübergehenden Speicherung der
objektbasierten Grafikbilddaten, wobei die
RTO-Prozessoreinrichtung zur Wiedergabe der bildelement-basierten
Grafikdaten aus den in der ersten Speichereinrichtung
gespeicherten objekt-basierten Grafikbilddaten in
Echtzeit ohne Verwendung eines bildelement-basierenden
Vollbildspeichers vorgesehen ist und wobei die Farbmisch-
und Erzeugungseinrichtung vorgesehen ist zur Verknüpfung
des ersten Videosignals mit bildelement-basierten
Bilddaten, während die bildelement-basierten Bilddaten
von dem RTO-Prozessor dargestellt werden, um das zweite
Videosignal bereitzustellen.
2. Videoprozessorsystem nach Anspruch 1,
dadurch gekennzeichnet, daß
das System (1) weiterhin eine
Verarbeitungsrechneneinrichtung (2) zur Zusammensetzung und zur Bearbeitung der
objekt-basierten Grafikbilder umfaßt.
3. Videoprozessorsystem nach Anspruch 2,
dadurch gekennzeichnet, daß
das System (1) weiterhin eine vom Benutzter steuerbare
Eingabeeinrichtung (42, 44) umfaßt zur Auswahl und
Bearbeitung der Objektbilddaten, um bearbeitete Bilddaten
zu erzeugen.
4. Videoprozessorsystem nach Anspruch 1, 2 oder 3,
dadurch gekennzeichnet, daß
die objekt-basierten Bilddaten unter Verwendung
quadratischer polynomischer Fragmente (QPF) Grafikobjekte
beschreiben.
5. Videoprozessorsystem nach einem der vorhergehenden
Ansprüche,
dadurch gekennzeichnet, daß
die RTO-Prozessoreinrichtung (10) weiterhin folgendes
umfaßt:
eine Randbestimmungseinrichtung zur Bestimmung der
gegenwärtigen Zeilenobjektrandpositionsdaten, und
eine Bildelementfarbbestimmungseinrichtung zum
Empfang der gegenwärtigen
Zeilenobjektrandpositionsdaten von der Randbestimmungseinrichtung und zur
Erzeugung eines gegenwärtigen Bildelementfarbwerts für
jedes darstellbare Bildelement des objekt-basierten
Grafikbildes.
6. Videoprozessorsystem nach Anspruch 5,
dadurch gekennzeichnet, daß
die gegenwärtigen Zeilenrandpositionsdaten Farbobjekt-
und Objektdurchläßigkeitsinformationen beinhalten.
7. Videoprozessorsystem nach Anspruch 5 oder 6,
dadurch gekennzeichnet, daß
die Bildelementfarbbestimmungseinrichtung vorgesehen ist
zur Ausgabe an die Farbmisch- und Erzeugungseinrichtung,
und die Farbmisch- und Erzeugungseinrichtung; eine
Farbmisch- und Erzeugungseinheit (32-35) für jede
Farbkomponenten (Y, Cr, Cb) des zweiten Videosignals
umfaßt.
8. Videoprozessorsystem nach Anspruch 7,
dadurch gekennzeichnet, daß
die Farbmisch- und Erzeugungseinrichtung (13) mit dem
Verarbeitungsrechner (2) verbunden ist, und sich die
Einstell- und Steuerungsinformationen der Fa rbmisch- und
Erzeugungseinrichtung (13) durch den Verarbeitungsrechner
(2) verändern lassen.
9. Videoprozessorsystem nach einem der vorherigen
Ansprüche,
dadurch gekennzeichnet, daß
das System weiterhin eine Steuereinrichtung (12) mit
einer zugehörigen zweiten Speichereinrichtung zur
Erzeugung von Audioausgangssignalen in Verbindung mit dem
zweiten Videosignal umfaßt.
10. Videoprozessorsystem nach Anspruch 9,
dadurch gekennzeichnet, daß
die Audioausgangssignale im wesentlichen in
Synchronisation mit sichtbaren, in dem zweiten
Videosignal dargestellten Ereignissen erzeugt werden.
11. Videoprozessorsystem nach Anspruch 9 oder 10,
dadurch gekennzeichnet, daß
das System (1) weiterhin eine
Peripherieprozessoreinrichtung (9) zur Betrieb der Steuereinrichtung (12)
umfaßt.
12. Videoprozessorsystem nach Anspruch 9, 10 oder 11,
dadurch gekennzeichnet, daß
die zweite Speichereinrichtung (11) eine
First-in-Firstout-(FIFO)-Warteschlange darstellt.
13. Videoprocessorsystem nach einem der Ansprüche 3 bis
12, wenn sie auf Anspruch 3 rückbezogen sind,
gekennzeichnet durch
eine weitere Eingabeeinrichtung, die eine Vielzahl von
Speichergehäuseeinrichtungen (6, 7) aufweist zur Aufnahme
abnehmbarer Speichereinheiten, die Grafikobjektbilddaten
beinhalten.
14. Videoprozessorsystem nach Anspruch 13,
dadurch gekennzeichnet, daß
die abnehmbaren Speichereinheiten (19) nicht-flüchtige
Speicherkarten umfassen.
15. Videoprozessorsystem nach 13 oder 19,
dadurch gekennzeichnet, daß
die Speichereinheiten (19) einen Systemkode zur Ver
wendung in dem Betrieb des Grafiksystem umfaßt.
16. Videoprozessorsystem nach Anspruch 13, 14 oder 15,
dadurch gekennzeichnet, daß
die weitere Eingabeeinrichtung (6, 7) eine
Erfassungseinrichtung zur Bestimmung der An- oder Abwesenheit der
abnehmbaren Speichereinheiten (19) umfaßt.
17. Videoprozessorsystem nach einem der Ansprüche 2 bis
16, wenn sie auf Anspruch 2 rückbezogen sind,
dadurch gekennzeichnet, daß
der Verarbeitungsrechner (2) aufgebaut ist zur
Zusammenstellung einer Liste graphischer Objekte, die zusammen
ein bewegtes Bild bilden, und die
Echtzeitobjektprozessoreinrichtung vorgesehen ist zur Wiedergabe der
bewegten Bilder in einem Rasterformat zur Verknüpfung mit
einem im ersten Videosignal enthaltenen Videobild.
18. Videoprozessor nach Anspruch 17,
dadurch gekennzeichnet, daß
das System ferner eine dritte Speichereinrichtung (4,
19) umfaßt, in der die Grafikobjekte gespeichert sind,
wobei der Verarbeitungsrechner (2) zur Erzeugung der
Liste auf die dritte Speichereinrichtung (4, 5, 19)
zugreifen kann.
19. Videoprozessorsystem nach Anspruch 18,
dadurch gekennzeichnet, daß
die dritte Speichereinrichtung (4, 5, 19) durch den
Benutzer veränderbare Speichereinheiten (19) aufweist,
die an das System durch die komplementären Anschlüsse (6,
7) angeschlossen werden können.
20. Videoprozessorsystem nach Anspruch 17, 18 oder 19,
dadurch gekennzeichnet, daß
die Liste eine Liste individueller Kurvenabschnitte für
jedes Objekt umfaßt, und die RTO-Prozessoreinrichtung
(10) vorgesehen ist zur Manipulation jedes Abschnittes,
um das bewegte Bild zu erzeugen.
21. Videoprozessorsystem nach Anspruch 20,
dadurch gekennzeichnet, daß
die Abschnitte die Kurven durch quadratische polynomische
Daten (QPF) beschreiben, die durch die RTO-
Prozessoreinrichtung (10) berechnet werden können, um das
bewegte Bild in Echtzeitdatenraten zu erzeugen, die
geeignet sind für eine echtzeitgerasterte Anzeige.
22. System nach einem der Ansprüche 17 bis 21,
gekennzeichnet durch
eine Videodekodiereinrichtung (27) zur Dekodierung des
Videoeingangssignal in eine Vielzahl von Farbkomponenten
(Y, U, V) zur Eingabe an die Farbmisch- und
Erzeugungseinrichting (13), wobei die Farbmisch- und
Erzeugungseinrichtung vorgesehen ist zur getrennten Verknüpfung jeder
Komponente mit Pegeldaten, die bildelement-basierte
Grafikbilder aufweisen, um einen Bildelementwert für eine
entsprechende Farbkomponente (Y, Cr, Cb) bereitzustellen,
und wobei die Videoausgabeeinrichtung (39, 40) vorgesehen
ist zur Kodierung der entsprechenden kombinierten
Farbkomponenten, um das Videoausgangssignal bereit zu
stellen.
23. System nach Anspruch 22, wenn auf von Anspruch 7
rückbezogen,
dadurch gekennzeichnet, daß
die Farbmisch- und Erzeugungseinrichtung (13) eine
weitere CGM-Einheit (35) umfaßt, die lediglich Pegeldaten
empfängt und vorgesehen ist zur Ausgabe eines
Mischsignalpegels zur Steuerung der Mischung der Videobilder
und bewegten Bilder, an die anderen CGM-Einheiten (32-
34).
24. System nach einem der Ansprüche 17 bis 23, wenn sie
auf Anspruch 10 rückbezogen sind,
gekennzeichnet durch
eine Toneinrichtung (9, 12) zur Erzeugung des
Audioausgangssignals, wobei die Toneinrichtung, die eine
Audioeingangseinrichtung aufweist zum Empfang eines
Audioeingangssignals, das in einem zur Ausgabe des
Audioausgangssignals dienenden Toneffektgenerator verarbeitet werden
kann.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AUPL214192 | 1992-04-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69324399D1 DE69324399D1 (de) | 1999-05-20 |
DE69324399T2 true DE69324399T2 (de) | 1999-09-30 |
Family
ID=3776118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69324399T Expired - Lifetime DE69324399T2 (de) | 1992-04-29 | 1993-04-28 | Videoprozessorsystem |
Country Status (4)
Country | Link |
---|---|
US (1) | US5590252A (de) |
EP (1) | EP0568356B1 (de) |
JP (1) | JPH06214557A (de) |
DE (1) | DE69324399T2 (de) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0664527A1 (de) * | 1993-12-30 | 1995-07-26 | Eastman Kodak Company | Verfahren und Gerät zur Standardisierung von Gesichtbildern für personifizierte Videounterhaltung |
EP0664526A3 (de) * | 1994-01-19 | 1995-12-27 | Eastman Kodak Co | Verfahren und Gerät für dreidimensionales personifiziertes dreidimensionales Spiel mit 3-D-Modellen und Tiefemessungsgerät. |
DE19518705C1 (de) * | 1995-05-22 | 1996-11-21 | Siemens Ag | Verfahren zur Kodierung von Bildersequenzen in einer Sendeeinheit |
GB9510507D0 (en) * | 1995-05-24 | 1995-07-19 | Thomson Consumer Electronics | User interface animation using mpeg video compression techniques |
US5969770A (en) * | 1995-05-24 | 1999-10-19 | Thomson Consumer Electronics, Inc., | Animated "on-screen" display provisions for an MPEG video signal processing system |
US6058459A (en) * | 1996-08-26 | 2000-05-02 | Stmicroelectronics, Inc. | Video/audio decompression/compression device including an arbiter and method for accessing a shared memory |
US5903868A (en) * | 1995-11-22 | 1999-05-11 | Yuen; Henry C. | Audio recorder with retroactive storage |
JP4397054B2 (ja) * | 1996-06-13 | 2010-01-13 | 株式会社ニコン | 情報入力装置 |
DE19782200B4 (de) | 1996-12-19 | 2011-06-16 | Magnachip Semiconductor, Ltd. | Maschine zur Videovollbildaufbereitung |
ATE331390T1 (de) * | 1997-02-14 | 2006-07-15 | Univ Columbia | Objektbasiertes audiovisuelles endgerät und entsprechende bitstromstruktur |
US6201580B1 (en) * | 1997-03-31 | 2001-03-13 | Compaq Computer Corporation | Apparatus for supporting multiple video resources |
US6430589B1 (en) | 1997-06-20 | 2002-08-06 | Hynix Semiconductor, Inc. | Single precision array processor |
US6172712B1 (en) | 1997-12-31 | 2001-01-09 | Intermec Ip Corp. | Television with hard disk drive |
GB2340363B (en) | 1998-07-31 | 2002-09-11 | Sony Uk Ltd | Image processing and rendering |
US20030001981A1 (en) * | 2001-05-21 | 2003-01-02 | Sony Corporation | Modular digital television architecture |
US20020180890A1 (en) * | 2001-05-21 | 2002-12-05 | Milne James R. | Modular digital television architecture |
KR100597406B1 (ko) | 2004-06-29 | 2006-07-06 | 삼성전자주식회사 | Osd 화면 상에서 애니메이션이 진행되는 동안 실시간키입력이 가능한 셋탑박스 및 osd 데이터 출력 방법 |
US7725609B2 (en) * | 2005-08-05 | 2010-05-25 | Qimonda Ag | System memory device having a dual port |
WO2007097036A1 (ja) * | 2006-02-27 | 2007-08-30 | Fujitsu Limited | 中央処理装置、中央処理装置の制御方法、情報処理システム |
US8990673B2 (en) * | 2008-05-30 | 2015-03-24 | Nbcuniversal Media, Llc | System and method for providing digital content |
CN110719416A (zh) * | 2019-09-30 | 2020-01-21 | 咪咕视讯科技有限公司 | 一种直播方法、通信设备及计算机可读存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5077608A (en) * | 1990-09-19 | 1991-12-31 | Dubner Computer Systems, Inc. | Video effects system able to intersect a 3-D image with a 2-D image |
JP2522873B2 (ja) * | 1990-12-11 | 1996-08-07 | インターナショナル・ビジネス・マシーンズ・コーポレイション | マルチメディア・システム用の情報処理装置 |
JP3315464B2 (ja) * | 1992-04-29 | 2002-08-19 | キヤノン株式会社 | 画像描写方法及び装置 |
US5428741A (en) * | 1993-07-26 | 1995-06-27 | Ncr Corporation | High speed image preprocessing system including a multi-purpose buffer for storing digital image data and data cropping means for selectively cropping the digital image data |
-
1993
- 1993-04-28 EP EP93303338A patent/EP0568356B1/de not_active Expired - Lifetime
- 1993-04-28 JP JP5103227A patent/JPH06214557A/ja active Pending
- 1993-04-28 DE DE69324399T patent/DE69324399T2/de not_active Expired - Lifetime
- 1993-04-28 US US08/053,569 patent/US5590252A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
US5590252A (en) | 1996-12-31 |
DE69324399D1 (de) | 1999-05-20 |
EP0568356A3 (en) | 1994-07-20 |
EP0568356A2 (de) | 1993-11-03 |
EP0568356B1 (de) | 1999-04-14 |
JPH06214557A (ja) | 1994-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69324399T2 (de) | Videoprozessorsystem | |
DE3854324T2 (de) | Farbkorrektur für Videographiksysteme. | |
DE69428447T2 (de) | Datenanzeigegerät und verfahren zur anzeige von numerischen mustern eines datensignals auf einem bitorganisierten anzeigesystem | |
DE69712799T2 (de) | Interpolieren von pixelwerten und alphawerten in einer anzeigevorrichtung für computergrafiken | |
DE69917489T2 (de) | Anzeigesystem zur mischung von graphischen daten und videodaten | |
DE3586730T2 (de) | Geraet zur kodierung von bilddaten. | |
DE69635970T2 (de) | Schaltung und Verfahren zur Umwandlung eines Fernsehsignals | |
DE3650764T2 (de) | Bildverarbeitungsgerät | |
EP0927496B1 (de) | Vorrichtung und verfahren zur erzeugung eines kompositbildes | |
DE69604969T2 (de) | Verfahren und Einrichtung zur Synchronisierung von Videodaten und graphischen Daten in einem Multimediaanzeigesystem mit einem gemeinsamen Rasterpufferspeicher | |
DE69126909T2 (de) | Videosignalanzeigevorrichtung | |
DE69125914T2 (de) | Farbbildverarbeitung für Überlappung von Bildteilen | |
DE69716376T2 (de) | Fensterverarbeitung in einem Bildschirmanzeigensystem | |
DE69113241T2 (de) | Busschnittstellenschaltung für ein Multimediensystem. | |
DE3650486T2 (de) | Videobildgestaltungssysteme | |
DE69127269T2 (de) | Gerät zum Steuern einer Anzeigezone und externer Speicher zu seiner Benutzung | |
DE4012910A1 (de) | Verfahren und einrichtung zur uebertragung von rasterdatenbildern an ein graphisches wiedergabesystem | |
DE4200470A1 (de) | Bildbearbeitungsvorrichtung in einem digitalen standbild-videokamerasystem | |
JPS59198494A (ja) | フオント呼出し方式 | |
DE3153277C2 (de) | Video-Ausgabe-Prozessor für ein Computergraphiksystem | |
DE10261373A1 (de) | Apparat und Verfahren für die Umwandlung von Bildelementen von dem YUV-Format zu dem RGB-Format unter Verwendung von Farbumwertetabellen | |
DE69125869T2 (de) | Gradationskorrekturvorrichtung | |
DE60033589T2 (de) | Bildverarbeitung | |
DE3727012A1 (de) | Bildverarbeitungsgeraet | |
DE69116537T2 (de) | Arbiterschaltung für ein Multimediensystem |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: CANON INFORMATION SYSTEMS RESEARCH AUSTRALIA PTY. |