DE3853664T2 - Farbzellentextur. - Google Patents
Farbzellentextur.Info
- Publication number
- DE3853664T2 DE3853664T2 DE3853664T DE3853664T DE3853664T2 DE 3853664 T2 DE3853664 T2 DE 3853664T2 DE 3853664 T DE3853664 T DE 3853664T DE 3853664 T DE3853664 T DE 3853664T DE 3853664 T2 DE3853664 T2 DE 3853664T2
- Authority
- DE
- Germany
- Prior art keywords
- color
- data
- bit resolution
- resulting
- components
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000012545 processing Methods 0.000 claims description 57
- 238000000034 method Methods 0.000 claims description 20
- 238000009499 grossing Methods 0.000 description 21
- 238000002156 mixing Methods 0.000 description 9
- 230000004044 response Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000004020 luminiscence type Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000003750 conditioning effect Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Of Color Television Signals (AREA)
- Image Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- Color Image Communication Systems (AREA)
Description
- Diese Erfindung betrifft eine Farbzellentextur für die Computerbilderzeugung (CIG) und insbesondere eine Farbzellentextur für Echtzeit-CIG-Systeme.
- Bei herkömmlichen CIG-Systemen erfolgt ein vorläufiges Verarbeiten zum Erhalten geeigneter Farbinformationen für eine Anzeige typischerweise im Rot-, Grün-, Blau-(RGB)Farbraum oder im Rot-, Grün-, Blau-, Transluszenz-(RGBT)Farbraum. Beispielsweise erfordert in unserer Anmeldung EP-A-0 272 863 min dem Titel "Color Cell Texture" (Erfinder: Chandler et al.) ein Vollfarbenzellen-Texturerzeuger, der mit CIG-Systemen einsetzbar ist, sechzehn parallele Texturberechnungspfade für jede der RGBT-Komponenten in einem Hochauflösungs-Anzeigekanal des CIG-Systems. Selbst wenn die Zellenroutine-Verzeichnisdaten vor dem Durchführen der parallelen Berechnungsvorgänge komprimiert werden, verbleiben noch vierundsechzig parallele logische Pfade pro Hochauflösungskanal. Begleitende Hardware- Erfordernisse sowie die zugehörige Größe und die Kosten können dazu führen, daß die Verwendung des Farbzellen-Texturschemas in einem CIG-System undurchführbar ist, so daß lediglich eine monochrome Textur zur Verfügung stehen würde.
- Das menschliche Auge ist üblicherweise weniger empfindlich auf eine Farbänderung als auf eine Helligkeitsänderung. Es wäre wünschenswert, aus der relativen Empfindlichkeit des Auges hinsichtlich der Helligkeit und der relativen Intensität der Farbänderung Nutzen zu ziehen, um die Berechnungslast für und die Hardware-Anforderung an ein CIG-System zu reduzieren, das die Farbzellentextur für Bilder darstellt, während eine adäquate Farbwiedergabe (color rendition) eines Bilds beibehalten wird, so daß geeignete Farbinformationen und Ausbildungsbildsuchläufe durch einen Beobachter erhalten werden können.
- Typischerweise kann ein CIG-System zum Ausbilden einer Bedienperson/eines Beobachters verwendet werden, um eine Aufgabe durchzuführen, wie beispielsweise das Steuern eines Flugzeugs. Obwohl die dargestellten Bilder nicht notwendigerweise die Realität mit einein Ausmaß wiedergeben müssen, das von Kamera erzeugten Bildern einer Szene erwartet werden kann, müssen sie hinreichend realistisch sein, damit der Auszubildende durch Reaktion auf die simulierte Szene bedingte Reflexe ausbilden kann, so daß zu erwarten wäre, daß identische Reaktionen ansprechend auf eine reale äußere Umgebung erfolgen würden, die ähnlich zu der simulierten ist.
- Gemäß der vorliegenden Erfindung ist eine erfolgversprechende Möglichkeit einer praktischen Lösung für die vor stehend genannten Probleme die Verwendung eines YIQ-Schemas für die Farbzellen-Texturverarbeitung. In einem YIQ-System gibt Y die Luminanz oder Helligkeit wieder, und I und Q, bei denen es sich uni eine Gleichphasen- bzw. eine Quadraturkomponente handelt, geben den Farbton wieder.
- Obwohl Farbfernsehsysteme MIQ-Video eingesetzt haben, wobei M die Luminanz wiedergibt, und I und Q den Farbton eines anzuzeigenden Bilds wiedergeben, wird die Verarbeitung üblicherweise unter Verwendung analoger oder kontinuierlicher Signale durchgeführt, wobei spezielle Erwägungen zum Skalieren sowie negative Signalwerte nicht berücksichtigt werden müssen. Für Computerbild-Erzeugungssysteme wird die Verarbeitung hingegen typischerweise in einem digitalen oder diskreten Gebiet durchgeführt, wobei die Genauigkeit auf eine vorbestimmten Anzahl von Bits begrenzt ist, und wobei außerdem eine Modifikation von Daten zum effizienten Verarbeiten von Negativwert-Funktionen verwendet werden kann.
- In COMPUTER VISION, GRAPHICS AND IMAGING PROCESSING - 21,305 - 325 (1983) "Uniform colour scale applications to computer graphics", Tajima, ist eine Datenwandlung offenbart, die das Anpassen der Computerbildverarbeitung an die menschliche Erfassung einer Ansicht der nicht-linearen Beziehung zwischen Farbdifferenzen und Intensitätspegel, die durch einen Computer gemessen wurden, und denjenigen ermöglicht, die durch das menschliche Auge erfaßt wurden.
- Trotzdem sind weiter Verbesserungen wünschenswert, um die Hardware zu vereinfachen und um die Datenmenge zu reduzieren, die eine Speicherung bei derartigen Datenwandlertechniken erfordern.
- Gemäß einem Aspekt schafft die vorliegende Erfindung ein Computerbild-Erzeugungsverfahren zum Erzeugen von Farbcharakteristiken für ein Objekt von einer darzustellenden Szene, enthaltend: Darstellen von Farbe in der Szene durch Luminanz(Y)-, Gleichphasen(I)-Farb- und Quadratur(Q)-Farbtonkomponenten, Verarbeiten der Y-Komponente bei einem vorbestimmten ersten Detailpegel zum Ermitteln einer resultierenden Y-Komponente und Verarbeiten jeweils der I- und Q-Komponenten bei einem vorbestimmten zweiten Detailpegel zum Ermitteln einer resultierenden I- bzw. Q-Komponente, wobei der zweite Detailpegel gröber als der erste Detailpegel ist und wobei ferner die resultierenden Y-, I- und Q-Komponenten die Farbe des Objektes der darzustellenden Szene angeben.
- Gemäß einem zweiten Aspekt schafft die vorliegende Erfindung ein Computerbild-Erzeugungsverfahren zum Erzeugen von Farbcharakteristiken für ein Objekt von einer darzustellenden Szene, enthaltend: Umwandeln von Rot(R)-, Grün(G)- und Blau(B)-Farbinformation, die das darzustellende Objekt angibt, in entsprechende Luminanz(Y)-, Gleichphasen(I)-Farbton- und Quadratur(Q)- Farbtondaten, Verarbeiten der Y-, I- und Q-Daten zum Ermitteln resultierender Y-, I- und Q-Daten, wobei die Y-Daten bei einem vorbestimmten ersten Detailpegel verarbeitet werden, wobei die I- und Q-Daten jeweils bei einem vorbestimmten zweiten Detailpegel verarbeitet werden, wobei der zweite Detailpegel gröber als der erste Detailpegel ist, und Zurückwandeln der resultierenden Y-, I- und Q-Daten in entsprechende R-, G- und B-Information, wobei die entsprechende R-, G- und B-Information die Farbe des darzustellenden Objektes angibt.
- Gemäß einem dritten Aspekt schafft die Erfindung eine Computerbild-Erzeugungseinrichtung zum Erzeugen von Farbcharakteristiken für ein Objekt von einer darzustellenden Szene, enthaltend: eine erste Skaliereinrichtung zum Skalieren erster Farbinformation des Objektes, ausgedrückt bei einer ersten vorbestimmten Bit-Auflösung, zum Bereitstellen zweiter Farbinformation des Objektes, ausgedrückt bei einer zweiten vorbestimmten Bit-Auflösung, wobei die zweite vorbestimmte Bit-Auflösung kleiner als die erste vorbestimmte Bit-Auflösung ist, eine Verarbeitungseinrichtung mit einem Eingang, der mit der ersten Skaliereinrichtung verbunden ist, zum Empfangen der zweiten Farbinformation, wobei die Verarbeitungseinrichtung dritte Farbinformation des Objektes ermittelt, ausgedrückt bei der zweiten Bit-Auflösung, und eine zweite Skaliereinrichtung, die mit der Verarbeitungseinrichtung verbunden ist, zum Empfangen der dritten Farbinformation, wobei die zweite Skaliereinrichtung vierte Farbinformation des Objektes, ausgedrückt bei der ersten Bit-Auflösung, ansprechend auf die dritte Farbinformation erzeugt, wobei die vierte Farbinformation die Farbe des darzustellenden Objektes darstellt, und wobei die erste Farbinformation durch Luminanz(Y)-, Gleichphasen(I)-Farbton- und Quadratur(Q)-Farbtonkomponenten ausgedrückt ist und wobei die Einrichtung ferner eine Speichereinrichtung mit einem Ausgang aufweist, der mit der ersten Skaliereinrichtung verbunden ist, zur Lieferung der ersten Farbinformation an die erste Skaliereinrichtung, wobei die Speichereinrichtung die Y-Komponente bei einem ersten Detailpegel speichert und die entsprechenden I- und Q-Komponenten jeweils bei einem zweiten Detailpegel speichert, wobei der erste Detailpegel größer als der zweite Detailpegel ist.
- In einer Ausführungsform werden die RGB-Daten, die von einer Datenbasis oder einem Zellentextur-Routineverzeichnis zur Verfügung stehen, in YIQ-Daten gewandelt, die daraufhin in einer weiteren Datenbasis oder einem Zellentexturverzeichnis gespeichert werden, die bzw. das als die Datenbasis für die Bildverarbeitung verwendet wird. Die Wandlung von RGB-Daten in YIQ- Daten schließt lediglich eine Anderung der Konvention zum Definieren von Farbzellentexturattributen eines Objektes ein, und die Umwandlung kann deshalb effizient durchgeführt werden. Selbstverständlich kann eine Datenbasis- oder Farbzellentexturinformation direkt in einem YIQ-Format festgelegt werden, ohne daß entsprechende RGB-Daten erzeugt werden müssen oder ein Zugriff darauf erforderlich ist.
- Um weitere Vorteile der vorliegenden Erfindung erzielen zu können, können die YIQ-Daten, die in Vollskaleneinheiten ausgedrückt werden, vor der Verarbeitung skaliert und neu bezeichnet werden (d.h. ein positiver Wert wird einem negativen Wert von I und/oder Q neu zugeordnet), so daß die Werte von Y, I und Q durch weniger Bits wiedergegeben werden können und deshalb weniger parallele Bit-Übertragungspfade für die Verarbeitung erfordern. Da das menschliche Auge weniger empfindlich auf eine Farbänderung als auf eine Helligkeitsänderung ist, kann der Wert der Y-Darstellung der Helligkeit bei normaler Zellentexturauflösung oder einem Detailpegel berechnet werden, während sie Werte von in und Q (Darstellung von Farbton oder Farbe) bei reduzierter Zellentexturauflösung oder einem gröberen Detailpegel berechnet werden, wie beispielsweise einem Viertel oder einem Sechzehntel der normalen Zellentexturauflösung, was zu einer zusätzlichen Einsparung von Hardware führt.
- Für ein System, das RGB-Daten verarbeitet, werden typischerweise eine 16-Bit-Auflösung und entsprechende 16 parallele Datenpfade für jede der R-, G- und B-Komponenten für insgesamt 48 Pfade verwendet, während für ein System, das skalierte und neu bezeichnete YIQ-Daten gemäß der vorliegenden Erfindung, wobei I und Q als ein Viertel der Y-Auflösung dargestellt werden, 16 parallele Datenpfade für Y erforderlich sind, jedoch lediglich vier parallele Datenpfade sowohl für I wie für Q. Die Gesamtmenge von 24 parallelen Datenpfaden für die YIQ-Verarbeitung führt zu einer Einsparung von 2:1 gegenüber dem RGB-System. Obwohl eine gewisse Verschlechterung der Farbe des letztendlich dargestellten Objekts gegenüber derjenigen erwartet werden kann, die durch die RGB-Verarbeitung erzielt wird, wenn eine derartige YIQ-Verarbeitung verwendet wird, vermag die Einsparung an Hardware und der damit verbundenen Kosten die Verschlechterung mehr als zu kompensieren, insbesondere für Systeme, bei denen eine enge Farbkorrespondenz mit einem aktuellen Objekt nicht als kritisch erachtet wird. Außerdem hat ein subjektiver Testverlauf ergeben, daß nahezu keine wahrnehmbare Differenz zwischen der herkömmlichen RGBT-Verarbeitung und der YIQT-Verarbeitung gemaß den vorliegenden Lehren vorhanden ist.
- Nach der Verarbeitung werden die resultierenden Y-, I- und Q- Werte, die in den skalierten und neu bezeichneten Einheiten dargestellt werden, auf die ursprünglichen Vollskalen-Y-, -I- und -Q-Einheiten reskaliert, wie beispielsweise mit Unterstützung einer Tabellenleseeinrichtung. Die Vollskalen-Y-, -I- und -Q-Werte, die typischerweise im digitalen Format vorliegen, können in RGB-Werte gewandelt werden. Die resultierenden RGB- Werte können zur weiteren Verarbeitung und Konditionierung vor der letztendlichen Verwendung durch eine Anzeigeschaltung einer Schaltung zugeführt werden.
- Die Transluszenz-Daten bilden einen Teil einer RGBT-Datenbasis oder eines Farbzellentextur-Routineverzeichnisses. In einer Ausführungsform der vorliegenden Erfindung können Transluszenz- Daten von einer RGBT-Datenbasis analog zu der Y-Datenkomponente der YIQ-Daten verarbeitet werden, die aus der RGBT-Datenbasis abgeleitet werden. In einer anderen Ausführungsform werden YIQ- Daten wie vorstehend erläutert verarbeitet, und der Wert der Y- Daten wird, nachdem er auf die ursprünglichen Vollskalen-Y-Einheiten reskaliert worden ist, verwendet, um auf eine Tabellenleseeinrichtung zuzugreifen, die ein Signal mit einem Wert für die Transluszenz in Vollskaleneinheiten erzeugt. Dieses Signal für die Transluszenz, das typischerweise im digitalen Format vorliegt, kann der Schaltung für eine weitere Verarbeitung und Konditionierung vor der letztendlichen Verwendung durch die Anzeigeschaltung analog zu den Transluszenz-Y-Daten zugeführt werden.
- Die als neu erachteten Merkmale der Erfindung sind im einzelnen in den beiliegenden Ansprüchen aufgeführt. Die Erfindung selbst jedoch läßt sich sowohl hinsichtlich der Organisation und des Arbeitsverfahrens zusammen mit weiteren Aufgaben und Vorteilen am besten in Bezug auf die detaillierte Beschreibung verstehen, die in Verbindung mit den beiliegenden Zeichnungen erfolgt.
- In den beiliegenden Zeichnungen zeigen:
- Fig. 1 ein herkömmliches RGB-Koordinatensystem und entsprechendes YIQ-System;
- Fig. 2 ein Blockdiagramm eines Systems zum Gewinnen von YIQ- Daten aus RGB-Daten gemäß der vorliegenden Erfindung;
- Fig. 3 ein Blockdiagramm eines Systems zum Verarbeiten von YIQ- Daten gemäß der vorliegenden Erfindung;
- Fig. 4 ein schematisches Diagramm eines Y-Datebspeichers für einen vorbestimmten Bereich gemäß der vorliegenden Erfindung;
- Fig. 5 ein schematisches Diagramm eines I- und/oder Q-Datenspeichers für denselben in Fig. 4 gezeigten Bereich gemäß der vorliegenden Erfindung.
- Bei manchen Farbtextur-Erzeugungsschemata, die in der vorstehend genannten Anmeldung EP-A-0 272 863 beispielhaft ausgeführt sind, werden gegenseitige orthogonale Rot-, Grün- und Blau- (RGB)-Farbachsen verwendet, um den Farbraum zu bestimmen. Eine zusätzlich als Tranluszenz (T) bezeichnete Charakteristik zum Angeben des Grads der Lichttransmission durch ein Objekt, welche Charakteristik von nicht vorhanden (opak) bis vollständig vorhanden (transparent) variieren kann, kann zusammen sowie analog zu den RGB-Daten verarbeitet werden.
- Um die vorliegende Erfindung in den Kontext zu bringen, und um ein Beispiel der Erfindung in einer Betriebsumgebung anzugeben, wird die vorliegende Erfindung derart beschrieben, wie sie in einem CIG-System verwendet werden kann, das durch Bunker et al. beispielhaft in der US-A-4 727 365 beschrieben ist, die den Titel "Advanced Video Object Generator" trägt und auf die vorliegende Anmelderin übertragen ist. Um die Information unterzubringen, die zum Zellenmischen und Zellenglätten erforderlich ist, wie beispielsweise durch das Patent für Bunker et al. gezeigt, verwendet eine Vollfarbentextur sechzehn parallele Pfade zur Texturberechnung für jeden der vier RGBT-Bestandteile in einem Hochauflösungskanal eines CIG-Systems.
- In den Zeichnungen, in denen gleiche Bezugszeichen durchgehend die gleichen Bestandteile bezeichnen, und insbesondere in Fig. 1 ist die Beziehung zwischen RGE- und YIQ-Orthogonalsystemen gezeigt.
- Vorliegend stellt die Y-Komponente die Helligkeit (Luminanz) dar, und die I- und Q-Komponenten stellen den Farbton eines Farbsignals dar. Die I- und Q-Abschnitte können als die Gleichphasen- bzw. Quadraturkomponenten bezeichnet werden. Wie nachfolgend im einzelnen erläutert, können Vorteile der vorliegenden Erfindung erhalten werden, wenn die Y-Komponente mit derselben Pixel-Auflösung ausgedrückt wird, die zur Verarbeitung in einem entsprechenden RGB-System verwendet werden würde, während die I- und Q-Komponenten jeweils mit einer kleineren Pixel-Auflösung dargestellt werden.
- Das RGB-System 10 kann, wie dargestellt, durch drei gegenseitig orthogonale Achsen wiedergegeben werden, die jeweils mit R, G bzw. B bezeichnet sind. Jede Achse des orthogonalen Drei-Achsensystems 10 gibt eine sich monoton ändernde Farbintensität der entsprechenden RGB-Farbe ausgehend vom Ursprung des Systems wieder. Farben, bei denen es sich nicht um eine reine Wiedergabe einer der axialen Farben handelt, sind einer Stelle des Drei-Achsensystems zugeordnet, die für eine Kombination von Intensitäten Deder der roten, grünen und blauen Primärfarben repräsentativ sind. Typischerweise ist jede Achse in 256, d.h. 2&sup8; diskrete Intensitäten unterteilt, wobei der Ursprung (0, 0, 0) schwarz und der Punkt (255, 255, 255) weiß bezeichnet.
- In ähnlicher Weise kann das YIQ-System 20 durch drei gegenseitig orthogonale Achsen wiedergegeben werden, die mit Y, I bzw. Q bezeichnet sind. Die Y-Achse gibt eine sich monoton ändernde Helligkeits- oder Luminanz-Charakteristik wieder, und die I- und Q-Achsen geben jeweils eine sich monoton ändernde Farbtoninformation wieder. Eine Möglichkeit zur Bestimmung der Orientierung des YIQ-Systems, insbesondere ausgehend von einem vorhandenen RGB-System, das zum Bestimmen einer Datenbasis verwendet worden ist, besteht darin, die Y-Achse als zusammenfallend mit dem Vektor vom Ursprung (0, 0, 0) des RGB-Systems zu dem Punkt (255, 255, 255) liegend zu bezeichnen, oder zu einem anderen Punkt des RGB-Systems, der gleiche R-, G- und B-Koordinaten hat, während die Orthogonalität und die relative Positionierung der Y-, I- und Q-Achsen beibehalten wird. Wenn eine derartige Transformation durchgeführt wird, können die Koordinaten von einem Punkt in dem RGB-System aus zu einem entsprechenden Punkt des YIQ-Systems gemäß den folgenden Gleichungen einander zugeordnet werden:
- Y = 0,299R + 0,587G + 0,114B (1)
- I = 0,596R - 0,274G - 0,322B (2)
- Q = 0,211R - 0,523G + 0,312B (3),
- wobei Y, I und Q die Koordinaten des Punkts in dem YIQ-System entsprechend dem Punkt darstellen, der in dem RGB-System die Koordinaten R, G und B hat. Wenn die Werte entlang jeder der Achsen des RGB-Systems im Bereich von 0 bis 255 (d.h. 256 Bits) liegen, liegt Y im Bereich von 0 bis 255, I liegt im Bereich von etwa -151 bis +151 und Q liegt im Bereich von etwa -133 bis +133. Jeder Punkt in einer RGB-Datenbasis kann in einen entsprechenden Punkt in einem YIQ-System gewandelt gewandelt bzw. umgesetzt werden, um eine YIQ-Datenbasis zu erzeugen. Selbstverständlich können die Y-, I- und Q-Koordinaten direkt zugeordnet und in einer Datenbasis abgespeichert sein, analog zur Erzeugung einer RGB-Datenbasis, ohne die Notwendigkeit zur Bestimmung der entsprechenden R-, G- und B-Koordinaten. Da sowohl das RGB-System wie das YIQ-System Konventionen zum Bestimmen von Datenpunkten repräsentieren, ist außerdem keine umfangreiche Berechnung erforderlich, um eine Transformation von einem System in das andere durchzuführen. Obwohl es möglich ist, die Y-, I- und Q-Koordinaten direkt zu manipulieren, die aus den Gleichungen (1), (2) und (3) erhalten werden, hat sich herausgestellt, daß es passender ist, die resultierenden Y-, I- und Q-Koordinaten zu skalieren und außerdem, falls erforderlich, die I- und Q-Werte in positive Zahlen zu wandeln.
- In Fig. 2 ist eine zum Wandeln bzw. Umsetzen von RGB-Daten in eine YIQ-Information zweckmäßige Vorrichtung in einer Ausführungsform der vorliegenden Erfindung gezeigt. Eine RGBT- Datenbasis oder ein Zellentextur-Routineverzeichnis 30 enthält Szenendeskriptoren, die in einem Groß- oder Massenspeichermedium, wie beispielsweise einer Magnetplatte oder einem Band gespeichert sind. Ein System zur Verwendung einer RGBT-Datenbasis ist zusammen mit zugeordneten Steuerungen in der vorstehend erläuterten Anmeldung von Chandler et al. beschrieben. Es versteht sich, daß das in der gesamten Zeichnung gezeigte System in gleicher Weise zum Betrieb mit einer RGB-Datenbasis geeignet ist, bei der auf die Transluszenz bezogene Komponenten nicht erforderlich sind.
- Wenn RGBT-Daten aus der Datenbasis 30 benötigt werden, wie beispielsweise zum Bestimmen der Charakteristiken eines auf einer (nicht gezeigten) Anzeigevorrichtung dargestellten Pixels, werden die R-, G- und B-Datenpunkt-Deskriptoren an einem jeweiligen Ausgang der Datenbasis 30 zur Verfügung gestellt, während die zugeordneten T-Datenpunkt-Deskriptoren an einem anderen Ausgang der Datenbasis 30 zur Verfügung gestellt werden. RGBT- Daten werden ansprechend auf (nicht gezeigte) Takt- und Synchronisiersignale aus der Datenbasis 30 von dem CIG-System angefordert, wie auf diesem Gebiet der Technik bekannt. Eine Wandlerschaltung 35 mit einem Eingang, der mit dem Ausgang der Datenbasis 30 zum Empfangen der R-, G- und B-Daten verbunden ist, erzeugt ansprechend auf die daran zur Verfügung gestellten R-, G- und B-Daten entsprechende Y-, I- und Q-Koordinaten in Übereinstimmung mit den Gleichungen (1), (2) und (3). Resultierende Y-, I- und Q-Koordinateninformationen, die am Ausgang des Wandlers 35 zur Verfügung stehen, werden zu einem Eingang einer Skalierschaltung 38 geliefert. Eine Transluszenzinformation T, die verzögert werden kann, um interne Verzögerungen des Konversionswandlers 35 zu kompensieren, wird von einem anderen Ausgang der Datenbasis 30 zu einem anderen Eingang der Skalierschaltung 38 derart übertragen, daß die durch die Skalierschaltung 38 empfangenen YIQT-Daten den RGBT-Daten entsprechen, die durch die Datenbasis 30 zugeführt werden. Die Skalierschaltung 38 skaliert jeweils die Y-, I-, Q- und T-Informationen, die ihm zugeführt werden, und bezeichnet die I- und/oder Q-Werte als positive Werte neu, wenn sie ursprünglich negativ waren. Die resultierenden skalierten und neu bezeichneten Werte Y, I, Q und T (oder Y', I', Q' und T') werden an jeweiligen Ausgängen des Skalierers 38 zur Verfügung gestellt. Takt- und Synchronisiersignale (nicht gezeigt) werden der Datenbasis 30, dem Wandler 35 und dem Skalierer 38 von einer (nicht gezeigten) Synchronisierquelle für eine Koordinatenwandlung in YIQ-Daten und zum Speichern von Y'I'Q'T'-Daten zugeführt. Der Wandler 35 und der Skalierer 38 können in geeigneter Weise als Teil eines Computerprogramms implementiert werden, wie auf diesem Gebiet der Technik bekannt.
- Bei einer zur Zeit bevorzugten Ausführungsform werden der Wandler 35 und der Skalierer 38 Off-Line-betrieben, um skalierte Y'-, I'-, Q'- und T'-Daten zu erzeugen, die an jeweiligen Ausgängen des Skalierers 38 zur Verfügung stehen, die der Y'I'Q'T'-Datenbasis oder dem Zellentextur-Routineverzeichnis 40 zugeführt und in dieser bzw. diesem gespeichert werden. Die Datenbasis 40, die jeweilige Ausgänge für die Y'-, I'-, Q'- und T'-Daten aufweist, kann zum Zuführen der Y'-, I'-, Q'- und T'- Daten zu einer Verarbeitungsschaltung, wie nachfolgend erläutert, angeschlossen sein.
- Die Skalierschaltung 38 bestimmt den Maximal- und den Minimalwert für jeden der Y-, I- und Q-Zellentextursignale, die von dem Wandler 35 über das gesamte Zellentextur-Routineverzeichnis erhalten werden. Jeder der Y'-, I'- und Q'-Texturzellen in dem Y'I'Q'T' -Zellentextur-Routineverzeichnis 40 wird ein komprimierter Wert, vorzugsweise 4 Bits, zugeordnet, der einen komprimierten Texturzellenwert repräsentiert. Der zugeordnete Wert für Y', I' und Q' wird auf der Grundlage des relativen Ortes des jeweiligen vorkomprimierten Textursignals zwischen dem minimalen und dem maximalen Wert der entsprechenden vorkomprimierten Y-, I- und Q-Zellentexturwerte bestimmt. Unter Verwendung von 4 Bits zum Komprimieren der Texturzellenwerte kann der minimale neu zugeordnete Wert durch 0 wiedergegeben werden, und der maximale neu zugeordnete Wert kann durch 15 wiedergegeben werden. Durch anfängliches Abtasten der ursprünglichen Werte über die gesamten Y-, I- und Q-Zellentexturwerte zur Bestimmung der minimalen und maximalen Werte, gefolgt vom Zuordnen komprimierter Y'-, I'- und Q'-Werte, wird eine effiziente Zuordnung der verfügbaren komprimierten Werte sichergestellt, weil der gesamte zur Verfügung stehende Bereich der komprimierten Werte verwendet wird.
- Obwohl Verbindungen zwischen Schaltungsbestandteilen durchgehend durch eine einzige Leitung dargestellt sind, versteht es sich, daß dort, wo es erwünscht ist, eine parallele Datenübertragung vorgesehen werden kann, beispielsweise zur Erhöhung des Gesamtsystemdurchsatzes. Zusätzlich können getrennte Verbindungen oder Anschlüsse und Schaltungen für jede der entsprechenden R-, G-, B- und T-, und Y-, I-, Q- und T-Komponentendaten verwendet werden, falls erwünscht.
- Die Datenbasis 40 stellt die Y'-, I'-, Q'- und T'-Daten an ihren jeweiligen Ausgängen zur Verfügung sowie mit dem geeigneten Detailpegel oder einer entsprechenden Auflösung ansprechend auf (nicht gezeigte) Signalbefehle, die sich auf einen Abschnitt einer darzustellenden Szene beziehen, die verarbeitet werden soll. Beispielsweise können RGBT-Daten zur Verfügung stehen, bei denen jede der R-, G-, B- und T-Komponenten und jede der Y-, I- und Q-Komponenten der gewandelten YIQ-Daten durch eine Sechzehn-Bit-Auflösung wiedergegeben werden, während sämtliche der entsprechenden skalierten Y'-, I'-, Q'- und T'- Daten durch eine Vier-Bit-Auflösung wiedergegeben werden können.
- Zusätzlich können die RGBT-Informationen mit unterschiedlichen Detailpegeln (LODs) gespeichert werden, wobei die Auflösung eines LOD einem vorbestimmten Bereichsintervall von einem Betrachtungspunkt in eine darzustellende Szene hinein entspricht. Der detaillierteste LOD für einen vorbestimmten Bereich, das bedeutet derjenige mit der kleinsten Einheit, Zelle oder dem kleinstem Pixel für die Objektbestimmung und deshalb die feinste Auflösung, liegt am nächsten zu einem Betrachtungspunkt, wobei jede nachfolgende gröbere LOD eine größere Zelle und ein entsprechend geringeres Detail und eine gröbere Auflösung hat. RGBT-Informationen für ein Objekt mit einem vorbestimmten LOD sind allgemein sämtliche am vorbestimmten LOD in der Datenbasis 30 gespeichert. Um die Vorteile der vorliegenden Erfindung zu erhalten, können jedoch die Y'-Daten entsprechend den RGBT-Daten in der Datenbasis 40 an dem LOD der RGBT-Daten der Datenbasis 30 gespeichert sein, während die zugeordneten in'- und Q'-Daten in der Datenbasis 40 bei einem groberen LOD, typischerweise bei dem nächstgröberen LOD, gespeichert sind. Eine detaillierte Erläuterung der Y'-, Ir - und Q'-Speicherung oder des Speichers erfolgt in Zusammenhang mit Fig. 5 und 6 nachfolgend. Außerdem kann eine separate Datenbasis (nicht gezeigt) zum Speichern jeder der jeweiligen Y'-, in'-, Q'- und T'-Werte verwendet werden, falls erwünscht.
- In Fig. 3 ist ein System zum Verarbeiten von YIQT-Farbinformation gezeigt. Eine detaillierte Erläuterung der Glättungs- und Mischvorgänge kann aus dem Patent von Bunker et al. erhalten werden. Von der Bearbeitung wird vorliegend nur so viel erläutert, als zum Verständnis der vorliegenden Erfindung erforderlich ist. Skalierte Werte Y' bei unterschiedlichen Detailpegeln (LODs) oder einer Auflösung aus der Datenbasis 40 (Fig. 2) werden für jeweilige Eingänge einer LOD(N)Y'-Glättungsschaltung 50 und einer LOD(N+M)Y'-Glättungsschaltung 52 geliefert. In ähnlicher Weise werden skalierte und/oder neu bezeichnete Werte I' und Q' und ein skalierter Wert T' jeweils bei zwei unterschiedlichen LODs aus der Datenbasis 40 (Fig. 2) zu den jeweiligen Eingängen der LOD(N)- und LOD(N+M)I'-Glättungsschaltung 54, der LOD(N)- und LOD(N+M)Q'-Glättungsschaltung 56 und der LOD(N)- und LOD(N+M)T'-Glättungsschaltung 58 geliefert. Um eine unnötige Wiederholung zu vermeiden, ist lediglich eine einzige Glättungsschaltung für den I'-, Q'- und T'-Kanal gezeigt. Es versteht sich, daß die Schaltung für die I'-, Q'- und T'-Kanäle analog zu derjenigen des Y'-Kanals ausgelegt sein können. Indices N und N+M geben die jeweiligen Detailpegel an.
- Der Ausgang der Y'-Glättungsschaltung 50 und der Y'-Glättungsschaltung 52, die bei LOD(N) und LOD(N+M) jeweils geglättete Werte Y'SN und Y'S(N+M) zur Verfügung haben, sind an jeweilige Eingänge einer Y'-Mischschaltung 60 angeschlossen. Die Mischschaltung 60 mischt die Werte des Y'SN-Signals und des Y'S(N+M)-Signals proportional. Ein für den gemischten Wert des Y'SN-Signals und des Y'S(N+M)-Signals repräsentatives Y'B- Signal steht am Ausgang der Y'-Mischschaltung 60 zur Verfügung. Der Ausgang der Y'-Mischschaltung 60 ist an den Eingang einer Skaliereinrichtung 70 angeschlossen. Die Skaliereinrichtung 70 bearbeitet das ihr gelieferte gemischte YB-Signal, das in den skalierten Einheiten wiedergegeben ist, um den YB-Signalwert in dieselben Y-Signaleinheiten zu reskalieren oder zu wandeln, die aus der Gleichung (1) erhalten wurden. Am Ausgang des Skalierers 70 steht das reskalierte Y-Signal zur Verfügung.
- In der gleichen Weise ist der Ausgang der I'-Glättungsschaltung 54 an den Eingang der I'-Mischschaltung 62 angeschlossen, und der Ausgang der I'-Mischschaltung 62 ist an den Eingang der Skalierschaltung 72 angeschlossen. In ähnlicher Weise ist der Ausgang der Q'-Glättungsschaltung 56 an den Eingang der Q'- Mischschaltung 64 angeschlossen, und der Ausgang der Q'-Mischschaltung 64 ist an den Eingang der Skalierschaltung 74 angeschlossen. An den Ausgängen der Skalierschaltungen 72 und 74 steht das reskalierte I- und Q-Signal zur Verfügung. Neben dem Reskalieren des Werts der IB- und QB-Signale, die den Skalierern 72 und 74 jeweils geliefert werden, ordnen diese dem reskalierten Wert negative Werte zu, falls dies zweckdienlich ist.
- Wenn ein separates Transluszenzsignal verarbeitet wird, wird das skalierte Transluszenzsignal T' an den Eingang der T'-Glättungsschaltung 58 für LOB(N) und LOD(N+M) geliefert. Die Verarbeitung der Transluszenzdaten durch die Glättungsschaltung 58, die T'-Mischschaltung 66 und den Skalierer 76 verläuft analog zu der Verarbeitung durch die Y'-Glättungsschaltung 50, die Y'- Glättungsschaltung 52, die Y'-Mischschaltung 60 und den Skalierer 70 für skalierte Y'-Daten. Das reskalierte Transluszenzsignal T vom Ausgang des Skalierers 76 wird in denselben Einheiten im digitalen (d.h. diskreten) Format als das Transluszenzsignal der RGBT-Datenbasis 30 ausgedrückt und steht am Ausgang des Skalierers 76 zur Verfügung.
- Die Y-, I- und Q-Signale von den Skalierern 70, 72 und 74 werden einem Wandler 80 zugeführt. Der Wandler 80 bestimmt R-, G- und B-Werte aus den Y-, in-, Q-Informationen, die ihm zugeführt werden gemäß den folgenden Gleichungen, die aus den Gleichungen (1), (2) und (3) abgeleitet sind:
- R = Y + 0,956I + 0,621Q (4)
- G = Y - 0,272I - 0,647Q (5)
- B = Y - 1,106I + 1,703Q (6).
- Die resultierenden RGB-Datenwerte werden in das erforderliche Format an den jeweiligen Ausgängen des Wandlers 80 zur darauffolgenden Verarbeitung und Konditionierung zusammen mit einem geeigneten Transluszenzsignal T vom Skalierer 76 und 78 zur Verfügung gestellt, bevor die endgültige Anzeige oder Darstellung bestimmt wird, wie in den vorstehend zitierten Druckschriften von Bunker et al. und Chandler et al. mehr im einzelnen erläutert ist.
- Wenn die Transluszenz-Information zusammen mit der Y-Signalkomponente kodiert wird, wird die T-Skaliersohaltung 78 verwendet, und hat einen Eingang, der an den Ausgang der Y'-Mischschaltung 60 zum Empfangen des Y'B-Signals angeschlossen ist. Die T-Skalierschaltung 78 stellt an ihrem Ausgang ein reskaliertes T- Signal zur Verfügung. Die Transluszenz-Kanalkomponenten, nämlich die T'-Glättungsschaltung 58, die T'-Mischschaltung 66 und der Skalierer 76 sind nicht erforderlich, wenn die Transluszenz-Information derart kodiert ist. Die Y-Skalierschaltung 70, die I-Skalierschaltung 72, die Q-Skalierschaltung 74 und die T- Skalierschaltung 76 und 78 können jeweils eine Tabellenleseeinrichtung enthalten, die einen Eingang zum Akzeptieren des ihr zugeführten jeweiligen gemischten Signals aufweist. Das jeweilige Eingangssignal wird verwendet, um die Tabellenleseeinrichtung zu adressieren, und in Erwiderung hierauf wird ein jeweiliges Signal im digitalen Format erhalten.
- Bei einem Beispiel der vorliegenden Erfindung können Y', I', Q' und T jeweils durch komprimierte Vier-Bit-Datenwerte wiedergegeben werden. Das Verarbeiten durch die entsprechenden Glättungs- und Mischschaltungen führt zu zusätzlichen 4-Bits an fraktionellen Daten, die an jeden resultierenden Y'-, I'-, Qr - und T'-Mischsignalwert angehängt werden, der einem entsprechenr den Skalierer zugeführt werden soll. Der resultierende koniprimierte 8-Bit-Gesamtdatenwert kann verwendet werden, um eine Nachschlage bzw. Lesetabelle entsprechend der Skalierer 70, 72, 74, 76 und 78 zu adressieren. Der Ausgang der Lesetabelle, der den Ausgang eines Skalierers darstellt, ist auf der Grundlage der nicht-komprimierten Y-, I-, Q- und T-Datenwerte entsprechend dem komprimierten Datenwert vorbestimmt zugeordnet, um die Lesetabelle zu adressieren.
- In Fig. 4 sind ein sohematisches Diagramm eines Y-Daten-Speichers für einen vorbestimmten Wert 90 und ein vorbestimmter LOD in Übereinstimmung mit der vorliegenden Erfindung gezeigt. Der an jedem Zellen- oder Pixelort gespeicherte Wert wird durch ein Y mit einem doppelten Index, wie beispielsweise Ymn dargestellte, wobei m die Zeile und n die Spalte bezeichnet. Die Transluszenzdaten T werden dann, wenn sie nicht in Lumineszenz- Y-Daten kodiert sind, am selben Ort wie die Lumineszenz-Y-Daten gespeichert.
- In Fig. 5 ist ein schematisches Diagramm eines Speichers für I- Daten entsprechend den Y-Daten von Fig. 4 und für denselben vorbestimmten Bereich 90 gezeigt. Der an jedem Zellen- oder Pixelort gespeicherte Wert wird durch in mit einem Doppelindex, wie beispielsweise Ixy bezeichnet, wobei x die Zeile und y die Spalte bezeichnet. Ein Datenspeicherschema analog zu dem in Fig. 5 gezeigten kann zur Speicherung von Q-Daten entsprechend den Y-Daten von Fig. 4 verwendet werden.
- Es wird darauf hingewiesen, daß eine Zelle 94 der I-(und deshalb auch Q-)Daten von Fig. 5 einen Bereich abdeckt, der vier 4affi so groß ist wie eine einzige Zelle 91 der Y-Daten von Fig. 4. Mit anderen Worten kann für YIQ-Daten angenommen werden, daß der x-Datenpunkt an einem vorbestimmten LOD gespeichert ist, und die entsprechenden I- und Q-Datenpunkte sind jeweils an dem nächstgröberen LOD gespeichert. Daten zum Festlegen des Bereichs, der durch die vier Zellen 91, 93, 95 und 97 der Y- Daten (Fig. 5) dargestellt sind, würden deshalb durch Daten von Zellen dargestellt, die die Koordinaten Y&sub1;&sub1;I&sub1;&sub1;Q&sub1;&sub1;, Y&sub1;&sub2;I&sub1;&sub1;Q&sub1;&sub1;, Y&sub2;&sub1;I&sub1;&sub1;Q&sub1;&sub1; bzw. Y&sub2;&sub2;I&sub1;&sub1;Q&sub1;&sub1; haben. Das bedeutet, daß jede der vier Y-Koordinaten demselben Paar von I- und Q-Koordinaten zugeordnet sein würde. Die I- und Q-Daten können an anderen gröberen LODs für eine entsprechende Lumineszenz Y gespeichert sein, falls erwünscht.
- Gemäß einem Aspekt der vorliegenden Erfindung akzeptiert der Skalierer 38 (Fig. 2) Y-, I-, Q- und T-Daten, die typischerweise im digitalen Format dargestellt sind und jeweils eine 16- Bit-Auflösung haben, und dieser Skalierer stellt skalierte Daten Y', in', Q' und T' an seinen jeweiligen Ausgängen zur Verfügung. Die dem Skalierer 38 zugeführten Y-, in-, Q- und T-Daten werden auf einen Bereich von 0 bis 15 (d.h. sie sind dazu in der Lage, durch eine Vier-Bit-Auflösung dargestellt zu werden) skaliert oder einander zugeordnet, und die in- und/oder Q-Daten werden einem positiven Wert neu zugeordnet, falls erforderlich. Die Transluszenzdaten T werden unter Verwendung einer Logik ähnlich zu derjenigen für die Lumineszenzdaten Y skaliert. Zwischenwerte (d.h. zwischen minimalen und maximalen Werten) der Y-, in-, Q- und T-Daten werden auf einen Bereich von 0 bis 15 unter der Annahme eines gleichmäßigen Abstands (d.h. einer linearen Transformation) zwischen den minimalen und maximalen Werten einander gegenseitig zugeordnet.
- Wenn für die R-, G-, B- und T-Daten eine 16-Bit-Auflösung verwendet wird, sind insgesamt 64 Leitungen für eine Parallelverarbeitung erforderlich. Durch Skalieren der entsprechenden Y-, I-, Q- und T-Daten und Darstellen eines jeden der skalierten Werte Y', I', Q' und T' mit einer Vier-Bit-Auflösung, werden lediglich 24 Leitungen für eine Parallelverarbeitung benötigt. Ein zusätzliches Einsparen von Hardware ist möglich, wenn die Transluszenz-T-Daten nicht unabhängig verarbeitet, sondern aus den Lumineszenzdaten Y abgeleitet werden, wie vorstehend im Zusammenhang mit Fig. 3 erläutert.
- Für eine vollständige Farbfestlegung in skalierten Einheiten unter Verwendung der vorstehend angeführten Vier-Bit-Auflösung für jede der Y-, I- und Q-Farbkomponenten erfordert jede YIQ- Zelle im Mittel sechs Bits, vier für die Lumineszenzdaten Y plus einem Viertel der gesamten acht Bits, die für die I- und Q-Farbtondaten benötigt werden.
- Unter erneuten Bezug auf Fig. 3 wird nunmehr ein Beispiel eines Probenabtastverarbeitungsvorgangs erläutert. Der Vorgang wird für einen Bereich eines darzustellenden Bilds durchgeführt, der als eine Spanne bezeichnet wird. Ein Typ einer Spanne enthält acht Pixel in einer Zeile oder Linie und ist acht Linien lang. Ein Pixel (Bildelement) ist das kleinste adressierbare Element einer (nicht gezeigten) Anzeigevorrichtung.
- Wie im einzelnen im Patent von Bunker et al. erläutert, werden für jedes verarbeitete Pixel benachbarte Zellen der Y'-Daten (4 Bits), deren Zentren ein Polygon festlegen, das das Zentrum des Bilds des Pixels enthält, für jeden von zwei benachbarten LODs ausgewählt, und die ausgewählten Y'-Daten werden der LOD(N)Y'- Glättungsschaltung LOD(N) 50 und 40 und der LOD(M+ N)-Glättungsschaltung 52 zugeführt. Die Glättungsschaltung 50 und 52 bestimmt einen Wert (8 Bits - 4 ganze; 4 fraktionell) für geglättete Daten YS (8 Bits - 4 ganze; 4 fraktionell) bei LOD(N) bzw. LOD(M+N). Die Y'-Mischschaltung 60 akzeptiert geglättete Daten Y'S bei LOD(N) und LOD(N+M) und kombiniert die Y'S-Daten proportional entsprechend einer vorbestimmten Prozedur zum Bestimmen der gemischten Y'B-Daten (8 Bits - 4 ganze; 4 fraktionell) . Der Skalierer 70 akzeptiert gemischte Y'B-Daten und bestimmt Y-Daten (16 Bits) ansprechend darauf. Das Verarbeiten der Y'-Daten wird für jedes Pixel der Spanne durchgeführt. I'- und Q'-Daten (jeweils 4 Bits) werden analog zu den Y'-Daten verarbeitet. Die I'-Daten und Q'-Daten werden jedoch für ein Gitter verarbeitet, das vier gleichermaßen beabstandete Pixel pro Zeile oder Linie hat und vier gleichermaßen beabstandete Linien oder Leitungen lang ist. Die I'- und Q'-Gitter decken jeweils denselben Bereich ab wie die Y'-Spanne. Jeder verarbeitete Bereich der I'- und Q'-Daten deckt einen Bereich von vier benachbarten Pixel ab, die zum Bestimmen der Y'-Daten verwendet werden. Jeder der gemischten Werte der YB-Daten entsprechend einem der vier benachbarten Pixel ist denselben I'- und Q'-Daten zugeordnet, wie vorstehend erläutert.
- Somit ist ein Computerbild-Erzeugungssystem illustriert und beschrieben worden, das eine Verminderung an Hardware und Logik bietet, die zum Verarbeiten von Farbzellen-Texturinformationen erforderlich sind. Ferner ist ein Computerbild-Erzeugungssystem gezeigt und beschrieben worden, bei dem eine YIQ- Farbverarbeitung verwendet werden kann.
- Während lediglich bestimmte bevorzugte Merkmale der Erfindung beispielsweise dargestellt worden sind, erschließen sich dem Fachmann viele Modifikationen und Änderungen.
Claims (15)
1. Computerbild-Erzeugungsverfahren zum Erzeugen von
Farbcharakteristiken für ein Objekt von einer
darzustellenden Szene, enthaltend:
Darstellen von Farbe in der Szene durch Luminanz(Y)-,
Gleichphasen (I)-Farb- und Quadratur (Q)-Farbkomponenten,
Verarbeiten der Y-Komponente bei einem vorbestimmten
ersten Detailpegel zum Ermitteln einer resultierenden Y-
Komponente und
Verarbeiten jeweils der I- und Q-Komponenten bei einem
vorbestimmten zweiten Detailpegel zum Ermitteln einer
resultierenden in- bzw. Q-Komponente, wobei der zweite
Detailpegel grober als der erste Detailpegel ist und wobei ferner
die resultierenden Y-, in- und Q-Komponenten die Farbe des
Objektes der darzustellenden Szene angeben.
2. Verfahren nach Anspruch 1, wobei ferner der Schritt
vorgesehen ist, die resultierenden Y-, I- und Q-Komponenten
in entsprechende Rot(R)-, Grün(G)- und Blau(B)-Komponenten
umzuwandeln.
3. Verfahren nach Anspruch 1, wobei ferner der Schritt
vorgesehen ist, daß Transluzenz(T)-Daten, die das
darzustellende Objekt darstellen, bei der resultierenden
Y-Komponente erhalten werden.
4. Verfahren nach Anspruch 1, wobei der zweite
Detailpegel ein Viertel des ersten Detailpegels beträgt.
5. Verfahren nach Anspruch 2, wobei der
Darstellungsschritt enthält, daß die Y-, I- und Q-Komponenten bei einer
ersten Bit-Auflösung bezeichnet werden und wobei das
Verfahren ferner die Schritte enthält:
entsprechendes Skalieren der Y-, I- und Q-Komponenten,
so daß die Y-, I- und Q-Komponenten bei einer zweiten Bit-
Aufösung dargestellt werden, wobei die zweite Bit-Auflösung
kleiner als die erste Bit-Auflösung ist,
Verarbeiten der Y-, I- und Q-Komponenten bei der
zweiten Bit-Auflösung zum Ermitteln der resultierenden Y-,
I- und Q-Komponenten bei der zweiten Bit-Auflösung und
Reskalieren der resultierenden Y-, I- und
Q-Komponenten bei der zweiten Bit-Auflösung, um resultierende Y-,
I- und Q-Komponenten bei der ersten Bit-Auflösung zu bilden,
wobei die resultierenden Y-, I- und Q-Komponenten bei der
ersten Bit-Auflösung die Farbe des Objektes der
darzustellenden Szene angeben.
6. Verfahren nach Anspruch 5, ferner enthaltend:
Darstellen von Transluzenz innerhalb der Szene durch
eine Transluzenz(T)-Komponente bei der zweiten
Bit-Auflösung,
Verarbeiten der T-Komponente bei dem ersten
Detailpegel zum Ermitteln einer resultierenden T-Komponente bei der
zweiten Bit-Auflösung und
Skalieren der resultierenden T-Komponente bei der
zweiten Bit-Auflösung, um eine resultierende T-Komponente
bei der ersten Bit-Auflösung zu bilden.
7. Computerbild-Erzeugungsverfahren zum Erzeugen von
Farbcharakteristiken für ein Objekt von einer
darzustellenden Szene, enthaltend:
Umwandeln der Rot(R)-, Grün(G)- und
Blau(B)-Farbinformation, die das darzustellende Objekt angibt, in
entsprechende Luminanz(Y)-, Gleichphasen(I)-Farb- und
Quadratut(Q)-Farbdaten,
Verarbeiten der Y-, I- und Q-Daten zum Ermitteln
resultierender Y-, I- und Q-Daten,
wobei die Y-Daten bei einem vorbestimmten ersten
Detailpegel verarbeitet werden,
wobei die I- und Q-Daten jeweils bei einem
vorbestimmten zweiten Detailpegel verarbeitet werden, wobei der zweite
Detailpegel grober als der erste Detailpegel ist, und
Zurückumwandeln der resultierenden Y-, I- und Q-Daten
in entsprechende R-, G- und B-Information, wobei die
entsprechende
R-, G- und B-Information die Frabe des
darzustellenden Objektes angibt.
8. Verfahren nach Anspruch 7, wobei die Y-, I- und Q-
Daten bei einer ersten Bit-Auflösung dargestellt werden und
wobei der Verarbeitungsschritt ferner enthält:
entsprechendes Skalieren der Y-, I- und Q-Daten, so
daß die Y-, I- und Q-Daten bei einer zweiten Bit-Auflösung
dargestellt werden, wobei die zweite Bit-Auflösung kleiner
als die erste Bit-Auflösung ist,
Verarbeiten der Y-, I- und Q-Daten bei der zweiten
Bit-Auflösung zum Ermitteln der resultierenden Y-, I- und
Q-Daten bei der zweiten Bit-Auflösung und
Reskalieren der resultierenden Y-, I- und Q-Daten bei
der zweiten Bit-Auflösung in resultierende Y-, I- und
Q-Daten bei der ersten Bit-Auflösung.
9. Verfahren nach Anspruch 8, wobei der
Verarbeitungsschritt bei der zweiten Bit-Auflösung enthält, daß die Y-,
I- und Q-Daten als ein positiver Wert bezeichnet werden,
wenn er negativ ist, und wobei der Rückumwandlungsschritt
enthält, daß die resultierenden I- und Q-Daten als ein
negativer Wert zurückbezeichnet werden, wenn es passend ist.
10. Verfahren nach Anspruch 7, wobei ferner der
Schritt vorgesehen ist, daß Transluzenz(T)-Information, die
das darzustellende Objekt darstellt, bei den resultierenden
Y-Daten erhalten wird.
11. Verfahren nach Anspruch 7, wobei der zweite
Detailpegel ein Viertel des ersten Detailpegels ist.
12. Computerbild-Erzeugungseinrichtung zum Erzeugen
von Farbcharakteristiken für ein Objekt von einer
darzustellenden Szene, enthaltend:
eine erste Skaliereinrichtung zum Skalieren erster
Farbinformation des Objektes, ausgedrückt bei einer ersten
vorbestimmten Bit-Auflösung, zum Bereitstellen zweiter
Farbinformation
des Objektes, ausgedrückt bei einer zweiten
vorbestimmten Bit-Auflösung, wobei die zweite vorbestimmte
Bit-Auflösung kleiner als die erste vorbestimmte
Bit-Auflösung ist,
eine Verarbeitungseinrchtung mit einem Eingang, der
mit der ersten Skaliereinrichtung verbunden ist, zum
Empfangen der zweiten Farbinformation, wobei die
Verarbeitungseinrichtung dritte Farbinformation des Objektes
ermittelt, ausgedrückt bei der zweiten Bit-Auflösung, und
eine zweite Skaliereinrichtung, die mit der
Verarbeitungseinrichtung verbunden ist, zum Empfangen der dritten
Farbinformation, wobei die zweite Skaliereinrichtung vierte
Farbinformation des Objektes, ausgedrückt bei der ersten
Bit-Auflösung, bei der dritten Farbinformation erzeugt,
wobei die vierte Farbinformation die Farbe des
darzustellenden Objektes darstellt, und
wobei die erste Farbinformation durch Luminanz(Y)-,
Gleichphasen(I)-Farb- und Quadratur(Q)-Farbkomponenten
ausgedrückt ist und wobei die Einrichtung ferner eine
Speichereinrichtung mit einem Ausgang aufweist, der mit der
ersten Skaliereinrichtung verbunden ist, zur Lieferung der
ersten Farbinformation an die erste Skaliereinrichtung,
wobei die Speichereinrichtung die Y-Komponente bei einem
ersten Detailpegel speichert und die entsprechenden in- und Q-
Komponenten jeweils bei einem zweiten Detailpegel
speichert, wobei der erste Detailpegel größer als der zweite
Detailpegel ist.
13. Einrichtung nach Anspruch 12, wobei die vierte
Farbinformation durch Luminanz (Y)-, Gleichphasen
(I)-Farb- und Quadratur(Q)-Farbkomponenten ausgedrückt ist und wobei
die Einrichtung ferner eine Wandlereinrichtung mit einem
Eingang aufweist zum Empfangen der vierten Farbinformation,
wobei die Wandlereinrichtung Rot(R)-, Grün(G)- und Blau(E)-
Farbkomponenten ermittelt entsprechend der werten
Farbinformation, die an tie Wandlereinriohtung geliefert
ist.
14. Einrichtung nach Anspruch 13, wobei die dritte
Farbinformation durch Luminanz (Y)-, Gleichphasen
(I)-Farb- und Quadratur(Q)-Farbkomponenten ausgedrückt ist und wobei
ferner eine dritte Skaliereinrichtung vorgesehen ist, die
mit der Verarbeitungseinrichtung verbunden ist, um
Transluzent(T)-Information zu erhalten, die das darzustellende
Objekt aus der Y-Komomponente der dritten Farbinformation
darstellt.
15. Einrichtung nach Anspruch 12, wobei die zweite
Farbinformation durch Luminanz (Y)-, Gleichphasen
(I)-Farb- und Quadratur(Q)-Farbkomponenten ausgerdrückt ist und wobei
die Verarbeitungseinrichtung ferner enthält:
eine Y-Verarbeitungseinrichtung zum Verarbeiten der Y-
Komponente bei einer ersten Auflösung,
eine I-Verarbeitungseinrichtung zum Verarbeiten der in-
Komponente bei einer zweiten Auflösung und
eine Q-Verarbeitungseinrichtung zum Verarbeiten der Q-
Komponente bei der zweiten Auflösung, wobei die erste
Auflösung größer als die zweite Auflösung ist.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US07/135,059 US4965745A (en) | 1987-12-18 | 1987-12-18 | YIQ based color cell texture |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3853664D1 DE3853664D1 (de) | 1995-06-01 |
DE3853664T2 true DE3853664T2 (de) | 1996-01-18 |
Family
ID=22466338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE3853664T Expired - Lifetime DE3853664T2 (de) | 1987-12-18 | 1988-12-16 | Farbzellentextur. |
Country Status (5)
Country | Link |
---|---|
US (1) | US4965745A (de) |
EP (1) | EP0321290B1 (de) |
JP (1) | JP2923648B2 (de) |
DE (1) | DE3853664T2 (de) |
IL (1) | IL88030A (de) |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5459823A (en) * | 1990-07-05 | 1995-10-17 | Canon Kabushiki Kaisha | Graphics engine for true colour 2D graphics |
JP3082289B2 (ja) * | 1991-05-14 | 2000-08-28 | 富士ゼロックス株式会社 | 画像処理装置 |
US5347620A (en) * | 1991-09-05 | 1994-09-13 | Zimmer Mark A | System and method for digital rendering of images and printed articulation |
JPH06510145A (ja) * | 1991-09-05 | 1994-11-10 | ジマー,マーク,アラン | 像と印刷の明瞭度のディジタル表現のシステムと方法 |
US5408603A (en) * | 1992-03-31 | 1995-04-18 | Dow Benelux N.V. | Global process control information system and method |
US5428769A (en) * | 1992-03-31 | 1995-06-27 | The Dow Chemical Company | Process control interface system having triply redundant remote field units |
US5608851A (en) * | 1992-06-17 | 1997-03-04 | Toppan Printing Co., Ltd. | Color variation specification method and a device therefor |
US5262847A (en) * | 1992-10-20 | 1993-11-16 | International Business Machines Corporation | Method of converting luminance-color difference video signal to a three color component video signal |
US5966454A (en) * | 1995-09-14 | 1999-10-12 | Bentley Mills, Inc. | Methods and systems for manipulation of images of floor coverings or other fabrics |
TW316965B (de) * | 1995-10-31 | 1997-10-01 | Cirrus Logic Inc | |
US5808690A (en) * | 1996-01-02 | 1998-09-15 | Integrated Device Technology, Inc. | Image generation system, methods and computer program products using distributed processing |
US5892517A (en) * | 1996-01-02 | 1999-04-06 | Integrated Device Technology, Inc. | Shared access texturing of computer graphic images |
US5850489A (en) * | 1996-01-02 | 1998-12-15 | Integrated Device Technology, Inc. | Linear expression evaluator |
US5831625A (en) * | 1996-01-02 | 1998-11-03 | Integrated Device Technology, Inc. | Wavelet texturing |
US6108460A (en) * | 1996-01-02 | 2000-08-22 | Pixelfusion Limited | Load balanced image generation |
US5822452A (en) * | 1996-04-30 | 1998-10-13 | 3Dfx Interactive, Inc. | System and method for narrow channel compression |
US5808621A (en) * | 1996-04-30 | 1998-09-15 | 3Dfx Interactive, Incorporated | System and method for selecting a color space using a neural network |
US6104842A (en) * | 1996-06-10 | 2000-08-15 | Integrated Device Technology, Inc. | Geometry processing of digital video models and images |
US5936635A (en) * | 1996-06-28 | 1999-08-10 | Cirrus Logic, Inc. | System and method of rendering polygons into a pixel grid |
TW348239B (en) * | 1996-06-28 | 1998-12-21 | Cirrus Logic Inc | Embedding a transparency enable bit as part of a resizing bit block transfer operation |
US5793386A (en) * | 1996-06-28 | 1998-08-11 | S3 Incorporated | Register set reordering for a graphics processor based upon the type of primitive to be rendered |
US5828382A (en) * | 1996-08-02 | 1998-10-27 | Cirrus Logic, Inc. | Apparatus for dynamic XY tiled texture caching |
US6348917B1 (en) | 1996-09-30 | 2002-02-19 | Cirrus Logic, Inc | Dynamic switching of texture mip-maps based on depth |
US5987582A (en) * | 1996-09-30 | 1999-11-16 | Cirrus Logic, Inc. | Method of obtaining a buffer contiguous memory and building a page table that is accessible by a peripheral graphics device |
US5875295A (en) * | 1996-09-30 | 1999-02-23 | S3 Incorporated | Instruction format for ensuring safe execution of display list |
US5841442A (en) * | 1996-12-30 | 1998-11-24 | Cirrus Logic, Inc. | Method for computing parameters used in a non-homogeneous second order perspective texture mapping process using interpolation |
US6088016A (en) * | 1996-12-30 | 2000-07-11 | S3 Incorporated | Dithering method and apparatus using ramp probability logic |
US5835097A (en) * | 1996-12-30 | 1998-11-10 | Cirrus Logic, Inc. | Non-homogenous second order perspective texture mapping using linear interpolation parameters |
US6333746B1 (en) | 1996-12-30 | 2001-12-25 | Cirrus Logic, Inc. | Auto level of detail texture mapping for a software graphics engine |
US6157386A (en) * | 1997-10-10 | 2000-12-05 | Cirrus Logic, Inc | MIP map blending in a graphics processor |
US5844576A (en) * | 1996-12-30 | 1998-12-01 | Cirrus Logic, Inc. | Tiled linear host texture storage |
US5986663A (en) * | 1997-10-10 | 1999-11-16 | Cirrus Logic, Inc. | Auto level of detail-based MIP mapping in a graphics processor |
US6052127A (en) * | 1996-12-30 | 2000-04-18 | Cirrus Logic, Inc. | Circuit for determining non-homogenous second order perspective texture mapping coordinates using linear interpolation |
US5796385A (en) * | 1997-01-28 | 1998-08-18 | Integrated Device Technology, Inc. | Luminance controlled color resolution reduction |
US5949426A (en) * | 1997-01-28 | 1999-09-07 | Integrated Device Technology, Inc. | Non-linear texture map blending |
US5977983A (en) * | 1997-02-20 | 1999-11-02 | S3 Incorporated | Method and apparatus for adjusting graphics processing procedures based on a selectable speed/quality gauge |
US5929869A (en) * | 1997-03-05 | 1999-07-27 | Cirrus Logic, Inc. | Texture map storage with UV remapping |
US6072508A (en) * | 1997-03-14 | 2000-06-06 | S3 Incorporated | Method and apparatus for shortening display list instructions |
US6028613A (en) * | 1997-03-20 | 2000-02-22 | S3 Incorporated | Method and apparatus for programming a graphics subsystem register set |
US6130674A (en) * | 1997-03-31 | 2000-10-10 | Cirrus Logic, Inc. | Dynamically selectable texture filter for computer graphics |
US5949421A (en) * | 1997-03-31 | 1999-09-07 | Cirrus Logic, Inc. | Method and system for efficient register sorting for three dimensional graphics |
US5978895A (en) * | 1997-04-04 | 1999-11-02 | Cirrus Logic, Inc. | Method for speeding mathematical operations in a processor core |
US5835104A (en) * | 1997-04-23 | 1998-11-10 | S3 Incorporated | Variable band size compositing buffer method and apparatus |
US5940090A (en) * | 1997-05-07 | 1999-08-17 | Cirrus Logic, Inc. | Method and apparatus for internally caching the minimum and maximum XY pixel address values in a graphics subsystem |
US6266753B1 (en) | 1997-07-10 | 2001-07-24 | Cirrus Logic, Inc. | Memory manager for multi-media apparatus and method therefor |
US6181347B1 (en) | 1997-09-17 | 2001-01-30 | Cirrus Logic, Inc. | Selectable mode smoothing texture filter for computer graphics |
US6054993A (en) * | 1997-09-17 | 2000-04-25 | Cirrus Logic, Inc. | Chroma-keyed specular texture mapping in a graphics processor |
US6775417B2 (en) | 1997-10-02 | 2004-08-10 | S3 Graphics Co., Ltd. | Fixed-rate block-based image compression with inferred pixel values |
US6002409A (en) * | 1997-10-29 | 1999-12-14 | Cirrus Logic, Inc. | Arbitration for shared graphics processing resources |
US6002407A (en) | 1997-12-16 | 1999-12-14 | Oak Technology, Inc. | Cache memory and method for use in generating computer graphics texture |
US6252606B1 (en) | 1998-06-30 | 2001-06-26 | Cirrus Logic, Inc. | Error correction in a graphics processor |
US6259455B1 (en) | 1998-06-30 | 2001-07-10 | Cirrus Logic, Inc. | Method and apparatus for applying specular highlighting with specular components included with texture maps |
US7058218B1 (en) * | 1998-09-28 | 2006-06-06 | Silicon Graphics, Inc. | Method of and apparatus for compressing and uncompressing image data |
US6518974B2 (en) * | 1999-07-16 | 2003-02-11 | Intel Corporation | Pixel engine |
US20030142107A1 (en) * | 1999-07-16 | 2003-07-31 | Intel Corporation | Pixel engine |
US7400333B1 (en) * | 2000-03-16 | 2008-07-15 | Matrox Graphics Inc. | Video display system with two controllers each able to scale and blend RGB and YUV surfaces |
JP4139154B2 (ja) * | 2001-08-30 | 2008-08-27 | 株式会社リコー | 画像通信装置 |
EP1442450A2 (de) * | 2001-10-19 | 2004-08-04 | Koninklijke Philips Electronics N.V. | Farbbild-anzeigeverfahren und verarbeitungsvorrichtung und eine anzeigevorrichtung mit einer solchen farbbildverarbeitungsvorrichtung |
GB2393887B (en) * | 2002-10-04 | 2005-10-26 | Criterion Software Ltd | Three-dimensional computer graphics |
JP4902467B2 (ja) * | 2007-08-24 | 2012-03-21 | 三菱電機株式会社 | 加熱調理器 |
US20100225567A1 (en) * | 2009-03-03 | 2010-09-09 | Time-O-Matic, Inc. | Electronic display |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5941222B2 (ja) * | 1978-08-30 | 1984-10-05 | 株式会社日立製作所 | 図形表示装置 |
US4319267A (en) * | 1979-02-16 | 1982-03-09 | Nippon Telegraph And Telephone Public Corporation | Picture coding and/or decoding equipment |
US4459677A (en) * | 1980-04-11 | 1984-07-10 | Ampex Corporation | VIQ Computer graphics system |
US4564915A (en) * | 1980-04-11 | 1986-01-14 | Ampex Corporation | YIQ Computer graphics system |
US4475161A (en) * | 1980-04-11 | 1984-10-02 | Ampex Corporation | YIQ Computer graphics system |
DE3015141C2 (de) * | 1980-04-19 | 1985-10-03 | Deutsche Itt Industries Gmbh, 7800 Freiburg | Farbfernseh-Empfänger mit mindestens einer integrierten Schaltung für das Luminanzsignal und die Chrominanzsignale |
JPS574084A (en) * | 1980-06-11 | 1982-01-09 | Hitachi Electronics | Visibility simulator for simulated visual field device |
US4606625A (en) * | 1983-05-09 | 1986-08-19 | Geshwind David M | Method for colorizing black and white footage |
US4593355A (en) * | 1983-11-21 | 1986-06-03 | American Science And Engineering, Inc. | Method of quick back projection for computed tomography and improved CT machine employing the method |
US4595951A (en) * | 1983-11-29 | 1986-06-17 | Rca Corporation | Teletext decoder using a common memory |
DE3466817D1 (en) * | 1984-02-15 | 1987-11-19 | Ibm | Colour display apparatus and method of coding a colour image |
US4613948A (en) * | 1984-06-01 | 1986-09-23 | Bell Communications Research, Inc. | Conditional quantization grey level and color image coding apparatus |
JPS60262279A (ja) * | 1984-06-08 | 1985-12-25 | Hitachi Ltd | データ変換方法 |
JPS6292992A (ja) * | 1985-10-18 | 1987-04-28 | 富士通株式会社 | フレ−ムメモリ装置 |
JPS62296193A (ja) * | 1986-06-17 | 1987-12-23 | 富士通株式会社 | 多階調色用のビツトマツプ表示装置 |
US4740832A (en) * | 1986-10-14 | 1988-04-26 | Technology, Inc., 64 | Image storage using separately scanned luminance and chrominance variables |
US4905164A (en) | 1986-12-19 | 1990-02-27 | General Electric Company | Method for modulating color for effecting color cell texture |
-
1987
- 1987-12-18 US US07/135,059 patent/US4965745A/en not_active Expired - Lifetime
-
1988
- 1988-10-13 IL IL88030A patent/IL88030A/xx active Protection Beyond IP Right Term
- 1988-12-06 JP JP63307082A patent/JP2923648B2/ja not_active Expired - Lifetime
- 1988-12-16 EP EP88311958A patent/EP0321290B1/de not_active Expired - Lifetime
- 1988-12-16 DE DE3853664T patent/DE3853664T2/de not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2923648B2 (ja) | 1999-07-26 |
EP0321290A2 (de) | 1989-06-21 |
US4965745A (en) | 1990-10-23 |
IL88030A (en) | 1993-01-14 |
JPH021894A (ja) | 1990-01-08 |
DE3853664D1 (de) | 1995-06-01 |
EP0321290B1 (de) | 1995-04-26 |
EP0321290A3 (de) | 1991-07-03 |
IL88030A0 (en) | 1989-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3853664T2 (de) | Farbzellentextur. | |
DE69524542T2 (de) | Farbkorrekturverfahren und -vorrichtung | |
DE69532016T2 (de) | Bildverarbeitungsgerät und -verfahren | |
DE3854108T2 (de) | Farbilddatenkorrekturverfahren zur Erzielung von Probendruckbildern. | |
DE69230284T2 (de) | Indizierte Bearbeitung von Farbbilddaten | |
DE3750286T2 (de) | Farbpassendes Drucken. | |
DE69324899T2 (de) | Farbangleichungsverfahren und -Gerät | |
DE3853393T2 (de) | Verfahren und Vorrichtung zur zweidimensionalen Bilderstellung. | |
DE69522594T2 (de) | Farbbildverarbeitungsverfahren | |
DE69131119T2 (de) | Farbbildverarbeitung | |
DE68915232T2 (de) | Anzeigegerät mit einem geordneten Zittermuster. | |
DE69833531T2 (de) | Vollszenen-Antialiasing mit verbesserten Überabtastungstechniken | |
DE69417930T2 (de) | Verfahren für die Farbbildreproduktion | |
DE69319848T2 (de) | Verfahren und Einrichtung zur Erzeugung und Anzeige von genauen Farbbildern auf einem Rechnerbildschirm | |
DE68928744T2 (de) | Verfahren zum senkrechten Filtern bei rasterabgetasteten Anzeigevorrichtungen | |
DE69118162T2 (de) | Farbgekoppelte Fehlerdiffusion | |
DE69420874T2 (de) | Verfahren zur geräteübergreifenden Farbbildkalibrierung und -verbesserung | |
DE69514596T2 (de) | Farbbildkorrektursystem mit tetrahaedrischer Interpolation über einen hexagonalen Verbund | |
DE3486494T2 (de) | Graphisches Musterverarbeitungsgerät | |
DE69708270T2 (de) | Videobildmischung in einem heimkommunikationsterminal | |
DE69428061T2 (de) | Paralleles Fehlerdiffusionsverfahren und -gerät | |
DE19654715B4 (de) | Verfahren und Vorrichtung zur Farbverarbeitung für eine farbige Anzeigevorrichtung | |
DE69225574T2 (de) | Farbbildverarbeitung | |
DE69126014T2 (de) | Farbbildverarbeitungssystem und verfahren zur vorbereitung eines zusammengesetzten bildtransformationsmoduls für mehrere ausgewählte bildtransformationen | |
DE3854753T2 (de) | Einrichtung und Verfahren zur Farbbildverbesserung. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: INTEL CORP., SANTA CLARA, CALIF., US |
|
8328 | Change in the person/name/address of the agent |
Representative=s name: ROEGER UND KOLLEGEN, 73728 ESSLINGEN |