DE69331031T2 - Vorrichtung zur parallelen Bilderzeugung - Google Patents

Vorrichtung zur parallelen Bilderzeugung

Info

Publication number
DE69331031T2
DE69331031T2 DE69331031T DE69331031T DE69331031T2 DE 69331031 T2 DE69331031 T2 DE 69331031T2 DE 69331031 T DE69331031 T DE 69331031T DE 69331031 T DE69331031 T DE 69331031T DE 69331031 T2 DE69331031 T2 DE 69331031T2
Authority
DE
Germany
Prior art keywords
image
data
pixel
merging
pixel data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69331031T
Other languages
English (en)
Other versions
DE69331031D1 (de
Inventor
Minobu Abe
Makoto Hirai
Tadashi Kobayashi
Kiyoshi Maenobu
Jiro Minehisa
Toshiya Naka
Akio Nishimura
Kenji Nishimura
Kazu Segawa
Yorihiko Wakayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP4199391A external-priority patent/JP2780575B2/ja
Priority claimed from JP25102892A external-priority patent/JPH06103385A/ja
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Application granted granted Critical
Publication of DE69331031D1 publication Critical patent/DE69331031D1/de
Publication of DE69331031T2 publication Critical patent/DE69331031T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • G06T15/405Hidden part removal using Z-buffer

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Generation (AREA)

Description

    1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Vorrichtung zu parallelen Bilderzeugung und insbesondere eine Vorrichtung zum Erzeugen dreidimensionaler Bilder basierend auf geometrischen Daten, die durch dreidimensionale Koordinaten definiert sind.
  • 2. Beschreibung des Standes der Technik
  • In den letzten Jahren wurden zusehends Technologien zum Erzeugen dreidimensionaler (3D) Bilder entwickelt, die von irgendeiner Position aus betrachtet werden können, basierend auf geometrischen Daten eines Objekts, die durch 3D-Koordinaten ausgedrückt werden. Diese Technologien sind ein besonders effektives Werkzeug beim Produktdesign, beim Erzeugen von speziellen Videoeffekten in Filmen und Fernsehübertragungen und in der Simulation von physikalischen Phänomenen.
  • Eine typische Bilderzeugungsvorrichtung nach dem Stand der Technik ist in Fig. 2 gezeigt. Geometrische Daten, die das anzuzeigende Objekt darstellen, werden in 3D-Koordinaten in dem geometrischen Datenpuffer 21 gespeichert und dem Bildgenerator 22 ausgegeben. Die geometrischen Daten sind üblicherweise ein Satz von kleinen geometrischen Formen ("Grundelementen"), die einfach gehandhabt werden können, und die Grundelemente sind üblicherweise Polygone. Mit anderen Worten, wird jedes Objekt als ein Satz von Polygonen ausgedrückt. Der Bildgenerator verarbeitet und manipuliert die geometrischen Daten, um das Anzeigenbild zu erzeugen. Datenverarbeitungsmethoden, die in der Bilderzeugung verwendet werden, sind im Detail in der Literatur beschrieben z.B. Computer Graphics PRINCIPLES AND PRACITCES, Foley, von Dam, Feiner, Hughes; Addison-Wesley Publ. Co. (1990). In einem verbreiteten Verfahren werden die Eingangsgrundelemente in die Koordinaten des Schirmkoordinatensystems mittels eines Koordinatenkonverters 23 konvertiert. Die Intensität von jedem Pixel, die das erzeugte Bild bilden, wird durch den Pixeldatengenerator 24 berechnet basierend auf den Grundelementen, die den Pixelraum belegen, und die Oberflächenattribute der Grundelemente und solchen Außenumgebungsattributen, wie der Lichtquelle. Vorausgewählte Bilddaten können zu diesem Zeitpunkt in Bezug genommen werden, um spezielle Bildeffekte (wie Strukturabbildung) auf die Grundelemente anzuwenden.
  • Die Verarbeitungszeit ist ungefähr proportional zu der Anzahl von Grundelementen in dem Koordinatenumwandlungsprozess und zu der Anzahl von Pixel, für die die Intensität in dem Bilderzeugungsprozess berechnet werden muss. Wenn sich viele Grundelemente auf ein Pixel in dem Bild beziehen, muss das vorderste Grundelement ausgewählt werden, um die Pixelintensität gemäß den Oberflächenattributen des ausgewählten Grundelements zu berechnen. Das erzeugte Bild wird schließlich durch die Anzeigenvorrichtung ZS dargestellt.
  • Zusätzlich zu der gewaltigen Anzahl von numerischer Verarbeitung, die für diesen Bilderzeugungsprozess erforderlich ist, müssen große Mengen geometrischer Daten verwendet werden, um realistische Bilder zu erzeugen, und eine extreme Hochgeschwindigkeitsbilderzeugung ist für bestimmte Typen von Simulatoren notwendig. In einer Bilderzeugungsvorrichtung, wie in Fig. 2 gezeigt, ist es praktisch unmöglich, die erforderliche Bilderzeugungskapazität mit einer einzelnen Vorrichtung zu erhalten. Daher werden mehrere derartige Bilderzeugungsvorrichtungen parallel betrieben, um die Bilderzeugungsfähigkeit zu verbessern. Ein Verfahren hierfür ist im Detail beschrieben in State of the Art in Computer Graphics (David F. Rogers, Rae A. Earnshaw, eds., Springer-Verlag New York Inc. (1991)).
  • WO-A-92/09947 offenbart eine Vorrichtung zur parallelen Bilderzeugung, die aufweist: dreidimensionale Daten-Erzeugungsmittel zum Erzeugen von dreidimensionalen geometrischen Daten eines Objekts;
  • Verteilungsmittel zum Verteilen dieser dreidimensionalen geometrischen Daten in N (wobei N ein ganzzahliger Wert größer als eins ist) partielle geometrische Daten;
  • erste bis N-te geometrische Datenpuffer zum jeweiligen Speichernder N partiellen geometrischen Daten;
  • erste bis N-te Vereinigungsanordnungen, die jeweils mit den ersten bis N-ten Bilderzeugungsanordnungen verbunden sind, wobei die ersten bis N-ten Bildvereinigungsanordnungen ebenfalls in Serie verbunden sind, die i-te Bildvereinigungsanordnung die ausgegeben vereinigten Daten von der (i-1)-ten Bildvereinigungsanordnung und die partiellen Bilddaten von der i-ten Bilderzeugungsanordnung vereinigt; und
  • Zeitsteuerungsmittel, die mit den ersten bis N-ten Bildvereinigungsanordnungen verbunden sind, zum Steuern der Vereinigungszeiteinteilung in den ersten bis Nten Bildvereinigungsanordnungen, so dass die i-te Bildvereinigungsanordnung die Vereinigungsoperation eines Pixels ausführt, nachdem die (i-1)-te Bildvereinigungsanordnung die Vereinigungsoperation desselben Pixels durchgeführt hat.
  • Eine Vorrichtung zur parallelen Bilderzeugung unter Verwendung eines herkömmlichen parallelen Verarbeitungsverfahrens wird nachfolgend unter Bezugnahme auf Fig. 3, ein Blockdiagramm einer herkömmlichen Vorrichtung zur parallelen Bilderzeugung, beschrieben.
  • Die geometrischen Datenpuffer 31 halten einen Teil (jeweils 1/4 in dem Beispiel in Fig. 3) der geometrischen Daten des anzuzeigenden Objekts. Ein Bildgenerator 32 ist mit jedem der geometrischen Datenpuffer 31 verbunden. Der Pixeldatenpuffer 33 weist Speicherbereiche auf zum Speichern der Attribute von jedem Pixel in dem erzeugten Bild und der Distanz (Tiefenwert) von jedem Pixel von dem Betrachtungspunkt. Diese Puffer werden als der "Einzelbildpuffer" und der "Z- Puffer" bezeichnet. Die Pixelattribute können z.B. die roten, grünen und blauen (RGB) Intensitätswerte einschließen.
  • Der Betrieb dieser Vorrichtung zur parallelen Bilderzeugung wird nachfolgend beschrieben. Ein Viertel der gesamten geometrischen Daten wird jedem der Bildgeneratoren 32 eingegeben, von denen jeder separat das Bilderzeugungsverfahren auf die eingegebenen Daten anwendet, um die Attribute und den Tiefenwert von jedem Pixel zu berechnen. Jeder Bildgenerator 32 weist einen Bildpuffer (Strukturpuffer) zur Strukturabbildung auf, um auf diese Weise eine Strukturabbildung zu ermöglichen, die durch Bildpufferreferenzierung angewendet wird. Jeder Bildgenerator 32 gibt an den Pixeldatenpuffer 33 aus. Der Pixeldatenpuffer 33 vergleicht die eingegebenen Tiefenwerte mit den in dem Z-Puffer 35 gespeicherten Tiefenwerten und schreibt den Eingangswert zu dem gespeicherten Tiefenwerten und schreibt den Eingangswert zu dem entsprechenden Pixel in den Z-Puffer 35 und den Einzelbildpuffer 34, nur wenn der eingegebene Tiefenwert kleiner ist als der gepufferte Wert. Wenn alle Pixeldaten eingegeben und ein Bild vervollständigt wurde, werden die Inhalte der Einzelbildpuffer 34 an das Bildanzeigegerät 36 ausgegeben, das das Bild anzeigt.
  • Es ist zu beachten, dass, während das Beispiel in Fig. 3 mit mehreren geometrischen Datenpuffern beschrieben ist, es auch möglich ist, dass ein einzelner geometrischer Datenpuffer die geometrischen Daten an mehrere Bildgeneratoren verteilt. · Der Betrieb von dem Bildgenerator in diesem Fall ist jedoch der gleiche wie der oben beschriebene.
  • Ein zweites Beispiel einer herkömmlichen Vorrichtung zur parallelen Bilderzeugung ist in Fig. 4 gezeigt. In diesem Beispiel gibt es einen geometrischen Datenpuffer 31, der verwendet wird, um alle geometrischen Daten für das anzuzeigende Objekt zu puffern. Mehrere Bildgeneratoren 42 sind mit dem einzigen geometrischen Datenpuffer 41 verbunden. Der Pixelauswähler 43 wählt die erforderlichen Pixeldaten von den Pixeldaten aus, die von den mehreren Bildgeneratoren 42 ausgegeben wurden, und gibt das Ergebnis an das Bilderzeugungsgerät 44 aus.
  • Der Betrieb dieser Vorrichtung zur parallelen Bilderzeugung wird nachfolgend beschrieben. Der geometrische Datenpuffer 41 gibt die geometrischen Daten an mehrere Bildgeneratoren 42 aus. In dieser Vorrichtung werden jedoch alle geometrischen Daten von dem geometrischen Datenpuffer 41 an alle Bildgeneratoren 42 ausgegeben, anstatt dass die geometrischen Daten verteilt werden. Daher werden die gleichen geometrischen Daten an jedem Bildgenerator 42 eingeben.
  • Der Bildgenerator 42 erzeugt intern nur einen Teil der Pixeldaten für das erzeugte Bild, insbesondere ein Viertel der Pixeldaten in diesem Beispiel. Ferner wird jede erforderliche Strukturabbildung ebenfalls angewendet. Es gibt zwei gebräuchliche Verfahren, die für diese interne Pixelzuweisung verwendet werden, wie in den Fig. 5 (a) und 5 (b) gezeigt. In dem in Fig. 5 (a) gezeigten Verfahren wird der gesamte Bildbereich in vier Regionen unterteilt und jeder Bildgenerator 42 verarbeitet eine Region. In dem in Fig. 5 (b) gezeigten Verfahren wird das Bild in extrem kleine Bereiche (typischerweise äquivalent zu jeweils einem Pixel) unterteilt und diese Bereiche werden dem Bildgenerator 42 zugeordnet, so dass benachbarte Bereiche nicht demselben Bildgenerator 42 zugeteilt werden.
  • Wegen der Komplexität des Kommunikationsbusses, wenn ein geometrischer Datenpuffer 41 an mehrere (vier in Fig. 4) Bildgeneratoren 42 ausgibt und die Anzahl von Bildgeneratoren 42 groß wird, ist es auch möglich, eine gleiche Anzahl von geometrischen Datenpuffern und den Bildgenerator für einen einfachen 1 : 1 Kommunikationsbus bereitzustellen. Man beachte, dass in diesem Fall alle der geometrischen Datenpuffer den gleichen geometrischen Dateninhalt speichern. Der Pixelauswähler 43 wählt die erforderlichen Pixeldaten von den Ausgängen der mehrfachen Bildgeneratoren 42 aus und gibt das Resultat an das Bildanzeigegerät 44 aus.
  • Die ideale Paralleldatenverarbeitungsvorrichtung erhält eine der Anzahl von parallelen Verarbeitungseinheiten (d.h. eine n-fache Zunahme in der Verarbeitungskapazität für n Bildgeneratoren) proportionale Verarbeitungskapazität und ermöglicht eine unbegrenzte Zunahme in der Anzahl von parallelen Verarbeitungseinheiten. Wie nachfolgend beschrieben, erreichen die oben beschriebenen Vorrichtungen zur parallelen Bilderzeugung jedoch nicht dieses Ideal.
  • In dem ersten herkömmlichen, in Fig. 3 gezeigten Beispiel geben alle Bildgeneratoren 32 die Pixeldaten an einen Pixeldatenpuffer 33 aus. Der Einzelbildpuffer 34 und Z-Puffer 35 werden üblicherweise unter Verwendung einer Halbleiterspeichereinrichtung erhalten und gleichzeitiges Lesen oder Schreiben einer großen Anzahl von Daten ist nicht möglich. Es ist daher erforderlich, eine Art von Arbiter bereitzustellen, um zu verhindern, dass die Mehrzahl von Bildgeneratoren gleichzeitig ausgeben. Dies erzeugt einen Verlust an Bilderzeugungseffizienz, da die Pixeldatenausgabe von dem Bildgenerator 32 unterbrochen wird, wenn der Arbiter in Betrieb ist. Die Effizienz verschlechtert sich weiter, wenn die Anzahl der Bildgeneratoren 32 erhöht wird, da die Frequenz der simultanen Pixeldatenausgabe ebenfalls erhöht wird. Folglich gibt es offenbar eine Grenze für die mögliche Zunahme der Anzahl von parallelen Verarbeitungseinheiten. In dem zweiten, in Fig. 4 gezeigten Beispiel gibt es keine Reduktion in der Koordinatenumwandlungsverarbeitungszeit, da die gleichen geometrischen Daten an alle Bildgeneratoren eingegeben werden. Z.B. reduziert der parallele Betrieb von vier parallelen Verarbeitungseinheiten, wie in Fig. 4 gezeigt, einfach die Pixelerzeugungszeit auf ¹/&sub4;, was in einer gesamten Bilderzeugungszeit von 518 resultiert, falls das Verhältnis der Zeit, die für die Koordinatenumwandlungsverarbeitung erforderlich ist, zu der Zeit, die für die Pixelerzeugungsverarbeitung erforderlich ist, zu 1 : 1 angenommen wird.
  • Es ist auch möglich, die Vorrichtung zur parallelen Koordinatenumwandlungsverarbeitung unter Verwendung von Grundelementen mit der Vorrichtung zur parallelen Pixelerzeugungsverarbeitung unter Verwendung von Pixeleinheiten zu kombinieren. In diesem Fall wird jedoch der Kommunikationsbus von dem Koordinatenkonverter zu dem Pixeldatengenerator zunehmend komplex, da die Anzahl von parallelen Verarbeitungseinheiten zunimmt, und es ist in der Praxis nicht möglich, die Anzahl von parallelen Verarbeitungseinheiten unbegrenzt zu erhöhen.
  • Wenn auch der Bedarf für eine Strukturabbildung berücksichtigt wird, muss die Vorrichtung derart strukturiert werden, um die gleichen Texturabbildungsdaten in allen parallelen Verarbeitungseinheiten zu speichern, oder um allen parallelen Verarbeitungseinheiten zu ermöglichen, auf einen einzelnen Strukturpuffer zuzugreifen, da die Strukturabbildung die von den parallelen Verarbeitungseinheiten angewendet wird. Da ein Hochgeschwindigkeits-Abbildungspuffer mit hoher Kapazität erforderlich ist, erhöht die Bereitstellung einer gleichen Anzahl von Abbildungspuffern und parallelen Verarbeitungseinheiten den Umfang der Vorrichtung zur Bilderzeugung erheblich. Zusätzlich erfordert die Verwendung eines einzelnen Strukturpuffers einen komplexen Kommunikationsbus und einen Arbiter, so dass auf diese Weise eine unbegrenzte Zunahme in der Anzahl von parallelen Verarbeitungseinheiten verhindert wird.
  • Es ist daher das Ziel der vorliegenden Erfindung, eine Vorrichtung zur parallelen Bilderzeugung bereitzustellen, die eine Verarbeitungskapazität proportional zu der Anzahl von parallelen Verarbeitungseinheiten erzielen kann und eine unbegrenzte Zunahme in der Anzahl paralleler Verarbeitungseinheiten ermöglicht.
  • Um diese Ziel zu erreichen, wird eine Vorrichtung zur parallelen Bilderzeugung gemäß der vorliegenden Erfindung im beigefügten Anspruch 1 dargelegt.
  • Eine Vorrichtung für parallele Bilderzeugung gemäß der vorliegenden Erfindung kann daher die Verarbeitungskapazität proportional zu der Anzahl von parallelen Verarbeitungseinheiten erhöhen und ermöglicht die unbeschränkte Hinzufügung von parallelen Verarbeitungseinheiten durch Verbinden mehrerer geometrischer Datenpuffer, mehrerer Bildgeneratoren, die 1 : 1 mit den geometrischen Datenpuffern verbunden sind, und mehreren Bildvereinigern, die in Serie mit den Bildgeneratoren mit einem Anzeigengerät verbunden sind, das mit dem Ende der Serienschaltung verbunden ist.
  • Die vorliegende Erfindung wird weiter verdeutlicht anhand der nachfolgend gegebenen detaillierten Beschreibung und den beigefügten Diagrammen, wobei:
  • Fig. 1 ein Blockdiagramm einer Vorrichtung zur parallelen Bilderzeugung gemäß dem ersten Ausführungsbeispiel der vorliegenden Erfindung ist;
  • Fig. 2 ein Blockdiagramm einer Vorrichtung zur Bilderzeugung gemäß dem Stand der Technik ist;
  • Fig. 3 ein Blockdiagramm eines Beispiels einer Vorrichtung für parallele Bilderzeugung gemäß dem Stand der Technik ist;
  • Fig. 4 ein Blockdiagramm eines zweiten Beispiels einer Vorrichtung zur parallelen Bilderzeugung gemäß dem Stand der Technik ist,
  • Fig. 5a und Fig. 5b Darstellungen sind, die zwei Verfahren zum Aufteilen des verarbeiteten Bildes durch eine Vorrichtung zur parallelen Bildverarbeitung gemäß dem Stand der Technik zeigen,
  • Fig. 6a eine grafische Darstellung ist, die dreidimensionale Bilder eines Bechers für die 'Bildverarbeitung zeigt,
  • Fig. 6b eine schematische Ansicht ist, welche die Datenaufteilung des Becherbildes zeigt,
  • Fig. 6c ein Blockdiagramm des Bildgenerators gemäß dem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung ist,
  • Fig. 6d eine schematische Ansicht ist, welche die Bilder zeigen, welche in verschiedene Stufen in der Vorrichtung der vorliegenden Erfindung gebildet werden können,
  • Fig. 7 ein Blockdiagramm eines Bildvereinigers gemäß dem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung ist,
  • Fig. 8 ein Blockdiagramm der Strukturabbildung gemäß dem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung ist,
  • Fig. 9a und 9b Darstellungen des dem Bildvereiniger eingegebenen Pixeldatenstroms sind, und
  • Fig. 10 ein Blockdiagramm einer Vorrichtung zur parallelen Bilderzeugung gemäß dem zweiten Ausführungsbeispiel der vorliegenden Erfindung ist.
  • Das erste Ausführungsbeispiel einer Vorrichtung zur parallelen Bilderzeugung gemäß der vorliegenden Erfindung wird nachfolgend unter Bezugnahme auf die beigefügten Fig. 1 und die Fig. 6 bis 9 beschrieben.
  • Wie in Fig. 1 gezeigt, weist die parallele Bilderzeugungsvorrichtung einen dreidimensionalen Datengenerator 9, einen Datenverteiler 10, mehrere, wie z.B. vier, geometrische Datenpuffer 11a, 11b, 19c und 11d, vier Bildgeneratoren 12a, 12b, 12c und 12d, die jeweils mit den vier geometrischen Datenpuffern 11a, 11b, 11c und 11d verbunden sind, und vier Bildvereinigern 14a, 14b, 14c und 14d auf, die jeweils mit den vier Bildgeneratoren 12a, 12b, 12c und 12d verbunden sind. Die vier Bildvereiniger 14a, 14b, 14c und 14d sind in Serie zwischen einem Anfangsbildgenerator 15 und einer Strukturabbildungseinheit 16 verbunden. Ferner sind der Anfangsbildgenerator 15, die vier Bildvereiniger 14a, 14b, 14c und 14d und die Strukturabbildungseinheit 16 mit einer Zeitsteuerung 23 verbunden. Die Zeitsteuerung 23 kann getrennt in vier Bildvereiniger 14a, 14b, 14c und 14d bereitgestellt werden. Die Ausgabe der Strukturabbildungseinheit 16 ist mit einem Anzeigengerät, wie z.B. einer Farb-Kathodenstrahlröhre bzw. einer Farb-CRT 17 verbunden. Eine Betrachtungsrichtung-Einstelleinheit 19, eine Kopiereinheit 20, eine Vergrößerungseinheit 21 und eine Ort-Einstelleinheit 22 sind mit jedem der vier Bildgeneratoren 12a, 12b, 12c und 12d verbunden. Die Betrachtungsrichtung-Einstelleinheit 19 stellt die Betrachtungsrichtung des Objekts ein; die Kopieeinheit 20 stellt die Anzahl von in einem Einzelbild anzuzeigenden Objekten ein; die Vergrößerungseinheit stellt die Größe des anzuzeigenden Objekts ein; und die Ort-Einstelleinheit 22 stellt den Ort des anzuzeigenden Objekts ein.
  • Es ist zu beachten, dass der Anfangsbildgenerator 15 und die vier Bildvereiniger 14a, 14b, 14c und 14d eine Bildverarbeitungspipeline 13 definieren. Auch der geometrische Datenpuffer 11a, Bildgenerator 12a und Bildvereiniger 14a, die in Serie verbünden sind, definieren eine partielle Verarbeitungseinheit 18a. In dem in Fig. 1 gezeigten Ausführungsbeispiel sind vier partielle Verarbeitungseinheiten 18a, 18b, 18c und 18d.
  • Es ist zu beachten, dass während dieses Ausführungsbeispiel mit vier parallelen partiellen Verarbeitungseinheiten 18a, 18b, 18c und 18d beschrieben ist, die Anzahl der parallelen partiellen Verarbeitungseinheiten jedwede Anzahl gleich oder größer als 2 sein kann.
  • Wie in Fig. 6a gezeigt, wird angenommen, dass in dem vorliegenden Ausführungsbeispiel der dreidimensionale Datengenerator 9 dreidimensionale Daten (X&sub1;, Y&sub1;, Z&sub1;) von einem Objekt, wie einem Becher, in den lokalen Koordinaten und auch zweidimensionalen Oberflächendaten (U, V) des Bechers erzeugt. Genauer ausgeführt, ist die Oberfläche des Bechers in eine Mehrzahl von rechteckigen Segmenten S unterteilt und Daten (X&sub1;, Y&sub1;, Z&sub1;, U, V) werden für jeden der vier Eckpunkte P1, P2, P3 und P4 des Segments S erzeugt. Ein Beispiel der Daten (X&sub1;, Y&sub1;, Z&sub1;, U, V) die im Hinblick auf das Segment Sn erhalten wurden, wird nachfolgend in Tabelle 1 gegeben. Tabelle 1
  • Es werden Daten entsprechend den obigen für jedes Segment S erzeugt, um geometrische Daten des gesamten Bechers zu definieren. Die erzeugten geometrischen Daten werden dem Datenverteiler 10 zugeführt, von dem die geometrischen Daten an die vier Puffer 11a, 11b, 11c und 11d verteilt werden, von denen jedes durch eine Halbleiterspeichereinrichtung, Magnetdisk oder irgendein anderes Datenspeichergerät gebildet ist.
  • Es wird angenommen, dass nach der Verteilung durch den Verteiler 10 im Puffer 11a Daten des oberen linken Abschnitts des Bechers gespeichert werden, im Puffer 11b Daten des oberen rechten Abschnitts, im Puffer 11c Daten des unteren linken Abschnitts und im Puffer 11d Daten des unteren rechten Abschnitts, wie in Fig. 6b gezeigt.
  • Fig. 6c zeigt ein Detail des Bildgenerators 12a. Der Bildgenerator 12a hat einen Koordinatenkonverter 61, der einen ersten Koordinatenkonverter 61a und einen zweiten Koordinatenkonverter 61b, einen Pixeldatengenerator 62, einen ersten Einzelbildpuffer 64a, einen ersten Z-Puffer 65a, einen zweiten Einzelbildpuffer 64b, einen zweiten Einzelbildpuffer 65b und Schalter 66 und 67 einschließt. Die Einzelbildpuffer 64a und 64b sind jeweils mit Z-Komparatoren 68a und 68b verbunden. Zwei Sätze von Einzelbildpuffern und Z-Puffern definieren einen Pixeldatenpuffer 63.
  • Der erste Koordinatenkonverter 61a empfängt (X&sub1;, Y&sub1;, Z&sub1;, U, V)-Daten vom Puffer 11a und auch verschiedene Umwandlungsparameter von der Kopieeinheit 20 der Vergrößerungseinheit 21 und der Ort-Einstelleinheit 22 und konvertiert die in den lokalen Koordinaten ausgedrückten Daten (X&sub1;, Y&sub1;, Z&sub1;, U, V) in in Weltkoordinaten ausgedrückten Daten (X&sub1;, Y&sub1;, ZW, UW V). Daher stellen die in Weltkoordinaten ausgedrückten Daten (XW, YW, ZW, U, V) ein oder mehrere Objekte dar, die in einem hypothetischen Raum in einer räumlichen Anordnung angeordnet sind, die durch die Parameter der Einheiten 20, 21 und 22 bestimmt sind. Gemäß dem vorliegenden erläuternden Beispiel wird angenommen, dass ein Becher der Standardgröße auf der linken Seite des Schirms angeordnet ist. Daher wird in dem Bildgenerator 12a ein Viertel der Daten des Bechers verarbeitet.
  • Der zweite Koordinatenkonverter 61b empfängt die Daten (XW, YW, Zw, U, V) in den Weltkoordinaten und auch Umwandlungsparameter von der Betrachtungsrichtungseinstelleinheit 19 und konvertiert die Daten (XW, YW, ZW, U, V), die durch die Weltkoordinaten ausgedrückt sind, in Daten (XS, YS, ZS, U, V), die in Schirmkoordinaten ausgedrückt sind.
  • Die durch die Schirmkoordinaten (XS, YS, ZS, U, V) ausgedrückten geometrischen Daten stellen ein segmentorientiertes Bild des Objekts, d.h. des Bechers, in dem hypothetischen Raum dar, und zwar von einer ausgewählten Richtung betrachtet, die durch die Betrachtungsrichtung-Einstelleinheit 19 bestimmt wird. Mit anderen Worten bestimmt die Betrachtungsrichtung-Einstelleinheit 19 den Ort des Auges zum Betrachten der Ansicht in dem hypothetischen Raum.
  • Hier stellen die Daten ZS die Tiefe eines Pixelortes in dem Einzelbild dar. Mit anderen Worten stellen die Daten ZS den Abstand des Ortes des Auges zu dem Objekt dar, so dass je weiter das Objekt von dem Ort des Auges entfernt ist, desto größer die Daten ZS sind.
  • Die in den Schirmkoordinaten (XS, YS, ZS, U, V) ausgedrückten Daten bilden segmentorientierte Bilddaten für ein Einzelbild eines Fernsehschirms. Das überlappende Bild, d.h. die Vorderwand und die Rückwand des Bechers sind beide in den segmentorientierten Bilddaten enthalten. Die segmentorientierten Bilddaten (XS, YS, ZS, U, V), die in den Schirmkoordinaten ausgedrückt sind, werden dem Pixeldatengenerator 62 zugeführt.
  • In dem Pixeldatengenerator 62 werden die segmentorientierten Bilddaten (XS, YS, ZS, YS, U, V), die in Schirmkoordinaten ausgedrückt sind, in Pixeldaten durch Auffüllen von Pixeldaten (XS, YS, ZS, U, V) und XS, YS Daten geändert, die in Schirmkoordinaten ausgedrückt werden, innerhalb jedes Segments. Die Pixeldaten (ZS, U, V) werden seriell an einen der Einzelbildpuffer 64a und 64b übertragen, was durch die geschaltete Position des Schalters 66 bestimmt wird. Jeder der Puffer 64a, 65a, 64b und 65b hat eine genügend große Kapazität, um Daten eines Einzelbilds zu speichern.
  • Wenn von dem Pixeldatengenerator 62 erzeugte Pixeldaten gemäß den Daten XS, YS einem Ort in dem Einzelbildpuffer zugewiesen werden, in dem bereits zuvor erzeugte Pixeldaten gespeichert sind, würden die neu erzeugten Pixeldaten und die zuvor gespeicherten Pixeldaten den gleichen Ort belegen, so dass auf diese Weise diese zwei Pixeldaten, die dem gleichen Ort zugewiesen sind, als widerstreitende Pixeldaten bezeichnet werden. Die Z-Puffer 65a und. 65b sind jeweils mit Z-Komparatoren 68a und 68b zum Vergleichen des ZS-Werts von zwei widerstreitenden Pixeldaten gekoppelt. Anhand des Ergebnisses des Vergleichs werden die Pixeldaten mit dem größeren ZS-Wert entfernt, um die Bilddaten der verborgenen Seite zu löschen. Mit anderen Worten wird eine Entfernung der verborgenen Oberfläche durchgeführt, während Daten in dem Einzelbildpuffer gespeichert werden.
  • Durch Verwenden zweier Sätze von Einzelbild- und Z-Puffern können die Pixeldatenpuffer 63 die Pixeldaten von dem Pixeldatengenerator 62 simultan akkumulieren, während Pixeldaten an den Bildvereiniger 14a ausgegeben werden.
  • Schalter 66 und 67 arbeiten synchronisierend und befinden sich für die Dauer eines Einzelbilds in der in Fig. 6c gezeigten geschalteten Position und befinden sich während der nächsten Dauer eines Einzelbilds in der umgekehrt geschalteten Position. Auf diese Weise arbeiten die Schalter 66 und 67 simultan und werden abwechselnd zwischen den zwei geschalteten Positionen geschaltet. Während der in Fig. 6c gezeigten geschalteten Position werden die Einzelbild- Pixeldaten (ZS, U, V) sequentiell durch den Schalter 66 in den Puffern 64b und 65b gespeichert und zur selben Zeit werden die Einzelbildpixeldaten (ZS, U, V), die in dem vorherigen Einzelbildbetriebszyklus in den Puffern 64a und 65a gespeichert worden sind, sequentiell durch Schalter 67 und den Bildvereiniger 14a ausgelesen. Anschließend werden die Speicher 64a und 65a initialisiert, so dass sie zum Empfang der nächsten Einzelbildpixeldaten bereit sind.
  • Die Bildgeneratoren 126, 12c und 12d haben die gleiche Struktur wie der Bildgenerator 12a. Daher werden vier Abschnitte eines Einzelbild-Bildes parallel in vier Bildgeneratoren 12a, 12b, 12c und 12d verarbeitet.
  • Anstatt vier Einzelbildpuffer 64a, 64b, 65a und 65b zu verwenden, ist es möglich, vier Abtastlinienpuffer zu verwenden, so dass Puffer kleinerer Kapazität verwendet werden können.
  • Ebenfalls kann anstatt von rechteckigen Segmenten S irgendein anderes Polygonsegment, wie z.B. dreieckige Segmente, verwendet werden, um die segmentorientierten Bilddaten zu erzeugen.
  • Fig. 7 zeigt ein Detail des Bildvereinigers 14a. Der Bildvereiniger 14a weist einen Komparator 71, einen Auswähler 72, zwei Eingänge 73, 74 und einen Ausgang 75 auf. Die zwei Eingänge 73 und 74 empfangen jeweils sequentiell Pixeldaten von dem Anfangsbildgenerator 15 und von dem Bildgenerator 12a für dieselbe identische Pixelposition und der Auswähler 72 wählt Daten eines Pixels in einer unten beschriebenen Weise aus.
  • Wie in Fig. 9a gezeigt, werden die Pixeldaten (ZS, U, V) aus dem Einzelbildpuffer und dem Z-Puffer 64a, 65a (oder 64b, 65b) sequentiell in einer regelmäßigen Sequenz von links nach rechts ausgelesen, beginnend mit der obersten horizontalen Abtastlinie und am rechten Ende jeder Linie auf das linke Ende der nächsten horizontalen Abtastlinie voranschreitend. Wie in Fig. 9b gezeigt, werden die erzeugten Daten von dem Puffer seriell durch Wiederholen von ZS, U, V seriell erzeugt und ein Satz dieser Daten ZS, U, V stellt Daten eines Pixels dar. Die Daten ZS, U, V können in einer einzelnen Linie in einem Zeitteilverfahren oder in drei separaten Linien, wie in Fig. 7 gezeigt, übertragen werden.
  • Der ZS-Wert von einer vorherigen Stufe, d.h. dem Anfangsbildgenerator 15 wird mit einem ZS Wert von dem Bildgenerator 12a verglichen, der bestimm, welcher kleiner ist. Der Komparator 72 erzeugt ein Signal, das anzeigt, welche von zwei Daten (die einen von dem Anfangsbildgenerator 15 und die anderen von dem Bildgenerator 12a) einen kleineren ZS-Wert haben, und der Auswähler 72 wählt aus und erzeugt Daten, die den kleineren ZS Wert haben. Beispielsweise gilt, dass, wenn die Daten von dem Bildgenerator 12a einen ZS-Wert haben, der kleiner ist als der des Anfangsbildgenerators 15, das Objekt, das durch die Pixeldaten von dem Bildgenerator 12a ausgedrückt wird, näher an dem Auge angeordnet ist, als das Objekt, das durch die Pixeldaten von dem Anfangsbildgenerator 15 ausgedrückt wird. Mit anderen Worten wird das Objekt von dem Anfangsbildgenerator 15 hinter dem Objekt von dem Bildgenerator 12a angeordnet und, auf diese Weise kann es nicht gesehen werden. Daher wählt der Auswähler 72 die Pixeldaten des Objekts aus, das näher an der Augenposition angeordnet ist.
  • Die Bildvereiniger 14b, 14c und 14d haben die gleiche Struktur wie der Bildvereiniger 14a.
  • Die Zeitsteuerung 23, die mit den Bildvereinigern 14a, 14b, 14c und 14d verbunden ist, verzögert die Verarbeitung in jedem Bildvereiniger um einen Pixelverarbeitungszyklus. Z.B. verarbeitet der Bildvereiniger 14c die Pixeldaten (4,0), der Bildvereiniger 14b verarbeitet die Pixeldaten in (3,0) und der Bildvereiniger 14a verarbeitet die Pixeldaten in (2,0), wenn der Bildvereiniger 14d die Pixeldaten in (5,0), wie in Fig. 9a gezeigt, verarbeitet.
  • Fig. 8 zeigt ein Detail der Strukturabbildungseinheit 16. Die Strukturabbildungseinheit 16 hat einen Strukturadressgenerator 81 und einen Strukturpuffer 82, der mit einem Überlagerungsbildgenerator 83 gekoppelt ist. Durch die Strukturabbildungseinheit 16 wird eine Strukturabbildung in Bezug auf die (U, V)-Daten angewendet. Der Überlagerungsbildgenerator 83 erzeugt Daten eines Farbbildes, das auf einer U-V-Ebene bereitgestellt wird, die in einem Einzelbild-Bild definiert ist, wie eine U-V-Ebene auf der Oberfläche des Bechers.
  • Eine Vorrichtung zur parallelen Bilderzeugung, die auf diese Weise ausgebildet ist, arbeitet wie folgt.
  • Vordem ersten Einzelbildoperationszyklus werden die Bilddaten, die durch den dreidimensionalen Datengenerator 9 erzeugt wurden, durch den Datenverteiler 10 verteilt, um vier aufgeteilte Bilddaten in vier Puffern 11a, 11b, 11c und 11d in einer in Fig. 6b gezeigten Weise zu speichern.
  • Während des ersten Einzelbildoperationszyklus werden die vier aufgeteilten Bilddaten (XS, YS, ZS, U, V), die in den Puffern 11a, 11b, 11c und 11d gespeichert sind, verarbeitet und im Einzelbildpuffer 64b und Z-Puffer 65b in jeweils vier separaten Bildgeneratoren 12a, 12b, 12c und 12d als Pixeldaten (ZS, U, V) gespeichert.
  • Es ist zu beachten, dass die Pixeldaten (ZS, U, V) als (∞ 00,00) für Pixelpunkte außerhalb des Becherbildes definiert sind.
  • Während des zweiten Einzelbildoperationszyklus werden die gleichen vier aufgeteilten Bilddaten (XS, YS, ZS, U, V), die in den Puffern 11a, 11b, 11c und 11d gespeichert sind, erneut verarbeitet und die verarbeiteten Ergebnisse in dem Einzelbildpuffer 64b und Z-Puffer 65b in entsprechender Weise, wie oben beschrieben, gespeichert, jedoch mit unterschiedlichen Parametern, die von allen oder einigen der Einheiten 19 bis 22 erzeugt wurden, so dass das Objekt von einem anderen Betrachtungswinkel gesehen werden kann oder betrachtet werden kann, als habe es eine Bewegung oder ein Drehung ausgeführt.
  • Auch werden während des zweiten Einzelbildoperationszyklus die Pixeldaten, die in dem Einzelbildpuffer 64b und Z-Puffer 65b in vier separaten Bildgeneratoren 12a, 12b, 12c und 12d gespeichert wurden, sequentiell für jeweilige Bildvereiniger 14a, 14b, 14c und 14d erzeugt, jedoch um einen Pixeldatenzyklus zwischen den benachbarten Bildvereinigern verzögert. Ferner wird ein Hintergrundbild sequentiell für den Bildvereiniger 14a erzeugt.
  • Z.B. werden in dem ersten Pixeldatenzyklus die Pixeldaten (ZS, U, V) eines ersten Objekt für ein Pixel, das in (0,0) angeordnet ist, von dem Bildgenerator 12a dem ersten Bildvereiniger 14a bereitgestellt und ferner werden die ersten Hintergrundpixeldaten (ZS, U, V) für ein Pixel, das in (0,0) angeordnet ist, von dem Anfangsbildgenerator 15 dem ersten Bildvereiniger 14a bereitgestellt. Da es kein Objekt (z.B. Becher) an dieser Position gibt, erhalten die Pixeldaten des ersten Objekts einen ZS Wert gleich unendlich (∞). Ferner werden die Hintergrundpixeldaten gesetzt, um einen großen ZS-Wert zu haben, wie z.B. ZS = 1000. Auf diese Weise wird in dem Komparator 71 des ersten Bildvereinigers 14a ∞ > 1000 detektiert, um die Hintergrundpixeldaten auszuwählen. Auf diese Weise erzeugt der erste Bildvereiniger 14a am Ende des ersten Pixeldatenzyklus die Hintergrundpixeldaten. Während dieses ersten Pixeldatenzyklus wird kein Betrieb in den anderen Bildvereinigern ausgeführt.
  • In dem zweiten Pixeldatenzyklus werden die ersten Objektpixeldaten (ZS, U, V) an der Position (0,0) vom Bildgenerator 12b und auch die ersten Hintergrundpixeldaten (ZS, U, V) an der Position (0,0) von dem ersten Bildvereiniger 14a dem zweiten Bildvereiniger 14b zur Verfügung gestellt. Aus dem gleichen oben genannten Grund wird ∞ > 1000 von dem Komparator 71 des zweiten Bildvereinigers 14b detektiert, um die Hintergrundpixeldaten auszuwählen. Auf diese Weise erzeugt am Ende des ersten Pixeldatenzyklus der zweite Bildvereiniger 14b die Hintergrundpixeldaten. Auch werden während des zweiten Pixeldatenzyklus die zweiten Objektpixeldaten (ZS, U, V) für einen in (1,0) angeordneten Pixel vom Bildgenerator 12a dem ersten Bildvereiniger 14a bereitgestellt und es werden auch die zweiten Hintergrundpixeldaten (ZS, U, V) für ein in (1,0) angeordnetes Pixel von dem Anfangsbildgenerator 15 dem erst en Bildvereiniger 14a bereitgestellt. Für den gleichen oben genannten Grund erzeugt der ersten Bildvereiniger 14a die Hintergrundpixeldaten. Während dieses zweiten Pixeldatenzyklus wird kein Betrieb in dem dritten und vierten Bildvereiniger durchgeführt.
  • Daher stellen die Pixeldaten (ZS, U, V), die von dem ersten Bildvereiniger 14a erzeugt wurden, ein Bild dar, wie in Fig. 6d gezeigt, mit einem oberen linken Abschnitt des Bechers, der vor dem Hintergrundbild bereitgestellt ist. Entsprechend stellen die Pixeldaten (ZS, U, V), die von dem zweiten Bildvereiniger 14b erzeugt wurden, ein Bild dar mit einem oberen halben Abschnitt des Bechers, der vor dem Hintergrundbild bereitgestellt ist. Wenn das Bild des oberen rechten Abschnitts des Bechers mit dem Bild des oberen linken Abschnitts des Bechers vereinigt wird, werden die Oberflächen, die von der Vorderwand des Bechers verdeckt werden, durch die Auswahl der Pixeldaten entfernt, die näher an dem Ort des Auges angeordnet sind.
  • Die von dem vierten Bildvereiniger 14d erzeugten Bilddaten werden der Strukturabbildungseinheit 14 zugeführt, bei der die Becheroberfläche, die durch die U-V- Koordinaten bestimmt sind, mit einem Bild dargestellt werden, das durch den Überlagerungsbildgenerator 83 bestimmt wurde.
  • Wenn die Pixeldaten (ZS, U, V) der Strukturabbildungseinheit 16 zugeführt werden, werden die ZS-Daten eliminiert und nur die (U, V)-Daten gelangen in die Strukturabbildungseinheit 16. Wenn die Pixeldaten (U, V), die der Oberfläche des Bechers entsprechen, in den Adressgenerator 81 gelangen, wird eine Adresse in dem Strukturpuffer 82 erzeugt, um einen Zugriff auf einen bestimmten Bereich in dem Puffer 82 zu haben. Der Strukturpuffer 82 wird zuvor mit einer Farbbildinformation basierend auf den von dem Überlagerungsbildgenerator 83 erhaltenen Daten gespeichert. Daher erzeugt der Strukturpuffer 82 Farbdaten (R, G, B) nach dem Lesen der eingespeicherten Daten in dem durch die Adresse bestimmten Bereich.
  • Die Vorrichtung zur parallelen Bilderzeugung gemäß der vorliegenden Erfindung kann auf einfache Weise die Bildverarbeitungsmöglichkeiten durch Erhöhen der Anzahl von Bildgeneratoren 12 verbessern, da die das anzuzeigende Objekt definierenden geometrischen Daten teilweise durch mehrere geometrische Datenpuffer 11 gespeichert werden und diese teilweisen geometrischen Daten durch die jeweiligen Bildgeneratoren 12 verarbeitet werden, die für jeden geometrischen Datenpuffer reserviert sind. Zusätzlich gibt es keine Änderung in der Anzahl der Eingänge und Ausgänge in jedem Bildvereiniger 14, selbst wenn die Anzahl von parallelen Verarbeitungseinheiten erhöht wird. Nur die Pipeline für den Bildvereiniger 13 wird länger. Dies liegt daran, dass die Pipeline für den Bildvereiniger 13 eine serielle Verbindung von dem Anfangsbildgenerator 15 und mehrfachen Bildvereinigern 14 aufweist. Auch sind die parallel verbundenen Bildgeneratoren 12 jeweils mit den Bildvereinigern 14 verbunden. Folglich kann die Anzahl von parallelen Verarbeitungseinheiten in einer Vorrichtung zur parallelen Bildverzeugung gemäß der vorliegenden Erfindung ohne Grenzen erhöht werden.
  • Zum normalen Betreiben des Bildvereinigers 14 in dieser Konstruktion muss der Bildgenerator 12 die Pixeldaten in einer regelmäßigen sequentiellen Bildabtastungsreihenfolge ausgeben. Für den Bildgenerator 12 (z.B. 12b) und den Bildvereiniger 14 (z.B. 14a), der dem Bildvereiniger 14 (z.B. 14b) vorhergeht, der mit den Ausgabemitteln des Bildgenerators 12 verbunden ist, ist es auch notwendig, simultan die Pixeldaten für die gleichen Koordinaten auszugeben. Dies wird erreicht durch Bilden eines Einzelbildpuffers 64 und Z-Puffers 65 in dem Bildgenerator 12, der alle Pixeldaten speichert, die durch den Pixeldatengenerator 62 auszugeben sind, und dann die Pixeldaten in regelmäßiger Koordinatensequenz ausgibt.
  • Es ist zu beachten, dass der Einzelbildpuffer und der Z-Puffer eine Größe aufweisen, um Pixeldaten entsprechend einem vollen Bild zu speichern, und die Eingangs-/Ausgangspuffer umgeschaltet werden, wenn ein vollständiges Bild in den obigen Ausführungsbeispielen erzeugt worden ist. Die Puffergröße kann z.B. auf das Äquivalent einer horizontalen Abtastlinie reduziert werden und die Puffer können umgeschaltet werden, wenn die Verarbeitung für eine horizontale Abtastlinie abgeschlossen ist.
  • Fig. 10 zeigt ein Blockdiagramm einer Vorrichtung zum parallelen Bilderzeugung gemäß dem zweiten Ausführungsbeispiel der vorliegenden Erfindung. Das zweite Ausführungsbeispiel unterscheidet sich von dem ersten, in Fig. 1 gezeigten durch die Eliminierung der Strukturabbildungseinheit 16. In diesen Ausführungsbeispiel werden Farbdaten (R, G, B) verwendet anstelle der Verwendung von Daten (U, V) . Auf diese Weise werden in dem zweiten Ausführungsbeispiel die Daten (X&sub1;, Y&sub1;, Z&sub1;, U, V), (XW, YW, ZW, U, V) und (ZS, U, V) jeweils durch (X&sub1;, Y&sub1;, Z&sub1;, R, G, B), (XW, YW, ZW, R, G, B) und (ZS, U, V) ersetzt. Im Ergebnis speichert der Einzelbildpuffer 64 die RGB-Farbdaten anstelle der Strukturkoordinaten U, V. Die in den Bildvereiniger 14 eingegebenen Pixeldaten sind daher der Z-Wert und die RGB- Farbdaten, und der Bildvereiniger 14 gibt die Pixeldaten mit dem kleineren Z- Wert aus. Der Ausgang der Bildvereinigungspipeline 13 wird direkt dem Anzeigegerät 17 eingegeben, welches das Bild unter Verwendung der RGB-Farbdaten anzeigt. Man beachte, dass derselben Effekt verwendet werden kann, wenn Y, I und Q-Werte durch die RGB-Farbdaten in dem obigen Ausführungsbeispiel substituiert werden.
  • Während ein kleiner Z-Wert in dem obigen Ausführungsbeispiel ausgewählt wird, um einen niedrigen Tiefenwert auszudrücken (d.h. näher an dem Betrachtungspunkt), kann auch der Tiefenwert derart definiert werden, dass ein größerer Z- Wert einen niedrigen Tiefenwert ausdrückt. In diesem Fall wählt der Bildvereiniger 14 die Pixeldaten des hohen Z-Wertes aus und der Anfangsbildgenerator 15 gibt den niedrigsten ausdrückbaren Wert als den Tiefen-(Z)-Wert aus. In jedem Fall wird das Ergebnis das gleiche sein.
  • Die auf diese Weise beschriebene Erfindung kann ersichtlicherweise auf verschiedene Weisen variiert werden.

Claims (8)

1. Vorrichtung zur parallelen Bilderzeugung, die aufweist:
dreidimensionale Daten-Erzeugungsmittel (9) zum Erzeugen von dreidimensionalen geometrischen Daten eines Objekts;
Verteilungsmittel (10) zum Teilen dieser dreidimensionalen geometrischen Daten in N (wobei N ein ganzzahliger Wert größer als eins ist) partielle geometrische Daten;
erste bis N-te geometrische Datenpuffer (11a, 11b, 11c, 11d) zum jeweiligen Speichern der N partiellen geometrischen Daten;
erste bis N-te Bilderzeugungsanordnungen (12a, 12b, 12c, 12d), die jeweils mit diesen ersten bis N-ten geometrischen Datenpuffern verbunden sind, wobei jede Bilderzeugungsanordnung partielle Bilddaten für jeden Pixel in einem Bild bzw. Teilbild erzeugen;
erste bis N-te Vereinigungsanordnungen (14a, 14b, 14c, 14d), die jeweils mit den ersten bis N-ten Bilderzeugungsanordnungen verbunden sind, wobei die ersten bis N-ten Bildvereinigungsanordnungen ebenfalls in Serie verbunden sind;
Anfangsbilderzeugungsmittel (15) zum Erzeugen eines Hintergrundbildes, wobei das Anfangsbilderzeugungsmittel mit der ersten Bildvereinigungsanordnung (14a) verbunden ist, wobei die erste Bildvereinigungsanordnung die Hintergrundbilddaten und die partiellen 'Bilddaten von der ersten Bilderzeugungsanordnung (12a) vereinigt, und eine i-te (1 < i &le; = N) Bildvereinigungsanordnung (14b, 14c, 14d) ausgegebene vereinigte Daten von der (i - 1)-ten Bildvereinigungsanordnung und partielle Bilddaten von einer i-ten Bilderzeugungsanordnung (12b, 12c, 12d) vereinigt; und
Zeitsteuerungsmittel (23), die mit den ersten bis N-ten Bildvereinigungsanordnungen (14a, 14b, 14c, 14d) verbunden sind, zum Steuern der Vereinigungszeiteinteilung in den ersten bis N-ten Bildvereinigungsanordnungen, so dass die i-te Bildvereinigungsanordnung die Vereinigungsoperation eines Pixels ausführt, nachdem die (i - 1)-te Bildvereinigungsanordnung die Vereinigungsoperation desselben Pixels durchgeführt hat;
dadurch gekennzeichnet, dass
diese partiellen Bilddaten Oberflächenkoordinatendaten (U, V) des Objekts als ein Attribut für jedes Pixel aufweist; und
die N-te Bildvereinigungsanordnung (14d) mit einer Strukturabbildungseinheit (16) verbunden ist.
2. Vorrichtung zur parallelen Bilderzeugung nach Anspruch 1, wobei die partiellen Bilddaten einen Tiefenwert und weitere Attribute von jedem Pixel aufweisen.
3. Vorrichtung zur parallelen Bilderzeugung nach Anspruch 2, wobei die Hintergrundbilddaten einen höchsten Tiefenwert aufweisen.
4. Vorrichtung zur parallelen Bilderzeugung nach Anspruch 3, wobei jede der ersten bis N-ten Bilderzeugungseinheiten (12) aufweist:
Pixeldatenerzeugungsmittel (62) zum Erzeugen von Pixeldaten; Pixeldatenspeichermittel (64a, 64b, 65a, 65b) zum Speichern von Pixeldaten; Vergleichsmittel (68a, 68b) zum Vergleichen der Tiefenwerte von zwei nicht übereinstimmenden Pixeldaten und zum Speichern eines Pixeldatums, das einen kleineren Tiefenwert aufweist.
5. Vorrichtung zur parallelen Bilderzeugung nach Anspruch 3, wobei jede der ersten bis N-ten Bildvereinigungsanordnung (14) aufweist: zwei Eingänge (73, 74) zum sequentiellen Empfangen von Pixeldaten für die gleiche identische Pixelposition;
Vergleichsmittel (71) zum Vergleichen der Tiefenwerte von den empfangenen zwei Pixeldaten; und
Auswahlmittel (72) zum Auswählen eines Pixeldatums, das einen kleineren Tiefenwert aufweist.
6. Vorrichtung zur parallelen Bilderzeugung nach Anspruch 3, wobei die Attribute von jedem Pixel Farbdaten (R, G, B) sind.
7. Vorrichtung zur parallelen Bilderzeugung nach Anspruch 1, die ferner aufweist:
Adresserzeugungsmittel (81) zum Erzeugen einer Adresse basierend auf den Oberflächenkoordinatendaten; und
Strukturpuffermittel (82, 83) zum Speichern von Farbdaten, wobei die Farbdaten mittels dieser Adressen ausgelesen werden.
8. Vorrichtung zur parallelen Bilderzeugung nach Anspruch 1, die ferner Anzeigemittel (17) zum Anzeigen der vereinigten Daten nach der Vereinigungsoperation in der N-ten Bildvereinigungsanordnung aufweist.
DE69331031T 1992-07-27 1993-07-23 Vorrichtung zur parallelen Bilderzeugung Expired - Fee Related DE69331031T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP4199391A JP2780575B2 (ja) 1992-07-27 1992-07-27 並列画像生成装置
JP25102892A JPH06103385A (ja) 1992-09-21 1992-09-21 テクスチャマッピング処理装置

Publications (2)

Publication Number Publication Date
DE69331031D1 DE69331031D1 (de) 2001-12-06
DE69331031T2 true DE69331031T2 (de) 2002-07-04

Family

ID=26511513

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69331031T Expired - Fee Related DE69331031T2 (de) 1992-07-27 1993-07-23 Vorrichtung zur parallelen Bilderzeugung

Country Status (3)

Country Link
US (1) US5761401A (de)
EP (1) EP0582875B1 (de)
DE (1) DE69331031T2 (de)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997008660A1 (de) * 1995-08-25 1997-03-06 Gmd-Forschungszentrum Informationstechnik Gmbh Bildverarbeitungsverfahren zur simulation einer tiefenstruktur und zugehörige vorrichtung
US6034693A (en) * 1996-05-28 2000-03-07 Namco Ltd. Image synthesizing apparatus, image synthesizing method and information storage medium
US5990956A (en) * 1996-12-30 1999-11-23 Daewoo Electronics, Inc. Method and apparatus for padding a video signal for shape adaptive transformation
US5818463A (en) * 1997-02-13 1998-10-06 Rockwell Science Center, Inc. Data compression for animated three dimensional objects
FI107196B (fi) * 1997-07-09 2001-06-15 Vlsi Solution Oy Menetelmä ja laite kuvaelementtien käsittelemiseksi
US6091422A (en) * 1998-04-03 2000-07-18 Avid Technology, Inc. System for editing complex visual data providing a continuously updated rendering
US6064399A (en) * 1998-04-03 2000-05-16 Mgi Software Corporation Method and system for panel alignment in panoramas
US6333749B1 (en) * 1998-04-17 2001-12-25 Adobe Systems, Inc. Method and apparatus for image assisted modeling of three-dimensional scenes
US6137491A (en) * 1998-06-05 2000-10-24 Microsoft Corporation Method and apparatus for reconstructing geometry using geometrically constrained structure from motion with points on planes
US6084592A (en) * 1998-06-18 2000-07-04 Microsoft Corporation Interactive construction of 3D models from panoramic images
US7518616B1 (en) * 1998-07-17 2009-04-14 3Dlabs, Inc. Ltd. Graphics processor with texture memory allocation system
US6204854B1 (en) * 1998-12-04 2001-03-20 France Telecom Method and system for encoding rotations and normals in 3D generated scenes
US6753878B1 (en) * 1999-03-08 2004-06-22 Hewlett-Packard Development Company, L.P. Parallel pipelined merge engines
US6516032B1 (en) 1999-03-08 2003-02-04 Compaq Computer Corporation First-order difference compression for interleaved image data in a high-speed image compositor
US6483503B1 (en) * 1999-06-30 2002-11-19 International Business Machines Corporation Pixel data merging apparatus and method therefor
US6636224B1 (en) * 1999-08-31 2003-10-21 Microsoft Corporation Method, system, and computer program product for overlapping graphics data collection and transmission using a single processor
JP3350655B2 (ja) * 2000-01-25 2002-11-25 株式会社ナムコ ゲームシステム及び情報記憶媒体
JP3325253B2 (ja) * 2000-03-23 2002-09-17 コナミ株式会社 画像処理装置、画像処理方法、記録媒体及びプログラム
JP3466173B2 (ja) * 2000-07-24 2003-11-10 株式会社ソニー・コンピュータエンタテインメント 画像処理システム、デバイス、方法及びコンピュータプログラム
JP3504240B2 (ja) * 2000-07-24 2004-03-08 株式会社ソニー・コンピュータエンタテインメント 画像処理システム、デバイス、方法及びコンピュータプログラム
US6781594B2 (en) * 2001-08-21 2004-08-24 Sony Computer Entertainment America Inc. Method for computing the intensity of specularly reflected light
US7046245B2 (en) * 2001-10-10 2006-05-16 Sony Computer Entertainment America Inc. System and method for environment mapping
US6970169B1 (en) * 2002-09-24 2005-11-29 Adobe Systems Incorporated Digitally synthesizing seamless texture having random variations
US20040179007A1 (en) * 2003-03-14 2004-09-16 Bower K. Scott Method, node, and network for transmitting viewable and non-viewable data in a compositing system
JP3966832B2 (ja) 2003-04-28 2007-08-29 株式会社東芝 描画処理装置、及び、描画処理方法
US8133115B2 (en) * 2003-10-22 2012-03-13 Sony Computer Entertainment America Llc System and method for recording and displaying a graphical path in a video game
US20060071933A1 (en) 2004-10-06 2006-04-06 Sony Computer Entertainment Inc. Application binary interface for multi-pass shaders
JP4133996B2 (ja) * 2004-10-08 2008-08-13 株式会社ソニー・コンピュータエンタテインメント テクスチャ作成方法
US20060267997A1 (en) * 2005-05-24 2006-11-30 Walls Jeffrey J Systems and methods for rendering graphics in a multi-node rendering system
US7636126B2 (en) 2005-06-22 2009-12-22 Sony Computer Entertainment Inc. Delay matching in audio/video systems
US7965859B2 (en) 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
US7880746B2 (en) 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
US9342817B2 (en) 2011-07-07 2016-05-17 Sony Interactive Entertainment LLC Auto-creating groups for sharing photos

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4658247A (en) * 1984-07-30 1987-04-14 Cornell Research Foundation, Inc. Pipelined, line buffered real-time color graphics display system
US4882683B1 (en) * 1987-03-16 1995-11-07 Fairchild Semiconductor Cellular addrssing permutation bit map raster graphics architecture
US5251322A (en) * 1987-08-13 1993-10-05 Digital Equipment Corporation Method of operating a computer graphics system including asynchronously traversing its nodes
US4885703A (en) * 1987-11-04 1989-12-05 Schlumberger Systems, Inc. 3-D graphics display system using triangle processor pipeline
US4949280A (en) * 1988-05-10 1990-08-14 Battelle Memorial Institute Parallel processor-based raster graphics system architecture
US4951232A (en) * 1988-09-12 1990-08-21 Silicon Graphics, Inc. Method for updating pipelined, single port Z-buffer by segments on a scan line
US5175806A (en) * 1989-03-28 1992-12-29 Computer Design, Inc. Method and apparatus for fast surface detail application to an image
US5245700A (en) * 1989-11-21 1993-09-14 International Business Machines Corporation Adjustment of z-buffer values for lines on the surface of a polygon
JP2770598B2 (ja) * 1990-06-13 1998-07-02 株式会社日立製作所 図形表示方法およびその装置
US5276798A (en) * 1990-09-14 1994-01-04 Hughes Aircraft Company Multifunction high performance graphics rendering processor
US5255360A (en) * 1990-09-14 1993-10-19 Hughes Aircraft Company Dual programmable block texturing and complex clipping in a graphics rendering processor
US5557711A (en) * 1990-10-17 1996-09-17 Hewlett-Packard Company Apparatus and method for volume rendering
DK0575346T3 (da) * 1990-11-30 2001-12-03 Sun Microsystems Inc Fremgangsmåde og apparatur til frembringelse af grafiske billeder
US5251290A (en) * 1991-03-25 1993-10-05 Schlumberger Technology Corporation Modeling method for sorting dependencies among geometric entities
US5307449A (en) * 1991-12-20 1994-04-26 Apple Computer, Inc. Method and apparatus for simultaneously rendering multiple scanlines

Also Published As

Publication number Publication date
EP0582875A3 (de) 1995-02-08
US5761401A (en) 1998-06-02
DE69331031D1 (de) 2001-12-06
EP0582875A2 (de) 1994-02-16
EP0582875B1 (de) 2001-10-31

Similar Documents

Publication Publication Date Title
DE69331031T2 (de) Vorrichtung zur parallelen Bilderzeugung
DE60120474T2 (de) Rasterung von dreidimensionalen bildern
DE69122557T2 (de) Bilderzeugung
DE3854543T2 (de) Prioritätsverwaltung eines Tiefendatenpuffers für Echtzeitrechnersysteme zur Bilderzeugung.
DE69130123T2 (de) Anzeigegerät und Verfahren zum Betreiben eines solchen Geräts
DE10053439B4 (de) Grafik-Beschleuniger mit Interpolationsfunktion
DE3686233T2 (de) Videosignalverarbeitung.
DE3856127T2 (de) Anzeigeverfahren und -vorrichtung für dreidimensionale Computergrafiken
DE69128731T2 (de) Schaltungsanordnung für die Konvertierung von pyramidenförmigen Texturkoordinaten und diese enthaltendes Anzeigegerät
DE69130132T2 (de) Verfahren zur Erzeugung von Adressen zu texturierten, in RIP Maps gespeicherten graphischen Primitiven
DE3853336T2 (de) Rechnergraphikgerät zur Verarbeitung von Beleuchtungsmodellinformation.
DE3750784T2 (de) Generation eines intrapolierten charakteristischen Wertes zur Anzeige.
DE69224499T2 (de) Dreidimensionale graphische Verarbeitung
DE69804126T2 (de) Verfahren und einrichtung zur dreidimensionalen graphikdarstellung
DE69132041T2 (de) Dreieckinterpolator
DE68928773T2 (de) Verfahren zum senkrechten Filtern bei rasterabgetasteten Anzeigevorrichtungen
DE69424716T2 (de) Verfahren und Vorrichtung zur adaptiven Steuerung der Texturabbildung
DE68927471T2 (de) Verfahren zur Schattierung eines graphischen Bildes
DE69427210T2 (de) Verfahren und Gerät zur Erzeugung von dreidimensionaler Animation
DE19953595B4 (de) Verfahren und Vorrichtung zur Verarbeitung dreidimensionaler Bilder
DE69610667T2 (de) Verfahren und Einrichtung zur gleichzeitigen Darstellung von Grafik und Videosignalen auf einem Rechnerbildschirm
DE3854223T2 (de) Erzeugung und Anzeige von Rechnergraphiken.
DE69029987T2 (de) Verfahren und Gerät zur parallelen Wiedergabe von Polygonen und Pixeln
EP1175663A1 (de) Verfahren zur rasterisierung eines graphikgrundelements
DE19709220A1 (de) System und Verfahren für eine beschleunigte Verdeckungsauslese

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee