WO1994016404A1 - Process for generating pixel chrominance and brightness values - Google Patents

Process for generating pixel chrominance and brightness values Download PDF

Info

Publication number
WO1994016404A1
WO1994016404A1 PCT/EP1993/003685 EP9303685W WO9416404A1 WO 1994016404 A1 WO1994016404 A1 WO 1994016404A1 EP 9303685 W EP9303685 W EP 9303685W WO 9416404 A1 WO9416404 A1 WO 9416404A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
sub
objects
masks
pixels
Prior art date
Application number
PCT/EP1993/003685
Other languages
German (de)
French (fr)
Inventor
Andreas Schilling
Original Assignee
EUROPÄISCHE GEMEINSCHAFT, vertreten durch KOMMISSION DER EUROPÄISCHEN GEMEINSCHAFTEN
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EUROPÄISCHE GEMEINSCHAFT, vertreten durch KOMMISSION DER EUROPÄISCHEN GEMEINSCHAFTEN filed Critical EUROPÄISCHE GEMEINSCHAFT, vertreten durch KOMMISSION DER EUROPÄISCHEN GEMEINSCHAFTEN
Publication of WO1994016404A1 publication Critical patent/WO1994016404A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Definitions

  • the invention relates to a method for generating the color and brightness values of pixels of an output device, in particular a screen, with the aid of an electronic circuit for the display of several three-dimensional geometric objects which partially overlap, touch or intersect.
  • the individual objects become later for example screened pixels to be displayed on a screen. From these halftone dots, the information must be obtained which points on the screen display the respective object, or in other words: which color and intensity must be assigned to the individual pixels of the screen. At the edges of the objects, the color and brightness of the pixels can be determined from the proportion of the pixel surface that is still covered by the object and from the object color.
  • Edge smoothing stores the contributions of objects that partially cover an image point in a table sorted from front to back in the viewing direction z. For each of these table elements two z values z. ln and z "" saved. Each pixel is then broken down into a plurality of subpixels and a mask is generated which indicates which subpixels are covered by the object. The number of sub-pixels covered then approximately gives the area of the pixel that is actually covered by the object being viewed, sub-pixels that are already covered by an object stored earlier in the table are excluded from further consideration. In this method, intersecting objects are treated by approximation. An overlap is assumed if the z-value ranges [z. lB ; z theory think l overlap two objects.
  • this known method frequently fails, for example in the case of two flat structures which are inclined in the z direction and are arranged parallel to one another at a close spacing.
  • the z areas of the two objects overlap, so that the known method erroneously recognizes that the objects overlap, even though these are arranged completely parallel to one another and one object completely covers the other.
  • the associated intensity and color values of the pixels are incorrectly determined.
  • the object of the invention is to correctly determine the color and brightness values of pixels for the representation of all cases of overlapping, intersecting or touching three-dimensional objects and still to achieve a high processing speed.
  • the object is achieved with a method of the type mentioned at the outset, which according to the invention is characterized by the following steps: Decomposing the geometric objects into halftone dots and determining the coordinates in the z-direction perpendicular to the image surface and the color and brightness values for the individual halftone dots,
  • Determination of a common priority sub-pixel mask for each two objects which specifies the sub-pixels at which the first object in the pixel currently being viewed lies in the z direction perpendicular to the image surface in front of the second object, that is to say it obscures the viewer.
  • the priority subpixel mask can be determined by forming the difference between the z values of the two objects at the pixel being viewed and forming the difference between the changes in these z values of the two objects from the pixel being viewed to the next, the elements of the priority
  • the sub-picture point mask is assigned the logical value "1" if the z-value of the function resulting from the differential formations has a positive value for the associated sub-picture point, ie the first object at this sub-picture point in the z direction the second object.
  • the required changes in the z-values dzx and dzy between two neighboring pixels also occur in almost all rasterization methods for the geometric objects, so that no additional circuitry or additional computing time has to be spent on determining the dz and dz y .
  • Correct determination of the brightness and color values in the event of overlap and overlap of transparent objects is also possible with the method according to the invention.
  • at least three sub-pixel masks are generated for each pixel from the sub-pixel masks of the two objects and the priority sub-pixel mask, which correspond to sub-areas of sub-pixel planes lying in the z-direction.
  • the method according to the invention can theoretically be carried out in the form of a computer program on a computer, but for reasons of improved processing speed, an at least partial hardware implementation of the method is recommended.
  • the circuit according to the invention for carrying out the above-mentioned method has a data memory for recording the z coordinates, the z value changes and the color values of the halftone dots of the geometric objects
  • the difference formation stage connected to the outputs of this memory for calculating the differences of the z values and z value changes of two objects, a decision stage connected to the outputs of the difference formation stage for determining whether the two objects intersect in the pixel under consideration or touch, a device for dividing the output data of the difference formation level for standardization purposes and a unit for determining the priority sub-picture element mask and the modified object sub-picture element mask.
  • FIG. 2 shows a block diagram of a circuit according to the invention
  • Fig. 3 shows a partial circuit for determining the
  • Fig. 4 shows a series connection of circuits for
  • a pixel 10 with two intersecting objects 0 A and 0 B is shown on the left in FIG. 1 in two separate images.
  • the spatial arrangement of the two objects 0 A and O B indicated by hatching is shown within the image point 10, which in the illustrated case are two intersecting planes.
  • the z direction runs vertically downwards in the plane of the drawing.
  • the associated sub-pixel masks A and B are shown above the spatial representation of objects 0 A and O-.
  • the total image point is divided into 16 sub-image points 11. Those subpictures 11 which are covered by the respective object 0 A or 0 B are shown hatched in black.
  • the link A * B is then formed from the two sub-pixel masks A and B, ie those sub-pixels are determined which are covered by both object 0 A and object 0 ". It is only possible to determine where object 0 A is covered by object 0 B for the viewer and vice versa.
  • the priority subpixel mask C is then calculated, which specifies the subpixels 11 at which object O A lies in front of object O B in the z direction. In the example shown, these are the sub-pixels 11 in the right half of the overall pixel 10. To calculate the priority sub-pixel mask C, the procedure is as follows:
  • a z-value z A and z B are stored for the sub-pixel masks A and B, respectively.
  • the difference z A - z B is now formed.
  • the change in the z values z A and z B to the next pixel in the x and y directions dzx and dzy is known.
  • the differences dz A x - dz B x and dz A y - dz B y are now formed from this.
  • the priority sub-pixel mask C is then used to calculate the modified sub-pixel masks! __._ and B .._.
  • two auxiliary sub-pixels asken A 'and B 1 are first generated using the logical operations AND and NOT.
  • the following relationships result overall for the modified subpixel masks:
  • the modified sub-pixel masks A n "and B" Specify in each case which sub-pixels 11 are covered by the associated object and at which there is no overlap by the respective other object, which is illustrated on the far right in FIG. 1. From the masks A _._ and B M resulting from the calculation of all object pair comparisons and the object colors, the brightness and color values of the total image point 10 are then calculated by adding up the contributions of the sub-pixels 11.
  • FIG. 2 shows a block diagram of a circuit for carrying out the method which has been described in FIG. 1.
  • the circuit has a data memory 20 in which the spatial coordinates and the color and brightness values of the raster points of the geometric objects are stored.
  • a difference forming stage 21 is connected to the outputs of this memory 20 and reads the data x A x B , dz A x, dz B x, dz A y and dz B y from the data memory 20 and the differences z A - z B , dz A x - dz B x and dz A y - dz B y.
  • the output of this decision stage 22 and the output of the difference formation stage 21 are provided with a device 23 for dividing the output data
  • the device 23 is followed by a unit 24 of logic gates for determining the priority sub-pixel mask C and the modified object sub-pixel masks A _._ and B _._.
  • the output data of the unit 24 are either stored in a data memory 25, from where they can be read out again for further similar calculations, or they are forwarded to a similar downstream unit, where further calculations of the same type are carried out.
  • the resulting data are passed on to a computing unit 26, in which they are further processed to the brightness and color values for the pixel in question.
  • FIG. 3 shows an example of a possible construction of the circuit components 20-24 in FIG. 2.
  • Three parallel subtractors 30-32 calculate the z-value difference and the difference of the changes in the z-values.
  • the absolute amounts of these differences are formed in the following circuit parts 33-35. These absolute amounts are read into three shifters 36-38 and, if necessary, shifted to the right.
  • An output bus 39 of the shifter 36 is connected to a subtractor 40, while the output buses 41 and 42 of the shifters 37 and 38 are connected to an adder 43.
  • the output of the adder 43 is in turn connected to the subtractor 40.
  • parameters for the differential function of the z values of the two objects O A and 0 B under consideration are:
  • the output signal from OR gate 44 indicates whether the two objects 0 A and 0 B intersect in the pixel being viewed. If this is not the case, the priority sub-pixel mask to be calculated in stage 24 only consists of
  • stage 24 receives as input data the differences between the z values and the z value change in the x or y direction normalized with the aid of two dividers 45 and 46.
  • the circuits 50 which may contain circuits according to FIG. 3, for example, receive data from circuit units 51, which each contain geometric objects broken down into pixels and pass them to the circuits 50 sorted according to pixels.
  • the object data can be routed from a connected computer to the circuit units 51 via a data bus 52.
  • the circuit according to FIG. 4 now continuously calculates the contributions of the individual geometric objects to the different pixels from left to right. For example, a comparison of the first and second geometric objects for the first pixel is carried out in the first circuit 50.
  • the calculated sub-image point masks are passed on to the subsequent circuit 50, in which a comparison of the first and third geometric objects is carried out for the same image point and with the information from the object comparison object 1 and object 2 in the previous stage is linked. In the next stage there is a comparison between the first and the fourth object for the same pixel and immediately. While the second circuit 50 is performing the object comparison between the first and third objects, the first circuit 50 is already calculating the object comparison between the first and the second object for the next pixel.
  • the circuits 50 shown in FIG. 4 can also be replaced or supplemented by programmable processors.
  • the use of programmable processors increases the flexibility of the arrangement, although a lower processing speed must be accepted if all processing steps are carried out by these programmable processors.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)

Abstract

A process allows chrominance and brightness values of pixels of an output device to be generated by means of an electronic circuit for representing several three-dimensional geometric objects which partially overlap, touch or intersect each other.

Description

Verfahren zur Erzeugung der Färb- und Helligke tswerte von B ldpunkten Process for generating the color and brightness values of image points
B e s c h r e i b u n gDescription
Die Erfindung betrifft ein Verfahren zur Erzeugung der Farb- und Helligkeitswerte von Bildpunkten eines Ausgabegerates, insbesondere eines Bildschirms, mit Hilfe einer elektronischen Schaltung für die Darstellung mehrerer dreidimensionaler geo¬ metrischer Objekte, die sich teilweise überlappen, berühren oder schneiden.The invention relates to a method for generating the color and brightness values of pixels of an output device, in particular a screen, with the aid of an electronic circuit for the display of several three-dimensional geometric objects which partially overlap, touch or intersect.
Zur gemeinsamen Darstellung mehrerer dreidimensionaler geome¬ trischer Objekte, die in einer bestimmten räumlichen Anordnung zueinander stehen, wie dies bei vielen CAD-Anwendungen, bei¬ spielsweise dem Entwurf von Architektursystemen oder Automo- bilkarosseπen, der Fall ist, werden die einzelnen Objekte in die spater beispielsweise auf einem Bildschirm darzustellenden Bildpunkte gerastert. Aus diesen Rasterpunkten muß die Infor¬ mation gewonnen werden, welche Punkte des Bildschirms das jeweilige Objekt anzeigen, oder mit anderen Worten: welche Farbe und Intensität den einzelnen Bildpunkten des Bildschirms zugeordnet werden muß. An den Rändern der Objekte können dabei Farbe und Helligkeit der Bildpunkte aus dem Anteil der Bild- punktflache bestimmt werden, der vom Objekt noch abgedeckt wird, und aus der Objektfarbe.For the common representation of several three-dimensional geometric objects, which are in a certain spatial arrangement to one another, as is the case in many CAD applications, for example the design of architectural systems or automobile bodies, the individual objects become later for example screened pixels to be displayed on a screen. From these halftone dots, the information must be obtained which points on the screen display the respective object, or in other words: which color and intensity must be assigned to the individual pixels of the screen. At the edges of the objects, the color and brightness of the pixels can be determined from the proportion of the pixel surface that is still covered by the object and from the object color.
Ein bekanntes Verfahren zur naherungsweisen Bestimmung der Helligkeit eines Bildpunktes im Randbereich eines Objekts mitA known method for the approximate determination of the brightness of a pixel in the edge area of an object
. / . Kantenglättung legt die Beiträge von Objekten, die einen Bild¬ punkt teilweise überdecken, in einer von vorne nach hinten in Betrachtungsrichtung z sortierten Tabelle ab. Für jedes dieser Tabellenelemente werden zwei z-Werte z.ln und z„„ abgespeichert. Anschließend wird jeder Bildpunkt in mehrere ünterbildpunkte zerlegt und eine Maske generiert, die angibt, welche ünter¬ bildpunkte vom Objekt abgedeckt werden. Die Zahl der abgedeck¬ ten Ünterbildpunkte ergibt dann näherungsweise die Fläche des Bildpunktes, die tatsächlich vom gerade betrachteten Objekt abgedeckt wird, ünterbildpunkte, die bereits von einem weiter vorne in der Tabelle abgespeicherten Objekt abgedeckt werden, werden von der weiteren Betrachtung ausgeschlossen. Sich schneidende Objekte werden bei diesem Verfahren durch eine Näherung behandelt. Ein überschneiden wird angenommen, wenn sich die z-Wertebereiche [z.lB; z„„l zweier Objekte überlappen., /. Edge smoothing stores the contributions of objects that partially cover an image point in a table sorted from front to back in the viewing direction z. For each of these table elements two z values z. ln and z "" saved. Each pixel is then broken down into a plurality of subpixels and a mask is generated which indicates which subpixels are covered by the object. The number of sub-pixels covered then approximately gives the area of the pixel that is actually covered by the object being viewed, sub-pixels that are already covered by an object stored earlier in the table are excluded from further consideration. In this method, intersecting objects are treated by approximation. An overlap is assumed if the z-value ranges [z. lB ; z „„ l overlap two objects.
Dieses bekannte Verfahren versagt jedoch häufig, beispiels¬ weise bei zwei ebenen Gebilden, die in z-Richtung geneigt und in dichtem Abstand parallel zueinander angeordnet sind. Die z- Bereiche der beiden Objekte überlappen, so daß das bekannte Verfahren fälschlicherweise auf ein überschneiden der Objekte erkennt, obwohl diese vollkommen parallel zueinander angeord¬ net sind und ein Objekt das andere vollständig überdeckt. Die zugehörigen Intensitäts- und Farbwerte der Bildpunkte werden dadurch falsch ermittelt.However, this known method frequently fails, for example in the case of two flat structures which are inclined in the z direction and are arranged parallel to one another at a close spacing. The z areas of the two objects overlap, so that the known method erroneously recognizes that the objects overlap, even though these are arranged completely parallel to one another and one object completely covers the other. The associated intensity and color values of the pixels are incorrectly determined.
Der Erfindung liegt die Aufgabe zugrunde, die Färb- und Hel¬ ligkeitswerte von Bildpunkten für die Darstellung aller Fälle sich überlappender, schneidender oder berührender dreidimen¬ sionaler Objekte korrekt zu bestimmen und dennoch eine hohe Verarbeitungsgeschwindigkeit zu erreichen.The object of the invention is to correctly determine the color and brightness values of pixels for the representation of all cases of overlapping, intersecting or touching three-dimensional objects and still to achieve a high processing speed.
Die Aufgabe wird mit einem Verfahren der eingangs genannten Art gelöst, das erfindungsgemäß durch folgende Schritte ge¬ kennzeichnet ist: Zerlegen der geometrischen Objekte in Rasterpunkte und Be¬ stimmung der Koordinaten in z-Richtung senkrecht zur Bild¬ fläche sowie der Färb- und Helligkeitswerte für die ein¬ zelnen Rasterpunkte,The object is achieved with a method of the type mentioned at the outset, which according to the invention is characterized by the following steps: Decomposing the geometric objects into halftone dots and determining the coordinates in the z-direction perpendicular to the image surface and the color and brightness values for the individual halftone dots,
Aufteilung der Bildpunkte in ünterbildpunkte und Erzeugung von ünterbildpunktmasken für jedes der Objekte, wobei die Masken ein Maß für die Bedeckung eines Bildpunkts durch das jeweilige Objekt darstellen,Division of the pixels into subpixels and generation of subpixel masks for each of the objects, the masks representing a measure of the coverage of a pixel by the respective object,
Ermittlung einer gemeinsamen Prioritäts-Unterbildpunkt- maske für jeweils zwei Objekte, die angibt, an welchen ünterbildpunkten das erste Objekt im gerade betrachteten Bildpunkt in z-Richtung senkrecht zur Bildfläche vor dem zweiten Objekt liegt, dieses also für den Betrachter ver¬ deckt,Determination of a common priority sub-pixel mask for each two objects, which specifies the sub-pixels at which the first object in the pixel currently being viewed lies in the z direction perpendicular to the image surface in front of the second object, that is to say it obscures the viewer.
mit Hilfe dieser Prioritäts-ünterbildpunktmaske Modifizie¬ rung der ünterbildpunktmasken der beiden Objekte derart, daß die Masken jeweils nur noch die ünterbildpunkte mar¬ kieren, an denen das zugehörige Objekt nicht durch das andere Objekt verdeckt ist,with the aid of this priority sub-pixel mask, modification of the sub-pixel masks of the two objects such that the masks only mark the sub-pixels at which the associated object is not covered by the other object,
Durchführung der beiden vorhergehenden Schritte für alle Paare von Objekten, die zu dem gerade betrachteten Bild¬ punkt beitragen,Carrying out the two preceding steps for all pairs of objects which contribute to the pixel currently being viewed,
Berechnung des Färb- und Helligkeitswertes des Gesamtbild¬ punktes des Ausgabegerätes durch Aufaddieren der Beiträge der ünterbildpunkte.Calculation of the color and brightness value of the total pixel of the output device by adding up the contributions of the sub pixels.
Die ünterbildpunktmasken können dabei jeweils Matrizen mit einer der Anzahl der ünterbildpunkte entsprechenden Zahl von Elementen sein, wobei diese Elemente den logischen Wert "1" aufweisen, wenn der durch das jeweilige Element repräsentierte Unterbildpunkt vom gerade betrachteten Objekt überdeckt wird, und andernfalls den logischen Wert "0" aufweisen, üblicherwei¬ se findet eine Aufteilung der Bildpunkte z. B. in jeweils 4 x 4 = 16 ünterbildpunkte statt, so daß auch die Matrizen 16 Elemente aufweisen. Die Prioπtats-Unterbildpunktmaske kann durch Bildung der Differenz zwischen den z-Werten der beiden Objekte am gerade betrachteten Bildpunkt sowie Bildung der Differenz zwischen den Änderungen dieser z-Werte der beiden Objekte vom gerade betrachteten Bildpunkt zum jeweils nächsten bestimmt werden, wobei den Elementen der Prioπtats-Unterbild- punktmaske der logische Wert "1" zugeordnet wird, wenn für den zugehörigen ünterbildpunkt der z-Wert der sich durch die Dif¬ ferenzbildungen ergebenden Funktion einen positiven Wert auf¬ weist, d. h. das erste Objekt an diesem ünterbildpunkt in z- Richtung vor dem zweiten Objekt liegt. Die dabei benotigten Änderungen der z-Werte dzx und dzy zwischen zwei benachbarten Bildpunkten fallen bei fast allen Rasterisierungsverfahren für die geometrischen Objekte mit an, so daß für die Ermittlung der dz, und dzy kein zusätzlicher Schaltungsaufwand getrieben oder zusätzliche Rechenzeit spendiert werden muß. Auch die korrekte Ermittlung der Helligkeits- und Farbwerte bei Über¬ lappung und Überschneidung von transparenten Objekten ist mit dem erfmdungsgemaßen Verfahren möglich. Es werden hierzu aus den ünterbildpunktmasken der beiden Objekte und der Priori- tats-Unterbildpunktmaske für jeden Bildpunkt mindestens drei ünterbildpunktmasken generiert, die in z-Richtung hmterein- anderliegenden Teilflachen von Unterbildpunktebenen entspre¬ chen.The subpixel masks can each be matrices with a number of elements corresponding to the number of subpixels, these elements having the logical value "1" if the subpixel represented by the respective element is covered by the object being viewed, and otherwise have the logical value "0", usually there is a division of the pixels z. B. in each case 4 x 4 = 16 sub pixels instead, so that the matrices also have 16 elements. The priority subpixel mask can be determined by forming the difference between the z values of the two objects at the pixel being viewed and forming the difference between the changes in these z values of the two objects from the pixel being viewed to the next, the elements of the priority The sub-picture point mask is assigned the logical value "1" if the z-value of the function resulting from the differential formations has a positive value for the associated sub-picture point, ie the first object at this sub-picture point in the z direction the second object. The required changes in the z-values dzx and dzy between two neighboring pixels also occur in almost all rasterization methods for the geometric objects, so that no additional circuitry or additional computing time has to be spent on determining the dz and dz y . Correct determination of the brightness and color values in the event of overlap and overlap of transparent objects is also possible with the method according to the invention. For this purpose, at least three sub-pixel masks are generated for each pixel from the sub-pixel masks of the two objects and the priority sub-pixel mask, which correspond to sub-areas of sub-pixel planes lying in the z-direction.
Das erfindungsgemaße Verfahren ist theoretisch in Form eines Rechenprogrammes auf einem Computer ausfuhrbar, doch empfiehlt sich aus Gründen einer verbesserten Verarbeitungsgeschwindig¬ keit eine zumindest teilweise Hardware-Implementierung des Verfahrens. Die erfindungsgemaße Schaltung zur Durchfuhrung des obengenannten Verfahrens weist einen Datenspeicher zur Aufnahme der z-Koordmaten, der z-Wert-Anderungen und der Farbwerte der Rasterpunkte der geometrischen Objekte, eine mitThe method according to the invention can theoretically be carried out in the form of a computer program on a computer, but for reasons of improved processing speed, an at least partial hardware implementation of the method is recommended. The circuit according to the invention for carrying out the above-mentioned method has a data memory for recording the z coordinates, the z value changes and the color values of the halftone dots of the geometric objects
. / . den Ausgängen dieses Speichers verbundene Differenzbildungs¬ stufe zur Berechnung der Differenzen der z-Werte und z-Wert- Änderungen zweier Objekte, eine mit den Ausgängen der Diffe¬ renzbildungsstufe verbundene Entscheidungsstufe zur Feststel¬ lung, ob sich die beiden Objekte im betrachteten Bildpunkt schneiden oder berühren, eine Einrichtung zur Division der Ausgangsdaten der Differenzbildungsstufe zu Normierungszwecken und eine Einheit zur Ermittlung der Prioritäts-Unterbildpunkt- maske und der modifizierten Objekt-Unterbildpunktmasken auf., /. The difference formation stage connected to the outputs of this memory for calculating the differences of the z values and z value changes of two objects, a decision stage connected to the outputs of the difference formation stage for determining whether the two objects intersect in the pixel under consideration or touch, a device for dividing the output data of the difference formation level for standardization purposes and a unit for determining the priority sub-picture element mask and the modified object sub-picture element mask.
Zur Erzielung einer besonders hohen Verarbeitungsgeschwindig¬ keit kann vorteilhafterweise ein Rechner eingesetzt werden, der mit mehreren hintereinander angeordneten dieser Schaltun¬ gen zur parallelen Bestimmung der modifizierten ünterbild¬ punktmasken von mehreren Objektpaaren gleichzeitig ausgerüstet ist.In order to achieve a particularly high processing speed, it is advantageously possible to use a computer which is equipped with a plurality of these circuits arranged one behind the other for the parallel determination of the modified sub-pixel masks of several object pairs at the same time.
Nachfolgend wird eine bevorzugte Realisierung des erfindungs¬ gemäßen Verfahrens und der Schaltung zu seiner Durchführung anhand der Zeichnungen näher erläutert.A preferred implementation of the method according to the invention and the circuit for carrying it out will be explained in more detail below with reference to the drawings.
Es zeigen:Show it:
Fig. 1 eine schematische Darstellung der Ermitt¬ lung der ünterbildpunktmasken;1 shows a schematic illustration of the determination of the sub-pixel masks;
Fig. 2 ein Blockschaltbild einer erfindungsgemä¬ ßen Schaltung;2 shows a block diagram of a circuit according to the invention;
Fig. 3 eine Teilschaltung zur Ermittlung derFig. 3 shows a partial circuit for determining the
Prioritäts-Unterbildpunktmaske;Priority subpixel mask;
Fig. 4 eine Serienschaltung von Schaltungen zurFig. 4 shows a series connection of circuits for
Durchführung des erfindungsgemäßen Ver¬ fahrens zur Parallelverarbeitung mehrerer Bildpunkte.Implementation of the method according to the invention for parallel processing of several pixels.
./. Links in Fig. 1 ist in zwei separaten Bildern ein Bildpunkt 10 mit zwei sich schneidenden Objekten 0A und 0B dargestellt. In der unteren Hälfte der beiden Bilder ist die räumliche Anord¬ nung der beiden durch Schraffur gekennzeichneten Objekte 0A und OB innerhalb des Bildpunkts 10, die im dargestellten Fall zwei sich schneidende Ebenen sind, dargestellt. Die z-Richtung verläuft dabei in Zeichenebene senkrecht nach unten. Oberhalb der räumlichen Darstellung der Objekte 0A und O- sind die zu¬ gehörigen Ünterbildpunktmasken A und B dargestellt. Der Ge¬ samtbildpunkt ist in 16 ünterbildpunkte 11 aufgeteilt. Es sind dabei diejenigen ünterbildpunkte 11 schwarz schraffiert darge¬ stellt, die durch das jeweilige Objekt 0A oder 0B abgedeckt sind. Anschließend wird aus den beiden ünterbildpunktmasken A und B die Verknüpfung A*B gebildet, d. h. diejenigen ünter¬ bildpunkte ermittelt, die sowohl von Objekt 0A als auch von Objekt 0„ abgedeckt werden. Nur dort ist zu ermitteln, wo für den Betrachter Objekt 0A durch Objekt 0B abgedeckt wird und umgekehrt. Anschließend wird die Prioritäts-Unterbildpunkt¬ maske C berechnet, die angibt, an welchen Unterbildpunkten 11 Objekt OA in z-Richtung vor Objekt OB liegt. Dies sind im dar¬ gestellten Beispiel die ünterbildpunkte 11 in der rechten Hälfte des Gesamtbildpunkts 10. Zur Berechnung der Prioritäts- Unterbildpunktmaske C wird wie folgt vorgegangen:./. A pixel 10 with two intersecting objects 0 A and 0 B is shown on the left in FIG. 1 in two separate images. In the lower half of the two images, the spatial arrangement of the two objects 0 A and O B indicated by hatching is shown within the image point 10, which in the illustrated case are two intersecting planes. The z direction runs vertically downwards in the plane of the drawing. The associated sub-pixel masks A and B are shown above the spatial representation of objects 0 A and O-. The total image point is divided into 16 sub-image points 11. Those subpictures 11 which are covered by the respective object 0 A or 0 B are shown hatched in black. The link A * B is then formed from the two sub-pixel masks A and B, ie those sub-pixels are determined which are covered by both object 0 A and object 0 ". It is only possible to determine where object 0 A is covered by object 0 B for the viewer and vice versa. The priority subpixel mask C is then calculated, which specifies the subpixels 11 at which object O A lies in front of object O B in the z direction. In the example shown, these are the sub-pixels 11 in the right half of the overall pixel 10. To calculate the priority sub-pixel mask C, the procedure is as follows:
Für die ünterbildpunktmasken A und B sind jeweils ein z-Wert zA und zB abgespeichert. Es wird nun die Differenz zA - zB ge¬ bildet. Außerdem ist für beide Objekte 0A und OB die Änderung der z-Werte zA und zB zum nächsten Bildpunkt in x- und y-Rich- tung dzx und dzy bekannt. Es werden daraus nun die Differenzen dzAx - dzBx und dzAy - dzBy gebildet. Diese drei Differenzen definieren eine Ebene, deren z-Wert größer Null ist, wenn Objekt 0B in z-Richtung vor Objekt 0A liegt, und deren z-Wert negativ ist, wenn Objekt 0A vor Objekt 0B liegt. Die Schnitt¬ linie mit der Ebene z = 0 markiert die Grenze zwischen den beiden Flächen, in denen Objekt 0A oder Objekt 0B jeweils vor dem anderen Objekt liegen. Die Prioritäts-Unterbildpunktmaske C wird anschließend dazu verwendet, die modifizierten ünter¬ bildpunktmasken !__._ und B.._ zu berechnen. Zur Berechnung werden zunächst zwei Hilfsunterbildpunkt asken A' und B1 mit Hilfe der logischen Operationen UND und NICHT generiert. Insgesamt ergeben sich für die modifizierten ünterbildpunktmasken fol¬ gende Beziehungen:A z-value z A and z B are stored for the sub-pixel masks A and B, respectively. The difference z A - z B is now formed. In addition, for both objects 0 A and O B, the change in the z values z A and z B to the next pixel in the x and y directions dzx and dzy is known. The differences dz A x - dz B x and dz A y - dz B y are now formed from this. These three differences define a level, the z value of which is greater than zero if object 0 B lies in front of object 0 A in the z direction and whose z value is negative if object 0 A lies in front of object 0 B. The intersection line with the plane z = 0 marks the boundary between the two surfaces, in which object 0 A or object 0 B each lie in front of the other object. The priority sub-pixel mask C is then used to calculate the modified sub-pixel masks! __._ and B .._. For the calculation, two auxiliary sub-pixels asken A 'and B 1 are first generated using the logical operations AND and NOT. The following relationships result overall for the modified subpixel masks:
Figure imgf000009_0001
Figure imgf000009_0001
BneM = B* (A*B*C) .B neM = B * (A * B * C).
Die modifizierten ünterbildpunktmasken An„ und B„. geben je¬ weils an, welche ünterbildpunkte 11 vom zugehörigen Objekt abgedeckt werden und an denen keine Überdeckung durch das jeweils andere Objekt stattfindet, was in Fig. 1 in den Bil¬ dern ganz rechts verdeutlicht ist. Aus den nach Berechnung aller Objektpaarvergleiche resultierenden Masken A_._ und BM sowie den Objektfarben werden anschließend durch Aufsummieren der Beiträge der ünterbildpunkte 11 die Helligkeits- und Farb¬ werte des Gesamtbildpunkts 10 berechnet.The modified sub-pixel masks A n "and B". Specify in each case which sub-pixels 11 are covered by the associated object and at which there is no overlap by the respective other object, which is illustrated on the far right in FIG. 1. From the masks A _._ and B M resulting from the calculation of all object pair comparisons and the object colors, the brightness and color values of the total image point 10 are then calculated by adding up the contributions of the sub-pixels 11.
Fig. 2 zeigt ein Blockdiagramm einer Schaltung zur Durchfüh¬ rung des Verfahrens, das in Fig. 1 geschildert worden ist. Die Schaltung weist einen Datenspeicher 20 auf, in dem die Raum¬ koordinaten und die Färb- und Helligkeitswerte der Rasterpunk¬ te der geometrischen Objekte abgespeichert sind. Mit den Aus¬ gängen dieses Speichers 20 ist eine Differenzbildungsstufe 21 verbunden, die die Daten xAxB, dzAx, dzBx, dzAy und dzBy aus dem Datenspeicher 20 ausliest und die Differenzen zA - zB, dzAx - dzBx und dzAy - dzBy bildet. Anschließend folgt eine Ent¬ scheidungsstufe 22 zur Feststellung, ob sich die beiden Objek¬ te im betrachteten Bildpunkt schneiden oder berühren, d. h. es wird festgestellt, ob die sich ergebende Differenzfunktion die Ebene z = 0 schneidet oder nicht. Der Ausgang dieser Entschei¬ dungsstufe 22 sowie der Ausgang der Differenzbildungsstufe 21 sind mit einer Einrichtung 23 zur Division der AusgangsdatenFIG. 2 shows a block diagram of a circuit for carrying out the method which has been described in FIG. 1. The circuit has a data memory 20 in which the spatial coordinates and the color and brightness values of the raster points of the geometric objects are stored. A difference forming stage 21 is connected to the outputs of this memory 20 and reads the data x A x B , dz A x, dz B x, dz A y and dz B y from the data memory 20 and the differences z A - z B , dz A x - dz B x and dz A y - dz B y. This is followed by a decision stage 22 for determining whether the two objects intersect or touch in the pixel under consideration, ie it is determined whether or not the resulting difference function intersects the plane z = 0. The output of this decision stage 22 and the output of the difference formation stage 21 are provided with a device 23 for dividing the output data
./. der Differenzbildungsstufe 21 zu Normierungszwecken verbunden. Der Einrichtung 23 ist eine Einheit 24 aus logischen Gattern zur Ermittlung der Prioritäts-Unterbildpunktmaske C und der modifizierten Objekt-Unterbildpunktmasken A_._ und B_._ nachge¬ schaltet. Die Ausgangsdaten der Einheit 24 werden entweder in einem Datenspeicher 25 abgelegt, von wo sie für weitere gleichartige Berechnungen wieder ausgelesen werden können, oder sie werden an eine gleichartige nachgeschaltete Einheit weitergegeben, wo weitere Berechnungen gleicher Art vorgenom¬ men werden. Sind alle Berechnungen für einen Bildpunkt abge¬ schlossen, werden die resultierenden Daten an eine Rechenein¬ heit 26 weitergegeben, in der sie zu den Helligkeits- und Farbwerten für den betrachteten Bildpunkt weiterverarbeitet werden../. the difference formation level 21 connected for standardization purposes. The device 23 is followed by a unit 24 of logic gates for determining the priority sub-pixel mask C and the modified object sub-pixel masks A _._ and B _._. The output data of the unit 24 are either stored in a data memory 25, from where they can be read out again for further similar calculations, or they are forwarded to a similar downstream unit, where further calculations of the same type are carried out. When all the calculations for one pixel have been completed, the resulting data are passed on to a computing unit 26, in which they are further processed to the brightness and color values for the pixel in question.
In Fig. 3 ist ein Beispiel eines möglichen Aufbaus der Schal¬ tungskomponenten 20-24 in Fig. 2 dargestellt. Drei parallele Subtrahierer 30-32 berechnen die z-Wertdifferenz und die Dif¬ ferenz der Änderungen der z-Werte. In den nachfolgenden Schal- tungsteilen 33-35 werden jeweils die Absolutbetrage dieser Differenzen gebildet. Diese Absolutbetrage werden in drei Shifter 36-38 eingelesen und bei Bedarf nach rechts verscho¬ ben. Ein Ausgangsbus 39 des Shifters 36 ist mit einem Subtra¬ hierer 40 verbunden, wahrend die Ausgangsbusse 41 und 42 der Shifter 37 und 38 mit einem Addierer 43 verbunden sind. Der Ausgang des Addierers 43 ist wiederum mit dem Subtrahierer 40 verbunden. Mit Hilfe des Subtrahierers 40 und des Addierers 43 werden Kenngroßen für die Differenzf nktion der z-Werte der beiden betrachteten Objekte OA und 0B:FIG. 3 shows an example of a possible construction of the circuit components 20-24 in FIG. 2. Three parallel subtractors 30-32 calculate the z-value difference and the difference of the changes in the z-values. The absolute amounts of these differences are formed in the following circuit parts 33-35. These absolute amounts are read into three shifters 36-38 and, if necessary, shifted to the right. An output bus 39 of the shifter 36 is connected to a subtractor 40, while the output buses 41 and 42 of the shifters 37 and 38 are connected to an adder 43. The output of the adder 43 is in turn connected to the subtractor 40. With the help of the subtractor 40 and the adder 43, parameters for the differential function of the z values of the two objects O A and 0 B under consideration are:
F(x,y) = (zA-zB) + x(dzAx-dzBx) + y(dzAy-dzBy)F (x, y) = (z A -z B ) + x (dz A x-dz B x) + y (dz A y-dz B y)
berechnet. Das Ausgangssignal von ODER-Gatter 44 zeigt an, ob sich die beiden Objekte 0A und 0B im gerade betrachteten Bild¬ punkt schneiden. Ist dies nicht der Fall, so besteht die in Stufe 24 zu berechnende Prioritäts-Unterbildpunktmaske nur auscalculated. The output signal from OR gate 44 indicates whether the two objects 0 A and 0 B intersect in the pixel being viewed. If this is not the case, the priority sub-pixel mask to be calculated in stage 24 only consists of
./. logischen Einsen bzw. nur aus logischen Nullen, je nach dem Vorzeichen der in Subtrahierer 30 berechneten Differenz. Sonst wird in Stufe 24 die Unterbildpunktmaske berechnet. Als Ein¬ gangsdaten erhält die Stufe 24 hierzu die mit Hilfe zweier Dividierer 45 und 46 normierten Differenzen der z-Werte und der z-Wert-Änderung in x- oder y-Richtung../. logical ones or only logical zeros, depending on the sign of the difference calculated in subtractor 30. Otherwise, the sub-pixel mask is calculated in step 24. For this purpose, stage 24 receives as input data the differences between the z values and the z value change in the x or y direction normalized with the aid of two dividers 45 and 46.
In Fig. 4 ist eine sogenannte Pipeline-Schaltung von Schaltun¬ gen 50 dargestellt, die jeweils einen Objektvergleich durch¬ führen und die Prioritäts-Unterbildpunktmaske sowie die modi¬ fizierten Ünterbildpunktmasken für einen Bildpunkt betrachten. Die Schaltungen 50, die beispielsweise Schaltungen entspre¬ chend Fig. 3 enthalten können, erhalten Daten von Schaltungs¬ einheiten 51, die jeweils in Bildpunkte zerlegte geometrische Objekte enthalten und diese nach Bildpunkten sortiert an die Schaltungen 50 geben. Die Objektdaten können dabei über einen Datenbus 52 von einem angeschlossenen Rechner zu den Schal¬ tungseinheiten 51 geleitet werden. Die Schaltung nach Fig. 4 berechnet nun fortlaufend von links nach rechts die Beiträge der einzelnen geometrischen Objekte zu den verschiedenen Bild¬ punkten. Dabei wird beispielsweise in der ersten Schaltung 50 ein Vergleich des ersten und zweiten geometrischen Objekts für den ersten Bildpunkt durchgeführt. Die berechneten ünterbild¬ punktmasken werden an die nachfolgende Schaltung 50 weiterge¬ geben, in der ein Vergleich des ersten und des dritten geome¬ trischen Objekts für den gleichen Bildpunkt durchgeführt wird und mit den Informationen aus dem Objektvergleich Objekt 1 und Objekt 2 in der vorhergehenden Stufe verknüpft wird. In der darauffolgenden Stufe findet ein Vergleich zwischen dem ersten und dem vierten Objekt für den gleichen Bildpunkt statt und sofort. Während die zweite Schaltung 50 den Objektvergleich zwischen dem ersten und dritten Objekt durchführt, berechnet die erste Schaltung 50 bereits den Objektvergleich zwischen dem ersten und dem zweiten Objekt für den nächsten Bildpunkt.4 shows a so-called pipeline circuit of circuits 50, which each carry out an object comparison and consider the priority subpixel mask and the modified subpixel masks for one pixel. The circuits 50, which may contain circuits according to FIG. 3, for example, receive data from circuit units 51, which each contain geometric objects broken down into pixels and pass them to the circuits 50 sorted according to pixels. The object data can be routed from a connected computer to the circuit units 51 via a data bus 52. The circuit according to FIG. 4 now continuously calculates the contributions of the individual geometric objects to the different pixels from left to right. For example, a comparison of the first and second geometric objects for the first pixel is carried out in the first circuit 50. The calculated sub-image point masks are passed on to the subsequent circuit 50, in which a comparison of the first and third geometric objects is carried out for the same image point and with the information from the object comparison object 1 and object 2 in the previous stage is linked. In the next stage there is a comparison between the first and the fourth object for the same pixel and immediately. While the second circuit 50 is performing the object comparison between the first and third objects, the first circuit 50 is already calculating the object comparison between the first and the second object for the next pixel.
Auf diese Weise können mehrere Bildpunkte gleichzeitig berech¬ net werden, was die Verarbeitungsgeschwindigkeit deutlich erhöht. Sollten nach Durchlaufen der gesamten Schaltungskette noch nicht alle Daten für einen Bildpunkt vorliegen, so werden die bis dahin erzeugten Daten wieder zum Anfang der Schal¬ tungskette gegeben und dort die noch fehlenden Daten dazube- rechnet. Das Wiedereinschleifen in die Prozessorkette kann dabei direkt erfolgen oder über einen Zwischenspeicher 53. Wenn alle Beiträge der einzelnen Objekte und ünterbildpunkte zum Gesamtbildpunkt berechnet sind, wird in einer weiteren Schaltungseinheit 54 der zugehörige Helligkeits- und Farbwert des Bildpunkts des Ausgabegerätes berechnet.In this way, several pixels can be calculated simultaneously, which clearly shows the processing speed elevated. If, after running through the entire circuit chain, all the data for a pixel are not yet available, the data generated up to that point are returned to the beginning of the circuit chain and the data which are still missing are added there. The looping back into the processor chain can take place directly or via a buffer 53. When all contributions of the individual objects and sub-pixels to the overall pixel have been calculated, the associated brightness and color value of the pixel of the output device is calculated in a further circuit unit 54.
Die in Fig. 4 dargestellten Schaltungen 50 können auch durch programmierbare Prozessoren ersetzt oder ergänzt sein. Der Einsatz von programmierbaren Prozessoren erhöht die Flexibili¬ tät der Anordnung, wobei allerdings eine geringere Verarbei¬ tungsgeschwindigkeit in Kauf genommen werden muß, falls alle Verarbeitungsschritte von diesen programmierbaren Prozessoren ausgeführt werden. The circuits 50 shown in FIG. 4 can also be replaced or supplemented by programmable processors. The use of programmable processors increases the flexibility of the arrangement, although a lower processing speed must be accepted if all processing steps are carried out by these programmable processors.

Claims

P a t e n t a n s p r ü c h eP a t e n t a n s r u c h e
Verfahren zur Erzeugung der Färb- und Helligkeitswerte von Bildpunkten eines Ausgabegerätes, insbesondere eines Bild¬ schirms, mit Hilfe einer elektronischen Schaltung für die Darstellung mehrerer dreidimensionaler geometrischer Ob¬ jekte, die sich teilweise überlappen, berühren oder schneiden, gekennzeichnet durch folgende Schritte:Method for generating the color and brightness values of pixels of an output device, in particular a screen, with the aid of an electronic circuit for the display of several three-dimensional geometric objects which partially overlap, touch or intersect, characterized by the following steps:
Zerlegen der geometrischen Objekte (0A, 0B) in Raster¬ punkte und Bestimmung der Koordinaten in z-Richtung senkrecht zur Bildfläche sowie der Färb- und Hellig¬ keitswerte für die einzelnen Rasterpunkte,Decomposing the geometric objects (0 A , 0 B ) into halftone dots and determining the coordinates in the z direction perpendicular to the image area and the color and brightness values for the individual halftone dots,
Aufteilung der Bildpunkte (10) in ünterbildpunkte (11) und Erzeugung von ünterbildpunktmasken (A, B) für jedes der Objekte (0A, 0„) , wobei die Masken (A, B) ein Maß für die Bedeckung eines Bildpunkts (10) durch das jeweilige Objekt (0A, 0B) darstellen,Division of the pixels (10) into subpixels (11) and generation of subpixel masks (A, B) for each of the objects (0 A , 0 "), the masks (A, B) being a measure of the coverage of a pixel (10) through the respective object (0 A , 0 B ),
Ermittlung einer gemeinsamen Prioritäts-Unterbild¬ punktmaske (C) für jeweils zwei Objekte (0A, 0B) , die angibt, an welchen Unterbildpunkten (11) das erste Objekt (0A) im gerade betrachteten Bildpunkt (10) in z-Richtung senkrecht zur Bildfläche vor dem zweiten Objekt (0B) liegt, dieses also für den Betrachter ver¬ deckt,Determination of a common priority sub-pixel mask (C) for two objects (0 A , 0 B ), which specifies the sub-pixels (11) at which the first object (0 A ) in the pixel (10) being viewed in the z direction lies perpendicular to the image area in front of the second object (0 B ), ie hides it for the viewer,
mit Hilfe dieser Prioritäts-Unterbildpunktmaske (C) Modifizierung der ünterbildpunktmasken (A, B) der beiden Objekte (0A, 0B) derart, daß die Masken (An„, Bn„) jeweils nur noch die ünterbildpunkte (11) markie-with the help of this priority sub-pixel mask (C) modification of the sub-pixel masks (A, B) of the two objects (0 A , 0 B ) such that the masks (A n ", B n ") each mark only the sub-pixels (11) -
. / ren, an denen das zugehörige Objekt (0A, 0„) nicht durch das andere Objekt verdeckt ist,, / where the associated object (0 A , 0 ") is not covered by the other object,
Durchführung der beiden vorhergehenden Schritte für alle Paare von Objekten, die zu dem gerade betrachte¬ ten Bildpunkt (10) beitragen,Carrying out the two preceding steps for all pairs of objects that contribute to the pixel (10) being viewed,
Berechnung des Färb- und Helligkeitswertes des Gesamt¬ bildpunktes (10) des Ausgabegerätes durch Aufaddieren der Beiträge der ünterbildpunkte (11).Calculation of the color and brightness value of the total pixel (10) of the output device by adding up the contributions of the lower pixels (11).
Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die ünterbildpunktmasken (A, B), jeweils Matrizen mit einer der Anzahl der ünterbildpunkte (11) entsprechenden Zahl von Elementen sind, wobei diese Elemente den logischen Wert "1" aufweisen, wenn der durch das jeweilige Element repräsentierte ünterbildpunkt (11) vom gerade betrachteten Objekt (0A, 0B) überdeckt wird, und andernfalls den logi¬ schen Wert "0" aufweisen.A method according to claim 1, characterized in that the sub-pixel masks (A, B) are each matrices with a number of elements corresponding to the number of sub-pixels (11), these elements having the logical value "1", if that by the respective Element represented sub-pixel (11) is covered by the object (0 A , 0 B ) being viewed, and otherwise has the logical value "0".
Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die Prioritäts-Unterbildpunktmaske (C) durch Bildung der Differenz zwischen den z-Werten der beiden Objekte (0A, 0B) am gerade betrachteten Bildpunkt (11) sowie Bil¬ dung der Differenz zwischen den Änderungen dieser z-Werte der beiden Objekte (OA, 0B) vom gerade betrachteten Bild¬ punkt (10) zum jeweils nächsten bestimmt wird, wobei den Elementen der Prioritäts-Unterbildpunktmaske (C) der logi¬ sche Wert "1" zugeordnet wird, wenn für den zugehörigen ünterbildpunkt (11) der z-Wert der sich durch die Diffe¬ renzbildungen ergebenden Funktion einen positiven Wert aufweist, d. h. das erste Objekt (0A) an diesem ünterbild¬ punkt (11) in z-Richtung vor dem zweiten Objekt (0B) liegt. 4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch ge¬ kennzeichnet, daß bei Überlappen, Schneiden oder Berühren von transparenten geometrischen Objekten (0A, 0B) aus den Ünterbildpunktmasken (A, B) der Objekte (OA, 0B) und der Prioritäts-Unterbildpunktmaske (C) für jeden Bildpunkt (10) mindestens drei ünterbildpunktmasken generiert wer¬ den, die in z-Richtung hintereinanderliegenden Teilflächen von Unterbildpunktebenen entsprechen.Method according to Claim 1 or 2, characterized in that the priority subpixel mask (C) by forming the difference between the z values of the two objects (0 A , 0 B ) at the pixel (11) being viewed and forming the difference between the changes in these z values of the two objects (O A , 0 B ) from the pixel (10) currently being viewed to the next in each case is determined, the elements of the priority sub-pixel mask (C) having the logical value "1" is assigned if the z-value of the function resulting from the differentiation has a positive value for the associated sub-pixel (11), ie the first object (0 A ) at this sub-pixel (11) in the z-direction the second object (0 B ). 4. The method according to any one of claims 1 to 3, characterized ge indicates that when overlapping, cutting or touching transparent geometric objects (0 A , 0 B ) from the sub-pixel masks (A, B) of the objects (O A , 0 B ) and the priority subpixel mask (C) for each pixel (10) at least three subpixel masks are generated which correspond to partial areas of subpixel planes lying one behind the other in the z direction.
5. Schaltung zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß sie5. Circuit for performing the method according to one of claims 1 to 4, characterized in that it
einen Datenspeicher (20) zur Aufnahme der z-Koordina- ten, der z-Wert-Änderungen und der Färb- und Hellig¬ keitswerte der Rasterpunkte der geometrischen Objekte <0A, 0B),a data memory (20) for recording the z coordinates, the z value changes and the color and brightness values of the grid points of the geometric objects <0 A , 0 B ),
eine mit den Ausgängen dieses Speichers (20) verbunde¬ ne Differenzbildungsstufe (21) zur Berechnung der Differenzen der z-Werte (zA, zB) und z-Wert-Änderungen (dzx, dzy) zweier Objekte (0A, 0B) ,a difference formation stage (21) connected to the outputs of this memory (20) for calculating the differences between the z values (z A , z B ) and z value changes (dzx, dzy) of two objects (0 A , 0 B ),
eine mit den Ausgängen der Differenzbildungsstufe (21) verbundene Entscheidungsstufe (22) zur Feststellung, ob sich die beiden Objekte (0A, 0B) im betrachteten Bildpunkt schneiden oder berühren,a decision stage (22) connected to the outputs of the difference formation stage (21) to determine whether the two objects (0 A , 0 B ) intersect or touch in the pixel under consideration,
eine Einrichtung (23) zur Division der Ausgangsdaten der Differenzbildungsstufe (21) zu Normierungszweckena device (23) for dividing the output data of the difference formation stage (21) for standardization purposes
und eine Einheit (24) zur Ermittlung der Prioritäts- Unterbildpunktmaske (C) und der modifizierten Objekt- Unterbildpunktmasken (A„., Bn, )and a unit (24) for determining the priority subpixel mask (C) and the modified object subpixel masks (A "., B n ,)
aufweist.having.
/. 6. Rechner zur Durchführung des Verfahrens nach einem der An¬ sprüche 1 bis 4, dadurch gekennzeichnet, daß er mit mehre¬ ren hintereinander angeordneten Schaltungen nach Anspruch 5 zur parallelen Bestimmung der modifizierten Ünterbild¬ punktmasken (A„u, Bn,„) von mehreren Objektpaaren (0A, 0B) gleichzeitig ausgerüstet ist./. 6. Computer for carrying out the method according to one of claims 1 to 4, characterized in that it comprises, with several circuits arranged one behind the other, according to claim 5 for the parallel determination of the modified Ünterbild¬ dot masks (A " u , B n ,") of several object pairs (0 A , 0 B ) is equipped at the same time.
/. /.
PCT/EP1993/003685 1992-12-30 1993-12-24 Process for generating pixel chrominance and brightness values WO1994016404A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DEP4244507.8 1992-12-30
DE19924244507 DE4244507A1 (en) 1992-12-30 1992-12-30 Process for generating the color and brightness values of pixels

Publications (1)

Publication Number Publication Date
WO1994016404A1 true WO1994016404A1 (en) 1994-07-21

Family

ID=6476810

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP1993/003685 WO1994016404A1 (en) 1992-12-30 1993-12-24 Process for generating pixel chrominance and brightness values

Country Status (2)

Country Link
DE (1) DE4244507A1 (en)
WO (1) WO1994016404A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7262783B2 (en) 2004-03-03 2007-08-28 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
US7755643B2 (en) 2004-03-03 2010-07-13 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19903201B4 (en) 1999-01-27 2005-04-21 Siemens Ag A display device and method for displaying a display instrument by a pixel matrix display

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5088054A (en) * 1988-05-09 1992-02-11 Paris Ii Earl A Computer graphics hidden surface removal system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6476374A (en) * 1987-09-18 1989-03-22 Toshiba Corp Depth map producing device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5088054A (en) * 1988-05-09 1992-02-11 Paris Ii Earl A Computer graphics hidden surface removal system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HSU AND HOCK: "AN ALGORITHM FOR THE GENERAL SOLUTION OF HODDEN LINE REMOVAL FOR INTERSECTING SOLIDS", COMPUTERS AND GRAPHICS., vol. 15, no. 1, 1991, OXFORD GB, pages 67 - 86, XP000179597 *
SHIJIE AND FUYAN: "A FAST ALGORITHM FOR POLYGON OPERATIONS", JOURNAL OF COMPUTER SCIENCE AND TECHNOLOGY, vol. 6, no. 1, January 1991 (1991-01-01), BEJING CHINA, pages 90 - 96 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7262783B2 (en) 2004-03-03 2007-08-28 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
US7755643B2 (en) 2004-03-03 2010-07-13 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
US7956872B2 (en) 2004-03-03 2011-06-07 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
US8411109B2 (en) 2004-03-03 2013-04-02 Engram Networking Llc System for delivering and enabling interactivity with images
US9087413B2 (en) 2004-03-03 2015-07-21 Engram Networking Llc System for delivering and enabling interactivity with images

Also Published As

Publication number Publication date
DE4244507A1 (en) 1994-07-07

Similar Documents

Publication Publication Date Title
DE3750784T2 (en) Generation of an intrapolated characteristic value for display.
DE69535098T2 (en) Method and apparatus for searching images in a database
DE69914355T2 (en) IMAGE PROCESSING UNIT
DE68926890T2 (en) Image enlargement
DE68915006T2 (en) System for generating sample data.
DE69937785T2 (en) Method of selecting color block points for block coding
DE69126611T2 (en) IMAGING DEVICE
DE69120407T2 (en) IMAGE GENERATOR
DE2909153A1 (en) DEVICE FOR ELECTRONIC PROCESSING OF IMAGE AND / OR CHARACTER PATTERNS
DE102005046772A1 (en) Iterative method for interpolation of image information values
DE19546769C2 (en) Method and device for generating pattern data
EP1585059A2 (en) Method and apparatus for evaluation of motion vectors allocated to image regions
DE19924077A1 (en) Digital image aligning method involves computing variation vector on correspondence candidate intersection point from starting point of coordinate system of plotted flat surface
DE2634331A1 (en) PATTERN RECOGNITION SYSTEM
DE4224568C2 (en) Apparatus and method for forming the display of a three-dimensional sequential tomographic area shading image
DE69029429T2 (en) Binary image reduction process
WO2008034599A2 (en) Method and device for image processing
DE4100691B4 (en) Process for displaying a three-dimensional model
WO1994016404A1 (en) Process for generating pixel chrominance and brightness values
DE102008046505B4 (en) Process for image processing of stereo images
DE69128075T2 (en) IMPROVEMENTS IN THE PRODUCTION OF EFFECTS WITH DIGITAL VIDEO SIGNALS
DE2805754C2 (en) Device for checking distances in an image pattern
EP1699036A1 (en) LED display with high resolution
DE112019007225B4 (en) Vehicle surroundings image generating device, vehicle surroundings display system and vehicle surroundings display method
EP1537538B1 (en) Method for determination of weighting factors for the colour calculation of a colour value for texels in a footprint

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: CA