DE10246122B4 - Method and device for displaying a computer-modeled article - Google Patents
Method and device for displaying a computer-modeled article Download PDFInfo
- Publication number
- DE10246122B4 DE10246122B4 DE2002146122 DE10246122A DE10246122B4 DE 10246122 B4 DE10246122 B4 DE 10246122B4 DE 2002146122 DE2002146122 DE 2002146122 DE 10246122 A DE10246122 A DE 10246122A DE 10246122 B4 DE10246122 B4 DE 10246122B4
- Authority
- DE
- Germany
- Prior art keywords
- textures
- parameters
- index
- determined
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn - After Issue
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/15—Vehicle, aircraft or watercraft design
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/12—Shadow map, environment map
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Computational Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Computer Hardware Design (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Abstract
Verfahren zur Darstellung eines computermodellierten Gegenstands, das einen Preprocessing- und einen Visualisierungsschritt umfasst, dadurch gekennzeichnet, dass in dem Preprocessingschritt Parameter, in Form von Texturen der Oberflächenpunkte, für zumindest einen Teil zumindest einer Oberfläche des darzustellenden Gegenstands (H) mittels eines Raytracingverfahrens ermittelt und in ein Parameterfeld abgelegt werden, wobei die Parameter für jeden Teil der mindestens einen Oberfläche für unterschiedliche Perspektiven der Betrachtung bestimmt werden, und dass in dem Visualisierungsschritt mindestens eine Betrachtungsperspektive ausgewählt wird und mittels der für diese Perspektive bestimmten Parameter eine Echtzeitdarstellung des Gegenstandes erfolgt, wobei die Betrachtungsperspektive über einen Rotationswinkel (θ, ψ) um einen Fixpunkt (F) in dem darzustellenden Gegenstand (H) bestimmt wird.method to depict a computer modeled object having a Preprocessing and a visualization step includes, thereby characterized in that in the preprocessing step parameters, in form of surface point texture, for at least one Part of at least one surface of the item to be displayed (H) by means of a ray tracing method determined and stored in a parameter field, the parameters for each Part of the at least one surface for different Perspectives of viewing are determined, and that in the visualization step at least one viewing perspective is selected and by means of for this Perspective certain parameters a real-time representation of the object takes place, wherein the viewing perspective over a rotation angle (θ, ψ) by one Fixed point (F) in the object to be displayed (H) is determined.
Description
Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Darstellung eines computermodellierten Gegenstands, insbesondere zur Darstellung eines virtuellen Prototypen von Produkten.The The present invention relates to a method and an apparatus to illustrate a computer-modeled article, in particular to represent a virtual prototype of products.
Bei der Entwicklung neuer Produkte, insbesondere bei der Entwicklung neuer Kraftfahrzeugkomponenten, ist es in der Entwicklungsphase notwendig, einen Prototypen zu erzeugen. Anhand des Prototypen sollen insbesondere Designaspekte beurteilt werden können. Zudem sollen die sich oft widersprechenden Anforderungen von Technik, Gesetz und Design aufeinander abgestimmt werden. Da die Entwicklungszeiträume immer kürzer werden, hat es sich bewährt, anstelle der Herstellung von Prototypen sogenannte virtuelle Prototypen zu verwenden. Diese virtuellen Prototypen können für die Unterstützung des Entwicklungsprozesses, aber auch für die Entscheidungsfindung bei der Wahl zwischen verschiedenen Designs verwendet werden.at the development of new products, especially in development new automotive components, it is in the development phase necessary to produce a prototype. Based on the prototype especially design aspects can be assessed. In addition, the should often conflicting requirements of technology, law and design be coordinated with each other. Because the development periods always shorter be, it has proven instead of producing prototypes so-called virtual prototypes to use. These virtual prototypes can be used to support the Development process, but also for decision-making to be used in choosing between different designs.
Die virtuellen Prototypen müssen die Anforderung erfüllen, eine photorealistische Visualisierung des Produkts zu geben, die etwa die gleiche Beurteilungsbasis wie ein tatsächlicher Prototyp liefert.The virtual prototypes need fulfill the requirement to give a photorealistic visualization of the product that about the same assessment base as an actual prototype provides.
Als eine Visualisierungsmethode ist beispielsweise das Z-Bufferverfahren bekannt. Bei diesem Verfahren werden die einzelnen Geometriepartikel des Produkts (in der Regel Dreiecke) auf eine Kameraebene abgebildet und jeweils deren Abstand zu der Ebene abgespeichert. Es kann nun in jedem Punkt leicht bestimmt werden, welches Partikel am nächsten zur Kameraebene liegt. Die Farbe dieses Partikels wird in diesem Punkt dargestellt. Im Falle von transparenten Objekten wird neben dem vorderen transparenten Flächenstück auch die dahinterliegende Geometrie in abgeschwächter Form dargestellt.When A visualization method is, for example, the Z-buffer method known. In this process, the individual geometry particles of the product (usually triangles) on a camera level and each stored their distance to the plane. It can now be easily determined at each point, which particle closest to Camera level is. The color of this particle is shown in this point. In the case of transparent objects will be next to the front transparent Surface piece also the underlying geometry shown in a weakened form.
Ein
Verfahren zum Texturieren von 3D-Bildern ist in der
Weiterhin ist in dem Artikel „Texture extraction from photographs and rendering with dynamic texture mapping" von Genc,S. und Atalay, V. (Proc. Int. Conference on Image Analysis and Processing, 1999, Seite 1055-1058) ein Verfahren zur Darstellung eines Gegenstandes beschrieben, wobei die Texturen der Oberfläche aus Bildern extrahiert werden, die aus unterschiedlichen Winkeln zu dem Gegenstand aufgenommen wurden. Hierbei muss eine große Anzahl von Bildern bezüglich der Textur an der Oberfläche extrahiert werden, um eine fotorealistische Wiedergabe des Gegenstandes zu erzeugen.Farther is in the article "Texture extraction from photographs and rendering with dynamic texture mapping "by Genc, S. and Atalay, V. (Proc. Int. Conference on Image Analysis and Processing, 1999, pages 1055-1058) discloses a method of displaying an article described, with the textures of the surface extracted from images are picked up from different angles to the object were. This must be a big one Number of pictures with respect to the texture on the surface be extracted to a photo-realistic rendering of the object to create.
Z-Bufferalgorithmen sind sehr einfach aufgebaut und können fest in einer Grafikhardware implementiert werden. Die daraus resultierende Geschwindigkeit ermöglicht es, große Datenmengen in Echtzeit darzustellen. Allerdings wird bei diesem Verfahren jedes Geometriepartikel isoliert von der Umgebung betrachtet, so dass in reflektierenden Objekten die Umgebung nicht realistisch dargestellt werden kann. Mit Hilfe sogenannter Environmentmaps kann der Eindruck von reflektierenden Oberflächen erzeugt werden. Um den darzustellenden Oberflächenpunkt wird dabei eine Sphäre gelegt, auf der eine Textur die zu reflektierende Umgebung darstellt. Der Sichtstrahl des Betrachters zum Oberflächenpunkt wird an der Oberfläche gespiegelt und der entsprechende Farbpunkt auf der Sphäre kennzeichnet den im Oberflächenpunkt sichtbaren Farbwert. Durch die Verwendung von Environmentmaps scheint sich zwar etwas in der Oberfläche zu spiegeln, Umgebungselemente sind durch diese Technik aber nicht sichtbar. Neben der mangelnden Darstellung von Reflektionen sind Refraktionen – die Brechung des Lichtstrahls in einem teiltransparenten Objekt – nicht möglich.Z-buffer algorithms are very simple and can be fixed in a graphics hardware be implemented. The resulting speed makes it possible size Display data volumes in real time. However, this is going on Method considered each geometry particle isolated from the environment, so that in reflective objects the environment is not realistic can be represented. With the help of so-called environment maps can the impression of reflective surfaces are generated. To the surface point to be displayed becomes a sphere on which a texture represents the environment to be reflected. The viewing beam of the observer to the surface point is mirrored on the surface and the corresponding color point on the sphere marks that in the surface point visible color value. By the use of environment maps seems something in the surface but environment elements are not visible, noticeable. In addition to the lack of representation of reflections are refractions - the refraction of the light beam in a semi-transparent object - not possible.
Neben dem Z-Bufferverfahren ist als weitere Visualisierungsmethode das sogenannte Raytracingverfahren bekannt. Das Raytracingverfahren verfolgt einen vollständig anderen Ansatz. Ausgehend von einem Betrachter werden Strahlen in den Raum geschickt. Trifft der Strahl auf eine Oberfläche auf, so wird er, je nach Oberflächeneigenschaften, diffus gestreut, reflektiert, oder aber er tritt refraktiv in das Objekt ein. Eine Kombination der drei Möglichkeiten ist vorstellbar. In diesem Fall wird der Strahl in mehrere Strahlen aufgeteilt, einer wird an der Oberfläche reflektiert, der zweite tritt unter Beachtung eines Brechungsindex in das Objekt ein. Die jeweils neu erzeugten Strahlen werden weiter verfolgt und eventuell erneut reflektiert oder innerhalb anderer Objekte gebrochen. Der Farbwert, des Oberflächenpunkts ist die gewichtete Mischung der Farbwerte der beiden Strahlen sowie der Oberflächenfarbe an diesem Punkt.Next The Z-buffer method is another visualization method so-called raytracing known. The raytracing method follows a completely different approach. Starting from a viewer, rays are in sent the room. If the beam strikes a surface, so will he, depending on the surface properties, diffused, reflected, or refractively enters Object. A combination of the three possibilities is conceivable. In this case, the beam is split into several beams, one becomes on the surface the second occurs considering a refractive index into the object. The newly generated beams will continue tracked and possibly reflected again or within other objects Broken. The color value of the surface point is the weighted one Mixture of the color values of the two rays and the surface color at this point.
Die Datenstruktur, die zum Durchführen eines solchen Verfahrens notwendig ist, ist im Vergleich zu der Datenstruktur des Z-Bufferverfahrens wesentlich komplexer. In der Regel wird eine baumartige Datenstruktur benötigt. Aufgrund dieser Komplexität kann dieses Verfahren in der Regel nicht als Hardwarelösung implementiert werden. Die Berechnungszeit kann darüber hinaus, je nach Komplexität der dargestellten Geometrie, sehr lang sein. Allerdings kann mit dieser Methode eine sehr hohe Qualität der Darstellung erzielt werden.The Data structure to perform Such a procedure is necessary in comparison to the Data structure of the Z-buffer method significantly more complex. In the Usually a tree-like data structure is needed. Because of this complexity, this can be Procedures usually can not be implemented as a hardware solution. The calculation time can over it beyond, depending on the complexity the geometry shown, be very long. However, with This method achieves a very high quality of presentation.
Schließlich ist für die aussagekräftige Beurteilung von virtuellen Designmodellen neben der Darstellungsqualität das Darstellungsmedium von großer Bedeutung. Ein mögliches Medium ist die Echtzeitvisualisierung. Hierbei muss zur Gewährleistung des Echtzeitanspruchs als Visualisierungsverfahren das Z-Bufferverfahren verwendet werden. Refraktionen sind allerdings nicht darstellbar und Reflektionen können nur mittels Environmenttexturen angedeutet werden.Finally is for the meaningful Assessment of virtual design models in addition to the presentation quality of the presentation medium of great Importance. A possible Medium is the real-time visualization. This must to ensure the real-time claim as a visualization method, the Z-buffer method be used. However, refractions are not possible and reflections can only indicated by environment textures.
In der Echtzeitvisualisierung werden komplexe Strukturen über Texturen dargestellt, vergleichbar mit Bildern, die auf eine Oberfläche geklebt werden. Dadurch ist es möglich, die Menge der darzustellenden Geometrie zu reduzieren und optische Effekte als planares Abbild darzustellen. Diese Texturen können sehr realistisch wirken, besitzen aber den großen Nachteil, dass diese gerade bei einer dargestellten Tiefenwirkung der Geometrie nur aus der Perspektive, aus der sie aufgenommen wurden, realistisch aussehen. In anderen Perspektiven wirken sie verzerrt und sind nicht verwendbar. Es ist somit nicht möglich, mit Hilfe einer auf eine Ebene projizierten Textur den aktuellen Konstruktionsstand aus Designsicht zu diskutieren.In real-time visualization becomes complex structures over textures shown, similar to pictures glued to a surface become. This makes it possible reduce the amount of geometry to be displayed and optical To present effects as a planar image. These textures can be very Realistic, but have the big disadvantage that this straight in a shown depth effect of the geometry only from the Perspective from which they were taken, look realistic. In other perspectives, they appear distorted and unusable. It is therefore not possible using a texture projected on a plane, the current one Design stand to discuss from design point of view.
Aufgabe der vorliegenden Erfindung ist daher die Bereitstellung eines Verfahrens und einer Vorrichtung zur verzerrungsfreien Darstellung eines Produkts in einer Echtzeitvisualisierung, die eine hohe Interaktivität erlaubt. Insbesondere soll die Darstellung auch dann verzerrungsfrei sein, wenn das Produkt aus unterschiedlichen Perspektiven betrachtet wird. Gleichzeitig soll die Darstellungsqualität hoch sein.task The present invention therefore provides a method and a device for distortion-free display of a product in a real-time visualization that allows high interactivity. In particular, the representation should also be distortion-free, when the product is viewed from different perspectives. At the same time, the quality of the presentation should be high.
Der Erfindung liegt die Erkenntnis zugrunde, dass diese Aufgabe ideal gelöst werden kann durch ein Verfahren und eine Vorrichtung, die die unterschiedlichen möglichen Positionen eines Betrachters bei der Ermittlung der für die Darstellung notwendigen Parameter berücksichtigen.Of the The invention is based on the finding that this task is ideal solved can be through a method and a device that the different potential Positions of an observer in the determination of the representation take into account the necessary parameters.
Die Aufgabe wird daher gelöst durch ein Verfahren zur Darstellung eines computermodellierten Gegenstands, das einen Preprocessing- und einen Visualisierungsschritt umfasst, dadurch gekennzeichnet, dass in dem Preprocessingschritt Parameter für zumindest einen Teil zumindest einer Oberfläche des darzustellenden Gegenstands ermittelt und in ein Parameterfeld abgelegt werden, wobei die Parameter für jeden Teil der mindestens einen Oberfläche für unterschiedliche Perspektiven der Betrachtung bestimmt werden. Hierbei werden die Parameter, die Texturen der Oberflächenpunkte darstellen, mittels eines Raytracingverfahrens ermittelt. Ferner wird in dem Visualisierungsschritt mindestens eine Betrachtungsperspektive ausgewählt und es erfolgt mittels der für diese Perspektive bestimmten Parameter eine Echtzeitdarstellung des Gegenstandes. Dabei wird die Betrachtungsperspektive über einen Rotationswinkel um einen Fixpunkt in dem darzustellenden Gegenstand bestimmt.The Task is therefore solved by a method of displaying a computer-modeled article, which comprises a preprocessing step and a visualization step, characterized in that in the preprocessing step parameters for at least a part of at least one surface of the object to be displayed determined and stored in a parameter field, the parameters for each Part of the at least one surface for different Perspectives of consideration. Here are the Parameters that represent textures of the surface points by means of a ray tracing method. Further, in the visualization step selected at least one viewing perspective and it is done by means of the for this perspective certain parameters a real-time representation of the object. In doing so, the viewing perspective becomes over one Rotation angle around a fixed point in the object to be displayed certainly.
Unter Perspektive der Betrachtung wird im Sinne dieser Erfindung die Position und Orientierung eines Betrachters oder einer Kamera bezüglich des Gegenstands verstanden. Durch die Bestimmung von Parametern für unterschiedliche Perspektiven können in dem Parameterfeld sämtliche Parameter abgelegt werden, die für mögliche Positionen und Blickwinkel eines Betrachters erforderlich sind. Eine Berechnung dieser Parameter während einer Visualisierung kann daher entfallen und eine Echtzeitvisualisierung kann daher ermöglicht werden.Under Perspective of consideration becomes the position in the sense of this invention and orientation of a viewer or a camera with respect to the Understood object. By determining parameters for different ones Perspectives can in the parameter field all Parameters are stored for possible Positions and angles of an observer are required. A calculation of these parameters during a visualization can therefore be omitted and a real-time visualization can therefore allows become.
Unter Parametern werden im Sinne dieser Erfindung Visualisierungsparameter verstanden. Diese Parameter stellen Texturen der Oberflächenpunkte der mindestens einen Oberfläche dar. Die Visualisierungsparameter werden auf der Basis des Raytracingverfahrens ermittelt. Dadurch können auch Reflektionen und Refraktionen innerhalb des Gegenstands korrekt dargestellt werden und die Darstellungsqualität kann deutlich verbessert werden. Die Verwendung des Raytracingverfahrens ist für die Echtzeitvisualisierung nur mit dem erfindungsgemäßen Verfahren möglich. Da die Parameter, insbesondere die Texturen, in einem Preprocessingschritt berechnet werden, beeinflussen die für das Raytracingverfahren notwendigen langen Rechnungszeiten die Echtzeitwirkung nicht. Aus diesem Grund können mit dem erfindungsgemäßen Verfahren auch komplexere Gegenstände, die zumindest teilweise reflektierende oder teildurchsichtige Bestandteile aufweisen, in hoher Qualität in Echtzeit dargestellt werden. Einen solchen Gegenstand stellen beispielsweise Beleuchtungselemente, wie die Heckleuchten eines Kraftfahrzeugs, dar.Under Parameters become visualization parameters in the sense of this invention Understood. These parameters represent textures of the surface points the at least one surface The visualization parameters are based on the raytracing method determined. Thereby can Reflections and refractions within the object are also correct can be displayed and the presentation quality can be significantly improved become. The use of the raytracing method is for real-time visualization only with the method according to the invention possible. Because the parameters, especially the textures, in a Preprocessingschritt are calculated, affect the necessary for the raytracing process long billing times the real-time effect is not. For this reason can with the method according to the invention also more complex objects, the at least partially reflective or partially transparent components exhibit, in high quality be displayed in real time. To put such an object For example, lighting elements such as the tail lights of a Motor vehicle, dar.
Vorzugsweise wird jedem Parameter ein Index zugewiesen, wobei der Index zumindest die Information über die Perspektive der Betrachtung beinhaltet. Durch die Zuweisung von Indices können bei einer späteren Ausgabe der Visualisierungsparameter diejenigen Parameter gemeinsam ausgelesen werden, die für eine bestimmte Betrachtungsperspektive aufgenommen wurden.Preferably each index is assigned an index, the index being at least the information about includes the perspective of viewing. By assignment of indices can at a later Output of visualization parameters those parameters in common be read out for a certain perspective was taken.
In dem Visualisierungsschritt werden daher bevorzugt Parameter aus dem Parameterfeld ausgelesen, wobei eine Betrachtungsperspektive ausgewählt wird und die bezüglich dieser Perspektive bestimmten und abgelegten Parameter ausgelesen werden.In The visualization step is therefore preferred parameters the parameter field, with a viewing perspective selected will and the re This perspective selected and stored parameters are read out become.
Das erfindungsgemäße Verfahren kann in einer Ausführungsform so ausgelegt sein, dass in dem Preprocessingschritt
- – um den darzustellenden Gegenstand eine Teilsphäre gelegt wird,
- – diese Teilsphäre in diskreten Schritten in den Höhen- und Breitengraden der Teilsphäre durchlaufen wird,
- – für jeden diskreten Punkt der Teilsphäre, der sich durch einen diskreten Höhen- und Breitengrad auszeichnet, die Texturen mindestens einer der Oberflächen des Gegenstands bestimmt werden,
- – diese Texturen mit jeweils einem Index versehen werden, der zumindest den Höhen- und Breitengrad der Teilsphäre, von dem aus diese berechnet wurden, beinhaltet, und
- – diese indizierten Texturen in ein Texturenfeld abgelegt werden,
- – und dass in dem Visualisierungsschritt eine Kameraanimation verwendet wird, bei der die Kameraposition um einen in dem Gegenstand befindlichen Fixpunkt gedreht werden kann,
- – der Rotationswinkel der Kamera ermittelt wird,
- – aus diesem Rotationswinkel der Index bestimmt wird, mit dem die zu verwendenden Texturen in dem Texturenfeld versehen sind, und
- – diese Texturen auf die mindestens eine Oberfläche des darzustellenden Gegenstands projiziert werden.
- - a partial sphere is placed around the object to be displayed,
- - this sub-sphere is traversed in discrete steps in the high and low degrees of the partial sphere,
- For each discrete point of the sub-sphere characterized by a discrete high and low latitude, the textures of at least one of the surfaces of the object are determined,
- - these textures are each provided with an index which at least includes the latitude and longitude of the partial sphere from which they were calculated, and
- - these indexed textures are placed in a texture field,
- And in that in the visualization step a camera animation is used in which the camera position can be rotated about a fixed point located in the object,
- - the rotation angle of the camera is determined,
- From this rotation angle the index is determined, with which the textures to be used are provided in the texture field, and
- - These textures are projected onto the at least one surface of the object to be displayed.
Die der Erfindung zugrunde liegende Aufgabe wird weiterhin gelöst durch eine Vorrichtung zur Darstellung eines computermodellierten Gegenstands in Echtzeit, die zumindest eine Kameraanimationseinheit, mindestens eine Bestimmungseinheit für Parameter, die eine Berechnungseinheit von Texturen zur Berechnung auf der Basis des Raytracingverfahrens darstellt, mindestens einer Oberfläche des Gegenstands, mindestens eine Indexvergabeeinheit, mindestens eine Speichereinheit für ein Parameterfeld, mindestens eine Kameraeinstellvorrichtung, mindestens eine Indexberechnungseinheit zur Berechnung eines Index aus der Kameraposition, mindestens eine Parameterauswahleinheit und mindestens eine Projiziereinheit umfasst, wobei die Freiheitsgrade der Kamera auf die Rotation um einen Fixpunkt in dem darzustellenden Gegenstand beschränkt sind. Die Einheiten der Vorrichtung können als Vorrichtungen oder als Software-Programm vorliegen. Es ist auch möglich, dass mehrere Einheiten zusammengefasst sind.The The object underlying the invention is further achieved by a device for displaying a computer-modeled article in real time, the at least one camera animation unit, at least a determination unit for Parameters that comprise a calculation unit of textures for calculation represents the basis of the raytracing process, at least one surface of the Item, at least one indexing unit, at least one Storage unit for a parameter field, at least one camera adjustment device, at least an index calculation unit for calculating an index from the Camera position, at least one parameter selection unit and at least a projecting unit, wherein the degrees of freedom of the camera on the rotation around a fixed point in the object to be displayed limited are. The units of the device may be used as devices or available as a software program. It is also possible that several units are summarized.
Die Parameterauswahleinheit kann eine Vergleichseinheit darstellen, in der der aus der Kameraposition berechnete Index mit den in der Indexvergabeeinheit vergebenen Indices verglichen wird.The Parameter selection unit can represent a comparison unit, in the calculated from the camera position index with in the Indexing unit.
Vorzugsweise ist die erfindungsgemäße Vorrichtung mit einer Anzeigevorrichtung verbunden, die einen Monitor oder eine Powerwall darstellt. Über diese Anzeigevorrichtungen können die ermittelten Darstellungen des Gegenstands ausgegeben werden. Zusätzlich ist in der Regel eine Eingabevorrichtung vorgesehen, die beispielsweise eine Tastatur oder ein Touchpad darstellen kann und mittels derer die Betrachtungsposition bzw. die Kameraposition verändert werden kann.Preferably is the device according to the invention connected to a display device which has a monitor or a Powerwall represents. about these display devices can the identified representations of the object are output. additionally usually an input device is provided, for example a keyboard or a touchpad can represent and by means of which the viewing position or the camera position are changed can.
Die erfindungsgemäße Vorrichtung ist zur Ausführung des erfindungsgemäßen Verfahrens geeignet.The inventive device is for execution the method according to the invention suitable.
Merkmale und Details, die im Zusammenhang mit dem erfindungsgemäßen Verfahren beschrieben werden, gelten ebenso für die erfindungsgemäße Vorrichtung und umgekehrt.characteristics and details associated with the method of the invention are described, also apply to the device according to the invention and vice versa.
Die Erfindung soll im Folgenden anhand einer Ausführungsform des Verfahrens an dem Beispiel der Darstellung einer Heckleuchte eines Kraftfahrzeugs erläutert werden. Hierzu wird Bezug auf die Figuren genommen. Es zeigen:The Invention will be described below with reference to an embodiment of the method the example of the representation of a tail light of a motor vehicle explained become. For this reference is made to the figures. Show it:
Eine Heckleuchte besteht in der Regel im wesentlichen aus den im Folgenden genannten Komponenten: Sie umfasst ein Gehäuse, das reflektierend ausgestaltet ist und in dem Reflektoren eingebettet sind, fünf Lampen, zwei Zusatzlichtscheiben, die über dem Rück-, Brems- und Nebelschlusslicht bzw. über dem Rückfahr- und Blinklicht angeordnet sind, und eine Lichtabschlussscheibe. Zur Darstellung der Heckleuchte wird die Lichtabschlussscheibe als die Oberfläche verwendet, für die die Texturen bestimmt werden bzw. auf die die Texturen projiziert werden.A Tail light usually consists essentially of the below It includes a housing that is designed to be reflective and in which reflectors are embedded, five lamps, two auxiliary lenses, the above the back, Brake and rear fog light or arranged above the reversing and flashing light are, and a Lichtabschlussscheibe. For the representation of the tail light the lens cap is used as the surface for which the Textures are determined or on which the textures are projected.
Erfindungsgemäß werden
die Texturen eines jeden Oberflächenpunkts
für verschiedene
Perspektiven, die der Betrachter einnehmen kann, bestimmt. Hierzu
kann, wie in
Innerhalb des Echtzeitvisualisierungssystems werden die Freiheitsgrade der Kamera auf die Rotation (θ, ψ) um einen Fixpunkt F innerhalb der Heckleuchte eingeschränkt. Dadurch ist gewährleistet, dass der Betrachter nur Positionen einnehmen kann, für die in dem Preprocessingschritt die relevanten Texturen aufgenommen wurden. Bei einer Änderung der Perspektive des Betrachters wird eine Neutexturierung der Lichtabschlussscheibe der Heckleuchte bewirkt. Eine Verzerrung der Darstellung erfolgt hierbei nicht, da für jede mögliche Position des Betrachters die Texturen im Vorfeld ermittelt wurden. Die Entfernung r der Kamera zu dem Fixpunkt ist frei wählbar. Der Qualitätsverlust durch die Skalierung der Textur bei einer Annäherung des Betrachters an die Heckleuchte kann mit Hilfe einer ausreichenden Texturgröße entgegen gewirkt werden.Within of the real time visualization system, the degrees of freedom of the Camera on the rotation (θ, ψ) by one Fixed point F within the tail light restricted. This ensures that that the viewer can only take positions for which the preprocessing step the relevant textures were recorded. In case of a change the perspective of the viewer becomes a re-texturing of the light finishing disc the tail light causes. A distortion of the representation takes place not here, because for every possible one Position of the observer the textures were determined in advance. The distance r of the camera to the fixed point is freely selectable. Of the loss of quality by scaling the texture as the viewer approaches the Tail light can oppose with the help of a sufficient texture size be worked.
Abhängig von dem Rotationswinkel (θ, ψ) der Kamera kann eindeutig die geeignetste Textur mit dem Index index im Texturfeld ermittelt werden und auf die Lichtabschlussscheibe der Heckleuchte projiziert werden. Hierbei wird der Index nach folgender Formel aus dem Rotationswinkel berechnet: wobei αmin und αimax bzw. βmin und βimax die minimalen und maximalen Höhen- bzw. Breitengrade der in dem Preprocessingschritt gewählten Teilsphäre, und maxhor und maxver die maximale Anzahl der diskreten Schritte, die im Preprocessingschritt in horizontaler und vertikaler Richtung durchlaufen wurden, sind.Depending on the rotation angle (θ, ψ) of the camera, the most suitable texture with the index index in the texture field can clearly be determined and projected onto the tail light of the tail light. The index is calculated from the rotation angle using the following formula: where α min and α imax and β min and β imax are the minimum and maximum degrees of latitude or latitude of the partial sphere selected in the preprocessing step, and max hor and max ver are the maximum number of discrete steps in the horizontal and vertical preprocessing steps are gone through.
Die Indizierung der Texturen beginnt mit 0. Insgesamt werden maxhor∙maxver Texturen benötigt, so dass z.B. bei einer Texturauflösung von 512∙512 Pixel und einer vertikalen und horizontalen Auflösung von 25 bzw. 15 etwa 280 MByte Texturspeicher benötigt werden. Dieser kann durch einen ausreichend dimensionierten Grafikspeicher realisiert werden.The indexing of the textures starts with 0. In total, max hor ∙ max ver textures are needed, so that eg with a texture resolution of 512 ∙ 512 pixels and a vertical and horizontal resolution of 25 or 15 about 280 MByte texture memory are needed. This can be realized by a sufficiently sized graphics memory.
Trotz der Rundungsfehler, die durch die Berechnung „Round" entstehen, erscheint der Übergang der Texturen sehr fließend. Die Rundungsfehler sind abhängig von der Diskretisierungsfeinheit der horizontalen und vertikalen Winkelschritte.In spite of the rounding error resulting from the calculation "Round" appears the transition the textures very fluent. The rounding errors are dependent from the discretization fineness of horizontal and vertical Angular steps.
Dieser
mögliche
Verfahrensablauf, der den Preprocessing und den Visualisierungsschritt
umfasst, ist in
Die Erfindung ist nicht auf das beschriebene Ausführungsbeispiel beschränkt.The Invention is not limited to the embodiment described.
Insbesondere kann die Vergabe der Indizes für die Visualisierungsparameter und die Ermittlung des geeigneten Index für eine bestimmte Perspektive der Betrachtung auch auf andere Weise erfolgen. So können beispielsweise als Indizes in dem Preprocessingschritt die Rotationswinkel der Kamera bezüglich eines Fixpunkts vergeben werden, während die Kamera in der Kameraanimation die Rotationswinkel in Inkrementen durchläuft. In diesem Fall kann die Berechnung des Index im Visualisierungsschritt entfallen und unmittelbar durch den Vergleich der aktuellen Kameraposition im Visualisierungsschritt mit dem Index in dem Texturfeld die geeignete Textur ermittelt werden.Especially can assign the indices for the visualization parameters and the determination of the appropriate index for one certain perspective of consideration also be done in other ways. So, for example as indices in the preprocessing step the rotation angle of the Camera re of a fixed point while the camera is in camera animation the rotation angle passes through in increments. In this case, the Calculation of the index in the visualization step is omitted and immediate the comparison of the current camera position in the visualization step the index in the texture field determines the appropriate texture.
Weiterhin kann bei der Berechnung der Texturen erfindungsgemäß auch ein sogenanntes Beleuchtungsmodell, das auch Shader genannt wird, berücksichtigt werden. Dieser Shader bestimmt für den relevanten Geometriepunkt die Farbe, dargestellt durch einen Rot-Grün-Blau-Wert (RGB-Wert), sowie die Helligkeit des Geometriepunkts. Ansätze, die hierzu existieren, sind beispielsweise das Lambert-, Phong- oder Blinnshading.Farther may according to the invention in the calculation of the textures also so-called illumination model, which is also called shader, considered become. This shader is intended for the relevant geometry point the color, represented by a Red-green-blue value (RGB value), as well as the brightness of the geometry point. Approaches that exist for this purpose are, for example, the Lambert, Phong or Blinnshading.
In der dargestellten und beschriebenen Ausführungsform des Verfahrens wurde davon ausgegangen, dass die Texturen alle auf eine Geometrie, beispielsweise die Lichtabschlussscheibe, projiziert werden. Es ist aber auch möglich jede Textur auf eine eigene Geometrie zu projizieren oder zumindest einige Texturen auf eine und weitere Texturen auf eine andere Geometrie zu projizieren. Durch diese Vorgehensweise kann die Darstellungsqualität noch zusätzlich erhöht werden.In the illustrated and described embodiment of the method has been assumed that the textures all on one geometry, for example the light cap, to be projected. But it is also possible every Texture to project its own geometry or at least some Textures on one and more textures on another geometry to project. By doing so, the display quality can be further increased.
Mit dem erfindungsgemäßen Verfahren und der erfindungsgemäßen Vorrichtung kann somit ein Mittel geschaffen werden, das auf einfache Weise eine sehr verzerrungsarme Darstellung von photorealistischen Heckleuchtentexturen und eine interaktive Designbeurteilung erlaubt. Weiterhin kann der Aufbereitungsprozess größtenteils automatisch erfolgen. Schließlich wird eine freie Interaktion um die zu begutachtende Heckleuchte ermöglicht.With the method according to the invention and the device according to the invention Thus, a means can be created in a simple way a very low-distortion representation of photorealistic rear light textures and an interactive design assessment allowed. Furthermore, the Processing process mostly done automatically. After all becomes a free interaction around the tail light to be inspected allows.
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2002146122 DE10246122B4 (en) | 2002-10-01 | 2002-10-01 | Method and device for displaying a computer-modeled article |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2002146122 DE10246122B4 (en) | 2002-10-01 | 2002-10-01 | Method and device for displaying a computer-modeled article |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10246122A1 DE10246122A1 (en) | 2004-04-15 |
DE10246122B4 true DE10246122B4 (en) | 2006-04-20 |
Family
ID=32010138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE2002146122 Withdrawn - After Issue DE10246122B4 (en) | 2002-10-01 | 2002-10-01 | Method and device for displaying a computer-modeled article |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE10246122B4 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107045561A (en) * | 2016-12-26 | 2017-08-15 | 中国航空工业集团公司西安飞机设计研究所 | A kind of metal ball surface frame and its design method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0725366A2 (en) * | 1995-01-31 | 1996-08-07 | Videologic Limited | Texturing and shading 3-D images |
US20020097906A1 (en) * | 2000-11-20 | 2002-07-25 | Nec Corporation | Method and apparatus for collating object |
-
2002
- 2002-10-01 DE DE2002146122 patent/DE10246122B4/en not_active Withdrawn - After Issue
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0725366A2 (en) * | 1995-01-31 | 1996-08-07 | Videologic Limited | Texturing and shading 3-D images |
US20020097906A1 (en) * | 2000-11-20 | 2002-07-25 | Nec Corporation | Method and apparatus for collating object |
Non-Patent Citations (1)
Title |
---|
GENC, S.; ATALAY, V.: Texture extraction from photographs and rendering with dynamic texture mapping. Proc.Int. Conference on Image Analysis and Processing, 1999, S. 1055-1058 * |
Also Published As
Publication number | Publication date |
---|---|
DE10246122A1 (en) | 2004-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3854543T2 (en) | Priority management of a depth data buffer for real-time computer systems for image generation. | |
DE68928391T2 (en) | Image generator | |
DE69610341T2 (en) | 3-D image texturing and shading | |
DE3855231T2 (en) | Priority resolution system between polygons with anti-aliasing | |
EP3178068B1 (en) | Method, visualization device, and computer program product for visualizing a three-dimensional object | |
DE69430647T2 (en) | image display | |
DE69718291T2 (en) | METHOD AND DEVICE FOR GENERATING A COMPUTER GRAPHIC IMAGE | |
WO2003036566A2 (en) | Method and device for producing light-microscopy, three-dimensional images | |
EP0984397A2 (en) | Method and device for elimination of unwanted steps in raster displays | |
DE69901572T2 (en) | METHOD FOR VOLUMETRIC IMAGE DATA PROCESSING OF AN OBJECT VISUALIZED BY TEXTURE IMAGING | |
EP0862141A2 (en) | Image presentation method and apparatus | |
EP0789328A2 (en) | Picture processing method for displaying reflective objects and device therefor | |
DE102019005885A1 (en) | Area map generation and hole filling | |
DE102005061590A1 (en) | Lighting simulating method for technical lighting system, involves computing color for pixels to represent lighting of scenery and using grey tones for true-color representation or color values for reproduction of lighting | |
DE20203367U1 (en) | System for early visualization of a vehicle design model in three dimensional form | |
EP3188131B1 (en) | Method and visualisation device for volumetric visualization of a three-dimensional object | |
DE10246122B4 (en) | Method and device for displaying a computer-modeled article | |
DE102008016553A1 (en) | A method for generating a 3D image of a scene from a 2D image of the scene | |
DE69826996T2 (en) | HEADLIGHT MARKING GENERATION PROCESS AND PICTOR PROCESSOR USE | |
DE4209936C2 (en) | Terrain image simulator | |
AT503743B1 (en) | METHOD FOR THE COMPUTER-BASED PRESENTATION OF OBJECTS | |
DE102015120927A1 (en) | Method for displaying a simulation environment | |
WO2007085482A1 (en) | Method for producing and displaying images which can be perceived in three dimensions | |
EP4068198B1 (en) | Method for generating an image of an object, computer program product and imaging system for carrying out the method | |
DE102022213200A1 (en) | Method for transmissivity-aware chroma keying |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8364 | No opposition during term of opposition | ||
8320 | Willingness to grant licences declared (paragraph 23) | ||
R120 | Application withdrawn or ip right abandoned | ||
R120 | Application withdrawn or ip right abandoned |
Effective date: 20130722 |