DE10008385A1 - Method for automatic linking of image areas of a 3-D object image with a function, in which the 3-D image is transformed into, in at least one projection plane, a 2-D texture image - Google Patents

Method for automatic linking of image areas of a 3-D object image with a function, in which the 3-D image is transformed into, in at least one projection plane, a 2-D texture image

Info

Publication number
DE10008385A1
DE10008385A1 DE2000108385 DE10008385A DE10008385A1 DE 10008385 A1 DE10008385 A1 DE 10008385A1 DE 2000108385 DE2000108385 DE 2000108385 DE 10008385 A DE10008385 A DE 10008385A DE 10008385 A1 DE10008385 A1 DE 10008385A1
Authority
DE
Germany
Prior art keywords
data
image
dimensional
function
functional area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE2000108385
Other languages
German (de)
Inventor
Oliver Dehning
Wolfgang Niem
Marcus Steinmetz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DIMENSION 3D SYSTEMS GmbH
Original Assignee
DIMENSION 3D SYSTEMS GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DIMENSION 3D SYSTEMS GmbH filed Critical DIMENSION 3D SYSTEMS GmbH
Priority to DE2000108385 priority Critical patent/DE10008385A1/en
Priority to AU2001239159A priority patent/AU2001239159A1/en
Priority to PCT/DE2001/000468 priority patent/WO2001063559A2/en
Publication of DE10008385A1 publication Critical patent/DE10008385A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Method has the following steps: generation of function area data as a projection of the 3-D image areas to be linked too, into a 2-D plane; linking of functions to corresponding function areas (8) and storage of the function areas data and the function links separate from the texture image data; geometrical transformation of the function area data so that it is fits the spatial position of the image area it is to join too; and executing the function matching the function area.

Description

Die Erfindung betrifft ein Verfahren zur automatischen Verknüpfung von Bildbereichen einer drei­ dimensionalen Darstellung eines Objektes mit Funktionen, wobei die dreidimensionale Darstellung in mindestens einer Projektionsebene in zweidimensionale Texturbilddaten transformiert wird.The invention relates to a method for automatically linking image areas of a three dimensional representation of an object with functions, the three-dimensional representation is transformed into two-dimensional texture image data in at least one projection plane.

In Dietmar Jackel "Grafik-Computergrundlagen, Architekturen und Konzepte computergrafischer Sichtsysteme" Springer-Verlag 1992, Kapitel 4, sind die Grundlagen der Verarbeitung von dreidi­ mensionalen Bilddaten beschrieben. Dreidimensionale Objekte werden vorzugsweise mit einer Vielzahl dreiseitiger Polygone beschrieben, deren Kantenvektoren koplaner ausgerichtet sind und einen einheitlichen Umlaufsinn besitzen. Jedes Polygon ist mit einem Datensatz definiert, der die Eckpunktkoordinaten, Eckpunktnormalenvektoren und den Flächennormalenvektor enthält. Die räumliche Ausrichtung der Polygonebene wird durch den Flächennormalenvektor beschrieben, während die Ausrichtung des Polygons innerhalb seiner benachbarten Polygonmenge durch die Eckpunktnormalenvektoren darstellt wird. Mit dem Prozess der Geometrietransformation kann das dreidimensionale Objekt in seiner räumlichen Lage verändert werden. Hierzu werden die Polynome mit entsprechenden Transformationsmatrixen, zum Beispiel einer Translation, Skalierung oder Ro­ tation unterworfen. Mit dem Prozess des Back-Facing werden die Polygone eliminiert, die von einer Betrachtungsebene aus gesehen nicht sichtbar sind, da diesen Polygonen sichtbare Polygone vorgelagert sind. Mit Hilfe einer perspektivischen Projektion kann der räumliche Tiefeneindruck verbes­ sert werden. Zudem werden die Flächenelemente an den Grenzflächen abgeschnitten, die nur zum Teil innerhalb eines dreidimensionalen Sichtbereichs liegen. Dieser Prozess wird Polygonkappen genannt.In Dietmar Jackel "Graphic-Computer Basics, Architectures and Concepts of Computer-Graphic Vision Systems" Springer-Verlag 1992 , Chapter 4, the basics of processing three-dimensional image data are described. Three-dimensional objects are preferably described with a large number of three-sided polygons, the edge vectors of which are coplaner and have a uniform sense of rotation. Each polygon is defined with a data set that contains the vertex coordinates, vertex normal vectors and the surface normal vector. The spatial orientation of the polygon plane is described by the surface normal vector, while the orientation of the polygon within its neighboring set of polygons is represented by the vertex normal vectors. With the process of geometry transformation, the three-dimensional object can be changed in its spatial position. For this purpose, the polynomials are subjected to corresponding transformation matrices, for example translation, scaling or rotation. The back-facing process eliminates the polygons that are not visible from a viewing level, because visible polygons precede these polygons. With the help of a perspective projection, the spatial impression of depth can be improved. In addition, the surface elements are cut off at the interfaces, which are only partially within a three-dimensional field of view. This process is called polygon caps.

Aus diesen Prozessen resultiert eine Drahtmodelldarstellung des im Raum gedrehten oder skalierten dreidimensionalen Objektes, die als Projektion im zweidimensionalen Raum zum Beispiel auf ei­ nem Monitor dargestellt werden kann. Diese Drahtmodelldarstellung vermittelt jedoch nur einen relativ ungenauen visuellen Eindruck des dreidimensionalen Objektes. Es werden daher zusätzlich noch Rendering-Prozesse durchgeführt, die zur Berechnung und Anzeige der Koordinaten und der Farbwerte der Bildpunkte dienen, die sich auf den Flächen der darzustellenden Polygone befinden. Hierzu wird die Oberflächentextur des dreidimensionalen Objektes nicht nur als Polygondarstellung berücksichtigt. Vielmehr werden auch die Reflektionseigenschaften als Reflektionsdaten, die Far­ beigenschaften als Farbwertdaten, die Transparenzeigenschaften als Transparenzdaten etc. abge­ speichert. Diese jeweils als Texturbilddaten bezeichneten Bilddaten sind eine Projektion des drei­ dimensionalen Objektes auf eine zweidimensionale Ebene vergleichbar mit einer Kameraaufnahme aus einem beliebigen Blickwinkel. Sie werden als sogenannte Maps unabhängig voneinander abge­ speichert. So ist zum Beispiel eine Colour-Map für die Farbwerte, eine Reflection-Map für die Re­ flektionseigenschaften zur Darstellung der Tiefe des Objektes, eine Transparency-Map zur Dar­ stellung der Transparenzeigenschaften etc. vorgesehen.These processes result in a wireframe representation of what was rotated or scaled in space three-dimensional object, which as a projection in two-dimensional space for example on egg can be displayed on a monitor. However, this wireframe representation only conveys one relatively imprecise visual impression of the three-dimensional object. It will therefore be additional still rendering processes carried out to calculate and display the coordinates and the Color values of the pixels are used, which are on the surfaces of the polygons to be displayed. For this purpose, the surface texture of the three-dimensional object is not only displayed as a polygon considered. Rather, the reflection properties as reflection data, the Far properties as color value data, the transparency properties as transparency data, etc. saves. This image data, referred to as texture image data, is a projection of the three dimensional object on a two-dimensional level comparable to a camera shot from any angle. They are created as so-called maps independently of each other saves. For example, a color map for the color values, a reflection map for the Re reflection properties to show the depth of the object, a transparency map to show position of the transparency properties etc. provided.

Das Rendering-Verfahren ist zum Beispiel in Peter Oel, Jens Riemschneider "Am Anfang war das Bild" in c't 1999, Heft 17, Seite 164 bis 169 beschrieben. Das sogenannte "Image-based Rende­ ring" basiert auf Projektionsstrahlen, die einen dreidimensionalen Gegenstand auf eine 2D-Fläche projizieren. Insofern entspricht das Verfahren einer fotografischen Aufnahme einer Umgebung auf eine plane Fläche mit einer Kamera. Mit Hilfe der Rendering-Prozesse werden neue Ansichten ei­ nes Objektes berechnet. Hierzu wird eine gedachte Kamera und damit eine neue Projektionsebene an eine Position gestellt, von der keine reale Aufnahme des Objektes existiert. Dadurch, dass einige Strahlen von aufgenommenen Bildern durch die neue Projektionsebene verlaufen, werden Bildin­ formationen gewonnen, mit denen die neue Ansicht des Objektes berechnet werden kann.The rendering process is described, for example, in Peter Oel, Jens Riemschneider "In the beginning it was Image "in c't 1999, issue 17, pages 164 to 169. The so-called" image-based rende ring "is based on projection rays that project a three-dimensional object onto a 2D surface project. In this respect, the method corresponds to a photograph of an environment a flat surface with a camera. With the help of the rendering processes new views are created calculated object. For this purpose, an imaginary camera and thus a new projection level placed at a position from which there is no real image of the object. By having some Beams of recorded images run through the new projection plane, become images Formations obtained with which the new view of the object can be calculated.

Zur interaktiven Nutzung der dargestellten Objekte bzw. Bilder ist es bekannt, Bildbereiche mit Funktionen zu verknüpfen. Beim Auswählen der Bildbereiche zum Beispiel mit einer Maus oder einem entsprechenden Zeigegerät auf dem Bildschirm wird die entsprechende Bildposition und der zugehörige Bildbereich ermittelt. Herkömmlicherweise wird die Verknüpfung der Funktionen mit Funktionsbereichen mit CAD-Werkzeugen (Computer Aided Design-Werkzeuge) definiert. Dies ist relativ aufwendig. Zudem ist die Zuordnung der Bildbereiche zu den Funktionen relativ ungenau, wenn die Position des dargestellten Objektes im Raum verschoben wird. Die Methode der Zuord­ nung von Funktionen zu Bildpositionen mit Hilfe von CAD-Werkzeugen eignet sich daher nur für zweidimensionale Darstellungen.For the interactive use of the objects or images shown, it is known to use image areas Link functions. When selecting the image areas, for example with a mouse or  a corresponding pointing device on the screen shows the corresponding image position and the associated image area determined. Traditionally, the linking of functions with Functional areas defined with CAD tools (Computer Aided Design tools). This is relatively complex. In addition, the assignment of the image areas to the functions is relatively imprecise, when the position of the displayed object is shifted in space. The method of assignment The use of CAD tool functions for image positions is therefore only suitable for two-dimensional representations.

Weiterhin ist es bekannt, den dreiseitigen Polygonen Funktionen zuzuordnen. Dies erfolgt durch eine entsprechende Datenbank. Auch bei einer Transformation der Polygone bleibt die Zuordnung eines Polygons zu den Funktionen erhalten, so dass die Verknüpfung eines Polygons zu einer Funktion bei einer Verschiebung des Objektes im Raum keinen zusätzlichen Rechenaufwand erfor­ dert. Allerdings sind die auswählbaren Bildbereiche auf die Form der Polygone beschränkt und folglich relativ ungenau.Furthermore, it is known to assign functions to the three-sided polygons. This is done by an appropriate database. The assignment remains even when the polygons are transformed of a polygon to get the functions, so that the linking of a polygon to a Function when moving the object in space requires no additional computing effort different. However, the selectable image areas are limited to the shape of the polygons and consequently relatively inaccurate.

Aufgabe der Erfindung war es daher, ein verbessertes Verfahren zur automatischen Verknüpfung von Bildbereichen einer dreidimensionalen Darstellung eines Objektes mit Funktionen zu schaffen.The object of the invention was therefore to provide an improved method for automatic linking to create image areas of a three-dimensional representation of an object with functions.

Die Aufgabe wird in dem erfindungsgemäßen Verfahren gelöst durch
The object is achieved in the method according to the invention by

  • a) Erzeugen von Funktionsbereichsdaten als Projektion der zu verknüpfenden Bildbereiche einer dreidimensionalen Darstellung eines Objektes in die zweidimensionale Ebene;a) Generating functional area data as a projection of the image areas to be linked a three-dimensional representation of an object in the two-dimensional plane;
  • b) Verknüpfen von Funktionen zu entsprechenden Funktionsbereichen und Abspeichern der Funktionsbereichsdaten und der Funktionsverknüpfungen separat zu den Texturbilddaten;b) Linking functions to corresponding functional areas and storing the Functional area data and the function links separately from the texture image data;
  • c) Ausführen einer Geometrietransformation der Funktionsbereichsdaten zur Anpassung der Funktionsbereichsdaten an die räumliche Lage der zu verknüpfenden Bildbereiche einer dreidimensionalen Darstellung, wenn eine Funktion durch Auswählen eines Bildbereiches aufgerufen wird, und zur Bestimmung der zu den ausgewählten Bildbereichen zugehörigen Funktionsbereichen;c) performing a geometric transformation of the functional area data to adapt the Functional area data on the spatial position of the image areas to be linked three-dimensional representation when a function by selecting an image area is called, and to determine the associated with the selected image areas Functional areas;
  • d) Ausführen der Funktion, die mit dem ausgewählten Funktionsbereich verknüpft ist.d) Executing the function that is linked to the selected functional area.

Erfindungsgemäß wird somit parallel zu der Textur zur Beschreibung der dreidimensionalen Dar­ stellung eine zweidimensionale Textur der Funktionsbereichsdaten erzeugt, indem auf der Oberflä­ che des dreidimensionalen Objektes Bildbereiche definiert und mit Funktionen verknüpft werden und diese Bildbereiche mit den Funktionsverknüpfungen als zweidimensionale Projektion abge­ speichert werden. Bei einer Verschiebung des Objektes im Raum können diese Funktionsbereichs­ daten gleichermaßen wie die Texturbilddaten einer geometrischen Transformation unterzogen wer­ den, nachdem eine Funktion durch Auswählen eines Bildbereiches aufgerufen wird. Auf diese Wei­ se kann der zu dem ausgewählten Bildbereich gehörende Funktionsbereich bestimmt und die ent­ sprechende zugeordnete Funktion ausgeführt werden.According to the invention, the three-dimensional Dar is thus described in parallel with the texture position creates a two-dimensional texture of the functional area data by using the surface surface of the three-dimensional object image areas are defined and linked with functions and these image areas with the function links as a two-dimensional projection be saved. If the object is moved in space, this functional area can data is subjected to a geometric transformation in the same way as the texture image data after a function is called by selecting an image area. In this way The functional area belonging to the selected image area can be determined and the ent speaking assigned function are executed.

Die Texturbilddaten sind vorzugsweise dreiseitigen Polygonen zugeordnet, mit denen die Oberflä­ che des dreidimensionalen Objektes bzw. Bildes definiert werden. Mit diesen Polygonen kann eine zweidimensionale Drahtmodelldarstellung des dreidimensionalen Bildes erzeugt werden, die einen dreidimensionalen Eindruck vermittelt.The texture image data are preferably assigned to three-sided polygons with which the surface surface of the three-dimensional object or image can be defined. With these polygons one can two-dimensional wireframe representation of the three-dimensional image are generated, the one gives a three-dimensional impression.

Zusätzlich zu den Polygonen können als Texturbilddaten Reflektionsdaten, Farbwertdaten und/oder Transparenzdaten definiert und abgespeichert werden. Sie dienen zur Beschreibung der Reflekti­ onseigenschaften, der Farbeigenschaften und der Transparenzeigenschaften des dreidimensionalen Objektes, insbesondere bezogen auf die Polygonflächen. Diese verschiedenen Texturbilddaten wer­ den unabhängig voneinander als Reflektions-Map, Farbwert-Map und Transparenz-Map abgespei­ chert. Die Funktionsbereichsdaten werden erfindungsgemäß auf die gleiche Weise wie die vorge­ nannten Texturbilddaten als sogenannte Funktions-Map behandelt.In addition to the polygons, reflection data, color value data and / or can be used as texture image data Transparency data can be defined and saved. They are used to describe the reflections properties, the color properties and the transparency properties of the three-dimensional Object, in particular related to the polygon areas. These different texture image data who saved independently of each other as a reflection map, color value map and transparency map chert. The functional area data are inventively in the same way as the pre called texture image data treated as a so-called function map.

Zur Visualisierung eines Objektes wird vorteilhafterweise ein sogenannter Rendering-Prozess durchgeführt, bei dem aus der Polygondarstellung, den Texturbilddaten und aus den Koordinaten, Farbeigenschaften, Reflektionseigenschaften und/oder Transparenzeigenschaften der Bildpunkte auf den Polygonen mittels der Reflektionsdaten, Farbwertdaten und Transparenzdaten Objektan­ sichten berechnet werden, die beispielsweise auf einem Bildschirm dargestellt werden können. Er­ findungsgemäß wird der Rendering-Prozess auch mit den Funktionsbereichsdaten durchgeführt, wenn eine Funktion durch Auswählen eines Bildpunktes aufgerufen wird. Aus den Funktionsbe­ reichsdaten, die mit dem Bildpunkt korrelieren, wird die Funktion bestimmt und ausgeführt, die mit dem entsprechenden Funktionsbereich verknüpft ist. Die Funktionsbereichsdarstellung wird somit entsprechend dem Objekt im Raum verschoben, wobei durch den Rendering-Prozess eine Projekti­ on auf die zweidimensionale Ebene des Betrachters vorgenommen wird. Aus den zweidimensiona­ len Koordinaten des ausgewählten Bildpunktes kann sofort der zugehörige Funktionsbereich und die damit verknüpfte Funktion bestimmt werden.A so-called rendering process is advantageously used to visualize an object carried out in which from the polygon representation, the texture image data and from the coordinates, Color properties, reflection properties and / or transparency properties of the pixels object on the polygons using the reflection data, color value data and transparency data views that can be displayed on a screen, for example. He According to the invention, the rendering process is also carried out with the functional area data, when a function is called up by selecting a pixel. From the functional area rich data, which correlate with the pixel, the function is determined and executed, with is linked to the corresponding functional area. The functional area display is thus  moved according to the object in space, whereby a projecti on the two-dimensional level of the viewer. From the two-dimensional The coordinates of the selected pixel can immediately be assigned to the associated functional area and the associated function can be determined.

Vorteilhafterweise sind die Funktionen in einer Datenbank abgespeichert und mit Funktionsken­ nungen, das heißt mit Funktionscodewörtern verknüpft. Die als Textur abgespeicherten Funktions­ bereichsdaten beinhalten dann lediglich nur eine Verknüpfung von Funktionsbereichen zu den Funktionskennungen. Hierdurch kann Speicherplatz eingespart werden. The functions are advantageously stored in a database and have functions nations, that is linked with function code words. The function saved as texture Area data then only contain a link between functional areas and the Function IDs. This can save storage space.  

Die Erfindung wird nachfolgend anhand der beigefügten Zeichnungen näher erläutert. Es zeigen:The invention is explained below with reference to the accompanying drawings. Show it:

Fig. 1 - Verfahrensablauf zur erfindungsgemäßen Verknüpfung von Bildbereichen mit Funk­ tionen; Fig. 1 - Procedure for linking image areas with radio functions;

Fig. 2 - herkömmliches Verfahren zur Verknüpfung von Bildbereichen mit Funktionen. Fig. 2 - conventional method for linking image areas with functions.

Die Fig. 1 lässt eine Skizze des Verfahrens zur automatischen Verknüpfung von Bildbereichen einer dreidimensionalen Darstellung eines Objektes 1 mit Funktionen erkennen. Das dreidimen­ sionale Objekt 1 wird in der dreidimensionalen perspektivischen Darstellung 2 als Drahtmodell in den drei Ebenen X, Y und Z skizziert. Das Drahtmodell besteht aus dreiseitigen Polygonen 3 zur annähernden Beschreibung der Oberfläche des Objektes 1. Die im Hintergrund liegenden nicht sichtbaren Polygone sind mit der sogenannten Backfacing-Methode eliminiert.The Fig. 1 can be a sketch of the process for automatic linking of image areas of a three-dimensional representation recognize an object 1 with functions. The three-dimensional object 1 is outlined in the three-dimensional perspective representation 2 as a wire model in the three planes X, Y and Z. The wire model consists of three-sided polygons 3 for an approximate description of the surface of the object 1 . The invisible polygons in the background are eliminated with the so-called backfacing method.

Wenn das Objekt von einer gedachten virtuellen Kamera 4 aus einer beliebigen Perspektive aufge­ nommen wird, würde auf der Aufnahmefläche 5, wie z. B. einem Film, eine zweidimensionale Pro­ jektion des Bildes auf der Projektionsebene der Aufnahmefläche 5 entstehen. Diese zweidimensio­ nale Projektion ist in der zweidimensionalen Textur-Map 6 skizziert, die die Projektion eines aus­ gewählten Polygons 3a zeigt.If the object is taken from an imaginary virtual camera 4 from any perspective, would on the recording surface 5 , such as. B. a film, a two-dimensional projection of the image on the projection plane of the recording surface 5 arise. This two-dimensional projection is outlined in the two-dimensional texture map 6 , which shows the projection of a selected polygon 3 a.

Zusätzlich zu der Textur-Map der Polygone 3 können entsprechende Ansichten zur Beschreibung der Reflektionseigenschaften, Farbeigenschaften und Transparenzeigenschaften der projizierten Ansicht aufgenommen und abgespeichert werden. Mit diesen Reflektionsdaten-Maps, Farbwertda­ ten-Maps und Transparenzdaten-Maps können insbesondere die Flächen der einzelnen Polygone 3 detaillierter beschrieben und der räumliche Eindruck des Objektes 1 verbessert werden.In addition to the texture map of the polygons 3 , corresponding views for describing the reflection properties, color properties and transparency properties of the projected view can be recorded and stored. With these reflection data maps, color value data maps and transparency data maps, in particular the areas of the individual polygons 3 can be described in more detail and the spatial impression of the object 1 can be improved.

Die Erfindung sieht eine weitere entsprechende Funktionsbereichsdaten-Map 7 vor, in der Funkti­ onsbereiche 8 definiert und mit Funktionskennungen A, B verknüpft sind. Die Funktionsbereiche 8 entsprechen ausgewählten Bildbereichen, die nicht die Form eines Polygones 3 haben müssen. Beim Auswählen eines entsprechenden Bildbereiches, zum Beispiel mit einem Zeigeinstrument eines Computers können Funktionen Funkt.a, Funkt.b ausgeführt werden, die über die Funktions­ kennungen A, B mit den entsprechenden Funktionsbereichen 8 verknüpft sind. Zur Beschreibung der Verknüpfung der Funktionskennungen A, B mit den zugehörigen Funktionen Funkt.a, Funkt.b ist eine entsprechende Datenbank 9 vorgesehen.The invention provides a further corresponding functional area data map 7 , in which functional areas 8 are defined and linked to functional identifiers A, B. The functional areas 8 correspond to selected image areas which do not have to have the shape of a polygon 3 . When selecting a corresponding image area, for example with a pointing instrument of a computer, functions Funkt.a, Funkt.b can be carried out, which are linked via function IDs A, B to the corresponding function areas 8 . A corresponding database 9 is provided to describe the linking of the function identifiers A, B with the associated functions Funkt.a, Funkt.b.

Die Funktionsbereichsdaten-Map 7 zur Definition der Funktionsbereiche 8 wird entsprechend der Textur-Map 6 und der Reflektionsdaten-Maps, Farbwertdaten-Maps und Transparenzdaten-Maps als Teil der zweidimensionalen Projektion des dreidimensionalen Objektes 1 behandelt.The functional area data map 7 for defining the functional areas 8 is treated in accordance with the texture map 6 and the reflection data maps, color value data maps and transparency data maps as part of the two-dimensional projection of the three-dimensional object 1 .

Ein dreidimensionales Objekt 1 kann aus Gründen des Speicherplatzes nicht in allen Ansichten auf­ genommen und abgespeichert werden. Daher werden üblicherweise von einem Objekt 1 nur Auf­ nahmen in ausgewählten Perspektiven aufgenommen und in entsprechenden Maps abgespeichert. Zur Darstellung einer neuen perspektivischen Ansicht werden die erforderlichen Bildinformationen aus den abgespeicherten Maps berechnet. Dies erfolgt mit dem sogenannten Rendering-Verfahren. Dies ist möglich, weil einige Projektionsstrahlen von bereits aufgenommenen und abgespeicherten Bildern durch die neue Projektionsebene des neu zu berechnenden Bildes verlaufen und auf diese Weise bereits Bildinformationen für die einzelnen Bildpunkte zur Verfügung stehen. Wenn nun ein Bildbereich mit einem Zeigeinstrument ausgewählt und eine Funktion ausgeführt werden soll, wird die Funktionsbereichsansicht auf die momentane perspektivische Ansicht des Objektes 1 angepasst. Hierzu wird aus den Funktionsbereichsdaten-Maps 7 mit Hilfe bekannter Geometrietransforma­ tions- und Rendering-Verfahren die neue Perspektive berechnet. Die Funktionsbereichsdaten wer­ den somit genauso wie die anderen Maps als Texturdaten-Maps behandelt. Nachdem die Funkti­ onsbereichsdaten-Map 7 auf die neue Perspektive umgerechnet wurde, kann die dem ausgewählten Bildbereich zugeordnete Funktionskennung ermittelt und mit Hilfe der Funktionsdatenbank 9 die auszuführende Funktion Funkt.a, Funkt.b bestimmt und ausgeführt werden.For reasons of storage space, a three-dimensional object 1 cannot be recorded and saved in all views. For this reason, an object 1 usually only records images in selected perspectives and stores them in corresponding maps. To display a new perspective view, the necessary image information is calculated from the saved maps. This is done with the so-called rendering process. This is possible because some projection beams of images that have already been recorded and stored run through the new projection plane of the image to be recalculated and in this way image information is already available for the individual pixels. If an image area is now selected with a pointing instrument and a function is to be carried out, the functional area view is adapted to the current perspective view of the object 1 . For this purpose, the new perspective is calculated from the functional area data maps 7 with the aid of known geometry transformation and rendering methods. The functional area data are thus treated like the other maps as texture data maps. After the function area data map 7 has been converted to the new perspective, the function identifier assigned to the selected image area can be determined and the function Funkt.a, Funkt.b to be executed can be determined and executed using the function database 9 .

Die Fig. 2 lässt ein herkömmliches Verfahren zur Verknüpfung von Funktionen zu dreidimensio­ nalen Objekten 1 erkennen. Auch hier ist wiederum ein Objekt 1 in der dreidimensionalen Ansicht 2 und der zweidimensionalen Projektion als Textur-Map 6 skizziert. Die Textur-Map 6 zeigt ein aus­ gewähltes Polygon 3a, das als solches in dem Verfahren identifiziert wird. Im Unterschied zu dem erfindungsgemäßen Verfahren ist in der Funktionsdatenbank 9 die Verknüpfung der Nummer des ausgewählten Polygons 3a mit der zugehörigen Funktion Funkt.a, Funkt.b abgespeichert. Als aus­ wählbare Bildbereiche können somit nur Polygone 3 mit Funktionen verknüpft werden. Dabei ent­ fällt zwar die Notwendigkeit des zusätzlichen Anpassens der Funktionsbereichsdaten-Map 7 an die dargestellte Projektion. Die auswählbaren Bildbereiche sind jedoch relativ ungenau. The Fig. 2 reveals a conventional method to allocate functions to dreidimensio dimensional objects 1. Here, too, an object 1 is sketched in the three-dimensional view 2 and the two-dimensional projection as a texture map 6 . The texture map 6 shows a selected polygon 3 a, which is identified as such in the method. In contrast to the process of the invention in the function database 9, the combination of the number of the selected polygon 3 a with the associated function Funkt.a, Funkt.b is stored. Only polygons 3 can be linked with functions as selectable image areas. This eliminates the need for additional adaptation of the functional area data map 7 to the projection shown. However, the selectable image areas are relatively imprecise.

Die verknüpfbaren Funktionen können beliebiger Art sein. Denkbar sind Funktionen zur Transfor­ mation und Bewegung des Objektes 1, Video- und Audiodaten als Multimedia-Anwendungen, Funktionen zum Austausch von Texturdaten, die Aktivierung von Hyper-Links zum Anwählen von Funktionen und Seiten im Internet oder Intranet, das Anzeigen von erklärenden Texten oder die Durchführung eines Datenaustausches. Bei dem Austausch von Texturdaten können Bildbereiche geändert werden und auf diese Weise bestimmte Effekte, wie zum Beispiel das Zwinkern eines Au­ ges einer dargestellten Person erzielt werden. Durch die Aktivierung von Hyper-Links können zum Beispiel Benutzerhandbücher für das dargestellte Objekt oder das ausgewählte Bildelement aufge­ rufen werden. Es können auch nur einfache erklärende Texte zusätzlich zu dem Objekt 1 auf dem Bildschirm angezeigt werden. Diese erklärenden Texte können zum Beispiel als Nutzerhilfe oder als Marketing-Information dienen. Weitere beliebige Aktionen und Interaktionen sind als Funktio­ nen denkbar.The functions that can be linked can be of any type. Functions for transforming and moving object 1 , video and audio data as multimedia applications, functions for exchanging texture data, activating hyperlinks for selecting functions and pages on the Internet or intranet, displaying explanatory texts or are conceivable the implementation of a data exchange. When exchanging texture data, image areas can be changed and certain effects, such as the winking of a person's eye, can be achieved in this way. By activating hyperlinks, user manuals for the displayed object or the selected picture element can be called up, for example. Only simple explanatory texts can be displayed on the screen in addition to object 1 . These explanatory texts can serve, for example, as user help or as marketing information. Any other actions and interactions are conceivable as functions.

Claims (7)

1. Verfahren zur automatischen Verknüpfung von Bildbereichen einer dreidimensionalen Darstel­ lung eines Objektes (1) mit Funktionen, wobei die dreidimensionale Darstellung (2) in minde­ stens einer Projektionsebene in zweidimensionale Texturbilddaten transformiert wird, gekennzeichnet durch
  • a) Erzeugen von Funktionsbereichsdaten als Projektion der zu verknüpfenden Bildbereiche ei­ ner dreidimensionalen Darstellung in die zweidimensionale Ebene;
  • b) Verknüpfen von Funktionen zu entsprechenden Funktionsbereichen (8) und Abspeichern der Funktionsbereichsdaten und der Funktionsverknüpfungen separat zu den Texturbilddaten;
  • c) Ausführen einer Geometrietransformation der Funktionsbereichsdaten zur Anpassung der Funktionsbereichsdaten an die räumliche Lage der zu verknüpfenden Bildbereiche einer dreidimensionalen Darstellung, wenn eine Funktion durch Auswählen eines Bildbereiches aufgerufen wird, und zur Bestimmung des zu dem ausgewählten Bildbereich zugehörigen Funktionsbereiches (8);
  • d) Ausführen der Funktion, die mit dem ausgewählten Funktionsbereich (8) verknüpft ist.
1. A method for automatically linking image areas of a three-dimensional representation of an object ( 1 ) with functions, the three-dimensional representation ( 2 ) being transformed into at least one projection plane into two-dimensional texture image data, characterized by
  • a) generating functional area data as a projection of the image areas to be linked from a three-dimensional representation into the two-dimensional plane;
  • b) linking functions to corresponding functional areas ( 8 ) and storing the functional area data and the functional links separately from the texture image data;
  • c) performing a geometric transformation of the functional area data in order to adapt the functional area data to the spatial position of the image areas to be linked in a three-dimensional representation when a function is called up by selecting an image area and to determine the functional area ( 8 ) associated with the selected image area;
  • d) Executing the function that is linked to the selected functional area ( 8 ).
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Texturbilddaten dreiseitige Polygonen (3) zugeordnet sind, welche die Oberfläche des Objektes (1) definieren.2. The method according to claim 1, characterized in that the texture image data are assigned three-sided polygons ( 3 ) which define the surface of the object ( 1 ). 3. Verfahren nach Anspruch 1 oder 2, gekennzeichnet durch Definieren und Abspeichern von Reflektionsdaten als zweidimensionale Transformation der Reflektionseigenschaften des drei­ dimensionalen Objektes (1).3. The method according to claim 1 or 2, characterized by defining and storing reflection data as a two-dimensional transformation of the reflection properties of the three-dimensional object ( 1 ). 4. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Definieren und Abspeichern von Farbwertdaten als zweidimensionale Transformation der Farbeigenschaften des dreidimensionalen Objektes (1).4. The method according to any one of the preceding claims, characterized by defining and storing color value data as a two-dimensional transformation of the color properties of the three-dimensional object ( 1 ). 5. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Definieren und Abspeichern von Transparenzdaten als zweidimensionale Transformation der Transparenzei­ genschaften des dreidimensionalen Objektes (1).5. The method according to any one of the preceding claims, characterized by defining and storing transparency data as a two-dimensional transformation of the transparency properties of the three-dimensional object ( 1 ). 6. Verfahren nach Anspruch 2 bis 5, wobei zur Visualisierung des Objektes (1) ein Rendering- Prozess basierend auf der Polynomdarstellung (3), den Texturbilddaten und zugehörigen Koor­ dinaten, und gegebenenfalls den Farbeigenschaften, Reflektionseigenschaften und/oder Trans­ parenzeigenschaften der Bildpunkte auf den Polynomen (3) mittels der Reflektionsdaten, Farb­ wertdaten und Transparenzdaten durchgeführt wird, gekennzeichnet durch Ausführen des Rendering-Prozesses mit den Funktionsbereichsdaten, wenn eine Funktion durch Auswählen ei­ nes Bildbereiches aufgerufen wird und Bestimmen und Ausführen der Funktion aus den Funkti­ onsbereichsdaten, die mit dem Bildpunkt verknüpft ist.6. The method according to claim 2 to 5, wherein for the visualization of the object ( 1 ), a rendering process based on the polynomial representation ( 3 ), the texture image data and associated coordinates, and optionally the color properties, reflection properties and / or transparency properties of the pixels the polynomials ( 3 ) is carried out by means of the reflection data, color value data and transparency data, characterized by executing the rendering process with the functional area data, when a function is called up by selecting an image area and determining and executing the function from the functional area data, which includes the pixel is linked. 7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Funktionsbereichsdaten eine zweidimensionale Darstellung von auswählbaren Bildbereichen mit zugeordneten Funktionskennungen sind und die Funktionskennungen in Verbindung mit Funktionsalgorithmen in einer Datenbank (9) abgespeichert werden.7. The method according to any one of the preceding claims, characterized in that the functional area data are a two-dimensional representation of selectable image areas with assigned function identifiers and the function identifiers are stored in connection with function algorithms in a database ( 9 ).
DE2000108385 2000-02-23 2000-02-23 Method for automatic linking of image areas of a 3-D object image with a function, in which the 3-D image is transformed into, in at least one projection plane, a 2-D texture image Withdrawn DE10008385A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE2000108385 DE10008385A1 (en) 2000-02-23 2000-02-23 Method for automatic linking of image areas of a 3-D object image with a function, in which the 3-D image is transformed into, in at least one projection plane, a 2-D texture image
AU2001239159A AU2001239159A1 (en) 2000-02-23 2001-02-07 Method for automatically linking image areas of a 3-dimensional representation of an object with functions
PCT/DE2001/000468 WO2001063559A2 (en) 2000-02-23 2001-02-07 Method for automatically linking image areas of a 3-dimensional representation of an object with functions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2000108385 DE10008385A1 (en) 2000-02-23 2000-02-23 Method for automatic linking of image areas of a 3-D object image with a function, in which the 3-D image is transformed into, in at least one projection plane, a 2-D texture image

Publications (1)

Publication Number Publication Date
DE10008385A1 true DE10008385A1 (en) 2001-08-30

Family

ID=7632062

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2000108385 Withdrawn DE10008385A1 (en) 2000-02-23 2000-02-23 Method for automatic linking of image areas of a 3-D object image with a function, in which the 3-D image is transformed into, in at least one projection plane, a 2-D texture image

Country Status (3)

Country Link
AU (1) AU2001239159A1 (en)
DE (1) DE10008385A1 (en)
WO (1) WO2001063559A2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0438017A2 (en) * 1990-01-18 1991-07-24 International Business Machines Corporation Method of graphically accessing electronic data with animated icons
DE4411261A1 (en) * 1993-04-03 1994-11-10 Secotron Elektrogeraetebau Gmb Interactive video system
EP0677801A1 (en) * 1994-04-04 1995-10-18 AT&T Corp. Graphical password
US5678015A (en) * 1995-09-01 1997-10-14 Silicon Graphics, Inc. Four-dimensional graphical user interface
US5768565A (en) * 1994-08-11 1998-06-16 Kabushiki Kaisha Toshiba Operation verification apparatus and method
US5844392A (en) * 1992-12-02 1998-12-01 Cybernet Systems Corporation Haptic browsing

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU3930793A (en) * 1992-05-08 1993-12-13 Apple Computer, Inc. Textured sphere and spherical environment map rendering using texture map double indirection
JPH07282292A (en) * 1994-04-05 1995-10-27 Toshiba Corp Texture mapping method and image processor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0438017A2 (en) * 1990-01-18 1991-07-24 International Business Machines Corporation Method of graphically accessing electronic data with animated icons
US5844392A (en) * 1992-12-02 1998-12-01 Cybernet Systems Corporation Haptic browsing
DE4411261A1 (en) * 1993-04-03 1994-11-10 Secotron Elektrogeraetebau Gmb Interactive video system
EP0677801A1 (en) * 1994-04-04 1995-10-18 AT&T Corp. Graphical password
US5768565A (en) * 1994-08-11 1998-06-16 Kabushiki Kaisha Toshiba Operation verification apparatus and method
US5678015A (en) * 1995-09-01 1997-10-14 Silicon Graphics, Inc. Four-dimensional graphical user interface

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BEYER,Detlef, EHRMANN,Stephan: Illusion rundherum. In: c't 1995, S.104-107 *
FELLNER,Wolf-Dietrich: Computer Grafik, BI-Wissenschaftsverlag, Mannheim, u.a., 1988, S.331-334,339,351-354 *
RADETZKY,Arne: Mit Gefühl. In: IX 9/1999, S.116- S.121 *

Also Published As

Publication number Publication date
AU2001239159A1 (en) 2001-09-03
WO2001063559A2 (en) 2001-08-30
WO2001063559A3 (en) 2002-03-14

Similar Documents

Publication Publication Date Title
DE69632578T2 (en) COMPUTER GRAPHICS SYSTEM FOR CREATING AND IMPROVING TEXTURE-TRAINING SYSTEMS
DE102007045835B4 (en) Method and device for displaying a virtual object in a real environment
DE60133386T2 (en) DEVICE AND METHOD FOR DISPLAYING A TARGET BY IMAGE PROCESSING WITHOUT THREE DIMENSIONAL MODELING
DE102007045834B4 (en) Method and device for displaying a virtual object in a real environment
DE102020000810A1 (en) 3D object reconstruction using a photometric network representation
DE112004000377B4 (en) Method and device Image segmentation in a three-dimensional working environment
EP2082686A1 (en) Method to display orientated (overlap) images
EP0789328A2 (en) Picture processing method for displaying reflective objects and device therefor
DE102015210453B3 (en) METHOD AND APPARATUS FOR GENERATING DATA FOR A TWO OR THREE-DIMENSIONAL PRESENTATION OF AT LEAST ONE PART OF AN OBJECT AND FOR PRODUCING THE TWO OR THREE-DIMENSIONAL PRESENTATION AT LEAST THE PART OF THE OBJECT
DE10339979B4 (en) Method and device for displaying a predeterminable area in multi-dimensional data sets
DE102006021118B4 (en) Rendering of anatomical structures with their near surrounding area
DE602004012341T2 (en) Method and system for providing a volume rendering of a three-dimensional object
DE60100806T2 (en) IMAGE OF VOLUME DATA
DE102006003179B4 (en) Method and device for virtual endoscopy of a hollow channel
EP2528042A1 (en) Method and device for the re-meshing of 3D polygon models
DE10056978A1 (en) Generating stereographic images using Z-buffer by producing two two-dimensional images for right and left eyes from colour and depth information stored in buffers
DE60030401T2 (en) Display techniques for three-dimensional virtual reality
DE10008385A1 (en) Method for automatic linking of image areas of a 3-D object image with a function, in which the 3-D image is transformed into, in at least one projection plane, a 2-D texture image
EP3465608B1 (en) Method and device for determining a transfer between two display images, and vehicle
EP2893510A1 (en) Method and image processing system for removing a visual object from an image
DE102012010799B4 (en) Method for the spatial visualization of virtual objects
DE102015120927A1 (en) Method for displaying a simulation environment
DE60109813T2 (en) METHOD AND DEVICE FOR PRESENTING THREE-DIMENSIONAL SCENES IN VIRTUAL REALITY
DE102018100211A1 (en) A method for generating a representation of an environment by moving a virtual camera towards an interior mirror of a vehicle; as well as camera setup
DE69233060T2 (en) System for displaying spatial incisions for solid model surfaces

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8139 Disposal/non-payment of the annual fee
8170 Reinstatement of the former position
8139 Disposal/non-payment of the annual fee