WO2001063559A2 - Verfahren zur automatischen verknüpfung von bildbereichen einer dreidimensionalen darstellung eines objektes mit funktionen - Google Patents

Verfahren zur automatischen verknüpfung von bildbereichen einer dreidimensionalen darstellung eines objektes mit funktionen Download PDF

Info

Publication number
WO2001063559A2
WO2001063559A2 PCT/DE2001/000468 DE0100468W WO0163559A2 WO 2001063559 A2 WO2001063559 A2 WO 2001063559A2 DE 0100468 W DE0100468 W DE 0100468W WO 0163559 A2 WO0163559 A2 WO 0163559A2
Authority
WO
WIPO (PCT)
Prior art keywords
data
dimensional
image
functional
functional area
Prior art date
Application number
PCT/DE2001/000468
Other languages
English (en)
French (fr)
Other versions
WO2001063559A3 (de
Inventor
Oliver Dehning
Wolfgang Niem
Marcus Steinmetz
Original Assignee
Uts United 3 D Software Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Uts United 3 D Software Inc. filed Critical Uts United 3 D Software Inc.
Priority to AU2001239159A priority Critical patent/AU2001239159A1/en
Publication of WO2001063559A2 publication Critical patent/WO2001063559A2/de
Publication of WO2001063559A3 publication Critical patent/WO2001063559A3/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering

Definitions

  • the invention relates to a method for automatically linking image areas of a three-dimensional representation of an object with functions, the three-dimensional representation being transformed into two-dimensional texture image data in at least one projection plane.
  • Three-dimensional objects are preferably described with a large number of three-sided polygons, the edge vectors of which are coplanar and aligned
  • Each polygon is defined with a data set that contains the vertex coordinates, vertex normal vectors and the surface normal vector
  • the spatial orientation of the polygon plane is described by the surface normal vector, while the orientation of the polygon within its neighboring polygon set is represented by the vertex normal vectors
  • the three-dimensional object can be changed in its spatial position.
  • the polynomials are subjected to corresponding transformation matrices, for example translation, scaling or rotation.
  • the back-facing process eliminates the polygons that are not visible from a viewing level, since visible polygons precede these polygons.
  • the spatial depth impression can be improved with the help of a perspective projection.
  • the surface elements are cut off at the interfaces that only partially lie within a three-dimensional field of view. This process is called polygon caps.
  • this wireframe representation only gives a relatively imprecise visual impression of the three-dimensional object.
  • Rendering processes are therefore also carried out, which serve to calculate and display the coordinates and the color values of the pixels located on the surfaces of the polygons to be displayed.
  • the surface texture of the three-dimensional object is not only considered as a polygon representation. Rather, they too
  • Reflection properties as reflection data, the color properties as color value data, the transparency properties as transparency data etc. are stored.
  • These image data referred to as texture image data, are a projection of the three-dimensional object onto a two-dimensional plane, comparable to a camera image from any angle. They are saved independently of one another as so-called maps. For example, a color map for the color values, a reflection map for the reflection properties for displaying the depth of the object, a transparency map for displaying the transparency properties, etc. are provided.
  • the rendering process is described, for example, in Peter Oel, Jens Riemschneider, "In the beginning the picture” was described in c't 1999, issue 17, pages 164 to 169.
  • image-based rendering is based on projection rays that are three-dimensional Project an object onto a 2D surface.
  • the method corresponds to photographing an environment on a flat surface with a camera.
  • the rendering processes are used to calculate new views of an object.
  • an imaginary camera and thus a new projection plane is placed at a position from which there is no real image of the object.
  • image information is obtained with which the new view of the object can be calculated.
  • Aided design tools This is relatively expensive.
  • the assignment of the image areas to the functions is relatively imprecise if the position of the displayed object is shifted in space.
  • the method of assigning functions to image positions with the aid of CAD tools is therefore only suitable for two-dimensional representations.
  • the object of the invention was therefore to create an improved method for automatically linking image areas of a three-dimensional representation of an object with functions.
  • the object is achieved in the method according to the invention by a) generating functional area data as a projection of the image areas to be linked of a three-dimensional representation of an object in the two-dimensional plane;
  • a two-dimensional texture of the functional area data is thus generated parallel to the texture for describing the three-dimensional representation, by defining image areas on the surface of the three-dimensional object and linking them to functions and storing these image areas with the function links as a two-dimensional projection.
  • this functional area data can be subjected to a geometric transformation in the same way as the texture image data after a function is called up by selecting an image area. In this way, the functional area belonging to the selected image area can be determined and the corresponding assigned function can be carried out.
  • the texture image data are preferably assigned to three-sided polygons with which the surface of the three-dimensional object or image is defined. With these polygons, a two-dimensional wire model representation of the three-dimensional image can be generated, which gives a three-dimensional impression.
  • reflection data, color value data and / or transparency data can be defined and stored as texture image data. They are used to describe the reflection properties, the color properties and the transparency properties of the three-dimensional object, in particular in relation to the polygon surfaces. These different texture image data are stored independently of one another as a reflection map, color value map and transparency map. According to the invention, the functional area data are treated in the same way as the aforementioned texture image data as a so-called functional map.
  • a so-called rendering process is advantageously carried out, in which object views are calculated from the polygon representation, the texture image data and from the coordinates, color properties, reflection properties and / or transparency properties of the pixels on the polygons by means of the reflection data, color value data and transparency data for example, can be displayed on a screen.
  • the rendering process is also carried out with the functional area data when a function is called up by selecting a pixel.
  • the function that is linked to the corresponding functional area is determined and executed from the functional area data that correlate with the pixel.
  • the functional area representation is thus shifted in accordance with the object in space, with the rendering process projecting onto the two-dimensional level of the
  • the associated functional area and the associated function of the selected pixel can be determined immediately.
  • the functions are advantageously stored in a database and linked with function identifiers, that is to say with function code words.
  • the functional area data stored as texture then only contain a link between functional areas and the functional identifiers. This can save storage space.
  • Figure 1 Process flow for linking image areas with functions according to the invention
  • Figure 2 conventional method for linking image areas with functions.
  • FIG. 1 shows a sketch of the method for automatically linking image areas of a three-dimensional representation of an object 1 with functions.
  • the three-dimensional object 1 is sketched in the three-dimensional perspective representation 2 as a wire model in the three planes X, Y and Z.
  • the wire model consists of three-sided polygons 3 for an approximate description of the surface of the object 1.
  • the invisible polygons in the background are eliminated with the so-called backfacing method.
  • the recording surface 5 e.g. a film
  • a two-dimensional projection of the image is created on the projection plane of the recording surface 5.
  • This two-dimensional projection is outlined in the two-dimensional texture map 6, which shows the projection of a selected polygon 3a.
  • Maps, color value data maps and transparency data maps can in particular the areas of the individual polygons 3 are described in more detail and the spatial impression of the object 1 is improved.
  • the invention provides a further corresponding functional area data map 7, in which functional areas 8 are defined and linked with functional identifiers A, B.
  • the functional areas 8 correspond to selected image areas which do not have to have the shape of a polygon 3.
  • functions can be funct. a, funct. b are executed, which are linked via function identifiers A, B to the corresponding functional areas 8.
  • a corresponding database 9 is provided to describe the linking of the function identifiers A, B with the associated functions Funkt.a, Funkt.b.
  • the functional area data map 7 for defining the functional areas 8 is treated in accordance with the texture map 6 and the reflection data maps, color value data maps and transparency data maps as part of the two-dimensional projection of the three-dimensional object 1.
  • Pointing instrument is selected and a function is to be executed the functional area view is adapted to the current perspective view of object 1.
  • the new perspective is calculated from the functional area data maps 7 with the aid of known geometry transformation and rendering methods.
  • the functional area data is thus treated like the other maps as texture data maps.
  • the function identifier assigned to the selected image area can be determined and the function Funkt.a, Funkt.b to be carried out can be determined and executed with the aid of the function database 9.
  • FIG. 2 shows a conventional method for linking functions to three-dimensional objects 1.
  • an object 1 is sketched in the three-dimensional view 2 and the two-dimensional projection as a texture map 6.
  • the texture map 6 shows a selected polygon 3a, which is identified as such in the method.
  • the link between the number of the selected polygon 3a and the associated function Funkt.a, Funkt.b is stored in the function database 9. Only polygons 3 can thus be linked with functions as selectable image areas. In this case, there is no need to adapt the functional area data map 7 to the projection shown. However, the selectable image areas are relatively imprecise.
  • the functions that can be linked can be of any type. Functions for transforming and moving object 1, video and audio data as multimedia applications, functions for exchanging texture data, activating hyperlinks for selecting functions and pages on the Internet or intranet, displaying explanatory texts or the like are conceivable Execution of a data exchange. In which Exchange of texture data can be changed image areas and in this way certain effects, such as the blinking of an eye of a depicted person can be achieved. By activating hyperlinks, user manuals for the displayed object or the selected picture element can be called up, for example. Only simple explanatory texts can be displayed on the screen in addition to object 1. These explanatory texts can serve, for example, as user help or as marketing information. Any other actions and interactions are conceivable as functions.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Image Generation (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Ein Verfahren zur automatischen Verknüpfung von Bildbereichen einer dreidimensionalen Darstellung eines Objektes (1) mit Funktionen, bei dem die dreidimensionale Darstellung (2) in mindestens einer Projektionsebene in zweidimensionale Texturbilddaten transformiert wird, hat die Schritte von: (a) Erzeugen von Funktionsbereichsdaten als Projektion der zu verknüpfenden Bildbereiche einer dreidimensionalen Darstellung in die zweidimensionale Ebene; (b) Verknüpfen von Funktionen zu entsprechenden Funktionsbereichen (8) und Abspeichern der Funktionsbereichsdaten und der Funktionsverknüpfungen separat zu den Texturbilddaten; (c) Ausführen einer Geometrietransformation der Funktionsbereichsdaten zur Anpassung der Funktionsbereichsdaten an die räumliche Lage der zu verknüpfenden Bildbereiche einer dreidimensionalen Darstellung, wenn eine Funktion durch Auswählen eines Bildbereiches aufgerufen wird, und zur Bestimmung des zu den ausgewählten Bildbereich zugehörigen Funktionsbereiches (8); (d) Ausführen der Funktion, die mit dem ausgewählten Funktionsbereich (8) verknüpft ist.

Description

Verfahren zur automatischen Verknüpfung von Bildbereichen einer dreidimensionalen Darstellung eines Objektes mit Funktionen
Die Erfindung betrifft ein Verfahren zur automatischen Verknüpfung von Bildbereichen einer dreidimensionalen Darstellung eines Objektes mit Funktionen, wobei die dreidimensionale Darstellung in mindestens einer Projektionsebene in zweidimensionale Texturbilddaten transformiert wird.
In Dietmar Jackel „Grafik-Computergrundlagen, Architekturen und Konzepte computergrafischer Sichtsysteme" Springer- Verlag 1992, Kapitel 4, sind die Grundlagen der Verarbeitung von dreidimensionalen Bilddaten beschrieben. Dreidimensionale Objekte werden vorzugsweise mit einer Vielzahl dreiseitiger Polygone beschrieben, deren Kantenvektoren koplanar ausgerichtet sind und einen einheitlichen Umlaufsinn besitzen. Jedes Polygon ist mit einem Datensatz definiert, der die Eckpunktkoordinaten, Eckpunktnormalenvektoren und den Flächennormalenvektor enthält. Die räumliche Ausrichtung der Polygonebene wird durch den Flächennormalenvektor beschrieben, während die Ausrichtung des Polygons innerhalb seiner benachbarten Polygonmenge durch die Eckpunktnormalenvektoren darstellt wird. Mit dem Prozess der
Geometrietransformation kann das dreidimensionale Objekt in seiner räumlichen Lage verändert werden. Hierzu werden die Polynome mit entsprechenden Transformationsmatrixen, zum Beispiel einer Translation, Skalierung oder Rotation unterworfen. Mit dem Prozess des Back-Facing werden die Polygone eliminiert, die von einer Betrachtungsebene aus gesehen nicht sichtbar sind, da diesen Polygonen sichtbare Polygone vorgelagert sind. Mit Hilfe einer perspektivischen Projektion kann der räumliche Tiefeneindruck verbessert werden. Zudem werden die Flächenelemente an den Grenzflächen abgeschnitten, die nur zum Teil innerhalb eines dreidimensionalen Sichtbereichs liegen. Dieser Prozess wird Polygonkappen genannt. Aus diesen Prozessen resultiert eine Drahtmodelldarstellung des im Raum gedrehten oder skalierten dreidimensionalen Objektes, die als Projektion im zweidimensionalen Raum zum Beispiel auf einem Monitor dargestellt werden kann. Diese Drahtmodelldarstelluπg vermittelt jedoch nur einen relativ ungenauen visuellen Eindruck des dreidimensionalen Objektes. Es werden daher zusätzlich noch Rendering-Prozesse durchgeführt, die zur Berechnung und Anzeige der Koordinaten und der Farbwerte der Bildpunkte dienen, die sich auf den Flächen der darzustellenden Polygone befinden. Hierzu wird die Oberflächentextur des dreidimensionalen Objektes nicht nur als Polygondarstellung berücksichtigt. Vielmehr werden auch die
Reflektionseigenschaften als Reflektionsdaten, die Farbeigenschaften als Farbwertdaten, die Transparenzeigenschaften als Transparenzdaten etc. abgespeichert. Diese jeweils als Texturbilddaten bezeichneten Bilddaten sind eine Projektion des dreidimensionalen Objektes auf eine zweidimensionale Ebene vergleichbar mit einer Kameraaufnahme aus einem beliebigen Blickwinkel. Sie werden als sogenannte Maps unabhängig voneinander abgespeichert. So ist zum Beispiel eine Colour-Map für die Farbwerte, eine Reflection-Map für die Reflektionseigenschaften zur Darstellung der Tiefe des Objektes, eine Transparency-Map zur Darstellung der Transparenzeigenschaften etc. vorgesehen.
Das Rendering-Verfahren ist zum Beispiel in Peter Oel, Jens Riemschneider „Am Anfang war das Bild" in c't 1999, Heft 17, Seite 164 bis 169 beschrieben. Das sogenannte „Image-based Rendering" basiert auf Projektionsstrahlen, die einen dreidimensionalen Gegenstand auf eine 2D- Fläche projizieren. Insofern entspricht das Verfahren einer fotografischen Aufnahme einer Umgebung auf eine plane Fläche mit einer Kamera. Mit Hilfe der Rendering-Prozesse werden neue Ansichten eines Objektes berechnet. Hierzu wird eine gedachte Kamera und damit eine neue Projektionsebene an eine Position gestellt, von der keine reale Aufnahme des Objektes existiert. Dadurch, dass einige Strahlen von aufgenommenen Bildern durch die neue Projektionsebene verlaufen, werden Bildinformationen gewonnen, mit denen die neue Ansicht des Objektes berechnet werden kann.
Zur interaktiven Nutzung der dargestellten Objekte bzw. Bilder ist es bekannt, Bildbereiche mit Funktionen zu verknüpfen. Beim Auswählen der Bildbereiche zum Beispiel mit einer Maus oder einem entsprechenden Zeigegerät auf dem Bildschirm wird die entsprechende Bildposition und der zugehörige Bildbereich ermittelt. Herkömmlicherweise wird die Verknüpfung der Funktionen mit Funktionsbereichen mit CAD-Werkzeugen (Computer
Aided Design-Werkzeuge) definiert. Dies ist relativ aufwendig. Zudem ist die Zuordnung der Bildbereiche zu den Funktionen relativ ungenau, wenn die Position des dargestellten Objektes im Raum verschoben wird. Die Methode der Zuordnung von Funktionen zu Bildpositionen mit Hilfe von CAD- Werkzeugen eignet sich daher nur für zweidimensionale Darstellungen.
Weiterhin ist es bekannt, den dreiseitigen Polygonen Funktionen zuzuordnen. Dies erfolgt durch eine entsprechende Datenbank. Auch bei einer Transformation der Polygone bleibt die Zuordnung eines Polygons zu den Funktionen erhalten, so dass die Verknüpfung eines Polygons zu einer Funktion bei einer Verschiebung des Objektes im Raum keinen zusätzlichen Rechenaufwand erfordert. Allerdings sind die auswählbaren Bildbereiche auf die Form der Polygone beschränkt und folglich relativ ungenau.
Aufgabe der Erfindung war es daher, ein verbessertes Verfahren zur automatischen Verknüpfung von Bildbereichen einer dreidimensionalen Darstellung eines Objektes mit Funktionen zu schaffen.
Die Aufgabe wird in dem erfindungsgemäßen Verfahren gelöst durch a) Erzeugen von Funktionsbereichsdaten als Projektion der zu verknüpfenden Bildbereiche einer dreidimensionalen Darstellung eines Objektes in die zweidimensionale Ebene;
b) Verknüpfen von Funktionen zu entsprechenden Funktionsbereichen und Abspeichern der Funktionsbereichsdaten und der Funktionsverknüpfungen separat zu den Texturbilddaten;
c) Ausführen einer Geometrietransformation der Funktionsbereichsdaten zur Anpassung der Funktionsbereichsdaten an die räumliche Lage der zu verknüpfenden Bildbereiche einer dreidimensionalen Darstellung, wenn eine Funktion durch Auswählen eines Bildbereiches aufgerufen wird, und zur Bestimmung der zu den ausgewählten Bildbereichen zugehörigen Funktionsbereichen;
d) Ausführen der Funktion, die mit dem ausgewählten Funktionsbereich verknüpft ist.
Erfindungsgemäß wird somit parallel zu der Textur zur Beschreibung der dreidimensionalen Darstellung eine zweidimensionale Textur der Funktionsbereichsdaten erzeugt, indem auf der Oberfläche des dreidimensionalen Objektes Bildbereiche definiert und mit Funktionen verknüpft werden und diese Bildbereiche mit den Funktionsverknüpfungen als zweidimensionale Projektion abgespeichert werden. Bei einer Verschiebung des Objektes im Raum können diese Funktionsbereichsdaten gleichermaßen wie die Texturbilddaten einer geometrischen Transformation unterzogen werden, nachdem eine Funktion durch Auswählen eines Bildbereiches aufgerufen wird. Auf diese Weise kann der zu dem ausgewählten Bildbereich gehörende Funktionsbereich bestimmt und die entsprechende zugeordnete Funktion ausgeführt werden. Die Texturbilddaten sind vorzugsweise dreiseitigen Polygonen zugeordnet, mit denen die Oberfläche des dreidimensionalen Objektes bzw. Bildes definiert werden. Mit diesen Polygonen kann eine zweidimensionale Drahtmodelldarstellung des dreidimensionalen Bildes erzeugt werden, die einen dreidimensionalen Eindruck vermittelt.
Zusätzlich zu den Polygonen können als Texturbilddaten Reflektionsdaten, Farbwertdaten und/oder Transparenzdaten definiert und abgespeichert werden. Sie dienen zur Beschreibung der Reflektionseigenschaften, der Farbeigenschaften und der Transparenzeigenschaften des dreidimensionalen Objektes, insbesondere bezogen auf die Polygonflächen. Diese verschiedenen Texturbilddaten werden unabhängig voneinander als Reflektions-Map, Farbwert-Map und Transparenz-Map abgespeichert. Die Funktionsbereichsdaten werden erfindungsgemäß auf die gleiche Weise wie die vorgenannten Texturbilddaten als sogenannte Funktions-Map behandelt.
Zur Visualisierung eines Objektes wird vorteilhafterweise ein sogenannter Rendering-Prozess durchgeführt, bei dem aus der Polygondarstellung, den Texturbilddaten und aus den Koordinaten, Farbeigenschaften, Reflektionseigenschaften und/oder Transparenzeigenschaften der Bildpunkte auf den Polygonen mittels der Reflektionsdaten, Farbwertdaten und Transparenzdaten Objektansichten berechnet werden, die beispielsweise auf einem Bildschirm dargestellt werden können. Erfindungsgemäß wird der Rendering-Prozess auch mit den Funktionsbereichsdaten durchgeführt, wenn eine Funktion durch Auswählen eines Bildpunktes aufgerufen wird. Aus den Funktionsbereichsdaten, die mit dem Bildpunkt korrelieren, wird die Funktion bestimmt und ausgeführt, die mit dem entsprechenden Funktionsbereich verknüpft ist. Die Funktionsbereichsdarstellung wird somit entsprechend dem Objekt im Raum verschoben, wobei durch den Rendering-Prozess eine Projektion auf die zweidimensionale Ebene des
Betrachters vorgenommen wird. Aus den zweidimensionalen Koordinaten des ausgewählten Bildpunktes kann sofort der zugehörige Funktionsbereich und die damit verknüpfte Funktion bestimmt werden.
Vorteilhafterweise sind die Funktionen in einer Datenbank abgespeichert und mit Funktionskennungen, das heißt mit Funktionscodewörtern verknüpft. Die als Textur abgespeicherten Funktionsbereichsdaten beinhalten dann lediglich nur eine Verknüpfung von Funktionsbereichen zu den Funktionskennungen. Hierdurch kann Speicherplatz eingespart werden.
Die Erfindung wird nachfolgend anhand der beigefügten Zeichnungen näher erläutert. Es zeigen:
Figur 1 - Verfahrensablauf zur erfindungsgemäßen Verknüpfung von Bildbereichen mit Funktionen;
Figur 2 - herkömmliches Verfahren zur Verknüpfung von Bildbereichen mit Funktionen.
Die Figur 1 lässt eine Skizze des Verfahrens zur automatischen Verknüpfung von Bildbereichen einer dreidimensionalen Darstellung eines Objektes 1 mit Funktionen erkennen. Das dreidimensionale Objekt 1 wird in der dreidimensionalen perspektivischen Darstellung 2 als Drahtmodell in den drei Ebenen X, Y und Z skizziert. Das Drahtmodell besteht aus dreiseitigen Polygonen 3 zur annähernden Beschreibung der Oberfläche des Objektes 1 . Die im Hintergrund liegenden nicht sichtbaren Polygone sind mit der sogenannten Backfacing-Methode eliminiert.
Wenn das Objekt von einer gedachten virtuellen Kamera 4 aus einer beliebigen Perspektive aufgenommen wird, würde auf der Aufπahmefläche 5, wie z.B. einem Film, eine zweidimensionale Projektion des Bildes auf der Projektionsebene der Aufnahmefläche 5 entstehen. Diese zweidimensionale Projektion ist in der zweidimensionalen Textur-Map 6 skizziert, die die Projektion eines ausgewählten Polygons 3a zeigt.
Zusätzlich zu der Textur-Map der Polygone 3 können entsprechende Ansichten zur Beschreibung der Reflektionseigenschaften, Farbeigenschaften und Transparenzeigenschaften der projizierten Ansicht aufgenommen und abgespeichert werden. Mit diesen Reflektionsdaten-
Maps, Farbwertdaten-Maps und Transparenzdaten-Maps können insbesondere die Flächen der einzelnen Polygone 3 detaillierter beschrieben und der räumliche Eindruck des Objektes 1 verbessert werden.
Die Erfindung sieht eine weitere entsprechende Funktionsbereichsdaten-Map 7 vor, in der Funktionsbereiche 8 definiert und mit Funktionskennungen A, B verknüpft sind. Die Funktionsbereiche 8 entsprechen ausgewählten Bildbereichen, die nicht die Form eines Polygones 3 haben müssen. Beim Auswählen eines entsprechenden Bildbereiches, zum Beispiel mit einem Zeigeinstrument eines Computers können Funktionen Funkt. a, Funkt. b ausgeführt werden, die über die Funktionskennungen A, B mit den entsprechenden Funktionsbereichen 8 verknüpft sind. Zur Beschreibung der Verknüpfung der Funktionskennungen A, B mit den zugehörigen Funktionen Funkt.a, Funkt.b ist eine entsprechende Datenbank 9 vorgesehen.
Die Funktionsbereichsdaten-Map 7 zur Definition der Funktionsbereiche 8 wird entsprechend der Textur-Map 6 und der Reflektionsdaten-Maps, Farbwertdaten-Maps und Transparenzdaten-Maps als Teil der zweidimensionalen Projektion des dreidimensionalen Objektes 1 behandelt.
Ein dreidimensionales Objekt 1 kann aus Gründen des Speicherplatzes nicht in allen Ansichten aufgenommen und abgespeichert werden. Daher werden üblicherweise von einem Objekt 1 nur Aufnahmen in ausgewählten Perspektiven aufgenommen und in entsprechenden Maps abgespeichert. Zur Darstellung einer neuen perspektivischen Ansicht werden die erforderlichen Bildinformationen aus den abgespeicherten Maps berechnet. Dies erfolgt mit dem sogenannten Rendering-Verfahren. Dies ist möglich, weil einige Projektionsstrahlen von bereits aufgenommenen und abgespeicherten Bildern durch die neue Projektionsebene des neu zu berechnenden Bildes verlaufen und auf diese Weise bereits Bildinformationen für die einzelnen Bildpunkte zur Verfügung stehen. Wenn nun ein Bildbereich mit einem
Zeigeinstrument ausgewählt und eine Funktion ausgeführt werden soll, wird die Funktionsbereichsansicht auf die momentane perspektivische Ansicht des Objektes 1 angepasst. Hierzu wird aus den Funktionsbereichsdaten- Maps 7 mit Hilfe bekannter Geometrietransformations- und Rendering- Verfahren die neue Perspektive berechnet. Die Funktionsbereichsdaten werden somit genauso wie die anderen Maps als Texturdaten-Maps behandelt. Nachdem die Funktionsbereichsdaten-Map 7 auf die neue Perspektive umgerechnet wurde, kann die dem ausgewählten Bildbereich zugeordnete Funktionskennung ermittelt und mit Hilfe der Funktionsdatenbank 9 die auszuführende Funktion Funkt.a, Funkt.b bestimmt und ausgeführt werden.
Die Figur 2 lässt ein herkömmliches Verfahren zur Verknüpfung von Funktionen zu dreidimensionalen Objekten 1 erkennen. Auch hier ist wiederum ein Objekt 1 in der dreidimensionalen Ansicht 2 und der zweidimensionalen Projektion als Textur-Map 6 skizziert. Die Textur-Map 6 zeigt ein ausgewähltes Polygon 3a, das als solches in dem Verfahren identifiziert wird. Im Unterschied zu dem erfindungsgemäßen Verfahren ist in der Funktionsdatenbank 9 die Verknüpfung der Nummer des ausgewählten Polygons 3a mit der zugehörigen Funktion Funkt.a, Funkt.b abgespeichert. Als auswählbare Bildbereiche können somit nur Polygone 3 mit Funktionen verknüpft werden. Dabei entfällt zwar die Notwendigkeit des zusätzlichen Anpassens der Funktionsbereichsdaten-Map 7 an die dargestellte Projektion. Die auswählbaren Bildbereiche sind jedoch relativ ungenau.
Die verknüpfbaren Funktionen können beliebiger Art sein. Denkbar sind Funktionen zur Transformation und Bewegung des Objektes 1 , Video- und Audiodaten als Multimedia-Anwendungen, Funktionen zum Austausch von Texturdaten, die Aktivierung von Hyper-Links zum Anwählen von Funktionen und Seiten im Internet oder Intranet, das Anzeigen von erklärenden Texten oder die Durchführung eines Datenaustausches. Bei dem Austausch von Texturdaten können Bildbereiche geändert werden und auf diese Weise bestimmte Effekte, wie zum Beispiel das Zwinkern eines Auges einer dargestellten Person erzielt werden. Durch die Aktivierung von Hyper- Links können zum Beispiel Benutzerhandbücher für das dargestellte Objekt oder das ausgewählte Bildelement aufgerufen werden. Es können auch nur einfache erklärende Texte zusätzlich zu dem Objekt 1 auf dem Bildschirm angezeigt werden. Diese erklärenden Texte können zum Beispiel als Nutzerhilfe oder als Marketing-Information dienen. Weitere beliebige Aktionen und Interaktionen sind als Funktionen denkbar.

Claims

Patentansprüche
1. Verfahren zur automatischen Verknüpfung von Bildbereichen einer dreidimensionalen Darstellung eines Objektes (1 ) mit Funktionen, wobei die dreidimensionale Darstellung (2) in mindestens einer Projektionsebene in zweidimensionale Texturbilddaten transformiert wird, gekennzeichnet durch
a) Erzeugen von Funktionsbereichsdaten als Projektion der zu verknüpfenden Bildbereiche einer dreidimensionalen Darstellung in die zweidimensionale Ebene;
b) Verknüpfen von Funktionen zu entsprechenden Funktionsbereichen (8) und Abspeichern der Funktionsbereichsdaten und der
Funktionsverknüpfungen separat zu den Texturbilddaten;
c) Ausführen einer Geometrietransformation der Funktionsbereichsdaten zur Anpassung der Funktionsbereichsdaten an die räumliche Lage der zu verknüpfenden Bildbereiche einer dreidimensionalen Darstellung, wenn eine Funktion durch Auswählen eines Bildbereiches aufgerufen wird, und zur Bestimmung des zu dem ausgewählten Bildbereich zugehörigen Funktionsbereiches (8);
d) Ausführen der Funktion, die mit dem ausgewählten Funktionsbereich
(8) verknüpft ist.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die
Texturbilddaten dreiseitige Polygonen (3) zugeordnet sind, welche die Oberfläche des Objektes (1 ) definieren.
3. Verfahren nach Anspruch 1 oder 2, gekennzeichnet durch Definieren und Abspeichern von Reflektionsdaten als zweidimensionale Transformation der Reflektionseigenschaften des dreidimensionalen Objektes (1 ).
4. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Definieren und Abspeichern von Farbwertdaten als zweidimensionale Transformation der Farbeigenschaften des dreidimensionalen Objektes (1 ).
5. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Definieren und Abspeichern von Transparenzdaten als zweidimensionale Transformation der Transparenzeigenschaften des dreidimensionalen Objektes (1).
6. Verfahren nach Anspruch 2 bis 5, wobei zur Visualisierung des Objektes (1 ) ein Rendering-Prozess basierend auf der Polynomdarstellung (3), den Texturbilddaten und zugehörigen Koordinaten, und gegebenenfalls den Farbeigenschaften, Reflektionseigenschaften und/oder Transparenzeigenschaften der Bildpunkte auf den Polynomen (3) mittels der Reflektionsdaten, Farbwertdaten und Transparenzdaten durchgeführt wird, gekennzeichnet durch Ausführen des Rendering-Prozesses mit den Funktionsbereichsdaten, wenn eine Funktion durch Auswählen eines Bildbereiches aufgerufen wird und Bestimmen und Ausführen der Funktion aus den Funktionsbereichsdaten, die mit dem Bildpunkt verknüpft ist.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Funktionsbereichsdaten eine zweidimensionale Darstellung von auswählbaren Bildbereichen mit zugeordneten Funktionskennungen sind und die Funktionskennungen in Verbindung mit
Funktionsalgorithmen in einer Datenbank (9) abgespeichert werden.
PCT/DE2001/000468 2000-02-23 2001-02-07 Verfahren zur automatischen verknüpfung von bildbereichen einer dreidimensionalen darstellung eines objektes mit funktionen WO2001063559A2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
AU2001239159A AU2001239159A1 (en) 2000-02-23 2001-02-07 Method for automatically linking image areas of a 3-dimensional representation of an object with functions

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE2000108385 DE10008385A1 (de) 2000-02-23 2000-02-23 Verfahren zur automatischen Verknüpfung von Bildbereichen einer dreidimensionalen Darstellung eines Objektes mit Funktionen
DE10008385.4 2000-02-23

Publications (2)

Publication Number Publication Date
WO2001063559A2 true WO2001063559A2 (de) 2001-08-30
WO2001063559A3 WO2001063559A3 (de) 2002-03-14

Family

ID=7632062

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2001/000468 WO2001063559A2 (de) 2000-02-23 2001-02-07 Verfahren zur automatischen verknüpfung von bildbereichen einer dreidimensionalen darstellung eines objektes mit funktionen

Country Status (3)

Country Link
AU (1) AU2001239159A1 (de)
DE (1) DE10008385A1 (de)
WO (1) WO2001063559A2 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993023835A1 (en) * 1992-05-08 1993-11-25 Apple Computer, Inc. Textured sphere and spherical environment map rendering using texture map double indirection
EP0676724A2 (de) * 1994-04-05 1995-10-11 Kabushiki Kaisha Toshiba Texturabbildungsverfahren und Bildverarbeitungsgerät

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5347628A (en) * 1990-01-18 1994-09-13 International Business Machines Corporation Method of graphically accessing electronic data
US5629594A (en) * 1992-12-02 1997-05-13 Cybernet Systems Corporation Force feedback system
EP0623799A1 (de) * 1993-04-03 1994-11-09 SECOTRON ELEKTROGERÄTEBAU GmbH Interaktives Videosystem
TW299410B (de) * 1994-04-04 1997-03-01 At & T Corp
JP3193238B2 (ja) * 1994-08-11 2001-07-30 株式会社東芝 操作検証装置
US5678015A (en) * 1995-09-01 1997-10-14 Silicon Graphics, Inc. Four-dimensional graphical user interface

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993023835A1 (en) * 1992-05-08 1993-11-25 Apple Computer, Inc. Textured sphere and spherical environment map rendering using texture map double indirection
EP0676724A2 (de) * 1994-04-05 1995-10-11 Kabushiki Kaisha Toshiba Texturabbildungsverfahren und Bildverarbeitungsgerät

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BLINN J F: "HYPERBOLIC INTERPOLATION" IEEE COMPUTER GRAPHICS AND APPLICATIONS,US,IEEE INC. NEW YORK, Bd. 12, Nr. 4, 1. Juli 1992 (1992-07-01), Seiten 89-94, XP000281908 ISSN: 0272-1716 *
GHAZANFARPOUR D ET AL: "A HIGH-QUALITY FILTERING USING FORWARD TEXTURE MAPPING" COMPUTERS AND GRAPHICS,GB,PERGAMON PRESS LTD. OXFORD, Bd. 15, Nr. 4, 1991, Seiten 569-577, XP000281890 ISSN: 0097-8493 *
RICHARDS J ET AL: "A REAL-TIME TEXTURE MAPPING SYSTEM -- DME-9000 --" INTERNATIONAL TELEVISION SYMPOSIUM & TECHNICAL EXHIBITION,CH,MONTREUX, CCETT, Bd. SYMP. 16, 17. Juni 1989 (1989-06-17), Seiten 675-684, XP000041151 *

Also Published As

Publication number Publication date
AU2001239159A1 (en) 2001-09-03
WO2001063559A3 (de) 2002-03-14
DE10008385A1 (de) 2001-08-30

Similar Documents

Publication Publication Date Title
DE69632578T2 (de) Computer-grafiksystem zum schaffen und verbessern von texturabbildungssystemen
DE102007045835B4 (de) Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE102020000810A1 (de) 3D-Objektrekonstruktion unter Nutzung einer fotometrischen Netzdarstellung
EP2206089B1 (de) Verfahren und vorrichtung zum darstellen eines virtuellen objekts in einer realen umgebung
DE60133386T2 (de) Vorrichtung und verfahren zur anzeige eines ziels mittels bildverarbeitung ohne drei dimensionales modellieren
DE69732663T2 (de) Verfahren zur erzeugung und änderung von 3d modellen und korrelation von solchen modellen mit 2d bildern
DE112004000377B4 (de) Verfahren und Vorrichtung Bildsegmentierung in einer dreidimensionalen Arbeitsumgebung
DE69926986T2 (de) Rechnergrafiken-animationsverfahren und vorrichtung
DE69924699T2 (de) Verfahren zur Schaffung von als Oberflächenelemente dargestellten grafischen Objekten
EP2284795A2 (de) Quantitative Analyse, Visualisierung und Bewegungskorrektur in dynamischen Prozessen
DE10339979B4 (de) Verfahren und Vorrichtung zur Darstellung eines vorbestimmbaren Bereichs in mehrdimensionalen Datensätzen
EP0789328A2 (de) Bildverarbeitungsverfahren zur Darstellung von spiegelnden Objekten und zugehörige Vorrichtung
DE60100806T2 (de) Abbildung von volumendaten
DE102006021118B4 (de) Rendern von anatomischen Strukturen mit ihrem nahen Umgebungsbereich
DE69924230T2 (de) Verfahren zur Modellierung von durch Oberflächenelemente dargestellten grafischen Objekten
DE602004012341T2 (de) Verfahren und System zur Bereitstellung einer Volumendarstellung eines dreidimensionalen Objektes
DE19704529B4 (de) Verfahren zum automatischen Erzeugen und Handhaben einer Schatten-Geometrie und interaktive computergestützte Anzeigeeinrichtung
DE10056978A1 (de) Verfahren zur Erzeugung eines stereographischen Bildes
DE60030401T2 (de) Anzeigetechniken für dreidimensionale virtuelle Realität
WO2001063559A2 (de) Verfahren zur automatischen verknüpfung von bildbereichen einer dreidimensionalen darstellung eines objektes mit funktionen
EP3465608B1 (de) Verfahren und vorrichtung zum bestimmen eines übergangs zwischen zwei anzeigebildern, und fahrzeug
EP2893510A1 (de) Verfahren und bildverarbeitungsanlage zum entfernen eines visuellen objektes aus einem bild
DE102012010799B4 (de) Verfahren zur räumlichen Visualisierung von virtuellen Objekten
DE102021203023A1 (de) Mehrfachansicht-konsistenzregularisierung zur semantischen interpretation von äquirektangularpanoramen
DE60109813T2 (de) Verfahren und vorrichtung zur darstellung dreidimensionaler szenen in virtueller realität

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CR CU CZ DK DM DZ EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
AK Designated states

Kind code of ref document: A3

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CR CU CZ DK DM DZ EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A3

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GW ML MR NE SN TD TG

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: FESTSTELLUNG EINES RECHTSVERLUSTS NACH REGEL 69(1) EPUE (EPO FORM 1205A VOM 14.01.03)

122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: JP