EP2583265A1 - Method for extracting data from a vision database in order to form a simulation database - Google Patents

Method for extracting data from a vision database in order to form a simulation database

Info

Publication number
EP2583265A1
EP2583265A1 EP11763836.1A EP11763836A EP2583265A1 EP 2583265 A1 EP2583265 A1 EP 2583265A1 EP 11763836 A EP11763836 A EP 11763836A EP 2583265 A1 EP2583265 A1 EP 2583265A1
Authority
EP
European Patent Office
Prior art keywords
database
network
simulation
polygons
polygon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP11763836.1A
Other languages
German (de)
French (fr)
Inventor
Werner Wex
Alex Baumeister
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Krauss Maffei Wegmann GmbH and Co KG
Original Assignee
Krauss Maffei Wegmann GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Krauss Maffei Wegmann GmbH and Co KG filed Critical Krauss Maffei Wegmann GmbH and Co KG
Publication of EP2583265A1 publication Critical patent/EP2583265A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/25Integrating or interfacing systems involving database management systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/30Simulation of view from aircraft

Definitions

  • the invention relates to a method for extracting data from a visual database for constructing a simulation database for a simulation device for simulating movement sequences in a landscape.
  • Such simulation devices can be used, for example, to train pilots or vehicle drivers of military vehicles.
  • Such simulation devices comprise a graphics unit which makes the graphical representation of the simulation on the basis of a visual database.
  • a simulation device may comprise one or more computer-based simulation units that calculate the movements of objects in the landscape. The calculation of the motion sequences and interactions of individual objects within the simulated landscape is carried out on the basis of a simulation database in which object data of the individual objects are stored. This object data can be the basis for detecting collisions and planning routes.
  • the object-based landscape may, for example, comprise the following individual objects: This may include objects such as buildings, e.g. Houses and bunkers, vehicles, such as Buses or tanks, as well as landscape objects, e.g. To be plants or individual rocks. Furthermore, the object-based landscape may include network objects, such as e.g. Roads, rails and rivers as well as off-road area objects such as Fields, forests, deserts or beaches include.
  • objects such as buildings, e.g. Houses and bunkers, vehicles, such as Buses or tanks, as well as landscape objects, e.g. To be plants or individual rocks.
  • the object-based landscape may include network objects, such as e.g. Roads, rails and rivers as well as off-road area objects such as Fields, forests, deserts or beaches include.
  • the visual database and the simulation database of the simulation device must correlate. This ensures that the graphical output and behavior of the objects in the virtual landscape are consistent.
  • a view database essentially the visible surfaces of the objects, so-called polygons, are deposited. These polygons can be provided with attributes that determine their color, for example. It is also possible to fill the polygons with patterns or textures. Such textures are stored in the view database in separate graphics files and displayed via a texture map. Palette assigned to the polygons. In addition, the orientation of the laid on a polygon texture can be specified.
  • the invention has for its object to provide a method which allows the exchange of a visual database between two simulation devices.
  • a method for extracting data from a visual database for constructing a simulation database, wherein in the view database, graphic data of a plurality of individual objects in the form of polygons and textures associated with the polygons are deposited, and wherein object data of the individual objects are stored in the simulation database, and comprising the following steps: a) Definition of object classes by classifying the in the view database by the Graphic data described individual objects,
  • This method enables the exchange of a visual database between a source simulation device and a target simulation device.
  • a corresponding simulation database is set up in the target simulation device.
  • the view database of the source simulation device is usable in the target simulation device.
  • a simulation in the target simulation device can thus also be carried out on the basis of the generated simulation database.
  • the generation of the object data of the individual objects in the simulation database takes place in several steps.
  • a first step the individual objects described by the graphics data of the view database are classified.
  • a list of object classes is created.
  • the polygons stored in the view database are assigned textures that correspond to the surface of the polygon in the graphics unit. customarily For example, a texture can be used for multiple polygons of the view database.
  • the textures stored in the view database are assigned to the object classes created in the first step.
  • a list of textures can be created, wherein the textures are each assigned to a specific object class.
  • the assignment can be stored in a cross-reference list (X-Reference list), which can be programmed in XML, for example.
  • the polygons of the view database are assigned to the individual objects of the simulation database. This assignment can be made using the list created in the second step. For this purpose, e.g. a compiler can be used.
  • the simulation database of a simulation device for simulating motion sequences in a landscape with individual objects and for simulating interactions with these individual objects can be provided, wherein the simulation database for calculating the motion sequences and interactions in the landscape is usable and / or the visual database for graphical representation the landscape is usable.
  • physical properties of the object classes are defined.
  • the definition of physical properties of the object classes can be performed during the definition of object classes. Through this procedure, additional information about the individual objects can be stored in the simulation database.
  • a method is advantageous in which method steps a) and b) are carried out manually and / or method step c) is carried out automatically, since in method steps a) and b) a comparison is made between method steps a) and b).
  • step c) small number of elements can be edited.
  • step a) a few object classes are created for the individual objects contained in the virtual landscape, and in step b) the comparatively small number of textures of the view database are assigned to the object classes.
  • the view database has fewer textures than polygons because the textures are used repeatedly.
  • the large number of all polygons of the view database is to be evaluated. The automation of process step c) can thus considerably speed up the process.
  • the assignment of a texture to an object class is preferably created on the basis of a designation of the texture, in particular of a file name. This has the advantage that the graphical content of the texture does not have to be analyzed. Based on the designation of the texture, a quick assignment of the textures to an object class is possible.
  • an algorithm for generating the object data in the simulation database is selected.
  • the object data may differ greatly depending on the object class. While a physical object may comprise only a few interconnected polygons, network objects that extend substantially throughout the landscape are possible. Since the data structures in the simulation database may differ for the object classes, the use of different algorithms for generating this object data may also be necessary.
  • the graphic data in the form of polygon groupings and attributes assigned to the polygon groupings, in particular grouping names, are preferably stored in the view database, and the attributes are stored. assigned to the object classes. Groups of graphic data in the view database can represent an object. An attribute associated with a polygon grouping may allow identification of the object. Therefore, another list of attributes associated with particular object classes can be created.
  • the generation of object data in the simulation database is particularly advantageous by assigning polygons of a polygon grouping to individual objects on the basis of the object class assigned to the polygon grouping via its attributes. Analogous to the generation of object data based on the object class assigned to the polygons via their texture, the object data can also be generated based on the object class assigned to the polygon grouping via its attributes. This offers the advantage that entire polygon groupings from the view database can be transferred to the simulation database.
  • the neighborhood relationship includes the orientation of the texture associated with a polygon. From the orientation of the texture assigned to a polygon, in particular the orientation of the represented object can be derived. This applies in particular to roads, railway lines and / or rivers.
  • a line segment is defined based on the coordinates of a polygon and the orientation of the associated texture. The line piece may be aligned parallel to the orientation of the associated texture and defines a portion of the network object.
  • adjacent line segments of polygons of the same network object class can preferably be assembled into a network path. By combining contiguous line segments from polygons to network paths, the structure of a network object can be defined.
  • network paths whose end coordinates have a smaller distance from one another than a predetermined interception distance are combined to form a common network path.
  • gaps in the network object can be detected and closed.
  • the snap distance must be specified so that it is greater than the largest expected gap in the network object.
  • a network object of the simulation database comprises network nodes and a network node is generated at the coordinates of an intersection point of two network paths of a network object.
  • object data of terrain area objects are stored in the simulation database.
  • terrain area objects it is possible to represent not only objects and network objects but also different properties of the terrain.
  • ground that can be driven by a vehicle be separated from such ground, which is not passable to the vehicle.
  • the simulation database has the structure of a quadtree. Due to the structure of a quadtree, the data of the simulation database can be stored efficiently for the calculations in the simulation device. In addition, the structure of a quadtree can accelerate access to the simulation database.
  • FIGS. 1 to 11. 1 is a functional diagram of a simulation device
  • FIG. 5 is a flow chart of a first object recognition algorithm
  • FIG. 6 is a flow chart of a second object recognition algorithm
  • FIG. 7 is a flow chart of an algorithm for recognizing network objects
  • Fig. 10 is a schematic representation of the detection of gaps in one
  • Fig. 11 is a schematic representation of the detection of intersections in a network object.
  • FIG. 1 shows a block diagram of a simulation device which is suitable for the simulation of motion sequences in a landscape 8 with individual objects 9 to 13.
  • This simulation device 1 comprises a graph fik nie 4, which accesses the graphic data stored in the view database 2.
  • the simulation device 1 has simulation units 5 to 7 which access the object data of the individual objects 9 to 13, which are stored in the simulation database 3 programmed in an industry standard.
  • the simulation database 3 thus essentially represents a mathematical image of the visual data base 2 and should correlate as precisely as possible with the visual database 2 in order to enable "natural" navigation of computer-generated forces.
  • the simulation database 3 can represent, for example, a compact terrain database (CTDB).
  • CTDB compact terrain database
  • SD terrain database SD terrain database
  • the representation in FIG. 2 shows a computer-generated landscape 8 with individual objects 9 to 13.
  • the representational individual objects 9-11 include, for example, vehicles 9, Building 10 as well as landscape objects 11 such as trees.
  • the network objects 12 include in particular roads, rails and / or rivers.
  • terrain terrain objects 13 include fields, deserts, and / or rocky terrain as part of the landscape 8.
  • the vision database has a substantially tree-shaped structure. Starting from a root node 22, the graphics data stored in the view database are available as leaves of this root node 22.
  • a vertex node represents a point within the landscape 8 and defines the coordinates of the point within the landscape 8.
  • a polygon, in particular an area in the landscape 8, is deposited in the view database 2 in a face node 16.
  • the vertex nodes 15 subordinate to the face node 16 are also referred to as their children and represent the corner coordinates of the polygon.
  • a polygon 16 is usually associated with a texture. All textures used in the view database 2 are stored in the texture palette 14. In the texture palette, references to the graphic files of the textures are present and assigned to an ordinal number. In order to assign a certain texture to a polygon, in the face node 16 representing the polygon, the texture attribute is assigned the corresponding ordinal number. Face nodes 16 representing polygons may be grouped into objects as children of an object node 17. Furthermore, it is possible to make arbitrary groupings into a group node 20 in the view database 2. For example, an object node 17 may be grouped together with a noise node 18 and / or a light source node 19 as children of a group node 20.
  • references to other files of the view database 2 are possible via so-called external reference nodes 21.
  • a subject object 9-11 in particular a vehicle, may be stored in a separate file within the view database 2.
  • the illustration in FIG. 4 shows a so-called cross-reference list.
  • a first step by classifying the individual objects 9-13 object representations represented in the view database 2 by the graphic data. defined in the cross-reference list.
  • object classes can be, for example, buildings, houses, trees, roads, rivers, fields, deserts, etc.
  • the textures present in the texture palette 14 of the visual database 2 are assigned to the object classes defined in the first step. This can be done in particular on the basis of the file name which is stored in the texture palette 14 of the view database 2.
  • the texture file can be viewed visually and assigned according to an object class.
  • object data are generated in the simulation database 2 in a third step.
  • the polygons of the view database 2 are iteratively assigned to the individual objects of the simulation database 3 automatically.
  • the algorithm 60 shown in FIG. 6 can be used.
  • a face node 16 is selected.
  • the texture attribute of the face node 16 is detected.
  • the associated texture file name is determined. It is also checked whether an object class is assigned to this texture file name in the cross-reference list. If an object class is assigned to the texture file name, then the object node 17 which is the parent of the face node is determined and all face node 16 subordinate to this object node 17, which represent polygons, are transferred to the simulation database 3 as a common individual object (step 63). Subsequently, the next face node 16 is transitioned and all face nodes 16 are processed iteratively.
  • FIG. 5 Another algorithm 50 for recognizing objects within the view database 2 is shown in FIG.
  • the algorithm 59 operates on object node 17.
  • a first step 55 an object node 17 is selected.
  • a second Step 56 checks whether there is a name among the attributes of the object node 17.
  • the cross-reference list can also contain assignments of names to object classes. If such a designation is recognized in step 56, then in a next step 57, all nodes subordinate to the object node 17 can be transferred to the simulation database 3 as a single object.
  • This object recognition algorithm 59 also runs iteratively and considers all the object nodes 17 present in the view database 2.
  • the view database 2 may contain a plurality of groupings of graphic data of the same individual object 9-13, which represent different states of the individual object 9-13.
  • an undamaged and a destroyed state for a house 10 can be stored in the view database 2.
  • Such dynamic single objects 9-13 are usually stored in the view database 2 in separate files referenced with an external reference node 21 and can be recognized with an algorithm based on the algorithm 50, in contrast to algorithm 50 in the dynamic object detection algorithm, external reference node 21 may be considered instead of object node 17.
  • FIG. 7 shows the flow diagram of an algorithm for the detection of network objects 12, in particular roads, rails and / or rivers.
  • an unwanted gap can also exist between two network paths 103, 104. Therefore, in a further step, the network paths 103, 104 of the network object are checked as to whether gaps to other network paths 103, 104 exist. Starting from the end of each network path 103, 104, it is checked whether the end of a second network path 103, 104 is within a predetermined distance, in particular a capture radius. If this is the case, the two network path ends are connected with an additional line segment to a common network path 105. This algorithm for detecting gaps is also carried out iteratively for all network paths 103, 104 of a network object 12.
  • the network path 107 is extended at its end by a defined capture length. If this extension should intersect a second network path 106, a network node 109 is created at the intersection of the two network paths, and the two network paths 106, 107 are combined to form a common network path 108.
  • the network objects 12 represented in the view database 2 are usually generated with automatic tools and can therefore comprise adjacent polygons which follow one another like a corrugated metal sheet.
  • this corrugated metal structure can lead to an undesired bucking effect in the simulation when the network object 12 is passed over.
  • an algorithm for smoothing the network object 12 in the simulation database 3 can be used.
  • the algorithm 80 shown in the flowchart in FIG. 8 is used. All face nodes 16 representing polygons are checked to see if they are associated with a terrain real class. If this is the case, then the projection of this polygon is formed on the XY plane and taken over into the simulation database 3 as part of a terrain area object 13. After all face nodes 16 of the vision database 2 have been processed, all adjacent terrain relief portions of a terrain arear object 13 are connected together to form a common contour. For example, its trafficability can be defined as a physical property of the terrain area.
  • the vision database 2 can contain driving obstacle objects which form a driving obstacle in the simulation, that is to say they are impenetrable.
  • driving obstacle objects can be individual objects 9-13, which are recognized by the texture of their polygons according to the algorithm 60, or also point objects, which are recognized by an attribute with the algorithm 50.
  • the simulation database 3 in a quadtree and stored as a compact binary file before. This serves on the one hand the faster loading time of the simulation database 3 and on the other hand the access acceleration.
  • the quadtree of the simulation database consists of a static and a dynamic part. In a fully dynamic Quadtree relatively long distances from
  • Each quadrant contains a list of polygons that are completely or partially within it. This makes it very easy to access polygons at a specific spatial location online. However, some applications do not need nearby polygons, but objects. For example, a route planner would like to know what network paths and buildings are in its vicinity. Therefore, in a further step important objects (buildings, trees and network paths) are sorted into the quadtree.

Abstract

Method for extracting data from a vision database (2) in order to form a simulation database (3), wherein graphic data on multiple individual objects are stored in the vision database (2) in the form of polygons and textures assigned to the polygons, and wherein object data on the individual objects are stored in the simulation database (2), having the following steps: a) definition of object classes by classifying the individual objects which are described by the graphic data in the vision database (2), b) assignment of the textures to the object classes, c) generation of object data in the simulation database (3) by assigning polygons to individual objects on the basis of the object class which is assigned to the polygons by means of their texture.

Description

Verfahren zur Extraktion von Daten aus einer Sichtdatenbank zum Aufbau einer Simulationsdatenbank  Method for extracting data from a view database for constructing a simulation database
Die Erfindung betrifft ein Verfahren zur Extraktion von Daten aus einer Sichtdatenbank zum Aufbau einer Simulationsdatenbank für eine Simulationsvorrichtung zur Simulation von Bewegungsabläufen in einer Landschaft. The invention relates to a method for extracting data from a visual database for constructing a simulation database for a simulation device for simulating movement sequences in a landscape.
Bekannte Simulationsvorrichtungen können beispielsweise zur Ausbildung von Piloten oder von Fahrzeugführern militärischer Fahrzeuge eingesetzt werden. Derartige Simulationsvorrichtungen umfassen eine Grafikeinheit, welche anhand einer Sichtdatenbank die grafische Darstellung der Simulation leistet. Ferner kann eine solche Simulationsvorrichtung eine oder mehrere rechnerbasierte Simulationseinheiten umfassen, die die Bewegungen von Objekten in der Landschaft berechnen. Die Berechnung der Bewegungsabläufe und Interaktionen von Einzelobjekten innerhalb der simulierten Landschaft wird anhand ei- ner Simulationsdatenbank durchgeführt, in der Objektdaten der Einzelobjekte hinterlegt sind. Diese Objektdaten können die Grundlage für die Erkennung von Kollisionen und die Planung von Routen sein. Known simulation devices can be used, for example, to train pilots or vehicle drivers of military vehicles. Such simulation devices comprise a graphics unit which makes the graphical representation of the simulation on the basis of a visual database. Furthermore, such a simulation device may comprise one or more computer-based simulation units that calculate the movements of objects in the landscape. The calculation of the motion sequences and interactions of individual objects within the simulated landscape is carried out on the basis of a simulation database in which object data of the individual objects are stored. This object data can be the basis for detecting collisions and planning routes.
Die objektbasierte Landschaft kann beispielsweise folgende Einzelobjekte aufweisen: Dies können Gegenstände wie Gebäude, wie z.B. Häuser und Bunker, Fahrzeuge, wie z.B. Busse oder Panzer sowie Landschaftsobjekte, wie z.B. Pflanzen oder einzelne Felsen sein. Ferner kann die objektbasierte Landschaft Netzwerkobjekte, wie z.B. Straßen, Schienen und Flüsse sowie Geländearealobjekte wie z.B. Felder, Wälder, Wüsten oder Strände umfassen. The object-based landscape may, for example, comprise the following individual objects: This may include objects such as buildings, e.g. Houses and bunkers, vehicles, such as Buses or tanks, as well as landscape objects, e.g. To be plants or individual rocks. Furthermore, the object-based landscape may include network objects, such as e.g. Roads, rails and rivers as well as off-road area objects such as Fields, forests, deserts or beaches include.
Damit eine realistische Simulation der Landschaft und der Bewegungsabläufe möglich ist, müssen die Sichtdatenbank und die Simulationsdatenbank der Simulationsvorrichtung miteinander korrelieren. Dadurch wird gewährleistet, dass die grafische Ausgabe und das Verhalten der Objekte in der virtuellen Landschaft zueinander konsistent sind. For a realistic simulation of the landscape and the motion sequences is possible, the visual database and the simulation database of the simulation device must correlate. This ensures that the graphical output and behavior of the objects in the virtual landscape are consistent.
Für das Format der Sichtdatenbank existieren mehrere Standards, die den Austausch solcher Sichtdatenbanken zwischen unterschiedlichen Grafikeinheiten ermöglichen. Ein oft benutzter derartiger Standard ist das OpenFlightFormat. In einer Sichtdatenbank sind im Wesentlichen die sichtbaren Flächen der Objekte, sogenannte Polygone, hinterlegt. Diese Polygone können mit Attributen versehen sein, die z.B. ihre Farbe bestimmen. Ferner ist es möglich, die Polygone mit Mustern oder Texturen auszufüllen. Solche Texturen werden in der Sichtdatenbank in separaten Grafikdateien gespeichert und über eine Textur- Palette den Polygonen zugeordnet. Zudem kann die Orientierung der auf ein Polygon gelegten Textur vorgegeben werden. There are several standards for the visual database format that allow the exchange of such view databases between different graphics units. One often used such standard is the OpenFlight format. In a view database, essentially the visible surfaces of the objects, so-called polygons, are deposited. These polygons can be provided with attributes that determine their color, for example. It is also possible to fill the polygons with patterns or textures. Such textures are stored in the view database in separate graphics files and displayed via a texture map. Palette assigned to the polygons. In addition, the orientation of the laid on a polygon texture can be specified.
Ein hierarchischer Aufbau der Sichtdatenbank, bei dem Gruppen von Polygonen gebildet werden, ist zwar möglich, die Zugehörigkeit von Polygonen zu Einzelobjekten in der virtuellen Landschaft spiegelt sich allerdings standardmäßig nicht in der Gruppierung wider. Vielmehr sind die Polygone entsprechend ihrer Anordnung in der virtuellen Landschaft oder anderer für die Darstellung wichtigen Kriterien in der Sichtdatenbank gruppiert. Although a hierarchical structure of the view database, in which groups of polygons are formed, is possible, the fact that polygons belong to individual objects in the virtual landscape is not reflected by default in the grouping. Rather, the polygons are grouped in the view database according to their arrangement in the virtual landscape or other important criteria for display.
Dem hingegen existiert kein Standard für das Format von Simulationsdatenbanken. Dies ist durch den großen Unterschied der Simulationsvorrichtungen untereinander bedingt. Obschon die Sichtsysteme zweier verschiedener Simulationsvorrichtungen zueinander kompatibel sind, ist gleichwohl ein Datenaus- tausch zwischen diesen Simulationsvorrichtungen aufgrund des unterschiedlichen Formats der Simulationsdatenbanken nicht möglich. Dies ist insofern problematisch, dass für eine neue Simulationsvorrichtung somit zwingend neue Sicht- und Simulationsdatenbanken erstellt werden müssen. Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren anzugeben, welches den Austausch einer Sichtdatenbank zwischen zwei Simulationsvorrichtungen ermöglicht. On the other hand, there is no standard for the format of simulation databases. This is due to the great difference between the simulation devices with each other. Although the vision systems of two different simulation devices are compatible with one another, nevertheless a data exchange between these simulation devices is not possible due to the different format of the simulation databases. This is problematic in that it is imperative that new visual and simulation databases be created for a new simulation device. The invention has for its object to provide a method which allows the exchange of a visual database between two simulation devices.
Die Lösung dieser Aufgabe erfolgt erfindungsgemäß mit den Merkmalen aus dem kennzeichnenden Teil des Patentanspruchs 1 . Vorteilhafte Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen beschrieben. The solution of this object is achieved according to the invention with the features of the characterizing part of patent claim. 1 Advantageous developments of the invention are described in the dependent claims.
Gemäß der Erfindung wird ein Verfahren zur Extraktion von Daten aus einer Sichtdatenbank zum Aufbau einer Simulationsdatenbank vorgeschlagen, wobei in der Sichtdatenbank Grafikdaten einer Vielzahl von Einzelobjekten in Form von Polygonen sowie den Polygonen zugeordneten Texturen hinterlegt sind, und wobei in der Simulationsdatenbank Objektdaten der Einzelobjekte hinterlegt werden, und das folgende Schritte aufweist: a) Definition von Objektklassen durch Klassifizierung der in der Sichtdatenbank durch die Grafikdaten beschriebenen Einzelobjekte, According to the invention, a method is proposed for extracting data from a visual database for constructing a simulation database, wherein in the view database, graphic data of a plurality of individual objects in the form of polygons and textures associated with the polygons are deposited, and wherein object data of the individual objects are stored in the simulation database, and comprising the following steps: a) Definition of object classes by classifying the in the view database by the Graphic data described individual objects,
b) Zuordnung der Texturen zu den Objektklassen,  b) assignment of the textures to the object classes,
c) Generierung von Objektdaten in der Simulationsdatenbank durch Zuord- nung von Polygonen zu Einzelobjekten anhand der den Polygonen über deren Textur zugeordneten Objektklasse.  c) Generation of object data in the simulation database by assigning polygons to individual objects based on the object class assigned to the polygons via their texture.
Durch dieses Verfahren wird der Austausch einer Sichtdatenbank zwischen einer Quell-Simulationsvorrichtung und einer Ziel-Simulationsvorrichtung ermög- licht. Dabei wird anhand der Grafikdaten in der Sichtdatenbank eine entsprechende Simulationsdatenbank in der Ziel-Simulationsvorrichtung aufgebaut. Infolgedessen ist die Sichtdatenbank der Quell-Simulationsvorrichtung in der Ziel-Simulationsvorrichtung nutzbar. Neben der Erzeugung der grafischen Darstellung im Sichtsystem der Ziel-Simulationsvorrichtung kann anhand der gene- rierten Simulationsdatenbank somit auch eine Simulation in der Ziel- Simulationsvorrichtung durchgeführt werden. This method enables the exchange of a visual database between a source simulation device and a target simulation device. In this case, based on the graphics data in the view database, a corresponding simulation database is set up in the target simulation device. As a result, the view database of the source simulation device is usable in the target simulation device. In addition to the generation of the graphical representation in the vision system of the target simulation device, a simulation in the target simulation device can thus also be carried out on the basis of the generated simulation database.
Die Generierung der Objektdaten der Einzelobjekte in der Simulationsdatenbank findet dabei in mehreren Schritten statt. In einem ersten Schritt werden die durch die Grafikdaten der Sichtdatenbank beschriebenen Einzelobjekte klassifiziert. Es entsteht eine Liste von Objektklassen. The generation of the object data of the individual objects in the simulation database takes place in several steps. In a first step, the individual objects described by the graphics data of the view database are classified. A list of object classes is created.
Den in der Sichtdatenbank hinterlegten Polygonen sind Texturen zugeordnet, die in der Grafikeinheit der Oberfläche des Polygons entsprechen. Üblicher- weise kann eine Textur für mehrere Polygone der Sichtdatenbank benutzt werden. In einem zweiten Schritt werden die in der Sichtdatenbank hinterlegten Texturen den im ersten Schritt erstellten Objektklassen zugeordnet. Es kann somit eine Liste von Texturen erstellt werden, wobei die Texturen je- weils einer bestimmten Objektklasse zugeordnet sind. Die Zuordnung kann in einer Cross-Reference- Liste (X-Reference-Liste), die beispielsweise in XML programmiert sein kann, hinterlegt werden. The polygons stored in the view database are assigned textures that correspond to the surface of the polygon in the graphics unit. customarily For example, a texture can be used for multiple polygons of the view database. In a second step, the textures stored in the view database are assigned to the object classes created in the first step. Thus, a list of textures can be created, wherein the textures are each assigned to a specific object class. The assignment can be stored in a cross-reference list (X-Reference list), which can be programmed in XML, for example.
In einem dritten Schritt werden die Polygone der Sichtdatenbank den Einzelob- jekten der Simulationsdatenbank zugeordnet. Diese Zuordnung kann anhand der im zweiten Schritt erstellten Liste durchgeführt werden. Hierfür kann z.B. ein Compiler verwendet werden. In a third step, the polygons of the view database are assigned to the individual objects of the simulation database. This assignment can be made using the list created in the second step. For this purpose, e.g. a compiler can be used.
Bevorzugt ist die Simulationsdatenbank einer Simulationsvorrichtung zur Simu- lation von Bewegungsabläufen in einer Landschaft mit Einzelobjekten und zur Simulation von Interaktionen mit diesen Einzelobjekten bereitstellbar, wobei die Simulationsdatenbank zur Berechnung der Bewegungsabläufe und Interaktionen in der Landschaft verwendbar ist und/oder wobei die Sichtdatenbank zur grafischen Darstellung der Landschaft verwendbar ist. Preferably, the simulation database of a simulation device for simulating motion sequences in a landscape with individual objects and for simulating interactions with these individual objects can be provided, wherein the simulation database for calculating the motion sequences and interactions in the landscape is usable and / or the visual database for graphical representation the landscape is usable.
Bevorzugt werden physikalische Eigenschaften der Objektklassen definiert. Die Definition von physikalischen Eigenschaften der Objektklassen kann während der Definition von Objektklassen durchgeführt werden. Durch dieses Vorgehen können in der Simulationsdatenbank zusätzliche Informationen zu den Einzel- Objekten hinterlegt werden. Preferably, physical properties of the object classes are defined. The definition of physical properties of the object classes can be performed during the definition of object classes. Through this procedure, additional information about the individual objects can be stored in the simulation database.
Vorteilhaft ist ein Verfahren, bei dem die Verfahrensschritte a) und b) manuell durchgeführt werden und/oder der Verfahrensschritt c) automatisch durchgeführt wird, da in den Verfahrensschritten a) und b) eine im Vergleich zu Ver- fahrensschritt c) geringe Anzahl von Elementen bearbeitet werden kann. So werden in Schritt a) einige wenige Objektklassen für die in der virtuellen Landschaft enthaltenen Einzelobjekte erstellt und in Schritt b) die vergleichsweise geringe Anzahl Texturen der Sichtdatenbank den Objektklassen zuge- ordnet. Die Sichtdatenbank umfasst weniger Texturen als Polygone, da die Texturen wiederholt verwendet werden. Dem hingegen ist bei der Generierung der Objektdaten in Schritt c) die große Anzahl aller Polygone der Sichtdatenbank auszuwerten. Die Automatisierung von Verfahrensschritt c) kann das Verfahren demnach erheblich beschleunigen. A method is advantageous in which method steps a) and b) are carried out manually and / or method step c) is carried out automatically, since in method steps a) and b) a comparison is made between method steps a) and b). step c) small number of elements can be edited. Thus, in step a) a few object classes are created for the individual objects contained in the virtual landscape, and in step b) the comparatively small number of textures of the view database are assigned to the object classes. The view database has fewer textures than polygons because the textures are used repeatedly. In contrast, when generating the object data in step c), the large number of all polygons of the view database is to be evaluated. The automation of process step c) can thus considerably speed up the process.
Bevorzugt wird die Zuordnung einer Textur zu einer Objektklasse anhand einer Bezeichnung der Textur, insbesondere eines Dateinamens, erstellt. Dies bietet den Vorteil, dass der grafische Gehalt der Textur nicht analysiert werden muss. Anhand der Bezeichnung der Textur ist eine schnelle Zuordnung der Tex- tur zu einer Objektklasse möglich. The assignment of a texture to an object class is preferably created on the basis of a designation of the texture, in particular of a file name. This has the advantage that the graphical content of the texture does not have to be analyzed. Based on the designation of the texture, a quick assignment of the textures to an object class is possible.
Ferner wird vorgeschlagen, dass abhängig von der Objektklasse ein Algorithmus zur Generierung der Objektdaten in der Simulationsdatenbank ausgewählt wird. Die Objektdaten können sich in Abhängigkeit von der Objektklasse stark voneinander unterscheiden. Während ein gegenständliches Objekt nur wenige miteinander verbundene Polygone umfassen kann, sind Netzwerkobjekte möglich, die sich im Wesentlichen über die gesamte Landschaft erstrecken. Da sich die Datenstrukturen in der Simulationsdatenbank für die Objektklassen unterscheiden können, kann auch die Verwendung unterschiedliche Algorithmen zur Generierung dieser Objektdaten nötig sein. Furthermore, it is proposed that, depending on the object class, an algorithm for generating the object data in the simulation database is selected. The object data may differ greatly depending on the object class. While a physical object may comprise only a few interconnected polygons, network objects that extend substantially throughout the landscape are possible. Since the data structures in the simulation database may differ for the object classes, the use of different algorithms for generating this object data may also be necessary.
Bevorzugt sind in der Sichtdatenbank die Grafikdaten in Form von Polygon- Gruppierungen sowie den Polygon-Gruppierungen zugeordneten Attributen, insbesondere Gruppierungsbezeichnungen, hinterlegt, und die Attribute wer- den den Objektklassen zugeordnet. Gruppierungen von Grafikdaten in der Sichtdatenbank können ein Objekt darstellen. Ein Attribut, welches einer Polygon-Gruppierung zugeordnet ist, kann die Identifikation des Objekts ermöglichen. Daher kann eine weitere Liste von Attributen erstellt werden, die be- stimmten Objektklassen zugeordnet sind. The graphic data in the form of polygon groupings and attributes assigned to the polygon groupings, in particular grouping names, are preferably stored in the view database, and the attributes are stored. assigned to the object classes. Groups of graphic data in the view database can represent an object. An attribute associated with a polygon grouping may allow identification of the object. Therefore, another list of attributes associated with particular object classes can be created.
Besonders vorteilhaft ist die Generierung von Objektdaten in der Simulationsdatenbank durch Zuordnung von Polygonen einer Polygon-Gruppierung zu Einzelobjekten anhand der der Polygon-Gruppierung über deren Attribute zuge- ordneten Objektklasse. Analog zu der Generierung von Objektdaten anhand der den Polygonen über deren Textur zugeordneten Objektklasse, können die Objektdaten auch anhand der der Polygon-Gruppierung über deren Attribute zugeordneten Objektklasse generiert werden. Dies bietet den Vorteil, dass ganze Polygon-Gruppierungen aus der Sichtdatenbank in die Simulationsdaten- bank übernommen werden können. The generation of object data in the simulation database is particularly advantageous by assigning polygons of a polygon grouping to individual objects on the basis of the object class assigned to the polygon grouping via its attributes. Analogous to the generation of object data based on the object class assigned to the polygons via their texture, the object data can also be generated based on the object class assigned to the polygon grouping via its attributes. This offers the advantage that entire polygon groupings from the view database can be transferred to the simulation database.
Besonders vorteilhaft ist ein Verfahren, bei dem alle Polygone der Polygon- Gruppierung einem Einzelobjekt zugeordnet werden, wenn ein Polygon einer Polygon-Gruppierung diesem Einzelobjekt zugeordnet wird. Dadurch, dass be- reits ein Polygon einer Polygon-Gruppierung ausreicht, um die gesamte Polygon-Gruppierung einem Einzelobjekt zuzuordnen, müssen weniger Polygone betrachtet werden. Dadurch kann die Extraktion der Daten aus der Sichtdatenbank beschleunigt werden. Vorteilhaft ist es, wenn in der Simulationsdatenbank Objektdaten von Netzwerkobjekten, insbesondere Straßen, Bahnstrecken und/oder Flüsse generiert werden, die Netzwerkpfade umfassen, wobei mehrere Polygone, die einer gemeinsamen Netzwerkobjektklasse zugeordnet sind, anhand von Nachbarschaftsbeziehungen den Netzwerkobjekten zugeordnet werden. Dabei können aneinander grenzende Abschnitte von Netzwerkobjekten, beispielsweise Straßenabschnitte, zusammengefasst werden. Particularly advantageous is a method in which all polygons of the polygon grouping are assigned to a single object when a polygon of a polygon grouping is assigned to this individual object. The fact that one polygon of a polygon grouping is sufficient to assign the entire polygon grouping to a single object means that fewer polygons have to be considered. This can speed up the extraction of data from the view database. It is advantageous if object data of network objects, in particular roads, railway lines and / or rivers, which comprise network paths, are generated in the simulation database, wherein a plurality of polygons, which are assigned to a common network object class, are assigned to the network objects on the basis of neighborhood relationships. It can contiguous sections of network objects, such as road sections, are summarized.
Bevorzugt umfasst die Nachbarschaftsbeziehung die Orientierung der einem Polygon zugeordneten Textur. Aus der Orientierung der einem Polygon zugeordneten Textur kann insbesondere die Ausrichtung des dargestellten Objekts abgeleitet werden. Dies betrifft insbesondere Straßen, Bahnstrecken und/oder Flüsse. Bevorzugt wird anhand der Koordinaten eines Polygons und der Orientierung der zugeordneten Textur ein Linienstück definiert. Das Linienstück kann parallel zu der Orientierung der zugeordneten Textur ausgerichtet sein und definiert einen Teil des Netzwerkobjekts. Ferner können bevorzugt aneinandergrenzende Linienstücke von Polygonen der gleichen Netzwerkobjektklasse zu einem Netzwerkpfad zusammengesetzt werden. Durch die Kombination aneinandergrenzender Linienstücke von Polygonen zu Netzwerkpfaden kann die Struktur eines Netzwerkobjekts definiert werden. Bevorzugt werden Netzwerkpfade, deren Endkoordinaten einen geringeren Abstand voneinander aufweisen, als einen vorgegebenen Fangabstand, zu einem gemeinsamen Netzwerkpfad zusammengesetzt. Durch dieses Vorgehen können Lücken in dem Netzwerkobjekt erkannt und geschlossen werden. Der Fangabstand muss dabei so vorgegeben werden, dass er größer ist als die größ- te erwartete Lücke im Netzwerkobjekt. Preferably, the neighborhood relationship includes the orientation of the texture associated with a polygon. From the orientation of the texture assigned to a polygon, in particular the orientation of the represented object can be derived. This applies in particular to roads, railway lines and / or rivers. Preferably, a line segment is defined based on the coordinates of a polygon and the orientation of the associated texture. The line piece may be aligned parallel to the orientation of the associated texture and defines a portion of the network object. Furthermore, adjacent line segments of polygons of the same network object class can preferably be assembled into a network path. By combining contiguous line segments from polygons to network paths, the structure of a network object can be defined. Preferably, network paths whose end coordinates have a smaller distance from one another than a predetermined interception distance are combined to form a common network path. By doing so, gaps in the network object can be detected and closed. The snap distance must be specified so that it is greater than the largest expected gap in the network object.
Es ist ferner vorteilhaft, wenn sich schneidende Netzwerkpfade zu einem gemeinsamen Netzwerkpfad zusammengesetzt werden. Dadurch können mehrere Netzwerkpfade der gleichen Netzwerkklasse zu einem gemeinsamen Netzwerkobjekt zusammengesetzt werden. It is also advantageous if intersecting network paths are assembled into a common network path. This allows several Network paths of the same network class are combined to form a common network object.
Des Weiteren wird vorgeschlagen, dass ein Netzwerkobjekt der Simulationsda- tenbank Netzwerkknoten umfasst und an den Koordinaten eines Schnittpunkts zweier Netzwerkpfade eines Netzwerkobjekts ein Netzwerkknoten erzeugt wird. Durch die Kombination zweier Netzwerkpfade in einem Netzwerkknoten zu einem gemeinsamen Netzwerkpfad kann die Anzahl der Netzwerkpfade reduziert werden. Dadurch kann das Netzwerkobjekt beispielsweise zur Routen- planung effizienter durchsucht werden. Furthermore, it is proposed that a network object of the simulation database comprises network nodes and a network node is generated at the coordinates of an intersection point of two network paths of a network object. By combining two network paths in one network node to a common network path, the number of network paths can be reduced. This allows the network object to be searched more efficiently, for example for route planning.
Ferner kann ist es vorteilhaft, wenn in der Simulationsdatenbank Objektdaten von Geländearealobjekten hinterlegt werden. Durch das Vorsehen von Geländearealobjekten können neben gegenständlichen Objekten und Netzwerkob- jekten auch unterschiedliche Beschaffenheiten des Geländes dargestellt werden. Dadurch kann zum Beispiel Untergrund, der mit einem Fahrzeug befahrbar ist, von solchem Untergrund getrennt werden, der mit dem Fahrzeug nicht befahrbar ist. Besonders vorteilhaft für die Verwendung der Simulationsdatenbank ist es, wenn die Simulationsdatenbank die Struktur eines Quadtree aufweist. Durch die Struktur eines Quadtree können die Daten der Simulationsdatenbank für die Berechnungen in der Simulationsvorrichtung effizient abgelegt werden. Zudem kann die Struktur eines Quadtree den Zugriff auf die Simulationsdaten- bank beschleunigen. Furthermore, it may be advantageous if object data of terrain area objects are stored in the simulation database. By providing terrain area objects, it is possible to represent not only objects and network objects but also different properties of the terrain. As a result, for example, ground that can be driven by a vehicle, be separated from such ground, which is not passable to the vehicle. It is particularly advantageous for the use of the simulation database if the simulation database has the structure of a quadtree. Due to the structure of a quadtree, the data of the simulation database can be stored efficiently for the calculations in the simulation device. In addition, the structure of a quadtree can accelerate access to the simulation database.
Durch die Erfindung kann erreicht werden, dass nicht auf zusätzlich in die Sichtdatenbank eingebrachte Daten zurückgegriffen werden muss, da die notwendigen Informationen für die Simulationsdatenbank aus den in den visuellen Informationen enthaltenen Daten berechnet werden können. Es können somit nur solche Funktionen für die Steuerung der virtuellen Einzelobjekte aktiviert werden, die auch entsprechend von der Sichtdatenbank unterstützt werden. Durch die Erfindung kann ferner erreicht werden, dass die Simulationsdaten- bank ein genaues polygonales Abbild der Sichtdatenbank ist. It can be achieved by the invention that data additionally introduced into the view database need not be resorted to since the necessary information for the simulation database can be retrieved from the visual data Information contained in the information can be calculated. Thus, only such functions for the control of the virtual single objects can be activated, which are also supported accordingly by the view database. The invention can also be achieved that the simulation database is an accurate polygonal image of the view database.
Mögliche Ausführungsbeispiele der Erfindung werden im Folgenden anhand der Figuren 1 bis 11 beschrieben. Es zeigen: Fig. 1 ein funktionales Diagramm einer Simulationsvorrichtung, Possible embodiments of the invention will be described below with reference to FIGS. 1 to 11. 1 is a functional diagram of a simulation device,
Fig. 2 eine virtuelle Landschaft mit Einzelobjekten,  2 a virtual landscape with individual objects,
Fig. 3 den Aufbau einer Open-Flight-Sichtdatenbank, 3 shows the structure of an open-flight visual database,
Fig. 4 eine Tabelle mit einer Zuordnung von Texturen zu Objektklassen, Fig. 5 ein Ablaufdiagramm eines ersten Objekterkennungsalgorithmus, Fig. 6 ein Ablaufdiagramm eines zweiten Objekterkennungsalgorithmus, Fig. 7 ein Ablaufdiagramm eines Algorithmus zur Erkennung von Netzwerkobjekten, 5 is a flow chart of a first object recognition algorithm, FIG. 6 is a flow chart of a second object recognition algorithm, FIG. 7 is a flow chart of an algorithm for recognizing network objects, FIG.
Fig. 8 ein Ablauf diagram m eines Algorithmus zur Erkennung von Geländearealobjekten,  8 is a flow diagram m of an algorithm for detection of terrain area objects,
Fig. 9 eine schematische Darstellung der Detektion von direkten Verbindungen in einem Netzwerkobjekt, 9 shows a schematic representation of the detection of direct connections in a network object,
Fig. 10 die schematische Darstellung der Detektion von Lücken in einem Fig. 10 is a schematic representation of the detection of gaps in one
Netzwerkobjekt,  Network object
Fig. 11 die schematische Darstellung der Detektion von Kreuzungen in einem Netzwerkobjekt.  Fig. 11 is a schematic representation of the detection of intersections in a network object.
Die Darstellung in Fig. 1 zeigt ein Blockdiagramm einer Simulationsvorrichtung, die zur Simulation von Bewegungsabläufen in einer Landschaft 8 mit Einzelobjekten 9 bis 13 geeignet ist. Diese Simulationsvorrichtung 1 umfasst eine Gra- fikeinheit 4, die auf die in der Sichtdatenbank 2 abgelegten Grafikdaten zugreift. Ferner verfügt die Simulationsvorrichtung 1 über Simulationseinheiten 5 bis 7, die auf die Objektdaten der Einzelobjekte 9 bis 13 zugreifen, welche in der in einem Industriestandard programmierten Simulationsdatenbank 3 hin- terlegt sind. The illustration in FIG. 1 shows a block diagram of a simulation device which is suitable for the simulation of motion sequences in a landscape 8 with individual objects 9 to 13. This simulation device 1 comprises a graph fikeinheit 4, which accesses the graphic data stored in the view database 2. Furthermore, the simulation device 1 has simulation units 5 to 7 which access the object data of the individual objects 9 to 13, which are stored in the simulation database 3 programmed in an industry standard.
Die Simulationsdatenbank 3 stellt somit im Wesentlichen ein mathematisches Abbild der Sichtdatenbasis 2 dar und sollte möglichst genau mit der Sichtdatenbank 2 korrelieren, um eine„natürliche" Navigation von computererzeug- ten virtuellen Kräften (Computer generated forces) zu ermöglichen. The simulation database 3 thus essentially represents a mathematical image of the visual data base 2 and should correlate as precisely as possible with the visual database 2 in order to enable "natural" navigation of computer-generated forces.
Die Simulationsdatenbank 3 kann beispielsweise eine Compact Terrain Databa- se (CTDB) darstellen. Die Sichtdatenbank 2 kann beispielsweise eine SD- Terrain Database darstellen. The simulation database 3 can represent, for example, a compact terrain database (CTDB). The view database 2 can represent, for example, an SD terrain database.
Die Darstellung in Fig. 2 zeigt eine computergenerierte Landschaft 8 mit Einzelobjekten 9 bis 13. Unter den Einzelobjekten 9 bis 13 befinden sich gegenständliche Einzelobjekte 9-11 , Netzwerkobjekte 12 und Geländearealobjekte 13. Die gegenständlichen Einzelobjekte 9-11 umfassen z.B. Fahrzeuge 9, Ge- bäude 10 sowie Landschaftsobjekte 11 wie Bäume. Die Netzwerkobjekte 12 umfassen insbesondere Straßen, Schienen und/oder Flüsse. Die Geländearealobjekte 13 umfassen zum Beispiel Felder, Wüsten und/oder steinigen Untergrund als Teil der Landschaft 8. Wie in Fig. 3 dargestellt, weist die Sichtdatenbank eine im Wesentlichen baumförmige Struktur auf. Ausgehend von einem Stammknoten 22 sind die in der Sichtdatenbank hinterlegten Grafikdaten als Blätter dieses Stammknotens 22 vorhanden. Ein Vertex-Knoten repräsentiert einen Punkt innerhalb der Landschaft 8 und definiert die Koordinaten des Punktes innerhalb der Landschaft 8. Ein Polygon, insbesondere eine Fläche in der Landschaft 8, wird in der Sichtdatenbank 2 in einem Face-Knoten 16 hinterlegt. Die dem Face-Knoten 16 untergeordneten Vertex-Knoten 15 werden auch als seine Kinder bezeichnet und repräsentieren die Eckkoordinaten des Polygons. The representation in FIG. 2 shows a computer-generated landscape 8 with individual objects 9 to 13. Among the individual objects 9 to 13 are objective individual objects 9-11, network objects 12 and terrain area objects 13. The representational individual objects 9-11 include, for example, vehicles 9, Building 10 as well as landscape objects 11 such as trees. The network objects 12 include in particular roads, rails and / or rivers. For example, terrain terrain objects 13 include fields, deserts, and / or rocky terrain as part of the landscape 8. As shown in FIG. 3, the vision database has a substantially tree-shaped structure. Starting from a root node 22, the graphics data stored in the view database are available as leaves of this root node 22. A vertex node represents a point within the landscape 8 and defines the coordinates of the point within the landscape 8. A polygon, in particular an area in the landscape 8, is deposited in the view database 2 in a face node 16. The vertex nodes 15 subordinate to the face node 16 are also referred to as their children and represent the corner coordinates of the polygon.
Einem Polygon 16 ist üblicherweise eine Textur zugeordnet. Alle in der Sichtdatenbank 2 verwendeten Texturen sind in der Texturpalette 14 hinterlegt. In der Texturpalette sind Referenzen auf die Grafikdateien der Texturen vorhanden und einer Ordnungszahl zugeordnet. Um einem Polygon eine bestimmte Textur zuzuweisen, wird in dem das Polygon repräsentierenden Face-Knoten 16 das Texturattribut mit der entsprechenden Ordnungszahl belegt. Face-Knoten 16, die Polygone repräsentieren, können als Kinder eines Object- Knotens 17 zu Objekten gruppiert sein. Ferner ist es möglich, in der Sichtdatenbank 2 willkürliche Gruppierungen zu einem Gruppen-Knoten 20 vorzunehmen. Es können beispielsweise ein Object-Knoten 17 zusammen mit einem Geräusch-Knoten 18 und/oder einem Lichtquellen-Knoten 19 als Kinder eines Gruppen-Knotens 20 zusammengruppiert werden. A polygon 16 is usually associated with a texture. All textures used in the view database 2 are stored in the texture palette 14. In the texture palette, references to the graphic files of the textures are present and assigned to an ordinal number. In order to assign a certain texture to a polygon, in the face node 16 representing the polygon, the texture attribute is assigned the corresponding ordinal number. Face nodes 16 representing polygons may be grouped into objects as children of an object node 17. Furthermore, it is possible to make arbitrary groupings into a group node 20 in the view database 2. For example, an object node 17 may be grouped together with a noise node 18 and / or a light source node 19 as children of a group node 20.
Des Weiteren sind über sogenannte external-reference-Knoten 21 Referenzen auf andere Dateien der Sichtdatenbank 2 möglich. So kann beispielsweise ein gegenständliches Objekt 9-11 , insbesondere ein Fahrzeug, in einer separaten Datei innerhalb der Sichtdatenbank 2 abgelegt sein. Furthermore, references to other files of the view database 2 are possible via so-called external reference nodes 21. For example, a subject object 9-11, in particular a vehicle, may be stored in a separate file within the view database 2.
Die Darstellung in Fig. 4 zeigt eine sog. Cross-Reference-Liste. Erfindungsgemäß werden in einem ersten Schritt durch Klassifizierung der in der Sichtdatenbank 2 durch die Grafikdaten repräsentierten Einzelobjekte 9-13 Objekt- klassen in der Cross-Reference- Liste definiert. Solche Objektklassen können beispielsweise Gebäude, Häuser, Bäume, Straßen, Flüsse, Felder, Wüsten etc. sein. Nach dem erfindungsgemäßen Verfahren werden in einem zweiten Schritt die in der Texturpalette 14 der Sichtdatenbank 2 vorhandenen Texturen den im ersten Schritt definierten Objektklassen zugeordnet. Dies kann insbesondere anhand des Dateinamens, welcher in der Texturpalette 14 der Sichtdatenbank 2 hinterlegt ist, geschehen. Ferner kann die Texturdatei visuell betrachtet und entsprechend einer Objektklasse zugeordnet werden. Nach dem erfindungsgemäßen Verfahren werden in einem dritten Schritt Objektdaten in der Simulationsdatenbank 2 generiert. Dabei werden iterativ die Polygone der Sichtdatenbank 2 den Einzelobjekten der Simulationsdatenbank 3 automatisch zugeordnet. Hierzu kann der in Fig. 6 dargestellte Algorithmus 60 verwendet werden. In einem ersten Schritt 61 wird ein Face-Knoten 16 ausge- wählt. Im darauffolgenden Schritt 62 wird das Texturattribut des Face-Knotens 16 erfasst. Aus der Texturpalette 14 wird der zugehörige Texturdateiname ermittelt. Ferner wird überprüft, ob diesem Texturdateinamen in der Cross- Reference- Liste eine Objektklasse zugeordnet ist. Falls dem Texturdateinamen eine Objektklasse zugeordnet ist, so wird der dem Faceknoten übergeordnete Object-Knoten 17 ermittelt und alle diesem Object-Knoten 17 untergeordneten Face-Knoten 16, die Polygone repräsentieren, als gemeinsames Einzelobjekt in die Simulationsdatenbank 3 übernommen (Schritt 63). Daraufhin wird zum nächsten Face-Knoten 16 übergegangen und alle Face-Knoten 16 iterativ abgearbeitet. The illustration in FIG. 4 shows a so-called cross-reference list. According to the invention, in a first step, by classifying the individual objects 9-13 object representations represented in the view database 2 by the graphic data. defined in the cross-reference list. Such object classes can be, for example, buildings, houses, trees, roads, rivers, fields, deserts, etc. In a second step, according to the method of the invention, the textures present in the texture palette 14 of the visual database 2 are assigned to the object classes defined in the first step. This can be done in particular on the basis of the file name which is stored in the texture palette 14 of the view database 2. Furthermore, the texture file can be viewed visually and assigned according to an object class. According to the method of the invention, object data are generated in the simulation database 2 in a third step. In doing so, the polygons of the view database 2 are iteratively assigned to the individual objects of the simulation database 3 automatically. For this purpose, the algorithm 60 shown in FIG. 6 can be used. In a first step 61, a face node 16 is selected. In the subsequent step 62, the texture attribute of the face node 16 is detected. From the texture palette 14, the associated texture file name is determined. It is also checked whether an object class is assigned to this texture file name in the cross-reference list. If an object class is assigned to the texture file name, then the object node 17 which is the parent of the face node is determined and all face node 16 subordinate to this object node 17, which represent polygons, are transferred to the simulation database 3 as a common individual object (step 63). Subsequently, the next face node 16 is transitioned and all face nodes 16 are processed iteratively.
Ein weiterer Algorithmus 50 zur Erkennung von Objekten innerhalb der Sichtdatenbank 2 ist in Fig. 5 gezeigt. Im Gegensatz zu dem in Fig. 6 dargestellten Algorithmus 60 arbeitet der Algorithmus 59 auf Object-Knoten 17. In einem ersten Schritt 55 wird ein Object-Knoten 17 ausgewählt. In einem zweiten Schritt 56 wird überprüft, ob sich unter den Attributen des Object-Knotens 17 eine Bezeichnung befindet. In der Cross-Reference- Liste können dafür auch Zuordnungen von Bezeichnungen zu Objektklassen hinterlegt sein. Wird im Schritt 56 eine solche Bezeichnung erkannt, so können in einem nächsten Schritt 57 alle dem Object-Knoten 17 untergeordneten Knoten als Einzelobjekt in die Simulationsdatenbank 3 übernommen werden. Auch dieser Objekterkennungsalgorithmus 59 verläuft iterativ und betrachtet alle in der Sichtdatenbank 2 vorhandenen Object-Knoten 17. In der Sichtdatenbank 2 können mehrere Gruppierungen von Grafikdaten desselben Einzelobjekts 9-13 enthalten sein, die verschiedene Zustände des Einzelobjekts 9-13 repräsentieren. So kann für ein Haus 10 beispielsweise ein un- zerstörter sowie ein zerstörter Zustand in der Sichtdatenbank 2 hinterlegt sein. Solche dynamischen Einzelobjekte 9-13 sind in der Sichtdatenbank 2 in der Regel in separaten Dateien hinterlegt, auf die mit einem external- reference-Knoten 21 verwiesen wird, und können mit einem Algorithmus erkannt werden, welcher auf dem Algorithmus 50 basiert, wobei im Gegensatz zum Algorithmus 50 bei dem Algorithmus zur Erkennung von dynamischen Objekten external-reference-Knoten 21 anstatt der Object-Knoten 17 betrachtet werden. Another algorithm 50 for recognizing objects within the view database 2 is shown in FIG. In contrast to the algorithm 60 shown in FIG. 6, the algorithm 59 operates on object node 17. In a first step 55, an object node 17 is selected. In a second Step 56 checks whether there is a name among the attributes of the object node 17. The cross-reference list can also contain assignments of names to object classes. If such a designation is recognized in step 56, then in a next step 57, all nodes subordinate to the object node 17 can be transferred to the simulation database 3 as a single object. This object recognition algorithm 59 also runs iteratively and considers all the object nodes 17 present in the view database 2. The view database 2 may contain a plurality of groupings of graphic data of the same individual object 9-13, which represent different states of the individual object 9-13. Thus, for example, an undamaged and a destroyed state for a house 10 can be stored in the view database 2. Such dynamic single objects 9-13 are usually stored in the view database 2 in separate files referenced with an external reference node 21 and can be recognized with an algorithm based on the algorithm 50, in contrast to algorithm 50 in the dynamic object detection algorithm, external reference node 21 may be considered instead of object node 17.
In Abhängigkeit von der Objektklasse werden unterschiedliche Algorithmen eingesetzt, um Einzelobjekte zu erkennen und in die Simulationsdatenbank 3 zu übernehmen. Die Darstellung in Fig. 7 zeigt das Ablaufdiagramm eines Algo- rithmus zur Erkennung von Netzwerkobjekten 12, insbesondere Straßen, Schienen und/oder Flüssen. Depending on the object class, different algorithms are used to detect individual objects and to transfer them to the simulation database 3. The representation in FIG. 7 shows the flow diagram of an algorithm for the detection of network objects 12, in particular roads, rails and / or rivers.
Anfangs wird für jeden Face-Knoten der Sichtdatenbank 2 überprüft, ob die ihm zugeordnete Textur gemäß der Cross-Reference-Liste einer Netzwerkklas- se zugeordnet ist. Für den Fall, dass das von dem Face-Knoten repräsentierte Polygon einer Netzwerkklasse zugeordnet ist, so wird dies als Element eines Netzwerkobjekts 12 in die Simulationsdatenbank übernommen. Ferner wird aus der Orientierung der Textur in der Sichtdatenbank 2 ein Linienstück 100, 101 (Fig. 9) für die Simulationsdatenbank 3 abgeleitet, welches in eine Linienliste in der Simulationsdatenbank 3 übernommen wird. Nachdem alle Face-Knoten 16, welche Polygone repräsentieren, abgearbeitet wurden, wird die Linienliste betrachtet. Zunächst werden die Linienstücke 100, 101 dahingehend überprüft, ob sie direkt an ein anderes Linienstück 100, 101 grenzen (vgl. Fig. 9). Ist dies gegeben, so wird ein Netzwerkpfad 102 im Netzwerkobjekt 12 erzeugt, der der Zusammensetzung der beiden Linienstücke 100, 101 entspricht. Dieses Verfahren wird für alle Linienstücke 100, 101 in der Linienliste durchgeführt. Initially, for each face node of the view database 2, it is checked whether the texture assigned to it is selected according to the cross-reference list of a network class. is assigned. In the event that the polygon represented by the face node is assigned to a network class, this is taken over as an element of a network object 12 in the simulation database. Furthermore, from the orientation of the texture in the view database 2, a line segment 100, 101 (FIG. 9) for the simulation database 3 is derived, which is taken over into a line list in the simulation database 3. After all face nodes 16, which represent polygons, have been processed, the line list is considered. First, the line pieces 100, 101 are checked as to whether they are directly adjacent to another line piece 100, 101 (see Fig. 9). If this is the case, then a network path 102 is generated in the network object 12 which corresponds to the composition of the two line segments 100, 101. This procedure is performed for all line pieces 100, 101 in the line list.
Wie in der Darstellung in Fig. 10 gezeigt, kann zwischen zwei Netzwerkpfaden 103, 104 auch eine ungewollte Lücke bestehen. Daher werden in einem weiteren Schritt die Netzwerkpfade 103, 104 des Netzwerkobjekts dahingehend ü- berprüft, ob Lücken zu anderen Netzwerkpfaden 103, 104 bestehen. Ausge- hend von dem Ende eines jeden Netzwerkpfades 103, 104 wird überprüft, ob das Ende eines zweiten Netzwerkpfades 103, 104 innerhalb eines vorgegebenen Abstands, insbesondere eines Fangradius, liegt. Ist dies der Fall, so werden die beiden Netzwerkpfadenden mit einem zusätzlichen Linienstück zu einem gemeinsamen Netzwerkpfad 105 verbunden. Auch dieser Algorithmus zur Erkennung von Lücken wird iterativ für alle Netzwerkpfade 103, 104 eines Netzwerkobjektes 12 durchgeführt. As shown in the illustration in FIG. 10, an unwanted gap can also exist between two network paths 103, 104. Therefore, in a further step, the network paths 103, 104 of the network object are checked as to whether gaps to other network paths 103, 104 exist. Starting from the end of each network path 103, 104, it is checked whether the end of a second network path 103, 104 is within a predetermined distance, in particular a capture radius. If this is the case, the two network path ends are connected with an additional line segment to a common network path 105. This algorithm for detecting gaps is also carried out iteratively for all network paths 103, 104 of a network object 12.
Auch nach der Erkennung von Lücken in einem Netzwerkobjekt 12 können immer noch mehrere Netzwerkpfade 106, 107 in dem Netzwerkobjekt 12 vorhan- den sein. Daher werden auch sich kreuzende Netzwerkpfade zu einem gemeinsamen Netzwerkpfad verbunden. Even after the detection of gaps in a network object 12, a plurality of network paths 106, 107 can still be present in the network object 12. be his. Therefore, intersecting network paths are also connected to a common network path.
Ferner kann zwischen zwei Netzwerkpfaden 106, 107 noch eine Lücke beste- hen, wenn die Enden der beiden Netzwerkpfade 106, 107 weiter voneinander entfernt liegen als der vorgegebene Fangradius. In diesem Fall wird, wie in Fig. 11 dargestellt, der Netzwerkpfad 107 an seinem Ende um eine definierte Fanglänge verlängert. Falls diese Verlängerung einen zweiten Netzwerkpfad 106 schneiden sollte, so wird an der Kreuzung der beiden Netzwerkpfade ein Netzwerkknoten 109 erstellt, und die beiden Netzwerkpfade 106, 107 zu einem gemeinsamen Netzwerkpfad 108 kombiniert. Furthermore, there may still be a gap between two network paths 106, 107 if the ends of the two network paths 106, 107 are farther apart than the predetermined capture radius. In this case, as shown in FIG. 11, the network path 107 is extended at its end by a defined capture length. If this extension should intersect a second network path 106, a network node 109 is created at the intersection of the two network paths, and the two network paths 106, 107 are combined to form a common network path 108.
Die in der Sichtdatenbank 2 repräsentierten Netzwerkobjekte 12, insbesondere Straßen, werden üblicherweise mit automatischen Tools generiert und können daher benachbarte Polygone umfassen, die wie ein Wellblech aufeinander folgen. Diese Wellblechstruktur kann nach der Generierung des Netzwerkobjekts 12 in der Simulationsdatenbank 3 dazu führen, dass in der Simulation beim Überfahren des Netzwerkobjekts 12 ein ungewollter Ruckeleffekt auftritt. Um dies zu verhindern, kann ein Algorithmus zur Glättung des Netzwerkobjekts 12 in der Simulationsdatenbank 3 eingesetzt werden. The network objects 12 represented in the view database 2, in particular roads, are usually generated with automatic tools and can therefore comprise adjacent polygons which follow one another like a corrugated metal sheet. After the generation of the network object 12 in the simulation database 3, this corrugated metal structure can lead to an undesired bucking effect in the simulation when the network object 12 is passed over. To prevent this, an algorithm for smoothing the network object 12 in the simulation database 3 can be used.
Zur Erkennung von Geländearealobjekten 13, wie Seen oder geschlossene Waldareale, die beliebige Formen haben können und Inseln enthalten können, wird der in dem Ablaufdiagramm in Fig. 8 dargestellte Algorithmus 80 verwen- det. Alle Face-Knoten 16, welche Polygone repräsentieren, werden dahingehend überprüft, ob sie einer Geländearealklasse zugeordnet sind. Sollte dies der Fall sein, so wird die Projektion dieses Polygons auf die XY-Ebene gebildet und als Teil eines Geländearealobjekts 13 in die Simulationsdatenbank 3 übernommen. Nachdem alle Face-Knoten 16 der Sichtdatenbank 2 verarbeitet wur- den, werden alle benachbarten Geländearealteile eines Geländearealobjekts 13 miteinander verbunden, so dass sie eine gemeinsame Kontur bilden. Als physikalische Eigenschaft des Geländeareals kann beispielsweise dessen Befahrbarkeit definiert werden. For recognizing off-road terrain objects 13, such as lakes or closed forest areas, which may have arbitrary shapes and contain islands, the algorithm 80 shown in the flowchart in FIG. 8 is used. All face nodes 16 representing polygons are checked to see if they are associated with a terrain real class. If this is the case, then the projection of this polygon is formed on the XY plane and taken over into the simulation database 3 as part of a terrain area object 13. After all face nodes 16 of the vision database 2 have been processed, , all adjacent terrain relief portions of a terrain arear object 13 are connected together to form a common contour. For example, its trafficability can be defined as a physical property of the terrain area.
Ferner kann die Sichtdatenbank 2 Fahrhindernisobjekte enthalten, welche in der Simulation ein Fahrhindernis bilden, also undurchdringbar sind. Diese Fahrhindernisobjekte können Einzelobjekte 9-13 sein, die über die Textur ihrer Polygone gemäß dem Algorithmus 60 erkannt werden, oder auch Punktobjekte, die anhand eines Attributs mit dem Algorithmus 50 erkannt werden. Furthermore, the vision database 2 can contain driving obstacle objects which form a driving obstacle in the simulation, that is to say they are impenetrable. These driving obstacle objects can be individual objects 9-13, which are recognized by the texture of their polygons according to the algorithm 60, or also point objects, which are recognized by an attribute with the algorithm 50.
Auf der Zielplattform liegt in nicht dargestellter Weise die Simulationsdatenbank 3 in einem Quadtree und als kompakte Binärdatei gespeichert vor. Dies dient zum einen der schnelleren Ladezeit der Simulationsdatenbank 3 und zum anderen der Zugriffsbeschleunigung. Der Quadtree der Simulationsdatenbank besteht aus einem statischen und einem dynamischen Teil. Bei einem vollständig dynamischen Quadtree entstehen relativ lange Wege vom On the target platform is in a manner not shown, the simulation database 3 in a quadtree and stored as a compact binary file before. This serves on the one hand the faster loading time of the simulation database 3 and on the other hand the access acceleration. The quadtree of the simulation database consists of a static and a dynamic part. In a fully dynamic Quadtree relatively long distances from
äußersten Quadranten zu den innersten. Diese Wege lassen sich durch ein statisches Raster verkürzen. Auf die statischen Quadranten kann man direkt mit einem Index zugreifen. Diese Quadranten werden dann dynamisch in kleinere unterteilt, bis eine bestimmte Maximalzahl von Polygonen unterschritten wird. extreme quadrant to the innermost. These paths can be shortened by a static grid. You can access the static quadrants directly with an index. These quadrants are then dynamically subdivided into smaller ones until they fall below a certain maximum number of polygons.
Jeder Quadrant enthält eine Liste von Polygonen, die vollständig oder teilwei- se in ihm liegen. Dadurch kann online sehr schnell auf Polygone an einer bestimmten räumlichen Position zugegriffen werden. Einige Anwendungen benötigen jedoch nicht nahe gelegene Polygone, sondern Objekte. Z.B. möchte ein Routenplaner wissen, welche Netzwerkpfade und Gebäude in seiner Nähe sind. Deshalb werden in einem weiteren Arbeitsschritt wichtige Objekte (Gebäude, Bäume und Netzwerkpfade) in den Quadtree einsortiert. Each quadrant contains a list of polygons that are completely or partially within it. This makes it very easy to access polygons at a specific spatial location online. However, some applications do not need nearby polygons, but objects. For example, a route planner would like to know what network paths and buildings are in its vicinity. Therefore, in a further step important objects (buildings, trees and network paths) are sorted into the quadtree.
Bezugszeichen: Reference numerals:
1 Simulationsvorrichtung  1 simulation device
2 Sichtdatenbank  2 view database
3 Simulationsdatenbank  3 simulation database
4 Grafikeinheit 4 graphics unit
5 Einheit zur Routenplanung  5 unit for route planning
6 Einheit zur Kollisionserkennung  6 unit for collision detection
7 Einheit zur Steuerung von Einzelobjekten  7 unit for controlling individual objects
8 Landschaft  8 landscape
9 - 11 Gegenständliches Einzelobjekt 9 - 11 Objective individual object
12 Netzwerkobjekt  12 network object
13 Geländearealobjekt  13 terrain area object
14 Texturpalette  14 texture palette
15 Vertex-Knoten (Eckpunkt-Knoten)  15 vertex nodes (vertex node)
16 Face-Knoten (Polygon-Knoten) 16 face nodes (polygon nodes)
17 Object-Knoten (Objekt-Knoten)  17 Object node (object node)
18 Sound-Knoten (Geräusch-Knoten)  18 sound nodes (noise nodes)
19 Light-source-Knoten (Lichtquelle-Knoten)  19 light-source node (light source node)
20 Gruppen-Knoten  20 group nodes
21 External-reference-Knoten (Externe-Referenz-Knoten)21 external reference node (external reference node)
22 Stammknoten 22 root nodes
50, 60, 70, 80 Algorithmus 100, 101 Linienstück 50, 60, 70, 80 Algorithm 100, 101 Line Pieces
103 - 108 Netzwerkpfad  103 - 108 Network path
109 Netzwerkknoten  109 network nodes

Claims

Patentansprüche: claims:
1. Verfahren zur Extraktion von Daten aus einer Sichtdatenbank (2) zum Aufbau einer Simulationsdatenbank (3), 1. A method for extracting data from a visual database (2) for constructing a simulation database (3),
wobei in der Sichtdatenbank (2) Grafikdaten einer Vielzahl von Einzelobjekten (9-13) in Form von Polygonen sowie den Polygonen zugeordneten Texturen hinterlegt sind, und  wherein in the visual database (2) graphic data of a plurality of individual objects (9-13) in the form of polygons and the polygons associated textures are deposited, and
wobei in der Simulationsdatenbank (3) Objektdaten der Einzelobjekte (9- 13) hinterlegt werden,  wherein object data of the individual objects (9-13) are stored in the simulation database (3),
mit folgenden Schritten:  with the following steps:
a) Definition von Objektklassen durch Klassifizierung der in der Sichtdatenbank (2) durch die Grafikdaten beschriebenen Einzelobjekte (9-13),  a) definition of object classes by classifying the individual objects (9-13) described in the view database (2) by the graphic data,
b) Zuordnung der Texturen zu den Objektklassen,  b) assignment of the textures to the object classes,
c) Generierung von Objektdaten in der Simulationsdatenbank (3) durch Zuordnung von Polygonen zu Einzelobjekten (9-13) anhand der den Polygonen über deren Textur zugeordneten Objektklasse.  c) Generation of object data in the simulation database (3) by assignment of polygons to individual objects (9-13) on the basis of the polygons associated with their texture object class.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Simulations- datenbank (3) einer Simulationsvorrichtung (1 ) zur Simulation von Bewegungsabläufen in einer Landschaft (8) mit Einzelobjekten (9- 3) und zur Simulation von Interaktionen mit diesen Einzelobjekten (9-13) bereitstellbar ist, wobei die Simulationsdatenbank (3) zur Berechnung der Bewegungsabläufe und Interaktionen in der Landschaft (8) verwendbar ist und/ oder wobei die Sichtdatenbank (2) zur graphischen Darstellung der Landschaft (8) verwendbar ist. 2. The method according to claim 1, characterized in that the simulation database (3) of a simulation device (1) for simulating motion sequences in a landscape (8) with individual objects (9- 3) and for simulating interactions with these individual objects (9 13), wherein the simulation database (3) can be used to calculate the movements and interactions in the landscape (8) and / or the visual database (2) can be used to graphically depict the landscape (8).
3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass physikalische Eigenschaften der Objektklassen definiert werden. 3. The method according to any one of the preceding claims, characterized in that defines physical properties of the object classes become.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verfahrensschritte a) und b) manuell durchgeführt wer- den und/oder dass der Verfahrensschritt c) automatisch durchgeführt wird. 4. The method according to any one of the preceding claims, characterized in that the method steps a) and b) are carried out manually and / or that the method step c) is carried out automatically.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Zuordnung einer Textur zu einer Objektklasse anhand einer Bezeichnung der Textur, insbesondere eines Dateinamens, erstellt wird. 5. The method according to any one of the preceding claims, characterized in that the assignment of a texture to an object class based on a name of the texture, in particular a file name is created.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass abhängig von der Objektklasse ein Algorithmus (50, 60, 70, 80) zur Generierung der Objektdaten in der Simulationsdatenbank (3) aus- gewählt wird. 6. The method according to any one of the preceding claims, characterized in that depending on the object class, an algorithm (50, 60, 70, 80) for generating the object data in the simulation database (3) is selected.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in der Sichtdatenbank (2) die Grafikdaten in Form von Polygon-Gruppierungen (17) sowie den Polygon-Gruppierungen zugeordneten Attributen, insbesondere Gruppierungsbezeichnungen, hinterlegt sind und dass die Attribute den Objektklassen zugeordnet werden. 7. The method according to any one of the preceding claims, characterized in that in the view database (2) the graphics data in the form of polygon groups (17) and the polygon groupings associated attributes, in particular grouping names are stored, and that the attributes associated with the object classes become.
8. Verfahren nach Anspruch 7, gekennzeichnet durch die Generierung von Objektdaten in der Simulationsdatenbank (3) durch Zuordnung von Polygonen einer Polygon-Gruppierung (17) zu Einzelobjekten (9-13) anhand der der8. The method according to claim 7, characterized by the generation of object data in the simulation database (3) by assigning polygons of a polygon grouping (17) to individual objects (9-13) based on the
Polygon-Gruppierung (17) über deren Attribute zugeordneten Objektklasse. Polygon grouping (17) with its object class assigned to its attributes.
9. Verfahren nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass, wenn ein Polygon einer Polygon-Gruppierung (17) einem Einzelobjekt (9-13) zuge- ordnet wird, alle Polygone der Polygon-Gruppierung (17) diesem Einzelobjekt (9-13) zugeordnet werden. 9. Method according to claim 7 or 8, characterized in that when a polygon of a polygon grouping (17) is assigned to a single object (9-13) All polygons of the polygon grouping (17) are assigned to this single object (9-13).
10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekenn- zeichnet, dass in der Simulationsdatenbank (3) Objektdaten von Netzwerkobjekten (12), insbesondere Straßen, Bahnstrecken und/oder Flüsse, generiert werden, die Netzwerkpfade (103-108) umfassen, wobei mehrere Polygone, die einer gemeinsamen Netzwerkobjektklasse zugeordnet sind, anhand von Nachbarschaftsbeziehungen den Netzwerkobjekten (12) zugeord- net werden. 10. The method according to any one of the preceding claims, characterized in that in the simulation database (3) object data of network objects (12), in particular roads, railways and / or rivers, are generated, the network paths (103-108) include multiple polygons associated with a common network feature class are assigned to the network objects (12) based on neighborhood relationships.
11 . Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die Nachbarschaftbeziehung die Orientierung der einem Polygon zugeordneten Textur umfasst. 11. A method according to claim 10, characterized in that the neighborhood relationship comprises the orientation of the texture associated with a polygon.
12. Verfahren nach Anspruch 11 , dadurch gekennzeichnet, dass anhand der Koordinaten eines Polygons und der Orientierung der zugeordneten Textur ein Linienstück (100, 101 )definiert wird. 12. The method according to claim 11, characterized in that based on the coordinates of a polygon and the orientation of the associated texture, a line piece (100, 101) is defined.
13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass aneinander- grenzende Linienstücke (100, 101 ) von Polygonen der gleichen Netzwerkobjektklasse zu einem Netzwerkpfad (102) zusammengesetzt werden. 13. The method according to claim 12, characterized in that adjoining line segments (100, 101) of polygons of the same network object class are combined to form a network path (102).
14. Verfahren nach einem der Ansprüche 10 bis 13, dadurch gekennzeichnet, dass Netzwerkpfade (103, 105), deren Endkoordinaten einen geringeren Abstand voneinander aufweisen als einen vorgegebenen Fangabstand, zu einem gemeinsamen Netzwerkpfad (105) zusammengesetzt werden. 14. The method according to any one of claims 10 to 13, characterized in that network paths (103, 105) whose end coordinates have a smaller distance from one another than a predetermined interception distance, are combined to form a common network path (105).
15. Verfahren nach einem der Ansprüche 10 bis 14, dadurch gekennzeichnet, dass sich schneidende Netzwerkpfade (106, 107) zu einem gemeinsamen Netzwerkpfad (108) zusammengesetzt werden. 15. The method according to any one of claims 10 to 14, characterized in that intersecting network paths (106, 107) are assembled to a common network path (108).
16. Verfahren nach einem der Ansprüche 10 bis 15, dadurch gekennzeichnet, dass ein Netzwerkobjekt (12) der Simulationsdatenbank (3) Netzwerkknoten (109) umfasst und an den Koordinaten eines Schnittpunkts zweier Netzwerkpfade (106, 107) eines Netzwerkobjekts, ein Netzwerkknoten (109) erzeugt wird. 16. The method according to any one of claims 10 to 15, characterized in that a network object (12) of the simulation database (3) comprises network nodes (109) and at the coordinates of an intersection of two network paths (106, 107) of a network object, a network node (109 ) is produced.
17. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in der Simulationsdatenbank (3) Objektdaten von Geländearealobjekten (13) hinterlegt werden. 17. The method according to any one of the preceding claims, characterized in that in the simulation database (3) object data of terrain area objects (13) are stored.
18. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Simulationsdatenbank (3) die Struktur eines Quadtree aufweist. 18. The method according to any one of the preceding claims, characterized in that the simulation database (3) has the structure of a quadtree.
EP11763836.1A 2010-06-21 2011-06-10 Method for extracting data from a vision database in order to form a simulation database Withdrawn EP2583265A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102010017478A DE102010017478A1 (en) 2010-06-21 2010-06-21 Method for extracting data from a view database for constructing a simulation database
PCT/DE2011/075131 WO2012022318A1 (en) 2010-06-21 2011-06-10 Method for extracting data from a vision database in order to form a simulation database

Publications (1)

Publication Number Publication Date
EP2583265A1 true EP2583265A1 (en) 2013-04-24

Family

ID=44720458

Family Applications (1)

Application Number Title Priority Date Filing Date
EP11763836.1A Withdrawn EP2583265A1 (en) 2010-06-21 2011-06-10 Method for extracting data from a vision database in order to form a simulation database

Country Status (8)

Country Link
US (1) US20130173623A1 (en)
EP (1) EP2583265A1 (en)
BR (1) BR112012032612A2 (en)
CA (1) CA2803245A1 (en)
CL (1) CL2012003454A1 (en)
DE (1) DE102010017478A1 (en)
SG (1) SG186769A1 (en)
WO (1) WO2012022318A1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5974419A (en) * 1996-10-25 1999-10-26 Navigation Technologies Corporation Parcelization of geographic data for storage and use in a navigation application
US5968109A (en) * 1996-10-25 1999-10-19 Navigation Technologies Corporation System and method for use and storage of geographic data on physical media
US6047280A (en) * 1996-10-25 2000-04-04 Navigation Technologies Corporation Interface layer for navigation system
US5953722A (en) * 1996-10-25 1999-09-14 Navigation Technologies Corporation Method and system for forming and using geographic data
US5949425A (en) * 1997-11-25 1999-09-07 Terrain Experts, Inc. Terrain representation with polygonal seams
US7828655B2 (en) * 2004-03-11 2010-11-09 Navteq North America, Llc Application programming interface for geographic data in computer games

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DR. H.-W. LINDERT: "Common Database (CDB) Augmented Visionics System (AVS)", 31 March 2010 (2010-03-31), pages 1 - 20, XP055114467, Retrieved from the Internet <URL:http://www.dglr.de/fileadmin/inhalte/dglr/fb/q3/veranstaltungen/T62_T63_2009_Virtuelle_Ausbildungssysteme/Vortraege/2_7_CAE_Lindert_I.pdf> [retrieved on 20140416] *

Also Published As

Publication number Publication date
CA2803245A1 (en) 2012-02-23
US20130173623A1 (en) 2013-07-04
DE102010017478A1 (en) 2011-12-22
CL2012003454A1 (en) 2013-11-08
WO2012022318A1 (en) 2012-02-23
BR112012032612A2 (en) 2016-11-22
SG186769A1 (en) 2013-02-28

Similar Documents

Publication Publication Date Title
DE102017213634A1 (en) Method and apparatus for performing virtual tests in a virtual reality environment for an autonomous vehicle
EP3438901A1 (en) Test drive scenario database system for realistic virtual test drive scenarios
DE102017217297B4 (en) System for generating and / or updating a digital model of a digital map
EP1631938B1 (en) Method for generating a three-dimensional terrain model
DE102007036627A1 (en) Method for operating a navigation system
DE102013207658A1 (en) Method for determining a lane course of a traffic lane
DE102015001247A1 (en) Method for providing information about at least one object in a surrounding area of a motor vehicle and system
DE112020006045T5 (en) FORMAL SECURE SYMBOLIC REINFORCEMENT LEARNING THROUGH VISUAL INPUTS
DE102019216206A1 (en) Device and method for determining a U-turn strategy of an autonomous vehicle
DE102020127855A1 (en) SAFETY SYSTEM, AUTOMATED DRIVING SYSTEM AND PROCEDURE FOR IT
EP3983936A1 (en) Method and generator for generating disturbed input data for a neural network
DE102019211100A1 (en) Method, device and computer program for processing data about a traffic light system
DE102018207566A1 (en) A system for performing simulated collision scenarios of a motor vehicle with a non-motorized road user
DE102020214595A1 (en) Method and device for operating a vehicle
DE102019208735B4 (en) Method for operating a driver assistance system for a vehicle and a driver assistance system for a vehicle
DE202022106107U1 (en) System for testing level 3 automated driving systems (ADS)
WO2012022318A1 (en) Method for extracting data from a vision database in order to form a simulation database
WO2018050539A1 (en) Method and data processing system for generating map data of a digital map
WO2017144033A1 (en) Method for identifying and displaying changes in a real environment comprising a real terrain and real objects situated therein
DE102012009688B4 (en) Method, signal sequence and computer system for creating, managing, compressing and evaluating 3D data of a three-dimensional terrain model and a computer program with program code for performing the method on a computer
DE102019217952A1 (en) Method and device for providing a training data set for training an AI function on an unknown data domain
DE102021205896A1 (en) Computer-implemented method for determining at least one segment of a route, such a computer program product, such computer-readable data carrier and hardware module for determining at least one segment of a route
DE102021207997A1 (en) Method for checking completeness of a model of traffic dynamics at a traffic junction
DE102005063013B4 (en) Method for representing a surface and a device therefor
DE102009001311A1 (en) Method for providing e.g. city map, used for illustrating e.g. part of surface of earth, involves forming map by combining primary and secondary objects that are respectively represented as real objects and generic objects

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20130118

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20140425

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20140906