EP1302080A2 - Verfahren und anordnung zur ermittlung von aktuellen projektionsdaten für eine projektion einer räumlich veränderlichen fläche - Google Patents

Verfahren und anordnung zur ermittlung von aktuellen projektionsdaten für eine projektion einer räumlich veränderlichen fläche

Info

Publication number
EP1302080A2
EP1302080A2 EP01953144A EP01953144A EP1302080A2 EP 1302080 A2 EP1302080 A2 EP 1302080A2 EP 01953144 A EP01953144 A EP 01953144A EP 01953144 A EP01953144 A EP 01953144A EP 1302080 A2 EP1302080 A2 EP 1302080A2
Authority
EP
European Patent Office
Prior art keywords
projection
data
computing unit
spatially variable
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP01953144A
Other languages
English (en)
French (fr)
Inventor
Thomas Ruge
Ahmet Yalin Kecik
Claus-Peter Wiedemann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ModViz Inc
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of EP1302080A2 publication Critical patent/EP1302080A2/de
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Definitions

  • the invention relates to a determination of current projection data for a projection of a spatially variable surface.
  • Such data are usually determined in an SD projection system, for example a “virtual reality” system (VR system) or a “visual simulation” system (VS system), in order to display images or image sequences in three dimensions.
  • a virtual reality system VR system
  • VS system visual simulation system
  • Such a 3D projection system is known from [1] and shown in FIG. 2.
  • the 3D projection system 200 has a multinode architecture which connects two individual computers 210, 220 to form an overall system.
  • the two individual computers 210, 220 are connected to one another via an Ethernet network data line 230. Furthermore, the two individual computers 210, 220 are each connected to a projection unit 240, 250.
  • the first individual computer 210 is connected to an input device, namely a mouse 260, and a position tracking system 270.
  • the position tracking system 270 serves to convert an action of the user in a real environment or world into a virtual one To transfer world of the 3D projection system 200. This position tracking system 270 is clearly an interface between the real world of a user and the virtual world of the 3D projection system 200.
  • the first individual computer 210 performs a control and monitoring task, for example a synchronization of three-dimensional image data, which is determined in the first individual computer 210 and the second individual computer 220 and is connected to the respective one connected to the individual computer Projection unit 250, 260 are transmitted to a synchronized projection.
  • a control and monitoring task for example a synchronization of three-dimensional image data, which is determined in the first individual computer 210 and the second individual computer 220 and is connected to the respective one connected to the individual computer Projection unit 250, 260 are transmitted to a synchronized projection.
  • the 3D projection system 200 uses a software program "Lightning" [2] to determine the three-dimensional image data. This is carried out under an operating system Linux [3], which is installed on the individual computers 210, 220.
  • the software program "Lightning" uses a program library Performer [4] to visualize the three-dimensional image data.
  • the first individual computer also takes over the control and monitoring of the 3D projection system 200 in addition to the determination of the three-dimensional image data. For this reason, the 3D projection system 200 places higher demands on the first individual computer Computing power provided as to the second single computer. This either leads to the fact that when two identical individual computers 210, 220 are used, they are used differently (asymmetrically) to a high degree. In this case, however, at least one individual computer 210, 220 works ineffectively.
  • two individual computers 210, 220 which are specially adapted to the respective computing power required can be used. However, acquisition and maintenance costs are higher for these specially adapted individual computers 210, 220.
  • the invention is therefore based on the problem of specifying a method and an arrangement with which projection data for a 3D projection can be determined in a simple and inexpensive manner.
  • change data are determined in a first computing unit, which describe a change in the spatially variable surface from an initial state to a final state.
  • the change data are transmitted to a second processing unit and to a third processing unit, which are each connected to the first processing unit.
  • first current projection data for a first projection of the spatially changeable surface are determined.
  • second current project ons data determined for a second projection of the spatially variable surface is determined.
  • the arrangement for determining current projection data for a projection of a spatially variable surface has a first computing unit which is set up in such a way that change data can be determined which describe a change in the spatially variable surface from an initial state to a final state, and the changes - Data to a second processing unit and a third
  • Arithmetic unit are transferable, which are each connected to the first arithmetic unit.
  • the second arithmetic unit is set up in such a way that first current projection data for a first projection of the spatially variable surface can be determined using the change data and first previously stored projection data.
  • the third arithmetic unit is set up in such a way that second current projection data for a second projection of the spatially variable area can be determined using the change data and second previously stored projection data.
  • the arrangement according to the invention has a symmetrical structure, which results from the fact that the second computing unit and the third computing unit each carry out corresponding method steps.
  • Another particular advantage of the invention is that components of the invention can be implemented using commercially available hardware components, for example using a commercially available PC.
  • the invention can thus be implemented in a simple and inexpensive manner.
  • low maintenance costs are incurred with such an implementation.
  • Another advantage is that the arrangement according to the invention can be expanded easily and flexibly, that is to say is scalable, for example by means of additional second and / or third computing units.
  • the invention has the particular advantage that it is independent of a computing platform and can be easily integrated into any known projection and / or visualization systems, for example “Lightning”, “vega” and “Division”.
  • the acquisition costs of the new projection systems and / or visualization systems implemented in this way are considerably lower than those of the original systems.
  • the arrangement is particularly suitable for carrying out the method according to the invention or one of its further developments explained below.
  • the invention or a further development described in the following can be implemented by a computer-readable storage medium on which a computer program stores, which carries out the invention or training.
  • the invention and / or any further development described below can also be implemented by a computer program product which has a storage medium on which a computer program which carries out the invention and / or further development is stored.
  • the invention also has the particular advantage that it can be expanded or scaled in a particularly simple manner and can therefore be used extremely flexibly.
  • the arrangement is equipped with a plurality of second and / or third computing units, each of which is connected to the first computing unit.
  • the amount of transmission data and the computing power required in one computing unit are considerably reduced.
  • the first computing unit, the second computing unit and the third computing unit can each be implemented by a commercially available PC.
  • the first current and second current projection data are stored in the second and third computing unit. Another, subsequent one Projection is therefore the previously current projection data, the previously stored projection data. In this case, the procedure is carried out recurrently.
  • the arrangement according to the invention is particularly well suited for a projection system for projecting a three-dimensional image (3D image) or an image sequence from 3D images, for example in a virtual reality system and / or a visual simulation system.
  • the spatially changeable surface is contained in the 3D images that are generated by the virtual reality system and / or the visual simulation system.
  • a further development of the invention for such a projection system has a first projection unit for the first projection and a second projection unit for the second projection, the first projection unit being connected to the second computing unit and the second projection unit being connected to the third computing unit.
  • a qualitatively good projection of the spatially changeable surface is achieved when the projections of the projection units are synchronized, for example by transmitting synchronization information from the first computing unit to the second and the third computing unit.
  • This synchronization is implemented in a particularly simple manner by means of a broadcast mechanism, in which the first computing unit transmits a broadcast message to the second and the third computing unit.
  • a further improvement in the projection results if the determination of the first projection data and the determination of the second projection data are also synchronized.
  • the first computing unit transmits a first synchronization sationsinformation to the second computing unit and a second synchronization information to the third computing unit.
  • the determinations of the first and the second projection data are synchronized using the first and the second synchronization information.
  • This synchronization can also be easily implemented using a broadcast mechanism.
  • the change is determined from a change in the scene graph of the spatially variable area in the initial state compared to the scene graph of the spatially variable area in the final state.
  • the spatially variable area is contained in a 3D image of the 3D image sequence.
  • the scene graph is determined for each 3D image of the 3D image sequence.
  • an initialization is carried out, initialization data, which describe the spatially variable area in an initialization state, being transmitted to the second and third computing units.
  • First initialization projection data are determined in the second arithmetic unit using the initialization data
  • second initialization projection data are determined in the third arithmetic unit using the initialization data.
  • Figure 1 is a sketch of a VR system according to a first embodiment
  • Figure 2 is a sketch of a 3D projection system according to the prior art
  • FIG. 3 shows a sketch with method steps that are carried out in an SD projection
  • FIG. 4 shows a sketch with software architectures for an SD projection system according to a first and second exemplary embodiment
  • FIG. 5 shows a sketch of a 3D projection system according to a second exemplary embodiment
  • Fig.l shows a "virtual reality” system (VR system) with a networked computer architecture 100 for the visualization of 3D scenes.
  • VR system virtual reality system
  • a control computer (master) 110 is connected to an input / output unit 120 and to four projection computers (slaves) 130, 131, 132, 133.
  • Each projection computer 130, 131, 132, 133 is further connected to a projector 140, 141, 142, 143.
  • Each projection computer 130, 131, 132, 133 and the projector 140, 141, 142, 143 connected to this projection computer 130, 131, 132, 133 together form a projection unit.
  • Two of these projection units are set up for projecting a 3D image onto a projection screen 150, 151. Accordingly, the VR system has two projection screens 150, 151.
  • a data network 160 through which the components of the networked computer architecture 100 are connected, is a commercially available Ethernet network.
  • the control computer 110 and the projection computer 130, 131, 132, 133 are each equipped with an Ethernet network card and a corresponding Ethernet network software.
  • Both the control computer 110 and the projection computers 130, 131, 132, 133 are commercially available Intel Pentium III PCs, which projection computers 130, 131, 132, 133 are each additionally equipped with a 3D graphics card.
  • An operating system "Linux" [3] is installed on the control computer 110 and on the projection computers 130, 131, 132, 133.
  • the projectors 140, 141, 142, 143 are commercially available LCD or DLP projectors.
  • a virtual reality application software in this case the application software "vega” [5], and a 3D graphics library “SGI Performer”, version 2.3 [4], are installed on the control computer 110.
  • the 3D graphics library "SGI Performer”, version 2.3 [4], is also installed on each projection computer 130, 131, 132, 133. Furthermore, executable software is installed on the control computer 110 and the projection computers 130, 131, 132, 133, with which the method steps described below can be carried out in the visualization of 3D scenes.
  • 3 shows a sketch with procedural steps in the visualization of 3D scenes.
  • the method steps 301, 310, 315, 320, 325 and 330 are carried out by the software which is installed on the control computer 110.
  • Process steps 350, 351, 355, 360 and 365 are each carried out on all projection computers 130, 131, 132, 133 by the software installed there.
  • the method steps 350, 351, 355, 360, 365 are described by way of example for a projection computer 130, 131, 132, 133. However, they are carried out accordingly on all other projection computers 130, 131, 132, 133.
  • the VR system is initialized in an initialization method step 301 of the control computer 110 and an initialization method step 350 of a projection computer 130, 131, 132, 133.
  • a 3D initialization image is determined in the control computer 110 using the “vega” application software and transmitted to the projection computers 130, 131, 132, 133. Furthermore, during the initialization of the VR system, imaging parameters are determined which establish an interactive connection between a real world of a user and a virtual world of the VR system 100.
  • mapping parameters actions that are carried out by the user in the real world can be transferred as a corresponding image sequence into the virtual world of the VR system 100.
  • a method step 310 an input of the user is processed in the control computer 110.
  • An action of the user in the real world is transferred to the virtual world of the VR system 100.
  • the control computer 110 determines a current 3D image in a method step 315.
  • the change data is transmitted to a projection computer 130, 131, 132, 133.
  • control computer 110 controls and monitors a synchronization of the projection computers 130, 131, 132, 133, which synchronization is described separately below.
  • the control computer 110 can then again process a new action by the user, the method steps 310, 315, 320, 325, 330 being carried out again as described.
  • a projection computer 130, 131, 132, 133 receives the change data (cf. method step 325).
  • a method step 355 the current scene graph is "reconstructed" in the projection computer 130, 131, 132, 133 using the change data and a scene graph of a temporally preceding 3D image.
  • projection data is determined from the reconstructed scene graph using the 3D graphics library "SGI Performer", version 2.3 [4].
  • a method step 365 the projection data are transmitted to a projector 140, 141, 142, 143 and projected. This transmission to the respective projector 140, 141, 142, 143 takes place in a synchronized manner in all projection computers 130, 131, 132, 133.
  • the VR system 100 from FIG. 1 is synchronized twice.
  • the two synchronizations are each carried out by a so-called broadcast mechanism, which is described in [7].
  • These transmitted broadcast messages correspond to visual synchronization pulses by means of which the computer actions are synchronized.
  • the current scene graph is determined in each case in the projection computers 130, 131, 132, 133 and the corresponding projection data for the projection of a 3D image is determined.
  • the projection data are stored in a special memory of a projection computer 130, 131, 132 133.
  • a message is transmitted from the respective projection computer 130, 131, 132, 133 to the control computer 110.
  • the projection computer 130, 131, 132, 133 notifies the control computer 110 that it is ready for the subsequent projection.
  • control computer 110 As soon as the control computer 110 has received the messages from all the projection computers 130, 131, 132, 133, it synchronizes the subsequent projection (second synchronization).
  • This second synchronization also takes place by means of broadcast messages which are transmitted from the control computer 100 to the projection computers 130, 131, 132 133.
  • control computer 110 "requests" the projection computers 130, 131, 132, 133 to simultaneously transmit the projection data from the special memories to the projectors for projection.
  • Fig. Are a software architecture of the control computer
  • the layer model described below as representative of a projection computer is implemented in all projection computers as described.
  • a layer of such a layer model is to be understood as a software module which offers a service of a layer above it.
  • the layer's software module can use a service of a subordinate layer.
  • Each layer provides an API (Application Programming Interface), which defines available services and formats of input data for these available services.
  • API Application Programming Interface
  • the software architecture of the control computer 401 has a first, uppermost layer, an application layer 410.
  • the application layer 410 is the interface to the user.
  • the second layer 411 which is subordinate to the first layer 410, is the VR system. There the 3D data are generated, managed and transferred as a scene graph to the SGI Performer ", version 2.3, for visualization.
  • a third layer 412 which is subordinate to the second layer 411, the change data, which describe a change in a scene graph in two successive scenes, are determined and transmitted to a corresponding layer 420 in the projection computers.
  • a fourth layer 413 contains data from the 3D graphics library "SGI Performer", version 2.3, saved. The visualization takes place in this layer.
  • the software architecture of a projection computer 402 comprises two layers.
  • the change data which describe a change in a scene graph in two successive scenes, are received and passed on to the "SGI Performer", version 2.3.
  • the first subordinate layer 421 data from the 3D graphics library "SGI Performer", version 2.3, are stored.
  • connection arrow 430 which connects the third layer of the software architecture of the control computer 412 with the first layer of the software architecture of the projection computer 420, clarifies that data which are transmitted from the control computer to a projection computer are exchanged between these layers ,
  • VR system 500 shows a second “virtual reality” system (VR system) 500 with a networked computer architecture for the visualization of 3D scenes.
  • a control computer (master) 501 with six projection units 510, 511,
  • two of these projection units 510, 511, 512, 513, 514, 515 are each set up for the projection of a 3D image onto a projection screen 520.
  • the three projection screens 521, 522, 523 which are necessary in this case are arranged in a semicircular manner and thus allow a user an "all-round view".
  • the data network 530 through which the components of the networked computer architecture are connected, the control computer 501, the projection computers 510, 511, 512, 513, 514, 515, projectors 560, 561, 562, 563, 564, 565 are corresponding to the first Implemented embodiment.
  • control computer 501 and the projection computer 510, 511, 512, 513, 514, 515 are also implemented in accordance with the first exemplary embodiment.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Instructional Devices (AREA)

Abstract

Bei dem Verfahren und der Anordnung zur Ermittlung von Projektionsdaten für eine Projektion einer räumlich veränderlichen Fläche werden in einer ersten Recheneinheit Veränderungsdaten ermittelt, welche eine Änderung der räumlich veränderlichen Fläche von einem Ausgangszustand in einen Endzustand beschreiben. Die Veränderungsdaten werden an eine zweite Recheneinheit und an eine dritte Recheneinheit, welche jeweils mit der ersten Recheneinheit verbunden sind, übertragen. In der zweiten Recheneinheit werden unter Verwendung der Veränderungsdaten und ersten zuvor gespeicherten Projektionsdaten erste aktuelle Projektionsdaten für eine erste Projektion der räumlich veränderlichen Fläche ermittelt. In der dritten Recheneinheit werden unter Verwendung der Veränderungsdaten und zweiten zuvor gespeicherten Projektionsdaten zweite aktuelle Projektionsdaten für eine zweite Projektion der räumlich veränderlichen Fläche ermittelt.

Description

Beschreibung
Verfahren und Anordnung zur Ermittlung von aktuellen Projektionsdaten für eine Projektion einer räumlich veränderlichen Fläche
Die Erfindung betrifft eine Ermittlung von aktuellen Projektionsdaten für eine Projektion einer räumlich veränderlichen Fläche.
Solche Daten werden üblicherweise bei einem SD-Projektionssystem, beispielsweise einem "Virtual Reality"-System (VR- System) oder einem "Visual Simulation"-System (VS-System) , ermittelt, um Bilder oder Bildsequenzen dreidimensional dar- zustellen.
Ein solches 3D-Projektionssystem ist aus [1] bekannt und in Fig.2 dargestellt.
Das 3D-Projektionssystem 200 weist eine Multinode-Architektur auf, die zwei Einzelrechner 210, 220 zu einem Gesamtsystem verbindet.
Die zwei Einzelrechner 210, 220 sind über eine Ethernet- Netzwerk-Datenleitung 230 miteinander verbunden. Ferner sind die zwei Einzelrechner 210, 220 mit jeweils einer Projektionseinheit 240, 250 verbunden.
Zur Durchführung einer Interaktion zwischen einem Nutzer und dem 3D-Projektionssystem 200 ist der erste Einzelrechner 210 mit einem Eingabegerät, nämlich einer Maus 260, und einem Po- sitions-Tracking System 270 verbunden.
Das Positions-Tracking System 270 dient dazu, eine Aktion des Nutzers in einer realen Umgebung bzw. Welt in eine virtuelle Welt des 3D-Projektionssystems 200 zu übertragen. Anschaulich gesehen ist somit dieses Positions-Tracking System 270 eine Schnittstelle zwischen der realen Welt eines Nutzers und der virtuellen Welt des 3D-Projektionssystems 200.
Bei der Multinode Architektur des 3D-Projektionssystems 200 leistet der erste Einzelrechner 210 eine Steuerungs- und U- berwachungsaufgabe, beispielsweise eine Synchronisation von dreidimensionalen Bilddaten, die in dem ersten Einzelrechner 210 und dem zweiten Einzelrechner 220 ermittelt und an die jeweilige, mit dem Einzelrechner verbundene Projektionseinheit 250, 260 zu einer synchronisierten Projektion übertragen werden.
Das 3D-Projektionssystem 200 verwendet zur Ermittlung der dreidimensionalen Bilddaten ein Softwareprogramm "Lightning" [2] . Dieses wird unter einem Betriebssystem Linux [3] ausgeführt, welches jeweils auf den Einzelrechnern 210, 220 installiert ist.
Für eine Visualisierung der dreidimensionalen Bilddaten benützt das Softwareprogramm "Lightning" eine Programm- Bibliothek Performer [4] .
Bei dieser Multinode Architektur des 3D-Projektionssystems 200 übernimmt der erste Einzelrechner zusätzlich zu der Ermittlung der dreidimensionalen Bilddaten noch die Steuerung und Überwachung des 3D-Projektionssystems 200. Aus diesem Grund wird bei dem 3D-Projektionssystem 200 an den ersten Einzelrechner eine höhere Anforderung an eine Rechenleistung gestellt als an den zweiten Einzelrechner. Dies führt entweder dazu, dass bei einer Verwendung zweier gleichartiger Einzelrechner 210, 220 diese unterschiedlich (asymmetrisch) stark ausgelastet werden. In diesem Fall arbeitet zumindest ein Einzelrechner 210, 220 aber ineffektiv.
Alternativ können zwei speziell an die jeweilige benötigte Rechenleistung angepasste Einzelrechner 210, 220 verwendet werden. Für diese speziell angepassten Einzelrechner 210, 220 sind aber Anschaffungskosten und Wartungskosten höher.
Somit liegt der Erfindung das Problem zugrunde, ein Verfahren und eine Anordnung anzugeben, mit welchen auf einfache und kostengünstige Weise Projektionsdaten für eine 3D-Projektion ermittelt werden können.
Das Problem wird durch das Verfahren und durch die Anordnung gemäß dem jeweiligen unabhängigen Patentanspruch gelöst.
Bei dem Verfahren zur Ermittlung von aktuellen Projektionsda- ten für eine Projektion einer räumlich veränderlichen Fläche werden in einer ersten Recheneinheit Veränderungsdaten ermittelt, welche eine Änderung der räumlich veränderlichen Fläche von einem Ausgangszustand in einen Endzustand beschreiben. Die Veränderungsdaten werden an eine zweite Recheneinheit und an eine dritte Recheneinheit, welche jeweils mit der ersten Recheneinheit verbunden sind, übertragen. In der zweiten Recheneinheit werden unter Verwendung der Veränderungsdaten und ersten zuvor gespeicherten Projektionsdaten erste aktuelle Projektionsdaten für eine erste Projektion der räumlich ver- änderlichen Fläche ermittelt. In der dritten Recheneinheit werden unter Verwendung der Veränderungsdaten und zweiten zuvor gespeicherten Projektionsdaten zweite aktuelle Projekti- onsdaten für eine zweite Projektion der räumlich veränderlichen Fläche ermittelt.
Die Anordnung zur Ermittlung von aktuellen Projektionsdaten für eine Projektion einer räumlich veränderlichen Fläche weist eine erste Recheneinheit auf, die derart eingerichtet ist, dass Veränderungsdaten ermittelbar sind, welche eine Änderung der räumlich veränderlichen Fläche von einem Ausgangs- zustand in einen Endzustand beschreiben, und die Verände- rungsdaten an eine zweite Recheneinheit und an eine dritte
Recheneinheit übertragbar sind, welche jeweils mit der ersten Recheneinheit verbunden sind.
Die zweite Recheneinheit ist derart eingerichtet, dass unter Verwendung der Veränderungsdaten und ersten zuvor gespeicher- ten Projektionsdaten erste aktuelle Projektionsdaten für eine erste Projektion der räumlich veränderlichen Fläche ermittelbar sind. Die dritte Recheneinheit ist derart eingerichtet, dass unter Verwendung der Veränderungsdaten und zweiten zuvor gespeicherten Projektionsdaten zweite aktuelle Projektionsda- ten für eine zweite Projektion der räumlich veränderlichen Fläche ermittelbar sind.
Anschaulich gesehen weist die erfindungsgemäße Anordnung eine symmetrische Struktur auf, welche sich dadurch ergibt, dass die zweite Recheneinheit und die dritte Recheneinheit jeweils einander entsprechende Verfahrensschritte durchführen.
Dies führt zu einer symmetrischen und damit effektiven Auslastung der zweiten und der dritten Recheneinheit.
Ein weiterer, besonderer Vorteil der Erfindung liegt darin, dass Komponenten der Erfindung durch handelsübliche Hardwarekomponenten realisiert werden können, beispielsweise durch handelsübliche PC. Damit lässt sich die Erfindung auf einfache und kostengünstige Weise realisieren. Darüber hinaus fallen bei einer solchen Realisierung geringe Wartungskosten an.
Ein weiterer Vorteil liegt darin, dass die erfindungsgemäße Anordnung einfach und flexibel erweitert werden kann, also skalierbar ist, beispielsweise durch zusätzliche zweite und/oder dritte Recheneinheiten.
Darüber hinaus weist die Erfindung den besonderen Vorteil auf, dass sie unabhängig von einer Rechenplattform ist und sich auf einfache Weise in beliebige, bekannte Projektionsund/oder Visualisierungssysteme, beispielsweise "Lightning", "vega" und "Division", integrieren lässt. Die Anschaffungs- kosten der dadurch realisierten neuen Projektionssysteme und/oder Visualisierungssysteme sind dabei erheblich niedriger als diejenigen der ursprünglichen Systeme.
Die Anordnung ist insbesondere geeignet zur Durchführung des erfindungsgemäßen Verfahrens oder einer dessen nachfolgend erläuterten Weiterbildungen.
Bevorzugte Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.
Die im weiteren beschriebenen Weiterbildungen beziehen sich sowohl auf das Verfahren als auch auf die Anordnung.
Die Erfindung und die im weiteren beschriebenen Weiterbildun- gen können sowohl in Software als auch in Hardware, beispielsweise unter Verwendung einer speziellen elektrischen Schaltung, realisiert werden.
Ferner ist eine Realisierung der Erfindung oder einer im wei- teren beschriebenen Weiterbildung möglich durch ein computerlesbares Speichermedium, auf welchem ein Computerprogramm ge- speichert ist, welches die Erfindung oder Weiterbildung ausführt .
Auch können die Erfindung und/oder jede im weiteren beschrie- bene Weiterbildung durch ein Computerprogrammerzeugnis realisiert sein, welches ein Speichermedium aufweist, auf welchem ein Computerprogramm gespeichert ist, welches die Erfindung und/oder Weiterbildung ausführt.
Die Erfindung weist ferner den besonderen Vorteil auf, dass sie auf besonders einfache Weise erweiterbar bzw. skalierbar und damit äußerst flexibel einsetzbar ist. Bei einer Erweiterung wird die Anordnung mit mehreren zweiten und/oder dritten Recheneinheiten ausgestattet, deren jede mit der ersten Re- cheneinheit verbunden ist.
Durch die Übertragung nur der Veränderungsdaten an die zweite und dritte Recheneinheit und die anschließende Rekonstruktion der Daten, welche die räumlich veränderliche Fläche beschrei- ben, in der zweiten und dritten Recheneinheit jeweils aus den Veränderungsdaten anstelle einer Ermittlung der Daten, welche die räumlich veränderliche Fläche beschreiben, in der zweiten und der dritten Recheneinheit reduziert sich die Übertragungsdatenmenge und die in einer Recheneinheit benötigte Re- chenleistung erheblich.
Damit wird es möglich in einer Ausgestaltung der Erfindung die Anordnung unter Verwendung von Standardhardwarekomponenten zu realisieren. So können beispielsweise die erste Re- cheneinheit, die zweite Recheneinheit und die dritte Recheneinheit jeweils durch einen handelsüblichen PC realisiert werden.
In einer Ausgestaltung werden die ersten aktuellen und zwei- ten aktuellen Projektionsdaten in der zweiten und dritten Recheneinheit gespeichert. Bei einer weiteren, nachfolgenden Projektion sind somit die vormals aktuellen Projektionsdaten die zuvor gespeicherten Projektionsdaten. In diesem Fall wird das Verfahren rekurrent durchgeführt.
Die erfindungsgemäße Anordnung eignet sich besonders gut für ein Projektionssystem zur Projektion eines dreidimensionalen Bildes (3D-Bild) oder einer Bildsequenz aus 3D-Bildern, beispielsweise bei einem Virtual Reality Systems und/oder einem Visual Simulation System.
In diesem Fall ist die räumlich veränderliche Fläche in den 3D-Bildern, welche durch das Virtual Reality Systems und/oder das Visual Simulation System erzeugt werden, enthalten.
Eine Weiterbildung der Erfindung zu einem solchen Projektionssystem weist eine erste Projektionseinheit für die erste Projektion und eine zweite Projektionseinheit für die zweite Projektion auf, wobei die erste Projektionseinheit mit der zweiten Recheneinheit und die zweite Projektionseinheit mit der dritten Recheneinheit verbunden sind.
Eine qualitativ gute Projektion der räumlich veränderlichen Fläche wird dann erreicht, wenn die Projektionen der Projektionseinheiten synchronisiert werden, beispielsweise durch Übertragung einer Synchronisationsinformation von der ersten Recheneinheit jeweils an die zweite und die dritte Recheneinheit.
Besonders einfach wird diese Synchronisation durch einen Broadcast-Mechanismus realisiert, bei dem die erste Recheneinheit eine Broadcast-Nachricht an die zweite und die dritte Recheneinheit überträgt.
Eine weitere Verbesserung der Projektion ergibt sich, wenn auch die Ermittlung der ersten Projektionsdaten und die Ermittlung der zweiten Projektionsdaten synchronisiert werden. Dazu überträgt die erste Recheneinheit eine erste Synchroni- sationsinformation an die zweite Recheneinheit und eine zweite Synchronisationsinfor ation an die dritte Recheneinheit. Unter Verwendung der ersten und der zweiten Synchronisationsinformation werden die Ermittlungen der ersten und der zwei- ten Projektionsdaten synchronisiert.
Auch diese Synchronisation lässt sich einfach durch einen Broadcast-Mechanismus realisieren.
Eine Integration bekannter Verfahren zur Projektion einer räumlich veränderlichen Fläche in eine Ausgestaltung der Erfindung lässt sich besonders einfach dann realisieren, wenn die räumlich veränderliche Fläche durch einen Szenengraph beschrieben wird.
In diesem Fall wird die Änderung ermittelt aus einer Änderung des Szenengraph der räumlich veränderlichen Fläche in dem Ausgangszustand gegenüber dem Szenengraph der räumlich verän- derlichen Fläche in dem Endzustand.
Bei einer Projektion von 3D-Bildern einer 3D-Bildsequenz ist die räumlich veränderliche Fläche jeweils in einem 3D-Bild der 3D-Bildsequenz enthalten. Für jedes 3D-Bild der 3D- Bildsequenz wird in diesem Fall der Szenengraph ermittelt.
In einer Weiterbildung der Erfindung wird eine Initialisierung durchgeführt, wobei Initialisierungsdaten, welche die räumlich veränderliche Fläche in einem Initialisierungszu- stand beschreiben, an die zweite und die dritte Recheneinheit übertragen werden. In der zweiten Recheneinheit werden unter Verwendung der Initialisierungsdaten erste Initialisierungs- projektionsdaten sowie in der dritten Recheneinheit werden unter Verwendung der Initialisierungsdaten zweite Initiali- sierungsprojektionsdaten ermittelt. Ausführungsbeispiele der Erfindung sind in Figuren dargestellt und werden im weiteren näher erläutert.
Es zeigen
Figur 1 eine Skizze eines VR-Systems gemäß einem ersten Ausführungsbeispiel;
Figur 2 eine Skizze eines 3D-Projektionssystems gemäß dem Stand der Technik;
Figur 3 eine Skizze mit Verfahrensschritte, die bei einer SD- Projektion durchgeführt werden;
Figur 4 eine Skizze mit Software Architekturen für ein SD- Projektionssystem gemäß einem ersten und zweiten Ausführungsbeispiel;
Figur 5 eine Skizze eines 3D-Projektionssystems gemäß einem zweiten Ausführungsbeispiel;
Erstes Ausführungsbeispiel: VR-System
Fig.l zeigt ein "Virtual Reality" -System (VR-System) mit einer vernetzten Rechner-Architektur 100 zur Visualisierung von 3D-Szenen.
Bei dieser vernetzten Rechner-Architektur 100 ist ein Steuer- rechner (Master) 110 mit einer Ein-/Ausgabeeinheit 120 und mit vier Projektionsrechnern (Slaves) 130, 131, 132, 133 verbunden. Jeder Projektionsrechner 130, 131, 132, 133 ist weiter mit einem Projektor 140, 141, 142, 143 verbunden. /Jeweils ein Projektionsrechner 130, 131, 132, 133 und der mit diesem Projektionsrechner 130, 131, 132, 133 verbundene Projektor 140, 141, 142, 143 bilden zusammen eine Projektionseinheit.
Jeweils zwei dieser Projektionseinheiten sind für die Projektion eines 3D-Bildes auf einen Projektionsschirm 150, 151 eingerichtet. Dementsprechend weist das VR-System zwei sol- eher Projektionsschirme 150, 151 auf.
Ein Datennetz 160, durch welches die Komponenten der vernetzen Rechner-Architektur 100 verbunden sind, ist ein handelübliches Ethernet-Netzwerk. Der Steuerrechner 110 und die Pro- jektionsrechner 130, 131, 132, 133 sind jeweils mit einer E- thernet-Netzwerkkarte und einer entsprechenden Ethernet- Netzwerksoftware ausgestattet.
Sowohl der Steuerrechner 110 als auch die Projektionsrechner 130, 131, 132, 133 sind handelübliche Intel Pentium III PCs, welche Projektionsrechner 130, 131, 132, 133 jeweils zusätzlich mit einer 3D-Graphikkarte ausgestattet sind.
Auf dem Steuerrechner 110 und auf den Projektionsrechnern 130, 131, 132, 133 ist jeweils ein Betriebssystem "Linux" [3] installiert. Die Projektoren 140, 141, 142, 143 sind handelsübliche LCD-oder DLP-Projektoren.
Auf dem Steuerrechner 110 ist eine Virtual Reality Anwen- dungssoftware, in diesem Fall die AnwendungsSoftware "vega" [5], und eine 3D-Graphik Bibliothek "SGI Performer", Version 2.3 [4], installiert.
Auf jedem Projektionsrechner 130, 131, 132, 133 ist ebenfalls die 3D-Graphik Bibliothek "SGI Performer", Version 2.3 [4], installiert. Ferner ist auf dem Steuerrechner 110 und den Projektionsrechnern 130, 131, 132, 133 jeweils ausführbare Software installiert, mit welcher nachfolgend beschriebene Verfahrensschritte bei einer Visualisierung von 3D-Szenen durchführbar sind.
In Fig.3 ist eine Skizze mit Verfahrensschritten bei der Visualisierung von 3D-Szenen dargestellt.
Die Verfahrensachritte 301, 310, 315, 320, 325 und 330 werden durch die Software, welche auf dem Steuerrechner 110 installiert ist, ausgeführt. Die Verfahrenschritte 350, 351, 355, 360 und 365 werden jeweils auf allen Projektionsrechnern 130, 131, 132, 133 durch die dort installierte Software ausgeführt .
Die Beschreibung der Verfahrenschritte 350, 351, 355, 360, 365 erfolgt exemplarisch für einen Projektionsrechner 130, 131, 132, 133. Sie werden aber entsprechend auf allen anderen Projektionsrechnern 130, 131, 132, 133 ausgeführt.
Alle räumliche Information in 3D-Bildern bei dem VR-System 100 wird durch einen sogenannten Szenengraph, welcher in [6] beschrieben ist, beschrieben.
Pfeile, durch welche Verfahrensschritte miteinander verbunden sind, verdeutlichen eine zeitliche Abfolge der jeweils verbundenen Verfahrenschritte.
In einem Initialisierungs-Verfahrensschritt 301 des Steuer- rechners 110 und einem Initialisierungs-Verfahrensschritt 350 eines Projektionsrechners 130, 131, 132, 133 wird das VR- System initialisiert.
Dabei wird in dem Steuerrechner 110 unter Verwendung der An- wendungsSoftware "vega" ein 3D-Initialisierungsbild ermittelt und an die Projektionsrechner 130, 131, 132, 133 übertragen. Ferner werden bei der Initialisierung des VR-Syste s Abbildungsparameter ermittelt, welche eine interaktive Verbindung zwischen einer realen Welt eines Nutzers und einer virtuellen Welt des VR-Systems 100 herstellen.
Unter Verwendung dieser Abbildungsparameter können Aktionen, welche von dem Nutzer in der realen Welt ausgeführt werden, als entsprechende Bildsequenz in die virtuelle Welt des VR- Systems 100 übertragen werden.
In einem Verfahrensschritt 310 wird in dem Steuerrechner 110 eine Eingabe des Nutzers bearbeitet. Dabei wird eine Aktion des Nutzer in der realen Welt in die virtuelle Welt des VR- Systems 100 übertragen. Anschließend ermittelt der Steuer- rechner 110 in einem Verfahrensschritt 315 ein aktuelles 3D- Bild.
In einem Verfahrensschritt 320 wird eine Veränderung des aktuellen 3D-Bildes gegenüber einem zeitlich vorhergehenden 3D- Bild, welches in dem Steuerrechner ermittelt und gespeichert wurde, ermittelt.
Dies erfolgt durch die Ermittlung einer Veränderung des Szenengraph in dem aktuellen 3D-Bild gegenüber diesem in dem zeitlich vorhergehenden 3D-Bild.
Anschaulich gesehen wird dabei eine Differenz zwischen dem aktuellen Szenengraph und dem zeitlich vorgehenden Szenengraph ermittelt (Veränderungsdaten) .
In einem Verfahrensschritt 325 wird die Veränderungsdaten an einen Projektionsrechner 130, 131, 132, 133 übertragen.
In einem Verfahrensschritt 330 steuert und überwacht der Steuerrechner 110 eine Synchronisation der Projektionsrechner 130, 131, 132, 133, welche Synchronisation nachfolgend gesondert beschrieben wird. Anschließend kann der Steuerrechner 110 wieder ein neue Aktion des Nutzers verarbeiten, wobei wieder die Verfahrensschritte 310, 315, 320, 325, 330 wie beschrieben durchgeführt werden.
In einem Verfahrensschritt 351 empfängt ein Projektionsrechner 130, 131, 132, 133 die Veränderungsdaten (vgl. Verfahrenschritt 325) .
In einem Verfahrensschritt 355 wird in dem Projektionsrechner 130, 131, 132, 133 unter Verwendung der Veränderungsdaten und eines Szenegraph eines zeitlich vorhergehendenden 3D-Bildes der aktuelle Szenengraph "rekonstruiert".
In einem Verfahrenschritt 360 wird unter Verwendung der 3D- Graphik Bibliothek "SGI Performer", Version 2.3 [4], aus dem rekonstruierten Szenengraph Projektionsdaten ermittelt.
In einem Verfahrensschritt 365 werden die Projektionsdaten an einen Projektor 140, 141, 142, 143 übertragen und projiziert. Diese Übertragung zu dem jeweiligen Projektor 140, 141, 142, 143 erfolgt bei allen Projektionsrechner 130, 131, 132, 133 synchronisiert .
Synchronisation
Bei dem VR-System 100 aus Fig.l erfolgt eine zweifache Synchronisation.
Die zwei Synchronisationen werden jeweils durch einen sogenannten Broadcast-Mechanismus durchgeführt, welcher in [7] beschrieben ist.
Bei diesem Broadcast-Mechanismus werden zur Synchronisation von Rechneraktionen in den Projektionsrechnern 130, 131, 132, 133 von dem Steuerrechner 110 Broadcast-Nachrichten an die Projektionsrechner 130, 131, 132, 133 übertragen.
Diese übertragenen Broadcast-Nachrichten entsprechen anschau- lieh Synchronisationsimpulsen, durch welche die Rechneraktionen synchronisiert werden.
Bei einer ersten Synchronisation wird die Übertragung der Veränderungsdaten von dem Steuerrechner 110 an die Projekti- onsrechner 130, 131, 132, 133 synchronisiert.
In den Projektionsrechnern 130, 131, 132, 133 wird jeweils der aktuelle Szenengraph ermittelt und die entsprechenden Projektionsdaten für die Projektion eines 3D-Bildes bestimmt. Die Projektionsdaten werden in einem speziellen Speicher eines Projektionsrechner 130, 131, 132 133 gespeichert.
Sobald die Projektionsdaten in einem Projektionsrechner 130, 131, 132, 133 ermittelt worden sind, wird ein Meldung von dem jeweiligen Projektionsrechner 130, 131, 132, 133 an den Steuerrechner 110 übertragen. Dadurch "teilt" der Projektionsrechner 130, 131, 132, 133 dem Steuerrechner 110 mit, dass er für die anschließende Projektion bereit ist.
Sobald der Steuerrechner 110 die Mitteilungen von allen Projektionsrechnern 130, 131, 132, 133 erhalten hat, synchronisiert er die anschließende Projektion (zweite Synchronisation) .
Diese zweite Synchronisation erfolgt ebenfalls durch Broadcast-Nachrichten, welche von dem Steuerrechner 100 an die Projektionsrechner 130, 131, 132 133 übertragen werden.
7Anschaulich gesehen "fordert" der Steuerrechner 110 die Pro- jektionsrechner 130, 131, 132, 133 auf, die Projektionsdaten aus den speziellen Speichern gleichzeitig an die Projektoren zur Projektion zu übertragen. In Fig. sind eine Software-Architektur des Steuerrechners
401 sowie eine Software-Architektur eines Projektionsrechners
402 jeweils durch ein Schichtenmodell mit hierarchisch geord- neten Schichten dargestellt.
Das nachfolgend stellvertretend für einen Projektionsrechner beschrieben Schichtenmodell ist in allen Projektionsrechner wie beschrieben realisiert.
Unter einer Schicht eines solchen Schichtenmodells ist ein Software-Modul zu verstehen, welches einen Dienst einer ihr übergeordneten Schicht anbietet. Das Software-Modul der Schicht kann dabei einen Dienst einer ihr untergeordneten Schicht benutzen.
Jede Schicht stellt ein API (Application Programming Interface) zur Verfügung, welches verfügbaren Dienste und Formate von Eingabedaten für diese verfügbaren Dienste definiert.
Die Software-Architektur des Steuerrechners 401 weist eine erste, oberste Schicht, eine Anwendungsschicht 410, auf. Die AnwendungsSchicht 410 ist die Schnittstelle zum Benutzer.
Die zweite Schicht 411, welche der ersten Schicht 410 untergeordnet ist, ist das VR-System. Dort werden die 3D-Daten erzeugt, verwaltet und als Szenengraph an den SGI Performer", Version 2.3, zur Visualisierung übergeben.
In einer dritten Schicht 412, welche der zweiten Schicht 411 untergeordnet ist, werden die Änderungsdaten, welche eine Änderung eines Szenengraphen in zwei zeitlich aufeinanderfolgenden Szenen beschreiben, ermittelt und an eine korrespondierende Schicht 420 in den Projektionsrechnern übermittelt.
In der nächst tieferen Schicht, einer vierten Schicht 413, sind Daten der 3D-Graphik-Bibliothek "SGI Performer", Version 2.3, gespeichert. In dieser Schicht erfolgt die Visualisierung.
Die Software-Architektur eines Projektionsrechners 402 um- fasst zwei Schichten.
In der ersten Schicht 420 werden die Änderungsdaten, welche eine Änderung eines Szenengraphen in zwei zeitlich aufeinanderfolgenden Szenen beschreiben, empfangen und an den "SGI Performer", Version 2.3, weitergegeben.
In der zweiten, der ersten untergeordneten Schicht 421 sind Daten der 3D-Graphik-Bibliothek "SGI Performer", Version 2.3, gespeichert.
Ein Verbindungspfeil 430, welcher die dritte Schicht der Software-Architektur des Steuerrechners 412 mit der ersten Schicht der Software-Architektur des Projektionsrechners 420 verbindet, verdeutlicht, dass Daten, welche von dem Steuer- rechner an einen Projektionsrechner übertragen werden, zwischen diesen Schichten ausgetauscht werden.
Zweites Ausführungsbeispiel: VR-System
Fig.5 zeigt ein zweites "Virtual Reality" -System (VR-System) 500 mit einer vernetzten Rechner-Architektur zur Visualisierung von 3D-Szenen.
Bei dieser vernetzten Rechner-Architektur ist ein Steuerrech- ner (Master) 501 mit sechs Projektionseinheiten 510, 511,
512, 513, 514, 515 gemäß dem ersten Ausführungsbeispiel verbunden.
Entsprechend dem ersten Ausführungsbeispiel sind jeweils zwei dieser Projektionseinheiten 510, 511, 512, 513, 514, 515 für die Projektion eines 3D-Bildes auf einen Projektionsschirm 520 eingerichtet. Die in diesem Fall notwendigen drei Projektionsschirme 521, 522, 523 sind aneinanderschließend, halbkreisförmig angeordnet und ermöglichen somit einem Nutzer einen "Rundumblick" .
Das Datennetz 530, durch welches die Komponenten der vernetzen Rechner-Architektur verbunden sind, der Steuerrechner 501, die Projektionsrechner 510, 511, 512, 513, 514, 515, Projektoren 560, 561, 562, 563, 564, 565 sind entsprechend dem ersten Ausführungsbeispiel realisiert.
Auch die Software des Steuerrechners 501 und der Projektionsrechner 510, 511, 512, 513, 514, 515 sind gemäß dem ersten Ausführungsbeispiel realisiert.
Die Verfahrensschritte, welche in Fig.3 dargestellt und im Rahmen des ersten Ausführungsbeispiels beschrieben wurden, werden entsprechend bei dem VR-Systems 500 gemäß dem zweiten Ausführungsbeispiel ausgeführt.
Im Rahmen dieses Dokuments sind folgende Veröffentlichungen zitiert:
[1] Prospektblatt "Personal Immersion", Frauenhofer-Institut für Arbeitswirtschaft und Organisation (IAO), erhältlich 06/2000, Stuttgart;
[2] Produktinformation über "Lighning", erhältlich am 13.07.2000 unter http: //www. cenit.de/d/data/cae/yr/lightningl.htm ;
[3] Produktinformation über "Linux", erhältlich am
13.07.2000 unter http : //www. linux. org/info/index .html;
[4] Produktinformation über "Performer", erhältlich am
13.07.2000 unter http: //www. sgi.com/software/performer/;
[5] Produktinformation über "vega", erhältlich am 13.07.2000 unter http: //www.multigen.com/products/pdf_files/Vega 72dpi.pdf;
[6] Information über "Szenegraph", erhältlich am 13.07.2000 unter http: //www. sgi .com/software/performer/presentations/perf wp clr.pdf;
1 ] W. Richard Stevens, UNIX Network Programming, Seite 192, Prentice Hall, 1990

Claims

Patentansprüche
1. Verfahren zur Ermittlung von aktuellen Projektionsdaten für eine Projektion einer räumlich veränderlichen Fläche, - bei dem in einer ersten Recheneinheit Veränderungsdaten ermittelt werden, welche eine .Änderung der räumlich veränderlichen Fläche von einem Ausgangszustand in einen Endzustand beschreiben,
- bei dem die Veränderungsdaten an eine zweite Recheneinheit und an eine dritte Recheneinheit, welche jeweils mit der ersten Recheneinheit verbunden sind, übertragen werden,
- bei dem in der zweiten Recheneinheit unter Verwendung der Veränderungsdaten und ersten zuvor gespeicherten Projektionsdaten erste aktuelle Projektionsdaten für eine erste Projektion der räumlich veränderlichen Fläche ermittelt werden, und
- bei dem in der dritten Recheneinheit unter Verwendung der Veränderungsdaten und zweiten zuvor gespeicherten Projektionsdaten zweite aktuelle Projektionsdaten für eine zwei- te Projektion der räumlich veränderlichen Fläche ermittelt werden.
2. Verfahren nach Anspruch 1, bei dem die ersten aktuellen und/oder zweiten aktuellen Pro- jektionsdaten gespeichert werden.
3. Verfahren nach Anspruch 1 oder 2, bei dem die erste Recheneinheit eine erste Synchronisationsinformation an die zweite Recheneinheit und eine zweite Syn- chronisationsinformation an die dritte Recheneinheit überträgt, mit welchen die Ermittlungen der ersten und zweiten Projektionsdaten synchronisiert werden.
4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem die erste Recheneinheit eine dritte Synchronisationsinformation an die zweite Recheneinheit und eine vierte Synchronisationsinformation an die dritte Recheneinheit über- trägt, mit welchen die erste und die zweite Projektion synchronisiert werden.
5. Verfahren nach Anspruch 3 oder 4, bei dem eine Synchronisationsinformation eine Broadcast- Nachricht eines Braodcast-Mechanismus ist.
6. Verfahren nach einem der Ansprüche 1 bis 5, bei dem eine Initialisierung durchgeführt wird, wobei Initialisierungsdaten, welche die räumlich veränderliche Fläche in einem Initialisierungszustand beschreiben, an die zweite und die dritte Recheneinheit übertragen werden und in der zweiten Recheneinheit unter Verwendung der Initialisierungsdaten erste Initialisierungsprojektionsdaten sowie in der dritten Recheneinheit unter Verwendung der Initialisierungsdaten zweite Initialisierungsprojektionsdaten ermittelt werden.
7. Verfahren nach einem der Ansprüche 1 bis 6, bei dem die räumliche veränderliche Fläche durch einen Szenengraph beschrieben wird.
8. Verfahren nach Anspruch 7, bei dem die Änderung ermittelt wird aus einer Änderung des Szenengraph der räumlich veränderlichen Fläche in dem Ausgangszustand zu dem Szenengraph der räumlich veränderlichen Fläche in dem Endzustand.
9. Verfahren nach einem der Ansprüche 1 bis 8, bei dem die räumlich veränderliche Fläche in dem Ausgangszustand und/oder die räumlich veränderliche Fläche in dem Endzustand in einem 3D-Bild enthalten sind/ist.
10. Verfahren nach Anspruch 9, eingesetzt zu einer Projektion von 3D-Bildern einer SD- Bildsequenz, wobei für jedes 3D-Bild der 3D-Bildsequenz der Szenengraph ermittelt wird.
11. Verfahren nach Anspruch 10, eingesetzt im Rahmen eines Virtual Reality-Systems und/oder im Rahmen eines Visual Simulation Systems, wobei die SD- Bildern unter Verwendung des Virtual Reality-Systems und/oder des Visual Simulation Systems erzeugt werden.
12. Anordnung zur Ermittlung von aktuellen Projektionsdaten für eine Projektion einer räumlich veränderlichen Fläche, - mit einer ersten Recheneinheit, die derart eingerichtet ist, dass Veränderungsdaten ermittelbar sind, welche eine Änderung der räumlich veränderlichen Fläche von einem Aus- gangszustand in einen Endzustand beschreiben, und die Veränderungsdaten an eine zweite Recheneinheit und an eine dritte Recheneinheit übertragbar sind, welche jeweils mit der ersten Recheneinheit verbunden sind, - mit der zweiten Recheneinheit, die derart eingerichtet ist, dass unter Verwendung der Veränderungsdaten und ersten zuvor gespeicherten Projektionsdaten erste aktuelle Projektionsdaten für eine erste Projektion der räumlich veränderlichen Fläche ermittelbar sind, und - mit der dritten Recheneinheit, die derart eingerichtet ist, dass unter Verwendung der Veränderungsdaten und zweiten zuvor gespeicherten Projektionsdaten zweite aktuelle Projektionsdaten für eine zweite Projektion der räumlich veränderlichen Fläche ermittelbar sind.
13. Anordnung nach Anspruch 12, mit mehreren zweiten und/oder dritten Recheneinheiten, deren jede mit der ersten Recheneinheit verbunden ist.
14. Anordnung nach Anspruch 12 oder 13, bei der die erste Recheneinheit, die zweite Recheneinheit und die dritte Recheneinheit jeweils ein PC ist.
15. Anordnung nach einem der Ansprüche 12 bis 14,
- mit einer ersten Projektionseinheit, die mit der zweiten Recheneinheit verbunden ist und für die erste Projektion eingerichtet ist und
- mit einer zweiten Projektionseinheit, die mit der dritten Recheneinheit verbunden ist und für die zweite Projektion eingerichtet ist.
16. Anordnung nach einem der Ansprüche 12 bis 15, bei der die erste und die zweite Projektion synchronisiert sind.
EP01953144A 2000-07-17 2001-07-10 Verfahren und anordnung zur ermittlung von aktuellen projektionsdaten für eine projektion einer räumlich veränderlichen fläche Withdrawn EP1302080A2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10034697 2000-07-17
DE10034697 2000-07-17
PCT/DE2001/002574 WO2002007449A2 (de) 2000-07-17 2001-07-10 Verfahren und anordnung zur ermittlung von aktuellen projektionsdaten für eine projektion einer räumlich veränderlichen fläche

Publications (1)

Publication Number Publication Date
EP1302080A2 true EP1302080A2 (de) 2003-04-16

Family

ID=7649196

Family Applications (1)

Application Number Title Priority Date Filing Date
EP01953144A Withdrawn EP1302080A2 (de) 2000-07-17 2001-07-10 Verfahren und anordnung zur ermittlung von aktuellen projektionsdaten für eine projektion einer räumlich veränderlichen fläche

Country Status (9)

Country Link
US (1) US20020002587A1 (de)
EP (1) EP1302080A2 (de)
JP (1) JP2004504683A (de)
KR (1) KR20030019582A (de)
CN (1) CN1208974C (de)
AU (1) AU2001275662A1 (de)
NO (1) NO20030257L (de)
RU (1) RU2003104519A (de)
WO (1) WO2002007449A2 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI232560B (en) 2002-04-23 2005-05-11 Sanyo Electric Co Semiconductor device and its manufacture
KR100848001B1 (ko) * 2004-04-30 2008-07-23 (주)아모레퍼시픽 풍란 추출물을 함유하는 화장료 조성물
US7450129B2 (en) * 2005-04-29 2008-11-11 Nvidia Corporation Compression of streams of rendering commands
US20100253700A1 (en) * 2009-04-02 2010-10-07 Philippe Bergeron Real-Time 3-D Interactions Between Real And Virtual Environments
DE102012014174A1 (de) * 2012-07-16 2014-01-16 Rational Aktiengesellschaft Verfahren zur Anzeige von Parametern eines Garprozesses und Anzeigevorrichtung für ein Gargerät
EP3175614A4 (de) * 2014-07-31 2018-03-28 Hewlett-Packard Development Company, L.P. Virtuelle veränderungen an einem realen objekt

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4976438A (en) * 1989-03-14 1990-12-11 Namco Ltd. Multi-player type video game playing system
US5714997A (en) * 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
US5748189A (en) * 1995-09-19 1998-05-05 Sony Corp Method and apparatus for sharing input devices amongst plural independent graphic display devices
US6278418B1 (en) * 1995-12-29 2001-08-21 Kabushiki Kaisha Sega Enterprises Three-dimensional imaging system, game device, method for same and recording medium
JP2000023148A (ja) * 1998-07-02 2000-01-21 Seiko Epson Corp ネットワーク・プロジェクタ・システムにおける画像データの再生方法及びネットワーク・プロジェクタ・システム
US6249294B1 (en) * 1998-07-20 2001-06-19 Hewlett-Packard Company 3D graphics in a single logical sreen display using multiple computer systems
JP3417377B2 (ja) * 1999-04-30 2003-06-16 日本電気株式会社 三次元形状計測方法及び装置並びに記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO0207449A2 *

Also Published As

Publication number Publication date
NO20030257L (no) 2003-03-17
WO2002007449A2 (de) 2002-01-24
CN1443422A (zh) 2003-09-17
JP2004504683A (ja) 2004-02-12
NO20030257D0 (no) 2003-01-17
RU2003104519A (ru) 2004-06-10
KR20030019582A (ko) 2003-03-06
WO2002007449A3 (de) 2002-08-15
AU2001275662A1 (en) 2002-01-30
CN1208974C (zh) 2005-06-29
US20020002587A1 (en) 2002-01-03

Similar Documents

Publication Publication Date Title
DE69329372T2 (de) Verfahren und Vorrichtung zur Ferndatenduplexierung
DE60109434T2 (de) Systeme und verfahren zur erzeugung von visuellen darstellungen von graphischen daten
DE69805087T2 (de) Verfahren und system zur synchronisierten erfassung, verarbeitung und zuteilung von instrumentationsdaten und zur synchronisierten steuerung in einem client-server netzwerk
DE3382691T2 (de) Bildschirmverwaltungssystem.
DE69815392T2 (de) Systeme und verfahren zur synchronisierung von redundanten steuerungen mit minimaler steuerungsstörung
DE69433833T2 (de) Datenverarbeitungsgerät für Gleichung der Benutzerslast in einem Netz
DE60318771T2 (de) Verwaltung der Softwarekomponenten in einem Bildverarbeitungssystem
DE19810062C2 (de) Synchronisation einer links/rechts-Kanalanzeige und vertikale Auffrischung in stereoskopischen Mehranzeigencomputergraphiksystemen
WO2014195013A1 (de) Vorrichtung und verfahren zur berechnung von hologrammdaten
DE102007061435A1 (de) Verfahren zum Erfassen von GDI und DirectX Daten
EP0859987A2 (de) Computergestütztes arbeits- und informationssystem und zugehöriger baustein
EP1302080A2 (de) Verfahren und anordnung zur ermittlung von aktuellen projektionsdaten für eine projektion einer räumlich veränderlichen fläche
DE4326740C1 (de) Architektur für eine Rechenanlage
DE3689331T2 (de) Transformationsschaltung für Rasteroperationen.
DE112012005046B4 (de) Koordinieren von Schreiboperationsabfolgen in einem Datenspeichersystem
DE10253174A1 (de) Vorrichtung zur Entwicklung und/oder Konfiguration eines Automatisierungssystems
WO2013064189A1 (de) Migration einer virtuellen maschine
DE69315658T2 (de) Computerarbeitsstation
WO2017050997A1 (de) Verfahren, computerprogramm und system zur übermittlung von daten zur erzeugung eines interaktiven bilds
EP1710590A1 (de) Verfahren zum Testen und Testsystem für energietechnische Einrichtungen
WO2021052955A1 (de) System und verfahren zum bereitstellen einer digitalen nachbildung einer anlage und entsprechendes computerprogrammprodukt
DE102020003668A1 (de) Verfahren zum Anzeigen eines augmentierten Bildes
EP2515229A1 (de) Softwarewerkzeug für die Automatisierungstechnik
DE10125075B4 (de) Personal Immersion: PC-basiertes Echtzeitgraphiksystem für Virtual Reality Anwendungen
WO2009092126A1 (de) Interaktive multimedia-präsentationsvorrichtung

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20030109

AK Designated contracting states

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR

AX Request for extension of the european patent

Extension state: AL LT LV MK RO SI

RIN1 Information on inventor provided before grant (corrected)

Inventor name: WIEDEMANN, CLAUS-PETER

Inventor name: KECIK, AHMET, YALIN

Inventor name: RUGE, THOMAS

RIN1 Information on inventor provided before grant (corrected)

Inventor name: WIEDEMANN, CLAUS-PETER

Inventor name: KECIK, AHMET, YALIN

Inventor name: RUGE, THOMAS

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: MODVIZ, INC.

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20040202