VERFAHREN, VORRICHTUNG UND GERÄT ZUR ERFASSUNG VON BILDDATEN
Die Erfindung betrifft das Gebiet der „Virtual Reality" (VR, virtuelle Realität), insbesondere von kollaborativen VR-Einrichtungen. Sie betrifft im Speziellen ein Verfahren, eine Vorrichtung und ein Gerät zur Erfassung von Bilddaten eines Nutzers oder eines Objektes gemäss den Oberbegriffen der unabhängigen Ansprüche.
„Virtual Reality" (VR) betrifft im Prinzip die Wahrnehmung einer simulierten Umgebung durch einen Nutzer als seine Umgebung. Eine mögliche Zielsetzung ist dabei, mehrere örtlich voneinander getrennte Nutzer an einem virtuellen Zusammentreffen wechselwirken zu lassen. NR-Einrichtungen mit dieser Zielsetzung werden kollaborative VR-Einrichtungen genannt.
Zur Ermöglichung dieser Wechselwirkung bewegt sich jeder Nutzer in einer VR- Umgebung. Eine solche kann bspw. dadurch gebildet werden, dass an einer VR- Örtlichkeit ein Bild erzeugt wird, das eine vom Nutzer als seine Umgebung wahrgenommene Umgebung darstellt und das insbesondere eine Darstellung weiterer Nutzer enthält. Eine VR-Örtlichkeit kann ein Raum sein, an dessen Wänden Projektionsflächen oder Bildschirme angebracht sind, auf denen das Bild dargestellt wird. Alternativ dazu ergibt sich auch die Möglichkeit, dass ein unmittelbar vor den Augen angebrachtes Anzeigefeld („head-up display") das Bild darstellt. Es kann
bspw. noch in geeigneter Weise ein 3D-Sinneseindruck erzeugt werden. Zusätzlich sind zur Erzeugung einer NR-Umgebung häufig auch noch ein oder mehrere Lautsprecher zur Darstellung von Geräuschen vorhanden. Es können weiter noch Aktoren existieren, die andere Sinne ansprechen, bspw. den Tast- oder den Geruchssinn.
Zusätzlich zu diesen Vorrichtungen besitzt eine VR-Örtlichkeit einer kollaborativen VR-Einrichtung auch noch optische und eventuell weitere Aufnahmevorrichtungen, aufgrund derer für mindestens einen vom ersten Nutzer entfernten zweiten Nutzer ein den ersten Nutzer darstellendes VR-Objekt geschaffen werden kann. Als VR-Objekt wird hier die Summe aller Sinneseindrücke bezeichnet, die einem Nutzer in einer VR-Umgebung zur Darstellung eines Objektes beigebracht werden. Dabei ergibt sich aber das Problem, dass die Anforderungen an möglichst ideale Wiedergabebedingungen für den Nutzer als Subjekt und an optimale Aufnahmebedingungen für den Nutzer als Objekt teilweise diametral verschieden sind. Bspw. bei der Aufnahme von optischen Eigenschaften des Nutzers wie der Textur ist eine möglichst optimale Ausleuchtung mit idealerweise nicht farbverfälschendem, also weissem Licht notwendig. Dies widerspricht aber der Bedingung einer möglichst wirklichkeitsgetreuen und immersiven Wiedergabe, also eines „Eintauchens" des Nutzers in seine virtuelle Umgebung, in welcher bspw. bestimmte Farbtöne vorherrschen, und welche unter Umständen auch recht dunkel ist.
Der Erfindung liegt deshalb die Aufgabe zu Grunde, ein Verfahren, eine Vorrichtung und ein Gerät zur Verfügung zu stellen, welche die Akquisition von unverfälschten Primär-Bilddaten eines sich in einer VR-Umgebung bewegenden Nutzers erlauben, bei gleichzeitig optimalen Projektionsbedingungen.
Diese Aufgabe wird gelöst durch ein Verfahren, eine Vorrichtung und ein Gerät wie sie in den Ansprüchen definiert sind.
Die Erfindung zeichnet sich im Wesentlichen dadurch aus, dass die Wiedergabe von Daten an den Nutzer als Subjekt in einer ersten Umgebung erfolgt, die verschieden ist von der zweiten Umgebung, in der Bilddaten des Nutzers oder eines Objektes akquiriert werden. In der zweiten Umgebung, in der Bilddaten des Nutzers akquiriert werden, ist eine aktive Beleuchtung vorgesehen. Die Bereitstellung mindestens zweier verschiedener Umgebungen geschieht mittels einer Art Multiplexing, das bspw. eine selektive Abdunkelung des direkt oder indirekt von den Beleuchtungsmitteln ausgehenden Lichtes für den Nutzer bewirkt. Unter „Umgebung" wird in diesem Kontext nicht nur eine räumliche Umgebung verstanden, sondern ganz allgemein eine Summe von optischen, akustischen, etc., eventuell wahrnehmbaren Eigenschaften eines Umfeldes des Nutzers. „Licht" bzw. „Beleuchtung" umfasst im hier verwendeten Kontext auch den infraroten und ultravioletten Spektralbereich.
Während ein Multiplex-System zur Datenübertragung die simultane Übertragung mehrerer Signale über verschiedene, von ein und demselben physischen Nachrichtenweg gebildeten Kanäle ermöglicht, erlaubt das vorzugsweise zur Ausübung der Erfindung angewandte Multiplexing die simultane Aufnahme bzw. Wiedergabe von Bildinformationen in verschiedenen Umgebungen, die an ein und derselben Örtlichkeit gebildet werden.
Gemäss einer ersten bevorzugten Ausführungsform wird ein Zeit-Multiplexing verwendet. Es wird periodisch zwischen mindestens einer Wiedergabesequenz und mindestens einer Akquisitionssequenz gewechselt. Während der Akquisitionssequenz wird die Umgebung aktiv beleuchtet, wohingegen während der
Wiedergabesequenz keine aktive Beleuchtung im sichtbaren Spektrum erfolgt. Die Beleuchtung erfolgt also durch periodische Lichtpulse (d.h. quasi-stroboskopisch). Mittels geeigneter Hilfsmittel, bspw. mit einer Shutterbrille, wird die Sicht des Nutzers während der Akquisitionssequenz abgedunkelt. Die Umschaltung zwischen den Sequenzen erfolgt mit einer Taktfrequenz von bspw. 40 Hz oder 60 Hz und vorzugsweise zwischen 40 Hz und 100 Hz, so dass das Auge des Nutzers „überlistet" wird und er einzig das von den Wiedergabemitteln dargestellte, evtl. dreidimensionale Bild wahrnimmt.
Eine zweite bevorzugte Ausführungsform benutzt das Polarisations-Multiplexing. Die aktive Beleuchtung erfolgt polarisiert. Auch die Wiedergabe kann mittels polarisierter Lichtquellen erfolgen, wobei die Polarisation der Wiedergabe orthogonal ist zu derjenigen der aktiven Beleuchtung. Im Sichtfeld des Nutzers angebrachte Polarisationsfilter, also bspw. eine polarisationsselektive Brille, filtern dann das Licht mit der Polarisation der aktiven Beleuchtung mindestens teilweise weg.
Eine dritte Ausführungsform betrifft das Wellenlängen- oder Wellenlängenbereich- multiplexing. Die Beleuchtung und die Datenakquisition können dazu im nicht sichtbaren spektralen Bereich erfolgen, bspw. im Infrarotbereich, während die Wiedergabe mittels sichtbaren Lichts erfolgt.
Dadurch, dass die Wiedergabe von Daten an den Nutzer als Subjekt in einer anderen Umgebung erfolgt als die Akquisition von Bilddaten des Nutzers, ergibt sich eine Reihe von Vorteilen. Die Datenaufnahme findet in einer von der VR-Umgebung (in der der Nutzer ein wahrnehmendes Subjekt ist) verschiedenen Umgebung statt, nämlich bspw. in einem hell und weiss erleuchteten Raum, in dem der Nutzer als Objekt fungiert. Dadurch können systematische Fehler bei der Aufnahme der Textur
bei Beleuchtung durch Wiedergabemittel wie Projektoren, Bildschirme etc. vermieden werden. Das von den Wiedergabemitteln ausgehende Licht weist nämlich immer einen, LA. noch ortsabhängigen, Farbstich auf, da diese ja primär ein Bild erzeugen.
Im Folgenden sollen Ausführungsbeispiele für das Verfahren, die Vorrichtung und das Gerät anhand von Zeichnungen im Detail beschrieben werden. In den Zeichnungen zeigen:
- die Figur 1 eine schematische VR-Örtlichkeit mit einem Nutzer, für welchen eine VR-Umgebung dargestellt wird und von welchem Primär-Bilddaten aufgenommen werden,
die Figuren 2a bis 2e je ein Diagramm der Takte für die Brillengläser einer Shutterbrille gemäss dem Stand der Technik und gemäss der Erfindung sowie eines dritten Taktes,
- die Figur 3 ein Blockschaltbild einer Schaltungsergänzung zur Erzeugung des dritten Taktes,
die Figur 4 ein Schaltschema der Schaltungsergänzung gemäss Figur 3.
Die Figur 1 zeigt ein Beispiel für eine Vorrichtung zur Darstellung von als VR- Umgebung wahrgenommenen Bildern an einen Nutzer und zur gleichzeitigen Erfassung von Bilddaten über den Nutzer, also einer VR-Örtlichkeit 1. In der VR- Örtlichkeit 1 befindet sich ein Nutzer 3. Die VR-Örtlichkeit 1 besitzt mindestens eine
Kamera und vorzugsweise eine Vielzahl von Kameras 10, die so verteilt sind, dass von ihnen möglichst viele verschiedene Blickwinkel abgedeckt werden. Im gezeichneten Beispiel ist die VR-Örtlichkeit 1 so ausgebildet, dass ihre Wand die Form eines vertikal stehenden Zylinders hat. Die Kameras sind dann auf einer Höhe von bspw. zwischen einem und zwei Metern um den Umfang herum verteilt. Weiter besitzt die VR-Örtlichkeit 1 mindestens einen und bspw. zwei Projektoren, mit dem eine VR-Umgebung an die Wand projiziert werden kann. Dabei kann vorgesehen sein, dass die drei Farben rot, grün und blau aus getrennten Quellen 21, 22 bzw. 23 projiziert werden. Alternativ zu den Projektoren 20 können auch Bildschirme als Wiedergabemittel vorhanden sein. Weiter besitzt die VR-Örtlichkeit 1 noch Beleuchtungsmittel 40 zur aktiven Beleuchtung und Datenverarbeitungsmittel 50. Ausserdem besteht eine Synchronisations- und/oder Kommunikationsverbindung 60 zwischen den Datenverarbeitungsmitteln 50 einerseits und in der VR-Örtlichkeit befindlichen Geräten wie Kameras 10, Projektoren 20, etc. andererseits.
Ein erstes Ausführungsbeispiel bedient sich des Zeit-Multiplexing. Nachfolgend werden die in der VR-Örtlichkeit 1 ablaufenden Schritte kurz beschrieben. Der Nutzer 3 trägt noch eine Shutterbrille 5, die es erlaubt, die sich jedem Auge bietende Sicht individuell abzublocken, d.h. jedes der Brillengläser 6, 7 individuell auf dunkel zu schalten. Eine solche Shutterbrille kann bspw. Brillengläser 6, 7 mit Flüssigkristallen (LCs) aufweisen. Solche Brillengläser 6, 7 können durch Anlegen einer Spannung an Elektroden lichtundurchlässig oder lichtdurchlässig gemacht werden. Die Synchronisations- und/oder Kommunikationsverbindung 60 erlaubt eine Steuerung des Schaltvorganges der Brille 5 durch die Datenverarbeitungsmittel 50. Eine entsprechende Kommunikationsverbindung kann bspw. realisiert werden, indem von mindestens einem im Innern der Örtlichkeit 1 installierten, von den Datenverarbeitungsmitteln 50 getakteten Sender ein Infrarot- oder anders geartetes Signal ausgesandt und von einem Sensor an der Brille empfangen werden kann. Die Datenaufnahme und -wiedergäbe erfolgt nun in bspw. drei Sequenzen:
1. Sequenz (erste Wiedergabesequenz): Projektion der VR-Umgebung für das rechte Auge. Die Projektoren 20 projizieren die VR-Umgebung, wie sie sich dem rechten Auge darbietet, an die Wand. Dabei ist das linke Shutterbrillenglas 6 auf dunkel geschaltet.
2. Sequenz (zweite Wiedergabesequenz): Projektion der VR-Umgebung für das linke Auge, das rechte Brillenglas 7 ist auf dunkel geschaltet. Durch Abweichungen zwischen den sich dem linken und dem rechten Auge bietenden Bildern kann in bekannter Weise ein 3D-Sinneseindruck erzeugt werden.
3. Sequenz (Akquisitionssequenz): Während bspw. beide Brillengläser 6, 7 auf dunkel geschaltet sind wird die VR-Örtlichkeit 1 durch einen Stroboskop-Lichtblitz aktiv beleuchtet. Die evtl. durch die Datenverarbeitungsmittel 50 mit dem Stroboskop-Licht sychronisierten Kameras 10 nehmen Primär-Bildinformationen über den Nutzer 3 auf. Gleichzeitig können unter Umständen in einer Umgebung des Objektes aus unterschiedlichen Richtungen mehrere Silhouetten des Objektes extrahiert werden. Der Hintergrund wird dazu evtl. mit weiteren, bspw. im Infrarot arbeitenden Lichtquellen ausgeleuchtet. Aus einer Aufnahme von Objekt und Hintergrund wird dann die Silhouette extrahiert, wobei je nach dem eine Wellenlängeninformation des erfassten Lichtes verwendet wird.
Anstelle von drei Sequenzen können auch zwei, vier oder mehr Sequenzen vorgesehen sein. Wenn auf einen 3D-Effekt verzichtet werden kann, können zwei Sequenzen ausreichend sein. Es ist dann lediglich eine Wiedergabesequenz und eine Akquisitionssequenz vorgesehen. Mehr als drei Sequenzen sind bspw. dann sinnvoll, wenn mehr als ein Akquisitionsschritt vollzogen wird. So kann bspw. eine Ermittlung von Silhouetten während einer ersten Akquisitionssequenz erfolgen. Aus Silhouetten kann eine geometrische Information bestimmt werden. Während dieser
ersten Akquisitionsphase ist die Örtlichkeit 1 bspw. mit gerichteter Strahlung im Infrarotbereich oder in einem sichtbaren Spektralbereich ausgeleuchtet. Während einer zweiten Akquisitionssequenz werden dann Texturinformationen über den Nutzer mittels konventioneller Kameras gewonnen, wobei die Örtlichkeit 1 mit Weisslicht beleuchtet wird. Natürlich besteht auch die Möglichkeit einer Wahl von zwei Akquisitionssequenzen und nur einer Wiedergabesequenz oder von einer beliebigen anderen Anzahl Akquisitionssequenzen und Wiedergabesequenzen.
Als Lichtquellen zur aktiven Beleuchtung während der Akquisitionssequenz bzw. während derjenigen Akquisitionssequenz, während der die Texturinformation gewonnen wird, kommen verschiedene Beleuchtungsmittel in Frage. Eine Möglichkeit bilden konventionelle Blitzlichtquellen. Die Beleuchtungsintensität in Funktion der Zeit hat bei solchen eine sehr steile Anstiegscharakteristik, eine hohe Intensität und einen ebenfalls steilen Abfall. Die Beleuchtungszeit ist in diesem Fall klein im Vergleich zur gesamten Dauer der Sequenz. Alternativ dazu können Leuchtdioden verwendet werden, die ebenfalls steile Anstiegs- und Abfallcharakteristiken aufweisen können, die aber i.A. eine weniger hohe Intensität aufweisen. Leuchtdioden können aber bspw. während der ganzen Dauer der Akquisitionssequenz Licht aussenden.
Im Folgenden wird noch eine Ausführungsform eines Gerätes zur Transformation eines getakteten Steuersignales für eine konventionelle Shutterbrille als elektrisches Eingangssignal in mindestens ein getaktetes elektrisches Ausgangssignal als Synchronisations- und/oder Ansteuerungssignal für eine Shutterbrille zur Ausführung des Verfahrens mit Zeit-Multiplexing beschrieben. Damit wird auch eine mögliche Implementation des ersten Ausführungsbeispiels der Erfindung näher erläutert, ohne dass damit die Erfindung oder das Ausführungsbeispiel der Erfindung auf diese Implementation eingeschränkt werden soll.
Ausgehend vom Ansteuersignal einer herkömmlichen, kommerziell erhältlichen Shutterbrille zur Erzeugung eines 3D-Sinneseindruckes wird durch das Gerät ein Signal erzeugt, welches sowohl die Erzeugung eines 3D-Sinneseindrucks als auch die Einführung einer Akquisitionssequenz erlaubt. Wie bei herkömmlichen Einrichtungen zur Erzeugung eines 3D-Sinneseindrucks werden jeweils das rechte und das linke Brillenglas synchron zur Projektion der Halbbilder für das linke bzw. das rechte Auge abgedunkelt. Für das Auge ist es wichtig, dass die Dunkelphasen der beiden Brillengläser gleich lange dauern und symmetrisch eingefügt sind. Wie das in den Figuren 2a und 2b dargestellt ist, wird das gemäss dem Stand der Technik durch ein Zwei-Takt-Signal realisiert. Dies geschieht so, dass die Abdunkelung der beiden Gläser jeweils komplementär während gleich langen Zeitabschnitten erfolgt, d.h. es ist im Wesentlichen immer ein Glas abgedunkelt, das andere lichtdurchlässig. Das Zeitintervall, während dem das linke Brillenglas abgedunkelt und das rechte Glas lichtdurchlässig ist oder umgekehrt, beträgt bspw. 8,33 ms (entsprechend einer Bildwiederholfrequenz von 60 Hz).
Eine Shutterbrille gemäss dem hier beschriebenen ersten Ausführungsbeispiel der Erfindung wird nun mit einem zusätzlichen dritten Takt mit einer Dunkelphase versehen, während dem beide Gläser abgedunkelt sind (Fig. 2c). Dieser dritte Takt ist synchronisiert mit den ersten beiden Takten (vgl. Fig. 2a, 2b). Er wird bspw. dadurch erzeugt, dass sowohl die Abdunkelungsphase für das rechte Brillenglas als auch diejenige für das linke Brillenglas vergrössert wird (Fig. 2d, 2e), so dass sich die Abdunkelungsphasen überlappen. Die Dauer der Überlappung entspricht dann der Dauer der Dunkelphase, also der dritten Sequenz. Wie aus den Figuren ersichtlich ist, kann die Dauer des dritten Taktes unabhängig von der Dauer des ersten und des zweiten Taktes gewählt werden und ist bspw. kürzer. Aus den Figuren 2a bis 2e ist auch noch ersichtlich, dass die rechte und die linke Abdunkelungsphase vorzugsweise um jeweils eine gleich grosse Zeitspanne vergrössert werden.
Wenn bspw. noch eine vierte Sequenz eingefügt werden soll, dann kann dies bspw. in den Figuren 2a bis 2e am Schluss der Abdunkelungsphase des rechten Brillenglases geschehen.
Die Figuren 3 und 4 zeigen ein Blockschaltbild bzw. ein Schema einer Schaltungsergänzung zur Erzeugung des dritten Taktes, wobei als Eingangssignal (in den Figuren von links) das bipolare Steuersignal für ein Brillenglas einer kommerziellen LCD-Shutterbrille gemäss dem Stand der Technik dient. In einem ersten Schritt wird das Signal durch einen Gleichrichter 101 gleichgerichtet. Das gleichgerichtete Signal wird anschliessend dazu verwendet, den dritten Takt zu erzeugen. Zur Festlegung der Dauer des dritten Taktes wird das Signal auf ein Zeitglied 103 geleitet, welches bspw. eine Kapazität 103a sowie ein Potentiometer 103b aufweist und ein Flipflop 103c ansteuert. Durch verstärkende, integrierende und/oder differenzierende elektronische Elemente, sowie durch logische Verknüpfungen 105 wird ein Signal erzeugt, welches bspw. dem in der Fig. 2c dargestellten dritten Takt entspricht (Punkt D in der Figur 4). In einem weiteren Schritt erfolgt eine Verknüpfung 107 des Signals mit dem gleichgerichteten Signal für das rechte bzw. für das linke Auge durch ODER-Gatter 107a, 107b. Die Signale an den Punkten E und F entsprechen den in den Figuren 2d und 2e gezeigten Signalen. Schliesslich werden die Signale für jedes Brillenglas noch in bipolare- Signale 109, 111 umgewandelt und verstärkt. Als Ausgangssignal für das linke Brillenglas wird in der Figur 4 die Differenz zwischen den Spannungen an den Punkten G und H verwendet.
Optional kann noch ein in den Figuren 3 und 4 ebenfalls dargestellter Zähler 113 vorhanden sein, mit dem eine Frequenzteilung bewirkt werden kann. Der Zähler 113 besitzt einen Schalter zum Einstellen einer Frequenzteilzahl n. Er zählt bei jedem Eingangssignal-Puls einen Schritt weiter, erst beim Erreichen der Frequenzteilzahl n wird der dritte Takt über ein nachgeschaltetes UND-Gatter freigeschaltet und der
Zähler auf Null zurückgesetzt. Die in den Figuren 2c bis 2e dargestellten Signale werden durch eine Schaltung ohne Zähler oder mit Frequenzteilzahl-Einstellung n-\ bewirkt. Alternativ zur oben beschriebenen Schaltung kann bei gleicher Funktion auch ein MikroController eingesetzt werden.
Die Ansteuerung der Beleuchtungsmittel 40 erfolgt bspw. auch durch eines der vorstehend beschriebenen Geräte. Die Beleuchtungsmittel 40 werden bspw. durch den dritten Takt (Fig. 2c) getriggert bzw. gespiesen. Sie können eine Kapazität aufweisen, deren Entladung über als Blitzlichtquelle ausgebildete Beleuchtungsmittel 40 von der positiven Flanke des dritten Taktes ausgelöst wird. Die Beleuchtungsmittel 40 können aber auch Leuchtdioden sein, die durch den durch Verstärkungsmittel verstärkten dritten Takt direkt gespiesen werden.
Ein zweites Ausführungsbeispiel betrifft das Polarisations-Multiplexing. Aufnahme und Wiedergabe der Daten erfolgen simultan und mindestens teilweise im sichtbaren Bereich. Das von den aktiven Beleuchtungsmitteln 40 ausgehende Licht ist polarisiert. Das von den Wiedergabemitteln 20 ausgehende Licht weist vorzugsweise eine darauf orthogonale Polarisation auf, es kann aber auch unpolarisiert sein. Die aktive Beleuchtung erfolgt ununterbrochen oder getaktet. Der Nutzer trägt eine Brille, die Licht mit der Polarisation der Beleuchtungsmittel bevorzugt wegfiltert. Auf diese Weise können die Lichtquelle 40 und teilweise auch von dieser verursachte Reflexionen für den Nutzer abgedunkelt werden. Zusätzlich können auch die Kameras 10 mit Polarisationsfiltern versehen sein, die die Polarisation der aktiven Beleuchtung durchlassen und die Polarisation der Wiedergabemittel 20 mindestens teilweise wegfiltern. So beschränkt sich bei der Aufnahme die Datenakquisition auf die physisch anwesenden Objekte. Möglicherweise störende, durch die VR-Umgebung bewirkte Hintergrundbilder sind weggefiltert. Die Brille 5 kann selbstverständlich auch noch zusätzlich Mittel zum abwechslungsweisen
vollständigen Abdunkeln der Gläser aufweisen, um einen 3D-Sinneseindruck zu ermöglichen.
Ein drittes Ausführungsbeispiel benutzt das Wellenlängen-Multiplexing bzw. Wellenlängenbereich-Multipiexing. Dazu erfolgen bspw. die aktive Beleuchtung und die Datenakquisition im Infrarot-Bereich. Die Beleuchtungsmittel 40 sind dann bspw. Infrarotstrahlung emittierende Leuchtdioden, die Kameras 10 Infrarotkameras. Bei der Verarbeitung der akquirierten Bilddaten zu an eine andere VR-Örtlichkeit zu übermittelnden Sekundärdaten und/oder bei der Verarbeitung der Daten zu einem VR-Objekt an einer anderen VR-Örtlichkeit muss dann noch eine Texturinformation beigefügt werden. Eine solche kann bspw. gewonnen werden, indem das Zeitmultiplexing- Verfahren gemäss dem ersten Ausführungsbeispiel mit dem Wellenlängenbereich-Multiplexing kombiniert wird. Das Wellenlängenbereich- Multiplexing, also die Akquisition von Infrarot-Bilddaten erfolgt dann während der Wiedergabesequenzen und/oder eventuell auch während der Akquisitionssequenzen. So ergibt sich eine Alternative zur vorstehend bereits erwähnten Möglichkeit, beim Verfahren gemäss Ausführungsbeispiel 1 extra eine weitere Sequenz für die Akquisition der Bilddaten hinzuzufügen. Eine Möglichkeit besteht schliesslich noch darin, dass Texturinformationen gar nicht laufend gewonnen werden, sondern nichtflüchtig in einer Eigenschaften-Bibliothek gespeichert sind. Diese Informationen werden dann im Rahmen der Erzeugung eines VR-Objekts aus den (Infrarot-) Bildprimärdaten diesen zugeordnet. Dazu wird eine Kontextinformation ermittelt (bspw. ein grünes Kleidungsstück wird als Solches erkannt).
Abschliessend sei noch erwähnt, dass die vorstehend beschriebenen Ausführungsbeispiele natürlich keineswegs die einzig möglichen Implementationen der Erfindung darstellen. Insbesondere sind auch andere Kombinationen von Verfahrensschritten denkbar, als vorstehend erwähnt wurden.