WO2002008879A2 - Verfahren, vorrichtung und gerät zur erfassung von bilddaten - Google Patents

Verfahren, vorrichtung und gerät zur erfassung von bilddaten Download PDF

Info

Publication number
WO2002008879A2
WO2002008879A2 PCT/CH2001/000383 CH0100383W WO0208879A2 WO 2002008879 A2 WO2002008879 A2 WO 2002008879A2 CH 0100383 W CH0100383 W CH 0100383W WO 0208879 A2 WO0208879 A2 WO 0208879A2
Authority
WO
WIPO (PCT)
Prior art keywords
user
environment
image data
polarization
multiplexing
Prior art date
Application number
PCT/CH2001/000383
Other languages
English (en)
French (fr)
Inventor
Andreas Kunz
Stephan Müller
Christian Spagno
Original Assignee
Eidgenössische Technische Hochschule Zürich, Zentrum Für Produkte-Entwicklung
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eidgenössische Technische Hochschule Zürich, Zentrum Für Produkte-Entwicklung filed Critical Eidgenössische Technische Hochschule Zürich, Zentrum Für Produkte-Entwicklung
Priority to AU2001263710A priority Critical patent/AU2001263710A1/en
Publication of WO2002008879A2 publication Critical patent/WO2002008879A2/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing

Definitions

  • the invention relates to the field of "virtual reality” (VR, in particular collaborative VR devices). It relates in particular to a method, a device and a device for capturing image data of a user or an object in accordance with the preambles of the independent Expectations.
  • VR virtual reality
  • VR Virtual Reality
  • One possible goal is to allow several spatially separated users to interact at a virtual meeting.
  • NR institutions with this goal become collaborative VR Facilities called.
  • Every user moves in a VR environment.
  • a VR environment can be formed, for example, by generating an image at a VR location, which represents an environment perceived by the user as his surroundings and which in particular contains a representation of other users.
  • a VR location can be a room with projection screens or screens on which the image is displayed.
  • a display field directly in front of the eyes represents the image. It can For example, a 3D sensory impression can still be generated in a suitable manner.
  • one or more loudspeakers for displaying noises are often also present to create an NR environment.
  • a VR location of a collaborative VR device also has optical and possibly further recording devices, on the basis of which a VR object representing the first user can be created for at least one second user remote from the first user.
  • the VR object here is the sum of all sensory impressions that a user is taught in a VR environment to represent an object.
  • the problem arises, however, that the requirements for ideally possible reproduction conditions for the user as a subject and for optimal recording conditions for the user as an object are sometimes diametrically different. For example.
  • the best possible illumination with ideally not color-distorting, that is, white light is necessary.
  • this contradicts the condition of a realistic and immersive reproduction that is to say, that the user is “immersed” in his virtual environment, in which, for example, certain color tones predominate and which may also be quite dark.
  • the invention is therefore based on the object of providing a method, a device and a device which allow the acquisition of unadulterated primary image data of a user moving in a VR environment, with optimal projection conditions at the same time.
  • This object is achieved by a method, a device and a device as defined in the claims.
  • the invention is essentially characterized in that the reproduction of data to the user as a subject takes place in a first environment, which is different from the second environment in which image data of the user or of an object are acquired. Active lighting is provided in the second environment, in which image data of the user is acquired. At least two different environments are made available by means of a type of multiplexing, which, for example, selectively darkens the light emanating directly or indirectly from the lighting means for the user.
  • “environment” is not only understood to mean a spatial environment, but quite generally a sum of optical, acoustic, etc., possibly perceptible properties of an environment of the user.
  • Light” or “lighting” also includes in the context used here the infrared and ultraviolet spectral range.
  • the multiplexing preferably used for practicing the invention allows the simultaneous recording or reproduction of image information in different environments that are connected to one and the other the same location.
  • time multiplexing is used.
  • the environment is actively illuminated during the acquisition sequence, whereas during the Playback sequence there is no active lighting in the visible spectrum.
  • the lighting is therefore carried out by periodic light pulses (ie quasi-stroboscopic).
  • the user's view is darkened during the acquisition sequence by means of suitable aids, for example with shutter glasses.
  • the switching between the sequences is carried out at a clock frequency of, for example, 40 Hz or 60 Hz and preferably between 40 Hz and 100 Hz, so that the user's eye is "outwitted" and he only perceives the possibly three-dimensional image represented by the playback means ,
  • a second preferred embodiment uses polarization multiplexing.
  • the active lighting is polarized.
  • the reproduction can also take place by means of polarized light sources, the polarization of the reproduction being orthogonal to that of the active lighting.
  • a third embodiment relates to wavelength or wavelength range multiplexing.
  • the lighting and the data acquisition can take place in the non-visible spectral range, for example in the infrared range, while the reproduction is carried out by means of visible light.
  • the fact that the reproduction of data to the user as a subject takes place in a different environment than the acquisition of image data of the user results in a number of advantages.
  • the data acquisition takes place in a different environment from the VR environment (in which the user is a perceiving subject), namely, for example, in a bright and white-lit room in which the user acts as an object. This can cause systematic errors in the absorption of the texture in the case of lighting by means of reproduction such as projectors, screens etc. should be avoided.
  • the light emitted by the reproducing means always has one, LA. location-dependent, color cast, since these primarily create an image.
  • FIG. 1 shows a schematic VR location with a user, for whom a VR environment is represented and from which primary image data are recorded,
  • FIGS. 2a to 2e each show a diagram of the cycles for the spectacle lenses of a shutter glasses according to the prior art and according to the invention and a third cycle
  • FIG. 3 shows a block diagram of a circuit supplement for generating the third clock
  • FIG. 4 shows a circuit diagram of the circuit supplement according to FIG. 3.
  • FIG. 1 shows an example of a device for displaying images perceived as a VR environment to a user and for simultaneously capturing image data about the user, that is to say a VR location 1.
  • a user 3 is located in the VR location 1.
  • VR location 1 has at least one Camera and preferably a plurality of cameras 10, which are distributed such that they cover as many different viewing angles as possible.
  • the VR location 1 is designed so that its wall has the shape of a vertical cylinder. The cameras are then distributed around the circumference at a height of, for example, between one and two meters.
  • the VR location 1 has at least one and, for example, two projectors with which a VR environment can be projected onto the wall. It can be provided that the three colors red, green and blue are projected from separate sources 21, 22 and 23, respectively.
  • the VR location 1 also has lighting means 40 for active lighting and data processing means 50.
  • a first embodiment uses time multiplexing.
  • the steps in VR location 1 are briefly described below.
  • the user 3 also wears shutter glasses 5, which make it possible to block the view available to each eye individually, ie to switch each of the glasses 6, 7 individually to dark.
  • Such shutter glasses can have glasses 6, 7 with liquid crystals (LCs), for example.
  • Such glasses 6, 7 can be made opaque or translucent by applying a voltage to electrodes.
  • the synchronization and / or communication connection 60 allows the switching process of the glasses 5 to be controlled by the data processing means 50.
  • a corresponding communication connection can be implemented, for example, by an infrared sensor being installed by at least one transmitter in the interior of the location 1 and clocked by the data processing means 50. or some other type of signal and can be received by a sensor on the glasses.
  • Sequence first playback sequence: projection of the VR environment for the right eye.
  • the projectors 20 project the VR environment, as presented to the right eye, onto the wall.
  • the left shutter lens 6 is switched to dark.
  • Sequence (second playback sequence): projection of the VR environment for the left eye, the right lens 7 is switched to dark. Deviations between the images presented to the left and right eyes can produce a 3D sensation in a known manner.
  • Sequence While, for example, both glasses 6, 7 are switched to dark, the VR location 1 is actively illuminated by a strobe light flash.
  • several silhouettes of the object can be extracted from different directions in an environment of the object.
  • the background may be illuminated with further light sources, for example those working in the infrared. The silhouette is then extracted from a picture of the object and the background, depending on which a wavelength information of the detected light is used.
  • two, four or more sequences can also be provided. If a 3D effect can be dispensed with, two sequences may be sufficient. Then only a playback sequence and an acquisition sequence are provided. More than three sequences make sense, for example, if more than one acquisition step is carried out.
  • silhouettes can be determined during a first acquisition sequence. Geometric information can be determined from silhouettes.
  • the location 1 is illuminated, for example, with directed radiation in the infrared range or in a visible spectral range.
  • texture information about the user is then obtained using conventional cameras, the location 1 being illuminated with white light.
  • Various lighting means come into question as light sources for active lighting during the acquisition sequence or during the acquisition sequence during which the texture information is obtained.
  • Conventional flash sources are one possibility.
  • the illumination intensity as a function of time has a very steep increase characteristic, a high intensity and a likewise steep decrease in such.
  • the lighting time in this case is small compared to the total duration of the sequence.
  • light-emitting diodes can be used, which can also have steep rise and fall characteristics, but which generally have a lower intensity.
  • LEDs can, for example, emit light during the entire duration of the acquisition sequence.
  • An embodiment of a device for transforming a clocked control signal for conventional shutter glasses as an electrical input signal into at least one clocked electrical output signal as a synchronization and / or control signal for a shutter glasses for executing the method with time multiplexing is described below.
  • a possible implementation of the first exemplary embodiment of the invention is thus also explained in more detail without the invention or the exemplary embodiment of the invention being restricted to this implementation.
  • the device Starting from the control signal of a conventional, commercially available shutter glasses for generating a 3D sensory impression, the device generates a signal which allows both the generation of a 3D sensory impression and the introduction of an acquisition sequence.
  • the right and left spectacle lenses are darkened in synchronism with the projection of the fields for the left and right eyes, respectively. It is important for the eye that the dark phases of the two glasses last the same length and are inserted symmetrically. As shown in FIGS. 2a and 2b, this is implemented according to the prior art by a two-stroke signal. This is done in such a way that the darkening of the two glasses is complementary for periods of the same length, ie essentially one glass is always darkened, the other is translucent. The time interval during which the left lens is darkened and the right lens is translucent or vice versa is 8.33 ms (corresponding to a refresh rate of 60 Hz).
  • a pair of shutter glasses according to the first exemplary embodiment of the invention described here is now provided with an additional third cycle with a dark phase during which both glasses are darkened (FIG. 2c).
  • This third cycle is synchronized with the first two cycles (see FIGS. 2a, 2b). It is generated, for example, by enlarging both the darkening phase for the right spectacle lens and that for the left spectacle lens (FIGS. 2d, 2e), so that the darkening phases overlap.
  • the duration of the overlap then corresponds to the duration of the dark phase, that is to say the third sequence.
  • the duration of the third measure can be selected independently of the duration of the first and second measure and is, for example, shorter. It can also be seen from FIGS.
  • the right and left darkening phases are preferably increased by an equally large amount of time. If, for example, a fourth sequence is to be inserted, this can be done, for example, in FIGS. 2a to 2e at the end of the darkening phase of the right spectacle lens.
  • FIGS. 3 and 4 show a block diagram or a diagram of a circuit supplement for generating the third clock, the bipolar control signal for a spectacle lens of a commercial LCD shutter glasses according to the prior art being used as the input signal (from the left in the figures).
  • the signal is rectified by a rectifier 101.
  • the rectified signal is then used to generate the third clock.
  • the signal is passed to a timing element 103, which has, for example, a capacitance 103a and a potentiometer 103b and controls a flip-flop 103c.
  • a signal is generated by amplifying, integrating and / or differentiating electronic elements, as well as by logic operations 105, which corresponds, for example, to the third cycle shown in FIG. 2c (point D in FIG. 4).
  • the signal 107 is combined with the rectified signal for the right or for the left eye by OR gates 107a, 107b.
  • the signals at points E and F correspond to the signals shown in FIGS. 2d and 2e.
  • the signals for each lens are converted into bipolar signals 109, 111 and amplified.
  • the output signal for the left lens in FIG. 4 is the difference between the voltages at points G and H.
  • a counter 113 can also be present, by means of which frequency division can be effected.
  • the counter 113 has a switch for setting a frequency sub-number n. It counts one step further for each input signal pulse; only when the frequency sub-number n is reached is the third clock enabled via a downstream AND gate and the Counter reset to zero.
  • the signals shown in Figures 2c to 2e are effected by a circuit without a counter or with frequency part number setting n- ⁇ .
  • a microcontroller can also be used for the same function.
  • the lighting means 40 are also controlled, for example, by one of the devices described above.
  • the lighting means 40 are triggered or fed, for example, by the third cycle (FIG. 2c). They can have a capacity, the discharge of which is triggered by lighting means 40 designed as a flashing light source from the positive flank of the third cycle.
  • the lighting means 40 can, however, also be light-emitting diodes, which are fed directly by the third cycle, which is amplified by amplifying means.
  • a second embodiment relates to polarization multiplexing.
  • the data are recorded and played back simultaneously and at least partially in the visible range.
  • the light emanating from the active lighting means 40 is polarized.
  • the light emanating from the reproducing means 20 preferably has a polarization orthogonal thereon, but it can also be non-polarized.
  • the active lighting is continuous or clocked.
  • the user wears glasses that preferentially filter light away with the polarization of the lighting means. In this way, the light source 40 and in part also reflections caused by it can be darkened for the user.
  • the cameras 10 can also be provided with polarization filters which allow the polarization of the active lighting to pass through and at least partially filter out the polarization of the display means 20.
  • the glasses 5 can of course also have additional means of alternation Completely darken the glasses to allow a 3D sensation.
  • a third embodiment uses wavelength multiplexing or wavelength range multipiexing.
  • active lighting and data acquisition take place in the infrared range.
  • the lighting means 40 are then, for example, infrared radiation-emitting light-emitting diodes, and the cameras 10 are infrared cameras.
  • Texture information must then be added when processing the acquired image data for secondary data to be transmitted to another VR location and / or when processing the data into a VR object at another VR location. Such can be obtained, for example, by combining the time division multiplexing method according to the first exemplary embodiment with the wavelength range multiplexing.
  • the wavelength range multiplexing that is to say the acquisition of infrared image data, then takes place during the playback sequences and / or possibly also during the acquisition sequences.
  • texture information is not continuously obtained, but is stored in a non-volatile manner in a property library. This information is then assigned to it during the generation of a VR object from the (infrared) image primary data. For this purpose, context information is determined (for example, a green item of clothing is recognized as such).

Abstract

Beim Verfahren zur Erfassung von Bilddaten eines Nutzers werden gleichzeitig Bilder dargestellt, welche vom Nutzer als Teil seiner Umgebung wahrgenommen werden. Durch Multiplexing wird zusätzlich zur vom Nutzer wahrgenommenen ersten Umgebung eine zweite Umgebung des Nutzers bereitgestellt, in welcher der Nutzer aktiv beleuchtet wird. Die Erfassung der Bilddaten erfolgt mindestens teilweise in dieser Umgebung des Nutzers. Das Multiplexing kann bspw. ein Zeimultiplexing sein, d.h. mindestens eine Akquisitionssequenz und mindestens eine Wiedergabesequenz lösen sich periodisch mit einer Taktfrequenz ab. Während der Akquisitionssequenz erfolgt die Akquisition von Bilddaten, wobei auch eine aktive Beleuchtung erfolgt und wobei die Sicht des Nutzers abgedunkelt ist.

Description

VERFAHREN, VORRICHTUNG UND GERÄT ZUR ERFASSUNG VON BILDDATEN
Die Erfindung betrifft das Gebiet der „Virtual Reality" (VR, virtuelle Realität), insbesondere von kollaborativen VR-Einrichtungen. Sie betrifft im Speziellen ein Verfahren, eine Vorrichtung und ein Gerät zur Erfassung von Bilddaten eines Nutzers oder eines Objektes gemäss den Oberbegriffen der unabhängigen Ansprüche.
„Virtual Reality" (VR) betrifft im Prinzip die Wahrnehmung einer simulierten Umgebung durch einen Nutzer als seine Umgebung. Eine mögliche Zielsetzung ist dabei, mehrere örtlich voneinander getrennte Nutzer an einem virtuellen Zusammentreffen wechselwirken zu lassen. NR-Einrichtungen mit dieser Zielsetzung werden kollaborative VR-Einrichtungen genannt.
Zur Ermöglichung dieser Wechselwirkung bewegt sich jeder Nutzer in einer VR- Umgebung. Eine solche kann bspw. dadurch gebildet werden, dass an einer VR- Örtlichkeit ein Bild erzeugt wird, das eine vom Nutzer als seine Umgebung wahrgenommene Umgebung darstellt und das insbesondere eine Darstellung weiterer Nutzer enthält. Eine VR-Örtlichkeit kann ein Raum sein, an dessen Wänden Projektionsflächen oder Bildschirme angebracht sind, auf denen das Bild dargestellt wird. Alternativ dazu ergibt sich auch die Möglichkeit, dass ein unmittelbar vor den Augen angebrachtes Anzeigefeld („head-up display") das Bild darstellt. Es kann bspw. noch in geeigneter Weise ein 3D-Sinneseindruck erzeugt werden. Zusätzlich sind zur Erzeugung einer NR-Umgebung häufig auch noch ein oder mehrere Lautsprecher zur Darstellung von Geräuschen vorhanden. Es können weiter noch Aktoren existieren, die andere Sinne ansprechen, bspw. den Tast- oder den Geruchssinn.
Zusätzlich zu diesen Vorrichtungen besitzt eine VR-Örtlichkeit einer kollaborativen VR-Einrichtung auch noch optische und eventuell weitere Aufnahmevorrichtungen, aufgrund derer für mindestens einen vom ersten Nutzer entfernten zweiten Nutzer ein den ersten Nutzer darstellendes VR-Objekt geschaffen werden kann. Als VR-Objekt wird hier die Summe aller Sinneseindrücke bezeichnet, die einem Nutzer in einer VR-Umgebung zur Darstellung eines Objektes beigebracht werden. Dabei ergibt sich aber das Problem, dass die Anforderungen an möglichst ideale Wiedergabebedingungen für den Nutzer als Subjekt und an optimale Aufnahmebedingungen für den Nutzer als Objekt teilweise diametral verschieden sind. Bspw. bei der Aufnahme von optischen Eigenschaften des Nutzers wie der Textur ist eine möglichst optimale Ausleuchtung mit idealerweise nicht farbverfälschendem, also weissem Licht notwendig. Dies widerspricht aber der Bedingung einer möglichst wirklichkeitsgetreuen und immersiven Wiedergabe, also eines „Eintauchens" des Nutzers in seine virtuelle Umgebung, in welcher bspw. bestimmte Farbtöne vorherrschen, und welche unter Umständen auch recht dunkel ist.
Der Erfindung liegt deshalb die Aufgabe zu Grunde, ein Verfahren, eine Vorrichtung und ein Gerät zur Verfügung zu stellen, welche die Akquisition von unverfälschten Primär-Bilddaten eines sich in einer VR-Umgebung bewegenden Nutzers erlauben, bei gleichzeitig optimalen Projektionsbedingungen. Diese Aufgabe wird gelöst durch ein Verfahren, eine Vorrichtung und ein Gerät wie sie in den Ansprüchen definiert sind.
Die Erfindung zeichnet sich im Wesentlichen dadurch aus, dass die Wiedergabe von Daten an den Nutzer als Subjekt in einer ersten Umgebung erfolgt, die verschieden ist von der zweiten Umgebung, in der Bilddaten des Nutzers oder eines Objektes akquiriert werden. In der zweiten Umgebung, in der Bilddaten des Nutzers akquiriert werden, ist eine aktive Beleuchtung vorgesehen. Die Bereitstellung mindestens zweier verschiedener Umgebungen geschieht mittels einer Art Multiplexing, das bspw. eine selektive Abdunkelung des direkt oder indirekt von den Beleuchtungsmitteln ausgehenden Lichtes für den Nutzer bewirkt. Unter „Umgebung" wird in diesem Kontext nicht nur eine räumliche Umgebung verstanden, sondern ganz allgemein eine Summe von optischen, akustischen, etc., eventuell wahrnehmbaren Eigenschaften eines Umfeldes des Nutzers. „Licht" bzw. „Beleuchtung" umfasst im hier verwendeten Kontext auch den infraroten und ultravioletten Spektralbereich.
Während ein Multiplex-System zur Datenübertragung die simultane Übertragung mehrerer Signale über verschiedene, von ein und demselben physischen Nachrichtenweg gebildeten Kanäle ermöglicht, erlaubt das vorzugsweise zur Ausübung der Erfindung angewandte Multiplexing die simultane Aufnahme bzw. Wiedergabe von Bildinformationen in verschiedenen Umgebungen, die an ein und derselben Örtlichkeit gebildet werden.
Gemäss einer ersten bevorzugten Ausführungsform wird ein Zeit-Multiplexing verwendet. Es wird periodisch zwischen mindestens einer Wiedergabesequenz und mindestens einer Akquisitionssequenz gewechselt. Während der Akquisitionssequenz wird die Umgebung aktiv beleuchtet, wohingegen während der Wiedergabesequenz keine aktive Beleuchtung im sichtbaren Spektrum erfolgt. Die Beleuchtung erfolgt also durch periodische Lichtpulse (d.h. quasi-stroboskopisch). Mittels geeigneter Hilfsmittel, bspw. mit einer Shutterbrille, wird die Sicht des Nutzers während der Akquisitionssequenz abgedunkelt. Die Umschaltung zwischen den Sequenzen erfolgt mit einer Taktfrequenz von bspw. 40 Hz oder 60 Hz und vorzugsweise zwischen 40 Hz und 100 Hz, so dass das Auge des Nutzers „überlistet" wird und er einzig das von den Wiedergabemitteln dargestellte, evtl. dreidimensionale Bild wahrnimmt.
Eine zweite bevorzugte Ausführungsform benutzt das Polarisations-Multiplexing. Die aktive Beleuchtung erfolgt polarisiert. Auch die Wiedergabe kann mittels polarisierter Lichtquellen erfolgen, wobei die Polarisation der Wiedergabe orthogonal ist zu derjenigen der aktiven Beleuchtung. Im Sichtfeld des Nutzers angebrachte Polarisationsfilter, also bspw. eine polarisationsselektive Brille, filtern dann das Licht mit der Polarisation der aktiven Beleuchtung mindestens teilweise weg.
Eine dritte Ausführungsform betrifft das Wellenlängen- oder Wellenlängenbereich- multiplexing. Die Beleuchtung und die Datenakquisition können dazu im nicht sichtbaren spektralen Bereich erfolgen, bspw. im Infrarotbereich, während die Wiedergabe mittels sichtbaren Lichts erfolgt.
Dadurch, dass die Wiedergabe von Daten an den Nutzer als Subjekt in einer anderen Umgebung erfolgt als die Akquisition von Bilddaten des Nutzers, ergibt sich eine Reihe von Vorteilen. Die Datenaufnahme findet in einer von der VR-Umgebung (in der der Nutzer ein wahrnehmendes Subjekt ist) verschiedenen Umgebung statt, nämlich bspw. in einem hell und weiss erleuchteten Raum, in dem der Nutzer als Objekt fungiert. Dadurch können systematische Fehler bei der Aufnahme der Textur bei Beleuchtung durch Wiedergabemittel wie Projektoren, Bildschirme etc. vermieden werden. Das von den Wiedergabemitteln ausgehende Licht weist nämlich immer einen, LA. noch ortsabhängigen, Farbstich auf, da diese ja primär ein Bild erzeugen.
Im Folgenden sollen Ausführungsbeispiele für das Verfahren, die Vorrichtung und das Gerät anhand von Zeichnungen im Detail beschrieben werden. In den Zeichnungen zeigen:
- die Figur 1 eine schematische VR-Örtlichkeit mit einem Nutzer, für welchen eine VR-Umgebung dargestellt wird und von welchem Primär-Bilddaten aufgenommen werden,
die Figuren 2a bis 2e je ein Diagramm der Takte für die Brillengläser einer Shutterbrille gemäss dem Stand der Technik und gemäss der Erfindung sowie eines dritten Taktes,
- die Figur 3 ein Blockschaltbild einer Schaltungsergänzung zur Erzeugung des dritten Taktes,
die Figur 4 ein Schaltschema der Schaltungsergänzung gemäss Figur 3.
Die Figur 1 zeigt ein Beispiel für eine Vorrichtung zur Darstellung von als VR- Umgebung wahrgenommenen Bildern an einen Nutzer und zur gleichzeitigen Erfassung von Bilddaten über den Nutzer, also einer VR-Örtlichkeit 1. In der VR- Örtlichkeit 1 befindet sich ein Nutzer 3. Die VR-Örtlichkeit 1 besitzt mindestens eine Kamera und vorzugsweise eine Vielzahl von Kameras 10, die so verteilt sind, dass von ihnen möglichst viele verschiedene Blickwinkel abgedeckt werden. Im gezeichneten Beispiel ist die VR-Örtlichkeit 1 so ausgebildet, dass ihre Wand die Form eines vertikal stehenden Zylinders hat. Die Kameras sind dann auf einer Höhe von bspw. zwischen einem und zwei Metern um den Umfang herum verteilt. Weiter besitzt die VR-Örtlichkeit 1 mindestens einen und bspw. zwei Projektoren, mit dem eine VR-Umgebung an die Wand projiziert werden kann. Dabei kann vorgesehen sein, dass die drei Farben rot, grün und blau aus getrennten Quellen 21, 22 bzw. 23 projiziert werden. Alternativ zu den Projektoren 20 können auch Bildschirme als Wiedergabemittel vorhanden sein. Weiter besitzt die VR-Örtlichkeit 1 noch Beleuchtungsmittel 40 zur aktiven Beleuchtung und Datenverarbeitungsmittel 50. Ausserdem besteht eine Synchronisations- und/oder Kommunikationsverbindung 60 zwischen den Datenverarbeitungsmitteln 50 einerseits und in der VR-Örtlichkeit befindlichen Geräten wie Kameras 10, Projektoren 20, etc. andererseits.
Ein erstes Ausführungsbeispiel bedient sich des Zeit-Multiplexing. Nachfolgend werden die in der VR-Örtlichkeit 1 ablaufenden Schritte kurz beschrieben. Der Nutzer 3 trägt noch eine Shutterbrille 5, die es erlaubt, die sich jedem Auge bietende Sicht individuell abzublocken, d.h. jedes der Brillengläser 6, 7 individuell auf dunkel zu schalten. Eine solche Shutterbrille kann bspw. Brillengläser 6, 7 mit Flüssigkristallen (LCs) aufweisen. Solche Brillengläser 6, 7 können durch Anlegen einer Spannung an Elektroden lichtundurchlässig oder lichtdurchlässig gemacht werden. Die Synchronisations- und/oder Kommunikationsverbindung 60 erlaubt eine Steuerung des Schaltvorganges der Brille 5 durch die Datenverarbeitungsmittel 50. Eine entsprechende Kommunikationsverbindung kann bspw. realisiert werden, indem von mindestens einem im Innern der Örtlichkeit 1 installierten, von den Datenverarbeitungsmitteln 50 getakteten Sender ein Infrarot- oder anders geartetes Signal ausgesandt und von einem Sensor an der Brille empfangen werden kann. Die Datenaufnahme und -wiedergäbe erfolgt nun in bspw. drei Sequenzen: 1. Sequenz (erste Wiedergabesequenz): Projektion der VR-Umgebung für das rechte Auge. Die Projektoren 20 projizieren die VR-Umgebung, wie sie sich dem rechten Auge darbietet, an die Wand. Dabei ist das linke Shutterbrillenglas 6 auf dunkel geschaltet.
2. Sequenz (zweite Wiedergabesequenz): Projektion der VR-Umgebung für das linke Auge, das rechte Brillenglas 7 ist auf dunkel geschaltet. Durch Abweichungen zwischen den sich dem linken und dem rechten Auge bietenden Bildern kann in bekannter Weise ein 3D-Sinneseindruck erzeugt werden.
3. Sequenz (Akquisitionssequenz): Während bspw. beide Brillengläser 6, 7 auf dunkel geschaltet sind wird die VR-Örtlichkeit 1 durch einen Stroboskop-Lichtblitz aktiv beleuchtet. Die evtl. durch die Datenverarbeitungsmittel 50 mit dem Stroboskop-Licht sychronisierten Kameras 10 nehmen Primär-Bildinformationen über den Nutzer 3 auf. Gleichzeitig können unter Umständen in einer Umgebung des Objektes aus unterschiedlichen Richtungen mehrere Silhouetten des Objektes extrahiert werden. Der Hintergrund wird dazu evtl. mit weiteren, bspw. im Infrarot arbeitenden Lichtquellen ausgeleuchtet. Aus einer Aufnahme von Objekt und Hintergrund wird dann die Silhouette extrahiert, wobei je nach dem eine Wellenlängeninformation des erfassten Lichtes verwendet wird.
Anstelle von drei Sequenzen können auch zwei, vier oder mehr Sequenzen vorgesehen sein. Wenn auf einen 3D-Effekt verzichtet werden kann, können zwei Sequenzen ausreichend sein. Es ist dann lediglich eine Wiedergabesequenz und eine Akquisitionssequenz vorgesehen. Mehr als drei Sequenzen sind bspw. dann sinnvoll, wenn mehr als ein Akquisitionsschritt vollzogen wird. So kann bspw. eine Ermittlung von Silhouetten während einer ersten Akquisitionssequenz erfolgen. Aus Silhouetten kann eine geometrische Information bestimmt werden. Während dieser ersten Akquisitionsphase ist die Örtlichkeit 1 bspw. mit gerichteter Strahlung im Infrarotbereich oder in einem sichtbaren Spektralbereich ausgeleuchtet. Während einer zweiten Akquisitionssequenz werden dann Texturinformationen über den Nutzer mittels konventioneller Kameras gewonnen, wobei die Örtlichkeit 1 mit Weisslicht beleuchtet wird. Natürlich besteht auch die Möglichkeit einer Wahl von zwei Akquisitionssequenzen und nur einer Wiedergabesequenz oder von einer beliebigen anderen Anzahl Akquisitionssequenzen und Wiedergabesequenzen.
Als Lichtquellen zur aktiven Beleuchtung während der Akquisitionssequenz bzw. während derjenigen Akquisitionssequenz, während der die Texturinformation gewonnen wird, kommen verschiedene Beleuchtungsmittel in Frage. Eine Möglichkeit bilden konventionelle Blitzlichtquellen. Die Beleuchtungsintensität in Funktion der Zeit hat bei solchen eine sehr steile Anstiegscharakteristik, eine hohe Intensität und einen ebenfalls steilen Abfall. Die Beleuchtungszeit ist in diesem Fall klein im Vergleich zur gesamten Dauer der Sequenz. Alternativ dazu können Leuchtdioden verwendet werden, die ebenfalls steile Anstiegs- und Abfallcharakteristiken aufweisen können, die aber i.A. eine weniger hohe Intensität aufweisen. Leuchtdioden können aber bspw. während der ganzen Dauer der Akquisitionssequenz Licht aussenden.
Im Folgenden wird noch eine Ausführungsform eines Gerätes zur Transformation eines getakteten Steuersignales für eine konventionelle Shutterbrille als elektrisches Eingangssignal in mindestens ein getaktetes elektrisches Ausgangssignal als Synchronisations- und/oder Ansteuerungssignal für eine Shutterbrille zur Ausführung des Verfahrens mit Zeit-Multiplexing beschrieben. Damit wird auch eine mögliche Implementation des ersten Ausführungsbeispiels der Erfindung näher erläutert, ohne dass damit die Erfindung oder das Ausführungsbeispiel der Erfindung auf diese Implementation eingeschränkt werden soll. Ausgehend vom Ansteuersignal einer herkömmlichen, kommerziell erhältlichen Shutterbrille zur Erzeugung eines 3D-Sinneseindruckes wird durch das Gerät ein Signal erzeugt, welches sowohl die Erzeugung eines 3D-Sinneseindrucks als auch die Einführung einer Akquisitionssequenz erlaubt. Wie bei herkömmlichen Einrichtungen zur Erzeugung eines 3D-Sinneseindrucks werden jeweils das rechte und das linke Brillenglas synchron zur Projektion der Halbbilder für das linke bzw. das rechte Auge abgedunkelt. Für das Auge ist es wichtig, dass die Dunkelphasen der beiden Brillengläser gleich lange dauern und symmetrisch eingefügt sind. Wie das in den Figuren 2a und 2b dargestellt ist, wird das gemäss dem Stand der Technik durch ein Zwei-Takt-Signal realisiert. Dies geschieht so, dass die Abdunkelung der beiden Gläser jeweils komplementär während gleich langen Zeitabschnitten erfolgt, d.h. es ist im Wesentlichen immer ein Glas abgedunkelt, das andere lichtdurchlässig. Das Zeitintervall, während dem das linke Brillenglas abgedunkelt und das rechte Glas lichtdurchlässig ist oder umgekehrt, beträgt bspw. 8,33 ms (entsprechend einer Bildwiederholfrequenz von 60 Hz).
Eine Shutterbrille gemäss dem hier beschriebenen ersten Ausführungsbeispiel der Erfindung wird nun mit einem zusätzlichen dritten Takt mit einer Dunkelphase versehen, während dem beide Gläser abgedunkelt sind (Fig. 2c). Dieser dritte Takt ist synchronisiert mit den ersten beiden Takten (vgl. Fig. 2a, 2b). Er wird bspw. dadurch erzeugt, dass sowohl die Abdunkelungsphase für das rechte Brillenglas als auch diejenige für das linke Brillenglas vergrössert wird (Fig. 2d, 2e), so dass sich die Abdunkelungsphasen überlappen. Die Dauer der Überlappung entspricht dann der Dauer der Dunkelphase, also der dritten Sequenz. Wie aus den Figuren ersichtlich ist, kann die Dauer des dritten Taktes unabhängig von der Dauer des ersten und des zweiten Taktes gewählt werden und ist bspw. kürzer. Aus den Figuren 2a bis 2e ist auch noch ersichtlich, dass die rechte und die linke Abdunkelungsphase vorzugsweise um jeweils eine gleich grosse Zeitspanne vergrössert werden. Wenn bspw. noch eine vierte Sequenz eingefügt werden soll, dann kann dies bspw. in den Figuren 2a bis 2e am Schluss der Abdunkelungsphase des rechten Brillenglases geschehen.
Die Figuren 3 und 4 zeigen ein Blockschaltbild bzw. ein Schema einer Schaltungsergänzung zur Erzeugung des dritten Taktes, wobei als Eingangssignal (in den Figuren von links) das bipolare Steuersignal für ein Brillenglas einer kommerziellen LCD-Shutterbrille gemäss dem Stand der Technik dient. In einem ersten Schritt wird das Signal durch einen Gleichrichter 101 gleichgerichtet. Das gleichgerichtete Signal wird anschliessend dazu verwendet, den dritten Takt zu erzeugen. Zur Festlegung der Dauer des dritten Taktes wird das Signal auf ein Zeitglied 103 geleitet, welches bspw. eine Kapazität 103a sowie ein Potentiometer 103b aufweist und ein Flipflop 103c ansteuert. Durch verstärkende, integrierende und/oder differenzierende elektronische Elemente, sowie durch logische Verknüpfungen 105 wird ein Signal erzeugt, welches bspw. dem in der Fig. 2c dargestellten dritten Takt entspricht (Punkt D in der Figur 4). In einem weiteren Schritt erfolgt eine Verknüpfung 107 des Signals mit dem gleichgerichteten Signal für das rechte bzw. für das linke Auge durch ODER-Gatter 107a, 107b. Die Signale an den Punkten E und F entsprechen den in den Figuren 2d und 2e gezeigten Signalen. Schliesslich werden die Signale für jedes Brillenglas noch in bipolare- Signale 109, 111 umgewandelt und verstärkt. Als Ausgangssignal für das linke Brillenglas wird in der Figur 4 die Differenz zwischen den Spannungen an den Punkten G und H verwendet.
Optional kann noch ein in den Figuren 3 und 4 ebenfalls dargestellter Zähler 113 vorhanden sein, mit dem eine Frequenzteilung bewirkt werden kann. Der Zähler 113 besitzt einen Schalter zum Einstellen einer Frequenzteilzahl n. Er zählt bei jedem Eingangssignal-Puls einen Schritt weiter, erst beim Erreichen der Frequenzteilzahl n wird der dritte Takt über ein nachgeschaltetes UND-Gatter freigeschaltet und der Zähler auf Null zurückgesetzt. Die in den Figuren 2c bis 2e dargestellten Signale werden durch eine Schaltung ohne Zähler oder mit Frequenzteilzahl-Einstellung n-\ bewirkt. Alternativ zur oben beschriebenen Schaltung kann bei gleicher Funktion auch ein MikroController eingesetzt werden.
Die Ansteuerung der Beleuchtungsmittel 40 erfolgt bspw. auch durch eines der vorstehend beschriebenen Geräte. Die Beleuchtungsmittel 40 werden bspw. durch den dritten Takt (Fig. 2c) getriggert bzw. gespiesen. Sie können eine Kapazität aufweisen, deren Entladung über als Blitzlichtquelle ausgebildete Beleuchtungsmittel 40 von der positiven Flanke des dritten Taktes ausgelöst wird. Die Beleuchtungsmittel 40 können aber auch Leuchtdioden sein, die durch den durch Verstärkungsmittel verstärkten dritten Takt direkt gespiesen werden.
Ein zweites Ausführungsbeispiel betrifft das Polarisations-Multiplexing. Aufnahme und Wiedergabe der Daten erfolgen simultan und mindestens teilweise im sichtbaren Bereich. Das von den aktiven Beleuchtungsmitteln 40 ausgehende Licht ist polarisiert. Das von den Wiedergabemitteln 20 ausgehende Licht weist vorzugsweise eine darauf orthogonale Polarisation auf, es kann aber auch unpolarisiert sein. Die aktive Beleuchtung erfolgt ununterbrochen oder getaktet. Der Nutzer trägt eine Brille, die Licht mit der Polarisation der Beleuchtungsmittel bevorzugt wegfiltert. Auf diese Weise können die Lichtquelle 40 und teilweise auch von dieser verursachte Reflexionen für den Nutzer abgedunkelt werden. Zusätzlich können auch die Kameras 10 mit Polarisationsfiltern versehen sein, die die Polarisation der aktiven Beleuchtung durchlassen und die Polarisation der Wiedergabemittel 20 mindestens teilweise wegfiltern. So beschränkt sich bei der Aufnahme die Datenakquisition auf die physisch anwesenden Objekte. Möglicherweise störende, durch die VR-Umgebung bewirkte Hintergrundbilder sind weggefiltert. Die Brille 5 kann selbstverständlich auch noch zusätzlich Mittel zum abwechslungsweisen vollständigen Abdunkeln der Gläser aufweisen, um einen 3D-Sinneseindruck zu ermöglichen.
Ein drittes Ausführungsbeispiel benutzt das Wellenlängen-Multiplexing bzw. Wellenlängenbereich-Multipiexing. Dazu erfolgen bspw. die aktive Beleuchtung und die Datenakquisition im Infrarot-Bereich. Die Beleuchtungsmittel 40 sind dann bspw. Infrarotstrahlung emittierende Leuchtdioden, die Kameras 10 Infrarotkameras. Bei der Verarbeitung der akquirierten Bilddaten zu an eine andere VR-Örtlichkeit zu übermittelnden Sekundärdaten und/oder bei der Verarbeitung der Daten zu einem VR-Objekt an einer anderen VR-Örtlichkeit muss dann noch eine Texturinformation beigefügt werden. Eine solche kann bspw. gewonnen werden, indem das Zeitmultiplexing- Verfahren gemäss dem ersten Ausführungsbeispiel mit dem Wellenlängenbereich-Multiplexing kombiniert wird. Das Wellenlängenbereich- Multiplexing, also die Akquisition von Infrarot-Bilddaten erfolgt dann während der Wiedergabesequenzen und/oder eventuell auch während der Akquisitionssequenzen. So ergibt sich eine Alternative zur vorstehend bereits erwähnten Möglichkeit, beim Verfahren gemäss Ausführungsbeispiel 1 extra eine weitere Sequenz für die Akquisition der Bilddaten hinzuzufügen. Eine Möglichkeit besteht schliesslich noch darin, dass Texturinformationen gar nicht laufend gewonnen werden, sondern nichtflüchtig in einer Eigenschaften-Bibliothek gespeichert sind. Diese Informationen werden dann im Rahmen der Erzeugung eines VR-Objekts aus den (Infrarot-) Bildprimärdaten diesen zugeordnet. Dazu wird eine Kontextinformation ermittelt (bspw. ein grünes Kleidungsstück wird als Solches erkannt).
Abschliessend sei noch erwähnt, dass die vorstehend beschriebenen Ausführungsbeispiele natürlich keineswegs die einzig möglichen Implementationen der Erfindung darstellen. Insbesondere sind auch andere Kombinationen von Verfahrensschritten denkbar, als vorstehend erwähnt wurden.

Claims

PATENTANSPRÜCHE
1. Verfahren zur Erfassung von Bilddaten eines Nutzers bei gleichzeitiger Darstellung von Bildern für den Nutzer durch Wiedergabemittel, welche Bilder einen Teil einer ersten, vom Nutzer wahrnehmbaren Umgebung bilden, dadurch gekennzeichnet, dass durch Multiplexing zusätzlich zur ersten Umgebung eine zweite Umgebung des Nutzers bereitgestellt wird, in welcher der Nutzer aktiv beleuchtet wird, und dass die Erfassung der Bilddaten mindestens teilweise in dieser zweiten Umgebung des Nutzers erfolgt.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Bereitstellung der ersten Umgebung und der zweiten Umgebung ein Zeit-Multiplexing benutzt wird, so dass sich mindestens eine Akquisitionssequenz zur Erfassung der Bilddaten und mindestens eine Wiedergabesequenz zur Wiedergabe der
Bilder periodisch mit einer Taktfrequenz ablösen.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass während der Akquisitionssequenz der Nutzer aktiv beleuchtet und die Sicht des Nutzers durch ein Sichtabdunklungsmittel beschränkt wird.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Sichtabdunkelungsmittel Brillengläser einer Shutterbrille sind, welche mit Flüssigkristallen versehen sind.
5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass zwei Wiedergabesequenzen vorgesehen sind, wobei während der einen ein Halbbild für das linke Auge und während der anderen ein Halbbild für das rechte Auge wiedergegeben wird.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Akquisitionssequenz dadurch gebildet wird, dass Phasen der Abdunkelung für das rechte und das linke Auge überlappen.
Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Akquisitionssequenz eine von der Zeitdauer der Wiedergabesequenzen verschiedene und vorzugsweise kürzere Zeitdauer aufweist als die Wiedergabesequenzen.
8. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Bereitstellung der ersten Umgebung und der zweiten Umgebung ein Polarisations- Multiplexing benutzt wird, wobei eine aktive Beleuchtung mit Licht erfolgt, welches eine Beleuchtungs-Polarisation aufweist, und wobei die Wiedergabe der Bilder an den Nutzer über ein Polarisations-Filtermittel erfolgt, welches bevorzugt Licht mit einer im Wesentlichen auf die Beleuchtungs-Polarisation orthogonalen Polarisation durchlässt.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass das von den Wiedergabemitteln ausgehende Licht mindestens teilweise mit einer im Wesentlichen auf die Beleuchtungs-Polarisation orthogonalen Polarisation polarisiert ist.
10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass die Aufnahme der Bilddaten durch Kameras (10) erfolgt, welche mit die Beleuchtungs-Polarisation bevorzugt durchlassenden Polarisationsfiltern versehen sind.
11. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Bereitstellung der ersten Umgebung und der zweiten Umgebung ein Frequenzbereich- Multiplexing benutzt wird, so dass eine aktive Beleuchtung und die Erfassung von Bilddaten des Nutzers mindestens teilweise in einem ausserhalb des sichtbaren Bereichs des Frequenzspektrums elektromagnetischer Strahlung liegenden Frequenzbereich erfolgen.
12. Vorrichtung zur Darstellung als Umgebung wahrnehmbarer Bilder an einen Nutzer und zur gleichzeitigen Erfassung von Bilddaten über den Nutzer, mit
Wiedergabemitteln (20) zur Wiedergabe der Bilder und mindestens einer Kamera (10) zur Erfassung von Bilddaten, gekennzeichnet durch Beleuchtungsmittel (40) zur aktiven Beleuchtung des Nutzers sowie durch Multiplexing-Mittel zur selektiven Abdunkelung des von den Beleuchtungsmitteln (40) ausgehenden Lichtes für den Nutzer.
13. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, dass die Multiplexing-Mittel Sichtabdunkelungsmittel in Form einer ansteuerbaren Shutterbrille sowie Synchronisations- und/oder Kommunikationsmittel (60) zur synchronen Ansteuerung der Shutterbrille und der Beleuchtungsmittel (40) aufweisen, wobei die Synchronisations- und/oder Kommunikationsmittel (60) vorzugsweise eine Apparatur zur Erzeugung eines Zwei-Takt-Signales und ein Gerät zur Erzeugung eines Drei-Takt-Signales aus einem Zwei-Takt-Signal aufweisen.
14. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, dass die
Multiplexing-Mittel Mittel aufweisen, das von den Beleuchtungsmitteln (40) ausgesendete Licht mit einer Beleuchtungs-Polarisation zu versehen, und dass
Polarisations-Filtermittel zur Wegfilterung mindestens eines Teils des Lichtes mit der Beleuchtungs-Polarisation für den Nutzer vorhanden sind.
15. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, dass die
Multiplexing-Mittel darin bestehen, dass die Beleuchtungsmittel (40) Licht in einem vom sichtbaren Wellenlängenbereich verschiedenen
Wellenlängenbereich aussenden und die Kameras zur Erfassung von Licht in diesem Wellenlängenbereich ausgebildet sind.
16. Gerät zur Transformation eines getakteten Steuersignaies für eine Shutterbrille als elektrisches Eingangssignal in mindestens ein getaktetes elektrisches Ausgangssignal, gekennzeichnet durch ein Zeitglied zur Festlegung einer Zeitdauer, Mittel zur Erzeugung eines mit dem Eingangssignal synchronen getakteten Signal mit dieser Zeitdauer sowie Mittel zur Verknüpfung des getakteten Signals mit dem Eingangssignal.
PCT/CH2001/000383 2000-07-25 2001-06-19 Verfahren, vorrichtung und gerät zur erfassung von bilddaten WO2002008879A2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
AU2001263710A AU2001263710A1 (en) 2000-07-25 2001-06-19 Method, device and apparatus for recording image data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CH1465/00 2000-07-25
CH14652000 2000-07-25

Publications (1)

Publication Number Publication Date
WO2002008879A2 true WO2002008879A2 (de) 2002-01-31

Family

ID=4565500

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CH2001/000383 WO2002008879A2 (de) 2000-07-25 2001-06-19 Verfahren, vorrichtung und gerät zur erfassung von bilddaten

Country Status (2)

Country Link
AU (1) AU2001263710A1 (de)
WO (1) WO2002008879A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003077095A1 (de) * 2002-03-13 2003-09-18 Eidgenössische Technische Hochschule Zürich Projektionsvorrichtung und verfahren zur wiedergabe und erfassung von bilddaten

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003077095A1 (de) * 2002-03-13 2003-09-18 Eidgenössische Technische Hochschule Zürich Projektionsvorrichtung und verfahren zur wiedergabe und erfassung von bilddaten

Also Published As

Publication number Publication date
AU2001263710A1 (en) 2002-02-05

Similar Documents

Publication Publication Date Title
DE602004003355T2 (de) 3d-videokonferenzen
DE112005002615B4 (de) Pixel-Farbwobulation
WO2008061511A1 (de) Stereoprojektion mit interferenzfiltern
EP2399165A1 (de) System zur wiedergabe von stereobildern
DE112005000686T5 (de) Verfahren und System zum Anzeigen eines Bildes in drei Dimensionen
DE102013103333A1 (de) Kamera zur Erfassung von optischen Eigenschaften und von Raumstruktureigenschaften
EP0836332A2 (de) Positionsadaptiver, autostereoskoper Monitor (PAM)
DE3112548A1 (de) "verfahren und vorrichtung zur lippensynchronen raeumlichen wiedergabe von fs-bildern bei normaler uebertragungsbandbreite"
DE19545356C2 (de) Vorrichtung zur Darstellung von Stereo-Videobildern
DE102011053250B4 (de) Verfahren zum Aufnehmen von Bildern eines Beobachtungsobjektes mit einem elektronischen Bildsensor und optisches Beobachtungsgerät
DE19953596B4 (de) Vorrichtung zur Steuerung von LCD-Shutter-Brillen
EP1650978A1 (de) Verfahren zur Bilddarstellung unter Verwendung einer sequentiellen Farbdarstellung
WO2002008879A2 (de) Verfahren, vorrichtung und gerät zur erfassung von bilddaten
DE4331715A1 (de) Shutterbrille
Falk et al. Dynamic visual noise and the stereophenomenon: Interocular time delays, depth, and coherent velocities
WO2021123365A1 (de) Verfahren zur übertragung von zumindest einem bildinhalt an zumindest einem betrachter
EP1680929B1 (de) Ansteuerung zur stereoprojektion
DE102004038001B4 (de) Optische Beobachtungsvorrichtung und Verfahren zum Betrieb einer optischen Beobachtungsvorrichtung
EP3907987B1 (de) Verfahren und vorrichtung zur projektion individueller bilder für eine mehrzahl an betrachtern
DE102007039079B4 (de) Verfahren und Anordnung zur räumlichen Darstellung einer Szene mit nur geringer oder ohne Beleuchtung
DE19836886A1 (de) Verfahren zur autostereoskopischen Bild-, Film- und Fernsehaufnahme- und -wiedergabe durch Multi-Apertur-Multiplexing
DE19613618C2 (de) Vorrichtung zur Einbeziehung einer gegenüber einer Anzeigeeinrichtung veränderbaren Relativlage eines Bezugspunktes in die Visualisierung von auf der Anzeigeeinrichtung wiedergegebenen Darstellung
DE102015226011A1 (de) Detektionsvorrichtung zum Detektieren zumindest eines reflektierenden Elements in einem Detektionsbereich, Fahrzeug und Verfahren zum Erfassen eines Detektionsbereiches mittels einer Detektionsvorrichtung
WO2003077095A1 (de) Projektionsvorrichtung und verfahren zur wiedergabe und erfassung von bilddaten
DE102010022613A1 (de) Verfahren und Anordnung zur räumlichen Darstellung

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: JP