WO2009135926A1 - Vorrichtung zur darstellung von stereoskopischen bildern - Google Patents

Vorrichtung zur darstellung von stereoskopischen bildern Download PDF

Info

Publication number
WO2009135926A1
WO2009135926A1 PCT/EP2009/055575 EP2009055575W WO2009135926A1 WO 2009135926 A1 WO2009135926 A1 WO 2009135926A1 EP 2009055575 W EP2009055575 W EP 2009055575W WO 2009135926 A1 WO2009135926 A1 WO 2009135926A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display device
image display
observer
light beams
Prior art date
Application number
PCT/EP2009/055575
Other languages
English (en)
French (fr)
Inventor
Joachim Gantz
Original Assignee
Seereal Technologies S.A.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seereal Technologies S.A. filed Critical Seereal Technologies S.A.
Priority to US12/991,469 priority Critical patent/US20110063289A1/en
Publication of WO2009135926A1 publication Critical patent/WO2009135926A1/de

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/02Details of features involved during the holographic process; Replication of holograms without interference recording
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/22Processes or apparatus for obtaining an optical image from holograms
    • G03H1/2294Addressing the hologram to an active spatial light modulator
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/02Details of features involved during the holographic process; Replication of holograms without interference recording
    • G03H2001/0208Individual components other than the hologram
    • G03H2001/0224Active addressable light modulator, i.e. Spatial Light Modulator [SLM]
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/08Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
    • G03H1/0841Encoding method mapping the synthesized field into a restricted set of values representative of the modulator parameters, e.g. detour phase coding
    • G03H2001/085Kinoform, i.e. phase only encoding wherein the computed field is processed into a distribution of phase differences

Definitions

  • the invention relates to a device for displaying three-dimensional images in a reconstruction space through spatial points which are intersections of at least two intersecting light beams. Furthermore, the invention also relates to a method for displaying three-dimensional images in a reconstruction space.
  • the best-known systems currently form stereoscopic or autostereoscopic display devices (displays) in which two images are projected by e.g. Color filter, polarizing filter or shutter glasses are separated or can be observed without such aids.
  • these are reproducing devices in which different perspective two-dimensional views of the object to be displayed are supplied to the eyes of a viewer.
  • the main drawback of such display devices is that, because of the contradiction between the focus and the angle of convergence of the observer's eyes when observing the two two-dimensional images on a flat screen, the eyes are subject to unnatural stress, which can very often cause fatigue.
  • this disadvantage can be reduced by providing more than two perspective views to the viewer's eyes.
  • this increases the effort, and a satisfactory solution can be achieved only in so-called super-multiview displays with a very high number of perspective views.
  • a real spatial reconstruction of the object is not feasible with such playback devices.
  • Holography can also be used to create a true reconstruction of a three-dimensional object in space.
  • the reconstruction of spatial points is done here by diffraction of sufficiently coherent light on calculated or otherwise generated grating structures, the holograms.
  • the spatial points are created by interference of the wavefronts modulated by the hologram in the reconstruction space. It is therefore a wave-optical reconstruction method, in which the reconstruction usually takes place only in a certain diffraction order.
  • holographic methods make high demands both on the resolution of the display device or the display, as well as the performance of the computer used to calculate the holograms. Both the size of the reconstruction volume or the reconstruction space and the visibility range depend on the diffraction angle given by the pixel pitch of the display.
  • a display device called a multi-beam display.
  • the pixels become light beams crossing in the reconstruction space generated.
  • at least four light beams emanating from the same pixel are then required, so that two light beams strike the pupil of the right viewer's eye and two light beams strike the pupil of the left viewer's eye.
  • a reproduction device based on this mode of action describes US Pat. No. 6,798,390 B1.
  • the reproduction device has an imaging LC display and a further second LC display, which are arranged at a distance parallel to one another.
  • the second LC display serves in conjunction with a field lens as a directional display and is operated as a shutter.
  • three image pixels are successively applied at different locations in the imaging LC display.
  • a small aperture or aperture moving in time sequential fashion over the second LC display designed as a shutter selects three light beams each, which are emitted in different directions into the reconstruction space in the light direction behind the second LC display.
  • the respective light beams produced in this way successively intersect, so that three spatial points are generated. A viewer can then perceive these three points in space from different perspectives with different depths as a three-dimensional image.
  • a disadvantage of such a display device is that the light beams producing the spatial points are generated in a time-sequential manner by a single aperture. As a result, the reconstructed three-dimensional image is very faint, and in addition to the switching speed of operated as a shutter second LC display high demands are made.
  • US Pat. No. 6,798,390 B1 also describes that the imaging LC display is replaced by a LED display. Arrangement can be replaced. In this way, although the lighting conditions improve, the fundamental disadvantage of the sequential generation of the light beams in a wider field of visibility remains.
  • US Pat. No. 6,798,390 B1 describes in a further embodiment of the display device the restriction of the visibility range of the three-dimensional representation to a defined smaller area in which the observer's head is located at the given moment.
  • the location of the observer's head is determined by a position detection system.
  • the various visibility areas solid angle which at least captures the head of the observer, but is usually larger
  • the resolution of the three-dimensional display is reduced to the same extent.
  • Such a display device is known for example from US 2003/0156077 A1.
  • the light bundles of rays crossing in the reconstruction space are thereby generated by a plurality of microdisplays arranged side by side or one below the other in horizontal and vertical direction in combination with special optical imaging systems.
  • the array of microdisplays is preceded by a passive screen with a scattering characteristic that expands the light beams emanating from the microdisplays such that they merge angularly into each other without interruption, thus creating spatial points that are close together.
  • the spatial points thus generated are then visible in front, behind or on the screen.
  • a plurality of perspective views of a three-dimensional image can be generated in a certain solid angle, which a viewer perceives successively with both eyes during a movement or which can see several viewers at the same time. This ensures the multi-user capability (multiple viewers) of the playback device.
  • Motion parallax enhances the three-dimensional impression of the image presented.
  • the visibility area and the number of views depend on the geometry of the arrangement and can be increased by adding additional modules (microdisplays and directional optics).
  • the computational effort for the realization of three-dimensional images should be reduced and the device should also be suitable for the average consumer.
  • the object is achieved with regard to the device having the features of claim 1 and with regard to the method having the features of claim 13.
  • the object is achieved by a device for displaying three-dimensional images in a reconstruction space by spatial points that are intersections of at least two intersecting light beams, which has an image display device with image pixels for displaying image information and a beam direction device.
  • the image display device may, for example, be designed as a conventional LC display with a specific diagonal, eg a 20 "display
  • the beam direction device transmits the light beams emanating from the image pixels of the image display device in predefined directions, for example to at least one viewer, so that at least one Spatial point in the reconstruction space can be generated.
  • the light bundles of rays emanating from the at least one spatial point are directed exclusively to at least one virtual viewer window provided in a viewer plane, which in its extent corresponds at most to the diameter of the eye pupil of a viewer.
  • the light beams which reconstruct a spatial point or points of space, are directed exclusively to at least one virtual observer window which in its extent corresponds at most to the eye pupil of an observer.
  • the viewer's eye pupil To observe the spatial point (s) in the reconstruction space, it is therefore necessary for the viewer's eye pupil to be located at the location of the virtual observer window.
  • the eye of the observer then focuses on the spatial points shown and perceives them at the correct depth if at least two light beams from each point in space are incident on the pupil of this eye.
  • the advantage of this device according to the invention lies in the concentration of the total information emanating from the image pixels on virtual viewer windows.
  • the amount of information to be processed can be considerably reduced, for example, compared with the reproduction devices of US Pat. No. 6,798,390 B1 and US 2003/0156077 A1, since at a certain point in time only the perspective views of the three-dimensional image are to be calculated and displayed for the observer windows in which there are also eyes of at least one observer.
  • this makes a real-time representation of moving scenes (sequence of reconstructed three-dimensional images or objects) considerably easier or even possible.
  • the device according to the invention for reconstructing the spatial points or pixels or object points has or requires only a small number of optical elements and above all does not require coherent light, a particular advantage over holographic display devices is that interference phenomena do not occur or do not matter play and thus the presentation quality is not affected by Speckling (coherent noise).
  • the at least two are intersecting Beams of light, with which at least one point in space is generated in a reconstruction space, incoherent to each other.
  • the device according to the invention also for the consumer-oriented video area or the device is suitable based on such a multi-beam display in the application for the average consumer.
  • the beam-directing device deflects one or more light-beam bundles variably, preferably in a continuous manner, for example by steplessly adjustable angles.
  • the beam direction device has beam deflecting means, wherein each image pixel or a group of adjacent image pixels of the image display device is associated with a beam deflection device of the beam direction device.
  • the beam deflecting means are designed as controllable prism elements.
  • the controllable prism elements can be constructed and operated on the basis of the electrowetting effect (electrocapillarity, variable focal length or variable deflection angle by liquid microelements, for example water-oil mixtures).
  • a group of adjacently arranged Strahlablenkstoffschn or prism elements of the beam direction device is designed as a Fresnel lens
  • the Strahlablenkstoff the Fresnel lens are each arranged downstream of an image pixel or a group of image pixels of the image display device in the light beam direction
  • the Fresnel lens can be represented directly by a group of beam deflection means or prism elements of the controllable beam direction device, this group of beam deflection means or prism elements of a group of image pixels formed in approximately the same size being associated with the image display device.
  • the Fresnel lenses each reconstruct a point in space at their focal points. Of the incoherent character of the reconstruction also remains in this embodiment of the device according to the invention.
  • the deflection angles of the beam deflecting means or of the prism elements can be controlled in two mutually perpendicular directions. It is thus possible to control and emit the light beams in the horizontal and vertical directions in accordance with the spatial point to be reconstructed.
  • an optical system can advantageously be provided which is arranged between the image display device and the beam direction device.
  • the optical system can advantageously be embodied as a lens arrangement, in particular as a microlens arrangement, wherein each image pixel or a group of adjacent image pixels of the image display device is assigned a lens of the lens arrangement.
  • an aperture arrangement for example by the realization of pinhole apertures, may advantageously be provided between the image display device and the optical system.
  • a position detection system is provided for determining eye positions of at least one observer in the observer plane.
  • the object of the invention is further achieved by a method for displaying three-dimensional images in a reconstruction space, wherein Beams of light from image pixels of an image display device are sent to a beam direction device, which are directed by the beam direction device in different directions, that at least one space point by at least two intersecting - preferably incoherent - light beams is generated in a reconstruction space, which of the at least one space point outgoing light beam through at least one virtual viewer window in a viewer plane and impinge on the pupil of at least one eye of at least one observer so that the at least one observer observes a three-dimensional image through the at least one virtual observer window.
  • the light beams originating from the spatial point to be displayed are directed exclusively to at least one virtual viewer window, which is present in a viewer plane.
  • the eye pupil of a viewer In order to be able to observe the spatial point or pixel in the reconstruction space, the eye pupil of a viewer must spatially coincide with the virtual viewer window or be present at the location of the virtual viewer window so that at least two light bundles emanating from the spatial point strike the eye pupil.
  • the viewer windows can also be arranged next to each other (multi-view property).
  • the method according to the invention is a beam-optical reconstruction method.
  • the position of at least one eye of at least one observer in the observer plane is determined by means of a position detection system and the at least one virtual observer window is tracked when the at least one observer moves in the lateral and / or axial direction.
  • the at least one virtual observer window is tracked when the at least one observer moves in the lateral and / or axial direction.
  • the positions of the image pixels of the image display device to be superimposed for the reconstruction of the spatial points are a projection of the object to be displayed onto the image display device.
  • the positions of the image pixels of the image display device to be switched on for the individual spatial points or pixels are therefore advantageously determined by inverse ray tracing from the observer's eyes via the spatial points to the image display device.
  • Figure 1 is a schematic representation of an apparatus according to the invention for the representation of three-dimensional images through space points, in plan view;
  • Figure 2 is a schematic representation of the device shown in Figure 1 in conjunction with a virtual viewer window, in the
  • Figure 3 is a schematic representation of the device shown in Figure 1 in conjunction with two virtual viewer windows, in plan view;
  • Figure 4 is a schematic representation of a second embodiment of the device according to the invention in conjunction with a virtual viewer window, in plan view.
  • the following embodiments relate mainly to direct view displays, which are directly viewed to observe a three-dimensional image.
  • FIGS. 1 and 4 show only the principal rays (center rays) of the light beams.
  • the device 1 has an image display device 2 with a plurality of image pixels 3 for displaying image information.
  • an image pixel 3 consists of three subpixels corresponding to the three basic colors red, green and blue (RGB), so that a three-dimensional image can be represented in color, wherein a color representation of the three-dimensional image is not mandatory.
  • RGB red, green and blue
  • a conventional LC display with a desired diagonal, for example a 20 "display, can be used as the image display device 2.
  • other orders of magnitude of display or other display types can also be used as the image display device 2.
  • the image display device 2 in this case has an illumination device, not shown, which is designed as a backlight and represents a conventional backlight, but also a light source can be arranged behind each image pixel.
  • the backlight illuminates the image pixels 3 incoherently.
  • otherwise constructed lighting devices can be provided in the image display device. It is e.g. possible to use an image display device based on self-luminous image pixels.
  • a beam direction device 4 is arranged, which is provided for directional control or deflection of the modulated by the image pixels with the corresponding information light beam.
  • the advantageously two-dimensionally executed beam direction device 4 has for this purpose beam deflecting means 5, which are designed as directional elements.
  • the beam deflecting means 5 can be controllable prism elements or lens elements, which are each arranged next to one another and thus result in an arrangement of a plurality of beam deflecting means 5.
  • the beam deflecting means 5 are advantageously constructed according to the principle of electrowetting for directional control of the impinging light beams and operate according to the electrowetting effect.
  • the deflection angle of the individual beam deflection means 5 can therefore be controlled in two mutually perpendicular directions for the horizontal and vertical direction control of the individual light beams.
  • a real three-dimensional image in the reconstruction space can be created and displayed, showing a three-dimensional effect in both the horizontal and vertical directions.
  • this device would require and process large amounts of information, so this device preferably for economic reasons does not have high efficiency. Since both eyes of a viewer are arranged horizontally next to each other, a representation of the perspective of the three-dimensional image in the horizontal direction is sufficient.
  • the image display device 2 and the beam direction device 4 are driven to display a spatial point or a three-dimensional image via control means 7 and 8, wherein the control is synchronous.
  • a control unit 9 is provided which emits corresponding control signals to the two control means 7 and 8.
  • an optical system 6 is arranged between the image display device 2 and the beam direction device 4, which is designed as a lens arrangement, preferably as a microlens arrangement.
  • each image pixel 3 of the image display device 2 is assigned a lens of the lens arrangement 6.
  • the image display device 2 is arranged in the object-side focal plane of the lens arrangement 6.
  • the respective image pixels 3 are not arranged in the object-side focal point of the lenses of the lens arrangement 6, but slightly outside, so that slightly divergent light beams emanate from the individual image pixels 3 of the image display device 2. In this way, there is a slight overlap of at least two light beams in the eye or at the point of view, whereby the continuous impression of the representation of adjacent spatial points in the reconstruction space is enhanced.
  • a diaphragm assembly 10 is provided between the image display device 2 and the optical system 6.
  • an exact assignment of the light beam emanating from an image pixel 3 to the designated beam deflecting means 5 of the beam direction device 4 is ensured. Blurring of the spatial point reconstructed or generated by the light beams is thus largely avoided.
  • the diaphragm arrangement 10 can be seen, for example, as an arrangement of individual apertured diaphragms based on a film of specific thickness.
  • a spatial point P To generate a spatial point P according to FIG. 1, at least two light beams 1 1 and 12 are necessary.
  • the positions of the image pixels 3 of the image display device 2 which are to be switched on for the individual point in space P result from an inverse ray tracing from the viewer's eye or the viewer's eyes via the spatial point P to be generated at the correct location to the image display device 2.
  • two image pixels 3 are switched on to reconstruct the spatial point P, whereby the two light beams modulated by the two image pixels 3 with the corresponding information for the space point P are collimated by means of the corresponding lenses of the optical system 6 and onto the beam deflecting means 5 of the beam direction device 4 provided for this purpose incident.
  • the two beam deflecting means 5 are controlled via the control means 8 such that the two collimated, mutually incoherent light beams 11 and 12 are directed in predetermined directions and intersect at the designated location in the reconstruction space.
  • the variable deflection of the light beams 1 1 and 12 by means of the beam deflecting means 5 is achieved by the above-mentioned electrowetting effect.
  • the light beams 1 1 and 12 thus reconstruct the point of space P at its point of intersection.
  • FIG. 2 illustrates the reconstruction of several, in this case three, spatial points P1, P2 and P3 in the reconstruction space.
  • the image display device 2, the diaphragm arrangement 10, the optical system 6 and the beam direction device 4 correspond to the devices according to FIG have the same reference numerals as in Figure 1.
  • the devices 2, 10, 6 and 4 of the device 1 are shown only very simplified.
  • at least two intersecting light beams are required to produce a spatial point.
  • Each of the three spatial points P1, P2 or P3 shown is thus generated or reconstructed by at least two intersecting light beams, but in each case only the main beams of the individual light beams are shown here.
  • a point in space may also be located in the light direction in front of the image display device 2, which is intended to show that the reconstruction space can also extend behind the image display device 2 in the opposite direction of the light direction.
  • An essential feature of the device 1 is that the outgoing light beams from the points to be displayed P1, P2 and P3 are directed exclusively to a virtual viewer window 13, which lies in a viewer plane 14, which is located in the light direction at a distance from the beam direction device 4 which corresponds to the viewer distance.
  • a virtual viewer window 13 which corresponds in its extent at most to the diameter of the eye pupil of the observer, that is approximately as large as the eye pupil of the observer, and coincides with this almost spatially, the eye of the observer takes the illustrated space points P1, P2 and P3 at the correct depth true, as shown, from each point in space P1, P2 and P3 incident at least two light beams in the eye pupil.
  • the observer wants to observe the spatial points P1, P2 and P3 or the image represented thereby, he must bring his eye pupil to the location of the virtual observer window 13 so that the light bundles emanating from the spatial points P1, P2 and P3 pass through the virtual observer window 13 in the observer plane 14 and impinge on the pupil of the eye, so that the eye is made to focus on the spatial points P1, P2 and P3. Since only the perspective view for the viewer window 13 is calculated and displayed, significantly reduces the amount of information to be processed, whereby such a device 1 according to the invention also for the average consumer, for example in the media sector, can be realized.
  • FIG. 3 shows the representation of two spatial points P1 and P2 at different depths for two eyes of a viewer.
  • At least four light beams emanate from each spatial point P1 and P2 (again represented only by the main rays).
  • at least two light beams must be directed to the virtual viewer window 13a and at least two light beams to the virtual viewer window 13b so that when the pupils of the observer's eyes are at the locations of the virtual viewer windows 13a and 13b, the light beams are on the eye pupils can hit and the observer can then observe the three-dimensional image.
  • at least four image pixels 3 of the image display device 2 must be switched on.
  • a position detection system 15 is provided in the device 1.
  • the virtual Observer windows 13a and 13b can be tracked in the lateral and / or axial direction by corresponding activation of the image display device 2 and the beam direction device 4 by means of the control unit 9 in accordance with the new eye position determined with the position detection system 15. The same applies of course to the virtual viewer window 13 according to FIG. 2.
  • the observer sees, for example, the same view of the spatial points P1 and P2, the image display device 2 being programmed or coded so that the spatial points or the three-dimensional image rotate with one another.
  • the image display device 2 it is of course also possible to recode the image display device 2 in such a way that the viewer can observe a different perspective view of the spatial points P1 and P2 or of the three-dimensional image after a change of position and thus tracking of the observer windows 13a and 13b, the spatial points resp The three-dimensional image is fixed (all-round view).
  • spatial resolution of the device 1 is spatial multiplexing of the image pixels to be switched for the two virtual viewer windows 13a and 13b or for the two observer eyes 3 maximum one quarter of the
  • the spatial resolution of the device 1 is reduced to half or equal to the resolution of the image display device 2 when the display frequency is increased to twice or four times the original frequency of the image display device 2, respectively.
  • the device 1 can also be designed such that several viewers can observe the spatial points P1 and P2 or the three-dimensional image of observer windows assigned to them. If this is the case, then it may be advantageous if a mixed time-space multiplexing is performed for it.
  • the two eyes of a viewer can be addressed by means of spatial multiplexing, wherein the viewers are operated with each other via the temporal multiplexing.
  • the image information in the image display device 2 is e.g. nested in columns.
  • this is not particularly advantageous in the presence of many viewers, since then the spatial resolution of the image display device 2 per viewer is low. It can also be done only a temporal multiplexing for multiple viewers.
  • the operation of multiple viewers may also be done by still other non-described procedures of multiplexing.
  • FIG. 4 represents a further possibility for the reconstruction of spatial points by the device 100.
  • the image display device 2 the diaphragm arrangement 10 and the optical system 6 are shown here only in a part of the device 100 and can be embodied in the same way as described with reference to FIGS. 1 to 3, and therefore the same reference numerals have been used.
  • Other versions are possible.
  • the subpixels RGB of an image pixel 3 are shown here in succession, but this is only to simplify the Representation of an image pixel 3 is intended.
  • the subpixels of an image pixel 3 are generally arranged side by side in the image display device 2 as shown in FIG.
  • a Fresnel lens 16 is formed by a group of a plurality of adjacently disposed beam deflecting means 50, here four beam deflecting means, a beam direction device 40.
  • the group of the beam deflecting means 50 is assigned to a group of image pixels 3, in this case correspondingly four image pixels 3a to 3d, of the image display device 2, wherein here as well each image pixel 3 is assigned a beam deflecting device 50.
  • the beam deflecting means 50 may in turn be formed as prism elements or lens elements based on the electrowetting effect, wherein the beam deflecting means 50 steer in different directions when hitting several light beams, so that the light beams intersect or intersect at a point, whereby a point in space P1 is generated in the reconstruction space. That is, for reconstructing the point in space P1, the image pixels 3a to 3d are switched by the control means 7 of the control unit 9, whereby the light beams emanating from the image pixels 3a to 3d are collimated by the optical system 6 and impinge on the Fresnel lens 16.
  • the four beam deflecting means 50 of the Fresnel lens 16 each have different beam deflecting properties or deflecting behavior (deflection angle) corresponding to the spatial point P1, which are set via the control means 8.
  • the Fresnel lens 16 thus designed to reconstruct the point P1 now focuses the light modulated by the image pixels 3a to 3d and identified by four light beams onto a point in the reconstruction space so as to reconstruct the spatial point P1.
  • the thereby emanating from the point in space P1 four light beams must in turn impinge through the viewer window 13 on the arranged at the site of the viewer window 13 eye pupil of the observer, so that it can observe the point in space P1.
  • the observer window 13 can, as described above with reference to FIG. 3, be tracked in the lateral and / or axial direction in accordance with the arrows shown when the observer changes position. For this the position detection system 15 determines the eye position of the viewer at the new location.
  • a Fresnel lens 17 is formed by means of the beam deflection means 50.
  • the above-mentioned for reconstructing the spatial point P1 and for forming the Fresnel lens 16 can also be applied to the reconstruction of the space point P2, but the Fresnel lens 17 is formed of eight beam deflecting means 50.
  • the image pixels 3h to 3o of the image display device 2 are switched on for this purpose.
  • the point in space P2 is reconstructed by eight intersecting light beams. Accordingly, the Fresnel lenses 16 and 17 of the beam-direction device 40 are formed differently in size depending on the reconstruction location of the space points P1 and P2.
  • the incoherent character of the reconstruction also persists in a reconstruction of spatial points via Fresnel lenses.
  • the light beams can not interfere, so that the reconstruction is not disturbed by coherent noise (speckling).
  • the Fresnel lenses 16 and 17 it is also possible in the case of the generation of the spatial points P1 and P2 by the Fresnel lenses 16 and 17 to encode or program them only one-dimensionally, ie horizontally or vertically. That is, if the Fresnel lens 16 or 17 is programmed only horizontally in the beam director 40, it occupies only a portion of a line. However, if the Fresnel lens 16 or 17 is programmed only vertically, it occupies only a portion of a column, depending on what one-dimensional programming is done. The size of the Fresnel lenses 16 and 17 depends, as already mentioned above, on the distance of the spatial point to be reconstructed from the beam direction device 40.
  • the spatial points P1 and P2 are reconstructed at different depths in the reconstruction space with different brightness.
  • the brightness of the spatial points can be controlled and adjusted individually, for example by controlling the brightness of the image pixels 3 contributing to the respective spatial point or by encoding the luminance of the corresponding image pixels 3.
  • FIGS. 1 to 4 relate to a direct-view display designed as a device 1 or 100.
  • FIGS. 1 to 4 represent only preferred embodiments
  • combinations of the embodiments are also conceivable with one another.
  • Variations of the embodiments shown are therefore possible without departing from the scope of the invention.
  • all possible embodiments have in common that they require a much lower presentation and processing capacity over the prior art.
  • Possible fields of application of the device 1, 100 for displaying three-dimensional images are in particular in the private and work area, such as for example, television, electronic games, automotive industry for display of information or entertainment, medical technology.
  • the present device 1, 100 can also be used in other areas not mentioned here.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung (1,100) zur Darstellung von insbesondere dreidimensionalen Bildern in einem Rekonstruktionsraum durch Raumpunkte (P, P1, P2, P3), die Schnittpunkte von wenigstens zwei sich kreuzenden Lichtstrahlenbündeln (11, 12) sind. Die Vorrichtung (1, 100) weist eine Bildanzeigeeinrichtung (2) mit Bildpixeln (3, 3a, 3b, 3c, 3d, 3h, 3i, 3j, 3k, 3I, 3m, 3n, 3o) zur Darstellung von Bildinformationen und eine Strahlrichtungseinrichtung (4, 40) auf. Die Strahlrichtungseinrichtung (4, 40) sendet die von der Bildanzeigeeinrichtung (2) ausgehenden Lichtstrahlenbündel in vordefinierte Richtungen aus, so dass in ihrem Schnittpunkt wenigstens ein Raumpunkt (P, P1, P2, P3) im Rekonstruktionsraum erzeugbar ist. Die von dem wenigstens einen Raumpunkt (P, P1, P2, P3) ausgehenden Lichtstrahlenbündel sind dabei ausschließlich auf wenigstens ein in einer Betrachterebene (14) vorgesehenes virtuelles Betrachterfenster (13, 13a, 13b) gerichtet. Das virtuelle Betrachterfenster (13, 13a, 13b) entspricht in seiner Ausdehnung höchstens dem Durchmesser der Augenpupille des Betrachters und wird diesem bei einer lateralen und/oder axialen Bewegung nachgeführt.

Description

VORRICHTUNG ZUR DARSTELLUNG VON STEREOSKOPISCHEN BILDERN
Die Erfindung betrifft eine Vorrichtung zur Darstellung von dreidimensionalen Bildern in einem Rekonstruktionsraum durch Raumpunkte, die Schnittpunkte von wenigstens zwei sich kreuzenden Lichtstrahlenbündeln sind. Des Weiteren betrifft die Erfindung auch ein Verfahren zum Darstellen von dreidimensionalen Bildern in einem Rekonstruktionsraum.
Zur Darstellung von dreidimensionalen Bildern von Objekten sind bereits verschiedene Möglichkeiten bekannt.
Die bekanntesten Systeme bilden gegenwärtig stereoskopische bzw. autostereoskopische Wiedergabeeinrichtungen (Displays), bei denen zwei Bilder projiziert werden, die durch z.B. Farbfilter, Polarisationsfilter oder Shutterbrillen getrennt werden bzw. ohne derartige Hilfsmittel zu beobachten sind. Oder mit anderen Worten ausgedrückt, sind diese Wiedergabeeinrichtungen, bei denen den Augen eines Betrachters unterschiedliche perspektivische zweidimensionale Ansichten des darzustellenden Objekts zugeführt werden. Der wesentliche Nachteil derartiger Wiedergabeeinrichtungen besteht darin, dass es wegen dem Widerspruch zwischen der Fokussierung und dem Konvergenzwinkel der Augen des Betrachters bei der Beobachtung der beiden zweidimensionalen Bilder auf einem flachen Bildschirm zu einer unnatürlichen Belastung der Augen kommt, wodurch sehr häufig Ermüdungserscheinungen auftreten können. Dieser Nachteil kann jedoch verringert werden, indem den Betrachteraugen mehr als zwei perspektivische Ansichten zur Verfügung gestellt werden. Dadurch erhöht sich aber der Aufwand, und eine zufriedenstellende Lösung kann erst in sogenannten Super-Multiview-Displays mit einer sehr hohen Anzahl an perspektivischen Ansichten erreicht werden. Eine echte räumliche Rekonstruktion des Objekts ist aber mit derartigen Wiedergabeeinrichtungen nicht realisierbar.
Echte räumliche Rekonstruktionen lassen sich mit sogenannten volumetrischen Displays bzw. Wiedergabeeinrichtungen realisieren, bei denen die Bildpunkte auf einem Licht streuenden Medium im dreidimensionalen Raum dargestellt werden. Auf diese Weise kann daher der Widerspruch zwischen Fokussierung und Konvergenz nicht auftreten. Mittels einer derartigen Vorgehensweise lassen sich aber nur transluzente Objekte darstellen, wobei diese Wiedergabeeinrichtungen wegen ihrer Kompliziertheit für den täglichen Gebrauch nicht einsetzbar sind, sondern vielmehr nur für Werbezwecke oder ähnlich spezielle Vorhaben.
Auch mit Hilfe der Holographie lässt sich eine echte Rekonstruktion eines dreidimensionalen Objektes im Raum erzeugen. Die Rekonstruktion von Raumpunkten erfolgt hier durch Beugung von hinreichend kohärentem Licht an berechneten oder auf andere Weise erzeugten Gitterstrukturen, den Hologrammen. Die Raumpunkte entstehen dabei durch Interferenz der durch das Hologramm modulierten Wellenfronten im Rekonstruktionsraum. Es handelt sich daher um ein wellenoptisches Rekonstruktionsverfahren, bei dem in der Regel die Rekonstruktion nur in einer bestimmten Beugungsordnung erfolgt. Derartige holographische Methoden stellen aber hohe Anforderungen sowohl an das Auflösungsvermögen der Wiedergabeeinrichtung bzw. des Displays, als auch an die Leistungsfähigkeit der zur Berechnung der Hologramme eingesetzten Rechner. Dabei hängt sowohl die Größe des Rekonstruktionsvolumens bzw. des Rekonstruktionsraums als auch der Sichtbarkeitsbereich von dem durch den Pixelpitch des Displays gegebenen Beugungswinkel ab. Daher können mit gegenwärtigen Mitteln auf Basis von herkömmlichen holographischen Verfahren bisher nur kleine Szenen bzw. Objekte in einem noch relativ kleinen Sichtbarkeitsbereich rekonstruiert werden. Da zur Rekonstruktion außerdem hinreichend kohärentes Licht erforderlich ist, ist die dreidimensionale Darstellung auch immer mit kohärentem Rauschen, dem sogenannten Speckling, überlagert, wodurch Maßnahmen zu seiner Unterdrückung erforderlich sind, wobei unter Umständen aber wiederum die Auflösung des Displays herabgesetzt wird.
Eine weitere Möglichkeit, reale Bildpunkte in einem dreidimensionalen Raum zu rekonstruieren, bietet eine als Multi-Beam-Display bezeichnete Wiedergabeeinrichtung. Bei dieser Art von Wiedergabeeinrichtungen werden die Bildpunkte durch sich im Rekonstruktionsraum kreuzende Lichtstrahlenbündel erzeugt. Dabei ist es erforderlich, dass wenigstens zwei Lichtstrahlenbündel, die unter einem Winkel von einem Bildpunkt bzw. Raumpunkt ausgehen, auf die Pupille eines Betrachterauges treffen, um das Auge zur Fokussierung auf den Bildpunkt zu veranlassen (monokulare Akkommodation). Für eine binokulare dreidimensionale Wahrnehmung des Bildpunktes sind dann jeweils wenigstens vier von dem gleichen Bildpunkt ausgehende Lichtstrahlenbündel erforderlich, so dass zwei Lichtstrahlenbündel auf die Pupille des rechten Betrachterauges und zwei Lichtstrahlenbündel auf die Pupille des linken Betrachterauges treffen.
Eine auf diesem Wirkungsprinzip beruhende Wiedergabeeinrichtung beschreibt die US 6,798,390 B1. Die Wiedergabeeinrichtung weist dabei ein bildgebendes LC- Display und ein weiteres zweites LC-Display auf, die in einem Abstand parallel zueinander angeordnet sind. Das zweite LC-Display dient dabei in Verbindung mit einer Feldlinse als richtungsgebendes Display und wird als Shutter betrieben. Um beispielsweise drei Bildpunkte bzw. Raumpunkte durch sich kreuzende Lichtstrahlenbündel zu erzeugen, werden nacheinander jeweils drei Bildpixel an unterschiedlichen Stellen im bildgebenden LC-Display aufgeschaltet. Eine sich über das zweite als Shutter ausgebildete LC-Display zeitsequentiell bewegende kleine Öffnung bzw. Apertur wählt jeweils drei Lichtstrahlenbündel aus, die in unterschiedliche Richtungen in den Rekonstruktionsraum in Lichtrichtung hinter dem zweiten LC-Display abgestrahlt werden. Bei geeigneter Wahl der im bildgebenden LC-Display aufgeschalteten Bildpixel und der dazu aufgeschalteten Öffnung schneiden sich die jeweiligen auf diese Weise nacheinander erzeugten Lichtstrahlenbündel, so dass drei Raumpunkte erzeugt werden. Ein Betrachter kann dann diese drei Raumpunkte aus verschiedenen Blickwinkeln mit unterschiedlicher Tiefe als dreidimensionales Bild wahrnehmen.
Nachteilig bei einer derartigen Wiedergabeeinrichtung ist jedoch, dass die die Raumpunkte erzeugenden Lichtstrahlenbündel durch eine einzige Apertur zeitsequentiell erzeugt werden. Dadurch ist das rekonstruierte dreidimensionale Bild sehr lichtschwach, wobei außerdem an die Schaltgeschwindigkeit des als Shutter betriebenen zweiten LC-Displays hohe Anforderungen gestellt werden. Die US 6,798,390 B1 beschreibt zudem, dass das bildgebende LC-Display durch eine LED- Anordnung ersetzt werden kann. Auf diese Weise verbessern sich zwar die Lichtverhältnisse, der grundsätzliche Nachteil der sequentiellen Erzeugung der Lichtstrahlenbündel in einem größeren Sichtbarkeitsbereich bleibt aber bestehen.
Die US 6,798,390 B1 beschreibt in einer weiteren Ausgestaltung der Wiedergabeeinrichtung die Beschränkung des Sichtbarkeitsbereichs der dreidimensionalen Darstellung auf einen definierten kleineren Bereich, in dem sich im gegebenen Moment der Kopf des Betrachters befindet. Der Ort des Kopfes des Betrachters wird durch ein Positionserfassungssystem ermittelt. Dabei werden die verschiedenen Sichtbarkeitsbereiche (Raumwinkel, der mindestens den Kopf des Betrachters erfasst, meist aber größer ist), die den Kopfpositionen des Betrachters entsprechen, durch unterschiedliche Bereiche des bildgebenden LC-Displays dargestellt. Dadurch werden zwar die Anforderungen an die Schaltgeschwindigkeit des zweiten LC-Displays verringert, aber die Auflösung der dreidimensionalen Darstellung verringert sich in gleichem Maße.
Die Beseitigung derartiger Nachteile kann dadurch erreicht werden, dass die Anzahl der bildgebenden und richtungsgebenden Systeme in einer Wiedergabeeinrichtung erhöht wird. Eine derartige Wiedergabeeinrichtung ist beispielsweise aus der US 2003/0156077 A1 bekannt. Die sich im Rekonstruktionsraum kreuzenden Lichtstrahlenbündel werden dabei von mehreren in horizontaler und vertikaler Richtung nebeneinander bzw. untereinander angeordneten Mikrodisplays in Kombination mit speziellen optischen Abbildungssystemen erzeugt. Der Anordnung von Mikrodisplays ist ein passiver Bildschirm mit einer Streucharakteristik vorgelagert, der die von den Mikrodisplays ausgehenden Lichtstrahlenbündel derart aufweitet, dass sie winkelmäßig ohne Unterbrechung ineinander übergehen und so Raumpunkte erzeugt werden, die eng beieinanderliegen. Die derart erzeugten Raumpunkte sind dann im Bereich vor, hinter oder auf dem Bildschirm sichtbar. Auf diese Weise kann in einem bestimmten Raumwinkel eine Vielzahl von perspektivischen Ansichten eines dreidimensionalen Bildes erzeugt werden, die ein Betrachter mit beiden Augen bei einer Bewegung nacheinander wahrnimmt oder die mehrere Betrachter gleichzeitig sehen können. Dadurch wird die Multi-User- Fähigkeit (mehrere Betrachter) der Wiedergabeeinrichtung gewährleistet. Durch die Bewegungsparallaxe wird der dreidimensionale Eindruck des dargestellten Bildes noch verstärkt. Der Sichtbarkeitsbereichs und die Anzahl der Ansichten hängen dabei von der Geometrie der Anordnung ab und können durch Hinzufügen weiterer Module (Mikrodisplays und richtungsgebende Optiken) vergrößert werden.
Von großem Nachteil bei einer derartigen Wiedergabeeinrichtung ist aber der hohe Aufwand der Anordnung der Mikrodisplays bzw. der Module und der damit verbundene rechentechnische Aufwand zur Programmierung und Steuerung der Module. Diese Wiedergabeeinrichtungen sind deshalb eher als Einzelgeräte für spezielle Anwendungen als für den Durchschnittsverbraucher geeignet.
Es ist daher Aufgabe der vorliegenden Erfindung, eine Vorrichtung auf Basis eines Multi-Beam-Displays und ein Verfahren zur Darstellung von dreidimensionalen Bildern in einem Rekonstruktionsraum zu schaffen, mit denen die Nachteile des Standes der Technik beseitigt werden und die eine geringe Anzahl von Elementen erfordern. Zudem soll der rechentechnische Aufwand zur Realisierung von dreidimensionalen Bildern vermindert werden und die Vorrichtung auch für den Durchschnittsverbraucher geeignet anwendbar sein.
Erfindungsgemäß wird die vorliegende Aufgabe hinsichtlich der Vorrichtung mit den Merkmalen des Anspruchs 1 und hinsichtlich des Verfahrens mit den Merkmalen des Anspruchs 13 gelöst.
Erfindungsgemäß wird die Aufgabe durch eine Vorrichtung zur Darstellung von dreidimensionalen Bildern in einem Rekonstruktionsraum durch Raumpunkte, die Schnittpunkte von wenigstens zwei sich kreuzenden Lichtstrahlenbündeln sind, gelöst, die eine Bildanzeigeeinrichtung mit Bildpixeln zur Darstellung von Bildinformationen und eine Strahlrichtungseinrichtung aufweist. Die Bildanzeigeeinrichtung kann beispielsweise als herkömmliches LC-Display mit einer bestimmten Diagonale ausgeführt sein, z.B. ein 20" Display. Die Strahlrichtungseinrichtung sendet die von den Bildpixeln der Bildanzeigeeinhchtung ausgehenden Lichtstrahlenbündel in vordefinierte bzw. vorgebbare Richtungen, beispielsweise zu wenigstens einem Betrachter, aus, so dass wenigstens ein Raumpunkt im Rekonstruktionsraum erzeugbar ist. Die von dem wenigstens einen Raumpunkt ausgehenden Lichtstrahlenbündel sind dabei ausschließlich auf wenigstens ein in einer Betrachterebene vorgesehenes virtuelles Betrachterfenster gerichtet, das in seiner Ausdehnung höchstens dem Durchmesser der Augenpupille eines Betrachters entspricht.
Bei der erfindungsgemäßen Vorrichtung sind die Lichtstrahlenbündel, die einen Raumpunkt bzw. Raumpunkte rekonstruieren, ausschließlich auf wenigstens ein virtuelles Betrachterfenster gerichtet, das in seiner Ausdehnung höchstens der Augenpupille eines Betrachters entspricht. Zur Beobachtung des oder der Raumpunkte im Rekonstruktionsraum ist es deshalb erforderlich, dass die Augenpupille des Betrachters sich am Ort des virtuellen Betrachterfensters befindet. Das Auge des Betrachters fokussiert dann auf die dargestellten Raumpunkte und nimmt diese in der richtigen Tiefe wahr, wenn von jedem Raumpunkt wenigstens zwei Lichtstrahlenbündel in die Pupille dieses Auges einfallen.
Der Vorteil dieser erfindungsgemäßen Vorrichtung liegt in der Konzentration der gesamten von den Bildpixeln ausgehenden Information auf virtuelle Betrachterfenster. Dadurch kann die zu verarbeitende Informationsmenge erheblich gesenkt werden, z.B. gegenüber den Wiedergabeeinrichtungen der US 6,798,390 B1 und der US 2003/0156077 A1 , da zu einem bestimmten Zeitpunkt immer nur die perspektivischen Ansichten des dreidimensionalen Bildes für die Betrachterfenster zu berechnen und darzustellen sind, in denen sich auch Augen wenigstens eines Betrachters befinden. Außerdem wird dadurch eine Echtzeitdarstellung von bewegten Szenen (Folge von rekonstruierten dreidimensionalen Bildern bzw. Objekten) wesentlich vereinfacht bzw. überhaupt erst möglich. Da die erfindungsgemäße Vorrichtung zur Rekonstruktion der Raumpunkte bzw. Bildpunkte bzw. Objektpunkte nur eine geringe Anzahl von optischen Elementen aufweist bzw. benötigt und vor allem kein kohärentes Licht erfordert, liegt ein besonderer Vorteil gegenüber holographischen Wiedergabeeinrichtungen darin, dass Interferenzerscheinungen nicht auftreten bzw. keine Rolle spielen und somit die Darstellungsqualität nicht durch Speckling (kohärentes Rauschen) beeinträchtigt wird. Mit anderen Worten sind die wenigstens zwei sich kreuzenden Lichtstrahlenbündel, mit welchen wenigstens ein Raumpunkt in einem Rekonstruktionsraum erzeugt wird, zueinander inkohärent.
Durch die erhebliche Minderung des gerätetechnischen und rechentechnischen Aufwandes ist es möglich, die erfindungsgemäße Vorrichtung auch für den verbraucherorientierten Videobereich einzusetzen bzw. ist die Vorrichtung auf Basis eines derartigen Multi-Beam-Displays in der Anwendung für den Durchschnittsverbraucher geeignet.
Grundsätzlich ist vorgesehen, dass die Strahlrichtungseinrichtung einzelne oder mehrere Lichtstrahlenbündel variabel ablenkt, und zwar vorzugsweise in kontinuierlicher Weise, beispielsweise um stufenlos einstellbare Winkel. In einer Ausgestaltung der Erfindung kann dabei vorgesehen sein, dass die Strahlrichtungseinrichtung Strahlablenkmittel aufweist, wobei jedem Bildpixel oder einer Gruppe von nebeneinanderliegenden Bildpixeln der Bildanzeigeeinrichtung ein Strahlablenkmittel der Strahlrichtungseinrichtung zugeordnet ist. Besonders von Vorteil kann sein, wenn die Strahlablenkmittel als steuerbare Prismenelemente ausgebildet sind. Die steuerbaren Prismenelemente können dabei beispielsweise auf Basis des Electrowetting-Effects (Elektrokapillarität; variable Brennweite bzw. variabler Ablenkwinkel durch flüssige Mikroelemente, z.B. Wasser-Öl-Gemische) aufgebaut und betrieben werden.
In einer weiteren vorteilhaften Ausgestaltung der Erfindung kann vorgesehen sein, dass eine Gruppe von nebeneinander angeordneten Strahlablenkmitteln oder Prismenelementen der Strahlrichtungseinrichtung als Fresnel-Linse ausgeführt ist, wobei die Strahlablenkmittel der Fresnel-Linse jeweils einem Bildpixel oder einer Gruppe von Bildpixeln der Bildanzeigeeinrichtung in Lichtstrahlrichtung nachgeordnet sind. Die Fresnel-Linse kann dabei direkt durch eine Gruppe von Strahlablenkmitteln bzw. Prismenelementen der steuerbaren Strahlrichtungseinrichtung dargestellt werden, wobei diese Gruppe von Strahlablenkmitteln bzw. Prismenelementen einer in annähernd gleicher Größe ausgebildeten Gruppe von Bildpixeln der Bildanzeigeeinrichtung zugeordnet ist. Die Fresnel-Linsen rekonstruieren in ihren Brennpunkten jeweils einen Raumpunkt. Der inkohärente Charakter der Rekonstruktion bleibt auch bei dieser Ausführungsform der erfindungsgemäßen Vorrichtung erhalten.
Besonders von Vorteil kann sein, wenn die Ablenkwinkel der Strahlablenkmittel bzw. der Prismenelemente in zwei senkrecht aufeinanderstehenden Richtungen steuerbar sind. So ist es möglich, die Lichtstrahlenbündel in horizontaler und vertikaler Richtung entsprechend des zu rekonstruierenden Raumpunktes zu steuern und auszusenden.
Um insbesondere eine Kollimation der von den Bildpixeln der Bildanzeigeeinrichtung ausgehenden Lichtstrahlenbündel vornehmen zu können, damit auf die Strahlablenkmittel der Strahlrichtungseinrichtung kollimierte Lichtstrahlenbündel auftreffen, kann vorteilhaft ein optisches System vorgesehen sein, das zwischen der Bildanzeigeeinrichtung und der Strahlrichtungseinrichtung angeordnet ist.
In vorteilhafter Weise kann dabei das optische System als Linsenanordnung, insbesondere als Mikrolinsenanordnung, ausgebildet sein, wobei jedem Bildpixel oder einer Gruppe von nebeneinanderliegenden Bildpixeln der Bildanzeigeeinrichtung eine Linse der Linsenanordnung zugeordnet ist.
Um die gegenseitige Beeinflussung des von benachbarten Bildpixeln ausgehenden Lichts als Streulicht zu vermeiden, kann vorteilhaft zwischen der Bildanzeigeeinrichtung und dem optischen System eine Blendenanordnung, beispielsweise durch Realisierung von Lochblenden, vorgesehen sein.
Da nur die perspektivische Ansicht für das jeweilige virtuelle Betrachterfenster und daher für das jeweilige Auge eines Betrachters berechnet und dargestellt werden soll, kann es vorteilhaft sein, wenn ein Positionserfassungssystem zur Ermittlung von Augenpositionen wenigstens eines Betrachters in der Betrachterebene vorgesehen ist.
Die Aufgabe der Erfindung wird weiterhin durch ein Verfahren zum Darstellen von dreidimensionalen Bildern in einem Rekonstruktionsraum gelöst, wobei Lichtstrahlenbündel von Bildpixeln einer Bildanzeigeeinrichtung auf eine Strahlrichtungseinrichtung gesandt werden, die durch die Strahlrichtungseinrichtung derart in unterschiedliche Richtungen gelenkt werden, dass wenigstens ein Raumpunkt durch wenigstens zwei sich kreuzende - vorzugsweise zueinander inkohärente - Lichtstrahlenbündel in einem Rekonstruktionsraum erzeugt wird, wobei die von dem wenigstens einen Raumpunkt ausgehenden Lichtstrahlenbündel durch wenigstens ein virtuelles Betrachterfenster in einer Betrachterebene verlaufen und auf die Pupille von wenigstens einem Auge wenigstens eines Betrachters auftreffen, so dass der wenigstens eine Betrachter durch das wenigstens eine virtuelle Betrachterfenster ein dreidimensionales Bild beobachtet.
Die von dem darzustellenden Raumpunkt ausgehenden Lichtstrahlenbündel werden erfindungsgemäß ausschließlich auf wenigstens ein virtuelles Betrachterfenster gerichtet, das in einer Betrachterebene vorliegt. Um den Raumpunkt bzw. Bildpunkt im Rekonstruktionsraum beobachten zu können, muss die Augenpupille eines Betrachters räumlich mit dem virtuellen Betrachterfenster zusammenfallen bzw. am Ort des virtuellen Betrachterfensters vorliegen, so dass wenigstens zwei von dem Raumpunkt ausgehende Lichtstrahlenbündel auf die Augenpupille auftreffen. Für eine binokulare Tiefenwahrnehmung ist es erforderlich, dass von jedem Raumpunkt wenigstens vier Lichtstrahlenbündel ausgehen, von denen jeweils wenigstens zwei Lichtstrahlenbündel auf das rechte Betrachterauge und auf das linke Betrachterauge auftreffen. Soll das dreidimensionale Bild bzw. Objekt durch mehrere Betrachter beobachtbar sein, so lässt sich dies durch Erzeugung von mehreren Betrachterfenstern realisieren (Multi-User-Eigenschaft). Die Betrachterfenster können auch nebeneinander angrenzend angeordnet werden (Multi-View- Eigenschaft).
Mittels dieses erfindungsgemäßen Verfahrens wird eine wesentliche Einsparung von Darstellungs- und Berechnungskapazität erreicht, da nur die Flächen der Augenpupillen des bzw. der Betrachter(s) mit Informationen versorgt werden müssen. Eine weitere Verminderung des Berechnungs- und Darstellungsaufwandes kann dadurch erzielt werden, dass beispielsweise aufgrund der horizontal nebeneinanderliegenden Anordnung der Augen nur die horizontale Perspektive dargestellt und auf die Darstellung der vertikalen Perspektive verzichtet wird. Im Gegensatz zur wellenoptischen Rekonstruktion von Raumpunkten gemäß der Holographie handelt es sich bei dem erfindungsgemäßen Verfahren um ein strahlenoptisches Rekonstruktionsverfahren.
Von besonderem Vorteil kann dabei sein, dass die Position wenigstens eines Auges wenigstens eines Betrachters in der Betrachterebene mittels eines Positionserfassungssystems ermittelt wird und bei Bewegung des wenigstens einen Betrachters in lateraler und/oder axialer Richtung das wenigstens eine virtuelle Betrachterfenster nachgeführt wird. Auf diese Weise kann ein Betrachter des dreidimensionalen Bildes dieses auch nach Bewegung an einen anderen Ort beobachten, wobei dem Betrachter entweder die gleiche perspektivische Ansicht des dreidimensionalen Bildes wie vorher dargeboten wird oder auch eine andere perspektivische Ansicht des dreidimensionalen Bildes, je nachdem welche Anforderungen der Betrachter an die Vorrichtung bzw. an das Verfahren stellt.
Bei den Positionen der für die Rekonstruktion der Raumpunkte aufzuschaltenden Bildpixel der Bildanzeigeeinrichtung handelt es sich um eine Projektion des darzustellenden Objekts auf die Bildanzeigeeinrichtung. Die Positionen der für die einzelnen Raumpunkte bzw. Bildpunkte aufzuschaltenden Bildpixel der Bildanzeigeeinrichtung werden deshalb vorteilhafterweise durch inverse Strahldurchrechnung (inverses ray-tracing) von den Betrachteraugen über die Raumpunkte zu der Bildanzeigeeinrichtung ermittelt.
Weitere Ausgestaltungen der Erfindung ergeben sich aus den restlichen Unteransprüchen. Im nachfolgenden wird die Erfindung anhand der in der Zeichnung näher beschriebenen Ausführungsbeispiele prinzipmäßig erläutert.
Die Figuren zeigen:
Figur 1 eine schematische Darstellung einer erfindungsgemäßen Vorrichtung zur Darstellung von dreidimensionalen Bildern durch Raumpunkte, in der Draufsicht; Figur 2 eine schematische Darstellung der in Figur 1 dargestellten Vorrichtung in Verbindung mit einem virtuellen Betrachterfenster, in der
Seitenansicht;
Figur 3 eine schematische Darstellung der in Figur 1 dargestellten Vorrichtung in Verbindung mit zwei virtuellen Betrachterfenstern, in der Draufsicht; und
Figur 4 eine schematische Darstellung einer zweiten Ausführungsform der erfindungsgemäßen Vorrichtung in Verbindung mit einem virtuellen Betrachterfenster, in der Draufsicht.
Die nachfolgenden Ausführungsbeispiele beziehen sich hauptsächlich auf Direktsichtdisplays bzw. Wiedergabeeinrichtungen, die zur Beobachtung eines dreidimensionalen Bildes direkt betrachtet werden. Eine Realisierung einer Projektionsvorrichtung, beispielsweise unter Verwendung von Mikrodisplays, ist aber ebenso möglich.
Nachfolgend werden der Aufbau und die Funktionsweise einer Vorrichtung 1 zur Darstellung von dreidimensionalen Bildern in einem Rekonstruktionsraum beschrieben. Während in den Figuren 1 und 4 die äußeren Begrenzungen (Randstrahlen) der Lichtstrahlenbündel dargestellt sind, zeigen die Figuren 2 und 3 nur die Hauptstrahlen (Mittelstrahlen) der Lichtstrahlenbündel.
In Figur 1 ist der prinzipielle Aufbau der Vorrichtung 1 dargestellt, wobei die Vorrichtung 1 sehr vereinfacht in der Draufsicht gezeigt ist. Die Vorrichtung 1 weist zur dreidimensionalen Darstellung eine Bildanzeigeeinrichtung 2 mit mehreren Bildpixeln 3 zur Darstellung von Bildinformationen auf. Wie aus Figur 1 ersichtlich, besteht gemäß der Erfindung ein Bildpixel 3 aus drei Subpixeln entsprechend der drei Grundfarben Rot, Grün und Blau (RGB), so dass ein dreidimensionales Bild farblich dargestellt werden kann, wobei eine farbliche Darstellung des dreidimensionalen Bildes nicht zwingend ist. Als Bildanzeigeeinrichtung 2 kann ein herkömmliches LC-Display mit einer gewünschten Diagonale, beispielsweise ein 20"-Display, verwendet werden. Selbstverständlich können auch andere Größenordnungen von Displays oder andere Displayarten als Bildanzeigeeinrichtung 2 eingesetzt werden.
Die Bildanzeigeeinrichtung 2 weist dabei eine nicht dargestellte Beleuchtungseinrichtung auf, die als Hintergrundbeleuchtung (backlight) ausgebildet ist und eine herkömmliche Hintergrundbeleuchtung darstellt, wobei aber auch hinter jedem Bildpixel eine Lichtquelle angeordnet sein kann. Die Hintergrundbeleuchtung beleuchtet dabei die Bildpixel 3 inkohärent. Selbstverständlich können auch anderweitig aufgebaute Beleuchtungseinrichtungen in der Bildanzeigeeinrichtung vorgesehen werden. Dabei ist es z.B. möglich, eine Bildanzeigeeinrichtung auf Basis von selbstleuchtenden Bildpixeln einzusetzen.
In Lichtrichtung nach der Bildanzeigeeinrichtung 2 ist eine Strahlrichtungseinrichtung 4 angeordnet, die zur Richtungssteuerung bzw. Ablenkung der von den Bildpixeln mit der entsprechenden Information modulierten Lichtstrahlenbündel vorgesehen ist. Die vorteilhaft zweidimensional ausgeführte Strahlrichtungseinrichtung 4 weist dazu Strahlablenkmittel 5 auf, die als richtungsgebende Elemente ausgebildet sind. Die Strahlablenkmittel 5 können dabei steuerbare Prismenelemente bzw. Linsenelemente sein, die jeweils nebeneinander angeordnet sind und so eine Anordnung von mehreren Strahlablenkmitteln 5 ergeben. Die Strahlablenkmittel 5 sind zur Richtungssteuerung der auftreffenden Lichtstrahlenbündel vorteilhafterweise nach dem Prinzip des Electrowettings aufgebaut und arbeiten bzw. operieren entsprechend des Electrowetting-Effekts. Der Ablenkwinkel der einzelnen Strahlablenkmittel 5 ist zur horizontalen und vertikalen Richtungssteuerung der einzelnen Lichtstrahlenbündel daher in zwei senkrecht aufeinander stehenden Richtungen steuerbar. Auf diese Weise kann ein echtes bzw. realistisches dreidimensionales Bild im Rekonstruktionsraum erzeugt und dargestellt werden, das einen dreidimensionalen Effekt sowohl in horizontaler als auch in vertikaler Richtung zeigt. Eine derartige Vorrichtung würde jedoch große Informationsmengen erfordern und verarbeiten müssen, so dass diese Vorrichtung vorzugsweise aus wirtschaftlichen Gründen keine hohe Effektivität aufweist. Da beide Augen eines Betrachters horizontal nebeneinander angeordnet sind, ist eine Darstellung der Perspektive des dreidimensionalen Bildes in horizontaler Richtung ausreichend.
Die Bildanzeigeeinrichtung 2 und die Strahlrichtungseinrichtung 4 werden zur Darstellung eines Raumpunktes bzw. eines dreidimensionalen Bildes über Steuerungsmittel 7 und 8 angesteuert, wobei die Ansteuerung synchron erfolgt. Damit eine derartige synchrone Ansteuerung der Bildanzeigeeinrichtung 2 und der Strahlrichtungseinrichtung 4 erfolgen kann, ist eine Steuereinheit 9 vorgesehen, die entsprechende Steuersignale an die beiden Steuerungsmittel 7 und 8 abgibt.
Zudem ist ein optisches System 6 zwischen der Bildanzeigeeinrichtung 2 und der Strahlrichtungseinrichtung 4 angeordnet, das als Linsenanordnung, vorzugsweise als Mikrolinsenanordnung, ausgeführt ist. Dabei ist jedem Bildpixel 3 der Bildanzeigeeinrichtung 2 eine Linse der Linsenanordnung 6 zugeordnet. Die Bildanzeigeeinrichtung 2 ist dabei in der objektseitigen Brennebene der Linsenanordnung 6 angeordnet. Dadurch werden die von den einzelnen Bildpixeln 3 ausgehenden Lichtstrahlenbündel durch die einzelnen Linsen der Linsenanordnung 6 kollimiert, so dass parallele Lichtstrahlenbündel auf die jeweiligen Strahlablenkmittel 5 der Strahlrichtungseinrichtung 4 auftreffen, wodurch das gesamte Strahlablenkmittel 5 vollflächig und homogen beleuchtet wird. Es kann jedoch bevorzugt sein, dass die jeweiligen Bildpixel 3 nicht im objektseitigen Brennpunkt der Linsen der Linsenanordnung 6 angeordnet sind, sondern leicht außerhalb, so dass von den einzelnen Bildpixeln 3 der Bildanzeigeeinrichtung 2 leicht divergente Lichtstrahlenbündel ausgehen. Auf diese Weise kommt ein leichtes Überlappen von wenigstens zwei Lichtstrahlenbündeln im Auge bzw. am Ort des Betrachtens zustande, wodurch der kontinuierliche Eindruck der Darstellung von angrenzenden Raumpunkten im Rekonstruktionsraum verstärkt wird.
Um insbesondere bei von den Bildpixeln 3 ausgehenden leicht divergenten Lichtstrahlenbündeln eine gegenseitige Beeinflussung der Lichtstrahlenbündel im Bereich des optischen Systems 6 bzw. der einzelnen Linsen durch Streulicht in horizontaler und/oder vertikaler Richtung zu verringern bzw. zu vermeiden, ist zwischen der Bildanzeigeeinrichtung 2 und dem optischen System 6 eine Blendenanordnung 10 vorgesehen. Dadurch wird eine genaue Zuordnung des von einem Bildpixel 3 ausgehenden Lichtstrahlenbündels auf das dafür vorgesehene Strahlablenkmittel 5 der Strahlrichtungseinrichtung 4 gewährleistet. Eine Verwaschung des durch die Lichtstrahlenbündel rekonstruierten bzw. erzeugten Raumpunkts wird somit weitgehend vermieden. Die Blendenanordnung 10 kann dabei beispielsweise als Anordnung von einzelnen Lochblenden auf Basis einer Folie bestimmter Dicke gesehen werden.
Zur Erzeugung eines Raumpunktes P gemäß der Figur 1 sind wenigstens zwei Lichtstrahlenbündel 1 1 und 12 notwendig. Die Positionen der für den einzelnen Raumpunkt P aufzuschaltenden Bildpixel 3 der Bildanzeigeeinrichtung 2 ergeben sich dabei durch eine inverse Strahldurchrechnung (ray-tracing) von dem Betrachterauge bzw. den Betrachteraugen über den am richtigen Ort zu erzeugenden Raumpunkt P zu der Bildanzeigeeinrichtung 2. Gemäß der Figur 1 werden zur Rekonstruktion des Raumpunktes P zwei Bildpixel 3 aufgeschaltet, wodurch die von den zwei Bildpixeln 3 mit der entsprechenden Information für den Raumpunkt P modulierten zwei Lichtstrahlenbündel mittels der entsprechenden Linsen des optischen Systems 6 kollimiert werden und auf die dafür vorgesehenen Strahlablenkmittel 5 der Strahlrichtungseinrichtung 4 auftreffen. Die beiden Strahlablenkmittel 5 werden dabei über das Steuerungsmittel 8 derart angesteuert, dass die beiden kollimierten, untereinander inkohärenten Lichtstrahlenbündel 11 und 12 in vorbestimmte Richtungen gelenkt werden und sich am dafür vorgesehenen Ort im Rekonstruktionsraum schneiden. Die variable Ablenkung der Lichtstrahlenbündel 1 1 und 12 mittels der Strahlablenkmittel 5 wird dabei durch den oben erwähnten Electrowetting-Effekt erzielt. Die Lichtstrahlenbündel 1 1 und 12 rekonstruieren somit den Raumpunkt P in ihrem Schnittpunkt.
Die Figur 2 stellt die Rekonstruktion von mehreren, hier drei Raumpunkten P1 , P2 und P3 im Rekonstruktionsraum dar. Die Bildanzeigeeinrichtung 2, die Blendenanordnung 10, das optische System 6 und die Strahlrichtungseinrichtung 4 entsprechen dabei den Einrichtungen gemäß Figur 1 , wodurch gleiche Teile auch gleiche Bezugszeichen wie in Figur 1 aufweisen. Zudem sind die Einrichtungen 2, 10, 6 und 4 der Vorrichtung 1 nur sehr vereinfacht dargestellt. Wie bereits zu Figur 1 beschrieben, werden zur Erzeugung eines Raumpunktes wenigstens zwei sich kreuzende Lichtstrahlenbündel benötigt. Jeder der drei dargestellten Raumpunkte P1 , P2 oder P3 wird somit durch wenigstens zwei sich kreuzende Lichtstrahlenbündel erzeugt bzw. rekonstruiert, wobei aber hier jeweils nur die Hauptstrahlen der einzelnen Lichtstrahlenbündel dargestellt sind. Wie ersichtlich müssen zur Erzeugung von mehreren Raumpunkten unterschiedliche Bildpixel 3 der Bildanzeigeeinrichtung 2 aufgeschaltet werden. Zudem kann sich ein Raumpunkt auch in Lichtrichtung vor der Bildanzeigeeinrichtung 2 befinden, wodurch gezeigt werden soll, dass sich der Rekonstruktionsraum auch entgegengesetzt der Lichtrichtung hinter die Bildanzeigeeinrichtung 2 erstrecken kann. Durch die Rekonstruktion von mehreren Raumpunkten kann ein dreidimensionales Bild erzeugt werden, das durch wenigstens einen Betrachter beobachtbar ist.
Ein wesentliches Merkmal der Vorrichtung 1 besteht darin, dass die von den darzustellenden Raumpunkten P1 , P2 und P3 ausgehenden Lichtstrahlenbündel ausschließlich auf ein virtuelles Betrachterfenster 13 gerichtet sind, das in einer Betrachterebene 14 liegt, die sich in Lichtrichtung in einem Abstand von der Strahlrichtungseinrichtung 4 befindet, der dem Betrachterabstand entspricht. Durch dieses virtuelle Betrachterfenster 13, das in seiner Ausdehnung höchstens dem Durchmesser der Augenpupille des Betrachters entspricht, also in etwa so groß ist wie die Augenpupille des Betrachters, und mit dieser nahezu räumlich zusammenfällt, nimmt das Auge des Betrachters die dargestellten Raumpunkte P1 , P2 und P3 in der richtigen Tiefe wahr, wenn, wie dargestellt, von jedem Raumpunkt P1 , P2 und P3 wenigstens zwei Lichtstrahlenbündel in die Augenpupille einfallen. Mit anderen Worten ausgedrückt: Will der Betrachter die Raumpunkte P1 , P2 und P3 bzw. das dadurch dargestellte Bild beobachten, so muss er seine Augenpupille an den Ort des virtuellen Betrachterfensters 13 bringen, so dass die von den Raumpunkten P1 , P2 und P3 ausgehenden Lichtstrahlenbündel durch das virtuelle Betrachterfenster 13 in der Betrachterebene 14 verlaufen und auf die Pupille des Auges auftreffen, so dass das Auge veranlasst wird auf die Raumpunkte P1 , P2 und P3 zu fokussieren. Da nur die perspektivische Ansicht für das Betrachterfenster 13 berechnet und dargestellt wird, reduziert sich erheblich die zu verarbeitende Informationsmenge, wodurch eine derartige erfindungsgemäße Vorrichtung 1 auch für den Normalverbraucher, beispielsweise im Medienbereich, realisierbar ist.
Damit ein Betrachter binokular die erzeugten Raumpunkte bzw. das dargestellte Bild beobachten kann, müssen gemäß Figur 3 zwei virtuelle Betrachterfenster 13a und 13b, nämlich das virtuelle Betrachterfenster 13a für das rechte Auge und das virtuelle Betrachterfenster 13b für das linke Auge des Betrachters, in der Betrachterebene 14 vorgesehen werden. Auch hier sind, wie in Figur 2, die Bildanzeigeeinrichtung 2, die Blendenanordnung 10, das optische System 6 und die Strahlrichtungseinrichtung 4, die auch als Gesamteinheit betrachtet werden können, nur sehr vereinfacht dargestellt, wobei auch hier wieder gleiche Teile gemäß Figur 1 auch die gleichen Bezugszeichen aufweisen. Figur 3 zeigt dabei die Darstellung von zwei Raumpunkten P1 und P2 in unterschiedlicher Tiefe für zwei Augen eines Betrachters. Für eine binokulare Tiefenwahrnehmung und somit eines dreidimensionalen Bildes, das durch die Raumpunkte P1 und P2 bzw. weitere Raumpunkte dargestellt wird, ist es erforderlich, dass von jedem Raumpunkt P1 und P2 wenigstens vier Lichtstrahlenbündel (auch hier wieder nur durch die Hauptstrahlen dargestellt) ausgehen. Davon müssen wenigstens zwei Lichtstrahlenbündel auf das virtuelle Betrachterfenster 13a und wenigstens zwei Lichtstrahlenbündel auf das virtuelle Betrachterfenster 13b gerichtet sein bzw. auftreffen, so dass, wenn an den Orten der virtuellen Betrachterfenster 13a und 13b jeweils die Pupillen der Augen des Betrachters vorliegen, die Lichtstrahlenbündel auf die Augenpupillen auftreffen und der Betrachter dann das dreidimensionale Bild beobachten kann. Um wenigstens vier Lichtstrahlenbündel zu erzeugen, müssen daher wenigstens vier Bildpixel 3 der Bildanzeigeeinrichtung 2 aufgeschaltet werden.
Damit der Betrachter auch nach Bewegung an eine andere Position das dreidimensionale Bild bzw. die Raumpunkte P1 und P2 mit Tiefenwahrnehmung beobachten kann, ist es notwendig, die virtuellen Betrachterfenster 13a und 13b nachzuführen, wie durch die Doppelpfeile dargestellt. Um jedoch die neue Augenposition des Betrachters ermitteln zu können, ist ein Positionserfassungssystem 15 in der Vorrichtung 1 vorgesehen. Die virtuellen Betrachterfenster 13a und 13b können dabei in lateraler und/oder axialer Richtung durch entsprechende Ansteuerung der Bildanzeigeeinrichtung 2 und der Strahlrichtungseinrichtung 4 mittels der Steuereinheit 9 entsprechend der mit dem Positionserfassungssystem 15 ermittelten neuen Augenposition nachgeführt werden. Gleiches gilt selbstverständlich für das virtuelle Betrachterfenster 13 gemäß Figur 2.
Nach der Nachführung der beiden Betrachterfenster 13a und 13b sieht der Betrachter beispielsweise die gleiche Ansicht der Raumpunkte P1 und P2, wobei die Bildanzeigeeinrichtung 2 so programmiert bzw. kodiert wurde, dass sich die Raumpunkte bzw. das dreidimensionale Bild mitdrehen. Es ist jedoch selbstverständlich auch möglich, die Bildanzeigeeinrichtung 2 dabei derart umzukodieren, dass der Betrachter nach einem Positionswechsel und somit der Nachführung der Betrachterfenster 13a und 13b eine andere perspektivische Ansicht der Raumpunkte P1 und P2 bzw. des dreidimensionalen Bildes beobachten kann, wobei die Raumpunkte bzw. das dreidimensionale Bild dabei feststeht (Rundumsicht). Das bedeutet, dass dem einzelnen Betrachter oder mehreren Betrachtern bei einer Bewegung in lateraler und/oder axialer Richtung vor der Vorrichtung 1 entweder immer die gleiche perspektivische Ansicht oder unterschiedliche Ansichten des dreidimensionalen Bildes dargeboten werden können. Bei der Darstellung von unterschiedlichen Ansichten des dreidimensionalen Bildes erhöht sich jedoch der Aufwand, insbesondere der Aufwand hinsichtlich der Umkodierung der Bildanzeigeeinrichtung 2. Um aber insbesondere diesen Berechnungsaufwand gering zu halten, kann vorgesehen sein, dass auf die Darstellung der vertikalen Perspektive des dreidimensionalen Bildes verzichtet wird, wie bereits zu Figur 1 beschrieben. Die Raumpunkte P1 und P2 können entweder gleichzeitig oder schnell nacheinander dargestellt werden, je nachdem, ob von einem räumlichen oder zeitlichen Multiplexing Gebrauch gemacht wird.
Da zur binokularen Darstellung eines Raumpunktes, z.B. des Raumpunktes P1 , wenigstens vier Bildpixel 3 der Bildanzeigeeinrichtung 2 aufzuschalten sind, beträgt das räumliche Auflösungsvermögen der Vorrichtung 1 bei einem räumlichen Multiplexing der für die beiden virtuellen Betrachterfenster 13a und 13b bzw. für die beiden Betrachteraugen aufzuschaltenden Bildpixel 3 maximal ein Viertel des Auflösungsvermögens der Bildanzeigeeinrichtung 2. Es besteht aber auch die Möglichkeit, die beiden virtuellen Betrachterfenster 13a und 13b bzw. die beiden Augen des Betrachters nicht im räumlichen Multiplexing, sondern im zeitlichen Multiplexing zu bedienen. In diesem Falle verringert sich das räumliche Auflösungsvermögen der Vorrichtung 1 nur auf die Hälfte oder es ist gleich dem Auflösungsvermögen der Bildanzeigeeinrichtung 2, wenn die Darstellungsfrequenz auf das Doppelte bzw. auf das Vierfache der ursprünglichen Frequenz der Bildanzeigeeinrichtung 2 erhöht wird.
Selbstverständlich kann die Vorrichtung 1 auch derart ausgeführt werden, dass mehrere Betrachter die Raumpunkte P1 und P2 bzw. das dreidimensionale Bild von ihnen zugeordneten Betrachterfenstern beobachten können. Ist dies der Fall, dann kann es vorteilhaft sein, wenn dafür ein gemischtes zeitlich-räumliches Multiplexing vorgenommen wird. Beispielsweise können jeweils die beiden Augen eines Betrachters mittels räumlichen Multiplexings angesprochen werden, wobei die Betrachter untereinander über das zeitliche Multiplexing bedient werden. Auch ist es möglich, beispielsweise zwei Betrachter mittels räumlichen Multiplexings zu bedienen, wobei die Bildinformationen in der Bildanzeigeeinrichtung 2 z.B. spaltenweise verschachtelt sind. Dies ist jedoch bei Vorhandensein von vielen Betrachtern nicht besonders vorteilhaft, da dann das räumliche Auflösungsvermögen der Bildanzeigeeinrichtung 2 pro Betrachter gering ist. Es kann auch nur ein zeitliches Multiplexing für mehrere Betrachter erfolgen. Selbstverständlich kann das Bedienen von mehreren Betrachtern auch durch noch andere nicht beschriebene Vorgehensweisen des Multiplexing vorgenommen werden.
Neben der in den Figuren 1 bis 3 dargestellten Vorgehensweise stellt die Figur 4 eine weitere Möglichkeit zur Rekonstruktion von Raumpunkten durch die Vorrichtung 100 dar. Die Bildanzeigeeinrichtung 2, die Blendenanordnung 10 und das optische System 6 sind jedoch hier nur in einem Teil der Vorrichtung 100 dargestellt und können dabei in gleicher Weise ausgeführt sein, wie zu den Figuren 1 bis 3 beschrieben, wobei deshalb auch die gleichen Bezugszeichen verwendet wurden. Andere Ausführungen sind aber möglich. Die Subpixel RGB eines Bildpixels 3 sind hier hintereinander dargestellt, wobei dies jedoch nur zur Vereinfachung der Darstellung eines Bildpixels 3 dienen soll. Die Subpixel eines Bildpixels 3 sind allgemein, wie in Figur 1 dargestellt, in der Bildanzeigeeinrichtung 2 nebeneinander angeordnet. Die Rekonstruktion der Raumpunkte P1 und P2 gemäß Figur 4 erfolgt dabei in Anlehnung an die bei holographischen Rekonstruktionsverfahren mittels computergenerierter Hologramme verwendete Kodierung der Raumpunkte als Brennpunkte von Fresnel-Linsen. Dabei wird eine Fresnel-Linse 16 durch eine Gruppe von mehreren nebeneinander angeordneten Strahlablenkmitteln 50, hier vier Strahlablenkmittel, einer Strahlrichtungseinrichtung 40 gebildet. Die Gruppe der Strahlablenkmittel 50 ist hierbei einer Gruppe von Bildpixeln 3, hier entsprechend vier Bildpixel 3a bis 3d, der Bildanzeigeeinhchtung 2 zugeordnet, wobei auch hier jedem Bildpixel 3 ein Strahlablenkmittel 50 zugeordnet ist. Die Strahlablenkmittel 50 können wiederum als Prismenelemente oder Linsenelemente auf Basis des Electrowetting-Effekts ausgebildet sein, wobei die Strahlablenkmittel 50 beim Auftreffen von mehreren Lichtstrahlenbündeln diese in unterschiedliche Richtungen lenken, so dass die Lichtstrahlenbündel sich in einem Punkt schneiden bzw. kreuzen, wodurch ein Raumpunkt P1 im Rekonstruktionsraum erzeugt wird. Das bedeutet, zur Rekonstruktion des Raumpunktes P1 werden die Bildpixel 3a bis 3d mittels des Steuerungsmittels 7 der Steuereinheit 9 aufgeschaltet, wobei die von den Bildpixeln 3a bis 3d ausgehenden Lichtstrahlenbündel mittels des optischen Systems 6 kollimiert werden und auf die Fresnel-Linse 16 auftreffen. Die vier Strahlablenkmittel 50 der Fresnel-Linse 16 weisen hierbei jeweils unterschiedliche Strahlablenkeigenschaften bzw. Ablenkverhalten (Ablenkwinkel) entsprechend dem Raumpunkt P1 auf, die über das Steuerungsmittel 8 eingestellt werden. Die so zur Rekonstruktion des Punktes P1 ausgebildete Fresnel-Linse 16 fokussiert nun das durch die Bildpixel 3a bis 3d modulierte und durch vier Lichtstrahlenbündel gekennzeichnete Licht auf einen Punkt im Rekonstruktionsraum, um auf diese Weise den Raumpunkt P1 zu rekonstruieren. Die dabei von dem Raumpunkt P1 ausgehenden vier Lichtstrahlenbündel müssen wiederum durch das Betrachterfenster 13 auf die am Ort des Betrachterfensters 13 angeordnete Augenpupille des Betrachters auftreffen, so dass dieser den Raumpunkt P1 beobachten kann. Das Betrachterfenster 13 kann dabei, wie vorhergehend zu Figur 3 beschrieben, bei einem Positionswechsel des Betrachters in lateraler und/oder axialer Richtung entsprechend den dargestellten Pfeilen nachgeführt werden. Hierzu ermittelt das Positionserfassungssystem 15 die Augenposition des Betrachters am neuen Ort.
Um den Raumpunkt P2 zu rekonstruieren, wird eine Fresnel-Linse 17 mittels der Strahlablenkmittel 50 gebildet. Das oben erwähnte zur Rekonstruktion des Raumpunktes P1 und zur Ausbildung der Fresnel-Linse 16 kann auch auf die Rekonstruktion des Raumpunktes P2 angewandt werden, wobei die Fresnel-Linse 17 jedoch aus acht Strahlablenkmitteln 50 gebildet wird. Zur Belichtung der Strahlablenkmittel 50 werden dazu die Bildpixel 3h bis 3o der Bildanzeigeeinhchtung 2 aufgeschaltet. Somit wird der Raumpunkt P2 durch acht sich kreuzende Lichtstrahlenbündel rekonstruiert. Demnach werden in Abhängigkeit vom Rekonstruktionsort der Raumpunkte P1 und P2 die Fresnel-Linsen 16 und 17 der Strahlrichtungseinrichtung 40 in ihrer Größe unterschiedlich ausgebildet. Da die einzelnen Lichtstrahlen der Lichtstrahlenbündel untereinander inkohärent sind, bleibt der inkohärente Charakter der Rekonstruktion auch bei einer Rekonstruktion von Raumpunkten über Fresnel-Linsen bestehen. Im Gegensatz zu holographischen Rekonstruktionsverfahren, bei denen kohärentes Licht zur Rekonstruktion verwendet wird, können die Lichtstrahlenbündel hier, wie auch gemäß den Figuren 1 bis 3, nicht interferieren, so dass die Rekonstruktion nicht durch kohärentes Rauschen (Speckling) gestört wird.
Zur weiteren Reduzierung der Berechnungs- und Darstellungskapazität ist es auch im Falle der Erzeugung der Raumpunkte P1 und P2 durch die Fresnel-Linsen 16 und 17 möglich, diese nur eindimensional zu kodieren bzw. zu programmieren, d.h. horizontal oder vertikal. Das bedeutet, wird die Fresnel-Linse 16 oder 17 nur horizontal in der Strahlrichtungseinrichtung 40 programmiert, so nimmt sie nur einen Teil einer Zeile ein. Wird jedoch die Fresnel-Linse 16 oder 17 nur vertikal programmiert, so nimmt sie nur einen Teil einer Spalte ein, je nachdem welche eindimensionale Programmierung vorgenommen wird. Die Größe der Fresnel-Linsen 16 und 17 hängt, wie bereits oben erwähnt, vom Abstand des zu rekonstruierenden Raumpunktes von der Strahlrichtungseinrichtung 40 ab. Da durch die unterschiedlichen Größen der Fresnel-Linsen 16 und 17 auch die Anzahl der aufzuschaltenden Bildpixel 3 der Bildanzeigeeinrichtung 2 unterschiedlich ist, die zur Rekonstruktion der Raumpunkte P1 und P2 beitragen, werden die Raumpunkte P1 und P2 in unterschiedlicher Tiefe im Rekonstruktionsraum mit unterschiedlicher Helligkeit rekonstruiert. Um jedoch eine einheitliche Helligkeit der Raumpunkte P1 und P2 zu gewährleisten, kann die Helligkeit der Raumpunkte einzeln gesteuert und angepasst werden, beispielsweise durch Regelung der Helligkeit der zu dem jeweiligen Raumpunkt beitragenden Bildpixel 3 bzw. durch Kodierung der Luminanz der entsprechenden Bildpixel 3.
Selbstverständlich können auch bei der Vorrichtung 100 mehrere Betrachter die Raumpunkte P1 und P2 bzw. das dreidimensionale Bild durch eigene Betrachterfenster beobachten, wobei auch hier immer die gleiche perspektivische Ansicht oder unterschiedliche Ansichten der Raumpunkte P1 und P2 bzw. des dreidimensionalen Bildes dargestellt werden können, wie zu der Figur 3 beschrieben.
Die dargestellten Ausführungen gemäß den Figuren 1 bis 4 beziehen sich auf ein als Vorrichtung 1 bzw. 100 ausgebildetes Direktsichtdisplay. Eine Realisierung von Projektionslösungen, beispielsweise unter Verwendung von Mikrodisplays, ist aber bei einer Verfügbarkeit von steuerbaren Prismenelementen als Strahlablenkmittel 5 bzw. 50 mit entsprechend feiner Rasterung ebenso möglich, wobei an entsprechende Beleuchtungseinrichtungen mit hoher Intensität keine Forderungen hinsichtlich der Kohärenz gestellt werden müssen.
Es ist jedoch selbstverständlich, dass weitere Ausführungsformen der Vorrichtung 1 , 100, wobei die Figuren 1 bis 4 nur bevorzugte Ausführungsformen darstellen, möglich sind, wobei auch Kombinationen der Ausführungsformen untereinander denkbar sind. Abwandlungen der gezeigten Ausführungsformen sind daher möglich, ohne den Rahmen der Erfindung zu verlassen. Allen möglichen Ausführungsformen ist jedoch gemeinsam, dass sie eine wesentlich geringere Darstellungs- und Verarbeitungskapazität gegenüber dem Stand der Technik benötigen.
Mögliche Einsatzgebiete der Vorrichtung 1 , 100 zur Darstellung von dreidimensionalen Bildern liegen insbesondere im Privat- und Arbeitsbereich, wie beispielsweise Fernsehen, elektronische Spiele, Automobilindustrie zur Anzeige von Informationen oder der Unterhaltung, Medizintechnik. Selbstverständlich kann die vorliegende Vorrichtung 1 , 100 auch in anderen, hier nicht genannten Bereichen eingesetzt werden.

Claims

Patentansprüche:
1 . Vorrichtung zur Darstellung von insbesondere dreidimensionalen Bildern in einem Rekonstruktionsraum durch Raumpunkte, die Schnittpunkte von wenigstens zwei sich kreuzenden - vorzugsweise zueinander inkohärenten -
Lichtstrahlenbündeln sind, mit einer Bildanzeigeeinrichtung (2) mit Bildpixeln (3, 3a, 3b, 3c, 3d, 3h, 3i, 3j, 3k, 3I, 3m, 3n, 3o) zur Darstellung von Bildinformationen und mit einer Strahlrichtungseinrichtung (4, 40), die die von der Bildanzeigeeinrichtung (2) ausgehenden Lichtstrahlenbündel in vorgebbare Richtungen aussendet, so dass wenigstens ein Raumpunkt (P, P1 , P2, P3) im
Rekonstruktionsraum erzeugbar ist, wobei die von dem wenigstens einen Raumpunkt (P, P1 , P2, P3) ausgehenden Lichtstrahlenbündel auf wenigstens ein in einer Betrachterebene (14) vorgesehenes virtuelles Betrachterfenster (13, 13a, 13b) gerichtet sind, das in seiner Ausdehnung höchstens dem Durchmesser der Augenpupille eines Betrachters entspricht.
2. Vorrichtung nach Anspruch 1 , dadurch gekennzeichnet, dass die Strahlrichtungseinrichtung (4, 40) Strahlablenkmittel (5, 50) aufweist, wobei jedem Bildpixel (3, 3a, 3b, 3c, 3d, 3h, 3i, 3j, 3k, 3I, 3m, 3n, 3o) oder einer Gruppe von nebeneinanderliegenden Bildpixeln der Bildanzeigeeinrichtung (2) ein
Strahlablenkmittel (5, 50) der Strahlrichtungseinrichtung (4, 40) zugeordnet ist.
3. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, dass die Strahlablenkmittel (5, 50) in ihrem Ablenkverhalten steuerbar sind.
4. Vorrichtung nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass die Strahlablenkmittel (5, 50) als Prismenelemente, insbesondere auf Basis von Electrowetting, ausgebildet sind.
5. Vorrichtung nach Anspruch 2, 3 oder 4, dadurch gekennzeichnet, dass eine Gruppe von nebeneinander angeordneten Strahlablenkmitteln (50) oder Prismenelementen der Strahlrichtungseinrichtung (40) als Fresnel-Linse (16, 17) ausgeführt ist, wobei die Strahlablenkmittel (50) der Fresnel-Linse (16, 17) jeweils einem Bildpixel (3a, 3b, 3c, 3d, 3h, 3i, 3j, 3k, 31, 3m, 3n, 3o) oder einer Gruppe von Bildpixeln der Bildanzeigeeinrichtung (2) in Lichtstrahlrichtung nachgeordnet sind.
6. Vorrichtung nach einem der Ansprüche 2, 3, 4 oder 5, dadurch gekennzeichnet, dass die Ablenkwinkel der Strahlablenkmittel (5, 50) in zwei senkrecht aufeinanderstehenden Richtungen steuerbar sind.
7. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein optisches System (6) zur Beeinflussung der von der
Bildanzeigeeinrichtung (2) ausgehenden Lichtstrahlenbündel vorgesehen ist, das zwischen der Bildanzeigeeinrichtung (2) und der Strahlrichtungseinrichtung (4,
40) angeordnet ist.
8. Vorrichtung nach Anspruch 7, dadurch gekennzeichnet, dass das optische System (6) als Linsenanordnung, insbesondere Mikrolinsenanordnung, ausgebildet ist, wobei jedem Bildpixel (3, 3a, 3b, 3c, 3d, 3h, 3i, 3j, 3k, 31, 3m, 3n, 3o) oder einer Gruppe von nebeneinanderliegenden Bildpixeln der Bildanzeigeeinrichtung (2) eine Linse der Linsenanordnung zugeordnet ist.
9. Vorrichtung nach einem der Ansprüche 7 oder 8, dadurch gekennzeichnet, dass die Bildanzeigeeinrichtung (2) in der objektseitigen Brennebene des optischen Systems (6) angeordnet ist.
10.Vorrichtung nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass zwischen der Bildanzeigeeinrichtung (2) und dem optischen System (6) eine Blendenanordnung (10) vorgesehen ist.
1 1 . Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Positionserfassungssystem (15) zur Ermittlung von
Augenpositionen wenigstens eines Betrachters in der Betrachterebene (14) vorgesehen ist.
12. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Steuereinheit (9) zur Ansteuerung der
Bildanzeigeeinrichtung (2) und der Strahlrichtungseinrichtung (4, 40) entsprechend der mit dem Positionserfassungssystem (15) ermittelten Augenposition wenigstens eines Betrachters vorgesehen ist.
13. Verfahren zum Darstellen von insbesondere dreidimensionalen Bildern in einem Rekonstruktionsraum, wobei Lichtstrahlenbündel von Bildpixeln (3, 3a, 3b, 3c, 3d, 3h, 3i, 3j, 3k, 3I, 3m, 3n, 3o) einer Bildanzeigeeinrichtung (2) auf eine Strahlrichtungseinrichtung (4, 40) gesandt werden, die durch die
Strahlrichtungseinrichtung (4, 40) derart in unterschiedliche Richtungen gelenkt werden, dass wenigstens ein Raumpunkt (P, P1 , P2, P3) durch wenigstens zwei sich kreuzende - vorzugsweise zueinander inkohärente - Lichtstrahlenbündel (1 1 , 12) in einem Rekonstruktionsraum erzeugt wird, wobei die von dem wenigstens einen Raumpunkt (P, P1 , P2, P3) ausgehenden Lichtstrahlenbündel durch wenigstens ein virtuelles Betrachterfenster (13, 13a, 13b) in einer Betrachterebene (14) verlaufen und auf die Pupille von wenigstens einem Auge wenigstens eines Betrachters auftreffen, so dass der wenigstens eine Betrachter durch das wenigstens eine virtuelle Betrachterfenster (13, 13a, 13b) ein dreidimensionales Bild beobachtet.
14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass zur Erzeugung eines Raumpunktes (P, P1 , P2, P3) wenigstens zwei Bildpixel (3, 3a, 3b, 3c, 3d, 3h, 3i, 3j, 3k, 3I, 3m, 3n, 3o) der Bildanzeigeeinrichtung (2) aufgeschaltet werden.
15. Verfahren nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass Strahlablenkmittel (5, 50) der Strahlrichtungseinrichtung (4, 40) derart angesteuert werden, dass die von den aufgeschalteten Bildpixeln (3, 3a, 3b, 3c, 3d, 3h, 3i, 3j, 3k, 3I, 3m, 3n, 3o) auf die Strahlrichtungseinrichtung (4, 40) auftreffenden Lichtstrahlenbündel durch diese in vorbestimmte Richtungen gelenkt werden.
16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass durch eine Gruppe von mehreren nebeneinander angeordneten Strahlablenkmitteln (50) der Strahlrichtungseinrichtung (40) eine Fresnel-Linse (16, 17) gebildet wird, mittels der beim Auftreffen von Lichtstrahlenbündeln diese in unterschiedliche Richtungen gelenkt werden, so dass in ihrem Schnittpunkt ein Raumpunkt (P, P1 , P2, P3) im Rekonstruktionsraum erzeugt wird.
17. Verfahren nach einem der Ansprüche 13 bis 16, dadurch gekennzeichnet, dass die von den Bildpixeln (3, 3a, 3b, 3c, 3d, 3h, 3i, 3j, 3k, 3I, 3m, 3n, 3o) ausgehenden Lichtstrahlenbündel durch ein optisches System (6) vor dem Auftreffen auf die Strahlrichtungseinrichtung (4, 40) wenigstens annähernd kollimiert werden.
18. Verfahren nach einem der Ansprüche 13 bis 17, dadurch gekennzeichnet, dass die Position wenigstens eines Auges wenigstens eines Betrachters in der Betrachterebene (14) mittels eines Positionserfassungssystems (15) ermittelt wird und bei Bewegung des wenigstens einen Betrachters in lateraler und/oder axialer Richtung das wenigstens eine virtuelle Betrachterfenster (13, 13a, 13b) nachgeführt wird.
19. Verfahren nach einem der Ansprüche 13 bis 18, dadurch gekennzeichnet, dass für eine binokulare Beobachtung eines Raumpunktes (P, P1 , P2, P3) oder eines dreidimensionalen Bildes von wenigstens einem Raumpunkt (P, P1 , P2, P3) wenigstens zwei Lichtstrahlenbündel durch ein virtuelles Betrachterfenster (13a) auf das eine Auge und wenigstens zwei Lichtstrahlenbündel durch ein weiteres virtuelles Betrachterfenster (13b) auf das andere Auge wenigstens eines
Betrachters auftreffen.
20. Verfahren nach einem der Ansprüche 13 bis 19, dadurch gekennzeichnet, dass die in der Bildanzeigeeinrichtung (2) aufzuschaltenden Bildpixel (3, 3a, 3b, 3c, 3d, 3h, 3i, 3j, 3k, 3I, 3m, 3n, 3o) für die Positionen von einzelnen Raumpunkten
(P, P1 , P2, P3) im Rekonstruktionsraum über eine inverse Strahldurchrechnung von den Augen wenigstens eines Betrachters aus ermittelt werden. Verfahren nach Anspruch 16, dadurch gekennzeichnet, dass die Helligkeit von einzelnen über Fresnel-Linsen (16, 17) rekonstruierten Raumpunkten (P, P1 , P2,
P3) über eine Kodierung der Luminanz der entsprechenden Bildpixel (3, 3a, 3b,
3c, 3d, 3h, 3i, 3j, 3k, 3I, 3m, 3n, 3o) der Bildanzeigeeinrichtung (2) angepasst wird.
PCT/EP2009/055575 2008-05-08 2009-05-08 Vorrichtung zur darstellung von stereoskopischen bildern WO2009135926A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/991,469 US20110063289A1 (en) 2008-05-08 2009-05-08 Device for displaying stereoscopic images

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102008001644.6 2008-05-08
DE102008001644A DE102008001644B4 (de) 2008-05-08 2008-05-08 Vorrichtung zur Darstellung von dreidimensionalen Bildern

Publications (1)

Publication Number Publication Date
WO2009135926A1 true WO2009135926A1 (de) 2009-11-12

Family

ID=40996515

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2009/055575 WO2009135926A1 (de) 2008-05-08 2009-05-08 Vorrichtung zur darstellung von stereoskopischen bildern

Country Status (3)

Country Link
US (1) US20110063289A1 (de)
DE (1) DE102008001644B4 (de)
WO (1) WO2009135926A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020108835A1 (de) * 2018-11-27 2020-06-04 Bayerische Motoren Werke Aktiengesellschaft Darstellung von bildinformationen in einem kraftfahrzeug mit einem dach-display

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008043621A1 (de) * 2008-11-10 2010-05-12 Seereal Technologies S.A. Holografisches Farbdisplay
US9247286B2 (en) 2009-12-31 2016-01-26 Broadcom Corporation Frame formatting supporting mixed two and three dimensional video data communication
US8854531B2 (en) 2009-12-31 2014-10-07 Broadcom Corporation Multiple remote controllers that each simultaneously controls a different visual presentation of a 2D/3D display
US8823782B2 (en) * 2009-12-31 2014-09-02 Broadcom Corporation Remote control with integrated position, viewer identification and optical and audio test
US8964013B2 (en) * 2009-12-31 2015-02-24 Broadcom Corporation Display with elastic light manipulator
KR101652400B1 (ko) * 2010-12-07 2016-08-31 삼성전자주식회사 다시점 3차원 디스플레이 장치
DE102010064383B4 (de) * 2010-12-22 2015-10-29 Seereal Technologies S.A. Lichtmodulationseinrichtung
DE102011000947A1 (de) * 2011-02-25 2012-08-30 Realeyes Gmbh Flache 3D-Displayeinheit
KR101807692B1 (ko) * 2011-06-01 2017-12-12 삼성전자주식회사 다시점 3차원 영상 디스플레이 장치 및 방법
US8610841B2 (en) * 2011-10-28 2013-12-17 Delphi Technologies, Inc. Volumetric display
US20130293547A1 (en) * 2011-12-07 2013-11-07 Yangzhou Du Graphics rendering technique for autostereoscopic three dimensional display
US9709953B2 (en) 2012-08-01 2017-07-18 Real View Imaging Ltd. Despeckling a computer generated hologram
US10036884B2 (en) * 2012-12-18 2018-07-31 Samsung Electronics Co., Ltd. Display including electrowetting prism array
KR102051043B1 (ko) * 2012-12-18 2019-12-17 삼성전자주식회사 전기-습윤 프리즘 어레이를 포함하는 디스플레이
BR112015022120A2 (pt) * 2013-03-12 2017-07-18 Koninklijke Philips Nv tela autoestereoscópica transparente, e, dispositivo de mão
KR102208960B1 (ko) 2014-04-09 2021-01-28 삼성전자주식회사 홀로그래픽 디스플레이
US10609362B2 (en) * 2014-10-09 2020-03-31 G. B. Kirby Meacham Projected hogel autostereoscopic display
KR102477092B1 (ko) * 2015-10-15 2022-12-13 삼성전자주식회사 이미지 획득 장치 및 방법
US10757400B2 (en) * 2016-11-10 2020-08-25 Manor Financial, Inc. Near eye wavefront emulating display
GB201715369D0 (en) * 2017-09-22 2017-11-08 Ceres Imaging Ltd Pseudo-collimated illumination derived from and array of light sources
DE102019109437A1 (de) * 2019-04-10 2020-10-15 HELLA GmbH & Co. KGaA Verfahren und Vorrichtung zur Herstellung eines computergenerierten Hologramms, Hologramm sowie Beleuchtungsvorrichtung für ein Fahrzeug
TWI771969B (zh) * 2021-03-31 2022-07-21 幻景啟動股份有限公司 適應眼睛位置的立體影像數據的產生方法與顯示系統
CN114326129A (zh) * 2022-02-22 2022-04-12 亿信科技发展有限公司 一种虚拟现实眼镜

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1172744A (ja) * 1997-08-29 1999-03-16 M R Syst Kenkyusho:Kk 3次元像再生装置
WO2004075526A2 (en) * 2003-02-21 2004-09-02 Koninklijke Philips Electronics N.V. Autostereoscopic display

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6798390B1 (en) 1997-08-29 2004-09-28 Canon Kabushiki Kaisha 3D image reconstructing apparatus and 3D object inputting apparatus
CN1214268C (zh) 2000-05-19 2005-08-10 蒂博尔·包洛格 用于显示三维图像的方法和装置
GB2363273A (en) * 2000-06-09 2001-12-12 Secr Defence Computation time reduction for three dimensional displays
JP2005049811A (ja) * 2003-07-15 2005-02-24 Olympus Corp 立体表示装置及び立体視観察装置
TWI351588B (en) * 2005-05-06 2011-11-01 Seereal Technologies Gmbh Device for holographic reconstructions of three-di
JP4871539B2 (ja) * 2005-07-25 2012-02-08 キヤノン株式会社 立体像表示装置
TWI269889B (en) * 2005-11-29 2007-01-01 Univ Tsinghua Tunable micro-aspheric lens, and manufacturing method thereof
EP2084584A1 (de) * 2006-10-26 2009-08-05 SeeReal Technologies S.A. Kompakte holographische anzeigevorrichtung
DE102007024237B4 (de) * 2007-05-21 2009-01-29 Seereal Technologies S.A. Holographisches Rekonstruktionssystem mit einer optischen Wellennachführung

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1172744A (ja) * 1997-08-29 1999-03-16 M R Syst Kenkyusho:Kk 3次元像再生装置
WO2004075526A2 (en) * 2003-02-21 2004-09-02 Koninklijke Philips Electronics N.V. Autostereoscopic display

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JASON HEIKENFELD ED - HENRY KRESSEL: "Flat Electrowetting Optics Based on Arrayed Light Valves and Microprisms", LASERS AND ELECTRO-OPTICS SOCIETY, 2007. LEOS 2007. THE 20TH ANNUAL ME ETING OF THE IEEE, IEEE, PI, 1 October 2007 (2007-10-01), pages 206 - 207, XP031160523, ISBN: 978-1-4244-0924-2 *
SCHWERDTNER A; LEISTER N; AND R HÃ USSLER SEEREAL TECHNOLOGIES GMBH; BLASEWITZER STR 43; 01307 DRESDEN; GERMANY: "32.3: A New Approach to Electro-Holography for TV and Projection Displays", SID 2007, 2007 SID INTERNATIONAL SYMPOSIUM, SOCIETY FOR INFORMATION DISPLAY, LOS ANGELES, USA, vol. XXXVIII, 20 May 2007 (2007-05-20), pages 1224 - 1227, XP007013232, ISSN: 0007-966X *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020108835A1 (de) * 2018-11-27 2020-06-04 Bayerische Motoren Werke Aktiengesellschaft Darstellung von bildinformationen in einem kraftfahrzeug mit einem dach-display

Also Published As

Publication number Publication date
DE102008001644B4 (de) 2010-03-04
DE102008001644A1 (de) 2009-12-24
US20110063289A1 (en) 2011-03-17

Similar Documents

Publication Publication Date Title
DE102008001644B4 (de) Vorrichtung zur Darstellung von dreidimensionalen Bildern
DE102005021155B3 (de) Steuerbare Beleuchtungseinrichtung
DE102008043620B4 (de) Beleuchtungseinrichtung für ein autostereoskopisches Display
DE10359403B4 (de) Autostereoskopisches Multi-User-Display
DE10339076B4 (de) Autostereoskopisches Multi-User-Display
DE102007025069B4 (de) Holographisches Rekonstruktionssystem
DE102005023743B4 (de) Projektionsvorrichtung und Verfahren zur holographischen Rekonstruktion von Szenen
DE102006059400B4 (de) Display-Einrichtung zur Erzeugung von Rekonstruktionen dreidimensionaler Darstellungen
WO2018011285A1 (de) Anzeigevorrichtung
DE102004044111B4 (de) Verfahren und Vorrichtung zum Kodieren und Rekonstruieren von computergenerierten Videohologrammen
DE102006024356B4 (de) Holographische Projektionsvorrichtung zur Rekonstruktion von Szenen und Verfahren zur holographischen Rekonstruktion
EP2027728B1 (de) Verfahren und vorrichtung zur pseudoholographischen bilderzeugung
DE112007003043B4 (de) Holographische Projektionsvorrichtung und Verfahren zum Beobachten einer rekonstruierten Szene
DE102006062377B4 (de) Verfahren und holographische Wiedergabeeinrichtung zum Reduzieren von Speckle
EP1776837A1 (de) Sweet-spot-bildtrenneinrichtung für autostereoskopische multi-user-displays
DE102006004301A1 (de) Holographische Projektionsvorrichtung zur Vergrößerung eines Rekonstruktionsbereichs
DE102007045332A1 (de) Holografisches Display mit verbesserter Rekonstruktionsqualität
DE102006004300A1 (de) Projektionsvorrichtung zur holographischen Rekonstruktion von Szenen
DE102007023738A1 (de) Verfahren und Einrichtung zum Rekonstruieren einer dreidimensionalen Szene in einem holographischen Display
DE102005058586B4 (de) Wiedergabevorrichtung zur autostereoskopen Wiedergabe von dreidimensionalen Darstellungen
DE4123895A1 (de) Verfahren zur autostereokopischen bild-, film- und fernsehwiedergabe
WO2019076963A1 (de) Anzeigevorrichtung und verfahren zur erzeugung eines grossen sichtfeldes
DE69816629T2 (de) Verfahren zur herstellung von reliefbildern und vorrichtung zur durchführung des verfahrens
DE102018115785B4 (de) Anzeigeeinheit zur dreidimensionalen Wiedergabe, Verfahren zur holografischen Wiedergabe und Hologramm eines bewegten Objektes
DE102005063139A1 (de) Vorrichtung zur Stereovisualisierung über Flachbildschirme

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09742144

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 12991469

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09742144

Country of ref document: EP

Kind code of ref document: A1