WO2008141596A1 - Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum - Google Patents

Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum Download PDF

Info

Publication number
WO2008141596A1
WO2008141596A1 PCT/DE2008/000572 DE2008000572W WO2008141596A1 WO 2008141596 A1 WO2008141596 A1 WO 2008141596A1 DE 2008000572 W DE2008000572 W DE 2008000572W WO 2008141596 A1 WO2008141596 A1 WO 2008141596A1
Authority
WO
WIPO (PCT)
Prior art keywords
image object
views
image
virtual
viewer
Prior art date
Application number
PCT/DE2008/000572
Other languages
English (en)
French (fr)
Inventor
Steffen BÖTTCHER
Wolfgang Opel
Thomas Schmitt
Original Assignee
Spatial View Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Spatial View Gmbh filed Critical Spatial View Gmbh
Priority to EP08734459A priority Critical patent/EP2156410A1/de
Publication of WO2008141596A1 publication Critical patent/WO2008141596A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation

Definitions

  • the invention relates to a method for displaying image objects in a virtual three-dimensional image space, wherein the position of a viewer of the image object is detected for the method.
  • VR virtual reality
  • the term "virtual reality” refers to the representation and simultaneous perception of reality and its physical properties in a mostly in real-time computer-generated interactive virtual environment.
  • the technical possibilities for example in terms of a comprehensive perception of physical properties, are still limited
  • their use in aircraft simulators in the training of pilots, in the creation of virtual prototypes in industry, in the performance of ergonomic tests, for the visualization of buildings, in medical diagnostics, in the simulation of operations, hard-to-reach virtual visits, edutainment, or the like.
  • HMDs Head-Mounted Displays
  • CAVEs Camera Automatic Virtual Environments
  • a presentation with an experienced spatial depth is helpful.
  • two views of an object are generated and displayed from slightly different positions (stereo projection).
  • the distance between the two positions often corresponds to the distance of the eyes of the beholder.
  • the two views must be fed to the correct eye become.
  • active and passive procedures include, for example, shutter glasses, which can be switched transparent and dark at high speed. These are used in conjunction with a monitor that alternately displays an image for the left eye and an image for the right eye.
  • the glasses are synchronized with the monitor, the correct image is transmitted to each eye.
  • Passive techniques include anaglyph and polarization techniques in which two views of a small spaced image are superposed in an image. Using color or polarized filter glasses, these image views can be separated again.
  • An autostereoscopic monitor which allow the user to perceive spatial depth of the objects presented without the use of special aids such as spectacles or the like.
  • An autostereoscopic monitor has a very fine image matrix, in front of which an optical means, usually in the form of lenticular or parallax barrier systems, is directly attached. Due to the special geometry of the optical means is achieved that certain pixels of the image matrix are emitted in a defined spatial direction. By selectively controlling the pixels, images for the left and the right eye can be displayed simultaneously and independently of each other. The quality of the three-dimensional impression is the higher, the better the two views can be perceived separately. This can be achieved by limiting the solid angle in which a three-dimensional perception is possible.
  • tracking systems which continuously detect the position of the viewer.
  • the pixels on the image matrix or the position of the optical means are readjusted by slight shifting, so that the spatially narrow viewing angle tracks the movement of the observer.
  • the known methods have the disadvantage that their use is usually perceived as unnatural and uncomfortable.
  • the systems provide the most natural impressions that can completely encapsulate the real world. This happens, for example, in HMDs where the user only sees the virtual reality. Here, the actions of the user can be fully or at least largely discussed.
  • HMDs are usually difficult, complicated to attach and expensive.
  • complete encapsulation of the real world requires extensive sensor technology that records the actions of the user and, in particular, his line of sight.
  • the present invention is therefore based on the object, a method of the type mentioned in such a way and further, that as realistic as possible representation of an image object in a virtual image space, especially when interacting with the image object, can be reached.
  • the above object is achieved by the features of claim 1.
  • the method in question is characterized in that the position of the viewer is included in a calculation and / or selection of views of the image object such that the real position of the viewer and / or its change in the virtual image space and mapped to control at least a virtual camera is used, wherein a view of the viewer of the image object is recorded by a virtual camera.
  • a particularly realistic representation is possible if the movement of the observer can essentially be transferred to the representation of the virtual reality. If, for example, a viewer moves to the left in front of a display device, he expects, analogously to the real world, that the three-dimensional image object appears rotated by a certain solid angle. As the viewer moves closer to the screen, he expects different details of the image object to become more apparent or individual views to change. If a viewer uses a tool for interacting with the image object, for example in the form of a selection process in the virtual image space, then it is expected that the user will stop the tool at the selected three-dimensional point of the image object when the viewer moves.
  • This position or change transmitted into the virtual space is used according to the invention to control at least one virtual camera, wherein a virtual camera corresponds to a view represented to the viewer.
  • a virtual camera corresponds to a view represented to the viewer.
  • two virtual cameras would be provided which generate the views for one eye each of the observer.
  • the position of the virtual cameras in the virtual space corresponds to the real position of the Beholder.
  • Using the virtual cameras makes it particularly easy to "virtualize" a movement of a viewer, in particular to transfer the most varied processes into virtual reality, whereby all aspects outlined above can be implemented or only individual ones can be realized that are particularly desired for the respective application.
  • a detection of the position of the observer or its change will take place in such a way that the position of the eyes of the observer is detected.
  • the detection of the eyes in a camera image is relatively simple and corresponding methods are well known in practice.
  • the views of the observer from the displayed image object can be determined very simply and directly.
  • a wide range of possible applications can be covered.
  • the system need not be aware of any more precise physiognomic characteristics of the viewer. Simplifying, however, the position of the head could be used. This can be the Determine change in position quite accurately. Also, the position detection can be done with often sufficiently good accuracy.
  • the presentation should then be perceived as particularly realistic if the views of the viewer are calculated in real time.
  • a soft real time should be sufficient, because here, for example, individual missing intermediate images are not perceived too clearly.
  • the views of the image object could be recalculated when the position of the observer changes.
  • the position changes are preferably detected three-dimensionally, transformed into the virtual image space and used to control one or more virtual cameras. In this way, the views of the image object can be presented to the viewer in a realistic manner.
  • the recalculation of the views could be in affine transformations of the image object.
  • Affine mappings are images between two vector spaces, where colinearities and spacing are preserved.
  • these could consist of displacements, rotations, compressions, extensions or combinations thereof.
  • Corresponding algorithms for calculating the transformations are well known in practice.
  • an understeered tracking can take place, in which a change in the position of the observer by a certain solid angle to a lesser rotation of the image object is transmitted.
  • Changing the viewing angle or distance to a three-dimensional image object will change various details of the views. If a viewer moves parallel to the screen layer, different areas of the image object may only become visible after a certain offset between the viewing positions. As a simple example, consider a cube whose surface is parallel to the screen plane. If a viewer moves to the left or to the right, he will be able to see the left or the right surface of the cube only from a certain position. The same applies to the offset upwards and downwards. The deck or floor area will only become visible from a certain position.
  • complex entities will have areas that obscure each other depending on the viewing position. In another position, however, they could be visible. In order to leave as realistic a impression as possible on the viewer, these areas, which are visible depending on the position, could respectively be generated or adapted accordingly. This can be realized according to an embodiment of the invention by recalculating these areas.
  • a three-dimensional model of the image object could be present.
  • This three-dimensional model could be realized in many different ways. For example, if the image object is generated as a virtual object, then the three-dimensional information will most likely already be in a simple manner. Become real If objects are transformed into the virtual image space, it may be necessary to generate three-dimensional models, for example from existing images and views, or by means of 3D scans of the object. Again, a variety of methods are known from practice. Thus, for example, image objects are approximated by polygons and small image sections are mapped into the subpolygons.
  • the method according to the invention is preferably used in connection with the representation on an autostereoscopic display device. It will be advantageous if, in addition to the calculation of the views in dependence on the position or the movement of the viewer in addition an accurate control of the viewing angle is made. This is done - as described above - by suitably driving the luminous dots behind the optical means of the autostereoscopic display device.
  • the adaptation can be carried out as a control loop in parallel or sequentially to the recalculation of the views. It is important to distinguish that in the readjustment only in a small range pixels are moved. A complete recreation of views of the image object is not done here.
  • the method need not necessarily be used in conjunction with three-dimensional display devices. So it is quite possible to use a standard monitor and to display the views of the image object only monoscopically. Here a virtual camera would suffice, which only produces a view of the image object.
  • the method may also be used in conjunction with a selector that allows interaction with the image object or parts thereof.
  • This selection device is preferably freely movable in the image space. With this selection device, the image object or parts thereof can be selected, marked, moved, edited, rotated or otherwise influenced. Such a selection device is described in the applicant's European patent EP 1 025 520 B1.
  • the selection device could be formed by a relatively arbitrary object whose three-dimensional position and optionally orientation is determined by means of a suitable system.
  • a stereoscopically operating camera system could be used, with which the object is detected.
  • the object to be tracked could be realized by a stylus, any tool with which the viewer interacts with the image object, or the like.
  • the viewer could also use a finger as a selector. This can be interacted naturally with individual areas of the image object.
  • the illustrated image object appears to float in front of the display device. If a viewer selects a point of the image object and then moves away from the previous observation point, the selected point seems to move away from the finger.
  • This can be taken into account in the method according to the invention in that the view of the image object is calculated not only as a function of the position of the observer but also as a function of the position of the selection device. When selecting a point of the image object, therefore, it could be determined which image areas the observer sees lying behind the selection device. These image areas would then have to remain behind the selection device even when the observer moves.
  • the selector is used as a reference point in a transformation of the image object or the control of the virtual camera.
  • the selection device could influence the image object.
  • "touching" the image object by the selector could cause the image object to be deformed or virtually immersed in the image object
  • Such deformations, shifts, or other transformations of the image object could be done in addition to the recalculations of the views.
  • the calculations of the views on mobile hardware components could be performed.
  • only individual components of the entire system could be made mobile and connected via a preferably wireless connection with a more or less stationary component.
  • the views could be calculated on a standard computer and transmitted via a radio link to a mobile display device.
  • both the calculations and the presentation could take place on a mobile device.
  • a mobile device can be implemented in different ways. It can include a laptop as well as a powerful PDA (Personal Digital Assistant) or devices designed specifically for this application.
  • standard software components can be used on the mobile device.
  • Fig. 2 shows a change of view on movement of the viewer on the display device
  • FIG 3 shows the maintenance of a selected point upon movement of the observer in a method according to the invention.
  • FIGS. 1 to 3 show exemplary arrangements which are suitable for the application of a method according to the invention.
  • like reference numerals designate corresponding components.
  • the display device 1 comprises an autostereoscopic display device, in which the image object 2 seems to float in front of the display device.
  • a viewer whose eyes 3 are shown in the figures views the image object 2 displayed on the display device 1.
  • a position detection in the form of a stereoscopically operating camera system continuously determines the position of the eyes 3 of the observer. In this case, the coordinates of one or both eyes 3 with respect to the display device 1 are determined both in the horizontal and in the vertical direction. In addition, the distance of the eyes 3 to the display device 1 is determined.
  • two views of the image object 2 are suitably displayed with a corresponding offset, so that in front of the display device 1, a virtual three-dimensional image space is spanned.
  • the image object 2 is displayed.
  • the position of the eyes 3 of the observer determined by the position detection is transmitted into the virtual image space. Since the most realistic possible representation of the image object 2 on the display device 1 is to be achieved, the position of the eyes 3 corresponds to the position of two virtual cameras in the virtual image space. When the eyes 3 are moved by a certain amount, the virtual cameras are also shifted by this amount in the virtual image space. If necessary, the scaling of the virtual image space must be taken into account.
  • Fig. 1 shows the movement of the viewer to the left, parallel to the screen plane of the display device 1.
  • the virtual cameras are shifted to the left, thereby changing the views generated by the virtual cameras.
  • the virtual cameras then generate images from a perspective shifted to the left, whereby a view of the image object 2 rotated to the right with a rotation axis perpendicular to the plane of the drawing is produced.
  • These views generated by the two virtual cameras are in turn converted into images suitable for the display device and displayed on the display device 1.
  • the image object 2 rotates on the display device 1. This gives the observer the impression that he can actually view the image object 2 rotated by a certain solid angle.
  • a quasi-holographic impression of the image object is generated.
  • FIG. 2 shows the procedure when a viewer moves towards the display device 1. This can cause several different effects.
  • the viewing angles will change to individual locations of the image object 2.
  • the magnification of the image object 2 will increase.
  • by approaching the Observers may only visible individual components of the image object, which were concealed by other parts of the image object at the farther distant position.
  • further details could become visible as the observer approaches.
  • the disparities, ie the distances of corresponding pixels in the views for the left and the right eye change. All these effects can be taken into account by using the virtual cameras in the display.
  • FIG. 3 shows the case that a part of the image object 2 is marked by means of a selector 4.
  • the selector 4 is formed here by a finger of the hand of the observer.
  • the viewer has marked in the virtual image space in the figure marked with a circle area 5. If the observer moves to the left, then, without corresponding tracking, the marked area 5 apparently also moves to the left.
  • a detection unit for detecting the position of the selection device 4 first determines the position of the selection device with respect to the display device 1. Again, using virtual cameras, it can be determined which area 5 in the virtual image space is marked by the selection device 4. This marked area 5 remains when moving the viewer to the left as a fixed point. In the transformation of the image object 2, therefore, not only the position of the eyes 3 of the observer is considered, but also the selected region 5 is used as a fixed point of the transformation.

Abstract

Ein Verfahren zum Darstellen von Bildobjekten in einem virtuellen dreidimensionalen Bildraum, wobei für das Verfahren die Position eines Betrachters des Bildobjekts erfasst wird, ist im Hinblick auf eine möglichst realitätsnahe Darstellung eines Bildobjekts in einem virtuellen Bildraum, insbesondere bei Interaktion mit dem Bildobjekt, dadurch gekennzeichnet, dass die Position des Betrachters in eine Berechnung und/oder Auswahl von Ansichten des Bildobjekts derart einbezogen wird, dass die reale Position des Betrachters und/oder deren Veränderung in den virtuellen Bildraum abgebildet und zur Steuerung mindestens einer virtuellen Kamera genutzt wird, wobei durch eine virtuelle Kamera eine dem Betrachter dargestellte Ansicht des Bildobjekts aufgenommen wird.

Description

VERFAHREN ZUM DARSTELLEN VON BILDOBJEKTEN IN EINEM VIRTUELLEN DREIDIMENSIONALEN BILDRAUM
Die Erfindung betrifft ein Verfahren zum Darstellen von Bildobjekten in einem virtuellen dreidimensionalen Bildraum, wobei für das Verfahren die Position eines Betrachters des Bildobjekts erfasst wird.
In den verschiedensten Bereichen wird verstärkt versucht, Vorgänge in virtuellen Realitäten durchzuführen oder zu erproben, da dort insbesondere spezielle Arbeitsbedingungen gezielt simuliert werden können. Der Begriff „virtuelle Realität" (VR) bezeichnet dabei die Darstellung und gleichzeitige Wahrnehmung der Wirklichkeit und ihrer physikalischen Eigenschaften in einer meist in Echtzeit computergenerierten interaktiven virtuellen Umgebung. Auch wenn die technischen Möglichkeiten, beispielsweise hinsichtlich einer umfassenden Wahrnehmung physikalischer Eigenschaften, noch beschränkt sind, so sind die Einsatzmöglichkeiten dennoch überaus umfangreich. Beispielhaft sei auf deren Verwendung in Flugzeugsimulatoren bei der Ausbildung von Piloten, bei der Erstellung von virtuellen Prototypen in der Industrie, bei der Durchführung von Ergonomietests, zur Visualisierungen von Gebäuden, in der medizinischen Diagnostik, bei der Simulation von Operationen, bei virtuellen Besuchen schwer erreichbarer Orte, im Edutainment oder dergleichen verwiesen.
Besonderes Augenmerk bei der Generierung und Vermittlung virtueller Realitäten liegt darauf, einem Benutzer eine möglichst umfassende Immersion, d. h. ein Eintauchen in die virtuelle Realität, zu ermöglichen. Hierbei nimmt eine möglichst realitätsnahe visuelle Wahrnehmung der virtuellen Realität einen besonderen Stellenwert ein. Dazu werden beispielsweise HMDs (Head-Mounted Displays), Großbildleinwände oder CAVEs (Cave Automatic Virtual Environments) genutzt.
Für eine besonders realitätsnahe visuelle Wahrnehmung ist eine Darstellung mit erlebbarer räumlicher Tiefe hilfreich. Zum Erzeugen eines räumlichen Eindrucks werden zwei Ansichten eines Objekts aus geringfügig unterschiedlichen Positionen erzeugt und dargestellt (Stereoprojektion). Der Abstand zwischen den beiden Positionen entspricht dabei häufig dem Abstand der Augen des Betrachters. Bei der Darstellung müssen die beiden Ansichten dem jeweils korrekten Auge zugeführt werden. Hierzu sind wiederum eine Reihe unterschiedlicher Technologien bekannt. Prinzipiell kann zwischen aktiven und passiven Verfahren unterschieden werden. Zu den aktiven Verfahren gehören beispielsweise Shutter-Brillen, die mit hoher Geschwindigkeit transparent und dunkel geschaltet werden können. Diese werden zusammen mit einem Monitor eingesetzt, der wechselseitig ein Bild für das linke und ein Bild für das rechte Auge darstellt. Bei Synchronisation der Brille mit dem Monitor wird jedem Auge das korrekte Bild zugeleitet. Zu den passiven Verfahren zählen Anaglyph- und das Polarisationsverfahren, bei denen zwei Ansichten eines Bildes mit geringfügigem Abstand zueinander in einem Bild überlagert sind. Unter Verwendung von Färb- oder Polarisationsfilterbrillen können diese Bildansichten wieder getrennt werden.
Darüber hinaus sind autostereoskopische Monitore bekannt, die dem Benutzer eine Wahrnehmung räumlicher Tiefe der dargestellten Objekte ohne die Benutzung spezieller Hilfsmittel wie Brillen oder ähnlichem ermöglichen. Ein autostereoskopischer Monitor weist eine sehr feine Bildmatrix auf, vor der unmittelbar ein optisches Mittel, meist in Form von Lentikular- oder Parallax-Barrierensystemen, angebracht ist. Durch die spezielle Geometrie des optischen Mittels wird erreicht, dass bestimmte Bildpunkte der Bildmatrix in eine definierte Raumrichtung abgestrahlt werden. Durch gezieltes Ansteuern der Bildpunkte können gleichzeitig und unabhängig voneinander Bilder für das linke und das rechte Auge dargestellt werden. Die Qualität des dreidimensionalen Eindrucks ist umso höher, je besser getrennt die beiden Ansichten wahrgenommen werden können. Dies kann durch eine Einschränkung des Raumwinkels, in dem eine dreidimensionale Wahrnehmung möglich ist, erreicht werden. Um dennoch ein komfortables Arbeiten am Monitor mit maximaler Bewegungsfreiheit des Betrachters zu erreichen, werden Tracking-Systeme verwendet, die die Position des Betrachters kontinuierlich erfassen. In Abhängigkeit der Position des Betrachters werden die Bildpunkte auf der Bildmatrix oder die Position des optischen Mittels durch geringfügiges Verschieben nachgesteuert, sodass der räumlich enge Betrachtungswinkel der Bewegung des Betrachters nachgeführt wird.
Zur Interaktion mit der virtuellen Realität werden verschiedenste Eingabegeräte verwendet. Beispielhaft sei auf die Verwendung von 3D-Mäusen, Datenhandschuhen, Joysticks oder auch Tastaturen hingewiesen. Allerdings ist es auch bekannt, die Position realer Objekte mittels Tracking-Systemen zu erfassen und als Eingabe- gerate zu benutzen. Ein derartiges System ist beispielsweise in der europäischen Patentschrift EP 1 025520 B1 beschrieben.
Die bekannten Verfahren weisen jedoch den Nachteil auf, dass ihre Verwendung meist als unnatürlich und unkomfortabel empfunden wird. Derzeit liefern die Systeme die natürlichsten Eindrücke, die die reale Welt vollständig kapseln können. Dies geschieht beispielsweise bei HMDs, bei denen der Benutzer lediglich die virtuelle Realität sieht. Hier kann vollständig oder zumindest in weiten Teilen auf die Aktionen des Benutzers eingegangen werden. Allerdings sind HMDs meist schwer, kompliziert anzubringen und teuer. Zudem wird für die vollständige Kapselung der realen Welt eine umfangreiche Sensorik benötigt, mit der die Aktionen des Benutzers und insbesondere seine Blickrichtung erfasst werden.
Andere Systeme wie Shutter-Brillen oder autostereoskopische Displays kommen zwar mit einer weit geringeren Menge an Sensorik aus und sind meist mit weit geringerem Aufwand aufzubauen. Allerdings leidet hier wiederum die Natürlichkeit der Wahrnehmung der virtuellen Realität. So möchte ein Betrachter eines dreidimensionalen Objekts beispielsweise nicht lediglich die frontale Seite des Objekts betrachten, sondern meist auch Betrachtungswinkel links und rechts davon. Dies wird meist dadurch gelöst, dass der Betrachter das Objekt in der virtuellen Realität drehen kann. Dadurch können sehr gut verschiedene Ansichten des dreidimensionalen Objekts dargestellt werden. Die Bedienung wird jedoch als unnatürlich empfunden.
Noch schwieriger bei derartigen Systemen ist die Interaktion mit der virtuellen Realität, insbesondere dann, wenn beispielsweise in einem virtuellen Bildraum mit der virtuellen Realität interagiert wird. Der Benutzer darf sich bei dem Auswahlvorgang kaum bewegen, da sich sonst das auszuwählende Objekt zu verschieben und zu verzerren scheint.
Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren der eingangs genannten Art derart auszugestalten und weiterzubilden, dass eine möglichst realitätsnahe Darstellung eines Bildobjekts in einem virtuellen Bildraum, insbesondere bei Interaktion mit dem Bildobjekt, erreichbar ist. Erfindungsgemäß wird die voranstehende Aufgabe durch die Merkmale des Patentanspruches 1 gelöst. Danach ist das in Rede stehende Verfahren dadurch gekennzeichnet, dass die Position des Betrachters in eine Berechnung und/oder Auswahl von Ansichten des Bildobjekts derart einbezogen wird, dass die reale Position des Betrachters und/oder deren Veränderung in den virtuellen Bildraum abgebildet und zur Steuerung mindestens einer virtuellen Kamera genutzt wird, wobei durch eine virtuelle Kamera eine dem Betrachter dargestellte Ansicht des Bildobjekts aufgenommen wird.
In erfindungsgemäßer Weise ist zunächst erkannt worden, dass eine besonders realitätsnahe Darstellung dann möglich ist, wenn die Bewegung des Betrachters im Wesentlichen auf die Darstellung der virtuellen Realität übertragen werden kann. Bewegt sich beispielsweise ein Betrachter vor einer Anzeigeeinrichtung nach links, so erwartet er - analog zur realen Welt -, dass das dreidimensionale Bildobjekt um einen gewissen Raumwinkel gedreht erscheint. Wenn sich der Betrachter näher an den Bildschirm heranbewegt, so erwartet er, dass verschiedene Details des Bildobjekts deutlicher zu erkennen werden oder einzelne Ansichten sich ändern. Verwendet ein Betrachter ein Werkzeug zur Interaktion mit dem Bildobjekt, beispielsweise in Form eines Auswahlvorgangs im virtuellen Bildraum, so wird erwartet, dass bei einer Bewegung des Betrachters das Werkzeug an dem ausgewählten dreidimensionalen Punkt des Bildobjekts stehen bleibt. Dies ist beispielsweise bei auto- stereoskopischen Anzeigeeinrichtungen nicht zwangläufig gegeben, da das Bildobjekt für den Betrachter vor dem Monitor zu schweben scheint. Wählt er daher in dem virtuellen Bildraum, also vor dem Monitor, einen Bildpunkt aus, so scheint der Bildpunkt bei Bewegung des Betrachters sich ebenfalls zu bewegen.
Erfindungsgemäß ist daher erkannt worden, dass diese Problematiken besonders einfach gelöst werden können, wenn die Position des Betrachters und/oder deren Veränderung aus der realen Welt in die virtuelle Realität abgebildet wird. Diese in den virtuellen Raum übertragene Position oder Veränderung wird erfindungsgemäß dazu genutzt, um zumindest eine virtuelle Kamera zu steuern, wobei eine virtuelle Kamera einer dem Betrachter dargestellten Ansicht entspricht. Im Falle einer auto- stereoskopischen Anzeigeeinrichtung wären zwei virtuelle Kameras vorgesehen, die die Ansichten für jeweils ein Auge des Betrachters erzeugen. Die Position der virtuellen Kameras in dem virtuellen Raum korrespondiert mit der realen Position des Betrachters. Durch Verwendung der virtuellen Kameras kann besonders einfach eine Bewegung eines Betrachters „virtualisiert" werden. Insbesondere lassen sich die verschiedensten Vorgänge in die virtuelle Realität übertragen. Dabei können alle zuvor skizzierten Aspekte implementiert oder lediglich einzelne für die jeweilige Anwendung besonders gewünschten realisiert sein.
Prinzipiell ist es nicht von Bedeutung, wie die reale Position beziehungsweise deren Veränderung mit einer Position oder deren Veränderung in dem virtuellen Bildraum, also der Position der virtuellen Kamera/-s, korrespondiert. So kann bei einer Bewegung des Betrachters auf die Anzeigeeinrichtung zu lediglich eine geringe oder überhaupt keine Vergrößerung des Bildobjekts durchgeführt werden. Bewegt sich ein Betrachter um einen gewissen Raumwinkel nach links, so könnte das Bildobjekt um diesen Raumwinkel in entgegengesetzter Richtung gedreht werden. Hier wären jedoch auch geringere oder größere Raumwinkel denkbar. Im Allgemeinen wird es jedoch für eine möglichst realitätsnahe Abbildung der realen Vorgänge in den virtuellen Bildraum sinnvoll sein, die Analogien der realen und virtuellen Position bzw. Bewegung entsprechend abzubilden.
Dabei ist es prinzipiell unerheblich, mit welcher Art von Bildobjekten das erfindungsgemäße Verfahren eingesetzt wird. Sie können im Zusammenhang mit computergenerierten Objekten ebenso wie mit Fotografien, Videosequenzen oder dergleichen eingesetzt werden.
Vorteilhafterweise wird ein Erfassen der Position des Betrachters beziehungsweise deren Veränderung derart erfolgen, dass die Position der Augen des Betrachters erfasst wird. Die Erfassung der Augen in einem Kamerabild ist vergleichsweise einfach und entsprechende Verfahren sind aus der Praxis hinlänglich bekannt. Dazu muss lediglich der Betrachter mit einer Kamera, vorteilhafterweise einem Stereo- Kamerasystem, erfasst werden. Durch eine derartige Positionsverfolgung können die Ansichten des Betrachters von dem dargestellten Bildobjekt sehr einfach und direkt bestimmt werden. Zusätzlich ist dadurch eine große Bandbreite möglicher Einsatzbereiche abdeckbar. Insbesondere müssen dem System keine genaueren physiognomischen Eigenschaften des Betrachters bekannt sein. Vereinfachend könnte jedoch auch die Position des Kopfes genutzt werden. Damit lässt sich die Veränderung der Position recht genau bestimmen. Auch die Positionserfassung kann mit häufig hinreichend guter Genauigkeit erfolgen.
Die Darstellung dürfte dann besonders realistisch empfunden werden, wenn die Ansichten des Betrachters in Echtzeit berechnet werden. Dabei kann eine harte oder eine weiche Echtzeit vorliegen. Insbesondere bei schnellen Bewegungen des Betrachters dürfte eine weiche Echtzeit ausreichend sein, da hier beispielsweise einzelne fehlende Zwischenbilder nicht zu deutlich wahrgenommen werden.
Zum Erzielen eines möglichst realitätsnahen Eindrucks der Darstellung könnten die Ansichten des Bildobjekts bei Veränderung der Position des Betrachters neu berechnet werden. Dabei werden die Positionsänderungen vorzugsweise dreidimensional erfasst, in den virtuellen Bildraum transformiert und zur Steuerung einer oder mehrerer virtueller Kameras genutzt. Damit können die Ansichten des Bildobjekts für den Betrachter realitätsnah dargestellt werden.
Die Neuberechnung der Ansichten könnte in affinen Transformationen des Bildobjekts bestehen. Affine Abbildungen sind Abbildungen zwischen zwei Vektorräumen, bei denen Kolinearitäten und Abstandsverhältnisse bewahrt bleiben. Vorteilhafterweise könnten diese aus Verschiebungen, Drehungen, Stauchungen, Streckungen oder Kombinationen daraus bestehen. Entsprechende Algorithmen zum Berechnen der Transformationen sind aus der Praxis hinlänglich bekannt.
Dabei könnte - wie zuvor bereits erwähnt - die Nachführung des Bildobjekts, d. h. die Transformation des Bildobjekts in Abhängigkeit der Position des Betrachters, analog zu der Bewegung des Beobachters erfolgen. Demzufolge würde die Veränderung des realen Betrachtungswinkels um einen bestimmten Raumwinkel in einer Drehung des Bildobjekts um den gleichen Raumwinkel resultieren. Entsprechendes gilt für andere Bewegungen und Transformationen. Allerdings kann auch eine übersteuerte oder untersteuerte Nachführung des Bildobjekts durchgeführt werden. Bei einer übersteuerten Nachführung würde beispielsweise eine Veränderung der Position des Betrachters um einen bestimmten Raumwinkel zu einer Drehung des Bildobjekts um einen größeren Raumwinkel führen. Entsprechend kann eine untersteuerte Nachführung erfolgen, bei der eine Veränderung der Position des Betrachters um einen bestimmten Raumwinkel auf eine geringere Drehung des Bildobjekts übertragen wird. Diese Aspekte sind bei anderen Bewegungen des Betrachters, wie beispielsweise auf die Anzeigeeinrichtung zu, und bei anderen Transformationen entsprechend anwendbar.
Beim Verändern des Blickwinkels oder des Abstands zu einem dreidimensionalen Bildobjekt werden sich verschiedene Details der Ansichten ändern. Bewegt sich ein Betrachter parallel zu der Bildschirmebene, so werden möglicherweise verschiedene Bereiche des Bildobjekts erst nach einem gewissen Versatz zwischen den Betrachtungspositionen sichtbar. Als ein einfaches Beispiel sei ein Würfel betrachtet, dessen eine Fläche sich parallel zur Bildschirmebene befindet. Bewegt sich ein Betrachter nach links oder nach rechts, so wird er die linke oder die rechte Fläche des Würfels erst ab einer gewissen Position sehen können. Vergleichbares gilt für den Versatz nach oben und nach unten. Die Deck- bzw. die Bodenfläche wird erst ab einer bestimmten Position sichtbar werden.
Ähnliche Aspekte gelten bei komplexer ausgebildeten Bildobjekten. So werden komplexe Gebilde Bereiche aufweisen, die sich je nach Betrachtungsposition gegenseitig verdecken. In einer anderen Position könnten diese jedoch sichtbar sein. Um einen möglichst realitätsbezogenen Eindruck bei dem Betrachter zu hinterlassen, könnten diese in Abhängigkeit der Position sichtbaren Bereiche jeweils entsprechend generiert oder angepasst werden. Dies kann gemäß einer Ausführungsform der Erfindung durch eine Neuberechnung dieser Bereiche realisiert werden.
Bei allen Veränderungen der Darstellungen sollte jedoch gewährleistet sein, dass bei einer dreidimensionalen Darstellung des Bildobjekts, beispielsweise auf einem autostereoskopischen Display, die Voraussetzungen für dreidimensionales Sehen erfüllt bleiben. Insofern sind die Positionen möglicherweise gewissen Einschränkungen unterworfen. Meist sind die Grenzen jedoch weit genug gesteckt, so dass dies nur eine geringere Einschränkung bedeutet.
In vielen Fällen sind für die Berechnung der neuen Bildinformationen Informationen über die dreidimensionale Beschaffenheit des Objekts notwendig. Dazu könnte ein dreidimensionales Modell des Bildobjekts vorhanden sein. Dieses dreidimensionale Modell könnte auf die verschiedensten Arten realisiert sein. Ist das Bildobjekt beispielsweise als virtuelles Objekt generiert, so werden die dreidimensionalen Informationen sehr wahrscheinlich bereits in einfacher Art vorliegen. Werden reale Ge- genstände in den virtuellen Bildraum transformiert, so müssen gegebenenfalls dreidimensionale Modelle, beispielsweise aus bestehenden Bildern und Ansichten, oder durch 3D-Scans des Objekts generiert werden. Auch hierzu sind aus der Praxis verschiedenste Verfahren bekannt. So werden beispielsweise Bildobjekte durch Polygonzüge angenähert und kleine Bildausschnitte in die Teilpolygone gemapped.
Insbesondere bei besonders realitätsnahen und detailgenauen Darstellungen von Bildobjekten kann relativ schnell die Leistungsfähigkeit der eingesetzten Prozessoren erreicht sein. Daher kann es in einigen Fällen sinnvoll sein, Ansichten des Bildobjekts aus verschiedenen Betrachtungswinkeln in einem Speicher abzulegen. Diese Daten könnten dann in Abhängigkeit von der Position des Betrachters aus dem Speicher wieder ausgelesen werden und auf der Anzeigeeinrichtung geeignet dargestellt werden. Um dennoch einen flüssigen Übergang zwischen den einzelnen gespeicherten Ansichten erreichen zu können, könnten Zwischenbilder zwischen den abgespeicherten Ansichten auf geeignete Weise - beispielsweise durch Morphing - berechnet werden. Derartige Berechnungsarten zur Überblendung oder Interpolation von Ansichten sind aus der Praxis hinlänglich bekannt.
Vorzugsweise kommt das erfindungsgemäße Verfahren im Zusammenhang mit der Darstellung auf einer autostereoskopischen Anzeigeeinrichtung zum Einsatz. Dabei wird es von Vorteil sein, wenn neben der Berechnung der Ansichten in Abhängigkeit von der Position oder der Bewegung des Betrachters zusätzlich eine genaue Steuerung des Betrachtungswinkels vorgenommen wird. Dies geschieht - wie zuvor beschrieben - durch geeignetes Ansteuern der Leuchtpunkte hinter dem optischen Mittel der autostereoskopischen Anzeigeeinrichtung. Die Anpassung kann als Regelkreis parallel oder sequentiell zu der Neuberechnung der Ansichten durchgeführt werden. Dabei ist wichtig zu unterscheiden, dass bei der Nachregelung lediglich in einem geringen Bereich Bildpunkte verschoben werden. Eine vollkommene Neuerzeugung von Ansichten des Bildobjekts erfolgt hierbei nicht.
Allerdings muss das Verfahren nicht zwangsläufig zusammen mit Anzeigeeinrichtungen zur dreidimensionalen Darstellung verwendet werden. So ist es durchaus auch möglich, einen Standardmonitor zu verwenden und die Ansichten des Bildobjekts lediglich monoskopisch darzustellen. Hier würde eine virtuelle Kamera genügen, die lediglich eine Ansicht des Bildobjekts erzeugt. Nach einem anderen Aspekt der Erfindung kann das Verfahren auch zusammen mit einer Auswahleinrichtung eingesetzt werden, die eine Interaktion mit dem Bildobjekt oder Teilen davon erlaubt. Diese Auswahleinrichtung ist vorzugsweise frei im Bildraum bewegbar. Mit dieser Auswahleinrichtung kann das Bildobjekt oder Teile davon ausgewählt, markiert, verschoben, bearbeitet, gedreht oder in anderer Weise beeinflusst werden. Eine derartige Auswahleinrichtung ist in der europäischen Patentschrift EP 1 025 520 B1 der Anmelderin beschrieben.
Die Auswahleinrichtung könnte durch ein relativ beliebiges Objekt gebildet sein, dessen dreidimensionale Position und gegebenenfalls Orientierung mittels eines geeigneten Systems bestimmt wird. Hier könnte beispielsweise ein stereoskopisch arbeitendes Kamerasystem verwendet werden, mit dem das Objekt erfasst wird. Das zu verfolgenden Objekt könnte durch einen Stift, ein beliebiges Werkzeug, mit dem der Betrachter mit dem Bildobjekt interagiert, oder dergleichen realisiert sein. Der Betrachter könnte jedoch auch einen Finger als Auswahleinrichtung verwenden. Damit kann besonders natürlich mit einzelnen Bereichen des Bildobjekts interagiert werden.
Insbesondere bei autostereoskopischen Anzeigeeinrichtungen scheint das dargestellte Bildobjekt vor der Anzeigeeinrichtung zu schweben. Wählt ein Betrachter einen Punkt des Bildobjekts aus und bewegt sich danach von dem bisherigen Beobachtungspunkt weg, so scheint der ausgewählte Punkt sich von dem Finger wegzubewegen. Diesem kann bei dem erfindungsgemäßen Verfahren dadurch Rechnung getragen werden, dass die Ansicht des Bildobjekts nicht nur in Abhängigkeit der Position des Betrachters sondern auch in Abhängigkeit von der Position der Auswahleinrichtung berechnet werden. Bei Auswahl eines Punktes des Bildobjekts könnte daher bestimmt werden, welche Bildbereiche der Betrachter hinter der Auswahleinrichtung liegend sieht. Diese Bildbereiche müssten dann auch bei Bewegung des Betrachters hinter der Auswahleinrichtung verbleiben. Dies hat zur Folge, dass zusätzlich zum Einbeziehen der Position des Betrachters die Auswahleinrichtung als Bezugspunkt bei einer Transformation des Bildobjekts bzw. der Steuerung der virtuellen Kamaras genutzt wird. Hinsichtlich einer noch realistischeren Darstellung könnte durch die Auswahleinrichtung eine Beeinflussung des Bildobjekts erfolgen. So könnte ein „Berühren" des Bildobjekts durch die Auswahleinrichtung eine Verformung des Bildobjekts oder ein virtuelles Eintauchen in das Bildobjekt bewirken. Derartige Verformungen, Verschiebungen oder sonstige Transformationen des Bildobjekts könnten zusätzlich zu den Neuberechnungen der Ansichten durchgeführt werden.
Wegen den allgemein sehr hohen Anforderungen bei den Neuberechnungen der Ansichten könnte es sinnvoll sein, die Berechnungen nicht lediglich unter Verwendung standardmäßiger Computerprozessoren durchzuführen. Vielfach sind bei der Bilddarstellung für die Anzeigeeinrichtung bereits hochleistungsfähige Grafikprozessoren im Einsatz. Werden die Bildansichten beispielsweise auf einem leistungsfähigen Standardrechner, beispielsweise einem Personal Computer, durchgeführt, so verfügen diese über eine Grafikkarte, die die Bilder für die Anzeigeeinrichtung in geeigneter Form darstellt. Die dort eingesetzten Grafikprozessoren verfügen bereits über speziell angepasste Operationen, um dreidimensionale Transformationen einfacher und schneller durchführen zu können. Derartige Fähigkeiten könnten bei der Umsetzung des Verfahrens vorteilhafter Weise genutzt werden. Zusätzlich könnten Standard-Software-Komponenten, wie beispielsweise DirectX oder OpenGL, verwendet werden. Auch dadurch könnte die Leistungsfähigkeiten der entsprechend implementierenden Software weiter verbessert und beschleunigt werden.
Hinsichtlich eines besonders flexiblen Einsatzes könnten die Berechnungen der Ansichten auf mobilen Hardware-Komponenten durchgeführt werden. Dabei könnten lediglich einzelne Komponenten des gesamten Systems mobil ausgebildet und über eine vorzugsweise drahtlose Verbindung mit einer mehr oder weniger stationären Komponente verbunden sein. So ließen sich beispielsweise die Ansichten auf einem Standardrechner berechnen und über eine Funkverbindung an eine mobile Anzeigeeinrichtung senden. Alternativ könnten sowohl die Berechnungen als auch die Darstellung auf einem mobilen Gerät stattfinden. Ein mobiles Gerät kann dabei auf unterschiedliche Art und Weise implementiert sein. Sie kann ein Laptop ebenso umfassen wie einen leistungsfähigen PDA (Personal Digital Assistant) oder speziell für diese Anwendung entwickelte Geräte. Auf dem mobilen Gerät können wiederum Standard-Software-Komponenten Verwendung finden. Es gibt nun verschiedene Möglichkeiten, die Lehre der vorliegenden Erfindung in vorteilhafter Weise auszugestalten und weiterzubilden. Dazu ist einerseits auf die dem Patentanspruch 1 nachgeordneten Patentansprüchen und andererseits auf die nachfolgende Erläuterung eines bevorzugten Ausführungsbeispiels der Erfindung anhand der Zeichnung zu verweisen. In Verbindung mit der Erläuterung des bevorzugten Ausführungsbeispiels der Erfindung anhand der Zeichnung werden auch im Allgemeinen bevorzugte Ausgestaltungen und Weiterbildungen der Lehre erläutert. In der Zeichnung zeigen
Fig. 1 eine Drehung eines Bildobjekts bei Bewegung des Betrachters nach links bei Anwendung eines erfindungsgemäßen Verfahrens,
Fig. 2 eine Änderung der Ansicht bei Bewegung des Betrachters auf die Anzeigeeinrichtung zu und
Fig. 3 das Beibehalten eines ausgewählten Punktes bei Bewegung des Betrachters in einem erfindungsgemäßen Verfahren.
Die Figuren 1 bis 3 zeigen beispielhafte Anordnungen, die zur Anwendung eines erfindungsgemäßen Verfahrens geeignet sind. In den Figuren bezeichnen gleiche Bezugsziffern entsprechende Komponenten.
Auf einer Anzeigeeinrichtung 1 wird ein Bildobjekt 2 dargestellt. Die Anzeigeeinrichtung 1 umfasst eine autostereoskopische Anzeigeeinrichtung, bei der das Bildobjekt 2 vor der Anzeigeeinrichtung zu schweben scheint. Ein Betrachter, dessen Augen 3 in den Figuren dargestellt sind, betrachtet das Bildobjekt 2, das auf der Anzeigeeinrichtung 1 dargestellt wird. Eine Positionserfassung in Form eines stereoskopisch arbeitenden Kamerasystems ermittelt kontinuierlich die Position der Augen 3 des Betrachters. Dabei werden die Koordinaten eines oder beider Augen 3 in Bezug auf die Anzeigeeinrichtung 1 sowohl in horizontaler als auch in vertikaler Richtung bestimmt. Zusätzlich wird der Abstand der Augen 3 zu der Anzeigeeinrichtung 1 ermittelt. Auf der Anzeigeeinrichtung 1 werden zwei Ansichten des Bildobjekts 2 mit entsprechendem Versatz geeignet dargestellt, sodass vor der Anzeigeeinrichtung 1 ein virtueller dreidimensionaler Bildraum aufgespannt ist. In dem virtuellen Bildraum wird das Bildobjekt 2 dargestellt. Die durch die Positionserfassung bestimmte Position der Augen 3 des Betrachters wird in den virtuellen Bildraum übertragen. Da eine möglichst realistische Darstellung des Bildobjekts 2 auf der Anzeigeeinrichtung 1 erzielt werden soll, entspricht die Position der Augen 3 der Position zweier virtueller Kameras in dem virtuellen Bildraum. Bei einer Bewegung der Augen 3 um einen bestimmten Betrag werden auch die virtuellen Kameras um diesen Betrag in dem virtuellen Bildraum verschoben. Hierbei sind gegebenenfalls die Skalierungen des virtuellen Bildraums zu beachten.
Fig. 1 zeigt die Bewegung des Betrachters nach links, parallel zur Bildschirmebene der Anzeigeeinrichtung 1. Entsprechend der Bewegung des Betrachters werden die virtuellen Kameras nach links verschoben, wodurch sich die durch die virtuellen Kameras erzeugten Ansichten verändern. Durch die virtuellen Kameras werden dann Bilder aus einem nach links verschobenen Blickwinkel erzeugt, wodurch eine nach rechts mit Drehachse senkrecht zur Zeichenebene gedrehte Ansicht des Bildobjekts 2 entsteht. Diese durch die beiden virtuellen Kameras erzeugten Ansichten werden wiederum in für die Anzeigeeinrichtung geeignete Bilder umgesetzt und auf der Anzeigeeinrichtung 1 dargestellt. Im Ergebnis dreht sich somit durch Bewegung des Betrachters das Bildobjekt 2 auf der Anzeigeeinrichtung 1. Dadurch erhält der Betrachter den Eindruck, dass er das Bildobjekt 2 tatsächlich um einen gewissen Raumwinkel gedreht betrachten kann. Ein quasi-holographischer Eindruck des Bildobjekts wird erzeugt.
Entsprechend der in Fig. 1 dargestellten Bewegung des Betrachters nach links oder rechts, kann auch eine Bewegung nach oben oder unten stattfinden. Dies kann analog abgebildet werden.
Fig. 2 zeigt das Vorgehen, wenn ein Betrachter sich auf die Anzeigeeinrichtung 1 zubewegt. Dies kann mehrere unterschiedliche Effekte hervorrufen. Zum einen werden sich die Betrachtungswinkel auf einzelne Stellen des Bildobjekts 2 verändern. Nähert sich der Betrachter der Anzeigeeinrichtung 1 , so wird sich Abbildungsmaßstab des Bildobjekts 2 vergrößern. Außerdem werden durch das Annähern des Betrachters möglicherweise einzelne Bestandteile des Bildobjekts erst sichtbar, die bei der weiter entfernt liegenden Position durch andere Teile des Bildobjekts verdeckt waren. Zusätzlich könnten weitere Details mit der Annäherung des Betrachters sichtbar werden. Des Weiteren verändern sich die Disparitäten, d. h. die Abstände korrespondierender Bildpunkte in den Ansichten für das linke und das rechte Auge. All diese Effekte können durch die Verwendung der virtuellen Kameras bei der Darstellung berücksichtigt werden.
Fig. 3 zeigt den Fall, dass ein Teil des Bildobjekts 2 mittels einer Auswahleinrichtung 4 markiert wird. Die Auswahleinrichtung 4 ist hier durch einen Finger der Hand des Betrachters gebildet. Der Betrachter hat in dem virtuellen Bildraum einen in der Fig. mit einem Kreis gekennzeichneten Bereich 5 markiert. Bewegt sich der Betrachter nach links, so bewegt sich ohne entsprechende Nachführung scheinbar der markierte Bereich 5 ebenfalls nach links bewegen.
Eine Erfassungseinheit zum Erfassen der Position der Auswahleinrichtung 4 bestimmt zunächst die Position der Auswahleinrichtung in Bezug auf die Anzeigeeinrichtung 1. Wiederum unter Verwendung virtueller Kameras kann bestimmt werden, welcher Bereich 5 in dem virtuellen Bildraum durch die Auswahleinrichtung 4 markiert ist. Dieser markierte Bereich 5 bleibt bei Bewegung des Betrachters nach links als Fixpunkt bestehen. Bei der Transformation des Bildobjekts 2 wird also nicht nur die Position der Augen 3 des Betrachters berücksichtigt, sondern auch der ausgewählte Bereich 5 als Fixpunkt der Transformation verwendet.
Auch wenn die in den Figuren dargestellten Transformationen des Bildobjekts einzeln beschrieben sind, so können diese jedoch auch in Kombination verwendet werden. So wird sich ein Benutzer selten exakt parallel zur Bildschirmebene bewegen, sondern es wird ebenso eine Abweichung im Abstand zu beobachten sein. Gleichzeitig könnte ein Bereich des Bildobjekts markiert sein. Darüber hinaus können neben einer Steuerung der Ansichten durch Bewegung des Betrachters noch andere Vorgänge die Ansichten beeinflussen. So könnte beispielsweise das Objekt zusätzlich in gewohnter Art und Weise gedreht werden.
Abschließend sei ganz besonders hervorgehoben, dass die mit Bezug auf die Figuren beschriebenen Ausführungsbeispiele lediglich zur Erörterung der erfindungsge- mäßen Lehre dienen, diese jedoch nicht auf die Ausführungsbeispiele einschränken.

Claims

P a t e n t a n s p r ü c h e
1. Verfahren zum Darstellen von Bildobjekten in einem virtuellen dreidimensionalen Bildraum, wobei für das Verfahren die Position eines Betrachters des Bildobjekts erfasst wird, dadurch gekennzeichnet, dass die Position des Betrachters in eine Berechnung und/oder Auswahl von Ansichten des Bildobjekts derart einbezogen wird, dass die reale Position des Betrachters und/oder deren Veränderung in den virtuellen Bildraum abgebildet und zur Steuerung mindestens einer virtuellen Kamera genutzt wird, wobei durch eine virtuelle Kamera eine dem Betrachter dargestellte Ansicht des Bildobjekts aufgenommen wird.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass als Position des Betrachters die Position der Augen genutzt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Ansichten des Bildobjekts bei Veränderung der Position des Betrachters neu berechnet werden.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Neuberechnungen in Echtzeit erfolgen.
5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass bei einer Neuberechnung der Ansichten eine affine Transformation des Bildobjekts durchgeführt wird.
6. Verfahren nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass bezüglich der Position des Betrachters bzw. deren Veränderung eine unter- oder übersteuerte Nachführung des Bildobjekts durchgeführt wird.
7. Verfahren nach einem der Ansprüche 3 bis 6, dadurch gekennzeichnet, dass bei einer Neuberechung Teilbereiche des Bildobjekts neu berechnet werden, die bei der vor der Neuberechung verwendeten Ansicht verdeckt oder nicht erkennbar waren.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass zur Berechnung der Ansichten ein dreidimensionales Modell des Bildobjekts, insbesondere ein Modell mit Tiefeninformationen, verwendet wird.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass einzelne in einem Speicher abgelegte Ansichten aus dem Speicher ausgelesen werden.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass zwischen den einzelnen in dem Speicher abgelegten Ansichten übergeblendet oder interpoliert wird.
11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass die Ansichten auf einer autostereoskopischen Anzeigeeinrichtung dargestellt werden.
12. Verfahren nach Anspruch 11 , dadurch gekennzeichnet, dass die Position des Betrachters zusätzlich zur genaueren Steuerung der dreidimensionalen Darstellung auf der Anzeigeeinrichtung genutzt wird.
13. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass das Bildobjekt oder Teile davon mittels einer im Bildraum vorzugsweise frei bewegbaren Auswahleinrichtung ausgewählt, markiert, verschoben und/oder bearbeitet werden.
14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass die Position der Auswahleinrichtung in die Berechnung von Ansichten des Bildobjekts einbezogen wird.
15. Verfahren nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass die Position der Auswahleinrichtung als ein Bezugspunkt bei einer Transformation des Bildobjekts genutzt wird.
16. Verfahren nach einem der Ansprüche 13 bis 15, dadurch gekennzeichnet, dass die Position der Auswahleinrichtung zur Neuberechung des Bildobjekts und/ oder Teile davon zum Wiedergeben von Verformungen des Bildobjekts oder einem virtuellen Eintauchen der Auswahleinrichtung in das Bildobjekt genutzt wird.
17. Verfahren nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass zur Berechung der Ansichten ein dedizierter Grafikprozessor in oder an der Anzeigeeinrichtung und/oder Standard-Hardware- und/oder Standard-Software- Komponenten verwendet werden.
18. Verfahren nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass die Berechnung der Ansichten auf mobilen Hardware-Komponenten und entsprechender Software durchgeführt wird.
PCT/DE2008/000572 2007-05-18 2008-04-04 Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum WO2008141596A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP08734459A EP2156410A1 (de) 2007-05-18 2008-04-04 Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102007023506.4 2007-05-18
DE200710023506 DE102007023506A1 (de) 2007-05-18 2007-05-18 Verfahren zum Darstellen von Bildobjekten in einem virtuellen dreidimensionalen Bildraum

Publications (1)

Publication Number Publication Date
WO2008141596A1 true WO2008141596A1 (de) 2008-11-27

Family

ID=39661378

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2008/000572 WO2008141596A1 (de) 2007-05-18 2008-04-04 Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum

Country Status (3)

Country Link
EP (1) EP2156410A1 (de)
DE (1) DE102007023506A1 (de)
WO (1) WO2008141596A1 (de)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10952006B1 (en) 2020-10-20 2021-03-16 Katmai Tech Holdings LLC Adjusting relative left-right sound to provide sense of an avatar's position in a virtual space, and applications thereof
US10979672B1 (en) 2020-10-20 2021-04-13 Katmai Tech Holdings LLC Web-based videoconference virtual environment with navigable avatars, and applications thereof
US11070768B1 (en) 2020-10-20 2021-07-20 Katmai Tech Holdings LLC Volume areas in a three-dimensional virtual conference space, and applications thereof
US11076128B1 (en) 2020-10-20 2021-07-27 Katmai Tech Holdings LLC Determining video stream quality based on relative position in a virtual space, and applications thereof
US11095857B1 (en) 2020-10-20 2021-08-17 Katmai Tech Holdings LLC Presenter mode in a three-dimensional virtual conference space, and applications thereof
US11184362B1 (en) 2021-05-06 2021-11-23 Katmai Tech Holdings LLC Securing private audio in a virtual conference, and applications thereof
US11457178B2 (en) 2020-10-20 2022-09-27 Katmai Tech Inc. Three-dimensional modeling inside a virtual video conferencing environment with a navigable avatar, and applications thereof
US11562531B1 (en) 2022-07-28 2023-01-24 Katmai Tech Inc. Cascading shadow maps in areas of a three-dimensional environment
US11593989B1 (en) 2022-07-28 2023-02-28 Katmai Tech Inc. Efficient shadows for alpha-mapped models
US11651108B1 (en) 2022-07-20 2023-05-16 Katmai Tech Inc. Time access control in virtual environment application
US11682164B1 (en) 2022-07-28 2023-06-20 Katmai Tech Inc. Sampling shadow maps at an offset
US11700354B1 (en) 2022-07-21 2023-07-11 Katmai Tech Inc. Resituating avatars in a virtual environment
US11704864B1 (en) 2022-07-28 2023-07-18 Katmai Tech Inc. Static rendering for a combination of background and foreground objects
US11711494B1 (en) 2022-07-28 2023-07-25 Katmai Tech Inc. Automatic instancing for efficient rendering of three-dimensional virtual environment
US11741664B1 (en) 2022-07-21 2023-08-29 Katmai Tech Inc. Resituating virtual cameras and avatars in a virtual environment
US11743430B2 (en) 2021-05-06 2023-08-29 Katmai Tech Inc. Providing awareness of who can hear audio in a virtual conference, and applications thereof
US11748939B1 (en) 2022-09-13 2023-09-05 Katmai Tech Inc. Selecting a point to navigate video avatars in a three-dimensional environment
US11776203B1 (en) 2022-07-28 2023-10-03 Katmai Tech Inc. Volumetric scattering effect in a three-dimensional virtual environment with navigable video avatars
US11876630B1 (en) 2022-07-20 2024-01-16 Katmai Tech Inc. Architecture to control zones
US11928774B2 (en) 2022-07-20 2024-03-12 Katmai Tech Inc. Multi-screen presentation in a virtual videoconferencing environment
US11956571B2 (en) 2022-07-28 2024-04-09 Katmai Tech Inc. Scene freezing and unfreezing

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010010001A1 (de) 2010-03-02 2011-09-08 Geuder Ag Verfahren zur Entwicklung und virtuellen Erprobung eines chirurgischen Instruments
DE102010010002A1 (de) 2010-03-02 2011-09-08 Geuder Ag Verfahren zur Durchführung einer virtuellen Operation zu Trainingszwecken

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6154723A (en) * 1996-12-06 2000-11-28 The Board Of Trustees Of The University Of Illinois Virtual reality 3D interface system for data creation, viewing and editing
WO1999023586A2 (de) 1997-10-30 1999-05-14 Dr. Baldeweg Gmbh Verfahren und vorrichtung zur bearbeitung von bildobjekten
US7274380B2 (en) * 2001-10-04 2007-09-25 Siemens Corporate Research, Inc. Augmented reality system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ALPASLAN Z Y ET AL: "Three-dimensional interaction with autostereoscopic displays", PROCEEDINGS OF THE SPIE - THE INTERNATIONAL SOCIETY FOR OPTICAL ENGINEERING SPIE-INT. SOC. OPT. ENG USA, vol. 5291, no. 1, 2004, pages 227 - 236, XP002491278, ISSN: 0277-786X *
ANDIEL M ET AL: "EYE-TRACKING FOR AUTOSTEREOSCOPIC DISPLAYS USING WEB CAMS", PROCEEDINGS OF THE SPIE, SPIE, BELLINGHAM, VA, vol. 4660, 21 January 2002 (2002-01-21), pages 200 - 206, XP008021524, ISSN: 0277-786X *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10952006B1 (en) 2020-10-20 2021-03-16 Katmai Tech Holdings LLC Adjusting relative left-right sound to provide sense of an avatar's position in a virtual space, and applications thereof
US10979672B1 (en) 2020-10-20 2021-04-13 Katmai Tech Holdings LLC Web-based videoconference virtual environment with navigable avatars, and applications thereof
US11070768B1 (en) 2020-10-20 2021-07-20 Katmai Tech Holdings LLC Volume areas in a three-dimensional virtual conference space, and applications thereof
US11076128B1 (en) 2020-10-20 2021-07-27 Katmai Tech Holdings LLC Determining video stream quality based on relative position in a virtual space, and applications thereof
US11095857B1 (en) 2020-10-20 2021-08-17 Katmai Tech Holdings LLC Presenter mode in a three-dimensional virtual conference space, and applications thereof
US11290688B1 (en) 2020-10-20 2022-03-29 Katmai Tech Holdings LLC Web-based videoconference virtual environment with navigable avatars, and applications thereof
US11457178B2 (en) 2020-10-20 2022-09-27 Katmai Tech Inc. Three-dimensional modeling inside a virtual video conferencing environment with a navigable avatar, and applications thereof
US11184362B1 (en) 2021-05-06 2021-11-23 Katmai Tech Holdings LLC Securing private audio in a virtual conference, and applications thereof
US11743430B2 (en) 2021-05-06 2023-08-29 Katmai Tech Inc. Providing awareness of who can hear audio in a virtual conference, and applications thereof
US11651108B1 (en) 2022-07-20 2023-05-16 Katmai Tech Inc. Time access control in virtual environment application
US11876630B1 (en) 2022-07-20 2024-01-16 Katmai Tech Inc. Architecture to control zones
US11928774B2 (en) 2022-07-20 2024-03-12 Katmai Tech Inc. Multi-screen presentation in a virtual videoconferencing environment
US11700354B1 (en) 2022-07-21 2023-07-11 Katmai Tech Inc. Resituating avatars in a virtual environment
US11741664B1 (en) 2022-07-21 2023-08-29 Katmai Tech Inc. Resituating virtual cameras and avatars in a virtual environment
US11593989B1 (en) 2022-07-28 2023-02-28 Katmai Tech Inc. Efficient shadows for alpha-mapped models
US11682164B1 (en) 2022-07-28 2023-06-20 Katmai Tech Inc. Sampling shadow maps at an offset
US11704864B1 (en) 2022-07-28 2023-07-18 Katmai Tech Inc. Static rendering for a combination of background and foreground objects
US11711494B1 (en) 2022-07-28 2023-07-25 Katmai Tech Inc. Automatic instancing for efficient rendering of three-dimensional virtual environment
US11562531B1 (en) 2022-07-28 2023-01-24 Katmai Tech Inc. Cascading shadow maps in areas of a three-dimensional environment
US11776203B1 (en) 2022-07-28 2023-10-03 Katmai Tech Inc. Volumetric scattering effect in a three-dimensional virtual environment with navigable video avatars
US11956571B2 (en) 2022-07-28 2024-04-09 Katmai Tech Inc. Scene freezing and unfreezing
US11748939B1 (en) 2022-09-13 2023-09-05 Katmai Tech Inc. Selecting a point to navigate video avatars in a three-dimensional environment

Also Published As

Publication number Publication date
EP2156410A1 (de) 2010-02-24
DE102007023506A1 (de) 2008-11-20

Similar Documents

Publication Publication Date Title
WO2008141596A1 (de) Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum
WO2009062492A2 (de) Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum
EP1763845B1 (de) Verfahren und vorrichtung zur bestimmung von optischen überdeckungen mit ar-objekten
DE69434685T2 (de) Bildverarbeitungsverfahren und -gerät
DE19953595B4 (de) Verfahren und Vorrichtung zur Verarbeitung dreidimensionaler Bilder
EP2977961B1 (de) Verfahren und Kommunikationseinrichtung zum Erstellen und/oder Ändern virtueller Objekte
DE112016004216T5 (de) Allgemeine Sphärische Erfassungsverfahren
DE112016005343T5 (de) Elektronische Anzeigestabilisierung unter Verwendung von Pixelgeschwindigkeiten
CN101803395A (zh) 3d显示器的呈现改善
DE112012001022T5 (de) Ausrichtungssteuerung in einem am Kopf zu tragenden Gerät mit erweiterter Realität
EP3427474B1 (de) Bildverarbeitungsverfahren, bildverarbeitungsmittel und bildverarbeitungsvorrichtung zur erzeugung von abbildungen eines teils eines dreidimensionalen raums
DE102018006050A1 (de) Parallaxenkorrektur in der Virtuellen Realität
EP1964413A1 (de) Verfahren und anordnung zum monoskopischen darstellen wenigstens eines bereiches eines bildes auf einer autostereoskopischen anzeigevorrichtung sowie informationswiedergabegerät mit einer solchen anordnung
WO2018185201A2 (de) Mikroskopanordnung zur aufnahme und darstellung dreidimensionaler bilder einer probe
WO2008074561A1 (de) Verfahren zum darstellen eines kartenausschnittes in einem navigationssystem und navigationssystem
DE69837165T2 (de) Verfahren und gerät für automatische animation von dreidimensionalen grafischen szenen für verbesserte 3-d visualisierung
WO2012140397A2 (en) Three-dimensional display system
DE102018209377A1 (de) Verfahren zur Darstellung von AR-/VR-Inhalten auf einem mobilen Endgerät und mobiles Endgerät, auf dem AR-/VR-Inhalte dargestellt werden
WO2013164208A1 (de) Verfahren zur ausführung beim betreiben eines mikroskops und mikroskop
DE102021117453B3 (de) Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug während einer Fahrt, entsprechend betreibbare Datenbrille, Prozessorschaltung sowie Kraftfahrzeug
DE102017112190A1 (de) Anzeigesystem und Verfahren zum Erzeugen eines scheinbar dreidimensionalen Bilds eines Objekts
DE102014115363A1 (de) Virtuelles Zeichen in realer Umgebung
DE10056978A1 (de) Verfahren zur Erzeugung eines stereographischen Bildes
EP4118628A2 (de) Verfahren und vorrichtung zum präzisen auswählen einer raumkoordinate mittels eines digitalen bildes
DE102013213492A1 (de) Bildanpassung für kontaktanaloge Darstellungen auf Datenbrillen

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08734459

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008734459

Country of ref document: EP