WO2017102236A1 - Method for operating a virtual reality system, and virtual reality system - Google Patents

Method for operating a virtual reality system, and virtual reality system Download PDF

Info

Publication number
WO2017102236A1
WO2017102236A1 PCT/EP2016/077972 EP2016077972W WO2017102236A1 WO 2017102236 A1 WO2017102236 A1 WO 2017102236A1 EP 2016077972 W EP2016077972 W EP 2016077972W WO 2017102236 A1 WO2017102236 A1 WO 2017102236A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual
area
person
virtual reality
relative
Prior art date
Application number
PCT/EP2016/077972
Other languages
German (de)
French (fr)
Inventor
Marcus KÜHNE
Original Assignee
Audi Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi Ag filed Critical Audi Ag
Publication of WO2017102236A1 publication Critical patent/WO2017102236A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Definitions

  • the invention relates to a method for operating a virtual reality system and a virtual reality system.
  • a virtual reality By means of a virtual reality system, a virtual reality can be represented, whereby virtual reality is usually the representation and simultaneous perception of reality in its physical properties in a real-time computer-generated, interactive virtual environment.
  • Virtual reality systems may include virtual reality glasses for displaying a virtual environment.
  • a virtual reality goggle is a particular form of head-mounted display, which is a head-worn visual output device. It presents images on a near-eye screen or projects them directly onto the retina.
  • a virtual reality glasses additionally has sensors for detecting the movement of the head. This allows the display of a calculated graphic to be adapted to the movements of a wearer of the virtual reality glasses.
  • the displayed image areas of head-mounted displays are considerably larger than the freestanding screens and, in extreme cases, even cover the entire field of vision of the user. Since respective displays of virtual reality glasses through the head posture follow all the head movements of a wearer, he gets the feeling to move directly in a computer generated landscape.
  • Such virtual reality systems can have a detection device by means of which a position of a virtual reality spectacle arranged in a detection space and / or person who has put on the virtual reality glasses can be detected.
  • the contents displayed by means of the virtual reality glasses can be adapted such that the person who has set up the virtual reality glasses within a displayed virtual environment relative to one can move virtual object. Due to technical and / or cost constraints, it may happen that the coverage area within which a position of the virtual reality glasses and / or the person is detectable is relatively small. As a result, the problem arises that a wearer of the virtual reality glasses can move virtually only in a limited area of the virtual environment and as a result can not change his distance to the virtual object as desired.
  • EP 2 048 557 A1 shows an optoelectronic sensor for monitoring a spatial area.
  • the area of space to be monitored can be displayed from a selectable perspective.
  • US 2001/0045978 A1 shows a head-mounted display device.
  • a camera is disposed on a remote-controlled toy vehicle, and a video signal provided by the camera is transmitted to and displayed by the head-mounted display device.
  • Respective cameras may also be arranged on a plurality of toy vehicles, with a person carrying the display device being able to switch between the various cameras in order to display different recordings from the respective vehicle perspectives.
  • US 2008/0198230 A1 shows an observation system for sporting events.
  • a person can have information displayed on a sporting event.
  • the person may view a car race and have information displayed on the vehicles participating in the car race, such as lap times, current speeds and the like, using the electronic data glasses.
  • a method for operating a virtual reality system and by a virtual reality system having the features of the independent patent claims.
  • Advantageous embodiments with expedient and non-trivial developments of the invention are specified in the dependent claims.
  • a real access area of a virtual subarea which is arranged within a virtual access area is assigned.
  • a viewpoint of a person located on the real walkway who has put on virtual reality glasses is detected.
  • the detection of the position takes place by means of a detection device.
  • the detected viewpoint of the person is assigned to a virtual viewpoint on the virtual face.
  • the Virtual Reality glasses display a virtual object from the virtual viewpoint.
  • the virtual area is shifted relative to the virtual walk area, maintaining the virtual viewpoint unchanged relative to the virtual area during the shift.
  • the virtual object is displayed from the virtual viewpoint by means of the virtual reality goggles.
  • the detection of the respective position, ie the position, of the person who has put on the virtual reality glasses can, for example, be achieved by continuously recording the position of the virtual reality glasses by means of the detection device.
  • the detection device can also have, for example, a camera system by means of which a respective position and thus also position changes of the person can be detected.
  • a real positional change of the person causes the virtual viewpoint on the virtual subarea to correspond.
  • the person's real positional change is changed.
  • the virtual perspective on the virtual object displayed by means of the virtual reality glasses also changes.
  • the virtual partial area is shifted relative to the virtual walk area.
  • the virtual viewpoint does not change relative to the virtual face. Due to the relative shift of the virtual partial area to the virtual access area, however, the relative positioning of the virtual viewpoint relative to the virtual access area changes.
  • the virtual partial area can be shifted relative to the virtual walk area as a result, the virtual observation position from which the virtual object is displayed changes according to the relative displacement.
  • the person who has set up the virtual reality glasses it is possible for the person who has set up the virtual reality glasses to be able to essentially change their virtual distance to the virtual object.
  • An advantageous embodiment of the invention provides that the virtual subarea is displaced relative to the virtual access area in such a way that the distance between the virtual viewpoint and the virtual object increases.
  • the virtual distance of the person who has put on the virtual reality glasses increases to the displayed virtual object.
  • the person only has to enter the given edge area and the given triggering criterion must be fulfilled. Then, without actually moving, the person can change their virtual viewing position with respect to the displayed virtual object.
  • the virtual subarea it is also possible for the virtual subarea to be displaced relative to the virtual access area in such a way that the distance between the virtual viewpoint and the virtual object decreases.
  • a further advantageous embodiment of the invention provides that the virtual partial area is displaced relative to the virtual access area by a distance which corresponds to the length or width of the real access area.
  • the virtual subarea is displaced so far relative to the virtual access area as the real access area is, for example, long or wide.
  • the triggering criterion that the person after entering the edge surface has remained a predetermined duration on the edge surface.
  • a backward running timer is displayed, which indicates how long the person after entering the edge surface still remain on this until the said relative displacement and thus the change the virtual observation position takes place.
  • a predetermined operating element preferably in a remote control
  • the person himself can hold a remote control in his hand and actuate said operating element, as a result of which the virtual displacement is effected.
  • the person can determine and control himself in a particularly simple manner whether and when the relative displacement between the virtual partial area and the access area should take place.
  • a further advantageous embodiment of the invention provides that a virtual edge area corresponding to the edge area is displayed on the virtual partial area by means of the virtual reality glasses. Because usually the field of vision of the person is sealed off to the real environment through the attached virtual reality glasses. By displaying the virtual border area on the virtual face, the person can still easily and intuitively see which direction to move in order to achieve the said relative displacement of the virtual face relative to the virtual walkway.
  • the virtual partial area is also displaced relative to the virtual access area as soon as it is detected that the person has directed his gaze to the virtual edge area and has performed a predetermined operator action.
  • a marking the direction of the person characterizing for example in the form of a crosshair or the like, is displayed.
  • the person can see in a particularly simple way whether they have just directed their view of the virtual border area. The person can therefore, without having to resort to the real edge area, alone by a corresponding Magnoliafokussie- tion of the displayed virtual border area in combination with the given operator action cause the relative shift of the virtual sub-area to the virtual walk-up area.
  • the dimensions of the virtual sub-area are set as large as the dimensions of the real access area.
  • a further advantageous embodiment of the invention provides that a detected change in the position of the person relative to the real access area with respect to a direction of movement and a distance covered leads to the same change of the virtual position relative to the virtual partial area.
  • a detected change in the position of the person relative to the real access area with respect to a direction of movement and a distance covered leads to the same change of the virtual position relative to the virtual partial area.
  • the virtual reality system according to the invention comprises a virtual reality glasses, a detection device and a control device, which are designed to perform the method according to the invention or an advantageous embodiment of the method according to the invention.
  • Advantageous embodiments of the method according to the invention are to be regarded as advantageous embodiments of the virtual reality system according to the invention, wherein the virtual reality system has in particular means for performing the method steps.
  • the drawing shows in: a schematic representation of a virtual reality system, which is a virtual reality glasses for displaying a virtual reality
  • a detection device for detecting the position of the virtual reality glasses and a control device for driving the virtual reality glasses;
  • Figure 2 is a schematic representation of a detection space with a walk-on surface on which a person is placed who has put on the virtual reality glasses.
  • FIG. 3 is a schematic representation of the virtual environment within which a virtual motor vehicle is displayed, which is displayed by means of the virtual reality glasses;
  • Fig. 4 is a schematic representation in which an association between the real access area of the detection space and a virtual subarea of a virtual access area of the virtual environment is marked;
  • FIG. 5 shows a further schematic representation in which the association between the real access area and the virtual subarea is shown, wherein the virtual subarea has just been shifted relative to the virtual access area;
  • FIG. 6 is another schematic diagram showing an association between the real access area and the virtual sub-area with the virtual sub-area shifted relative to the virtual access area in a direction other than shown in FIG. 5;
  • FIG. and FIG. 7 is a schematic representation of the virtual access area and the virtual subarea, whereby four virtual border areas are identified within the virtual subarea.
  • a virtual reality system 10 is shown in a schematic representation in FIG.
  • the virtual reality system 10 comprises a virtual reality glasses 12, a control device 14 and a detection device 16.
  • the virtual reality glasses 12 are designed to display at least one virtual object within a virtual environment. For example, it is possible by means of the virtual reality glasses 12 to display a virtual motor vehicle which is arranged in a virtual showroom.
  • the control device 14 is designed to control the virtual reality glasses 12, inter alia, as a function of signals which are provided by the detection device 16.
  • the detection device 16 is designed to detect a position and thus also a change in position of the virtual reality glasses 12.
  • the detection device 16 is designed to additionally detect the position of a person who has put on the virtual reality glasses 12, but alternatively it is also possible that the detection device 16 based on the determined position of the virtual reality glasses 12th determine the position of the person who has the virtual reality glasses 12 put on.
  • a detection space 18 is shown schematically.
  • a person 20 who wears the virtual reality glasses 12 is located within the detection space 18 and can move on a real walk area 22.
  • the detection device 16 can reliably determine the position of the virtual reality glasses 12 and thus also the position of the person 20.
  • xi and yi respective axes of a stationary coordinate system are marked, where by stationary is meant that the two coordinate axes xi and yi are stationary with respect to the detection space 18 and thus also stationary with respect to the real access area 22.
  • a virtual environment 24 is shown schematically, which is displayed by means of the virtual reality glasses 12.
  • the virtual reality glasses 12 indicates a virtual motor vehicle 26, which is arranged within the virtual environment 24.
  • the person 20 is shown in the present illustration for purposes of illustration only to identify a virtual viewing position of the person 20 from which he sees through the virtual reality glasses 12 the virtual environment 24 and thus the virtual automobile 26.
  • the person 20 can move virtually on a virtual access area 28 of the virtual environment 24.
  • a real change in position of the person 20 on the real access area 22 causes a corresponding virtual change in position of the person 20 within the virtual environment 24, thus also with respect to the virtual walk-through area 28.
  • the virtual access area 28 is substantially larger than the real access area 22, which the person 20 should not leave, in order to enable reliable position detection of the person 20 and the virtual reality glasses 12 ,
  • the real access area 22 and the virtual access area 28 are shown side by side in a schematic plan view.
  • a point of view 30 of the person 20, that is to say her position is marked on the real access area 22.
  • the real access area 22 still has a plurality of edge regions 32, 34, 36, 38.
  • a virtual sub-area 40 is marked.
  • the constellation shown here can be a kind of standard Be position in which the controller 14 assigns the real Begehungs Colour 22 of the virtual sub-area 40, which is disposed within the virtual Begehungs Design 28.
  • a virtual viewpoint 42 is indicated, from which the person 20 through the virtual reality goggles 12 can see the virtual motor vehicle 26 and the remaining virtual environment 24.
  • the coordinate matters x 2 and y 2 designate a coordinate system fixed relative to the virtual subarea 40.
  • the virtual viewpoint 42 automatically changes with respect to the virtual subarea 40.
  • the dimensions of the real walkway 22 and the dimensions of the virtual subarea 40 correspond to one another.
  • the person 20 can not virtually move out of the virtual sub-area 40, since otherwise he would leave the real walk-through area 22 and thus the detection space 18, as a result of which the detection device 16 determines the position of the virtual reality glasses 12 and thus the position the person 20 could no longer reliably grasp. Therefore, it is provided that the control device 16 can move the virtual partial surface 40 relative to the virtual exercise surface 28. With the coordinate axes x 3 and y 3 , a further coordinate system fixed relative to the virtual access area 28 is designated.
  • this relative displacement of the virtual sub-area 40 to the virtual access area 28 is shown schematically.
  • the person 20 has moved his location to the upper edge surface 32. If the person 20 remains standing on the edge region 32 for a correspondingly predetermined duration, for example a few seconds, then the virtual part surface 40 is displaced in the direction of the axis y3 relative to the virtual access surface 24.
  • the virtual subarea 40 can, for example, be displaced relative to the virtual access area 28 as far as the real access area 22 extends in the direction of the axis yi.
  • the relative positioning of the virtual viewpoint 42 with respect to the virtual subarea 40 does not change.
  • the virtual distance between the virtual viewpoint 42 and the virtual car 26 changes due to the relative displacement of the virtual subarea 40. If the person 20 thus moves in such a way that it reaches the edge area 32 of the real access area 22, and remains standing on this edge area 32 long enough, its virtual observation position changes to the virtual motor vehicle 26 without the person 20 in the Rea - must move accordingly. This shift may preferably be made abruptly. For example, for the virtual reality glasses 12 is controlled such that it briefly fades out the virtual environment 24 and fades in again after the sudden relative displacement has taken place. After the relative displacement, the person 20 can view the virtual motor vehicle 26 from a greater distance. Even with relatively small dimensions of the real access area 22, the person 20 can thus virtually explore the virtual environment 24 virtually without leaving the detection area of the detection device 16. FIG.
  • FIG. 6 shows a further virtual relative displacement of the virtual subarea 40.
  • the person 20 has moved to the edge region 34, so that their real position 30 is located on the edge region 34. If the person 20 in turn stops long enough on this edge region 34, then the virtual sub-surface 40 is in turn displaced relative to the virtual access surface 28.
  • the virtual subarea 40 is shifted to the right, that is to say in the direction of the axis X3, since the person 20 has moved to the extreme right edge surface 34.
  • the virtual sub-area 40 is shifted relative to the virtual walk-up area 28 such that the virtual viewing position corresponding to the virtual viewpoint 42 is removed from the virtual vehicle 26.
  • the person 20 virtually stands relatively far to the right of the virtual motor vehicle 26.
  • the direction with respect to the relative displacement of the virtual sub-area 40 to the real access area 28 thus depends on which of the edge areas 32, 34, 36, 38 the person 20 has just gone.
  • the direction of the relative displacement depends on how the respective edge region 32, 34, 36, 38 is positioned to a center of the real inspection surface 22.
  • the direction of the relative displacement of the virtual sub-area 40 to the virtual access area 40 thus takes place in accordance with the relative positioning of the respective edge area 32, 34, 36, 38 to the center of the real access area 22. If the person is standing right from the center point, ie on the edge area 34, then the virtual face 40 vir- moved right to the right. If the person is standing to the left of the center point, that is to say on the edge area 36, the virtual subarea 40 is virtually moved to the left. The same applies to a positioning on the edge regions 32, 38.
  • the person 20 moves in the opposite direction of xi, then the person 20 virtually approaches the virtual motor vehicle 26. As soon as the person has gone to the leftmost edge surface 38 of the real access area 22 and stops there long enough, the virtual Partial surface 40 displaced against the axial direction x 3 , as a result, the person 20 is virtually left of the virtual motor vehicle 26.
  • FIG. 7 shows the virtual access area 28 in a further schematic illustration.
  • the virtual subarea 40 is again arranged centrally within the virtual access area 24.
  • the person 20 is not located within the real access area 22 on any of the outer edge areas 32, 34, 36, 38.
  • the virtual reality goggles 12 respective ones become the real edge areas 32 , 34, 36, 38 corresponding virtual edge regions 44, 46, 48, 50 displayed.
  • the person 20 who wears the virtual reality glasses 12 is thus presented in the displayed virtual environment 24, where he has to go in order to bring about the said virtual relative displacement of the virtual sub-area 40 to the virtual walk-flat area 28.
  • the virtual subarea 28 is likewise displaced in the described manner relative to the virtual access area 28 as soon as it is detected that the person 20 is looking at one of the virtual border areas 44, 46, 48, 50 has performed a predetermined operation by the person 20, for example, pressed the button on a remote control, executed a predetermined gesture, has performed a predetermined voice command or the like.
  • This virtual position jumps due to the relative displacement of the virtual partial surface 40 can thus also control the person 20 in terms of the direction of view, without the person 20 having to face the real edge regions 32, 34, 36, 38.

Abstract

The invention relates to a method for operating a virtual reality system (10), having the following steps: assigning a real walking surface (22) to a virtual sub-surface (40); detecting a location (30) of a person (20) who is wearing a virtual reality headset (12) and who is arranged on the real walking surface (22); assigning the detected location (30) of the person (20) to a virtual location (42) on the virtual sub-surface (40); displaying a virtual object (26) from the virtual location (42); as soon as it has been detected that the location (30) of the person (20) lies on a specific edge surface (32, 34, 36, 38) of the real walking surface (22) and a specific trigger criterion has been satisfied: the virtual sub-surface (40) is moved relative to a virtual walking surface (28), wherein the virtual location (42) is kept unchanged relative to the virtual sub-surface (40); and the virtual object (26) is displayed from the virtual location (42) after the virtual sub-surface (40) has been moved relative to the virtual walking surface (28).

Description

Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality- Method for Operating a Virtual Reality System and Virtual Reality
System system
BESCHREIBUNG: DESCRIPTION:
Die Erfindung betrifft eine Verfahren zum Betreiben eines Virtual-Reality- Systems und ein Virtual-Reality-System. The invention relates to a method for operating a virtual reality system and a virtual reality system.
Mittels eines Virtual-Reality-Systems kann eine virtuelle Realität dargestellt werden, wobei als virtuelle Realität üblicherweise die Darstellung und gleichzeitige Wahrnehmung der Wirklichkeit in ihren physikalischen Eigenschaften in einer in Echtzeit computergenerierten, interaktiven virtuellen Umgebung bezeichnet wird. Virtual-Reality-Systeme können eine Virtual-Reality-Brille zum Anzeigen einer virtuellen Umgebung aufweisen. Bei einer Virtual-Reality-Brille handelt es sich um eine bestimmte Form eines sogenannten Head-Mounted-Displays, bei welchem es sich um ein auf dem Kopf getragenes visuelles Ausgabegerät handelt. Es präsentiert Bilder auf einem augennahen Bildschirm oder pro- jiziert sie direkt auf die Netzhaut. Eine Virtual-Reality-Brille hat dabei zusätzlich noch Sensoren zur Bewegungserfassung des Kopfes. Damit kann die Anzeige einer berechneten Grafik an die Bewegungen eines Träger der Virtual-Reality-Brille angepasst werden. Durch die körperliche Nähe wirken die angezeigten Bildflächen von Head-Mounted-Displays erheblich größer als die freistehender Bildschirme und decken im Extremfall sogar das gesamte Sichtfeld des Benutzers ab. Da jeweilige Displays von Virtual-Reality-Brillen durch die Kopfhaltung allen Kopfbewegungen eines Trägers folgen, bekommt er das Gefühl, sich direkt in einer von einem Computer erzeugten Bildlandschaft zu bewegen. By means of a virtual reality system, a virtual reality can be represented, whereby virtual reality is usually the representation and simultaneous perception of reality in its physical properties in a real-time computer-generated, interactive virtual environment. Virtual reality systems may include virtual reality glasses for displaying a virtual environment. A virtual reality goggle is a particular form of head-mounted display, which is a head-worn visual output device. It presents images on a near-eye screen or projects them directly onto the retina. A virtual reality glasses additionally has sensors for detecting the movement of the head. This allows the display of a calculated graphic to be adapted to the movements of a wearer of the virtual reality glasses. As a result of physical proximity, the displayed image areas of head-mounted displays are considerably larger than the freestanding screens and, in extreme cases, even cover the entire field of vision of the user. Since respective displays of virtual reality glasses through the head posture follow all the head movements of a wearer, he gets the feeling to move directly in a computer generated landscape.
Derartige Virtual-Reality-Systeme können eine Erfassungseinrichtung aufweisen, mittels welcher eine Position einer in einem Erfassungsraum angeordneten Virtual-Reality-Brille und/oder Person, welche die Virtual-Reality- Brille aufgesetzt hat, erfasst werden kann. In Abhängigkeit von der erfassten Position der Virtual-Reality-Brille und/oder der Person können die mittels der Virtual-Reality-Brille angezeigten Inhalte derart angepasst werden, dass sich die Person, welche die Virtual-Reality-Brille aufgesetzt hat, innerhalb einer anzeigten virtuellen Umgebung relativ zu einem virtuellen Objekt bewegen kann. Aufgrund von technischen und/oder kostenmäßigen Randbedingungen kann es vorkommen, dass der Erfassungsbereich, innerhalb welchem eine Position der Virtual-Reality-Brille und/oder der Person erfassbar ist, relativ klein ist. Dadurch kann das Problem entstehen, dass ein Träger der Virtual- Reality-Brille sich virtuell nur in einem begrenzten Bereich der virtuellen Um- gebung bewegen und seine Distanz zum virtuellen Objekt infolgedessen auch nicht beliebig verändern kann. Such virtual reality systems can have a detection device by means of which a position of a virtual reality spectacle arranged in a detection space and / or person who has put on the virtual reality glasses can be detected. Depending on the detected In the position of the virtual reality glasses and / or the person, the contents displayed by means of the virtual reality glasses can be adapted such that the person who has set up the virtual reality glasses within a displayed virtual environment relative to one can move virtual object. Due to technical and / or cost constraints, it may happen that the coverage area within which a position of the virtual reality glasses and / or the person is detectable is relatively small. As a result, the problem arises that a wearer of the virtual reality glasses can move virtually only in a limited area of the virtual environment and as a result can not change his distance to the virtual object as desired.
Die EP 2 048 557 A1 zeigt einen optoelektronischen Sensor zur Überwachung eines Raumbereichs. Mittels einer elektronischen Datenbrille kann der zu überwachende Raumbereich aus einer auswählbaren Perspektive angezeigt werden. EP 2 048 557 A1 shows an optoelectronic sensor for monitoring a spatial area. By means of electronic data glasses, the area of space to be monitored can be displayed from a selectable perspective.
Die US 2001/0045978 A1 zeigt eine am Kopf tragbare Anzeigeeinrichtung. An einem ferngesteuerten Spielzeugfahrzeug ist eine Kamera angeordnet, wobei ein mittels der Kamera bereitgestelltes Videosignal an die am Kopf tragbare Anzeigeeinrichtung übertragen und mittels dieser angezeigt wird. Es können auch an mehreren Spielzeugfahrzeugen jeweilige Kameras angeordnet sein, wobei eine die Anzeigeeinrichtung tragende Person zwischen den verschiedenen Kameras umherschalten kann, um sich unterschiedliche Aufnahmen aus den jeweiligen Fahrzeugperspektiven anzeigen zu lassen. US 2001/0045978 A1 shows a head-mounted display device. A camera is disposed on a remote-controlled toy vehicle, and a video signal provided by the camera is transmitted to and displayed by the head-mounted display device. Respective cameras may also be arranged on a plurality of toy vehicles, with a person carrying the display device being able to switch between the various cameras in order to display different recordings from the respective vehicle perspectives.
Die US 2008/0198230 A1 zeigt ein Beobachtungssystem für Sportveranstaltungen. Mittels einer elektronischen Datenbrille kann sich eine Person Informationen zu einer Sportveranstaltung einblenden lassen. Beispielsweise kann sich die Person ein Autorennen anschauen und sich mittels der elektronischen Datenbrille Informationen zu den am Autorennen teilnehmen Fahrzeugen, wie beispielsweise Rundenzeiten, aktuelle Geschwindigkeiten und dergleichen, einblenden lassen. Es ist die Aufgabe der vorliegenden Erfindung eine Lösung bereitzustellen, mittels welcher einem Träger einer Virtual-Reality-Brille ermöglicht wird, seine virtuelle Distanz zu einem virtuellen Objekt innerhalb einer virtuellen Umgebung unabhängig von der Größe eines Erfassungsbereichs einer Erfassungseinrichtung, mittels welcher die Position der Virtual-Reality-Brille und/oder des Trägers der Virtual-Reality-Brille erfassbar ist, im Wesentlichen beliebig zu verändern. US 2008/0198230 A1 shows an observation system for sporting events. Using electronic data glasses, a person can have information displayed on a sporting event. For example, the person may view a car race and have information displayed on the vehicles participating in the car race, such as lap times, current speeds and the like, using the electronic data glasses. It is the object of the present invention to provide a solution by means of which a wearer of a virtual reality goggle is made possible, his virtual distance to a virtual object within a virtual environment regardless of the size of a detection range of a detection device, by means of which the position of the Virtual -Reality glasses and / or the wearer of the virtual reality glasses is detectable to change substantially arbitrarily.
Diese Aufgabe wird durch ein Verfahren zum Betreiben eines Virtual-Reality- Systems und durch ein Virtual-Reality-System mit den Merkmalen der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausgestaltungen mit zweckmäßigen und nicht trivialen Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen angegeben. Bei dem erfindungsgemäßen Verfahren zum Betreiben eines Virtual-Reality- Systems wird eine reale Begehungsfläche einer virtuellen Teilfläche, welche innerhalb von einer virtuellen Begehungsfläche angeordnet ist, zugeordnet. Es wird ein Standpunkt einer auf der realen Begehungsfläche angeordneten Person erfasst, welche eine Virtual-Reality-Brille aufgesetzt hat. Die Erfas- sung des Standpunkts erfolgt dabei mittels einer Erfassungseinrichtung. Der erfasste Standpunkt der Person wird einem virtuellen Standpunkt auf der virtuellen Teilfläche zugeordnet. Mittels der Virtual-Reality-Brille wird ein virtuelles Objekt vom virtuellen Standpunkt angezeigt. Sobald erfasst worden ist, dass der Standpunkt der Person auf einer vorgegebenen Randfläche der realen Begehungsfläche liegt und ein vorgegebenes Auslösekriterium erfüllt ist, wird die virtuelle Teilfläche relativ zur virtuellen Begehungsfläche verschoben, wobei der virtuelle Standpunkt relativ zur virtuellen Teilfläche während der Verschiebung unverändert beibehalten wird. Nachdem die virtuelle Teilfläche relativ zur virtuellen Begehungsfläche verschoben worden ist, wird das virtuelle Objekt mittels der Virtual-Reality-Brille vom virtuellen Standpunkt angezeigt. This object is achieved by a method for operating a virtual reality system and by a virtual reality system having the features of the independent patent claims. Advantageous embodiments with expedient and non-trivial developments of the invention are specified in the dependent claims. In the method according to the invention for operating a virtual reality system, a real access area of a virtual subarea which is arranged within a virtual access area is assigned. A viewpoint of a person located on the real walkway who has put on virtual reality glasses is detected. The detection of the position takes place by means of a detection device. The detected viewpoint of the person is assigned to a virtual viewpoint on the virtual face. The Virtual Reality glasses display a virtual object from the virtual viewpoint. Once it has been detected that the person's point of view is on a given edge area of the real walk area and a predetermined triggering criterion is met, the virtual area is shifted relative to the virtual walk area, maintaining the virtual viewpoint unchanged relative to the virtual area during the shift. After the virtual subarea has been moved relative to the virtual access area, the virtual object is displayed from the virtual viewpoint by means of the virtual reality goggles.
Das Erfassen des jeweiligen Standpunkts, also der Position, der Person, welche die Virtual-Reality-Brille aufgesetzt hat, kann beispielsweise dadurch erfolgen, dass mittels der Erfassungseinrichtung fortlaufend die Position der Virtual-Reality-Brille erfasst wird. Alternativ oder zusätzlich kann die Erfassungseinrichtung auch beispielsweise ein Kamerasystem aufweisen, mittels welchem eine jeweilige Position und somit auch Positionsveränderungen der Person erfasst werden können. The detection of the respective position, ie the position, of the person who has put on the virtual reality glasses can, for example, be achieved by continuously recording the position of the virtual reality glasses by means of the detection device. Alternatively or additionally, the detection device can also have, for example, a camera system by means of which a respective position and thus also position changes of the person can be detected.
Es ist also erfindungsgemäß vorgesehen, fortlaufend den Standpunkt der Person, welche die Virtual-Reality-Brille aufgesetzt hat, mittels der Erfassungseinrichtung zu erfassen. Eine reale Positionsveränderung der Person bewirkt, dass der virtuelle Standpunkt auf der virtuellen Teilfläche entspre- chend der realen Positionsveränderung der Person verändert wird. In Folge dessen verändert sich auch die virtuelle Perspektive auf das mittels der Vir- tual-Reality-Brille angezeigten virtuellen Objekts. Sobald erfasst wird, dass sich die Person, welche die Virtual-Reality-Brille aufgesetzt hat, auf die be- sagte vorgegebene Randfläche der realen Begehungsfläche begibt und das vorgegebene Auslösekriterium erfüllt ist, wird die virtuelle Teilfläche relativ zur virtuellen Begehungsfläche verschoben. Der virtuelle Standpunkt verändert sich dabei nicht relativ zur virtuellen Teilfläche. Aufgrund der relativen Verschiebung der virtuellen Teilfläche zur virtuellen Begehungsfläche verän- dert sich jedoch die relative Positionierung des virtuellen Standpunkts relativ zur virtuellen Begehungsfläche. Man kann sich das so vorstellen, wie wenn beispielsweise eine Stecknadel auf einem Teppich befestigt wird, wobei anschließend der Teppich mitsamt der daran befestigten Stecknadel über einen gefliesten Boden bewegt wird. Die Positionierung der Stecknadel relativ zu dem Teppich verändert sich nicht, wobei sich jedoch die Relativposition der Stecknadel zum Boden verändert, da der Teppich ja relativ zum Boden bewegt wird. In analoger Weise wird bei dem erfindungsgemäßen Verfahren vorgegangen, sobald erfasst worden ist, dass der Standpunkt der Person auf der vorgegebenen Randfläche der realen Begehungsfläche liegt und das vorgegebene Auslösekriterium erfüllt ist. It is therefore provided according to the invention to continuously detect the point of view of the person who has put on the virtual reality glasses by means of the detection device. A real positional change of the person causes the virtual viewpoint on the virtual subarea to correspond. the person's real positional change is changed. As a result, the virtual perspective on the virtual object displayed by means of the virtual reality glasses also changes. As soon as it is detected that the person who has set up the virtual reality glasses is walking on the specified edge area of the real walk area and the predetermined triggering criterion is fulfilled, the virtual partial area is shifted relative to the virtual walk area. The virtual viewpoint does not change relative to the virtual face. Due to the relative shift of the virtual partial area to the virtual access area, however, the relative positioning of the virtual viewpoint relative to the virtual access area changes. You can imagine this, as if, for example, a pin is attached to a carpet, and then the carpet is moved together with the attached pin over a tiled floor. The positioning of the pin relative to the carpet does not change, however, with the relative position of the pin changing to the ground, since the carpet is indeed moved relative to the ground. In an analogous manner, the procedure according to the invention proceeds as soon as it has been detected that the person's point of view lies on the predetermined edge surface of the real access area and the predetermined triggering criterion is met.
Sollte die Person, welche die Virtual-Reality-Brille aufgesetzt hat, sich also derart auf der realen Begehungsfläche bewegt haben, dass diese bei weiterer Bewegung im Begriff wäre, die reale Begehungsfläche zu verlassen, so kann die virtuelle Teilfläche relativ zur virtuellen Begehungsfläche verschoben werden, in Folge dessen sich die virtuelle Beobachtungsposition, aus welcher das virtuelle Objekt angezeigt wird, entsprechend der relativen Verschiebung verändert. Trotz begrenzter realer Begehungsfläche ist es dadurch möglich, dass die Person, welche die Virtual-Reality-Brille aufge- setzt hat, ihren virtuellen Abstand zum virtuellen Objekt im Wesentlichen beliebig verändern kann. Should the person who has put on the virtual reality glasses have thus moved on the real walk area in such a way that they would be about to leave the real walk area during further movement, then the virtual partial area can be shifted relative to the virtual walk area as a result, the virtual observation position from which the virtual object is displayed changes according to the relative displacement. Despite the limited real access area, it is possible for the person who has set up the virtual reality glasses to be able to essentially change their virtual distance to the virtual object.
Eine vorteilhafte Ausführungsform der Erfindung sieht vor, dass die virtuelle Teilfläche relativ zur virtuellen Begehungsfläche derart verschoben wird, dass sich der Abstand zwischen dem virtuellen Standpunkt und dem virtuellen Objekt vergrößert. Mit anderen Worten ist es also vorzugsweise vorgesehen, dass beim Verschieben der virtuellen Teilfläche relativ zur virtuellen Begehungsfläche sich die virtuelle Distanz der Person, welche die Virtual- Reality-Brille aufgesetzt hat, zum angezeigten virtuellen Objekt vergrößert. Die Person muss dafür lediglich die vorgegebene Randfläche betreten und das vorgegebene Auslösekrite um muss erfüllt sein. Dann kann die Person, ohne sich tatsächlich zu bewegen, ihre virtuelle Beobachtungsposition hinsichtlich des angezeigten virtuellen Objekts verändern. Zudem ist es aber auch möglich, dass die virtuelle Teilfläche relativ zur virtuellen Begehungsfläche derart verschoben wird, dass sich der Abstand zwischen dem virtuellen Standpunkt und dem virtuellen Objekt verkleinert. An advantageous embodiment of the invention provides that the virtual subarea is displaced relative to the virtual access area in such a way that the distance between the virtual viewpoint and the virtual object increases. In other words, it is thus preferably provided that, when the virtual partial area is displaced relative to the virtual access area, the virtual distance of the person who has put on the virtual reality glasses increases to the displayed virtual object. The person only has to enter the given edge area and the given triggering criterion must be fulfilled. Then, without actually moving, the person can change their virtual viewing position with respect to the displayed virtual object. In addition, however, it is also possible for the virtual subarea to be displaced relative to the virtual access area in such a way that the distance between the virtual viewpoint and the virtual object decreases.
Eine weitere vorteilhafte Ausführungsform der Erfindung sieht vor, dass die virtuelle Teilfläche relativ zur virtuellen Begehungsfläche um eine Strecke verschoben wird, welche der Länge oder Breite der realen Begehungsfläche entspricht. Mit anderen Worten ist es also vorzugsweise vorgesehen, dass die virtuelle Teilfläche soweit relativ zur virtuellen Begehungsfläche verschoben wird, wie die reale Begehungsfläche beispielsweise lang oder breit ist. Dadurch kann die virtuelle Distanz zum angezeigten virtuellen Objekt besonders stark vergrößert werden, ohne dass sich die Person dabei bewegen muss. A further advantageous embodiment of the invention provides that the virtual partial area is displaced relative to the virtual access area by a distance which corresponds to the length or width of the real access area. In other words, it is thus preferably provided that the virtual subarea is displaced so far relative to the virtual access area as the real access area is, for example, long or wide. As a result, the virtual distance to the displayed virtual object can be greatly increased without the person having to move.
Gemäß einer weiteren vorteilhaften Ausführungsform der Erfindung ist es vorgesehen, dass als das Auslösekriterium vorgegeben wird, dass die Person nach Betreten der Randfläche eine vorgegebene Dauer auf der Randfläche geblieben ist. In diesem Zusammenhang kann es beispielsweise vorgesehen sein, dass mittels der Virtual-Reality-Brille ein rückwärts laufender Timer angezeigt wird, welcher anzeigt, wie lang die Person nach Betreten der Randfläche noch auf dieser verbleiben muss, bis die besagte relative Verschiebung und somit die Veränderung der virtuellen Beobachtungsposition erfolgt. According to a further advantageous embodiment of the invention, it is provided that is specified as the triggering criterion that the person after entering the edge surface has remained a predetermined duration on the edge surface. In this context, it may be provided, for example, that by means of the virtual reality glasses a backward running timer is displayed, which indicates how long the person after entering the edge surface still remain on this until the said relative displacement and thus the change the virtual observation position takes place.
Gemäß einer weiteren vorteilhaften Ausführungsform der Erfindung ist es vorgesehen, dass als das Auslösekriterium vorgegeben wird, dass ein vorgegebenes Bedienelement, vorzugsweise in einer Fernbedienung, betätigt worden ist, während die Person auf der Randfläche angeordnet ist. Beispielsweise kann die Person selbst eine Fernbedienung in der Hand halten und das besagte Bedienelement betätigen, in Folge dessen die virtuelle Ver- Schiebung bewirkt wird. Dadurch kann die Person auf besonders einfache Weise selbst bestimmen und steuern, ob und wann die relative Verschiebung zwischen der virtuellen Teilfläche zur Begehungsfläche erfolgen soll. Eine weitere vorteilhafte Ausführungsform der Erfindung sieht vor, dass mittels der Virtual-Reality-Brille ein dem Randbereich entsprechender virtueller Randbereich auf der virtuellen Teilfläche angezeigt wird. Denn üblicherweise wird das Sichtfeld der Person auf die reale Umgebung durch die aufgesetzte Virtual-Reality-Brille abgeschottet. Durch Anzeigen des virtuellen Randbereichs auf der virtuellen Teilfläche kann die Person dennoch auf ganz einfache und intuitive Weise erkennen, in welche Richtung sie sich bewegen muss, falls sie die besagte Relativverschiebung der virtuellen Teilfläche relativ zur virtuellen Begehungsfläche erzielen möchte. According to a further advantageous embodiment of the invention, it is provided that is given as the triggering criterion that a predetermined operating element, preferably in a remote control, has been actuated while the person is disposed on the edge surface. For example, the person himself can hold a remote control in his hand and actuate said operating element, as a result of which the virtual displacement is effected. As a result, the person can determine and control himself in a particularly simple manner whether and when the relative displacement between the virtual partial area and the access area should take place. A further advantageous embodiment of the invention provides that a virtual edge area corresponding to the edge area is displayed on the virtual partial area by means of the virtual reality glasses. Because usually the field of vision of the person is sealed off to the real environment through the attached virtual reality glasses. By displaying the virtual border area on the virtual face, the person can still easily and intuitively see which direction to move in order to achieve the said relative displacement of the virtual face relative to the virtual walkway.
In weiterer vorteilhafter Ausgestaltung der Erfindung ist es vorgesehen, dass die virtuelle Teilfläche ebenfalls relativ zur virtuellen Begehungsfläche verschoben wird, sobald erfasst wird, dass die Person ihren Blick auf den virtuellen Randbereich gerichtet und eine vorgegebene Bedienhandlung ausge- führt hat. In diesem Zusammenhang kann es beispielsweise vorgesehen sein, dass mittels der Virtual-Reality-Brille eine die Blickrichtung der Person kennzeichnende Markierung, beispielsweise in Form eines Fadenkreuzes oder dergleichen, angezeigt wird. Somit kann die Person auf besonders einfache Weise erkennen, ob sie gerade ihren Blick auf den virtuellen Randbe- reich gerichtet hat. Die Person kann also auch ohne sich auf den realen Randbereich zu begeben, alleine durch eine entsprechende Blickfokussie- rung des angezeigten virtuellen Randbereichs in Kombination mit der vorgegebenen Bedienhandlung bewirken, dass die Relativverschiebung der virtuellen Teilfläche zur virtuellen Begehungsfläche erfolgt. In a further advantageous embodiment of the invention, it is provided that the virtual partial area is also displaced relative to the virtual access area as soon as it is detected that the person has directed his gaze to the virtual edge area and has performed a predetermined operator action. In this context, it can be provided, for example, that by means of the virtual reality glasses a marking the direction of the person characterizing, for example in the form of a crosshair or the like, is displayed. Thus, the person can see in a particularly simple way whether they have just directed their view of the virtual border area. The person can therefore, without having to resort to the real edge area, alone by a corresponding Blickfokussie- tion of the displayed virtual border area in combination with the given operator action cause the relative shift of the virtual sub-area to the virtual walk-up area.
Gemäß einer weiteren vorteilhaften Ausführungsform der Erfindung ist es vorgesehen, dass die Abmaße der virtuellen Teilfläche genauso groß vorgegeben werden wie die Abmaße der realen Begehungsfläche. Dadurch ist es für die Person, welche die Virtual-Reality-Brille aufgesetzt hat, auf besonders einfache und intuitive Weise möglich, sich virtuell um das angezeigte virtuelle Objekt herum zu bewegen, insbesondere ohne die reale Begehungsfläche und somit den Erfassungsbereich der Erfassungseinrichtung zu verlassen. According to a further advantageous embodiment of the invention, it is provided that the dimensions of the virtual sub-area are set as large as the dimensions of the real access area. As a result, it is possible in a particularly simple and intuitive manner for the person who has put on the virtual reality glasses to virtually move around the displayed virtual object, in particular without leaving the real walk-through area and thus the detection area of the detection device.
Zudem sieht eine weitere vorteilhafte Ausführungsform der Erfindung vor, dass eine erfasste Veränderung des Standpunkts der Person relativ zur realen Begehungsfläche hinsichtlich einer Bewegungsrichtung und einer zurückgelegten Strecke zu der gleichen Veränderung des virtuellen Standpunkts relativ zur virtuellen Teilfläche führt. Mit anderen Worten ist es also vorzugsweise vorgesehen, dass reale Positionsveränderungen der Person eins zu eins zu entsprechenden virtuellen Positionsveränderungen bezogen auf die virtuelle Teilfläche führen. In addition, a further advantageous embodiment of the invention provides that a detected change in the position of the person relative to the real access area with respect to a direction of movement and a distance covered leads to the same change of the virtual position relative to the virtual partial area. In other words, it is therefore preferably provided that real changes in position of the person one to one to corresponding virtual position changes related to the virtual face lead.
Das erfindungsgemäße Virtual-Reality-System umfasst eine Virtual-Reality- Brille, eine Erfassungseinrichtung und eine Steuereinrichtung, welche dazu ausgelegt sind, das erfindungsgemäße Verfahren oder eine vorteilhafte Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Vorteilhafte Ausgestaltungen des erfindungsgemäßen Verfahrens sind dabei als vorteilhafte Ausgestaltungen des erfindungsgemäßen Virtual-Reality-Systenns anzusehen, wobei das Virtual-Reality-System insbesondere Mittel zur Durchführung der Verfahrensschritte aufweist. The virtual reality system according to the invention comprises a virtual reality glasses, a detection device and a control device, which are designed to perform the method according to the invention or an advantageous embodiment of the method according to the invention. Advantageous embodiments of the method according to the invention are to be regarded as advantageous embodiments of the virtual reality system according to the invention, wherein the virtual reality system has in particular means for performing the method steps.
Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels sowie anhand der Zeichnung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombination sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Allein- Stellung verwendbar, ohne den Rahmen der Erfindung zu verlassen. Further advantages, features and details of the invention will become apparent from the following description of a preferred embodiment and from the drawing. The features and feature combination mentioned above in the description as well as the features and feature combinations mentioned below in the description of the figures and / or shown alone in the figures can be used not only in the respectively indicated combination but also in other combinations or in stand-alone mode, without the To leave frame of the invention.
Die Zeichnung zeigt in: eine schematische Darstellung eines Virtual-Reality-Systenns, welches eine Virtual-Reality-Brille zum Anzeigen einer virtuellenThe drawing shows in: a schematic representation of a virtual reality system, which is a virtual reality glasses for displaying a virtual reality
Umgebung, eine Erfassungseinrichtung zur Positionserfassung der Virtual-Reality-Brille und eine Steuereinrichtung zum Ansteuern der Virtual-Reality-Brille aufweist; Environment, a detection device for detecting the position of the virtual reality glasses and a control device for driving the virtual reality glasses;
Fig. 2 eine schematische Darstellung eines Erfassungsraums mit einer Begehungsfläche, auf welcher eine Person angeordnet ist, die die Virtual-Reality-Brille aufgesetzt hat; Figure 2 is a schematic representation of a detection space with a walk-on surface on which a person is placed who has put on the virtual reality glasses.
Fig. 3 eine schematische Darstellung der virtuellen Umgebung, innerhalb welcher ein virtuelles Kraftfahrzeug angeordnet ist, das mittels der Virtual-Reality-Brille angezeigt wird; 3 is a schematic representation of the virtual environment within which a virtual motor vehicle is displayed, which is displayed by means of the virtual reality glasses;
Fig. 4 eine schematische Darstellung, in welcher eine Zuordnung zwischen der realen Begehungsfläche des Erfassungsraums und einer virtuellen Teilfläche einer virtuellen Begehungsfläche der virtuellen Umgebung gekennzeichnet ist; Fig. 4 is a schematic representation in which an association between the real access area of the detection space and a virtual subarea of a virtual access area of the virtual environment is marked;
Fig. 5 eine weitere schematische Darstellung, in welcher die Zuordnung zwischen der realen Begehungsfläche und der virtuellen Teilfläche gezeigt ist, wobei die virtuelle Teilfläche gerade relativ zur virtuellen Begehungsfläche verschoben worden ist; 5 shows a further schematic representation in which the association between the real access area and the virtual subarea is shown, wherein the virtual subarea has just been shifted relative to the virtual access area;
Fig. 6 eine weitere schematische Darstellung, in welcher eine Zuordnung zwischen der realen Begehungsfläche und der virtuellen Teilfläche gezeigt ist, wobei die virtuelle Teilfläche relativ zur virtuellen Begehungsfläche in eine andere Richtung als in Fig. 5 gezeigt verschoben worden ist; und in Fig. 7 eine schematische Darstellung der virtuellen Begehungsfläche und der virtuellen Teilfläche, wobei innerhalb der virtuellen Teilfläche vier virtuelle Randbereiche gekennzeichnet sind. FIG. 6 is another schematic diagram showing an association between the real access area and the virtual sub-area with the virtual sub-area shifted relative to the virtual access area in a direction other than shown in FIG. 5; FIG. and FIG. 7 is a schematic representation of the virtual access area and the virtual subarea, whereby four virtual border areas are identified within the virtual subarea.
In den Figuren werden gleiche oder funktionsgleiche Elemente mit gleichen Bezugszeichen versehen. In the figures, identical or functionally identical elements are provided with the same reference numerals.
Ein Virtual-Reality-System 10 ist in einer schematischen Darstellung in Fig. 1 gezeigt. Das Virtual-Reality-System 10 umfasst eine Virtual-Reality-Brille 12, eine Steuereinrichtung 14 und eine Erfassungseinrichtung 16. Die Virtual- Reality-Brille 12 ist dazu ausgebildet, zumindest ein virtuelles Objekt innerhalb einer virtuellen Umgebung anzuzeigen. Beispielsweise ist es mittels der Virtual-Reality-Brille 12 möglich, ein virtuelles Kraftfahrzeug, welches in einem virtuellen Showroom angeordnet ist, anzuzeigen. Die Steuereinrichtung 14 ist dazu ausgelegt, die Virtual-Reality-Brille 12 unter anderem in Abhän- gigkeit von Signalen anzusteuern, welche von der Erfassungseinrichtung 16 bereitgestellt werden. Die Erfassungseinrichtung 16 ist dazu ausgelegt, eine Position und somit auch eine Positionsveränderung der Virtual-Reality-Brille 12 zu erfassen. Die Erfassungseinrichtung 16 ist dabei dazu ausgelegt, zusätzlich die Position einer Person zu erfassen, welche die Virtual-Reality- Brille 12 aufgesetzt hat, alternativ ist es aber auch möglich, dass die Erfassungseinrichtung 16 basierend auf der ermittelten Position der Virtual- Reality-Brille 12 die Position der Person ermitteln kann, welche die Virtual- Reality-Brille 12 aufgesetzt hat. In Fig. 2 ist ein Erfassungsraum 18 schematisch dargestellt. Eine Person 20, welche die Virtual-Reality-Brille 12 trägt, befindet sich innerhalb des Erfas- sungsraums 18 und kann sich auf einer realen Begehungsfläche 22 fortbewegen. Solange sich die Virtual-Reality-Brille 12 innerhalb des Erfassungs- raums 18 befindet, kann die Erfassungseinrichtung 16 auf zuverlässige Weise die Position der Virtual-Reality-Brille 12 und somit auch die Position der Person 20 ermitteln. Mit xi und yi sind jeweilige Achsen eines ortsfesten Koordinatensystems gekennzeichnet, wobei mit ortsfest gemeint ist, dass die beiden Koordinatenachsen xi und yi ortsfest bezüglich des Erfassungsraums 18 und somit auch ortsfest bezüglich der realen Begehungsfläche 22 sind. A virtual reality system 10 is shown in a schematic representation in FIG. The virtual reality system 10 comprises a virtual reality glasses 12, a control device 14 and a detection device 16. The virtual reality glasses 12 are designed to display at least one virtual object within a virtual environment. For example, it is possible by means of the virtual reality glasses 12 to display a virtual motor vehicle which is arranged in a virtual showroom. The control device 14 is designed to control the virtual reality glasses 12, inter alia, as a function of signals which are provided by the detection device 16. The detection device 16 is designed to detect a position and thus also a change in position of the virtual reality glasses 12. The detection device 16 is designed to additionally detect the position of a person who has put on the virtual reality glasses 12, but alternatively it is also possible that the detection device 16 based on the determined position of the virtual reality glasses 12th determine the position of the person who has the virtual reality glasses 12 put on. In Fig. 2, a detection space 18 is shown schematically. A person 20 who wears the virtual reality glasses 12 is located within the detection space 18 and can move on a real walk area 22. As long as the virtual reality glasses 12 are located within the detection area 18, the detection device 16 can reliably determine the position of the virtual reality glasses 12 and thus also the position of the person 20. With xi and yi respective axes of a stationary coordinate system are marked, where by stationary is meant that the two coordinate axes xi and yi are stationary with respect to the detection space 18 and thus also stationary with respect to the real access area 22.
In Fig. 3 ist eine virtuelle Umgebung 24 schematisch gezeigt, welche mittels der Virtual-Reality-Brille 12 angezeigt wird. Die Virtual-Reality-Brille 12 zeigt dabei ein virtuelles Kraftfahrzeug 26 an, welches innerhalb der virtuellen Umgebung 24 angeordnet ist. Die Person 20 ist in der vorliegenden Darstellung nur zu Illustrationszwecken gezeigt, um eine virtuelle Beobachtungsposition der Person 20 zu kennzeichnen, aus welcher diese durch die Virtual- Reality-Brille 12 die virtuelle Umgebung 24 und somit das virtuelle Kraftfahrzeug 26 sieht. Die Person 20 kann sich dabei virtuell auf einer virtuellen Be- gehungsfläche 28 der virtuellen Umgebung 24 bewegen. In Fig. 3, a virtual environment 24 is shown schematically, which is displayed by means of the virtual reality glasses 12. The virtual reality glasses 12 indicates a virtual motor vehicle 26, which is arranged within the virtual environment 24. The person 20 is shown in the present illustration for purposes of illustration only to identify a virtual viewing position of the person 20 from which he sees through the virtual reality glasses 12 the virtual environment 24 and thus the virtual automobile 26. The person 20 can move virtually on a virtual access area 28 of the virtual environment 24.
Eine reale Positionsveränderung der Person 20 auf der realen Begehungsfläche 22 bewirkt eine entsprechende virtuelle Positionsveränderung der Person 20 innerhalb der virtuellen Umgebung 24, also auch bezüglich der virtuellen Begehungsfläche 28. A real change in position of the person 20 on the real access area 22 causes a corresponding virtual change in position of the person 20 within the virtual environment 24, thus also with respect to the virtual walk-through area 28.
Wie durch die beiden Figuren 2 und 3 angedeutet, ist die virtuelle Begehungsfläche 28 wesentlich größer als die reale Begehungsfläche 22, welche die Person 20 nicht verlassen sollte, um eine zuverlässige Positionserfas- sung der Person 20 und der Virtual-Reality-Brille 12 zu ermöglichen. As indicated by the two FIGS. 2 and 3, the virtual access area 28 is substantially larger than the real access area 22, which the person 20 should not leave, in order to enable reliable position detection of the person 20 and the virtual reality glasses 12 ,
In Fig. 4 sind die reale Begehungsfläche 22 und die virtuelle Begehungsfläche 28 in einer schematischen Draufsicht nebeneinander dargestellt. Dabei ist ein Standpunkt 30 der Person 20, also ihre Position, auf der realen Bege- hungsfläche 22 gekennzeichnet. Darüber hinaus weist die reale Begehungsfläche 22 noch mehrere Randbereiche 32, 34, 36, 38 auf. In FIG. 4, the real access area 22 and the virtual access area 28 are shown side by side in a schematic plan view. In this case, a point of view 30 of the person 20, that is to say her position, is marked on the real access area 22. In addition, the real access area 22 still has a plurality of edge regions 32, 34, 36, 38.
Innerhalb der virtuellen Begehungsfläche 28 ist eine virtuelle Teilfläche 40 gekennzeichnet. Die hier gezeigte Konstellation kann eine Art Standardein- Stellung sein, bei welcher die Steuereinrichtung 14 die reale Begehungsfläche 22 der virtuellen Teilfläche 40 zuordnet, welche innerhalb von der virtuellen Begehungsfläche 28 angeordnet ist. Hierbei kann es vorgesehen sein, dass in der besagten Standardeinstellung die virtuelle Teilfläche 40 mittig zur virtuellen Begehungsfläche 24 angeordnet wird. Innerhalb der virtuellen Teilfläche 40 ist ein virtueller Standpunkt 42 gekennzeichnet, von welchem aus die Person 20 durch die Virtual-Reality-Brille 12 das virtuelle Kraftfahrzeug 26 und die restliche virtuelle Umgebung 24 sehen kann. Mit den Koordinatenachen x2 und y2 ist ein bezogen auf die virtuelle Teilfläche 40 ortsfestes Koordinatensystem bezeichnet. Within the virtual walk-in area 28, a virtual sub-area 40 is marked. The constellation shown here can be a kind of standard Be position in which the controller 14 assigns the real Begehungsfläche 22 of the virtual sub-area 40, which is disposed within the virtual Begehungsfläche 28. In this case, provision may be made for the virtual subarea 40 to be arranged centrally in the said standard setting to the virtual access area 24. Within the virtual subarea 40, a virtual viewpoint 42 is indicated, from which the person 20 through the virtual reality goggles 12 can see the virtual motor vehicle 26 and the remaining virtual environment 24. The coordinate matters x 2 and y 2 designate a coordinate system fixed relative to the virtual subarea 40.
Verändert sich der reale Standpunkt 30 der Person 20, so verändert sich automatisch auch der virtuelle Standpunkt 42 bezogen auf die virtuelle Teilfläche 40. Die Abmaße der realen Begehungsfläche 22 und die Abmaße der virtuellen Teilfläche 40 entsprechen dabei einander. Die Person 20 kann sich also gar nicht virtuell aus der virtuellen Teilfläche 40 herausbewegen, da sie sonst die reale Begehungsfläche 22 und somit den Erfassungsraum 18 verlassen würde, in Folge dessen die Erfassungseinrichtung 16 die Position der Virtual-Reality-Brille 12 und somit die Position der Person 20 nicht mehr zu- verlässig erfassen könnte. Daher ist es vorgesehen, dass die Steuereinrichtung 16 die virtuelle Teilfläche 40 relativ zur virtuellen Begehungsfläche 28 verschieben kann. Mit den Koordinatenachsen x3 und y3 ist ein bezogen auf die virtuelle Begehungsfläche 28 ortsfestes weiteres Koordinatensystem bezeichnet. If the real viewpoint 30 of the person 20 changes, the virtual viewpoint 42 automatically changes with respect to the virtual subarea 40. The dimensions of the real walkway 22 and the dimensions of the virtual subarea 40 correspond to one another. Thus, the person 20 can not virtually move out of the virtual sub-area 40, since otherwise he would leave the real walk-through area 22 and thus the detection space 18, as a result of which the detection device 16 determines the position of the virtual reality glasses 12 and thus the position the person 20 could no longer reliably grasp. Therefore, it is provided that the control device 16 can move the virtual partial surface 40 relative to the virtual exercise surface 28. With the coordinate axes x 3 and y 3 , a further coordinate system fixed relative to the virtual access area 28 is designated.
In Fig. 5 ist diese Relativverschiebung der virtuellen Teilfläche 40 zur virtuellen Begehungsfläche 28 schematisch dargestellt. Wie zu erkennen, hat die Person 20 ihren Standort auf die obere Randfläche 32 verlagert. Bleibt die Person 20 eine entsprechend vorgegebene Dauer auf dem Randbereich 32 stehen, beispielsweise ein paar Sekunden, so wird die virtuelle Teilfläche 40 in Richtung der Achse y3 relativ zur virtuellen Begehungsfläche 24 verschoben. Die virtuelle Teilfläche 40 kann dabei beispielsweise soweit relativ zur virtuellen Begehungsfläche 28 verschoben werden, wie sich die reale Begehungsfläche 22 in Richtung der Achse yi erstreckt. Wie zu erkennen, verän- dert sich jedoch die relative Positionierung des virtuellen Standpunkts 42 bezüglich der virtuellen Teilfläche 40 nicht. Jedoch verändert sich die virtuelle Distanz zwischen dem virtuellen Standpunkt 42 und dem virtuellen Kraftfahrzeug 26 aufgrund der Relativverschiebung der virtuellen Teilfläche 40. Bewegt sich also die Person 20 derart, dass sie auf den Randbereich 32 der realen Begehungsfläche 22 gelangt, und bleibt lange genug auf diesem Randbereich 32 stehen, so verändert sich ihre virtuelle Beobachtungsposition zum virtuellen Kraftfahrzeug 26, ohne dass sich die Person 20 in der Rea- lität entsprechend bewegen muss. Diese Verschiebung kann vorzugsweise sprungartig geschehen. Beispielsweise wird dafür die Virtual-Reality-Brille 12 derart angesteuert, dass diese die virtuelle Umgebung 24 kurz ausblendet und erneut einblendet, nachdem die sprunghafte Relativverschiebung erfolgt ist. Nach der Relativverschiebung kann sich die Person 20 das virtuelle Kraft- fahrzeug 26 aus einer größeren Distanz anschauen. Auch bei relativ kleinen Abmaßen der realen Begehungsfläche 22 kann die Person 20 somit die virtuelle Umgebung 24 weitläufig virtuell erkunden, ohne den Erfassungsbereich der Erfassungseinrichtung 16 zu verlassen. In Fig. 6 ist eine weitere virtuelle Relativverschiebung der virtuellen Teilfläche 40 dargestellt. Im vorliegend gezeigten Beispiel hat sich die Person 20 auf den Randbereich 34 begeben, so dass sich ihr realer Standpunkt 30 auf dem Randbereich 34 befindet. Bleibt die Person 20 wiederum lange genug auf diesem Randbereich 34 stehen, so wird die virtuelle Teilfläche 40 wiederum relativ zur virtuellen Begehungsfläche 28 verschoben. Im vorliegenden Fall wird die virtuelle Teilfläche 40 nach rechts, also in Richtung der Achse X3 verschoben, da sich die Person 20 auf die äußerst rechts liegende Randfläche 34 begeben hat. Wiederum wird die virtuelle Teilfläche 40 derart relativ zur virtuellen Begehungsfläche 28 verschoben, dass sich die virtuelle Be- obachtungsposition, welche dem virtuellen Standpunkt 42 entspricht, von dem virtuellen Kraftfahrzeug 26 entfernt. Im vorliegend gezeigten Beispiel steht also die Person 20 virtuell relativ weit rechts vom virtuellen Kraftfahrzeug 26. Die Richtung hinsichtlich der Relativverschiebung der virtuellen Teilfläche 40 zur realen Begehungsfläche 28 hängt also davon ab, auf welche der Randbereiche 32, 34, 36, 38 sich die Person 20 gerade begeben hat. Allgemein hängt die Richtung der Relativverschiebung davon ab, wie der jeweilige Randbereich 32, 34, 36, 38 zu einem Mittelpunkt der realen Begehungsflä- che 22 positioniert ist. Die Richtung der Relativverschiebung der virtuellen Teilfläche 40 zur virtuellen Begehungsfläche 40 erfolgt also entsprechend der relativen Positionierung des jeweiligen Randbereichs 32, 34, 36, 38 zum Mittelpunkt der realen Begehungsfläche 22. Steht die Person rechts vom Mittelpunkt, also auf dem Randbereich 34, so wird die virtuelle Teilfläche 40 vir- tuell nach rechts verschoben. Steht die Person links vom Mittelpunkt, also auf dem Randbereich 36, so wird die virtuelle Teilfläche 40 virtuell nach links verschoben. Entsprechendes gilt für eine Positionierung auf den Randbereichen 32, 38. In FIG. 5, this relative displacement of the virtual sub-area 40 to the virtual access area 28 is shown schematically. As can be seen, the person 20 has moved his location to the upper edge surface 32. If the person 20 remains standing on the edge region 32 for a correspondingly predetermined duration, for example a few seconds, then the virtual part surface 40 is displaced in the direction of the axis y3 relative to the virtual access surface 24. In this case, the virtual subarea 40 can, for example, be displaced relative to the virtual access area 28 as far as the real access area 22 extends in the direction of the axis yi. As can be seen, however, the relative positioning of the virtual viewpoint 42 with respect to the virtual subarea 40 does not change. However, the virtual distance between the virtual viewpoint 42 and the virtual car 26 changes due to the relative displacement of the virtual subarea 40. If the person 20 thus moves in such a way that it reaches the edge area 32 of the real access area 22, and remains standing on this edge area 32 long enough, its virtual observation position changes to the virtual motor vehicle 26 without the person 20 in the Rea - must move accordingly. This shift may preferably be made abruptly. For example, for the virtual reality glasses 12 is controlled such that it briefly fades out the virtual environment 24 and fades in again after the sudden relative displacement has taken place. After the relative displacement, the person 20 can view the virtual motor vehicle 26 from a greater distance. Even with relatively small dimensions of the real access area 22, the person 20 can thus virtually explore the virtual environment 24 virtually without leaving the detection area of the detection device 16. FIG. 6 shows a further virtual relative displacement of the virtual subarea 40. In the example shown here, the person 20 has moved to the edge region 34, so that their real position 30 is located on the edge region 34. If the person 20 in turn stops long enough on this edge region 34, then the virtual sub-surface 40 is in turn displaced relative to the virtual access surface 28. In the present case, the virtual subarea 40 is shifted to the right, that is to say in the direction of the axis X3, since the person 20 has moved to the extreme right edge surface 34. Again, the virtual sub-area 40 is shifted relative to the virtual walk-up area 28 such that the virtual viewing position corresponding to the virtual viewpoint 42 is removed from the virtual vehicle 26. In the example shown here, therefore, the person 20 virtually stands relatively far to the right of the virtual motor vehicle 26. The direction with respect to the relative displacement of the virtual sub-area 40 to the real access area 28 thus depends on which of the edge areas 32, 34, 36, 38 the person 20 has just gone. In general, the direction of the relative displacement depends on how the respective edge region 32, 34, 36, 38 is positioned to a center of the real inspection surface 22. The direction of the relative displacement of the virtual sub-area 40 to the virtual access area 40 thus takes place in accordance with the relative positioning of the respective edge area 32, 34, 36, 38 to the center of the real access area 22. If the person is standing right from the center point, ie on the edge area 34, then the virtual face 40 vir- moved right to the right. If the person is standing to the left of the center point, that is to say on the edge area 36, the virtual subarea 40 is virtually moved to the left. The same applies to a positioning on the edge regions 32, 38.
Bewegt sich die Person 20 entgegen der Richtung von xi , so nähert sich die Person 20 virtuell wieder dem virtuellen Kraftfahrzeug 26. Sobald die Person sich auf die äußerst linke Randfläche 38 der realen Begehungsfläche 22 begeben hat und lange genug dort stehen bleibt, wird die virtuelle Teilfläche 40 entgegen der Achsrichtung x3 verschoben, in Folge dessen sich die Person 20 virtuell links vom virtuellen Kraftfahrzeug 26 befindet. If the person 20 moves in the opposite direction of xi, then the person 20 virtually approaches the virtual motor vehicle 26. As soon as the person has gone to the leftmost edge surface 38 of the real access area 22 and stops there long enough, the virtual Partial surface 40 displaced against the axial direction x 3 , as a result, the person 20 is virtually left of the virtual motor vehicle 26.
In Fig. 7 ist die virtuelle Begehungsfläche 28 in einer weiteren schematischen Darstellung gezeigt. Vorliegend ist die virtuelle Teilfläche 40 wiederum mittig innerhalb der virtuellen Begehungsfläche 24 angeordnet. Wie anhand der Kennzeichnung des virtuellen Standpunkts 42 zu erkennen, befindet sich die Person 20 zwar innerhalb der realen Begehungsfläche 22 jedoch auf keiner der äußeren Randbereiche 32, 34, 36, 38. Mittels der Virtual-Reality-Brille 12 werden jeweilige den realen Randbereichen 32, 34, 36, 38 entsprechende virtuelle Randbereiche 44, 46, 48, 50 angezeigt. Die Person 20, welche die Virtual-Reality-Brille 12 trägt, bekommt also in der angezeigten virtuellen Umgebung 24 dargestellt, wohin sie sich begeben muss, um die besagte virtuelle Relativverschiebung der virtuellen Teilfläche 40 zur virtuellen Begehungsfläche 28 zu bewirken. Darüber hinaus kann es auch vorgesehen sein, dass die virtuelle Teilfläche 28 ebenfalls in der beschriebenen Weise relativ zur virtuellen Begehungsfläche 28 verschoben wird, sobald erfasst wird, dass die Person 20 ihren Blick auf einen der virtuellen Randbereiche 44, 46, 48, 50 gerichtet und eine vorgegebene Bedienhandlung ausgeführt hat, indem die Person 20 beispielsweise den Knopf auf einer Fernbedienung gedrückt, eine vorgegebene Geste ausgeführt, einen vorgegebenen Sprachbefehl ausgeführt hat oder dergleichen. Diese virtuellen Positionssprünge aufgrund der Relativverschiebung der virtuellen Teilfläche 40 kann die Person 20 also auch blickrichtungsabhängig steuern, ohne dass sich die Person 20 auf die realen Randbereiche 32, 34, 36, 38 stellen muss. FIG. 7 shows the virtual access area 28 in a further schematic illustration. In the present case, the virtual subarea 40 is again arranged centrally within the virtual access area 24. However, as can be seen from the identification of the virtual viewpoint 42, the person 20 is not located within the real access area 22 on any of the outer edge areas 32, 34, 36, 38. By means of the virtual reality goggles 12, respective ones become the real edge areas 32 , 34, 36, 38 corresponding virtual edge regions 44, 46, 48, 50 displayed. The person 20 who wears the virtual reality glasses 12 is thus presented in the displayed virtual environment 24, where he has to go in order to bring about the said virtual relative displacement of the virtual sub-area 40 to the virtual walk-flat area 28. Moreover, it can also be provided that the virtual subarea 28 is likewise displaced in the described manner relative to the virtual access area 28 as soon as it is detected that the person 20 is looking at one of the virtual border areas 44, 46, 48, 50 has performed a predetermined operation by the person 20, for example, pressed the button on a remote control, executed a predetermined gesture, has performed a predetermined voice command or the like. This virtual position jumps due to the relative displacement of the virtual partial surface 40 can thus also control the person 20 in terms of the direction of view, without the person 20 having to face the real edge regions 32, 34, 36, 38.

Claims

PATENTANSPRÜCHE:  CLAIMS:
Verfahren zum Betreiben eines Virtual-Reality-Systems (10), mit den Schritten: Method for operating a virtual reality system (10), comprising the steps:
- Zuordnen einer realen Begehungsfläche (22) zu einer virtuellen Teilfläche (40), welche innerhalb von einer virtuellen Begehungsfläche (28)angeordnet ist;  - associating a real access area (22) with a virtual subarea (40) located within a virtual access area (28);
- Erfassen eines Standpunkts (30) einer auf der realen Begehungsfläche (22) angeordneten Person (20), welche eine Virtual-Reality- Brille (12) aufgesetzt hat, mittels einer Erfassungseinrichtung (16); Detecting a viewpoint (30) of a person (20), who has placed a virtual reality goggle (12) on the real walkway surface (22), by means of a detection device (16);
- Zuordnen des erfassten Standpunkts (30) der Person (20) zu einem virtuellen Standpunkt (42) auf der virtuellen Teilfläche (40); - assigning the detected viewpoint (30) of the person (20) to a virtual viewpoint (42) on the virtual subarea (40);
- Anzeigen eines virtuellen Objekts (26) vom virtuellen Standpunkt (42) mittels der Virtual-Reality-Brille (12);  - Viewing a virtual object (26) from the virtual viewpoint (42) by means of the virtual reality glasses (12);
- sobald erfasst worden ist, dass der Standpunkt (30) der Person (20) auf einer vorgegebenen Randfläche (32, 34, 36, 38) der realen Begehungsfläche (22) liegt und ein vorgegebenes Auslösekriterium erfüllt ist: Verschieben der virtuellen Teilfläche (40) relativ zur virtuellen Begehungsfläche (28), wobei der virtuelle Standpunkt (42) relativ zur virtuellen Teilfläche (40) während der Verschiebung unverändert beibehalten wird;  - Once it has been detected that the viewpoint (30) of the person (20) on a predetermined edge surface (32, 34, 36, 38) of the real walk area (22) and a predetermined triggering criterion is met: Move the virtual part surface (40 relative to the virtual walk-up area (28), wherein the virtual viewpoint (42) relative to the virtual sub-area (40) is maintained unchanged during the shift;
- Anzeigen des virtuellen Objekts (26) mittels der Virtual-Reality-Brille (12) vom virtuellen Standpunkt (42) nachdem die virtuelle Teilfläche (40) relativ zur virtuellen Begehungsfläche (28) verschoben worden ist.  - Displaying the virtual object (26) by means of the virtual reality glasses (12) from the virtual viewpoint (42) after the virtual sub-area (40) has been moved relative to the virtual access area (28).
Verfahren nach Anspruch 1 , Method according to claim 1,
dadurch gekennzeichnet, dass characterized in that
die virtuelle Teilfläche (40) relativ zur virtuellen Begehungsfläche(28) derart verschoben wird, dass sich der Abstand zwischen dem virtuellen Standpunkt (42) und dem virtuellen Objekt (26) vergrößert. the virtual sub-area (40) is shifted relative to the virtual access area (28) such that the distance between the virtual viewpoint (42) and the virtual object (26) increases.
Verfahren nach Anspruch 1 oder 2, Method according to claim 1 or 2,
dadurch gekennzeichnet, dass characterized in that
die virtuelle Teilfläche (40) relativ zur virtuellen Begehungsfläche (28) um eine Strecke verschoben wird, welche der Länge oder Breite der realen Begehungsfläche (22) entspricht. the virtual sub-area (40) is displaced relative to the virtual access area (28) by a distance which corresponds to the length or width of the real access area (22).
Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Method according to one of the preceding claims, characterized in that
als das Auslösekrite um vorgegeben wird, dass die Person (20) nach Betreten der Randfläche (32, 34, 36, 38) eine vorgegebene Dauer auf der Randfläche (32, 34, 36, 38) geblieben ist. when the triggering criterion is specified by the person (20) having remained on the edge surface (32, 34, 36, 38) after entering the edge surface (32, 34, 36, 38) for a predetermined duration.
Verfahren nach einem der vorhergehenden Ansprüche, Method according to one of the preceding claims,
dadurch gekennzeichnet, dass characterized in that
als das Auslösekriterium vorgegeben wird, dass ein vorgegebenes Bedienelement, vorzugsweise von einer Fernbedienung, betätigt worden ist, während die Person (20) auf der Randfläche (32, 34, 36, 38) angeordnet ist. as the triggering criterion is specified that a predetermined operating element, preferably by a remote control has been operated while the person (20) on the edge surface (32, 34, 36, 38) is arranged.
Verfahren nach einem der vorhergehenden Ansprüche, Method according to one of the preceding claims,
dadurch gekennzeichnet, dass characterized in that
mittels der Virtual-Reality-Brille (12) ein dem Randbereich (32, 34, 36, 38) entsprechender virtueller Randbereich (44, 46, 48, 50) auf der virtuellen Teilfläche (40) angezeigt wird. a virtual edge region (44, 46, 48, 50) corresponding to the edge region (32, 34, 36, 38) is displayed on the virtual partial surface (40) by means of the virtual reality glasses (12).
Verfahren nach Anspruch 6, Method according to claim 6,
dadurch gekennzeichnet, dass characterized in that
die virtuelle Teilfläche (40) ebenfalls relativ zur virtuellen Begehungsfläche (28) verschoben wird, sobald erfasst wird, dass die Person (20) ihren Blick auf den virtuellen Randbereich (44, 46, 48, 50) gerichtet und eine vorgegebene Bedienhandlung ausgeführt hat. the virtual sub-area (40) is also displaced relative to the virtual walk-up area (28) as soon as it is detected that the person (20) has directed his eyes to the virtual border area (44, 46, 48, 50) and has performed a predetermined operator action.
Verfahren nach einem der vorhergehenden Ansprüche, Method according to one of the preceding claims,
dadurch gekennzeichnet, dass characterized in that
die Abmaße der virtuellen Teilfläche(40) genau so groß vorgegeben werden wie die Abmaße der realen Begehungsfläche (22). the dimensions of the virtual sub-area (40) are given exactly the same size as the dimensions of the real access area (22).
Verfahren nach einem der vorhergehenden Ansprüche, Method according to one of the preceding claims,
dadurch gekennzeichnet, dass characterized in that
eine erfasste Veränderung des Standpunkts (30) der Person (20) relativ zur realen Begehungsfläche (22) hinsichtlich einer Bewegungsrichtung und einer zurückgelegten Strecke zu der gleichen Veränderung des virtuellen Standpunkts (42) relativ zur virtuellen Teilfläche (40) führt. a detected change in the viewpoint (30) of the person (20) relative to the real access area (22) with respect to a direction of movement and a distance traveled results in the same change of the virtual position (42) relative to the virtual subarea (40).
Virtual-Reality-Systenn (10), mit einer Virtual-Reality-Brille (12), einer Erfassungseinrichtung(16) und mit einer Steuereinrichtung (14), welche dazu ausgelegt sind, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen. Virtual reality system (10), with virtual reality glasses (12), one Detection device (16) and with a control device (14), which are adapted to perform a method according to one of the preceding claims.
PCT/EP2016/077972 2015-12-18 2016-11-17 Method for operating a virtual reality system, and virtual reality system WO2017102236A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015016501.1A DE102015016501A1 (en) 2015-12-18 2015-12-18 Method for operating a virtual reality system and virtual reality system
DE102015016501.1 2015-12-18

Publications (1)

Publication Number Publication Date
WO2017102236A1 true WO2017102236A1 (en) 2017-06-22

Family

ID=57326419

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2016/077972 WO2017102236A1 (en) 2015-12-18 2016-11-17 Method for operating a virtual reality system, and virtual reality system

Country Status (2)

Country Link
DE (1) DE102015016501A1 (en)
WO (1) WO2017102236A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010045978A1 (en) 2000-04-12 2001-11-29 Mcconnell Daniel L. Portable personal wireless interactive video device and method of using the same
US20080198230A1 (en) 2005-07-14 2008-08-21 Huston Charles D GPS Based Spectator and Participant Sport System and Method
EP2048557A1 (en) 2007-10-11 2009-04-15 Sick Ag Optoelectronic sensor and mobile device and configuration method
US20150070263A1 (en) * 2013-09-09 2015-03-12 Microsoft Corporation Dynamic Displays Based On User Interaction States
US20150338651A1 (en) * 2012-07-27 2015-11-26 Nokia Corporation Multimodal interation with near-to-eye display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010045978A1 (en) 2000-04-12 2001-11-29 Mcconnell Daniel L. Portable personal wireless interactive video device and method of using the same
US20080198230A1 (en) 2005-07-14 2008-08-21 Huston Charles D GPS Based Spectator and Participant Sport System and Method
EP2048557A1 (en) 2007-10-11 2009-04-15 Sick Ag Optoelectronic sensor and mobile device and configuration method
US20150338651A1 (en) * 2012-07-27 2015-11-26 Nokia Corporation Multimodal interation with near-to-eye display
US20150070263A1 (en) * 2013-09-09 2015-03-12 Microsoft Corporation Dynamic Displays Based On User Interaction States

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GABRIEL CIRIO ET AL: "The magic barrier tape", PROCEEDINGS OF THE 16TH ACM SYMPOSIUM ON VIRTUAL REALITY SOFTWARE AND TECHNOLOGY; NOVEMBER 18 - 20, 2009, KYOTO, JAPAN, ACM, 2 PENN PLAZA, SUITE 701 NEW YORK NY 10121-0701 USA, 18 November 2009 (2009-11-18), pages 155 - 162, XP058210129, ISBN: 978-1-60558-869-8, DOI: 10.1145/1643928.1643965 *

Also Published As

Publication number Publication date
DE102015016501A1 (en) 2017-06-22

Similar Documents

Publication Publication Date Title
EP3394708B1 (en) Method for operating a virtual reality system, and virtual reality system
DE102014009697A1 (en) Method for operating a mobile virtual reality system in a motor vehicle and mobile virtual reality system
DE102014015871B4 (en) Display system for a motor vehicle, motor vehicle with a display system and method for operating a display system
DE102013019374B4 (en) Method for operating a vehicle system and motor vehicle designed for fully automated driving of a motor vehicle
EP3837595B1 (en) Control apparatus and method for reducing motion sickness in a user when looking at a media content by means of smart glasses while travelling in a motor vehicle
DE102012218837A1 (en) Method for displaying a representation on head-up display or head-mounted display e.g. LCD in passenger car, involves determining representation that is to-be-superimposed from view of user in environment, and assigning representation
EP3411776B1 (en) Method for operating a virtual reality system, and virtual reality system
EP3673475A1 (en) Method for operating an assistance system for a vehicle and assistance system
EP3231668A1 (en) Vehicle, in particular commercial vehicle, with a mirror replacement system
DE102014009302A1 (en) Method for operating a virtual reality glasses and system with a virtual reality glasses
WO2018219688A1 (en) Method for operating a virtual reality system, and virtual reality system
WO2016165799A1 (en) Method for operating virtual reality goggles and system comprising virtual reality goggles
DE102014009299A1 (en) Method for operating a virtual reality glasses and system with a virtual reality glasses
DE102015003948A1 (en) Method for operating a arranged in a motor vehicle virtual reality glasses and virtual reality system
EP3765941A1 (en) Method and device for providing information using an augmented reality device, method and device for providing information for controlling a display of an augmented reality device, method and device for controlling a display of an augmented reality device, and computer-readable storage medium with instructions for carrying out the method
DE102014018056A1 (en) Method of operating a virtual reality glasses and virtual reality glasses
EP3216743B1 (en) Industrial truck with assistance system
WO2017102236A1 (en) Method for operating a virtual reality system, and virtual reality system
DE102016102808A1 (en) Method for controlling a sighting device arranged to be directionally arranged on a vehicle
WO2016087033A1 (en) Method for operating virtual reality goggles, and display apparatus
DE102015011590B4 (en) Method for operating a virtual reality system and virtual reality system
DE102015011589A1 (en) Method for operating a virtual reality system and virtual reality system
DE102014009304A1 (en) Method for operating a virtual reality glasses and system with a virtual reality glasses
DE102017129214A1 (en) System and method for improving a field of vision
WO2016091361A1 (en) Method for operating virtual reality goggles and display system comprising virtual reality goggles

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16797567

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16797567

Country of ref document: EP

Kind code of ref document: A1