DE102015016501A1 - Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System - Google Patents

Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System Download PDF

Info

Publication number
DE102015016501A1
DE102015016501A1 DE102015016501.1A DE102015016501A DE102015016501A1 DE 102015016501 A1 DE102015016501 A1 DE 102015016501A1 DE 102015016501 A DE102015016501 A DE 102015016501A DE 102015016501 A1 DE102015016501 A1 DE 102015016501A1
Authority
DE
Germany
Prior art keywords
virtual
area
person
relative
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015016501.1A
Other languages
English (en)
Inventor
Marcus Kühne
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102015016501.1A priority Critical patent/DE102015016501A1/de
Priority to PCT/EP2016/077972 priority patent/WO2017102236A1/de
Publication of DE102015016501A1 publication Critical patent/DE102015016501A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben eines Virtual-Reality-Systems (10), mit den Schritten: Zuordnen einer realen Begehungsfläche (22) zu einer virtuellen Teilfläche (40); Erfassen eines Standpunkts (30) einer auf der realen Begehungsfläche (22) angeordneten Person (20), welche eine Virtual-Reality-Brille (12) aufgesetzt hat; Zuordnen des erfassten Standpunkts (30) der Person (20) zu einem virtuellen Standpunkt (42) auf der virtuellen Teilfläche (40); Anzeigen eines virtuellen Objekts (26) vom virtuellen Standpunkt (42); sobald erfasst worden ist, dass der Standpunkt (30) der Person (20) auf einer vorgegebenen Randfläche (32, 34, 36, 38) der realen Begehungsfläche (22) liegt und ein vorgegebenes Auslösekriterium erfüllt ist: Verschieben der virtuellen Teilfläche (40) relativ zu einer virtuellen Begehungsfläche (28), wobei der virtuelle Standpunkt (42) relativ zur virtuellen Teilfläche (40) unverändert beibehalten wird; Anzeigen des virtuellen Objekts (26) vom virtuellen Standpunkt (42) nachdem die virtuelle Teilfläche (40) relativ zur virtuellen Begehungsfläche (28) verschoben worden ist.

Description

  • Die Erfindung betrifft eine Verfahren zum Betreiben eines Virtual-Reality-Systems und ein Virtual-Reality-System.
  • Mittels eines Virtual-Reality-Systems kann eine virtuelle Realität dargestellt werden, wobei als virtuelle Realität üblicherweise die Darstellung und gleichzeitige Wahrnehmung der Wirklichkeit in ihren physikalischen Eigenschaften in einer in Echtzeit computergenerierten, interaktiven virtuellen Umgebung bezeichnet wird.
  • Virtual-Reality-Systeme können eine Virtual-Reality-Brille zum Anzeigen einer virtuellen Umgebung aufweisen. Bei einer Virtual-Reality-Brille handelt es sich um eine bestimmte Form eines sogenannten Head-Mounted-Displays, bei welchem es sich um ein auf dem Kopf getragenes visuelles Ausgabegerät handelt. Es präsentiert Bilder auf einem augennahen Bildschirm oder projiziert sie direkt auf die Netzhaut. Eine Virtual-Reality-Brille hat dabei zusätzlich noch Sensoren zur Bewegungserfassung des Kopfes. Damit kann die Anzeige einer berechneten Grafik an die Bewegungen eines Träger der Virtual-Reality-Brille angepasst werden. Durch die körperliche Nähe wirken die angezeigten Bildflächen von Head-Mounted-Displays erheblich größer als die freistehender Bildschirme und decken im Extremfall sogar das gesamte Sichtfeld des Benutzers ab. Da jeweilige Displays von Virtual-Reality-Brillen durch die Kopfhaltung allen Kopfbewegungen eines Trägers folgen, bekommt er das Gefühl, sich direkt in einer von einem Computer erzeugten Bildlandschaft zu bewegen.
  • Derartige Virtual-Reality-Systeme können eine Erfassungseinrichtung aufweisen, mittels welcher eine Position einer in einem Erfassungsraum angeordneten Virtual-Reality-Brille und/oder Person, welche die Virtual-Reality-Brille aufgesetzt hat, erfasst werden kann. In Abhängigkeit von der erfassten Position der Virtual-Reality-Brille und/oder der Person können die mittels der Virtual-Reality-Brille angezeigten Inhalte derart angepasst werden, dass sich die Person, welche die Virtual-Reality-Brille aufgesetzt hat, innerhalb einer anzeigten virtuellen Umgebung relativ zu einem virtuellen Objekt bewegen kann. Aufgrund von technischen und/oder kostenmäßigen Randbedingungen kann es vorkommen, dass der Erfassungsbereich, innerhalb welchem eine Position der Virtual-Reality-Brille und/oder der Person erfassbar ist, relativ klein ist. Dadurch kann das Problem entstehen, dass ein Träger der Virtual-Reality-Brille sich virtuell nur in einem begrenzten Bereich der virtuellen Umgebung bewegen und seine Distanz zum virtuellen Objekt infolgedessen auch nicht beliebig verändern kann.
  • Die EP 2 048 557 A1 zeigt einen optoelektronischen Sensor zur Überwachung eines Raumbereichs. Mittels einer elektronischen Datenbrille kann der zu überwachende Raumbereich aus einer auswählbaren Perspektive angezeigt werden.
  • Die US 2001/0045978 A1 zeigt eine am Kopf tragbare Anzeigeeinrichtung. An einem ferngesteuerten Spielzeugfahrzeug ist eine Kamera angeordnet, wobei ein mittels der Kamera bereitgestelltes Videosignal an die am Kopf tragbare Anzeigeeinrichtung übertragen und mittels dieser angezeigt wird. Es können auch an mehreren Spielzeugfahrzeugen jeweilige Kameras angeordnet sein, wobei eine die Anzeigeeinrichtung tragende Person zwischen den verschiedenen Kameras umherschalten kann, um sich unterschiedliche Aufnahmen aus den jeweiligen Fahrzeugperspektiven anzeigen zu lassen.
  • Die US 2008/0198230 A1 zeigt ein Beobachtungssystem für Sportveranstaltungen. Mittels einer elektronischen Datenbrille kann sich eine Person Informationen zu einer Sportveranstaltung einblenden lassen. Beispielsweise kann sich die Person ein Autorennen anschauen und sich mittels der elektronischen Datenbrille Informationen zu den am Autorennen teilnehmen Fahrzeugen, wie beispielsweise Rundenzeiten, aktuelle Geschwindigkeiten und dergleichen, einblenden lassen.
  • Es ist die Aufgabe der vorliegenden Erfindung eine Lösung bereitzustellen, mittels welcher einem Träger einer Virtual-Reality-Brille ermöglicht wird, seine virtuelle Distanz zu einem virtuellen Objekt innerhalb einer virtuellen Umgebung unabhängig von der Größe eines Erfassungsbereichs einer Erfassungseinrichtung, mittels welcher die Position der Virtual-Reality-Brille und/oder des Trägers der Virtual-Reality-Brille erfassbar ist, im Wesentlichen beliebig zu verändern.
  • Diese Aufgabe wird durch ein Verfahren zum Betreiben eines Virtual-Reality-Systems und durch ein Virtual-Reality-System mit den Merkmalen der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausgestaltungen mit zweckmäßigen und nicht trivialen Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen angegeben.
  • Bei dem erfindungsgemäßen Verfahren zum Betreiben eines Virtual-Reality-Systems wird eine reale Begehungsfläche einer virtuellen Teilfläche, welche innerhalb von einer virtuellen Begehungsfläche angeordnet ist, zugeordnet. Es wird ein Standpunkt einer auf der realen Begehungsfläche angeordneten Person erfasst, welche eine Virtual-Reality-Brille aufgesetzt hat. Die Erfassung des Standpunkts erfolgt dabei mittels einer Erfassungseinrichtung. Der erfasste Standpunkt der Person wird einem virtuellen Standpunkt auf der virtuellen Teilfläche zugeordnet. Mittels der Virtual-Reality-Brille wird ein virtuelles Objekt vom virtuellen Standpunkt angezeigt. Sobald erfasst worden ist, dass der Standpunkt der Person auf einer vorgegebenen Randfläche der realen Begehungsfläche liegt und ein vorgegebenes Auslösekriterium erfüllt ist, wird die virtuelle Teilfläche relativ zur virtuellen Begehungsfläche verschoben, wobei der virtuelle Standpunkt relativ zur virtuellen Teilfläche während der Verschiebung unverändert beibehalten wird. Nachdem die virtuelle Teilfläche relativ zur virtuellen Begehungsfläche verschoben worden ist, wird das virtuelle Objekt mittels der Virtual-Reality-Brille vom virtuellen Standpunkt angezeigt.
  • Das Erfassen des jeweiligen Standpunkts, also der Position, der Person, welche die Virtual-Reality-Brille aufgesetzt hat, kann beispielsweise dadurch erfolgen, dass mittels der Erfassungseinrichtung fortlaufend die Position der Virtual-Reality-Brille erfasst wird. Alternativ oder zusätzlich kann die Erfassungseinrichtung auch beispielsweise ein Kamerasystem aufweisen, mittels welchem eine jeweilige Position und somit auch Positionsveränderungen der Person erfasst werden können.
  • Es ist also erfindungsgemäß vorgesehen, fortlaufend den Standpunkt der Person, welche die Virtual-Reality-Brille aufgesetzt hat, mittels der Erfassungseinrichtung zu erfassen. Eine reale Positionsveränderung der Person bewirkt, dass der virtuelle Standpunkt auf der virtuellen Teilfläche entsprechend der realen Positionsveränderung der Person verändert wird. In Folge dessen verändert sich auch die virtuelle Perspektive auf das mittels der Virtual-Reality-Brille angezeigten virtuellen Objekts. Sobald erfasst wird, dass sich die Person, welche die Virtual-Reality-Brille aufgesetzt hat, auf die besagte vorgegebene Randfläche der realen Begehungsfläche begibt und das vorgegebene Auslösekriterium erfüllt ist, wird die virtuelle Teilfläche relativ zur virtuellen Begehungsfläche verschoben. Der virtuelle Standpunkt verändert sich dabei nicht relativ zur virtuellen Teilfläche. Aufgrund der relativen Verschiebung der virtuellen Teilfläche zur virtuellen Begehungsfläche verändert sich jedoch die relative Positionierung des virtuellen Standpunkts relativ zur virtuellen Begehungsfläche. Man kann sich das so vorstellen, wie wenn beispielsweise eine Stecknadel auf einem Teppich befestigt wird, wobei anschließend der Teppich mitsamt der daran befestigten Stecknadel über einen gefliesten Boden bewegt wird. Die Positionierung der Stecknadel relativ zu dem Teppich verändert sich nicht, wobei sich jedoch die Relativposition der Stecknadel zum Boden verändert, da der Teppich ja relativ zum Boden bewegt wird. In analoger Weise wird bei dem erfindungsgemäßen Verfahren vorgegangen, sobald erfasst worden ist, dass der Standpunkt der Person auf der vorgegebenen Randfläche der realen Begehungsfläche liegt und das vorgegebene Auslösekriterium erfüllt ist.
  • Sollte die Person, welche die Virtual-Reality-Brille aufgesetzt hat, sich also derart auf der realen Begehungsfläche bewegt haben, dass diese bei weiterer Bewegung im Begriff wäre, die reale Begehungsfläche zu verlassen, so kann die virtuelle Teilfläche relativ zur virtuellen Begehungsfläche verschoben werden, in Folge dessen sich die virtuelle Beobachtungsposition, aus welcher das virtuelle Objekt angezeigt wird, entsprechend der relativen Verschiebung verändert. Trotz begrenzter realer Begehungsfläche ist es dadurch möglich, dass die Person, welche die Virtual-Reality-Brille aufgesetzt hat, ihren virtuellen Abstand zum virtuellen Objekt im Wesentlichen beliebig verändern kann.
  • Eine vorteilhafte Ausführungsform der Erfindung sieht vor, dass die virtuelle Teilfläche relativ zur virtuellen Begehungsfläche derart verschoben wird, dass sich der Abstand zwischen dem virtuellen Standpunkt und dem virtuellen Objekt vergrößert. Mit anderen Worten ist es also vorzugsweise vorgesehen, dass beim Verschieben der virtuellen Teilfläche relativ zur virtuellen Begehungsfläche sich die virtuelle Distanz der Person, welche die Virtual-Reality-Brille aufgesetzt hat, zum angezeigten virtuellen Objekt vergrößert.
  • Die Person muss dafür lediglich die vorgegebene Randfläche betreten und das vorgegebene Auslösekriterium muss erfüllt sein. Dann kann die Person, ohne sich tatsächlich zu bewegen, ihre virtuelle Beobachtungsposition hinsichtlich des angezeigten virtuellen Objekts verändern. Zudem ist es aber auch möglich, dass die virtuelle Teilfläche relativ zur virtuellen Begehungsfläche derart verschoben wird, dass sich der Abstand zwischen dem virtuellen Standpunkt und dem virtuellen Objekt verkleinert.
  • Eine weitere vorteilhafte Ausführungsform der Erfindung sieht vor, dass die virtuelle Teilfläche relativ zur virtuellen Begehungsfläche um eine Strecke verschoben wird, welche der Länge oder Breite der realen Begehungsfläche entspricht. Mit anderen Worten ist es also vorzugsweise vorgesehen, dass die virtuelle Teilfläche soweit relativ zur virtuellen Begehungsfläche verschoben wird, wie die reale Begehungsfläche beispielsweise lang oder breit ist. Dadurch kann die virtuelle Distanz zum angezeigten virtuellen Objekt besonders stark vergrößert werden, ohne dass sich die Person dabei bewegen muss.
  • Gemäß einer weiteren vorteilhaften Ausführungsform der Erfindung ist es vorgesehen, dass als das Auslösekriterium vorgegeben wird, dass die Person nach Betreten der Randfläche eine vorgegebene Dauer auf der Randfläche geblieben ist. In diesem Zusammenhang kann es beispielsweise vorgesehen sein, dass mittels der Virtual-Reality-Brille ein rückwärts laufender Timer angezeigt wird, welcher anzeigt, wie lang die Person nach Betreten der Randfläche noch auf dieser verbleiben muss, bis die besagte relative Verschiebung und somit die Veränderung der virtuellen Beobachtungsposition erfolgt.
  • Gemäß einer weiteren vorteilhaften Ausführungsform der Erfindung ist es vorgesehen, dass als das Auslösekriterium vorgegeben wird, dass ein vorgegebenes Bedienelement, vorzugsweise in einer Fernbedienung, betätigt worden ist, während die Person auf der Randfläche angeordnet ist. Beispielsweise kann die Person selbst eine Fernbedienung in der Hand halten und das besagte Bedienelement betätigen, in Folge dessen die virtuelle Verschiebung bewirkt wird. Dadurch kann die Person auf besonders einfache Weise selbst bestimmen und steuern, ob und wann die relative Verschiebung zwischen der virtuellen Teilfläche zur Begehungsfläche erfolgen soll.
  • Eine weitere vorteilhafte Ausführungsform der Erfindung sieht vor, dass mittels der Virtual-Reality-Brille ein dem Randbereich entsprechender virtueller Randbereich auf der virtuellen Teilfläche angezeigt wird. Denn üblicherweise wird das Sichtfeld der Person auf die reale Umgebung durch die aufgesetzte Virtual-Reality-Brille abgeschottet. Durch Anzeigen des virtuellen Randbereichs auf der virtuellen Teilfläche kann die Person dennoch auf ganz einfache und intuitive Weise erkennen, in welche Richtung sie sich bewegen muss, falls sie die besagte Relativverschiebung der virtuellen Teilfläche relativ zur virtuellen Begehungsfläche erzielen möchte.
  • In weiterer vorteilhafter Ausgestaltung der Erfindung ist es vorgesehen, dass die virtuelle Teilfläche ebenfalls relativ zur virtuellen Begehungsfläche verschoben wird, sobald erfasst wird, dass die Person ihren Blick auf den virtuellen Randbereich gerichtet und eine vorgegebene Bedienhandlung ausgeführt hat. In diesem Zusammenhang kann es beispielsweise vorgesehen sein, dass mittels der Virtual-Reality-Brille eine die Blickrichtung der Person kennzeichnende Markierung, beispielsweise in Form eines Fadenkreuzes oder dergleichen, angezeigt wird. Somit kann die Person auf besonders einfache Weise erkennen, ob sie gerade ihren Blick auf den virtuellen Randbereich gerichtet hat. Die Person kann also auch ohne sich auf den realen Randbereich zu begeben, alleine durch eine entsprechende Blickfokussierung des angezeigten virtuellen Randbereichs in Kombination mit der vorgegebenen Bedienhandlung bewirken, dass die Relativverschiebung der virtuellen Teilfläche zur virtuellen Begehungsfläche erfolgt.
  • Gemäß einer weiteren vorteilhaften Ausführungsform der Erfindung ist es vorgesehen, dass die Abmaße der virtuellen Teilfläche genauso groß vorgegeben werden wie die Abmaße der realen Begehungsfläche. Dadurch ist es für die Person, welche die Virtual-Reality-Brille aufgesetzt hat, auf besonders einfache und intuitive Weise möglich, sich virtuell um das angezeigte virtuelle Objekt herum zu bewegen, insbesondere ohne die reale Begehungsfläche und somit den Erfassungsbereich der Erfassungseinrichtung zu verlassen.
  • Zudem sieht eine weitere vorteilhafte Ausführungsform der Erfindung vor, dass eine erfasste Veränderung des Standpunkts der Person relativ zur realen Begehungsfläche hinsichtlich einer Bewegungsrichtung und einer zurückgelegten Strecke zu der gleichen Veränderung des virtuellen Standpunkts relativ zur virtuellen Teilfläche führt. Mit anderen Worten ist es also vorzugsweise vorgesehen, dass reale Positionsveränderungen der Person eins zu eins zu entsprechenden virtuellen Positionsveränderungen bezogen auf die virtuelle Teilfläche führen.
  • Das erfindungsgemäße Virtual-Reality-System umfasst eine Virtual-Reality-Brille, eine Erfassungseinrichtung und eine Steuereinrichtung, welche dazu ausgelegt sind, das erfindungsgemäße Verfahren oder eine vorteilhafte Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Vorteilhafte Ausgestaltungen des erfindungsgemäßen Verfahrens sind dabei als vorteilhafte Ausgestaltungen des erfindungsgemäßen Virtual-Reality-Systems anzusehen, wobei das Virtual-Reality-System insbesondere Mittel zur Durchführung der Verfahrensschritte aufweist.
  • Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels sowie anhand der Zeichnung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombination sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.
  • Die Zeichnung zeigt in:
  • 1 eine schematische Darstellung eines Virtual-Reality-Systems, welches eine Virtual-Reality-Brille zum Anzeigen einer virtuellen Umgebung, eine Erfassungseinrichtung zur Positionserfassung der Virtual-Reality-Brille und eine Steuereinrichtung zum Ansteuern der Virtual-Reality-Brille aufweist;
  • 2 eine schematische Darstellung eines Erfassungsraums mit einer Begehungsfläche, auf welcher eine Person angeordnet ist, die die Virtual-Reality-Brille aufgesetzt hat;
  • 3 eine schematische Darstellung der virtuellen Umgebung, innerhalb welcher ein virtuelles Kraftfahrzeug angeordnet ist, das mittels der Virtual-Reality-Brille angezeigt wird;
  • 4 eine schematische Darstellung, in welcher eine Zuordnung zwischen der realen Begehungsfläche des Erfassungsraums und einer virtuellen Teilfläche einer virtuellen Begehungsfläche der virtuellen Umgebung gekennzeichnet ist;
  • 5 eine weitere schematische Darstellung, in welcher die Zuordnung zwischen der realen Begehungsfläche und der virtuellen Teilfläche gezeigt ist, wobei die virtuelle Teilfläche gerade relativ zur virtuellen Begehungsfläche verschoben worden ist;
  • 6 eine weitere schematische Darstellung, in welcher eine Zuordnung zwischen der realen Begehungsfläche und der virtuellen Teilfläche gezeigt ist, wobei die virtuelle Teilfläche relativ zur virtuellen Begehungsfläche in eine andere Richtung als in 5 gezeigt verschoben worden ist; und in
  • 7 eine schematische Darstellung der virtuellen Begehungsfläche und der virtuellen Teilfläche, wobei innerhalb der virtuellen Teilfläche vier virtuelle Randbereiche gekennzeichnet sind.
  • In den Figuren werden gleiche oder funktionsgleiche Elemente mit gleichen Bezugszeichen versehen.
  • Ein Virtual-Reality-System 10 ist in einer schematischen Darstellung in 1 gezeigt. Das Virtual-Reality-System 10 umfasst eine Virtual-Reality-Brille 12, eine Steuereinrichtung 14 und eine Erfassungseinrichtung 16. Die Virtual-Reality-Brille 12 ist dazu ausgebildet, zumindest ein virtuelles Objekt innerhalb einer virtuellen Umgebung anzuzeigen. Beispielsweise ist es mittels der Virtual-Reality-Brille 12 möglich, ein virtuelles Kraftfahrzeug, welches in einem virtuellen Showroom angeordnet ist, anzuzeigen. Die Steuereinrichtung 14 ist dazu ausgelegt, die Virtual-Reality-Brille 12 unter anderem in Abhängigkeit von Signalen anzusteuern, welche von der Erfassungseinrichtung 16 bereitgestellt werden. Die Erfassungseinrichtung 16 ist dazu ausgelegt, eine Position und somit auch eine Positionsveränderung der Virtual-Reality-Brille 12 zu erfassen. Die Erfassungseinrichtung 16 ist dabei dazu ausgelegt, zusätzlich die Position einer Person zu erfassen, welche die Virtual-Reality-Brille 12 aufgesetzt hat, alternativ ist es aber auch möglich, dass die Erfassungseinrichtung 16 basierend auf der ermittelten Position der Virtual-Reality-Brille 12 die Position der Person ermitteln kann, welche die Virtual-Reality-Brille 12 aufgesetzt hat.
  • In 2 ist ein Erfassungsraum 18 schematisch dargestellt. Eine Person 20, welche die Virtual-Reality-Brille 12 trägt, befindet sich innerhalb des Erfassungsraums 18 und kann sich auf einer realen Begehungsfläche 22 fortbewegen. Solange sich die Virtual-Reality-Brille 12 innerhalb des Erfassungsraums 18 befindet, kann die Erfassungseinrichtung 16 auf zuverlässige Weise die Position der Virtual-Reality-Brille 12 und somit auch die Position der Person 20 ermitteln. Mit x1 und y1 sind jeweilige Achsen eines ortsfesten Koordinatensystems gekennzeichnet, wobei mit ortsfest gemeint ist, dass die beiden Koordinatenachsen x1 und y1 ortsfest bezüglich des Erfassungsraums 18 und somit auch ortsfest bezüglich der realen Begehungsfläche 22 sind.
  • In 3 ist eine virtuelle Umgebung 24 schematisch gezeigt, welche mittels der Virtual-Reality-Brille 12 angezeigt wird. Die Virtual-Reality-Brille 12 zeigt dabei ein virtuelles Kraftfahrzeug 26 an, welches innerhalb der virtuellen Umgebung 24 angeordnet ist. Die Person 20 ist in der vorliegenden Darstellung nur zu Illustrationszwecken gezeigt, um eine virtuelle Beobachtungsposition der Person 20 zu kennzeichnen, aus welcher diese durch die Virtual-Reality-Brille 12 die virtuelle Umgebung 24 und somit das virtuelle Kraftfahrzeug 26 sieht. Die Person 20 kann sich dabei virtuell auf einer virtuellen Begehungsfläche 28 der virtuellen Umgebung 24 bewegen.
  • Eine reale Positionsveränderung der Person 20 auf der realen Begehungsfläche 22 bewirkt eine entsprechende virtuelle Positionsveränderung der Person 20 innerhalb der virtuellen Umgebung 24, also auch bezüglich der virtuellen Begehungsfläche 28.
  • Wie durch die beiden 2 und 3 angedeutet, ist die virtuelle Begehungsfläche 28 wesentlich größer als die reale Begehungsfläche 22, welche die Person 20 nicht verlassen sollte, um eine zuverlässige Positionserfassung der Person 20 und der Virtual-Reality-Brille 12 zu ermöglichen.
  • In 4 sind die reale Begehungsfläche 22 und die virtuelle Begehungsfläche 28 in einer schematischen Draufsicht nebeneinander dargestellt. Dabei ist ein Standpunkt 30 der Person 20, also ihre Position, auf der realen Begehungsfläche 22 gekennzeichnet. Darüber hinaus weist die reale Begehungsfläche 22 noch mehrere Randbereiche 32, 34, 36, 38 auf.
  • Innerhalb der virtuellen Begehungsfläche 28 ist eine virtuelle Teilfläche 40 gekennzeichnet. Die hier gezeigte Konstellation kann eine Art Standardeinstellung sein, bei welcher die Steuereinrichtung 14 die reale Begehungsfläche 22 der virtuellen Teilfläche 40 zuordnet, welche innerhalb von der virtuellen Begehungsfläche 28 angeordnet ist. Hierbei kann es vorgesehen sein, dass in der besagten Standardeinstellung die virtuelle Teilfläche 40 mittig zur virtuellen Begehungsfläche 24 angeordnet wird. Innerhalb der virtuellen Teilfläche 40 ist ein virtueller Standpunkt 42 gekennzeichnet, von welchem aus die Person 20 durch die Virtual-Reality-Brille 12 das virtuelle Kraftfahrzeug 26 und die restliche virtuelle Umgebung 24 sehen kann. Mit den Koordinatenachen x2 und y2 ist ein bezogen auf die virtuelle Teilfläche 40 ortsfestes Koordinatensystem bezeichnet.
  • Verändert sich der reale Standpunkt 30 der Person 20, so verändert sich automatisch auch der virtuelle Standpunkt 42 bezogen auf die virtuelle Teilfläche 40. Die Abmaße der realen Begehungsfläche 22 und die Abmaße der virtuellen Teilfläche 40 entsprechen dabei einander. Die Person 20 kann sich also gar nicht virtuell aus der virtuellen Teilfläche 40 herausbewegen, da sie sonst die reale Begehungsfläche 22 und somit den Erfassungsraum 18 verlassen würde, in Folge dessen die Erfassungseinrichtung 16 die Position der Virtual-Reality-Brille 12 und somit die Position der Person 20 nicht mehr zuverlässig erfassen könnte. Daher ist es vorgesehen, dass die Steuereinrichtung 16 die virtuelle Teilfläche 40 relativ zur virtuellen Begehungsfläche 28 verschieben kann. Mit den Koordinatenachsen x3 und y3 ist ein bezogen auf die virtuelle Begehungsfläche 28 ortsfestes weiteres Koordinatensystem bezeichnet.
  • In 5 ist diese Relativverschiebung der virtuellen Teilfläche 40 zur virtuellen Begehungsfläche 28 schematisch dargestellt. Wie zu erkennen, hat die Person 20 ihren Standort auf die obere Randfläche 32 verlagert. Bleibt die Person 20 eine entsprechend vorgegebene Dauer auf dem Randbereich 32 stehen, beispielsweise ein paar Sekunden, so wird die virtuelle Teilfläche 40 in Richtung der Achse y3 relativ zur virtuellen Begehungsfläche 24 verschoben. Die virtuelle Teilfläche 40 kann dabei beispielsweise soweit relativ zur virtuellen Begehungsfläche 28 verschoben werden, wie sich die reale Begehungsfläche 22 in Richtung der Achse y1 erstreckt. Wie zu erkennen, verändert sich jedoch die relative Positionierung des virtuellen Standpunkts 42 bezüglich der virtuellen Teilfläche 40 nicht. Jedoch verändert sich die virtuelle Distanz zwischen dem virtuellen Standpunkt 42 und dem virtuellen Kraftfahrzeug 26 aufgrund der Relativverschiebung der virtuellen Teilfläche 40.
  • Bewegt sich also die Person 20 derart, dass sie auf den Randbereich 32 der realen Begehungsfläche 22 gelangt, und bleibt lange genug auf diesem Randbereich 32 stehen, so verändert sich ihre virtuelle Beobachtungsposition zum virtuellen Kraftfahrzeug 26, ohne dass sich die Person 20 in der Realität entsprechend bewegen muss. Diese Verschiebung kann vorzugsweise sprungartig geschehen. Beispielsweise wird dafür die Virtual-Reality-Brille 12 derart angesteuert, dass diese die virtuelle Umgebung 24 kurz ausblendet und erneut einblendet, nachdem die sprunghafte Relativverschiebung erfolgt ist. Nach der Relativverschiebung kann sich die Person 20 das virtuelle Kraftfahrzeug 26 aus einer größeren Distanz anschauen. Auch bei relativ kleinen Abmaßen der realen Begehungsfläche 22 kann die Person 20 somit die virtuelle Umgebung 24 weitläufig virtuell erkunden, ohne den Erfassungsbereich der Erfassungseinrichtung 16 zu verlassen.
  • In 6 ist eine weitere virtuelle Relativverschiebung der virtuellen Teilfläche 40 dargestellt. Im vorliegend gezeigten Beispiel hat sich die Person 20 auf den Randbereich 34 begeben, so dass sich ihr realer Standpunkt 30 auf dem Randbereich 34 befindet. Bleibt die Person 20 wiederum lange genug auf diesem Randbereich 34 stehen, so wird die virtuelle Teilfläche 40 wiederum relativ zur virtuellen Begehungsfläche 28 verschoben. Im vorliegenden Fall wird die virtuelle Teilfläche 40 nach rechts, also in Richtung der Achse x3 verschoben, da sich die Person 20 auf die äußerst rechts liegende Randfläche 34 begeben hat. Wiederum wird die virtuelle Teilfläche 40 derart relativ zur virtuellen Begehungsfläche 28 verschoben, dass sich die virtuelle Beobachtungsposition, welche dem virtuellen Standpunkt 42 entspricht, von dem virtuellen Kraftfahrzeug 26 entfernt. Im vorliegend gezeigten Beispiel steht also die Person 20 virtuell relativ weit rechts vom virtuellen Kraftfahrzeug 26.
  • Die Richtung hinsichtlich der Relativverschiebung der virtuellen Teilfläche 40 zur realen Begehungsfläche 28 hängt also davon ab, auf welche der Randbereiche 32, 34, 36, 38 sich die Person 20 gerade begeben hat. Allgemein hängt die Richtung der Relativverschiebung davon ab, wie der jeweilige Randbereich 32, 34, 36, 38 zu einem Mittelpunkt der realen Begehungsfläche 22 positioniert ist. Die Richtung der Relativverschiebung der virtuellen Teilfläche 40 zur virtuellen Begehungsfläche 40 erfolgt also entsprechend der relativen Positionierung des jeweiligen Randbereichs 32, 34, 36, 38 zum Mittelpunkt der realen Begehungsfläche 22. Steht die Person rechts vom Mittelpunkt, also auf dem Randbereich 34, so wird die virtuelle Teilfläche 40 virtuell nach rechts verschoben. Steht die Person links vom Mittelpunkt, also auf dem Randbereich 36, so wird die virtuelle Teilfläche 40 virtuell nach links verschoben. Entsprechendes gilt für eine Positionierung auf den Randbereichen 32, 38.
  • Bewegt sich die Person 20 entgegen der Richtung von x1, so nähert sich die Person 20 virtuell wieder dem virtuellen Kraftfahrzeug 26. Sobald die Person sich auf die äußerst linke Randfläche 38 der realen Begehungsfläche 22 begeben hat und lange genug dort stehen bleibt, wird die virtuelle Teilfläche 40 entgegen der Achsrichtung x3 verschoben, in Folge dessen sich die Person 20 virtuell links vom virtuellen Kraftfahrzeug 26 befindet.
  • In 7 ist die virtuelle Begehungsfläche 28 in einer weiteren schematischen Darstellung gezeigt. Vorliegend ist die virtuelle Teilfläche 40 wiederum mittig innerhalb der virtuellen Begehungsfläche 24 angeordnet. Wie anhand der Kennzeichnung des virtuellen Standpunkts 42 zu erkennen, befindet sich die Person 20 zwar innerhalb der realen Begehungsfläche 22 jedoch auf keiner der äußeren Randbereiche 32, 34, 36, 38. Mittels der Virtual-Reality-Brille 12 werden jeweilige den realen Randbereichen 32, 34, 36, 38 entsprechende virtuelle Randbereiche 44, 46, 48, 50 angezeigt. Die Person 20, welche die Virtual-Reality-Brille 12 trägt, bekommt also in der angezeigten virtuellen Umgebung 24 dargestellt, wohin sie sich begeben muss, um die besagte virtuelle Relativverschiebung der virtuellen Teilfläche 40 zur virtuellen Begehungsfläche 28 zu bewirken. Darüber hinaus kann es auch vorgesehen sein, dass die virtuelle Teilfläche 28 ebenfalls in der beschriebenen Weise relativ zur virtuellen Begehungsfläche 28 verschoben wird, sobald erfasst wird, dass die Person 20 ihren Blick auf einen der virtuellen Randbereiche 44, 46, 48, 50 gerichtet und eine vorgegebene Bedienhandlung ausgeführt hat, indem die Person 20 beispielsweise den Knopf auf einer Fernbedienung gedrückt, eine vorgegebene Geste ausgeführt, einen vorgegebenen Sprachbefehl ausgeführt hat oder dergleichen. Diese virtuellen Positionssprünge aufgrund der Relativverschiebung der virtuellen Teilfläche 40 kann die Person 20 also auch blickrichtungsabhängig steuern, ohne dass sich die Person 20 auf die realen Randbereiche 32, 34, 36, 38 stellen muss.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 2048557 A1 [0005]
    • US 2001/0045978 A1 [0006]
    • US 2008/0198230 A1 [0007]

Claims (10)

  1. Verfahren zum Betreiben eines Virtual-Reality-Systems (10), mit den Schritten: – Zuordnen einer realen Begehungsfläche (22) zu einer virtuellen Teilfläche (40), welche innerhalb von einer virtuellen Begehungsfläche (28) angeordnet ist; – Erfassen eines Standpunkts (30) einer auf der realen Begehungsfläche (22) angeordneten Person (20), welche eine Virtual-Reality-Brille (12) aufgesetzt hat, mittels einer Erfassungseinrichtung (16); – Zuordnen des erfassten Standpunkts (30) der Person (20) zu einem virtuellen Standpunkt (42) auf der virtuellen Teilfläche (40); – Anzeigen eines virtuellen Objekts (26) vom virtuellen Standpunkt (42) mittels der Virtual-Reality-Brille (12); – sobald erfasst worden ist, dass der Standpunkt (30) der Person (20) auf einer vorgegebenen Randfläche (32, 34, 36, 38) der realen Begehungsfläche (22) liegt und ein vorgegebenes Auslösekriterium erfüllt ist: Verschieben der virtuellen Teilfläche (40) relativ zur virtuellen Begehungsfläche (28), wobei der virtuelle Standpunkt (42) relativ zur virtuellen Teilfläche (40) während der Verschiebung unverändert beibehalten wird; – Anzeigen des virtuellen Objekts (26) mittels der Virtual-Reality-Brille (12) vom virtuellen Standpunkt (42) nachdem die virtuelle Teilfläche (40) relativ zur virtuellen Begehungsfläche (28) verschoben worden ist.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die virtuelle Teilfläche (40) relativ zur virtuellen Begehungsfläche (28) derart verschoben wird, dass sich der Abstand zwischen dem virtuellen Standpunkt (42) und dem virtuellen Objekt (26) vergrößert.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die virtuelle Teilfläche (40) relativ zur virtuellen Begehungsfläche (28) um eine Strecke verschoben wird, welche der Länge oder Breite der realen Begehungsfläche (22) entspricht.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als das Auslösekriterium vorgegeben wird, dass die Person (20) nach Betreten der Randfläche (32, 34, 36, 38) eine vorgegebene Dauer auf der Randfläche (32, 34, 36, 38) geblieben ist.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als das Auslösekriterium vorgegeben wird, dass ein vorgegebenes Bedienelement, vorzugsweise von einer Fernbedienung, betätigt worden ist, während die Person (20) auf der Randfläche (32, 34, 36, 38) angeordnet ist.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mittels der Virtual-Reality-Brille (12) ein dem Randbereich (32, 34, 36, 38) entsprechender virtueller Randbereich (44, 46, 48, 50) auf der virtuellen Teilfläche (40) angezeigt wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die virtuelle Teilfläche (40) ebenfalls relativ zur virtuellen Begehungsfläche (28) verschoben wird, sobald erfasst wird, dass die Person (20) ihren Blick auf den virtuellen Randbereich (44, 46, 48, 50) gerichtet und eine vorgegebene Bedienhandlung ausgeführt hat.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Abmaße der virtuellen Teilfläche (40) genau so groß vorgegeben werden wie die Abmaße der realen Begehungsfläche (22).
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine erfasste Veränderung des Standpunkts (30) der Person (20) relativ zur realen Begehungsfläche (22) hinsichtlich einer Bewegungsrichtung und einer zurückgelegten Strecke zu der gleichen Veränderung des virtuellen Standpunkts (42) relativ zur virtuellen Teilfläche (40) führt.
  10. Virtual-Reality-System (10), mit einer Virtual-Reality-Brille (12), einer Erfassungseinrichtung (16) und mit einer Steuereinrichtung (14), welche dazu ausgelegt sind, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.
DE102015016501.1A 2015-12-18 2015-12-18 Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System Pending DE102015016501A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102015016501.1A DE102015016501A1 (de) 2015-12-18 2015-12-18 Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
PCT/EP2016/077972 WO2017102236A1 (de) 2015-12-18 2016-11-17 Verfahren zum betreiben eines virtual-reality-systems und virtual-reality-system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015016501.1A DE102015016501A1 (de) 2015-12-18 2015-12-18 Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System

Publications (1)

Publication Number Publication Date
DE102015016501A1 true DE102015016501A1 (de) 2017-06-22

Family

ID=57326419

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015016501.1A Pending DE102015016501A1 (de) 2015-12-18 2015-12-18 Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System

Country Status (2)

Country Link
DE (1) DE102015016501A1 (de)
WO (1) WO2017102236A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010045978A1 (en) 2000-04-12 2001-11-29 Mcconnell Daniel L. Portable personal wireless interactive video device and method of using the same
US20080198230A1 (en) 2005-07-14 2008-08-21 Huston Charles D GPS Based Spectator and Participant Sport System and Method
EP2048557A1 (de) 2007-10-11 2009-04-15 Sick Ag Optoelektronischer Sensor und mobile Vorrichtung sowie Verfahren zur Konfiguration

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104428732A (zh) * 2012-07-27 2015-03-18 诺基亚公司 与近眼显示器的多模交互
US20150070263A1 (en) * 2013-09-09 2015-03-12 Microsoft Corporation Dynamic Displays Based On User Interaction States

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010045978A1 (en) 2000-04-12 2001-11-29 Mcconnell Daniel L. Portable personal wireless interactive video device and method of using the same
US20080198230A1 (en) 2005-07-14 2008-08-21 Huston Charles D GPS Based Spectator and Participant Sport System and Method
EP2048557A1 (de) 2007-10-11 2009-04-15 Sick Ag Optoelektronischer Sensor und mobile Vorrichtung sowie Verfahren zur Konfiguration

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BOWMAN, Doug A.; KOLLER, David; HODGES, Larry F. Travel in immersive virtual environments: An evaluation of viewpoint motion control techniques. In: Virtual Reality Annual International Symposium, 1997., IEEE 1997. IEEE, 1997. S. 45-52, 215. *
MINE, Mark, et al. Virtual environment interaction techniques. UNC Chapel Hill computer science technical report TR95-018, 1995, S. 507248-2. *
WILLIAMS, Betsy, et al. Exploring large virtual environments with an HMD when physical space is limited. In: Proceedings of the 4th symposium on Applied perception in graphics and visualization. ACM, 2007. S. 41-48. *

Also Published As

Publication number Publication date
WO2017102236A1 (de) 2017-06-22

Similar Documents

Publication Publication Date Title
EP3394708B1 (de) Verfahren zum betreiben eines virtual-reality-systems und virtual-reality-system
DE102014015871B4 (de) Anzeigesystem für einen Kraftwagen, Kraftwagen mit einem Anzeigesystem und Verfahren zum Betreiben eines Anzeigesystems
DE102014009697A1 (de) Verfahren zum Betreiben eines mobilen Virtual-Reality-Systems in einem Kraftfahrzeug und mobiles Virtual-Reality-System
DE102007014015A1 (de) Mensch-Maschinen-Interface zur Pilotenunterstützung bei Start und Landung eines Fluggeräts bei verminderter Außensicht
EP3411776B1 (de) Verfahren zum betreiben eines virtual-reality-systems und virtual-reality-system
WO2018219688A1 (de) Verfahren zum betreiben eines virtual-reality-systems und virtual-reality-system
WO2016165799A1 (de) Verfahren zum betreiben einer virtual-reality-brille und system mit einer virtual-reality-brille
DE102014009302A1 (de) Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
DE102015003948A1 (de) Verfahren zum Betreiben einer in einem Kraftfahrzeug angeordneten Virtual-Reality-Brille und Virtual-Reality-System
DE102014009299A1 (de) Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
DE102014018056A1 (de) Verfahren zum Betreiben einer Virtual-Reality-Brille und Virtual-Reality-Brille
EP3765941A1 (de) Verfahren und vorrichtung zum bereitstellen von informationen durch ein augmented-reality-gerät, verfahren und vorrichtung zum bereitstellen von informationen zur steuerung einer anzeige eines augmented-reality-gerätes, verfahren und vorrichtung zur steuerung einer anzeige eines augmented-reality-gerätes, computerlesbares speichermedium mit instruktionen zur durchführung der verfahren
EP3421674B1 (de) Vorrichtung und verfahren zum abbilden von bereichen
DE102014009699B4 (de) Verfahren zum Betreiben einer Anzeigeeinrichtung und System mit einer Anzeigeeinrichtung
DE102015016501A1 (de) Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
DE102015003973B3 (de) Verfahren zum Betreiben einer in einem Kraftfahrzeug angeordneten Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
DE102015011590B4 (de) Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
DE102016102808A1 (de) Verfahren zur Steuerung eines an einem Fahrzeug richtbar angeordnetes Sichtgeräts
DE102014018054A1 (de) Verfahren zum Betreiben einer Virtual-Reality-Brille und Anzeigevorrichtung
DE102014003178A1 (de) Vorrichtungen und Verfahren zum Anzeigen eines Bildes mittels eines am Kopf eines Nutzers tragbaren Anzeigegeräts
DE102015201642B4 (de) Vorrichtung und Verfahren zur Darstellung einer Umgebung eines Fahrzeuges
DE102015014041B3 (de) Virtual-Reality-System und Verfahren zum Betreiben eines Virtual-Reality-Systems
DE102015012134A1 (de) Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
DE102014009304A1 (de) Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
WO2016091361A1 (de) Verfahren zum betreiben einer virtual-reality-brille und anzeigesystem mit einer virtual-reality-brille

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: HOFSTETTER, SCHURACK & PARTNER - PATENT- UND R, DE