DE102017216843B4 - Verfahren und System zum Anzeigen zumindest eines Raumausschnitts, wobei der Raumausschnitt abhängig von einer Augenposition einer Person angezeigt wird - Google Patents

Verfahren und System zum Anzeigen zumindest eines Raumausschnitts, wobei der Raumausschnitt abhängig von einer Augenposition einer Person angezeigt wird Download PDF

Info

Publication number
DE102017216843B4
DE102017216843B4 DE102017216843.9A DE102017216843A DE102017216843B4 DE 102017216843 B4 DE102017216843 B4 DE 102017216843B4 DE 102017216843 A DE102017216843 A DE 102017216843A DE 102017216843 B4 DE102017216843 B4 DE 102017216843B4
Authority
DE
Germany
Prior art keywords
person
image
room
display device
display surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017216843.9A
Other languages
English (en)
Other versions
DE102017216843A1 (de
Inventor
Sebastian Schwartze
Markus KLUG
André Schwager
Muhammad Ali Kezze
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102017216843.9A priority Critical patent/DE102017216843B4/de
Priority to EP18762765.8A priority patent/EP3685211A1/de
Priority to PCT/EP2018/070783 priority patent/WO2019057378A1/de
Priority to US16/649,526 priority patent/US11068053B2/en
Priority to CN201880061799.1A priority patent/CN111133363A/zh
Publication of DE102017216843A1 publication Critical patent/DE102017216843A1/de
Priority to US17/308,621 priority patent/US11422621B2/en
Application granted granted Critical
Publication of DE102017216843B4 publication Critical patent/DE102017216843B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Optics & Photonics (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

Verfahren zum Anzeigen zumindest eines Raumausschnitts (13, 15) zumindest eines Raums (8, 10) auf einer ersten Anzeigeoberfläche (5) einer ersten Anzeigevorrichtung (2) für eine erste Person (12), wobei mittels zumindest einer zweiten Kamera (9) ein zweiter Raumausschnitt (13) eines zweiten Raums (10), in welchem sich eine zweite Anzeigevorrichtung (3) befindet, erfasst wird und der zweite Raumausschnitt (13) als erstes Bild (14) auf der ersten Anzeigeoberfläche (5) angezeigt wird, wobei mittels der zumindest einen zweiten Kamera (9) der zweite Raum (10) erfasst wird und mittels zumindest einer ersten Erfassungseinrichtung (7') eine Augenposition (11) der ersten Person (12) erfasst wird und ein von der erfassten Augenposition (11) abhängiger zweiter Raumausschnitt (13) des erfassten zweiten Raums (10) als erstes Bild (14) auf der ersten Anzeigeoberfläche (5) angezeigt wird, dadurch gekennzeichnet, dass zumindest die erste Anzeigeoberfläche (5) semitransparent ausgebildet bereitgestellt wird und zumindest das erste Bild (14) als erweiterte Realität auf der ersten Anzeigeoberfläche (5) angezeigt wird.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Anzeigen zumindest eines Raumausschnitts zumindest eines Raums auf einer ersten Anzeigeoberfläche einer ersten Anzeigevorrichtung für eine erste Person.
  • Aus dem Stand der Technik sind bereits Verfahren bekannt, bei welchen beispielsweise mittels Videotelefonie zwei Personen miteinander kommunizieren können und dabei ein Bild der ersten Person an die zweite Person übertragen wird und ein Bild der zweiten Person an die erste Person übertragen wird. Die Bilder werden an jeweiligen Anzeigevorrichtungen für die jeweiligen Personen angezeigt. Insbesondere werden dabei mit den jeweiligen Kameras der Anzeigevorrichtungen die jeweiligen Raumausschnitte erfasst und die Bildinformationen über ein Netzwerk an die jeweilige Anzeigevorrichtung des Gegenübers übertragen und auf der bildgebenden Einrichtung der jeweiligen Anzeigevorrichtung angezeigt. Im Stand der Technik wird ein starres Bild des Raumausschnitts angezeigt. Sollte sich beispielsweise die Person der Kamera nähern, so bleibt der angezeigte Raumausschnitt für die Person an der Anzeigevorrichtung gleich. Mit anderen Worten verändert sich der angezeigte Raumausschnitt aus dem Stand der Technik nicht mit der Blickrichtung der jeweiligen Person.
  • Die GB 2541056 A offenbart ein Modell des kognitiven Fokus der Aufmerksamkeit des Benutzers mit Informationen, wie Blick-/Augenverfolgung, offenen und fokussierten Anwendungsfenstern, und Anwesenheit in einem Raum, um die Aufmerksamkeit des Benutzers zu ermitteln. Die tatsächliche Dienstgüte (QoS - Quality of Service) wird für die Programme ermittelt. Eine wahrgenommene QoS wird anhand der ermittelten Benutzeraufmerksamkeit ermittelt und die Erfindung bestimmt dann zulässige Anpassungen der tatsächlichen QoS, die die gleiche wahrgenommene QoS beibehalten und auf das Modell anwenden.
  • Aufgabe der vorliegenden Erfindung ist es ein Verfahren sowie ein System zu schaffen, mittels welchen eine verbesserte Darstellung eines Raums als Bild für eine Person an der Anzeigevorrichtung angezeigt werden kann.
  • Diese Aufgabe wird durch ein Verfahren sowie durch ein System gemäß den unabhängigen Ansprüchen gelöst.
  • Ein Aspekt der Erfindung betrifft ein Verfahren zum Anzeigen zumindest eines Raumausschnitts zumindest eines Raums auf einer ersten Anzeigeoberfläche einer ersten Anzeigevorrichtung für eine erste Person. Mittels zumindest einer zweiten Kamera wird ein zweiter Raumausschnitt eines zweiten Raums, in welchem sich die zweite Anzeigevorrichtung befindet, erfasst und der zweite Raumausschnitt wird als erstes Bild auf der ersten Anzeigeoberfläche angezeigt.
  • Mittels der zweiten Kamera wird der zweite Raum erfasst und mittels zumindest einer Erfassungseinrichtung wird eine Augenposition der ersten Person erfasst und ein von der erfassten Augenposition abhängiger zweiter Raumausschnitt des zweiten Raums wird als erstes Bild auf der ersten Anzeigeoberfläche angezeigt.
  • Dadurch ist es ermöglicht, dass die erste Person abhängig von der Augenposition der ersten Person das Bild des zweiten Raums, insbesondere des Raumausschnitts, an der ersten Anzeigeoberfläche angezeigt bekommt. Mit anderen Worten kann die erste Person mit unterschiedlichen Blickwinkeln in den zweiten Raum hineinsehen und sich beispielsweise in dem zweiten Raum über die erste Anzeigevorrichtung in dem zweiten Raum umsehen. Ähnlich einem Durchblick in ein Fenster kann der zweite Raum, welcher dann hinter dem Fenster liegt, entsprechend durch die erste Person betrachtet werden. Durch eine Veränderung der Position der ersten Person, insbesondere durch eine Veränderung der Augenposition der ersten Person, kann dann entsprechend der zweite Raum „hinter dem Fenster“ angezeigt werden. Insbesondere kann dadurch eine besonders realistische Kommunikation zwischen der ersten Anzeigevorrichtung und der zweiten Anzeigevorrichtung realisiert werden. Weiterhin kann dadurch realisiert werden, dass beispielsweise Objekte, welche in einem ersten Blickwinkel von einem anderen Objekt im zweiten Raum verdeckt werden, durch einen Blickwinkelwechsel betrachtet werden können. Dadurch kann eine verbesserte Darstellung des zweiten Raums für die erste Person realisiert werden.
  • Mit anderen Worten wird der zweite Raum mittels der zweiten Kamera erfasst. Es wird eine Augenposition mittels einer Erfassungseinrichtung einer außerhalb des zweiten Raums angeordneten ersten Person erfasst. Der zweite Raumausschnitt wird des zweiten Raums wird in Abhängigkeit von der erfassten Augenposition der Person mittels einer Steuerungseinrichtung ausgewählt. Mittels der Steuerungseinrichtung wird die erste Anzeigevorrichtung zum Anzeigen des ausgewählten zweiten Raumausschnitts angesteuert.
  • Ebenfalls möglich ist, dass neben den reinen Bildinformationen zum Anzeigen des Bilds auch weitere Informationen betreffend beispielsweise eine Temperatur beziehungsweise eine Bewegung im Raum mit übertragen werden können. Des Weiteren kann auch eine Toninformation mit erfasst und übertragen werden. Die Übertragung erfolgt insbesondere in Echtzeit und mit echten Inhalten.
  • Die Erfassungseinrichtung kann beispielsweise mittels Bildverarbeitung eines durch eine Kamera erfassten Bilds, die Augenposition erfassen. Ferner kann über eine Erfassung einer Temperatur des Raums, in welcher sich die erste Person befindet, die Augenposition erfasst werden. Ebenfalls möglich ist, dass auf Basis von Markern an der ersten Person, die Augenposition erfasst wird.
  • Ferner kann auch die erste und/oder die zweite Anzeigevorrichtung mit zumindest einer weiteren dritten Anzeigevorrichtung kommunizieren, so dass auch der angezeigte Raumausschnitt, in welcher sich die dritte Anzeigevorrichtung befindet, entsprechend an zumindest den erfassten Blickwinkel der ersten Person angepasst wird und auf der ersten und/oder der zweiten Anzeigevorrichtung angezeigt werden kann. Beispielsweise kann dann ein drittes Bild und/oder das erste und/oder ein zweites Bild auf der ersten und/oder der zweiten Anzeigeoberfläche angezeigt werden.
  • Es ist zusätzlich vorgesehen, dass zumindest die erste Anzeigeoberfläche semitransparent ausgebildet bereitgestellt wird und zumindest das erste Bild als erweiterte Realität auf der ersten Anzeigeoberfläche angezeigt wird. Insbesondere kann auch vorgesehen sein, dass das zweite Bild als erweiterte Realität auf der zweiten Anzeigeoberfläche angezeigt wird. Bei der erweiterten Realität kann die Person die Umgebung hinter der ersten Anzeigeoberfläche weiterhin wahrnehmen, während auf die erste Anzeigeoberfläche das Bild projiziert wird. Die Person kann sozusagen durch das erste Bild hindurchsehen und die Umgebung hinter der ersten Anzeigeoberfläche weiterhin wahrnehmen. Dadurch kann eine Kommunikation durchgeführt werden, bei welcher die Person dennoch die Umgebung der Anzeigevorrichtung wahrnehmen kann. Beispielsweise kann in einem Kraftfahrzeug eine Scheibe als erste Anzeigeoberfläche genutzt werden und ein Fahrzeuginsasse als Person kann die Umgebung des Kraftfahrzeugs weiterhin wahrnehmen und dennoch das erste Bild auf der ersten Anzeigeoberfläche angezeigt bekommen.
  • Gemäß einer vorteilhaften Ausgestaltungsform kann mittels zumindest einer ersten Kamera der Erfassungseinrichtung die Person und ein erster Raum, in welchem sich die erste Person befindet, erfasst werden, und ein erster Raumausschnitt als zweites Bild auf einer zweiten Anzeigeoberfläche der zweiten Anzeigevorrichtung angezeigt werden. Bei dieser Ausgestaltungsform kann beispielsweise für eine zweite Person, welche sich in dem zweiten Raum befindet, der erste Raumausschnitt auf der zweiten Anzeigeoberfläche der zweiten Anzeigevorrichtung entsprechend angezeigt werden. Dadurch kann die zweite Person beispielsweise die erste Person ebenfalls auf einer Anzeigeoberfläche der zweiten Anzeigevorrichtung angezeigt bekommen, wodurch eine verbesserte Kommunikation zwischen der ersten und der zweiten Person realisiert werden kann.
  • Es hat sich weiterhin als vorteilhaft erwiesen, wenn mittels der zumindest zweiten Kamera der zweiten Anzeigevorrichtung eine zweite Augenposition einer zweiten Person, welche sich in dem zweiten Raum befindet, erfasst wird, und das zweite Bild des ersten Raumausschnitts abhängig von der zweiten Augenposition auf der zweiten Anzeigeoberfläche angepasst wird. Mit anderen Worten kann das zweite Bild auf der zweiten Anzeigeoberfläche abhängig von der zweiten Augenposition der zweiten Person ebenfalls angepasst werden, sodass auch für die zweite Person eine Art Fensterblick entsteht. Dadurch kann auch für die zweite Person abhängig von der Position der zweiten Person beziehungsweise des Blickwinkels der zweiten Person das zweite Bild, welches den ersten Raum mit beispielsweise der ersten Person anzeigt, angepasst werden. Dadurch ist es ermöglicht, dass eine besonders realistische Kommunikation zwischen der ersten Person und der zweiten Person abhängig von den jeweiligen Blickwinkeln realisiert werden kann.
  • In einer weiteren vorteilhaften Ausgestaltungsform kann die erste Person und der erste Raumausschnitt als ein 3-dimensionales zweites Bild auf der zweiten Anzeigeoberfläche angezeigt werden und/oder eine zweite Person und der zweite Raumausschnitt als 3-dimensionales erstes Bild auf der ersten Anzeigeoberfläche angezeigt werden. Dadurch kann eine besonders realitätsnahe Kommunikation zwischen den Personen durchgeführt werden.
  • Es hat sich weiterhin als vorteilhaft erwiesen, wenn zumindest mittels zumindest zwei zweiten Kameras, insbesondere mittels drei zweiten Kameras, der zweite Raum erfasst wird. Insbesondere kann auch vorgesehen sein, dass alternativ oder zusätzlich mittels zumindest zwei ersten Kameras, insbesondere mittels drei ersten Kameras, der ersten Anzeigevorrichtung, der erste Raum und/oder die Person erfasst wird. Insbesondere kann mittels der zumindest zwei Kameras, insbesondere mittels der drei Kameras, eine besonders zuverlässige Aufnahme des Raums ermöglicht werden, sodass insbesondere eine besonders vorteilhafte Darstellung des Raumausschnitts abhängig von der Augenposition der Person realisiert werden kann. Insbesondere können dadurch die unterschiedlichen Blickwinkel besonders realistisch dargestellt werden, da die zumindest zwei Kameras den Raum aus unterschiedlichen Richtungen erfassen können und dadurch der Raum verbessert dargestellt werden kann. Dadurch kann ebenfalls die Möglichkeit geschaffen werden ein Hologramm beziehungsweise ein dreidimensionales Bild anzeigen zu können.
  • Gemäß einer weiteren vorteilhaften Ausgestaltungsform kann zumindest eine erste Kamera der ersten Erfassungseinrichtung und/oder die zweite Kamera als bildaufnehmende Folie ausgebildet werden und/oder zumindest die erste Anzeigeoberfläche als bildgebende Folie ausgebildet werden. Dadurch kann besonders bauraumsparend die Anzeigevorrichtung bereitgestellt werden, die sowohl die bildaufnehmende Folie als auch die bildgebende Folie aufweist. Beispielsweise kann dann eine Kraftfahrzeugscheibe beziehungsweise ein Spiegel als Anzeige beziehungsweise Aufnahmegerät benutzt werden. Dadurch lässt sich bauraumsparend und auf einfache Art und Weise bei vielen Trägermedien der Folie eine derartige Anzeigevorrichtung einbauen, sodass besonders einfach und komfortabel eine Kommunikation zwischen einer Person und dem Raum beziehungsweise zwischen einer Person einer weiteren Person durchgeführt werden kann.
  • Vorteilhaft ist weiterhin, wenn die bildaufnehmende Folie und/oder die bildgebende Folie auf einem ersten Trägerelement der ersten Anzeigevorrichtung ausgebildet wird. Als Trägerelement kann beispielsweise eine Scheibe beziehungsweise ein Spiegel herangezogen werden. Insbesondere kann dann innerhalb eines Kraftfahrzeugs eine Kraftfahrzeugscheibe beziehungsweise ein Kraftfahrzeugspiegel als Trägerelement herangezogen werden. Dadurch ist es ermöglicht, dass mittels eines einzigen Trägerelements sowohl ein Bild aufgenommen werden kann, als auch ein Bild angezeigt werden kann. Dies ist besonders komfortabel und bauraumsparend.
  • Bevorzugt kann weiterhin vorgesehen sein, dass eine LCD-Folie mit auf dem ersten Trägerelement angeordnet ist, welche pixelweise abdunkelbar ist, so dass Tiefeninformationen der bildgebenden Folie verbessert durch die Person wahrnehmbar ist. Insbesondere können durch die LCD-Folie nur die Bereiche abgedunkelt werden, auf welchen auch ein Bild beziehungsweise Teile des Bilds dargestellt sind, so dass durch die Bereiche, wo kein Bild dargestellt ist, weiterhin durch die Person hindurchgesehen werden kann.
  • In einer weiteren vorteilhaften Ausgestaltungsform kann die bildaufnehmende und die bildgebende Folie als ein einziges einstückiges Folienelement bereitgestellt werden. Mit anderen Worten kann auf das Trägerelement ein einziges Folienelement angeordnet werden, welches sowohl bildaufnehmend als auch bildgebend ausgebildet ist. Dadurch lässt sich besonders einfach das Folienelement, welches sowohl Erfassen als auch Anzeigen kann, auf dem Trägerelement anordnen, wodurch sowohl Montageaufwand als auch Bauraum eingespart werden kann.
  • Ein weiterer Aspekt der Erfindung betrifft ein System mit einer ersten Anzeigevorrichtung und einer zweiten Anzeigevorrichtung, welche dazu ausgebildet sind, ein Verfahren nach einem der vorhergehenden Aspekte durchzuführen. Die erste Anzeigevorrichtung ist über ein Netzwerk mit zumindest der zweiten Anzeigevorrichtung zum Informationsaustausch gekoppelt. Das Netzwerk kann dabei sowohl drahtgebunden als auch drahtlos ausgebildet sein.
  • Vorteilhafte Ausgestaltungsformen des Verfahrens sind als vorteilhafte Ausgestaltungsformen des Systems anzusehen, wobei das System dazu gegenständliche Merkmale aufweist, die eine Durchführung des Verfahrens ermöglichen. Aus diesem Grund sind die entsprechenden Weiterbildungen des Systems hier nicht noch einmal beschrieben.
  • Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt:
    • 1 eine schematische Ansicht einer Ausführungsform eines Systems mit zwei Anzeigevorrichtungen zur Kommunikation zwischen zwei Personen;
    • 2 eine schematische Perspektivansicht einer Ausführungsform des Systems mit einem ersten und einem zweiten Raum; und
    • 3 eine weitere schematische Perspektivansicht des Systems in einem Kraftfahrzeug zur Kommunikation zwischen zwei Personen.
  • Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.
  • In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.
  • 1 zeigt eine schematische Ansicht einer Ausführungsform eines Systems 1. Das System 1 weist zumindest eine erste Anzeigevorrichtung 2 und zumindest eine zweite Anzeigevorrichtung 3 auf. Die erste Anzeigevorrichtung 2 ist über ein Netzwerk 4 mit der zweiten Anzeigevorrichtung 3 zum Informationsaustausch gekoppelt. Das Netzwerk 4 kann dabei sowohl drahtgebunden als auch drahtlos ausgebildet sein.
  • Die erste Anzeigevorrichtung 2 weist eine erste Anzeigeoberfläche 5 auf und die zweite Anzeigevorrichtung 3 weist eine zweite Anzeigeoberfläche 6 auf. Ferner weist die erste Anzeigevorrichtung 2 zumindest eine erste Kamera 7, vorliegend drei erste Kameras 7, auf. Mit den Kameras 7 kann ein erster Raum 8 erfasst werden.
  • Mit den Kameras 7 kann ein jeweiliger Erfassungsbereich E1, E2, E3 erfasst werden, sodass der erste Raum 8, insbesondere vollständig, erfasst werden kann.
  • Die zweite Anzeigevorrichtung 3 weist zumindest eine zweite Kamera 9 auf, vorliegend insbesondere drei zweite Kameras 9. Mit den zweiten Kameras 9 kann ein zweiter Raum 10 erfasst werden. Insbesondere kann durch eine jeweilige Kamera 9 ein jeweiliger Erfassungsbereich E4, E5, E6 erfasst werden, wodurch der Raum 10 insbesondere vollständig erfasst werden kann.
  • Es ist vorgesehen, dass mittels den zweiten Kameras 9 der zweite Raum 10 erfasst wird und mittels den ersten Kameras 7 der ersten Anzeigevorrichtung 2 eine Augenposition 11 einer ersten Person 12 erfasst wird. Ein zweiter Raumausschnitt 13, welcher zumindest bereichsweise den zweiten Raum 10 darstellt, wird abhängig von der erfassten Augenposition 11 als ein erstes Bild 14 auf der ersten Anzeigeoberfläche 5 angezeigt.
  • Insbesondere ist vorgesehen, sollte sich die erste Person 12, insbesondere die Augenposition 11 der ersten Person 12, verändern, so wird der zweite Raumausschnitt 13 entsprechend der Augenposition 11 für die erste Person 12 angepasst. Dadurch entsteht eine Art „Fensterblick“ für die erste Person 12, sodass die erste Person 12 mittels der ersten Anzeigevorrichtung 2 durch eine Art Fenster blicken kann, und so den zweiten Raum 10, wie durch ein Fenster entsprechend, angezeigt bekommt. Bei einer Veränderung der Augenposition 11 verändert sich somit auch der Blick durch das Fenster.
  • Insbesondere kann vorgesehen sein, dass neben dem Bild 14 weitere Informationen über den zweiten Raum 10 auf der ersten Anzeigevorrichtung 2 bereitgestellt werden. Beispielsweise kann eine Temperatur und/oder eine Oberflächenbeschaffenheit und/oder eine Bewegung mit auf der Anzeigevorrichtung 2 dargestellt werden.
  • Es kann weiterhin vorgesehen sein, dass ein erster Raumausschnitt 15 des ersten Raums 8 auf der zweiten Anzeigeoberfläche 6 der zweiten Anzeigevorrichtung 3 angezeigt wird. Insbesondere kann mittels den zweiten Kameras 9 eine zweite Augenposition 16 einer zweiten Person 17, welche sich in dem zweiten Raum 16 befindet, erfasst werden und ein zweites Bild 18 des ersten Raumausschnitts 15 abhängig von der zweiten Augenposition 16 auf der zweiten Anzeigeoberfläche 6 entsprechend angepasst werden. Insbesondere kann dadurch auch für die zweite Person 17 eine Art Fensterblick geschaffen werden, sodass auch die zweite Person 17 über die zweite Anzeigevorrichtung 3 durch das „Fenster“ hindurchschaut und den ersten Raum 8 abhängig von der zweiten Augenposition 16 entsprechend betrachten kann.
  • Insbesondere kann vorgesehen sein, dass die erste Anzeigeoberfläche 5 und/oder die zweite Anzeigeoberfläche 6 semitransparent ausgebildet bereitgestellt werden und zumindest das erste Bild 14 und/oder das zweite Bild 18 als erweiterte Realität auf der ersten Anzeigeoberfläche 5 und/oder auf der zweiten Anzeigeoberfläche 6 angezeigt werden. Mit anderen Worten kann die erste Person 12 durch die semitransparente Anzeigeoberfläche 5 hindurchsehen und eine Umgebung 19 der ersten Anzeigevorrichtung 2 wahrnehmen. Gleichzeitig kann das erste Bild 14 auf die erste Anzeigeoberfläche 5 projiziert werden und als erweiterte Realität betrachtet werden. Ebenfalls möglich ist, dass die zweite Person 17 durch die zweite Anzeigeoberfläche 6 hindurchsieht und die zweite Umgebung 20 der zweiten Anzeigevorrichtung 3 wahrnimmt und das zweite Bild 18 als erweiterte Realität auf der Anzeigenoberfläche 6 angezeigt wird.
  • Ferner kann vorgesehen sein, dass zumindest die erste Kamera 7 und/oder die zweite Kamera 9 als jeweilige bildaufnehmende Folie 21 ausgebildet werden und/oder zumindest die erste Anzeigeoberfläche 5 und/oder die zweite Anzeigeoberfläche 6 als bildgebende Folie 22 ausgebildet werden.
  • 2 zeigt eine schematische Perspektivansicht des Systems 1. Die erste Person 12 blickt durch die erste Anzeigevorrichtung 2, wie durch ein Fenster, hindurch und kann die zweite Person 17 im zweiten Raum 10 erkennen. Die zweite Person 17 blickt durch die zweite Anzeigevorrichtung 3 hindurch, und kann die erste Person 12 im ersten Raum 8, wie durch ein Fenster, wahrnehmen. Insbesondere kann bei einem Perspektivwechsel beziehungsweise bei einem Positionswechsel der Personen 12, 17 die jeweilige Anzeige der Raumausschnitte 13, 15 angepasst werden, sodass eine besonders realitätsnahe Kommunikation zwischen der ersten Person 12 und der zweiten Person 17 durchgeführt werden kann. Insbesondere kann es hier ermöglicht werden, dass beispielsweise neben dem Bild auch Toninformationen mit übertragen werden können. Es kann auch eine weitere Kommunikation mit zumindest einer weiteren dritten Anzeigevorrichtung realisiert werden, wobei dann ein drittes Bild zusätzlich oder anstatt auf den jeweiligen Anzeigeoberflächen 5, 6 angezeigt werden kann.
  • 3 zeigt eine weitere schematische Perspektivansicht des Systems 1. In der 3 ist der Perspektivwechsel schematisch dargestellt. Die erste Person 12 sieht durch die erste Anzeigevorrichtung 2, insbesondere durch die erste Anzeigeoberfläche 5, hindurch und kann die zweite Person 17, welche vorliegend als Kleinkind dargestellt ist, erblicken. Bei dem vorliegenden Beispiel kann beispielsweise die erste Person 12 auf einem Vordersitz eines Kraftfahrzeugs sitzen und beispielsweise durch eine Frontscheibe blicken, welche die Anzeigevorrichtung 2 aufweist. Das Kind 17 kann beispielsweise auf Sitzen in einem Fondbereich sitzen und es kann beispielsweise die zweite Anzeigevorrichtung 3 in einem Sitz der Vordersitze untergebracht sein. Die erste Person 12 sieht mit anderen Worten aus der Windschutzscheibe heraus und kann die zweite Person 17, welche sich beispielsweise im Fondbereich aufhält, durch die Windschutzscheibe beziehungsweise auf der Anzeigevorrichtung 2, 3, welche auf der Windschutzscheibe angeordnet ist, betrachten.
  • Insbesondere kann vorgesehen sein, dass die erste Person 12 und der erste Raumausschnitt 15 als 3-dimensionales zweites Bild 18 auf der zweiten Anzeigeoberfläche 6 angezeigt werden und/oder die zweite Person 17 und der zweite Raumausschnitt 13 als 3-dimensionales erstes Bild 14 auf der ersten Anzeigeoberfläche 6 angezeigt werden.
  • Des Weiteren kann insbesondere vorgesehen sein, dass die bildaufnehmende Folie 21 und/oder die bildgebende Folie 22 auf einem ersten Trägerelement 23 der ersten Anzeigevorrichtung 2 und/oder der zweiten Anzeigevorrichtung 3 ausgebildet wird. Insbesondere ist die bildaufnehmende und die bildgebende Folie 21, 22 als ein einziges einstückiges Folienelement bereitgestellt.
  • Bevorzugt kann weiterhin vorgesehen sein, dass eine LCD-Folie mit auf dem ersten Trägerelement 23 angeordnet ist, welche pixelweise abdunkelbar ist, so dass Tiefeninformationen der bildgebenden Folie 22 verbessert durch eine Person 12, 17wahrnehmbar ist. Insbesondere können durch die LCD-Folie nur die Bereiche abgedunkelt werden, auf welchen auch ein Bild 14, 18 beziehungsweise Teile des Bilds 14, 18 dargestellt sind, so dass durch die Bereiche, wo kein Bild 14, 18 dargestellt ist, weiterhin durch eine Person 12, 17 hindurchgesehen werden kann.
  • Ferner zeigt die 3 in den 3a bis 3c unterschiedliche Perspektiven. In der 3a blickt die erste Person 12 gerade durch die erste Anzeigenoberfläche 5 hindurch und sieht somit die zweite Person 17 in einer Frontansicht.
  • In der 3b hat die erste Person 17 die Augenposition 11 geändert, insbesondere vorliegend den Blick nach rechts gerichtet, sodass nun die zweite Person 17 entsprechend gedreht auf der ersten Anzeigeoberfläche 5 angezeigt wird.
  • In der 3c hat die erste Person 12 die Blickrichtung nach links gewendet, sodass die zweite Person 17 entsprechend dem linken Blickwinkel der ersten Person 12 auf der ersten Anzeigeoberfläche 5 dargestellt wird.
  • Insgesamt zeigen die Beispiele, wie durch die Erfindung die Nutzung eines Volumenhologramms zur Erfassung und Übertragung räumlicher Inhalte in einem Moving Virtual Space realisiert werden kann.

Claims (9)

  1. Verfahren zum Anzeigen zumindest eines Raumausschnitts (13, 15) zumindest eines Raums (8, 10) auf einer ersten Anzeigeoberfläche (5) einer ersten Anzeigevorrichtung (2) für eine erste Person (12), wobei mittels zumindest einer zweiten Kamera (9) ein zweiter Raumausschnitt (13) eines zweiten Raums (10), in welchem sich eine zweite Anzeigevorrichtung (3) befindet, erfasst wird und der zweite Raumausschnitt (13) als erstes Bild (14) auf der ersten Anzeigeoberfläche (5) angezeigt wird, wobei mittels der zumindest einen zweiten Kamera (9) der zweite Raum (10) erfasst wird und mittels zumindest einer ersten Erfassungseinrichtung (7') eine Augenposition (11) der ersten Person (12) erfasst wird und ein von der erfassten Augenposition (11) abhängiger zweiter Raumausschnitt (13) des erfassten zweiten Raums (10) als erstes Bild (14) auf der ersten Anzeigeoberfläche (5) angezeigt wird, dadurch gekennzeichnet, dass zumindest die erste Anzeigeoberfläche (5) semitransparent ausgebildet bereitgestellt wird und zumindest das erste Bild (14) als erweiterte Realität auf der ersten Anzeigeoberfläche (5) angezeigt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass mittels zumindest einer ersten Kamera (7) der zumindest einen ersten Erfassungseinrichtung (7') die erste Person (12) und ein erster Raum (8), in welchem sich die erste Person (12) befindet, erfasst wird, und ein erster Raumausschnitt (15) als zweites Bild (18) auf einer zweiten Anzeigeoberfläche (6) der zweiten Anzeigevorrichtung (3) angezeigt wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass mittels der zumindest einen zweiten Kamera (9) der zweiten Anzeigevorrichtung (3) eine zweite Augenposition (16) einer zweiten Person (17), welche sich in dem zweiten Raum (10) befindet, erfasst wird und das zweite Bild (18) des ersten Raumausschnitts (15) abhängig von der zweiten Augenposition (16) auf der zweiten Anzeigeoberfläche (6) angepasst wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die erste Person (12) und der erste Raumausschnitt (8) als 3-dimensionales zweites Bild (18) auf der zweiten Anzeigeoberfläche (6) angezeigt werden und/oder eine zweite Person (17) und der zweite Raumausschnitt (13) als 3-dimensionales erstes Bild (14) auf der ersten Anzeigeoberfläche (5) angezeigt werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zumindest mittels zumindest zwei zweiten Kameras (9), insbesondere mittels drei zweiten Kameras (9), der zweite Raum (10) erfasst wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zumindest eine erste Kamera (7) der ersten Erfassungseinrichtung (7') und/oder die zumindest eine zweite Kamera (9) als bildaufnehmende Folie (21) ausgebildet werden und/oder zumindest die erste Anzeigeoberfläche (5) als bildgebende Folie (22) ausgebildet werden.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die bildaufnehmende Folie (21) und/oder die bildgebende Folie (22) auf einem ersten Trägerelement (23) der ersten Anzeigevorrichtung (2) und/oder der zweiten Anzeigevorrichtung (3) ausgebildet wird.
  8. Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass die bildaufnehmende und die bildgebende Folie (21, 22) als ein einziges einstückiges Folienelement bereitgestellt werden.
  9. System (1) mit einer ersten Anzeigevorrichtung (2) und einer zweiten Anzeigevorrichtung (3), welche dazu ausgebildet sind, ein Verfahren nach einem der Ansprüche 1 bis 8 durchzuführen, wobei die erste Anzeigevorrichtung (2) über ein Netzwerk (4) mit zumindest der zweiten Anzeigevorrichtung (3) zum Informationsaustausch gekoppelt ist.
DE102017216843.9A 2017-09-22 2017-09-22 Verfahren und System zum Anzeigen zumindest eines Raumausschnitts, wobei der Raumausschnitt abhängig von einer Augenposition einer Person angezeigt wird Active DE102017216843B4 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102017216843.9A DE102017216843B4 (de) 2017-09-22 2017-09-22 Verfahren und System zum Anzeigen zumindest eines Raumausschnitts, wobei der Raumausschnitt abhängig von einer Augenposition einer Person angezeigt wird
EP18762765.8A EP3685211A1 (de) 2017-09-22 2018-07-31 Verfahren und system zum anzeigen zumindest eines raumausschnitts, wobei der raumausschnitt abhängig von einer augenposition einer person angezeigt wird
PCT/EP2018/070783 WO2019057378A1 (de) 2017-09-22 2018-07-31 Verfahren und system zum anzeigen zumindest eines raumausschnitts, wobei der raumausschnitt abhängig von einer augenposition einer person angezeigt wird
US16/649,526 US11068053B2 (en) 2017-09-22 2018-07-31 Method and system for displaying at least one spatial section, wherein the spatial section is displayed as a function of an eye position of a person
CN201880061799.1A CN111133363A (zh) 2017-09-22 2018-07-31 用于显示至少一个根据人员的眼睛位置显示的空间区段的方法和系统
US17/308,621 US11422621B2 (en) 2017-09-22 2021-05-05 Method and system for displaying at least one spatial section depending on an eye position of a person

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017216843.9A DE102017216843B4 (de) 2017-09-22 2017-09-22 Verfahren und System zum Anzeigen zumindest eines Raumausschnitts, wobei der Raumausschnitt abhängig von einer Augenposition einer Person angezeigt wird

Publications (2)

Publication Number Publication Date
DE102017216843A1 DE102017216843A1 (de) 2019-03-28
DE102017216843B4 true DE102017216843B4 (de) 2024-03-21

Family

ID=63452597

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017216843.9A Active DE102017216843B4 (de) 2017-09-22 2017-09-22 Verfahren und System zum Anzeigen zumindest eines Raumausschnitts, wobei der Raumausschnitt abhängig von einer Augenposition einer Person angezeigt wird

Country Status (5)

Country Link
US (2) US11068053B2 (de)
EP (1) EP3685211A1 (de)
CN (1) CN111133363A (de)
DE (1) DE102017216843B4 (de)
WO (1) WO2019057378A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000031974A2 (en) 1998-11-23 2000-06-02 Dynamic Digital Depth Research Pty. Ltd. Improved teleconferencing system
US20070002130A1 (en) 2005-06-21 2007-01-04 David Hartkop Method and apparatus for maintaining eye contact during person-to-person video telecommunication
GB2541056A (en) 2015-04-27 2017-02-08 Ibm Dynamically adjusting quality of service using cognitive focus of attention detection
EP3168720A1 (de) 2015-11-13 2017-05-17 Xiaomi Inc. Lcd-tafel, endgerät und verfahren zur lichterfassungssteuerung

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6919907B2 (en) * 2002-06-20 2005-07-19 International Business Machines Corporation Anticipatory image capture for stereoscopic remote viewing with foveal priority
US20130021476A1 (en) * 2008-10-10 2013-01-24 Trummer Marcus A Child seat safety system
US8317329B2 (en) * 2009-04-02 2012-11-27 GM Global Technology Operations LLC Infotainment display on full-windshield head-up display
US8823769B2 (en) * 2011-01-05 2014-09-02 Ricoh Company, Ltd. Three-dimensional video conferencing system with eye contact
DE102011083662B4 (de) 2011-09-29 2022-02-17 Robert Bosch Gmbh Anzeigevorrichtung für einen Insassen eines Fahrzeugs, Fahrzeug und Verfahren zur Generierung einer Anzeige in einem Sichtfeld des Insassen
WO2014055058A1 (en) * 2012-02-15 2014-04-10 Thomson Licensing Video conference system and method for maintaining participant eye contact
US9485459B2 (en) * 2012-12-14 2016-11-01 Biscotti Inc. Virtual window
DE102013210887B4 (de) 2013-06-11 2019-12-12 Robert Bosch Gmbh Optische Sensoranordnung für ein Fahrzeug und Fahrzeug mit einer derartigen Sensoranordnung
CN203623529U (zh) * 2013-11-15 2014-06-04 福特环球技术公司 监视系统
DE102014204691A1 (de) 2014-03-13 2015-09-17 Robert Bosch Gmbh Bildaufnahmevorrichtung, insbesondere zur Fahrzeugvermessung
US9602767B2 (en) * 2014-10-10 2017-03-21 Microsoft Technology Licensing, Llc Telepresence experience
CN105825493B (zh) * 2015-01-09 2019-05-03 华为技术有限公司 图像配准方法和装置
EP3274986A4 (de) * 2015-03-21 2019-04-17 Mine One GmbH Virtuelle 3d-verfahren, -systeme und -software
US9942522B2 (en) * 2015-08-19 2018-04-10 Faraday&Future Inc. In-vehicle camera system
US9681096B1 (en) * 2016-07-18 2017-06-13 Apple Inc. Light field capture
CA3036208A1 (en) * 2016-09-13 2018-03-22 Magic Leap, Inc. Sensory eyewear

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000031974A2 (en) 1998-11-23 2000-06-02 Dynamic Digital Depth Research Pty. Ltd. Improved teleconferencing system
US20070002130A1 (en) 2005-06-21 2007-01-04 David Hartkop Method and apparatus for maintaining eye contact during person-to-person video telecommunication
GB2541056A (en) 2015-04-27 2017-02-08 Ibm Dynamically adjusting quality of service using cognitive focus of attention detection
EP3168720A1 (de) 2015-11-13 2017-05-17 Xiaomi Inc. Lcd-tafel, endgerät und verfahren zur lichterfassungssteuerung

Also Published As

Publication number Publication date
US20200310536A1 (en) 2020-10-01
WO2019057378A1 (de) 2019-03-28
EP3685211A1 (de) 2020-07-29
US20210255702A1 (en) 2021-08-19
DE102017216843A1 (de) 2019-03-28
US11422621B2 (en) 2022-08-23
US11068053B2 (en) 2021-07-20
CN111133363A (zh) 2020-05-08

Similar Documents

Publication Publication Date Title
EP3394708B1 (de) Verfahren zum betreiben eines virtual-reality-systems und virtual-reality-system
DE102005000739B4 (de) Fahrzeug-Sichtunterstützungssystem
EP3485347B1 (de) Verfahren zum betreiben einer anzeigeeinrichtung eines kraftfahrzeugs
DE102012203491B4 (de) Elektronisches Rückspiegel-System
DE102014006732B4 (de) Bildüberlagerung von virtuellen Objekten in ein Kamerabild
EP3688515B1 (de) Verfahren zum betreiben einer am kopf tragbaren elektronischen anzeigeeinrichtung und anzeigesystem zum anzeigen eines virtuellen inhalts
DE102006009566A1 (de) Verfahren und Vorrichtung zur Verhinderung von Kinetose-Störungen bei Passagieren von Kraftfahrzeugen
DE102017208806B3 (de) Externe Darstellung von Bildaufnahmen eines Fahrzeuginnenraums in einer VR-Brille
WO2007065871A1 (de) Head-up-display system
WO2016165799A1 (de) Verfahren zum betreiben einer virtual-reality-brille und system mit einer virtual-reality-brille
DE102014010309B4 (de) Anzeigen von zusätzlichen Inhalten in einer virtuellen Szenerie
DE102016217037B4 (de) Verfahren zum Betreiben einer Anzeigeeinrichtung eines Kraftfahrzeugs mit einer digitalen Anzeigefläche und Kraftfahrzeug
DE102014116441A1 (de) Verfahren zum Darstellen einer Sicherheitsinformation, Fahrerassistenzsystem und Kraftfahrzeug
DE102017216843B4 (de) Verfahren und System zum Anzeigen zumindest eines Raumausschnitts, wobei der Raumausschnitt abhängig von einer Augenposition einer Person angezeigt wird
DE102015003973B3 (de) Verfahren zum Betreiben einer in einem Kraftfahrzeug angeordneten Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
DE102011088492A1 (de) Navigationssystem mit einer verbesserten Kartendarstellung
EP3304169B1 (de) Verfahren zum betreiben einer datenbrilleneinrichtung und datenbrilleneinrichtung
EP3688514A1 (de) Verfahren und system zum durchführen eines virtuellen treffens zwischen wenigstens einer ersten person und einer zweiten person
DE102014119323B4 (de) Verfahren zum Erzeugen einer personenspezifischen Information eines Fahrzeuginsassen, Einrichtung und Kraftfahrzeug
DE60129059T2 (de) 3D-visuelle Präsentationsmethode und Apparat für Autosimulator
DE102012022717A1 (de) Unterstützen eines Nutzers eines Kraftfahrzeugs durch eine virtuell erhöht darstellbare Sitzposition
WO2020244861A1 (de) Verfahren zum betreiben eines videokonferenzsystems sowie videokonferenzsystem und kraftfahrzeug
DE102015012134A1 (de) Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
DE102020108409A1 (de) Verfahren zur kinetoseverminderung
DE102015003949A1 (de) Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: HOFSTETTER, SCHURACK & PARTNER - PATENT- UND R, DE

R018 Grant decision by examination section/examining division