DE102022110162A1 - Vorrichtung und verfahren zur visualisierung einer interaktion eines physischen objekts mit einem 3d-bild und kraftfahrzeug mit der vorrichtung - Google Patents

Vorrichtung und verfahren zur visualisierung einer interaktion eines physischen objekts mit einem 3d-bild und kraftfahrzeug mit der vorrichtung Download PDF

Info

Publication number
DE102022110162A1
DE102022110162A1 DE102022110162.2A DE102022110162A DE102022110162A1 DE 102022110162 A1 DE102022110162 A1 DE 102022110162A1 DE 102022110162 A DE102022110162 A DE 102022110162A DE 102022110162 A1 DE102022110162 A1 DE 102022110162A1
Authority
DE
Germany
Prior art keywords
image
display
physical object
distance
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022110162.2A
Other languages
English (en)
Inventor
Alexander Peters
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102022110162.2A priority Critical patent/DE102022110162A1/de
Priority to PCT/EP2023/053105 priority patent/WO2023208432A1/de
Publication of DE102022110162A1 publication Critical patent/DE102022110162A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/22Processes or apparatus for obtaining an optical image from holograms
    • G03H1/2294Addressing the hologram to an active spatial light modulator
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H2226/00Electro-optic or electronic components relating to digital holography
    • G03H2226/05Means for tracking the observer

Abstract

Die Erfindung betrifft eine Vorrichtung zur Visualisierung einer Interaktion eines physischen Objekts mit einem 3D-Bild, aufweisend: (i) eine Anzeigeeinrichtung, die konfiguriert ist, ein 3D-Bild darzustellen, das für einen wahrnehmbar ist; (ii) eine erste Projektionseinrichtung, die konfiguriert ist, eine erste optische Anzeige auf einen ersten Bereich des physischen Objekts zu projizieren; (iii) eine Erfassungseinrichtung, die konfiguriert ist, erste Objektdaten der Anzeigeeinrichtung zu erfassen und zweite Objektdaten des zur Anzeigeeinrichtung beabstandeten physischen Objekts das bewegbar ist zu erfassen, und wobei (iv) die Erfassungseinrichtung konfiguriert ist, unter Verwendung der ersten Objektdaten und der zweiten Objektdaten einen Abstand zwischen einer Referenzposition, die auf einer Oberfläche der Anzeigeeinrichtung ausgebildet ist, und dem physischen Objekt zu bestimmen; (v) eine Auswerteeinrichtung, die signaltechnisch mit der Erfassungseinrichtung und der ersten Projektionseinrichtung verbunden ist, und (vi) wobei die Auswerteeinrichtung konfiguriert ist eine Projektion der ersten optischen Anzeige durch die erste Projektionseinrichtung auszulösen, wenn der bestimmte Abstand kleiner ist als ein vorher festgelegter Mindestabstand.

Description

  • Die vorliegende Erfindung betrifft eine Vorrichtung und ein Verfahren, insbesondere ein computerimplementiertes Verfahren, zur Visualisierung einer Interaktion eines physischen Objekts mit einem 3D-Bild, sowie ein Kraftfahrzeug mit der Vorrichtung.
  • Es sind verschiedene Techniken bekannt 3D-Bilder darzustellen. Dabei kann zwischen Techniken unterschieden werden, bei denen Hilfsmittel wie eine 3D-Brille, erforderlich sind, und Techniken, bei denen ein 3D-Bild durch einen Betrachter ohne Hilfsmittel dreidimensional wahrgenommen werden kann. Zu den letztgenannten Techniken zählen beispielsweise die Autostereoskopie und die Holografie. Dabei weisen 3D-Bilder im Gegensatz zu 2D-Bildern Tiefeninformationen auf, wodurch ein Objekt, das in 3D dargestellt ist, besser veranschaulicht werden kann. Mittlerweile wird es technisch ermöglicht, ein 3D-Bild von mehreren Seiten zu betrachten. Ebenso ist es möglich ein 3D-Bild im Raum zu bewegen, beispielsweise zu drehen oder zu kippen. Dies kann durch eine entsprechende Software erreicht werden, durch die auch das 3D-Bild dargestellt wird. Eine direkte Wechselwirkung eines materiellen Körpers mit dem 3D-Bild ist zwar direkt nicht möglich. Allerdings kann mittels einer sensorischen Erfassung des materiellen Körpers und einem Zusammenführen des 3D-Bildes mit den sensorisch erfassten Daten mittels einer Software eine Interaktion zwischen dem 3D-Bild und des materiellen Körpers simuliert werden, wodurch diese Wechselwirkung beispielsweise an einem Bildschirm sichtbar gemacht werden kann. Es besteht daher ein Bedarf, eine Wechselwirkung zwischen einem 3D-Bild und einem physischen Körper besser zu visualisieren.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde eine Vorrichtung bereitzustellen, mit der eine Interaktion zwischen einem physischen Objekt und einem 3D-Bild verbessert visualisiert werden kann.
  • Eine Lösung dieser Aufgabe wird gemäß der Lehre der unabhängigen Ansprüche erreicht. Verschiedene Ausführungsformen und Weiterbildungen der Erfindung sind Gegenstand der Unteransprüche.
  • Ein erster Aspekt der Erfindung betrifft eine Vorrichtung zur Visualisierung einer Interaktion eines physischen Objekts, insbesondere einer Hand, mit einem 3D-Bild, aufweisend: (i) eine Anzeigeeinrichtung, die konfiguriert ist, ein 3D-Bild darzustellen, das für einen Benutzer wahrnehmbar ist; (ii) eine erste Projektionseinrichtung, die konfiguriert ist, eine erste optische Anzeige auf einen ersten Bereich des physischen Objekts zu projizieren; (iii) eine Erfassungseinrichtung, die konfiguriert ist, erste Objektdaten der Anzeigeeinrichtung zu erfassen und zweite Objektdaten des zur Anzeigeeinrichtung beabstandeten physischen Objekts das bewegbar ist zu erfassen, und wobei (iv) die Erfassungseinrichtung konfiguriert ist, unter Verwendung der ersten Objektdaten und der zweiten Objektdaten einen Abstand zwischen einer Referenzposition, die auf einer Oberfläche, insbesondere mittig auf der Oberfläche, und weiterhin insbesondere einer dem 3D-Bild zugewandten Oberfläche, der Anzeigeeinrichtung ausgebildet ist, und dem physischen Objekt zu bestimmen; (v) eine Auswerteeinrichtung, die signaltechnisch mit der Erfassungseinrichtung und der ersten Projektionseinrichtung verbunden ist, und (vi) wobei die Auswerteeinrichtung konfiguriert ist, eine Projektion der ersten optischen Anzeige durch die erste Projektionseinrichtung auszulösen, wenn der bestimmte Abstand kleiner ist als ein vorher festgelegter Mindestabstand.
  • Die hierein gegebenenfalls verwendeten Begriffe „umfasst“, „beinhaltet“, „schließt ein“, „weist auf“, „hat“, „mit“, oder jede andere Variante davon sollen eine nicht ausschließliche Einbeziehung abdecken. So ist beispielsweise ein Verfahren oder eine Vorrichtung, die eine Liste von Elementen umfasst oder aufweist, nicht notwendigerweise auf diese Elemente beschränkt, sondern kann andere Elemente einschließen, die nicht ausdrücklich aufgeführt sind oder die einem solchen Verfahren oder einer solchen Vorrichtung inhärent sind.
  • Ferner bezieht sich „oder“, sofern nicht ausdrücklich das Gegenteil angegeben ist, auf ein inklusives oder und nicht auf ein exklusives „oder“. Zum Beispiel wird eine Bedingung A oder B durch eine der folgenden Bedingungen erfüllt: A ist wahr (oder vorhanden) und B ist falsch (oder nicht vorhanden), A ist falsch (oder nicht vorhanden) und B ist wahr (oder vorhanden), und sowohl A als auch B sind wahr (oder vorhanden).
  • Die Begriffe „ein“ oder „eine“, wie sie hier verwendet werden, sind im Sinne von „ein/eine oder mehrere“ definiert. Die Begriffe „ein anderer“ und „ein weiterer“ sowie jede andere Variante davon sind im Sinne von „zumindest ein Weiterer“ zu verstehen.
  • Der Begriff „Mehrzahl“, wie er hier verwendet wird, ist im Sinne von „zwei oder mehr“ zu verstehen.
  • Unter dem Begriff „konfiguriert“ oder „eingerichtet“ eine bestimmte Funktion zu erfüllen, (und jeweiligen Abwandlungen davon) ist im Sinne der Erfindung zu verstehen, dass die entsprechende Vorrichtung bereits in einer Ausgestaltung oder Einstellung vorliegt, in der sie die Funktion ausführen kann oder sie zumindest so einstellbar - d.h. konfigurierbar - ist, dass sie nach entsprechender Einstellung die Funktion ausführen kann. Die Konfiguration kann dabei beispielsweise über eine entsprechende Einstellung von Parametern eines Prozessablaufs oder von Schaltern oder ähnlichem zur Aktivierung bzw. Deaktivierung von Funktionalitäten bzw. Einstellungen erfolgen. Insbesondere kann die Vorrichtung mehrere vorbestimmte Konfigurationen oder Betriebsmodi aufweisen, so dass das Konfigurieren mittels einer Auswahl einer dieser Konfigurationen bzw. Betriebsmodi erfolgen kann.
  • Unter dem Begriff „3D-Bild“ ist im Sinne der Erfindung insbesondere eine von einem Betrachter visuell wahrnehmbare Darstellung zu verstehen, die von dem Betrachter dreidimensional wahrgenommen werden kann.
  • Unter einem „3D-Bildsensor“ im Sinne der Erfindung ist insbesondere ein Bildsensor, insbesondere einer 3D-Kamera, zu verstehen, der in der Lage ist, eine Szene in drei räumlichen Dimensionen sensorisch zu erfassen, sodass dabei insbesondere die Messung von Abständen bzw. Distanzen der Szene ermöglicht wird.
  • Unter einem „Abstand“ im Sinne der Erfindung ist insbesondere eine räumliche Entfernung zweier Punkte oder Objekte im dreidimensionalen Raum zu verstehen.
  • Unter dem Begriff „optische Signale“ sind im Sinne der Erfindung insbesondere elektromagnetische Signale zu verstehen, die durch das menschliche Auge wahrnehmbar sind.
  • Unter einem „physischen Objekt“ im Sinne der Erfindung ist ein beliebiges aus Materie gebildetes Objekt zu verstehen.
  • Durch die Vorrichtung nach dem ersten Aspekt kann erreicht werden, dass eine Interaktion des physischen Objekts mit dem 3D-Bild visualisiert wird. Ferner kann erreicht werden, dass eine Projektion erst dann ausgelöst wird, wenn der bestimmte Abstand kleiner ist als ein vorher festgelegter Mindestabstand. Durch den festgelegten Mindestabstand kann bestimmt werden ab welchem Abstand des physischen Objekts zur Anzeigeeinrichtung eine Projektion einer ersten optischen Anzeige erfolgen soll. Dabei kann der Mindestabstand so festgelegt werden, dass beim Unterschreiten dieses Mindestabstands das physische Objekt wenigstens teilweise mit einer Position des 3D-Bildes überlappt.
  • Nachfolgend werden bevorzugte Ausführungsformen der Vorrichtung beschrieben, die jeweils, soweit dies nicht ausdrücklich ausgeschlossen wird oder technisch unmöglich ist, beliebig miteinander sowie mit den weiteren beschriebenen anderen Aspekten der Erfindung kombiniert werden können.
  • Bei einigen Ausführungsformen ist die Erfassungseinrichtung konfiguriert, kontinuierlich in Echtzeit den Abstand zu bestimmen. Dadurch kann erreicht werden, dass bei einem unterschreiten des Mindestabstands zeitnah die Projektion der ersten Anzeige ausgelöst wird. Dadurch wird die Interaktion noch besser visualisiert, da sie mit der Bewegung des physischen Objekts erfolgt.
  • Bei einigen Ausführungsformen ist die Auswerteeinrichtung konfiguriert, unter Verwendung des kontinuierlich bestimmten Abstands in Echtzeit eine Bewegungsrichtung des physischen Objekts in Bezug auf die Anzeigeeinrichtung zu bestimmen, und wobei die erste optische Anzeige die Bewegungsrichtung, insbesondere durch eine Pfeilanzeige, des physischen Objekts repräsentiert. Dadurch wird zusätzlich zur Visualisierung der Interaktion die Bewegungsrichtung auf dem physischen Objekt angezeigt, wodurch die Visualisierung der Interaktion weiter verbessert wird.
  • Bei einigen Ausführungsformen ist die Auswerteeinrichtung konfiguriert, eine über einen vorbestimmten Zeitraum kontinuierliche Projektion der ersten optischen Anzeige, welche die Bewegungsrichtung repräsentiert, auszulösen, wobei die erste optische Anzeige sich über den Zeitraum verändert. Dadurch kann über den vorbestimmten Zeitraum, insbesondere über wenige Sekunden, insbesondere über 1 bis 5 Sekunden, eine sich zeitlich verändernde optische Anzeige, also eine bewegte Anzeige, auf dem physischen Objekt dargestellt werden. Dies verbessert die Signalwirkung der Projektion, wodurch die Visualisierung weiter verbessert wird.
  • Bei einigen Ausführungsformen ist die Erfassungseinrichtung konfiguriert, unter Verwendung der zweiten Objektdaten des physischen Objekts, eine Drehposition des physischen Objekts in Bezug auf eine vorher festgelegte Ausgangsposition zu bestimmen, und in Abhängigkeit von der Drehposition eine Darstellung der ersten optischen Anzeige auszulösen. Dadurch kann eine Projektion ausgelöst werden, wenn das physische Objekt gedreht wird. Insbesondere wenn es sich bei dem physischen Objekt um die Hand handelt, kann eine Projektion ausgelöst werden, wenn die Hand sich derart dreht, dass zunächst durch die Erfassungseinrichtung eine Handfläche erfasst wird, dass der festgelegten Ausgangsposition entsprechen kann, und nach der Drehung ein Handrücken erfasst wird. Dadurch wird eine zusätzliche Möglichkeit bereitgestellt, wodurch eine Projektion ausgelöst werden kann.
  • Bei einigen Ausführungsformen ist die Erfassungseinrichtung signaltechnisch mit der Anzeigeeinrichtung verbunden, und wobei die Erfassungseinrichtung konfiguriert ist, in Abhängigkeit des bestimmten Abstands und/oder der Drehposition des physischen Objekts eine Veränderung der Darstellung des 3D-Bildes durch die Anzeigeeinrichtung auszulösen. Hierdurch wird ermöglicht, dass bei einer Annäherung des physischen Objekts an das 3D-Bild eine Veränderung der Darstellung des 3D-Bildes ausgelöst werden kann. Wenn der Abstand geringer als der vorher festgelegte Mindestabstand ist, kann durch die Erfassungseinrichtung eine Veränderung des 3D-Bildes durch die Anzeigeeinrichtung ausgelöst werden. Ebenso kann eine Veränderung des 3D-Bildes durch eine Veränderung der Drehposition des physischen Objekts erfolgen, insbesondere eine Drehung des 3D-Bildes. Hierdurch kann vorteilhaft die Interaktion durch die Projektion visualisiert werden, und zusätzlich eine Veränderung des 3D-Bildes herbeigeführt werden.
  • Bei einigen Ausführungsformen ist die Erfassungseinrichtung konfiguriert, in Abhängigkeit der bestimmten Bewegungsrichtung des physischen Objekts eine Veränderung der Darstellung des 3D-Bildes durch die Anzeigeeinrichtung auszulösen.
  • Dadurch kann eine Veränderung des 3D-Bildes mit der Bewegungsrichtung des physischen Objekts gekoppelt werden, wodurch eine Veränderung des 3D-Bildes durch eine Bewegung erreicht wird. Dadurch wird die Interaktion zwischen dem physischen Objekt und dem 3D-Bild verbessert.
  • Bei einigen Ausführungsformen ist die Anzeigeeinrichtung konfiguriert, das 3D-Bild autostereoskopisch oder holografisch darzustellen. Dadurch wird dem Benutzer ermöglicht, das 3D-Bild ohne zusätzliche Hilfsmittel, wie eine 3D Brille, wahrzunehmen.
  • Bei einigen Ausführungsformen weist die Vorrichtung eine zweite Projektionseinrichtung auf, die konfiguriert ist, eine zweite optische Anzeige auf einen zweiten Bereich das physischen Objekts zu projizieren, wobei die Auswerteeinrichtung konfiguriert ist, die zweite Projektion auszulösen, wenn der bestimmte Abstand kleiner ist als der vorher festgelegte Mindestabstand. Dies kann sicherstellen, dass zumindest eine Projektion auf das physische Objekt ausreichend sichtbar ist. Weiterhin kann eine verbesserte Visualisierung der Interaktion ermöglicht werden.
  • Ein zweiter Aspekt der Erfindung betrifft ein Kraftfahrzeug, aufweisend eine Vorrichtung nach dem ersten Aspekt.
  • Ein dritter Aspekt der Erfindung betrifft ein Verfahren, insbesondere ein computerimplementiertes Verfahren, zur Visualisierung einer Interaktion eines physischen Objekts mit einem 3D-Bild mit folgenden Schritten: (i) Darstellen des 3D-Bildes durch eine Anzeigeeinrichtung, wobei das 3D-Bild für einen Benutzer wahrnehmbar ist; (ii) Erfassen von ersten Objektdaten der Anzeigeeinrichtung und von zweiten Objektdaten des zur Anzeigeeinrichtung beabstandeten physischen Objekts das bewegbar ist, (iii) Bestimmen eines Abstands zwischen einer Referenzposition, die auf einer Oberfläche, insbesondere mittig auf der Oberfläche, und weiterhin insbesondere einer dem 3D-Bild zugewandten Oberfläche, der Anzeigeeinrichtung ausgebildet ist, und dem physischen Objekt unter Verwendung der ersten Objektdaten und der zweiten Objektdaten; und (iv) Projizieren einer optischen Anzeige auf einen Bereich des physischen Objekts, wenn der bestimmte Abstand kleiner ist als ein vorher festgelegter Mindestabstand.
  • Die in Bezug auf den ersten Aspekt der Erfindung erläuterten Merkmale und Vorteile gelten entsprechend auch für die weiteren Aspekte der Erfindung.
  • Weitere Vorteile, Merkmale und Anwendungsmöglichkeiten der vorliegenden Erfindung ergeben sich aus der nachfolgenden detaillierten Beschreibung im Zusammenhang mit den Figuren.
  • Dabei zeigt
    • 1 schematisch eine erfindungsgemäße Vorrichtung gemäß eines ersten Ausführungsbeispiels mit einer Projektionseinrichtung;
    • 2 schematisch eine erfindungsgemäße Vorrichtung gemäß eines zweiten Ausführungsbeispiels mit drei Projektionseinrichtungen;
    • 3A und 3B schematisch jeweils eine 3D-Darstellung einer Hand, eines 3D-Bildes und einer Anzeigevorrichtung;
    • 4A und 4B schematisch eine Hand, die sich auf ein 3D-Bild zubewegt oder wegbewegt;
    • 5A bis 5C schematisch jeweils eine Hand, die mit einem unterschiedlich großen Bereich ihrer Fläche mit einem 3D-Bild überlappt;
    • 6 schematisch eine Hand, die sich in Bezug auf ein 3D-Bild translatorisch und/oder rotatorisch bewegt;
    • 7 ein Flussdiagramm zur Veranschaulichung einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens; und
    • 8 ein Kraftfahrzeug mit der Vorrichtung.
  • In den Figuren werden durchgängig dieselben Bezugszeichen für dieselben oder einander entsprechenden Elemente der Erfindung verwendet.
  • In 1 ist schematisch eine erfindungsgemäße Vorrichtung gemäß eines ersten Ausführungsbeispiels mit einer ersten Projektionseinrichtung 120 gezeigt. Die Vorrichtung weist eine Anzeigeeinrichtung 100, eine Erfassungseinrichtung 110, die erste Projektionseinrichtung 120 und eine Auswerteeinrichtung 130 auf. Durch die Anzeigeeinrichtung 100 wird ein 3D-Bild 140 angezeigt, das einen Würfel darstellt. Dabei kann es sich insbesondere um ein autostereoskopisches oder holografisches 3D-Bild handeln. Für diese Art der Darstellung sind keine zusätzlichen Hilfsmittel seitens eines Benutzers, durch die das 3D-Bild 140 wahrnehmbar ist, erforderlich. Es kann sich aber auch um eine Darstellung eines 3D-Bildes 140 handeln, bei dem zur Wahrnehmung Hilfsmittel, wie eine 3D Brille, erforderlich sind.
  • Die Anzeigeeinrichtung 100 kann einen Bildschirm aufweisen, durch den das 3D-Bild 140 dargestellt wird. In Bezug auf das schematisch dargestellte Koordinatensystem mit den Koordinatenachsen x, y und z sind die Anzeigeeinrichtung 100, das 3D-Bild 140 und eine Hand 150 des Benutzers im Wesentlichen entlang der z-Achse angeordnet. Dabei wird das 3D-Bild 140 mit einem ersten Abstand A1 zu einer Referenzposition R, die mittig auf einer zum 3D-Bild 140 zugewandten Oberfläche der Anzeigeeinrichtung 100 ausgebildet ist, dargestellt. Die Referenzposition R kann durch drei Koordinaten (x, y, z) entsprechend dem dargestellten Koordinatensystem, beschrieben werden. Dabei können sich Abstände zu dieser Referenzposition auf eine der Koordinaten (x, y, z) beziehen. Eine Darstellung des ersten Abstands A1, sowie weiterer Abstände, wie eines zweiten Abstands A2, eines dritten Abstands A3, eines ersten Mindestabstands D1 und eines zweiten Mindestabstands D2, insbesondere in Bezug auf die Referenzposition R, ist in 3A bzw. 3B gezeigt. Der erste Abstand A1 wird durch die Darstellung des 3D-Bildes 140 durch die Anzeigeeinrichtung 100 bestimmt. Unter dem ersten Abstand A1 kann insbesondere der kürzeste Abstand zwischen der Anzeigeeinrichtung 100 und dem 3D-Bild 140 verstanden werden. Ein Benutzer kann aus einer geeigneten Sichtposition das 3D-Bild 140 wahrnehmen. Im Weiteren wird davon ausgegangen, dass der Benutzer die entsprechende Sichtposition eingenommen hat. Aus dieser Sichtposition kann der Benutzer das 3D-Bild 140 mit seiner Hand 150, oder auch mit einem in der Hand 150 gehaltenen Gegenstand, erreichen.
  • Gemäß 1 und auch 2 ist das 3D-Bild 140 axial zwischen der Anzeigeeinrichtung 100 und der Hand 150 angeordnet. Dabei ist die Hand 150 mit einem zweiten Abstand A2 von der Anzeigeeinrichtung 100 entfernt. Die Hand 150 ist bewegbar. Daher ist unter dem zweiten Abstand A2 jeweils ein aktueller Abstand zu verstehen.
  • Durch die Erfassungseinrichtung 110 kann in Echtzeit ein Raumbereich in der Umgebung des 3D-Bildes 140 erfasst werden. Insbesondere kann die Erfassungseinrichtung 110 ein 3D-Kamerasystem mit einem 3D-Bildsensor aufweisen, bei dem das bekannte Laufzeitverfahren verwendet wird. Ebenso können durch die Erfassungseinrichtung 110 Erfassungen bzw. Messungen durch andere Technologien, wie optische Bildanalyse, Radar oder kapazitive Messungen erfolgen. Auch andere Messtechniken für die Konstruktion einer erfassten Umgebung sind denkbar. Hierzu können bildgebende Verfahren, die durch maschinelles Lernen eine Szene rekonstruieren können, zählen. Durch die Erfassungseinrichtung 110 wird zumindest die Anzeigeeinrichtung 100 sowie die Hand 150 erfasst. Unter Verwendung der erfassten Daten der Anzeigeeinrichtung 100 und der Hand 150 wird der zweite Abstand A2 bestimmt. Wenn sich die Hand 150 in Richtung des 3D-Bildes 140, und damit in Richtung der Anzeigeeinrichtung 100, bewegt, verringert sich der zweite Abstand A2.
  • Durch die Projektionseinrichtung 120 kann eine erste optische Anzeige, also ein optisches Signal, auf die Hand 150 projiziert werden. In 1 ist die Projektionseinrichtung 120 so angeordnet, dass eine Projektion im Wesentlichen parallel zur dem 3D-Bild 140 zugewandten Oberfläche der Anzeigeeinrichtung 100 erfolgt. Es ist aber ebenso denkbar, dass die Projektion schräg erfolgt, also unter einem Winkel in Bezug auf die gezeigte Anordnung. In Bezug auf das schematisch dargestellte Koordinatensystem erfolgt die Projektion im Wesentlichen in Richtung entlang der y-Achse. Die Projektionseinrichtung 120 kann einen Projektor aufweisen, der auf digitaler Lichtverarbeitung basiert, auch als DLP-Projektor bekannt. Die Projektionseinrichtung 120 kann einen Laser, insbesondere unter Verwendung eines MEMS (Mikro-Elektro-Mechanisches-System) aufweisen. Ebenso kann die Projektionseinrichtung 120 einen Flüssigkristallbildschirm, auch unter der Abkürzung LCOS bekannt, an dem Licht reflektiert wird, aufweisen. Die Projektion durch die Projektionseinrichtung 120 wird durch die Auswerteeinrichtung 130 ausgelöst.
  • Die Auswerteeinrichtung 130 weist einen Computer mit einem Computerprogramm auf, wobei der Computer signaltechnisch mit der Projektionseinrichtung 120, der Erfassungseinrichtung 110 und der Anzeigeeinrichtung 100 verbunden ist. Dadurch können durch den Computer bzw. dem Computerprogramm Berechnungen auf Basis von erhaltenen Signalen bzw. Informationen der Projektionseinrichtung 120, der Erfassungseinrichtung 110 und/oder der Anzeigeeinrichtung 100 durchgeführt werden. Weiterhin können durch den Computer Signale gesendet werden, beispielsweise an die Projektionseinrichtung 120, um eine Projektion auszulösen. Dabei wird eine Projektion der ersten optischen Anzeige durch die Projektionseinrichtung 120 ausgelöst, wenn der bestimmte zweite Abstand A2 geringer als ein vorher festgelegter erster Mindestabstand D1 ist. Dieser vorher festgelegte erste Mindestabstand D1 kann so gewählt werden, dass beim Unterschreiten durch die Hand 150, die Hand 150 an einen äußeren Bereich des 3D-Bildes 140 angrenzt oder in das 3D-Bild 140 hineingreift. In diesem Fall erfolgt eine Projektion der ersten optischen Anzeige, wodurch eine Wechselwirkung der Hand 150 mit dem 3D-Bild visualisiert wird. Für eine Bestimmung des ersten Mindestabstands D1 ist es denkbar, dass ein Benutzer, dessen Hand 150 sich dem 3D-Bild 140 nähert, eine Kalibrier-Position seiner Hand 150 in der Auswerteeinrichtung 130 speichert, bei der die Hand 150 aus Sicht des Benutzers eine Berührung im Außenbereich des 3D-Bildes 140 erfährt. Bei zukünftigen Bewegungen der Hand 150 kann durch die Auswerteeinrichtung 130 die jeweilige aktuelle Position der Hand 150 bzw. der jeweils zuordenbare zweite Abstand A2 mit dem ersten Mindestabstand D1 verglichen werden. Es ist auch denkbar, eine Kalibrier-Position im Inneren des 3D-Bildes 140 vorzusehen.
  • In 2 ist schematisch eine erfindungsgemäße Vorrichtung gemäß eines zweiten Ausführungsbeispiels mit drei Projektionseinrichtungen gezeigt. Zusätzlich zu der ersten Projektionseinrichtung 120 weist in diesem zweiten Ausführungsbeispiel die Vorrichtung eine zweite Projektionseinrichtung 200 und eine dritte Projektionseinrichtung 210 auf. Durch diese zweite Projektionseinrichtung 200 und die dritte Projektionseinrichtung 210 können zusätzlich eine zweite optische Anzeige durch die zweite Projektionseinrichtung 200 und eine dritte optische Anzeige durch die dritte Projektionseinrichtung 200 auf die Hand 150 projiziert werden. Bevorzugt sind die erste Projektionseinrichtung 120, die zweite Projektionseinrichtung 200 und die dritte Projektionseinrichtung 210 so zueinander angeordnet, dass die Projektionen aus unterschiedlichen Richtungen erfolgen. Dadurch wird ermöglicht, die optischen Anzeigen aus unterschiedlichen Richtungen und auf unterschiedliche Bereiche der Hand 150 zu projizieren. Dadurch kann die Wechselwirkung der Hand 150 mit dem 3D-Bild 140 noch besser dargestellt werden.
  • In den 3A und 3B ist schematisch jeweils eine 3D-Darstellung einer Hand 150, eines 3D-Bildes 140 und einer Anzeigeeinrichtung 100 gezeigt.
  • Dabei ist in 3A, gemäß 1, das 3D-Bild 140 axial zwischen der Hand 150 und der Anzeigevorrichtung 100 dargestellt. Der zweite Abstand A2 ist ein Abstand zwischen einer Referenzposition R, die mittig auf einer dem 3D-Bild 140 zugewandten Oberfläche der Anzeigevorrichtung 100 ausgebildet ist, und der Hand 150. Durch die Erfassungseinrichtung 110 kann zumindest die Anzeigeeinrichtung 100 sowie die Hand 150 erfasst werden. Dabei ist die Referenzposition R in Bezug auf die Anzeigevorrichtung 100 in der Auswerteeinrichtung 130 hinterlegt. Unter Verwendung der erfassten Daten der Anzeigeeinrichtung 100 und der Hand 150 wird der jeweilige zweite Abstand A2 bestimmt. Wenn sich die Hand 150 in Richtung des 3D-Bildes 140, und damit in Richtung der Anzeigeeinrichtung 100, bewegt, verringert sich der zweite Abstand A2. Wenn der zweite Abstand A2 einen vorgegebenen ersten Mindestabstand D1 erreicht bzw. unterschreitet wird eine Projektion ausgelöst.
  • Gemäß 3B ist die Hand 150 seitlich zum 3D-Bild 140 angeordnet. Dabei ist ein dritter Abstand A3 zwischen der Anzeigevorrichtung 100 und einer Seitenfläche des 3D-Bildes 140 dargestellt. Entsprechend kann eine Projektion ausgelöst werden, wenn die Hand 150 sich seitlich dem 3D-Bild 140 nähert und einen zweiten Mindestabstand D2 unterschreitet.
  • Ebenso ist denkbar, dass durch Hinzunahme einer weiteren Hand, das 3D-Bild 140 zwischen zwei Händen angeordnet ist. Wenn sich durch entsprechende Auswertungen des dritten Abstands A3 und ggf. eines weiteren Abstands, der einen Abstand zwischen der weiteren Hand und einer weiteren Seitenfläche repräsentiert, ergibt, dass eine Berührung des 3D-Bildes 140 durch beide Hände erfolgt, kann eine entsprechende Projektion auf beide Hände erfolgen, um diese Berührung zu visualisieren. Weiterhin ist denkbar, dass durch eine Bewegung der beiden Hände eine Bewegung des 3D-Bildes 140 initiiert wird (hier nicht gezeigt).
  • In den 4A und 4B ist schematisch jeweils eine Hand 150 gezeigt, die sich entsprechend auf ein 3D-Bild 140 zubewegt (4B) oder wegbewegt (4A). Dabei werden jeweils auf die Hand 150 sich bewegende Richtungspfeile projiziert. Gemäß 4A zeigen die Richtungspfeile vom 3D-Bild 140 weg. Dabei sind die Richtungspfeile sowohl auf einem Handrücken als auch im 3D-Bild 140 angezeigt. Gemäß 4B zeigen die Richtungspfeile auf dem Handrücken zum 3D-Bild 140 hin und in dem 3D-Bild 140 sind zusätzliche Richtungspfeile dargestellt, die in dieselbe Richtung zeigen. Durch die Erfassungseinrichtung 110, also beispielsweise dem 3D-Kamerasystem, können Objektdaten der Hand 150 in Echtzeit erfasst werden. Dadurch kann auch eine Bewegungsrichtung der Hand bestimmt werden. Durch die Auswerteeinrichtung 130 kann eine Projektion ausgelöst werden, bei der eine optische Anzeige eine bewegte Anzeige, die eine Bewegungsrichtung repräsentiert, aufweist. Durch die signaltechnische Verbindung der Auswerteeinrichtung 130 mit der Anzeigeeinrichtung 100 kann durch die Auswerteeinrichtung 130 eine vergleichbare Darstellung mit sich bewegenden Richtungspfeilen im 3D-Bild 140 ausgelöst werden.
  • In den 5A bis 5C ist schematisch jeweils eine Hand 150 gezeigt, die mit einem unterschiedlich großen Bereich ihrer Fläche mit einem 3D-Bild 140 überlappt. In 5A berühren Finger der Hand 150 einen Außenbereich des 3D-Bildes 140. Entsprechend ist auf die Fingerspitzen eine optische Anzeige projiziert. In 5B befindet sich die Hand 150 vollständig innerhalb des 3D-Bildes 140. Dabei wird die optische Anzeige auf die Hand 150 projiziert. In 5C befindet sich die Hand 150 ebenfalls vollständig innerhalb des 3D-Bildes 140. Zusätzlich zur Projektion der optischen Anzeige auf die Hand 150 wird das 3D-Bild 140 ausgeblendet. Durch diese unterschiedlichen projizierten optischen Anzeigen auf die Hand 150 werden unterschiedlich starke Wechselwirkungen bzw. unterschiedlich große Bereiche der Hand 150, die mit dem 3D-Bild 140 überlappen, visualisiert.
  • In 6 ist schematisch eine Hand 150 gezeigt, die sich in Bezug auf ein 3D-Bild 140 translatorisch und/oder rotatorisch bewegen kann. Dies ist durch die dargestellten Richtungspfeile angedeutet. Dabei erfolgt durch die Bewegung der Hand 150 eine Veränderung der Darstellung des 3D-Bilds 140. Beispielsweise kann eine Drehung der Hand 150 zu einer Drehung des 3D-Bildes 140 führen. Dies kann dadurch erreicht werden, dass durch die Erfassungseinrichtung 110 Objektdaten der Hand 150 in Echtzeit erfasst werden, und daraus beispielsweise bestimmt werden kann, ob sich die Hand 150 dreht. Wenn sich die Hand 150 dreht, kann durch die Auswerteeinheit 130 eine Drehung des 3D-Bildes 140 durch die Anzeigeeinrichtung 100 ausgelöst werden.
  • In 7 ist ein Flussdiagramm 300 zur Veranschaulichung einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens zur Visualisierung einer Interaktion eines physischen Objekts 150 mit einem 3D-Bild 140 gezeigt.
  • In einem ersten Schritt 310 des Verfahrens erfolgt ein Darstellen des 3D-Bildes 140 durch eine Anzeigeeinrichtung (100), wobei das 3D-Bild (140) für einen Benutzer wahrnehmbar ist.
  • In einem weiteren Schritt 320 des Verfahrens erfolgt ein Erfassen von ersten Objektdaten der Anzeigeeinrichtung 100 und von zweiten Objektdaten des zur Anzeigeeinrichtung 100 beabstandeten physischen Objekts 150 das bewegbar ist.
  • In einem weiteren Schritt 330 des Verfahrens erfolgt ein Bestimmen eines zweiten Abstands A2 und/oder eines dritten Abstands A3 zwischen einer Referenzposition R, die auf einer Oberfläche der Anzeigeeinrichtung 100 ausgebildet ist, und dem physischen Objekt 150 unter Verwendung der ersten Objektdaten und der zweiten Objektdaten.
  • In einem weiteren Schritt 340 des Verfahrens erfolgt ein Projizieren einer ersten optischen Anzeige auf einen ersten Bereich des physischen Objekts 150, wenn der bestimmte zweite Abstand A2 und/oder der bestimmte dritte Abstand A3 kleiner ist als ein vorher festgelegter erster Mindestabstand D1 oder zweiter Mindestabstand D2.
  • In 8 ist schematisch ein Kraftfahrzeug 400 mit der erfindungsgemäßen Vorrichtung gemäß des ersten Ausführungsbeispiels von 1 gezeigt. Ebenso kann das Kraftfahrzeug 400 die erfindungsgemäße Vorrichtung gemäß des zweiten Ausführungsbeispiels von 2 aufweisen.
  • Während vorausgehend wenigstens eine beispielhafte Ausführungsform beschrieben wurde, ist zu bemerken, dass eine große Anzahl von Variationen dazu existiert. Es ist dabei auch zu beachten, dass die beschriebenen beispielhaften Ausführungsformen nur nichtlimitierende Beispiele darstellen, und es nicht beabsichtigt ist, dadurch den Umfang, die Anwendbarkeit oder die Konfiguration der hier beschriebenen Vorrichtungen und Verfahren zu beschränken. Vielmehr wird die vorausgehende Beschreibung dem Fachmann eine Anleitung zur Implementierung mindestens einer beispielhaften Ausführungsform liefern, wobei sich versteht, dass verschiedene Änderungen in der Funktionsweise und der Anordnung der in einer beispielhaften Ausführungsform beschriebenen Elemente vorgenommen werden können, ohne dass dabei von dem in den angehängten Ansprüchen jeweils festgelegten Gegenstand sowie seinen rechtlichen Äquivalenten abgewichen wird.
  • BEZUGSZEICHENLISTE
  • 100
    Anzeigeeinrichtung
    110
    Erfassungseinrichtung
    120
    Erste Projektionseinrichtung
    130
    Auswerteeinrichtung
    140
    3D-Bild
    150
    Hand
    200
    Zweite Projektionseinrichtung
    210
    Dritte Projektionseinrichtung
    300
    ein Flussdiagramm zur Veranschaulichung einer bevorzugten Ausführungsform des erfindungsgemäßen
    310
    Darstellen 3D-Bild
    320
    Erfassen
    330
    Bestimmen eines zweiten Abstands
    340
    Projektion
    400
    Kraftfahrzeug
    A1, A2, A3
    Erster, zweiter und dritter Abstand
    D1, D2
    Erster und zweiter Mindestabstand

Claims (11)

  1. Vorrichtung zur Visualisierung einer Interaktion eines physischen Objekts (150) mit einem 3D-Bild (140), aufweisend: eine Anzeigeeinrichtung (100), die konfiguriert ist, ein 3D-Bild (140) darzustellen, das für einen Benutzer wahrnehmbar ist; eine erste Projektionseinrichtung (120), die konfiguriert ist, eine erste optische Anzeige auf einen ersten Bereich des physischen Objekts (150) zu projizieren; eine Erfassungseinrichtung (110), die konfiguriert ist, erste Objektdaten der Anzeigeeinrichtung (100) zu erfassen und zweite Objektdaten des zur Anzeigeeinrichtung (100) beabstandeten physischen Objekts (150) das bewegbar ist zu erfassen, und wobei die Erfassungseinrichtung (110) konfiguriert ist, unter Verwendung der ersten Objektdaten und der zweiten Objektdaten einen Abstand (A2, A3) zwischen einer Referenzposition (R), die auf einer Oberfläche der Anzeigeeinrichtung (100) ausgebildet ist, und dem physischen Objekt (150) zu bestimmen; eine Auswerteeinrichtung (130), die signaltechnisch mit der Erfassungseinrichtung (110) und der ersten Projektionseinrichtung (120) verbunden ist, und wobei die Auswerteeinrichtung (130) konfiguriert ist, eine Projektion der ersten optischen Anzeige durch die erste Projektionseinrichtung (120) auszulösen, wenn der bestimmte Abstand (A2, A3) kleiner ist als ein vorher festgelegter Mindestabstand (D1, D2).
  2. Vorrichtung nach Anspruch 1, wobei die Erfassungseinrichtung (110) konfiguriert ist, kontinuierlich in Echtzeit den Abstand (A2, A3) zu bestimmen.
  3. Vorrichtung nach Anspruch 2, wobei die Auswerteeinrichtung (130) konfiguriert ist, unter Verwendung des kontinuierlich bestimmten Abstands (A2, A3) in Echtzeit eine Bewegungsrichtung des physischen Objekts (150) in Bezug auf die Anzeigeeinrichtung (100) zu bestimmen, und wobei die erste optische Anzeige die Bewegungsrichtung des physischen Objekts (150) repräsentiert.
  4. Vorrichtung nach Anspruch 3, wobei die Auswerteeinrichtung (130) konfiguriert ist, eine über einen vorbestimmten Zeitraum kontinuierliche Projektion der ersten optischen Anzeige, welche die Bewegungsrichtung repräsentiert, auszulösen, wobei die erste optische Anzeige sich über den vorbestimmten Zeitraum verändert.
  5. Vorrichtung nach einem der vorherigen Ansprüche, wobei die Erfassungseinrichtung (120) konfiguriert ist, unter Verwendung der zweiten Objektdaten des physischen Objekts (150), eine Drehposition des physischen Objekts (150) in Bezug auf eine vorher festgelegte Ausgangsposition zu bestimmen, und in Abhängigkeit von der Drehposition eine Darstellung der ersten optischen Anzeige auszulösen.
  6. Vorrichtung nach Anspruch 5, wobei die Erfassungseinrichtung (120) signaltechnisch mit der Anzeigeeinrichtung (100) verbunden ist, und wobei die Erfassungseinrichtung (120) konfiguriert ist, in Abhängigkeit des bestimmten Abstands (A2, A3) und/oder der Drehposition des physischen Objekts (150) eine Veränderung der Darstellung des 3D-Bildes (140) durch die Anzeigeeinrichtung (100) auszulösen.
  7. Vorrichtung nach einem der vorherigen Ansprüche 3 bis 6, wobei die Erfassungseinrichtung (120) konfiguriert ist, in Abhängigkeit der bestimmten Bewegungsrichtung des physischen Objekts (150) eine Veränderung der Darstellung des 3D-Bildes durch die Anzeigeeinrichtung (100) auszulösen.
  8. Vorrichtung nach einem der vorherigen Ansprüche, wobei die Anzeigeeinrichtung konfiguriert ist, das 3D-Bild autostereoskopisch oder holografisch darzustellen.
  9. Vorrichtung nach einem der vorherigen Ansprüche, aufweisend eine zweite Projektionseinrichtung (200), die konfiguriert ist, eine zweite optische Anzeige auf einen zweiten Bereich das physischen Objekts (150) zu projizieren, wobei die Auswerteeinrichtung (130) konfiguriert ist, die zweite Projektion auszulösen, wenn der bestimmte Abstand (A2, A3) kleiner ist als der vorher festgelegte Mindestabstand (D1, D2).
  10. Kraftfahrzeug, aufweisend ein Vorrichtung gemäß einem der Ansprüche 1 bis 9.
  11. Verfahren zur Visualisierung einer Interaktion eines physischen Objekts (150) mit einem 3D-Bild (140) mit folgenden Schritten: Darstellen des 3D-Bildes (140) durch eine Anzeigeeinrichtung (100), wobei das 3D-Bild (140) für einen Benutzer wahrnehmbar ist; Erfassen von ersten Objektdaten der Anzeigeeinrichtung (100) und von zweiten Objektdaten des zur Anzeigeeinrichtung (100) beabstandeten physischen Objekts (150) das bewegbar ist, Bestimmen eines Abstands (A2, A3) zwischen einer Referenzposition (R), die auf einer Oberfläche der Anzeigeeinrichtung (100) ausgebildet ist, und dem physischen Objekt (150) unter Verwendung der ersten Objektdaten und der zweiten Objektdaten; und Projizieren einer optischen Anzeige auf einen Bereich des physischen Objekts (150), wenn der bestimmte Abstand (A2, A3) kleiner ist als ein vorher festgelegter Mindestabstand (D1, D2).
DE102022110162.2A 2022-04-27 2022-04-27 Vorrichtung und verfahren zur visualisierung einer interaktion eines physischen objekts mit einem 3d-bild und kraftfahrzeug mit der vorrichtung Pending DE102022110162A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022110162.2A DE102022110162A1 (de) 2022-04-27 2022-04-27 Vorrichtung und verfahren zur visualisierung einer interaktion eines physischen objekts mit einem 3d-bild und kraftfahrzeug mit der vorrichtung
PCT/EP2023/053105 WO2023208432A1 (de) 2022-04-27 2023-02-08 Vorrichtung und verfahren zur visualisierung einer interaktion eines physischen objekts mit einem 3d-bild und kraftfahrzeug mit der vorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022110162.2A DE102022110162A1 (de) 2022-04-27 2022-04-27 Vorrichtung und verfahren zur visualisierung einer interaktion eines physischen objekts mit einem 3d-bild und kraftfahrzeug mit der vorrichtung

Publications (1)

Publication Number Publication Date
DE102022110162A1 true DE102022110162A1 (de) 2023-11-02

Family

ID=85222607

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022110162.2A Pending DE102022110162A1 (de) 2022-04-27 2022-04-27 Vorrichtung und verfahren zur visualisierung einer interaktion eines physischen objekts mit einem 3d-bild und kraftfahrzeug mit der vorrichtung

Country Status (2)

Country Link
DE (1) DE102022110162A1 (de)
WO (1) WO2023208432A1 (de)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101908033B1 (ko) * 2008-07-10 2018-12-10 리얼 뷰 이미징 리미티드 광시야각 디스플레이들 및 사용자 인터페이스들
DE102014007173A1 (de) * 2014-05-15 2015-11-19 Diehl Ako Stiftung & Co. Kg Vorrichtung zur Bedienung eines elektronischen Geräts
US10866562B2 (en) * 2016-07-09 2020-12-15 Doubleme, Inc. Vehicle onboard holographic communication system

Also Published As

Publication number Publication date
WO2023208432A1 (de) 2023-11-02

Similar Documents

Publication Publication Date Title
DE102012110934B4 (de) Anzeigevorrichtung für Fahrzeuge
EP2196892B1 (de) Verfahren und Vorrichtung zum Anzeigen von Informationen
DE102005046756B4 (de) Verfahren und Vorrichtung zur Darstellung von Informationen einer automatischen Distanzregelung
DE102017107396A1 (de) Testverfahren und Testvorrichtung für Fahrerassistenzsysteme
EP3507681A1 (de) Verfahren zur interaktion mit bildinhalten, die auf einer anzeigevorrichtung in einem fahrzeug dargestellt werden
EP2977961A1 (de) Verfahren und Kommunikationseinrichtung zum Erstellen und/oder Ändern virtueller Objekte
WO2019042778A1 (de) Augmented-reality-brille, verfahren zum bestimmen einer pose einer augmented-reality-brille, zur nutzung der augmented-reality-brille oder des verfahrens geeignetes kraftfahrzeug
WO2013034133A1 (de) Interaktion mit einem dreidimensionalen virtuellen szenario
DE102022110162A1 (de) Vorrichtung und verfahren zur visualisierung einer interaktion eines physischen objekts mit einem 3d-bild und kraftfahrzeug mit der vorrichtung
DE102005060980B4 (de) Verfahren und System zur Bestimmung eines kollisionsfreien dreidimensionalen Raumvolumens entlang eines Bewegungspfades gegenüber einer realen Umgebung
DE102008055932A1 (de) Verfahren zur modellbasierten Simulation eines Verhaltens eines Sensors
WO2013034129A2 (de) Kooperativer 3d-arbeitsplatz
DE102011005368A1 (de) Fahrerassistenzsystem für ein Fahrzeug mit einem angereicherten Videobild in einem Anzeigemittel
DE102010052291B4 (de) Verfahren und Vorrichtung zum Anzeigen von Informationen in einem Fahrzeug
DE102018220880B4 (de) Verfahren und Vorrichtung zum Modifizieren einer Bildanzeige eines Fahrzeuginnenraums bei einem Videotelefonat in einem Fahrzeug sowie ein Kraftfahrzeug
DE102019131740A1 (de) Verfahren und Anzeigevorrichtung zur Erzeugung eines Tiefeneffekts in der Perspektive eines Beobachters auf einem flachen Anzeigemedium sowie Kraftfahrzeug
DE102019219244B3 (de) Verfahren zur Darstellung von Teilen eines Bildes auf einer Bildschirmanordnung, Computerprogrammprodukt, Kraftfahrzeuganzeigevorrichtung sowie Kraftfahrzeug
WO2013178358A1 (de) Verfahren zur räumlichen visualisierung von virtuellen objekten
DE2425986C3 (de) Stereokomparator
DE19624135A1 (de) Verfahren und Vorrichtung zur Kontrolle der Augenbewegung einer ein dreidimensionales bewegtes Bild betrachtenden Person
DE10358544A1 (de) Verfahren zur schnellen 3D-Objekterfassung
EP3809094B1 (de) Verfahren und anordnung zum visualisieren von sensorsignalen eines optischen sensors eines koordinatenmessgeräts sowie verfahren und anordnung zum visualisieren eines sensors eines koordinatenmessgeräts
DE102017122627A1 (de) Optisches Messsystem und Messverfahren
EP2817587B1 (de) Messverfahren und messvorrichtung zur herstellung eines 3d-ortaufgelösten messergebnisses in einem nicht-sichtbaren spektralbereich
DE102019003061B4 (de) Vorrichtung zum Prüfen eines optischen Erfassungssystems für ein Kraftfahrzeug, sowie ein Verfahren hierzu