DE112019002604T5 - Virtuelle Bildanzeigevorrichtung - Google Patents

Virtuelle Bildanzeigevorrichtung Download PDF

Info

Publication number
DE112019002604T5
DE112019002604T5 DE112019002604.6T DE112019002604T DE112019002604T5 DE 112019002604 T5 DE112019002604 T5 DE 112019002604T5 DE 112019002604 T DE112019002604 T DE 112019002604T DE 112019002604 T5 DE112019002604 T5 DE 112019002604T5
Authority
DE
Germany
Prior art keywords
virtual image
image display
display unit
unit
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019002604.6T
Other languages
English (en)
Inventor
Masataka Hamano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murakami Corp
Original Assignee
Murakami Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murakami Corp filed Critical Murakami Corp
Publication of DE112019002604T5 publication Critical patent/DE112019002604T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/50Instruments characterised by their means of attachment to or integration in the vehicle
    • B60K35/53Movable instruments, e.g. slidable
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0264Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for control means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/60Structural details of dashboards or instruments
    • B60K2360/66Projection screens or combiners
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • G09F19/125Stereoscopic displays; 3D displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Instrument Panels (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Position Input By Displaying (AREA)

Abstract

Eine virtuelle Bildanzeigevorrichtung gemäß einer Ausführungsform ist eine virtuelle Bildanzeigevorrichtung, die einem Insassen eines Fahrzeugs Informationen anzeigt. Die virtuelle Bildanzeigevorrichtung weist eine erste virtuelle Bildanzeigeeinheit auf, die ein virtuelles Bild als Informationen anzeigt. Die erste virtuelle Bildanzeigeeinheit weist einen virtuellen Bildanzeigeabschnitt, der ein virtuelles Bild anzeigt, und eine Dreheinheit auf, die den virtuellen Bildanzeigeabschnitt in einem Bereich dreht, in dem das virtuelle Bild durch den Insassen visuell erkennbar ist.

Description

  • Technisches Gebiet
  • Die vorliegende Offenbarung betrifft eine virtuelle Bildanzeigevorrichtung, die Informationen als virtuelles Bild in dem Inneren eines Fahrzeugs anzeigt.
  • Technischer Hintergrund
  • Als Vorrichtungen, die Informationen in dem Inneren eines Fahrzeugs anzeigen, sind verschiedene Vorrichtungen aus dem Stand der Technik bekannt. Die japanische ungeprüfte Patentoffenlegungsschrift Nr. 2017-84136 beschreibt eine Gesteneingabevorrichtung, die in dem Inneren eines Fahrzeugs bereitgestellt ist und die eine durch eine Geste eines Nutzers erfolgende Eingabe annimmt. Die Gesteneingabevorrichtung weist eine Gestenabbildungskamera, die Gesten abbildet, ein Gestenerkennungsteil, das Gesten erkennt, eine Rahmenbildanzeigevorrichtung, die Rahmenbilder anzeigt, eine Anzeige sowie einen Controller auf, der eine Bildschirmanzeige auf der Anzeige steuert.
  • Die Rahmenbildanzeigevorrichtung bildet ein Rahmenbild auf einer Ebene, welche parallel zu der Ebene eines Lenkrads liegt, durch ein optisches System zur Kombination von reellen Spiegelbildern. Das Rahmenbild wird derart gebildet, dass das Rahmenbild durch einen Nutzer auf einem Fahrersitz als Rahmen, der die Anzeigefläche der Anzeige umgibt, visuell erkennbar ist. Die Gesteneingabevorrichtung weist eine Kopfabbildungskamera, die den Kopf des Nutzers auf dem Fahrersitz und den Bereich um den Kopf herum abbildet, und eine visuelle Punktpositionsdetektionseinheit auf, welche die Position der Sichtlinie des Nutzers aus von Bildern detektiert, welche durch die Kopfabbildungskamera abgebildet werden. Die visuelle Punktpositionsdetektionseinheit detektiert die Position des Auges des Nutzers aus Bildern, welche durch die Kopfabbildungskamera abgebildet werden. In der Rahmenbildanzeigevorrichtung ist die Position eines Bilds derart variabel, dass der Nutzer eine visuelle Erkennung auf einfache Weise durchführen kann.
  • Die japanische ungeprüfte Patentoffenlegungsschrift Nr. 2007-531067 beschreibt eine holographische Mensch-Maschine-Schnittstelle (HMI), die den Bedienvorgang eines Nutzers an einer Eingabevorrichtung detektiert, der als holographische Bilder angezeigt wird. Die HMI weist eine Emissions-/Detektionseinrichtung auf, die aus Sicht des Nutzers auf der Rückseite des holographischen Bilds platziert ist. Die Emissions-/Detektionseinrichtung emittiert Wellen in Richtung des holographischen Bilds.
  • In der HMI werden, wenn ein Objekt (z.B. ein Finger des Nutzers) an der Anzeigeposition des holographischen Bilds vorhanden ist, Wellen von der Emissions-/Detektionseinrichtung von dem Objekt reflektiert und treten als reflektierte Wellen in die Emissions-/Detektionseinrichtung ein. Durch den Eintritt dieser reflektierten Wellen detektiert die Emissions-/Detektionseinrichtung den Bedienvorgang des Nutzers an dem holographischen Bild. In der HMI kann der Bedienvorgang des Nutzers an der Eingabevorrichtung detektiert werden, der als holographische Bilder angezeigt wird. Die HMI bestimmt, dass die Eingabevorrichtung heruntergedrückt wurde, wenn das Objekt die Position der Eingabevorrichtung tatsächlich erreicht, und somit detektiert die HMI den Druckbedienvorgang des Nutzers an der Eingabevorrichtung.
  • Liste der Entgegenhaltungen
  • Patentliteratur
    • Patentliteratur 1: Japanische ungeprüfte Patentoffenlegungsschrift Nr. 2017-84136
    • Patentliteratur 2: Japanische ungeprüfte Patentoffenlegungsschrift Nr. 2007-531067 Kurzdarstellung der Erfindung
  • Technisches Problem
  • Bei der Vorrichtung, die einem Insassen eines Fahrzeugs Informationen anzeigt, wie der Gesteneingabevorrichtung oder der HMI, welche oben beschrieben wurden, sind zwei oder mehr Bilder vorhanden, die in der Luft gebildet werden, sodass der Nutzer zuweilen versucht, diese zwei Bilder gleichzeitig zu erkennen. In diesem Fall wird, wenn der Fokus auf ein Bild erzielt wird, der Fokus auf ein anderes Bild nicht erzielt, da zwei Bilder jeweils einen Sichtwinkel besitzen, und es ist zuweilen schwierig, eine Vielzahl von Bildern gleichzeitig zu bestätigen. Daher besteht Verbesserungspotenzial hinsichtlich der Sichtbarkeit.
  • Eine Aufgabe der vorliegenden Offenbarung besteht in der Bereitstellung einer virtuellen Bildanzeigevorrichtung, die eine Sichtbarkeit verbessern kann.
  • Lösung des Problems
  • Eine virtuelle Bildanzeigevorrichtung gemäß der vorliegenden Offenbarung ist eine virtuelle Bildanzeigevorrichtung, die eingerichtet ist, einem Insassen eines Fahrzeugs Informationen anzuzeigen, aufweisend eine erste virtuelle Bildanzeigeeinheit, die eingerichtet ist, ein virtuelles Bild als die Informationen anzuzeigen. Die erste virtuelle Bildanzeigeeinheit weist einen virtuellen Bildanzeigeabschnitt, der eingerichtet ist, das virtuelle Bild anzuzeigen, und eine Dreheinheit auf, die eingerichtet ist, den virtuellen Bildanzeigeabschnitt in einem Bereich zu drehen, in dem das virtuelle Bild durch den Insassen visuell erkennbar ist.
  • Bei dieser virtuellen Bildanzeigevorrichtung zeigt der virtuelle Bildanzeigeabschnitt der ersten virtuellen Bildanzeigeeinheit Informationen als virtuelles Bild an, und somit können Informationen angezeigt werden, als ob die Informationen emporschweben. Informationen werden wie oben beschrieben angezeigt, als ob die Informationen emporschweben, und somit kann die Sichtbarkeit von Informationen gesteigert werden. Die erste virtuelle Bildanzeigeeinheit weist die Dreheinheit auf, die eingerichtet ist, den virtuellen Bildanzeigeabschnitt in dem Bereich zu drehen, in dem das virtuelle Bild durch den Insassen visuell erkennbar ist. Demnach dreht die Dreheinheit der ersten virtuellen Bildanzeigeeinheit den virtuellen Bildanzeigeabschnitt selbst in dem Fall, in dem zusätzlich zu dem virtuellen Bild der ersten virtuellen Bildanzeigeeinheit ein anderes virtuelles Bild angezeigt wird, und somit kann ein Nutzer das virtuelle Bild der ersten virtuellen Bildanzeigeeinheit gleichzeitig bestätigen, während sich der Nutzer auf das andere virtuelle Bild fokussiert. Dementsprechend kann eine Sichtbarkeit gesteigert werden und zudem kann ein Fahrer, der das virtuelle Bild bestätigt, sicher fahren.
  • Die oben beschriebene virtuelle Bildanzeigevorrichtung kann eine zweite virtuelle Bildanzeigeeinheit aufweisen, die eingerichtet ist, ein virtuelles Bild auf einer Fahrerseite des Fahrzeugs anzuzeigen. In diesem Fall zeigt die erste virtuelle Bildanzeigeeinheit das virtuelle Bild an, die zweite virtuelle Bildanzeigeeinheit zeigt das virtuelle Bild auf der Fahrerseite an, und somit kann das virtuelle Bild der ersten virtuellen Bildanzeigeeinheit durch das virtuelle Bild der zweiten virtuellen Bildanzeigeeinheit kompensiert werden. Das virtuelle Bild der ersten virtuellen Bildanzeigeeinheit wird durch das virtuelle Bild der zweiten virtuellen Bildanzeigeeinheit kompensiert, und somit wird die Wirkung anzuzeigender Informationen gesteigert und die Aufmerksamkeit des Insassen des Fahrzeugs kann erregt werden. Zwei virtuelle Bilder werden angezeigt, und somit kann bewirkt werden, dass Informationen einfacher erfasst werden.
  • Die zweite virtuelle Bildanzeigeeinheit kann eine menschliche Figur anzeigen, die eingerichtet ist, Informationen einhergehend mit der Anzeige der ersten virtuellen Bildanzeigeeinheit zu lesen. In diesem Fall zeigt die zweite virtuelle Bildanzeigeeinheit die menschliche Figur, welche Informationen liest, als das virtuelle Bild an, und somit können Informationen für den Insassen des Fahrzeugs in einer zugänglichen Weise bereitgestellt werden. Die zweite virtuelle Bildanzeigeeinheit zeigt die menschliche Figur an, die Informationen einhergehend mit der Anzeige der ersten virtuellen Bildanzeigeeinheit liest, und somit kann die Wirkung von Informationen weiter gesteigert werden.
  • Die erste virtuelle Bildanzeigeeinheit kann eine Bedieneinheit als das virtuelle Bild anzeigen und kann ferner einen Sensor, welcher eingerichtet ist, eine Position eines sich der Bedieneinheit annähernden Ziels zu detektieren, und eine Bestimmungseinheit aufweisen, welche eingerichtet ist, um auf Grundlage der durch den Sensor detektierten Position des Ziels zu bestimmen, ob die Bedieneinheit heruntergedrückt wurde. Die Dreheinheit kann den Sensor zusammen mit dem virtuellen Bildanzeigeabschnitt drehen. In der oben beschriebenen HMI erkennt die Emissions-/Detektionseinrichtung in dem Fall, in dem der Nutzer die als holographisches Bild angezeigte Eingabevorrichtung von der Richtung außer von vorne bedient, in Abhängigkeit der Position des Fingers des Nutzers zuweilen den Teil außer der Fingerspitze. Folglich erfolgt der Bedienvorgang zuweilen nicht wie von dem Nutzer beabsichtigt. Hierzu ist bei der oben beschriebenen virtuellen Bildanzeigevorrichtung der Sensor zusammen mit dem virtuellen Bildanzeigeabschnitt durch die Dreheinheit drehbar. Demnach kann die Position des Sensors jederzeit an der vorderen Position des virtuellen Bilds der ersten virtuellen Bildanzeigeeinheit liegen. In diesem Fall kann der Sensor das Ziel (z.B. die Fingerspitze des Nutzers) jederzeit erkennen, da der Sensor jederzeit an der vorderen Position des virtuellen Bilds der ersten virtuellen Bildanzeigeeinheit liegt, und der Nutzer kann die als das virtuelle Bild angezeigte Bedieneinheit zuverlässig bedienen. Daher erfolgt der Bedienvorgang wie von dem Nutzer beabsichtigt, und somit wird es dem Nutzer ermöglicht, wahrzunehmen, dass die Bedienbarkeit der Bedieneinheit hervorragend ist.
  • Der Sensor kann ein Tiefensensor sein, der auf einer gegenüberliegenden Seite des Ziels bereitgestellt ist, wobei die Bedieneinheit dazwischen angeordnet ist. In dem Fall, in dem eine Abweichung zwischen eine Annäherungsrichtung, in welcher sich das Ziel der Bedieneinheit annähert, und den durch die Koordinatenachsen des Tiefensensors angegebenen Richtungen auftritt, muss möglicherweise eine Koordinatenumwandlungsverarbeitung auf das Koordinatensystem des Tiefensensors angewendet werden, um die Position des Ziels korrekt zu detektieren. Hierzu ist in dem Fall, in dem der Tiefensensor auf der gegenüberliegenden Seite des Ziels bereitgestellt ist, wobei die Bedieneinheit dazwischen angeordnet ist, der Tiefensensor bei Betrachtung von der Bedieneinheit aus auf der gegenüberliegenden Seite des Ziels platziert, und somit kann die Last einer oben beschriebenen Koordinatenumwandlungsverarbeitung verringert werden. Dementsprechend können mit dem Bedienvorgang einhergehende Verarbeitungslasten verringert werden, und zudem kann die Erkennungsgenauigkeit des zu bedienenden Ziels weiter gesteigert werden.
  • Die erste virtuelle Bildanzeigeeinheit kann in einer Längsrichtung und einer seitlichen Richtung des Fahrzeugs in einem Inneren des Fahrzeugs bewegbar sein. In diesem Fall ist die erste virtuelle Bildanzeigeeinheit in der Längsrichtung und in der seitlichen Richtung bewegbar. Demnach kann das virtuelle Bild, welches aussieht, als ob das virtuelle Bild emporschwebt, für sämtliche Insassen des Fahrzeugs angezeigt werden, und somit können sämtliche Insassen das virtuelle Bild zuverlässig visuell erkennen. Dementsprechend kann die Sichtbarkeit des virtuellen Bilds für den Insassen des Fahrzeugs weiter gesteigert werden.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß der vorliegenden Offenbarung kann eine virtuelle Bildanzeigevorrichtung bereitgestellt werden, die eine Sichtbarkeit verbessern kann.
  • Figurenliste
    • 1 ist eine Draufsicht zur Darstellung eines Beispielfahrzeugs, in welchem eine virtuelle Bildanzeigevorrichtung gemäß einer Ausführungsform verbaut ist.
    • 2 ist eine perspektivische Ansicht zur Darstellung der virtuellen Bildanzeigevorrichtung in 1.
    • 3 ist ein schematisches Blockdiagramm zur Darstellung der virtuellen Bildanzeigevorrichtung in 1.
    • 4 ist ein konzeptionelles Schaubild zur Darstellung eines durch die virtuelle Bildanzeigevorrichtung in 1 angezeigten virtuellen Bilds.
    • 5 ist eine perspektivische Ansicht zur Darstellung der ersten virtuellen Bildanzeigeeinheit der virtuellen Bildanzeigevorrichtung in 1 bei Betrachtung von oben.
    • 6 ist eine Draufsicht zur Darstellung der ersten virtuellen Bildanzeigeeinheit und der zweiten virtuellen Bildanzeigeeinheit der virtuellen Bildanzeigevorrichtung in 1.
    • 7 ist eine Draufsicht zur Darstellung eines Beispielzustands, in welchem die erste virtuelle Bildanzeigeeinheit in 6 bedient wird.
    • 8 ist eine Draufsicht zur Darstellung eines weiteren Beispielzustands, in welchem die erste virtuelle Bildanzeigeeinheit in 6 bedient wird.
  • Beschreibung von Ausführungsformen
  • Im Folgenden wird eine Ausführungsform einer virtuellen Bildanzeigevorrichtung gemäß der vorliegenden Offenbarung unter Bezugnahme auf die Zeichnungen beschrieben. In der Beschreibung der Zeichnungen sind dieselben oder entsprechenden Komponenten mit denselben Bezugszeichen gekennzeichnet und auf die gleichlautende Beschreibung wird zweckmäßig verzichtet. Zum leichten Verständnis sind die Zeichnungen mitunter teilweise vereinfacht oder übermäßig groß dargestellt, und Abmessungen, Winkel und jedwede sonstigen Parameter sind nicht auf die in den Zeichnungen dargestellten beschränkt.
  • Wie in 1 dargestellt ist eine virtuelle Bildanzeigevorrichtung 10 gemäß der vorliegenden Ausführungsform eine Informationsanzeigevorrichtung, die eine HMI (Mensch-Maschine-Schnittstelle) zwischen einem Fahrzeug 1 und einem Insassen des Fahrzeugs 1 erstellt. In der vorliegenden Beschreibung umfasst der Begriff „Insasse“ eine Person in dem Fahrzeug 1 und einen Nutzer U der virtuellen Bildanzeigevorrichtung 10 (siehe 4), einschließlich eines Fahrers, der das Fahrzeug 1 fährt und dabei auf einem Fahrersitz 4 sitzt, und einer Person außer dem Fahrer, die auf einem Beifahrersitz 2 oder einem Rücksitz 3 sitzt.
  • Durch die virtuelle Bildanzeigevorrichtung 10 angezeigte Informationen umfassen zum Beispiel Fahrzeuginformationen wie etwa Geschwindigkeitsinformationen in Bezug auf das Fahrzeug 1, Straßeninformationen wie etwa Informationen bezüglich Routen zu Zielorten und Risikoinformationen, einschließlich des Vorhandenseins oder Nichtvorhandenseins eines sich dem Fahrzeug 1 annähernden Fußgängers, und können ferner eine andere Information umfassen. Die virtuelle Bildanzeigevorrichtung 10 stellt umfassende Informationen für den Insassen des Fahrzeugs 1 in einer benutzerfreundlicheren Form bereit und somit kann bewirkt werden, dass Informationen einfacher erfasst werden.
  • 2 ist eine perspektivische Ansicht zur Darstellung der virtuellen Bildanzeigevorrichtung 10. Wie in den 1 und 2 dargestellt weist die virtuelle Bildanzeigevorrichtung 10 eine erste virtuelle Bildanzeigeeinheit 11, eine zweite virtuelle Bildanzeigeeinheit 21 und eine Bildanzeigeeinheit 30 auf. Zum Beispiel kann die erste virtuelle Bildanzeigeeinheit 11 von der zweiten virtuellen Bildanzeigeeinheit 21 und der Bildanzeigeeinheit 30 lösbar sein und die erste virtuelle Bildanzeigeeinheit 11 kann in der Längsrichtung und der seitlichen Richtung des Fahrzeugs 1 bewegbar sein. In diesem Fall können dem Insassen außer dem Fahrer des Fahrzeugs 1 Informationen direkt angezeigt werden.
  • Die virtuelle Bildanzeigevorrichtung 10 ist zum Beispiel auf einer Bezugslinie B1 platziert, welche sich in der Längsrichtung des Fahrzeugs 1 in der Mitte des Fahrzeugs 1 in der seitlichen Richtung erstreckt. Das heißt, die virtuelle Bildanzeigevorrichtung 10 ist zwischen dem Beifahrersitz 2 und dem Fahrersitz 4 platziert, oder ist aus Sicht des auf dem Fahrersitz 4 sitzenden Fahrers an einer Position vorne und links platziert. Die virtuelle Bildanzeigevorrichtung 10 weist einen ersten Anzeigeeinheitsbereich 10A, auf dem die erste virtuelle Bildanzeigeeinheit 11 und die Bildanzeigeeinheit 30 bereitgestellt sind, und einen zweiten Anzeigeeinheitsbereich 10B auf, auf dem die zweite virtuelle Bildanzeigeeinheit 21 bereitgestellt ist.
  • In dem ersten Anzeigeeinheitsbereich 10A ist die erste virtuelle Bildanzeigeeinheit 11 auf der Hinterseite der Bildanzeigeeinheit 30 (auf der linken Seite in 2, auf der Fahrerseite) bereitgestellt. Der erste Anzeigeeinheitsbereich 10A weist einen flachen Teil 10a, der sich sowohl in der Längsrichtung als auch in der seitlichen Richtung erstreckt, und einen Neigungsteil 10b auf, der sich auf der Vorderseite des flachen Teils 10a diagonal nach oben und diagonal nach vorne erstreckt. Der zweite Anzeigeeinheitsbereich 10B weist zudem einen analogen flachen Teil 10a und einen analogen Neigungsteil 10b auf.
  • Die erste virtuelle Bildanzeigeeinheit 11 ist auf dem flachen Teil 10a des ersten Anzeigeeinheitsbereichs 10A bereitgestellt, und die zweite virtuelle Bildanzeigeeinheit 21 ist auf dem flachen Teil 10a des zweiten Anzeigeeinheitsbereichs 10B bereitgestellt. Die Bildanzeigeeinheit 30 weist eine Anzeige 31 auf, die auf dem Neigungsteil 10b des ersten Anzeigeeinheitsbereichs 10A bereitgestellt ist. Auf der Anzeige 31 werden zum Beispiel die Fahrzeuginformationen und/oder die Straßeninformationen und/oder die Risikoinformationen angezeigt.
  • Wie in den 2 und 3 schematisch dargestellt, zeigt die erste virtuelle Bildanzeigeeinheit 11 eine Bedieneinheit 12 als virtuelles Bild K1 in der Luft aus Sicht des Nutzers U der virtuellen Bildanzeigevorrichtung 10 auf der nahen Seite an, und detektiert ein Ziel F, das sich der Bedieneinheit 12 annähert. Die Bedieneinheit 12 bezieht sich beispielsweise auf einen Bedienschalter, der in dem Fahrzeug 1 verbaute Vorrichtungen (z.B. eine an dem Fahrzeug befindliche Rückkamera, eine Klimaanlage und jedwede sonstige Vorrichtung) bedienen kann, die als Schaltflächen wie etwa Schalter dargestellt sind, als das virtuelle Bild K1. Das Ziel F bezieht sich auf ein Objekt, welches die Vorrichtungen durch den Bedienvorgang der Bedieneinheit 12 bedient und sich zum Beispiel auf einen Finger des Nutzers U oder ein stabartiges Objekt wie etwa einen Stift bezieht.
  • Die erste virtuelle Bildanzeigeeinheit 11 detektiert den Bedienvorgang der Bedieneinheit 12 durch das Ziel F auf Grundlage der Position des detektierten Ziels F und bedient die Vorrichtungen auf Grundlage der detektierten Bedienvorgänge. Beispiele der Bedienvorgänge umfassen den Druckbedienvorgang, den Tippbedienvorgang oder den Gleitbedienvorgang der Bedieneinheit 12 durch das Ziel F. Die Typen von Bedienvorgängen sind jedoch nicht konkret beschränkt. In der vorliegenden Ausführungsform ist der Druckbedienvorgang als der Bedienvorgang der Bedieneinheit 12 beispielhaft dargestellt. Es sei angemerkt, dass der Druckbedienvorgang zwei Bedienvorgänge, den Bedienvorgang des Herunterdrückens der Bedieneinheit 12 und den Bedienvorgang des Hochdrückens der Bedieneinheit 12 umfasst.
  • Die erste virtuelle Bildanzeigeeinheit 11 weist zum Beispiel ein Luftbilderzeugungselement 13, eine Flüssigkristalltafel 14, einen Tiefensensor (Sensor) 15 und einen Controller 16 auf. Das Luftbilderzeugungselement 13 und die Flüssigkristalltafel 14 entsprechen dem virtuellen Bildanzeigeabschnitt. Das Luftbilderzeugungselement 13 zeigt die Bedieneinheit 12 als das virtuelle Bild K1 in der Luft an. Das Luftbilderzeugungselement 13 ist zum Beispiel eine AI-Platte (Luftbildgebungsplatte) (eingetragenes Markenzeichen) und die AI-Platte wird beispielsweise unter Verwendung einer in dem japanischen Patent Nr. 4865088 beschriebenen Technik angefertigt. Das Luftbilderzeugungselement 13 ist schräg zu der Flüssigkristalltafel 14 geneigt. Es sei angemerkt, dass der Neigungswinkel des Luftbilderzeugungselements 13 zu der Flüssigkristalltafel 14 variabel sein kann. Die Flüssigkristalltafel 14 zeigt Bilder auf Grundlage von Signalen an, welche von dem Controller 16 ausgegeben werden.
  • 4 ist ein konzeptionelles Schaubild zur Darstellung des durch die erste virtuelle Bildanzeigeeinheit 11 angezeigten virtuellen Bilds K1. Wie in 4 dargestellt zeigt das Luftbilderzeugungselement 13 das auf der Flüssigkristalltafel 14 angezeigte Bild als das virtuelle Bild K1 an der Position auf der Seite des Nutzers U des virtuellen Bildanzeigeabschnitts (des Luftbilderzeugungselements 13 und der Flüssigkristalltafel 14) an. Zum Beispiel wird ein Lichtstrahl LI, der von der Flüssigkristalltafel 14 ausgeht und in das Luftbilderzeugungselement 13 eintritt, auf dem Luftbilderzeugungselement 13 zweimal reflektiert und bildet das virtuelle Bild K1 aus Sicht des Nutzers U in einem Raum von dem Luftbilderzeugungselement 13 aus auf der nahen Seite.
  • Wie in 2 dargestellt, ist die als das virtuelle Bild K1 gebildete Bedieneinheit 12 ein Bedienbildschirm, auf welchem beispielsweise die an dem Fahrzeug befindliche Rückkamera bedient werden kann, und die Schaltflächen der Bedieneinheit 12 werden gedrückt, um die Abbildungsposition der an dem Fahrzeug befindlichen Rückkamera umzuschalten. Zum Beispiel weist die Bedieneinheit 12 auf eine erste virtuelle Bildschaltfläche 12a, welche die linke Seite des Fahrzeugs 1 abbildet, eine zweite virtuelle Bildschaltfläche 12b, welche die Hinterseite des Fahrzeugs 1 abbildet, und eine dritte virtuelle Bildschaltfläche 12c, welche die rechte Seite des Fahrzeugs 1 abbildet.
  • Wie in 3 dargestellt ist der Tiefensensor 15 auf der gegenüberliegenden Seite des Ziels F bereitgestellt, wobei die Bedieneinheit 12 dazwischen angeordnet ist. Zum Beispiel ist der Tiefensensor 15 auf einer virtuellen geraden Linie, welche die Bedieneinheit 12 mit dem Ziel F verbindet, d.h. an der vorderen Position der Bedieneinheit 12, welche das virtuelle Bild K1 ist, bereitgestellt. Der Tiefensensor 15 erlangt Entfernungsbilddaten, einschließlich Informationen bezüglich der Position des Ziels F (der zweidimensionalen Position) auf einer Ebene, welche vertikal zu der virtuellen geraden Linie liegt, und Informationen bezüglich einer Entfernung D1 von dem Tiefensensor 15 zu dem Ziel F. Der Tiefensensor 15 gibt die erlangten Entfernungsbilddaten in einem vorbestimmten Zeitraum (z.B. 1/30 Sekunde) an den Controller 16 aus.
  • Als konkretes Beispiel bringt der Tiefensensor 15 einen Lichtstrahl (z.B. Infrarotstrahlen) auf Punkte an dem in dem Abbildungsbereich, aufweisend das Ziel F, vorhandenen Objekt auf und empfängt Lichtstrahlen, welche von den Punkten an dem Objekt reflektiert wurden. Der Tiefensensor 15 misst dann Entfernungen von dem Tiefensensor 15 zu den Punkten an dem Objekt auf Grundlage der empfangenen Lichtstrahlen und gibt die gemessenen Entfernungen an jedem Pixel aus. Die Entfernungen von dem Tiefensensor 15 zu den Punkten an dem Objekt können zum Beispiel durch ein Lichtcodierungsverfahren gemessen werden.
  • Bei dem Lichtcodierungsverfahren bringt der Tiefensensor 15 einen Lichtstrahl auf die Punkte an dem in dem Abbildungsbereich, aufweisend das Ziel F, vorhandenen Objekt in einem zufälligen Punktmuster auf. Der Tiefensensor 15 empfängt dann Lichtstrahlen, die von den Punkten an dem Objekt reflektiert wurden, detektiert eine Verzerrung der Muster der reflektierten Lichtstrahlen, und misst die Entfernungen von dem Tiefensensor 15 zu den Punkten an dem Objekt. Der Tiefensensor 15 detektiert Informationen bezüglich der zweidimensionalen Positionen der Punkte an dem Objekt und Informationen bezüglich der Entfernungen von dem Tiefensensor 15 zu den Punkten an dem Objekt als Vielzahl von Pixeln und gibt die detektierte Vielzahl von Pixeln an den Controller 16 aus.
  • Der Controller 16 kann mit der Flüssigkristalltafel 14 und dem Tiefensensor 15 kommunizieren. Der Controller 16 weist zum Beispiel auf eine CPU (zentrale Verarbeitungseinheit), die Programme ausführt, eine Speichereinheit wie etwa einen ROM (Festwertspeicher) und RAM (Direktzugriffsspeicher), eine Eingabe-Ausgabe-Einheit und einen Treiber auf. Die Funktionen des Controllers 16 werden implementiert, indem die Eingabe-Ausgabe-Einheit unter Steuerung durch die CPU bedient wird und Daten in der Speichereinheit gelesen und geschrieben werden. Die Form des Controllers 16 und die Stelle, an der der Controller 16 platziert ist, sind nicht konkret beschränkt.
  • Der Controller 16 weist eine Bestimmungseinheit 16a auf, die bestimmt, ob die Bedieneinheit 12 bedient wurde. Die Bestimmungseinheit 16a führt eine Bestimmung auf Grundlage der durch den Tiefensensor 15 detektierten Position des Ziels F durch. Die Bestimmungseinheit 16a bestimmt auf Grundlage der von dem Tiefensensor 15 eingegebenen Positionsdaten, ob der Druckbedienvorgang der Bedieneinheit 12 durch das Ziel F erfolgt ist. Die Bestimmungseinheit 16a bestimmt, ob die Entfernung D1 von dem Tiefensensor 15 zu dem Ziel F ein Schwellwert T oder geringer ist.
  • Wenn die Bestimmungseinheit 16a bestimmt, dass die Entfernung D1 der Schwellwert T oder geringer ist, bestimmt die Bestimmungseinheit 16a, dass das Ziel F eine virtuelle Druckbestimmungsfläche S erreicht hat und die Bedieneinheit 12 heruntergedrückt wurde. Die Druckbestimmungsfläche S ist eine virtuelle Fläche, welche in einem Teil gebildet ist, in dem die Entfernung von dem Tiefensensor 15 konstant ist, und ist von der Bedieneinheit 12 aus an der benachbarten Position bereitgestellt. Die Position der Druckbestimmungsfläche S kann mit der Position der Bedieneinheit 12 übereinstimmen, oder kann eine von der Bedieneinheit 12 um eine vorbestimmte Entfernung beabstandete Position sein. In der vorliegenden Ausführungsform stimmt die Position der Druckbestimmungsfläche S mit der Position der Bedieneinheit 12 überein.
  • Analog zu der ersten virtuellen Bildanzeigeeinheit 11 weist die zweite virtuelle Bildanzeigeeinheit 21 ein Luftbilderzeugungselement 13, eine Flüssigkristalltafel 14, einen Tiefensensor 15 sowie einen Controller 16 auf. Da die Ausgestaltung der zweiten virtuellen Bildanzeigeeinheit 21 analog zu der Ausgestaltung der ersten virtuellen Bildanzeigeeinheit 11 ist, wird im Folgenden auf die mit der Ausgestaltung der ersten virtuellen Bildanzeigeeinheit 11 gleichlautende Beschreibung verzichtet. Die zweite virtuelle Bildanzeigeeinheit 21 stellt zum Beispiel Informationen bereit, die Informationen zugeordnet sind, welche durch die erste virtuelle Bildanzeigeeinheit 11 oder die Bildanzeigeeinheit 30 angezeigt werden. Die zweite virtuelle Bildanzeigeeinheit 21 kann Inhalte anzeigen, welche die Anzeige der ersten virtuellen Bildanzeigeeinheit 11 oder der Bildanzeigeeinheit 30 unterstützen.
  • Wie in 2 dargestellt, zeigt die zweite virtuelle Bildanzeigeeinheit 21 eine menschliche Figur H, die mit dem Insassen des Fahrzeugs 1 spricht, als virtuelles Bild K2 an. Die zweite virtuelle Bildanzeigeeinheit 21 zeigt die menschliche Figur H an und somit können Informationen für den Insassen des Fahrzeugs 1 in einer zugänglichen Weise bereitgestellt werden, und zudem können Informationen für den Insassen zuverlässiger bereitgestellt werden. Die virtuelle Bildanzeigevorrichtung 10 weist eine Tonausgabeeinheit 22 auf, die Töne ausgibt, welche der Anzeige des virtuellen Bilds K2 durch die zweite virtuelle Bildanzeigeeinheit 21 zugeordnet sind.
  • Die Tonausgabeeinheit 22 gibt zum Beispiel die Stimme der menschlichen Figur H aus. Die Tonausgabeeinheit 22 kann die Stimme der menschlichen Figur H ausgeben, welche durch die erste virtuelle Bildanzeigeeinheit 11 oder die Bildanzeigeeinheit 30 angezeigte Informationen liest. Die Tonausgabe der Tonausgabeeinheit 22 ist als die Stimme der menschlichen Figur H der Anzeige der ersten virtuellen Bildanzeigeeinheit 11 oder der Bildanzeigeeinheit 30 zugeordnet, und somit können ferner zuverlässige Informationen durch visuelle Wahrnehmung und auditive Wahrnehmung bereitgestellt werden.
  • 5 ist eine perspektivische Ansicht zur Darstellung der vergrößerten ersten virtuellen Bildanzeigeeinheit 11. Wie in den 2 und 5 dargestellt, weist die erste virtuelle Bildanzeigeeinheit 11 ein bewegbares Modul 17 auf, welches den virtuellen Bildanzeigeabschnitt (das Luftbilderzeugungselement 13 und die Flüssigkristalltafel 14) bewegbar macht. Das bewegbare Modul 17 weist eine Drehbedieneinheit 18 und eine Dreheinheit 19 auf, welche das Luftbilderzeugungselement 13 und die Flüssigkristalltafel 14 enthält. Die Dreheinheit 19 dreht sich mit der Bedienung der Drehbedieneinheit 18.
  • Zum Beispiel ist die Drehbedieneinheit 18 auf der Hinterseite der Dreheinheit 19 auf dem flachen Teil 10a der virtuellen Bildanzeigevorrichtung 10 bereitgestellt und die Dreheinheit 19 dreht sich durch die Drehung der Drehbedieneinheit 18 durch den Nutzer U. Beispielsweise ist die Drehbedieneinheit 18 in einer Säulenform und kann um eine Achse B2 der Drehbedieneinheit 18 gedreht werden, welche sich in einer vertikalen Richtung erstreckt. Die Dreheinheit 19 weist einen oberen Flächenteil 19a auf, von welchem das Luftbilderzeugungselement 13 freiliegt. Der obere Flächenteil 19a ist zum Beispiel in einer Kreisform und dreht sich um eine Achse B3 des oberen Flächenteils 19a, welche sich in der vertikalen Richtung erstreckt.
  • Wie in 6 dargestellt dreht sich der obere Flächenteil 19a der Dreheinheit 19 und somit drehen sich ebenso der virtuelle Bildanzeigeabschnitt und das durch die erste virtuelle Bildanzeigeeinheit 11 angezeigte virtuelle Bild K1. Somit dreht die Dreheinheit 19 den virtuellen Bildanzeigeabschnitt in einem Bereich, in welchem das virtuelle Bild K1 durch den Insassen des Fahrzeugs 1 visuell erkennbar ist. Hierbei ist die Formulierung „der virtuelle Bildanzeigeabschnitt wird in dem Bereich gedreht, in welchem das virtuelle Bild durch den Insassen visuell erkennbar ist“ nicht auf eine Drehung des virtuellen Bildanzeigeabschnitts lediglich in dem Bereich, in welchem das virtuelle Bild durch den Insassen visuell erkennbar ist, beschränkt und umfasst ebenso eine Drehung des virtuellen Bildanzeigeabschnitts über den Bereich hinaus. Das heißt, die Dreheinheit 19 kann den virtuellen Bildanzeigeabschnitt über den Bereich, in welchem das virtuelle Bild K1 durch den Insassen visuell erkennbar ist, hinaus drehen.
  • Das durch die erste virtuelle Bildanzeigeeinheit 11 angezeigte virtuelle Bild K1 weist einen visuellen Erkennungswinkel θ1 auf, welcher der Neigungswinkel zu einer Bezugslinie L3 ist, welche sich von der Mitte des virtuellen Bilds K1 in der vorderen Richtung erstreckt, und der visuelle Erkennungswinkel θ1 beträgt zum Beispiel ±20°. Das durch die zweite virtuelle Bildanzeigeeinheit 21 angezeigte virtuelle Bild K2 weist einen visuellen Erkennungswinkel θ2 auf, welcher der Neigungswinkel zu einer Bezugslinie L4 ist, welche sich von der Mitte des virtuellen Bilds K2 in der vorderen Richtung erstreckt, und der visuelle Erkennungswinkel θ2 beträgt zum Beispiel ±20°.
  • Daher verfehlt in dem Fall, in welchem angenommen wird, dass das durch die erste virtuelle Bildanzeigeeinheit 11 angezeigte virtuelle Bild K1 in die Längsrichtung des Fahrzeugs 1 gerichtet ist und sich ein Auge E des Fahrers des Fahrzeugs 1 auf das virtuelle Bild K2 der zweiten virtuellen Bildanzeigeeinheit 21 fokussiert, der Fahrer die Bestätigung des virtuellen Bilds K1. In der vorliegenden Ausführungsform ist das virtuelle Bild K1 jedoch mit der Drehung der Dreheinheit 19 drehbar und somit können sowohl das virtuelle Bild K1 als auch das virtuelle Bild K2 durch das Auge E des Fahrers bestätigt werden.
  • Wie in den 7 und 8 dargestellt ist der Tiefensensor 15 zum Beispiel auf dem oberen Flächenteil 19a der Dreheinheit 19 bereitgestellt und dreht sich zusammen mit der Dreheinheit 19. In dem Fall, in welchem angenommen wird, dass der Tiefensensor sich nicht zusammen mit der Dreheinheit dreht und der Tiefensensor feststehend ist, ist der Tiefensensor nicht an der vorderen Position der Bedieneinheit (des virtuellen Bilds) bereitgestellt. Demnach erfolgt der Bedienvorgang zuweilen nicht wie von dem Nutzer beabsichtigt, da der Tiefensensor zuweilen einen Teil erkennt, welcher keine Fingerspitze ist, obwohl der Nutzer die Bedieneinheit unter Verwendung des Fingers von vorne bedient.
  • In der vorliegenden Ausführungsform dreht sich der Tiefensensor 15 jedoch zusammen mit der Dreheinheit 19 und wenn der Nutzer U die Bedieneinheit 12 durch das Ziel F von vorne bedient, kann unterbunden werden, dass der Tiefensensor 15 die Position erkennt, welche nicht das Spitzenende des Ziels F ist. Daher erkennt der Tiefensensor 15 die Position des Spitzenendes des Ziels F und somit kann der Bedienvorgang gemäß der Absicht des Nutzers U erzielt werden.
  • Als nächstes wird die Funktionsweise und Wirkung der virtuellen Bildanzeigevorrichtung 10 gemäß der vorliegenden Ausführungsform ausführlich beschrieben. In der virtuellen Bildanzeigevorrichtung 10 kann der virtuelle Bildanzeigeabschnitt der ersten virtuellen Bildanzeigeeinheit 11 Informationen als das virtuelle Bild K1 anzeigen und somit können Informationen angezeigt werden, als ob die Informationen emporschweben. Die Informationen werden wie oben beschrieben angezeigt, als ob die Informationen emporschweben, und somit kann die Sichtbarkeit von Informationen gesteigert werden. Die erste virtuelle Bildanzeigeeinheit 11 weist die Dreheinheit 19 auf, welche den virtuellen Bildanzeigeabschnitt in dem Bereich dreht, in welchem das virtuelle Bild K1 durch den Insassen visuell erkennbar ist.
  • Daher dreht wie in 6 dargestellt in dem Fall, in welchem das virtuelle Bild K2, welches ein anderes virtuelles Bild ist, zusätzlich zu dem virtuellen Bild K1 der ersten virtuellen Bildanzeigeeinheit 11 angezeigt wird, die Dreheinheit 19 der ersten virtuellen Bildanzeigeeinheit 11 den virtuellen Bildanzeigeabschnitt und somit kann der Nutzer U das virtuelle Bild K1 der ersten virtuellen Bildanzeigeeinheit 11 gleichzeitig bestätigen, während sich der Nutzer U auf das virtuelle Bild K2 fokussiert, welches ein anderes virtuelles Bild ist. Dementsprechend kann eine Sichtbarkeit gesteigert werden und zudem kann der Fahrer, welcher die virtuellen Bilder K1 und K2 bestätigt, sicher fahren.
  • Die virtuelle Bildanzeigevorrichtung 10 weist die zweite virtuelle Bildanzeigeeinheit 21 auf, welche das virtuelle Bild K2 auf der Fahrerseite (der Seite des Nutzers U) des Fahrzeugs 1 anzeigt. Die erste virtuelle Bildanzeigeeinheit 11 zeigt das virtuelle Bild K1 an und zudem zeigt die zweite virtuelle Bildanzeigeeinheit 21 das virtuelle Bild K2 auf der Fahrerseite an und somit kann das virtuelle Bild K1 der ersten virtuellen Bildanzeigeeinheit 11 unter Verwendung des virtuellen Bilds K2 der zweiten virtuellen Bildanzeigeeinheit 21 kompensiert werden. Das virtuelle Bild K1 der ersten virtuellen Bildanzeigeeinheit 11 wird unter Verwendung des virtuellen Bilds K2 der zweiten virtuellen Bildanzeigeeinheit 21 kompensiert und somit wird die Wirkung anzuzeigender Informationen gesteigert und die Aufmerksamkeit des Insassen des Fahrzeugs 1 kann erregt werden. Zwei virtuelle Bilder K1 und K2 werden angezeigt und somit kann bewirkt werden, dass Informationen einfacher erfasst werden.
  • Wie in 2 dargestellt zeigt die zweite virtuelle Bildanzeigeeinheit 21 die menschliche Figur H an, die Informationen einhergehend mit der Anzeige der ersten virtuellen Bildanzeigeeinheit 11 liest. Die zweite virtuelle Bildanzeigeeinheit 21 zeigt die menschliche Figur H, die Informationen liest, als das virtuelle Bild K2 an, und somit können Informationen für den Insassen des Fahrzeugs 1 in einer zugänglichen Weise bereitgestellt werden. Die zweite virtuelle Bildanzeigeeinheit 21 zeigt die menschliche Figur H an, die Informationen einhergehend mit der Anzeige der ersten virtuellen Bildanzeigeeinheit 11 liest, und somit kann die Wirkung von Informationen weiter gesteigert werden.
  • Die erste virtuelle Bildanzeigeeinheit 11 zeigt die Bedieneinheit 12 als das virtuelle Bild K1 an. Die erste virtuelle Bildanzeigeeinheit 11 weist ferner auf den Tiefensensor 15, welcher die Position des sich der Bedieneinheit 12 annähernden Ziels F detektiert, und die Bestimmungseinheit 16a, welche auf Grundlage der durch den Tiefensensor 15 detektierten Position des Ziels F bestimmt, ob die Bedieneinheit 12 heruntergedrückt wurde. Die Dreheinheit 19 dreht den Tiefensensor 15 zusammen mit dem virtuellen Bildanzeigeabschnitt.
  • Daher kann die Position des Tiefensensors 15 jederzeit an der vorderen Position des virtuellen Bilds K1 der ersten virtuellen Bildanzeigeeinheit 11 festgelegt werden. In diesem Fall liegt der Tiefensensor 15 jederzeit an der vorderen Position des virtuellen Bilds K1 der ersten virtuellen Bildanzeigeeinheit 11 und somit kann der Tiefensensor 15 das Ziel F jederzeit erkennen und der Nutzer U kann die Bedieneinheit 12, welche als das virtuelle Bild K1 angezeigt wird, zuverlässig bedienen. Dementsprechend erfolgt der Bedienvorgang gemäß der Absicht des Nutzers U und somit wird es dem Nutzer U ermöglicht, wahrzunehmen, dass die Bedienbarkeit der Bedieneinheit 12 hervorragend ist.
  • Der Tiefensensor 15 ist auf der gegenüberliegenden Seite des Ziels F bereitgestellt, wobei die Bedieneinheit 12 dazwischen angeordnet ist. In dem Fall, in dem eine Abweichung zwischen einer Annäherungsrichtung, in welcher sich das Ziel F der Bedieneinheit 12 annähert, und durch die Koordinatenachsen des Tiefensensors 15 angegebenen Richtungen auftritt, muss möglicherweise eine Koordinatenumwandlungsverarbeitung des Koordinatensystems des Tiefensensors 15 erfolgen, um die Position des Ziels F korrekt zu detektieren. Hierzu ist in dem Fall, in welchem der Tiefensensor 15 auf der gegenüberliegenden Seite des Ziels F bereitgestellt ist, wobei die Bedieneinheit 12 dazwischen angeordnet ist, der Tiefensensor 15 bei Betrachtung von der Bedieneinheit 12 aus auf der gegenüberliegenden Seite des Ziels F platziert, und somit kann die Last einer oben beschriebenen Koordinatenumwandlungsverarbeitung verringert werden. Dementsprechend können mit dem Bedienvorgang einhergehende Verarbeitungslasten verringert werden und zudem kann die Erkennungsgenauigkeit des Ziels F durch den Tiefensensor 15 weiter gesteigert werden.
  • Wie in 1 dargestellt kann die erste virtuelle Bildanzeigeeinheit 11 in der Längsrichtung und der seitlichen Richtung des Fahrzeugs 1 in dem Inneren des Fahrzeugs 1 bewegbar sein. In diesem Fall ist die erste virtuelle Bildanzeigeeinheit 11 in der Längsrichtung und in der seitlichen Richtung bewegbar. Demnach kann das virtuelle Bild K1, welches aussieht, als ob das virtuelle Bild K1 emporschwebt, sämtlichen Insassen des Fahrzeugs 1 angezeigt werden und somit können sämtliche Insassen das virtuelle Bild K1 zuverlässig visuell erkennen. Daher kann die Sichtbarkeit des virtuellen Bilds K1 für den Insassen des Fahrzeugs 1 weiter gesteigert werden. Zudem wird ermöglicht, dass sämtliche Insassen des Fahrzeugs 1 die Bedieneinheit 12 bedienen.
  • Im Folgenden wird eine virtuelle Bildanzeigevorrichtung 10 gemäß einer beispielhaften Modifikation beschrieben. Die virtuelle Bildanzeigevorrichtung 10 gemäß der beispielhaften Modifikation kann sämtliche Ausgestaltungen der virtuellen Bildanzeigevorrichtung 10 gemäß der vorangehenden Ausführungsform aufweisen oder kann einen Teil der Ausgestaltung der virtuellen Bildanzeigevorrichtung 10 gemäß der vorangehenden Ausführungsform aufweisen. Eine erste virtuelle Bildanzeigeeinheit 11 der virtuellen Bildanzeigevorrichtung 10 gemäß der beispielhaften Modifikation detektiert das Gesicht des Nutzers U (siehe 4). Die erste virtuelle Bildanzeigeeinheit 11 bedient Vorrichtungen auf Grundlage der Bewegung des Gesichts des detektierten Nutzers U.
  • Konkret erlangt der oben beschriebene Tiefensensor 15 Informationen bezüglich der Position des Gesichts des Nutzers U und der Tiefensensor 15 gibt die Informationen bezüglich der Position des erlangten Gesichts an den Controller 16 aus. Der Controller 16 bestimmt zum Beispiel, ob sich das Gesicht des Nutzers U um ein gewisses Maß oder mehr bewegt hat. Zu diesem Zeitpunkt, wenn der Controller 16 bestimmt, dass sich das Gesicht um ein gewisses Maß oder mehr bewegt hat, können zum Beispiel die Vorrichtungen des Fahrzeugs bedient werden. Wenn der Controller 16 bestimmt, dass sich das Gesicht um ein gewisses Maß oder mehr bewegt hat, kann ein Teil der virtuellen Bildanzeigevorrichtung 10 bedient werden (z.B. Schwingungen).
  • Beispielsweise dreht sich die Dreheinheit 19 um ein vorbestimmtes Maß, wenn der Controller 16 bestimmt, dass sich das Gesicht um ein gewisses Maß oder mehr bewegt hat. Wie oben beschrieben dreht sich die Dreheinheit 19, wenn der Controller 16 bestimmt, dass sich das Gesicht um ein gewisses Maß oder mehr bewegt hat, und somit wird es dem Nutzer U ermöglicht, das virtuelle Bild der ersten virtuellen Bildanzeigeeinheit 11 selbst in dem Fall zu bestätigen, in welchem der Nutzer U das Gesicht bewegt hat. Daher kann eine Sichtbarkeit gesteigert werden und zudem kann der Fahrer, welcher das virtuelle Bild bestätigt, sicher fahren. Die Dreheinheit 19 dreht sich, wenn der Controller 16 bestimmt, dass sich das Gesicht um ein gewisses Maß bewegt hat, und somit ist es möglich, den Nutzer U dazu zu bringen, aufmerksam zu sein. Zum Beispiel kann unterbunden werden, dass sich das Gesicht des Nutzers U, der der Fahrer ist, bewegt, so dass es wegsieht, oder dass der Nutzer U döst. Es sei angemerkt, dass eine Zielvorrichtung, die durch den Controller 16 zu bedienen ist, wenn der Controller 16 bestimmt, dass sich das Gesicht um ein gewisses Maß oder mehr bewegt hat, eine Vorrichtung außer der Dreheinheit 19 sein kann.
  • Wie oben beschrieben sind die Ausführungsform und die beispielhafte Modifikation der virtuellen Bildanzeigevorrichtung gemäß der vorliegenden Offenbarung beschrieben. Die vorliegende Offenbarung ist jedoch nicht auf die Ausführungsform und die beispielhafte Modifikation beschränkt, welche oben beschrieben sind, und die vorliegende Offenbarung kann innerhalb des Rahmens, in welchem der in Ansprüchen beschriebene Kerninhalt nicht verändert wird, weiter modifiziert werden oder auf andere Ausgestaltungen angewendet werden. Das heißt, die Ausgestaltungen der Komponenten der virtuellen Bildanzeigevorrichtung sind innerhalb des Rahmens, in welchem der Kerninhalt von Ansprüchen nicht verändert wird, zweckmäßig veränderbar.
  • Zum Beispiel ist in der vorangehenden Ausführungsform ein Beispiel beschrieben, in welchem das Luftbilderzeugungselement 13, welches Bilder in der Luft bildet, die AI-Platte ist. Das Luftbilderzeugungselement kann jedoch ein Element außer der AI-Platte sein. Zum Beispiel kann das Luftbilderzeugungselement ein Element zur Erzeugung eines dreidimensionalen Bilds sein, welches ein dreidimensionales virtuelles Bild wie etwa ein Hologramm auf der Seite des Nutzers U bildet.
  • In der vorangehenden Ausführungsform ist die erste virtuelle Bildanzeigeeinheit 11, aufweisend das Luftbilderzeugungselement 13, die Flüssigkristalltafel 14 und den Tiefensensor 15 beschrieben. Die Formen, Größen, Anzahlen und Platzierungsformen des Luftbilderzeugungselements, der Flüssigkristalltafel und des Tiefensensors sind jedoch zweckmäßig veränderbar. Dasselbe gilt auch für die zweite virtuelle Bildanzeigeeinheit 21.
  • In der vorangehenden Ausführungsform ist ein Beispiel beschrieben, in dem der Tiefensensor 15 die Entfernungen von dem Tiefensensor 15 zu den Punkten an dem Objekt durch das Lichtcodierungsverfahren misst. Das Verfahren ist jedoch nicht auf dieses Verfahren beschränkt. Zum Beispiel kann der Tiefensensor 15 die Entfernungen von dem Tiefensensor 15 zu den Punkten an dem Objekt durch ein TOF-Verfahren (Laufzeitverfahren, „Time of Flight“) messen. Bei dem TOF-Verfahren berechnet der Tiefensensor 15 die Laufzeit (Verzögerungszeit) eines Lichtstrahls, bis der Lichtstrahl den Tiefensensor 15 erreicht, nachdem der Lichtstrahl von den Punkten an dem Objekt reflektiert wird, und misst die Entfernungen von dem Tiefensensor 15 zu den Punkten an dem Objekt ausgehend von der berechneten Laufzeit und der Geschwindigkeit des Lichtstrahls. Selbst in dieser Form wird die zu der vorangehenden Ausführungsform analoge Wirkung erzielt. Der Typ von Sensor ist nicht auf den Tiefensensor beschränkt. Das heißt, ein Infrarotsensor oder ein Ultraschallsensor können zum Beispiel anstatt des Tiefensensors 15 enthalten sein und der Typ von Sensor ist zweckmäßig veränderbar.
  • In der vorangehenden Ausführungsform ist die virtuelle Bildanzeigevorrichtung 10, aufweisend den ersten Anzeigeeinheitsbereich 10A und den zweiten Anzeigeeinheitsbereich 10B, und mit dem flachen Teil 10a und dem Neigungsteil 10b beschrieben. Die Formen, Größen und Platzierungsformen der virtuellen Bildanzeigevorrichtung sind jedoch zweckmäßig veränderbar. In der vorangehenden Ausführungsform ist die virtuelle Bildanzeigevorrichtung 10, aufweisend die Bildanzeigeeinheit 30, beschrieben. Die Ausgestaltung der Bildanzeigeeinheit 30 ist jedoch zweckmäßig veränderbar und auf die Bildanzeigeeinheit 30 kann verzichtet werden.
  • In der vorangehenden Ausführungsform ist ein Beispiel beschrieben, in welchem Inhalte, welche die Anzeige der ersten virtuellen Bildanzeigeeinheit 11 oder der Bildanzeigeeinheit 30 unterstützen, durch die zweite virtuelle Bildanzeigeeinheit 21 angezeigt werden. Die durch die zweite virtuelle Bildanzeigeeinheit 21 angezeigten Inhalte sind jedoch nicht notwendigerweise die Inhalte, welche die Anzeige der ersten virtuellen Bildanzeigeeinheit 11 oder der Bildanzeigeeinheit 30 unterstützen. Das heißt, die auf der ersten virtuellen Bildanzeigeeinheit 11 angezeigten Inhalte und die auf der zweiten virtuellen Bildanzeigeeinheit 21 angezeigten Inhalte können vollkommen unterschiedlich sein und sind nicht konkret beschränkt. Die zweite virtuelle Bildanzeigeeinheit zeigt nicht notwendigerweise eine menschliche Figur an und auf die zweite virtuelle Bildanzeigeeinheit kann verzichtet werden.
  • In der vorangehenden Ausführungsform ist die erste virtuelle Bildanzeigeeinheit 11, aufweisend das bewegbare Modul 17 mit der Drehbedieneinheit 18 und der Dreheinheit 19, beschrieben. Die Formen, Größen, Ausgestaltungen und Platzierungsformen des bewegbaren Moduls, aufweisend die Dreheinheit, sind jedoch zweckmäßig veränderbar. Die Formen, Größen, Anzahlen, Materialien und Platzierungsformen der Drehbedieneinheit 18, welche die Dreheinheit 19 dreht, sind ebenso zweckmäßig veränderbar. Auf die Drehbedieneinheit 18 kann verzichtet werden und die Dreheinheit 19 kann sich automatisch drehen.
  • In der vorangehenden Ausführungsform ist die erste virtuelle Bildanzeigeeinheit 11 beschrieben, welche die Bedieneinheit 12, welche die in dem Fahrzeug 1 verbauten Vorrichtungen bedient, als das virtuelle Bild K1 anzeigt. Ein Beispiel ist beschrieben, in welchem die Bedieneinheit 12 die erste virtuelle Bildschaltfläche 12a, die zweite virtuelle Bildschaltfläche 12b und die dritte virtuelle Bildschaltfläche 12c aufweist. Die Gestaltung und der Typ der Bedieneinheit sind jedoch zweckmäßig veränderbar.
  • In der vorangehenden Ausführungsform ist die erste virtuelle Bildanzeigeeinheit 11 beschrieben, welche in der Längsrichtung und der seitlichen Richtung des Fahrzeugs 1 bewegbar ist. Die erste virtuelle Bildanzeigeeinheit ist jedoch nicht notwendigerweise in der Längsrichtung und der seitlichen Richtung des Fahrzeugs bewegbar. In der vorangehenden Ausführungsform ist die erste virtuelle Bildanzeigeeinheit 11, aufweisend den Tiefensensor 15 und den Controller 16, beschrieben, welche die Bedieneinheit 12 als das virtuelle Bild K1 anzeigt. Auf die Bedieneinheit kann jedoch verzichtet werden. Die virtuelle Bildanzeigevorrichtung gemäß der vorliegenden Offenbarung kann eine erste virtuelle Bildanzeigeeinheit aufweisen, welche ein virtuelles Bild anzeigt, welches nicht die Bedieneinheit ist. Die virtuelle Bildanzeigevorrichtung gemäß der vorliegenden Offenbarung ist zusätzlich zu dem in 1 dargestellten Fahrzeug 1, welches den Beifahrersitz 2, den Rücksitz 3 und den Fahrersitz 4 aufweist, auf sämtliche Typen von Fahrzeugen anwendbar.
  • Bezugszeichenliste
  • 1
    Fahrzeug
    10
    virtuelle Bildanzeigevorrichtung
    11
    erste virtuelle Bildanzeigeeinheit
    12
    Bedieneinheit
    13
    Luftbilderzeugungselement (virtuelle Bildanzeigeeinheit)
    14
    Flüssigkristalltafel (virtuelle Bildanzeigeeinheit)
    15
    Tiefensensor (Sensor)
    16a
    Bestimmungseinheit
    19
    Dreheinheit
    21
    zweite virtuelle Bildanzeigeeinheit
    H
    menschliche Figur
    K1, K2
    virtuelles Bild
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 4865088 [0025]

Claims (6)

  1. Virtuelle Bildanzeigevorrichtung, die eingerichtet ist, einem Insassen eines Fahrzeugs Informationen anzuzeigen, wobei die virtuelle Bildanzeigevorrichtung eine erste virtuelle Bildanzeigeeinheit aufweist, die eingerichtet ist, ein virtuelles Bild als die Informationen anzuzeigen, wobei die erste virtuelle Bildanzeigeeinheit aufweist einen virtuellen Bildanzeigeabschnitt, der eingerichtet ist, das virtuelle Bild anzuzeigen, und eine Dreheinheit, die eingerichtet ist, den virtuellen Bildanzeigeabschnitt in einem Bereich zu drehen, in dem das virtuelle Bild durch den Insassen visuell erkennbar ist.
  2. Virtuelle Bildanzeigevorrichtung nach Anspruch 1, ferner aufweisend eine zweite virtuelle Bildanzeigeeinheit, die eingerichtet ist, ein virtuelles Bild auf einer Fahrerseite des Fahrzeugs anzuzeigen.
  3. Virtuelle Bildanzeigevorrichtung nach Anspruch 2, wobei die zweite virtuelle Bildanzeigeeinheit eine menschliche Figur anzeigt, die eingerichtet ist, Informationen einhergehend mit der Anzeige der ersten virtuellen Bildanzeigeeinheit zu lesen.
  4. Virtuelle Bildanzeigevorrichtung nach einem der Ansprüche 1 bis 3, wobei die erste virtuelle Bildanzeigeeinheit eine Bedieneinheit als das virtuelle Bild anzeigt, die erste virtuelle Bildanzeigeeinheit ferner aufweist einen Sensor, der eingerichtet ist, eine Position eines sich der Bedieneinheit annähernden Ziels zu detektieren, und eine Bestimmungseinheit, die eingerichtet ist, auf Grundlage der durch den Sensor detektierten Position des Ziels zu bestimmen, ob die Bedieneinheit heruntergedrückt wurde, und die Dreheinheit den Sensor zusammen mit dem virtuellen Bildanzeigeabschnitt dreht.
  5. Virtuelle Bildanzeigevorrichtung nach Anspruch 4, wobei der Sensor ein Tiefensensor ist, der auf einer gegenüberliegenden Seite des Ziels bereitgestellt ist, wobei die Bedieneinheit dazwischen angeordnet ist.
  6. Virtuelle Bildanzeigevorrichtung nach einem der Ansprüche 1 bis 5, wobei die erste virtuelle Bildanzeigeeinheit in einer Längsrichtung und einer seitlichen Richtung des Fahrzeugs in einem Inneren des Fahrzeugs bewegbar ist.
DE112019002604.6T 2018-05-22 2019-05-17 Virtuelle Bildanzeigevorrichtung Pending DE112019002604T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018-098076 2018-05-22
JP2018098076 2018-05-22
PCT/JP2019/019789 WO2019225516A1 (ja) 2018-05-22 2019-05-17 虚像表示装置

Publications (1)

Publication Number Publication Date
DE112019002604T5 true DE112019002604T5 (de) 2021-03-25

Family

ID=68616959

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019002604.6T Pending DE112019002604T5 (de) 2018-05-22 2019-05-17 Virtuelle Bildanzeigevorrichtung

Country Status (5)

Country Link
US (1) US11537240B2 (de)
JP (1) JP7254072B2 (de)
CN (1) CN112118985A (de)
DE (1) DE112019002604T5 (de)
WO (1) WO2019225516A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024004508A (ja) * 2020-11-30 2024-01-17 株式会社村上開明堂 空中操作装置
JP7515384B2 (ja) * 2020-11-30 2024-07-12 本田技研工業株式会社 表示方法、及びシステム
JP2024029268A (ja) * 2020-12-22 2024-03-06 株式会社村上開明堂 操作入力装置及びキャリブレーション方法
JP2022176748A (ja) * 2021-05-17 2022-11-30 株式会社東海理化電機製作所 操作装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000075816A (ja) 1998-09-01 2000-03-14 Harness Syst Tech Res Ltd 表示装置
JP2000098298A (ja) 1998-09-21 2000-04-07 Matsushita Electric Ind Co Ltd 立体映像光学装置
JP2000272431A (ja) 1999-03-26 2000-10-03 Fujitsu Ten Ltd 車載用表示装置の取付構造
US20060109197A1 (en) * 2003-03-31 2006-05-25 Takashi Kuwabara Display system
US7054045B2 (en) 2003-07-03 2006-05-30 Holotouch, Inc. Holographic human-machine interfaces
JP2006284454A (ja) * 2005-04-01 2006-10-19 Fujitsu Ten Ltd 車載用エージェントシステム
JP4865088B2 (ja) 2008-04-22 2012-02-01 株式会社アスカネット 光学結像方法
JP5665053B2 (ja) 2011-02-04 2015-02-04 独立行政法人情報通信研究機構 多視点空中映像表示装置
DE102012014910A1 (de) * 2012-07-27 2014-01-30 Volkswagen Aktiengesellschaft Bedienschnittstelle, Verfahren zum Anzeigen einer eine Bedienung einer Bedienschnittstelle erleichternden Information und Programm
WO2014069205A1 (ja) 2012-10-29 2014-05-08 シャープ株式会社 ダッシュボードおよび自動車用光学システム
WO2014093100A1 (en) * 2012-12-14 2014-06-19 Johnson Controls Technology Company System and method for automatically adjusting an angle of a three-dimensional display within a vehicle
JP2015054598A (ja) * 2013-09-11 2015-03-23 本田技研工業株式会社 車両用表示装置
DE102014016328B3 (de) * 2014-11-03 2016-03-17 Audi Ag Verfahren zum Betreiben einer Anzeigevorrichtung, Anzeigevorrichtung für einen Kraftwagen und Kraftwagen mit einer Anzeigenvorrichtung
JP2016097921A (ja) * 2014-11-26 2016-05-30 マツダ株式会社 車両用運転支援表示装置
US20180011605A1 (en) 2015-01-15 2018-01-11 Asukanet Company, Ltd. Apparatus and method for contactless input
KR102309091B1 (ko) * 2015-03-02 2021-10-07 삼성디스플레이 주식회사 오토모티브 표시 장치
US20180118224A1 (en) * 2015-07-21 2018-05-03 Mitsubishi Electric Corporation Display control device, display device, and display control method
JP2017062709A (ja) 2015-09-25 2017-03-30 新光商事株式会社 ジェスチャー操作装置
JP6516241B2 (ja) 2015-10-28 2019-05-22 アルパイン株式会社 ジェスチャ入力装置
KR101806892B1 (ko) * 2016-05-09 2018-01-10 엘지전자 주식회사 차량용 제어장치
US11232645B1 (en) * 2017-11-21 2022-01-25 Amazon Technologies, Inc. Virtual spaces as a platform
JP7247457B2 (ja) * 2018-02-21 2023-03-29 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Also Published As

Publication number Publication date
JPWO2019225516A1 (ja) 2021-07-01
US11537240B2 (en) 2022-12-27
WO2019225516A1 (ja) 2019-11-28
US20210055813A1 (en) 2021-02-25
CN112118985A (zh) 2020-12-22
JP7254072B2 (ja) 2023-04-07

Similar Documents

Publication Publication Date Title
DE112019002604T5 (de) Virtuelle Bildanzeigevorrichtung
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
DE102008016215B4 (de) Informationsvorrichtungsbediengerät
DE112014004305B4 (de) Bildgenerierungsvorrichtung; Bildanzeigesystem; Bildgenerierungsverfahren und Bildanzeigeverfahren
DE19952974C1 (de) Zeigereinrichtung für die Erzeugung von Signalen zur Steuerung von Darstellungen auf einem Monitor
DE102013012466B4 (de) Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung
EP3507681B1 (de) Verfahren zur interaktion mit bildinhalten, die auf einer anzeigevorrichtung in einem fahrzeug dargestellt werden
DE102014116292A1 (de) System zur Informationsübertragung in einem Kraftfahrzeug
EP2726960A1 (de) Vorrichtung und verfahren zur berührungslosen erfassung von gegenständen und/oder personen und von diesen ausgeführten gesten und/oder bedienvorgängen
EP2750914B1 (de) Verfahren und vorrichtung zum bereitstellen einer nutzerschnittstelle, insbesondere in einem fahrzeug
EP2653335B1 (de) Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs
EP1637985A2 (de) Eingabesteuerung für Geräte
EP3254172B1 (de) Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug
DE102012223481A1 (de) Vorrichtung und Verfahren zum Verfolgen der Position eines peripheren Fahrzeugs
DE102018133013A1 (de) Fahrzeugfernsteuerungsvorrichtung und fahrzeugfernsteuerungsverfahren
DE102017108194A1 (de) Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Fahrzeugs
DE112017003886T5 (de) Bedienungseingabevorrichtung
DE102018131805A1 (de) Vorrichtung zum erfassen einer gesichtsposition
WO2014108147A1 (de) Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung
EP3366434A1 (de) Verfahren zur überprüfung einer funktion eines fahrzeuges und/oder zumindest einer bedieneinrichtung
DE102018127880A1 (de) Gestenbestimmungsvorrichtung und Programm
DE102013000069B4 (de) Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung
DE102013013166A1 (de) Kraftwagen mit Head-up-Anzeige und zugehöriger Gestenbedienung
DE102013000072A1 (de) Bedienschnittstelle für eine handschriftliche Zeicheneingabe in ein Gerät
DE102017208343B4 (de) Anzeigesystem für ein Fahrzeug und Fahrzeug