DE102019114752A1 - Verfahren, Vorrichtung und Computerprogramm zum Erfassen einer Eingabe und Fahrzeug mit einer solchen Vorrichtung - Google Patents

Verfahren, Vorrichtung und Computerprogramm zum Erfassen einer Eingabe und Fahrzeug mit einer solchen Vorrichtung Download PDF

Info

Publication number
DE102019114752A1
DE102019114752A1 DE102019114752.2A DE102019114752A DE102019114752A1 DE 102019114752 A1 DE102019114752 A1 DE 102019114752A1 DE 102019114752 A DE102019114752 A DE 102019114752A DE 102019114752 A1 DE102019114752 A1 DE 102019114752A1
Authority
DE
Germany
Prior art keywords
input
display
work surface
movement
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019114752.2A
Other languages
English (en)
Inventor
Julian Eichhorn
Jasper Stern
Gunnar FRANZ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102019114752.2A priority Critical patent/DE102019114752A1/de
Publication of DE102019114752A1 publication Critical patent/DE102019114752A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung bezieht sich auf ein Verfahren, eine Vorrichtung und ein Computerprogramm zum Erfassen einer Eingabe und auf ein Fahrzeug mit einer solchen Vorrichtung. Das Verfahren umfasst ein Erfassen einer Position und Bewegung von zumindest einem Objekt auf einer Arbeitsfläche über zumindest einen optischen Sensor. Das Verfahren umfasst ferner ein Bereitstellen eines Anzeigesignals für eine Anzeigeeinrichtung basierend auf der erfassten Position und Bewegung des zumindest einen Objekts, um zu bewirken, dass durch die Anzeigeeinrichtung eine Form, die Position und die Bewegung des zumindest einen Objekts auf einer virtuellen Eingabeeinrichtung dargestellt wird. Das Verfahren umfasst ferner ein Erfassen der Eingabe durch das zumindest eine Objekt, wobei die Eingabe so erfasst wird, dass sie der angezeigten Position und Bewegung des zumindest einen Objekts auf der virtuellen Eingabeeinrichtung entspricht.

Description

  • Technisches Gebiet
  • Die Erfindung bezieht sich auf ein Verfahren, eine Vorrichtung und ein Computerprogramm zum Erfassen einer Eingabe und auf ein Fahrzeug mit einer solchen Vorrichtung, genauer, aber nicht ausschließlich, auf einen Ansatz zum Erfassen einer Eingabe, der darauf basiert, dass eine Position und eine Bewegung von zumindest einem Objekt auf einer Arbeitsfläche über zumindest einen optischen Sensor erfasst wird und entsprechend auf einer virtuellen Eingabeeinrichtung dargestellt wird.
  • Hintergrund
  • Autonome Fahrzeuge sind ein Schwerpunkt der automobilen Forschung. In den höchsten Autonomiestufen 4 und 5 ist dabei vorgesehen, dass ein Fahrer während der Fahrt selbst weder eingreifen muss noch aufmerksam dem Fahrgeschehen folgen muss, um gegebenenfalls eingreifen zu können. Gleichzeitig weisen solche Fahrzeuge meist aber noch Lenkelemente auf, so dass der Fahrer das Fahrzeug selbst fahren kann, wenn er dies wünscht. Ergonomisch dauerhaft angenehmes Arbeiten ist im Fahrzeug, insbesondere während des hochautomatisierten Fahrens, schwer möglich und bisher nicht bekannt. Das ergonomisch angenehme Arbeiten erfordert bestimmte Relativpositionen und Abstände zu Ein- und Ausgabegeräten (Anzeigeeinrichtungen (auch engl. Displays), Tastaturen, Trackpads (Tastfelder) etc.). Diese Positionen und Geräte sind in einem Fahrzeug in der Regel nicht designgerecht, bzw. unauffällig zu integrieren.
  • Aufgabe ist es nun einerseits dem Umstand Rechnung zu tragen, dass eine Lenkeinrichtung in einem Fahrzeug vorgesehen ist, diese jedoch nur optional zu sehen ist, und andererseits dem Fahrer eine Umgebung zu ermöglichen, in der dieser ergonomisch arbeiten kann.
  • Zusammenfassung
  • Dieser Aufgabe wird durch das Verfahren, die Vorrichtung, das Computerprogramm und das Fahrzeug der unabhängigen Ansprüche Rechnung getragen.
  • Die Erfindung basiert auf der Erkenntnis, dass, um eine Eingabe in einer Umgebung zu ermöglichen, die auch für andere Zwecke nutzbar sein soll, eine virtuelle Eingabeeinrichtung genutzt werden kann, die durch eine Erfassung eines Objekts durch einen optischen Sensor ermöglicht wird. Um dennoch eine präzise und intuitive Eingabe zu ermöglichen wird das Objekt nicht nur erfasst, um die eigentliche Eingabe zu erfassen, sondern auch, um das Objekt auf der virtuellen Eingabeeinrichtung darzustellen und so dem Benutzer zu signalisieren, wo sich das Objekt relativ zu der virtuellen Eingabeeinrichtung befindet. Somit lässt sich die Eingabeeinrichtung, durch Integration in eine (verstaubare) Arbeitsfläche, als temporär unsichtbare, designgerecht integrierte Eingabeeinrichtung ausführen. Dies ermöglicht eine ergonomische und gleichzeitig intuitive und präzise Eingabe auch in einem Umfeld, in dem anderen Verwendungszwecken Rechnung zu tragen ist, etwa in einem Fahrzeug.
  • Ausführungsbeispiele schaffen ein Verfahren zum Erfassen einer Eingabe. Das Verfahren umfasst ein Erfassen einer Position und Bewegung von zumindest einem Objekt auf einer Arbeitsfläche über zumindest einen optischen Sensor. Das Verfahren umfasst ferner ein Bereitstellen eines Anzeigesignals für eine Anzeigeeinrichtung basierend auf der erfassten Position und Bewegung des zumindest einen Objekts, um zu bewirken, dass durch die Anzeigeeinrichtung eine Form, die Position und die Bewegung des zumindest einen Objekts auf einer virtuellen Eingabeeinrichtung dargestellt wird. Das Verfahren umfasst ferner ein Erfassen der Eingabe durch das zumindest eine Objekt. Die Eingabe wird so erfasst, dass sie der angezeigten Position und Bewegung des zumindest einen Objekts auf der virtuellen Eingabeeinrichtung entspricht. Dies ermöglicht eine ergonomische und gleichzeitig intuitive und präzise Eingabe auch in einem Umfeld, in dem anderen Verwendungszwecken Rechnung zu tragen ist, etwa in einem Fahrzeug.
  • Dabei überlappen sich die Anzeigeeinrichtung und die Arbeitsfläche in zumindest einigen Ausführungsbeispielen nicht. Durch das Auseinanderfallen von Anzeigeeinrichtung und Arbeitsfläche werden größere Freiheitsgrade beim Anordnen und Verstauen der Arbeitsfläche ermöglicht. Gleichzeitig kann so die Erfassung der Eingabe frei auf der Arbeitsfläche erfolgen, ohne an eine Position der Anzeigeeinrichtung gebunden zu sein. Zudem kann die Anzeige der virtuellen Eingabeeinrichtung so im Blickfeld des Benutzers erfolgen.
  • In zumindest einigen Ausführungsbeispielen umfassend das Verfahren ferner ein Bereitstellen eines Steuersignals für eine Projektionseinrichtung, um zu bewirken, dass durch die Projektionseinrichtung eine der virtuellen Eingabeeinrichtung entsprechende Projektion auf die Arbeitsfläche projiziert wird. Durch die Projektion kann einem Benutzer signalisiert werden, in welchem Bereich die Eingabe erfasst wird sowie eine höhere Präzision der Eingabe erreicht werden.
  • Dabei kann das Steuersignal für die Projektionseinrichtung so bereitgestellt werden, dass die der virtuellen Eingabeeinrichtung entsprechende Projektion durch einen Benutzer verschiebbar ist. Dies ermöglicht eine verbesserte Ergonomie, gerade in Szenarien, in denen ein Abstand zwischen Sitz und Arbeitsfläche durch einen Benutzer nur begrenzt beeinflussbar ist.
  • Alternativ oder zusätzlich zur Projektion kann die virtuelle Eingabeeinrichtung auch direkt durch die Arbeitsfläche visualisiert werden. Das Verfahren kann ferner ein Bereitstellen eines Steuersignals für eine weitere Anzeigeeinrichtung umfassen, um zu bewirken, dass durch die weitere Anzeigeeinrichtung eine der virtuellen Eingabeeinrichtung entsprechende Anzeige auf der Arbeitsfläche dargestellt wird. Dabei kann die weitere Anzeigeeinrichtung in der Arbeitsfläche integriert sein und etwa durch eine Oberfläche der Arbeitsfläche durchscheinen.
  • In zumindest manchen Ausführungsbeispielen ist der optische Sensor eine visuelle Kamera oder ein Infrarot-basierter optischer Sensor. Dies ermöglicht eine Erfassung einer Vielzahl von verschiedenen Eingabeobjekten, ohne dass technische Anforderungen an die Eingabeobjekte gestellt werden.
  • Die Arbeitsfläche kann ferner zumindest einen berührungsempfindlichen Sensor umfassen, um die Eingabe zu erfassen. In anderen Worten kann das Verfahren ferner ein Erhalten eines Eingabesignals von zumindest einem berührungsempfindlichen Sensor der Arbeitsfläche umfassen. Die Eingabe durch das zumindest eine Objekt kann ferner basierend auf dem Eingabesignal des zumindest einen berührungsempfindlichen Sensors erfasst werden. Dabei kann die Erfassung der Position und Bewegung des Objekte durch den visuellen Sensor beispielsweise (ausschließlich) genutzt werden, um diese relativ zur virtuellen Eingabeeinrichtung darzustellen, und (ausschließlich) der zumindest eine berührungsempfindliche Sensor kann zur Erfassung der Eingabe genutzt werden, oder die Erfassung der Eingabe kann sowohl auf der erfassten Position und Bewegung als auch auf dem berührungsempfindlichen Sensor basieren.
  • Beispielsweise kann der zumindest eine berührungsempfindliche Sensor zumindest einen kapazitiven Sensor, zumindest einen piezoelektrischen Sensor, zumindest einen resistiven Sensor oder zumindest einen Vibrationssensor umfassen. Kapazitive Sensoren ermöglich eine hohe Präzision auf einer vorgegebenen Sensorfläche während piezoelektrische Sensoren nicht nur als Sensoren sondern auf als Aktoren genutzt werden können. Vibrationssensoren (auch engl. „seismic sensor“, Seismische Sensoren) ermöglichen eine Erfassung der Eingabe an verschiedenen Orten der Arbeitsfläche.
  • Ferner kann eine taktile Rückmeldung zu der erfassten Eingabe bereitgestellt werden, die etwa der Imitation eines Tastendrucks dienen kann. Das Verfahren kann ferner ein Bereitstellen eines Steuersignals für eine taktile Rückmeldeeinrichtung basierend auf der erfassten Eingabe umfassen, um einem Benutzer eine taktile Rückmeldung über die erfasste Eingabe bereitzustellen. Diese taktile Rückmeldung ermöglicht in manchen Ausführungsbeispielen eine intuitivere Nutzung der virtuellen Eingabeeinrichtung.
  • Das Anzeigesignal kann so generiert werden, dass durch die Anzeigeeinrichtung die virtuelle Eingabeeinrichtung und eine Benutzeroberfläche darstellbar ist. Dies ermöglicht es dem Benutzer, die Lage des Objekts auf der virtuellen Eingabeeinrichtung wahrzunehmen, ohne den Blick von der Benutzeroberfläche abwenden zu müssen.
  • Beispielsweise kann das zumindest eine Objekt zumindest eine Hand sein, d.h. die Hand kann relativ zu der virtuellen Eingabeeinrichtung dargestellt werden. Das Anzeigesignal kann so bereitgestellt werden, dass durch die Anzeigeeinheit eine stilisierte Anzeige der zumindest einen Hand entsprechend der erfassten Position und Bewegung der zumindest einen Hand darstellbar ist. Dies ermöglicht es dem Benutzer zu sehen, auf welcher Stelle der virtuellen Eingabeeinrichtung die Hand positioniert ist, und welche Eingabe dementsprechend zu erwarten ist.
  • Die virtuelle Eingabeeinrichtung kann beispielsweise zumindest ein Element der Gruppe von eine virtuelle Tastatur, ein virtuelles Touchpad und ein virtuelles Zeichentablett umfassen.
  • Dabei können die genannten virtuellen Eingabeeinrichtungen etwa kontextbezogen aktiviert werden, je nachdem welche Eingabemöglichkeit gewünscht ist
  • In Ausführungsbeispielen kann die Anzeigeeinrichtung durch einen Bildschirm gebildet werden, etwa durch einen Flüssigkristallbildschirm oder durch einen OLED (organische Lichtemittierende Dioden)-Bildschirm. Alternativ kann die Anzeigeeinrichtung durch einen Head-up-Bildschirm (auch engl. Head-up-Display) gebildet werden, etwa durch einen Projektionsbasierten Head-Up-Bildschirm. Dies ermöglicht die Nutzung einer größeren Fläche, wie etwa einer Windschutzscheibe eines Fahrzeugs, als Anzeigeeinrichtung.
  • Ausführungsbeispiele schaffen ferner ein entsprechendes Programm mit einem Programmcode zum Durchführen des Verfahrens, wenn der Programmcode auf einem Computer, einem Prozessor, einem Kontrollmodul oder einer programmierbaren Hardwarekomponente ausgeführt wird.
  • Ausführungsbeispiele schaffen ferner eine entsprechende Vorrichtung zum Erfassen einer Eingabe. Die Vorrichtung umfasst zumindest eine Schnittstelle zur Kommunikation mit zumindest einem optischen Sensor und einer Anzeigeeinrichtung. Die Vorrichtung umfasst ferner ein Verarbeitungsmodul ausgebildet zum Erfassen einer Position und Bewegung von zumindest einem Objekt auf einer Arbeitsfläche über den zumindest einen optischen Sensor. Das Verarbeitungsmodul ist ausgebildet zum Bereitstellen eines Anzeigesignals für die Anzeigeeinrichtung basierend auf der erfassten Position und Bewegung des zumindest einen Objekts, um zu bewirken, dass durch die Anzeigeeinrichtung eine Form, die Position und die Bewegung des zumindest einen Objekts auf einer virtuellen Eingabeeinrichtung dargestellt wird. Das Verarbeitungsmodul ist ferner ausgebildet zum Erfassen der Eingabe durch das zumindest eine Objekt, wobei die Eingabe so erfasst wird, dass sie der angezeigten Position und Bewegung des zumindest einen Objekts auf der virtuellen Eingabeeinrichtung entspricht.
  • Ausführungsbeispiele schaffen ferner ein Fahrzeug mit einer Arbeitsfläche, zumindest einen optischen Sensor zum Erfassen einer Position und einer Bewegung von zumindest einem Objekt auf der Arbeitsfläche, einer Anzeigeeinrichtung und der Vorrichtung.
  • Das Fahrzeug kann ferner eine Projektionseinrichtung oder eine weitere Anzeigeeinrichtung umfassen. Diese können genutzt werden, um eine der virtuellen Eingabeeinrichtung entsprechende Darstellung auf der Arbeitsfläche darzustellen.
  • Beispielsweise kann die Arbeitsfläche einen berührungsempfindlichen Sensor umfassen, etwa um die Eingabe zu erfassen. Die Arbeitsfläche kann ferner eine taktile Rückmeldeeinrichtung umfassen, etwa um dem Benutzer eine taktile Rückmeldung zu der Eingabe bereitstellen zu können.
  • In manchen Ausführungsbeispielen kann die Arbeitsfläche verstaubar sein. So kann die Arbeitsfläche etwa nur Platz einnehmen, wenn sie genutzt werden soll.
  • Das Fahrzeug kann ferner ein verstaubares Lenkelement umfassen. Die verstaubare Arbeitsfläche kann beispielsweise alternativ zu dem verstaubaren Lenkelement durch einen Fahrer des Fahrzeugs nutzbar sein. Dies ermöglicht die Nutzung des Konzeptes in einem autonomen Fahrzeug.
  • Figurenliste
  • Einige Beispiele von Vorrichtungen und/oder Verfahren werden nachfolgend bezugnehmend auf die beiliegenden Figuren lediglich beispielhaft näher erläutert. Es zeigen:
    • 1a und 1b zeigen Ausführungsbeispiele eines Verfahrens zum Erfassen einer Eingabe;
    • 1c zeigt ein Ausführungsbeispiel einer Vorrichtung zum Erfassen einer Eingabe und eines Fahrzeugs mit einer entsprechenden Vorrichtung; und
    • 2 zeigt ein Ausführungsbeispiel einer Nutzung des vorgestellten Verfahrens oder der Vorrichtung in einem Fahrzeug.
  • Beschreibung
  • Verschiedene Beispiele werden nun ausführlicher Bezug nehmend auf die beiliegenden Figuren beschrieben, in denen einige Beispiele dargestellt sind. In den Figuren können die Stärken von Linien, Schichten und/oder Bereichen zur Verdeutlichung übertrieben sein.
  • Während sich weitere Beispiele für verschiedene Modifikationen und alternative Formen eignen, sind dementsprechend einige bestimmte Beispiele derselben in den Figuren gezeigt und werden nachfolgend ausführlich beschrieben. Allerdings beschränkt diese detaillierte Beschreibung weitere Beispiele nicht auf die beschriebenen bestimmten Formen. Weitere Beispiele können alle Modifikationen, Entsprechungen und Alternativen abdecken, die in den Rahmen der Offenbarung fallen. Gleiche oder ähnliche Bezugszeichen beziehen sich in der gesamten Beschreibung der Figuren auf gleiche oder ähnliche Elemente, die bei einem Vergleich miteinander identisch oder in modifizierter Form implementiert sein können, während sie die gleiche oder eine ähnliche Funktion bereitstellen.
  • Es versteht sich, dass, wenn ein Element als mit einem anderen Element „verbunden“ oder „gekoppelt“ bezeichnet wird, die Elemente direkt, oder über ein oder mehrere Zwischenelemente, verbunden oder gekoppelt sein können. Wenn zwei Elemente A und B unter Verwendung eines „oder“ kombiniert werden, ist dies so zu verstehen, dass alle möglichen Kombinationen offenbart sind, d. h. nur A, nur B sowie A und B, sofern nicht explizit oder implizit anders definiert. Eine alternative Formulierung für die gleichen Kombinationen ist „zumindest eines von A und B“ oder „A und/oder B“. Das Gleiche gilt, mutatis mutandis, für Kombinationen von mehr als zwei Elementen.
  • Die Terminologie, die hier zum Beschreiben bestimmter Beispiele verwendet wird, soll nicht begrenzend für weitere Beispiele sein. Wenn eine Singularform, z. B. „ein, eine“ und „der, die, das“ verwendet wird und die Verwendung nur eines einzelnen Elements weder explizit noch implizit als verpflichtend definiert ist, können weitere Beispiele auch Pluralelemente verwenden, um die gleiche Funktion zu implementieren. Wenn eine Funktion nachfolgend als unter Verwendung mehrerer Elemente implementiert beschrieben ist, können weitere Beispiele die gleiche Funktion unter Verwendung eines einzelnen Elements oder einer einzelnen Verarbeitungsentität implementieren. Es versteht sich weiterhin, dass die Begriffe „umfasst“, „umfassend“, „aufweist“ und/oder „aufweisend“ bei Gebrauch das Vorhandensein der angegebenen Merkmale, Ganzzahlen, Schritte, Operationen, Prozesse, Elemente, Komponenten und/oder einer Gruppe derselben präzisieren, aber nicht das Vorhandensein oder das Hinzufügen eines oder mehrerer anderer Merkmale, Ganzzahlen, Schritte, Operationen, Prozesse, Elemente, Komponenten und/einer Gruppe derselben ausschließen.
  • Sofern nicht anderweitig definiert, werden alle Begriffe (einschließlich technischer und wissenschaftlicher Begriffe) hier in ihrer üblichen Bedeutung auf dem Gebiet verwendet, zu dem Beispiele gehören.
  • Die 1a und 1b zeigen Ausführungsbeispiele eines Verfahrens zum Erfassen einer Eingabe. Das Verfahren umfasst ein Erfassen 110 einer Position und Bewegung von zumindest einem Objekt auf einer Arbeitsfläche 20 über zumindest einen optischen Sensor 30. Das Verfahren umfasst ferner ein Bereitstellen 120 eines Anzeigesignals für eine Anzeigeeinrichtung 40 basierend auf der erfassten Position und Bewegung des zumindest einen Objekts, um zu bewirken, dass durch die Anzeigeeinrichtung 40 eine Form, die Position und die Bewegung des zumindest einen Objekts auf einer virtuellen Eingabeeinrichtung dargestellt wird. Das Verfahren umfasst ferner ein Erfassen 130 der Eingabe durch das zumindest eine Objekt. Die Eingabe wird so erfasst, dass sie der angezeigten Position und Bewegung des zumindest einen Objekts auf der virtuellen Eingabeeinrichtung entspricht. Das Verfahren kann beispielsweise von einer Vorrichtung 10 zum Erfassen einer Eingabe ausgeführt werden, etwa durch ein Fahrzeug 100 mit einer solchen Vorrichtung 10, wie es in 1c gezeigt ist.
  • 1c zeigt ein Ausführungsbeispiel einer solchen Vorrichtung 10 zum Erfassen einer Eingabe. Die Vorrichtung 10 umfasst zumindest eine Schnittstelle 12 zur Kommunikation mit zumindest einem optischen Sensor 30 und einer Anzeigeeinrichtung 40. Die Vorrichtung 10 umfasst ferner ein Verarbeitungsmodul 14, das mit der zumindest einen Schnittstelle 12 gekoppelt ist. Über die zumindest eine Schnittstelle 12 ist das Verarbeitungsmodul ferner mit dem zumindest einen optischen Sensor 30 und der Anzeigeeinrichtung 40 gekoppelt. Optional kann das Verarbeitungsmodul 14 ferner über die zumindest eine Schnittstelle 12 mit einer Projektionseinrichtung 50, einer weiteren Anzeigeeinrichtung 55, zumindest einem berührungsempfindlichen Sensor 60 und/oder mit einer taktilen Rückmeldeeinrichtung 70 gekoppelt sein. Das Verarbeitungsmodul 14 kann beispielsweise ausgebildet sein, um das Verfahren der 1a und/oder 1b auszuführen, etwa im Zusammenspiel mit der zumindest einen Schnittstelle 12. Beispielsweise ist das Verarbeitungsmodul 14 ausgebildet zum Erfassen einer Position und Bewegung von zumindest einem Objekt auf einer Arbeitsfläche 20 über den zumindest einen optischen Sensor 30. Das Verarbeitungsmodul 14 ist ferner ausgebildet zum Bereitstellen eines Anzeigesignals für die Anzeigeeinrichtung 40 basierend auf der erfassten Position und Bewegung des zumindest einen Objekts, um zu bewirken, dass durch die Anzeigeeinrichtung 40 eine Form, die Position und die Bewegung des zumindest einen Objekts auf einer virtuellen Eingabeeinrichtung dargestellt wird. Das Verarbeitungsmodul 14 ist ferner ausgebildet zum Erfassen der Eingabe durch das zumindest eine Objekt. Die Eingabe wird so erfasst, dass sie der angezeigten Position und Bewegung des zumindest einen Objekts auf der virtuellen Eingabeeinrichtung entspricht.
  • 1c zeigt ferner ein Fahrzeug 100 umfassend die Arbeitsfläche 20, den zumindest einen optischen Sensor 30 zum Erfassen einer Position und einer Bewegung von zumindest einem Objekt auf der Arbeitsfläche, die Anzeigeeinrichtung 40 und die Vorrichtung 10.
  • Die folgende Beschreibung bezieht sich sowohl auf das Verfahren der 1a und/oder 1b als auch auf die Vorrichtung 10 und das Fahrzeug 100 der 1c.
  • Die vorliegende Offenbarung bezieht sich auf ein Verfahren, eine Vorrichtung und ein Computerprogramm zum Erfassen einer Eingabe. Zwar werden das Verfahren, die Vorrichtung und das Computerprogramm vorliegend im Zusammenhang mit einem Fahrzeug beschrieben, diese sind jedoch nicht auf ein solches Ausführungsbeispiel beschränkt. So können die Vorrichtung und das Verfahren etwa auch durch einen Computer, wie etwa einen tragbaren Computer oder einen Desktop-Computer, oder durch ein Mobilgerät, etwa ein Smartphone (programmierbares Mobiltelefon), einen Tablet-Computer oder ein sog. Wearable (als Kleidung oder Accessoire tragbares Gerät) umfasst sein oder ausgeführt werden. Zudem sind selbst in einem Fahrzeug Ausführungsbeispiele nicht auf einen Fahrer beschränkt, sie können auch etwa von einem Beifahrer oder anderen Fahrzeuginsassen genutzt werden. Im Folgenden wir generell von einem „Benutzer“ gesprochen, dieser kann beispielsweise ein Fahrzeuginsasse oder ein Nutzer eines Computers oder eines Mobilgeräts sein.
  • Das Verfahren basiert darauf, eine Position und eine Bewegung von zumindest einem Objekt auf einer Arbeitsfläche 20 über zumindest einen optischen Sensor 30 zu erfassen. Zusätzlich dazu kann auch eine Form (d.h. eine Ausdehnung des Objekts über der Arbeitsfläche) erfasst 110 werden. Dabei kann der optische Sensor 30 beispielsweise eine visuelle Kamera sein, etwa eine Video-Kamera, die ausgebildet sein kann, um einen Bereich oberhalb der Arbeitsfläche aufzunehmen. Alternativ kann der optische Sensor ein Infrarot-basierter optischer Sensor sein, etwa ein Distanzsensor, der zumindest die Position und die Bewegung des zumindest einen Objekts über eine Laufzeitmessung (auch engl. Time-of-Flight) erfasst. Dabei kann der zumindest eine visuelle Sensor 30 dafür genutzt werden, um visuelle Rohdaten, visuelle komprimierte Daten oder Laufzeitdaten oder Distanzdaten des zumindest einen Objekts aufzunehmen. Eine nachfolgende Verarbeitung der durch den visuellen Sensor aufgenommenen visuellen Rohdaten, visuellen komprimierten Daten, Laufzeitdaten oder Distanzdaten kann außerhalb des visuellen Sensors 30 erfolgen, etwa durch ein Verarbeitungsmodul 14. Beispielsweise kann das zumindest eine Objekt in zwei Dimensionen (im Falle einer Kamera) oder in drei Dimensionen (im Falle eines Distanzsensors) erfasst werden.
  • Das Verfahren umfasst ferner das Bereitstellen 120 des Anzeigesignals für die Anzeigeeinrichtung 40. Dabei kommen verschiedene Anzeigeeinrichtungen in Betracht. Zum einen kann die Anzeigeeinrichtung 40 durch einen Bildschirm gebildet werden, etwa einen Flüssigkristallbildschirm (auch engl. Liquid Crystal Display, LCD) oder einen Bildschirm auf der Basis von organischen lichtemittierenden Dioden (engl. Organic Light Emitting Diodes, OLED). Alternativ oder zusätzlich kann die Anzeigeeinrichtung 40 durch einen Head-up-Bildschirm (engl. Head-Up-Display) gebildet werden. Bei Head-Up-Bildschirmen (wörtlich „Kopf-oben-Bildschirm“) handelt es sich um Anzeigegeräte, bei denen ein Benutzer eine Kopfhaltung beibehalten kann, weil das anzuzeigende Bild in das Sichtfeld des Benutzers projiziert oder angezeigt wird. Im Falle eines Fahrzeugs wird häufig eine Windschutzscheibe als Head-up-Bildschirm genutzt, d.h. das Anzeigesignal wird auf die Windschutzscheibe projiziert oder durch einen in die Windschutzscheibe eingelassenen transparenten Bildschirm wiedergegeben. Dabei kann beispielsweise ein Panorama-HUD genutzt werden, das sich auf der Windschutzscheibe sowohl auf der Fahrerseite als auch auf der Beifahrerseite erstreckt. In manchen Ausführungsbeispielen kann die Anzeigeeinrichtung etwa mehrteilig ausgeführt sein, etwa durch mehrere Bildschirme, mehrere Head-Up-Bildschirme, oder eine Kombination aus Bildschirm und Head-Up-Bildschirm. Dabei überlappen sich die Anzeigeeinrichtung 40 und die Arbeitsfläche 20 sich vorteilhafterweise nicht. In anderen Worten überlappt zumindest ein Teil der Anzeigeeinrichtung, der für das Darstellen der virtuellen Eingabeeinrichtung vorgesehen ist, sich nicht mit der Arbeitsfläche. So kann die Anzeige der virtuelle Eingabeeinrichtung in einem Sichtfeld des Benutzers angeordnet sein.
  • Das Anzeigesignal wird basierend auf der erfassten Position und Bewegung des zumindest einen Objekts bereitgestellt (und damit auch generiert), um zu bewirken, dass durch die Anzeigeeinrichtung 40 eine Form, die Position und die Bewegung des zumindest einen Objekts auf einer virtuellen Eingabeeinrichtung dargestellt wird. In anderen Worten wird das Anzeigesignal so generiert, dass durch die Anzeigeeinrichtung 40 die Form, die Position und die Bewegung des zumindest einen Objekts auf einer virtuellen Eingabeeinrichtung darstellbar ist. Das Anzeigesignal ist dabei ein digitales oder analoges Signal, das dazu geeignet ist, die Form, die Position und die Bewegung des zumindest einen Objekts auf einer virtuellen Eingabeeinrichtung auf der Anzeigeeinrichtung darzustellen. Zusätzlich zu der virtuellen Eingabeeinrichtung kann ferner eine Benutzeroberfläche durch die Anzeigeeinrichtung 40 dargestellt werden, d.h. das Anzeigesignal kann so generiert werden, dass durch die Anzeigeeinrichtung 40 die virtuelle Eingabeeinrichtung und eine Benutzeroberfläche darstellbar ist. Die Benutzeroberfläche kann dabei ein oder mehrere Anwendungsprogramme darstellen, wie etwa Internet-Browser, E-Mail-Programme, Textverarbeitungsprogramme oder Programme zur grafischen Gestaltung. Dabei kann die Benutzeroberfläche zusätzlich oder auch alternativ zu der virtuellen Eingabeeinrichtung dargestellt werden. So kann beispielsweise ein erster Bereich genutzt werden, um die virtuelle Eingabeeinrichtung darzustellen und ein zweiter Bereich, um die Benutzeroberfläche darzustellen. Alternativ kann die Benutzeroberfläche ausgeblendet werden, wenn eine Eingabe stattfindet, und die virtuelle Eingabeeinrichtung ausgeblendet werden, wenn keine Eingabe stattfindet.
  • Ausführungsbeispiele können etwa genutzt werden, um abhängig von einem aktuellen Bedarf, unterschiedliche virtuelle Eingabeeinrichtungen darzustellen. Wird eine Texteingabe benötigt, so kann eine virtuelle Tastatur dargestellt werden, soll eine Benutzeroberfläche bedient werden, so kann ein virtuelles Touchpad dargestellt werden, und soll eine Unterschrift geleistet werden oder eine Zeichnung angefertigt werden (oder ein Dokument annotiert werden) so kann ein virtuelles Zeichentablett dargestellt werden. In anderen Worten kann die virtuelle Eingabeeinrichtung zumindest ein Element der Gruppe von eine virtuelle Tastatur, ein virtuelles Touchpad und ein virtuelles Zeichentablett umfassen.
  • Abhängig davon, welches Objekt für die Eingabe genutzt wird und welche virtuelle Eingabeeinrichtung genutzt wird, wird die Darstellung der virtuellen Eingabeeinrichtung und des Objekts darauf entsprechend angepasst. Beispielsweise kann das zumindest eine Objekt zumindest eine Hand sein. Das Anzeigesignal kann so bereitgestellt 120 werden, dass durch die Anzeigeeinheit 40 eine stilisierte Anzeige der zumindest einen Hand (als Form des Objekts) entsprechend der erfassten Position und Bewegung der zumindest einen Hand darstellbar ist. Dabei kann die Hand über einer virtuellen Tastatur etwa so dargestellt werden, dass die Finger an den entsprechenden Tasten der virtuellen Tastatur dargestellt sind (wobei die darunter dargestellten Buchstaben noch lesbar sein können). Ist das Objekt ein Stift, so kann eine stilisierte Anzeige des Stifts entsprechend der erfassten Position, Bewegung und Ausrichtung des Stifts auf der Anzeigeeinrichtung darstellbar sein. Doch auch andere Objekte können erfasst werden, wie etwa Schlüsselanhänger. Deren Form kann ebenfalls abstrahiert werden und oberhalb der virtuellen Eingabeeinrichtung darstellbar sein. Dabei bedeutet „oberhalb der virtuellen Eingabeeinrichtung“, dass das dargestellte Objekt die virtuelle Eingabeeinrichtung zumindest teilweise überdeckt. etwa durch eine Darstellung in unterschiedlichen Ebenen.
  • Zusätzlich zu der Darstellung durch die Anzeigeeinrichtung kann die virtuelle Eingabeeinrichtung auch auf der Arbeitsfläche 20 dargestellt werden, etwa um den Benutzer darauf hinzuweisen, in welchem Bereich die Eingabe erfasst werden kann. Dies kann in einem einfachen Ausführungsbeispiel dadurch geschehen, dass auf der Arbeitsfläche dezente visuelle Markierungen vorgesehen sind, die die Ausmaße der Eingabeeinrichtung andeuten (etwa die Ausmaße einer Tastatur, eines Touchpads oder eines Zeichentabletts), oder etwa die übelicherweise auf „F“ und „J“ platzierten haptischen Markierungen. Zusätzlich oder alternativ kann eine der virtuellen Eingabeeinrichtung entsprechende temporäre oder vorübergehende Anzeige auf der Oberfläche der Arbeitsfläche angezeigt werden. Dies kann etwa über eine Projektion geschehen. So kann das Verfahren ferner ein Bereitstellen 140 eines Steuersignals für eine Projektionseinrichtung 50 umfassen, um zu bewirken, dass durch die Projektionseinrichtung 50 eine der virtuellen Eingabeeinrichtung entsprechende Projektion auf die Arbeitsfläche projiziert wird. Die Projektionseinrichtung kann ortsnah zu dem visuellen Sensor ausgeführt sein, etwa mit diesem in einem gemeinsamen Modul ausgeführt sein. Das Steuersignal für die Projektionseinrichtung kann beispielsweise dazu ausgelegt sein, dass durch die Projektionseinrichtung eine schematische Darstellung der (jeweiligen) virtuellen Eingabeeinrichtung auf die Arbeitsfläche projiziert wird. Diese kann etwa in Größe und Positionierung durch den Benutzer angepasst werden. So kann das Steuersignal für die Projektionseinrichtung 50 so bereitgestellt 140 werden, dass die der virtuellen Eingabeeinrichtung entsprechende Projektion durch den Benutzer verschiebbar ist. Beispielsweise kann die virtuelle Eingabeeinrichtung einen virtuellen Halteknopf umfassen, der in der Projektion umfasst ist, und der von dem Benutzer virtuell verschoben werden kann, um die der virtuellen Eingabeeinrichtung entsprechende Projektion zu verschieben.
  • Alternativ kann eine weitere Anzeigeeinrichtung 55 in die Arbeitsfläche eingebettet sein, etwa unter einer transparenten oder zumindest durchleuchtbaren Abdeckung. Diese kann ebenfalls durch ein Steuersignal angesteuert werden. In anderen Worten kann das Verfahren ein Bereitstellen eines Steuersignals 145 für eine weitere Anzeigeeinrichtung 55 umfassen, um zu bewirken, dass durch die weitere Anzeigeeinrichtung 55 eine der virtuellen Eingabeeinrichtung entsprechende Anzeige auf der Arbeitsfläche dargestellt wird. Diese weite Anzeigeeinrichtung kann etwa ein Flüssigkristallbildschirm oder ein OLED sein, alternativ können jedoch auch Leuchtdioden platziert werden, die eine der virtuellen Eingabeeinrichtung entsprechende Anzeige durch Transmission der Anzeige durch Teile der Arbeitsfläche hindurch erzeugen. Dabei können die Leuchtdioden etwa entsprechend dünner oder perforiert ausgeführte Bereiche der Arbeitsfläche durchleuchten. Das Fahrzeug kann die Projektionseinrichtung 50 und/oder die weitere Anzeigeeinrichtung 55 umfassen.
  • Das Verfahren umfasst ferner das Erfassen 130 der Eingabe durch das zumindest eine Objekt. In einem einfachen Ausführungsbeispielen kann das Erfassen der Eingabe (allein) auf der erfassten Position und Bewegung des zumindest einen Objekts basieren, etwa durch eine Erkennung von Berührungen der Arbeitsfläche durch das zumindest eine Objekt basierend auf der erfassten Position und Bewegung des zumindest einen Objekts. Dabei kann die Erkennung der Berührungen beispielsweise auf den Laufzeitdaten oder Distanzdaten basieren oder basierend auf einer Krümmung oder dreidimensionaler Lage des zumindest einen Objekts basieren, etwa basierend auf den visuellen Daten oder basierend auf den Laufzeitdaten oder Distanzdaten
  • Alternativ oder zusätzlich kann das Erfassen der Eingabe auf einem berührungsempfindlichen Sensor basieren, d.h. entweder können die Lage/Position des zumindest einen Objekts und ein Eingabesignal eines zumindest einen berührungsempfindlichen Sensors 60 zusammen genutzt werden, um die Eingabe zu erfassen, oder die Lage/Position des zumindest einen Objekts kann genutzt werden, um die Darstellung über die Anzeigeeinrichtung zu ermöglichen und das Eingabesignal kann genutzt werden, um die Eingabe zu erfassen. In anderen Worten kann das Verfahren ein Erhalten 150 eines Eingabesignals von zumindest einem berührungsempfindlichen Sensor 60 der Arbeitsfläche umfassen, d.h. die Arbeitsfläche kann den zumindest einen berührungsempfindlichen Sensor 60 umfassen. Die Eingabe durch das zumindest eine Objekt kann basierend auf dem Eingabesignal des zumindest einen berührungsempfindlichen Sensors 60 erfasst 130 werden.
  • Der zumindest eine berührungsempfindliche Sensor 60 kann beispielsweise zumindest ein kapazitiver Sensor sein oder zumindest einen kapazitiven Sensor umfassen. Kapazitive Sensoren werden häufig in Touchscreens (berührungsempfindlichen Bildschirmen) von Mobiltelefonen, Tablets und Computern genutzt, können jedoch auch abseits von solchen Geräten genutzt werden, um Berührungen (oder auch Annäherungen) von leitfähigen Objekten (wie etwa Fingern oder metallischen Gegenständen) an einer Oberfläche über eine kapazitive Änderung eines elektrischen Felds zu detektieren. Dabei kann die Position des zumindest einen Objekts auf der Arbeitsfläche über eine Triangulierung der Änderung im elektrischen Feld bestimmt werden. Alternativ kann auch ein resistiver Sensor verwendet werden.
  • Alternativ oder zusätzlich kann der zumindest eine berührungsempfindliche Sensor zumindest ein piezoelektrischer Sensor sein oder zumindest einen piezoelektrischen Sensor umfassen. Piezoelektrische Sensoren können beispielsweise ausgebildet sein, um einen Druck, der auf die Sensoren ausgeübt wird, in eine Spannung oder einen Stromfluss umzuwandeln, der gemessen werden kann (oder auch umgekehrt, wenn die piezoelektrischen Sensoren als Aktoren verwendet werden sollen). Aufgrund der Lage der piezoelektrischen Sensoren kann auf eine Position des zumindest einen Objekts auf der Arbeitsfläche geschlossen werden.
  • Alternativ oder zusätzlich kann der zumindest eine berührungsempfindliche Sensor zumindest ein Vibrationssensor (auch engl. „Seismic Sensor“) sein oder zumindest einen Vibrationssensor umfassen. Vibrationssensoren können etwa dazu ausgebildet sein, um einen Impuls einer Berührung zwischen dem zumindest einen Objekt und der Arbeitsfläche zu erfassen. Durch eine Nutzung einer Mehrzahl von Vibrationssensoren kann eine Position des Impulses trianguliert werden. So kann die Position des zumindest einen Objekts auf der Arbeitsfläche über eine Triangulierung der erfassten durch die Mehrzahl von Vibrationssensoren erfassten Impulse berechnet werden, und so die Eingabe erfasst werden. Alternativ kann lediglich ein Berührungsereignis durch den zumindest einen Vibrationssensor erfasst werden und über die Position/Lage des zumindest einen Objektes (das durch den visuellen Sensor erfasst wurde) kann die Eingabe zum Zeitpunkt des Berührungsereignisses erfasst werden.
  • Die Eingabe wird so erfasst, dass sie der angezeigten Position und Bewegung des zumindest einen Objekts auf der virtuellen Eingabeeinrichtung entspricht. So kann die Eingabe beispielsweise über die Position und Bewegung des zumindest einen Objekts (die der angezeigten Position und Bewegung des zumindest einen Objekts auf der virtuellen Eingabeeinrichtung entspricht) erfasst oder plausibilisiert werden. Alternativ kann das System so ausgelegt sein, dass über die Erfassung über den zumindest einen berührungsempfindlichen Sensor die Eingabe so erfasst wird, dass sie der unabhängig davon erfassten Position und Bewegung des zumindest einen Objekts auf der Arbeitsfläche entspricht.
  • In zumindest einigen Ausführungsbeispielen wird dem Benutzer zusätzlich eine Rückmeldung (auch engl. Feedback) gegeben, damit dieser die erfolgreich erfasste Eingabe registriert. So kann das Verfahren ferner ein Bereitstellen 160 eines Steuersignals für eine taktile Rückmeldeeinrichtung 70 basierend auf der erfassten Eingabe umfassen, um dem Benutzer eine taktile Rückmeldung über die erfasste Eingabe bereitzustellen. Die Arbeitsfläche 20 kann die taktile Rückmeldeeinrichtung 70 umfassen. Dabei kann die taktile Rückmeldeeinrichtung 70 beispielsweise ausgebildet sein, um im Zeitpunkt der Erfassung der Eingabe eine taktile Rückmeldung zu geben, die einen Tastendruck der virtuellen Tastatur oder des virtuellen Touchpads imitiert. Dabei kann der Arbeitsfläche 20 eine Mehrzahl von taktilen Rückmeldeeinheiten der taktilen Rückmeldeeinrichtung 70 umfassen, die dazu ausgelegt sind, basierend auf der Position der erfassten Eingabe die taktile Rückmeldung bereitzustellen. Dazu kann zumindest ein Teil der Arbeitsfläche entkoppelt ausgeführt sein, um die haptische Rückmeldung mit einem geringeren Energieaufwand zu ermöglichen. Dabei kann die taktile Rückmeldeeinrichtung 70 beispielsweise den zumindest einen piezoelektrischen Sensor als Aktor nutzen, um die haptische Rückmeldung zu bewirken. Alternativ oder zusätzlich kann die taktile Rückmeldeeinrichtung einen Vibrationsmotor als Vibrationssaktor umfassen, der ausgebildet ist, um die haptische Rückmeldung über die Arbeitsfläche dem Benutzer bereitzustellen. Dabei kann beispielsweise durch die taktile Rückmeldeeinrichtung ein Impuls über eine Beschleunigung einer Masse durch ein Magnetfeld auf die Arbeitsfläche übertragen werden.
  • In zumindest manchen Ausführungsbeispielen ist die Arbeitsfläche 20 verstaubar ausgeführt. So kann die Arbeitsfläche in einem Fahrzeug beispielsweise in oder auf dem Armaturenbrett des Fahrzeugs in einem Fußteil der Mittelkonsole verstaubar sein. Das Fahrzeug kann ferner ein verstaubares Lenkelement 80 umfassen. Das verstaubare Lenkelement kann beispielsweise faltbar oder wegklappbar ausgeführt sein. Dabei kann das verstaubare Lenkelement etwa komplett verstaubar sein, so dass es im verstauten Zustand im Armaturenbrett verschwindet, oder es kann lediglich in seiner Größe reduziert werden, um den Fahrer nicht weiter zu behindern. Die verstaubare Arbeitsfläche kann beispielsweise alternativ zu dem verstaubaren Lenkelement durch einen Fahrer des Fahrzeugs nutzbar sein (d.h. entweder ist die verstaubare Arbeitsfläche oder das verstaubare Lenkelement durch den Benutzer nutzbar).
  • Die zumindest eine Schnittstelle 12 kann beispielsweise einem oder mehreren Eingängen und/oder einem oder mehreren Ausgängen zum Empfangen und/oder Übertragen von Informationen entsprechen, etwa in digitalen Bitwerten, basierend auf einem Code, innerhalb eines Moduls, zwischen Modulen, oder zwischen Modulen verschiedener Entitäten. In Ausführungsbeispielen kann das Verarbeitungsmodul 14 einem beliebigen Controller oder Prozessor oder einer programmierbaren Hardwarekomponente entsprechen. Beispielsweise kann das Verarbeitungsmodul 14 auch als Software realisiert sein, die für eine entsprechende Hardwarekomponente programmiert ist. Insofern kann das Verarbeitungsmodul 14 als programmierbare Hardware mit entsprechend angepasster Software implementiert sein. Dabei können beliebige Prozessoren, wie Digitale Signalprozessoren (DSPs) zum Einsatz kommen. Ausführungsbeispiele sind dabei nicht auf einen bestimmten Typ von Prozessor eingeschränkt. Es sind beliebige Prozessoren oder auch mehrere Prozessoren zur Implementierung des Verarbeitungsmoduls 14 denkbar.
  • Mehr Details und Aspekte des Verfahrens, der Vorrichtung, des Computerprogramms und des Fahrzeugs werden in Verbindung mit dem Konzept oder Beispielen genannt, die vorher oder nachher beschrieben werden. Das Verfahren, die Vorrichtung, das Computerprogramm oder das Fahrzeug kann/können ein oder mehrere zusätzliche optionale Merkmale umfassen, die ein oder mehreren Aspekten des vorgeschlagenen Konzepts oder der beschriebenen Beispiele entsprechen, wie sie vorher oder nachher beschrieben wurden.
  • 2 zeigt ein Ausführungsbeispiel einer Nutzung des vorgestellten Verfahrens oder der Vorrichtung in einem Fahrzeug. 2 zeigt eine Skizze einer möglichen Ausführungsform einer virtuellen Tastatur 200 und eines Panorama-Head-up-Display 40. In 2 wird ein Fahrzeug gezeigt, das einen Tisch/Arbeitsfläche 20 und ein faltbares/wegklappbares Lenkelement 70 umfasst. Ein Fahrer 230 des Fahrzeugs sitzt auf dem Fahrersitz und kann alternativ die Tisch/Arbeitsfläche 20 oder das faltbare / wegklappbare Lenkelement 70 nutzen. Dabei kann das faltbare Lenkelement etwa als sog. H-Wheel ausgeführt sein. Das H-Wheel zeichnet sich dadurch aus, dass es ein Querelement, das an der Lenkachse montierbar ist, und zumindest eine Lenkeinheit (etwa einen Seitengriff) aufweist, wobei die Lenkeinheit drehbar an dem Querelement angeordnet ist.
  • Das Fahrzeug umfasst einen Sensor für Hand- und Fingererfassung 30 (etwa eine Infrarotkamera), sowohl optional ein Projektionssystem 50 (sog. Kamera-Projektor-Verbund). Ausführungsbeispiele können beispielsweise einen einem Sensor 30, z.B. eine Infrarotkamera, zur zweidimensionalen Erfassung von Hand- und Fingerbewegungen nutzen. Optional kann auch eine dreidimensionale Erfassung genutzt werden (damit möglicherweise Entfall der Touch-/Drucksensitivität im Tisch). Das optionale Projektionssystem/der optionale Projektor 50 kann genutzt werden zur Projektion von Eingabebereichen und Eingabeelementen auf dem Tisch 20 oder anderen Oberflächen. Das Fahrzeug umfasst ferner eine Anzeigeeinrichtung 40, in dem dargestellten Beispiel eine Panorama-Head-Up-Anzeige, die in die Windschutzscheibe eingespiegelt ist. Auf dieser Anzeige ist ein Texteingabefeld 220 angezeigt (etwa für ein Dokument, Webseite, Chat etc.), eine virtuelle Tastatur 210 mit eingeblendeten Händen, Fingern, sowie ein virtuelles Touch-Pad 215. Das Panorama-HUD 40 wird dabei als Anzeigeeinrichtung zur Anzeige vor dem Nutzer mit den virtuellen Eingabebereichen und dem Texteingabebereich genutzt. In den virtuellen Eingabebereichen werden Hände und Finger als überlagertes Videobild oder in abstrahierter Form überlagert dargestellt.
  • Die Tisch / Arbeitsfläche 20 kann optional ferner eine Berührungs-/Drucksensitive Oberfläche umfassen. Die Arbeitsfläche kann ferner optional transmissive oder projizierte Eingabebereiche umfassen, auf denen die Eingabeeinrichtungen, wie etwa die Tastatur, angezeigt werden. Optional kann die Arbeitsfläche aber auch ohne dort sichtbare Eingabebereiche oder sehr reduziert gekennzeichnete Eingabebereiche (z.B. ein Rahmen, eine Versenkung, haptische Suchmulden etc.) ausgeführt sein.
  • Die Aspekte und Merkmale, die zusammen mit einem oder mehreren der vorher detaillierten Beispiele und Figuren beschrieben sind, können auch mit einem oder mehreren der anderen Beispiele kombiniert werden, um ein gleiches Merkmal des anderen Beispiels zu ersetzen oder um das Merkmal in das andere Beispiel zusätzlich einzuführen.
  • Beispiele können weiterhin ein Computerprogramm mit einem Programmcode zum Ausführen eines oder mehrerer der obigen Verfahren sein oder sich darauf beziehen, wenn das Computerprogramm auf einem Computer oder Prozessor ausgeführt wird. Schritte, Operationen oder Prozesse von verschiedenen, oben beschriebenen Verfahren können durch programmierte Computer oder Prozessoren ausgeführt werden. Beispiele können auch Programmspeichervorrichtungen, z. B. Digitaldatenspeichermedien, abdecken, die maschinen-, prozessor- oder computerlesbar sind und maschinenausführbare, prozessorausführbare oder computerausführbare Programme von Anweisungen codieren. Die Anweisungen führen einige oder alle der Schritte der oben beschriebenen Verfahren aus oder verursachen deren Ausführung. Die Programmspeichervorrichtungen können z. B. Digitalspeicher, magnetische Speichermedien wie beispielsweise Magnetplatten und Magnetbänder, Festplattenlaufwerke oder optisch lesbare Digitaldatenspeichermedien umfassen oder sein. Weitere Beispiele können auch Computer, Prozessoren oder Steuereinheiten, die zum Ausführen der Schritte der oben beschriebenen Verfahren programmiert sind, oder (feld-)programmierbare Logik-Arrays ((F)PLAs = (Field) Programmable Logic Arrays) oder (feld-)programmierbare Gate-Arrays ((F)PGA = (Field) Programmable Gate Arrays), die zum Ausführen der Schritte der oben beschriebenen Verfahren programmiert sind, abdecken.
  • Durch die Beschreibung und Zeichnungen werden nur die Grundsätze der Offenbarung dargestellt. Weiterhin sollen alle hier aufgeführten Beispiele grundsätzlich ausdrücklich nur illustrativen Zwecken dienen, um den Leser beim Verständnis der Grundsätze der Offenbarung und der durch den (die) Erfinder beigetragenen Konzepte zur Weiterentwicklung der Technik zu unterstützen. Alle hiesigen Aussagen über Grundsätze, Aspekte und Beispiele der Offenbarung sowie konkrete Beispiele derselben umfassen deren Entsprechungen.
  • Ein als „Mittel zum...“ Ausführen einer bestimmten Funktion bezeichneter Funktionsblock kann sich auf eine Schaltung beziehen, die ausgebildet ist zum Ausführen einer bestimmten Funktion. Somit kann ein „Mittel für etwas“ als ein „Mittel ausgebildet für oder geeignet für etwas“ implementiert sein, z. B. ein Bauelement oder eine Schaltung ausgebildet für oder geeignet für die jeweilige Aufgabe.
  • Funktionen verschiedener in den Figuren gezeigter Elemente einschließlich jeder als „Mittel“, „Mittel zum Bereitstellen eines Signals“, „Mittel zum Erzeugen eines Signals“, etc. bezeichneter Funktionsblöcke kann in Form dedizierter Hardware, z. B „eines Signalanbieters“, „einer Signalverarbeitungseinheit“, „eines Prozessors“, „einer Steuerung“ etc. sowie als Hardware fähig zum Ausführen von Software in Verbindung mit zugehöriger Software implementiert sein. Bei Bereitstellung durch einen Prozessor können die Funktionen durch einen einzelnen dedizierten Prozessor, durch einen einzelnen gemeinschaftlich verwendeten Prozessor oder durch eine Mehrzahl von individuellen Prozessoren bereitgestellt sein, von denen einige oder von denen alle gemeinschaftlich verwendet werden können. Allerdings ist der Begriff „Prozessor“ oder „Steuerung“ bei Weitem nicht auf ausschließlich zur Ausführung von Software fähige Hardware begrenzt, sondern kann Digitalsignalprozessor-Hardware (DSP-Hardware; DSP = Digital Signal Processor), Netzprozessor, anwendungsspezifische integrierte Schaltung (ASIC = Application Specific Integrated Circuit), feldprogrammierbare Logikanordnung (FPGA = Field Programmable Gate Array), Nurlesespeicher (ROM = Read Only Memory) zum Speichern von Software, Direktzugriffsspeicher (RAM = Random Access Memory) und nichtflüchtige Speichervorrichtung (storage) umfassen. Sonstige Hardware, herkömmliche und/oder kundenspezifische, kann auch eingeschlossen sein.
  • Ein Blockdiagramm kann zum Beispiel ein grobes Schaltdiagramm darstellen, das die Grundsätze der Offenbarung implementiert. Auf ähnliche Weise können ein Flussdiagramm, ein Ablaufdiagramm, ein Zustandsübergangsdiagramm, ein Pseudocode und dergleichen verschiedene Prozesse, Operationen oder Schritte repräsentieren, die zum Beispiel im Wesentlichen in computerlesbarem Medium dargestellt und so durch einen Computer oder Prozessor ausgeführt werden, ungeachtet dessen, ob ein solcher Computer oder Prozessor explizit gezeigt ist. In der Beschreibung oder in den Patentansprüchen offenbarte Verfahren können durch ein Bauelement implementiert werden, das ein Mittel zum Ausführen eines jeden der jeweiligen Schritte dieser Verfahren aufweist.
  • Es versteht sich, dass die Offenbarung mehrerer, in der Beschreibung oder den Ansprüchen offenbarter Schritte, Prozesse, Operationen oder Funktionen nicht als in der bestimmten Reihenfolge befindlich ausgelegt werden soll, sofern dies nicht explizit oder implizit anderweitig, z. B. aus technischen Gründen, angegeben ist. Daher werden diese durch die Offenbarung von mehreren Schritten oder Funktionen nicht auf eine bestimmte Reihenfolge begrenzt, es sei denn, dass diese Schritte oder Funktionen aus technischen Gründen nicht austauschbar sind. Ferner kann bei einigen Beispielen ein einzelner Schritt, Funktion, Prozess oder Operation mehrere Teilschritte, -funktionen, -prozesse oder -operationen einschließen und/oder in dieselben aufgebrochen werden. Solche Teilschritte können eingeschlossen sein und Teil der Offenbarung dieses Einzelschritts sein, sofern sie nicht explizit ausgeschlossen sind.
  • Weiterhin sind die folgenden Ansprüche hiermit in die detaillierte Beschreibung aufgenommen, wo jeder Anspruch als getrenntes Beispiel für sich stehen kann. Während jeder Anspruch als getrenntes Beispiel für sich stehen kann, ist zu beachten, dass - obwohl ein abhängiger Anspruch sich in den Ansprüchen auf eine bestimmte Kombination mit einem oder mehreren anderen Ansprüchen beziehen kann - andere Beispiele auch eine Kombination des abhängigen Anspruchs mit dem Gegenstand jedes anderen abhängigen oder unabhängigen Anspruchs umfassen können. Solche Kombinationen werden hier explizit vorgeschlagen, sofern nicht angegeben ist, dass eine bestimmte Kombination nicht beabsichtigt ist. Ferner sollen auch Merkmale eines Anspruchs für jeden anderen unabhängigen Anspruch eingeschlossen sein, selbst wenn dieser Anspruch nicht direkt abhängig von dem unabhängigen Anspruch gemacht ist.

Claims (20)

  1. Verfahren zum Erfassen einer Eingabe, das Verfahren umfassend: Erfassen (110) einer Position und Bewegung von zumindest einem Objekt auf einer Arbeitsfläche (20) über zumindest einen optischen Sensor (30); Bereitstellen (120) eines Anzeigesignals für eine Anzeigeeinrichtung (40) basierend auf der erfassten Position und Bewegung des zumindest einen Objekts, um zu bewirken, dass durch die Anzeigeeinrichtung (40) eine Form, die Position und die Bewegung des zumindest einen Objekts auf einer virtuellen Eingabeeinrichtung dargestellt wird; und Erfassen (130) der Eingabe durch das zumindest eine Objekt, wobei die Eingabe so erfasst wird, dass sie der angezeigten Position und Bewegung des zumindest einen Objekts auf der virtuellen Eingabeeinrichtung entspricht.
  2. Das Verfahren gemäß Anspruch 1, wobei die Anzeigeeinrichtung (40) und die Arbeitsfläche (20) sich nicht überlappen.
  3. Das Verfahren gemäß einem der Ansprüche 1 oder 2, ferner umfassend Bereitstellen (140) eines Steuersignals für eine Projektionseinrichtung (50), um zu bewirken, dass durch die Projektionseinrichtung (50) eine der virtuellen Eingabeeinrichtung entsprechende Projektion auf die Arbeitsfläche projiziert wird.
  4. Das Verfahren gemäß Anspruch 3, wobei das Steuersignal für die Projektionseinrichtung (50) so bereitgestellt (140) wird, dass die der virtuellen Eingabeeinrichtung entsprechende Projektion durch einen Benutzer verschiebbar ist.
  5. Das Verfahren gemäß einem der Ansprüche 1 bis 4, ferner umfassend Bereitstellen eines Steuersignals (145) für eine weitere Anzeigeeinrichtung (55), um zu bewirken, dass durch die weitere Anzeigeeinrichtung (55) eine der virtuellen Eingabeeinrichtung entsprechende Anzeige auf der Arbeitsfläche dargestellt wird.
  6. Das Verfahren gemäß einem der Ansprüche 1 bis 5, wobei der optische Sensor (30) eine visuelle Kamera ist, oder wobei der optische Sensor ein Infrarot-basierter optischer Sensor ist.
  7. Das Verfahren gemäß einem der Ansprüche 1 bis 6, ferner umfassend Erhalten (150) eines Eingabesignals von zumindest einem berührungsempfindlichen Sensor (60) der Arbeitsfläche, wobei die Eingabe durch das zumindest eine Objekt basierend auf dem Eingabesignal des zumindest einen berührungsempfindlichen Sensors (60) erfasst (130) wird.
  8. Das Verfahren gemäß Anspruch 7, wobei der zumindest eine berührungsempfindliche Sensor (60) zumindest einen kapazitiven Sensor, zumindest einen piezoelektrischen Sensor, zumindest einen resistiven Sensor oder zumindest einen Vibrationssensor umfasst.
  9. Das Verfahren gemäß einem der Ansprüche 1 bis 8, ferner umfassend Bereitstellen (160) eines Steuersignals für eine taktile Rückmeldeeinrichtung (70) basierend auf der erfassten Eingabe, um einem Benutzer eine taktile Rückmeldung über die erfasste Eingabe bereitzustellen.
  10. Das Verfahren gemäß einem der Ansprüche 1 bis 9, wobei das Anzeigesignal so generiert wird, dass durch die Anzeigeeinrichtung (40) die virtuelle Eingabeeinrichtung und eine Benutzeroberfläche darstellbar ist.
  11. Das Verfahren gemäß einem der Ansprüche 1 bis 10, wobei das zumindest eine Objekt zumindest eine Hand ist, wobei das Anzeigesignal so bereitgestellt (120) wird, dass durch die Anzeigeeinheit (40) eine stilisierte Anzeige der zumindest einen Hand entsprechend der erfassten Position und Bewegung der zumindest einen Hand darstellbar ist.
  12. Das Verfahren gemäß einem der Ansprüche 1 bis 11, wobei die virtuelle Eingabeeinrichtung zumindest ein Element der Gruppe von eine virtuelle Tastatur, ein virtuelles Touchpad und ein virtuelles Zeichentablett umfasst.
  13. Das Verfahren gemäß einem der Ansprüche 1 bis 12, wobei die Anzeigeeinrichtung (40) durch einen Bildschirm gebildet wird, oder wobei die Anzeigeeinrichtung (40) durch einen Head-up-Bildschirm gebildet wird.
  14. Programm mit einem Programmcode zum Durchführen des Verfahrens gemäß einem der Ansprüche 1 bis 13, wenn der Programmcode auf einem Computer, einem Prozessor, einem Kontrollmodul oder einer programmierbaren Hardwarekomponente ausgeführt wird.
  15. Vorrichtung (10) zum Erfassen einer Eingabe, die Vorrichtung (10) umfassend: zumindest eine Schnittstelle (12) zur Kommunikation mit zumindest einem optischen Sensor (30) und einer Anzeigeeinrichtung (40); und ein Verarbeitungsmodul (14) ausgebildet zum: Erfassen einer Position und Bewegung von zumindest einem Objekt auf einer Arbeitsfläche (20) über den zumindest einen optischen Sensor (30), Bereitstellen eines Anzeigesignals für die Anzeigeeinrichtung (40) basierend auf der erfassten Position und Bewegung des zumindest einen Objekts, um zu bewirken, dass durch die Anzeigeeinrichtung (40) eine Form, die Position und die Bewegung des zumindest einen Objekts auf einer virtuellen Eingabeeinrichtung dargestellt wird, und Erfassen der Eingabe durch das zumindest eine Objekt, wobei die Eingabe so erfasst wird, dass sie der angezeigten Position und Bewegung des zumindest einen Objekts auf der virtuellen Eingabeeinrichtung entspricht.
  16. Ein Fahrzeug (100) umfassend: eine Arbeitsfläche (20); zumindest einen optischen Sensor (30) zum Erfassen einer Position und einer Bewegung von zumindest einem Objekt auf der Arbeitsfläche; eine Anzeigeeinrichtung (40); und die Vorrichtung (10) gemäß Anspruch 15.
  17. Das Fahrzeug (100) gemäß Anspruch 16, ferner umfassend eine Projektionseinrichtung (50), und/oder umfassend eine weitere Anzeigeeinrichtung (55).
  18. Das Fahrzeug gemäß einem der Ansprüche 16 oder 17, wobei die Arbeitsfläche einen berührungsempfindlichen Sensor (60) umfasst, und/oder wobei die Arbeitsfläche eine taktile Rückmeldeeinrichtung (70) umfasst.
  19. Das Fahrzeug gemäß einem der Ansprüche 16 bis 18, wobei die Arbeitsfläche (20) verstaubar ist.
  20. Das Fahrzeug gemäß Anspruch 19, ferner umfassend ein verstaubares Lenkelement (80), wobei die verstaubare Arbeitsfläche alternativ zu dem verstaubaren Lenkelement durch einen Fahrer des Fahrzeugs nutzbar ist.
DE102019114752.2A 2019-06-03 2019-06-03 Verfahren, Vorrichtung und Computerprogramm zum Erfassen einer Eingabe und Fahrzeug mit einer solchen Vorrichtung Pending DE102019114752A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019114752.2A DE102019114752A1 (de) 2019-06-03 2019-06-03 Verfahren, Vorrichtung und Computerprogramm zum Erfassen einer Eingabe und Fahrzeug mit einer solchen Vorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019114752.2A DE102019114752A1 (de) 2019-06-03 2019-06-03 Verfahren, Vorrichtung und Computerprogramm zum Erfassen einer Eingabe und Fahrzeug mit einer solchen Vorrichtung

Publications (1)

Publication Number Publication Date
DE102019114752A1 true DE102019114752A1 (de) 2020-12-03

Family

ID=73264747

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019114752.2A Pending DE102019114752A1 (de) 2019-06-03 2019-06-03 Verfahren, Vorrichtung und Computerprogramm zum Erfassen einer Eingabe und Fahrzeug mit einer solchen Vorrichtung

Country Status (1)

Country Link
DE (1) DE102019114752A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002054169A2 (en) * 2001-01-08 2002-07-11 Vkb Inc. A data input device
US20160375924A1 (en) * 2015-06-25 2016-12-29 Steering Solutions Ip Holding Corporation Steering wheel with integrated keyboard assembly
US20170349099A1 (en) * 2016-06-02 2017-12-07 Magna Electronics Inc. Vehicle display system with user input display

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002054169A2 (en) * 2001-01-08 2002-07-11 Vkb Inc. A data input device
US20160375924A1 (en) * 2015-06-25 2016-12-29 Steering Solutions Ip Holding Corporation Steering wheel with integrated keyboard assembly
US20170349099A1 (en) * 2016-06-02 2017-12-07 Magna Electronics Inc. Vehicle display system with user input display

Similar Documents

Publication Publication Date Title
DE102010026291B4 (de) Kraftfahrzeug
DE102019002898A1 (de) Robotorsimulationsvorrichtung
DE102018221024A1 (de) Einrichtung und verfahren zum betätigen eines auf einer berührungssteuerung basierenden lenkrads
DE102010027915A1 (de) Benutzer-Schnittstellen-Einrichtung zum Steuern eines Fahrzeug-Multimedia-Systems
DE202008000264U1 (de) Handgehaltene elektronische Vorrichtung
EP3108331B1 (de) Anwenderschnittstelle und verfahren zum berührungslosen bedienen eines in hardware ausgestalteten bedienelementes in einem 3d-gestenmodus
DE102014106960A1 (de) Verfahren zur Darstellung einer virtuellen Interaktion auf zumindest einem Bildschirm und Eingabevorrichtung, System und Verfahren für eine virtuelle Anwendung mittels einer Recheneinheit
EP2941685B1 (de) Bedienverfahren und bediensystem in einem fahrzeug
DE102013207237A1 (de) Fahrzeugsteuergerät
DE102012009429A1 (de) Verfahren zur Fernkonfiguration eines Fahrzeugs durch Visualisierung der Fahrzeugbedienung, sowie Endgerät und Fahrzeug hierfür
DE102012020607A1 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
DE102013021931A1 (de) Tastenlos bedienbare Bedienvorrichtung
DE102014006776A1 (de) Bedienvorrichtung für ein elektronisches Gerät
DE102016214478A1 (de) Anordnung, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders eines Fortbewegungsmittels
DE112019002604T5 (de) Virtuelle Bildanzeigevorrichtung
EP2943866B1 (de) Verfahren und vorrichtung zum bereitstellen einer benutzerschnittstelle in einem fahrzeug
WO2004034241A2 (de) Schnell-eingabevorrichtung
DE102013000069A1 (de) Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung
WO2015176708A1 (de) Vorrichtung zum anzeigen einer virtuellen realität sowie messgerät
DE102013016196B4 (de) Kraftfahrzeugbedienung mittels kombinierter Eingabemodalitäten
DE102019114752A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Erfassen einer Eingabe und Fahrzeug mit einer solchen Vorrichtung
DE102013019570A1 (de) Bedieneinrichtung mit berührungsloser Schrifteingabefunktion für ein Kraftfahrzeug, Kraftfahrzeug und Verfahren zum Betreiben einer Bedieneinrichtung
EP1444566A2 (de) Eingabegerät, webcam und bildschirm mit spracheingabefunktion
EP3093182B1 (de) Fortbewegungsmittel, arbeitsmaschine, anwenderschnittstelle und verfahren zur anzeige eines inhaltes einer ersten anzeigeeinrichtung auf einer zweiten anzeigeeinrichtung
DE102016207530A1 (de) System und Verfahren zum Darstellen eines virtuellen Fahrzeuginnenraums

Legal Events

Date Code Title Description
R163 Identified publications notified