DE102016008049A1 - Verfahren zum Betreiben einer Bedienvorrichtung, Bedienvorrichtung und Kraftfahrzeug - Google Patents

Verfahren zum Betreiben einer Bedienvorrichtung, Bedienvorrichtung und Kraftfahrzeug Download PDF

Info

Publication number
DE102016008049A1
DE102016008049A1 DE102016008049.3A DE102016008049A DE102016008049A1 DE 102016008049 A1 DE102016008049 A1 DE 102016008049A1 DE 102016008049 A DE102016008049 A DE 102016008049A DE 102016008049 A1 DE102016008049 A1 DE 102016008049A1
Authority
DE
Germany
Prior art keywords
hand
display element
user
graphical
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016008049.3A
Other languages
English (en)
Inventor
Matthias Wunderlich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102016008049.3A priority Critical patent/DE102016008049A1/de
Publication of DE102016008049A1 publication Critical patent/DE102016008049A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben einer Bedienvorrichtung (10) mit einer Anzeigeeinrichtung (14), wobei durch die Anzeigeeinrichtung (14) eine graphische Bedienoberfläche (16) bereitgestellt wird, auf welcher in einer Darstellungsebene mehrere graphische Anzeigeelemente (22) angezeigt werden, wobei die mehreren graphischen Anzeigeelemente (22) jeweils mit einer Bedienfunktion gekoppelt sind. Bei dem Verfahren wird zunächst eines der graphischen Anzeigeelemente (22) ausgewählt, wobei zum Auswählen eine Position einer Hand (24) oder eines Fingers (26) der Hand eines Nutzers relativ zu dem graphischen Anzeigeelement (22) mittels einer Erfassungseinrichtung (20) erfasst wird. Anschließend wird zumindest eine weitere Handgeste des Nutzers erfasst. Schließlich wird ein Darstellungsparameter des ausgewählten graphischen Anzeigeelements (22) in Abhängigkeit von der erfassten weiteren Handgeste mittels einer Steuereinrichtung (18) eingestellt, wobei der Darstellungsparameter des ausgewählten graphischen Anzeigeelements (22) unabhängig von Darstellungsparametern der übrigen graphischen Anzeigeelemente (22) eingestellt wird.

Description

  • Die Erfindung betrifft ein Verfahren zum Betreiben einer Bedienvorrichtung. Zu der Erfindung gehört auch eine Bedienvorrichtung, die gemäß dem erfindungsgemäßen Verfahren betreibbar ist. Schließlich umfasst die Erfindung auch ein Kraftfahrzeug mit der erfindungsgemäßen Bedienvorrichtung.
  • Aus dem allgemeinen Stand der Technik ist es bekannt, dass ein Nutzer eine Anordnung von graphischen Anzeigeelementen, sogenannten Icons, nach seinen eigenen Vorstellungen auf einem Display eines Computers positionieren kann. Hierzu kann sich der Nutzer beispielsweise eines realen Bedienelements, z. B. einer Computermaus oder eines Joysticks, bedienen.
  • Anstelle ein eigens dafür vorgesehenes Bedienelement zu verwenden, ist es auch möglich, dass der Nutzer, wenn die Anzeigevorrichtung eine berührungssensitive Bedienoberfläche aufweist, Anzeigeinhalte händisch, also beispielsweise durch Berührung und Bewegung mit seinem Finger, umpositionieren kann.
  • Dazu ist in der DE 10 2008 051 756 beispielsweise ein System zur Steuerung eines Informationssystems eines Fahrzeugs bekannt. Die Bedienung des Systems erfolgt durch vier verschiedene Eingabemodalitäten. Jeder der vier Eingabemodalitäten ist eine Bedienschnittstelle des Systems zugeordnet. Bei der ersten Eingabemodalität handelt es sich um ein Drehen oder Drücken, das durch einen an einem Touchscreen des Systems angeordneten Schalter erfasst wird. Bei der zweiten Eingabemodalität handelt es sich um eine Geste, welche durch eine kapazitive Sensorik des Touchscreens erfasst wird. Die dritte Eingabemodalität ist eine Spracherkennung, welche durch ein Spracherkennungsmodul erfasst wird. Bei der vierten Eingabemodalität handelt es sich um eine Blickerfassung, die durch ein Eyetrackingmodul erfasst wird. In Abhängigkeit von den erfassten Eingabemodalitäten entscheidet ein Präsentationsmanager des Systems über die Art der Ausgabe und die Wahl der geeigneten Präsentationsmethode der Anzeigeinhalte, welche auf dem Touchscreen wiedergegeben werden. Ein solches System ist komplex. Entsprechend ist eine Implementierung eines solchen Systems besonders aufwendig.
  • In der AU 2011 201 639 A1 ist ein Anzeigesystem mit einer berührungssensitiven Bedienoberfläche beschrieben. Ein auf einem Display des Anzeigesystems angezeigtes elektronisches Dokument wird durch eine Geste eines Nutzers des Anzeigesystems gedreht oder vergrößert. Die Drehung oder Vergrößerung des Dokuments wird durch die Geste auf oder in der Nähe der berührungssensitiven Bedienoberfläche durchgeführt und durch die berührungssensitive Bedienoberfläche erfasst. Nachteilig bei dieser Lösung ist, dass der Nutzer seine Hand genau positionieren muss, damit seine Hand oder Geste durch die kapazitive Sensorik der Bedienoberfläche erfasst wird.
  • Aus der DE 10 2006 028 046 A1 geht eine kombinierte Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug hervor. Die Vorrichtung umfasst einen berührungsempfindlichen Bildschirm zur Anzeige und Anwahl von Bedienfunktionen. Ferner umfasst die Vorrichtung eine Einrichtung zur Erfassung eines Bedienmittels. Der Bildschirm ist dabei dazu eingerichtet, bei einem in einem vorbestimmten Bereich um den Bildschirm erfassten Bedienmittel von einem Informationsmodus in einen Betriebsmodus, in dem eine Anwahl von Bedienfunktionen möglich ist, umzuschalten. Ferner umfasst die Anzeige- und Bedienvorrichtung ein manuelles Bedienelement mittels welchem eine Anwahl der Bedienfunktionen sowie eine Veränderung der auf dem Bildschirm angezeigten Informationen ermöglicht wird. Jeder Bedienhandlung, welche entweder an dem manuellen Bedienelement oder dem Bildschirm ausgeführt wird und durch die Einrichtung erfasst wird, ist eine bestimmte Funktion zugeordnet. Ein Nutzer muss genau wissen, was er zu betätigen oder wo er das Bedienmittel zu positionieren hat, um eine gewünschte Funktion auszulösen. Dadurch ist die kombinierte Anzeige- und Bedienvorrichtung besonders aufwändig zu bedienen.
  • Aufgabe der vorliegenden Erfindung ist es daher, eine Bedienvorrichtung sowie ein Verfahren und ein Kraftfahrzeug mit einer solchen Bedienvorrichtung zu schaffen, mittels welcher bzw. mittels welchem auf besonders einfache Art und Weise ein graphisches Anzeigeelement manipuliert werden kann.
  • Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die Merkmale der abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren offenbart.
  • Erfindungsgemäß wird diese Aufgabe gelöst durch ein Verfahren zum Betreiben einer Bedienvorrichtung mit einer Anzeigeeinrichtung (GUI – Graphical User Interface), wobei durch die Anzeigeeinrichtung eine graphische Bedienoberfläche bereitgestellt wird, auf welcher in einer Darstellungsebene mehrere graphische Anzeigeelemente angezeigt werden, wobei die mehreren graphischen Anzeigeelemente jeweils mit einer Bedienfunktion gekoppelt sind. Mit anderen Worten ist jedem der mehreren graphischen Anzeigeelemente eine Bedienfunktion zugeordnet, welche durch eine Betätigung des jeweiligen Anzeigeelements ausgelöst oder aktiviert werden kann. Mittels der Bedienfunktion kann ein Gerät bedient werden. Damit stellt das graphische Anzeigeelement bevorzugt eine Bedienschnittstelle zum Bedienen des Geräts bereitgestellt sein. Bei jedem Anzeigeelement handelt es sich bevorzugt um ein Icon und/oder um einen Listeneintrag eines Menüs.
  • Bei dem Verfahren wird zunächst ein graphisches Anzeigeelement aus den mehreren graphischen Anzeigeelementen ausgewählt. Zum Auswählen des graphischen Anzeigeelements wird eine Position einer Hand oder eines Fingers der Hand eines Nutzers mittels einer Erfassungseinrichtung erfasst. Anschließend wird zumindest eine weitere Handgeste des Nutzers mittels einer Erfassungseinrichtung berührungslos erfasst, wobei die Handgeste durch die Hand des Nutzers ausgeführt wird. Schließlich wird ein Darstellungsparameter des ausgewählten graphischen Anzeigeelements in Abhängigkeit von der erfassten Handgeste des Nutzers mittels einer Steuereinrichtung eingestellt. Dabei wird der Darstellungsparameter des ausgewählten graphischen Anzeigeelements unabhängig von Darstellungsparametern der übrigen graphischen Anzeigeelemente eingestellt.
  • Durch das Verfahren wird eine Wechselwirkung zwischen dem graphischen Anzeigeelement und einer außerhalb der Anzeigeeinrichtung befindlichen Hand des Nutzers generiert oder bewirkt. Damit der Nutzer gezielt einen Darstellungsparameter des graphischen Anzeigeelements ändern kann, wählt der Nutzer zunächst eines von mehreren auf der graphischen Bedienoberfläche der Anzeigeeinrichtung angezeigten Anzeigeelementen aus. Mit „Änderung des Darstellungsparameters” ist hier gemeint, dass das graphische Anzeigeelement aus einer Referenzposition verlagert oder eine Gestalt geändert wird. Beispielsweise kann die Steuereinrichtung in Abhängigkeit von der erfassten Handgeste der Erfassungseinrichtung eine Position des graphischen Anzeigeelements auf der graphischen Bedienoberfläche verändern und/oder eine Größe oder Ausdehnung und/oder eine Orientierung des graphischen Anzeigeelements auf der graphischen Bedienoberfläche verändern.
  • Zum Auswählen des graphischen Anzeigeelements wird die Position der Hand oder des Fingers der Hand des Nutzers entweder auf der Bedienoberfläche der Anzeigeeinrichtung oder in einem vorbestimmten Abstand zur Bedienoberfläche relativ zu dem graphischen Anzeigeelement, welches der Nutzer auswählen möchte, erfasst. Die Hand oder der Finger ist dabei über dem auszuwählenden graphischen Anzeigeelement angeordnet. Mit „über” ist hier gemeint, dass die Hand oder der Finger in Überdeckung mit dem auszuwählenden Anzeigeelement angeordnet ist. Um die Auswahl zu erfassen, kann die Bedienoberfläche als ein Teil der Erfassungseinrichtung eine Sensormatrix aufweisen. Durch die Berührung oder eine kapazitive Erfassung der Hand oder des Fingers des Nutzers an der Bedienoberfläche kann eine Auswahl des entsprechenden Anzeigeelements erfasst werden.
  • Beim Auswählen des graphischen Anzeigeelements aktiviert der Nutzer aber keine dem graphischen Anzeigeelement zugeordnete Bedienfunktion. Zum Beispiel kann es vorgesehen sein, dass eine andere Betätigung des graphischen Anzeigeelements, beispielsweise durch ein wiederholtes Berühren oder Antippen des ausgewählten graphischen Bedienelements, der Nutzer eine dem graphischen Anzeigeelement zugeordnete Funktion, d. h. die dem Anzeigeelement zugeordnete Bedienfunktion, aktivieren kann.
  • Ist das graphische Anzeigeelement nun ausgewählt, so kann der Darstellungsparameter des ausgewählten graphischen Anzeigeelements geändert werden. Mit anderen Worten kann durch das Auswählen ein Koppelmodus zwischen der Hand des Nutzers und dem ausgewählten graphischen Anzeigeelement generiert werden. Das graphische Anzeigeelement ist also nun mit der Hand des Nutzers gekoppelt. Zum Einstellen des Darstellungsparameters wird zumindest eine weitere Handgeste des Nutzers erfasst. Die zumindest eine weitere Handgeste wird durch die Erfassungseinrichtung erfasst. Die Handgeste wird durch den Nutzer ausgeführt, indem er seine Hand bewegt. Beim Ausführen der Handgeste befindet sich die Hand frei, also berührungslos, in einem Bereich in einer Umgebung der Anzeigeeinrichtung. Erfasst die Erfassungseinrichtung die Handgeste, so übermittelt sie ein Erfassungssignal an die Steuereinrichtung, welche das Erfassungssignal auswertet und anschließend ein Einstellsignal zum Einstellen der Darstellung des ausgewählten Anzeigeelements an die Anzeigeeinrichtung übermittelt.
  • Daraus ergibt sich der Vorteil, dass der Nutzer auf besonders einfache Art und Weise mit den auf der Anzeigeeinrichtung angezeigten graphischen Anzeigeelementen interagieren kann. Dadurch kann der Nutzer nach seinen Vorlieben die Anzeige der graphischen Anzeigeelemente beliebig gestalten.
  • Zu der Erfindung gehören optionale Weiterbildungen, durch deren Merkmale sich zusätzliche Vorteile ergeben.
  • Gemäß einer Weiterbildung wird als die Handgeste eine Drehbewegung der Hand erfasst. Hierdurch wird das ausgewählte graphische Anzeigeelement in der Darstellungsebene der graphischen Bedienoberfläche korrespondierend zu einer Drehrichtung der Drehbewegung der Hand gedreht. In diesem Fall entspricht der Darstellungsparameter also einer Drehlage des graphischen Anzeigeelements. Durch die Steuereinrichtung wird hierdurch ein Drehen des ausgewählten graphischen Anzeigeelements umgesetzt. Mit Drehbewegung ist hier eine rotatorische Bewegung der Hand gemeint. Damit die Erfassungseinrichtung die Handgeste akzeptiert kann bei der Drehbewegung ein Nutzer seine Hand zunächst zu einer Faust ballen oder seine Hand mit den Fingern so zusammenkrümmen, als würde er einen Schraubenschlüssel halten. Damit die Erfassungseinrichtung die Drehbewegung registriert, kann der Nutzer anschließend seine Hand nach rechts oder links drehen. Mit anderen Worten kippt der Nutzer seine Hand in einer fließenden Bewegung in einem vorbestimmten Winkel aus einer Startposition oder Anfangsposition. Während der Drehbewegung der Hand kann sich das graphische Anzeigeelement um seine eigene Achse mitdrehen. Dabei kann das graphische Anzeigeelement soweit aus seiner Referenzposition gedreht werden, bis die Hand anhält oder eine Stoppposition erreicht. Beispielsweise kann die Hand ausgehend von der Startposition um 90 Grad gedreht werden. Da die Bewegung des graphischen Anzeigeelements mit der Drehwebegung der Hand korrespondiert, dreht sich das graphische Anzeigeelement ebenfalls um 90 Grad um seine eigene Achse. Mit Achse ist hier eine Achse senkrecht zur Darstellungsebene oder Bedienoberfläche gemeint. Durch die korrespondierende Bewegung sieht der Nutzer genau, wie die Wechselwirkung zwischen der ausgeführten Handgeste und der Änderungen der Darstellung des graphischen Anzeigeelements erfolgt.
  • Eine weitere Ausführungsform der Erfindung sieht vor, dass als eine Handgeste eine Kombinationsgeste der Hand aus einer Drehbewegung und einer gleichzeitigen Bewegung der Hand senkrecht zur Bedienoberfläche erfasst wird. Mit anderen Worten wird als die Kombinationsgeste der Hand gleichzeitig eine rotatorische und translatorische, d. h. geradlinige, Bewegung der Hand durchgeführt. Hierdurch wird das ausgewählte graphische Anzeigeelement in der Darstellungsebene des Displays korrespondierend zu der Kombinationsgeste vergrößert oder verkleinert dargestellt. Der Darstellungsparameter entspricht in diesem Fall also einer Ausdehnung oder einer Größe des graphischen Anzeigeelements. Durch die Steuereinrichtung wird durch die erfasste Kombinationsgeste ein Vergrößern oder Verkleinern des ausgewählten graphischen Anzeigeelements umgesetzt.
  • Mit Kombinationsgeste ist eine Überlagerung von zwei unterschiedlichen Handbewegungen gemeint, welche als eine Handgeste – die Kombinationsgeste – erfasst werden. Bei der ersten Handbewegung handelt es sich bevorzugt um die bereits zuvor beschriebene Drehbewegung der geschlossenen Hand. Bei der zweiten Handbewegung handelt es sich um eine Bewegung oder eine Verlagerung der Hand senkrecht zur Bedienoberfläche der Anzeigeeinrichtung. Bei der Kombinationsgeste ballt der Nutzer, wie bereits zur Drehbewegung erläutert, seine Hand zunächst zu einer Faust oder krümmt seine Hand und die Finger derart zusammen, als ob er einen Schraubenzieher halten würde. Anschließend verlagert er seine Hand mit einer gleichzeitigen Drehbewegung senkrecht zur Bedienoberfläche hin oder von der Bedienoberfläche weg. Zur Vergrößerung des graphischen Anzeigeelements bewegt der Nutzer bevorzugt seine Hand auf die Bedienoberfläche zu. Zur Verkleinerung des graphischen Anzeigeelements bewegt der Nutzer bevorzugt seine Hand von der Bedienoberfläche weg. Damit sich der Darstellungsparameter des graphischen Anzeigeelements ändert, führt der Nutzer also eine Schraubbewegung mit seiner Hand durch. Der Nutzer bewegt seine Hand so, also würde er einen Schraubenzieher betätigen. Durch die Kombinationsgeste wird auf besonders einfache Art und Weise ein Zoomeffekt, also ein Herauszoomen oder ein Hineinzoomen, umgesetzt.
  • In vorteilhafter Weise wird mittels der Erfassungseinrichtung die Handgeste nach dem Auswählen erst ab einer vorbestimmten Verlagerung der Hand aus einer Ausgangsposition erfasst. Mit anderen Worten erfasst die Erfassungseinrichtung die Handgeste bevorzugt erst nach einer Verzögerung. Wird als Handgeste beispielsweise die Drehbewegung der Hand erfasst, so kann als vorbestimmte Verlagerung ein Winkel oder eine Drehstrecke oder Drehlage vorgegeben werden, mit welchem oder mit welcher sich die Hand aus der Ausgangsposition oder Startposition zunächst oder mindestens verlagern muss, damit die Handgeste erfasst wird. Beispielsweise kann die Erfassungseinrichtung die Drehbewegung erst ab einem Winkel von 20 Grad erfassen. Bei der Kombinationsgeste kann es beispielsweise vorgesehen sein, dass die Kombinationsgeste erst durch die Erfassungseinrichtung erfasst wird, wenn der Nutzer seine Hand über eine Strecke von zumindest 5 mm senkrecht zur Bedienoberfläche bewegt hat. Besonders bevorzugt erfasst die Erfassungseinrichtung die Kombinationsgeste erst bei einer Verlagerung von 10 mm. Dadurch wird vermieden, dass ein Wackeln der Hand, welches beispielsweise durch die Bewegung des Kraftfahrzeugs hervorgerufen wird, fälschlicherweise als Handgeste erfasst wird. Durch eine derartige Verzögerung kann eine Fehlbedienung der Bedienvorrichtung vermieden werden.
  • Eine Weiterbildung der Erfindung sieht vor, dass nach dem Einstellen des Darstellungsparameters des ausgewählten graphischen Anzeigeelements das ausgewählte graphische Anzeigeelement in der eingestellten Darstellung gehalten wird, wenn durch den Nutzer eine Bestätigungshandlung durchgeführt wird. Stellt der Nutzer die Darstellung des graphischen Anzeigeelements ein und ist er mit der eingestellten Änderung zufrieden, so kann er als Bestätigungshandlung beispielsweise ein mechanisches Bedienelement betätigen, welches ein Bestätigungssignal an die Steuereinrichtung übermittelt. Dadurch verbleibt das ausgewählte graphische Bedienelement in der geänderten Darstellung. Falls die Bestätigungsgeste ausbleibt, wird das ausgewählte graphische Anzeigeelement nach einem vorbestimmten Zeitintervall nach dem Einstellen des Darstellungsparameters automatisch in eine Referenzposition zurückgeführt. Beispielsweise kann es vorgesehen sein, dass wenn nach dem Einstellen des Darstellungsparameters des ausgewählten graphischen Anzeigeelements das ausgewählte graphische Anzeigeelement wieder in eine Referenzposition zurückkehrt, von der aus der Nutzer die Darstellung geändert hat, wenn die Erfassungseinrichtung nach dem vorbestimmten Zeitintervall nach einer Einstellung der Darstellung keine Bestätigungshandlung, welche durch den Nutzer ausgeführt wird, erfasst. Das vorbestimmte Zeitintervall kann beispielsweise zwischen 3 Sekunden und 10 Sekunden, insbesondere 5 Sekunden, betragen. Das vorbestimmte Zeitintervall kann in einem Timer der Bedienvorrichtung hinterlegt sein.
  • In vorteilhafter Weise wird beim Auswählen des graphischen Anzeigeelements das graphische Anzeigeelement markiert. Mit anderen Worten wird beim Auswählen das graphische Anzeigeelement mit einer Markierung versehen. Ist das graphische Anzeigeelement markiert, so kann das Anzeigeelement beispielsweise farblich umrandet oder farblich hinterlegt sein. Dadurch erhält der Nutzer bei seiner Auswahl gleich eine optische Rückmeldung. Der Nutzer kann dadurch erkennen, ob das von ihm gewünschte graphische Anzeigeelement ausgewählt wurde. Zudem weiß der Nutzer, dass wenn er die Auswahl des graphischen Anzeigeelements getroffen hat und das graphische Anzeigeelement markiert ist, er dieses manipulieren kann, also dessen Darstellungsparameter ändern kann.
  • Um das erfindungsgemäße Verfahren durchzuführen, ist durch die Erfindung auch eine Bedienvorrichtung bereitgestellt. Die Bedienvorrichtung umfasst eine Anzeigeeinrichtung, welche dazu eingerichtet ist, eine graphische Bedienoberfläche bereitzustellen, auf welcher mehrere graphische Anzeigeelemente angezeigt sind, wobei die mehreren graphischen Anzeigeelemente jeweils mit einer Bedienfunktion gekoppelt sind. Die Bedienvorrichtung ist dazu eingerichtet, eines der graphischen Anzeigeelemente durch Erfassen einer Position einer Hand oder eines Fingers der Hand eines Nutzers relativ zu dem graphischen Anzeigeelement zu erfassen. Ferner umfasst die Bedienvorrichtung eine Erfassungseinrichtung, welche dazu eingerichtet ist, eine Handgeste des Nutzers zu erfassen. Ferner ist die Erfassungseinrichtung dazu eingerichtet, eine Handgeste des Nutzers berührungslos zu erfassen. Schließlich umfasst die Bedienvorrichtung auch eine Steuereinrichtung, welche dazu eingerichtet ist, einen Darstellungsparameter des ausgewählten graphischen Anzeigeelements in Abhängigkeit von der erfassten Handgeste des Nutzers unabhängig von Darstellungsparametern der übrigen graphischen Anzeigeelemente einzustellen.
  • Um die Handgeste zuverlässig in einem Bereich in einer Umgebung der Anzeigevorrichtung zu erfassen, sieht eine Weiterbildung vor, dass durch die Erfassungseinrichtung die Handgeste mittels einer Kamera erfasst wird. Mit der Kamera ist hier eine Bilderfassungseinrichtung sowie eine zugehörige Bildverarbeitungseinrichtung gemeint, durch welche in Bilddaten der Bilderfassungseinrichtung eine Hand erkannt und deren Lage im Raum erfasst wird. Bevorzugt ist die Kamera als eine Time-of-Flight-Kamera (TOF-Kamera) ausgebildet. Diese weist den Vorteil auf, dass unmittelbar anhand der 3D-Bilddaten der Time-of-Flight-Kamera eine relative Lage der Hand im Raum bezüglich der Kamera erfasst werden kann.
  • In vorteilhafter Weise sind die Anzeigeeinrichtung und ein Teil der Erfassungseinrichtung als Touchscreen ausgebildet sind. Mit anderen Worten bilden die Anzeigeeinrichtung und ein Teil der Erfassungseinrichtung zusammen den Touchscreen aus.
  • Die Bedienvorrichtung kann in der beschriebenen Weise in einem portablen, mobilen Endgerät, beispielsweise einem Smartphone oder Tabletcomputer, bereitgestellt sein. Insbesondere ist vorgesehen, dass die Bedienvorrichtung in einem Kraftfahrzeug realisiert ist. Entsprechend sieht die Erfindung auch ein Kraftfahrzeug mit einer Ausführungsform der erfindungsgemäßen Bedienvorrichtung vor. Das erfindungsgemäße Kraftfahrzeug ist bevorzugt als Kraftwagen, insbesondere als Personenkraftwagen, ausgestaltet.
  • Die für das erfindungsgemäße Verfahren beschriebenen Vorteile und bevorzugten Ausführungsformen gelten auch für das erfindungsgemäße Kraftfahrzeug und die erfindungsgemäße Bedienvorrichtung und umgekehrt.
  • Im Folgenden ist ein Ausführungsbeispiel der Erfindung beschrieben. Hierzu zeigt:
  • 1 eine schematische Darstellung einer Ausführungsform der erfindungsgemäßen Bedienvorrichtung;
  • 2 eine schematische Darstellung der Bedienvorrichtung von 1 bei einem Auswählen, eines graphischen Anzeigeelements durch einen Nutzer;
  • 3 eine schematische Darstellung der Bedienvorrichtung mit einem ausgewählten graphischen Anzeigeelement;
  • 4 eine schematische Darstellung einer Hand des Nutzers beim Ausführen einer Handgeste;
  • 5 eine schematische Darstellung der Hand des Nutzers beim Ausführen einer Kombinationsgeste; und
  • 6 eine schematische Darstellung der Hand des Nutzers beim Ausführen der Kombinationsgeste.
  • Bei dem im Folgenden erläuterten Ausführungsbeispiel handelt es sich um eine bevorzugte Ausführungsform der Erfindung. Bei dem Ausführungsbeispiel stellen die beschriebenen Komponenten der Ausführungsform jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren ist die beschriebene Ausführungsform auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.
  • In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.
  • 1 zeigt in einer Perspektivansicht eine Bedienvorrichtung 10. Die Bedienvorrichtung 10 wird beispielsweise in einem Kraftfahrzeug 12 bereitgestellt. Alternativ kann die Bedienvorrichtung 10 auch in einem mobilen Endgerät, wie beispielsweise einem Smartphone, bereitgestellt sein.
  • Die Bedienvorrichtung 10 umfasst eine Anzeigeeinrichtung 14 mit einer graphischen Bedienoberfläche 16, eine Steuereinrichtung 18 und eine Erfassungseinrichtung 20. Dabei sind die Anzeigeeinrichtung 14 und die Erfassungseinrichtung 20 mit der Steuereinrichtung 18 signaltechnisch gekoppelt.
  • Die Steuereinrichtung 18 ist dazu eingerichtet, einen Anzeigeinhalt auf der graphischen Bedienoberfläche 16 zu steuern. Auf der graphischen Bedienoberfläche 16 können beispielsweise graphische Anzeigeelemente 22 eingeblendet sein. Bei den graphischen Anzeigeelementen 22 handelt es sich beispielsweise um ein Icon oder um einen Menüeintrag. Dem jeweiligen graphischen Anzeigeelement 22 ist eine jeweilige Bedienfunktion zugeordnet. Durch die Bedienfunktion kann eine Gerätefunktion eines Geräts (in den Figuren nicht dargestellt) des Kraftfahrzeugs 12 ausgelöst werden. Mit anderen Worten dienen die graphischen Anzeigeelemente 22 als Benutzerschnittstelle zum Bedienen eines Geräts des Kraftfahrzeugs 12. Der Anzeigeinhalt in 1 kann beispielsweise eine Standardausrichtung der Menüanordnung einzelner Menüpunkte in Form der graphischen Anzeigeelemente 22 vorsehen. Jeder Menüpunkt kann beispielsweise eine der Bedienfunktionen für ein entsprechendes Gerät, wie beispielsweise ein Radio, ein Navigationsgerät, eine Klimaanlage repräsentieren.
  • Die Bedienvorrichtung 10 ermöglicht es einem Nutzer, die graphischen Anzeigeelemente 22 auszuwählen und deren Darstellungsparameter einzeln und unabhängig voneinander zu verändern oder einzustellen. Das Auswählen eines der graphischen Anzeigeelemente 22 ist in 2 und 3 gezeigt. Beim Auswählen des graphischen Anzeigeelements 22 aktiviert der Nutzer keine Gerätefunktion. Zum Erkennen oder Erfassen der Auswahl des Nutzers kann die graphischen Bedienoberfläche 16 eine Sensormatrix aufweisen. Die Sensormatrix kann Teil der Erfassungseinrichtung 20 der Bedienvorrichtung sein. Durch die Berührung oder eine kapazitive Erfassung einer Hand 24 oder eines Fingers 26 des Nutzers an der Bedienoberfläche 16 wird eine Auswahl des entsprechenden Anzeigeelements 22 erfasst. Dazu positioniert der Nutzer, wie es in 2 dargestellt ist, seine Hand 24, insbesondere einen Finger 26 der Hand, relativ zu dem auszuwählenden graphischen Anzeigeelement 22. Wird die Auswahl des Nutzers erfasst, so wird das ausgewählte graphische Anzeigeelement 22, wie es in 3 gezeigt ist, markiert. Das markierte ausgewählte graphische Anzeigeelement 22 ist beispielsweise farblich hinterlegt.
  • Nach dem Auswählen eines der angezeigten graphischen Anzeigeelemente 22 ermöglicht es die Bedienvorrichtung 10 dem Nutzer, nun den Darstellungsparameter des ausgewählten graphischen Anzeigeelements 22 zu verändern oder einzustellen. Dazu nutzt die Bedienvorrichtung 10 die Erfassungseinrichtung 20. Die Erfassungseinrichtung 20 kann hierzu beispielsweise eine Kamera, insbesondere eine TOF-Kamera, umfassen. Die Kamera weist dabei einen Erfassungsbereich 28 auf. Bei erfasster Handgeste übermittelt die Erfassungseinrichtung 20 ein Erfassungssignal E an die Steuereinrichtung 18. Diese wiederrum steuert die Anzeigeeinrichtung 14 an, indem sie ein Steuersignal S an die Anzeigeeinrichtung 14 übermittelt.
  • Der Nutzer kann die Darstellung des ausgewählten graphischen Anzeigeelements 22 ändern, indem er eine Handgeste in dem Erfassungsbereich 28 ausführt. Dazu ist seine Hand 24 frei in einer Umgebung der Anzeigeeinrichtung 14 in dem Erfassungsbereich 28 angeordnet. Die Darstellung des ausgewählten graphischen Anzeigeelements 22 ändert sich dann korrespondierend zur Bewegung der Hand.
  • In den 4 bis 6 sind unterschiedliche Handgesten des Nutzers gezeigt, die durch die Bedienvorrichtung 10 interpretiert werden können.
  • In 4 ist gezeigt, wie der Nutzer das ausgewählte graphische Anzeigeelement 22 um seine eigene Achse drehen kann. Beim Drehen des graphischen Anzeigeelements 22 wird das graphische Anzeigeelement 22 aus einer Referenzposition 30 verlagert. Zum Drehen des graphische Anzeigeelement 22 führt der Nutzer mit seiner Hand 24 eine Drehbewegung durch. Die Drehbewegung der Hand 24 und die dazu korrespondierende Drehung des graphischen Anzeigeelements 22 sind durch den jeweiligen Pfeil visualisiert. Je nachdem in welche Richtung der Nutzer seine Hand 24 dreht oder kippt, bewegt sich das graphische Anzeigeelement 22 in die entsprechende Richtung mit. In 4 dreht der Nutzer seine Hand 24 nach links, also entgegen den Uhrzeigersinn. Das graphische Anzeigeelement 22 wird bei erfasster Drehbewegung aus einer Referenzposition 30 ebenfalls nach links gedreht.
  • Bei der Handgeste zum Drehen des graphischen Anzeigeelements 22 ballt der Nutzer seine Hand 24 zunächst zu einer Faust zusammen oder krümmt seine Hand mit den Fingern so zusammen, als würde er einen Schraubenschlüssel halten. Anschließend dreht er die Hand 24 in eine gewünschte Richtung. Hat er die gewünschte Einstellung des graphischen Anzeigeelements 22 erreicht und soll das graphische Anzeigeelement 22 in der eingestellten Position gehalten werden, so kann der Nutzer mit der Hand, mit der er keine Handgeste ausführt, ein Bedienelement (in den Figuren nicht gezeigt), wie beispielsweise einen Knopf oder einer Taste, betätigen. Damit führt der Nutzer eine Bestätigungshandlung aus. Das Bedienelement ist dazu ebenfalls signaltechnisch mit der Steuereinrichtung 18 gekoppelt.
  • Anstelle das graphische Anzeigeelement 22 zu drehen, kann der Nutzer auch dessen Größe variieren. Eine entsprechende Handgeste zur Vergrößerung oder Verkleinerung des graphischen Anzeigeelements 22 ist in den 5 und 6 gezeigt.
  • Zur Einstellung der Größe des graphischen Anzeigeelements 22 wird als Handgeste eine Kombinationsgeste der Hand 24 ausgeführt. Das heißt, der Nutzer führt mit seiner Hand 24 gleichzeitig zwei unterschiedliche Bewegungen aus. Bei der ersten Bewegung handelt es sich um eine Drehbewegung, wie sie bereits oben zum Drehen des graphischen Anzeigeelements 22 beschrieben wurde. Die zweite Bewegung ist eine Verlagerung der Hand 24 senkrecht zur graphischen Bedienoberfläche 16. Mit anderen Worten wird als die Kombinationsgeste der Hand 24 gleichzeitig eine rotatorische und translatorische, also geradlinige, Bewegung der Hand 24 durchgeführt.
  • Bei der Kombinationsgeste ballt der Nutzer, wie bereits zur Drehbewegung erläutert, seine Hand 24 zunächst zu einer Faust oder krümmt seine Hand 24 und die Finger derart zusammen, als ob er einen Schraubenzieher halten würde. Anschließend verlagert er seine Hand 24 mit einer gleichzeitigen Drehbewegung senkrecht zur Bedienoberfläche 16 hin oder von der Bedienoberfläche 16 weg. Zur Vergrößerung des graphischen Anzeigeelements 22 bewegt der Nutzer bevorzugt seine Hand 24 auf die graphische Bedienoberfläche 16 zu. Zur Verkleinerung des graphischen Anzeigeelements 22 bewegt der Nutzer bevorzugt seine Hand 24 von der graphischen Bedienoberfläche 16 weg. Damit sich die Darstellung des graphischen Anzeigeelements 22 ändert, führt der Nutzer also eine Schraubbewegung mit seiner Hand 24 durch. Der Nutzer bewegt seine Hand 24 so, also würde er einen Schraubenzieher betätigen.
  • Insgesamt ist somit eine Gestenbedienung von Dreh- und Zoomfunktionen realisiert.
  • Im Folgenden ist eine besonders bevorzugte Ausführungsform beschrieben.
  • Die Gestenbedienung am Touchscreen wird mittels einer TOF-Kamera (Time of Flight Kamera) zur Kombination einer Zoomfunktion und Drehfunktion von Anzeigeelementen erfasst. Zunächst sind auf dem Touchscreen in einer Menüanordnung einzelne Menüpunkte, wie beispielsweise Radio oder Navigation, in einer Standartausrichtung dargestellt. Anschließend erfolgt eine Auswahl eines der Anzeigeelemente durch Markieren. Zum Markieren positioniert ein Nutzer die Hand über dem Symbol oder dem Anzeigeelement. Es kann auch ein direktes Markieren durch eine Bedienung im Touch erfolgen. Durch das Markieren ist das Symbol nun aktiv geschalten und entsprechend farblich hinterlegt. Nun kann das Symbol mittels Schraubenbewegung der Hand gedreht werden. Beispielsweise wird die Hand gehalten und dann nach links oder nach rechts gedreht. Alternativ oder zusätzlich kann auch eine Multitouchgeste ausgeführt werden. Eine Schraubenbewegung der Hand dreht das Symbol. Wenn zur Schraubenbewegung nun noch eine Verlagerung der Hand in X-Richtung, also senkrecht zur Bedienoberfläche des Touchscreens, stattfindet und gleichzeitig geschraubt wird kann das Symbol verkleinert oder vergrößert werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102008051756 [0004]
    • AU 2011201639 A1 [0005]
    • DE 102006028046 A1 [0006]

Claims (10)

  1. Verfahren zum Betreiben einer Bedienvorrichtung (10) mit einer Anzeigeeinrichtung (14), wobei durch die Anzeigeeinrichtung (14) eine graphische Bedienoberfläche (16) bereitgestellt wird, auf welcher in einer Darstellungsebene mehrere graphische Anzeigeelemente (22) angezeigt werden, wobei die mehreren graphischen Anzeigeelemente (22) jeweils mit einer Bedienfunktion gekoppelt sind, gekennzeichnet durch die Schritte: – Auswählen eines graphischen Anzeigeelements (22) aus den mehreren graphischen Anzeigeelementen (22), wobei zum Auswählen eine Position einer Hand (24) oder eines Fingers (26) der Hand eines Nutzers relativ zu dem graphischen Anzeigeelement (22) mittels einer Erfassungseinrichtung (20) erfasst wird; – Berührungsloses Erfassen zumindest einer weiteren Handgeste des Nutzers mittels der Erfassungseinrichtung (20), wobei die weitere Handgeste durch die Hand (24) des Nutzer ausgeführt wird; – Einstellen eines Darstellungsparameters des ausgewählten graphischen Anzeigeelements (22) in Abhängigkeit von der erfassten weiteren Handgeste des Nutzers mittels einer Steuereinrichtung (18), wobei der Darstellungsparameter des ausgewählten graphischen Anzeigeelements (22) unabhängig von Darstellungsparametern der übrigen graphischen Anzeigeelemente (22) eingestellt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als eine Handgeste eine Drehbewegung der Hand (24) erfasst wird und hierdurch das ausgewählte graphische Anzeigeelement (22) in der Darstellungsebene der graphischen Bedienoberfläche (16) korrespondierend zu einer Drehrichtung der Drehbewegung der Hand (24) gedreht wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass als eine Handgeste eine Kombinationsgeste der Hand (24) aus einer Drehbewegung und einer gleichzeitigen Bewegung der Hand (24) senkrecht zur graphischen Bedienoberfläche (16) erfasst wird und hierdurch das ausgewählte graphische Anzeigeelement (22) in der Darstellungsebene der graphischen Bedienoberfläche (16) korrespondierend zu der Kombinationsgeste vergrößert oder verkleinert dargestellt wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Erfassungseinrichtung (20) die Handgeste nach dem Auswählen erst ab einer vorbestimmten Verlagerung der Hand (24) aus einer Ausgangsposition erfasst.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass nach dem Einstellen des Darstellungsparameters des ausgewählten graphischen Anzeigeelements (22) das ausgewählte graphische Anzeigeelement (22) in der eingestellten Darstellung gehalten wird, wenn durch die Erfassungseinrichtung (20) eine Bestätigungshandlung erfasst wird und/oder bei Ausbleiben der Bestätigungshandlung das ausgewählte graphische Anzeigeelement (22) nach einem vorbestimmten Zeitintervall nach dem Einstellen des Darstellungsparameters automatisch in eine Referenzposition (30) zurückgeführt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass beim Auswählen des graphischen Anzeigeelements (22) das graphische Anzeigeelement (22) mit einer Markierung versehen wird.
  7. Bedienvorrichtung (10) umfassend: – eine Anzeigeeinrichtung (14), welche dazu eingerichtet ist, eine graphische Bedienoberfläche (16) bereitzustellen, auf welcher mehrere graphische Anzeigeelemente (22) angezeigt sind, wobei die mehreren graphischen Anzeigeelemente (22) jeweils mit einer Bedienfunktion gekoppelt sind; gekennzeichnet durch, – eine Erfassungseinrichtung (20), wobei die Erfassungseinrichtung (20) dazu eingerichtet ist, ein Auswählen eines der graphischen Anzeigeelemente (22) durch Erfassen einer Position einer Hand (24) oder eines Fingers der Hand (24) eines Nutzers relativ zu dem graphischen Anzeigeelement (22) zu erfassen, wobei – die Erfassungseinrichtung (20) ferner dazu eingerichtet ist, eine Handgeste des Nutzers berührungslos zu erfassen; und – eine Steuereinrichtung (18), welche dazu eingerichtet ist, einen Darstellungsparameter des ausgewählten graphischen Anzeigeelements (22) in Abhängigkeit von der erfassten Handgeste des Nutzers unabhängig von Darstellungsparametern der übrigen graphischen Anzeigeelemente (22) einzustellen.
  8. Bedienvorrichtung (10) nach Anspruch 7, dadurch gekennzeichnet, dass die Erfassungseinrichtung (20) eine Kamera, insbesondere eine TOF-Kamera, umfasst.
  9. Bedienvorrichtung (10) nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass die Anzeigeeinrichtung (14) und ein Teil der Erfassungseinrichtung als Touchscreen ausgebildet sind.
  10. Kraftfahrzeug (12) mit einer Bedienvorrichtung (10) nach einem der Ansprüche 7 bis 9.
DE102016008049.3A 2016-07-01 2016-07-01 Verfahren zum Betreiben einer Bedienvorrichtung, Bedienvorrichtung und Kraftfahrzeug Pending DE102016008049A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016008049.3A DE102016008049A1 (de) 2016-07-01 2016-07-01 Verfahren zum Betreiben einer Bedienvorrichtung, Bedienvorrichtung und Kraftfahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016008049.3A DE102016008049A1 (de) 2016-07-01 2016-07-01 Verfahren zum Betreiben einer Bedienvorrichtung, Bedienvorrichtung und Kraftfahrzeug

Publications (1)

Publication Number Publication Date
DE102016008049A1 true DE102016008049A1 (de) 2018-01-04

Family

ID=60662161

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016008049.3A Pending DE102016008049A1 (de) 2016-07-01 2016-07-01 Verfahren zum Betreiben einer Bedienvorrichtung, Bedienvorrichtung und Kraftfahrzeug

Country Status (1)

Country Link
DE (1) DE102016008049A1 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006028046A1 (de) 2006-06-19 2007-12-20 Audi Ag Kombinierte Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug
DE102008051756A1 (de) 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
AU2011201639A1 (en) 2007-01-07 2011-04-28 Apple Inc. Scaling documents on a touch-screen display
US20140105453A1 (en) * 2012-10-08 2014-04-17 Pixart Imaging Inc. Gesture identification with natural images
EP2741171A1 (de) * 2012-12-06 2014-06-11 AIRBUS HELICOPTERS DEUTSCHLAND GmbH Verfahren, Mensch-Maschine-Schnittstelle und Fahrzeug
US20150022432A1 (en) * 2013-07-17 2015-01-22 Lenovo (Singapore) Pte. Ltd. Special gestures for camera control and image processing operations

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006028046A1 (de) 2006-06-19 2007-12-20 Audi Ag Kombinierte Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug
AU2011201639A1 (en) 2007-01-07 2011-04-28 Apple Inc. Scaling documents on a touch-screen display
DE102008051756A1 (de) 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
US20140105453A1 (en) * 2012-10-08 2014-04-17 Pixart Imaging Inc. Gesture identification with natural images
EP2741171A1 (de) * 2012-12-06 2014-06-11 AIRBUS HELICOPTERS DEUTSCHLAND GmbH Verfahren, Mensch-Maschine-Schnittstelle und Fahrzeug
US20150022432A1 (en) * 2013-07-17 2015-01-22 Lenovo (Singapore) Pte. Ltd. Special gestures for camera control and image processing operations

Similar Documents

Publication Publication Date Title
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
DE102015218518A1 (de) Innovativer Drehregler mit variabler haptischer Rückmeldung
DE102012020607B4 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
EP3234743B1 (de) Verfahren zum betreiben einer bedienvorrichtung eines kraftfahrzeugs in unterschiedlichen bedienmodi sowie bedienvorrichtung und kraftfahrzeug
EP2822814B1 (de) Kraftfahrzeug mit einem elektronischen rückspiegel
WO2006066742A1 (de) Bediensystem für ein fahrzeug
EP3508968A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
EP2953793B1 (de) System zur druckmaschinenbedienung
DE102013020795A1 (de) Verfahren und Anordnung zum Steuern von Funktionen eines Kraftfahrzeugs
WO2014108147A1 (de) Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung
WO2013053529A1 (de) Bediensystem und verfahren zur darstellung einer bedienfläche
WO2014067774A1 (de) Verfahren und vorrichtung zum betreiben einer eingabevorrichtung
DE202015100273U1 (de) Eingabevorrichtung
WO2014067798A1 (de) Bereitstellen einer bedienungseingabe unter verwendung eines head-mounted displays
EP3898310A1 (de) Verfahren und system zum einstellen eines wertes eines parameters
DE102013014889A1 (de) Mauszeigersteuerung für eine Bedienvorrichtung
DE102016008049A1 (de) Verfahren zum Betreiben einer Bedienvorrichtung, Bedienvorrichtung und Kraftfahrzeug
EP3025214B1 (de) Verfahren zum betreiben einer eingabevorrichtung, sowie eingabevorrichtung
DE102010009622A1 (de) Verfahren zum Betreiben einer Benutzerschnittstelle und Vorrichtung dazu, insbesondere in einem Fahrzeug
DE102015201722A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
EP3108332A1 (de) Anwenderschnittstelle und verfahren zum wechseln von einem ersten bedienmodus einer anwenderschnittstelle in einen 3d-gesten-modus
WO2021028274A1 (de) Bediensystem und verfahren zum betreiben des bediensystems
WO2024126348A1 (de) Verfahren und system zum erfassen von benutzereingaben
WO2024126342A1 (de) Verfahren und system zum erfassen von benutzereingaben
DE102020106021A1 (de) Verfahren und system zum betreiben eines auswahlmenüs einer grafischen benutzeroberfläche basierend auf dem erfassen einer rotierenden freiraumgeste

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: HOFSTETTER, SCHURACK & PARTNER - PATENT- UND R, DE