DE102006037156A1 - Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung - Google Patents

Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung Download PDF

Info

Publication number
DE102006037156A1
DE102006037156A1 DE102006037156A DE102006037156A DE102006037156A1 DE 102006037156 A1 DE102006037156 A1 DE 102006037156A1 DE 102006037156 A DE102006037156 A DE 102006037156A DE 102006037156 A DE102006037156 A DE 102006037156A DE 102006037156 A1 DE102006037156 A1 DE 102006037156A1
Authority
DE
Germany
Prior art keywords
operating
information
display device
body part
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102006037156A
Other languages
English (en)
Inventor
Katharina Bachfischer
Christoph WÄLLER
Volkmar Wagner
Rainer Dehmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102006037156A priority Critical patent/DE102006037156A1/de
Priority to EP07723507A priority patent/EP1998996B1/de
Priority to CN201610366526.0A priority patent/CN106427571B/zh
Priority to PCT/EP2007/002553 priority patent/WO2007107368A1/de
Priority to JP2009500776A priority patent/JP5275970B2/ja
Priority to US12/294,022 priority patent/US9671867B2/en
Priority to KR1020087017681A priority patent/KR101367593B1/ko
Publication of DE102006037156A1 publication Critical patent/DE102006037156A1/de
Priority to JP2012066805A priority patent/JP2012178161A/ja
Ceased legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/654Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/656Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being a passenger
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K37/00Dashboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/141Activation of instrument input devices by approaching fingers or pens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0229Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes
    • B60R11/0235Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes of flat type, e.g. LCD
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0264Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Die Erfindung betrifft eine interaktive Bedienvorrichtung (100) mit einer Anzeigevorrichtung (35; 43; 59; 72; 102; 150; 170; 180) und ein Verfahren zum Betreiben der interaktiven Bedienvorrichtung (100). Das Verfahren umfasst folgende Schritte: Anzeigen von graphischen Informationen auf der Anzeigevorrichtung (35; 43; 59; 72; 102; 150; 170; 180); Empfangen von Sensorinformationen; Aktivieren einer Bedienaktion, wenn anhand der Sensorinformationen ermittelt wird, dass ein Körperteil (36) eines Nutzers sich innerhalb eines Aktivierungsbereichs befindet, der räumlich relativ zu einem Darstellungsgebiet eines Bedienelements (33; 61; 151; 161-169; 181-186) auf der Anzeigevorrichtung (35; 43; 59; 72; 102; 150; 170; 180) festgelegt ist, dem die Bedienaktion zugeordnet ist; wobei die empfangenen Sensorinformationen Nutzerinformationen umfassen, die zum Ermitteln einer Bedienabsicht für das mindestens eine Bedienelement (33; 61; 151; 161-169; 181-186) zeitlich vor einem Aktivieren der Bedienaktion ausgewertet werden; und die auf der Anzeigevorrichtung (35; 43; 59; 72; 102; 150; 170; 180) dargestellten Informationen in Abhängigkeit von der ermittelten Bedienabsicht angepasst werden, so dass das mindestens eine Bedienelement (33; 61; 151; 161-169; 181-186) optimiert für das Aktivieren der dem Bedienelement (33; 61; 151; 161-169; 181-186) zugeordneten Bedienaktion dargestellt wird. Die Bedienvorrichtung (100) ist vorzugsweise als Bestandteil einer Kraftfahrzeugkonsole entsprechend ...

Description

  • Die Erfindung betrifft ein Verfahren zum Betreiben einer interaktiven Bedienvorrichtung mit einer Anzeigevorrichtung nach dem Oberbegriff des Patentanspruchs 1 und eine Bedienvorrichtung mit einer Anzeigevorrichtung nach dem Oberbegriff des Patentanspruchs 76.
  • Die Bedienung von automotiven Anwendungen in einem Kraftfahrzeugcockpit erfolgt häufig über so genannte interaktive Bedienvorrichtungen. Eine interaktive Bedienvorrichtung umfasst eine Anzeigevorrichtung, auf der ein oder mehrere Bedienelemente graphisch dargestellt werden. Die einzelnen automotiven Anwendungen sind den Bedienelementen zugeordnet. Eine Aktion, die im Folgenden als Bedienaktion bezeichnet wird, wird aktiviert oder ausgelöst, indem ein Nutzer einen Körperteil, beispielsweise einen Finger einer Hand, auf die graphische Darstellung des Bedienelements zubewegt. Von der Ausgestaltung einer Sensoreinheit der Bedienvorrichtung ist es abhängig, ob der Körperteil eine vor der Anzeigevorrichtung angeordnete oder in diese integrierte Sensoreinheit (z. B. eine berührungsempfindliche Folie) berühren muss oder ob es ausreichend ist, sich nur auf einen gewissen Abstand an das jeweilige Bedienelement anzunähern, um die dem Bedienelement zugeordnete Bedienaktion zu aktivieren.
  • Interaktive Bedienvorrichtungen, bei denen eine Berührung notwendig ist, um die Bedienaktion auszulösen, werden als Touch-Screen-Bedienvorrichtungen bezeichnet. Interaktive Bedienvorrichtungen, die berührungslos aktiviert werden können, umfassen beispielsweise Sensoren, die Hochfrequenzsignale detektieren können, die über den menschlichen Körper übertragen werden. Hierbei ist es erforderlich, dass ein Hochfrequenzsender nahe dem Körper oder in Berührung mit dem Körperangeordnet ist. In einem Kraftfahrzeug kann beispielsweise ein solcher Hochfrequenzsender in den Fahrzeugsitz integriert sein. Verfahren und Vorrichtungen zum Übertragen von Informationen mittels hochfrequenter Signale über einen menschlichen Körper sind beispielsweise in der Druckschrift WO 2004/078536 beschrieben.
  • Der Bereich, in dem sich der Körperteil befinden muss, um die Bedienaktion zu aktivieren, wird als Aktivierungsbereich bezeichnet. Bei einer Touch-Screen-Bedienvorrichtung ist der Aktivierungsbereich eine zweidimensionale Fläche auf der Oberfläche der Touch-Screen-Bedienvorrichtung. Die Aktivierungsfläche stimmt in der Regel mit der Darstellungsfläche des zu betätigenden Bedienelements überein. Bei einer berührungslos bedienbaren Bedienvorrichtung ist der Aktivierungsbereich in der Regel ein dreidimensionales Gebiet dicht oberhalb der oder angrenzend an die Oberfläche der Anzeigevorrichtung. Eine Projektion des Aktivierungsbereichs entlang einer Flächennormalen der Oberfläche der Anzeigevorrichtung auf die Anzeigevorrichtung ist in der Regel deckungsgleich mit der Darstellungsfläche des zugehörigen Bedienelements.
  • Die Darstellung von Informationen auf den Anzeigevorrichtungen solcher interaktiven Bedienvorrichtungen ist im Stand der Technik nicht an dem Auflösungsvermögen des menschlichen Auges, sondern vor allem an einer Treffsicherheit und einer motorischen Präzision der menschlichen Finger der Nutzer orientiert.
  • Auf einer Anzeigevorrichtung dargestellte Bedienelemente, die auch als virtuelle Bedienelemente bezeichnet werden, umfassen u.a. Menüs, Knöpfe usw. Sie können jedoch auch die Gestalt von graphischen Objekten beispielsweise in interaktiv gestalteten Navigationskarten annehmen. Allgemein werden solche virtuellen Bedienelemente auch als Widgets bezeichnet. Die Bedienelemente werden heutzutage allgemein auf interaktiven Bedienvorrichtungen recht groß dargestellt, damit ein Nutzer sie mit seinen Fingern angenehm und leicht aktivieren kann. Dies hat zur Folge, dass die Darstellungsbereiche der Bedienelemente häufig einen beträchtlichen Teil der Anzeigefläche der Anzeigevorrichtung bedecken, die ansonsten für zusätzliche Informationen genutzt werden könnte. Häufig verdecken die Darstellungsbereiche „dahinter liegende" graphische Informationen. Wird die Darstellung der Bedienelemente auf der Anzeigevorrichtung verkleinert, so gewinnt man Platz zur Informationsdarstellung, jedoch wird ein Bedienkomfort dadurch reduziert, da ein „Treffen" der Bedienelemente mit dem Finger erheblich erschwert ist.
  • Aus dem Stand der Technik ist es bekannt, die Skalierung der Bedienelemente als Antwort auf eine erste Bedienaktion zu skalieren. Bei solchen Bedienvorrichtungen sind mindestens zwei Bedienhandlungen notwendig, um eine gewünschte Bedienaktion zu aktivieren und auszuführen.
  • Aus der Druckschrift US 5,579,037 ist eine Anzeigevorrichtung mit einem elektromagnetischen Digitalisiertablett bekannt, mit dem auf der Anzeigevorrichtung dargestellte japanische Schriftzeichen eingegeben werden können. Das Digitalisiertablett umfasst einen über einen Draht mit dem Digitalisiertablett verbundenen Schreiber. Wird der Schreiber in einen ersten Abstand zu der Anzeigevorrichtung gebracht, so wird ein angezeigter Bereich um die Position, über der sich der Schreiber befindet vergrößert dargestellt. Solange der Abstand des Schreibers von der Anzeigevorrichtung kleiner als der erste Abstand und größer als ein zweiter Abstand ist, der kleiner als der erste Abstand ist, wird der vergrößerte Bereich an eine Positionsänderung des Schreibers parallel zu der Anzeigevorrichtung angepasst. Wird der zweite Abstand unterschritten, so wird der vergrößerte Bereich nicht mehr in Abhängigkeit der Bewegung parallel zu der Anzeigeoberfläche angepasst, so dass ein Eingeben eines von mehreren vergrößert dargestellten Schriftzeichen durch ein Berühren der Anzeigevorrichtung an der Stelle, an der das entsprechende vergrößerte Schriftzeichen dargestellt ist, erfolgen kann. Eine solche Bedienvorrichtung, die nur mit einem Schreiber betätigbar ist, ist für viele Anwendungen, beispielsweise als eine interaktive Bedienvorrichtung in einem Kraftfahrzeugcockpit, nicht geeignet. Ferner ist es in einem fahrenden Fahrzeug schwer, einen Schreiber in einem vorgegebenen Abstandsintervall parallel vor der Anzeigevorrichtung zu bewegen, um den korrekten Ausschnitt vergrößert dargestellt zu bekommen.
  • Aus DE 10 2004 045 885 A1 ist ein Bedienelement, das vorzugsweise als Dreh-Drück-Ziehknopf ausgebildet ist, für ein Kraftfahrzeug zur Bedienung einer Funktion des Kraftfahrzeugs, insbesondere durch Drücken auf das Bedienelement, Berühren des Bedienelements, Drehen des Bedienelements und/oder Ziehen des Bedienelements, bekannt, wobei dem Bedienelement eine Beleuchtungsvorrichtung zur Beleuchtung des Bedienelements, ein Annäherungssensor zur Erkennung einer Annäherung eines Bedieners des Bedienelements und eine Beleuchtungssteuerung zur Einstellung der Beleuchtung des Bedienelements in Abhängigkeit eines Ausgangssignals des Annäherungssensors zugeordnet ist.
  • Wünschenswert ist somit eine interaktive Bedienvorrichtung, die einerseits jeweils eine optimale Informationsdarstellung ermöglicht und zugleich einen hohen Bedienkomfort bietet, indem Bedienelemente leicht aktivierbar sind.
  • Der Erfindung liegt daher die technische Aufgabe zugrunde, eine Bedienvorrichtung und ein Verfahren zum Betreiben einer interaktiven Bedienvorrichtung zu schaffen, mit denen sowohl eine an das menschliche Auge angepasste optimale Informationsvermittlung und zugleich eine komfortable Aktivierung von Bedienelementen möglich ist.
  • Die Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 sowie eine Vorrichtung mit den Merkmalen des Patentanspruchs 16 gelöst. Die Erfindung basiert darauf, dass situationsabhängig die auf der Anzeigevorrichtung dargestellte Information angepasst wird. Hierbei kann eine Darstellung optimiert für eine visuelle Wahrnehmung der dargestellten Informationen ausgestaltet sein. Wird jedoch eine Bedienabsicht eines Nutzers ermittelt, so werden die dargestellten Informationen so verändert, dass eine Aktivierung eines Bedienelements jeweils entsprechend der ermittelten Bedienabsicht für das Bedienelement optimal möglich ist.
  • Erfindungsgemäß wird ein Verfahren zum Betreiben einer interaktiven Bedienvorrichtung, insbesondere in einem Kraftfahrzeug, mit einer Anzeigevorrichtung und auf der Anzeigeeonrichtung dargestellten und/oder darstellbaren Informationen, die Bedienelemente aufweisen, vorgeschlagen, das folgende Schritte umfasst:
    • – Ermitteln einer Bedienabsicht für mindestens eines der auf der Anzeigeeinrichtung dargestellten Bedienelemente,
    • – Anpassen der auf der Anzeigeeinrichtung dargestellten Informationen in Abhängigkeit der ermittelten Bedienabsicht, so dass das mindestens eine zur Bedienung beabsichtigte Bedienelement optimiert für das Aktivieren des Bedienelementes dargestellt wird.
  • Nach einer vorteilhaften Ausbildung der Erfindung wird zur Ermittlung der Bedienabsicht für mindestens eines der auf der Anzeigeeinrichtung dargestellten Bedienelemente erfasst, ob sich ein Körperteil der Bedienperson innerhalb eines Aktivierungsbereichs befindet, der räumlich zu einem Darstellungsgebiet mindestens eines der Bedienelemente auf der Anzeigeeinrichtung festgelegt ist.
  • Eine weitere Ausbildung des erfindungsgemäßen Verfahrens sieht vor, dass die Bedienabsicht für das mindestens eine Bedienelement zeitlich vor einem Aktivieren der Bedienaktion ermittelt wird.
  • Bei einer vorteilhaften Ausführungsform umfasst ein Verfahren zum Betreiben einer interaktiven Bedienvorrichtung, insbesondere in einem Kraftfahrzeug, mit einer Anzeigevorrichtung folgende Schritte:
    • – Anzeigen von graphischen Informationen auf der Anzeigevorrichtung;
    • – Empfangen von Sensorinformationen;
    • – Aktivieren einer Bedienaktion, wenn anhand der Sensorinformationen ermittelt wird, dass ein Körperteil eines Nutzers sich innerhalb eines Aktivierungsbereichs befindet, der räumlich relativ zu dem Darstellungsgebiet eines Bedienelementes auf der Anzeigevorrichtung festgelegt ist, dem die Bedienaktion zugeordnet ist, wobei vorgesehen ist, dass
    • – die empfangenen Sensorinformationen Nutzerinformationen umfassen, die zum Übermitteln einer Bedienabsicht für das mindestens eine Bedienelement zeitlich vor einem Aktivieren der Bedienaktion ausgewertet werden; und
    • – die auf Anzeigevorrichtung dargestellten Informationen in Abhängigkeit von der ermittelten Bedienabsicht angepasst werden, so dass das mindestens eine Bedienelement optimiert für das Aktivieren der dem Bedienelement zugeordneten Bedienaktion mit dem Körperteil dargestellt wird.
  • Bei einem Wechsel von einem visuellen Layout, das für eine Wahrnehmung von Informationen optimiert ist, zu einem haptischen Layout, das für eine Bedienung optimiert ist, wird beispielsweise das Bedienelement eingeblendet oder vergrößert dargestellt. Ein klein dargestelltes Be dienelement wird beim Erkennen einer Bedienabsicht beispielsweise vergrößert dargestellt. Hierdurch wird erreicht, dass zwar eine hohe Informationsdichte auf der Anzeigevorrichtung dargestellt werden kann, jedoch jederzeit, sofern eine Bedienung erfolgen soll, diese komfortabel durchgeführt werden kann. Nutzerinformationen sind jene Sensorinformationen, die ein Verhalten des Nutzers angeben oder den Nutzer selbst beschreiben. Die Nutzerinformationen werden mit Hilfe von Sensoreinheiten ermittelt und sind Bestandteil der Sensorinformationen, die ausgewertet werden, um die Bedienabsicht zu ermitteln.
  • Um eine Bedienabsicht zuverlässig ermitteln zu können, ist bei einer bevorzugten Ausführungsform der Erfindung vorgesehen, dass die Sensorinformationen Informationen über eine Körperaktion des Nutzers umfassen. Eine Körperaktion stellt beispielsweise eine Bewegung der Arme oder Hände bzw. Finger des Nutzers dar. Eine andere Körperaktion ist beispielsweise ein Ausrichten der Augen, um die angezeigten Informationen auf der Anzeigevorrichtung zu erfassen.
  • Bei einer besonders bevorzugten Ausführungsform ist daher vorgesehen, dass die Nutzerinformationen Informationen über eine Blickrichtung des Nutzers umfassen. Einem Betätigen eines Bedienelements geht nämlich häufig ein Blick des Nutzers auf die Anzeigevorrichtung voraus.
  • Die Blickrichtung eines Nutzers kann beispielsweise mittels Kamerasensoren erfasst werden. Eine bevorzugte Ausführungsform der Erfindung sieht daher vor, dass die Nutzerinformationen zumindest teilweise mittels eines Kamerasystems erfasst sind. Mit einem solchen Kamerasystem kann in der Regel auch die Bewegung von Körperteilen zuverlässig ermittelt werden.
  • Andere bevorzugte Ausführungsformen der Erfindung sehen vor, dass die Nutzerinformationen zumindest teilweise mittels eines Ultraschallsensorsystems erfasst sind. Ein Ultraschallsensorsystem ist geeignet, um die Position von Körperteilen besonders exakt und zuverlässig zu bestimmen. Mit einem Ultraschallsensorsystem kann somit eine Bewegung hin zur interaktiven Bedienvorrichtung bereits bei einer relativ großen Entfernung von der Bedienvorrichtung zuverlässig erkannt werden. Ebenso können genaue Positions-, Ausdehnungs- und Geschwindigkeitsmessungen in einem Nahbereich der Bedienvorrichtung ausgeführt werden. Ein Ultraschallsensorsystem kann alternativ oder gemeinsam mit anderen Sensorsystemen verwendet werden.
  • Bei einer besonders bevorzugten Ausführungsform der Erfindung wird anhand der Nutzerinformationen eine Bewegungsrichtung des Körperteils ermittelt. Diese Bewegungsrichtung kann einzeln oder beispielsweise gemeinsam mit anderen Informationen, insbesondere Nutzerinformationen, vorzugsweise einer Blickrichtung, genutzt werden, um ein Bedienelement oder mehrere Bedienelemente aus einer Gruppe von Bedienelementen ausfindig zu machen, die der Nutzer als nächstes bedienen möchte. Bei einer Weiterbildung der Erfindung ist daher vorgesehen, dass beim Ermitteln der Bedienabsicht eine Bedienwahrscheinlichkeit für das Bedienelement und gegebenenfalls weitere Bedienwahrscheinlichkeiten für weitere Bedienelemente ermittelt werden und eine Anpassung der dargestellten Informationen so erfolgt, dass das mindestens eine Bedienelement oder die weiteren Bedienelemente entsprechend ihrer Bedienwahrscheinlichkeit optimiert für eine Aktivierung der entsprechend zugeordneten Bedienaktion oder weiteren Bedienaktionen dargestellt werden. Hierdurch lässt sich eine Art „Bedienungsspotlight" realisieren. In Abhängigkeit von einer Entfernung des Körperteils, seiner Bewegungsrichtung und/oder einer Geschwindigkeit der Bewegung sowie weiteren Nutzerinformationen kann ein Bereich auf der Anzeigevorrichtung ermittelt werden, in dem sich wahrscheinlich das zu bedienende Bedienelement befindet. Dieser ermittelte Bereich wird als Bedienungsspotlight bezeichnet. Das Bedienungsspotlight ist bei großer Distanz und geringer Bewegungsgeschwindigkeit der Bedienhand noch recht unscharf und wird mit zunehmender Nähe zur Anzeigevorrichtung schärfer. Unscharf bedeutet, dass eine Unsicherheit bezüglich einer Zielposition, zu der der Körperteil auf der Anzeigevorrichtung bewegt wird, herrscht. Diese Zielposition wird als ein Mittelpunkt des Bedienungsspotlights genutzt. Die Unsicherheit drückt sich in einer Fläche des Bedienungsspotlights auf der Anzeigevorrichtung aus. Das Bedienungsspotlight wird in der Regel kreisförmig ausgestaltet, so dass sich die Unschärfe oder Unsicherheit bezüglich der Zielposition, zu der der Körperteil auf der Anzeigevorrichtung bewegt wird, sich in einem Radius des Bedienungsspotlights ausdrückt. Je größer die Unsicherheit (je unschärfer das Bedienungsspotlight) desto größer ist es. Je kleiner die Unsicherheit über die Zielposition (je schärfer das Bedienungsspotlight) ist desto kleiner wird das Bedienungsspotlight. Vorzugsweise ist vorgesehen, dass die Bedienelemente auf der Anzeigevorrichtung, je nachdem, wie viel ihrer Fläche bei einer vorgegebenen Skalierungsgröße sich im Bereich des Bedienungsspotlights befindet, wie scharf das Bedienungsspotlight ist und/oder wie groß ein Abstand des Bedienelements von der Position (dem Mittelpunkt) des Bedienungsspotlights ist, skaliert bzw. auf andere Weise, beispielsweise mittels einer Animation, eines Aufklappens einer Menuleiste usw., für eine einfache Aktivierbarkeit optimiert werden.
  • Bei einer besonders bevorzugten Ausführungsform ist vorgesehen, dass die Ermittlung der Bedienabsicht und das entsprechende Anpassen der dargestellten Information iterativ und/oder kontinuierlich ausgeführt werden. Hierdurch ist es möglich, beispielsweise das Bedienungsspotlight kontinuierlich zu ermitteln und eine Skalierung der in dem Bedienungsspotlight befindlichen Bedienelemente auf der Anzeigevorrichtung stufenlos vorzunehmen und an die Bewegung des Nutzers anzupassen.
  • Bei einer Ausführungsform der Erfindung ist vorgesehen, dass beim Anpassen eine Transparenz, ein Abstand von benachbarten weiteren Bedienelementen und/oder eine Animation des Bedienelements oder mehrerer Bedienelemente verändert werden. Hierbei kann eine Liste, die mehrere Bedienelemente umfasst, geeignet animiert werden, um eine Auswahl von einem oder mehreren Listenelementen zu erleichtern. Insbesondere kann in Abhängigkeit von der ermittelten Bedienabsicht durch eine längere Liste gescrollt bzw. geblättert werden.
  • Vorzugsweise ist ebenso vorgesehen, dass anhand der Nutzerinformationen ein Abstand des Körperteils von der Darstellung des Bedienelements ermittelt wird und das Bedienelement in Abhängigkeit von diesem Abstand skaliert wird. Wird beispielsweise ein berührungsloser Sensor zum Aktivieren der Bedienelemente verwendet, so kann von diesem Sensor eine Annäherung der Hand des Nutzers beispielsweise ca. 30 cm vor der Anzeigevorrichtung erfasst werden. Je näher sich die Hand bzw. der Finger der Anzeigevorrichtung nähert, desto besser ist eine Voraussage möglich, welches Bedienelement aktiviert werden soll. Daher ist es dann einfach möglich, dieses Bedienelement besonders optimiert auf der Anzeigevorrichtung darzustellen. Hierzu werden die dargestellten Informationen entsprechend angepasst.
  • Zusätzlich zu Informationen über den Nutzer werden bei einer bevorzugten Ausführungsform Informationen über einen Fahrzustand ausgewertet, um die Anpassung des Bedienelements zu optimieren. So hat beispielsweise die Fahrt über eine unebene Fahrbahnoberfläche einen Einfluss auf eine motorische Treffsicherheit des Bedienelements durch einen Nutzer. In einem solchen Fall wird das Bedienelement vorzugsweise größer dargestellt als in einer Fahrsituation auf einer ebenen glatten Fahrbahnoberfläche. Hierdurch werden eine verbesserte Bedienbarkeit und ein erhöhter Komfort gewährleistet. Gleichzeitig ist eine maximal mögliche Informationsdarstellung situationsabhängig gewährleistet. Vorzugsweise ist daher vorgesehen, dass die Informationen, sofern keine Bedienabsicht ermittelt wird, einer Darstellung angepasst werden, die für eine visuelle Informationsübermittlung optimiert ist, beispielsweise alle Bedienelemente ausgeblendet werden oder mit einer Transparenz von 100% „dargestellt" werden. Dieses ist insbesondere bei interaktiven Bedienvorrichtungen von Vorteil, bei denen nur eine sehr begrenzte Auswahl von Informationen angezeigt werden kann, weil beispielsweise eine Anzeigefläche klein ist.
  • Bei einer bevorzugten Ausführungsform der Erfindung ist vorgesehen, dass beim Ermitteln der Bedienabsicht von dem Körperteil ausgeführte Gesten erkannt und ausgewertet werden, wobei das Anpassen der dargestellten Informationen entsprechend einer der jeweiligen erkannten Geste zugeordneten Anpassfunktion durchgeführt wird. Hier durch kann beispielsweise eine Bedienabsicht bei einer besonders großen Anzahl von potenziell betätigbaren Bedienelementen konkretisiert werden. Durch eine statische Geste kann beispielsweise ein Stoppsignal übermittelt werden, die eine weitere Anpassung der Bedienelemente unterbindet und eine Endauswahl ohne eine weitere skalierende Anpassung ermöglicht. Ebenso kann ein Blättern durch eine Vielzahl grafisch klein dargestellter Bedienelemente veranlasst werden, von denen eines mit einem Fokus versehen wird und für eine Bedienung vergrößert dargestellt wird. Die Anpassfunktion somit eine beliebige geeignete Änderung der dargestellten Informationen bewirken.
  • Als geeignete Gesten haben sich sogenannte statische Gesten, dynamische Gesten und komplexe Gesten erwiesen. Eine Ausführungsform der Erfindung sieht daher vor, dass die Gesten mindestens eine statische Geste umfassen, die anhand einer vordefinierten Körperteilhaitung erkannt wird. Eine weitere Ausführungsform sieht vor, dass die Gesten mindestens eine dynamische Geste umfassen, die anhand einer vordefinierten von dem Körperteil durchlaufenen Bahnkurve erkannt wird. Bei einer Bahnkurve kann zum einen die Form im dreidimensionalen Raum analysiert werden. Zusätzlich kann jedoch auch ergänzend die Geschwindigkeit ausgewertet werden, mit der die einzelnen Abschnitte im dreidimensionalen Raum durchlaufen werden. Schließlich ist bei noch einer anderen Ausführungsform vorgesehen, dass die Gesten mindestens eine komplexe Geste umfassen, die anhand eines Ineinanderübergehens vordefinierter statischer Gesten und/oder einer statischen Geste, die eine vordefinierte Bahnkurve durchläuft, erkannt wird. Die unterschiedlichen Ausführungsformen der Erfindung können somit nur statische, nur dynamische oder nur komplexe Gesten oder eine beliebige Kombination hiervon berücksichtigen. Das Erkennen der Gesten erfolgt mit der mindestens einen Sensoreinheit, die eine Position eines Körperteils im Raum bestimmen kann. Diese Formulierung, dass die Gesten von der mindestens einen Sensoreinheit erkannt werden, soll nicht ausdrücken, dass die Geste von einer einzelnen Sensoreinheit erkannt werden muss, wenn mehrere Sensoreinheiten vorhanden sind. Die Formulierung umfasst vielmehr auch das Erkennen der Gesten durch ein Zusammenwirken von mehreren vorhandenen Sensoreinheiten. Ob eine einzelne Sensoreinheit zum Erkennen einer Geste ausreicht, hängt von der speziellen Ausgestaltung der mindestens einen Sensoreinheit und der Geste selbst ab.
  • Die Informationen werden vorzugsweise so angepasst, dass jeweils ein Maximum an Informationen für eine visuelle Wahrnehmung dargestellt ist und dennoch bei einer Bedienabsicht zumindest ein Bedienelement, für das eine Bedienabsicht ermittelt ist, für eine optimale Bedienbarkeit dargestellt ist. Hierbei können unterschiedlichste situative Einflüsse berücksichtigt werden.
  • Die Merkmale der erfindungsgemäßen Vorrichtung weisen dieselben Vorteile wie die entsprechenden Merkmale des erfindungsgemäßen Verfahrens auf.
  • Nachfolgend wird die Erfindung anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf Figuren einer Zeichnung näher erläutert. Hierbei zeigen:
  • 1 ein schematisches Ablaufdiagramm zur Erläuterung einer Ausführungsform eines Verfahrens zum Betreiben einer interaktiven Bedienvorrichtung;
  • 2 eine schematische Darstellung, anhand derer das Prinzip einer situationsabhängigen Skalierung von Bedienelementen dargestellt ist;
  • 3 schematische Ansichten einer Anzeigevorrichtung, auf der Informationen optimiert für eine visuelle Wahrnehmung oder teilweise für eine haptische Bedienung optimiert dargestellt sind;
  • 4A4D schematische Ansichten von auf einer Anzeigevorrichtung dargestellten Informationen, die Bedienelemente umfassen, die entsprechend einem ermittelten Bedienungsspotlight zum Teil vergrößert dargestellt sind;
  • 5A5D schematische Ansichten einer Anzeigevorrichtung, auf der die Bedienelemente in Abhängigkeit von einer Größe eines ermittelten Bedienungsspotlights skaliert sind;
  • 6A6C schematische Ansichten einer Anzeigevorrichtung, auf der Bedienelemente unterschiedlich skaliert in Abhängigkeit von einer Bedienabsicht dargestellt sind;
  • 7A7B schematische Ansichten einer Anzeigevorrichtung, auf der Bedienelemente einer Liste in Abhängigkeit von einer Bedienabsicht durchgeblättert werden;
  • 8 eine schematische Darstellung einer interaktiven Bedienvorrichtung in einem Kraftfahrzeug;
  • 917 von einer Hand ausgeführte statische Gesten;
  • 2027 von einer Hand ausgeführte dynamische Gesten; und
  • 2833 von einer Hand ausgeführte komplexe Gesten.
  • In 1 ist ein Blockdiagramm dargestellt, welches ein Verfahren 10 zum Betreiben einer interaktiven Bedienvorrichtung abbildet. Wie mittels eines Verfahrensblocks 12 dargestellt ist, umfasst das Verfahren ein Darstellen von Informationen auf einer Anzeigevorrichtung. Ein Layout für die Darstellung der Informationen ist zunächst vorzugsweise so gewählt, dass es für eine optimale visuelle Informationsvermittlung ausgelegt ist. Ein solches Layout wird im Folgenden als visuelles Layout bezeichnet.
  • Die Bedienvorrichtung erfasst Sensorinformationen 12. Die Sensorinformationen umfassen zum einen Informationen über einen oder mehrere Nutzer. Diese werden als Nutzerinformationen bezeichnet. Diese umfassen insbesondere Informationen über Körperaktionen des oder der Nutzer, die mittels Sensoreinheiten erfasst sind. Die Körperaktionen umfassen beispielsweise eine Armbewegung, die beispielsweise mittels einer mit Kameras detektierenden Sensoreinheit und/oder einer ultraschallbasierten Sensoreinheit ermittelt werden kann. Ferner kann mittels der mit Kameras versehenen Sensoreinheit eine Blickrichtung des oder der Nutzer erfasst werden. Ein Richten des Blicks auf die Anzeigevorrichtung stellt eine besonders wichtige Körperaktion dar, da einem Bedienvorgang zumeist ein Blick auf die Anzeigevorrichtung der interaktiven Bedienvorrichtung vorausgeht. Die erfassten Sensorinformationen umfassen vorzugsweise darüber hinaus Informationen über eine Fahrsituation oder eine Umgebung des Kraftfahrzeugs. Es hat sich gezeigt, dass bestimmten Bedienaktionen häufig bestimmte Fahrereignisse vorausgehen.
  • Anhand der erfassten Sensorinformationen wird anschließend eine Bedienabsicht des oder der Nutzer ermittelt 14. Zum Ermitteln einer Bedienabsicht des Nutzers werden die unterschiedlichen, in den Sensorinformationen enthaltenen Informationen, insbesondere die Nutzerinformationen, ausgewertet. Hierbei wird insbesondere das Verhalten des oder der Nutzer, d.h. seine Körperaktion oder ihre Körperaktionen, ausgewertet und bewertet. Wird beispielsweise eine Blickrichtungsänderung auf die Anzeigevorrichtung der interaktiven Bedienvorrichtung festgestellt und zeitlich damit korreliert eine Bewegung des Arms oder der Hand, die dem interaktiven Bedienelement räumlich am nächsten ist, detektiert, so kann hieraus eine Bedienabsicht abgeleitet werden. Es sind viele verschiedene Kombinationen von Einzelinformationen möglich, die ausgewertet und bewertet werden können. Beispielsweise kann eine zielgerichtete Bewegung in Richtung auf die Bedieneinheit eines Körperteils bei einer Ausführungsform Voraussetzung sein, dass eine Bedienabsicht als erkannt gilt.
  • Mittels einer Abfrage wird überprüft, ob eine Änderung der Bedienabsicht eingetreten ist 16. Ist dies nicht der Fall, so wird die Darstellung der Informationen auf der Anzeigevorrichtung unverändert fortgesetzt. Hat sich eine Änderung der Bedienabsicht ergeben, d.h. ist eine Bedienabsicht erkannt worden oder festgestellt worden, dass keine Bedienabsicht mehr vorliegt, so werden die Informationen, die auf der Anzeigevorrichtung dargestellt werden, entsprechend der Bedienabsicht oder nicht (mehr) vorliegenden Bedienabsicht angepasst 18. Eine Änderung liegt auch dann vor, wenn sich die Bedienabsicht (weiter) konkretisiert hat.
  • Besteht die Änderung der Bedienabsicht darin, dass eine Bedienabsicht eines Nutzers erkannt wird, die zuvor nicht bestand, so werden die darzustellenden Informationen so verändert, dass das Layout auf der Anzeigevorrichtung für eine haptische Bedienung optimiert ist. Sei einer Ausführungsform kann vorgesehen sein, dass im visuellen Layout keinerlei Bedienelemente graphisch dargestellt sind. Im haptischen Layout werden nun die Bedienelemente eingeblendet, d.h. ihr Transparenzniveau von 100 % reduziert. Es kann ebenfalls vorgesehen sein, dass von einer bildlichen Darstellung auf eine Textdarstellung gewechselt wird. Bei wiederum einer anderen Ausführungsform, bei der im visuellen Layout kleine Bedienelemente graphisch dargestellt sind, können die Bedienelemente im haptischen Layout vergrößert dargestellt werden. Die Anpassung kann ferner ein Verändern der Ausgestaltung der Bedienelemente, beispielsweise ein Animieren des Bedienelements (Widgets), umfassen. Bei einer Anzeigevorrichtung, die als autostereoskopische dreidimensionale Anzeigevorrichtung ausgestaltet ist, kann ein räumliches Hervortreten der Bedienelemente oder eine räumlich vorgelagerte Überlagerung der Informationsdarstellung vorgesehen sein.
  • Das Ermitteln und Anpassen der dargestellten Informationen erfolgt vorteilhafterweise in Stufen, die kontinuierlich ineinander übergehen können. Zunächst wird eine Bedienabsicht mittels Sensorinformationen einer ersten Sensoreinheit ermittelt. Die erste Sensoreinheit umfasst vorteilhafterweise ein bildgebendes Sensorsystem, beispielsweise ein Kamerasystem. ist diese allgemeine Bedienabsicht erkannt, so wird von einem visuellen Layout in ein haptisches Layout gewechselt. Beispielsweise werden Bedienelemente eingeblendet, die zuvor nicht sichtbar waren.
  • Bei einer bevorzugten Ausführungsform ist ferner vorgesehen, dass beim Ermitteln der Bedienabsicht eine Position und ein umgebender Bereich auf der Anzeigevorrichtung ermittelt wird, der für eine Bedienhandlung, d.h. ein Aktivieren eines Bedienelements, avisiert ist. Dieser Vorgang wird als Bestimmen eines Bedienungsspotlights bezeichnet 20.
  • Zur Ermittlung des Bedienungsspotlights können unterschiedliche Sensorinformationen ausgewertet werden. Insbesondere werden eine Bewegungsrichtung eines Körperteils des Nutzers sowie eine Bewegungsgeschwindigkeit, eine Blickrichtung auf die Anzeigevorrichtung sowie Informationen über die Fahrsituation einzeln oder gemeinsam ausgewertet. Als Ergebnis der Bedienungsspotlightermittlung erhält man eine Position auf der Anzeigevorrichtung, die die avisierte Zielposition angibt, und einen Radius, der ein Maß für die Unsicherheit der ermittelten avisierten Zielposition ist. Bei anderen Ausführungsformen kann vorgesehen sein, dass die Form des Bedienungsspotlights nicht kreisförmig ist. Dies ist insbesondere dann von Vorteil, wenn die Bedienrichtung stark von einer Richtung einer Flächennormalen der Anzeigefläche der Anzeigevorrichtung abweicht.
  • Die Informationen, die das Bedienungsspotlight charakterisieren (Position/Radius und/oder sonstige Gebietsangabe) werden beim Anpassen der darzustellen Informationen berücksichtigt. Vorzugsweise werden die Bedienelemente in Abhängigkeit vom Abstand von der Position und einem flächigen Überlapp mit dem Bedienungsspotlight skaliert dargestellt. Dies bedeutet, dass Bedienelemente, die sich nahe der Position des Bedienungsspotlights, die sich in der Mitte des Bedienungsspotlights befindet, befinden, größer skaliert werden, als solche Bedienelemente, die weiter von der Position des Bedienungsspotlights entfernt sind. Ferner werden jene Bedienelemente größer skaliert, die einen großen flächigen Überlapp mit dem Bedienungsspotlight bei einer Projektion des Bedienungsspotlights auf die Anzeigevorrichtung aufweisen. In 4A bis 4D sind Beispiele hierfür dargestellt. Auch Bedienungselemente 61', die nicht in einem Bedienungsspotlight 62 liegen, jedoch näher an dem Bedienungsspotlight 62 liegen als andere Bedienelemente 61'', können vorteilhafterweise größer als diese anderen Bedienelemente 61'' dargestellt.
  • Das beschriebene Verfahren stellt ein Bestimmen einer Bedienwahrscheinlichkeit für die einzelnen Bedienelemente dar 22. Diese Bedienwahrscheinlichkeiten können auch nach einem anderen Verfahren anhand der Nutzerinformation gegebenenfalls unter Berücksichtigung von anderen Informationen über situative Einflüsse, beispielsweise der Fahrsituation, bisherigen Gewohnheiten des Nutzers usw., erfolgen.
  • Das Bedienungsspotlight wird nun kontinuierlich angepasst. In einer weiteren Stufe werden die Bewegung des Körperteils und gegebenenfalls weitere Eigenschaften des Körperteils mittels einer zweiten Sensoreinheit genauer ermittelt.
  • Bei einer Ausführungsform, bei der Hochfrequenzsignale erzeugende Signalgeber in der Nähe des Nutzerkörpers angeordnet sind und Empfänger an oder um die Anzeigevorrichtung angeordnet sind, um über den Körper des Nutzers übertragene Hochfrequenzsignale zu empfangen und hieraus eine Position der Hand des Nutzers in der Nähe der Anzeigevorrichtung zu bestimmen, kann eine Feinjustage der Anpassung der dargestellten Informationen besonders gut vorgenommen werden. In einem Abstand von etwa 30 cm von der Anzeigevorrichtung können mit solchen Sensorsystemen Körperteile von Nutzern erfasst werden. Befinden sich mehrere Nutzer in der Reichweite der interaktiven Bedienvorrichtung in einem Fahrzeug, beispielsweise der Fahrer und der Beifahrer des Kraftfahrzeugs, so können diese anhand unterschiedlicher Hochfrequenzsignale unterschieden werden, die über unterschiedliche Signalgeber, welche beispielsweise in einem Fahrersitz und einem Beifahrersitz integriert sind, in den Körper des Nutzers eingekoppelt werden. Eine Skalierung oder allgemeine Anpassung der dargestellten Informationen kann somit zusätzlich angepasst an die Funktion (Fahrer/Beifahrer) des Nutzers vorgenommen werden. Beispielsweise ist es sinnvoll, weniger und dafür größere Bedienelemente auf der Anzeigevorrichtung darzustellen, wenn ein Fahrer bei hoher Geschwindigkeit des Kraftfahrzeugs Bedienelemente auf der Anzeigevorrichtung aktivieren will. Ein Beifahrer, der sich nicht auf das Führen des Kraftfahrzeugs konzentrieren muss, kann beispielsweise kleinere Bedienelemente, von denen dafür mehr auf der Anzeigevorrichtung darstellbar sind, bedienen. Um die Feinjustage auszuführen, ist vorteilhafterweise vorgesehen, dass beim Erkennen der Bedienabsicht ein Abstand des Körperteils des Nutzers von der Anzeigevorrichtung ermittelt wird. Ferner wird die Ausdehnung des Körperteils zusätzlich ermittelt. Diese wird bei der Skalierung und/oder Ausgestaltung des oder der Bedienelemente mitberücksichtigt. Für einen Nutzer mit großen, breiten Fingern müssen die Bedienelemente flächig größer dargestellt sein als für einen Nutzer mit kleinen, schmalen Fingern. In der weiteren Stufe ist somit eine feinere Anpassung möglich. Es können mehr als zwei Stufen vorgesehen sein. Die zweite Sensoreinheit kann auch eine ultraschallbasierte Sensoreinheit sein.
  • In 2 ist die Umschaltung von einem visuellen auf ein haptisches Layout schematisch dargestellt. Im oberen Bereich der 2 sind zwei mögliche Ausgestaltungen einer Informationsdarstellung 31, 32 in einem so genannten visuellen Layout gezeigt. Bei der linken Darstellung 31 sind keine Bedienelemente dargestellt. In der rechten Darstellung 32 sind kleine Bedienelemente 33 vorgesehen. Der größte Bereich 34 der Anzeigevorrichtung 35 ist zur Darstellung der Informationen vorgesehen. Nähert sich ein Körperteil 36, hier eine Hand, der Anzeigevorrichtung 35, wie es in der Mitte der 2 angedeutet ist, werden die dargestellten Informationen so verändert, dass die Bedienelemente 33' vergrößert dargestellt sind, eine zusätzliche textliche Information (A, B, C, D) umfassen und zumindest gegenüber der Darstellung 31 oben links in ihrem Transparenzniveau verändert sind. Das haptische Layout ist so optimiert, dass die Bedienelemente 33' optimal von einem Finger berührt werden können, um eine mit dem Bedienelement 33' verknüpfte Bedienaktion aktivieren und auslösen zu können.
  • In 3 ist ein weiteres Beispiel für die Umschaltung von einem visuellen Layout 41 auf ein haptisches Layout 42 dargestellt. Auf der Anzeigevorrichtung 43 sind Punkte besonderen Interesses (points of interest – POI) 4447 einer Kartenansicht 48 eines Navigationssystems schematisch dargestellt. Nähert sich ein Finger 49 der Anzeigevorrichtung 43 mit einer Bewegung, die unten auf den rechten Rand 50 der Anzeigevorrichtung zielt, so werden die Punkte von Interesse in Abhängigkeit von einem Abstand von dem unteren Ende des rechten Rands 50 hinsichtlich ihrer flächigen Größe skaliert. Um eine bessere Bedienbarkeit zu erreichen, werden einige Punkte 46, 47 leicht gegenüber ihrer ursprünglichen Position verschoben. In einem linken Abschnitt 51 der Karteansicht 48 ist das Layout immer noch für eine visuelle Informationsvermittlung angepasst.
  • In den 4A bis 4D sind unterschiedliche Darstellung 5558 von Informationen auf Anzeigevorrichtung 59 dargestellt. Zusätzlich zu einem Finger 60, der jeweils eines der Bedienelemente 61 bedienen will, ist ein so genanntes Bedienungsspotlight 62 kreisförmig auf der Anzeigevorrichtung 59 eingezeichnet. Die Bedienelemente 61 sind in Abhängigkeit von ihrer Lage relativ zu der Position 63 (der Mitte) des Bedienungsspotlights 62 und einem flächigen Überlapp mit dem Bedienungsspotlight 62 skaliert. Die Gesamtgröße der Skalierung kann abhängig von einer Fahrsituation sein. Fährt das Fahrzeug beispielsweise auf einer unebenen Oberfläche mit hoher Geschwindigkeit, so müssen die Bedienelemente größer skaliert werden, als bei einer Fahrt auf ebener Fahrbahn mit geringer Geschwindigkeit. Das Bedienungsspotlight 62 ist nur virtuell existent und wird in der Regel nicht auf der Anzeigevorrichtung 59 dargestellt. Das Bedienungsspotlight 62 ist hier nur zur Veranschaulichung dargestellt.
  • In 5A bis 5D ist dargestellt, wie sich das Bedienungsspotlight 70 bei einer Annäherung eines Fingers 71 an die Anzeigevorrichtung 72 verändert und wie dieses die Skalierung der Bedienelemente bei einer bevorzugten Ausführungsform beeinflusst. Die in den 5A bis 5D dargestellten Ansichten 73 einer Anzeigevorrichtung 72 zeigen jeweils eine Navigationskarte mit Punkten von Interesse 8186, die Bedienelemente sind. In 5A ist ein haptisches Layout gewählt, bei dem die Punkte von Interesse 6165, die in dem Bedienungsspotlight 70 liegen, größer dargestellt sind als der Punkt von Interesse 86, welcher außerhalb des Bedienungsspotlights 70 liegt. Die Ansicht 73 nach 5A entspricht einer Darstellung, bei der die bedienende Hand noch weit von der Anzeigevorrichtung 72 entfernt ist. Daher ist in 5A noch kein Finger dargestellt. Bei einer Annäherung des Fingers 71 verringert sich ein Radius 74 des Bedienungsspotlights 70, so dass das Bedienungsspotlight 70 in 5B kleiner dargestellt ist. Die nahe einer Position 75 (dem Zentrum) des Bedienungsspotlights 70 befindlichen Bedienelemente 82, 83 sind am größten skaliert. Jedoch ist auch der Punkt von Interesse 86 gegenüber seiner Darstellung in 5A größer skaliert. Bei einer weiteren Annäherung des Fingers 71 ergibt die Analyse der Bewegungsrichtung des Fingers 71, dass sich die Position 75 des Bedienungsspotlights 70 leicht verschoben hat. Daher ist in 5C der Punkt von Interesse 82 größer skaliert als der Punkt 83, der nun weiter entfernt von der Mittelposition 75 des Bedienungsspotlights 70 liegt. In 5D ist die Situation dargestellt, in der sich der Finger 71 in einem Aktivierungsbereich befindet, der relativ zu der Darstellung des Bedienelements festgelegt ist. Bei einer als Touchscreen ausgebildeten interaktiven Bedienvorrichtung ist dies in der Regel die Fläche der graphischen Darstellung. Bei einer Bedienvorrichtung mit einem berührungslos arbeitenden Sensor kann dies ein räumliches Gebiet sein, das vorzugsweise in einem kurzen Abstand vor der graphischen Darstellung des Bedienelements oder angrenzend an diese festgelegt ist.
  • Befindet sich der Körperteil, hier der Finger 71, in dem Aktivierungsbereich, so wird die Bedienaktion, die dem Bedienelement zugeordnet ist, aktiviert.
  • In 6A ist eine schematische Ansicht einer Anzeigevorrichtung 150 dargestellt, auf der Bedienelemente 151 in zwei Gruppen 152, 153 angeordnet sind. In der ersten Gruppe 152 sind die zugehörigen Bedienelemente 151 als Liste angeordnet. In der zweiten Gruppe sind die Bedienelemente 151 als Zahlenfeld angeordnet. In der 6A nehmen die Bedienelemente 151 der beiden Gruppen 152, 153 nur eine geringe Fläche auf der Anzeigevorrichtung 150 ein. Ein Großteil der Fläche kann zur Darstellung von weiteren Informationen (nicht dargestellt) verwendet werden.
  • Nähert sich ein Finger 155 der Anzeigevorrichtung 150, so werden die Bedienelemente 151 in einer der beiden Gruppen 152, 153 vergrößert dargestellt. Wird eine Bedienabsicht für eines der Bedienelemente 151 der als Liste ausgestalteten ersten Gruppe 152 ermittelt, so wird die Liste vergrößert dargestellt, wie dies in 6B gezeigt ist. Nähert sich der Finger 155 eher der als Zahlenfeld ausgestalteten zweiten Gruppe 153 von Bedienelementen 151, so werden diese Bedienelemente vergrößert dargestellt, wie in 6C gezeigt ist.
  • Während bei der in Zusammensetzung mit 5A bis 5D beschriebenen Ausführungsform die Mittelpunkte der Bedienelemente vorzugsweise nicht auf der Anzeigevorrichtung verschoben werden, werden bei der hier in Zusammenhang mit 6A6C beschriebenen Ausführungsform die Positionen der Bedienelemente deutlich verändert.
  • Anhand von 7A und 7B wird beschrieben, wie eine ermittelte Bedienabsicht vorteilhaft ausgenutzt werden kann, um ein Bedienelement aus einer Liste auszuwählen.
  • In 7A ist eine horizontale Liste 160 von Bedienelementen 161169 auf einer Anzeigevorrichtung 170 dargestellt. Wird eine Bedienabsicht ermittelt, so wird einem der Bedienelemente 165 der Liste 160 ein Fokus zugewiesen. In diesem Fall ist dem mit der Ziffer "5" beschrifteten Bedienelement 165 der Fokus zugewiesen. Diese Tatsache wird dadurch kenntlich gemacht, dass das Bedienelement 165 vergrößert dargestellt ist. In der Regel wird der Fokus einem in der Mitte der Anzeigevorrichtung 170 dargestellten Bedienelement der Liste 160 zugewiesen. Alternativ kann der Fokus auch einem an einem Rand dargestellten Bedienelement zugewiesen werden.
  • Der Fokus kann "verschoben" werden, indem der Nutzer seinen Finger 171 an einen Rand der Anzeigevorrichtung 170 bewegt. In 7A befindet sich der Finger 171 an einem rechten Rand 172 der Anzeigevorrichtung 170. Hierdurch kann bei einer Ausführungsform der Fokus nach rechts verschoben werden.
  • Alternativ ist bevorzugter vorzusehen, dass der Fokus im Zentrum der Anzeigevorrichtung 170 verbleibt und die Bedienelemente 161169 relativ zu dem Fokus verschoben werden. D. h., die Bedienfelder bewegen sich nach links, wie mittels eines Pfeils 173 angedeutet ist. Dies bedeutet, dem Bedienfeld 166 mit der Zahl "6" wird der Fokus als nächstes zugewiesen, wobei das Bedienfeld 166 dabei vergrößert in der Mitte der Anzeigevorrichiung 170 dargestellt wird.
  • In beiden Ausführungsformen scrollt oder blättert der Fokus durch die Liste der Bedienelemente.
  • Dieser Vorgang kann beendet werden, indem der Finger 171 über die Mitte der Anzeigevorrichtung 170 bewegt wird. Anschließend kann das Bedienelement, dem der Fokus zugewiesen ist, betätigt werden, um die zugeordnete Bedienaktion auszulösen.
  • Die Scroll- oder Blättergeschwindigkeit kann in Abhängigkeit von der Position des Fingers 171 variieren. D. h., je weiter der Finger aus dem Zentrum bewegt wird, desto schneller wird gescrollt/geblättert.
  • Die Blätter-/Scrollrichtung kann mit der Richtung zusammentreffen, in der der Finger bewegt wird oder entgegengesetzt sein. Bei einer Liste kann ferner vorgesehen sein, dass diese als endlos betrachtet wird. Dies bedeutet, dass sich an ein letztes Listenelement das erste Listenelement erneut anschließt.
  • In 7B ist eine Anzeigevorrichtung 180 dargestellt, auf der eine Liste von Bedienelementen 181186 gezeigt ist. Nähert sich ein Finger 187 der Anzeigevorrichtung 180, so wird einem der Bedienelemente 181186 ein Fokus zugeordnet. Das Bedienelement 183, dem der Fokus zugeordnet ist, ist vergrößert für eine optimale Betätigung dargestellt. Der Finger 187 befindet sich an einem unteren Rand 188 der Anzeigevorrichtung 180. Hierdurch wird bewirkt, dass sich die Bedienelemente 181186''durch den Fokus" nach oben bewegen, wie mittels des Pfeils 189 angedeutet ist. Wird der Finger 187 in eine Mitte der Anzeigevorrichtung 180 bewegt, stoppt der Blättervorgang. Das Bedienelement im Fokus kann optimal betätigt werden. Wird der Finger 187 in eine Position zwischen den Fokus und einem oberen Rand 190 der Anzeigevorrichtung 180 bewegt, so bewegen sich die Bedienelemente 181186 nach unten. Somit kann in beide Richtungen geblättert werden.
  • Der Fokus muss nicht starr an einer Position auf der Anzeigevorrichtung verharren. Vielmehr kann er sich mit dem Bedienelement bewegen, dem er zugeordnet ist. Ist dieses Bedienelement von einer vorfestgelegten Sollposition des Fokus weiter entfernt als das nachfolgende Bedienelement der Liste, so springt der Fokus auf dieses nachfolgende Bedienelement.
  • Andere Ausführungsformen können vorsehen, dass mehrere Bedienelemente vergrößert dargestellt sind. Beispielsweise können ein Hauptfokus und zwei Nebenfokusse vorgesehen sein. Die den Nebenfokussen zugeordneten Bedienelemente werden beispielsweise vergrößert, jedoch etwas kleiner als das dem Hauptfokus zugewiesene Bedienelement dargestellt.
  • Bei einer Ausführungsform kann vorgesehen sein, dass ein Bedienelement, für das die höchste Bedienwahrscheinlichkeit ermittelt ist (beispielsweise das Bedienelement, das sich im festen Fokus oder dem Zentrum des Bedienungsspotlights befindet), betätigt wird, wenn der Körperteil des Nutzers, beispielsweise der Finger, unverändert eine vorgegebene Verweildauer verharrt, ohne dass eine Anpassung der dargestellten Information erfolgt. Dies gilt insbesondere auch dann, wenn der Finger sich nicht in dem eigentlichen Aktivierungsbereich des Bedienelements befindet. Hierdurch kann eine quasi betätigungslose Bedienung eines Bedienelements erreicht werden.
  • In 8 ist schematisch eine Ausführungsform einer interaktiven Bedienvorrichtung 100 in einem Kraftfahrzeug 101 dargestellt. Diese umfasst eine Anzeigevorrichtung 102, auf der Informationen in einem visuellen und einem haptischen Layout dargestellt werden können. In die Bedienvorrichtung 100 sind Empfangssensoren 104 integriert, die über einen Körper 106, 108 eines Nutzers übertragene Hochfrequenzsignale berührungslos empfangen können, die in die Körper mittels Signalgebern 110, 112, die in der Nähe der Körper 106, 108 angeordnet sind, eingespeist werden. Die Signalgeber 110, 112 sind mit einer Signalgebereinheit 113 verbunden, die wiederum mit einem Fahrzeugbussystem 126 gekoppelt ist. Die Signalgebereinheit 113 kann gemeinsam mit den Empfangssensoren 104, die im engeren Sinne bereits eine Sensoreinheit darstellen, auch als ein Sensorsystem bzw. eine Sensoreinheit betrachtet werden. Die interaktive Bedienvorrichtung 100 umfasst ferner eine Steuereinheit 120, die ein Darstellungsmodul 122 umfasst. Das Darstellungsmodul 122 bereitet auf der Anzeigevorrichtung 102 darzustellende Informationen auf. insbesondere passt das Darstellungsmodul 122 die Informationen an ein visuelles oder haptisches Layout an. Die interaktive Bedienvorrichtung 100 umfasst ferner eine Empfangseinheit 124, die beispielsweise über das Fahrzeugbussystem 126 Informationen von Sensoreinheiten, die beispielsweise als Kamerasystem 130 oder als Ultraschallsensorsystem 132 ausgebildet sein können, empfängt, Ferner empfängt die Empfangseinheit 124 über das Fahrzeugbussystem 126 Informationen über einen Fahrzustand des Kraftfahrzeugs 101. Anhand der empfangenen Sensorinformationen, die Informationen über den Fahrzustand umfassen, wird von einem Auswertemodul 128 die Bedienabsicht des Nutzers 106 bzw. 108 ermittelt. In Abhängigkeit von der ermittelten Bedienabsicht ändert das Darstellungsmodul 122 die Informationen, die auf der Anzeigevorrichtung 102 dargestellt werden. Das Auswertemodul 128 ist vorzugsweise so ausgestaltet, dass ein Bedienungsspotlight und für die einzelnen Bedienelemente eine Bedienwahrscheinlichkeit ermittelt wird.
  • Die Steuereinheit umfasst ferner ein Aktivierungsmodul 134, das eine Bedienaktion auslöst bzw. aktiviert, wenn ein Körperteil, beispielsweise ein Finger, sich in einem Aktivierungsbereich, der relativ zu der Darstellung des Bedienelements auf der Anzeigevorrichtung 102 festgelegt ist, befindet. Hierbei können Signale über den Fahrzeugbus übertragen werden, die andere Steuergeräte des Kraftfahrzeugs 101 beeinflussen.
  • Die Steuereinheit 120 und die einzelnen umfassten Module 122, 128, 134 können sowohl in Hard- als auch in Software ausgeführt sein.
  • Die Anzeigevorrichtung kann als Projektionsanzeige ausgebildet sein, bei der die dargestellten Informationen auf eine Fläche projiziert werden. In einem solchen Fall ist der Abstand bzw. die die Bewegung des Körperteils relativ zu dieser Fläche bzw. ein Blicken auf diese Fläche etc. relevant.
  • Bei den Sensoreinheiten, die Hochfrequenzsignale über den menschlichen Körper übertragen, haben sich Frequenzen im Bereich von etwa 80 kHz bis 150 kHz als besonders geeignet erwiesen. Die Sensoreinheiten können jedoch auch bei Frequenzen außerhalb dieses angegebenen Frequenzbereichs betrieben werden.
  • Neben oder alternativ zu einer Sensoreinheit, die einen Körperteil aufgrund der Übertragung von Hochfrequenzsignalen über den menschlichen Körper detektiert, können andere berührungslos funktionierende Sensoreinheiten verwendet werden, wie ultraschallbasierte Sensoreinheiten oder auch Sensoreinheiten, die optische Verfahren verwenden. Eine solche Sensoreinheit kann beispielsweise gemäß folgendem Prinzip ausgestaltet sein. Eine Sende-LED strahlt, ein rechteckförmig amplitudenmoduliertes Lichtsignal im optischen oder infraroten Wellenlängenbereich ab. Das an einem Objekt reflektierte Lichtsignal wird von einer Photodiode erfasst. Von einer Kompensations-LED wird ein um 180° phasenversetztes ebenfalls rechteckförmig amplitudenmoduliertes Referenzlichtsignal zu der Photodiode über einen unveränderlichen Lichtweg gesandt. Die Kompensations-LED wird über einen Regelkreis mittels eines Regelsignals so ausgeregelt, dass sich das empfangene reflektierte Lichtsignal der Sende-LED und das empfangene Referenzlichtsignal der Kompensations-LED an der Photodiode aufheben und ein Gleichsignal detektiert wird. Eine Änderung des Regelsignals ist ein Maß für den Ab stand des Objekts. Eine nach diesem Prinzip ausgestaltete Sensoreinheit ist weitgehend unabhängig von Temperatur- und Helligkeitsschwankungen.
  • Vorteilhafterweise ist mindestens eine Sensoreinheit oder sind mehrere Sensoreinheiten so ausgestaltet, dass sie eine flächige Ausdehnung des Körperteils (gegebenenfalls durch gemeinsames Zusammenwirken) wahrnehmen können. Hierdurch wird es möglich Gesten, die mit dem Körperteil, beispielsweise einer Hand, ausgeführt werden, zu detektieren und als Bedienabsicht zu interpretieren. Gesten, die nur von der Körperteilhaltung, insbesondere einer Handhaltung, abhängig sind, werden als starre oder statische Gesten bezeichnet. Eine flach vor die Anzeigevorrichtung gehaltene Hand 140, wie sie in 9 dargestellt ist, kann beispielsweise als Stoppsignal interpretiert werden, die einen Blättervorgang anhält oder jede Anpassung der dargestellten Informationen für eine vorgegebene Zeitspanne unterbindet. 10 und 11 zeigen exemplarisch andere einfache statische Gesten, die jeweils mit der linken Hand 140 ausgeführt sind. Können mehrere Bestandteile der Hand getrennt aufgelöst werden, so können auch differenzierte starre Gesten erkannt und verwendet werden, wie sie beispielhaft in 12 bis 17 gezeigt sind.
  • Wird die Bewegung des Körperteiles in einem bestimmten Raumgebiet mit vorgegebenen Bahnkurven verglichen, so können dynamische Gesten erkannt werden. Beispiele für Bahnkurven, in einer zweidimensionalen Ebene sind in 18 und in einem dreidimensionalen Raum in 19 exemplarisch gezeigt. Beispiele für dynamische Gesten sind in den 20 bis 27 dargestellt. Die Geste nach 20 umfasst ein Bewegen der horizontal flach ausgestreckten Hand 140 aufwärts, die Geste nach 21 entsprechend ein Bewegen der Hand 140 abwärts. In 22 bis 25 werden die Gesten durch ein Bewegen der vertikal flach aufgespannten Hand von der Anzeigevorrichtung weg (22) bzw. auf die Anzeigevorrichtung zu (23) und ein Bewegen nach links (24) oder ein Bewegen nach rechts (25) ausgeführt. Eine Annäherungs- und/oder eine Entfernungsgeschwindigkeit des Körperteils können entsprechend ebenfalls interpretiert und verwendet werden. Die in den 26 und 27 zeigen Gesten, die mittels eines Drehens der Hand 140 entgegen bzw. mit dem Uhrzeigersinn der ausgestreckten Hand um ihre Längsachse ausgeführt werden. Die Gesten können auch jeweils beide entgegen gesetzten Bewegungsrichtungen umfassen. Bei einer Analyse der Bahnkurven können neben den durchlaufenen Raumpunkten, die eine Bewegung definieren, auch eine Geschwindigkeit berücksichtigt werden, mit der die Bewegung ausgeführt wird.
  • Können mehrere Bestandteile der Hand getrennt aufgelöst werden und/oder deren Relativgeschwindigkeiten erfasst werden, so können auch komplexe Gesten oder Handhaltungen sowie Bewegungsabläufe, beispielsweise ein Aufspreizen und Schließen der Finger einer flachen Hand oder ein Ballen der Finger zu einer Faust (28) und ein Öffnen der Faust (29) ausgewertet werden und entsprechend berücksichtigt werden. Weitere komplexe Gesten sind exemplarisch in den 30 und 31 gezeigt, bei denen ein Ausführen der entsprechenden Geste ein Einklappen der Finger 142 (30) und ein Ausstrecken der Finger 142 (31) umfasst. In 32 ist eine komplexe Geste dargestellt, bei der ein Schwerpunkt der Hand 140 zusätzlich zum Einklappen der Finger 142 eine Bewegung nach rechts ausführt. In 33 umfasst die komplexe exemplarisch gezeigte Geste ein Ballen der ursprünglich vertikal ausgerichteten, flach ausgestreckten Hand 140 und eine zeitgleich ausgeführte Rotation der Hand um etwa 90° nach rechts.
  • Die dargestellten Gesten sind nur exemplarische Gesten. Den einzelnen Gesten können unterschiedliche Bedienabsichten zugeordnet sein, die eine entsprechende Anpassung der dargestellten Informationen bewirken.
  • Vorteilhafterweise ist vorgesehen, dass die interaktive Bedienvorrichtung in einem Lernmodus betreibbar ist, und so in der Lage ist, bestimmte Gesten in der individuellen Ausprägung durch unterschiedliche Personen zu erlernen. Beispielsweise kann ein Fahrer aufgefordert werden, bestimmte Gesten auszuführen. Anhand der während der Ausführung erfassten Messdaten kann eine individuelle Ausprägung der Geste erlernt werden. Das Erlernen geschieht vorteilhafterweise personenbezogen. Eine Personenidentifikation kann über die Ausprägung der Gesten selbst erfolgen oder über eine beispielsweise in einem Fahrzeugschlüssel codierte Benutzer- oder Fahrerkennung.
  • Einige Ausführungsformen sind so ausgestaltet, dass Gesten eines Fahrers von denen eines Beifahrers unterschieden werden. Ist die interaktive Bedienvorrichtung in einer Mittelkonsole des Fahrzeugs angeordnet, so können Gesten des Fahrers von denen eines Beifahrers daran erkannt werden, ob die Gesten mit einer rechten oder linken Hand ausgeführt werden., wobei angenommen ist, dass der Fahrer und der Beifahrer zum Bedienen jeweils die Hand nehmen, die der Mittelkonsole am nächsten ist. Bei Sensoreinheiten, die eine Unterscheidung des Fahrers und Beifahrers ermöglichen, beispielsweise indem unterschiedliche Hochfrequenzsignale über den Körper des Fahrers und des Beifahrers übertragen werden, die von den Sensoreinheiten zur Positionserfassung des Körperteils genutzt werden, ist eine Unterscheidung von Gesten des Beifahrers und des Fahrers mittels der Informationen der Sensoreinheit möglich. Ist eine Unterscheidung möglich, so können derselben Geste unterschiedliche Bedienabsichten oder unterschiedliche Darstellungsfunktionen oder Anpassfunktionen für den Fahrer und den Beifahrer zugeordnet sein.

Claims (33)

  1. Verfahren zum Betreiben einer interaktiven Bedienvorrichtung (100), insbesondere in einem Kraftfahrzeug (101), mit einer Anzeigevorrichtung (35; 43; 59; 72; 102; 150; 170; 180) und auf der Anzeigeeinrichtung (35; 43; 59; 72; 102; 150; 170; 180) dargestellten und/oder darstellbaren Informationen, die Bedienelemente (33; 61; 151; 161169; 181186) beinhalten, umfassend folgende Schritte: a) Ermitteln einer Bedienabsicht für mindestens eines der auf der Anzeigeeinrichtung (35; 43; 59; 72; 102; 150; 170; 180) dargestellten Bedienelemente (33; 61; 151; 161169; 181186), b) Anpassen der auf der Anzeigevorrichtung (35; 43; 59; 72; 102; 150; 170; 180) dargestellten Informationen in Abhängigkeit der ermittelten Bedienabsicht, so dass das mindestens eine Bedienelement (33; 61; 151; 161169; 181186) optimiert für das Aktivieren des mindestens einen Bedienelements (33; 61; 151; 161169; 181186) dargestellt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Ermittlung der Bedienabsicht für mindestens eines der auf der Anzeigeeinrichtung (35; 43; 59; 72; 102; 150; 170; 180) dargestellten Bedienelemente (33; 61; 151; 161169; 181186) erfasst wird, ob sich ein Körperteil (36) eines Nutzers innerhalb eines Aktivierungsbereichs befindet, der räumlich relativ zu einem Darstellungsgebiet mindestens eines der Bedienelemente (33; 61; 151; 161169; 181186) auf der Anzeigeeinrichtung (35; 43; 59; 72; 102; 150; 170; 180) festgelegt ist.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Bedienabsicht für das mindestens eine Bedienelement (33; 61; 151; 161169; 181186) zeitlich vor einem Aktivieren der Bedienaktion ermittelt wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Ermittlung der Bedienabsicht und das entsprechende Anpassen der dargestellten Information iterativ oder kontinuierlich ausgeführt werden.
  5. Verfahren nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass zur Ermittlung der Bedienabsicht Informationen verwendet werden, die Informationen über eine Körperaktion, insbesondere eine Bewegungsrichtung des Körperteils (36), und/oder über eine Blickrichtung des Nutzers umfassen.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass anhand der Informationen ein Abstand des Körperteils (36) von der Darstellung des Bedienelements (33; 61; 151; 161169; 181186) ermittelt wird und das Bedienelement (33; 61; 151; 161169; 181186) in Abhängigkeit von diesem Abstand skaliert wird.
  7. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Nutzerinformationen zumindest teilweise mittels eines Kamerasystems (130) und/oder eines Ultraschallsensorsystems erfasst werden.
  8. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zur Ermittlung der Bedienabsicht Informationen verwendet werden, die Umgebungsinformationen über eine Fahrsituation umfassen, die beim Anpassen der optimierten dargestellten Informationen berücksichtigt werden.
  9. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass beim Ermitteln der Bedienabsicht eine Bedienwahrscheinlichkeit für das Bedienelement (33; 61; 151; 161169; 181186) und gegebenenfalls weitere Bedienwahrscheinlichkeiten für weitere Bedienelemente (33; 61; 151; 161169; 181186) ermittelt werden und eine Anpassung der dargestellten Informationen so erfolgt, dass entsprechend ihrer Bedienwahrscheinlichkeit optimiert für eine Aktivierung der entsprechend zugeordneten Bedienaktion oder weiteren Bedienaktion dargestellt werden.
  10. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass beim Anpassen der auf der Anzeigeeinrichtung dargestellten Informationen eine Transparenz, eine Größe des Bedienelementes (33; 61; 151; 161169; 181186), ein Abstand von benachbarten weiteren Bedienelementen (33; 61; 151; 161169; 181186) und/oder eine Animation des Bedienelements (33; 61; 151; 161169; 181186) oder mehrerer Bedienelemente (33; 61; 151; 161169; 181186) verändert werden.
  11. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass beim Ermitteln der Bedienabsicht von dem Körperteil ausgeführte Gesten erkannt und ausgewertet werden, wobei das Anpassen der dargestellten Informationen entsprechend einer der jeweiligen erkannten Geste zugeordneten Anpassfunktion durchgeführt wird.
  12. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Gesten mindestens eine statische Geste umfassen, die anhand einer vordefinierten Körperteilhaltung erkannt wird.
  13. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Gesten mindestens eine dynamische Geste umfassen, die anhand einer vordefinierten von dem Körperteil durchlaufenen Bahnkurve erkannt wird.
  14. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Gesten mindestens eine komplexe Geste umfassen, die anhand eines Ineinanderübergehens vordefinierter statischer Gesten und/oder einer statischen Geste, die eine vordefinierte Bahnkurve durchläuft, erkannt wird.
  15. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die auf der Anzeigeeinrichtungen dargestellten Informationen, sofern keine Bedienabsicht ermittelt wird, für eine Darstellung angepasst werden, die für eine visuelle Informationsübermittlung optimiert ist.
  16. Interaktive Bedienvorrichtung (100), insbesondere in einem Kraftfahrzeug (101), umfassend eine Anzeigevorrichtung (35; 43; 59; 72; 102; 150; 170; 180), auf der Informationen darstellbar sind und/oder dargestellt werden, die Bedienelemente (33; 61; 151; 161169; 181186) beinhalten, und eine Steuereinrichtung (120), wobei die Steuereinrichtung (120) derart ausgebildet ist, dass bei Ermittlung einer Bedienabsicht für mindestens eines der auf der Anzeigeeinrichtung (35; 43; 59; 72; 102; 150; 170; 180) dargestellten Bedienelemente die auf der Anzeigeeinrichtung (35; 43; 59; 72; 102; 150; 170; 180) dargestellten Informationen in Abhängigkeit der ermittelten Bedienabsicht derart angepasst werden, dass das mindestens eine der Bedienelemente (33; 61; 151; 161169; 181186) optimiert für das Aktivieren des Bedienelementes (33; 61; 151; 161169; 181186) dargestellt wird.
  17. Vorrichtung nach Anspruch 16, dadurch gekennzeichnet, dass mindestens eine Sensoreinrichtung zum Erfassen eines Körperteils (36) eines Benutzers innerhalb eines Aktivierungsbereiches, der räumlich relativ zu einem Darstellungsgebiet mindestens eines der Bedienelemente (33; 61; 151; 161169; 181186) auf der Anzeigeeinrichtung (35; 43; 59; 72; 102; 150; 170; 180) festgelegt ist, vorgesehen ist, um eine Bedienabsicht für mindestens eines der auf der Anzeigeeinrichtung (35; 43; 59; 72; 102; 150; 170; 180) dargestellten Bedienelemente zu ermitteln.
  18. Vorrichtung nach Anspruch 16 oder 17, dadurch gekennzeichnet, dass Steuereinrichtung (120) derart ausgebildet ist, dass die Ermittlung der Bedienabsicht und das entsprechende Anpassen der dargestellten Information iterativ oder kontinuierlich ausführbar ist und/oder ausgeführt wird.
  19. Vorrichtung nach Anspruch 17 oder 18, dadurch gekennzeichnet, dass die Sensorinformationen Informationen über eine Körperaktion des Nutzers umfassen.
  20. Vorrichtung nach einem der Ansprüche 16 bis 19, dadurch gekennzeichnet, dass die Nutzerinformationen zumindest teilweise mittels eines Kamerasystems und/oder eines Ultraschallsensorsystems erfassbar sind und/oder erfasst werden.
  21. Vorrichtung nach einem der Ansprüche 17 bis 20, dadurch gekennzeichnet, dass die Sensorinformationen Informationen über eine Blickrichtung des Nutzers und/oder eine Bewegungsrichtung des Körperteils (36) des Nutzers umfassen.
  22. Vorrichtung nach einem der Ansprüche 17 bis 21, dadurch gekennzeichnet, dass die Steuereinrichtung (120) derart ausgestaltet ist, dass anhand der Sensorinformationen eine Bewegungsrichtung des Körperteils (36) und/oder die Blickrichtung des Nutzers ermittelbar ist und/oder ermittelt wird.
  23. Vorrichtung nach einem der Ansprüche 16 bis 22, dadurch gekennzeichnet, dass die Steuereinrichtung (120) derart ausgebildet ist, dass Umgebungsinformationen über eine Fahrsituation bei der Anpassung der optimiert dargestellten Informationen berücksichtigbar sind und/oder berücksichtigt werden.
  24. Vorrichtung nach einem der Ansprüche 16 bis 23, dadurch gekennzeichnet, dass beim Ermitteln der Bedienabsicht eine Bedienwahrscheinlichkeit für das Bedienelement (33; 61; 151; 161169; 181186) und gegebenenfalls weitere Bedienwahrscheinlichkeiten für weitere Bedienelemente (33; 61; 151; 161169; 181186) ermittelbar sind und/oder ermittelt werden und eine Anpassung der dargestellten Informationen so erfolgt, dass entsprechend ihrer Bedienwahrscheinlichkeit optimiert für eine Aktivierung der entsprechend zugeordneten Bedienaktion oder weiteren Bedienaktionen dargestellt sind und/oder dargestellt werden.
  25. Vorrichtung nach einem der Ansprüche 17 bis 24, dadurch gekennzeichnet, dass die Steuereinrichtung (120) ausgestaltet ist, dass anhand der Sensor-Informationen ein Abstand des Körperteils (36) von der Darstellung des Bedienelements (33; 61; 151; 161169; 181186) ermittelbar ist und/oder ermittelt wird und das Bedienelement (33; 61; 151; 161169; 181186) in Abhängigkeit von diesem Abstand skalierbar ist und/oder skaliert wird.
  26. Vorrichtung nach einem der Ansprüche 16 bis 25, dadurch gekennzeichnet, dass beim Anpassen eine Transparenz, ein Abstand von benachbarten weiteren Bedienelementen (33; 61; 151; 161169; 181186) und/oder eine Animation des Bedienelements (33; 61; 151; 161169; 181186) oder mehrerer Bedienelemente (33; 61; 151; 161169; 181186) veränderbar ist und/oder verändert werden.
  27. Vorrichtung nach einem der Ansprüche 16 bis 26, dadurch gekennzeichnet, dass die auf der Anzeigeeinrichtung (35; 43; 59; 72; 102; 150; 170; 180) dargestellten Informationen, sofern keine Bedienabsicht ermittelbar ist und/oder ermittelt wird, für eine Darstellung angepasst werden, die für eine visuelle Informationsübermittlung optimiert ist.
  28. Vorrichtung nach einem der Ansprüche 17 bis 27, dadurch gekennzeichnet, dass die mindestens eine Sensoreinrichtung ausgestaltet ist, Sensorinformationen anhand von über den Körper des Nutzers übertragene Hochfrequenzsignale zu ermitteln, die insbesondere eine Position des Körperteils (36) umfassen können.
  29. Vorrichtung nach einem der Ansprüche 17 bis 27, dadurch gekennzeichnet, dass die mindestens eine Sensoreinrichtung als positionsauflösende berührungssensitive Einrichtung ausgestaltet ist.
  30. Vorrichtung nach einem der Ansprüche 17 bis 29, dadurch gekennzeichnet, dass mindestens eine Sensoreinrichtung ausgestaltet ist, von dem Körperteil ausgeführte Gesten zu erkennen und auszuwerten, wobei das Anpassen der dargestellten Informationen entsprechend einer der jeweiligen erkannten Geste zugeordneten Anpassfunktion durchführbar ist.
  31. Vorrichtung nach Anspruch 30, dadurch gekennzeichnet, dass die Gesten mindestens eine statische Geste umfassen, die von der mindestens eine Sensoreinrichtung als eine vordefinierten Körperteilhaltung erkennbar ist.
  32. Vorrichtung nach Anspruch 30 oder 31, dadurch gekennzeichnet, dass die Gesten mindestens eine dynamische Geste umfassen, die von der mindestens einen Sensoreinrichtung anhand einer vordefinierten von dem Körperteil durchlaufenen Bahnkurve erkennbar ist.
  33. Verfahren nach einem der Ansprüche 30 bis 32, dadurch gekennzeichnet, dass die Gesten mindestens eine komplexe Geste umfassen, die von der mindestens eine Sensoreinrichtung anhand eines Ineinanderübergehens vordefinierter statischer Gesten und/oder anhand einer statischen Geste, die eine vordefinierte Bahnkurve durchläuft, erkennbar ist.
DE102006037156A 2006-03-22 2006-08-02 Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung Ceased DE102006037156A1 (de)

Priority Applications (8)

Application Number Priority Date Filing Date Title
DE102006037156A DE102006037156A1 (de) 2006-03-22 2006-08-02 Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
EP07723507A EP1998996B1 (de) 2006-03-22 2007-03-22 Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
CN201610366526.0A CN106427571B (zh) 2006-03-22 2007-03-22 交互式操纵装置和用于运行所述交互式操纵装置的方法
PCT/EP2007/002553 WO2007107368A1 (de) 2006-03-22 2007-03-22 Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
JP2009500776A JP5275970B2 (ja) 2006-03-22 2007-03-22 対話型操作装置および対話型操作装置を動作させるための方法
US12/294,022 US9671867B2 (en) 2006-03-22 2007-03-22 Interactive control device and method for operating the interactive control device
KR1020087017681A KR101367593B1 (ko) 2006-03-22 2007-03-22 쌍방향 조작 장치 및 쌍방향 조작 장치의 작동 방법
JP2012066805A JP2012178161A (ja) 2006-03-22 2012-03-23 対話型操作装置および対話型操作装置を動作させるための方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
DE102006013067 2006-03-22
DE102006013067.7 2006-03-22
DE102006014426 2006-03-27
DE102006014426.0 2006-03-27
DE102006037156A DE102006037156A1 (de) 2006-03-22 2006-08-02 Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung

Publications (1)

Publication Number Publication Date
DE102006037156A1 true DE102006037156A1 (de) 2007-09-27

Family

ID=38171608

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006037156A Ceased DE102006037156A1 (de) 2006-03-22 2006-08-02 Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung

Country Status (7)

Country Link
US (1) US9671867B2 (de)
EP (1) EP1998996B1 (de)
JP (2) JP5275970B2 (de)
KR (1) KR101367593B1 (de)
CN (1) CN106427571B (de)
DE (1) DE102006037156A1 (de)
WO (1) WO2007107368A1 (de)

Cited By (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1947548A1 (de) 2006-12-27 2008-07-23 Takata Corporation Bediensystem zum Bedienen von Funktionen in einem Fahrzeug und Fahrzeug
DE102008005106A1 (de) 2008-01-14 2009-07-16 Trw Automotive Electronics & Components Gmbh Bedienvorrichtung für ein Kraftfahrzeug
DE102008004970A1 (de) 2008-01-17 2009-07-23 Volkswagen Ag Bediensystem mit positionsveränderlicher Bedieneinheit und Verfahren zum Betreiben einer Bedieneinheit
EP2107456A1 (de) 2008-04-04 2009-10-07 Volkswagen AG Auswahl von Anzeigenmodi "SKINS" für ein Infotainmentsystem
DE102008023505A1 (de) 2008-05-09 2009-11-12 Volkswagen Ag Unterstützung eines Infotainment-Systems durch Farbcodierung
WO2010003471A1 (de) 2008-07-09 2010-01-14 Volkswagen Aktiengesellschaft Verfahren zum betrieb eines bediensystems für ein fahrzeug und bediensystem für ein fahrzeug
WO2010009915A1 (de) 2008-07-21 2010-01-28 Siemens Aktiengesellschaft Verfahren und vorrichtung zum steuern eines systems
WO2010031565A2 (de) 2008-09-22 2010-03-25 Volkswagen Ag Bedienvorrichtung und verfahren zum betreiben einer bedienvorrichtung mit verbesserter annäherungserfassung
DE102008048826A1 (de) 2008-09-22 2010-03-25 Volkswagen Ag Verfahren zum Bestimmen eines Kalibrierwerts einer Anzeige- und Bedienvorrichtung sowie Anzeige- und Bedienvorrichtung in einem Kraftfahrzeug
WO2010031454A1 (de) 2008-09-22 2010-03-25 Volkswagen Ag Anzeige- und bediensystem in einem kraftfahrzeug mit nutzerbeeinflussbarer darstellung von anzeigeobjekten sowie verfahren zum betreiben eines solchen anzeige- und bediensystems
DE102009048043A1 (de) 2008-10-15 2010-04-22 Volkswagen Ag Multifunktionsanzeige- und Bediensystem sowie Verfahren zum Steuern eines solchen Systems mit optimierter grafischer Bediendarstellung
DE102009038895A1 (de) * 2009-08-26 2010-09-16 Audi Ag Verfahren zum Unterstützen eines Bedienens von zumindest einer Einrichtung eines Fahrzeugs
EP2240843A1 (de) * 2007-12-31 2010-10-20 Motorola, Inc. Verfahren und vorrichtung für zweihändige computerschnittstelle mit gestenerkennung
EP2163975A3 (de) * 2008-09-12 2010-10-27 Sony Corporation Informationsverarbeitung
WO2011003947A1 (de) * 2009-07-07 2011-01-13 Volkswagen Ag Verfahren und vorrichtung zum bereitstellen einer benutzerschnittstelle in einem fahrzeug
WO2011015570A1 (de) 2009-08-06 2011-02-10 Volkswagen Ag Verfahren zum betreiben einer bedienvorrichtung und bedienvorrichtung in einem fahrzeug
DE102009036368A1 (de) * 2009-08-06 2011-02-10 Volkswagen Ag Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug
DE102009049110A1 (de) 2009-10-12 2011-04-14 Volkswagen Ag Verfahren zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug
DE102009048937A1 (de) * 2009-10-10 2011-04-14 Volkswagen Ag Multiview-Anzeige- und Bedienvorrichtung mit Nutzerunterscheidung
WO2011095709A3 (fr) * 2010-02-02 2011-11-03 Dav Module de retour haptique destiné à être intégré dans un véhicule automobile pour dispositif nomade et dispositif de commande correspondant
DE102010053788A1 (de) 2010-12-08 2012-06-14 Volkswagen Ag Verfahren zum Betreiben einer Bedienvorrichtung und Bedienvorrichtung in einem Fahrzeug
WO2012110207A1 (de) 2011-02-19 2012-08-23 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zum bereitstellen einer benutzerschnittstelle, insbesondere in einem fahrzeug
WO2013053465A1 (de) * 2011-10-15 2013-04-18 Volkswagen Aktiengesellschaft Verfahren zum bereitstellen einer bedienvorrichtung in einem fahrzeug und bedienvorrichtung
EP2058162A3 (de) * 2007-11-08 2013-06-05 Volkswagen Aktiengesellschaft Multifunktionsanzeige- und Bediensystem und Verfahren zum Bedienen von Funktionen oder Fahrzeugsystemen mit einem assistierten Bedienmodus
EP2608185A1 (de) * 2011-12-23 2013-06-26 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Einparkhilfe in einem Fahrzeug
WO2013104390A1 (de) * 2012-01-09 2013-07-18 Daimler Ag Verfahren und vorrichtung zum bedienen von auf einer anzeigeeinheit eines fahrzeugs angezeigten funktionen unter verwendung von im dreidimensionalen raum ausgeführten gesten sowie betreffendes computerprogrammprodukt
DE102012011177A1 (de) * 2012-06-06 2013-12-24 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zur Bedienung von Funktionen einesFahrzeuges sowie entsprechende Vorrichtung
WO2014019884A1 (de) * 2012-08-01 2014-02-06 Volkswagen Aktiengesellschaft Anzeige- und bedieneinrichtung und verfahren zur ansteuerung einer anzeige- und bedieneinrichtung
WO2014026862A1 (de) * 2012-08-16 2014-02-20 Volkswagen Aktiengesellschaft Verfahren und ein bedien- und anzeigeeinrichtung zum betreiben einer interaktiven bedieneinrichtung
US8667424B2 (en) 2009-08-26 2014-03-04 Mitac International Corp. Method of spreading out and displaying closely located points of interest on a personal navigation device
WO2014040856A1 (de) * 2012-09-13 2014-03-20 Bayerische Motoren Werke Aktiengesellschaft Berührungseingaben über schwellen auf berührungsempfindlichen anzeigen
DE102012218843A1 (de) * 2012-10-16 2014-04-17 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung
DE102012020855A1 (de) * 2012-10-24 2014-04-24 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Verfahren zum Anpassen einer Einstellung eines Fahrzeugsitzes und Fahrzeug mit zu-mindest einem Fahrzeugsitz
DE102012022321A1 (de) * 2012-11-15 2014-05-15 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zum Betreiben eines Fahrzeugs und Fahrzeug
WO2014090625A1 (de) * 2012-12-11 2014-06-19 Volkswagen Aktiengesellschaft Bedienverfahren und bedienvorrichtung
DE102013000080A1 (de) * 2013-01-08 2014-07-10 Audi Ag Aktivierung einer Kraftfahrzeugfunktion mittels eines optischen Sensors
DE102013000083A1 (de) 2013-01-08 2014-07-10 Audi Ag Kraftfahrzeug mit einer personenspezifischen Bedienschnittstelle
DE102013000880A1 (de) * 2013-01-10 2014-07-10 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zu Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug
DE102013007329A1 (de) 2013-01-04 2014-07-10 Volkswagen Aktiengesellschaft Verfahren zum Betreiben einer Bedienvorrichtung in einem Fahrzeug
DE102013200457A1 (de) * 2013-01-15 2014-07-17 Preh Gmbh Bedienvorrichtung für ein Kraftfahrzeug mit einer Gestenüberwachungseinheit
DE102013001330A1 (de) * 2013-01-26 2014-07-31 Audi Ag Verfahren zum Betreiben einer Lüftereinrichtung eines Kraftwagens sowie Kraftwagen
DE102013002280A1 (de) 2013-02-08 2014-08-14 Audi Ag Verfahren zum Betreiben einer Anzeigevorrichtung eines Kraftwagens sowie Kraftwagen mit einer solchen Anzeigevorrichtung
US8890819B2 (en) 2009-03-31 2014-11-18 Mitsubishi Electric Corporation Display input device and vehicle-mounted information equipment
DE102013010932A1 (de) 2013-06-29 2014-12-31 Audi Ag Verfahren zum Betreiben einer Bedienschnittstelle, Bedienschnittstelle sowie Kraftfahrzeug mit einer Bedienschnittstelle
DE102013012466A1 (de) 2013-07-26 2015-01-29 Audi Ag Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung
DE102013218917A1 (de) * 2013-09-20 2015-03-26 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zur Steuerung von Geräten in Fahrzeugen mittels einer Blickrichtungserkennung
WO2015062762A1 (de) * 2013-10-31 2015-05-07 Volkswagen Aktiengesellschaft Bildverarbeitungsvorrichtung, verfahren zur bestimmung von bildinformation und computerprogramm zur durchführung des verfahrens
DE102013019197A1 (de) * 2013-11-15 2015-05-21 Audi Ag Kraftfahrzeug-Klimatisierung mit adaptivem Luftausströmer
DE102013226012A1 (de) * 2013-12-16 2015-06-18 Bayerische Motoren Werke Aktiengesellschaft Bereitstellung eines Bedienelements durch Oberflächenveränderung
US9069453B2 (en) 2008-12-04 2015-06-30 Mitsubishi Electric Corporation Display input device
DE102014200024A1 (de) * 2014-01-06 2015-07-09 Volkswagen Aktiengesellschaft Anzeigebedieneinheit und Verfahren zum Anzeigen zusätzlicher Hinweise auf eine Anzeigeeinheit
US9103691B2 (en) 2007-11-12 2015-08-11 Volkswagen Ag Multimode user interface of a driver assistance system for inputting and presentation of information
WO2015121175A1 (de) 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei der bedienung einer anwenderschnittstelle
WO2015121173A1 (de) 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und verfahren zum wechseln von einem ersten bedienmodus einer anwenderschnittstelle in einen 3d-gesten-modus
WO2015121187A1 (de) 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und verfahren zum berührungslosen bedienen eines in hardware ausgestalteten bedienelementes in einem 3d-gestenmodus
EP2930603A1 (de) * 2014-04-07 2015-10-14 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug
WO2015180878A1 (de) 2014-05-26 2015-12-03 Volkswagen Aktiengesellschaft Verfahren zum koppeln einer bedieneinrichtung mit einer mobilen einheit, bedieneinrichtung und mobile einheit
WO2015173271A3 (de) * 2014-05-16 2016-02-04 Faindu Gmbh Verfahren zur darstellung einer virtuellen interaktion auf zumindest einem bildschirm und eingabevorrichtung, system und verfahren für eine virtuelle anwendung mittels einer recheneinheit
WO2016015805A1 (de) * 2014-07-29 2016-02-04 Daimler Ag Bediensystem für eine fahrzeugseitige einrichtung
DE102014216168A1 (de) * 2014-08-14 2016-02-18 Bayerische Motoren Werke Aktiengesellschaft Steuerung einer Kommunikationsausgabe einer Diensteinrichtung eines Kraftfahrzeugs
DE102014017377A1 (de) * 2014-11-24 2016-06-09 Audi Ag Verfahren zum Betreiben einer Bedienvorrichtung eines Kraftfahrzeugs
WO2017040519A1 (en) * 2015-08-31 2017-03-09 Sri International Method and system for monitoring driving behaviors
EP3182250A1 (de) * 2015-12-18 2017-06-21 Delphi Technologies, Inc. System und verfahren zur überwachung eines 3d-raums vor einer ausgabeeinheit zur steuerung der ausgabeeinheit
DE102016201981A1 (de) 2016-02-10 2017-08-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Auswählen, Aktivieren oder Deaktivieren einer Funktion in einem Kraftfahrzeug mithilfe einer Bedieneinrichtung und ein Bediensystem
DE102016007831A1 (de) * 2016-06-27 2017-12-28 e.solutions GmbH Technik zur Mensch-Maschine-Kommunikation
US9858702B2 (en) 2014-02-12 2018-01-02 Volkswagen Aktiengesellschaft Device and method for signalling a successful gesture input
EP3254882A3 (de) * 2016-04-22 2018-03-07 Volkswagen Aktiengesellschaft Multifunktionale anzeige- und bedieneinrichtung für ein kraftfahrzeug
EP3312860A1 (de) * 2016-10-24 2018-04-25 VEGA Grieshaber KG Anordnung zum berührungslosen bedienen eines geräts der messtechnik mit einer ein- und ausgabeeinheit und verfahren zum betreiben einer ein- und ausgabeeinheit eines geräts der messtechnik
DE102017201799A1 (de) 2017-02-06 2018-08-09 Volkswagen Aktiengesellschaft Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Anwenderunterscheidung
DE102012110934B4 (de) 2011-11-21 2019-02-07 Denso Corporation Anzeigevorrichtung für Fahrzeuge
DE102017214000A1 (de) * 2017-08-10 2019-02-14 Audi Ag Verfahren zum Betreiben einer Lichtquelle in einem Innenraum eines Kraftfahrzeugs sowie Kraftfahrzeug
DE102008018279B4 (de) 2007-04-13 2019-04-04 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) System und verfahren zur verwaltung interner komponenten eines fahrzeugs über eine insassenüberwachung
WO2021004681A1 (de) 2019-07-08 2021-01-14 Volkswagen Aktiengesellschaft Verfahren zum betreiben eines bediensystems und bediensystem
WO2021004683A1 (de) 2019-07-08 2021-01-14 Volkswagen Aktiengesellschaft Verfahren und bediensystem zum erfassen einer nutzereingabe für eine einrichtung eines fahrzeugs
WO2021004682A1 (de) 2019-07-08 2021-01-14 Volkswagen Aktiengesellschaft Verfahren zum betreiben eines bediensystems in einem fahrzeug und bediensystem in einem fahrzeug
DE102013001868B4 (de) * 2013-02-02 2021-03-25 Audi Ag Verfahren zum Betreiben eines Kraftwagens per Gestensteuerung sowie Kraftwagen mit einer Gestenerfassungseinrichtung
DE102008037977B4 (de) * 2008-08-08 2021-07-08 Volkswagen Ag Anzeigevorrichtung für ein Fahrzeug und Verfahren zum Anzeigen von Information im Innenraum eines Fahrzeugs
EP3754460A4 (de) * 2018-02-14 2021-09-22 Kyocera Corporation Elektronische vorrichtung, beweglicher körper, programm und steuerverfahren
US11199420B2 (en) 2018-04-30 2021-12-14 Audi Ag Method for dynamically adapting an operating device in a motor vehicle, as well as operating device and motor vehicle
DE102020122795A1 (de) 2020-09-01 2022-03-03 Bayerische Motoren Werke Aktiengesellschaft Bedienung von Funktionen eines Fahrzeugs
DE102013000069B4 (de) 2013-01-08 2022-08-11 Audi Ag Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung
DE112015002938B4 (de) 2014-06-23 2023-05-25 Toyota Jidosha Kabushiki Kaisha Bedienvorrichtung für ein Fahrzeug
DE102020117352B4 (de) 2020-07-01 2023-06-15 Audi Aktiengesellschaft Ablenkungsfreie Projektion von Bediensymbolen im Fahrzeuginterieur
DE102017206312B4 (de) 2017-04-12 2024-08-01 Ford Global Technologies, Llc Unterstützung einer Handhabung eines innerhalb eines Fahrgastinnenraums befindlichen Gegenstands sowie Kraftfahrzeug

Families Citing this family (292)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7834855B2 (en) 2004-08-25 2010-11-16 Apple Inc. Wide touchpad on a portable computer
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US7694231B2 (en) * 2006-01-05 2010-04-06 Apple Inc. Keyboards for portable electronic devices
DE102006037156A1 (de) * 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8074172B2 (en) 2007-01-05 2011-12-06 Apple Inc. Method, system, and graphical user interface for providing word recommendations
US7957955B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Method and system for providing word recommendations for text input
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8219936B2 (en) * 2007-08-30 2012-07-10 Lg Electronics Inc. User interface for a mobile device using a user's gesture in the proximity of an electronic device
US8432365B2 (en) * 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US20090174679A1 (en) * 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
US8232973B2 (en) 2008-01-09 2012-07-31 Apple Inc. Method, device, and graphical user interface providing word recommendations for text input
US9092134B2 (en) * 2008-02-04 2015-07-28 Nokia Technologies Oy User touch display interface providing an expanded selection area for a user selectable object
CN101533320B (zh) * 2008-03-10 2012-04-25 神基科技股份有限公司 触控显示装置区域影像的近接放大显示方法及其装置
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
KR101495164B1 (ko) * 2008-04-10 2015-02-24 엘지전자 주식회사 이동단말기 및 그 화면 처리 방법
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8576181B2 (en) * 2008-05-20 2013-11-05 Lg Electronics Inc. Mobile terminal using proximity touch and wallpaper controlling method thereof
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
JP4650549B2 (ja) * 2008-10-06 2011-03-16 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US20100095250A1 (en) * 2008-10-15 2010-04-15 Raytheon Company Facilitating Interaction With An Application
US20140033134A1 (en) * 2008-11-15 2014-01-30 Adobe Systems Incorporated Various gesture controls for interactions in between devices
US8294047B2 (en) 2008-12-08 2012-10-23 Apple Inc. Selective input signal rejection and modification
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
US8289286B2 (en) * 2008-12-19 2012-10-16 Verizon Patent And Licensing Inc. Zooming keyboard/keypad
US8762869B2 (en) * 2008-12-23 2014-06-24 Intel Corporation Reduced complexity user interface
US20100235780A1 (en) * 2009-03-16 2010-09-16 Westerman Wayne C System and Method for Identifying Words Based on a Sequence of Keyboard Events
CN102405463B (zh) * 2009-04-30 2015-07-29 三星电子株式会社 利用多模态信息的用户意图推理装置及方法
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10255566B2 (en) 2011-06-03 2019-04-09 Apple Inc. Generating and processing task items that represent tasks to perform
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
EP2472374B1 (de) * 2009-08-24 2019-03-20 Samsung Electronics Co., Ltd. Verfahren zur bereitstellung einer benutzerschnittstelle
JP2011077863A (ja) * 2009-09-30 2011-04-14 Sony Corp 遠隔操作装置、遠隔操作システム、遠隔操作方法およびプログラム
JP2011081469A (ja) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd 入力装置
JP5029673B2 (ja) * 2009-10-30 2012-09-19 株式会社デンソー 車載機
US9244533B2 (en) * 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
KR101302134B1 (ko) * 2009-12-18 2013-08-30 한국전자통신연구원 복합 센서정보 제공 장치 및 방법
US20110179355A1 (en) * 2010-01-15 2011-07-21 Sony Ericsson Mobile Communications Ab Virtual information input arrangement
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
KR101319264B1 (ko) * 2010-01-22 2013-10-18 전자부품연구원 멀티 터치 압력에 기반한 ui 제공방법 및 이를 적용한 전자기기
US8782556B2 (en) * 2010-02-12 2014-07-15 Microsoft Corporation User-centric soft keyboard predictive technologies
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
JP5716009B2 (ja) * 2010-03-05 2015-05-13 レノボ・イノベーションズ・リミテッド(香港) 携帯端末装置
EP2550579A4 (de) * 2010-03-24 2015-04-22 Hewlett Packard Development Co Gestenzuordnung für eine anzeigevorrichtung
DE102011006344B4 (de) 2010-03-31 2020-03-12 Joyson Safety Systems Acquisition Llc Insassenmesssystem
US9007190B2 (en) 2010-03-31 2015-04-14 Tk Holdings Inc. Steering wheel sensors
US8725230B2 (en) 2010-04-02 2014-05-13 Tk Holdings Inc. Steering wheel with hand sensors
US8982160B2 (en) * 2010-04-16 2015-03-17 Qualcomm, Incorporated Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
JP2011253292A (ja) * 2010-06-01 2011-12-15 Sony Corp 情報処理装置および方法、並びにプログラム
JP5685837B2 (ja) * 2010-06-15 2015-03-18 ソニー株式会社 ジェスチャ認識装置、ジェスチャ認識方法およびプログラム
CH703401B1 (de) * 2010-07-02 2019-04-30 Ferag Ag Verfahren und Vorrichtung zum Erzeugen einer Benutzerschnittstelle zum Bedienen von Maschinen.
US20120050007A1 (en) * 2010-08-24 2012-03-01 Babak Forutanpour Methods and apparatus for interacting with an electronic device application by moving an object in the air over an electronic device display
JP2012118761A (ja) * 2010-12-01 2012-06-21 Panasonic Corp 操作入力装置
US9389774B2 (en) * 2010-12-01 2016-07-12 Sony Corporation Display processing apparatus for performing image magnification based on face detection
US8405627B2 (en) * 2010-12-07 2013-03-26 Sony Mobile Communications Ab Touch input disambiguation
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US8514192B2 (en) * 2011-01-04 2013-08-20 Ma Lighting Technology Gmbh Method for operating a lighting control console
JP2012190261A (ja) * 2011-03-10 2012-10-04 Panasonic Corp 近接操作支援装置
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
JP2012208633A (ja) * 2011-03-29 2012-10-25 Ntt Docomo Inc 情報端末、表示制御方法及び表示制御プログラム
JP5789771B2 (ja) * 2011-05-27 2015-10-07 パナソニックIpマネジメント株式会社 操作入力装置、プログラム
KR101859099B1 (ko) * 2011-05-31 2018-06-28 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US9471560B2 (en) * 2011-06-03 2016-10-18 Apple Inc. Autocorrecting language input for virtual keyboards
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
DE102011119082A1 (de) * 2011-11-21 2013-05-23 Übi UG (haftungsbeschränkt) Vorrichtungsanordnung zur Schaffung eines interaktiven Bildschirms aus einem Bildschirm
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
KR101714089B1 (ko) * 2011-12-16 2017-03-09 현대자동차주식회사 차량 인터랙션 시스템
US9965169B2 (en) * 2011-12-29 2018-05-08 David L. Graumann Systems, methods, and apparatus for controlling gesture initiation and termination
CN104040291A (zh) * 2012-01-12 2014-09-10 三菱电机株式会社 地图显示装置以及地图显示方法
JP2013149049A (ja) * 2012-01-19 2013-08-01 Kyocera Corp タッチパネル式入力装置
EP2634680A1 (de) * 2012-02-29 2013-09-04 BlackBerry Limited Grafische Benutzerschnittstelleninteraktion auf eine berührungsempfindlichen Vorrichtung
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
WO2013141161A1 (ja) * 2012-03-23 2013-09-26 株式会社エヌ・ティ・ティ・ドコモ 情報端末、入力受付制御方法及び入力受付制御プログラム
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
JP5754410B2 (ja) * 2012-04-13 2015-07-29 トヨタ自動車株式会社 表示装置
WO2013154720A1 (en) 2012-04-13 2013-10-17 Tk Holdings Inc. Pressure sensor including a pressure sensitive material for use with control systems and methods of using the same
JP5828800B2 (ja) 2012-04-23 2015-12-09 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 表示装置、表示制御方法及びプログラム
US9880710B1 (en) * 2012-05-03 2018-01-30 Tableau Software, Inc. Systems and methods for effectively using data controls in a graphical user interface on a small visual display
US20130293454A1 (en) * 2012-05-04 2013-11-07 Samsung Electronics Co. Ltd. Terminal and method for controlling the same based on spatial interaction
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9646200B2 (en) 2012-06-08 2017-05-09 Qualcomm Incorporated Fast pose detector
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
JP5620440B2 (ja) * 2012-08-09 2014-11-05 パナソニックインテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 表示制御装置、表示制御方法及びプログラム
DE102013000817A1 (de) 2013-01-18 2014-07-24 Volkswagen Aktiengesellschaft Verfahren und eine Bedien- und Anzeigeeinrichtung zum Betreiben einer interaktiven Bedieneinrichtung
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9696223B2 (en) 2012-09-17 2017-07-04 Tk Holdings Inc. Single layer force sensor
JP5944287B2 (ja) * 2012-09-19 2016-07-05 アルプス電気株式会社 動作予測装置及びそれを用いた入力装置
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
DE102012021627A1 (de) * 2012-11-06 2014-05-08 Volkswagen Aktiengesellschaft Verfahren zum Anzeigen von Informationen in einem Fahrzeug und Vorrichtung zum Steuern der Anzeige
KR20140061007A (ko) * 2012-11-13 2014-05-21 엘지이노텍 주식회사 터치 패널 및 이의 입력 방법
US9092093B2 (en) * 2012-11-27 2015-07-28 Neonode Inc. Steering wheel user interface
USD755211S1 (en) * 2012-11-28 2016-05-03 Lg Electronics Inc. Display screen with graphical user interface
CN108132713B (zh) * 2012-12-19 2021-06-18 原相科技股份有限公司 开关装置
US20140179348A1 (en) * 2012-12-21 2014-06-26 Sascha Simon System and method for determining when smartphone is in vehicle
US11222534B2 (en) 2013-12-20 2022-01-11 Sfara, Inc. System and method for smartphone communication during vehicle mode
US9910499B2 (en) 2013-01-11 2018-03-06 Samsung Electronics Co., Ltd. System and method for detecting three dimensional gestures to initiate and complete the transfer of application data between networked devices
JP6070211B2 (ja) * 2013-01-22 2017-02-01 株式会社リコー 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム
DE112014000709B4 (de) 2013-02-07 2021-12-30 Apple Inc. Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten
US8989916B2 (en) 2013-03-12 2015-03-24 Volkswagen Ag Vehicle signal lever proximity sensing for lane change intention detection with following recommendation to driver
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
AU2014233517B2 (en) 2013-03-15 2017-05-25 Apple Inc. Training an at least partial voice command system
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
US9007321B2 (en) * 2013-03-25 2015-04-14 Sony Corporation Method and apparatus for enlarging a display area
WO2014157894A1 (en) * 2013-03-27 2014-10-02 Samsung Electronics Co., Ltd. Display apparatus displaying user interface and method of providing the user interface
US20140298219A1 (en) * 2013-03-29 2014-10-02 Microsoft Corporation Visual Selection and Grouping
US20140331163A1 (en) * 2013-05-06 2014-11-06 Caterpillar Inc. Method to Mark User Definable Limits
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
EP3937002A1 (de) 2013-06-09 2022-01-12 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche für gesprächspersistenz über zwei oder mehrere instanzen eines digitalen assistenten
US9465985B2 (en) 2013-06-09 2016-10-11 Apple Inc. Managing real-time handwriting recognition
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
AU2014278595B2 (en) 2013-06-13 2017-04-06 Apple Inc. System and method for emergency calls initiated by voice command
DE112014003653B4 (de) 2013-08-06 2024-04-18 Apple Inc. Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen
US9696882B2 (en) * 2013-08-28 2017-07-04 Lenovo (Beijing) Co., Ltd. Operation processing method, operation processing device, and control method
DE102013014877A1 (de) 2013-09-06 2015-03-12 Audi Ag Kraftfahrzeug-Bedieneinrichtung mit selbsterklärender Gestenerkennung
KR101386248B1 (ko) * 2013-09-09 2014-04-17 재단법인 실감교류인체감응솔루션연구단 공간 제스처 인식 장치 및 방법
US10140782B2 (en) 2013-10-07 2018-11-27 State Farm Mutual Automobile Insurance Company Vehicle sharing tool based on vehicle condition assessments
US10423989B2 (en) 2013-10-07 2019-09-24 State Farm Mutual Automobile Insurance Company Systems and methods to assess the condition of a vehicle
US20150100506A1 (en) * 2013-10-07 2015-04-09 State Farm Mutual Automobile Insurance Company Systems and methods to report vehicle ownership information
FR3013861B1 (fr) * 2013-11-27 2017-06-02 Airbus Operations Sas Procede de validation d'une interaction sur une surface tactile par occulometrie
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
KR101976498B1 (ko) * 2013-12-10 2019-05-10 현대자동차 주식회사 차량용 제스처 인식 시스템 및 그 방법
KR101556520B1 (ko) * 2013-12-11 2015-10-02 현대자동차주식회사 단말기, 그를 가지는 차량 및 그 제어 방법
GB2521433A (en) * 2013-12-19 2015-06-24 Daimler Ag Predicting an interface control action of a user with an in-vehicle user interface
JP6190313B2 (ja) * 2014-04-23 2017-08-30 カシオ計算機株式会社 情報処理装置及びプログラム
DE102014208502A1 (de) * 2014-05-07 2015-11-12 Volkswagen Aktiengesellschaft Anwenderschnittstelle und Verfahren zum Wechseln zwischen Bildschirmansichten einer Anwenderschnittstelle
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US9740338B2 (en) 2014-05-22 2017-08-22 Ubi interactive inc. System and methods for providing a three-dimensional touch screen
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
KR102263153B1 (ko) * 2014-05-26 2021-06-10 엘지전자 주식회사 동작 인식 장치 및 그 동작 방법
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
TWI566107B (zh) 2014-05-30 2017-01-11 蘋果公司 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US20150370409A1 (en) * 2014-06-18 2015-12-24 International Business Machines Corporation Disambiguation of touch-based gestures
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9725098B2 (en) 2014-08-11 2017-08-08 Ford Global Technologies, Llc Vehicle driver identification
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
JP6252409B2 (ja) 2014-09-02 2017-12-27 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10042445B1 (en) * 2014-09-24 2018-08-07 Amazon Technologies, Inc. Adaptive display of user interface elements based on proximity sensing
US9606986B2 (en) 2014-09-29 2017-03-28 Apple Inc. Integrated word N-gram and class M-gram language models
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
DE102014016222A1 (de) 2014-10-31 2016-05-04 Audi Ag Verfahren und System zum Betreiben einer berührungssensitiven Anzeigeeinrichtung eines Kraftwagens
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
DE102014226553A1 (de) * 2014-12-19 2016-06-23 Robert Bosch Gmbh Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug
EP3040829A1 (de) * 2015-01-02 2016-07-06 Volkswagen AG Anwenderschnittstelle und Verfahren zum Betrieb einer Anwenderschnittstelle für ein Fortbewegungsmittel
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10565455B2 (en) * 2015-04-30 2020-02-18 Ants Technology (Hk) Limited Methods and systems for audiovisual communication
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
CN105511731A (zh) * 2015-12-17 2016-04-20 广东欧珀移动通信有限公司 屏幕控制方法及装置
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
WO2017138702A1 (ko) 2016-02-12 2017-08-17 엘지전자 주식회사 차량용 사용자 인터페이스 장치 및 차량
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179374B1 (en) 2016-06-12 2018-05-28 Apple Inc Handwriting keyboard for monitors
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US20180107380A1 (en) * 2016-10-14 2018-04-19 Samsung Electronics Co., Ltd. System and method for key area correction
DE102016121107A1 (de) * 2016-11-04 2018-05-09 Volkswagen Ag Anordnung einer grafischen Benutzerschnittstelle in einem Fahrzeug und Verfahren zum Bereitstellen einer grafischen Benutzerschnittstelle in einem Fahrzeug
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
CN106775721A (zh) * 2016-12-16 2017-05-31 北京奇虎科技有限公司 界面互动组件控制方法、装置及可穿戴设备
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
DE102017200735A1 (de) * 2017-01-18 2018-07-19 Volkswagen Aktiengesellschaft Verfahren und Anordnung zur Interaktion mit einem Vorschlagssystem mit automatisierten Bedienhandlungen
EP3372435B1 (de) * 2017-03-06 2019-08-07 Volkswagen Aktiengesellschaft Verfahren und bediensystem zum bereitstellen einer bedienschnittstelle
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
JP6414288B2 (ja) * 2017-07-20 2018-10-31 トヨタ自動車株式会社 車両用操作装置
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US11076039B2 (en) 2018-06-03 2021-07-27 Apple Inc. Accelerated task performance
US20210255764A1 (en) * 2018-06-26 2021-08-19 Kyocera Corporation Electronic apparatus, mobile body, program, and control method
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
CN113525090B (zh) * 2020-04-21 2023-12-19 北京新能源汽车股份有限公司 副仪表板总成的控制方法、副仪表板总成及车辆
CN112684970B (zh) * 2020-12-31 2022-11-29 腾讯科技(深圳)有限公司 虚拟场景的适配显示方法、装置、电子设备及存储介质
DE102021100581A1 (de) 2021-01-13 2022-07-14 Bayerische Motoren Werke Aktiengesellschaft Vermittlung textueller Informationen
JP7380635B2 (ja) * 2021-04-09 2023-11-15 横河電機株式会社 プログラム修正支援装置及びプログラム修正支援方法
JP2023059050A (ja) * 2021-10-14 2023-04-26 アルプスアルパイン株式会社 入力装置

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5829782A (en) * 1993-03-31 1998-11-03 Automotive Technologies International, Inc. Vehicle interior identification and monitoring system
US4761641A (en) * 1983-01-21 1988-08-02 Vidcom Rentservice B.V. Information display system
JPH02153415A (ja) 1988-12-06 1990-06-13 Hitachi Ltd キーボード装置
US6517107B2 (en) * 1998-06-09 2003-02-11 Automotive Technologies International, Inc. Methods for controlling a system in a vehicle using a transmitting/receiving transducer and/or while compensating for thermal gradients
US6279946B1 (en) * 1998-06-09 2001-08-28 Automotive Technologies International Inc. Methods for controlling a system in a vehicle using a transmitting/receiving transducer and/or while compensating for thermal gradients
JPH06321011A (ja) 1993-05-17 1994-11-22 Mitsubishi Electric Corp 周辺視野表示装置
JP2648558B2 (ja) * 1993-06-29 1997-09-03 インターナショナル・ビジネス・マシーンズ・コーポレイション 情報選択装置及び情報選択方法
JP3462537B2 (ja) 1993-09-06 2003-11-05 株式会社ザナヴィ・インフォマティクス 車載用ナビゲーションシステム
DE19529571A1 (de) * 1995-08-11 1997-02-13 Becker Gmbh Bediengerät
JPH1024785A (ja) 1996-07-08 1998-01-27 Omron Corp 自動車の空間環境自動調整装置
KR100260760B1 (ko) * 1996-07-31 2000-07-01 모리 하루오 터치패널을 병설한 정보표시장치
US6021418A (en) * 1997-02-18 2000-02-01 International Business Machines Corporation Apparatus and method for displaying control-objects
US6137487A (en) * 1997-02-24 2000-10-24 International Business Machines Corporation Method and apparatus for manipulating graphical objects in a data processing system
EP0863381B1 (de) * 1997-03-07 2004-06-02 Pioneer Electronic Corporation Navigationsvorrichtung
JPH10269022A (ja) 1997-03-25 1998-10-09 Hitachi Ltd 通信機能付き携帯型情報処理装置
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
JP3692759B2 (ja) 1998-01-19 2005-09-07 株式会社デンソー 車両用表示装置
DE19829568A1 (de) 1998-07-02 2000-01-05 Mannesmann Vdo Ag Bedieneinheit einer fest in einem Fahrzeug installierten Vorrichtung
US6501515B1 (en) * 1998-10-13 2002-12-31 Sony Corporation Remote control system
US6259436B1 (en) * 1998-12-22 2001-07-10 Ericsson Inc. Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch
US6363160B1 (en) * 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US6426761B1 (en) * 1999-04-23 2002-07-30 Internation Business Machines Corporation Information presentation system for a graphical user interface
WO2000075766A1 (en) 1999-06-02 2000-12-14 Ncr International, Inc. Self-service terminal
JP3773716B2 (ja) * 1999-09-13 2006-05-10 富士通株式会社 グラフィカルユーザインターフェース表示装置及びその装置での処理をコンピュータにて行なわせるためのプログラムを格納した記録媒体
DE19951001C2 (de) 1999-10-22 2003-06-18 Bosch Gmbh Robert Vorrichtung zur Darstellung von Informationen in einem Fahrzeug
US7920102B2 (en) * 1999-12-15 2011-04-05 Automotive Technologies International, Inc. Vehicular heads-up display system
DE10022321A1 (de) * 2000-05-09 2001-11-15 Bayerische Motoren Werke Ag Vorrichtung in Fahrzeugen zum Erkennen einer Handstellung
US6640222B1 (en) 2000-09-29 2003-10-28 Motorola, Inc. Method for selecting an information unit among conflicting information units based on context fields by a user device
RU2220057C2 (ru) 2001-04-24 2003-12-27 Беседин Эдуард Викторович Панель управления климатической установкой
JP2002358162A (ja) 2001-06-01 2002-12-13 Sony Corp 画像表示装置
US20090040184A9 (en) * 2001-10-04 2009-02-12 Infogation Corporation Information entry mechanism
US7283992B2 (en) * 2001-11-30 2007-10-16 Microsoft Corporation Media agent to suggest contextually related media content
US7130835B2 (en) * 2002-03-28 2006-10-31 Bausch & Lomb Incorporated System and method for predictive ophthalmic correction
DE50310654D1 (de) 2002-08-15 2008-11-27 Ident Technology Ag Schaltungsanordnung zur selektiven schaltsignalgenerierung
CN101673181A (zh) * 2002-11-29 2010-03-17 皇家飞利浦电子股份有限公司 具有触摸区域的移动表示的用户界面
JP4172307B2 (ja) * 2003-03-31 2008-10-29 富士ゼロックス株式会社 3次元指示入力装置
JP2004334590A (ja) * 2003-05-08 2004-11-25 Denso Corp 操作入力装置
JP4354217B2 (ja) 2003-06-11 2009-10-28 クラリオン株式会社 道路標識等表示装置
JP3752246B2 (ja) 2003-08-11 2006-03-08 学校法人慶應義塾 ハンドパターンスイッチ装置
US9274598B2 (en) * 2003-08-25 2016-03-01 International Business Machines Corporation System and method for selecting and activating a target object using a combination of eye gaze and key presses
EP1557744B1 (de) * 2004-01-20 2008-04-16 Sony Deutschland GmbH Haptische tastengesteuerte Dateneingabe
JP4566596B2 (ja) * 2004-03-29 2010-10-20 アルパイン株式会社 操作指示装置
JP4855654B2 (ja) * 2004-05-31 2012-01-18 ソニー株式会社 車載装置、車載装置の情報提供方法、車載装置の情報提供方法のプログラム及び車載装置の情報提供方法のプログラムを記録した記録媒体
WO2006003588A2 (en) 2004-06-29 2006-01-12 Koninklijke Philips Electronics N.V. Multi-layered display of a graphical user interface
WO2006003586A2 (en) * 2004-06-29 2006-01-12 Koninklijke Philips Electronics, N.V. Zooming in 3-d touch interaction
WO2006003591A2 (en) 2004-06-29 2006-01-12 Koninklijke Philips Electronics, N.V. Discontinuous zoom
JP2006029827A (ja) * 2004-07-12 2006-02-02 Fujitsu Media Device Kk 慣性センサ
JP2006031499A (ja) * 2004-07-20 2006-02-02 Denso Corp 情報入力表示装置
JP2006039953A (ja) 2004-07-27 2006-02-09 Denso Corp 画像合成装置、ディスプレイ装置およびナビゲーション装置
JP2006059238A (ja) * 2004-08-23 2006-03-02 Denso Corp 情報入力表示装置
JP4351599B2 (ja) * 2004-09-03 2009-10-28 パナソニック株式会社 入力装置
DE102004045885A1 (de) 2004-09-22 2006-03-23 Volkswagen Ag Bedienelement für ein Kraftfahrzeug
US8117623B1 (en) * 2004-11-18 2012-02-14 Adobe Systems Incorporated System and method for providing notices to users of a computer program in a flexible way
KR20060070280A (ko) * 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
US7616191B2 (en) * 2005-04-18 2009-11-10 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Electronic device and method for simplifying text entry using a soft keyboard
US8543906B2 (en) * 2005-06-29 2013-09-24 Xerox Corporation Probabilistic learning method for XML annotation of documents
US7443316B2 (en) * 2005-09-01 2008-10-28 Motorola, Inc. Entering a character into an electronic device
US7697827B2 (en) * 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
DE102006037156A1 (de) * 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
WO2007145190A1 (ja) * 2006-06-12 2007-12-21 Panasonic Corporation ナビゲーション装置及びナビゲーション方法
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US20110109745A1 (en) * 2008-07-07 2011-05-12 Yuzuru Nakatani Vehicle traveling environment detection device
US8917189B2 (en) * 2009-01-13 2014-12-23 Toyota Jidosha Kabushiki Kaisha Driving assistance Device

Cited By (139)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1947548A1 (de) 2006-12-27 2008-07-23 Takata Corporation Bediensystem zum Bedienen von Funktionen in einem Fahrzeug und Fahrzeug
US7983475B2 (en) 2006-12-27 2011-07-19 Takata Corporation Vehicular actuation system
DE102008018279B4 (de) 2007-04-13 2019-04-04 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) System und verfahren zur verwaltung interner komponenten eines fahrzeugs über eine insassenüberwachung
EP2058162A3 (de) * 2007-11-08 2013-06-05 Volkswagen Aktiengesellschaft Multifunktionsanzeige- und Bediensystem und Verfahren zum Bedienen von Funktionen oder Fahrzeugsystemen mit einem assistierten Bedienmodus
US9103691B2 (en) 2007-11-12 2015-08-11 Volkswagen Ag Multimode user interface of a driver assistance system for inputting and presentation of information
EP2240843A1 (de) * 2007-12-31 2010-10-20 Motorola, Inc. Verfahren und vorrichtung für zweihändige computerschnittstelle mit gestenerkennung
EP2240843A4 (de) * 2007-12-31 2011-12-14 Motorola Mobility Inc Verfahren und vorrichtung für zweihändige computerschnittstelle mit gestenerkennung
DE102008005106B4 (de) 2008-01-14 2023-01-05 Bcs Automotive Interface Solutions Gmbh Bedienvorrichtung für ein Kraftfahrzeug
DE102008005106A1 (de) 2008-01-14 2009-07-16 Trw Automotive Electronics & Components Gmbh Bedienvorrichtung für ein Kraftfahrzeug
DE102008004970B4 (de) * 2008-01-17 2020-11-19 Volkswagen Ag Bediensystem mit positionsveränderlicher Bedieneinheit und Verfahren zum Betreiben einer Bedieneinheit
DE102008004970A1 (de) 2008-01-17 2009-07-23 Volkswagen Ag Bediensystem mit positionsveränderlicher Bedieneinheit und Verfahren zum Betreiben einer Bedieneinheit
DE102008017986A1 (de) 2008-04-04 2009-10-08 Volkswagen Ag Auswahl von Anzeigemodi "Skins" für ein Infotainmentsystem
EP2107456A1 (de) 2008-04-04 2009-10-07 Volkswagen AG Auswahl von Anzeigenmodi "SKINS" für ein Infotainmentsystem
DE102008023505B4 (de) * 2008-05-09 2021-02-04 Volkswagen Ag Unterstützung eines Infotainment-Systems durch Farbcodierung
DE102008023505A1 (de) 2008-05-09 2009-11-12 Volkswagen Ag Unterstützung eines Infotainment-Systems durch Farbcodierung
CN102089626A (zh) * 2008-07-09 2011-06-08 大众汽车有限公司 用于运行用于车辆的操作系统的方法和用于车辆的操作系统
EP2574881A1 (de) 2008-07-09 2013-04-03 Volkswagen Aktiengesellschaft Verfahren zum Betrieb eines Bediensystems für ein Fahrzeug und Bediensystem für ein Fahrzeug
WO2010003471A1 (de) 2008-07-09 2010-01-14 Volkswagen Aktiengesellschaft Verfahren zum betrieb eines bediensystems für ein fahrzeug und bediensystem für ein fahrzeug
CN102089626B (zh) * 2008-07-09 2013-09-11 大众汽车有限公司 用于运行用于车辆的操作系统的方法和用于车辆的操作系统
US9041674B2 (en) 2008-07-09 2015-05-26 Volkswagen Ag Method for operating a control system for a vehicle and control system for a vehicle
US8564560B2 (en) 2008-07-09 2013-10-22 Volkswagen Ag Method for operating a control system for a vehicle and control system for a vehicle
WO2010009915A1 (de) 2008-07-21 2010-01-28 Siemens Aktiengesellschaft Verfahren und vorrichtung zum steuern eines systems
DE102008037977B4 (de) * 2008-08-08 2021-07-08 Volkswagen Ag Anzeigevorrichtung für ein Fahrzeug und Verfahren zum Anzeigen von Information im Innenraum eines Fahrzeugs
EP2163975A3 (de) * 2008-09-12 2010-10-27 Sony Corporation Informationsverarbeitung
US9569106B2 (en) 2008-09-12 2017-02-14 Sony Corporation Information processing apparatus, information processing method and computer program
US8471825B2 (en) 2008-09-12 2013-06-25 Sony Corporation Information processing apparatus, information processing method and computer program
US8860680B2 (en) 2008-09-12 2014-10-14 Sony Corporation Information processing apparatus, information processing method and computer program
DE102008048821A1 (de) 2008-09-22 2010-03-25 Volkswagen Ag Bedienvorrichtung und Verfahren zum Betreiben einer Bedienvorrichtung mit verbesserter Annäherungserfassung
CN102159419A (zh) * 2008-09-22 2011-08-17 大众汽车有限公司 在用户可影响显示对象的呈现的车辆中的显示和操作系统以及运行这种显示和操作系统的方法
KR101503108B1 (ko) 2008-09-22 2015-03-16 폭스바겐 악티엔 게젤샤프트 사용자가 디스플레이 객체의 표시에 영향을 미칠 수 있는 자동차의 디스플레이 및 조작 시스템과 그 디스플레이 및 조작 시스템을 작동하는 방법
US8976125B2 (en) 2008-09-22 2015-03-10 Volkswagen Ag Operator control apparatus and method for operating an operator control apparatus with improved approach sensing
DE102008048826A9 (de) 2008-09-22 2010-07-15 Volkswagen Ag Verfahren zum Bestimmen eines Kalibrierwerts einer Anzeige- und Bedienvorrichtung sowie Anzeige- und Bedienvorrichtung in einem Kraftfahrzeug
DE102008048825A9 (de) * 2008-09-22 2010-07-15 Volkswagen Ag Anzeige- und Bediensystem in einem Kraftfahrzeug mit nutzerbeeinflussbarer Darstellung von Anzeigeobjekten sowie Verfahren zum Betreiben eines solchen Anzeige- und Bediensystems
CN102159419B (zh) * 2008-09-22 2014-07-02 大众汽车有限公司 在用户可影响显示对象的呈现的车辆中的显示和操作系统以及运行这种显示和操作系统的方法
WO2010031454A1 (de) 2008-09-22 2010-03-25 Volkswagen Ag Anzeige- und bediensystem in einem kraftfahrzeug mit nutzerbeeinflussbarer darstellung von anzeigeobjekten sowie verfahren zum betreiben eines solchen anzeige- und bediensystems
DE102008048826A1 (de) 2008-09-22 2010-03-25 Volkswagen Ag Verfahren zum Bestimmen eines Kalibrierwerts einer Anzeige- und Bedienvorrichtung sowie Anzeige- und Bedienvorrichtung in einem Kraftfahrzeug
WO2010031565A2 (de) 2008-09-22 2010-03-25 Volkswagen Ag Bedienvorrichtung und verfahren zum betreiben einer bedienvorrichtung mit verbesserter annäherungserfassung
DE102009048043A1 (de) 2008-10-15 2010-04-22 Volkswagen Ag Multifunktionsanzeige- und Bediensystem sowie Verfahren zum Steuern eines solchen Systems mit optimierter grafischer Bediendarstellung
US8907778B2 (en) 2008-10-15 2014-12-09 Volkswagen Ag Multi-function display and operating system and method for controlling such a system having optimized graphical operating display
US9069453B2 (en) 2008-12-04 2015-06-30 Mitsubishi Electric Corporation Display input device
DE112009002612B4 (de) * 2008-12-04 2015-07-23 Mitsubishi Electric Corporation Anzeige-Eingabevorrichtung, Navigationssystem mit einer Anzeige-Eingabevorrichtung sowie Fahrzeuginformationssystem mit einer Anzeige-Eingabevorrichtung
US8890819B2 (en) 2009-03-31 2014-11-18 Mitsubishi Electric Corporation Display input device and vehicle-mounted information equipment
US9475390B2 (en) 2009-07-07 2016-10-25 Volkswagen Ag Method and device for providing a user interface in a vehicle
WO2011003947A1 (de) * 2009-07-07 2011-01-13 Volkswagen Ag Verfahren und vorrichtung zum bereitstellen einer benutzerschnittstelle in einem fahrzeug
DE102009036369A1 (de) 2009-08-06 2011-02-10 Volkswagen Ag Verfahren zum Betreiben einer Bedienvorrichtung und Bedienvorrichtung in einem Fahrzeug
DE102009036368A1 (de) * 2009-08-06 2011-02-10 Volkswagen Ag Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug
WO2011015570A1 (de) 2009-08-06 2011-02-10 Volkswagen Ag Verfahren zum betreiben einer bedienvorrichtung und bedienvorrichtung in einem fahrzeug
US8667424B2 (en) 2009-08-26 2014-03-04 Mitac International Corp. Method of spreading out and displaying closely located points of interest on a personal navigation device
DE102009038895A1 (de) * 2009-08-26 2010-09-16 Audi Ag Verfahren zum Unterstützen eines Bedienens von zumindest einer Einrichtung eines Fahrzeugs
DE102009048937A1 (de) * 2009-10-10 2011-04-14 Volkswagen Ag Multiview-Anzeige- und Bedienvorrichtung mit Nutzerunterscheidung
DE102009049110B4 (de) 2009-10-12 2022-12-01 Volkswagen Ag Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug
DE102009049110A1 (de) 2009-10-12 2011-04-14 Volkswagen Ag Verfahren zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug
US9713990B2 (en) 2010-02-02 2017-07-25 Dav Haptic feedback module designed to be integrated into an automobile vehicle for a mobile device and corresponding control device
WO2011095709A3 (fr) * 2010-02-02 2011-11-03 Dav Module de retour haptique destiné à être intégré dans un véhicule automobile pour dispositif nomade et dispositif de commande correspondant
DE102010053788A1 (de) 2010-12-08 2012-06-14 Volkswagen Ag Verfahren zum Betreiben einer Bedienvorrichtung und Bedienvorrichtung in einem Fahrzeug
US9442619B2 (en) 2011-02-19 2016-09-13 Volkswagen Ag Method and device for providing a user interface, in particular in a vehicle
WO2012110207A1 (de) 2011-02-19 2012-08-23 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zum bereitstellen einer benutzerschnittstelle, insbesondere in einem fahrzeug
DE102011011802A1 (de) 2011-02-19 2012-08-23 Volkswagen Ag Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle, insbesondere in einem Fahrzeug
US9499052B2 (en) 2011-10-15 2016-11-22 Volkswagen Ag Method for providing an operating device in a vehicle and operating device
US10052955B2 (en) 2011-10-15 2018-08-21 Volkswagen Ag Method for providing an operating device in a vehicle and operating device
WO2013053465A1 (de) * 2011-10-15 2013-04-18 Volkswagen Aktiengesellschaft Verfahren zum bereitstellen einer bedienvorrichtung in einem fahrzeug und bedienvorrichtung
DE102012110934B4 (de) 2011-11-21 2019-02-07 Denso Corporation Anzeigevorrichtung für Fahrzeuge
DE102011122616A1 (de) * 2011-12-23 2013-06-27 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Einparkhilfe in einem Fahrzeug
EP2608185A1 (de) * 2011-12-23 2013-06-26 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Einparkhilfe in einem Fahrzeug
US9440537B2 (en) 2012-01-09 2016-09-13 Daimler Ag Method and device for operating functions displayed on a display unit of a vehicle using gestures which are carried out in a three-dimensional space, and corresponding computer program product
WO2013104390A1 (de) * 2012-01-09 2013-07-18 Daimler Ag Verfahren und vorrichtung zum bedienen von auf einer anzeigeeinheit eines fahrzeugs angezeigten funktionen unter verwendung von im dreidimensionalen raum ausgeführten gesten sowie betreffendes computerprogrammprodukt
DE102012011177A1 (de) * 2012-06-06 2013-12-24 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zur Bedienung von Funktionen einesFahrzeuges sowie entsprechende Vorrichtung
US10331271B2 (en) 2012-08-01 2019-06-25 Volkswagen Ag Displaying and operating device and method for controlling a displaying and operating device
WO2014019884A1 (de) * 2012-08-01 2014-02-06 Volkswagen Aktiengesellschaft Anzeige- und bedieneinrichtung und verfahren zur ansteuerung einer anzeige- und bedieneinrichtung
WO2014026862A1 (de) * 2012-08-16 2014-02-20 Volkswagen Aktiengesellschaft Verfahren und ein bedien- und anzeigeeinrichtung zum betreiben einer interaktiven bedieneinrichtung
WO2014040856A1 (de) * 2012-09-13 2014-03-20 Bayerische Motoren Werke Aktiengesellschaft Berührungseingaben über schwellen auf berührungsempfindlichen anzeigen
DE102012218843A1 (de) * 2012-10-16 2014-04-17 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung
DE102012020855A1 (de) * 2012-10-24 2014-04-24 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Verfahren zum Anpassen einer Einstellung eines Fahrzeugsitzes und Fahrzeug mit zu-mindest einem Fahrzeugsitz
DE102012022321A1 (de) * 2012-11-15 2014-05-15 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zum Betreiben eines Fahrzeugs und Fahrzeug
WO2014090625A1 (de) * 2012-12-11 2014-06-19 Volkswagen Aktiengesellschaft Bedienverfahren und bedienvorrichtung
DE102013007329A1 (de) 2013-01-04 2014-07-10 Volkswagen Aktiengesellschaft Verfahren zum Betreiben einer Bedienvorrichtung in einem Fahrzeug
US9804744B2 (en) 2013-01-04 2017-10-31 Volkswagen Ag Method for operating a control device in a vehicle
DE102013000080A1 (de) * 2013-01-08 2014-07-10 Audi Ag Aktivierung einer Kraftfahrzeugfunktion mittels eines optischen Sensors
DE102013000083A1 (de) 2013-01-08 2014-07-10 Audi Ag Kraftfahrzeug mit einer personenspezifischen Bedienschnittstelle
DE102013000069B4 (de) 2013-01-08 2022-08-11 Audi Ag Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung
DE102013000080B4 (de) * 2013-01-08 2015-08-27 Audi Ag Aktivierung einer Kraftfahrzeugfunktion mittels eines optischen Sensors
US11099715B2 (en) 2013-01-10 2021-08-24 Volkswagen Ag Method and device for providing a user interface in a vehicle
DE102013000880A1 (de) * 2013-01-10 2014-07-10 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zu Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug
DE102013200457B4 (de) 2013-01-15 2023-08-17 Preh Gmbh Bedienvorrichtung für ein Kraftfahrzeug mit einer Gestenüberwachungseinheit
DE102013200457A1 (de) * 2013-01-15 2014-07-17 Preh Gmbh Bedienvorrichtung für ein Kraftfahrzeug mit einer Gestenüberwachungseinheit
DE102013001330A1 (de) * 2013-01-26 2014-07-31 Audi Ag Verfahren zum Betreiben einer Lüftereinrichtung eines Kraftwagens sowie Kraftwagen
DE102013001868B4 (de) * 2013-02-02 2021-03-25 Audi Ag Verfahren zum Betreiben eines Kraftwagens per Gestensteuerung sowie Kraftwagen mit einer Gestenerfassungseinrichtung
DE102013002280A1 (de) 2013-02-08 2014-08-14 Audi Ag Verfahren zum Betreiben einer Anzeigevorrichtung eines Kraftwagens sowie Kraftwagen mit einer solchen Anzeigevorrichtung
WO2014206558A1 (de) 2013-06-29 2014-12-31 Audi Ag Kraftfahrzeug-bedienschnittstelle mit gestenerkennung
US9738158B2 (en) 2013-06-29 2017-08-22 Audi Ag Motor vehicle control interface with gesture recognition
DE102013010932A1 (de) 2013-06-29 2014-12-31 Audi Ag Verfahren zum Betreiben einer Bedienschnittstelle, Bedienschnittstelle sowie Kraftfahrzeug mit einer Bedienschnittstelle
DE102013012466A1 (de) 2013-07-26 2015-01-29 Audi Ag Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung
DE102013218917A1 (de) * 2013-09-20 2015-03-26 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zur Steuerung von Geräten in Fahrzeugen mittels einer Blickrichtungserkennung
WO2015062762A1 (de) * 2013-10-31 2015-05-07 Volkswagen Aktiengesellschaft Bildverarbeitungsvorrichtung, verfahren zur bestimmung von bildinformation und computerprogramm zur durchführung des verfahrens
DE102013019197A1 (de) * 2013-11-15 2015-05-21 Audi Ag Kraftfahrzeug-Klimatisierung mit adaptivem Luftausströmer
DE102013226012A1 (de) * 2013-12-16 2015-06-18 Bayerische Motoren Werke Aktiengesellschaft Bereitstellung eines Bedienelements durch Oberflächenveränderung
US10768709B2 (en) 2014-01-06 2020-09-08 Volkswagen Ag Display operator control unit and method for displaying additional instructions on a display unit
DE102014200024A1 (de) * 2014-01-06 2015-07-09 Volkswagen Aktiengesellschaft Anzeigebedieneinheit und Verfahren zum Anzeigen zusätzlicher Hinweise auf eine Anzeigeeinheit
US9858702B2 (en) 2014-02-12 2018-01-02 Volkswagen Aktiengesellschaft Device and method for signalling a successful gesture input
DE102014202834A1 (de) 2014-02-17 2015-09-03 Volkswagen Aktiengesellschaft Anwenderschnittstelle und Verfahren zum berührungslosen Bedienen eines in Hardware ausgestalteten Bedienelementes in einem 3D-Gestenmodus
WO2015121173A1 (de) 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und verfahren zum wechseln von einem ersten bedienmodus einer anwenderschnittstelle in einen 3d-gesten-modus
US11119576B2 (en) 2014-02-17 2021-09-14 Volkswagen Aktiengesellschaft User interface and method for contactlessly operating a hardware operating element in a 3-D gesture mode
DE102014202833A1 (de) 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und Verfahren zum Wechseln von einem ersten Bedienmodus einer Anwenderschnittstelle in einen 3D-Gesten-Modus
WO2015121175A1 (de) 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei der bedienung einer anwenderschnittstelle
WO2015121187A1 (de) 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und verfahren zum berührungslosen bedienen eines in hardware ausgestalteten bedienelementes in einem 3d-gestenmodus
DE102014202836A1 (de) 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer Anwenderschnittstelle
EP2930603A1 (de) * 2014-04-07 2015-10-14 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug
US10928929B2 (en) 2014-05-16 2021-02-23 Faindu Gmbh Method for displaying a virtual interaction on at least one screen and input device, system and method for a virtual application by means of a computing unit
WO2015173271A3 (de) * 2014-05-16 2016-02-04 Faindu Gmbh Verfahren zur darstellung einer virtuellen interaktion auf zumindest einem bildschirm und eingabevorrichtung, system und verfahren für eine virtuelle anwendung mittels einer recheneinheit
DE102014209983A1 (de) 2014-05-26 2015-12-17 Volkswagen Aktiengesellschaft Verfahren zum Koppeln einer Bedieneinrichtung mit einer mobilen Einheit, Bedieneinrichtung und mobile Einheit
WO2015180878A1 (de) 2014-05-26 2015-12-03 Volkswagen Aktiengesellschaft Verfahren zum koppeln einer bedieneinrichtung mit einer mobilen einheit, bedieneinrichtung und mobile einheit
DE102014209983B4 (de) 2014-05-26 2023-05-04 Volkswagen Aktiengesellschaft Verfahren zum Koppeln einer Bedieneinrichtung mit einer mobilen Einheit, Bedieneinrichtung und mobile Einheit
DE112015002938B4 (de) 2014-06-23 2023-05-25 Toyota Jidosha Kabushiki Kaisha Bedienvorrichtung für ein Fahrzeug
WO2016015805A1 (de) * 2014-07-29 2016-02-04 Daimler Ag Bediensystem für eine fahrzeugseitige einrichtung
DE102014216168A1 (de) * 2014-08-14 2016-02-18 Bayerische Motoren Werke Aktiengesellschaft Steuerung einer Kommunikationsausgabe einer Diensteinrichtung eines Kraftfahrzeugs
US9798422B2 (en) 2014-11-24 2017-10-24 Audi Ag Method for operating a pressure-sensitive control panel of a motor vehicle
DE102014017377A1 (de) * 2014-11-24 2016-06-09 Audi Ag Verfahren zum Betreiben einer Bedienvorrichtung eines Kraftfahrzeugs
DE102014017377B4 (de) * 2014-11-24 2017-04-20 Audi Ag Verfahren zum Betreiben einer Bedienvorrichtung eines Kraftfahrzeugs sowie Bedienvorrichtung
US10769459B2 (en) 2015-08-31 2020-09-08 Sri International Method and system for monitoring driving behaviors
WO2017040519A1 (en) * 2015-08-31 2017-03-09 Sri International Method and system for monitoring driving behaviors
US10031624B2 (en) 2015-12-18 2018-07-24 Delphi Technologies, Inc. System and method for monitoring 3D space in front of an output unit for the control of the output unit
EP3182250A1 (de) * 2015-12-18 2017-06-21 Delphi Technologies, Inc. System und verfahren zur überwachung eines 3d-raums vor einer ausgabeeinheit zur steuerung der ausgabeeinheit
DE102016201981A1 (de) 2016-02-10 2017-08-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Auswählen, Aktivieren oder Deaktivieren einer Funktion in einem Kraftfahrzeug mithilfe einer Bedieneinrichtung und ein Bediensystem
EP3254882A3 (de) * 2016-04-22 2018-03-07 Volkswagen Aktiengesellschaft Multifunktionale anzeige- und bedieneinrichtung für ein kraftfahrzeug
DE102016007831A1 (de) * 2016-06-27 2017-12-28 e.solutions GmbH Technik zur Mensch-Maschine-Kommunikation
EP3312860A1 (de) * 2016-10-24 2018-04-25 VEGA Grieshaber KG Anordnung zum berührungslosen bedienen eines geräts der messtechnik mit einer ein- und ausgabeeinheit und verfahren zum betreiben einer ein- und ausgabeeinheit eines geräts der messtechnik
DE102017201799A1 (de) 2017-02-06 2018-08-09 Volkswagen Aktiengesellschaft Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Anwenderunterscheidung
DE102017206312B4 (de) 2017-04-12 2024-08-01 Ford Global Technologies, Llc Unterstützung einer Handhabung eines innerhalb eines Fahrgastinnenraums befindlichen Gegenstands sowie Kraftfahrzeug
DE102017214000A1 (de) * 2017-08-10 2019-02-14 Audi Ag Verfahren zum Betreiben einer Lichtquelle in einem Innenraum eines Kraftfahrzeugs sowie Kraftfahrzeug
DE102017214000B4 (de) 2017-08-10 2019-04-25 Audi Ag Verfahren zum Betreiben einer Lichtquelle in einem Innenraum eines Kraftfahrzeugs sowie Kraftfahrzeug
US11307669B2 (en) 2018-02-14 2022-04-19 Kyocera Corporation Electronic device, moving body, program and control method
EP3754460A4 (de) * 2018-02-14 2021-09-22 Kyocera Corporation Elektronische vorrichtung, beweglicher körper, programm und steuerverfahren
US11199420B2 (en) 2018-04-30 2021-12-14 Audi Ag Method for dynamically adapting an operating device in a motor vehicle, as well as operating device and motor vehicle
DE102018206653B4 (de) 2018-04-30 2024-06-13 Audi Ag Verfahren zum dynamischen Anpassen einer Bedienvorrichtung in einem Kraftfahrzeug sowie Bedienvorrichtung und Kraftfahrzeug
WO2021004681A1 (de) 2019-07-08 2021-01-14 Volkswagen Aktiengesellschaft Verfahren zum betreiben eines bediensystems und bediensystem
WO2021004683A1 (de) 2019-07-08 2021-01-14 Volkswagen Aktiengesellschaft Verfahren und bediensystem zum erfassen einer nutzereingabe für eine einrichtung eines fahrzeugs
WO2021004682A1 (de) 2019-07-08 2021-01-14 Volkswagen Aktiengesellschaft Verfahren zum betreiben eines bediensystems in einem fahrzeug und bediensystem in einem fahrzeug
DE102020117352B4 (de) 2020-07-01 2023-06-15 Audi Aktiengesellschaft Ablenkungsfreie Projektion von Bediensymbolen im Fahrzeuginterieur
DE102020122795A1 (de) 2020-09-01 2022-03-03 Bayerische Motoren Werke Aktiengesellschaft Bedienung von Funktionen eines Fahrzeugs

Also Published As

Publication number Publication date
JP2009530726A (ja) 2009-08-27
US9671867B2 (en) 2017-06-06
KR20080108970A (ko) 2008-12-16
KR101367593B1 (ko) 2014-02-25
CN106427571B (zh) 2020-07-17
JP5275970B2 (ja) 2013-08-28
US20090327977A1 (en) 2009-12-31
EP1998996B1 (de) 2012-06-13
CN106427571A (zh) 2017-02-22
JP2012178161A (ja) 2012-09-13
WO2007107368A1 (de) 2007-09-27
EP1998996A1 (de) 2008-12-10

Similar Documents

Publication Publication Date Title
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
EP1840522B1 (de) Navigationsgerät und Verfahren zum Betreiben eines Navigationsgeräts
EP2943367B1 (de) Verfahren zum synchronisieren von anzeigeeinrichtungen eines kraftfahrzeugs
EP2350799B1 (de) Verfahren und vorrichtung zum anzeigen von in listen geordneter information
EP2424743B1 (de) Verfahren zum anzeigen und eingeben von informationen in einem kraftfahrzeug und anzeigeeinrichtung
EP2179346B1 (de) Anzeige- und bedienvorrichtung für ein kraftfahrzeug mit einer multi-view-anzeigevorrichtung
DE102013012466B4 (de) Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung
DE102008048825A1 (de) Anzeige- und Bediensystem in einem Kraftfahrzeug mit nutzerbeeinflussbarer Darstellung von Anzeigeobjekten sowie Verfahren zum Betreiben eines solchen Anzeige- und Bediensystems
EP3507681B1 (de) Verfahren zur interaktion mit bildinhalten, die auf einer anzeigevorrichtung in einem fahrzeug dargestellt werden
EP3116737B1 (de) Verfahren und vorrichtung zum bereitstellen einer graphischen nutzerschnittstelle in einem fahrzeug
DE102012020607B4 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
DE102016108885A1 (de) Verfahren zum berührungslosen Verschieben von visuellen Informationen
EP2246214B1 (de) Verfahren und Vorrichtung zum Anzeigen von in Listen geordneter Information
WO2014108147A1 (de) Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung
DE102013020795A1 (de) Verfahren und Anordnung zum Steuern von Funktionen eines Kraftfahrzeugs
EP3573854A1 (de) Verfahren zum betreiben eines bediensystems, bediensystem und fahrzeug mit einem bediensystem
DE102013000069B4 (de) Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung
WO2017054894A1 (de) Interaktives bediensystem und verfahren zum durchführen einer bedienhandlung bei einem interaktiven bediensystem
DE102016108878A1 (de) Anzeigeeinheit und Verfahren zur Darstellung von Informationen
EP2059408B1 (de) Verfahren zum anzeigen von information in einem kraftfahrzeug und informationssystem
DE102013211046A1 (de) Verfahren und Vorrichtung zum Gewinnen eines Stellsignals aus einer Bediengeste
DE102022107274B4 (de) System und Verfahren für die Gestenerkennung und/oder Gestensteuerung
DE102019212278A1 (de) Bediensystem und Verfahren zum Betreiben des Bediensystems
DE102014222194A1 (de) Fahrzeug mit dreidimensionaler Bedienschnittstelle
DE102012021251A1 (de) Bedienvorrichtung und Verfahren zum Ansteuern von Funktionseinheiten und Kraftfahrzeug

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
OR8 Request for search as to paragraph 43 lit. 1 sentence 1 patent law
R016 Response to examination communication
R082 Change of representative
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final

Effective date: 20131008