DE102006037156A1 - Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung - Google Patents
Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung Download PDFInfo
- Publication number
- DE102006037156A1 DE102006037156A1 DE102006037156A DE102006037156A DE102006037156A1 DE 102006037156 A1 DE102006037156 A1 DE 102006037156A1 DE 102006037156 A DE102006037156 A DE 102006037156A DE 102006037156 A DE102006037156 A DE 102006037156A DE 102006037156 A1 DE102006037156 A1 DE 102006037156A1
- Authority
- DE
- Germany
- Prior art keywords
- operating
- information
- display device
- body part
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 33
- 230000009471 action Effects 0.000 claims abstract description 40
- 230000004913 activation Effects 0.000 claims abstract description 23
- 230000003213 activating effect Effects 0.000 claims abstract description 10
- 230000000007 visual effect Effects 0.000 claims description 16
- 230000003068 static effect Effects 0.000 claims description 15
- 230000006978 adaptation Effects 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 4
- 230000007613 environmental effect Effects 0.000 claims 1
- 230000008859 change Effects 0.000 description 10
- 238000013459 approach Methods 0.000 description 6
- 230000001419 dependent effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000000875 corresponding effect Effects 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000002604 ultrasonography Methods 0.000 description 3
- 230000016776 visual perception Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 101100296426 Caenorhabditis elegans pat-12 gene Proteins 0.000 description 1
- 230000009133 cooperative interaction Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/60—Instruments characterised by their location or relative disposition in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/65—Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
- B60K35/654—Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/65—Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
- B60K35/656—Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being a passenger
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K37/00—Dashboards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/141—Activation of instrument input devices by approaching fingers or pens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/143—Touch sensitive instrument input devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/143—Touch sensitive instrument input devices
- B60K2360/1438—Touch screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/02—Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
- B60R11/0229—Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes
- B60R11/0235—Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes of flat type, e.g. LCD
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/02—Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
- B60R11/0264—Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for control means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/10—Interpretation of driver requests or demands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04805—Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
Die Erfindung betrifft eine interaktive Bedienvorrichtung (100) mit einer Anzeigevorrichtung (35; 43; 59; 72; 102; 150; 170; 180) und ein Verfahren zum Betreiben der interaktiven Bedienvorrichtung (100). Das Verfahren umfasst folgende Schritte: Anzeigen von graphischen Informationen auf der Anzeigevorrichtung (35; 43; 59; 72; 102; 150; 170; 180); Empfangen von Sensorinformationen; Aktivieren einer Bedienaktion, wenn anhand der Sensorinformationen ermittelt wird, dass ein Körperteil (36) eines Nutzers sich innerhalb eines Aktivierungsbereichs befindet, der räumlich relativ zu einem Darstellungsgebiet eines Bedienelements (33; 61; 151; 161-169; 181-186) auf der Anzeigevorrichtung (35; 43; 59; 72; 102; 150; 170; 180) festgelegt ist, dem die Bedienaktion zugeordnet ist; wobei die empfangenen Sensorinformationen Nutzerinformationen umfassen, die zum Ermitteln einer Bedienabsicht für das mindestens eine Bedienelement (33; 61; 151; 161-169; 181-186) zeitlich vor einem Aktivieren der Bedienaktion ausgewertet werden; und die auf der Anzeigevorrichtung (35; 43; 59; 72; 102; 150; 170; 180) dargestellten Informationen in Abhängigkeit von der ermittelten Bedienabsicht angepasst werden, so dass das mindestens eine Bedienelement (33; 61; 151; 161-169; 181-186) optimiert für das Aktivieren der dem Bedienelement (33; 61; 151; 161-169; 181-186) zugeordneten Bedienaktion dargestellt wird. Die Bedienvorrichtung (100) ist vorzugsweise als Bestandteil einer Kraftfahrzeugkonsole entsprechend ...
Description
- Die Erfindung betrifft ein Verfahren zum Betreiben einer interaktiven Bedienvorrichtung mit einer Anzeigevorrichtung nach dem Oberbegriff des Patentanspruchs 1 und eine Bedienvorrichtung mit einer Anzeigevorrichtung nach dem Oberbegriff des Patentanspruchs 76.
- Die Bedienung von automotiven Anwendungen in einem Kraftfahrzeugcockpit erfolgt häufig über so genannte interaktive Bedienvorrichtungen. Eine interaktive Bedienvorrichtung umfasst eine Anzeigevorrichtung, auf der ein oder mehrere Bedienelemente graphisch dargestellt werden. Die einzelnen automotiven Anwendungen sind den Bedienelementen zugeordnet. Eine Aktion, die im Folgenden als Bedienaktion bezeichnet wird, wird aktiviert oder ausgelöst, indem ein Nutzer einen Körperteil, beispielsweise einen Finger einer Hand, auf die graphische Darstellung des Bedienelements zubewegt. Von der Ausgestaltung einer Sensoreinheit der Bedienvorrichtung ist es abhängig, ob der Körperteil eine vor der Anzeigevorrichtung angeordnete oder in diese integrierte Sensoreinheit (z. B. eine berührungsempfindliche Folie) berühren muss oder ob es ausreichend ist, sich nur auf einen gewissen Abstand an das jeweilige Bedienelement anzunähern, um die dem Bedienelement zugeordnete Bedienaktion zu aktivieren.
- Interaktive Bedienvorrichtungen, bei denen eine Berührung notwendig ist, um die Bedienaktion auszulösen, werden als Touch-Screen-Bedienvorrichtungen bezeichnet. Interaktive Bedienvorrichtungen, die berührungslos aktiviert werden können, umfassen beispielsweise Sensoren, die Hochfrequenzsignale detektieren können, die über den menschlichen Körper übertragen werden. Hierbei ist es erforderlich, dass ein Hochfrequenzsender nahe dem Körper oder in Berührung mit dem Körperangeordnet ist. In einem Kraftfahrzeug kann beispielsweise ein solcher Hochfrequenzsender in den Fahrzeugsitz integriert sein. Verfahren und Vorrichtungen zum Übertragen von Informationen mittels hochfrequenter Signale über einen menschlichen Körper sind beispielsweise in der Druckschrift WO 2004/078536 beschrieben.
- Der Bereich, in dem sich der Körperteil befinden muss, um die Bedienaktion zu aktivieren, wird als Aktivierungsbereich bezeichnet. Bei einer Touch-Screen-Bedienvorrichtung ist der Aktivierungsbereich eine zweidimensionale Fläche auf der Oberfläche der Touch-Screen-Bedienvorrichtung. Die Aktivierungsfläche stimmt in der Regel mit der Darstellungsfläche des zu betätigenden Bedienelements überein. Bei einer berührungslos bedienbaren Bedienvorrichtung ist der Aktivierungsbereich in der Regel ein dreidimensionales Gebiet dicht oberhalb der oder angrenzend an die Oberfläche der Anzeigevorrichtung. Eine Projektion des Aktivierungsbereichs entlang einer Flächennormalen der Oberfläche der Anzeigevorrichtung auf die Anzeigevorrichtung ist in der Regel deckungsgleich mit der Darstellungsfläche des zugehörigen Bedienelements.
- Die Darstellung von Informationen auf den Anzeigevorrichtungen solcher interaktiven Bedienvorrichtungen ist im Stand der Technik nicht an dem Auflösungsvermögen des menschlichen Auges, sondern vor allem an einer Treffsicherheit und einer motorischen Präzision der menschlichen Finger der Nutzer orientiert.
- Auf einer Anzeigevorrichtung dargestellte Bedienelemente, die auch als virtuelle Bedienelemente bezeichnet werden, umfassen u.a. Menüs, Knöpfe usw. Sie können jedoch auch die Gestalt von graphischen Objekten beispielsweise in interaktiv gestalteten Navigationskarten annehmen. Allgemein werden solche virtuellen Bedienelemente auch als Widgets bezeichnet. Die Bedienelemente werden heutzutage allgemein auf interaktiven Bedienvorrichtungen recht groß dargestellt, damit ein Nutzer sie mit seinen Fingern angenehm und leicht aktivieren kann. Dies hat zur Folge, dass die Darstellungsbereiche der Bedienelemente häufig einen beträchtlichen Teil der Anzeigefläche der Anzeigevorrichtung bedecken, die ansonsten für zusätzliche Informationen genutzt werden könnte. Häufig verdecken die Darstellungsbereiche „dahinter liegende" graphische Informationen. Wird die Darstellung der Bedienelemente auf der Anzeigevorrichtung verkleinert, so gewinnt man Platz zur Informationsdarstellung, jedoch wird ein Bedienkomfort dadurch reduziert, da ein „Treffen" der Bedienelemente mit dem Finger erheblich erschwert ist.
- Aus dem Stand der Technik ist es bekannt, die Skalierung der Bedienelemente als Antwort auf eine erste Bedienaktion zu skalieren. Bei solchen Bedienvorrichtungen sind mindestens zwei Bedienhandlungen notwendig, um eine gewünschte Bedienaktion zu aktivieren und auszuführen.
- Aus der Druckschrift
US 5,579,037 ist eine Anzeigevorrichtung mit einem elektromagnetischen Digitalisiertablett bekannt, mit dem auf der Anzeigevorrichtung dargestellte japanische Schriftzeichen eingegeben werden können. Das Digitalisiertablett umfasst einen über einen Draht mit dem Digitalisiertablett verbundenen Schreiber. Wird der Schreiber in einen ersten Abstand zu der Anzeigevorrichtung gebracht, so wird ein angezeigter Bereich um die Position, über der sich der Schreiber befindet vergrößert dargestellt. Solange der Abstand des Schreibers von der Anzeigevorrichtung kleiner als der erste Abstand und größer als ein zweiter Abstand ist, der kleiner als der erste Abstand ist, wird der vergrößerte Bereich an eine Positionsänderung des Schreibers parallel zu der Anzeigevorrichtung angepasst. Wird der zweite Abstand unterschritten, so wird der vergrößerte Bereich nicht mehr in Abhängigkeit der Bewegung parallel zu der Anzeigeoberfläche angepasst, so dass ein Eingeben eines von mehreren vergrößert dargestellten Schriftzeichen durch ein Berühren der Anzeigevorrichtung an der Stelle, an der das entsprechende vergrößerte Schriftzeichen dargestellt ist, erfolgen kann. Eine solche Bedienvorrichtung, die nur mit einem Schreiber betätigbar ist, ist für viele Anwendungen, beispielsweise als eine interaktive Bedienvorrichtung in einem Kraftfahrzeugcockpit, nicht geeignet. Ferner ist es in einem fahrenden Fahrzeug schwer, einen Schreiber in einem vorgegebenen Abstandsintervall parallel vor der Anzeigevorrichtung zu bewegen, um den korrekten Ausschnitt vergrößert dargestellt zu bekommen. - Aus
DE 10 2004 045 885 A1 ist ein Bedienelement, das vorzugsweise als Dreh-Drück-Ziehknopf ausgebildet ist, für ein Kraftfahrzeug zur Bedienung einer Funktion des Kraftfahrzeugs, insbesondere durch Drücken auf das Bedienelement, Berühren des Bedienelements, Drehen des Bedienelements und/oder Ziehen des Bedienelements, bekannt, wobei dem Bedienelement eine Beleuchtungsvorrichtung zur Beleuchtung des Bedienelements, ein Annäherungssensor zur Erkennung einer Annäherung eines Bedieners des Bedienelements und eine Beleuchtungssteuerung zur Einstellung der Beleuchtung des Bedienelements in Abhängigkeit eines Ausgangssignals des Annäherungssensors zugeordnet ist. - Wünschenswert ist somit eine interaktive Bedienvorrichtung, die einerseits jeweils eine optimale Informationsdarstellung ermöglicht und zugleich einen hohen Bedienkomfort bietet, indem Bedienelemente leicht aktivierbar sind.
- Der Erfindung liegt daher die technische Aufgabe zugrunde, eine Bedienvorrichtung und ein Verfahren zum Betreiben einer interaktiven Bedienvorrichtung zu schaffen, mit denen sowohl eine an das menschliche Auge angepasste optimale Informationsvermittlung und zugleich eine komfortable Aktivierung von Bedienelementen möglich ist.
- Die Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 sowie eine Vorrichtung mit den Merkmalen des Patentanspruchs 16 gelöst. Die Erfindung basiert darauf, dass situationsabhängig die auf der Anzeigevorrichtung dargestellte Information angepasst wird. Hierbei kann eine Darstellung optimiert für eine visuelle Wahrnehmung der dargestellten Informationen ausgestaltet sein. Wird jedoch eine Bedienabsicht eines Nutzers ermittelt, so werden die dargestellten Informationen so verändert, dass eine Aktivierung eines Bedienelements jeweils entsprechend der ermittelten Bedienabsicht für das Bedienelement optimal möglich ist.
- Erfindungsgemäß wird ein Verfahren zum Betreiben einer interaktiven Bedienvorrichtung, insbesondere in einem Kraftfahrzeug, mit einer Anzeigevorrichtung und auf der Anzeigeeonrichtung dargestellten und/oder darstellbaren Informationen, die Bedienelemente aufweisen, vorgeschlagen, das folgende Schritte umfasst:
- – Ermitteln einer Bedienabsicht für mindestens eines der auf der Anzeigeeinrichtung dargestellten Bedienelemente,
- – Anpassen der auf der Anzeigeeinrichtung dargestellten Informationen in Abhängigkeit der ermittelten Bedienabsicht, so dass das mindestens eine zur Bedienung beabsichtigte Bedienelement optimiert für das Aktivieren des Bedienelementes dargestellt wird.
- Nach einer vorteilhaften Ausbildung der Erfindung wird zur Ermittlung der Bedienabsicht für mindestens eines der auf der Anzeigeeinrichtung dargestellten Bedienelemente erfasst, ob sich ein Körperteil der Bedienperson innerhalb eines Aktivierungsbereichs befindet, der räumlich zu einem Darstellungsgebiet mindestens eines der Bedienelemente auf der Anzeigeeinrichtung festgelegt ist.
- Eine weitere Ausbildung des erfindungsgemäßen Verfahrens sieht vor, dass die Bedienabsicht für das mindestens eine Bedienelement zeitlich vor einem Aktivieren der Bedienaktion ermittelt wird.
- Bei einer vorteilhaften Ausführungsform umfasst ein Verfahren zum Betreiben einer interaktiven Bedienvorrichtung, insbesondere in einem Kraftfahrzeug, mit einer Anzeigevorrichtung folgende Schritte:
- – Anzeigen von graphischen Informationen auf der Anzeigevorrichtung;
- – Empfangen von Sensorinformationen;
- – Aktivieren einer Bedienaktion, wenn anhand der Sensorinformationen ermittelt wird, dass ein Körperteil eines Nutzers sich innerhalb eines Aktivierungsbereichs befindet, der räumlich relativ zu dem Darstellungsgebiet eines Bedienelementes auf der Anzeigevorrichtung festgelegt ist, dem die Bedienaktion zugeordnet ist, wobei vorgesehen ist, dass
- – die empfangenen Sensorinformationen Nutzerinformationen umfassen, die zum Übermitteln einer Bedienabsicht für das mindestens eine Bedienelement zeitlich vor einem Aktivieren der Bedienaktion ausgewertet werden; und
- – die auf Anzeigevorrichtung dargestellten Informationen in Abhängigkeit von der ermittelten Bedienabsicht angepasst werden, so dass das mindestens eine Bedienelement optimiert für das Aktivieren der dem Bedienelement zugeordneten Bedienaktion mit dem Körperteil dargestellt wird.
- Bei einem Wechsel von einem visuellen Layout, das für eine Wahrnehmung von Informationen optimiert ist, zu einem haptischen Layout, das für eine Bedienung optimiert ist, wird beispielsweise das Bedienelement eingeblendet oder vergrößert dargestellt. Ein klein dargestelltes Be dienelement wird beim Erkennen einer Bedienabsicht beispielsweise vergrößert dargestellt. Hierdurch wird erreicht, dass zwar eine hohe Informationsdichte auf der Anzeigevorrichtung dargestellt werden kann, jedoch jederzeit, sofern eine Bedienung erfolgen soll, diese komfortabel durchgeführt werden kann. Nutzerinformationen sind jene Sensorinformationen, die ein Verhalten des Nutzers angeben oder den Nutzer selbst beschreiben. Die Nutzerinformationen werden mit Hilfe von Sensoreinheiten ermittelt und sind Bestandteil der Sensorinformationen, die ausgewertet werden, um die Bedienabsicht zu ermitteln.
- Um eine Bedienabsicht zuverlässig ermitteln zu können, ist bei einer bevorzugten Ausführungsform der Erfindung vorgesehen, dass die Sensorinformationen Informationen über eine Körperaktion des Nutzers umfassen. Eine Körperaktion stellt beispielsweise eine Bewegung der Arme oder Hände bzw. Finger des Nutzers dar. Eine andere Körperaktion ist beispielsweise ein Ausrichten der Augen, um die angezeigten Informationen auf der Anzeigevorrichtung zu erfassen.
- Bei einer besonders bevorzugten Ausführungsform ist daher vorgesehen, dass die Nutzerinformationen Informationen über eine Blickrichtung des Nutzers umfassen. Einem Betätigen eines Bedienelements geht nämlich häufig ein Blick des Nutzers auf die Anzeigevorrichtung voraus.
- Die Blickrichtung eines Nutzers kann beispielsweise mittels Kamerasensoren erfasst werden. Eine bevorzugte Ausführungsform der Erfindung sieht daher vor, dass die Nutzerinformationen zumindest teilweise mittels eines Kamerasystems erfasst sind. Mit einem solchen Kamerasystem kann in der Regel auch die Bewegung von Körperteilen zuverlässig ermittelt werden.
- Andere bevorzugte Ausführungsformen der Erfindung sehen vor, dass die Nutzerinformationen zumindest teilweise mittels eines Ultraschallsensorsystems erfasst sind. Ein Ultraschallsensorsystem ist geeignet, um die Position von Körperteilen besonders exakt und zuverlässig zu bestimmen. Mit einem Ultraschallsensorsystem kann somit eine Bewegung hin zur interaktiven Bedienvorrichtung bereits bei einer relativ großen Entfernung von der Bedienvorrichtung zuverlässig erkannt werden. Ebenso können genaue Positions-, Ausdehnungs- und Geschwindigkeitsmessungen in einem Nahbereich der Bedienvorrichtung ausgeführt werden. Ein Ultraschallsensorsystem kann alternativ oder gemeinsam mit anderen Sensorsystemen verwendet werden.
- Bei einer besonders bevorzugten Ausführungsform der Erfindung wird anhand der Nutzerinformationen eine Bewegungsrichtung des Körperteils ermittelt. Diese Bewegungsrichtung kann einzeln oder beispielsweise gemeinsam mit anderen Informationen, insbesondere Nutzerinformationen, vorzugsweise einer Blickrichtung, genutzt werden, um ein Bedienelement oder mehrere Bedienelemente aus einer Gruppe von Bedienelementen ausfindig zu machen, die der Nutzer als nächstes bedienen möchte. Bei einer Weiterbildung der Erfindung ist daher vorgesehen, dass beim Ermitteln der Bedienabsicht eine Bedienwahrscheinlichkeit für das Bedienelement und gegebenenfalls weitere Bedienwahrscheinlichkeiten für weitere Bedienelemente ermittelt werden und eine Anpassung der dargestellten Informationen so erfolgt, dass das mindestens eine Bedienelement oder die weiteren Bedienelemente entsprechend ihrer Bedienwahrscheinlichkeit optimiert für eine Aktivierung der entsprechend zugeordneten Bedienaktion oder weiteren Bedienaktionen dargestellt werden. Hierdurch lässt sich eine Art „Bedienungsspotlight" realisieren. In Abhängigkeit von einer Entfernung des Körperteils, seiner Bewegungsrichtung und/oder einer Geschwindigkeit der Bewegung sowie weiteren Nutzerinformationen kann ein Bereich auf der Anzeigevorrichtung ermittelt werden, in dem sich wahrscheinlich das zu bedienende Bedienelement befindet. Dieser ermittelte Bereich wird als Bedienungsspotlight bezeichnet. Das Bedienungsspotlight ist bei großer Distanz und geringer Bewegungsgeschwindigkeit der Bedienhand noch recht unscharf und wird mit zunehmender Nähe zur Anzeigevorrichtung schärfer. Unscharf bedeutet, dass eine Unsicherheit bezüglich einer Zielposition, zu der der Körperteil auf der Anzeigevorrichtung bewegt wird, herrscht. Diese Zielposition wird als ein Mittelpunkt des Bedienungsspotlights genutzt. Die Unsicherheit drückt sich in einer Fläche des Bedienungsspotlights auf der Anzeigevorrichtung aus. Das Bedienungsspotlight wird in der Regel kreisförmig ausgestaltet, so dass sich die Unschärfe oder Unsicherheit bezüglich der Zielposition, zu der der Körperteil auf der Anzeigevorrichtung bewegt wird, sich in einem Radius des Bedienungsspotlights ausdrückt. Je größer die Unsicherheit (je unschärfer das Bedienungsspotlight) desto größer ist es. Je kleiner die Unsicherheit über die Zielposition (je schärfer das Bedienungsspotlight) ist desto kleiner wird das Bedienungsspotlight. Vorzugsweise ist vorgesehen, dass die Bedienelemente auf der Anzeigevorrichtung, je nachdem, wie viel ihrer Fläche bei einer vorgegebenen Skalierungsgröße sich im Bereich des Bedienungsspotlights befindet, wie scharf das Bedienungsspotlight ist und/oder wie groß ein Abstand des Bedienelements von der Position (dem Mittelpunkt) des Bedienungsspotlights ist, skaliert bzw. auf andere Weise, beispielsweise mittels einer Animation, eines Aufklappens einer Menuleiste usw., für eine einfache Aktivierbarkeit optimiert werden.
- Bei einer besonders bevorzugten Ausführungsform ist vorgesehen, dass die Ermittlung der Bedienabsicht und das entsprechende Anpassen der dargestellten Information iterativ und/oder kontinuierlich ausgeführt werden. Hierdurch ist es möglich, beispielsweise das Bedienungsspotlight kontinuierlich zu ermitteln und eine Skalierung der in dem Bedienungsspotlight befindlichen Bedienelemente auf der Anzeigevorrichtung stufenlos vorzunehmen und an die Bewegung des Nutzers anzupassen.
- Bei einer Ausführungsform der Erfindung ist vorgesehen, dass beim Anpassen eine Transparenz, ein Abstand von benachbarten weiteren Bedienelementen und/oder eine Animation des Bedienelements oder mehrerer Bedienelemente verändert werden. Hierbei kann eine Liste, die mehrere Bedienelemente umfasst, geeignet animiert werden, um eine Auswahl von einem oder mehreren Listenelementen zu erleichtern. Insbesondere kann in Abhängigkeit von der ermittelten Bedienabsicht durch eine längere Liste gescrollt bzw. geblättert werden.
- Vorzugsweise ist ebenso vorgesehen, dass anhand der Nutzerinformationen ein Abstand des Körperteils von der Darstellung des Bedienelements ermittelt wird und das Bedienelement in Abhängigkeit von diesem Abstand skaliert wird. Wird beispielsweise ein berührungsloser Sensor zum Aktivieren der Bedienelemente verwendet, so kann von diesem Sensor eine Annäherung der Hand des Nutzers beispielsweise ca. 30 cm vor der Anzeigevorrichtung erfasst werden. Je näher sich die Hand bzw. der Finger der Anzeigevorrichtung nähert, desto besser ist eine Voraussage möglich, welches Bedienelement aktiviert werden soll. Daher ist es dann einfach möglich, dieses Bedienelement besonders optimiert auf der Anzeigevorrichtung darzustellen. Hierzu werden die dargestellten Informationen entsprechend angepasst.
- Zusätzlich zu Informationen über den Nutzer werden bei einer bevorzugten Ausführungsform Informationen über einen Fahrzustand ausgewertet, um die Anpassung des Bedienelements zu optimieren. So hat beispielsweise die Fahrt über eine unebene Fahrbahnoberfläche einen Einfluss auf eine motorische Treffsicherheit des Bedienelements durch einen Nutzer. In einem solchen Fall wird das Bedienelement vorzugsweise größer dargestellt als in einer Fahrsituation auf einer ebenen glatten Fahrbahnoberfläche. Hierdurch werden eine verbesserte Bedienbarkeit und ein erhöhter Komfort gewährleistet. Gleichzeitig ist eine maximal mögliche Informationsdarstellung situationsabhängig gewährleistet. Vorzugsweise ist daher vorgesehen, dass die Informationen, sofern keine Bedienabsicht ermittelt wird, einer Darstellung angepasst werden, die für eine visuelle Informationsübermittlung optimiert ist, beispielsweise alle Bedienelemente ausgeblendet werden oder mit einer Transparenz von 100% „dargestellt" werden. Dieses ist insbesondere bei interaktiven Bedienvorrichtungen von Vorteil, bei denen nur eine sehr begrenzte Auswahl von Informationen angezeigt werden kann, weil beispielsweise eine Anzeigefläche klein ist.
- Bei einer bevorzugten Ausführungsform der Erfindung ist vorgesehen, dass beim Ermitteln der Bedienabsicht von dem Körperteil ausgeführte Gesten erkannt und ausgewertet werden, wobei das Anpassen der dargestellten Informationen entsprechend einer der jeweiligen erkannten Geste zugeordneten Anpassfunktion durchgeführt wird. Hier durch kann beispielsweise eine Bedienabsicht bei einer besonders großen Anzahl von potenziell betätigbaren Bedienelementen konkretisiert werden. Durch eine statische Geste kann beispielsweise ein Stoppsignal übermittelt werden, die eine weitere Anpassung der Bedienelemente unterbindet und eine Endauswahl ohne eine weitere skalierende Anpassung ermöglicht. Ebenso kann ein Blättern durch eine Vielzahl grafisch klein dargestellter Bedienelemente veranlasst werden, von denen eines mit einem Fokus versehen wird und für eine Bedienung vergrößert dargestellt wird. Die Anpassfunktion somit eine beliebige geeignete Änderung der dargestellten Informationen bewirken.
- Als geeignete Gesten haben sich sogenannte statische Gesten, dynamische Gesten und komplexe Gesten erwiesen. Eine Ausführungsform der Erfindung sieht daher vor, dass die Gesten mindestens eine statische Geste umfassen, die anhand einer vordefinierten Körperteilhaitung erkannt wird. Eine weitere Ausführungsform sieht vor, dass die Gesten mindestens eine dynamische Geste umfassen, die anhand einer vordefinierten von dem Körperteil durchlaufenen Bahnkurve erkannt wird. Bei einer Bahnkurve kann zum einen die Form im dreidimensionalen Raum analysiert werden. Zusätzlich kann jedoch auch ergänzend die Geschwindigkeit ausgewertet werden, mit der die einzelnen Abschnitte im dreidimensionalen Raum durchlaufen werden. Schließlich ist bei noch einer anderen Ausführungsform vorgesehen, dass die Gesten mindestens eine komplexe Geste umfassen, die anhand eines Ineinanderübergehens vordefinierter statischer Gesten und/oder einer statischen Geste, die eine vordefinierte Bahnkurve durchläuft, erkannt wird. Die unterschiedlichen Ausführungsformen der Erfindung können somit nur statische, nur dynamische oder nur komplexe Gesten oder eine beliebige Kombination hiervon berücksichtigen. Das Erkennen der Gesten erfolgt mit der mindestens einen Sensoreinheit, die eine Position eines Körperteils im Raum bestimmen kann. Diese Formulierung, dass die Gesten von der mindestens einen Sensoreinheit erkannt werden, soll nicht ausdrücken, dass die Geste von einer einzelnen Sensoreinheit erkannt werden muss, wenn mehrere Sensoreinheiten vorhanden sind. Die Formulierung umfasst vielmehr auch das Erkennen der Gesten durch ein Zusammenwirken von mehreren vorhandenen Sensoreinheiten. Ob eine einzelne Sensoreinheit zum Erkennen einer Geste ausreicht, hängt von der speziellen Ausgestaltung der mindestens einen Sensoreinheit und der Geste selbst ab.
- Die Informationen werden vorzugsweise so angepasst, dass jeweils ein Maximum an Informationen für eine visuelle Wahrnehmung dargestellt ist und dennoch bei einer Bedienabsicht zumindest ein Bedienelement, für das eine Bedienabsicht ermittelt ist, für eine optimale Bedienbarkeit dargestellt ist. Hierbei können unterschiedlichste situative Einflüsse berücksichtigt werden.
- Die Merkmale der erfindungsgemäßen Vorrichtung weisen dieselben Vorteile wie die entsprechenden Merkmale des erfindungsgemäßen Verfahrens auf.
- Nachfolgend wird die Erfindung anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf Figuren einer Zeichnung näher erläutert. Hierbei zeigen:
-
1 ein schematisches Ablaufdiagramm zur Erläuterung einer Ausführungsform eines Verfahrens zum Betreiben einer interaktiven Bedienvorrichtung; -
2 eine schematische Darstellung, anhand derer das Prinzip einer situationsabhängigen Skalierung von Bedienelementen dargestellt ist; -
3 schematische Ansichten einer Anzeigevorrichtung, auf der Informationen optimiert für eine visuelle Wahrnehmung oder teilweise für eine haptische Bedienung optimiert dargestellt sind; -
4A –4D schematische Ansichten von auf einer Anzeigevorrichtung dargestellten Informationen, die Bedienelemente umfassen, die entsprechend einem ermittelten Bedienungsspotlight zum Teil vergrößert dargestellt sind; -
5A –5D schematische Ansichten einer Anzeigevorrichtung, auf der die Bedienelemente in Abhängigkeit von einer Größe eines ermittelten Bedienungsspotlights skaliert sind; -
6A –6C schematische Ansichten einer Anzeigevorrichtung, auf der Bedienelemente unterschiedlich skaliert in Abhängigkeit von einer Bedienabsicht dargestellt sind; -
7A –7B schematische Ansichten einer Anzeigevorrichtung, auf der Bedienelemente einer Liste in Abhängigkeit von einer Bedienabsicht durchgeblättert werden; -
8 eine schematische Darstellung einer interaktiven Bedienvorrichtung in einem Kraftfahrzeug; -
9 –17 von einer Hand ausgeführte statische Gesten; -
20 –27 von einer Hand ausgeführte dynamische Gesten; und -
28 –33 von einer Hand ausgeführte komplexe Gesten. - In
1 ist ein Blockdiagramm dargestellt, welches ein Verfahren10 zum Betreiben einer interaktiven Bedienvorrichtung abbildet. Wie mittels eines Verfahrensblocks12 dargestellt ist, umfasst das Verfahren ein Darstellen von Informationen auf einer Anzeigevorrichtung. Ein Layout für die Darstellung der Informationen ist zunächst vorzugsweise so gewählt, dass es für eine optimale visuelle Informationsvermittlung ausgelegt ist. Ein solches Layout wird im Folgenden als visuelles Layout bezeichnet. - Die Bedienvorrichtung erfasst Sensorinformationen
12 . Die Sensorinformationen umfassen zum einen Informationen über einen oder mehrere Nutzer. Diese werden als Nutzerinformationen bezeichnet. Diese umfassen insbesondere Informationen über Körperaktionen des oder der Nutzer, die mittels Sensoreinheiten erfasst sind. Die Körperaktionen umfassen beispielsweise eine Armbewegung, die beispielsweise mittels einer mit Kameras detektierenden Sensoreinheit und/oder einer ultraschallbasierten Sensoreinheit ermittelt werden kann. Ferner kann mittels der mit Kameras versehenen Sensoreinheit eine Blickrichtung des oder der Nutzer erfasst werden. Ein Richten des Blicks auf die Anzeigevorrichtung stellt eine besonders wichtige Körperaktion dar, da einem Bedienvorgang zumeist ein Blick auf die Anzeigevorrichtung der interaktiven Bedienvorrichtung vorausgeht. Die erfassten Sensorinformationen umfassen vorzugsweise darüber hinaus Informationen über eine Fahrsituation oder eine Umgebung des Kraftfahrzeugs. Es hat sich gezeigt, dass bestimmten Bedienaktionen häufig bestimmte Fahrereignisse vorausgehen. - Anhand der erfassten Sensorinformationen wird anschließend eine Bedienabsicht des oder der Nutzer ermittelt 14. Zum Ermitteln einer Bedienabsicht des Nutzers werden die unterschiedlichen, in den Sensorinformationen enthaltenen Informationen, insbesondere die Nutzerinformationen, ausgewertet. Hierbei wird insbesondere das Verhalten des oder der Nutzer, d.h. seine Körperaktion oder ihre Körperaktionen, ausgewertet und bewertet. Wird beispielsweise eine Blickrichtungsänderung auf die Anzeigevorrichtung der interaktiven Bedienvorrichtung festgestellt und zeitlich damit korreliert eine Bewegung des Arms oder der Hand, die dem interaktiven Bedienelement räumlich am nächsten ist, detektiert, so kann hieraus eine Bedienabsicht abgeleitet werden. Es sind viele verschiedene Kombinationen von Einzelinformationen möglich, die ausgewertet und bewertet werden können. Beispielsweise kann eine zielgerichtete Bewegung in Richtung auf die Bedieneinheit eines Körperteils bei einer Ausführungsform Voraussetzung sein, dass eine Bedienabsicht als erkannt gilt.
- Mittels einer Abfrage wird überprüft, ob eine Änderung der Bedienabsicht eingetreten ist 16. Ist dies nicht der Fall, so wird die Darstellung der Informationen auf der Anzeigevorrichtung unverändert fortgesetzt. Hat sich eine Änderung der Bedienabsicht ergeben, d.h. ist eine Bedienabsicht erkannt worden oder festgestellt worden, dass keine Bedienabsicht mehr vorliegt, so werden die Informationen, die auf der Anzeigevorrichtung dargestellt werden, entsprechend der Bedienabsicht oder nicht (mehr) vorliegenden Bedienabsicht angepasst 18. Eine Änderung liegt auch dann vor, wenn sich die Bedienabsicht (weiter) konkretisiert hat.
- Besteht die Änderung der Bedienabsicht darin, dass eine Bedienabsicht eines Nutzers erkannt wird, die zuvor nicht bestand, so werden die darzustellenden Informationen so verändert, dass das Layout auf der Anzeigevorrichtung für eine haptische Bedienung optimiert ist. Sei einer Ausführungsform kann vorgesehen sein, dass im visuellen Layout keinerlei Bedienelemente graphisch dargestellt sind. Im haptischen Layout werden nun die Bedienelemente eingeblendet, d.h. ihr Transparenzniveau von 100 % reduziert. Es kann ebenfalls vorgesehen sein, dass von einer bildlichen Darstellung auf eine Textdarstellung gewechselt wird. Bei wiederum einer anderen Ausführungsform, bei der im visuellen Layout kleine Bedienelemente graphisch dargestellt sind, können die Bedienelemente im haptischen Layout vergrößert dargestellt werden. Die Anpassung kann ferner ein Verändern der Ausgestaltung der Bedienelemente, beispielsweise ein Animieren des Bedienelements (Widgets), umfassen. Bei einer Anzeigevorrichtung, die als autostereoskopische dreidimensionale Anzeigevorrichtung ausgestaltet ist, kann ein räumliches Hervortreten der Bedienelemente oder eine räumlich vorgelagerte Überlagerung der Informationsdarstellung vorgesehen sein.
- Das Ermitteln und Anpassen der dargestellten Informationen erfolgt vorteilhafterweise in Stufen, die kontinuierlich ineinander übergehen können. Zunächst wird eine Bedienabsicht mittels Sensorinformationen einer ersten Sensoreinheit ermittelt. Die erste Sensoreinheit umfasst vorteilhafterweise ein bildgebendes Sensorsystem, beispielsweise ein Kamerasystem. ist diese allgemeine Bedienabsicht erkannt, so wird von einem visuellen Layout in ein haptisches Layout gewechselt. Beispielsweise werden Bedienelemente eingeblendet, die zuvor nicht sichtbar waren.
- Bei einer bevorzugten Ausführungsform ist ferner vorgesehen, dass beim Ermitteln der Bedienabsicht eine Position und ein umgebender Bereich auf der Anzeigevorrichtung ermittelt wird, der für eine Bedienhandlung, d.h. ein Aktivieren eines Bedienelements, avisiert ist. Dieser Vorgang wird als Bestimmen eines Bedienungsspotlights bezeichnet 20.
- Zur Ermittlung des Bedienungsspotlights können unterschiedliche Sensorinformationen ausgewertet werden. Insbesondere werden eine Bewegungsrichtung eines Körperteils des Nutzers sowie eine Bewegungsgeschwindigkeit, eine Blickrichtung auf die Anzeigevorrichtung sowie Informationen über die Fahrsituation einzeln oder gemeinsam ausgewertet. Als Ergebnis der Bedienungsspotlightermittlung erhält man eine Position auf der Anzeigevorrichtung, die die avisierte Zielposition angibt, und einen Radius, der ein Maß für die Unsicherheit der ermittelten avisierten Zielposition ist. Bei anderen Ausführungsformen kann vorgesehen sein, dass die Form des Bedienungsspotlights nicht kreisförmig ist. Dies ist insbesondere dann von Vorteil, wenn die Bedienrichtung stark von einer Richtung einer Flächennormalen der Anzeigefläche der Anzeigevorrichtung abweicht.
- Die Informationen, die das Bedienungsspotlight charakterisieren (Position/Radius und/oder sonstige Gebietsangabe) werden beim Anpassen der darzustellen Informationen berücksichtigt. Vorzugsweise werden die Bedienelemente in Abhängigkeit vom Abstand von der Position und einem flächigen Überlapp mit dem Bedienungsspotlight skaliert dargestellt. Dies bedeutet, dass Bedienelemente, die sich nahe der Position des Bedienungsspotlights, die sich in der Mitte des Bedienungsspotlights befindet, befinden, größer skaliert werden, als solche Bedienelemente, die weiter von der Position des Bedienungsspotlights entfernt sind. Ferner werden jene Bedienelemente größer skaliert, die einen großen flächigen Überlapp mit dem Bedienungsspotlight bei einer Projektion des Bedienungsspotlights auf die Anzeigevorrichtung aufweisen. In
4A bis4D sind Beispiele hierfür dargestellt. Auch Bedienungselemente61' , die nicht in einem Bedienungsspotlight62 liegen, jedoch näher an dem Bedienungsspotlight62 liegen als andere Bedienelemente61'' , können vorteilhafterweise größer als diese anderen Bedienelemente61'' dargestellt. - Das beschriebene Verfahren stellt ein Bestimmen einer Bedienwahrscheinlichkeit für die einzelnen Bedienelemente dar 22. Diese Bedienwahrscheinlichkeiten können auch nach einem anderen Verfahren anhand der Nutzerinformation gegebenenfalls unter Berücksichtigung von anderen Informationen über situative Einflüsse, beispielsweise der Fahrsituation, bisherigen Gewohnheiten des Nutzers usw., erfolgen.
- Das Bedienungsspotlight wird nun kontinuierlich angepasst. In einer weiteren Stufe werden die Bewegung des Körperteils und gegebenenfalls weitere Eigenschaften des Körperteils mittels einer zweiten Sensoreinheit genauer ermittelt.
- Bei einer Ausführungsform, bei der Hochfrequenzsignale erzeugende Signalgeber in der Nähe des Nutzerkörpers angeordnet sind und Empfänger an oder um die Anzeigevorrichtung angeordnet sind, um über den Körper des Nutzers übertragene Hochfrequenzsignale zu empfangen und hieraus eine Position der Hand des Nutzers in der Nähe der Anzeigevorrichtung zu bestimmen, kann eine Feinjustage der Anpassung der dargestellten Informationen besonders gut vorgenommen werden. In einem Abstand von etwa 30 cm von der Anzeigevorrichtung können mit solchen Sensorsystemen Körperteile von Nutzern erfasst werden. Befinden sich mehrere Nutzer in der Reichweite der interaktiven Bedienvorrichtung in einem Fahrzeug, beispielsweise der Fahrer und der Beifahrer des Kraftfahrzeugs, so können diese anhand unterschiedlicher Hochfrequenzsignale unterschieden werden, die über unterschiedliche Signalgeber, welche beispielsweise in einem Fahrersitz und einem Beifahrersitz integriert sind, in den Körper des Nutzers eingekoppelt werden. Eine Skalierung oder allgemeine Anpassung der dargestellten Informationen kann somit zusätzlich angepasst an die Funktion (Fahrer/Beifahrer) des Nutzers vorgenommen werden. Beispielsweise ist es sinnvoll, weniger und dafür größere Bedienelemente auf der Anzeigevorrichtung darzustellen, wenn ein Fahrer bei hoher Geschwindigkeit des Kraftfahrzeugs Bedienelemente auf der Anzeigevorrichtung aktivieren will. Ein Beifahrer, der sich nicht auf das Führen des Kraftfahrzeugs konzentrieren muss, kann beispielsweise kleinere Bedienelemente, von denen dafür mehr auf der Anzeigevorrichtung darstellbar sind, bedienen. Um die Feinjustage auszuführen, ist vorteilhafterweise vorgesehen, dass beim Erkennen der Bedienabsicht ein Abstand des Körperteils des Nutzers von der Anzeigevorrichtung ermittelt wird. Ferner wird die Ausdehnung des Körperteils zusätzlich ermittelt. Diese wird bei der Skalierung und/oder Ausgestaltung des oder der Bedienelemente mitberücksichtigt. Für einen Nutzer mit großen, breiten Fingern müssen die Bedienelemente flächig größer dargestellt sein als für einen Nutzer mit kleinen, schmalen Fingern. In der weiteren Stufe ist somit eine feinere Anpassung möglich. Es können mehr als zwei Stufen vorgesehen sein. Die zweite Sensoreinheit kann auch eine ultraschallbasierte Sensoreinheit sein.
- In
2 ist die Umschaltung von einem visuellen auf ein haptisches Layout schematisch dargestellt. Im oberen Bereich der2 sind zwei mögliche Ausgestaltungen einer Informationsdarstellung31 ,32 in einem so genannten visuellen Layout gezeigt. Bei der linken Darstellung31 sind keine Bedienelemente dargestellt. In der rechten Darstellung32 sind kleine Bedienelemente33 vorgesehen. Der größte Bereich34 der Anzeigevorrichtung35 ist zur Darstellung der Informationen vorgesehen. Nähert sich ein Körperteil36 , hier eine Hand, der Anzeigevorrichtung35 , wie es in der Mitte der2 angedeutet ist, werden die dargestellten Informationen so verändert, dass die Bedienelemente33' vergrößert dargestellt sind, eine zusätzliche textliche Information (A, B, C, D) umfassen und zumindest gegenüber der Darstellung31 oben links in ihrem Transparenzniveau verändert sind. Das haptische Layout ist so optimiert, dass die Bedienelemente33' optimal von einem Finger berührt werden können, um eine mit dem Bedienelement33' verknüpfte Bedienaktion aktivieren und auslösen zu können. - In
3 ist ein weiteres Beispiel für die Umschaltung von einem visuellen Layout41 auf ein haptisches Layout42 dargestellt. Auf der Anzeigevorrichtung43 sind Punkte besonderen Interesses (points of interest – POI)44 –47 einer Kartenansicht48 eines Navigationssystems schematisch dargestellt. Nähert sich ein Finger49 der Anzeigevorrichtung43 mit einer Bewegung, die unten auf den rechten Rand50 der Anzeigevorrichtung zielt, so werden die Punkte von Interesse in Abhängigkeit von einem Abstand von dem unteren Ende des rechten Rands50 hinsichtlich ihrer flächigen Größe skaliert. Um eine bessere Bedienbarkeit zu erreichen, werden einige Punkte46 ,47 leicht gegenüber ihrer ursprünglichen Position verschoben. In einem linken Abschnitt51 der Karteansicht48 ist das Layout immer noch für eine visuelle Informationsvermittlung angepasst. - In den
4A bis4D sind unterschiedliche Darstellung55 –58 von Informationen auf Anzeigevorrichtung59 dargestellt. Zusätzlich zu einem Finger60 , der jeweils eines der Bedienelemente61 bedienen will, ist ein so genanntes Bedienungsspotlight62 kreisförmig auf der Anzeigevorrichtung59 eingezeichnet. Die Bedienelemente61 sind in Abhängigkeit von ihrer Lage relativ zu der Position63 (der Mitte) des Bedienungsspotlights62 und einem flächigen Überlapp mit dem Bedienungsspotlight62 skaliert. Die Gesamtgröße der Skalierung kann abhängig von einer Fahrsituation sein. Fährt das Fahrzeug beispielsweise auf einer unebenen Oberfläche mit hoher Geschwindigkeit, so müssen die Bedienelemente größer skaliert werden, als bei einer Fahrt auf ebener Fahrbahn mit geringer Geschwindigkeit. Das Bedienungsspotlight62 ist nur virtuell existent und wird in der Regel nicht auf der Anzeigevorrichtung59 dargestellt. Das Bedienungsspotlight62 ist hier nur zur Veranschaulichung dargestellt. - In
5A bis5D ist dargestellt, wie sich das Bedienungsspotlight70 bei einer Annäherung eines Fingers71 an die Anzeigevorrichtung72 verändert und wie dieses die Skalierung der Bedienelemente bei einer bevorzugten Ausführungsform beeinflusst. Die in den5A bis5D dargestellten Ansichten73 einer Anzeigevorrichtung72 zeigen jeweils eine Navigationskarte mit Punkten von Interesse81 –86 , die Bedienelemente sind. In5A ist ein haptisches Layout gewählt, bei dem die Punkte von Interesse61 –65 , die in dem Bedienungsspotlight70 liegen, größer dargestellt sind als der Punkt von Interesse86 , welcher außerhalb des Bedienungsspotlights70 liegt. Die Ansicht73 nach5A entspricht einer Darstellung, bei der die bedienende Hand noch weit von der Anzeigevorrichtung72 entfernt ist. Daher ist in5A noch kein Finger dargestellt. Bei einer Annäherung des Fingers71 verringert sich ein Radius74 des Bedienungsspotlights70 , so dass das Bedienungsspotlight70 in5B kleiner dargestellt ist. Die nahe einer Position75 (dem Zentrum) des Bedienungsspotlights70 befindlichen Bedienelemente82 ,83 sind am größten skaliert. Jedoch ist auch der Punkt von Interesse86 gegenüber seiner Darstellung in5A größer skaliert. Bei einer weiteren Annäherung des Fingers71 ergibt die Analyse der Bewegungsrichtung des Fingers71 , dass sich die Position75 des Bedienungsspotlights70 leicht verschoben hat. Daher ist in5C der Punkt von Interesse82 größer skaliert als der Punkt83 , der nun weiter entfernt von der Mittelposition75 des Bedienungsspotlights70 liegt. In5D ist die Situation dargestellt, in der sich der Finger71 in einem Aktivierungsbereich befindet, der relativ zu der Darstellung des Bedienelements festgelegt ist. Bei einer als Touchscreen ausgebildeten interaktiven Bedienvorrichtung ist dies in der Regel die Fläche der graphischen Darstellung. Bei einer Bedienvorrichtung mit einem berührungslos arbeitenden Sensor kann dies ein räumliches Gebiet sein, das vorzugsweise in einem kurzen Abstand vor der graphischen Darstellung des Bedienelements oder angrenzend an diese festgelegt ist. - Befindet sich der Körperteil, hier der Finger
71 , in dem Aktivierungsbereich, so wird die Bedienaktion, die dem Bedienelement zugeordnet ist, aktiviert. - In
6A ist eine schematische Ansicht einer Anzeigevorrichtung150 dargestellt, auf der Bedienelemente151 in zwei Gruppen152 ,153 angeordnet sind. In der ersten Gruppe152 sind die zugehörigen Bedienelemente151 als Liste angeordnet. In der zweiten Gruppe sind die Bedienelemente151 als Zahlenfeld angeordnet. In der6A nehmen die Bedienelemente151 der beiden Gruppen152 ,153 nur eine geringe Fläche auf der Anzeigevorrichtung150 ein. Ein Großteil der Fläche kann zur Darstellung von weiteren Informationen (nicht dargestellt) verwendet werden. - Nähert sich ein Finger
155 der Anzeigevorrichtung150 , so werden die Bedienelemente151 in einer der beiden Gruppen152 ,153 vergrößert dargestellt. Wird eine Bedienabsicht für eines der Bedienelemente151 der als Liste ausgestalteten ersten Gruppe152 ermittelt, so wird die Liste vergrößert dargestellt, wie dies in6B gezeigt ist. Nähert sich der Finger155 eher der als Zahlenfeld ausgestalteten zweiten Gruppe153 von Bedienelementen151 , so werden diese Bedienelemente vergrößert dargestellt, wie in6C gezeigt ist. - Während bei der in Zusammensetzung mit
5A bis5D beschriebenen Ausführungsform die Mittelpunkte der Bedienelemente vorzugsweise nicht auf der Anzeigevorrichtung verschoben werden, werden bei der hier in Zusammenhang mit6A –6C beschriebenen Ausführungsform die Positionen der Bedienelemente deutlich verändert. - Anhand von
7A und7B wird beschrieben, wie eine ermittelte Bedienabsicht vorteilhaft ausgenutzt werden kann, um ein Bedienelement aus einer Liste auszuwählen. - In
7A ist eine horizontale Liste160 von Bedienelementen161 –169 auf einer Anzeigevorrichtung170 dargestellt. Wird eine Bedienabsicht ermittelt, so wird einem der Bedienelemente165 der Liste160 ein Fokus zugewiesen. In diesem Fall ist dem mit der Ziffer "5" beschrifteten Bedienelement165 der Fokus zugewiesen. Diese Tatsache wird dadurch kenntlich gemacht, dass das Bedienelement165 vergrößert dargestellt ist. In der Regel wird der Fokus einem in der Mitte der Anzeigevorrichtung170 dargestellten Bedienelement der Liste160 zugewiesen. Alternativ kann der Fokus auch einem an einem Rand dargestellten Bedienelement zugewiesen werden. - Der Fokus kann "verschoben" werden, indem der Nutzer seinen Finger
171 an einen Rand der Anzeigevorrichtung170 bewegt. In7A befindet sich der Finger171 an einem rechten Rand172 der Anzeigevorrichtung170 . Hierdurch kann bei einer Ausführungsform der Fokus nach rechts verschoben werden. - Alternativ ist bevorzugter vorzusehen, dass der Fokus im Zentrum der Anzeigevorrichtung
170 verbleibt und die Bedienelemente161 –169 relativ zu dem Fokus verschoben werden. D. h., die Bedienfelder bewegen sich nach links, wie mittels eines Pfeils173 angedeutet ist. Dies bedeutet, dem Bedienfeld166 mit der Zahl "6" wird der Fokus als nächstes zugewiesen, wobei das Bedienfeld166 dabei vergrößert in der Mitte der Anzeigevorrichiung170 dargestellt wird. - In beiden Ausführungsformen scrollt oder blättert der Fokus durch die Liste der Bedienelemente.
- Dieser Vorgang kann beendet werden, indem der Finger
171 über die Mitte der Anzeigevorrichtung170 bewegt wird. Anschließend kann das Bedienelement, dem der Fokus zugewiesen ist, betätigt werden, um die zugeordnete Bedienaktion auszulösen. - Die Scroll- oder Blättergeschwindigkeit kann in Abhängigkeit von der Position des Fingers
171 variieren. D. h., je weiter der Finger aus dem Zentrum bewegt wird, desto schneller wird gescrollt/geblättert. - Die Blätter-/Scrollrichtung kann mit der Richtung zusammentreffen, in der der Finger bewegt wird oder entgegengesetzt sein. Bei einer Liste kann ferner vorgesehen sein, dass diese als endlos betrachtet wird. Dies bedeutet, dass sich an ein letztes Listenelement das erste Listenelement erneut anschließt.
- In
7B ist eine Anzeigevorrichtung180 dargestellt, auf der eine Liste von Bedienelementen181 –186 gezeigt ist. Nähert sich ein Finger187 der Anzeigevorrichtung180 , so wird einem der Bedienelemente181 –186 ein Fokus zugeordnet. Das Bedienelement183 , dem der Fokus zugeordnet ist, ist vergrößert für eine optimale Betätigung dargestellt. Der Finger187 befindet sich an einem unteren Rand188 der Anzeigevorrichtung180 . Hierdurch wird bewirkt, dass sich die Bedienelemente181 –186'' durch den Fokus" nach oben bewegen, wie mittels des Pfeils189 angedeutet ist. Wird der Finger187 in eine Mitte der Anzeigevorrichtung180 bewegt, stoppt der Blättervorgang. Das Bedienelement im Fokus kann optimal betätigt werden. Wird der Finger187 in eine Position zwischen den Fokus und einem oberen Rand190 der Anzeigevorrichtung180 bewegt, so bewegen sich die Bedienelemente181 –186 nach unten. Somit kann in beide Richtungen geblättert werden. - Der Fokus muss nicht starr an einer Position auf der Anzeigevorrichtung verharren. Vielmehr kann er sich mit dem Bedienelement bewegen, dem er zugeordnet ist. Ist dieses Bedienelement von einer vorfestgelegten Sollposition des Fokus weiter entfernt als das nachfolgende Bedienelement der Liste, so springt der Fokus auf dieses nachfolgende Bedienelement.
- Andere Ausführungsformen können vorsehen, dass mehrere Bedienelemente vergrößert dargestellt sind. Beispielsweise können ein Hauptfokus und zwei Nebenfokusse vorgesehen sein. Die den Nebenfokussen zugeordneten Bedienelemente werden beispielsweise vergrößert, jedoch etwas kleiner als das dem Hauptfokus zugewiesene Bedienelement dargestellt.
- Bei einer Ausführungsform kann vorgesehen sein, dass ein Bedienelement, für das die höchste Bedienwahrscheinlichkeit ermittelt ist (beispielsweise das Bedienelement, das sich im festen Fokus oder dem Zentrum des Bedienungsspotlights befindet), betätigt wird, wenn der Körperteil des Nutzers, beispielsweise der Finger, unverändert eine vorgegebene Verweildauer verharrt, ohne dass eine Anpassung der dargestellten Information erfolgt. Dies gilt insbesondere auch dann, wenn der Finger sich nicht in dem eigentlichen Aktivierungsbereich des Bedienelements befindet. Hierdurch kann eine quasi betätigungslose Bedienung eines Bedienelements erreicht werden.
- In
8 ist schematisch eine Ausführungsform einer interaktiven Bedienvorrichtung100 in einem Kraftfahrzeug101 dargestellt. Diese umfasst eine Anzeigevorrichtung102 , auf der Informationen in einem visuellen und einem haptischen Layout dargestellt werden können. In die Bedienvorrichtung100 sind Empfangssensoren104 integriert, die über einen Körper106 ,108 eines Nutzers übertragene Hochfrequenzsignale berührungslos empfangen können, die in die Körper mittels Signalgebern110 ,112 , die in der Nähe der Körper106 ,108 angeordnet sind, eingespeist werden. Die Signalgeber110 ,112 sind mit einer Signalgebereinheit113 verbunden, die wiederum mit einem Fahrzeugbussystem126 gekoppelt ist. Die Signalgebereinheit113 kann gemeinsam mit den Empfangssensoren104 , die im engeren Sinne bereits eine Sensoreinheit darstellen, auch als ein Sensorsystem bzw. eine Sensoreinheit betrachtet werden. Die interaktive Bedienvorrichtung100 umfasst ferner eine Steuereinheit120 , die ein Darstellungsmodul122 umfasst. Das Darstellungsmodul122 bereitet auf der Anzeigevorrichtung102 darzustellende Informationen auf. insbesondere passt das Darstellungsmodul122 die Informationen an ein visuelles oder haptisches Layout an. Die interaktive Bedienvorrichtung100 umfasst ferner eine Empfangseinheit124 , die beispielsweise über das Fahrzeugbussystem126 Informationen von Sensoreinheiten, die beispielsweise als Kamerasystem130 oder als Ultraschallsensorsystem132 ausgebildet sein können, empfängt, Ferner empfängt die Empfangseinheit124 über das Fahrzeugbussystem126 Informationen über einen Fahrzustand des Kraftfahrzeugs101 . Anhand der empfangenen Sensorinformationen, die Informationen über den Fahrzustand umfassen, wird von einem Auswertemodul128 die Bedienabsicht des Nutzers106 bzw.108 ermittelt. In Abhängigkeit von der ermittelten Bedienabsicht ändert das Darstellungsmodul122 die Informationen, die auf der Anzeigevorrichtung102 dargestellt werden. Das Auswertemodul128 ist vorzugsweise so ausgestaltet, dass ein Bedienungsspotlight und für die einzelnen Bedienelemente eine Bedienwahrscheinlichkeit ermittelt wird. - Die Steuereinheit umfasst ferner ein Aktivierungsmodul
134 , das eine Bedienaktion auslöst bzw. aktiviert, wenn ein Körperteil, beispielsweise ein Finger, sich in einem Aktivierungsbereich, der relativ zu der Darstellung des Bedienelements auf der Anzeigevorrichtung102 festgelegt ist, befindet. Hierbei können Signale über den Fahrzeugbus übertragen werden, die andere Steuergeräte des Kraftfahrzeugs101 beeinflussen. - Die Steuereinheit
120 und die einzelnen umfassten Module122 ,128 ,134 können sowohl in Hard- als auch in Software ausgeführt sein. - Die Anzeigevorrichtung kann als Projektionsanzeige ausgebildet sein, bei der die dargestellten Informationen auf eine Fläche projiziert werden. In einem solchen Fall ist der Abstand bzw. die die Bewegung des Körperteils relativ zu dieser Fläche bzw. ein Blicken auf diese Fläche etc. relevant.
- Bei den Sensoreinheiten, die Hochfrequenzsignale über den menschlichen Körper übertragen, haben sich Frequenzen im Bereich von etwa 80 kHz bis 150 kHz als besonders geeignet erwiesen. Die Sensoreinheiten können jedoch auch bei Frequenzen außerhalb dieses angegebenen Frequenzbereichs betrieben werden.
- Neben oder alternativ zu einer Sensoreinheit, die einen Körperteil aufgrund der Übertragung von Hochfrequenzsignalen über den menschlichen Körper detektiert, können andere berührungslos funktionierende Sensoreinheiten verwendet werden, wie ultraschallbasierte Sensoreinheiten oder auch Sensoreinheiten, die optische Verfahren verwenden. Eine solche Sensoreinheit kann beispielsweise gemäß folgendem Prinzip ausgestaltet sein. Eine Sende-LED strahlt, ein rechteckförmig amplitudenmoduliertes Lichtsignal im optischen oder infraroten Wellenlängenbereich ab. Das an einem Objekt reflektierte Lichtsignal wird von einer Photodiode erfasst. Von einer Kompensations-LED wird ein um 180° phasenversetztes ebenfalls rechteckförmig amplitudenmoduliertes Referenzlichtsignal zu der Photodiode über einen unveränderlichen Lichtweg gesandt. Die Kompensations-LED wird über einen Regelkreis mittels eines Regelsignals so ausgeregelt, dass sich das empfangene reflektierte Lichtsignal der Sende-LED und das empfangene Referenzlichtsignal der Kompensations-LED an der Photodiode aufheben und ein Gleichsignal detektiert wird. Eine Änderung des Regelsignals ist ein Maß für den Ab stand des Objekts. Eine nach diesem Prinzip ausgestaltete Sensoreinheit ist weitgehend unabhängig von Temperatur- und Helligkeitsschwankungen.
- Vorteilhafterweise ist mindestens eine Sensoreinheit oder sind mehrere Sensoreinheiten so ausgestaltet, dass sie eine flächige Ausdehnung des Körperteils (gegebenenfalls durch gemeinsames Zusammenwirken) wahrnehmen können. Hierdurch wird es möglich Gesten, die mit dem Körperteil, beispielsweise einer Hand, ausgeführt werden, zu detektieren und als Bedienabsicht zu interpretieren. Gesten, die nur von der Körperteilhaltung, insbesondere einer Handhaltung, abhängig sind, werden als starre oder statische Gesten bezeichnet. Eine flach vor die Anzeigevorrichtung gehaltene Hand
140 , wie sie in9 dargestellt ist, kann beispielsweise als Stoppsignal interpretiert werden, die einen Blättervorgang anhält oder jede Anpassung der dargestellten Informationen für eine vorgegebene Zeitspanne unterbindet.10 und11 zeigen exemplarisch andere einfache statische Gesten, die jeweils mit der linken Hand140 ausgeführt sind. Können mehrere Bestandteile der Hand getrennt aufgelöst werden, so können auch differenzierte starre Gesten erkannt und verwendet werden, wie sie beispielhaft in12 bis17 gezeigt sind. - Wird die Bewegung des Körperteiles in einem bestimmten Raumgebiet mit vorgegebenen Bahnkurven verglichen, so können dynamische Gesten erkannt werden. Beispiele für Bahnkurven, in einer zweidimensionalen Ebene sind in
18 und in einem dreidimensionalen Raum in19 exemplarisch gezeigt. Beispiele für dynamische Gesten sind in den20 bis27 dargestellt. Die Geste nach20 umfasst ein Bewegen der horizontal flach ausgestreckten Hand140 aufwärts, die Geste nach21 entsprechend ein Bewegen der Hand140 abwärts. In22 bis25 werden die Gesten durch ein Bewegen der vertikal flach aufgespannten Hand von der Anzeigevorrichtung weg (22 ) bzw. auf die Anzeigevorrichtung zu (23 ) und ein Bewegen nach links (24 ) oder ein Bewegen nach rechts (25 ) ausgeführt. Eine Annäherungs- und/oder eine Entfernungsgeschwindigkeit des Körperteils können entsprechend ebenfalls interpretiert und verwendet werden. Die in den26 und27 zeigen Gesten, die mittels eines Drehens der Hand140 entgegen bzw. mit dem Uhrzeigersinn der ausgestreckten Hand um ihre Längsachse ausgeführt werden. Die Gesten können auch jeweils beide entgegen gesetzten Bewegungsrichtungen umfassen. Bei einer Analyse der Bahnkurven können neben den durchlaufenen Raumpunkten, die eine Bewegung definieren, auch eine Geschwindigkeit berücksichtigt werden, mit der die Bewegung ausgeführt wird. - Können mehrere Bestandteile der Hand getrennt aufgelöst werden und/oder deren Relativgeschwindigkeiten erfasst werden, so können auch komplexe Gesten oder Handhaltungen sowie Bewegungsabläufe, beispielsweise ein Aufspreizen und Schließen der Finger einer flachen Hand oder ein Ballen der Finger zu einer Faust (
28 ) und ein Öffnen der Faust (29 ) ausgewertet werden und entsprechend berücksichtigt werden. Weitere komplexe Gesten sind exemplarisch in den30 und31 gezeigt, bei denen ein Ausführen der entsprechenden Geste ein Einklappen der Finger142 (30 ) und ein Ausstrecken der Finger142 (31 ) umfasst. In32 ist eine komplexe Geste dargestellt, bei der ein Schwerpunkt der Hand140 zusätzlich zum Einklappen der Finger142 eine Bewegung nach rechts ausführt. In33 umfasst die komplexe exemplarisch gezeigte Geste ein Ballen der ursprünglich vertikal ausgerichteten, flach ausgestreckten Hand140 und eine zeitgleich ausgeführte Rotation der Hand um etwa 90° nach rechts. - Die dargestellten Gesten sind nur exemplarische Gesten. Den einzelnen Gesten können unterschiedliche Bedienabsichten zugeordnet sein, die eine entsprechende Anpassung der dargestellten Informationen bewirken.
- Vorteilhafterweise ist vorgesehen, dass die interaktive Bedienvorrichtung in einem Lernmodus betreibbar ist, und so in der Lage ist, bestimmte Gesten in der individuellen Ausprägung durch unterschiedliche Personen zu erlernen. Beispielsweise kann ein Fahrer aufgefordert werden, bestimmte Gesten auszuführen. Anhand der während der Ausführung erfassten Messdaten kann eine individuelle Ausprägung der Geste erlernt werden. Das Erlernen geschieht vorteilhafterweise personenbezogen. Eine Personenidentifikation kann über die Ausprägung der Gesten selbst erfolgen oder über eine beispielsweise in einem Fahrzeugschlüssel codierte Benutzer- oder Fahrerkennung.
- Einige Ausführungsformen sind so ausgestaltet, dass Gesten eines Fahrers von denen eines Beifahrers unterschieden werden. Ist die interaktive Bedienvorrichtung in einer Mittelkonsole des Fahrzeugs angeordnet, so können Gesten des Fahrers von denen eines Beifahrers daran erkannt werden, ob die Gesten mit einer rechten oder linken Hand ausgeführt werden., wobei angenommen ist, dass der Fahrer und der Beifahrer zum Bedienen jeweils die Hand nehmen, die der Mittelkonsole am nächsten ist. Bei Sensoreinheiten, die eine Unterscheidung des Fahrers und Beifahrers ermöglichen, beispielsweise indem unterschiedliche Hochfrequenzsignale über den Körper des Fahrers und des Beifahrers übertragen werden, die von den Sensoreinheiten zur Positionserfassung des Körperteils genutzt werden, ist eine Unterscheidung von Gesten des Beifahrers und des Fahrers mittels der Informationen der Sensoreinheit möglich. Ist eine Unterscheidung möglich, so können derselben Geste unterschiedliche Bedienabsichten oder unterschiedliche Darstellungsfunktionen oder Anpassfunktionen für den Fahrer und den Beifahrer zugeordnet sein.
Claims (33)
- Verfahren zum Betreiben einer interaktiven Bedienvorrichtung (
100 ), insbesondere in einem Kraftfahrzeug (101 ), mit einer Anzeigevorrichtung (35 ;43 ;59 ;72 ;102 ;150 ;170 ;180 ) und auf der Anzeigeeinrichtung (35 ;43 ;59 ;72 ;102 ;150 ;170 ;180 ) dargestellten und/oder darstellbaren Informationen, die Bedienelemente (33 ;61 ;151 ;161 –169 ;181 –186 ) beinhalten, umfassend folgende Schritte: a) Ermitteln einer Bedienabsicht für mindestens eines der auf der Anzeigeeinrichtung (35 ;43 ;59 ;72 ;102 ;150 ;170 ;180 ) dargestellten Bedienelemente (33 ;61 ;151 ;161 –169 ;181 –186 ), b) Anpassen der auf der Anzeigevorrichtung (35 ;43 ;59 ;72 ;102 ;150 ;170 ;180 ) dargestellten Informationen in Abhängigkeit der ermittelten Bedienabsicht, so dass das mindestens eine Bedienelement (33 ;61 ;151 ;161 –169 ;181 –186 ) optimiert für das Aktivieren des mindestens einen Bedienelements (33 ;61 ;151 ;161 –169 ;181 –186 ) dargestellt wird. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Ermittlung der Bedienabsicht für mindestens eines der auf der Anzeigeeinrichtung (
35 ;43 ;59 ;72 ;102 ;150 ;170 ;180 ) dargestellten Bedienelemente (33 ;61 ;151 ;161 –169 ;181 –186 ) erfasst wird, ob sich ein Körperteil (36 ) eines Nutzers innerhalb eines Aktivierungsbereichs befindet, der räumlich relativ zu einem Darstellungsgebiet mindestens eines der Bedienelemente (33 ;61 ;151 ;161 –169 ;181 –186 ) auf der Anzeigeeinrichtung (35 ;43 ;59 ;72 ;102 ;150 ;170 ;180 ) festgelegt ist. - Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Bedienabsicht für das mindestens eine Bedienelement (
33 ;61 ;151 ;161 –169 ;181 –186 ) zeitlich vor einem Aktivieren der Bedienaktion ermittelt wird. - Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Ermittlung der Bedienabsicht und das entsprechende Anpassen der dargestellten Information iterativ oder kontinuierlich ausgeführt werden.
- Verfahren nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass zur Ermittlung der Bedienabsicht Informationen verwendet werden, die Informationen über eine Körperaktion, insbesondere eine Bewegungsrichtung des Körperteils (
36 ), und/oder über eine Blickrichtung des Nutzers umfassen. - Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass anhand der Informationen ein Abstand des Körperteils (
36 ) von der Darstellung des Bedienelements (33 ;61 ;151 ;161 –169 ;181 –186 ) ermittelt wird und das Bedienelement (33 ;61 ;151 ;161 –169 ;181 –186 ) in Abhängigkeit von diesem Abstand skaliert wird. - Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Nutzerinformationen zumindest teilweise mittels eines Kamerasystems (
130 ) und/oder eines Ultraschallsensorsystems erfasst werden. - Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zur Ermittlung der Bedienabsicht Informationen verwendet werden, die Umgebungsinformationen über eine Fahrsituation umfassen, die beim Anpassen der optimierten dargestellten Informationen berücksichtigt werden.
- Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass beim Ermitteln der Bedienabsicht eine Bedienwahrscheinlichkeit für das Bedienelement (
33 ;61 ;151 ;161 –169 ;181 –186 ) und gegebenenfalls weitere Bedienwahrscheinlichkeiten für weitere Bedienelemente (33 ;61 ;151 ;161 –169 ;181 –186 ) ermittelt werden und eine Anpassung der dargestellten Informationen so erfolgt, dass entsprechend ihrer Bedienwahrscheinlichkeit optimiert für eine Aktivierung der entsprechend zugeordneten Bedienaktion oder weiteren Bedienaktion dargestellt werden. - Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass beim Anpassen der auf der Anzeigeeinrichtung dargestellten Informationen eine Transparenz, eine Größe des Bedienelementes (
33 ;61 ;151 ;161 –169 ;181 –186 ), ein Abstand von benachbarten weiteren Bedienelementen (33 ;61 ;151 ;161 –169 ;181 –186 ) und/oder eine Animation des Bedienelements (33 ;61 ;151 ;161 –169 ;181 –186 ) oder mehrerer Bedienelemente (33 ;61 ;151 ;161 –169 ;181 –186 ) verändert werden. - Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass beim Ermitteln der Bedienabsicht von dem Körperteil ausgeführte Gesten erkannt und ausgewertet werden, wobei das Anpassen der dargestellten Informationen entsprechend einer der jeweiligen erkannten Geste zugeordneten Anpassfunktion durchgeführt wird.
- Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Gesten mindestens eine statische Geste umfassen, die anhand einer vordefinierten Körperteilhaltung erkannt wird.
- Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Gesten mindestens eine dynamische Geste umfassen, die anhand einer vordefinierten von dem Körperteil durchlaufenen Bahnkurve erkannt wird.
- Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Gesten mindestens eine komplexe Geste umfassen, die anhand eines Ineinanderübergehens vordefinierter statischer Gesten und/oder einer statischen Geste, die eine vordefinierte Bahnkurve durchläuft, erkannt wird.
- Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die auf der Anzeigeeinrichtungen dargestellten Informationen, sofern keine Bedienabsicht ermittelt wird, für eine Darstellung angepasst werden, die für eine visuelle Informationsübermittlung optimiert ist.
- Interaktive Bedienvorrichtung (
100 ), insbesondere in einem Kraftfahrzeug (101 ), umfassend eine Anzeigevorrichtung (35 ;43 ;59 ;72 ;102 ;150 ;170 ;180 ), auf der Informationen darstellbar sind und/oder dargestellt werden, die Bedienelemente (33 ;61 ;151 ;161 –169 ;181 –186 ) beinhalten, und eine Steuereinrichtung (120 ), wobei die Steuereinrichtung (120 ) derart ausgebildet ist, dass bei Ermittlung einer Bedienabsicht für mindestens eines der auf der Anzeigeeinrichtung (35 ;43 ;59 ;72 ;102 ;150 ;170 ;180 ) dargestellten Bedienelemente die auf der Anzeigeeinrichtung (35 ;43 ;59 ;72 ;102 ;150 ;170 ;180 ) dargestellten Informationen in Abhängigkeit der ermittelten Bedienabsicht derart angepasst werden, dass das mindestens eine der Bedienelemente (33 ;61 ;151 ;161 –169 ;181 –186 ) optimiert für das Aktivieren des Bedienelementes (33 ;61 ;151 ;161 –169 ;181 –186 ) dargestellt wird. - Vorrichtung nach Anspruch 16, dadurch gekennzeichnet, dass mindestens eine Sensoreinrichtung zum Erfassen eines Körperteils (
36 ) eines Benutzers innerhalb eines Aktivierungsbereiches, der räumlich relativ zu einem Darstellungsgebiet mindestens eines der Bedienelemente (33 ;61 ;151 ;161 –169 ;181 –186 ) auf der Anzeigeeinrichtung (35 ;43 ;59 ;72 ;102 ;150 ;170 ;180 ) festgelegt ist, vorgesehen ist, um eine Bedienabsicht für mindestens eines der auf der Anzeigeeinrichtung (35 ;43 ;59 ;72 ;102 ;150 ;170 ;180 ) dargestellten Bedienelemente zu ermitteln. - Vorrichtung nach Anspruch 16 oder 17, dadurch gekennzeichnet, dass Steuereinrichtung (
120 ) derart ausgebildet ist, dass die Ermittlung der Bedienabsicht und das entsprechende Anpassen der dargestellten Information iterativ oder kontinuierlich ausführbar ist und/oder ausgeführt wird. - Vorrichtung nach Anspruch 17 oder 18, dadurch gekennzeichnet, dass die Sensorinformationen Informationen über eine Körperaktion des Nutzers umfassen.
- Vorrichtung nach einem der Ansprüche 16 bis 19, dadurch gekennzeichnet, dass die Nutzerinformationen zumindest teilweise mittels eines Kamerasystems und/oder eines Ultraschallsensorsystems erfassbar sind und/oder erfasst werden.
- Vorrichtung nach einem der Ansprüche 17 bis 20, dadurch gekennzeichnet, dass die Sensorinformationen Informationen über eine Blickrichtung des Nutzers und/oder eine Bewegungsrichtung des Körperteils (
36 ) des Nutzers umfassen. - Vorrichtung nach einem der Ansprüche 17 bis 21, dadurch gekennzeichnet, dass die Steuereinrichtung (
120 ) derart ausgestaltet ist, dass anhand der Sensorinformationen eine Bewegungsrichtung des Körperteils (36 ) und/oder die Blickrichtung des Nutzers ermittelbar ist und/oder ermittelt wird. - Vorrichtung nach einem der Ansprüche 16 bis 22, dadurch gekennzeichnet, dass die Steuereinrichtung (
120 ) derart ausgebildet ist, dass Umgebungsinformationen über eine Fahrsituation bei der Anpassung der optimiert dargestellten Informationen berücksichtigbar sind und/oder berücksichtigt werden. - Vorrichtung nach einem der Ansprüche 16 bis 23, dadurch gekennzeichnet, dass beim Ermitteln der Bedienabsicht eine Bedienwahrscheinlichkeit für das Bedienelement (
33 ;61 ;151 ;161 –169 ;181 –186 ) und gegebenenfalls weitere Bedienwahrscheinlichkeiten für weitere Bedienelemente (33 ;61 ;151 ;161 –169 ;181 –186 ) ermittelbar sind und/oder ermittelt werden und eine Anpassung der dargestellten Informationen so erfolgt, dass entsprechend ihrer Bedienwahrscheinlichkeit optimiert für eine Aktivierung der entsprechend zugeordneten Bedienaktion oder weiteren Bedienaktionen dargestellt sind und/oder dargestellt werden. - Vorrichtung nach einem der Ansprüche 17 bis 24, dadurch gekennzeichnet, dass die Steuereinrichtung (
120 ) ausgestaltet ist, dass anhand der Sensor-Informationen ein Abstand des Körperteils (36 ) von der Darstellung des Bedienelements (33 ;61 ;151 ;161 –169 ;181 –186 ) ermittelbar ist und/oder ermittelt wird und das Bedienelement (33 ;61 ;151 ;161 –169 ;181 –186 ) in Abhängigkeit von diesem Abstand skalierbar ist und/oder skaliert wird. - Vorrichtung nach einem der Ansprüche 16 bis 25, dadurch gekennzeichnet, dass beim Anpassen eine Transparenz, ein Abstand von benachbarten weiteren Bedienelementen (
33 ;61 ;151 ;161 –169 ;181 –186 ) und/oder eine Animation des Bedienelements (33 ;61 ;151 ;161 –169 ;181 –186 ) oder mehrerer Bedienelemente (33 ;61 ;151 ;161 –169 ;181 –186 ) veränderbar ist und/oder verändert werden. - Vorrichtung nach einem der Ansprüche 16 bis 26, dadurch gekennzeichnet, dass die auf der Anzeigeeinrichtung (
35 ;43 ;59 ;72 ;102 ;150 ;170 ;180 ) dargestellten Informationen, sofern keine Bedienabsicht ermittelbar ist und/oder ermittelt wird, für eine Darstellung angepasst werden, die für eine visuelle Informationsübermittlung optimiert ist. - Vorrichtung nach einem der Ansprüche 17 bis 27, dadurch gekennzeichnet, dass die mindestens eine Sensoreinrichtung ausgestaltet ist, Sensorinformationen anhand von über den Körper des Nutzers übertragene Hochfrequenzsignale zu ermitteln, die insbesondere eine Position des Körperteils (
36 ) umfassen können. - Vorrichtung nach einem der Ansprüche 17 bis 27, dadurch gekennzeichnet, dass die mindestens eine Sensoreinrichtung als positionsauflösende berührungssensitive Einrichtung ausgestaltet ist.
- Vorrichtung nach einem der Ansprüche 17 bis 29, dadurch gekennzeichnet, dass mindestens eine Sensoreinrichtung ausgestaltet ist, von dem Körperteil ausgeführte Gesten zu erkennen und auszuwerten, wobei das Anpassen der dargestellten Informationen entsprechend einer der jeweiligen erkannten Geste zugeordneten Anpassfunktion durchführbar ist.
- Vorrichtung nach Anspruch 30, dadurch gekennzeichnet, dass die Gesten mindestens eine statische Geste umfassen, die von der mindestens eine Sensoreinrichtung als eine vordefinierten Körperteilhaltung erkennbar ist.
- Vorrichtung nach Anspruch 30 oder 31, dadurch gekennzeichnet, dass die Gesten mindestens eine dynamische Geste umfassen, die von der mindestens einen Sensoreinrichtung anhand einer vordefinierten von dem Körperteil durchlaufenen Bahnkurve erkennbar ist.
- Verfahren nach einem der Ansprüche 30 bis 32, dadurch gekennzeichnet, dass die Gesten mindestens eine komplexe Geste umfassen, die von der mindestens eine Sensoreinrichtung anhand eines Ineinanderübergehens vordefinierter statischer Gesten und/oder anhand einer statischen Geste, die eine vordefinierte Bahnkurve durchläuft, erkennbar ist.
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006037156A DE102006037156A1 (de) | 2006-03-22 | 2006-08-02 | Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung |
EP07723507A EP1998996B1 (de) | 2006-03-22 | 2007-03-22 | Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung |
CN201610366526.0A CN106427571B (zh) | 2006-03-22 | 2007-03-22 | 交互式操纵装置和用于运行所述交互式操纵装置的方法 |
PCT/EP2007/002553 WO2007107368A1 (de) | 2006-03-22 | 2007-03-22 | Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung |
JP2009500776A JP5275970B2 (ja) | 2006-03-22 | 2007-03-22 | 対話型操作装置および対話型操作装置を動作させるための方法 |
US12/294,022 US9671867B2 (en) | 2006-03-22 | 2007-03-22 | Interactive control device and method for operating the interactive control device |
KR1020087017681A KR101367593B1 (ko) | 2006-03-22 | 2007-03-22 | 쌍방향 조작 장치 및 쌍방향 조작 장치의 작동 방법 |
JP2012066805A JP2012178161A (ja) | 2006-03-22 | 2012-03-23 | 対話型操作装置および対話型操作装置を動作させるための方法 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006013067 | 2006-03-22 | ||
DE102006013067.7 | 2006-03-22 | ||
DE102006014426 | 2006-03-27 | ||
DE102006014426.0 | 2006-03-27 | ||
DE102006037156A DE102006037156A1 (de) | 2006-03-22 | 2006-08-02 | Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102006037156A1 true DE102006037156A1 (de) | 2007-09-27 |
Family
ID=38171608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102006037156A Ceased DE102006037156A1 (de) | 2006-03-22 | 2006-08-02 | Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung |
Country Status (7)
Country | Link |
---|---|
US (1) | US9671867B2 (de) |
EP (1) | EP1998996B1 (de) |
JP (2) | JP5275970B2 (de) |
KR (1) | KR101367593B1 (de) |
CN (1) | CN106427571B (de) |
DE (1) | DE102006037156A1 (de) |
WO (1) | WO2007107368A1 (de) |
Cited By (84)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1947548A1 (de) | 2006-12-27 | 2008-07-23 | Takata Corporation | Bediensystem zum Bedienen von Funktionen in einem Fahrzeug und Fahrzeug |
DE102008005106A1 (de) | 2008-01-14 | 2009-07-16 | Trw Automotive Electronics & Components Gmbh | Bedienvorrichtung für ein Kraftfahrzeug |
DE102008004970A1 (de) | 2008-01-17 | 2009-07-23 | Volkswagen Ag | Bediensystem mit positionsveränderlicher Bedieneinheit und Verfahren zum Betreiben einer Bedieneinheit |
EP2107456A1 (de) | 2008-04-04 | 2009-10-07 | Volkswagen AG | Auswahl von Anzeigenmodi "SKINS" für ein Infotainmentsystem |
DE102008023505A1 (de) | 2008-05-09 | 2009-11-12 | Volkswagen Ag | Unterstützung eines Infotainment-Systems durch Farbcodierung |
WO2010003471A1 (de) | 2008-07-09 | 2010-01-14 | Volkswagen Aktiengesellschaft | Verfahren zum betrieb eines bediensystems für ein fahrzeug und bediensystem für ein fahrzeug |
WO2010009915A1 (de) | 2008-07-21 | 2010-01-28 | Siemens Aktiengesellschaft | Verfahren und vorrichtung zum steuern eines systems |
WO2010031565A2 (de) | 2008-09-22 | 2010-03-25 | Volkswagen Ag | Bedienvorrichtung und verfahren zum betreiben einer bedienvorrichtung mit verbesserter annäherungserfassung |
DE102008048826A1 (de) | 2008-09-22 | 2010-03-25 | Volkswagen Ag | Verfahren zum Bestimmen eines Kalibrierwerts einer Anzeige- und Bedienvorrichtung sowie Anzeige- und Bedienvorrichtung in einem Kraftfahrzeug |
WO2010031454A1 (de) | 2008-09-22 | 2010-03-25 | Volkswagen Ag | Anzeige- und bediensystem in einem kraftfahrzeug mit nutzerbeeinflussbarer darstellung von anzeigeobjekten sowie verfahren zum betreiben eines solchen anzeige- und bediensystems |
DE102009048043A1 (de) | 2008-10-15 | 2010-04-22 | Volkswagen Ag | Multifunktionsanzeige- und Bediensystem sowie Verfahren zum Steuern eines solchen Systems mit optimierter grafischer Bediendarstellung |
DE102009038895A1 (de) * | 2009-08-26 | 2010-09-16 | Audi Ag | Verfahren zum Unterstützen eines Bedienens von zumindest einer Einrichtung eines Fahrzeugs |
EP2240843A1 (de) * | 2007-12-31 | 2010-10-20 | Motorola, Inc. | Verfahren und vorrichtung für zweihändige computerschnittstelle mit gestenerkennung |
EP2163975A3 (de) * | 2008-09-12 | 2010-10-27 | Sony Corporation | Informationsverarbeitung |
WO2011003947A1 (de) * | 2009-07-07 | 2011-01-13 | Volkswagen Ag | Verfahren und vorrichtung zum bereitstellen einer benutzerschnittstelle in einem fahrzeug |
WO2011015570A1 (de) | 2009-08-06 | 2011-02-10 | Volkswagen Ag | Verfahren zum betreiben einer bedienvorrichtung und bedienvorrichtung in einem fahrzeug |
DE102009036368A1 (de) * | 2009-08-06 | 2011-02-10 | Volkswagen Ag | Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug |
DE102009049110A1 (de) | 2009-10-12 | 2011-04-14 | Volkswagen Ag | Verfahren zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug |
DE102009048937A1 (de) * | 2009-10-10 | 2011-04-14 | Volkswagen Ag | Multiview-Anzeige- und Bedienvorrichtung mit Nutzerunterscheidung |
WO2011095709A3 (fr) * | 2010-02-02 | 2011-11-03 | Dav | Module de retour haptique destiné à être intégré dans un véhicule automobile pour dispositif nomade et dispositif de commande correspondant |
DE102010053788A1 (de) | 2010-12-08 | 2012-06-14 | Volkswagen Ag | Verfahren zum Betreiben einer Bedienvorrichtung und Bedienvorrichtung in einem Fahrzeug |
WO2012110207A1 (de) | 2011-02-19 | 2012-08-23 | Volkswagen Aktiengesellschaft | Verfahren und vorrichtung zum bereitstellen einer benutzerschnittstelle, insbesondere in einem fahrzeug |
WO2013053465A1 (de) * | 2011-10-15 | 2013-04-18 | Volkswagen Aktiengesellschaft | Verfahren zum bereitstellen einer bedienvorrichtung in einem fahrzeug und bedienvorrichtung |
EP2058162A3 (de) * | 2007-11-08 | 2013-06-05 | Volkswagen Aktiengesellschaft | Multifunktionsanzeige- und Bediensystem und Verfahren zum Bedienen von Funktionen oder Fahrzeugsystemen mit einem assistierten Bedienmodus |
EP2608185A1 (de) * | 2011-12-23 | 2013-06-26 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Bereitstellen einer Einparkhilfe in einem Fahrzeug |
WO2013104390A1 (de) * | 2012-01-09 | 2013-07-18 | Daimler Ag | Verfahren und vorrichtung zum bedienen von auf einer anzeigeeinheit eines fahrzeugs angezeigten funktionen unter verwendung von im dreidimensionalen raum ausgeführten gesten sowie betreffendes computerprogrammprodukt |
DE102012011177A1 (de) * | 2012-06-06 | 2013-12-24 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Verfahren zur Bedienung von Funktionen einesFahrzeuges sowie entsprechende Vorrichtung |
WO2014019884A1 (de) * | 2012-08-01 | 2014-02-06 | Volkswagen Aktiengesellschaft | Anzeige- und bedieneinrichtung und verfahren zur ansteuerung einer anzeige- und bedieneinrichtung |
WO2014026862A1 (de) * | 2012-08-16 | 2014-02-20 | Volkswagen Aktiengesellschaft | Verfahren und ein bedien- und anzeigeeinrichtung zum betreiben einer interaktiven bedieneinrichtung |
US8667424B2 (en) | 2009-08-26 | 2014-03-04 | Mitac International Corp. | Method of spreading out and displaying closely located points of interest on a personal navigation device |
WO2014040856A1 (de) * | 2012-09-13 | 2014-03-20 | Bayerische Motoren Werke Aktiengesellschaft | Berührungseingaben über schwellen auf berührungsempfindlichen anzeigen |
DE102012218843A1 (de) * | 2012-10-16 | 2014-04-17 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung |
DE102012020855A1 (de) * | 2012-10-24 | 2014-04-24 | GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) | Verfahren zum Anpassen einer Einstellung eines Fahrzeugsitzes und Fahrzeug mit zu-mindest einem Fahrzeugsitz |
DE102012022321A1 (de) * | 2012-11-15 | 2014-05-15 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Verfahren zum Betreiben eines Fahrzeugs und Fahrzeug |
WO2014090625A1 (de) * | 2012-12-11 | 2014-06-19 | Volkswagen Aktiengesellschaft | Bedienverfahren und bedienvorrichtung |
DE102013000080A1 (de) * | 2013-01-08 | 2014-07-10 | Audi Ag | Aktivierung einer Kraftfahrzeugfunktion mittels eines optischen Sensors |
DE102013000083A1 (de) | 2013-01-08 | 2014-07-10 | Audi Ag | Kraftfahrzeug mit einer personenspezifischen Bedienschnittstelle |
DE102013000880A1 (de) * | 2013-01-10 | 2014-07-10 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zu Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug |
DE102013007329A1 (de) | 2013-01-04 | 2014-07-10 | Volkswagen Aktiengesellschaft | Verfahren zum Betreiben einer Bedienvorrichtung in einem Fahrzeug |
DE102013200457A1 (de) * | 2013-01-15 | 2014-07-17 | Preh Gmbh | Bedienvorrichtung für ein Kraftfahrzeug mit einer Gestenüberwachungseinheit |
DE102013001330A1 (de) * | 2013-01-26 | 2014-07-31 | Audi Ag | Verfahren zum Betreiben einer Lüftereinrichtung eines Kraftwagens sowie Kraftwagen |
DE102013002280A1 (de) | 2013-02-08 | 2014-08-14 | Audi Ag | Verfahren zum Betreiben einer Anzeigevorrichtung eines Kraftwagens sowie Kraftwagen mit einer solchen Anzeigevorrichtung |
US8890819B2 (en) | 2009-03-31 | 2014-11-18 | Mitsubishi Electric Corporation | Display input device and vehicle-mounted information equipment |
DE102013010932A1 (de) | 2013-06-29 | 2014-12-31 | Audi Ag | Verfahren zum Betreiben einer Bedienschnittstelle, Bedienschnittstelle sowie Kraftfahrzeug mit einer Bedienschnittstelle |
DE102013012466A1 (de) | 2013-07-26 | 2015-01-29 | Audi Ag | Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung |
DE102013218917A1 (de) * | 2013-09-20 | 2015-03-26 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung zur Steuerung von Geräten in Fahrzeugen mittels einer Blickrichtungserkennung |
WO2015062762A1 (de) * | 2013-10-31 | 2015-05-07 | Volkswagen Aktiengesellschaft | Bildverarbeitungsvorrichtung, verfahren zur bestimmung von bildinformation und computerprogramm zur durchführung des verfahrens |
DE102013019197A1 (de) * | 2013-11-15 | 2015-05-21 | Audi Ag | Kraftfahrzeug-Klimatisierung mit adaptivem Luftausströmer |
DE102013226012A1 (de) * | 2013-12-16 | 2015-06-18 | Bayerische Motoren Werke Aktiengesellschaft | Bereitstellung eines Bedienelements durch Oberflächenveränderung |
US9069453B2 (en) | 2008-12-04 | 2015-06-30 | Mitsubishi Electric Corporation | Display input device |
DE102014200024A1 (de) * | 2014-01-06 | 2015-07-09 | Volkswagen Aktiengesellschaft | Anzeigebedieneinheit und Verfahren zum Anzeigen zusätzlicher Hinweise auf eine Anzeigeeinheit |
US9103691B2 (en) | 2007-11-12 | 2015-08-11 | Volkswagen Ag | Multimode user interface of a driver assistance system for inputting and presentation of information |
WO2015121175A1 (de) | 2014-02-17 | 2015-08-20 | Volkswagen Aktiengesellschaft | Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei der bedienung einer anwenderschnittstelle |
WO2015121173A1 (de) | 2014-02-17 | 2015-08-20 | Volkswagen Aktiengesellschaft | Anwenderschnittstelle und verfahren zum wechseln von einem ersten bedienmodus einer anwenderschnittstelle in einen 3d-gesten-modus |
WO2015121187A1 (de) | 2014-02-17 | 2015-08-20 | Volkswagen Aktiengesellschaft | Anwenderschnittstelle und verfahren zum berührungslosen bedienen eines in hardware ausgestalteten bedienelementes in einem 3d-gestenmodus |
EP2930603A1 (de) * | 2014-04-07 | 2015-10-14 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug |
WO2015180878A1 (de) | 2014-05-26 | 2015-12-03 | Volkswagen Aktiengesellschaft | Verfahren zum koppeln einer bedieneinrichtung mit einer mobilen einheit, bedieneinrichtung und mobile einheit |
WO2015173271A3 (de) * | 2014-05-16 | 2016-02-04 | Faindu Gmbh | Verfahren zur darstellung einer virtuellen interaktion auf zumindest einem bildschirm und eingabevorrichtung, system und verfahren für eine virtuelle anwendung mittels einer recheneinheit |
WO2016015805A1 (de) * | 2014-07-29 | 2016-02-04 | Daimler Ag | Bediensystem für eine fahrzeugseitige einrichtung |
DE102014216168A1 (de) * | 2014-08-14 | 2016-02-18 | Bayerische Motoren Werke Aktiengesellschaft | Steuerung einer Kommunikationsausgabe einer Diensteinrichtung eines Kraftfahrzeugs |
DE102014017377A1 (de) * | 2014-11-24 | 2016-06-09 | Audi Ag | Verfahren zum Betreiben einer Bedienvorrichtung eines Kraftfahrzeugs |
WO2017040519A1 (en) * | 2015-08-31 | 2017-03-09 | Sri International | Method and system for monitoring driving behaviors |
EP3182250A1 (de) * | 2015-12-18 | 2017-06-21 | Delphi Technologies, Inc. | System und verfahren zur überwachung eines 3d-raums vor einer ausgabeeinheit zur steuerung der ausgabeeinheit |
DE102016201981A1 (de) | 2016-02-10 | 2017-08-10 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Auswählen, Aktivieren oder Deaktivieren einer Funktion in einem Kraftfahrzeug mithilfe einer Bedieneinrichtung und ein Bediensystem |
DE102016007831A1 (de) * | 2016-06-27 | 2017-12-28 | e.solutions GmbH | Technik zur Mensch-Maschine-Kommunikation |
US9858702B2 (en) | 2014-02-12 | 2018-01-02 | Volkswagen Aktiengesellschaft | Device and method for signalling a successful gesture input |
EP3254882A3 (de) * | 2016-04-22 | 2018-03-07 | Volkswagen Aktiengesellschaft | Multifunktionale anzeige- und bedieneinrichtung für ein kraftfahrzeug |
EP3312860A1 (de) * | 2016-10-24 | 2018-04-25 | VEGA Grieshaber KG | Anordnung zum berührungslosen bedienen eines geräts der messtechnik mit einer ein- und ausgabeeinheit und verfahren zum betreiben einer ein- und ausgabeeinheit eines geräts der messtechnik |
DE102017201799A1 (de) | 2017-02-06 | 2018-08-09 | Volkswagen Aktiengesellschaft | Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Anwenderunterscheidung |
DE102012110934B4 (de) | 2011-11-21 | 2019-02-07 | Denso Corporation | Anzeigevorrichtung für Fahrzeuge |
DE102017214000A1 (de) * | 2017-08-10 | 2019-02-14 | Audi Ag | Verfahren zum Betreiben einer Lichtquelle in einem Innenraum eines Kraftfahrzeugs sowie Kraftfahrzeug |
DE102008018279B4 (de) | 2007-04-13 | 2019-04-04 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | System und verfahren zur verwaltung interner komponenten eines fahrzeugs über eine insassenüberwachung |
WO2021004681A1 (de) | 2019-07-08 | 2021-01-14 | Volkswagen Aktiengesellschaft | Verfahren zum betreiben eines bediensystems und bediensystem |
WO2021004683A1 (de) | 2019-07-08 | 2021-01-14 | Volkswagen Aktiengesellschaft | Verfahren und bediensystem zum erfassen einer nutzereingabe für eine einrichtung eines fahrzeugs |
WO2021004682A1 (de) | 2019-07-08 | 2021-01-14 | Volkswagen Aktiengesellschaft | Verfahren zum betreiben eines bediensystems in einem fahrzeug und bediensystem in einem fahrzeug |
DE102013001868B4 (de) * | 2013-02-02 | 2021-03-25 | Audi Ag | Verfahren zum Betreiben eines Kraftwagens per Gestensteuerung sowie Kraftwagen mit einer Gestenerfassungseinrichtung |
DE102008037977B4 (de) * | 2008-08-08 | 2021-07-08 | Volkswagen Ag | Anzeigevorrichtung für ein Fahrzeug und Verfahren zum Anzeigen von Information im Innenraum eines Fahrzeugs |
EP3754460A4 (de) * | 2018-02-14 | 2021-09-22 | Kyocera Corporation | Elektronische vorrichtung, beweglicher körper, programm und steuerverfahren |
US11199420B2 (en) | 2018-04-30 | 2021-12-14 | Audi Ag | Method for dynamically adapting an operating device in a motor vehicle, as well as operating device and motor vehicle |
DE102020122795A1 (de) | 2020-09-01 | 2022-03-03 | Bayerische Motoren Werke Aktiengesellschaft | Bedienung von Funktionen eines Fahrzeugs |
DE102013000069B4 (de) | 2013-01-08 | 2022-08-11 | Audi Ag | Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung |
DE112015002938B4 (de) | 2014-06-23 | 2023-05-25 | Toyota Jidosha Kabushiki Kaisha | Bedienvorrichtung für ein Fahrzeug |
DE102020117352B4 (de) | 2020-07-01 | 2023-06-15 | Audi Aktiengesellschaft | Ablenkungsfreie Projektion von Bediensymbolen im Fahrzeuginterieur |
DE102017206312B4 (de) | 2017-04-12 | 2024-08-01 | Ford Global Technologies, Llc | Unterstützung einer Handhabung eines innerhalb eines Fahrgastinnenraums befindlichen Gegenstands sowie Kraftfahrzeug |
Families Citing this family (292)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7834855B2 (en) | 2004-08-25 | 2010-11-16 | Apple Inc. | Wide touchpad on a portable computer |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US7694231B2 (en) * | 2006-01-05 | 2010-04-06 | Apple Inc. | Keyboards for portable electronic devices |
DE102006037156A1 (de) * | 2006-03-22 | 2007-09-27 | Volkswagen Ag | Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8074172B2 (en) | 2007-01-05 | 2011-12-06 | Apple Inc. | Method, system, and graphical user interface for providing word recommendations |
US7957955B2 (en) * | 2007-01-05 | 2011-06-07 | Apple Inc. | Method and system for providing word recommendations for text input |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8219936B2 (en) * | 2007-08-30 | 2012-07-10 | Lg Electronics Inc. | User interface for a mobile device using a user's gesture in the proximity of an electronic device |
US8432365B2 (en) * | 2007-08-30 | 2013-04-30 | Lg Electronics Inc. | Apparatus and method for providing feedback for three-dimensional touchscreen |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US20090174679A1 (en) * | 2008-01-04 | 2009-07-09 | Wayne Carl Westerman | Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface |
US8232973B2 (en) | 2008-01-09 | 2012-07-31 | Apple Inc. | Method, device, and graphical user interface providing word recommendations for text input |
US9092134B2 (en) * | 2008-02-04 | 2015-07-28 | Nokia Technologies Oy | User touch display interface providing an expanded selection area for a user selectable object |
CN101533320B (zh) * | 2008-03-10 | 2012-04-25 | 神基科技股份有限公司 | 触控显示装置区域影像的近接放大显示方法及其装置 |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
KR101495164B1 (ko) * | 2008-04-10 | 2015-02-24 | 엘지전자 주식회사 | 이동단말기 및 그 화면 처리 방법 |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US8576181B2 (en) * | 2008-05-20 | 2013-11-05 | Lg Electronics Inc. | Mobile terminal using proximity touch and wallpaper controlling method thereof |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
JP4650549B2 (ja) * | 2008-10-06 | 2011-03-16 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US20100095250A1 (en) * | 2008-10-15 | 2010-04-15 | Raytheon Company | Facilitating Interaction With An Application |
US20140033134A1 (en) * | 2008-11-15 | 2014-01-30 | Adobe Systems Incorporated | Various gesture controls for interactions in between devices |
US8294047B2 (en) | 2008-12-08 | 2012-10-23 | Apple Inc. | Selective input signal rejection and modification |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US8289286B2 (en) * | 2008-12-19 | 2012-10-16 | Verizon Patent And Licensing Inc. | Zooming keyboard/keypad |
US8762869B2 (en) * | 2008-12-23 | 2014-06-24 | Intel Corporation | Reduced complexity user interface |
US20100235780A1 (en) * | 2009-03-16 | 2010-09-16 | Westerman Wayne C | System and Method for Identifying Words Based on a Sequence of Keyboard Events |
CN102405463B (zh) * | 2009-04-30 | 2015-07-29 | 三星电子株式会社 | 利用多模态信息的用户意图推理装置及方法 |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10255566B2 (en) | 2011-06-03 | 2019-04-09 | Apple Inc. | Generating and processing task items that represent tasks to perform |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
EP2472374B1 (de) * | 2009-08-24 | 2019-03-20 | Samsung Electronics Co., Ltd. | Verfahren zur bereitstellung einer benutzerschnittstelle |
JP2011077863A (ja) * | 2009-09-30 | 2011-04-14 | Sony Corp | 遠隔操作装置、遠隔操作システム、遠隔操作方法およびプログラム |
JP2011081469A (ja) * | 2009-10-05 | 2011-04-21 | Hitachi Consumer Electronics Co Ltd | 入力装置 |
JP5029673B2 (ja) * | 2009-10-30 | 2012-09-19 | 株式会社デンソー | 車載機 |
US9244533B2 (en) * | 2009-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Camera navigation for presentations |
KR101302134B1 (ko) * | 2009-12-18 | 2013-08-30 | 한국전자통신연구원 | 복합 센서정보 제공 장치 및 방법 |
US20110179355A1 (en) * | 2010-01-15 | 2011-07-21 | Sony Ericsson Mobile Communications Ab | Virtual information input arrangement |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
KR101319264B1 (ko) * | 2010-01-22 | 2013-10-18 | 전자부품연구원 | 멀티 터치 압력에 기반한 ui 제공방법 및 이를 적용한 전자기기 |
US8782556B2 (en) * | 2010-02-12 | 2014-07-15 | Microsoft Corporation | User-centric soft keyboard predictive technologies |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
JP5716009B2 (ja) * | 2010-03-05 | 2015-05-13 | レノボ・イノベーションズ・リミテッド(香港) | 携帯端末装置 |
EP2550579A4 (de) * | 2010-03-24 | 2015-04-22 | Hewlett Packard Development Co | Gestenzuordnung für eine anzeigevorrichtung |
DE102011006344B4 (de) | 2010-03-31 | 2020-03-12 | Joyson Safety Systems Acquisition Llc | Insassenmesssystem |
US9007190B2 (en) | 2010-03-31 | 2015-04-14 | Tk Holdings Inc. | Steering wheel sensors |
US8725230B2 (en) | 2010-04-02 | 2014-05-13 | Tk Holdings Inc. | Steering wheel with hand sensors |
US8982160B2 (en) * | 2010-04-16 | 2015-03-17 | Qualcomm, Incorporated | Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size |
JP2011253292A (ja) * | 2010-06-01 | 2011-12-15 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP5685837B2 (ja) * | 2010-06-15 | 2015-03-18 | ソニー株式会社 | ジェスチャ認識装置、ジェスチャ認識方法およびプログラム |
CH703401B1 (de) * | 2010-07-02 | 2019-04-30 | Ferag Ag | Verfahren und Vorrichtung zum Erzeugen einer Benutzerschnittstelle zum Bedienen von Maschinen. |
US20120050007A1 (en) * | 2010-08-24 | 2012-03-01 | Babak Forutanpour | Methods and apparatus for interacting with an electronic device application by moving an object in the air over an electronic device display |
JP2012118761A (ja) * | 2010-12-01 | 2012-06-21 | Panasonic Corp | 操作入力装置 |
US9389774B2 (en) * | 2010-12-01 | 2016-07-12 | Sony Corporation | Display processing apparatus for performing image magnification based on face detection |
US8405627B2 (en) * | 2010-12-07 | 2013-03-26 | Sony Mobile Communications Ab | Touch input disambiguation |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US8514192B2 (en) * | 2011-01-04 | 2013-08-20 | Ma Lighting Technology Gmbh | Method for operating a lighting control console |
JP2012190261A (ja) * | 2011-03-10 | 2012-10-04 | Panasonic Corp | 近接操作支援装置 |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
JP2012208633A (ja) * | 2011-03-29 | 2012-10-25 | Ntt Docomo Inc | 情報端末、表示制御方法及び表示制御プログラム |
JP5789771B2 (ja) * | 2011-05-27 | 2015-10-07 | パナソニックIpマネジメント株式会社 | 操作入力装置、プログラム |
KR101859099B1 (ko) * | 2011-05-31 | 2018-06-28 | 엘지전자 주식회사 | 휴대 전자기기 및 이의 제어방법 |
US8760395B2 (en) | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
US9471560B2 (en) * | 2011-06-03 | 2016-10-18 | Apple Inc. | Autocorrecting language input for virtual keyboards |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
DE102011119082A1 (de) * | 2011-11-21 | 2013-05-23 | Übi UG (haftungsbeschränkt) | Vorrichtungsanordnung zur Schaffung eines interaktiven Bildschirms aus einem Bildschirm |
US8635637B2 (en) | 2011-12-02 | 2014-01-21 | Microsoft Corporation | User interface presenting an animated avatar performing a media reaction |
US9100685B2 (en) | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
KR101714089B1 (ko) * | 2011-12-16 | 2017-03-09 | 현대자동차주식회사 | 차량 인터랙션 시스템 |
US9965169B2 (en) * | 2011-12-29 | 2018-05-08 | David L. Graumann | Systems, methods, and apparatus for controlling gesture initiation and termination |
CN104040291A (zh) * | 2012-01-12 | 2014-09-10 | 三菱电机株式会社 | 地图显示装置以及地图显示方法 |
JP2013149049A (ja) * | 2012-01-19 | 2013-08-01 | Kyocera Corp | タッチパネル式入力装置 |
EP2634680A1 (de) * | 2012-02-29 | 2013-09-04 | BlackBerry Limited | Grafische Benutzerschnittstelleninteraktion auf eine berührungsempfindlichen Vorrichtung |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
WO2013141161A1 (ja) * | 2012-03-23 | 2013-09-26 | 株式会社エヌ・ティ・ティ・ドコモ | 情報端末、入力受付制御方法及び入力受付制御プログラム |
US8898687B2 (en) | 2012-04-04 | 2014-11-25 | Microsoft Corporation | Controlling a media program based on a media reaction |
JP5754410B2 (ja) * | 2012-04-13 | 2015-07-29 | トヨタ自動車株式会社 | 表示装置 |
WO2013154720A1 (en) | 2012-04-13 | 2013-10-17 | Tk Holdings Inc. | Pressure sensor including a pressure sensitive material for use with control systems and methods of using the same |
JP5828800B2 (ja) | 2012-04-23 | 2015-12-09 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 表示装置、表示制御方法及びプログラム |
US9880710B1 (en) * | 2012-05-03 | 2018-01-30 | Tableau Software, Inc. | Systems and methods for effectively using data controls in a graphical user interface on a small visual display |
US20130293454A1 (en) * | 2012-05-04 | 2013-11-07 | Samsung Electronics Co. Ltd. | Terminal and method for controlling the same based on spatial interaction |
CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9646200B2 (en) | 2012-06-08 | 2017-05-09 | Qualcomm Incorporated | Fast pose detector |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
JP5620440B2 (ja) * | 2012-08-09 | 2014-11-05 | パナソニックインテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 表示制御装置、表示制御方法及びプログラム |
DE102013000817A1 (de) | 2013-01-18 | 2014-07-24 | Volkswagen Aktiengesellschaft | Verfahren und eine Bedien- und Anzeigeeinrichtung zum Betreiben einer interaktiven Bedieneinrichtung |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9696223B2 (en) | 2012-09-17 | 2017-07-04 | Tk Holdings Inc. | Single layer force sensor |
JP5944287B2 (ja) * | 2012-09-19 | 2016-07-05 | アルプス電気株式会社 | 動作予測装置及びそれを用いた入力装置 |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
DE102012021627A1 (de) * | 2012-11-06 | 2014-05-08 | Volkswagen Aktiengesellschaft | Verfahren zum Anzeigen von Informationen in einem Fahrzeug und Vorrichtung zum Steuern der Anzeige |
KR20140061007A (ko) * | 2012-11-13 | 2014-05-21 | 엘지이노텍 주식회사 | 터치 패널 및 이의 입력 방법 |
US9092093B2 (en) * | 2012-11-27 | 2015-07-28 | Neonode Inc. | Steering wheel user interface |
USD755211S1 (en) * | 2012-11-28 | 2016-05-03 | Lg Electronics Inc. | Display screen with graphical user interface |
CN108132713B (zh) * | 2012-12-19 | 2021-06-18 | 原相科技股份有限公司 | 开关装置 |
US20140179348A1 (en) * | 2012-12-21 | 2014-06-26 | Sascha Simon | System and method for determining when smartphone is in vehicle |
US11222534B2 (en) | 2013-12-20 | 2022-01-11 | Sfara, Inc. | System and method for smartphone communication during vehicle mode |
US9910499B2 (en) | 2013-01-11 | 2018-03-06 | Samsung Electronics Co., Ltd. | System and method for detecting three dimensional gestures to initiate and complete the transfer of application data between networked devices |
JP6070211B2 (ja) * | 2013-01-22 | 2017-02-01 | 株式会社リコー | 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム |
DE112014000709B4 (de) | 2013-02-07 | 2021-12-30 | Apple Inc. | Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten |
US8989916B2 (en) | 2013-03-12 | 2015-03-24 | Volkswagen Ag | Vehicle signal lever proximity sensing for lane change intention detection with following recommendation to driver |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
AU2014233517B2 (en) | 2013-03-15 | 2017-05-25 | Apple Inc. | Training an at least partial voice command system |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
US9007321B2 (en) * | 2013-03-25 | 2015-04-14 | Sony Corporation | Method and apparatus for enlarging a display area |
WO2014157894A1 (en) * | 2013-03-27 | 2014-10-02 | Samsung Electronics Co., Ltd. | Display apparatus displaying user interface and method of providing the user interface |
US20140298219A1 (en) * | 2013-03-29 | 2014-10-02 | Microsoft Corporation | Visual Selection and Grouping |
US20140331163A1 (en) * | 2013-05-06 | 2014-11-06 | Caterpillar Inc. | Method to Mark User Definable Limits |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
EP3937002A1 (de) | 2013-06-09 | 2022-01-12 | Apple Inc. | Vorrichtung, verfahren und grafische benutzeroberfläche für gesprächspersistenz über zwei oder mehrere instanzen eines digitalen assistenten |
US9465985B2 (en) | 2013-06-09 | 2016-10-11 | Apple Inc. | Managing real-time handwriting recognition |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
AU2014278595B2 (en) | 2013-06-13 | 2017-04-06 | Apple Inc. | System and method for emergency calls initiated by voice command |
DE112014003653B4 (de) | 2013-08-06 | 2024-04-18 | Apple Inc. | Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen |
US9696882B2 (en) * | 2013-08-28 | 2017-07-04 | Lenovo (Beijing) Co., Ltd. | Operation processing method, operation processing device, and control method |
DE102013014877A1 (de) | 2013-09-06 | 2015-03-12 | Audi Ag | Kraftfahrzeug-Bedieneinrichtung mit selbsterklärender Gestenerkennung |
KR101386248B1 (ko) * | 2013-09-09 | 2014-04-17 | 재단법인 실감교류인체감응솔루션연구단 | 공간 제스처 인식 장치 및 방법 |
US10140782B2 (en) | 2013-10-07 | 2018-11-27 | State Farm Mutual Automobile Insurance Company | Vehicle sharing tool based on vehicle condition assessments |
US10423989B2 (en) | 2013-10-07 | 2019-09-24 | State Farm Mutual Automobile Insurance Company | Systems and methods to assess the condition of a vehicle |
US20150100506A1 (en) * | 2013-10-07 | 2015-04-09 | State Farm Mutual Automobile Insurance Company | Systems and methods to report vehicle ownership information |
FR3013861B1 (fr) * | 2013-11-27 | 2017-06-02 | Airbus Operations Sas | Procede de validation d'une interaction sur une surface tactile par occulometrie |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
KR101976498B1 (ko) * | 2013-12-10 | 2019-05-10 | 현대자동차 주식회사 | 차량용 제스처 인식 시스템 및 그 방법 |
KR101556520B1 (ko) * | 2013-12-11 | 2015-10-02 | 현대자동차주식회사 | 단말기, 그를 가지는 차량 및 그 제어 방법 |
GB2521433A (en) * | 2013-12-19 | 2015-06-24 | Daimler Ag | Predicting an interface control action of a user with an in-vehicle user interface |
JP6190313B2 (ja) * | 2014-04-23 | 2017-08-30 | カシオ計算機株式会社 | 情報処理装置及びプログラム |
DE102014208502A1 (de) * | 2014-05-07 | 2015-11-12 | Volkswagen Aktiengesellschaft | Anwenderschnittstelle und Verfahren zum Wechseln zwischen Bildschirmansichten einer Anwenderschnittstelle |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US9740338B2 (en) | 2014-05-22 | 2017-08-22 | Ubi interactive inc. | System and methods for providing a three-dimensional touch screen |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
KR102263153B1 (ko) * | 2014-05-26 | 2021-06-10 | 엘지전자 주식회사 | 동작 인식 장치 및 그 동작 방법 |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
TWI566107B (zh) | 2014-05-30 | 2017-01-11 | 蘋果公司 | 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置 |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US20150370409A1 (en) * | 2014-06-18 | 2015-12-24 | International Business Machines Corporation | Disambiguation of touch-based gestures |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9725098B2 (en) | 2014-08-11 | 2017-08-08 | Ford Global Technologies, Llc | Vehicle driver identification |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
JP6252409B2 (ja) | 2014-09-02 | 2017-12-27 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10042445B1 (en) * | 2014-09-24 | 2018-08-07 | Amazon Technologies, Inc. | Adaptive display of user interface elements based on proximity sensing |
US9606986B2 (en) | 2014-09-29 | 2017-03-28 | Apple Inc. | Integrated word N-gram and class M-gram language models |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
DE102014016222A1 (de) | 2014-10-31 | 2016-05-04 | Audi Ag | Verfahren und System zum Betreiben einer berührungssensitiven Anzeigeeinrichtung eines Kraftwagens |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
DE102014226553A1 (de) * | 2014-12-19 | 2016-06-23 | Robert Bosch Gmbh | Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug |
EP3040829A1 (de) * | 2015-01-02 | 2016-07-06 | Volkswagen AG | Anwenderschnittstelle und Verfahren zum Betrieb einer Anwenderschnittstelle für ein Fortbewegungsmittel |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10565455B2 (en) * | 2015-04-30 | 2020-02-18 | Ants Technology (Hk) Limited | Methods and systems for audiovisual communication |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
CN105511731A (zh) * | 2015-12-17 | 2016-04-20 | 广东欧珀移动通信有限公司 | 屏幕控制方法及装置 |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
WO2017138702A1 (ko) | 2016-02-12 | 2017-08-17 | 엘지전자 주식회사 | 차량용 사용자 인터페이스 장치 및 차량 |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179374B1 (en) | 2016-06-12 | 2018-05-28 | Apple Inc | Handwriting keyboard for monitors |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US20180107380A1 (en) * | 2016-10-14 | 2018-04-19 | Samsung Electronics Co., Ltd. | System and method for key area correction |
DE102016121107A1 (de) * | 2016-11-04 | 2018-05-09 | Volkswagen Ag | Anordnung einer grafischen Benutzerschnittstelle in einem Fahrzeug und Verfahren zum Bereitstellen einer grafischen Benutzerschnittstelle in einem Fahrzeug |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
CN106775721A (zh) * | 2016-12-16 | 2017-05-31 | 北京奇虎科技有限公司 | 界面互动组件控制方法、装置及可穿戴设备 |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
DE102017200735A1 (de) * | 2017-01-18 | 2018-07-19 | Volkswagen Aktiengesellschaft | Verfahren und Anordnung zur Interaktion mit einem Vorschlagssystem mit automatisierten Bedienhandlungen |
EP3372435B1 (de) * | 2017-03-06 | 2019-08-07 | Volkswagen Aktiengesellschaft | Verfahren und bediensystem zum bereitstellen einer bedienschnittstelle |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
JP6414288B2 (ja) * | 2017-07-20 | 2018-10-31 | トヨタ自動車株式会社 | 車両用操作装置 |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11076039B2 (en) | 2018-06-03 | 2021-07-27 | Apple Inc. | Accelerated task performance |
US20210255764A1 (en) * | 2018-06-26 | 2021-08-19 | Kyocera Corporation | Electronic apparatus, mobile body, program, and control method |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
US11488406B2 (en) | 2019-09-25 | 2022-11-01 | Apple Inc. | Text detection using global geometry estimators |
CN113525090B (zh) * | 2020-04-21 | 2023-12-19 | 北京新能源汽车股份有限公司 | 副仪表板总成的控制方法、副仪表板总成及车辆 |
CN112684970B (zh) * | 2020-12-31 | 2022-11-29 | 腾讯科技(深圳)有限公司 | 虚拟场景的适配显示方法、装置、电子设备及存储介质 |
DE102021100581A1 (de) | 2021-01-13 | 2022-07-14 | Bayerische Motoren Werke Aktiengesellschaft | Vermittlung textueller Informationen |
JP7380635B2 (ja) * | 2021-04-09 | 2023-11-15 | 横河電機株式会社 | プログラム修正支援装置及びプログラム修正支援方法 |
JP2023059050A (ja) * | 2021-10-14 | 2023-04-26 | アルプスアルパイン株式会社 | 入力装置 |
Family Cites Families (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5829782A (en) * | 1993-03-31 | 1998-11-03 | Automotive Technologies International, Inc. | Vehicle interior identification and monitoring system |
US4761641A (en) * | 1983-01-21 | 1988-08-02 | Vidcom Rentservice B.V. | Information display system |
JPH02153415A (ja) | 1988-12-06 | 1990-06-13 | Hitachi Ltd | キーボード装置 |
US6517107B2 (en) * | 1998-06-09 | 2003-02-11 | Automotive Technologies International, Inc. | Methods for controlling a system in a vehicle using a transmitting/receiving transducer and/or while compensating for thermal gradients |
US6279946B1 (en) * | 1998-06-09 | 2001-08-28 | Automotive Technologies International Inc. | Methods for controlling a system in a vehicle using a transmitting/receiving transducer and/or while compensating for thermal gradients |
JPH06321011A (ja) | 1993-05-17 | 1994-11-22 | Mitsubishi Electric Corp | 周辺視野表示装置 |
JP2648558B2 (ja) * | 1993-06-29 | 1997-09-03 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 情報選択装置及び情報選択方法 |
JP3462537B2 (ja) | 1993-09-06 | 2003-11-05 | 株式会社ザナヴィ・インフォマティクス | 車載用ナビゲーションシステム |
DE19529571A1 (de) * | 1995-08-11 | 1997-02-13 | Becker Gmbh | Bediengerät |
JPH1024785A (ja) | 1996-07-08 | 1998-01-27 | Omron Corp | 自動車の空間環境自動調整装置 |
KR100260760B1 (ko) * | 1996-07-31 | 2000-07-01 | 모리 하루오 | 터치패널을 병설한 정보표시장치 |
US6021418A (en) * | 1997-02-18 | 2000-02-01 | International Business Machines Corporation | Apparatus and method for displaying control-objects |
US6137487A (en) * | 1997-02-24 | 2000-10-24 | International Business Machines Corporation | Method and apparatus for manipulating graphical objects in a data processing system |
EP0863381B1 (de) * | 1997-03-07 | 2004-06-02 | Pioneer Electronic Corporation | Navigationsvorrichtung |
JPH10269022A (ja) | 1997-03-25 | 1998-10-09 | Hitachi Ltd | 通信機能付き携帯型情報処理装置 |
US6720949B1 (en) * | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
JP3692759B2 (ja) | 1998-01-19 | 2005-09-07 | 株式会社デンソー | 車両用表示装置 |
DE19829568A1 (de) | 1998-07-02 | 2000-01-05 | Mannesmann Vdo Ag | Bedieneinheit einer fest in einem Fahrzeug installierten Vorrichtung |
US6501515B1 (en) * | 1998-10-13 | 2002-12-31 | Sony Corporation | Remote control system |
US6259436B1 (en) * | 1998-12-22 | 2001-07-10 | Ericsson Inc. | Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch |
US6363160B1 (en) * | 1999-01-22 | 2002-03-26 | Intel Corporation | Interface using pattern recognition and tracking |
US6426761B1 (en) * | 1999-04-23 | 2002-07-30 | Internation Business Machines Corporation | Information presentation system for a graphical user interface |
WO2000075766A1 (en) | 1999-06-02 | 2000-12-14 | Ncr International, Inc. | Self-service terminal |
JP3773716B2 (ja) * | 1999-09-13 | 2006-05-10 | 富士通株式会社 | グラフィカルユーザインターフェース表示装置及びその装置での処理をコンピュータにて行なわせるためのプログラムを格納した記録媒体 |
DE19951001C2 (de) | 1999-10-22 | 2003-06-18 | Bosch Gmbh Robert | Vorrichtung zur Darstellung von Informationen in einem Fahrzeug |
US7920102B2 (en) * | 1999-12-15 | 2011-04-05 | Automotive Technologies International, Inc. | Vehicular heads-up display system |
DE10022321A1 (de) * | 2000-05-09 | 2001-11-15 | Bayerische Motoren Werke Ag | Vorrichtung in Fahrzeugen zum Erkennen einer Handstellung |
US6640222B1 (en) | 2000-09-29 | 2003-10-28 | Motorola, Inc. | Method for selecting an information unit among conflicting information units based on context fields by a user device |
RU2220057C2 (ru) | 2001-04-24 | 2003-12-27 | Беседин Эдуард Викторович | Панель управления климатической установкой |
JP2002358162A (ja) | 2001-06-01 | 2002-12-13 | Sony Corp | 画像表示装置 |
US20090040184A9 (en) * | 2001-10-04 | 2009-02-12 | Infogation Corporation | Information entry mechanism |
US7283992B2 (en) * | 2001-11-30 | 2007-10-16 | Microsoft Corporation | Media agent to suggest contextually related media content |
US7130835B2 (en) * | 2002-03-28 | 2006-10-31 | Bausch & Lomb Incorporated | System and method for predictive ophthalmic correction |
DE50310654D1 (de) | 2002-08-15 | 2008-11-27 | Ident Technology Ag | Schaltungsanordnung zur selektiven schaltsignalgenerierung |
CN101673181A (zh) * | 2002-11-29 | 2010-03-17 | 皇家飞利浦电子股份有限公司 | 具有触摸区域的移动表示的用户界面 |
JP4172307B2 (ja) * | 2003-03-31 | 2008-10-29 | 富士ゼロックス株式会社 | 3次元指示入力装置 |
JP2004334590A (ja) * | 2003-05-08 | 2004-11-25 | Denso Corp | 操作入力装置 |
JP4354217B2 (ja) | 2003-06-11 | 2009-10-28 | クラリオン株式会社 | 道路標識等表示装置 |
JP3752246B2 (ja) | 2003-08-11 | 2006-03-08 | 学校法人慶應義塾 | ハンドパターンスイッチ装置 |
US9274598B2 (en) * | 2003-08-25 | 2016-03-01 | International Business Machines Corporation | System and method for selecting and activating a target object using a combination of eye gaze and key presses |
EP1557744B1 (de) * | 2004-01-20 | 2008-04-16 | Sony Deutschland GmbH | Haptische tastengesteuerte Dateneingabe |
JP4566596B2 (ja) * | 2004-03-29 | 2010-10-20 | アルパイン株式会社 | 操作指示装置 |
JP4855654B2 (ja) * | 2004-05-31 | 2012-01-18 | ソニー株式会社 | 車載装置、車載装置の情報提供方法、車載装置の情報提供方法のプログラム及び車載装置の情報提供方法のプログラムを記録した記録媒体 |
WO2006003588A2 (en) | 2004-06-29 | 2006-01-12 | Koninklijke Philips Electronics N.V. | Multi-layered display of a graphical user interface |
WO2006003586A2 (en) * | 2004-06-29 | 2006-01-12 | Koninklijke Philips Electronics, N.V. | Zooming in 3-d touch interaction |
WO2006003591A2 (en) | 2004-06-29 | 2006-01-12 | Koninklijke Philips Electronics, N.V. | Discontinuous zoom |
JP2006029827A (ja) * | 2004-07-12 | 2006-02-02 | Fujitsu Media Device Kk | 慣性センサ |
JP2006031499A (ja) * | 2004-07-20 | 2006-02-02 | Denso Corp | 情報入力表示装置 |
JP2006039953A (ja) | 2004-07-27 | 2006-02-09 | Denso Corp | 画像合成装置、ディスプレイ装置およびナビゲーション装置 |
JP2006059238A (ja) * | 2004-08-23 | 2006-03-02 | Denso Corp | 情報入力表示装置 |
JP4351599B2 (ja) * | 2004-09-03 | 2009-10-28 | パナソニック株式会社 | 入力装置 |
DE102004045885A1 (de) | 2004-09-22 | 2006-03-23 | Volkswagen Ag | Bedienelement für ein Kraftfahrzeug |
US8117623B1 (en) * | 2004-11-18 | 2012-02-14 | Adobe Systems Incorporated | System and method for providing notices to users of a computer program in a flexible way |
KR20060070280A (ko) * | 2004-12-20 | 2006-06-23 | 한국전자통신연구원 | 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법 |
US7616191B2 (en) * | 2005-04-18 | 2009-11-10 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Electronic device and method for simplifying text entry using a soft keyboard |
US8543906B2 (en) * | 2005-06-29 | 2013-09-24 | Xerox Corporation | Probabilistic learning method for XML annotation of documents |
US7443316B2 (en) * | 2005-09-01 | 2008-10-28 | Motorola, Inc. | Entering a character into an electronic device |
US7697827B2 (en) * | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
DE102006037156A1 (de) * | 2006-03-22 | 2007-09-27 | Volkswagen Ag | Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung |
WO2007145190A1 (ja) * | 2006-06-12 | 2007-12-21 | Panasonic Corporation | ナビゲーション装置及びナビゲーション方法 |
US8086971B2 (en) * | 2006-06-28 | 2011-12-27 | Nokia Corporation | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications |
US20110109745A1 (en) * | 2008-07-07 | 2011-05-12 | Yuzuru Nakatani | Vehicle traveling environment detection device |
US8917189B2 (en) * | 2009-01-13 | 2014-12-23 | Toyota Jidosha Kabushiki Kaisha | Driving assistance Device |
-
2006
- 2006-08-02 DE DE102006037156A patent/DE102006037156A1/de not_active Ceased
-
2007
- 2007-03-22 JP JP2009500776A patent/JP5275970B2/ja not_active Expired - Fee Related
- 2007-03-22 KR KR1020087017681A patent/KR101367593B1/ko active IP Right Grant
- 2007-03-22 EP EP07723507A patent/EP1998996B1/de active Active
- 2007-03-22 CN CN201610366526.0A patent/CN106427571B/zh active Active
- 2007-03-22 WO PCT/EP2007/002553 patent/WO2007107368A1/de active Application Filing
- 2007-03-22 US US12/294,022 patent/US9671867B2/en active Active
-
2012
- 2012-03-23 JP JP2012066805A patent/JP2012178161A/ja not_active Withdrawn
Cited By (139)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1947548A1 (de) | 2006-12-27 | 2008-07-23 | Takata Corporation | Bediensystem zum Bedienen von Funktionen in einem Fahrzeug und Fahrzeug |
US7983475B2 (en) | 2006-12-27 | 2011-07-19 | Takata Corporation | Vehicular actuation system |
DE102008018279B4 (de) | 2007-04-13 | 2019-04-04 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | System und verfahren zur verwaltung interner komponenten eines fahrzeugs über eine insassenüberwachung |
EP2058162A3 (de) * | 2007-11-08 | 2013-06-05 | Volkswagen Aktiengesellschaft | Multifunktionsanzeige- und Bediensystem und Verfahren zum Bedienen von Funktionen oder Fahrzeugsystemen mit einem assistierten Bedienmodus |
US9103691B2 (en) | 2007-11-12 | 2015-08-11 | Volkswagen Ag | Multimode user interface of a driver assistance system for inputting and presentation of information |
EP2240843A1 (de) * | 2007-12-31 | 2010-10-20 | Motorola, Inc. | Verfahren und vorrichtung für zweihändige computerschnittstelle mit gestenerkennung |
EP2240843A4 (de) * | 2007-12-31 | 2011-12-14 | Motorola Mobility Inc | Verfahren und vorrichtung für zweihändige computerschnittstelle mit gestenerkennung |
DE102008005106B4 (de) | 2008-01-14 | 2023-01-05 | Bcs Automotive Interface Solutions Gmbh | Bedienvorrichtung für ein Kraftfahrzeug |
DE102008005106A1 (de) | 2008-01-14 | 2009-07-16 | Trw Automotive Electronics & Components Gmbh | Bedienvorrichtung für ein Kraftfahrzeug |
DE102008004970B4 (de) * | 2008-01-17 | 2020-11-19 | Volkswagen Ag | Bediensystem mit positionsveränderlicher Bedieneinheit und Verfahren zum Betreiben einer Bedieneinheit |
DE102008004970A1 (de) | 2008-01-17 | 2009-07-23 | Volkswagen Ag | Bediensystem mit positionsveränderlicher Bedieneinheit und Verfahren zum Betreiben einer Bedieneinheit |
DE102008017986A1 (de) | 2008-04-04 | 2009-10-08 | Volkswagen Ag | Auswahl von Anzeigemodi "Skins" für ein Infotainmentsystem |
EP2107456A1 (de) | 2008-04-04 | 2009-10-07 | Volkswagen AG | Auswahl von Anzeigenmodi "SKINS" für ein Infotainmentsystem |
DE102008023505B4 (de) * | 2008-05-09 | 2021-02-04 | Volkswagen Ag | Unterstützung eines Infotainment-Systems durch Farbcodierung |
DE102008023505A1 (de) | 2008-05-09 | 2009-11-12 | Volkswagen Ag | Unterstützung eines Infotainment-Systems durch Farbcodierung |
CN102089626A (zh) * | 2008-07-09 | 2011-06-08 | 大众汽车有限公司 | 用于运行用于车辆的操作系统的方法和用于车辆的操作系统 |
EP2574881A1 (de) | 2008-07-09 | 2013-04-03 | Volkswagen Aktiengesellschaft | Verfahren zum Betrieb eines Bediensystems für ein Fahrzeug und Bediensystem für ein Fahrzeug |
WO2010003471A1 (de) | 2008-07-09 | 2010-01-14 | Volkswagen Aktiengesellschaft | Verfahren zum betrieb eines bediensystems für ein fahrzeug und bediensystem für ein fahrzeug |
CN102089626B (zh) * | 2008-07-09 | 2013-09-11 | 大众汽车有限公司 | 用于运行用于车辆的操作系统的方法和用于车辆的操作系统 |
US9041674B2 (en) | 2008-07-09 | 2015-05-26 | Volkswagen Ag | Method for operating a control system for a vehicle and control system for a vehicle |
US8564560B2 (en) | 2008-07-09 | 2013-10-22 | Volkswagen Ag | Method for operating a control system for a vehicle and control system for a vehicle |
WO2010009915A1 (de) | 2008-07-21 | 2010-01-28 | Siemens Aktiengesellschaft | Verfahren und vorrichtung zum steuern eines systems |
DE102008037977B4 (de) * | 2008-08-08 | 2021-07-08 | Volkswagen Ag | Anzeigevorrichtung für ein Fahrzeug und Verfahren zum Anzeigen von Information im Innenraum eines Fahrzeugs |
EP2163975A3 (de) * | 2008-09-12 | 2010-10-27 | Sony Corporation | Informationsverarbeitung |
US9569106B2 (en) | 2008-09-12 | 2017-02-14 | Sony Corporation | Information processing apparatus, information processing method and computer program |
US8471825B2 (en) | 2008-09-12 | 2013-06-25 | Sony Corporation | Information processing apparatus, information processing method and computer program |
US8860680B2 (en) | 2008-09-12 | 2014-10-14 | Sony Corporation | Information processing apparatus, information processing method and computer program |
DE102008048821A1 (de) | 2008-09-22 | 2010-03-25 | Volkswagen Ag | Bedienvorrichtung und Verfahren zum Betreiben einer Bedienvorrichtung mit verbesserter Annäherungserfassung |
CN102159419A (zh) * | 2008-09-22 | 2011-08-17 | 大众汽车有限公司 | 在用户可影响显示对象的呈现的车辆中的显示和操作系统以及运行这种显示和操作系统的方法 |
KR101503108B1 (ko) | 2008-09-22 | 2015-03-16 | 폭스바겐 악티엔 게젤샤프트 | 사용자가 디스플레이 객체의 표시에 영향을 미칠 수 있는 자동차의 디스플레이 및 조작 시스템과 그 디스플레이 및 조작 시스템을 작동하는 방법 |
US8976125B2 (en) | 2008-09-22 | 2015-03-10 | Volkswagen Ag | Operator control apparatus and method for operating an operator control apparatus with improved approach sensing |
DE102008048826A9 (de) | 2008-09-22 | 2010-07-15 | Volkswagen Ag | Verfahren zum Bestimmen eines Kalibrierwerts einer Anzeige- und Bedienvorrichtung sowie Anzeige- und Bedienvorrichtung in einem Kraftfahrzeug |
DE102008048825A9 (de) * | 2008-09-22 | 2010-07-15 | Volkswagen Ag | Anzeige- und Bediensystem in einem Kraftfahrzeug mit nutzerbeeinflussbarer Darstellung von Anzeigeobjekten sowie Verfahren zum Betreiben eines solchen Anzeige- und Bediensystems |
CN102159419B (zh) * | 2008-09-22 | 2014-07-02 | 大众汽车有限公司 | 在用户可影响显示对象的呈现的车辆中的显示和操作系统以及运行这种显示和操作系统的方法 |
WO2010031454A1 (de) | 2008-09-22 | 2010-03-25 | Volkswagen Ag | Anzeige- und bediensystem in einem kraftfahrzeug mit nutzerbeeinflussbarer darstellung von anzeigeobjekten sowie verfahren zum betreiben eines solchen anzeige- und bediensystems |
DE102008048826A1 (de) | 2008-09-22 | 2010-03-25 | Volkswagen Ag | Verfahren zum Bestimmen eines Kalibrierwerts einer Anzeige- und Bedienvorrichtung sowie Anzeige- und Bedienvorrichtung in einem Kraftfahrzeug |
WO2010031565A2 (de) | 2008-09-22 | 2010-03-25 | Volkswagen Ag | Bedienvorrichtung und verfahren zum betreiben einer bedienvorrichtung mit verbesserter annäherungserfassung |
DE102009048043A1 (de) | 2008-10-15 | 2010-04-22 | Volkswagen Ag | Multifunktionsanzeige- und Bediensystem sowie Verfahren zum Steuern eines solchen Systems mit optimierter grafischer Bediendarstellung |
US8907778B2 (en) | 2008-10-15 | 2014-12-09 | Volkswagen Ag | Multi-function display and operating system and method for controlling such a system having optimized graphical operating display |
US9069453B2 (en) | 2008-12-04 | 2015-06-30 | Mitsubishi Electric Corporation | Display input device |
DE112009002612B4 (de) * | 2008-12-04 | 2015-07-23 | Mitsubishi Electric Corporation | Anzeige-Eingabevorrichtung, Navigationssystem mit einer Anzeige-Eingabevorrichtung sowie Fahrzeuginformationssystem mit einer Anzeige-Eingabevorrichtung |
US8890819B2 (en) | 2009-03-31 | 2014-11-18 | Mitsubishi Electric Corporation | Display input device and vehicle-mounted information equipment |
US9475390B2 (en) | 2009-07-07 | 2016-10-25 | Volkswagen Ag | Method and device for providing a user interface in a vehicle |
WO2011003947A1 (de) * | 2009-07-07 | 2011-01-13 | Volkswagen Ag | Verfahren und vorrichtung zum bereitstellen einer benutzerschnittstelle in einem fahrzeug |
DE102009036369A1 (de) | 2009-08-06 | 2011-02-10 | Volkswagen Ag | Verfahren zum Betreiben einer Bedienvorrichtung und Bedienvorrichtung in einem Fahrzeug |
DE102009036368A1 (de) * | 2009-08-06 | 2011-02-10 | Volkswagen Ag | Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug |
WO2011015570A1 (de) | 2009-08-06 | 2011-02-10 | Volkswagen Ag | Verfahren zum betreiben einer bedienvorrichtung und bedienvorrichtung in einem fahrzeug |
US8667424B2 (en) | 2009-08-26 | 2014-03-04 | Mitac International Corp. | Method of spreading out and displaying closely located points of interest on a personal navigation device |
DE102009038895A1 (de) * | 2009-08-26 | 2010-09-16 | Audi Ag | Verfahren zum Unterstützen eines Bedienens von zumindest einer Einrichtung eines Fahrzeugs |
DE102009048937A1 (de) * | 2009-10-10 | 2011-04-14 | Volkswagen Ag | Multiview-Anzeige- und Bedienvorrichtung mit Nutzerunterscheidung |
DE102009049110B4 (de) | 2009-10-12 | 2022-12-01 | Volkswagen Ag | Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug |
DE102009049110A1 (de) | 2009-10-12 | 2011-04-14 | Volkswagen Ag | Verfahren zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug |
US9713990B2 (en) | 2010-02-02 | 2017-07-25 | Dav | Haptic feedback module designed to be integrated into an automobile vehicle for a mobile device and corresponding control device |
WO2011095709A3 (fr) * | 2010-02-02 | 2011-11-03 | Dav | Module de retour haptique destiné à être intégré dans un véhicule automobile pour dispositif nomade et dispositif de commande correspondant |
DE102010053788A1 (de) | 2010-12-08 | 2012-06-14 | Volkswagen Ag | Verfahren zum Betreiben einer Bedienvorrichtung und Bedienvorrichtung in einem Fahrzeug |
US9442619B2 (en) | 2011-02-19 | 2016-09-13 | Volkswagen Ag | Method and device for providing a user interface, in particular in a vehicle |
WO2012110207A1 (de) | 2011-02-19 | 2012-08-23 | Volkswagen Aktiengesellschaft | Verfahren und vorrichtung zum bereitstellen einer benutzerschnittstelle, insbesondere in einem fahrzeug |
DE102011011802A1 (de) | 2011-02-19 | 2012-08-23 | Volkswagen Ag | Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle, insbesondere in einem Fahrzeug |
US9499052B2 (en) | 2011-10-15 | 2016-11-22 | Volkswagen Ag | Method for providing an operating device in a vehicle and operating device |
US10052955B2 (en) | 2011-10-15 | 2018-08-21 | Volkswagen Ag | Method for providing an operating device in a vehicle and operating device |
WO2013053465A1 (de) * | 2011-10-15 | 2013-04-18 | Volkswagen Aktiengesellschaft | Verfahren zum bereitstellen einer bedienvorrichtung in einem fahrzeug und bedienvorrichtung |
DE102012110934B4 (de) | 2011-11-21 | 2019-02-07 | Denso Corporation | Anzeigevorrichtung für Fahrzeuge |
DE102011122616A1 (de) * | 2011-12-23 | 2013-06-27 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Bereitstellen einer Einparkhilfe in einem Fahrzeug |
EP2608185A1 (de) * | 2011-12-23 | 2013-06-26 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Bereitstellen einer Einparkhilfe in einem Fahrzeug |
US9440537B2 (en) | 2012-01-09 | 2016-09-13 | Daimler Ag | Method and device for operating functions displayed on a display unit of a vehicle using gestures which are carried out in a three-dimensional space, and corresponding computer program product |
WO2013104390A1 (de) * | 2012-01-09 | 2013-07-18 | Daimler Ag | Verfahren und vorrichtung zum bedienen von auf einer anzeigeeinheit eines fahrzeugs angezeigten funktionen unter verwendung von im dreidimensionalen raum ausgeführten gesten sowie betreffendes computerprogrammprodukt |
DE102012011177A1 (de) * | 2012-06-06 | 2013-12-24 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Verfahren zur Bedienung von Funktionen einesFahrzeuges sowie entsprechende Vorrichtung |
US10331271B2 (en) | 2012-08-01 | 2019-06-25 | Volkswagen Ag | Displaying and operating device and method for controlling a displaying and operating device |
WO2014019884A1 (de) * | 2012-08-01 | 2014-02-06 | Volkswagen Aktiengesellschaft | Anzeige- und bedieneinrichtung und verfahren zur ansteuerung einer anzeige- und bedieneinrichtung |
WO2014026862A1 (de) * | 2012-08-16 | 2014-02-20 | Volkswagen Aktiengesellschaft | Verfahren und ein bedien- und anzeigeeinrichtung zum betreiben einer interaktiven bedieneinrichtung |
WO2014040856A1 (de) * | 2012-09-13 | 2014-03-20 | Bayerische Motoren Werke Aktiengesellschaft | Berührungseingaben über schwellen auf berührungsempfindlichen anzeigen |
DE102012218843A1 (de) * | 2012-10-16 | 2014-04-17 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung |
DE102012020855A1 (de) * | 2012-10-24 | 2014-04-24 | GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) | Verfahren zum Anpassen einer Einstellung eines Fahrzeugsitzes und Fahrzeug mit zu-mindest einem Fahrzeugsitz |
DE102012022321A1 (de) * | 2012-11-15 | 2014-05-15 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Verfahren zum Betreiben eines Fahrzeugs und Fahrzeug |
WO2014090625A1 (de) * | 2012-12-11 | 2014-06-19 | Volkswagen Aktiengesellschaft | Bedienverfahren und bedienvorrichtung |
DE102013007329A1 (de) | 2013-01-04 | 2014-07-10 | Volkswagen Aktiengesellschaft | Verfahren zum Betreiben einer Bedienvorrichtung in einem Fahrzeug |
US9804744B2 (en) | 2013-01-04 | 2017-10-31 | Volkswagen Ag | Method for operating a control device in a vehicle |
DE102013000080A1 (de) * | 2013-01-08 | 2014-07-10 | Audi Ag | Aktivierung einer Kraftfahrzeugfunktion mittels eines optischen Sensors |
DE102013000083A1 (de) | 2013-01-08 | 2014-07-10 | Audi Ag | Kraftfahrzeug mit einer personenspezifischen Bedienschnittstelle |
DE102013000069B4 (de) | 2013-01-08 | 2022-08-11 | Audi Ag | Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung |
DE102013000080B4 (de) * | 2013-01-08 | 2015-08-27 | Audi Ag | Aktivierung einer Kraftfahrzeugfunktion mittels eines optischen Sensors |
US11099715B2 (en) | 2013-01-10 | 2021-08-24 | Volkswagen Ag | Method and device for providing a user interface in a vehicle |
DE102013000880A1 (de) * | 2013-01-10 | 2014-07-10 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zu Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug |
DE102013200457B4 (de) | 2013-01-15 | 2023-08-17 | Preh Gmbh | Bedienvorrichtung für ein Kraftfahrzeug mit einer Gestenüberwachungseinheit |
DE102013200457A1 (de) * | 2013-01-15 | 2014-07-17 | Preh Gmbh | Bedienvorrichtung für ein Kraftfahrzeug mit einer Gestenüberwachungseinheit |
DE102013001330A1 (de) * | 2013-01-26 | 2014-07-31 | Audi Ag | Verfahren zum Betreiben einer Lüftereinrichtung eines Kraftwagens sowie Kraftwagen |
DE102013001868B4 (de) * | 2013-02-02 | 2021-03-25 | Audi Ag | Verfahren zum Betreiben eines Kraftwagens per Gestensteuerung sowie Kraftwagen mit einer Gestenerfassungseinrichtung |
DE102013002280A1 (de) | 2013-02-08 | 2014-08-14 | Audi Ag | Verfahren zum Betreiben einer Anzeigevorrichtung eines Kraftwagens sowie Kraftwagen mit einer solchen Anzeigevorrichtung |
WO2014206558A1 (de) | 2013-06-29 | 2014-12-31 | Audi Ag | Kraftfahrzeug-bedienschnittstelle mit gestenerkennung |
US9738158B2 (en) | 2013-06-29 | 2017-08-22 | Audi Ag | Motor vehicle control interface with gesture recognition |
DE102013010932A1 (de) | 2013-06-29 | 2014-12-31 | Audi Ag | Verfahren zum Betreiben einer Bedienschnittstelle, Bedienschnittstelle sowie Kraftfahrzeug mit einer Bedienschnittstelle |
DE102013012466A1 (de) | 2013-07-26 | 2015-01-29 | Audi Ag | Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung |
DE102013218917A1 (de) * | 2013-09-20 | 2015-03-26 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung zur Steuerung von Geräten in Fahrzeugen mittels einer Blickrichtungserkennung |
WO2015062762A1 (de) * | 2013-10-31 | 2015-05-07 | Volkswagen Aktiengesellschaft | Bildverarbeitungsvorrichtung, verfahren zur bestimmung von bildinformation und computerprogramm zur durchführung des verfahrens |
DE102013019197A1 (de) * | 2013-11-15 | 2015-05-21 | Audi Ag | Kraftfahrzeug-Klimatisierung mit adaptivem Luftausströmer |
DE102013226012A1 (de) * | 2013-12-16 | 2015-06-18 | Bayerische Motoren Werke Aktiengesellschaft | Bereitstellung eines Bedienelements durch Oberflächenveränderung |
US10768709B2 (en) | 2014-01-06 | 2020-09-08 | Volkswagen Ag | Display operator control unit and method for displaying additional instructions on a display unit |
DE102014200024A1 (de) * | 2014-01-06 | 2015-07-09 | Volkswagen Aktiengesellschaft | Anzeigebedieneinheit und Verfahren zum Anzeigen zusätzlicher Hinweise auf eine Anzeigeeinheit |
US9858702B2 (en) | 2014-02-12 | 2018-01-02 | Volkswagen Aktiengesellschaft | Device and method for signalling a successful gesture input |
DE102014202834A1 (de) | 2014-02-17 | 2015-09-03 | Volkswagen Aktiengesellschaft | Anwenderschnittstelle und Verfahren zum berührungslosen Bedienen eines in Hardware ausgestalteten Bedienelementes in einem 3D-Gestenmodus |
WO2015121173A1 (de) | 2014-02-17 | 2015-08-20 | Volkswagen Aktiengesellschaft | Anwenderschnittstelle und verfahren zum wechseln von einem ersten bedienmodus einer anwenderschnittstelle in einen 3d-gesten-modus |
US11119576B2 (en) | 2014-02-17 | 2021-09-14 | Volkswagen Aktiengesellschaft | User interface and method for contactlessly operating a hardware operating element in a 3-D gesture mode |
DE102014202833A1 (de) | 2014-02-17 | 2015-08-20 | Volkswagen Aktiengesellschaft | Anwenderschnittstelle und Verfahren zum Wechseln von einem ersten Bedienmodus einer Anwenderschnittstelle in einen 3D-Gesten-Modus |
WO2015121175A1 (de) | 2014-02-17 | 2015-08-20 | Volkswagen Aktiengesellschaft | Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei der bedienung einer anwenderschnittstelle |
WO2015121187A1 (de) | 2014-02-17 | 2015-08-20 | Volkswagen Aktiengesellschaft | Anwenderschnittstelle und verfahren zum berührungslosen bedienen eines in hardware ausgestalteten bedienelementes in einem 3d-gestenmodus |
DE102014202836A1 (de) | 2014-02-17 | 2015-08-20 | Volkswagen Aktiengesellschaft | Anwenderschnittstelle und Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer Anwenderschnittstelle |
EP2930603A1 (de) * | 2014-04-07 | 2015-10-14 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug |
US10928929B2 (en) | 2014-05-16 | 2021-02-23 | Faindu Gmbh | Method for displaying a virtual interaction on at least one screen and input device, system and method for a virtual application by means of a computing unit |
WO2015173271A3 (de) * | 2014-05-16 | 2016-02-04 | Faindu Gmbh | Verfahren zur darstellung einer virtuellen interaktion auf zumindest einem bildschirm und eingabevorrichtung, system und verfahren für eine virtuelle anwendung mittels einer recheneinheit |
DE102014209983A1 (de) | 2014-05-26 | 2015-12-17 | Volkswagen Aktiengesellschaft | Verfahren zum Koppeln einer Bedieneinrichtung mit einer mobilen Einheit, Bedieneinrichtung und mobile Einheit |
WO2015180878A1 (de) | 2014-05-26 | 2015-12-03 | Volkswagen Aktiengesellschaft | Verfahren zum koppeln einer bedieneinrichtung mit einer mobilen einheit, bedieneinrichtung und mobile einheit |
DE102014209983B4 (de) | 2014-05-26 | 2023-05-04 | Volkswagen Aktiengesellschaft | Verfahren zum Koppeln einer Bedieneinrichtung mit einer mobilen Einheit, Bedieneinrichtung und mobile Einheit |
DE112015002938B4 (de) | 2014-06-23 | 2023-05-25 | Toyota Jidosha Kabushiki Kaisha | Bedienvorrichtung für ein Fahrzeug |
WO2016015805A1 (de) * | 2014-07-29 | 2016-02-04 | Daimler Ag | Bediensystem für eine fahrzeugseitige einrichtung |
DE102014216168A1 (de) * | 2014-08-14 | 2016-02-18 | Bayerische Motoren Werke Aktiengesellschaft | Steuerung einer Kommunikationsausgabe einer Diensteinrichtung eines Kraftfahrzeugs |
US9798422B2 (en) | 2014-11-24 | 2017-10-24 | Audi Ag | Method for operating a pressure-sensitive control panel of a motor vehicle |
DE102014017377A1 (de) * | 2014-11-24 | 2016-06-09 | Audi Ag | Verfahren zum Betreiben einer Bedienvorrichtung eines Kraftfahrzeugs |
DE102014017377B4 (de) * | 2014-11-24 | 2017-04-20 | Audi Ag | Verfahren zum Betreiben einer Bedienvorrichtung eines Kraftfahrzeugs sowie Bedienvorrichtung |
US10769459B2 (en) | 2015-08-31 | 2020-09-08 | Sri International | Method and system for monitoring driving behaviors |
WO2017040519A1 (en) * | 2015-08-31 | 2017-03-09 | Sri International | Method and system for monitoring driving behaviors |
US10031624B2 (en) | 2015-12-18 | 2018-07-24 | Delphi Technologies, Inc. | System and method for monitoring 3D space in front of an output unit for the control of the output unit |
EP3182250A1 (de) * | 2015-12-18 | 2017-06-21 | Delphi Technologies, Inc. | System und verfahren zur überwachung eines 3d-raums vor einer ausgabeeinheit zur steuerung der ausgabeeinheit |
DE102016201981A1 (de) | 2016-02-10 | 2017-08-10 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Auswählen, Aktivieren oder Deaktivieren einer Funktion in einem Kraftfahrzeug mithilfe einer Bedieneinrichtung und ein Bediensystem |
EP3254882A3 (de) * | 2016-04-22 | 2018-03-07 | Volkswagen Aktiengesellschaft | Multifunktionale anzeige- und bedieneinrichtung für ein kraftfahrzeug |
DE102016007831A1 (de) * | 2016-06-27 | 2017-12-28 | e.solutions GmbH | Technik zur Mensch-Maschine-Kommunikation |
EP3312860A1 (de) * | 2016-10-24 | 2018-04-25 | VEGA Grieshaber KG | Anordnung zum berührungslosen bedienen eines geräts der messtechnik mit einer ein- und ausgabeeinheit und verfahren zum betreiben einer ein- und ausgabeeinheit eines geräts der messtechnik |
DE102017201799A1 (de) | 2017-02-06 | 2018-08-09 | Volkswagen Aktiengesellschaft | Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Anwenderunterscheidung |
DE102017206312B4 (de) | 2017-04-12 | 2024-08-01 | Ford Global Technologies, Llc | Unterstützung einer Handhabung eines innerhalb eines Fahrgastinnenraums befindlichen Gegenstands sowie Kraftfahrzeug |
DE102017214000A1 (de) * | 2017-08-10 | 2019-02-14 | Audi Ag | Verfahren zum Betreiben einer Lichtquelle in einem Innenraum eines Kraftfahrzeugs sowie Kraftfahrzeug |
DE102017214000B4 (de) | 2017-08-10 | 2019-04-25 | Audi Ag | Verfahren zum Betreiben einer Lichtquelle in einem Innenraum eines Kraftfahrzeugs sowie Kraftfahrzeug |
US11307669B2 (en) | 2018-02-14 | 2022-04-19 | Kyocera Corporation | Electronic device, moving body, program and control method |
EP3754460A4 (de) * | 2018-02-14 | 2021-09-22 | Kyocera Corporation | Elektronische vorrichtung, beweglicher körper, programm und steuerverfahren |
US11199420B2 (en) | 2018-04-30 | 2021-12-14 | Audi Ag | Method for dynamically adapting an operating device in a motor vehicle, as well as operating device and motor vehicle |
DE102018206653B4 (de) | 2018-04-30 | 2024-06-13 | Audi Ag | Verfahren zum dynamischen Anpassen einer Bedienvorrichtung in einem Kraftfahrzeug sowie Bedienvorrichtung und Kraftfahrzeug |
WO2021004681A1 (de) | 2019-07-08 | 2021-01-14 | Volkswagen Aktiengesellschaft | Verfahren zum betreiben eines bediensystems und bediensystem |
WO2021004683A1 (de) | 2019-07-08 | 2021-01-14 | Volkswagen Aktiengesellschaft | Verfahren und bediensystem zum erfassen einer nutzereingabe für eine einrichtung eines fahrzeugs |
WO2021004682A1 (de) | 2019-07-08 | 2021-01-14 | Volkswagen Aktiengesellschaft | Verfahren zum betreiben eines bediensystems in einem fahrzeug und bediensystem in einem fahrzeug |
DE102020117352B4 (de) | 2020-07-01 | 2023-06-15 | Audi Aktiengesellschaft | Ablenkungsfreie Projektion von Bediensymbolen im Fahrzeuginterieur |
DE102020122795A1 (de) | 2020-09-01 | 2022-03-03 | Bayerische Motoren Werke Aktiengesellschaft | Bedienung von Funktionen eines Fahrzeugs |
Also Published As
Publication number | Publication date |
---|---|
JP2009530726A (ja) | 2009-08-27 |
US9671867B2 (en) | 2017-06-06 |
KR20080108970A (ko) | 2008-12-16 |
KR101367593B1 (ko) | 2014-02-25 |
CN106427571B (zh) | 2020-07-17 |
JP5275970B2 (ja) | 2013-08-28 |
US20090327977A1 (en) | 2009-12-31 |
EP1998996B1 (de) | 2012-06-13 |
CN106427571A (zh) | 2017-02-22 |
JP2012178161A (ja) | 2012-09-13 |
WO2007107368A1 (de) | 2007-09-27 |
EP1998996A1 (de) | 2008-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1998996B1 (de) | Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung | |
EP1840522B1 (de) | Navigationsgerät und Verfahren zum Betreiben eines Navigationsgeräts | |
EP2943367B1 (de) | Verfahren zum synchronisieren von anzeigeeinrichtungen eines kraftfahrzeugs | |
EP2350799B1 (de) | Verfahren und vorrichtung zum anzeigen von in listen geordneter information | |
EP2424743B1 (de) | Verfahren zum anzeigen und eingeben von informationen in einem kraftfahrzeug und anzeigeeinrichtung | |
EP2179346B1 (de) | Anzeige- und bedienvorrichtung für ein kraftfahrzeug mit einer multi-view-anzeigevorrichtung | |
DE102013012466B4 (de) | Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung | |
DE102008048825A1 (de) | Anzeige- und Bediensystem in einem Kraftfahrzeug mit nutzerbeeinflussbarer Darstellung von Anzeigeobjekten sowie Verfahren zum Betreiben eines solchen Anzeige- und Bediensystems | |
EP3507681B1 (de) | Verfahren zur interaktion mit bildinhalten, die auf einer anzeigevorrichtung in einem fahrzeug dargestellt werden | |
EP3116737B1 (de) | Verfahren und vorrichtung zum bereitstellen einer graphischen nutzerschnittstelle in einem fahrzeug | |
DE102012020607B4 (de) | Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements | |
DE102016108885A1 (de) | Verfahren zum berührungslosen Verschieben von visuellen Informationen | |
EP2246214B1 (de) | Verfahren und Vorrichtung zum Anzeigen von in Listen geordneter Information | |
WO2014108147A1 (de) | Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung | |
DE102013020795A1 (de) | Verfahren und Anordnung zum Steuern von Funktionen eines Kraftfahrzeugs | |
EP3573854A1 (de) | Verfahren zum betreiben eines bediensystems, bediensystem und fahrzeug mit einem bediensystem | |
DE102013000069B4 (de) | Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung | |
WO2017054894A1 (de) | Interaktives bediensystem und verfahren zum durchführen einer bedienhandlung bei einem interaktiven bediensystem | |
DE102016108878A1 (de) | Anzeigeeinheit und Verfahren zur Darstellung von Informationen | |
EP2059408B1 (de) | Verfahren zum anzeigen von information in einem kraftfahrzeug und informationssystem | |
DE102013211046A1 (de) | Verfahren und Vorrichtung zum Gewinnen eines Stellsignals aus einer Bediengeste | |
DE102022107274B4 (de) | System und Verfahren für die Gestenerkennung und/oder Gestensteuerung | |
DE102019212278A1 (de) | Bediensystem und Verfahren zum Betreiben des Bediensystems | |
DE102014222194A1 (de) | Fahrzeug mit dreidimensionaler Bedienschnittstelle | |
DE102012021251A1 (de) | Bedienvorrichtung und Verfahren zum Ansteuern von Funktionseinheiten und Kraftfahrzeug |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
OR8 | Request for search as to paragraph 43 lit. 1 sentence 1 patent law | ||
R016 | Response to examination communication | ||
R082 | Change of representative | ||
R002 | Refusal decision in examination/registration proceedings | ||
R003 | Refusal decision now final |
Effective date: 20131008 |