DE102017201799A1 - Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Anwenderunterscheidung - Google Patents
Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Anwenderunterscheidung Download PDFInfo
- Publication number
- DE102017201799A1 DE102017201799A1 DE102017201799.6A DE102017201799A DE102017201799A1 DE 102017201799 A1 DE102017201799 A1 DE 102017201799A1 DE 102017201799 A DE102017201799 A DE 102017201799A DE 102017201799 A1 DE102017201799 A1 DE 102017201799A1
- Authority
- DE
- Germany
- Prior art keywords
- hand
- user
- touch
- hmi
- sensitive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 230000005484 gravity Effects 0.000 claims abstract description 21
- 230000004044 response Effects 0.000 claims abstract description 14
- 238000004590 computer program Methods 0.000 claims abstract description 5
- 108010076504 Protein Sorting Signals Proteins 0.000 claims abstract description 4
- 238000011156 evaluation Methods 0.000 claims description 11
- 238000004891 communication Methods 0.000 claims description 4
- 210000003811 finger Anatomy 0.000 description 13
- 230000033001 locomotion Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 210000003813 thumb Anatomy 0.000 description 3
- 238000004378 air conditioning Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 241001025261 Neoraja caerulea Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/04166—Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/141—Activation of instrument input devices by approaching fingers or pens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/143—Touch sensitive instrument input devices
- B60K2360/1438—Touch screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
- B60K2360/1468—Touch gesture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04106—Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Transportation (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Es werden eine Anwenderschnittstelle, ein Computerprogrammprodukt, eine Signalfolge sowie ein Fortbewegungsmittel und ein Verfahren zur Anwenderunterscheidung für berührungsempfindliche HMI-Oberflächen (9) vorgeschlagen. Das Verfahren umfasst die Schritte:- Erfassen (100) einer Hand (3) oder eines Armes (4) nebst Hand (3) eines Anwenders (1, 2) mittels eines Sensors (11),- Ermitteln (200) eines Schwerpunkts (5) der Hand (3) oder eines Armes (4) nebst Hand (3) des Anwenders (1, 2) im Sensorsignal,- Erfassen (300) eines Berührungspunkts (7) der Hand (3) bei Kontakt mit der berührungsempfindlichen HMI-Oberfläche (9),- Ermitteln (400) eines Versatzes (14) des Schwerpunkts (5) zum Berührungspunkt (7) und im Ansprechen darauf- Unterscheiden (500) der die HMI-Oberfläche bedienenden Anwender (1, 2).
Description
- Stand der Technik
- Die vorliegende Erfindung betrifft ein Computerprogrammprodukt, eine Signalfolge, ein Fortbewegungsmittel, eine Anwenderschnittstelle sowie ein Verfahren zur Anwenderunterscheidung. Insbesondere betrifft die vorliegende Erfindung eine Erkennung einer Anwenderposition bzw. einer Sitzposition eines Anwenders.
- An Fahrerarbeitsplätzen ist es wichtig, eine Bedienung durch den Fahrer von einer Bedienung durch den Beifahrer unterscheiden zu können. Während beispielsweise eine Bedienung durch den Fahrer während der Wahrnehmung der Fahraufgabe verboten oder lediglich in eingeschränktem Umfang erlaubt sein soll, kann der Beifahrer den ihm zugeordneten Funktionsumfang in unbeschränktem Rahmen zugreifen/bedienen. Die üblicherweise verwendeten Sensoren haben keinen großen Erfassungsbereich und können daher nicht unterscheiden, ob sich eine Hand aus Richtung des Fahrersitzes oder aus Richtung des Beifahrersitzes annähert. Aufgrund dieser Tatsache ist eine Unterscheidung zwischen einer Hand des Fahrers oder einer Hand des Beifahrers erst dann möglich, wenn sich die Hand bereits nahe der Mittelkonsole befindet.
- Ferner kann auch im Ansprechen auf ein Erkennen der rechten Hand des Fahrers eine Einflussnahme auf eine Bedienfunktion in einem Fortbewegungsmittel für den Fahrer veranlasst werden, während im Ansprechen auf das Erkennen der linken Hand des Beifahrers die entsprechenden Einstellungen für die Beifahrerseite vorgenommen werden.
-
DE 10 2007 034 272 A1 offenbart eine Anzeige- und Bediensystem für ein Kraftfahrzeug, umfassend eine Multi-View-Anzeigevorrichtung, mittels der zeitgleich mindestens zwei unterschiedliche Darstellungen für eine Betrachtung aus unterschiedlichen Betrachtungswinkelbereichen anzeigbar sind, eine Bedienvorrichtung zum Erfassen von Nutzereingaben und eine Detektionseinheit, die eine Annäherung eines Betätigungselements an die Bedienvorrichtung detektiert und das Betätigungselement einem der Betrachtungswinkelbereiche zuordnet, so dass eine mittels der Bedienvorrichtung erfasste Betätigungshandlung des Betätigungselements ebenfalls einem der mindestens zwei unterschiedlichen Betrachtungswinkelbereiche zuordenbar ist. -
DE 10 2007 004 923 A1 offenbart eine Anzeige- und Bedienvorrichtung eines Kraftfahrzeugs. Die Anzeige- und Bedienvorrichtung umfasst eine Anzeigevorrichtung mit einer Anzeigefläche. Die Anzeigevorrichtung ist vorzugsweise als Touchscreen ausgebildet. Die grafische Darstellung von Informationen auf der Anzeigefläche wird über eine Steuereinheit gesteuert, die mit einer Speichervorrichtung verknüpft ist. In der Speichervorrichtung sind Daten abgelegt, die eine Umsetzung einer Benutzerschnittstelle mittels der Steuereinheit ermöglichen. -
DE 10 2012 206 247 A1 offenbart ein Verfahren zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs auf einer Anzeigeeinrichtung des Fahrzeugs, wobei eine Berührung einer Bedienfläche des Bedienelements mit der Hand des Bedieners detektiert und eine Position eines Berührpunkts ermittelt wird, der Bediener identifiziert wird, eine Orientierung der Hand ermittelt wird und ein Bild einer entsprechend orientierten virtuellen Hand auf der Anzeigeeinrichtung derart angezeigt wird, dass eine Spitze eines Fingers der Position des Berührpunkts entspricht. - Ausgehend vom vorgenannten Stand der Technik ist es eine Aufgabe der vorliegenden Erfindung, eine robuste Unterscheidung einer Gesteneingabe zwischen einem Fahrer oder Beifahrer zur Verfügung zu stellen, um so den die Gesteneingabe ausführenden Anwender zu erkennen.
- Offenbarung der Erfindung
- Die vorstehend identifizierte Aufgabe wird durch ein Verfahren zur Anwenderunterscheidung für berührungsempfindliche HMI-Oberflächen. Nach einem ersten Schritt wird die Hand oder ein Arm nebst Hand des Anwenders mittels eines Sensors erfasst. Dies kann während einer Ausführung einer dreidimensionalen, frei im Raum ausgeführten Geste erfolgen. Im Sensorsignal wird ein Schwerpunkt der Hand oder des Armes nebst Hand des Anwenders ermittelt. Anschließend erfolgt ein Erfassen eines Berührungspunkts der Hand bei Kontakt mit der berührungsempfindlichen HMI-Oberfläche. Es erfolgt ein Ermitteln eines Versatzes des Schwerpunkts zum Berührungspunkt und im Ansprechen darauf ein Unterscheiden der die HMI-Oberfläche bedienenden Anwender. Mit anderen Worten erfolgt beim Unterscheiden der Anwender ein Erkennen der (Sitz-)Position von die HMI-Oberfläche bedienenden Anwendern.
- Dies kann eine Anwenderschnittstelle in die Lage versetzen, zu unterscheiden, ob es sich dabei um einen ersten Anwender (z.B. einem Fahrer) oder um einen zweiten Anwender (z.B. einem Beifahrer) handelt, der die HMI-Oberfläche bedient. Somit lässt sich eine Position des Anwenders, also ob es sich um den Fahrer und Beifahrer handelt, relativ zur HMI-Oberfläche zuverlässig bestimmen. Bei der Position kann es sich um die Anwenderposition (auch Sitzposition) des Anwenders (auch Bedieners) handeln.
- Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.
- Der Sensor zur Erfassung der Hand des Anwenders kann beispielsweise in einer Mittelkonsole, in einem Armaturenbrett oder in einem Dachhimmel vorgesehen sein. Selbstverständlich sind auch Kombinationen der vorgenannten Positionen bzw. mehrere Sensoren zur kombinierten Verwendung an mindestens einer der vorgenannten Positionen möglich. Als Position des Erfassungssensors (z.B. ToF-Kamera) ist aus ergonomischen Gründen insbesondere ein Ort am Dachhimmel bzw. am Innenspiegel mit nach unten blickender Kamera oder ein Einbau in der Mittelkonsole mit nach oben schauender Kamera zu bevorzugen, da es ergonomischer ist, eine Hand im Wesentlichen horizontal als im Wesentlichen vertikal zu halten.
- Eine Erkennung von Handgesten in einem freien Raum vor einem Eingabeelement erfolgt in zwei Schritten: Zunächst wird die Position der Hand bzw. der Arm nebst der Hand erkannt und der Bewegungspfad verfolgt. Danach erfolgt eine intelligente Auswertung dieses Bewegungspfades und deren Überführung in robuste Muster, welche später als erkannte Gesten zur Eingabe genutzt werden.
- Der Schwerpunkt der Hand ist immer in Richtung des Armes verschoben. Bedingt durch diese Tatsache entsteht bei der Bedienung der berührungsempfindlichen HMI-Oberfläche von links oder rechts immer ein Versatz zum eigentlichen Berührungspunkt, der sich für Fahrer und Beifahrer unterscheidet. In Verbindung mit einer Beobachtung des Bewegungspfades vor der berührungssensitiven Oberfläche kann eine zuverlässige Unterscheidung zwischen der Bedienung von Fahrer bzw. Beifahrer gemacht werden.
- Eine Gestensensorik wird vorliegend nicht dazu verwendet, explizite Eingaben durch Handgesten auszulösen, sondern durch Vergleich der Projektion des 3-D-Schwerpunkts der Hand auf die Eingabefläche mit dem Punkt der 2D-Eingabe eine Fahrer- und oder Beifahrererkennung zu erreichen. Die Auswertung einer Trajektorie des Arms macht die Entscheidung zwischen Fahrer und Beifahrer robuster im Vergleich zum direkten Vergleich des 2-D-Touchkoordinaten der Projektion der 3-D-Schwerpunkt Position auf die berührungsempfindliche HMI-Oberfläche. Dabei wertet die Gestensensorik kontinuierlich die Handbewegungen von Fahrer und Beifahrer aus und klassifiziert die Eingabeperson bei Auslösen von Eingaben auf der HMI-Oberfläche.
- Vorzugsweise ist die berührungsempfindliche HMI-Oberfläche (auch berührungsempfindliche HMI-Oberfläche oder Touchscreen) als eine multifunktionale HMI-Oberfläche ausgestaltet. Bevorzugt ist die berührungsempfindliche HMI-Oberfläche Teil eines Bildschirms. Das Erfassen des Berührpunkts erfolgt bei einem direkten Kontakt eines Teils der Hand mit der berührungsempfindlichen HMI-Oberfläche.
- Vorzugsweise wird beim Ermitteln des Versatzes festgestellt, ob sich der Schwerpunkt links oder rechts bezüglich einer durch den Kontaktpunkt verlaufenden, senkrecht auf der HMI-Oberfläche stehenden Linie oder Achse befindet. Somit lässt sich der Versatz auf einfache Weise bestimmen. Vorzugsweise entspricht der Versatz einem horizontalen Abstand vom Schwerpunkt zum Kontaktpunkt auf der berührungsempfindlichen HMI-Oberfläche. Dabei liegt der Versatz auf einer gedachten Abszissenachse auf der berührungsempfindlichen HMI-Oberfläche. Die berührungsempfindliche HMI-Oberfläche bzw. der Bildschirm ist in einem Fahrzeug - vorzugsweise in einer Y-Richtung - angeordnet, d.h. in einer Querrichtung zur Fahrtrichtung des Fahrzeugs.
- Bevorzugt wird beim Unterscheiden der Anwender festgestellt, welcher Finger der Hand sich im Kontakt mit der berührungsempfindlichen HMI-Oberfläche befindet. Bei dem Finger kann es sich insbesondere um eine Fingerspitze oder eine Fingerkuppe handeln, die den Kontakt mit der berührungsempfindlichen HMI- Oberfläche herstellt. Befindet sich der Schwerpunkt links vom Kontaktpunkt auf der HMI-Oberfläche, wird die berührungsempfindliche HMI-Oberfläche in Ländern mit Linkslenkung von einem Finger des Fahrers bedient. Befindet sich der Schwerpunkt rechts vom Kontaktpunkt auf der HMI-Oberfläche, wird die berührungsempfindliche HMI-Oberfläche in diesen Ländern von einem Finger des Beifahrers bedient. Alternativ kann es sich auch um einen Daumen, eine Daumenspitze oder eine Daumenkuppe handeln, die den Kontakt mit der berührungsempfindlichen HMI- Oberfläche herstellt.
- Bevorzugt wird beim Unterscheiden der Anwender festgestellt, von welcher Seite die Hand zur Bedienung der berührungsempfindlichen HMI-Oberfläche kommt. Hierdurch lässt sich der Anwender auf einfache Weise lokalisieren.
- Bevorzugt werden gemeinsame Bedienelemente für die Anwender über die berührungsempfindliche HMI-Oberfläche anwenderspezifisch aktiviert. Hierdurch wird eine Bedienung bereitgestellt, die auf Fahrer- oder Beifahrereingaben unterschiedlich reagiert. Alternativ werden verschiedene Bedienelemente für die Anwender über die berührungsempfindlichen HMI-Oberfläche als Splitview-Screens getrennt nach den Anwendern aktiviert. Hierdurch lassen sich verschiedene Bildschirmausgabewinkel den Fahrer- oder Beifahrereingaben zuordnen. Um den Fahrer des Fahrzeugs nicht unnötig vom Verkehr abzulenken und die Sicherheit im Straßenverkehr zu gewährleisten, können Funktionen für diesen Anwender ausgeschlossen werden.
- Bevorzugt wird im Ansprechen auf das Unterscheiden der Anwender eine Ausrichtung eines Mikrofons auf den Anwender zur Kommunikation oder Spracherkennung ermöglicht. Dabei kann eine akustische Kamera, Mikrofonarray oder akustische Antenne mittels Beamforming gezielt auf eine Fahrer- oder Beifahrermundposition ausgerichtet werden, wenn die Gestensensorik eine Annäherung der Hand bzw. ein Berühren der Hand auf der HMI-Oberfläche einer Person zugeordnet. Beispielsweise aktiviert der Fahrer die Funktion zur Spracherkennung, um einen Text zu diktieren. Obwohl auch der Beifahrer oder andere Passagiere im Fahrzeug reden, wird das Spracherkennungssystem nur dem Diktat des Fahrers zuhören.
- Vorzugsweise kann der Sensor beispielsweise eine Stereokamera, einen Infrarotsensor und/oder eine Laufzeitkamera (englisch: „Time-of-Flight (ToF)“-Kamera) umfassen. Mittels der vorgenannten Sensoren kann eine Abschätzung der Entfernung der jeweiligen Oberflächenpunkte vorgenommen werden, durch welche die Ausrichtung der dem Sensor zugewandten Handoberflächen charakterisiert werden kann. Bevorzugt kommen eine 3D-Feldtechnologie zur Ermittlung eines 3D-Schwerpunkts zum Einsatz oder es erfolgt die Verwendung eines Radarsensors.
- Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird eine Anwenderschnittstelle vorgeschlagen, welche beispielsweise für ein Fortbewegungsmittel vorgesehen sein kann. Alternativ oder zusätzlich kann die Anwenderschnittstelle eingerichtet sein, in einem Drahtloskommunikationsgerät bzw. einem mobilen Anwenderendgerät (z.B. Tablet, Smartphone, o.ä.) verwendet zu werden. Die Anwenderschnittstelle umfasst einen Sensor, welcher beispielsweise als Kamera, Infrarotsensor, Laufzeit-Kamera, o.ä., ausgestaltet sein kann. Die Kamera kann beispielsweise auch für Applikationen der Videotelefonie, der Fotografie, o.ä., verwendet werden. Eine Auswerteeinheit (z.B. ein programmierbarer Prozessor, ein elektronisches Steuergerät, o.ä.) kann ebenfalls für abseits der vorliegenden Erfindung gelegene Aufgabenpakete und Rechenoperationen verwendet werden.
- Der Sensor ist eingerichtet, eine Hand oder einen Arm nebst Hand eines Anwenders sensorisch zu erfassen und einen Schwerpunkt der Hand oder des Arms nebst Hand des Anwenders die Hand des Anwenders im Sensorsignal zu ermitteln. Die Auswerteeinheit ist eingerichtet, einen Berührungspunkt der Hand bei Kontakt mit der berührungsempfindlichen HMI-Oberfläche zu erfassen, einen Versatz des Schwerpunkts zum Berührungspunkt zu ermitteln und im Ansprechen darauf die Position des Anwenders zu erkennen.
- Auf diese Weise ist die erfindungsgemäße Anwenderschnittstelle eingerichtet, die Merkmale, Merkmalskombinationen und die sich aus diesen ergebenden Vorteile des erfindungsgemäßen Verfahrens derart ersichtlich in entsprechender Weise zu verwirklichen, so dass zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen wird.
- Gemäß einem dritten Aspekt der vorliegenden Erfindung wird ein Computerprogrammprodukt (z.B. ein Datenspeicher) vorgeschlagen, auf welchem Instruktionen gespeichert sind, die einen programmierbaren Prozessor in die Lage versetzen, die Schritte eines Verfahrens gemäß dem erstgenannten Erfindungsaspekt durchzuführen. Das Computerprogrammprodukt kann z.B. unter Verwendung von CD, DVD, Blue-Ray-Disc, Flash-Speicher, Festplatte, RAM/ROM-Cache, etc., ausgestaltet sein.
- Gemäß einem vierten Aspekt der vorliegenden Erfindung wird eine Signalfolge repräsentierend Instruktionen vorgeschlagen, welche einen programmierbaren Prozessor in die Lage versetzen, die Schritte eines Verfahrens gemäß dem erstgenannten Erfindungsaspekt durchzuführen. Auf diese Weise wird auch die informationstechnische Bereitstellung der Instruktionen für den Fall unter Schutz gestellt, dass sich die hierzu erforderlichen Speichermittel außerhalb des Geltungsbereiches der beigefügten Ansprüche befinden.
- Gemäß einem fünften Aspekt der vorliegenden Erfindung wird ein Fortbewegungsmittel (z.B. ein PKW, ein Transporter, ein LKW, ein Motorrad, ein Luft- und/oder Wasserfahrzeug) vorgeschlagen, welches eine Anwenderschnittstelle gemäß dem zweitgenannten Erfindungsaspekt umfasst. Dabei kann die Anwenderschnittstelle insbesondere für den Führer des Fortbewegungsmittels vorgesehen sein, mittels welcher der Führer während der Führung des Fortbewegungsmittels mit dem Fortbewegungsmittel und seinen technischen Einrichtungen kommunizieren kann. Entsprechendes gilt für den Co-Führer, Beifahrer, Co-Pilot, o.ä. Die Merkmale, Merkmalskombinationen sowie die sich aus diesen ergebenden Vorteile entsprechen den in Verbindung mit dem erst- und zweitgenannten Erfindungsaspekt ausgeführten derart ersichtlich, dass zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen wird.
- Dabei ist die Erfindung nicht auf ein Fortbewegungsmittel beschränkt. Die Anwenderschnittstelle kann auch im öffentlichen, beruflichen oder privaten stationären Umfeld genutzt werde.
- Figurenliste
- Nachfolgend werden Ausführungsbeispiele der vorliegenden Erfindung anhand der beigefügten Zeichnungsfiguren im Detail beschrieben. In den Zeichnungen ist:
-
1 eine schematische Ansicht eines Cockpits eines Fortbewegungsmittels mit einer Anwenderschnittstelle gemäß einem ersten Ausführungsbeispiel der vorliegenden Erfindung; -
2 eine weitere schematische Ansicht des Cockpits aus1 ; -
3 eine Darstellung eines gemeinsamen Bedienelements für Fahrer und Beifahrer; -
4 eine Darstellung eines Splitview-Screens für Fahrer und Beifahrer; und -
5 ein Flussdiagramm veranschaulichend Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens. - Ausführungsformen der Erfindung
-
1 zeigt ein Cockpit eines Fortbewegungsmittels10 , in dessen Armaturenbrett ein Bildschirm8 mit einer berührungsempfindlichen HMI-Oberfläche9 als Anzeigeeinrichtung einer erfindungsgemäßen Anwenderschnittstelle vorgesehen ist. Um den Bildschirm8 herum ist eine Infrarot-LED-Leiste11 als Sensor zur Erfassung frei im Raum ausgeführter Gesten (auch „3D-Gesten“) mittels einer Hand3 eines Anwenders1 ,2 vorgesehen. Sowohl der Bildschirm8 als auch die Infrarot-LED-Leiste11 sind informationstechnisch mit einem elektronischen Steuergerät12 als Auswerteeinheit verbunden, welche seinerseits mit einem Datenspeicher13 informationstechnisch verbunden ist. Im Datenspeicher13 sind Instruktionen zur Ausführung der Schritte eines erfindungsgemäßen Verfahrens gespeichert. - Die Infrarot-LED-Leiste
11 ist eingerichtet, eine Hand3 oder einen Arm4 nebst Hand3 des Anwenders1 ,2 zu erfassen und einen Schwerpunkt5 der Hand3 oder des Armes4 nebst Hand3 des Anwenders1 im Sensorsignal zu ermitteln. Das elektronischen Steuergerät12 ist eingerichtet, einen Berührungspunkt7 der Hand3 bei Kontakt mit der berührungsempfindlichen HMI-Oberfläche9 zu erfassen sowie einen Versatz14 des Schwerpunkts5 zum Berührungspunkt7 zu ermitteln und im Ansprechen darauf eine Position des Anwenders1 ,2 zu erkennen. - Bei dem Anwender
1 handelt es um den Fahrzeugführer, also den Fahrer1 des Fahrzeugs10 . Der Fahrer1 setzt typischerweise seine rechte Hand3 zum Bedienen des Bildschirms8 ein. Dabei berührt ein Finger6 , nämlich ein Zeigefinger, die berührungsempfindliche HMI-Oberfläche9 . Dass es sich bei dem Teil der Hand3 , der sich im Kontakt mit der berührungsempfindlichen HMI-Oberfläche9 befindet, um einen Finger6 der Hand3 handelt, wird vom elektronischen Steuergerät12 erkannt. - Beim Ermitteln des Versatzes
14 wird festgestellt, dass sich der Schwerpunkt5 auf einer linken Seite bezüglich einer durch den Kontaktpunkt7 verlaufenden, senkrecht auf der HMI-Oberfläche9 stehenden Linie oder Achse15 befindet. Auf diese Weise wird erkannt, dass es sich um die eine Hand des Fahrers1 handeln muss, die die berührungsempfindlichen HMI-Oberfläche9 bedient. -
2 zeigt eine weitere schematische Ansicht des Cockpits aus1 . Im Unterschied zur1 handelt es sich bei dem Anwender2 um den neben dem Fahrer1 befindlichen Fahrzeuginsassen, also den Beifahrer2 des Fahrzeugs10 . Der Beifahrer2 setzt typischerweise seine linke Hand3 zum Bedienen des Bildschirms8 ein. Dabei berührt ein Finger6 , nämlich ein Zeigefinger der linken Hand3 , die berührungsempfindliche HMI-Oberfläche9 . Dass es sich bei dem Teil der Hand3 , der sich im Kontakt mit der berührungsempfindlichen HMI-Oberfläche9 befindet, um einen Finger6 der Hand3 handelt, wird vom elektronischen Steuergerät12 erkannt. - Beim Ermitteln des Versatzes
14 wird festgestellt, dass sich der Schwerpunkt5 auf einer rechten Seite bezüglich einer durch den Kontaktpunkt7 verlaufenden, senkrecht auf der HMI-Oberfläche9 stehenden Linie oder Achse15 befindet. Auf diese Weise wird erkannt, dass es sich um die eine Hand des Beifahrers2 handeln muss, die die berührungsempfindliche HMI-Oberfläche9 bedient. -
3 zeigt eine Darstellung eines gemeinsamen Bedienelements für den Fahrer1 und Beifahrer2 . Das gemeinsame Bedienelement wird über die berührungsempfindliche HMI-Oberfläche9 getrennt nach Fahrer1 und Beifahrer2 aktiviert. - Im Ansprechen auf das Erkennen der rechten Hand
4 des Fahrers1 kann die Einflussnahme auf eine Solltemperatur und eine Lüftergeschwindigkeit einer gestenbasierten Klimabedienung der Heiz-/Klimaanlage eines Fortbewegungsmittels für den Fahrer veranlasst werden, während im Ansprechen auf das Erkennen der linken Hand4 des Beifahrers2 (gestrichelte Linie) die entsprechenden Einstellungen für die Beifahrerseite vorgenommen werden. Die vorgenannten Anwendungsfälle können auch auf andere personenbezogene Funktionsumfänge, wie Sitzposition, Beleuchtungsoptionen, Fensterheber, und/oder dergleichen angewendet werden. -
4 zeigt eine Darstellung eines Splitview-Screens für den Fahrer1 und Beifahrer2 . Dabei werden verschiedene Bedienelemente für den Fahrer1 und Beifahrer2 über die berührungsempfindlichen HMI-Oberfläche9 als Splitview-Screen getrennt nach den Anwendern 1, 2 aktiviert. - Im Ansprechen auf das Erkennen einer Hand
4 des Fahrers1 kann ein erstes Bedienelement, wie beispielsweise eine Einflussnahme auf das zu empfangende Radioprogramm veranlasst werden, während gleichzeitig im Ansprechen auf das Erkennen einer Hand4 des Beifahrers2 Multimediainhalte, wie bspw. Bilder oder Filme betrachtet werden können. -
5 zeigt Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zur Erkennung einer Hand eines Anwenders. In Schritt 100 wird eine Hand oder eine Arm nebst Hand des Anwenders mittels eines Sensors erfasst. Der Sensor kann beispielsweise eine Stereokamera, einen Infrarotsensor oder eine Laufzeitkamera umfassen. Der Sensor kann in einer Anwenderschnittstelle vorgesehen sein. Die Anwenderschnittstelle kann für ein mobiles Anwenderendgerät (z.B. Drahtloskommunikationsgerät) oder für ein Fortbewegungsmittel vorgesehen sein. In Schritt 200 wird ein Schwerpunkt der Hand oder ein Arm nebst Hand des Anwenders im Sensorsignal identifiziert (ermittelt). In Schritt 300 wird ein Berührungspunkt eines Fingers der Hand bei Kontakt mit der berührungsempfindlichen HMI-Oberfläche erfasst. In Schritt 400 wird ein Versatz des Schwerpunkts zum Berührungspunkt ermittelt und im Ansprechen darauf erfolgt in Schritt 500 ein Unterscheiden der Anwender, d.h. ein Erkennen der Position des die HMI-Oberfläche bedienenden Anwenders. - Für Anwenderschnittstellen, welche auf eine von links kommende Hand (z.B. eines Beifahrers) anders reagieren sollen, als auf eine von rechts kommende Hand (z.B. eines Fahrers) ermöglicht die vorliegende Erfindung somit eine besonders sichere Freischaltung der dem Anwender zur Verfügung gestellten Funktionen. Ferner wird eine robuste Unterscheidung einer Gesteneingabe zwischen einem Fahrer oder Beifahrer zur Verfügung gestellt, um die (Sitz- )Position des Anwenders zu erkennen.
- Auch wenn die erfindungsgemäßen Aspekte und vorteilhaften Ausführungsformen anhand der in Verbindung mit den beigefügten Zeichnungsfiguren erläuterten Ausführungsbeispiele im Detail beschrieben worden sind, sind für den Fachmann Modifikationen und Kombinationen von Merkmalen der dargestellten Ausführungsbeispiele möglich, ohne den Bereich der vorliegenden Erfindung zu verlassen, der durch die beigefügten Ansprüche definiert wird.
- Bezugszeichenliste
-
- 1
- Fahrer
- 2
- Beifahrer
- 3
- Hand
- 4
- Arm
- 5
- Schwerpunkt
- 6
- Finger
- 7
- Kontaktpunkt
- 8
- Display
- 9
- HMI-Oberfläche
- 10
- PKW
- 11
- Sensor
- 12
- Auswerteeinheit
- 13
- Datenspeicher
- 14
- Versatz
- 15
- Achse
- 100 - 600
- Verfahrensschritte
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 102007034272 A1 [0004]
- DE 102007004923 A1 [0005]
- DE 102012206247 A1 [0006]
Claims (12)
- Verfahren zur Anwenderunterscheidung für berührungsempfindliche HMI-Oberflächen (9) umfassend die Schritte: - Erfassen (100) einer Hand (3) oder eines Armes (4) nebst Hand (3) eines Anwenders (1, 2) mittels eines Sensors (11), - Ermitteln (200) eines Schwerpunkts (5) der Hand (3) oder eines Armes (4) nebst Hand (3) des Anwenders (1, 2) im Sensorsignal, - Erfassen (300) eines Berührungspunkts (7) der Hand (3) bei Kontakt mit der berührungsempfindlichen HMI-Oberfläche (9), - Ermitteln (400) eines Versatzes (14) des Schwerpunkts (5) zum Berührungspunkt (7) und im Ansprechen darauf - Unterscheiden (500) der die HMI-Oberfläche bedienenden Anwender (1, 2).
- Verfahren nach
Anspruch 1 , wobei beim Ermitteln (400) des Versatzes (14) festgestellt wird, ob sich der Schwerpunkt (5) links oder rechts bezüglich einer durch den Kontaktpunkt (7) verlaufenden, senkrecht auf der HMI-Oberfläche (9) stehenden Linie oder Achse (15) befindet. - Verfahren nach einem der vorherstehenden Ansprüche, wobei beim Unterscheiden (500) der Anwender (1, 2) festgestellt wird, welcher Finger der Hand (3) sich im Kontakt mit der berührungsempfindlichen HMI-Oberfläche (9) befindet.
- Verfahren nach einem der vorherstehenden Ansprüche, wobei beim Unterscheiden (500) der Anwender (1, 2) festgestellt wird, von welcher Seite die Hand (3) zur Bedienung der berührungsempfindlichen HMI-Oberfläche (9) kommt.
- Verfahren nach einem der vorherstehenden Ansprüche, wobei gemeinsame Bedienelemente für die Anwender (1, 2) über die berührungsempfindliche HMI-Oberfläche (9) anwenderspezifisch aktiviert werden.
- Verfahren nach einem der
Ansprüche 1 bis3 , wobei verschiedene Bedienelemente für die Anwender (1, 2) über die berührungsempfindliche HMI-Oberfläche (9) als Splitview-Screens getrennt nach den Anwendern (1, 2) aktiviert werden. - Verfahren nach einem der vorherstehenden Ansprüche, wobei im Ansprechen auf das Unterscheiden (500) der Anwender (1, 2) eine Ausrichtung eines Mikrofons auf den Anwender (1, 2) zur Kommunikation oder Spracherkennung (600) ermöglicht wird.
- Anwenderschnittstelle umfassend - einen Sensor (11), der eingerichtet ist, - eine Hand (3) oder einen Arm (4) nebst Hand (3) eines Anwenders (1, 2) zu erfassen und - einen Schwerpunkt (4) der Hand (3) oder des Armes (4) nebst Hand (3) des Anwenders (1, 2) im Sensorsignal zu ermitteln und - eine Auswerteeinheit (12), die eingerichtet ist, - einen Berührungspunkt (7) der Hand (3) bei Kontakt mit der berührungsempfindlichen HMI-Oberfläche (9) zu erfassen, - einen Versatz (14) des Schwerpunkts (5) zum Berührungspunkt (7) zu ermitteln und im Ansprechen darauf - die die HMI-Oberfläche bedienenden Anwender (1, 2) zu unterscheiden.
- Anwenderschnittstelle nach
Anspruch 8 , welche weiter eingerichtet ist, ein Verfahren gemäß einem der vorstehendenAnsprüche 1 bis7 auszuführen. - Computerprogrammprodukt umfassend Instruktionen, welche, wenn Sie auf einer Auswerteeinheit (12) einer Anwenderschnittstelle nach einem der
Ansprüche 8 oder9 ausgeführt werden, die Auswerteeinheit (12) veranlassen, die Schritte eines Verfahrens nach einem derAnsprüche 1 bis7 auszuführen. - Signalfolge repräsentierend Instruktionen, welche, wenn sie auf einer Auswerteeinheit (12) einer Anwenderschnittstelle nach einem der
Ansprüche 8 oder9 ausgeführt werden, die Auswerteeinheit (12) veranlassen, die Schritte eines Verfahrens nach einem derAnsprüche 1 bis7 auszuführen. - Fortbewegungsmittel (10) umfassend eine Anwenderschnittstelle nach einem der
Ansprüche 8 oder9 .
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017201799.6A DE102017201799A1 (de) | 2017-02-06 | 2017-02-06 | Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Anwenderunterscheidung |
EP18152198.0A EP3358454B1 (de) | 2017-02-06 | 2018-01-17 | Anwenderschnittstelle, fortbewegungsmittel und verfahren zur anwenderunterscheidung |
KR1020180013393A KR102084032B1 (ko) | 2017-02-06 | 2018-02-02 | 사용자 인터페이스, 운송 수단 및 사용자 구별을 위한 방법 |
CN201810116259.0A CN108399044B (zh) | 2017-02-06 | 2018-02-06 | 用户界面、运输工具和用于区分用户的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017201799.6A DE102017201799A1 (de) | 2017-02-06 | 2017-02-06 | Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Anwenderunterscheidung |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102017201799A1 true DE102017201799A1 (de) | 2018-08-09 |
Family
ID=61131927
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017201799.6A Ceased DE102017201799A1 (de) | 2017-02-06 | 2017-02-06 | Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Anwenderunterscheidung |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3358454B1 (de) |
KR (1) | KR102084032B1 (de) |
CN (1) | CN108399044B (de) |
DE (1) | DE102017201799A1 (de) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018214502A1 (de) * | 2018-08-28 | 2020-04-09 | Zf Friedrichshafen Ag | Steuerhebel zum Steuern eines Fahrzeugs |
DE102018216555A1 (de) * | 2018-09-27 | 2020-04-02 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung, Fortbewegungsmittel und Verfahren zum Betreiben eines Digitizers |
CN109491585B (zh) * | 2018-11-05 | 2020-11-13 | 广州小鹏汽车科技有限公司 | 一种车载中控设备的触摸控制方法及车载中控设备 |
KR20200080047A (ko) | 2018-12-26 | 2020-07-06 | 삼성전자주식회사 | 진정 사용자의 손을 식별하는 방법 및 이를 위한 웨어러블 기기 |
DE102019215861A1 (de) * | 2019-10-15 | 2021-04-15 | Continental Automotive Gmbh | Anzeigegerät zur Erfassung der Annäherung eines Körpers, wobei Infrarotelemente in einem Bildschirmrahmen angeordnet sind |
CN111427471A (zh) * | 2020-03-09 | 2020-07-17 | 上海科世达-华阳汽车电器有限公司 | 一种触摸侧识别装置 |
CN114630761A (zh) * | 2020-09-14 | 2022-06-14 | 华为技术有限公司 | 用于控制车辆的安全关键功能的用户界面 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005035111A1 (de) | 2005-07-27 | 2006-09-21 | Daimlerchrysler Ag | Bedien- und Anzeigesystem für ein Fahrzeug |
DE102006037156A1 (de) | 2006-03-22 | 2007-09-27 | Volkswagen Ag | Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung |
DE102007004923A1 (de) | 2007-02-01 | 2008-08-21 | Volkswagen Ag | Anzeige- und Bedienvorrichtung eines Kraftfahrzeugs zum Erfassen von nutzerabhängigen Parametern |
DE102007034273A1 (de) | 2007-07-19 | 2009-01-22 | Volkswagen Ag | Verfahren zur Bestimmung der Position eines Fingers eines Nutzers in einem Kraftfahrzeug und Positionsbestimmungsvorrichtung |
DE102007034272A1 (de) | 2007-07-19 | 2009-01-22 | Volkswagen Ag | Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug mit einer Multi-View-Anzeigevorrichtung |
DE102012000274A1 (de) | 2012-01-10 | 2013-07-11 | Daimler Ag | Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt |
DE102012206247A1 (de) | 2012-04-17 | 2013-10-17 | Ford Global Technologies, Llc | Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs |
DE102013000083A1 (de) | 2013-01-08 | 2014-07-10 | Audi Ag | Kraftfahrzeug mit einer personenspezifischen Bedienschnittstelle |
DE102015220400A1 (de) | 2014-12-11 | 2016-06-16 | Hyundai Motor Company | Sprachempfangssystem im fahrzeug mittels audio-beamforming und verfahren zum steuern desselben |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007099191A (ja) * | 2005-10-07 | 2007-04-19 | Matsushita Electric Ind Co Ltd | データ処理装置 |
JP2007292813A (ja) * | 2006-04-20 | 2007-11-08 | Matsushita Electric Ind Co Ltd | 表示システム、表示装置、映像制御装置、制御装置および映像制御方法 |
US8284168B2 (en) * | 2006-12-22 | 2012-10-09 | Panasonic Corporation | User interface device |
JP2011028560A (ja) * | 2009-07-27 | 2011-02-10 | Sony Corp | 情報処理装置、表示方法及び表示プログラム |
KR20130046759A (ko) * | 2011-10-28 | 2013-05-08 | 고려대학교 산학협력단 | 차량에서 운전자 명령 인지장치 및 방법 |
DE102012219736A1 (de) * | 2012-10-29 | 2014-04-30 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung |
DE102012022362A1 (de) * | 2012-11-15 | 2014-05-15 | GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) | Eingabevorrichtung für ein Kraftfahrzeug |
KR20150033310A (ko) * | 2013-09-24 | 2015-04-01 | 엘지전자 주식회사 | 이동 단말기 |
JP5899251B2 (ja) * | 2014-01-29 | 2016-04-06 | 本田技研工業株式会社 | 車両用入力装置 |
DE102014204800A1 (de) * | 2014-03-14 | 2015-09-17 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Bereitstellen einer graphischen Nutzerschnittstelle in einem Fahrzeug |
-
2017
- 2017-02-06 DE DE102017201799.6A patent/DE102017201799A1/de not_active Ceased
-
2018
- 2018-01-17 EP EP18152198.0A patent/EP3358454B1/de active Active
- 2018-02-02 KR KR1020180013393A patent/KR102084032B1/ko active IP Right Grant
- 2018-02-06 CN CN201810116259.0A patent/CN108399044B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005035111A1 (de) | 2005-07-27 | 2006-09-21 | Daimlerchrysler Ag | Bedien- und Anzeigesystem für ein Fahrzeug |
DE102006037156A1 (de) | 2006-03-22 | 2007-09-27 | Volkswagen Ag | Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung |
DE102007004923A1 (de) | 2007-02-01 | 2008-08-21 | Volkswagen Ag | Anzeige- und Bedienvorrichtung eines Kraftfahrzeugs zum Erfassen von nutzerabhängigen Parametern |
DE102007034273A1 (de) | 2007-07-19 | 2009-01-22 | Volkswagen Ag | Verfahren zur Bestimmung der Position eines Fingers eines Nutzers in einem Kraftfahrzeug und Positionsbestimmungsvorrichtung |
DE102007034272A1 (de) | 2007-07-19 | 2009-01-22 | Volkswagen Ag | Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug mit einer Multi-View-Anzeigevorrichtung |
DE102012000274A1 (de) | 2012-01-10 | 2013-07-11 | Daimler Ag | Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt |
DE102012206247A1 (de) | 2012-04-17 | 2013-10-17 | Ford Global Technologies, Llc | Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs |
DE102013000083A1 (de) | 2013-01-08 | 2014-07-10 | Audi Ag | Kraftfahrzeug mit einer personenspezifischen Bedienschnittstelle |
DE102015220400A1 (de) | 2014-12-11 | 2016-06-16 | Hyundai Motor Company | Sprachempfangssystem im fahrzeug mittels audio-beamforming und verfahren zum steuern desselben |
Also Published As
Publication number | Publication date |
---|---|
EP3358454A1 (de) | 2018-08-08 |
KR102084032B1 (ko) | 2020-03-03 |
KR20180091732A (ko) | 2018-08-16 |
EP3358454B1 (de) | 2020-03-11 |
CN108399044A (zh) | 2018-08-14 |
CN108399044B (zh) | 2022-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3358454B1 (de) | Anwenderschnittstelle, fortbewegungsmittel und verfahren zur anwenderunterscheidung | |
EP3013621B1 (de) | Kraftfahrzeug-bedienschnittstelle mit gestenerkennung | |
EP2451672B1 (de) | Verfahren und vorrichtung zum bereitstellen einer benutzerschnittstelle in einem fahrzeug | |
DE102014116292A1 (de) | System zur Informationsübertragung in einem Kraftfahrzeug | |
EP2802963A1 (de) | Verfahren und vorrichtung zum bedienen von funktionen in einem fahrzeug unter verwendung von im dreidimensionalen raum ausgeführten gesten sowie betreffendes computerprogrammprodukt | |
EP3108331B1 (de) | Anwenderschnittstelle und verfahren zum berührungslosen bedienen eines in hardware ausgestalteten bedienelementes in einem 3d-gestenmodus | |
DE102012216174A1 (de) | Steuerung einer Kraftfahrzeugbewegung von außen | |
DE102014200993A1 (de) | Anwenderschnittstelle und Verfahren zur Anpassung einer Ansicht auf einer Anzeigeeinheit | |
EP3254172B1 (de) | Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug | |
DE102013000069B4 (de) | Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung | |
DE102014008204A1 (de) | Kraftfahrzeug mit Medienwiedergabe | |
DE102013013166A1 (de) | Kraftwagen mit Head-up-Anzeige und zugehöriger Gestenbedienung | |
DE102016204274A1 (de) | System und Verfahren zum Erfassen einer Eingabegeste eines Nutzers | |
DE102013000072A1 (de) | Bedienschnittstelle für eine handschriftliche Zeicheneingabe in ein Gerät | |
EP3232372A1 (de) | Anwenderschnittstelle, fortbewegungsmittel und verfahren zur erkennung einer hand eines anwenders | |
DE102013000081B4 (de) | Bedienschnittstelle zum berührungslosen Auswählen einer Gerätefunktion | |
DE102013016196A1 (de) | Kraftfahrzeugbedienung mittels kombinierter Eingabemodalitäten | |
DE102012015763A1 (de) | Vorrichtung mit einer Lenkhandhabe mit einem Bedienfeld und Kraftfahrzeug | |
DE102013014877A1 (de) | Kraftfahrzeug-Bedieneinrichtung mit selbsterklärender Gestenerkennung | |
DE102015201722A1 (de) | Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung | |
WO2015010829A1 (de) | Verfahren zum betreiben einer eingabevorrichtung, sowie eingabevorrichtung | |
DE102014202836A1 (de) | Anwenderschnittstelle und Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer Anwenderschnittstelle | |
DE102018204223A1 (de) | Mobile, portable Bedienvorrichtung zum Bedienen eines mit der Bedienvorrichtung drahtlos gekoppelten Geräts, und Verfahren zum Betreiben eines Geräts mithilfe einer mobilen, portablen Bedienvorrichtung | |
DE102016202455A1 (de) | Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Klassifikation einer frei im Raum ausgeführten Anwendergeste | |
DE102016201981A1 (de) | Verfahren zum Auswählen, Aktivieren oder Deaktivieren einer Funktion in einem Kraftfahrzeug mithilfe einer Bedieneinrichtung und ein Bediensystem |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R002 | Refusal decision in examination/registration proceedings | ||
R003 | Refusal decision now final |