WO2018054522A1 - Verfahren zur steuerung eines kraftfahrzeugmoduls und kraftfahrzeugmodul - Google Patents

Verfahren zur steuerung eines kraftfahrzeugmoduls und kraftfahrzeugmodul Download PDF

Info

Publication number
WO2018054522A1
WO2018054522A1 PCT/EP2017/001018 EP2017001018W WO2018054522A1 WO 2018054522 A1 WO2018054522 A1 WO 2018054522A1 EP 2017001018 W EP2017001018 W EP 2017001018W WO 2018054522 A1 WO2018054522 A1 WO 2018054522A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor field
motor vehicle
operating element
action
vehicle module
Prior art date
Application number
PCT/EP2017/001018
Other languages
English (en)
French (fr)
Inventor
Alruna Veith
Original Assignee
Daimler Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Ag filed Critical Daimler Ag
Publication of WO2018054522A1 publication Critical patent/WO2018054522A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the invention relates to a method for controlling a motor vehicle module comprising a sensor field and to a motor vehicle module.
  • US 2014/0253515 A1 discloses a method of using finger power on a touchpad to control a computer system. Data is taken from the touchpad, with the data being associated with the position and force of finger or hand pressure on the touchpad. It is further described that finger-shake algorithms are used, where finger-shaking is to be understood as highlighting or otherwise altering a virtual key of a virtual keyboard as soon as the system suspects that a user's finger is hovering over the virtual key.
  • the object is achieved by a method for controlling a motor vehicle module according to claim 1 and a motor vehicle module according to the independent claim 8. Further embodiments of the method and the motor vehicle module are the subject of the dependent claims.
  • the method described below for controlling a motor vehicle module, which has a sensor field, provides that an actuating sequence comprising the following steps is detected:
  • Action of the control element above the sensor field wherein in the case of a detected actuation sequence of the actuation sequence assigned action of the motor vehicle module is triggered.
  • the operating element can be, for example, a finger or a hand of an operator, in addition the operating element can be, for example, a stylus or another element which is suitable for operating the sensor field.
  • the sensor field itself is adapted to actions of the control element on the sensor field and actions which are spaced from the sensor field, i. be recognized above the sensor field to recognize. Furthermore, the sensor field is suitable for determining a distance between the operating element and the sensor field.
  • the contact of the sensor field is preferably determined by means of a capacitive sensor field, alternatively by means of a resistive sensor field or other suitable means for detecting a touch.
  • the distance of the control element to the sensor field and the actions carried out at a distance are preferably determined by capacitance changes on a capacitive sensor field or alternatively by cameras, ultrasound, light-based measuring methods (light sources and receivers, for example infrared) or other suitable methods.
  • the action of the operating element comprises a change in the distance of the operating element from the sensor field and / or a hovering of the operating element above the sensor field.
  • the action may vary depending on whether a change in the distance of the operating element takes place, or whether the control element is suspended above the sensor field.
  • Such actions may be functions of the action of the control over the sensor panel, and thus may depend on the speed with which the control is moved.
  • a change in distance can cause zooming of a navigation map, hovering or holding the operating element above the sensor field can trigger, for example, a function of an infotainment system of the motor vehicle.
  • the action of the operating element comprises a movement of the operating element, which is essentially parallel to the sensor field, across the sensor field.
  • the movement of the operating element does not have to be exactly parallel, certain tolerances can be accepted in the context of the method, as is customary in the case of an actuation by a human.
  • For the action direction and movement speed as well as distance and / or distance change of the movement of the operating element relative to the sensor field can be taken into account.
  • these aspects of the actuation sequence may be parameters of the action or trigger different actions.
  • a navigation system such a gesture can trigger a map zoom.
  • this can be used to scroll into submenus of a menu called up by hovering the control element.
  • the action of the operating element above the sensor field comprises a subsequent renewed contact with the sensor field.
  • Touching the sensor field again may serve in an infotainment system, for example for selecting a menu item selected by the action of the control.
  • a further possible development can provide that the triggered action of the motor vehicle module is terminated by lingering the operating element in a position over a predefinable time period or a touch gesture of a finger.
  • An action of the operating element above the sensor field can end a preceding action of the motor vehicle module, for example, stopping zooming by changing the distance to the sensor field, so that the last view is no longer changed by changing the distance.
  • a pressure force of the operating element can be detected on the sensor field, wherein the assigned action can depend on the pressure force.
  • the detection of the pressure force can be carried out by means of a resistive touchpad or a switch or force transducer interacting with the touchpad.
  • a pressure for example, a previously selected function can be activated.
  • the action assigned to the actuation sequence is one or more of the following actions:
  • a movement of the control element parallel to and above the sensor field in a certain direction increase or decrease the volume of a multimedia system.
  • the speed, distance, and dwell time of the control element during or after liftoff may be used to determine zooming in or out with respect to the desired magnification scale or change in magnification scale.
  • Hovering the control over the sensor panel may serve, for example, to invoke a help dialog so that the operator of the automotive module may be informed of the function of a corresponding key before initiating the appropriate action.
  • selection menus are linked to a sensor field or to a specific area of the sensor field, the selection menu can be called up by hovering the control element above the sensor field. Moving the control in a particular direction (eg, up / down or left / right) may cause scrolling of the selection menu on the sensor panel.
  • the action can also be an action sequence.
  • first sub-actions can be triggered and further sub-actions after executing further sub-actions.
  • pressing the sensor field and then lifting the control element from the sensor field call a help function and press again to effect another action of the vehicle module.
  • a first independent article relates to a motor vehicle module having a sensor field, the motor vehicle module having a computer unit and a computer-readable storage medium, wherein the computer-readable storage medium stores a computer program product on which are embedded instructions which, when executed by the computer unit, cause that the arithmetic unit is adapted to carry out a method of the aforementioned type.
  • a corresponding motor vehicle module in a motor vehicle allows a more intuitive operation thereof and a simpler structure of the operating logic of the functions of the motor vehicle module, which are to be controlled by means of the sensor field.
  • a corresponding motor vehicle module may be, for example, a multimedia system, a navigation system, a more complex integrated control unit such as an infotainment system which controls the aforementioned and further motor vehicle functions, for example an air conditioning system, damper tuning, lighting, etc.
  • the sensor field is arranged on a touch-sensitive screen or a separate control panel.
  • the sensor field may be, for example, an icon on a touch display or a separate control panel. If the sensor field is arranged on a screen, an operation can be effected directly on the screen.
  • a separate sensor field for operating a display can be, for example, a font field on which letters can be entered, it can be a dedicated key field or more.
  • the sensor field can be arranged in a steering wheel of the motor vehicle. In this way, an operation of the motor vehicle module can be achieved without the driver having to take his hand off the steering wheel.
  • the sensor field can furthermore be arranged, for example, in the center console and be formed there, for example, either as a separate field or as a field on another operating element, for example a DretWD reset device.
  • a corresponding sensor field in the steering wheel for controlling e.g. an infotainment system is preferably controlled by movement of the thumb. This will be a
  • 1 shows a motor vehicle module in a first embodiment
  • 2 shows a motor vehicle module in a second embodiment
  • FIG. 3 shows a motor vehicle module in a third embodiment
  • Fig. 4a to 4c an actuating sequence as well
  • 5a to 5c show a display of the motor vehicle module in dependence on the actuation sequence.
  • FIG. 1 shows a first embodiment of a motor vehicle module 2.
  • the motor vehicle module 2 may be, for example, an infotainment system of a motor vehicle for controlling multimedia functions, navigation system, motor vehicle functions and the like.
  • the motor vehicle module 2 has a display 4, which serves to display information.
  • the display 4 is designed pressure-sensitive, so that it can be operated by pressing the surface. For this purpose, a not visible in the plan view of FIG. 1 sensor array (see Fig. 4a to 4c) may be provided.
  • the corresponding sensor field can be configured capacitively and register changes in capacitance that are detected by approximation with a control element that changes the capacitance field, for example a human finger.
  • the sensor field can have different sensitivities and activate different sensitivities as a function of the operating sequence in order to allow a high assignment accuracy from operating sequence to action.
  • the arranged above the display 4 sensor array is configured in the illustrated embodiment, that it is largely invisible, so as not to disturb the presentation of the display 4.
  • the arithmetic unit 6 Connected to the display 4 is a computing unit 6 which serves to control the display 4 and registers inputs of the sensor field not visible in FIG.
  • the arithmetic unit 6 has a memory 8, on which a computer program product is stored, which, when loaded and executed by the arithmetic unit 6, causes the actuation sequence shown in FIGS. 4a to 4c to be detected and to carry out an action associated with this actuation sequence becomes.
  • the display 4 can have different areas 4.1 to 4.6, which are each assigned different actions, for example in a multimedia system control functions such as louder, quieter, next track, etc.
  • Fig. 2 shows a second embodiment of a motor vehicle module 2 '.
  • the motor vehicle module 2 has, relative to the motor vehicle module 2 from FIG. 1, a separate sensor field 10, which is connected to the arithmetic unit 6. It can be provided that the display 4 also has a sensor field or no sensor field and an operation via the sensor array 10 and other controls takes place.
  • the sensor field 10 may be arranged, for example, in a center console of a motor vehicle.
  • the corresponding sensor field can be configured capacitively and register changes in capacitance that are detected by approximation with a control element that changes the capacitance field, for example a human finger.
  • the sensor field can have different sensitivities and activate different sensitivities as a function of the operating sequence in order to allow a high assignment accuracy from operating sequence to action.
  • a possibly arranged on the display 4 sensor array is configured in the illustrated embodiment, that it is largely invisible, so as not to disturb the presentation of the display 4.
  • a computing unit 6 Connected to the display 4 is a computing unit 6 which serves to control the display 4 and registers inputs of the sensor field not visible in FIG.
  • the arithmetic unit 6 has a memory 8, on which a computer program product is stored, which, when loaded and executed by the arithmetic unit 6, causes the actuation sequence shown in FIGS. 4a to 4c to be detected and to carry out an action associated with this actuation sequence becomes.
  • the display 4 can have various fields 4.1 to 4.6, to each of which different actions are assigned, for example in a multimedia system control functions such as louder, quieter, next track, etc.
  • FIG. 3 shows a third embodiment of a motor vehicle module 2 ".
  • a separate sensor field 10 ' is arranged in a steering wheel 12, the sensor field 10' being connected to the arithmetic unit 6.
  • the corresponding sensor field 10 ' can be designed capacitively and register changes in capacitance, which detect by approximation with a control element that changes the capacitance field, for example a human finger.
  • the sensor field can have different sensitivities and activate different sensitivities as a function of the operating sequence in order to allow a high assignment accuracy from operating sequence to action.
  • a possibly arranged on the display 4 sensor array is configured in the illustrated embodiment, that it is largely invisible, so as not to disturb the presentation of the display 4.
  • a computing unit 6 Connected to the display 4 is a computing unit 6 which serves to control the display 4 and registers inputs of the sensor field not visible in FIG.
  • the arithmetic unit 6 has a memory 8, on which a computer program product is stored, which, when loaded and executed by the arithmetic unit 6, causes the actuation sequence shown in FIGS. 4a to 4c to be detected and to carry out an action associated with this actuation sequence becomes.
  • the display 4 can have various fields 4.1 to 4.6, to each of which different actions are assigned, for example, in a multimedia system control functions such as louder, quieter, next track, etc.
  • FIGS. 4 a to 4 c show an actuating sequence of the motor vehicle module 2 with a finger 14.
  • the display 4 has a screen 16 and a sensor field 18.
  • the sensor field 8 is located above the screen. which means above in the sense of on the side facing the operator.
  • the finger 14 is moved at a certain point A on the sensor array 18, which is shown in Fig. 4a by the corresponding arrow.
  • Fig. 4b it is shown that the finger 14 touches the sensor array 18 at the point A. This contact is registered by the arithmetic unit 6 and triggers the monitoring of an actuation sequence.
  • the finger 14 is again lifted off the sensor field 18 and floats at a distance d above the contact point A. This is detected by the arithmetic unit 6 and an action assigned to this actuating sequence is triggered.
  • the arithmetic unit 6 can, on the one hand, register with which speed the finger 14 is lifted off the sensor field 18, and on the other hand register the distance of the finger 14 to the sensor field and possibly float movements of the finger 14 from the contact point A above the sensor field 18, where the distance d can be taken into account or not. For example, removing the finger 14 a distance far enough away from the sensor array 18 may cause termination of the actuation sequence. Also, the time that the finger floats above the sensor field 18 and other times may be included in the assignment of the action to the actuation sequence, for example how long the finger 14 presses the sensor field 18.
  • the sensor panel 18 or 10 and 10 ' may be pressure sensitive and register the touch pressure, with the corresponding triggered action being selected according to the touch pressure.
  • FIGS. 5a to 5c show an actuation sequence and the action triggered on the display 4.
  • Fig. 5a the finger 14 pushes the field 4.2 of the display 4.
  • the pressure on the field 4.2 is registered by the controller 6 and monitoring of the sequence begins.
  • the finger 14 is then lifted after pressing the sensor array 18 in the field 4.2 from the sensor array 18 and floats for a particular Period at a distance above the sensor field 18, for example, half a second or longer. This is recognized as an actuation sequence and an information box is displayed, which explains the function of the field 4.2. Pressing the sensor field 18 again in the field 4.2 can then trigger the function.
  • a firm press for example, can be interpreted as triggering the action or function assigned to the corresponding field 4.2.
  • a light press and release may be interpreted as unsafe and as the operator wishes to learn more about the function of field 4.2.
  • Another firm pressing of the field 4.2 of the sensor field 18 can be interpreted as an actuation request.
  • the display 4 can return to its normal state.
  • the information box shown in Fig. 5b can be hidden after a certain time. Incidentally, a further action of the motor vehicle module 2 can be omitted.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Beschrieben wird ein Verfahren zur Steuerung eines Kraftfahrzeugmoduls (2, 2', 2") mit einem Sensorfeld (10, 10', 18), wobei eine folgende Schritte umfassende Betätigungssequenz erkannt wird: - Berührung des Sensorfeldes (10, 10', 18) mittels eines Bedienelements (14), - Abheben des Bedienelements (14) vom Sensorfeld (10, 10', 18), Handlung des Bedienelements (14) über dem Sensorfeld (10, 10', 18), wobei im Falle einer erkannten Betätigungssequenz eine der Betätigungssequenz zugewiesene Aktion des Kraftfahrzeugmoduls (2, 2', 2") ausgelöst wird. Beschrieben wird desweiteren ein entsprechendes Kraftfahrzeugmodul (2, 2', 2").

Description

Verfahren zur Steuerung eines Kraftfahrzeugmoduls und Kraftfahrzeugmodul
Die Erfindung betrifft ein Verfahren zur Steuerung eines ein Sensorfeld umfassendes Kraftfahrzeugmoduls sowie ein Kraftfahrzeugmodul.
Verfahren der eingangs genannten Art sind im Stand der Technik bekannt. Die US 2014/0253515 A1 offenbart ein Verfahren zur Verwendung von Fingerkraft auf einem Touchpad zur Steuerung eines Computersystems. Dabei werden Daten von dem Touch- pad bezogen, wobei die Daten mit der Position und der Kraft eines Finger- oder Handdrucks auf das Touchpad assoziiert werden. Dabei wird des Weiteren beschrieben, dass Fingerschwebealgorithmen verwendet werden, wobei Fingerschweben als Hervorheben oder auf andere Arten grafisches Verändern einer virtuellen Taste eines virtuellen Keyboards zu verstehen ist, sobald das System vermutet, dass ein Finger des Benutzers über der virtuellen Taste schwebt.
Nachteilig hieran ist, dass aufgrund der verbundenen Unsicherheit der richtigen Erkennung eines über dem Sensorfeld schwebenden Fingers keine andere Aktion als grafisches Hervorheben ausgelöst werden kann, da sonst das Risiko von Fehlbedienungen zu groß ist. Solche Fehlbedienungen sind bei Kraftfahrzeugen zu vermeiden, da sie zu Ablenkungen des Fahrers führen können.
Somit stellt sich die Aufgabe, Verfahren und Kraftfahrzeugmodule der eingangs genannten Art dahingehend weiterzubilden, dass weitere Bediengesten möglich sind, die eine intuitive Steuerung des Kraftfahrzeugmoduls bei hoher Präzision erlauben.
Die Aufgabe wird gelöst durch ein Verfahren zur Steuerung eines Kraftfahrzeugmoduls nach Anspruch 1 sowie ein Kraftfahrzeugmodul gemäß dem nebengeordneten Anspruch 8. Weiterführende Ausgestaltungen des Verfahrens sowie des Kraftfahrzeugmoduls sind Gegenstand der abhängigen Ansprüche. Das nachfolgend beschriebene Verfahren zur Steuerung eines Kraftfahrzeugmoduls, welches ein Sensorfeld aufweist, sieht vor, dass eine die nachfolgenden Schritte umfassende Betätigungssequenz erkannt wird:
Berührung des Sensorfelds mittels eines Bedienelements,
anschließendes Abheben des Bedienelements vom Sensorfeld,
Handlung des Bedienelements über dem Sensorfeld, wobei im Falle einer erkannten Betätigungssequenz eine der Betätigungssequenz zugewiesene Aktion des Kraftfahrzeugmoduls ausgelöst wird.
Gegenüber den aus dem Stand der Technik bekannten Verfahren kann durch das Drücken des Sensorfelds vor dem Schweben des Bedienelements über dem Sensorfeld sichergestellt werden, dass der Bediener des Kraftfahrzeugmoduls tatsächlich eine Aktion auslösen möchte. Zudem kann die Positionsgenauigkeit erhöht werden, da die Berührung des Sensorfeldes an einer bestimmten Stelle die entsprechende Position vorgibt. Im Falle ausgedehnter Bedienelemente kann somit der Wunschort der Berührung des Sensorfelds genauer erkannt werden, sofern das Sensorfeld eine zweidimensionale Auflösung des Berührortes erlaubt.
Das Bedienelement kann beispielsweise ein Finger oder eine Hand eines Bedieners sein, zudem kann das Bedienelement beispielsweise ein Eingabestift oder ein anderes Element sein, das zur Bedienung des Sensorfelds geeignet ist. Das Sensorfeld selbst ist dazu geeignet Handlungen des Bedienelementes auf dem Sensorfeld und Handlungen die zum Sensorfeld beabstandet, d.h. über dem Sensorfeld ausgeführt werden zu erkennen. Weiter ist das Sensorfeld geeignet einen Abstand des Bedienelementes zum Sensorfeld zu bestimmen. Die Berührung des Sensorfeldes wird bevorzugt mittels einem kapazitiven Sensorfeld ermittelt, alternativ mittels einem resistiven Sensorfeld oder anderen geeigneten Mitteln zur Erkennung einer Berührung. Der Abstand des Bedienelementes zum Sensorfeld sowie die mit Abstand ausgeführten Handlungen werden bevorzugt über Kapazitätsänderungen an einem kapazitiven Sensorfeld oder alternativ durch Kameras, Ultraschall, lichtbasierte Messverfahren (Lichtquellen und -Empfänger bspw. Infrarot) oder andere geeignete Verfahren bestimmt.
Der Begriff "über dem" im vorgenannten Sinne ist nicht im Sinne eines in einem Schwerefeld orientierten Bezugssystem, also vertikal oberhalb des Sensorfeldes zu verstehen, sondern im Sinne einer Handlung des Bedienelements in einem Abstand vom Sensorfeld, was der Fachmann jedoch als„über dem" Sensorfeld bezeichnet. Somit ist die Lage des Sensorfelds für die Bezeichnung "über dem" unerheblich. Beispielsweise bei einem im Wesentlichen horizontal angeordneten Sensorfeld ist "über dem" als vertikal oberhalb o- der unterhalb des Sensorfeldes zu verstehen. Beispielsweise bei einem im Wesentlichen vertikal angeordneten Sensorfeld ist "über dem" als horizontal zu dem Sensorfeld beabstandet zu verstehen.
In einer ersten weiterführenden Ausgestaltung kann vorgesehen sein, dass die Handlung des Bedienelements eine Entfernungsänderung des Bedienelements vom Sensorfeld und/oder ein Schweben des Bedienelements über dem Sensorfeld umfasst.
Somit kann die Aktion abhängig davon unterschiedlich ausfallen, ob eine Entfernungsänderung des Bedienelements erfolgt, oder ob das Bedienelement über dem Sensorfeld schwebend gehalten wird. Entsprechende Aktionen können Funktionen der Handlung des Bedienelements über dem Sensorfeld sein und somit möglicherweise von der Geschwindigkeit, mit der das Bedienelement bewegt wird, abhängen. Eine Entfernungsänderung kann ein Zoomen einer Navigationskarte bewirken, Schweben bzw. Halten des Bedienelements über dem Sensorfeld kann zum Beispiel eine Funktion eines Infotainmentsys- tems des Kraftfahrzeuges auslösen.
In einer anderen weiterführenden Ausgestaltung kann vorgesehen sein, dass die Handlung des Bedienelements eine zum Sensorfeld im Wesentlichen parallele Bewegung des Bedienelements über das Sensorfeld hinweg umfasst.
Die Bewegung des Bedienelements muss nicht exakt parallel erfolgen, gewisse Toleranzen können im Rahmen des Verfahrens akzeptiert werden, wie diese bei einer Betätigung durch einen Menschen üblich sind. Für die Aktion können Richtung und Bewegungsgeschwindigkeit sowie Abstand und/oder Abstandsänderung der Bewegung des Bedienelements relativ zu dem Sensorfeld berücksichtigt werden. Abhängig davon, welche Aktion der Betätigungssequenz zugewiesen ist, können diese Aspekte der Betätigungssequenz Parameter der Aktion sein oder unterschiedliche Aktionen auslösen. In einem Navigationssystem kann eine derartige Geste ein Kartenzoom auslösen. In einem Infotainment- system kann hierdurch zum Beispiel ein Scrollen in Untermenüpunkten eines durch Schweben des Bedienelements aufgerufenen Menüs bewirkt werden. In einer anderen weiterführenden Ausgestaltung kann vorgesehen sein, dass die Handlung des Bedienelements über dem Sensorfeld ein anschließendes erneutes Berühren des Sensorfelds umfasst.
Auf diese Weise können weitere Aktionen mit dem Grundgedanken des Berührens des Sensorfelds, des anschließenden Abhebens des Bedienelements und der Handlung verknüpft werden, was die Bedienung des Kraftfahrzeugmoduls erleichtert und intuitiver macht. Ein erneutes Berühren des Sensorfelds kann in einem Infotainmentsystem zum Beispiel zur Selektion eines durch die Handlung des Bedienelements ausgewählten Menüpunktes dienen.
Eine weitere mögliche Weiterbildung kann vorsehen, dass die ausgelöste Aktion des Kraftfahrzeugmoduls durch Verweilen des Bedienelements in einer Position über einen vorgebbaren Zeitraum oder eine Tippgeste eine Fingers beendet wird.
Auf diese Weise kann die Ausführung einer Fehlbedienung unterbunden werden. Eine Handlung des Bedienelements über dem Sensorfeld wie ein Verweilen in einer Position oder wie eine Tippgeste kann eine vorangegangene Aktion des Kraftfahrzeugmoduls beenden bspw. ein Zoomen durch Abstandveränderung zum Sensorfeld stoppen, sodass die letzte Ansicht durch Abstandsveränderung nicht mehr verändert wird.
In einer anderen weiterführenden Ausgestaltung kann eine Druckkraft des Bedienelements auf das Sensorfeld erkannt werden, wobei die zugewiesene Aktion von der Druckkraft abhängen kann.
Es können somit unterschiedliche Kraftbereiche definiert werden, in denen unterschiedliche Aktionen ausgelöst werden. Des Weiteren sind unterschiedliche Sequenzen denkbar, die mit unterschiedlichen Aktionen verknüpft sind, beispielsweise leicht drücken, abheben, fest drücken oder fest drücken, abheben, leicht drücken oder leicht drücken, abheben, leicht drücken etc.
Das Erkennen der Druckkraft kann mittels eines resistiven Touchpads oder ein mit dem dem Touchpad zusammenwirkenden Schalter oder Kraftaufnehmer vorgenommen werden. Durch Aufbringen eines Drucks kann beispielsweise eine vorab selektierte Funktion aktiviert werden. In einer anderen weiterführenden Ausgestaltung kann vorgesehen sein, dass die der Betätigungssequenz zugewiesene Aktion eine oder mehrere der folgenden Aktionen ist:
Ändern der Lautstärke eines Multimediasystems;
Ein- und Auszoomen aus einer Darstellung auf einem Bildschirm;
Anzeigen eines Hilfedialogs auf einem Bildschirm;
Anzeigen eines Auswahlmenüs auf einem Bildschirm und/oder
Rollen oder Blättern in einem auf einem Bildschirm angezeigten Auswahlmenü.
So kann beispielsweise eine Bewegung des Bedienelements parallel zu und über dem Sensorfeld in eine bestimmte Richtung die Lautstärke eines Multimediasystems erhöhen oder verringern. Des Weiteren kann beispielsweise die Geschwindigkeit, Distanz und Verweildauer des Bedienelements beim oder nach dem Abheben dazu dienen, ein Ein- oder Auszoomen hinsichtlich des gewünschten Vergrößerungsmaßstabs oder der Änderung des Vergrößerungsmaßstabs zu bestimmen. Schwebenlassen des Bedienelements über dem Sensorfeld kann beispielsweise dazu dienen, einen Hilfedialog aufzurufen, sodass der Bediener des Kraftfahrzeugmoduls sich über die Funktion einer entsprechenden Taste informieren kann, bevor er die entsprechende Aktion auslöst. Wenn Auswahlmenüs mit einem Sensorfeld bzw. einem bestimmten Bereich des Sensorfelds verknüpft sind, kann das Auswahlmenü durch Schwebenlassen des Bedienelements über dem Sensorfeld aufgerufen werden. Ein Bewegen des Bedienelements in bestimmte Richtung (zum Beispiel nach oben/unten oder links/rechts) kann ein Rollen bzw. Blättern des Auswahlmenüs auf dem Sensorfeld bedingen.
Die Aktion kann auch eine Aktionssequenz sein. So können nach Ausführen einer ersten Teilhandlung erste Teilaktionen ausgelöst werden und weitere Teilaktionen nach Ausführen weiterer Teilhandlungen. So kann beispielsweise Drücken des Sensorfeldes und anschließendes Abheben des Bedienelements vom Sensorfeld eine Hilfefunktion aufrufen und erneutes Drücken eine andere Aktion des Kraftfahrzeugmoduls bewirken.
Ein erster unabhängiger Gegenstand betrifft ein Kraftfahrzeugmodul mit einem Sensorfeld, wobei das Kraftfahrzeugmodul eine Recheneinheit und ein computerlesbares Speichermedium aufweist, wobei auf dem computerlesbaren Speichermedium ein Computerprogrammprodukt gespeichert ist, auf dem Befehle eingebettet sind, die, wenn sie von der Recheneinheit ausgeführt werden, bewirken, dass die Recheneinheit dazu eingerichtet ist, ein Verfahren der vorgenannten Art auszuführen. Ein entsprechendes Kraftfahrzeugmodul in einem Kraftfahrzeug erlaubt eine intuitivere Bedienung desselben und eine einfachere Struktur der Bedienlogik der Funktionen des Kraftfahrzeug moduls, die mittels des Sensorfeldes angesteuert werden sollen.
Ein entsprechendes Kraftfahrzeugmodul kann beispielsweise ein Multimediasystem, ein Navigationssystem, eine komplexere integrierte Steuereinheit wie ein Infotainmentsystem sein, die die vorgenannten und weitere Kraftfahrzeugfunktionen steuert, beispielsweise eine Klimaanlage, eine Dämpferabstimmung, Beleuchtung etc..
In einer ersten weiterführenden Ausgestaltung kann vorgesehen sein, dass das Sensorfeld auf einem berührungsempfindlichen Bildschirm oder einem separaten Bedienfeld angeordnet ist.
Das Sensorfeld kann beispielsweise ein Icon auf einem Touchdisplay oder ein separates Bedienfeld sein. Sofern das Sensorfeld auf einem Bildschirm angeordnet ist, lässt sich eine Bedienung direkt am Bildschirm bewirken. Ein separates Sensorfeld zur Bedienung eines Displays kann beispielsweise ein Schriftenfeld sein, auf dem Buchstaben eingebbar sind, es kann ein dezidiertes Tastensensorfeld sein oder dergleichen mehr.
In einer anderen weiterführenden Ausgestaltung kann das Sensorfeld in einem Lenkrad des Kraftfahrzeugs angeordnet sein. Auf diese Weise kann eine Bedienung des Kraftfahrzeugmoduls erreicht werden, ohne dass der Fahrer die Hand vom Lenkrad nehmen muss. Das Sensorfeld kann des Weiteren beispielsweise in der Mittelkonsole angeordnet sein und dort beispielsweise entweder als separates Feld oder als Feld auf einem anderen Bedienelement, beispielsweise einem DretWDrücksteller ausgebildet sein.
Ein entsprechendes Sensorfeld im Lenkrad zur Steuerung z.B. eines Infotainmentsystems wird vorzugsweise durch Bewegung des Daumens gesteuert. Hierdurch wird eine
Bedienung in einer weiteren Ebene ermöglicht, sodass sich die Bedienmöglichkeiten von Drücken und Wischen auf dem Sensorfeld auf Handlungen des Bedienelements über dem Sensorfeld erweitern.
Nachfolgend werden mehrere Ausführungsformen beschrieben. Dabei zeigen schematisch:
Fig. 1 ein Kraftfahrzeugmodul in einer ersten Ausgestaltung; Fig 2 ein Kraftfahrzeugmodul in einer zweiten Ausgestaltung;
Fig 3 ein Kraftfahrzeugmodul in einer dritten Ausgestaltung;
Fig. 4a bis 4c eine Betätigungssequenz sowie
Fig. 5a bis 5c eine Anzeige des Kraftfahrzeugmoduls in Abhängigkeit von der Betätigungssequenz.
In den nachfolgenden Ausführungsbeispielen werden zur besseren Lesbarkeit gleiche o- der gleichwirkende Elemente mit gleichen Bezugszeichen versehen.
Fig. 1 zeigt eine erste Ausführungsform eines Kraftfahrzeugmoduls 2.
Das Kraftfahrzeugmodul 2 kann beispielsweise ein Infotainmentsystem eines Kraftfahrzeuges zur Steuerung von Multimediafunktionen, Navigationssystem, Kraftfahrzeugfunkti- onen und dergleichen sein.
Das Kraftfahrzeugmodul 2 weist eine Anzeige 4 auf, die zur Darstellung von Informationen dient. Die Anzeige 4 ist druckempfindlich ausgestaltet, sodass diese durch Drücken der Oberfläche bedient werden kann. Hierzu kann ein in der Draufsicht nach Fig. 1 nicht sichtbares Sensorfeld (siehe hierzu Fig. 4a bis 4c) vorgesehen sein.
Das entsprechende Sensorfeld kann kapazitativ ausgestaltet sein und Kapazitätsänderungen registrieren, die durch Näherung mit einem das Kapazitätsfeld verändernden Bedienelement, beispielsweise einem Finger eines Menschen, erkennen. Dabei kann das Sensorfeld unterschiedliche Sensitivitäten haben und unterschiedliche Sensitivitäten in Abhängigkeit von der Bediensequenz aktivieren, um eine hohe Zuordnungsgenauigkeit von Bediensequenz zu Aktion zu erlauben. Das über der Anzeige 4 angeordnete Sensorfeld ist im dargestellten Ausführungsbeispiel so ausgestaltet, dass es weitgehend unsichtbar ist, um die Darstellung der Anzeige 4 nicht zu stören.
Mit der Anzeige 4 ist eine Recheneinheit 6 verbunden, die zur Steuerung der Anzeige 4 dient und Eingaben des in Fig. 1 nicht sichtbaren Sensorfeldes registriert. Die Recheneinheit 6 weist einen Speicher 8 auf, auf dem ein Computerprogrammprodukt gespeichert ist, das, wenn es geladen und von der Recheneinheit 6 ausgeführt wird, bewirkt, dass die in Fig. 4a bis 4c dargestellte Betätigungssequenz erkannt wird und eine dieser Betätigungssequenz zugeordnete Aktion ausgeführt wird.
Die Anzeige 4 kann verschiedene Bereiche 4.1 bis 4.6 aufweisen, denen jeweils unterschiedliche Aktionen zugewiesen sind, beispielsweise in einem Multimediasystem Steuerfunktionen wie lauter, leiser, nächster Titel etc.
Fig. 2 zeigt eine zweite Ausführungsform eines Kraftfahrzeugmoduls 2'.
Das Kraftfahrzeugmodul 2' weist gegenüber dem Kraftfahrzeugmodul 2 aus Fig. 1 ein separates Sensorfeld 10 auf, das mit der Recheneinheit 6 verbunden ist. Dabei kann vorgesehen sein, dass die Anzeige 4 ebenfalls ein Sensorfeld aufweist oder kein Sensorfeld aufweist und eine Bedienung über das Sensorfeld 10 und weitere Bedienelemente erfolgt. Das Sensorfeld 10 kann beispielsweise in einer Mittelkonsole eines Kraftfahrzeugs angeordnet sein.
Das entsprechende Sensorfeld kann kapazitativ ausgestaltet sein und Kapazitätsänderungen registrieren, die durch Näherung mit einem das Kapazitätsfeld verändernden Bedienelement, beispielsweise einem Finger eines Menschen, erkennen. Dabei kann das Sensorfeld unterschiedliche Sensitivitäten haben und unterschiedliche Sensitivitäten in Abhängigkeit von der Bediensequenz aktivieren, um eine hohe Zuordnungsgenauigkeit von Bediensequenz zu Aktion zu erlauben.
Ein möglicherweise über der Anzeige 4 angeordnetes Sensorfeld ist im dargestellten Ausführungsbeispiel so ausgestaltet, dass es weitgehend unsichtbar ist, um die Darstellung der Anzeige 4 nicht zu stören.
Mit der Anzeige 4 ist eine Recheneinheit 6 verbunden, die zur Steuerung der Anzeige 4 dient und Eingaben des in Fig. 1 nicht sichtbaren Sensorfeldes registriert.
Die Recheneinheit 6 weist einen Speicher 8 auf, auf dem ein Computerprogrammprodukt gespeichert ist, das, wenn es geladen und von der Recheneinheit 6 ausgeführt wird, bewirkt, dass die in Fig. 4a bis 4c dargestellte Betätigungssequenz erkannt wird und eine dieser Betätigungssequenz zugeordnete Aktion ausgeführt wird. Die Anzeige 4 kann verschiedene Felder 4.1 bis 4.6 aufweisen, denen jeweils unterschiedliche Aktionen zugewiesen sind, beispielsweise in einem Multimediasystem Steuerfunktionen wie lauter, leiser, nächster Titel etc..
Fig. 3 zeigt eine dritte Ausführungsform eines Kraftfahrzeugmoduls 2".
Im Gegensatz zu Fig. 2 ist hier ein separates Sensorfeld 10' in einem Lenkrad 12 angeordnet, wobei das Sensorfeld 10' mit der Recheneinheit 6 verbunden ist.
Das entsprechende Sensorfeld 10' kann kapazitativ ausgestaltet sein und Kapazitätsänderungen registrieren, die durch Näherung mit einem das Kapazitätsfeld verändernden Bedienelement, beispielsweise einem Finger eines Menschen, erkennen. Dabei kann das Sensorfeld unterschiedliche Sensitivitäten haben und unterschiedliche Sensitivitäten in Abhängigkeit von der Bediensequenz aktivieren, um eine hohe Zuordnungsgenauigkeit von Bediensequenz zu Aktion zu erlauben.
Ein möglicherweise über der Anzeige 4 angeordnete Sensorfeld ist im dargestellten Ausführungsbeispiel so ausgestaltet, dass es weitgehend unsichtbar ist, um die Darstellung der Anzeige 4 nicht zu stören.
Mit der Anzeige 4 ist eine Recheneinheit 6 verbunden, die zur Steuerung der Anzeige 4 dient und Eingaben des in Fig. 1 nicht sichtbaren Sensorfeldes registriert.
Die Recheneinheit 6 weist einen Speicher 8 auf, auf dem ein Computerprogrammprodukt gespeichert ist, das, wenn es geladen und von der Recheneinheit 6 ausgeführt wird, bewirkt, dass die in Fig. 4a bis 4c dargestellte Betätigungssequenz erkannt wird und eine dieser Betätigungssequenz zugeordnete Aktion ausgeführt wird.
Die Anzeige 4 kann verschiedene Felder 4.1 bis 4.6 aufweisen, denen jeweils unterschiedliche Aktionen zugewiesen sind, beispielsweise in einem Multimediasystem Steuerfunktionen wie lauter, leiser, nächster Titel etc.
Die Fig. 4a bis 4c zeigen eine Betätigungssequenz des Kraftfahrzeugmoduls 2 mit einem Finger 14.
In der Seitenansicht aus Fig. 2 ist zu erkennen, dass die Anzeige 4 einen Bildschirm 16 sowie ein Sensorfeld 18 aufweist. Das Sensorfeld 8 ist oberhalb des Bildschirms ange- ordnet, wobei oberhalb im Sinne von auf der dem Bediener zugewandten Seite zu verstehen ist.
Der Finger 14 wird an einer bestimmten Stelle A auf das Sensorfeld 18 hinzubewegt, was in Fig. 4a durch den entsprechenden Pfeil dargestellt ist.
In Fig. 4b ist gezeigt, dass der Finger 14 das Sensorfeld 18 an der Stelle A berührt. Diese Berührung wird durch die Recheneinheit 6 registriert und die Überwachung einer Betätigungssequenz ausgelöst.
Wie in Fig. 4c zu sehen ist, wird der Finger 14 wieder vom Sensorfeld 18 abgehoben und schwebt in einer Distanz d oberhalb des Berührpunktes A. Dies wird von der Recheneinheit 6 erkannt und eine dieser Betätigungssequenz zugeordnete Aktion ausgelöst.
Die Recheneinheit 6 kann nach dem Berühren des Sensorfeldes einerseits registrieren, mit welcher Geschwindigkeit der Finger 14 von dem Sensorfeld 18 abgehoben wird, andererseits die Distanz des Fingers 14 zum Sensorfeld registrieren und möglicherweise Bewegungen des Fingers 14 vom Berührpunkt A über dem Sensorfeld 18 schwebend weg, wobei die Distanz d berücksichtigt werden kann oder nicht. So kann beispielsweise ein Entfernen des Fingers 14 in eine Distanz weit genug vom Sensorfeld 18 weg eine Beendigung der Betätigungssequenz bewirken. Auch die Zeit, die der Finger über dem Sensorfeld 18 schwebt und andere Zeiten können in die Zuordnung der Aktion zur Betätigungssequenz einfließen, beispielsweise wie lange der Finger 14 das Sensorfeld 18 drückt.
In manchen Ausgestaltungen kann das Sensorfeld 18 bzw. 10 und 10' druckempfindlich sein und den Berührdruck registrieren, wobei die entsprechend ausgelöste Aktion dem Berührdruck entsprechend ausgewählt wird.
Die Fig. 5a bis 5c zeigen eine Betätigungssequenz und die auf der Anzeige 4 ausgelöste Aktion.
In Fig. 5a drückt der Finger 14 das Feld 4.2 der Anzeige 4. Der Druck auf das Feld 4.2 wird von der Steuerung 6 registriert und eine Überwachung der Sequenz beginnt.
Wie in Fig. 5b gezeigt ist, wird der Finger 14 anschließend nach dem Drücken des Sensorfelds 18 im Feld 4.2 vom Sensorfeld 18 abgehoben und schwebt für einen bestimmten Zeitraum in einem Abstand über dem Sensorfeld 18, beispielsweise eine halbe Sekunde oder länger. Dies wird als Betätigungssequenz erkannt und eine Informationsbox dargestellt, die die Funktion des Feldes 4.2 erläutert. Erneutes Drücken des Sensorfeldes 18 im Feld 4.2 kann dann die Funktion auslösen.
Bei einem druckempfindlichen Sensorfeld kann dabei unterschieden werden, ob das Sensorfeld 18 im Feld 4.2 leicht oder fest gedrückt wurde. Ein festes Drücken kann beispielsweise als Auslösen der dem entsprechenden Feld 4.2 zugewiesenen Aktion bzw. Funktion interpretiert werden. Ein leichtes Drücken und Abheben kann als unsicher interpretiert werden und als Wunsch des Bedieners, mehr über die Funktion des Felds 4.2 zu erfahren. Erneutes festes Drücken des Felds 4.2 des Sensorfeldes 18 kann als Betätigungswunsch interpretiert werden.
Entfernen des Fingers 14 vom Sensorfeld 18, wie in Fig. 5c dargestellt, kann die Anzeige 4 wieder in ihren Normalzustand zurückversetzen.
Die in Fig. 5b gezeigte Informationsbox kann nach einer gewissen Zeit ausgeblendet werden. Im Übrigen kann eine weitere Aktion des Kraftfahrzeugmoduls 2 unterbleiben.

Claims

Patentansprüche
1. Verfahren zur Steuerung eines Kraftfahrzeugmoduls (2, 2', 2") mit einem Sensorfeld (10, 10', 18),
dadurch gekennzeichnet, dass
eine folgende Schritte umfassende Betätigungssequenz erkannt wird:
Berührung des Sensorfeldes (10, 10', 18) mittels eines Bedienelements (14),
- Abheben des Bedienelements (14) vom Sensorfeld (10, 10', 18),
- Handlung des Bedienelements (14) über dem Sensorfeld (10, 10', 18), wobei im Falle einer erkannten Betätigungssequenz eine der Betätigungssequenz zugewiesene Aktion des Kraftfahrzeugmoduls (2, 2', 2") ausgelöst wird.
2. Verfahren nach Anspruch 1 ,
dadurch gekennzeichnet, dass
die Handlung des Bedienelements (14) eine Entfernungsänderung des
Bedienelements (14) vom Sensorfeld (10, 10', 18) und/oder ein Schweben des Bedienelements (14) über dem Sensorfeld (10, 10', 18) umfasst.
3. Verfahren nach Anspruch 1 oder 2,
dadurch gekennzeichnet, dass
die Handlung des Bedienelements (14) eine zum Sensorfeld (10, 10', 18) parallele Bewegung des Bedienelements (14) umfasst.
4. Verfahren nach einem der vorangegangenen Ansprüche,
dadurch gekennzeichnet, dass der Handlung des Bedienelements (14) über dem Sensorfeld (10, 10', 18) ein anschließendes erneutes Berühren des Sensorfeldes (10, 10', 18) umfasst.
5. Verfahren nach einem der vorangegangenen Ansprüche
dadurch gekennzeichnet, dass
die ausgelöste Aktion des Kraftfahrzeugmoduls (2, 2', 2") durch Verweilen des Bedienelements (14) in einer Position über einen vorgebbaren Zeitraum oder eine Tippgeste beendet wird.
6. Verfahren nach einem der vorangegangenen Ansprüche
dadurch gekennzeichnet, dass
eine Druckkraft des Bedienelements (14) auf das Sensorfeld (10, 10', 18) erkannt wird.
7. Verfahren nach einem der vorangegangenen Ansprüche,
dadurch gekennzeichnet, dass
die der Betätigungssequenz zugewiesene Aktion eine oder mehrere der folgenden Aktionen ist:
- Ändern der Lautstärke eines Multimediasystems;
- Ein- oder Auszoomen einer Darstellung auf einem Bildschirm;
- Anzeigen eines Hilfedialogs auf einem Bildschirm;
- Anzeigen eines Auswahlmenüs auf einem Bildschirm,
- Rollen oder Blättern in einem auf einem Bildschirm angezeigten Auswahlmenü.
8. Kraftfahrzeugmodul mit einem Sensorfeld (10, 10', 18), wobei das Kraftmodul eine Recheneinheit (6) und ein computerlesbares Speichermedium (8) aufweisen, dadurch gekennzeichnet, dass
auf dem computerlesbaren Speichermedium (8) ein Computerprogrammprodukt gespeichert ist, auf dem Befehle eingebettet sind, die, wenn sie von der
Recheneinheit (6) ausgeführt werden, bewirken, dass die Recheneinheit (6) dazu eingerichtet ist, ein Verfahren gemäß einem der vorgenannten Ansprüche auszuführen.
9. Kraftfahrzeugmodul nach Anspruch 8 dadurch gekennzeichnet, dass
das Sensorfeld auf einem berührungsempfindlichen Bildschirm (10) oder separaten Bedienfeld (10', 18) angeordnet ist.
10. Kraftfahrzeugmodul nach einem der Ansprüche 8 bis 9
dadurch gekennzeichnet, dass
das Sensorfeld (10') in einem Lenkrad (12) des Kraftfahrzeuges angeordnet ist.
PCT/EP2017/001018 2016-09-21 2017-08-28 Verfahren zur steuerung eines kraftfahrzeugmoduls und kraftfahrzeugmodul WO2018054522A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102016011365.0A DE102016011365A1 (de) 2016-09-21 2016-09-21 Verfahren zur Steuerung eines Kraftfahrzeugmoduls und Kraftfahrzeugmodul
DE102016011365.0 2016-09-21

Publications (1)

Publication Number Publication Date
WO2018054522A1 true WO2018054522A1 (de) 2018-03-29

Family

ID=59761914

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2017/001018 WO2018054522A1 (de) 2016-09-21 2017-08-28 Verfahren zur steuerung eines kraftfahrzeugmoduls und kraftfahrzeugmodul

Country Status (2)

Country Link
DE (1) DE102016011365A1 (de)
WO (1) WO2018054522A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019215290A1 (de) * 2019-10-04 2021-04-08 Brose Fahrzeugteile Se & Co. Kommanditgesellschaft, Bamberg Verfahren zum Betrieb einer Eingabevorrichtung eines Kraftfahrzeugs

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009038333A1 (de) * 2009-08-20 2011-02-24 Volkswagen Ag Kraftfahrzeug
US20140253515A1 (en) 2010-04-23 2014-09-11 Handscape Inc. Method Using Finger Force Upon a Touchpad for Controlling a Computerized System
WO2015121173A1 (de) * 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und verfahren zum wechseln von einem ersten bedienmodus einer anwenderschnittstelle in einen 3d-gesten-modus
EP3009799A1 (de) * 2009-02-09 2016-04-20 Volkswagen Aktiengesellschaft Verfahren zum betrieb eines kraftfahrzeuges mit einem touchscreen

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3009799A1 (de) * 2009-02-09 2016-04-20 Volkswagen Aktiengesellschaft Verfahren zum betrieb eines kraftfahrzeuges mit einem touchscreen
DE102009038333A1 (de) * 2009-08-20 2011-02-24 Volkswagen Ag Kraftfahrzeug
US20140253515A1 (en) 2010-04-23 2014-09-11 Handscape Inc. Method Using Finger Force Upon a Touchpad for Controlling a Computerized System
WO2015121173A1 (de) * 2014-02-17 2015-08-20 Volkswagen Aktiengesellschaft Anwenderschnittstelle und verfahren zum wechseln von einem ersten bedienmodus einer anwenderschnittstelle in einen 3d-gesten-modus

Also Published As

Publication number Publication date
DE102016011365A1 (de) 2018-03-22

Similar Documents

Publication Publication Date Title
EP1811364B1 (de) Anzeigevorrichtung mit Berührung sensitiver Oberfläche
EP3234756B1 (de) Verfahren zum betreiben einer bedienvorrichtung eines kraftfahrzeugs bei einer mehrfingerbedienung
EP3234743B1 (de) Verfahren zum betreiben einer bedienvorrichtung eines kraftfahrzeugs in unterschiedlichen bedienmodi sowie bedienvorrichtung und kraftfahrzeug
EP2574881B1 (de) Verfahren zum Betrieb eines Bediensystems für ein Fahrzeug und Bediensystem für ein Fahrzeug
EP3366434A1 (de) Verfahren zur überprüfung einer funktion eines fahrzeuges und/oder zumindest einer bedieneinrichtung
DE102017121342A1 (de) Anzeigesteuerungsvorrichtung, anzeigesteuerungssystem und anzeigesteuerungsverfahren
DE102009057081A1 (de) Verfahren zum Bereitstellen einer Benutzerschnittstelle
WO2013053529A1 (de) Bediensystem und verfahren zur darstellung einer bedienfläche
WO2014067774A1 (de) Verfahren und vorrichtung zum betreiben einer eingabevorrichtung
DE102009059869A1 (de) Verfahren zum Bereitstellen einer Benutzerschnittstelle und Bedienvorrichtung
EP3426516B1 (de) Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung
EP3347804B1 (de) Bedienvorrichtung mit zeicheneingabe und löschfunktion
WO2018054522A1 (de) Verfahren zur steuerung eines kraftfahrzeugmoduls und kraftfahrzeugmodul
DE102009039114B4 (de) Bedienvorrichtung für ein Fahrzeug
DE102013105507A1 (de) Verfahren und Vorrichtung zur Bedienung mindestens eines Bildschirms in einem Fahrzeug
DE102005056459A1 (de) Bediensystem für ein Fahrzeug
EP3990301B1 (de) Bedieneinheit mit einer berührungssensitiven bedienfläche
EP3924209B1 (de) Bedienvorrichtung mit einem berührungsempfindlichen element und verfahren zum erfassen einer bediengeste
DE102013021814A1 (de) Bedienvorrichtung mit Eyetracker
DE102012013537A1 (de) Verfahren zum Übertragen eines graphischen Objekts
EP3025214B1 (de) Verfahren zum betreiben einer eingabevorrichtung, sowie eingabevorrichtung
WO2021185664A1 (de) Verfahren und vorrichtung zur auswahl von auf einem bildschirm angezeigten eingabefeldern und/oder zur aktivierung von auf dem bildschirm in einem ausgewählten eingabefeld angezeigten eingabeinhalten durch manuelle eingaben
DE102013220830A1 (de) Eingabevorrichtung mit Touch Screen für Fahrzeuge
DE102008023890A1 (de) Bedieneinrichtung mit einer Anzeigeeinrichtung sowie Verfahren zu ihrem Betrieb
DE102019212278A1 (de) Bediensystem und Verfahren zum Betreiben des Bediensystems

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17761186

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17761186

Country of ref document: EP

Kind code of ref document: A1