WO2020193144A1 - Verfahren und vorrichtung zum erfassen eines parameterwerts in einem fahrzeug - Google Patents

Verfahren und vorrichtung zum erfassen eines parameterwerts in einem fahrzeug Download PDF

Info

Publication number
WO2020193144A1
WO2020193144A1 PCT/EP2020/056537 EP2020056537W WO2020193144A1 WO 2020193144 A1 WO2020193144 A1 WO 2020193144A1 EP 2020056537 W EP2020056537 W EP 2020056537W WO 2020193144 A1 WO2020193144 A1 WO 2020193144A1
Authority
WO
WIPO (PCT)
Prior art keywords
gesture
actuation
parameter value
area
input gesture
Prior art date
Application number
PCT/EP2020/056537
Other languages
English (en)
French (fr)
Inventor
Dirk PAPENDIECK
Oliver Jungeblut
Stefan Brosig
Original Assignee
Volkswagen Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen Aktiengesellschaft filed Critical Volkswagen Aktiengesellschaft
Priority to EP20713201.0A priority Critical patent/EP3947009A1/de
Priority to CN202080023882.7A priority patent/CN113573936A/zh
Publication of WO2020193144A1 publication Critical patent/WO2020193144A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60HARRANGEMENTS OF HEATING, COOLING, VENTILATING OR OTHER AIR-TREATING DEVICES SPECIALLY ADAPTED FOR PASSENGER OR GOODS SPACES OF VEHICLES
    • B60H1/00Heating, cooling or ventilating [HVAC] devices
    • B60H1/00642Control systems or circuits; Control members or indication devices for heating, cooling or ventilating devices
    • B60H1/00985Control systems or circuits characterised by display or indicating devices, e.g. voice simulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/26Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03KPULSE TECHNIQUE
    • H03K17/00Electronic switching or gating, i.e. not by contact-making and –breaking
    • H03K17/94Electronic switching or gating, i.e. not by contact-making and –breaking characterised by the way in which the control signals are generated
    • H03K17/96Touch switches
    • H03K17/962Capacitive touch switches
    • H03K17/9622Capacitive touch switches using a plurality of detectors, e.g. keyboard
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/111Instrument graphical user interfaces or menu aspects for controlling multiple devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/115Selection of menu items
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/119Icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/139Clusters of instrument input devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1434Touch panels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/1468Touch gesture
    • B60K2360/1472Multi-touch gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/332Light emitting diodes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/34Backlit symbols
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/345Illumination of controls
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03KPULSE TECHNIQUE
    • H03K2217/00Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00
    • H03K2217/94Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00 characterised by the way in which the control signal is generated
    • H03K2217/94052Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00 characterised by the way in which the control signal is generated with evaluation of actuation pattern or sequence, e.g. tapping
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03KPULSE TECHNIQUE
    • H03K2217/00Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00
    • H03K2217/94Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00 characterised by the way in which the control signal is generated
    • H03K2217/96Touch switches
    • H03K2217/96066Thumbwheel, potentiometer, scrollbar or slider simulation by touch switch
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03KPULSE TECHNIQUE
    • H03K2217/00Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00
    • H03K2217/94Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00 characterised by the way in which the control signal is generated
    • H03K2217/96Touch switches
    • H03K2217/9607Capacitive touch switches
    • H03K2217/960785Capacitive touch switches with illumination

Definitions

  • the present invention relates to a method and a device for detecting a parameter value in a vehicle.
  • a large number of electronic devices are provided, the setting and operation of which must be made possible for the driver or another vehicle occupant.
  • These devices include, for example, an air conditioning unit through which air can be directed into certain areas of the vehicle interior and by means of which further elements such as seat heaters can also be controlled.
  • Other facilities include a navigation system,
  • Driver assistance systems as well as communication and multimedia units, such as one
  • Telephone system or devices for reproducing music and speech such as a radio or CD player.
  • set parameters must be easy to grasp for the user in order to be able to assess whether a currently set parameter value should be changed or whether suitable settings can be retained.
  • DE 10 2016 200 110 A1 discloses a device for operating a heating / air conditioning system of a means of transport, in which a finger groove is formed in an essentially flat surface, in which swiping gestures can be detected.
  • the present invention is based on the object of providing a method and a device of the type mentioned at the outset which enable the most versatile and quick operation possible.
  • an input gesture is detected in a detection area and the detected input gesture is assigned to a first or second gesture type. If the captured input gesture was assigned to the first gesture type, a
  • Determination of the actuation trajectory and the parameter value is changed by an amount dependent on a length of the actuation trajectory. If the recorded input gesture has been assigned to the second gesture type, a
  • Operating position is determined and a predetermined parameter value assigned to the operating position is set.
  • Parameter value relative to the current value, while an absolute value is recorded for an input gesture of the second gesture type is recorded for an input gesture of the second gesture type.
  • the method therefore advantageously combines the advantages of relative and absolute input options for parameter values.
  • the input gesture is only changed relative to the currently set parameter value. For example, a certain length of the actuation trajectory, for example when wiping along a section of a slider element with a certain length, is assigned a certain amount by which the parameter value is increased or decreased.
  • the set parameter is assigned directly to the actuation position. This means that actuation, for example of a slider element, at a specific actuation position leads directly to the setting of a specific parameter value. So there is an absolute correlation between the
  • the parameter can be set particularly precisely by setting it using relative operation, for example by changing it in several small steps.
  • the user by selecting the appropriate input gesture, the user can quickly and easily decide which type of operation appears to be particularly useful in the current situation.
  • an actuation object is used to carry out an input gesture, in particular the hand or a finger of the user.
  • the user's finger is the object to be actuated; however, the information refers to other things
  • an “input gesture” means a certain position of the
  • Input gestures can be designed in a manner known per se. They include, in particular, tapping gestures, swiping gestures and holding gestures as well as combinations of several such gestures, possibly executed immediately one after the other. Further gestures, for example combined with a rotary movement, can also be provided.
  • the gestures are carried out in the detection area, which in particular comprises a surface of a detection unit.
  • gestures can be carried out in a detection area of practically any configuration and, if necessary, detected with different detection methods.
  • a gesture can also be recorded in three-dimensional space.
  • a virtual operating object for example a virtual button
  • the gesture can be recorded in a spatial region in which the virtual operating object is generated, for example, by means of a projection or by virtual reality methods, and a gesture is recorded with reference to this virtual operating object.
  • a position, a gesture trajectory, a direction and / or a speed of a gesture are recorded for this purpose.
  • the detection of the gesture can, for example, be optical or electronic
  • Detection procedures take place; For example, a laser,
  • the input gesture includes, for example, a touch at a specific position within the detection area, an actuation position and duration being detected until the touch is released. It can further comprise a swiping gesture, a movement from a start to an end position being carried out during the touch.
  • touch describes an actuation trajectory, that is, a chronologically ordered and coherent sequence of actuation positions.
  • the parameter value is then set according to the entry.
  • Parameter value changed that is, a relative change is made.
  • a length is determined for the actuation trajectory, in particular the distance between the start and end position of an actuation, and a difference to the currently set parameter value is determined on the basis of the length.
  • the parameter value can be increased or decreased based on this amount, for example depending on a direction of the
  • Input gesture For example, with a curve from left to right, the parameter value can be increased and with the opposite curve, it can be decreased. Other changes depending on the direction, such as vertical or oblique, are also conceivable.
  • the user can easily determine how the parameter value should be changed.
  • different setting options for the parameter value can therefore be implemented.
  • a specific parameter can be selected directly by selecting an actuation position, while an input gesture of the first gesture type has a specific one
  • the captured input gesture can also be assigned to a third gesture type, wherein, if the captured input gesture has been assigned to the third gesture type, an actuation position is determined based on the captured input gesture and the parameter value is changed by an increment determined based on the actuation position.
  • a fixed, predetermined increment is added to or subtracted from the current parameter value with each actuation by an input gesture of the third gesture type.
  • Different sub-areas of the detection area can be used for addition and subtraction or different amounts of the increment
  • the user can use the same control element with a specific one
  • the first type of gesture comprises a swiping gesture.
  • the parameter value can thus advantageously be set particularly precisely and easily, but nevertheless quickly.
  • a direction, a speed and / or a distance is determined on the basis of the swiping gesture and the parameter value is changed as a function of the determined direction, speed and / or the determined distance.
  • a start and an end position of the swiping gesture are determined for this purpose, in which an actuation in
  • the detection area begins and ends, for example by touching and later releasing the touch; the distance and / or a direction between these positions can be determined. Furthermore, a time between the start and end position of the swiping gesture can be determined in order to then determine the speed of the swiping gesture.
  • the parameter value can be increased in one direction and decreased in another direction, for example by changing the amount of the change based on the distance between the start and end position and a difference value per unit of length.
  • the parameter value is then changed, for example, by a greater amount, the greater the certain distance between the start and end position.
  • the difference value can be determined as a function of the speed, for example a larger difference value at a higher speed;
  • another gesture type can be defined in this way, for example a “swipe” at a higher speed, which can lead, for example, to a larger change in the amount of the parameter value per unit of length.
  • the Change the parameter value when the speed of the swiping gesture is a
  • a threshold value for the distance and / or the speed can be defined, the wiping gesture leading to a predetermined change in the parameter value when the threshold value is exceeded.
  • a swipe can automatically lead to the setting of a maximum or minimum parameter value.
  • the second type of gesture includes a tap gesture. This can
  • the parameter value can thus advantageously be set particularly precisely without the user's attention having to be focused on the operating process for a long time.
  • a distinction between swiping and tapping gestures can be evaluated, in particular, a distance between the start and end positions of the touch or a maximum distance along an actuation trajectory. For example, the distance can be compared with a threshold value. If the distance exceeds the threshold value, the input gesture is a swiping gesture; if it falls below the threshold value, it is a tapping gesture.
  • the second type of gesture is depending on a duration
  • a start time and an end time of a touch are detected.
  • a contact duration can be determined on the basis of these points in time and compared with a threshold value. If the threshold value, for example 400 ms or 800 ms, is exceeded, it is an input gesture of the second gesture type; if it is not reached, it is, for example, a Input gesture of the third gesture type.
  • the second type of gesture corresponds to a hold or a so-called “long push” or “long press”, while the third type of gesture corresponds to a tap.
  • an input gesture of the first gesture type can be carried out in the entire detection area and always results in the same change in the parameter value regardless of the specific location of the actuation. This means that only the length of the actuation trajectory is evaluated, but not its position within the detection area.
  • two sub-areas on the left and right in the detection area are designed in such a way that a tap, that is, an input gesture of the third gesture type, leads to an incremental decrease or increase in the parameter value.
  • the detection area is designed in such a way that holding the actuation, that is to say an input gesture of the second gesture type, for directly setting a specific
  • Parameter value leads;
  • a sub-area arranged on the left becomes a minimum parameter value
  • a sub-area arranged on the right creates a maximum
  • Parameter value and a certain intermediate parameter value is set by a sub-area arranged in the middle.
  • the parameter value is changed in such a way that the parameter value assumes the next value in each case from an ordered series of setting values with each actuation.
  • This advantageously makes it possible to switch between predefined settings particularly quickly and easily. In particular, it is a so-called toggle switch.
  • the switchover can take place during a long stop, in particular to the next one after a certain time interval has elapsed
  • the detection area is a surface area
  • a touch-sensitive surface can advantageously be used particularly efficiently.
  • the detection area is designed in particular on a touch screen or in some other known manner.
  • capacitive or resistive sensors can be used to detect an actuation.
  • the detection area can be designed in a different way. For example, as a spatial area, in particular above a surface or in the vicinity of a control element.
  • the detection area has a longitudinal extent and a
  • the transverse extent runs perpendicular to the longitudinal extent and the longitudinal extent is at least twice, preferably three times that
  • the detection area is thus made elongated and therefore
  • It can therefore be, for example, a slider element through which a functionality of an analog slider is implemented.
  • acoustic feedback is generated. The user can thereby
  • the acoustic feedback can alternatively or additionally also be generated when the parameter value is changed.
  • the acoustic feedback is generated in a manner known per se. Different responses can be selected or generated dynamically, for example depending on the recognized gesture type, the set parameter value or other influencing variables.
  • the inventive device for capturing a parameter value in a vehicle comprises a capturing unit which has a capturing area and which is set up to capture an input gesture in the capturing area, and a control unit which is set up to assign the captured input gesture to a first or second gesture type .
  • the control unit is also set up, if the recorded input gesture was assigned to the first gesture type, based on the recorded input gesture a
  • the device according to the invention is designed in particular to implement the method according to the invention described above.
  • the device thus has the same advantages as the method according to the invention.
  • the device has a surface structure in the area of the touch-sensitive surface, in particular a depression or elevation.
  • a feeler aid is provided in this way, with the aid of which the user can detect the position and extent of the detection areas.
  • a tactilely detectable surface deformation can include a locally changed roughness.
  • a substantially punctiform elevation or depression can be formed on the surface, or an elongate depression or elevation can be provided.
  • a depression can also run in a straight line or along a curved line.
  • the device further comprises a sensor for detecting an approach to the touch-sensitive surface in a manner known per se. If such an approach is detected, the lighting elements can be controlled in such a way that they emit at least light of the basic intensity in order to display the position of the lighting elements to a user or to indicate an input option, for example.
  • the parameter value relates to a setting of a temperature, a fan or a media playback device of the vehicle.
  • Figure 1 shows a vehicle with an embodiment of the device according to the invention
  • FIG. 2 shows further details of the embodiment of the invention
  • Figures 3A to 3C show an embodiment of an output of a parameter value by means of a segment display
  • FIGS. 4A and 4B show an exemplary embodiment for setting parameter values by means of a slider element
  • FIGS. 5A to 5F show an exemplary embodiment for setting an air distribution by a fan
  • Figures 6A to 6C show a further embodiment for the setting of a
  • a vehicle 1 comprises a detection unit 2 which is coupled to a control unit 3.
  • An air conditioning unit 4 is also coupled to the control unit 3.
  • the detection unit 2 has a surface facing a user in the vehicle 1. Different symbols are arranged on this surface, some of which can be backlit by light sources, in particular LEDs. There are also areas with luminous surfaces that are covered by a layer of paint so that the luminous surfaces are essentially only visible to the user when they are actually illuminated, while they are practically invisible when the luminous surfaces are not illuminated. In particular, a display designed as a so-called black panel is used.
  • the surface of the detection unit 2 can be flat. You can also be
  • the detection unit 2 also comprises a film produced using the IML process (in-mold labeling) and back-injected with plastic. In the exemplary embodiment, it also includes
  • Sensor elements Sa, Sb, Sc which are designed here as capacitive sensor elements.
  • the sensor elements Sa to Sc are arranged behind the surface of the detection unit 2 in such a way that they are not visible to the user.
  • the sensor elements Sa to Sc are designed in a manner known per se such that they can detect an actuation by an actuating element.
  • they each have a detection area which, for example, comprises an area of the surface of the detection unit 2 and / or a spatial area arranged above the surface.
  • a finger of the user can be used as an actuating element.
  • Sensor elements Sa to Sc an actuation based on the entry of the actuating element into the detection area, based on a touch of a surface, based on its distance to a sensor element Sa to Sc, based on a movement in the detection area and / or based on a period of time during which the actuating element is detected. This actuation is then evaluated by the detection unit 2 and / or the control unit 3.
  • the sensor elements Sa to Sc are arranged equidistant from one another along a straight line.
  • a slide or slider element is implemented along this line. Its function is explained in detail below.
  • the detection unit 2 alternatively or additionally has touch-sensitive surface areas embodied in a different manner known per se. Through this, an actuation by an actuating element can be detected in a manner analogous to the mode of operation of the sensor elements Sa to Sc explained above.
  • the detection unit 2 when an actuation is detected, the detection unit 2 generates a control signal and transmits this to the control unit 3.
  • a parameter value can be set, whereby either the detection unit 2 itself already processes the input to such an extent that it assigns a specific parameter value to it, or the control unit 3 these
  • Processing of the input or control signal generated by the detection unit 2 takes over.
  • the detection unit 2 comprises luminous elements La, Lb, Lc, Ld, Le, which adjoin one another in the form of a segment display along a linear direction of extent are arranged.
  • the lighting elements La to Le can be controlled by the control unit 3 independently of one another.
  • the air conditioning unit 4 is formed in a manner known per se and, in the exemplary embodiment, includes, inter alia, a heater for the vehicle 1, seat heaters for the driver and front passenger seats, a steering wheel heater, window heaters and a fan for introducing air into the interior of the vehicle 1, where the direction, distribution, intensity and temperature of the incoming air can be adjusted.
  • FIG. 2 shows a view of the surface of the detection unit 2 facing the user in the interior of the vehicle 1.
  • This surface is designed essentially as a horizontally stretched rectangle.
  • Button elements 101, 102, 103, 104, 105, 106, 107 are arranged next to one another in the upper area. In the exemplary embodiment, these are designed as touch-sensitive surface areas which can be actuated by touching an actuating element, in particular a finger of the user.
  • the individual pushbutton elements 101 to 107 are assigned
  • touch-sensitive areas indicated by dashed lines. Within these areas, luminous areas are also formed, which can be activated by activating a
  • LED can be illuminated with light of a certain intensity and / or color, for example in order to output the status, the activity or a setting of a function assigned to the respective button element 101 to 107.
  • control unit 3 Acquisition unit 2 and, if necessary, the evaluation of signals acquired by acquisition unit 2 is carried out by control unit 3.
  • buttons 108, 109, 110, 111 are also formed. These are also with him.
  • additional functions can be called up, activated or set.
  • a menu display on a display in the vehicle 1 can be called up by pressing the button element 110 “MENU”.
  • the air conditioning unit 4 can be switched off by pressing the button element 111 “OFF”.
  • the air conditioning system of the air conditioning unit 4 of the vehicle 1 can be activated by means of the button element 109 “A / C”
  • An automatic mode of the air-conditioning unit 4 can be activated using the button element 108 “AUTO”.
  • the pushbutton elements 101 to 111 can be designed as mechanical switches, in particular pushbutton switches.
  • further buttons 101 to 111 can be designed as mechanical switches, in particular pushbutton switches.
  • Embodiments other functions can be provided alternatively or additionally.
  • Segment displays 115, 116 are arranged, which in the exemplary embodiment are suitable for outputting a two-digit temperature value with one decimal place. Furthermore, slider elements 112, 113, 114 for setting a temperature and a fan level are arranged here.
  • the respective adjustable functions of the air conditioning unit 4 are indicated by symbols on the surface.
  • the slider elements 112 to 114 each comprise a horizontal straight line of a certain length, along which a depression is formed on the surface of the detection unit 2. Behind it, covered by the surface, sensor elements Sa to Sc are indicated, through which a touch in the area of a slider element 112 to 114 can be detected, in particular a position of the touch and possibly a movement along the slider element 112 to 114 being detected.
  • the fan that is to say the fan slider 112
  • the fan slider 112 can be illuminated segment by segment by lighting elements La to Le arranged behind it.
  • FIGS. 3A to 3C an exemplary embodiment of an output of a set level of a fan of the air-conditioning unit 4 is explained by means of a segment display.
  • a segment display the embodiment of the device explained above with reference to FIGS. 1 and 2 is assumed.
  • Embodiment is arranged in particular in the area of the fan slider 112 and the control is carried out by the control unit 3.
  • seven luminous areas LED1 to LED7 are arranged alongside one another along a straight line and can be controlled independently of one another.
  • the number of illuminated luminous areas LED1 to LED7 corresponds to the activated level of the fan, that is, as many levels as luminous areas LED1 to LED7 are provided.
  • the fan of the air conditioning unit 4 is deactivated.
  • the graph shows the intensity of light emission on the Y-axis while the individual
  • Luminous areas LED1 to LED7 are assigned positions along the X-axis. None of the luminous areas shines, which is shown in the diagram in FIG. 3A by columns that are practically invisible.
  • Air conditioning unit 4 activated.
  • the graphs show the intensity of the light emitted by the illuminated areas LED1 to LED7 as a function of the position or of the respective illuminated area LED1 to LED7.
  • a night mode is activated
  • a day mode of the segment display is activated.
  • the first three light-emitting areas are controlled in such a way that they light up with 60% or 100% of a maximum intensity, while the remaining four light-emitting areas are controlled in such a way that they light up with only 10% or 20% of the maximum intensity. That is, im
  • “overlighting” from a brightly illuminated luminous area to an adjacent, unlit or less illuminated luminous area is concealed in that all luminous areas are illuminated with at least one basic intensity. Only the illuminated areas actually used for the display are illuminated with a higher display intensity. This means that all the light surfaces that are not used to indicate the blower level are evenly illuminated, instead of being illuminated at different intensities
  • the first three LEDs LED1, LED2, LED3 are operated with a first current for 60% of the maximum intensity, with overlighting leading to the fact that in the area of the two adjacent illuminated areas LED4 and LED5 already emitted a certain intensity becomes.
  • the LEDs of these luminous areas LED4 and LED5 are therefore only operated with a lower current than the LEDs of luminous areas LED6 and LED7 positioned further away, in order to achieve a uniform basic intensity of the LEDs LED4 to LED7.
  • the directly adjacent luminous area LED4 is operated with 5% and the further adjacent luminous area LED5 with 7%, while the more distant luminous areas LED6 and LED7 are operated with 10%.
  • other light sources in particular light into the light-emitting areas LED1 to LED7, can be taken into account and compensated for by suitable control of the LEDs.
  • Ambient brightness can be adjusted. Furthermore, values of basic intensity and display intensity assigned to one another can be firmly predetermined, as is the case with the
  • the basic intensity can, for example, be a certain fraction of the display intensity or the basic intensity can be determined in some other way, for example using a physical model in which the intensity of an overlighting is determined as a function of the display intensity and then a
  • Basic intensity is formed in such a way that the overlighting is concealed.
  • all the luminous areas are illuminated with a basic intensity that is determined, for example, on the basis of an ambient brightness.
  • the illuminated surfaces can be used as design elements and to display a level “0”. The user can then in particular recognize that a display for setting the fan is located in a certain area and / or that an operation for setting the fan can be performed in such an area.
  • the luminous areas can be used to display another parameter. They can also be used in connection with various slider elements 112, 113, 114 or other displays and controlled in the manner described.
  • a higher number of luminous areas can be used, in particular more luminous areas than can be set. For example, you can do this in this way
  • FIGS. 4A and 4B an exemplary embodiment for setting parameter values by means of a slider element is explained.
  • the embodiment of the device explained above with reference to FIGS. 1 and 2 is assumed.
  • the control takes place in particular by means of the control unit 3.
  • the slider element 112 which, in the exemplary embodiment as a fan slider 112, is assigned to the detection unit 2 for setting a fan of the air-conditioning unit 4.
  • the method can also be used for other slider elements 112, 113, 114 and for recording other parameter values.
  • a fan symbol 112b is arranged for a maximum active state of the fan.
  • Light sources are arranged behind the surface, LEDs in the exemplary embodiment, by means of which both the line 112 and the symbols 112a, 112b can be illuminated.
  • the line 112 can also be illuminated as a segment display, that is to say behind here light sources are arranged in a row next to one another in such a way that individual areas of the line 112 can be illuminated independently of one another with different intensities.
  • the set level of the fan is output according to the method explained above with reference to FIGS. 3A to 3C.
  • the symbols 112a, 112b and the line 112 can be permanently visibly printed on or can only be made visible by means of a ⁇ / ac / c pane / technique when they are illuminated from behind.
  • touch-sensitive areas 149, 141a, 141b, 142a to 142i are indicated by dashed lines. In these areas the
  • Sensor elements Sa to Sc an actuation by an actuation object as already explained above, or the detection can take place in another way.
  • the surface of the detection unit 2 is in one touch-sensitive area touched by the actuating object.
  • the actuation object is located in a specific spatial area or at a position, for example just above the surface of the detection unit 2.
  • an actuation at a specific position is detected in that the sensor elements Sa to Sc depending on the position of the
  • the strength of a signal detected by a capacitive sensor depends on the distance from an actuating object entering a detection area.
  • the user touches the slider element 112 at any point or shifts the position of his movement along the slider element 112.
  • different signal strengths are thus detected by the sensor elements Sa to Sc.
  • the position is determined on the basis of these signal strengths and a parameter value is set as a function of the determined position.
  • different spatial areas in particular area areas on the surface of the detection unit 2
  • areas that are separate from one another in order to detect actuations therein.
  • these actuations can also be evaluated differently depending on the respective surface area.
  • a surface area can be used as a button element with a specific
  • Response behavior that is to say, for example, be configured with certain threshold values for time intervals for actuation, or as a slider element with a different response behavior.
  • a coherent area can be formed within which the position of an actuation or an actuation trajectory is detected, or individual areas can be formed in which an actuation is detected when it is assigned to any position within these individual areas.
  • the set level is displayed by a segment display in the area of the slider element 112. This takes place in the manner explained above with reference to FIGS. 3A to 3C.
  • the slider element 112 is actuated at a position, this is illuminated at the corresponding position and the corresponding level of the fan is set.
  • the The exemplary embodiment not only detects the area in which the actuating position is currently located, but an approach to surrounding areas is also detected.
  • the user can move his finger along the slider element 112 and thereby approach an area that is assigned to a next stage of the fan.
  • the lighting element arranged in this area is illuminated with increasing intensity the closer the user gets to the area of the next step.
  • the user reaches the next area it is illuminated with the normal display intensity.
  • the parameter value in the exemplary embodiment of the method is detected by means of fewer sensors, particularly flexibly and / or with a higher resolution. While known methods provide at least one sensor element for each detectable position, in the method explained fewer sensors are used in a particularly space-saving, cost-efficient and simple manner.
  • Start position at which the contact begins an end position at which the contact ends, and a trajectory along which the actuating object moves along the surface from the start to the end position.
  • the duration of the contact and / or the stay at a specific position can be recorded. If necessary, a direction and / or speed of a movement along the surface can also be determined and evaluated.
  • buttons or slider elements both in touch-sensitive surface areas and for mechanical switches.
  • the user can actuate the touch-sensitive area by “tapping”, with a time interval V being recorded between the beginning and the end of the touch that is shorter than a certain threshold value to: At ⁇ to.
  • the threshold value to can be, for example, 400 ms or 800 ms.
  • the point in time at which an actuation event is detected and, for example, a parameter value is changed, is here typically the point in time at which the touch is released.
  • an actuation event can also be recorded when the touch begins, in which case each touch already triggers a tap event.
  • Typical applications for tapping are, for example, switching a function on and off, changing parameter values incrementally or directly selecting a parameter value by tapping a button.
  • the user can also hold the touch at a specific position or in a specific surface area for a longer time interval At than a threshold value ti: At>.
  • the threshold value ti can be, for example, 400 ms or 800 ms.
  • Such an operation can be referred to as “hold”, “long press” or “long push”.
  • a corresponding hold event can be triggered as soon as the held time interval At exceeds the threshold value ti or when the contact is released.
  • Further conditions can be defined that the touch must be released at a certain position or in a certain area in order to trigger a hold event; In this case, the user can prevent the triggering by moving the actuating object to another area, for example to another button element.
  • a “multiple hold” can be carried out in that the touch of a first surface area lasts longer than a threshold value ti and then changes over to a second surface area, which is then also touched for longer than the threshold value ti.
  • several pushbutton elements can be actuated without having to lift the actuating object.
  • a first button element is actuated with a “hold” gesture and then the user with the actuation object slides on to another button element without releasing the touch.
  • an actuation is recorded for a time interval At longer than a threshold value to and a renewed actuation is recorded for each multiple of the threshold value to.
  • the user can trigger a multiple actuation by holding the actuation for a corresponding multiple of the threshold value t 0 .
  • a “wiping” can be detected as an actuation, for example when the actuation object stays in a surface area for a time interval At shorter than a threshold value t 0 and then actuates an adjacent surface area.
  • the actuation can then be detected, for example, for the adjacent surface area when the touch is released, with particular consideration being given to whether the user is the adjacent Surface area for a time interval At shorter than the threshold value to touched or whether a hold is carried out here, for example.
  • a “swipe” can be detected as an actuation, the position of the contact moving from a first to a second surface area and, in the process, in particular further surface areas being crossed.
  • the speed at which the position changes is also taken into account and, for example, a parameter value can be changed more quickly than when wiping.
  • a “swipe” can in particular be detected when the speed of the swiping gesture exceeds a threshold value.
  • the fan slider is defined as a contiguous, active slider area 149 which extends over the entire length of the line 112 and the adjacent symbols 112a, 112b.
  • the positions of touches and actuations can be detected within the area 149 of this active slider area 149. If the actuation object moves along the longitudinal extent of the fan slider 112, the position of the contact, in particular during a swiping gesture, is continuously detected and the set level of the fan follows this position. For example, a lowest level is assigned to the left area of the fan slider 112 or the left fan symbol 112a, while a highest level is assigned to the right area of the fan slider 112 or the right fan symbol 112b. In between spread over the
  • a level is set when the operating object reaches a position assigned to this level.
  • the step is not set until the touch is released, the step then being set which is assigned to the position when the touch is released.
  • Surface areas 142a to 142i are formed. These are operated by tapping, so that the user can adjust the fan speed directly by selecting a touch-sensitive one
  • the two outermost left 142a, 142b and right 142h, 142i touch-sensitive surface areas are also combined to form enlarged actuation areas 141a, 141b.
  • enlarged actuation areas 141a, 141b By touching one of these enlarged actuation areas 141a, 141 b the user can increase or decrease the level of the fan incrementally.
  • the level By continuously holding in one of the enlarged actuation areas 141a, 141b, the level is gradually increased or decreased, depending on the time interval during which the contact is kept.
  • the enlargement of the actuation areas 141a, 141b restricts the possibilities for the direct selection of a level of the fan insofar as the lowest and highest levels cannot be selected directly. Instead, these steps are only achieved in that, starting from the next adjacent step, the corresponding enlarged actuation area 141a, 141b is tapped again or maintained permanently.
  • FIGS. 4A and 4B are not to be understood as static configurations of the detection unit 2 in the exemplary embodiment. Rather, it switches
  • buttons 108 to 111 which are arranged adjacent to the slider elements 112, 113, 140, for the detection of a
  • Actuation are blocked after a swiping gesture in the area of one of the slider elements 112, 113, 114 has been detected. This prevents the user from accidentally actuating one of the pushbutton elements 108 to 111 if he continues a movement of the actuating object beyond the area of a slider element 112, 113, 114 with a swiping gesture.
  • Touch-sensitive surfaces or switching elements are carried out for a specific blocking time interval.
  • This blocking time interval begins in particular at the point in time at which the contact with the slider element 112, 113, 114 is ended, and it can in particular can be determined dynamically, for example based on the speed of the swiping gesture and / or a driving speed of vehicle 1.
  • a distance from a slider element 112, 113, 114 is defined, within which no actuation is detected in the blocking time interval. This distance can also be determined dynamically, for example on the basis of the speed of the swiping gesture, a longitudinal extent of the slider element 112, 113, 114 and / or on the basis of the driving speed of the vehicle 1. In particular, a
  • Surface area are defined which continues a longitudinal extension of the slider element 112, 113, 114; for example, an area above or below a horizontally running slider element 112, 113, 114 is not blocked, while laterally adjoining surface areas are blocked during the blocking time interval.
  • the adjacent pushbutton elements 108 to 111 are only blocked when it has been detected that a swipe gesture has been carried out at least as far as a lateral end of the slider element 112, 113, 114 or beyond.
  • the blocking of certain surface areas of the detection unit 2 can be triggered by events other than a wiping gesture, for example by any actuation in a certain surface area.
  • the user first presses a first key, then changes his selection and slides to another key.
  • the actuation is only detected when the user releases the touch. Only then is the blocking time interval triggered.
  • the user can slide from a first to a second key without releasing the touch and press the second key when lifting his finger. Only then does the blocking time interval begin and no other key can be pressed.
  • audible feedback is generated when a
  • Input gesture or a gesture type is recognized.
  • the acoustic feedback is generated when a control signal is generated on the basis of a recorded input. This enables the user to see whether his entry has been accepted.
  • the acoustic feedback can alternatively or additionally also be generated when the parameter value is changed. It is generated in a manner known per se, with different responses being able to be output, for example about a recognized gesture type, a set one
  • Output parameter value or other influencing variables can be formed dynamically for this purpose, for example by forming a pitch depending on the set parameter value.
  • the surface of the detection unit 2 shown in FIG. 2 comprises a button element 104, with which a distribution of the by a fan of the
  • Air conditioning unit 4 can be adjusted into the interior of the vehicle 1 air.
  • a display of the set distribution is also output in the area of this button element 104.
  • the distribution is output by arrows 132, 133, 134, which are arranged at different heights relative to a passenger representation 131.
  • the arrows 132, 133, 134 are formed by illuminated areas that can be illuminated independently of one another, while the passenger representation 131 is printed on the surface and is therefore permanently visible.
  • the arrows 132, 133, 134 are arranged approximately at the level of a head, torso or foot area of the passenger representation 131.
  • the button element 104 is used as a “Togg / e” switch. That is, there is a fixed sequence of different settings and each time the button element 104 is actuated, the following setting is set in the sequence. When the last setting is reached, there is a jump to the first setting in the sequence, in particular in the manner of a periodic boundary condition. For more
  • the sequence can be reversed when the last setting is reached, in particular in the manner of a reflective boundary condition.
  • FIG. 5A air is introduced in the upper region of the vehicle interior.
  • FIG. 5B an introduction also takes place in the foot area of the interior.
  • FIG. 5C the air flows only into the foot area.
  • FIG. 5D the air flows into the head, torso and foot area of the
  • Vehicle interior while in the case of Figure 5E it is introduced into the trunk and foot area. Finally, in the case of FIG. 5F, the air is introduced in such a way that it encounters a passenger in vehicle 1, for example in the torso area.
  • the air distributions can be arranged in a different order or formed in a different manner.
  • FIGS. 6A to 6C A further exemplary embodiment for setting a parameter value by means of a slider element is explained with reference to FIGS. 6A to 6C. This is based on the exemplary embodiments explained above.
  • the temperature slider 113 includes a horizontal straight line 113 at the ends of it
  • Temperature symbols 113a, 113b are arranged. In the exemplary embodiment, these are colored blue on the left-hand side and red on the right-hand side in order to symbolize low and high temperatures, respectively. Active slider areas 150, 150a, 150b, 150c are indicated by dashed lines, analogously to FIGS. 2, 4A and 4B.
  • the active slider area 150 extends over the entire length of the line 113 and a narrow area in its vicinity.
  • the user can the value of the temperature parameter for the air conditioning unit 4 by a
  • the set temperature is increased when a wiping gesture directed to the right is detected.
  • the set temperature is lowered if a swiping gesture directed to the left is detected.
  • the difference by which the temperature is changed depends in the exemplary embodiment on the actuation trajectory along which the swiping gesture is carried out.
  • the temperature can be increased or decreased by a certain interval, here up to 4 ° C.
  • a certain interval here up to 4 ° C.
  • the slider element 113 represents a relative scale for the relative change in the set temperature.
  • a swipe gesture is also provided, in which a speed is detected for the swipe gesture that exceeds a specific threshold value. If such a swipe gesture is detected, the temperature parameter can be changed more quickly, for example by jumping to a maximum or minimum temperature or by changing by a larger interval, approximately twice the interval as provided for a swiping gesture, that is to say 8 ° C.
  • active slider areas 150a, 150b are formed which contain the left and right temperature symbols 113a, 113b and a left one
  • the active slider areas 150a, 150b can be actuated here by tapping, holding or holding them permanently, with the set temperature parameter is gradually increased.
  • the temperature can be decreased by 0.5 ° C. with each tap in the left area 150a and increased by 0.5 ° C. with each tap in the right area 150b.
  • the increase takes place in several steps one after the other, the size of the steps being able to be determined, for example, as a function of the duration of the holding, so that, for example, after holding for a certain time, the parameter is changed in steps of 1 ° C to enable faster changes.
  • active slider regions 150a, 150b similar to those in the case shown in FIG. 6B are formed.
  • a central active slider area 150c is now provided, which is arranged between the two lateral active slider areas 150a, 150b.
  • the middle active slider region 150c extends over approximately 20% of the length of the line 113, while the two lateral active slider regions 150a, 150b to the right and left thereof each take up approximately 40% of the length.
  • the user can set a minimum, maximum or average parameter value directly.
  • a hold in which a touch in one of the active slider areas 150a, 150b, 150c is held longer than a certain threshold value, is detected as an actuation and evaluated as a direct selection.
  • a minimum parameter value “LO” is set directly for the temperature if the hold gesture was detected in the left active slider area 150a.
  • a maximum parameter value “Hl” becomes in the case of a hold gesture in the right active slider area 150b is set and a predetermined parameter value of 22 ° C. for a holding gesture in the middle active slider area 150c.
  • other parameter values can be selected directly.
  • different areas can be provided as active slider areas 150a, 150b, 150c, for example with different numbers or with different
  • other actuations can be provided for the direct selection, for example tapping an active slider area 150, 150a, 150b, 150c, in particular with several fingers at the same time.
  • further gestures can be provided, for example a simultaneous actuation of the outer active slider areas 150a, 150b or an actuation of a slider area 150, 150a, 150b, 150c with several fingers.
  • Certain gestures can also be used to call certain functions or to set certain parameters. For example, a “SYNC” mode of the air conditioning unit 4 of the vehicle 1 can be activated, with the same
  • Settings for different areas of the interior of the vehicle 1 can be set, for example for the driver and front passenger areas. Furthermore, different
  • the configurations and arrangements of active slider areas 150, 150a, 150b, 150c shown in FIGS. 6A to 6C can be designed as static configurations of the detection unit 2. However, it is provided in the embodiment that the
  • Detection unit 2 changes dynamically between the configurations, depending on how the temperature slider 113 was operated, that is to say which use case was detected. If an actuation is detected by means of a wipe or swipe gesture, this is evaluated in accordance with an input in the configuration shown in FIG. 6A with a narrow active slider area 150. If, on the other hand, a tapping, holding or a permanent holding gesture is detected, it is possible to automatically switch to detection in accordance with a configuration of FIG. 6B or 6C, in particular to enable direct selection.
  • the configurations mentioned can be combined or designed in other ways.
  • the vehicle 1 alternatively or additionally comprises another device for which a parameter value is acquired by means of the acquisition unit 2.
  • Such other devices can relate to media playback or a navigation system of vehicle 1, for example.
  • the inputs are then recorded analogously to the exemplary embodiments of the recording unit 2 explained above and the method for inputting a parameter value.
  • the detection unit 2 can comprise different operating elements, which can also be arranged differently.
  • slider elements 112, 113, 114 can also run vertically or in other spatial directions instead of horizontally.
  • control takes place in the exemplary embodiments by the control unit 3.
  • control unit 3 takes over the control and / or evaluates existing inputs, preprocessed and generates a control signal, for example to set the parameter value .

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Thermal Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Verfahren und Vorrichtung zum Erfassen eines Parameterwerts in einem Fahrzeug Bei dem Verfahren zum Erfassen eines Parameterwerts in einem Fahrzeug wird eine Eingabegeste in einem Erfassungsbereich erfasst. Die erfasste Eingabegeste wird einem ersten oder zweiten Gestentyp zugeordnet. Wenn die erfasste Eingabegeste dem ersten Gestentyp zugeordnet wurde, wird anhand der erfassten Eingabegeste eine Betätigungstrajektorie bestimmt und der Parameterwert wird um einen von einer Länge der Betätigungstrajektorie abhängigen Betrag verändert. Wenn die erfasste Eingabegeste dem zweiten Gestentyp zugeordnet wurde, wird anhand der erfassten Eingabegeste eine Betätigungsposition bestimmt und ein der Betätigungsposition zugeordneter vorbestimmter Parameterwert wird eingestellt. Die Vorrichtung zum Erfassen eines Parameterwerts in einem Fahrzeug umfasst eine Erfassungseinheit (2), die einen Erfassungsbereich aufweist und die dazu eingerichtet ist, in dem Erfassungsbereich eine Eingabegeste zu erfassen, und eine Steuereinheit (3), die dazu eingerichtet ist, die erfasste Eingabegeste einem ersten oder zweiten Gestentyp zuzuordnen. Dabei ist die Vorrichtung dazu eingerichtet, das Verfahren zu implementieren.

Description

Beschreibung
Verfahren und Vorrichtung zum Erfassen eines Parameterwerts in einem Fahrzeug
Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zum Erfassen eines Parameterwerts in einem Fahrzeug.
In modernen Fahrzeugen, insbesondere Kraftfahrzeugen, ist eine Vielzahl von elektronischen Einrichtungen vorgesehen, deren Einstellung und Bedienung dem Fahrer oder einem anderen Fahrzeuginsassen ermöglicht werden muss. Zu diesen Einrichtungen gehört beispielsweise eine Klimatisierungseinheit, durch die Luft in bestimmte Bereiche des Fahrzeuginnenraums geleitet werden kann und mittels derer auch weitere Elemente wie zum Beispiel Sitzheizungen gesteuert werden können. Andere Einrichtungen sind etwa ein Navigationssystem,
Fahrerassistenzsysteme sowie Kommunikations- und Multimediaeinheiten, etwa eine
Telefonanlage oder Einrichtungen zur Wiedergabe von Musik und Sprache wie beispielsweise ein Radio oder ein CD-Spieler.
Zur Bedienung sind unterschiedliche Bedieneinheiten bekannt. Typischerweise steht der Fahrer jedoch vor der Herausforderung, teils sehr komplexe Einrichtungen bedienen zu müssen. Er muss einen Teil seiner Aufmerksamkeit dafür aufwenden, eine Vielzahl von Bedienelementen zu erfassen und so zu bedienen, dass die Einstellungen in der gewünschten Weise
vorgenommen oder verändert werden. Dies erfordert häufig das Durchführen von sehr präzisen Bedienhandlungen, wobei der Fahrer allerdings seinen Blick nur sehr kurzfristig vom
Verkehrsgeschehen abwenden darf. Dabei sollen Fehlbedienungen vermieden werden, die den Fahrkomfort erheblich beeinträchtigen können und weitere Bedienhandlungen nötig machen.
Zugleich müssen eingestellte Parameter für den Nutzer leicht erfassbar sein, um beurteilen zu können, ob ein aktuell eingestellten Parameterwert verändert werden soll oder ob geeignete Einstellungen beibehalten werden können.
Aus der DE 10 2016 200 110 A1 ist eine Vorrichtung zur Bedienung eines Heiz-Klima-Systems eines Fortbewegungsmittels bekannt, bei dem in einer im Wesentlichen ebenen Oberfläche eine Fingerrinne ausgebildet ist, in der ausgeführte Wischgesten erfasst werden können. Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung der eingangs genannten Art bereitzustellen, die eine möglichst vielseitige und schnelle Bedienung ermöglichen.
Erfindungsgemäß wird diese Aufgabe durch ein Verfahren mit den Merkmalen des Anspruchs 1 und eine Vorrichtung mit den Merkmalen des Anspruchs 10 gelöst. Vorteilhafte
Ausgestaltungen und Weiterbildungen ergeben sich aus den abhängigen Ansprüchen.
Bei dem erfindungsgemäßen Verfahren zum Erfassen eines Parameterwerts in einem Fahrzeug wird eine Eingabegeste in einem Erfassungsbereich erfasst und die erfasste Eingabegeste wird einem ersten oder zweiten Gestentyp zugeordnet. Wenn die erfasste Eingabegeste dem ersten Gestentyp zugeordnet wurde, wird anhand der erfassten Eingabegeste eine
Betätigungstrajektorie bestimmt und der Parameterwert wird um einen von einer Länge der Betätigungstrajektorie abhängigen Betrag verändert. Wenn die erfasste Eingabegeste dem zweiten Gestentyp zugeordnet wurde, wird anhand der erfassten Eingabegeste eine
Betätigungsposition bestimmt und ein der Betätigungsposition zugeordneter vorbestimmter Parameterwert wird eingestellt.
Das heißt, bei einer Eingabegeste des ersten Gestentyps erfolgt die Erfassung des
Parameterwerts relativ zu dem aktuellen Wert, während bei einer Eingabegeste des zweiten Gestentyps ein absoluter Wert erfasst wird. Bei dem Verfahren werden daher vorteilhafterweise die Vorzüge relativer und absoluter Eingabemöglichkeiten für Parameterwerte kombiniert.
Indem bei einer Eingabegeste des ersten Gestentyps die Änderung lediglich von der Länge der Betätigungstrajektorie abhängt, wird die Eingabegeste nur relativ zu dem aktuell eingestellten Parameterwert verändert. Beispielsweise ist einer bestimmten Länge der Betätigungstrajektorie, etwa beim Wischen entlang eines Abschnitts eines Slider-Elements mit einer bestimmten Länge, einem bestimmten Betrag zugeordnet, um den der Parameterwert erhöht oder erniedrigt wird. Dagegen ist bei einer Eingabegeste des zweiten Gestentyps der eingestellte Parameter direkt der Betätigungsposition zugeordnet. Das heißt, eine Betätigung, beispielsweise eines Slider-Elements, an einer bestimmten Betätigungsposition führt direkt zur Einstellung eines bestimmten Parameterwerts. Es besteht also eine absolute Zuordnung zwischen dem
Parameterwert und der Betätigungsposition.
Während das Einstellen eines von dem aktuell eingestellten Parameterwert weit entfernten Wertes mittels einer relativen Veränderung mehrere Betätigungen erforderlich machen kann, kann eine solche Veränderung mittels einer absoluten Bedienung schneller erfolgen.
Umgekehrt kann der Parameter besonders genau eingestellt werden, indem er durch eine relative Bedienung eingestellt wird, etwa indem er in mehreren kleinen Schritten verändert wird. Der Nutzer kann bei dem Verfahren durch die Wahl der passenden Eingabegeste schnell und auf besonders einfache Weise entscheiden, welche Art der Bedienung ihm in der aktuellen Situation besonders sinnvoll erscheint.
Zur Durchführung einer Eingabegeste wird erfindungsgemäß ein Betätigungsobjekt verwendet, insbesondere die Hand oder einen Finger des Nutzers. In den folgenden Erläuterungen ist der Finger des Benutzers das Betätigungsobjekt, die Angaben sind allerdings auf andere
Betätigungsobjekte, etwa einen Stift, zu verallgemeinern.
Unter einer„Eingabegeste“ wird im Sinne der Erfindung eine bestimmte Stellung des
Betätigungsobjekts oder eine bestimmte Bewegung, die mit dem Betätigungsobjekt ausgeführt wird, verstanden. Eingabegesten können nach an sich bekannter Art ausgestaltet sein. Sie umfassen insbesondere Tippgesten, Wischgesten und Haltegesten sowie Kombinationen mehrerer solcher gegebenenfalls unmittelbar kurz nacheinander ausgeführter Gesten. Weitere Gesten, etwa verbunden mit einer rotatorische Bewegung, können ebenfalls vorgesehen sein. Die Gesten werden in dem Erfassungsbereich ausgeführt, der insbesondere eine Oberfläche einer Erfassungseinheit umfasst. Durch die Steuerung der Nutzerschnittstelle mittels einer Eingabegeste wird dem Nutzer eine besonders einfache und intuitive Eingabemöglichkeit bereitgestellt.
Dabei ist die Erfassung von Gesten nicht notwendigerweise auf eine Oberfläche beschränkt. Gesten können vielmehr in einem praktisch beliebig gebildeten Erfassungsbereich durchgeführt und gegebenenfalls mit verschiedenen Erfassungsverfahren erfasst werden. Beispielsweise kann eine Geste auch im dreidimensionalen Raum erfasst werden. Insbesondere kann ein virtuelles Bedienobjekt, etwa ein virtueller Taster, ausgebildet sein. Zum Beispiel kann die Geste in einem Raumbereich erfasst werden, in dem das virtuelle Bedienobjekt etwa mittels einer Projektion oder durch Verfahren der virtuellen Realität erzeugt wird und eine Geste wird mit Bezug zu diesem virtuellen Bedienobjekt erfasst. Insbesondere werden hierzu eine Position, eine Gestentrajektorie, eine Richtung und/oder eine Geschwindigkeit einer Geste erfasst.
Die Erfassung der Geste kann zum Beispiel anhand optischer oder elektronischer
Detektionsverfahren erfolgen; zur Erfassung können beispielsweise ein Laser,
elektromagnetische Felder im Mikrowellenbereich oder andere Methoden verwendet werden. Die Eingabegeste umfasst beispielsweise eine Berührung an einer bestimmten Position innerhalb des Erfassungsbereichs, wobei eine Betätigungsposition und -dauer bis zum Lösen der Berührung erfasst werden. Sie kann ferner eine Wischgeste umfassen, wobei während der Berührung eine Bewegung von einer Start- zu einer Endposition durchgeführt wird. Die
Berührung beschreibt bei dieser Bewegung eine Betätigungstrajektorie, das heißt eine zeitlich geordnete und zusammenhängende Abfolge von Betätigungspositionen. Der Parameterwert wird dann entsprechend der Eingabe eingestellt.
Bei einer Eingabegeste des ersten Gestentyps sind den Positionen des Erfassungsbereichs absolute Parameterwerte zugeordnet und durch Betätigung an diesen Positionen auswählbar. Bei einer Eingabegeste des zweiten Gestentyps wird dagegen der aktuell eingestellte
Parameterwert verändert, das heißt, es wird eine relative Veränderung vorgenommen. Dazu wird für die Betätigungstrajektorie eine Länge bestimmt, insbesondere der Abstand zwischen Start- und Endposition einer Betätigung, und anhand der Länge wird ein Differenzbetrag zu dem aktuell eingestellten Parameterwert bestimmt. Der Parameterwert kann anhand dieses Betrags erhöht oder erniedrigt werden, beispielsweise in Abhängigkeit von einer Richtung der
Eingabegeste. So kann etwa bei einem Verlauf von links nach rechts der Parameterwert erhöht und beim umgekehrten Verlauf erniedrigt werden. Andere Veränderungen in Abhängigkeit von der Richtung, etwa senkrecht oder schräg, sind ebenso denkbar.
Der Nutzer kann also durch die Wahl der passenden Eingabegeste leicht bestimmen, auf welche Weise der Parameterwert verändert werden soll. Mit dem gleichen Erfassungsbereich, insbesondere dem gleichen Bedienelement im Fahrzeug, können daher unterschiedliche Einstellmöglichkeiten des Parameterwerts realisiert werden. In dem gleichen Flächenbereich kann ein bestimmter Parameter wird direkt durch Auswahl einer Betätigungsposition ausgewählt werden, während eine Eingabegeste des ersten Gestentyps mit einer bestimmten
Betätigungstrajektorie in dem Flächenbereich zu einer relativen Veränderung des
Parameterwert führt.
Bei einer Ausbildung des erfindungsgemäßen Verfahrens ist die erfasste Eingabegeste ferner einem dritten Gestentyp zuordenbar, wobei, wenn die erfasste Eingabegeste dem dritten Gestentyp zugeordnet wurde, anhand der erfassten Eingabegeste eine Betätigungsposition bestimmt wird und der Parameterwert um ein anhand der Betätigungsposition bestimmtes Inkrement verändert wird. Dies ermöglicht vorteilhafterweise genauere und an die aktuelle Situation angepasste Bedienung, indem eine weiteren Möglichkeit einer Eingabe relativ zu dem aktuell eingestellten Parameterwert geschaffen wird.
Beim Implementieren des Parameterwerts wird bei jeder Betätigung durch eine Eingabegeste des dritten Gestentyps ein fest vorgegebenes Inkrement zu dem aktuellen Parameterwert addiert oder davon subtrahiert. Für Addition und Subtraktion beziehungsweise unterschiedliche Beträge des Inkrements können verschiedene Teilbereiche des Erfassungsbereichs
vorgesehen sein. Hierdurch können also drei unterschiedliche Gestentypen für Eingaben in dem gleichen Erfassungsbereich genutzt werden, wobei die Veränderung des Parameterwert auf drei unterschiedliche Weisen erfolgt. Vor allem bei dem in Fahrzeugen typischerweise eingeschränkten Bauraum hat dies den Vorteil einer besonders kompakten Bauweise.
Gleichzeitig kann der Nutzer das gleiche Bedienelement mit einem bestimmten
Erfassungsbereich in mehrfacher Weise nutzen.
Bei einer weiteren Ausbildung umfasst der erste Gestentyp eine Wischgeste. Der
Parameterwert kann so vorteilhafterweise besonders genau und einfach, aber dennoch schnell eingestellt werden.
Insbesondere wird anhand der Wischgeste eine Richtung, eine Geschwindigkeit und/oder ein Abstand bestimmt und der Parameterwert wird in Abhängigkeit von der bestimmten Richtung, Geschwindigkeit und/oder dem bestimmten Abstand verändert. Insbesondere wird hierzu eine Start- und eine Endposition der Wischgeste bestimmt, bei denen eine Betätigung im
Erfassungsbereich beginnt und endet, etwa durch Berühren und späteres Lösen der Berührung; der Abstand und/oder eine Richtung zwischen diesen Positionen kann bestimmt werden. Ferner kann eine Zeit zwischen Start- und Endposition der Wischgeste bestimmt werden, um anschließend die Geschwindigkeit der Wischgeste zu bestimmen.
Beispielsweise kann der Parameterwert bei einer Richtung erhöht und bei einer anderen Richtung erniedrigt werden, etwa indem der Betrag der Veränderung anhand des Abstands zwischen der Start- und Endposition sowie eines Differenzwerts pro Längeneinheit verändert wird. Der Parameterwert wird dann etwa um einen umso größeren Betrag verändert, je größer der bestimmte Abstand zwischen Start- und Endposition ist. Ferner kann der Differenzwert in Abhängigkeit von der Geschwindigkeit bestimmt werden, etwa ein größerer Differenzwert bei einer höheren Geschwindigkeit; insbesondere kann so ein weiterer Gestentyp definiert sein, etwa ein„Swipe“ mit höherer Geschwindigkeit, was etwa zu einer betragsmäßig größeren Veränderung des Parameterwert pro Längeneinheit führen kann. Umgekehrt kann die Veränderung des Parameterwerts, wenn die Geschwindigkeit der Wischgeste einen
Schwellenwert unterschreitet, betragsmäßig kleiner ausgebildet sein, etwa um eine
Feineinstellung des Parameterwerts zu erleichtern. Zudem kann ein Schwellenwert für den Abstand und/oder die Geschwindigkeit definiert sein, wobei die Wschgeste beim Überschreiten des Schwellenwerts zu einer vorgegebenen Veränderung des Parameterwerts führt.
Beispielsweise kann ein Swipe je nach Richtung der Wschgeste automatisch zum Einstellen eines maximalen oder minimalen Parameterwerts führen.
Bei einer Weiterbildung umfasst der zweite Gestentyp eine Tippgeste. Diese kann
beispielsweise als Antippen, Halten,„Longpush“ oder„Long press“ ausgebildet sein. Der Parameterwert kann so vorteilhafterweise besonders genau eingestellt werden, ohne dass die Aufmerksamkeit des Nutzers lange auf den Bedienvorgang gerichtet werden muss.
Für eine Tippgeste wird insbesondere die Betätigungsposition im Erfassungsbereich sowie die Dauer der Betätigung erfasst.
Es ist nicht immer möglich, eine Berührung so durchzuführen, dass jegliche Bewegung entlang der Oberfläche vermieden wird, obwohl eine Tippgeste durchgeführt werden soll. Zur
Unterscheidung zwischen Wisch- und Tippgesten kann insbesondere ein Abstand zwischen den Start- und Endpositionen der Berührung oder ein maximaler Abstand entlang einer Betätigungstrajektorie ausgewertet werden. Beispielsweise kann der Abstand mit einem Schwellenwert verglichen werden. Überschreitet der Abstand den Schwellenwert, so ist die Eingabegeste eine Wschgeste, unterschreitet er den Schwellenwert, so handelt es sich um eine Tippgeste.
Bei einer Ausbildung wird der zweite Gestentyp in Abhängigkeit von einer Dauer eines
Zeitintervalls bestimmt, während dessen in dem Erfassungsbereich eine Betätigung
durchgeführt wurde, wobei die Betätigung insbesondere ununterbrochen erfasst wird. Auf diese Weise können vorteilhafterweise besonders einfach weitere Gestentypen voneinander differenziert werden.
Bei dieser Ausbildung werden bei dem zweiten Gestentyp ein Anfangszeitpunkt und ein Endzeitpunkt einer Berührung erfasst. Anhand dieser Zeitpunkte kann eine Berührungsdauer bestimmt und mit einem Schwellenwert verglichen werden. Wrd der Schwellenwert, etwa 400 ms oder 800 ms, überschritten so handelt es sich um eine Eingabegeste des zweiten Gestentyps, wird er dagegen unterschritten, so handelt es sich beispielsweise um eine Eingabegeste des dritten Gestentyps. Bei dem beschriebenen Fall entspricht der zweite Gestentyp einem Halten oder einem sogenannten„Longpush“ oder„Longpress“ , der dritte Gestentyp dagegen einem Antippen.
Zum Beispiel kann vorgesehen sein, dass eine Eingabegeste des ersten Gestentyps in dem gesamten Erfassungsbereich durchgeführt werden kann und unabhängig von dem konkreten Ort der Betätigung stets der gleichen Veränderung des Parameterwert führt. Das heißt, es wird lediglich die Länge der Betätigungstrajektorie ausgewertet, nicht jedoch ihre Lage innerhalb des Erfassungsbereichs. Bei dem gleichen Beispiel sind zwei Teilbereiche links und rechts in dem Erfassungsbereich so ausgebildet, dass bei Ihnen ein Antippen, das heißt eine Eingabegeste des dritten Gestentyps, zu einer inkrementeilen Erniedrigung beziehungsweise Erhöhung des Parameterwert führt. Bei dem gleichen Beispiel sind zudem drei Teilbereiche des
Erfassungsbereichs so ausgebildet, dass bei ihnen ein Halten der Betätigung, das heißt eine Eingabegeste des zweiten Gestentyps, zum direkten Einstellen eines bestimmten
Parameterwerts führt; insbesondere wird durch einen links angeordneten Teilbereich ein minimaler Parameterwert, durch einen rechts angeordneten Teilbereich ein maximaler
Parameterwert und durch einen in der Mitte angeordneten Teilbereich ein bestimmter dazwischenliegender Parameterwert eingestellt.
Bei einer weiteren Ausbildung wird der Parameterwert so verändert, dass der Parameterwert bei jeder Betätigung aus einer geordnete Reihe von Einstellungswerten jeweils den nächsten Wert annimmt. Dadurch kann vorteilhafterweise besonders schnell und einfach zwischen vorgegebenen Einstellungen umgeschaltet werden. Insbesondere handelt es sich um einen sogenannten Toggle-Schalter.
Dieses Umschalten zwischen Einstellungen in einer geordneten Reihenfolge wird
beispielsweise bei einer Eingabegeste des zweiten oder dritten Gestentyps, insbesondere bei einem Antippen, durchgeführt. Ferner kann das Umschalten bei einem langen Halten erfolgen, wobei insbesondere nach Ablauf eines bestimmten Zeitintervalls jeweils zur nächsten
Einstellung umgeschaltet wird; in diesem Fall muss der Nutzer die Betätigung lediglich lange genug halten, um mehrere Einstellungen nacheinander zu durchlaufen.
Bei einer Weiterbildung ist der Erfassungsbereich ein Oberflächenbereich einer
Erfassungseinheit. Dadurch kann vorteilhafterweise eine berührungsempfindliche Oberfläche besonders effizient genutzt werden. Der Erfassungsbereich ist insbesondere auf einem Touchscreen oder auf andere an sich bekannte Weise ausgebildet. Zur Erfassung einer Betätigung können etwa kapazitive oder resistive Sensoren genutzt werden.
Bei einem weiteren Ausführungsbeispiel kann der Erfassungsbereich auf andere Weise ausgebildet sein. Zum Beispiel als räumlicher Bereich, insbesondere über einer Oberfläche oder in der Nähe eines Bedienelements.
Bei einer Ausbildung weist der Erfassungsbereich eine Längserstreckung und eine
Quererstreckung auf. Dabei verläuft die Quererstreckung senkrecht zur Längserstreckung und die Längserstreckung ist zumindest das Doppelte, bevorzugt das Dreifache der
Quererstreckung. Der Erfassungsbereich ist damit länglich gebildet und dadurch
vorteilhafterweise besonders gut zum intuitiven Einstellen eines Parameterwert geeignet. Es kann sich daher beispielsweise um ein Slider-Element handeln, durch das eine Funktionalität eines analogen Schiebereglers implementiert wird.
Bei einer weiteren Ausbildung wird beim Erfassen der Eingabegeste und/oder beim Erkennen eines Gestentyps eine akustische Rückmeldung erzeugt. Der Nutzer kann dadurch
vorteilhafterweise besonders leicht erkennen, ob seine Eingabe angenommen wurde.
Die akustische Rückmeldung kann alternativ oder zusätzlich auch dann erzeugt werden, wenn der Parameterwert verändert wird. Die akustische Rückmeldung wird auf an sich bekannte Weise erzeugt. Dabei können unterschiedliche Rückmeldungen beispielsweise in Abhängigkeit von dem erkannten Gestentyp, dem eingestellten Parameterwert oder anderen Einflussgrößen gewählt oder dynamisch gebildet werden.
Die erfindungsgemäße Vorrichtung zum Erfassen eines Parameterwerts in einem Fahrzeug umfasst eine Erfassungseinheit, die einen Erfassungsbereich aufweist und die dazu eingerichtet ist, in dem Erfassungsbereich eine Eingabegeste zu erfassen, und eine Steuereinheit, die dazu eingerichtet ist, die erfasste Eingabegeste einem ersten oder zweiten Gestentyp zuzuordnen. Dabei ist die Steuereinheit ferner dazu eingerichtet, wenn die erfasste Eingabegeste dem ersten Gestentyp zugeordnet wurde, anhand der erfassten Eingabegeste eine
Betätigungstrajektorie zu bestimmen und den Parameterwert um einen von einer Länge der Betätigungstrajektorie abhängigen Betrag zu verändern, oder, wenn die erfasste Eingabegeste dem zweiten Gestentyp zugeordnet wurde, anhand der erfassten Eingabegeste eine Betätigungsposition zu bestimmen und einen der Betätigungsposition zugeordneten vorbestimmten Parameterwert einzustellen.
Die erfindungsgemäße Vorrichtung ist insbesondere ausgebildet, das vorstehend beschriebene erfindungsgemäße Verfahren zu implementieren. Die Vorrichtung weist somit dieselben Vorteile auf wie das erfindungsgemäße Verfahren.
Bei einer weiteren Ausbildung weist die Vorrichtung im Bereich der berührungsempfindlichen Oberfläche eine Oberflächenstrukturierung auf, insbesondere eine Vertiefung oder Erhöhung. Dadurch können bedienbare Bereiche vorteilhafterweise besonders leicht gefunden und bedient werden.
Insbesondere wird auf diese Weise eine Fühlhilfe bereitgestellt, anhand derer der Nutzer die Position und Erstreckung der Erfassungsbereiche erfassen kann. Beispielsweise kann eine taktil erfassbare Oberflächendeformation eine lokal veränderte Rauigkeit umfassen. Ferner kann an der Oberfläche eine im Wesentlichen punktförmige Erhöhung oder Vertiefung ausgebildet sein oder es kann eine längliche Vertiefung oder Erhöhung vorgesehen sein.
Ferner sind komplexere Formen denkbar, etwa eine Vertiefung mit einem darin verlaufenden Grat oder weitere fühlbare Markierungen. Eine Vertiefung kann ferner geradlinig verlaufen oder entlang einer gekrümmten Linie.
Bei einer weiteren Ausbildung umfasst die Vorrichtung ferner einen Sensor zum Erfassen einer Annäherung an die berührungsempfindliche Oberfläche auf an sich bekannte Weise. Wenn eine solche Annäherung erfasst wird, können die Leuchtelemente so angesteuert werden, dass sie zumindest Licht der Grundintensität emittieren, um somit beispielsweise einem Nutzer die Position der Leuchtelemente anzuzeigen oder auf eine Eingabemöglichkeit hinzuweisen.
Insbesondere betrifft der Parameterwert eine Einstellung einer Temperatur, eines Gebläses oder einer Medienwiedergabeeinrichtung des Fahrzeugs.
Die Erfindung wird nun anhand von Ausführungsbeispielen mit Bezug zu den Zeichnungen erläutert.
Die Erfindung wird nun anhand von Ausführungsbeispielen mit Bezug zu den Zeichnungen erläutert. Figur 1 zeigt ein Fahrzeug mit einem Ausführungsbeispiel der erfindungsgemäßen Vorrichtung,
Figur 2 zeigt weitere Details des Ausführungsbeispiels der erfindungsgemäßen
Vorrichtung,
Figuren 3A bis 3C zeigen ein Ausführungsbeispiel einer Ausgabe eines Parameterwerts mittels einer Segmentanzeige,
Figuren 4A und 4B zeigen ein Ausführungsbeispiel für die Einstellung von Parameterwerten mittels eines Slider-Elements,
Figuren 5A bis 5F zeigen ein Ausführungsbeispiel für die Einstellung einer Luftverteilung durch ein Gebläse und
Figuren 6A bis 6C zeigen ein weiteres Ausführungsbeispiel für die Einstellung eines
Parameterwerts mittels eines Slider-Elements.
Mit Bezug zu Figur 1 wird ein Fahrzeug mit einem Ausführungsbeispiel der Vorrichtung erläutert.
Ein Fahrzeug 1 umfasst eine Erfassungseinheit 2, die mit einer Steuereinheit 3 gekoppelt ist. Mit der Steuereinheit 3 ist ferner eine Klimatisierungseinheit 4 gekoppelt.
Bei dem Ausführungsbeispiel weist die Erfassungseinheit 2 eine einem Nutzer im Fahrzeug 1 zugewandte Oberfläche auf. Auf dieser Oberfläche sind unterschiedliche Symbole angeordnet, die teilweise durch Lichtquellen, insbesondere LEDs, hinterleuchtet werden können. Es sind ferner Bereiche mit Leuchtflächen ausgebildet, die von einer Farbschicht so bedeckt sind, dass die Leuchtflächen für den Nutzer im Wesentlichen nur dann sichtbar sind, wenn diese tatsächlich beleuchtet werden, während sie praktisch unsichtbar sind, wenn die Leuchtflächen nicht beleuchtet werden. Dabei wird insbesondere eine als sogenanntes Black Panel ausgebildete Anzeige verwendet.
Die Oberfläche der Erfassungseinheit 2 kann eben ausgebildet sein. Sie kann ferner
Vertiefungen und/oder Erhöhungen aufweisen, die für einen Nutzer mit dem Finger erfassbar sind und als Fühlhilfen dazu dienen können, bestimmte Bereiche der Oberfläche besonders zu kennzeichnen. Beispielsweise können solche Füllhilfen einen mechanischen Schalter oder einen berührungsempfindlichen Bereich der Oberfläche hervorheben, der beispielsweise als Taster-Element oder als Slider-Element ausgebildet ist. Die Erfassungseinheit 2 umfasst ferner eine im IML-Verfahren (in-mould labeling) hergestellte und mit Kunststoff hinterspritzte Folie. Sie umfasst bei dem Ausführungsbeispiel zudem
Sensorelemente Sa, Sb, Sc, die hier als kapazitive Sensorelemente ausgebildet sind. Die Sensorelemente Sa bis Sc sind so hinter der Oberfläche der Erfassungseinheit 2 angeordnet, dass sie für den Nutzer nicht sichtbar sind. Die Sensorelemente Sa bis Sc sind auf an sich bekannte Weise so ausgebildet, dass sie eine Betätigung durch ein Betätigungselement erfassen können. Sie weisen hierzu jeweils einen Erfassungsbereich auf, der beispielsweise einen Bereich der Oberfläche der Erfassungseinheit 2 und/oder einen über der Oberfläche angeordneten räumlichen Bereich umfasst. Insbesondere kann ein Finger des Nutzers als Betätigungselement verwendet werden. Bei dem Ausführungsbeispiel erfassen die
Sensorelemente Sa bis Sc eine Betätigung anhand des Eintretens des Betätigungselement in den Erfassungsbereich, anhand eines Berührung einer Fläche, anhand seines Abstands zu einem Sensorelement Sa bis Sc, anhand einer Bewegung im Erfassungsbereich und/oder anhand einer Zeitdauer, während welcher das Betätigungselement detektiert wird. Diese Betätigung wird anschließend durch die Erfassungseinheit 2 und/oder die Steuereinheit 3 ausgewertet.
Bei dem Ausführungsbeispiel sind die Sensorelemente Sa bis Sc entlang einer geraden Linie äquidistant zueinander angeordnet. Entlang dieser Linie wird dadurch ein Schieber- oder Slider- Element implementiert. Dessen Funktion wird weiter unten im Detail erläutert.
Bei weiteren Ausführungsbeispielen weist die Erfassungseinheit 2 alternativ oder zusätzlich auf andere, an sich bekannte Weise ausgebildete berührungsempfindliche Oberflächenbereiche auf. Durch diese kann eine Betätigung durch ein Betätigungselement analog zu der oben erläuterten Funktionsweise der Sensorelemente Sa bis Sc erfasst werden.
Insbesondere erzeugt die Erfassungseinheit 2, wenn eine Betätigung detektiert wird, ein Steuersignal und überträgt dieses an die Steuereinheit 3. Es kann ein Parameterwert eingestellt werden, wobei entweder die Erfassungseinheit 2 selbst die Eingabe bereits so weit verarbeitet, dass sie ihr einen konkreten Parameterwert zuordnet, oder die Steuereinheit 3 diese
Verarbeitung des von der Erfassungseinheit 2 erzeugten Eingabe- oder Steuersignals übernimmt.
Ferner umfasst die Erfassungseinheit 2 Leuchtelemente La, Lb, Lc, Ld, Le, die in Form einer Segmentanzeige aneinander angrenzend entlang einer linearen Erstreckungsrichtung angeordnet sind. Die Leuchtelemente La bis Le sind unabhängig voneinander durch die Steuereinheit 3 ansteuerbar.
Die Klimatisierungseinheit 4 ist auf an sich bekannte Weise gebildet und umfasst bei dem Ausführungsbeispiel unter anderem eine Heizung für das Fahrzeug 1 , Sitzheizungen für den Fahrer- und Beifahrersitz, eine Lenkradheizung, Scheibenheizungen sowie ein Gebläse zum Einleiten von Luft in den Innenraum des Fahrzeugs 1 , wobei die Richtung, Verteilung, Intensität und Temperatur der einströmenden Luft eingestellt werden kann.
Mit Bezug zu Figur 2 wird das oben mit Bezug zu Figur 1 erläuterte Ausführungsbeispiel der Vorrichtung genauer erläutert.
Figur 2 zeigt eine Ansicht der dem Nutzer im Innenraum des Fahrzeugs 1 zugewandten Oberfläche der Erfassungseinheit 2. Diese Oberfläche ist im Wesentlichen als horizontal gestrecktes Rechteck ausgebildet. Im oberen Bereich sind nebeneinander Taster-Elemente 101 , 102, 103, 104, 105, 106, 107 angeordnet. Diese sind bei dem Ausführungsbeispiel als berührungsempfindliche Oberflächenbereiche ausgebildet, die durch Berühren mit einem Betätigungselement, insbesondere einem Finger des Nutzers, betätigt werden können. In Figur 2 sind die den einzelnen Taster-Elementen 101 bis 107 zugeordneten
berührungsempfindlichen Bereiche durch gestrichelte Linien angedeutet. Innerhalb dieser Bereiche sind ferner Leuchtflächen ausgebildet, die durch Aktivieren einer dahinter
angeordneten LED mit Licht einer bestimmten Intensität und/oder Farbe beleuchtet werden können, etwa um den Status, die Aktivität oder eine Einstellung einer dem jeweiligen Taster- Element 101 bis 107 zugeordneten Funktion auszugeben. Die Ansteuerung der
Erfassungseinheit 2 und gegebenenfalls die Auswertung von durch die Erfassungseinheit 2 erfassten Signale erfolgt durch die Steuereinheit 3.
In einem mittleren und unteren Bereich der Oberfläche der Erfassungseinheit 2 sind zudem weitere Taster-Elemente 108, 109, 110, 111 ausgebildet. Auch diese sind bei dem
Ausführungsbeispiel mittels berührungsempfindlicher Oberflächenbereiche ausgebildet, die durch gestrichelte Linien angedeutet sind. Durch Betätigen der weiteren Taster-Elemente 108 bis 111 können weitere Funktionen aufgerufen, aktiviert oder eingestellt werden. So kann beispielsweise durch Betätigen des Taster- Elements 110„MENU“ eine Menüdarstellung auf einem Display im Fahrzeug 1 aufgerufen werden. Durch Betätigen des Taster- Elements 111 „OFF“ kann die Klimatisierungseinheit 4 ausgeschaltet werden. Mittels des Taster-Elements 109 „A/C“ kann die Klimaanlage der Klimatisierungseinheit 4 des Fahrzeugs 1 aktiviert, mittels des Taster- Elements 108„AUTO“ kann ein automatischer Modus der Klimatisierungseinheit 4 aktiviert werden.
Bei anderen Ausführungsbeispielen können die Taster-Element 101 bis 111 als mechanische Schalter, insbesondere Tastschalter, ausgebildet sein. Zudem können bei weiteren
Ausführungsbeispielen andere Funktionen alternativ oder zusätzlich vorgesehen sein.
Im mittleren und unteren Bereich der Oberfläche der Erfassungseinheit 2 sind ferner
Segmentanzeigen 115, 116 angeordnet, die bei dem Ausführungsbeispiel zur Ausgabe eines zweistelligen Temperaturwerts mit einer Nachkommastelle geeignet sind. Ferner sind hier Slider-Elemente 112, 113, 114 zum Einstellen einer Temperatur und einer Gebläsestufe angeordnet. Die jeweils einstellbaren Funktionen der Klimatisierungseinheit 4 werden durch Symbole auf der Oberfläche angedeutet. Die Slider-Elemente 112 bis 114 umfassen jeweils eine horizontale gerade Linie einer bestimmten Länge, entlang derer eine Vertiefung auf der Oberfläche der Erfassungseinheit 2 ausgebildet ist. Dahinter verdeckt durch die Oberfläche sind Sensorelemente Sa bis Sc angedeutet, durch die jeweils eine Berührung im Bereich eines Slider-Elements 112 bis 114 detektierbar ist, wobei insbesondere eine Position der Berührung sowie gegebenenfalls eine Bewegung entlang des Slider-Elements 112 bis 114 erfasst wird.
Bei dem Ausführungsbeispiel ist die Linie des Slider-Elements 112 zum Einstellen des
Gebläses, das heißt der Gebläse-Slider 112, durch dahinter angeordnete Leuchtelemente La bis Le segmentweise beleuchtbar.
Mit Bezug zu den Figuren 3A bis 3C wird ein Ausführungsbeispiel einer Ausgabe einer eingestellten Stufe eines Gebläses der Klimatisierungseinheit 4 mittels einer Segmentanzeige erläutert. Dabei wird insbesondere von dem oben mit Bezug zu den Figuren 1 und 2 erläuterten Ausführungsbeispiel der Vorrichtung ausgegangen. Die Segmentanzeige des
Ausführungsbeispiels ist insbesondere im Bereich des Gebläse-Sliders 112 angeordnet und die Ansteuerung erfolgt durch die Steuereinheit 3.
Bei dem Beispiel sind sieben Leuchtflächen LED1 bis LED7, insbesondere beleuchtbar durch LEDs, entlang einer geraden Linie nebeneinander angeordnet und unabhängig voneinander ansteuerbar. Die Anzahl leuchtender Leuchtflächen LED1 bis LED7 entspricht der aktivierten Stufe des Gebläses, das heißt, es sind so viele Stufen wie Leuchtflächen LED1 bis LED7 vorgesehen. Bei dem Ausführungsbeispiel ist ferner eine Streuscheibe über den Leuchtflächen LED1 bis LED7 angeordnet, sodass nebeneinander angeordnete beleuchtete Leuchtflächen LED1 bis LED7 aus der Perspektive des Nutzers eine durchgehende Linie zu bilden scheinen.
Bei dem in Figur 3A gezeigten Fall ist das Gebläse der Klimatisierungseinheit 4 deaktiviert. Der Graph zeigt die Intensität der Lichtemission auf der Y-Achse, während die einzelnen
Leuchtflächen LED1 bis LED7 Positionen entlang der X-Achse zugeordnet sind. Keine der Leuchtflächen leuchtet, was in dem Diagramm der Figur 3A durch praktisch nicht sichtbare Säulen dargestellt ist.
Bei den Fällen der Figuren 3B und 3C ist die dritte Stufe des Gebläses der
Klimatisierungseinheit 4 aktiviert. Die Graphen zeigen die Intensität des von den Leuchtflächen LED1 bis LED7 emittierten Lichts in Abhängigkeit von der Position beziehungsweise von der jeweiligen Leuchtfläche LED1 bis LED7. Bei dem Fall der Figur 3B ist ein Nachtmodus, bei dem Fall der Figur 3C ein Tagmodus der Segmentanzeige aktiviert. Die ersten drei Leuchtflächen werden so angesteuert, dass sie mit 60 % beziehungsweise 100 % einer maximalen Intensität leuchten, während die restlichen vier Leuchtflächen so angesteuert werden, dass sie mit lediglich 10 % beziehungsweise 20 % der maximalen Intensität leuchten. Das heißt, im
Tagmodus erfolgt die Anzeige mittels einer gegenüber dem Nachtmodus erhöhten
Lichtintensität, um auch bei starkem Umgebungslicht tagsüber die Anzeige problemlos ablesbar zu gestalten, ohne jedoch bei geringem Umgebungslicht in der Nacht den Nutzer eine zu hohe Intensität zu stören oder zu blenden.
Bei dem Ausführungsbeispiel wird ein„Überleuchten“ von einer hell beleuchteten Leuchtfläche zu einer benachbarten, nicht oder schwächer beleuchteten Leuchtfläche kaschiert, indem alle Leuchtflächen zumindest mit einer Grundintensität beleuchtet werden. Lediglich die eigentlich zur Anzeige verwendeten Leuchtflächen werden mit einer höheren Anzeige-Intensität beleuchtet. Das heißt, alle nicht der Anzeige der Gebläsestufe dienenden Leuchtflächen werden gleichmäßig beleuchtet, statt durch das Überleuchten unterschiedliche Intensitäten
aufzuweisen, je nach dem Abstand von einer mit höherer Intensität beleuchteten Leuchtfläche.
Um diese gleichmäßige Beleuchtung mit der Grundintensität zu erreichen, kann es nötig sein, die LEDs mit unterschiedlichem Strom zu beaufschlagen; insbesondere wird so ein
Überleuchten kompensiert. Beispielsweise kann bei dem in Figur 3B gezeigten Fall vorgesehen sein, dass die ersten drei LEDs LED1 , LED2, LED3 mit einem ersten Strom für 60 % der Maximalintensität betrieben werden, wobei ein Überleuchten dazu führt, dass im Bereich der beiden benachbarten Leuchtflächen LED4 und LED5 bereits eine gewisse Intensität emittiert wird. Die LEDs dieser Leuchtflächen LED4 und LED5 werden daher nur mit geringerem Strom betrieben als die LEDs weiter entfernt positionierter Leuchtflächen LED6 und LED7, um eine gleichmäßige Grundintensität der LEDs LED4 bis LED7 zu erreichen. Zum Beispiel wird die direkt benachbarte Leuchtfläche LED4 mit 5 % und die weitere benachbarte Leuchtfläche LED5 mit 7 % betrieben, während die weiter entfernten Leuchtflächen LED6 und LED7 mit 10 % betrieben werden. In weiteren Ausführungsbeispielen können andere Lichtquellen, die insbesondere Licht in die Leuchtflächen LED1 bis LED7, berücksichtigt und durch eine geeignete Ansteuerung der LEDs kompensiert.
Bei weiteren Ausführungsbeispielen können andere Verhältnisse zwischen den Intensitäten sowie verschiedene Modi vorgesehen sein. Beispielsweise kann eine Umgebungshelligkeit erfasst und die Lichtintensität der aktivierten Leuchtflächen dynamisch an die erfasste
Umgebungshelligkeit angepasst werden. Ferner können einander zugeordnete Werte von Grundintensität und Anzeige-Intensität fest vorbestimmt sein, wie es bei dem
Ausführungsbeispiel der Fall ist. Ferner kann die Grundintensität beispielsweise ein bestimmter Bruchteil der Anzeige-Intensität sein oder die Grundintensität kann auf andere Weise ermittelt werden, etwa anhand eines physikalischen Modells, bei dem die Intensität eines Überleuchtens in Abhängigkeit von der Anzeige-Intensität bestimmt wird und anschließend eine
Grundintensität so gebildet wird, dass das Überleuchten hierdurch kaschiert wird.
Bei einem weiteren Ausführungsbeispiel werden auch bei deaktiviertem Gebläse sämtliche Leuchtflächen mit einer Grundintensität beleuchtet, die etwa anhand einer Umgebungshelligkeit bestimmt wird. Auf diese Weise können die Leuchtflächen als Designelemente sowie zur Anzeige einer Stufe„0“ genutzt werden. Der Nutzer kann dann insbesondere erkennen, dass sich in einem bestimmten Bereich eine Anzeige für die Einstellung des Gebläses befindet und/oder dass in einem solchen Bereich eine Bedienung zum Einstellen des Gebläses vorgenommen werden kann.
Bei weiteren Ausführungsbeispielen können die Leuchtflächen zum Anzeigen eines anderen Parameters genutzt werden. Sie können ferner im Zusammenhang mit verschiedenen Slider- Elementen 112, 113, 114 oder anderen Anzeigen verwendet und in der beschriebenen Weise angesteuert werden.
Ferner kann eine höhere Anzahl von Leuchtflächen verwendet werden, insbesondere mehr Leuchtflächen als Stufen einstellbar sind. Beispielsweise können auf diese Weise
Zwischenstufen angezeigt werden oder während einer Bedienung, beispielsweise mittels des Gebläse-Sliders 112, können die beleuchteten Leuchtflächen der Position des
Betätigungsobjekts auf dem Slider 112 folgen. Sie können ferner statt einer linearen Anordnung nebeneinander auf andere Weise angeordnet sein, etwa in einer zweidimensionalen Matrix.
Mit Bezug zu den Figuren 4A und 4B wird ein Ausführungsbeispiel für die Einstellung von Parameterwerten mittels eines Slider-Elements erläutert. Dabei wird insbesondere von dem oben mit Bezug zu den Figuren 1 und 2 erläuterten Ausführungsbeispiel der Vorrichtung ausgegangen. Die Ansteuerung erfolgt insbesondere mittels der Steuereinheit 3.
Die nachfolgenden Erläuterungen beziehen sich beispielhaft auf das Slider-Element 112, das bei dem Ausführungsbeispiel als Gebläse-Slider 112 der Erfassungseinheit 2 zum Einstellen eines Gebläses der Klimatisierungseinheit 4 zugeordnet ist. Selbstverständlich kann das Verfahren auch für andere Slider-Elemente 112, 113, 114 sowie zur Erfassung anderer Parameterwerte verwendet werden.
Auf der dem Nutzer zugewandten Oberfläche der Erfassungseinheit 2, wie etwa in Figur 2 dargestellt, ist im Bereich des Gebläse-Sliders 112 eine horizontale Linie angeordnet, an deren linkem Ende ein Gebläse-Symbol 112a für einen ausgeschalteten Zustand des Gebläses und an deren rechtem Ende ein Gebläse-Symbol 112b für einen maximal aktiven Zustand des Gebläse angeordnet ist.
Hinter der Oberfläche sind Lichtquellen angeordnet, bei dem Ausführungsbeispiel LEDs, durch die sowohl die Linie 112, als auch die Symbole 112a, 112b beleuchtbar sind. Bei dem
Ausführungsbeispiel ist ferner die Linie 112 als Segmentanzeige beleuchtbar, das heißt, hinter hier sind Lichtquellen in einer Reihe nebeneinander so angeordnet, dass einzelne Bereiche der Linie 112 unabhängig voneinander mit verschiedenen Intensitäten beleuchtet werden können. Hierdurch wird beispielsweise die eingestellte Stufe des Gebläses gemäß dem oben mit Bezug zu den Figuren 3A bis 3C erläuterten Verfahren ausgegeben. Die Symbole 112a, 112b und die Linie 112 können dauerhaft sichtbar aufgedruckt oder mittels einer ß/ac/c-Pane/-Technik nur dann sichtbar gebildet sein, wenn sie von hinten beleuchtet werden.
In den Figuren 4A und 4B sind jeweils berührungsempfindliche Bereiche 149, 141a, 141 b, 142a bis 142i durch gestrichelte Linien angedeutet. In diesen Bereichen erfassen die
Sensorelemente Sa bis Sc eine Betätigung durch ein Betätigungsobjekts, wie oben bereits erläutert, oder die Erfassung kann auf andere Weise erfolgen. Bei einer Betätigung wird gemäß dem Ausführungsbeispiel die Oberfläche der Erfassungseinheit 2 in einem berührungsempfindlichen Bereich durch das Betätigungsobjekt berührt. Bei weiteren
Ausführungsbeispielen kann statt einer Berührung auch erfasst werden, wenn sich das
Betätigungsobjekt in einem bestimmten räumlichen Bereich oder an einer Position befindet, beispielsweise dicht über der Oberfläche der Erfassungseinheit 2.
Bei dem Ausführungsbeispiel wird eine Betätigung an einer bestimmten Position dadurch erfasst, dass die Sensorelemente Sa bis Sc in Abhängigkeit von der Position des
Betätigungsobjekts unterschiedlich starke Signale detektieren. Beispielsweise hängt die Stärke eines von einem kapazitiven Sensoren erfassten Signals von dem Abstand eines in einen Erfassungsbereich eintretenden Betätigungsobjekts ab. Bei dem Ausführungsbeispiel berührt der Nutzer das Slider-Element 112 an einem beliebigen Punkt oder er verschiebt die Position seiner Bewegung entlang des Slider-Elements 112. In Abhängigkeit von der aktuellen Position werden somit durch die Sensorelemente Sa bis Sc verschiedene Signalstärken detektiert. Anhand dieser Signalstärken wird die Position bestimmt und es wird ein Parameterwert in Abhängigkeit von der bestimmten Position eingestellt.
Auf diese Weise können unterschiedliche räumliche Bereiche, insbesondere Flächenbereiche auf der Oberfläche der Erfassungseinheit 2, als voneinander getrennte Bereiche verwendet werden, um darin Betätigungen zu erfassen. Insbesondere können diese Betätigungen auch abhängig von dem jeweiligen Flächenbereich unterschiedlich ausgewertet werden.
Beispielsweise kann ein Flächenbereich als Taster-Element mit einem bestimmten
Ansprechverhalten, das heißt etwa mit bestimmten Schwellenwerten für Zeitintervalle zu Betätigung, oder als Slider-Element mit einem anderen Ansprechverhalten konfiguriert sein.
Das heißt, die Flächenbereiche, innerhalb derer Betätigungen erfasst werden können, können lediglich virtuell ausgebildet werden, statt für jeden beliebigen Bereich einen eigenen zu benötigen. Es kann ein zusammenhängender Bereich gebildet werden, innerhalb dessen die Position einer Betätigung oder eine Betätigungstrajektorie erfasst wird, oder es können einzelne Bereiche gebildet werden, bei denen eine Betätigung erfasst wird, wenn diese einer beliebigen Position innerhalb dieser einzelnen Bereiche zugeordnet wird.
Bei dem Ausführungsbeispiel ist ferner vorgesehen, dass die eingestellte Stufe durch eine Segmentanzeige, im Bereich des Slider-Elements 112 angezeigt wird. Dies erfolgt auf die oben mit Bezug zu den Figuren 3A bis 3C erläuterte Art. Bei einer Betätigung des Slider-Elements 112 an einer Position wird dieses an der entsprechenden Position beleuchtet und die entsprechende Stufe des Gebläses wird eingestellt. Allerdings wird bei dem Ausführungsbeispiel nicht nur detektiert, im Bereich welcher Stufe sich die Betätigungsposition aktuell befindet, sondern es wird auch eine Annäherung an umliegende Bereiche erfasst.
Insbesondere wird erfasst, wenn sich das Betätigungsobjekt, etwa der Finger des Nutzers, in Richtung einer anderen Stufe bewegt und diese Annäherung wird auch angezeigt.
Beispielsweise kann der Nutzer seinen Finger entlang des Slider-Elements 112 bewegen und sich dabei an einen Bereich annähern, der einer nächsten Stufe des Gebläses zugeordnet ist. Das in diesem Bereich angeordnete Beleuchtungselement wird mit zunehmender Intensität beleuchtet, je näher der Nutzer sich an den Bereich der nächsten Stufe annähert. Wenn der Nutzer den nächsten Bereich erreicht, wird dieser mit der normalen Anzeige-Intensität beleuchtet.
Im Unterschied zu bekannten berührungsempfindlichen Oberflächen wird der Parameterwert bei dem Ausführungsbeispiel des Verfahrens mittels weniger Sensoren, besonders flexibel und/oder mit einer höheren Auflösung erfasst. Während bekannte Verfahren zumindest ein Sensorelement für jede erfassbare Position vorsehen, werden bei dem erläuterten Verfahren weniger Sensoren auf besonders platzsparende, kosteneffiziente und einfacher Weise genutzt.
Es werden verschiedene Parameter der Betätigung erfasst und ausgewertet, etwa eine
Startposition, bei welcher die Berührung beginnt, eine Endposition, bei der die Berührung endet, sowie eine Trajektorie, entlang derer sich das Betätigungsobjekt entlang der Oberfläche von der Start- zur Endposition bewegt. Alternativ oder zusätzlich kann eine Dauer der Berührung und/oder des Aufenthalts an einer bestimmten Position erfasst werden. Gegebenenfalls kann auch eine Richtung und/oder Geschwindigkeit einer Bewegung entlang der Oberfläche bestimmt und ausgewertet werden.
Es sind mehrere Betätigungsmöglichkeiten unterscheidbar, die insbesondere verschiedene Arten der Betätigung zum Eingeben oder Auswählen eines Parameterwerts bezeichnen und die nachfolgend auch als„Usecases“ bezeichnet werden. Diese können beispielsweise für Taster oder Slider-Elemente sowohl in berührungsempfindlichen Flächenbereichen als auch für mechanische Schalter verwendet werden.
Der Nutzer kann den berührungsempfindlichen Bereich durch„Antippen“ betätigen, wobei zwischen dem Beginn und dem Ende der Berührung ein Zeitintervall V erfasst wird, dass kürzer als ein bestimmter Schwellenwert to ist: At < to. Der Schwellenwert to kann beispielsweise 400 ms oder 800 ms betragen. Der Zeitpunkt, bei dem ein Betätigungsereignis erfasst und beispielsweise ein Parameterwert verändert wird, ist hier typischerweise der Zeitpunkt, bei dem die Berührung gelöst wird. Alternativ kann ein Betätigungsereignis auch dann erfasst werden, wenn die Berührung beginnt, wobei in diesem Fall jede Berührung bereits ein Antipp-Ereignis auslöst. Typische Anwendungen für das Antippen sind etwa das An- und Ausschalten einer Funktion, das inkrementeile Verändern von Parameterwerten oder die direkte Auswahl eines Parameterwert durch Antippen einer Schaltfläche.
Der Nutzer kann ferner die Berührung an einer bestimmten Position oder in einem bestimmten Flächenbereich für ein längeres Zeitintervall At als einen Schwellenwert ti halten: At > . Der Schwellenwert ti kann beispielsweise 400 ms oder 800 ms betragen. Eine solche Betätigung kann als„Halten“,„Longpress“ oder„Longpush“ bezeichnet werden. Ein entsprechendes Halte- Ereignis kann ausgelöst werden, sobald das gehaltene Zeitintervall At den Schwellenwert ti überschreitet oder wenn die Berührung gelöst wird. Als weitere Bedingungen kann definiert sein, dass die Berührung an einer bestimmten Position oder in einem bestimmten Bereich gelöst werden muss, um einen Halte-Ereignis auszulösen; in diesem Fall kann der Nutzer das Auslösen verhindern, indem er das Betätigungsobjekt in einen anderen Bereich verschiebt, etwa auf ein anderes Taster-Element.
Ferner kann ein„mehrfaches Halten“ dadurch durchgeführt werden, dass die Berührung eines ersten Flächenbereichs länger als ein Schwellenwert ti dauert und anschließend in einen zweiten Flächenbereich übergeht, der dann ebenfalls länger als der Schwellenwert ti berührt wird. Hierdurch können beispielsweise mehrere Taster-Elemente betätigt werden, ohne das Betätigungsobjekt abheben zu müssen. Dazu wird ein erstes Taster-Element mit einer„Halten“- Geste betätigt und anschließend rutscht der Nutzer mit dem Betätigungsobjekt, ohne die Berührung zu lösen, zu einem anderen Taster-Element weiter.
Bei einem„dauerhaften Halten“ wird eine Betätigung für ein Zeitintervall At länger als ein Schwellenwert to erfasst und es wird für jedes Vielfache des Schwellenwerts to eine erneute Betätigung erfasst. Der Nutzer kann dabei eine mehrfache Betätigung dadurch auslösen, dass er die Betätigung für ein entsprechendes Vielfaches des Schwellenwerts t0 hält.
Ferner kann ein„Wischen“ als Betätigung erfasst werden, etwa wenn das Betätigungsobjekt für ein Zeitintervall At kürzer als ein Schwellenwert t0 in einem Flächenbereich verweilt und anschließend einen benachbarten Flächenbereich betätigt. Die Betätigung kann dann beispielsweise für den benachbarten Flächenbereich beim Lösen der Berührung erfasst werden, wobei insbesondere berücksichtigt wird, ob der Nutzer den benachbarten Flächenbereich für ein Zeitintervall At kürzer als den Schwellenwert to berührt oder ob hier beispielsweise ein Halten durchgeführt wird.
Ferner kann ein„Swipe“ als Betätigung erfasst werden, wobei sich die Position der Berührung von einem ersten zu einem zweiten Flächenbereich bewegt und dabei insbesondere weitere Flächenbereiche überquert werden. Dabei wird zudem die Geschwindigkeit berücksichtigt, mit der sich die Position verändert und es kann beispielsweise ein Parameterwert schneller verändert werden als bei einem Wischen. Ein„Swipe“ kann insbesondere dann erfasst werden, wenn die Geschwindigkeit der Wisch-Geste einen Schwellenwert überschreitet.
Bei dem in Figur 4A gezeigten Fall ist der Gebläse-Slider als zusammenhängender aktiver Slider-Bereich 149 definiert, der sich über die gesamte Länge der Linie 112 sowie die angrenzenden Symbole 112a, 112b erstreckt. Innerhalb der Fläche 149 dieses aktiven Slider- Bereichs 149 können die Positionen von Berührungen und Betätigungen erfasst werden. Wenn sich das Betätigungsobjekt entlang der Längsausdehnung des Gebläse-Sliders 112 bewegt, wird die Position der Berührung, insbesondere während einer Wischgeste, kontinuierlich erfasst und die eingestellte Stufe des Gebläses folgt dieser Position. Beispielsweise ist eine niedrigste Stufe dem linken Bereich des Gebläse-Sliders 112 oder dem linken Gebläse-Symbol 112a zugeordnet, während eine höchste Stufe dem rechten Bereich des Gebläse-Sliders 112 oder dem rechten Gebläse-Symbol 112b zugeordnet ist. Dazwischen verteilen sich über die
Längserstreckung des Gebläse-Sliders 112 Bereiche gleicher Größe, denen jeweils eine dazwischen liegende Stufe zugeordnet ist.
Bei dem Beispiel wird eine Stufe eingestellt, wenn das Betätigungsobjekt eine Position erreicht, die dieser Stufe zugeordnet ist. Bei weiteren Ausführungsbeispielen erfolgt das Einstellen der Stufe erst, wenn die Berührung gelöst wird, wobei dann diejenige Stufe eingestellt wird, die der Position beim Lösen der Berührung zugeordnet ist.
Bei dem in Figur 4B gezeigten Fall sind dagegen einzelne berührungsempfindliche
Flächenbereiche 142a bis 142i ausgebildet. Diese werden durch Antippen betätigt, sodass der Nutzer die Stufen des Gebläse direkt durch Auswahl eines berührungsempfindlichen
Flächenbereichs 142a bis 142i auswählen kann.
Dabei sind zusätzlich die beiden äußersten linken 142a, 142b und rechten 142h, 142i berührungsempfindlichen Flächenbereiche zu vergrößerten Betätigungsbereichen 141a, 141b zusammengefasst. Durch Antippen in einem dieser vergrößerten Betätigungsbereiche 141a, 141 b kann der Nutzer die Stufe des Gebläse inkrementeil erhöhen oder erniedrigen. Durch dauerhaftes Halten in einem der vergrößerten Betätigungsbereiche 141a, 141 b wird die Stufe schrittweise erhöht oder erniedrigt, je nach dem Zeitintervall, während dessen die Berührung gehalten wird.
Bei dem Ausführungsbeispiel werden durch die Vergrößerung der Betätigungsbereiche 141a, 141 b die Möglichkeiten zur direkten Anwahl einer Stufe des Gebläse insofern beschränkt, als die niedrigste und höchste Stufe nicht direkt auswählbar ist. Stattdessen werden diese Stufen lediglich dadurch erreicht, dass ausgehend von der nächsten benachbarten Stufe der entsprechende vergrößerte Betätigungsbereich 141a, 141b erneut angetippten oder dauerhaft erhalten wird.
Die in den Figuren 4A und 4B gezeigten Fälle sind bei dem Ausführungsbeispiel nicht als statische Konfigurationen der Erfassungseinheit 2 zu verstehen. Vielmehr schaltet die
Erfassungseinheit 2 dynamisch zwischen den beiden Konfigurationen um und zwar in
Abhängigkeit von der Art der erfassten Betätigung, das heißt dem erfassten Usecase. Das heißt, wenn der Nutzer eine Wischgeste durchführt, wird die Betätigung so interpretiert, wie oben mit Bezug zu Figur 4A erläutert. Führt der Nutzer dagegen eine Antipp- oder eine dauerhafte Haltegeste durch, so erfolgt die Auswertung dieser Geste wie bei der mit Bezug zu Figur 4B erläuterten Konfiguration.
Bei weiteren Ausführungsbeispielen können die genannten Konfigurationen auf andere Weise kombiniert oder ausgebildet sein.
Bei dem Ausführungsbeispiel ist ferner vorgesehen, dass die Taster-Elemente 108 bis 111 , die benachbart zu Slider-Elementen 112, 113, 140 angeordnet sind, für das Erfassen einer
Betätigung gesperrt werden, nachdem eine Wischgeste im Bereich eines der Slider-Elemente 112, 113, 114 erfasst wurde. Dadurch wird vermieden, dass der Nutzer versehentlich eines der Taster- Elemente 108 bis 111 betätigt, wenn er bei einer Wischgeste eine Bewegung des Betätigungsobjekts über den Bereich eines Slider-Elements 112, 113, 114 hinaus fortsetzt.
Die Sperrung der benachbarten Taster-Elemente 108 bis 111 oder weiterer
berührungsempfindliche Flächen oder Schaltelemente wird für ein bestimmtes Sperr- Zeitintervall durchgeführt. Dieses Sperr-Zeitintervall beginnt insbesondere zu dem Zeitpunkt, bei dem die Berührung des Slider-Elements 112, 113, 114 beendet wird, und es kann insbesondere dynamisch bestimmt werden, etwa anhand der Geschwindigkeit der Wischgeste und/oder einer Fahrgeschwindigkeit des Fahrzeugs 1.
Bei weiteren Ausführungsbeispielen wird ein Abstand von einem Slider-Element 112, 113, 114 definiert, innerhalb dessen in dem Sperr-Zeitintervall keine Betätigung erfasst werden. Auch dieser Abstand kann dynamisch bestimmt werden, etwa anhand der Geschwindigkeit der Wschgeste, einer Längserstreckung des Slider-Elements 112, 113, 114 und/oder anhand der Fahrgeschwindigkeit des Fahrzeugs 1. Anhand des Abstands kann insbesondere ein
Flächenbereich definiert werden, der eine Längserstreckung des Slider-Elements 112, 113, 114 fortsetzt; beispielsweise wird dann eine Fläche ober- oder unterhalb eines horizontal verlaufenden Slider-Elements 112, 113, 114 nicht gesperrt, während seitlich angrenzende Flächenbereiche während des Sperr-Zeitintervalls gesperrt sind.
Bei einem weiteren Ausführungsbeispiel erfolgt die Sperrung der benachbarten Taster- Elemente 108 bis 111 nur dann, wenn erfasst wurde, dass eine Wschgeste zumindest bis zu einem seitlichen Ende des Slider-Elements 112, 113, 114 oder darüber hinaus durchgeführt wurde. Bei weiteren Ausführungsbeispielen kann die Sperrung bestimmter Flächenbereiche der Erfassungseinheit 2 durch andere Ereignisse als eine Wschgeste ausgelöst werden, beispielsweise durch jegliche Betätigung in einem bestimmten Flächenbereich.
Bei einem weiteren Ausführungsbeispiel betätigt der Nutzer erst eine erste Taste, ändert dann seine Auswahl und rutscht zu einer anderen Taste. In diesem Fall kann vorgesehen sein, dass die Betätigung erst erfasst wird, wenn der Nutzer die Berührung löst. Erst dann wird das Sperr- Zeitintervall ausgelöst. Das heißt, der Nutzer kann in diesem Fall, ohne die Berührung zu lösen, von einer ersten zu einer zweiten Taste verrutschen und beim Abheben des Fingers die zweite Taste betätigen. Erst dann beginnt das Sperr-Zeitintervall und es kann keine andere Taste betätigt werden.
Bei einem Ausführungsbeispiel wird eine akustische Rückmeldung erzeugt, wenn eine
Eingabegeste oder ein Gestentyp erkannt wird. Insbesondere wird die akustische Rückmeldung erzeugt, wenn ein Steuersignal anhand einer erfassten Eingabe erzeugt wird. Der Nutzer kann dadurch erkennen, ob seine Eingabe angenommen wurde. Die akustische Rückmeldung kann alternativ oder zusätzlich auch dann erzeugt werden, wenn der Parameterwert verändert wird. Sie wird auf an sich bekannte Weise erzeugt, wobei unterschiedliche Rückmeldungen ausgegeben werden können, etwa um einen erkannten Gestentyp, einen eingestellten
Parameterwert oder andere Einflussgrößen auszugeben. Die akustische Rückmeldung kann dazu auch dynamisch gebildet werden, etwa indem eine Tonhöhe in Abhängigkeit von dem eingestellten Parameterwert gebildet wird.
Mit Bezug zu den Figuren 5A bis 5F wird ein Ausführungsbeispiel für die Einstellung einer Luftverteilung durch ein Gebläse erläutert. Dabei wird von den oben erläuterten
Ausführungsbeispielen ausgegangen.
Bei dem Ausführungsbeispiel umfasst die in Figur 2 gezeigte Oberfläche der Erfassungseinheit 2 ein Taster-Element 104, mit dem eine Verteilung der durch ein Gebläse der
Klimatisierungseinheit 4 in den Innenraum des Fahrzeugs 1 geleiteten Luft eingestellt werden kann. Im Bereich dieses Taster-Elements 104 wird ferner eine Anzeige der eingestellten Verteilung ausgegeben.
In den Figuren 5A bis 5F wird die Verteilung durch Pfeile 132, 133, 134 ausgegeben, die in unterschiedlicher Höhe relativ zu einer Passagierdarstellung 131 angeordnet sind. Die Pfeile 132, 133, 134 werden durch unabhängig voneinander beleuchtbare Leuchtflächen gebildet, während die Passagierdarstellung 131 auf die Oberfläche aufgedruckt und daher dauerhaft sichtbar ist. Bei dem Ausführungsbeispiel sind die Pfeile 132, 133, 134 ungefähr in Höhe eines Kopf-, Rumpf- beziehungsweise Fußbereichs der Passagierdarstellung 131 angeordnet.
Bei dem Ausführungsbeispiel wird das Taster-Element 104 als„Togg/e“-Schalter verwendet. Das heißt, es ist eine feste Reihenfolge unterschiedlicher Einstellungen vorgegeben und bei jeder Betätigung des Taster- Elements 104 wird die der Reihenfolge nach folgende Einstellung eingestellt. Beim Erreichen der letzten Einstellung erfolgt ein Sprung zur ersten Einstellung der Reihenfolge, insbesondere nach Art einer periodischen Randbedingung. Bei weiteren
Ausführungsbeispielen kann die Reihenfolge beim Erreichen der letzten Einstellung umgekehrt fortgesetzt werden, insbesondere nach Art einer reflektierenden Randbedingung.
Bei dem in Figur 5A gezeigten Fall wird Luft im oberen Bereich des Fahrzeuginnenraums eingeleitet. Bei dem in Figur 5B gezeigten Fall erfolgt zusätzlich eine Einleitung im Fußbereich des Innenraums. Bei dem in Figur 5C gezeigten Fall strömt die Luft lediglich in den Fußbereich. Bei dem Fall der Figur 5D strömt die Luft in den Kopf-, Rumpf- und Fußbereich des
Fahrzeuginnenraums, während sie bei dem Fall der Figur 5E in den Rumpf- und Fußbereich eingeleitet wird. Bei dem Fall der Figur 5F schließlich wird die Luft so eingeleitet, dass sie etwa im Rumpfbereich auf einen Passagier im Fahrzeug 1 trifft. Bei weiteren Ausführungsbeispielen können die Luftverteilungen in einer anderen Reihenfolge geordnet oder auf andere Weise gebildet sein.
Mit Bezug zu den Figuren 6A bis 6C wird ein weiteres Ausführungsbeispiel für die Einstellung eines Parameterwerts mittels eines Slider-Elements erläutert. Dabei wird von den oben erläuterten Ausführungsbeispielen ausgegangen.
Der Temperatur-Slider 113 umfasst eine horizontale gerade Linie 113, an deren Enden
Temperatur-Symbole 113a, 113b angeordnet sind. Diese sind bei dem Ausführungsbeispiel auf der linken Seite blau und auf der rechten Seite rot gefärbt, um niedrige beziehungsweise hohe Temperaturen zu symbolisieren. Aktive Slider-Bereiche 150, 150a, 150b, 150c werden, analog zu den Figuren 2, 4A und 4B, durch gestrichelte Linien angedeutet.
Bei dem in Figur 6A gezeigten Fall erstreckt sich der aktive Slider-Bereich 150 über die gesamte Länge der Linie 113 sowie einen schmalen Bereich in ihrer Umgebung. Der Nutzer kann den Wert des Temperaturparameters für die Klimatisierungseinheit 4 durch eine
Wischgeste entlang der Linie 113 innerhalb des aktiven Slider-Bereichs 150 verändern.
Dabei ist bei dem Ausführungsbeispiel vorgesehen, dass die eingestellte Temperatur erhöht wird, wenn eine nach rechts gerichtete Wischgeste erfasst wird. Dagegen wird die eingestellte Temperatur erniedrigt, wenn eine nach links gerichtete Wischgeste erfasst wird.
Die Differenz, um welche die Temperatur verändert wird, hängt bei dem Ausführungsbeispiel davon ab, entlang welcher Betätigungstrajektorie die Wischgeste ausgeführt wird. Die
Temperatur kann bei maximaler Ausnutzung der Sliderlänge, das heißt bei einer Wischgeste über die gesamte Breite der Linie 113, um ein bestimmtes Intervall, hier bis zu 4°C, erhöht oder erniedrigt werden. Bei einer Wischgeste über eine geringere Strecke, erfolgt eine anteilsmäßig geringere Veränderung des Parameters der Temperatur. Das heißt, bei einer Wischgeste repräsentiert das Slider-Element 113 eine relative Skala zur relativen Veränderung der eingestellten Temperatur.
Bei einem weiteren Ausführungsbeispiel ist ferner eine Swipe- Geste vorgesehen, bei welcher für die Wischgeste eine Geschwindigkeit erfasst wird, die einen bestimmten Schwellenwert überschreitet. Wird eine solche Swipe- Geste erfasst, so kann der Temperaturparameter schneller verändert werden, etwa durch Sprung zu einer maximalen oder minimalen Temperatur oder durch eine Veränderung um ein größeres Intervall, etwa das doppelte Intervall, wie es für eine Wischgeste vorgesehen ist, das heißt 8°C.
Bei dem in Figur 6B gezeigten Fall sind aktive Slider-Bereiche 150a, 150b ausgebildet, die das linke beziehungsweise rechte Temperatur-Symbol 113a, 113b sowie einen linken
beziehungsweise rechten Teil der Linie 113 einschließen. Die Bedienung erfolgt bei diesem Ausführungsbeispiel ähnlich wie bereits oben mit Bezug zu Figur 4B und die vergrößerten Betätigungsbereiche 141a, 141 b beschrieben: Die aktiven Slider-Bereich 150a, 150b können hier durch Antippen, Halten oder dauerhaftes Halten betätigt werden, wobei hierdurch der eingestellte Temperaturparameter schrittweise erhöht wird.
Zum Beispiel kann die Temperatur bei jedem Antippen im linken Bereich 150a um 0,5°C erniedrigt und bei jedem Antippen im rechten Bereich 150b um 0,5°C erhöht werden.
Bei weiteren Ausführungsbeispielen erfolgt beim Halten und insbesondere beim dauerhaften Halten über eine längere Zeitdauer die Erhöhung in mehreren Schritten nacheinander, wobei die Größe der Schritte beispielsweise in Abhängigkeit von der Dauer des Haltens bestimmt werden kann, sodass beispielsweise nach dauerhaftem Halten für eine bestimmte Zeit der Parameter in Schritten von 1°C verändert wird, um schneller Änderungen zu ermöglichen.
Bei dem in Figur 6C gezeigten Fall sind ähnliche aktive Slider-Bereiche 150a, 150b wie bei dem in Figur 6B gezeigten Fall ausgebildet. Zusätzlich ist nun allerdings ein mittlerer aktiver Slider- Bereich 150c vorgesehen, der zwischen den beiden seitlichen aktiven Slider-Bereichen 150a, 150b angeordnet ist. Bei dem Ausführungsbeispiel erstreckt sich der mittlere aktive Slider- Bereich 150c über etwa 20 % der Länge der Linie 113, während die beiden seitlichen aktiven Slider-Bereiche 150a, 150b rechts und links davon jeweils etwa 40 % der Länge einnehmen.
Bei dem hier gezeigten Fall kann der Nutzer direkt einen minimalen, maximalen oder mittleren Parameterwert einstellen.
Bei dem Ausführungsbeispiel ist vorgesehen, dass ein Halten, bei dem eine Berührung in einem der aktiven Slider-Bereiche 150a, 150b, 150c länger als ein bestimmter Schwellenwert gehalten wird, als eine Betätigung erfasst und als Direktwahl ausgewertet wird. Bei dem
Ausführungsbeispiel wird direkt ein minimaler Parameterwert„LO“ für die Temperatur eingestellt, wenn die Halte-Geste in dem linken aktiven Slider-Bereich 150a erfasst wurde. Analog dazu wird ein maximaler Parameterwert„Hl“ bei einer Halte-Geste in dem rechten aktiven Slider-Bereich 150b eingestellt sowie ein vorgegebener Parameterwert von 22°C bei einer Halte-Geste in dem mittleren aktiven Slider-Bereich 150c.
Bei weiteren Ausführungsbeispielen können andere Parameterwerte direkt ausgewählt werden. Ferner können unterschiedliche Bereiche als aktive Slider-Bereiche 150a, 150b, 150c vorgesehen sein, beispielsweise mit unterschiedlicher Anzahl oder mit verschiedenen
Abmessungen.
Bei weiteren Ausführungsbeispielen können andere Betätigungen für die Direktwahl vorgesehen sein, beispielsweise ein Antippen eines aktiven Slider-Bereichs 150, 150a, 150b, 150c, insbesondere mit mehreren Fingern gleichzeitig. Ferner können weitere Gesten vorgesehen sein, zum Beispiel eine gleichzeitige Betätigung der äußeren aktiven Slider- Bereiche 150a, 150b oder eine Betätigung eines Slider-Bereichs 150, 150a, 150b, 150c mit mehreren Fingern. Bestimmte Gesten können ferner zum Aufruf bestimmter Funktionen oder zum Einstellen bestimmter Parameter verwendet werden. Beispielsweise kann ein„SYNC“- Modus der Klimatisierungseinheit 4 des Fahrzeugs 1 aktiviert werden, wobei gleiche
Einstellungen für verschiedene Bereiche des Innenraums des Fahrzeugs 1 eingestellt werden, beispielsweise für den Fahrer- und Beifahrerbereich. Ferner können unterschiedliche
Funktionen mittels bestimmter Usecases durch das gleiche Element an- oder ausgeschaltet werden.
Die in den Figuren 6A bis 6C gezeigten Konfigurationen und Anordnungen aktiver Slider- Bereiche 150, 150a, 150b, 150c können als statische Konfigurationen der Erfassungseinheit 2 ausgebildet sein. Allerdings ist bei dem Ausführungsbeispiel vorgesehen, dass die
Erfassungseinheit 2 dynamisch zwischen den Konfigurationen wechselt, je nachdem, wie der Temperatur-Slider 113 bedient wurde, das heißt, welcher Usecase erfasst wurde. Wenn eine Betätigung mittels einer Wisch- oder Swipe-Geste erfasst wird, so wird diese entsprechend einer Eingabe bei der in Figur 6A gezeigten Konfiguration mit einem schmalen aktiven Slider- Bereich 150 ausgewertet. Wird dagegen eine Antipp-, Halte- oder eine dauerhafte Haltegeste erfasst, so kann automatisch zur Erfassung gemäß einer Konfiguration der Figur 6B oder 6C umgeschaltet werden, insbesondere um eine Direktwahl zu ermöglichen.
Bei weiteren Ausführungsbeispielen können die genannten Konfigurationen auf andere Weise kombiniert oder ausgebildet sein. Bei weiteren Ausführungsbeispielen umfasst das Fahrzeug 1 alternativ oder zusätzlich eine andere Einrichtung, für die mittels der Erfassungseinheit 2 ein Parameterwert erfasst wird. Derartige andere Einrichtungen können beispielsweise eine Medienwiedergabe oder ein Navigationssystem des Fahrzeugs 1 betreffen. Die Eingaben werden dann analog zu den oben erläuterten Ausführungsbeispielen der Erfassungseinheit 2 sowie der Verfahren zum Eingeben eines Parameterwerts erfasst.
Die oben erläuterten Möglichkeiten zur Eingabe von Parameterwerten können prinzipiell beliebig miteinander kombiniert und angepasst werden. Ferner kann die Erfassungseinheit 2 unterschiedliche Bedienelemente umfassen, die zudem unterschiedlich angeordnet sein können. Beispielsweise können Slider-Elemente 112, 113, 114 statt waagerecht auch senkrecht oder in andere Raumrichtungen verlaufen.
Die Ansteuerung erfolgt bei den Ausführungsbeispielen durch die Steuereinheit 3. Es können jedoch verschiedene Systemkonfigurationen vorgesehen sein, etwa mit einem Steuergerät der Erfassungseinheit 2, welche die Ansteuerung übernimmt und/oder gegebenenfalls vorliegende Eingaben auswertet, vorverarbeitet und ein Steuersignal erzeugt, etwa um den Parameterwert einzustellen.
Bezugszeichenliste
1 Fahrzeug
2 Erfassungseinheit
3 Steuereinheit
4 Klimatisierungseinheit
La, Lb, Lc, Ld, Le Leuchtelement
LED1 , LED2, LED3, LED4, LED5, LED6, LED7 Leuchtfläche
Sa, Sb, Sc Sensorelement
101 , 102, 103, 104, 105, 106, 107 Taster-Element
108 Taster-Element„AUTO“
109 T aster-Element„A/C“
110 Taster-Element„MENU“
111 T aster-Element„OFF“
112 Slider-Element; Gebläse-Slider; Linie
112a Gebläse-Symbol (links)
112b Gebläse-Symbol (rechts)
113 Slider-Element; Temperatur-Slider (links); Linie
113a Temperatur-Symbol (links)
113b Temperatur-Symbol (rechts)
114 Slider-Element; Temperatur-Slider (rechts); Linie
115, 116 Segmentanzeige
131 Passagierdarstellung
132 Pfeil (oben)
133 Pfeil (Mitte)
134 Pfeil (unten)
141a vergrößerter Betätigungsbereich (links); Flächenbereich 141 b vergrößerter Betätigungsbereich (rechts); Flächenbereich 142a bis 142i aktiver Betätigungsbereich; Flächenbereich
149 aktiver Slider-Bereich; Flächenbereich
150 aktiver Slider-Bereich; Flächenbereich
150a aktiver Slider-Bereich (links); Flächenbereich 150b aktiver Slider-Bereich (rechts); Flächenbereich 150c aktiver Slider-Bereich (Mitte); Flächenbereich

Claims

Patentansprüche
1. Verfahren zum Erfassen eines Parameterwerts in einem Fahrzeug, bei dem
eine Eingabegeste in einem Erfassungsbereich erfasst wird;
die erfasste Eingabegeste einem ersten oder zweiten Gestentyp zugeordnet wird; und,
wenn die erfasste Eingabegeste dem ersten Gestentyp zugeordnet wurde, anhand der erfassten Eingabegeste eine Betätigungstrajektorie bestimmt wird und der
Parameterwert um einen von einer Länge der Betätigungstrajektorie abhängigen Betrag verändert wird; oder,
wenn die erfasste Eingabegeste dem zweiten Gestentyp zugeordnet wurde, anhand der erfassten Eingabegeste eine Betätigungsposition bestimmt wird und ein der
Betätigungsposition zugeordneter vorbestimmter Parameterwert eingestellt wird.
2. Verfahren gemäß Anspruch 1 ,
dadurch gekennzeichnet, dass
die erfasste Eingabegeste ferner einem dritten Gestentyp zuordenbar ist; wobei, wenn die erfasste Eingabegeste dem dritten Gestentyp zugeordnet wurde, anhand der erfassten Eingabegeste eine Betätigungsposition bestimmt wird und der
Parameterwert um ein anhand der Betätigungsposition bestimmtes Inkrement verändert wird.
3. Verfahren gemäß Anspruch 1 oder 2,
dadurch gekennzeichnet, dass
der erste Gestentyp eine Wischgeste umfasst.
4. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
der zweite Gestentyp eine Tippgeste umfasst.
5. Verfahren gemäß Anspruch 4,
dadurch gekennzeichnet, dass
der zweite Gestentyp in Abhängigkeit von einer Dauer eines Zeitintervalls bestimmt wird, während dessen in dem Erfassungsbereich eine Betätigung durchgeführt wurde.
6. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
der Parameterwert so verändert wird, dass der Parameterwert bei jeder Betätigung aus einer geordnete Reihe von Einstellungswerten jeweils den nächsten Wert annimmt.
7. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
der Erfassungsbereich ein Oberflächenbereich einer Erfassungseinheit (2) ist.
8. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
der Erfassungsbereich eine Längserstreckung und eine Quererstreckung aufweist; wobei
die Quererstreckung senkrecht zur Längserstreckung verläuft; und
die Längserstreckung zumindest das Dreifache der Quererstreckung ist.
9. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
beim Erfassen der Eingabegeste und/oder beim Erkennen eines Gestentyps eine akustische Rückmeldung erzeugt wird.
10. Vorrichtung zum Erfassen eines Parameterwerts in einem Fahrzeug, umfassend
eine Erfassungseinheit (2), die einen Erfassungsbereich aufweist und die dazu eingerichtet ist, in dem Erfassungsbereich eine Eingabegeste zu erfassen; und
eine Steuereinheit (3), die dazu eingerichtet ist, die erfasste Eingabegeste einem ersten oder zweiten Gestentyp zuzuordnen; wobei
die Steuereinheit (3) ferner dazu eingerichtet ist, wenn die erfasste Eingabegeste dem ersten Gestentyp zugeordnet wurde, anhand der erfassten Eingabegeste eine Betätigungstrajektorie zu bestimmen und den Parameterwert um einen von einer Länge der Betätigungstrajektorie abhängigen Betrag zu verändern; oder, wenn die erfasste Eingabegeste dem zweiten Gestentyp zugeordnet wurde, anhand der erfassten Eingabegeste eine Betätigungsposition zu bestimmen und einen der Betätigungsposition zugeordneten vorbestimmten Parameterwert einzustellen.
PCT/EP2020/056537 2019-03-25 2020-03-11 Verfahren und vorrichtung zum erfassen eines parameterwerts in einem fahrzeug WO2020193144A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP20713201.0A EP3947009A1 (de) 2019-03-25 2020-03-11 Verfahren und vorrichtung zum erfassen eines parameterwerts in einem fahrzeug
CN202080023882.7A CN113573936A (zh) 2019-03-25 2020-03-11 用于检测车辆中的参数值的方法和设备

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019204051.9A DE102019204051A1 (de) 2019-03-25 2019-03-25 Verfahren und Vorrichtung zum Erfassen eines Parameterwerts in einem Fahrzeug
DE102019204051.9 2019-03-25

Publications (1)

Publication Number Publication Date
WO2020193144A1 true WO2020193144A1 (de) 2020-10-01

Family

ID=69941327

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/056537 WO2020193144A1 (de) 2019-03-25 2020-03-11 Verfahren und vorrichtung zum erfassen eines parameterwerts in einem fahrzeug

Country Status (4)

Country Link
EP (1) EP3947009A1 (de)
CN (1) CN113573936A (de)
DE (1) DE102019204051A1 (de)
WO (1) WO2020193144A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019204047A1 (de) * 2019-03-25 2020-10-01 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Einstellen eines Parameterwerts in einem Fahrzeug

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2305507A1 (de) * 2009-10-05 2011-04-06 Tesla Motors, Inc. Verwandlung einer Fahrzeugbenutzerschnittstelle
WO2013158533A1 (en) * 2012-04-16 2013-10-24 Nuance Communications, Inc. Low-attention gestural user interface
EP2838004A2 (de) * 2013-08-12 2015-02-18 Volkswagen Aktiengesellschaft Bedienvorrichtung mit berührungsempfindlicher Oberfläche
DE102014226760A1 (de) * 2014-12-22 2016-06-23 Volkswagen Aktiengesellschaft Infotainmentsystem, Fortbewegungsmittel und Vorrichtung zur Bedienung eines Infotainmentsystems eines Fortbewegungsmittels
DE102016200110A1 (de) 2016-01-07 2017-07-13 Volkswagen Aktiengesellschaft Armaturentafel, Fortbewegungsmittel und Vorrichtung zur Bedienung eines Heiz-Klima-Systems eines Fortbewegungsmittels
DE102016207611A1 (de) * 2016-05-03 2017-11-09 Volkswagen Aktiengesellschaft Anzeige- und Bediensystem
US20180062648A1 (en) * 2016-09-01 2018-03-01 Fujitsu Ten Limited Input apparatus, computer-readable recording medium, and detection method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090322499A1 (en) * 1995-06-29 2009-12-31 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
WO2015106830A1 (de) * 2014-01-20 2015-07-23 Volkswagen Aktiengesellschaft Anwenderschnittstelle und verfahren zum steuern einer lautstärke mittels einer berührungssensitiven anzeigeeinheit
DE102015200036A1 (de) * 2015-01-05 2016-07-07 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung in einem Kraftfahrzeug zur Eingabe von Daten mit zwei Eingabearten und haptischer Rückkopplung

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2305507A1 (de) * 2009-10-05 2011-04-06 Tesla Motors, Inc. Verwandlung einer Fahrzeugbenutzerschnittstelle
WO2013158533A1 (en) * 2012-04-16 2013-10-24 Nuance Communications, Inc. Low-attention gestural user interface
EP2838004A2 (de) * 2013-08-12 2015-02-18 Volkswagen Aktiengesellschaft Bedienvorrichtung mit berührungsempfindlicher Oberfläche
DE102014226760A1 (de) * 2014-12-22 2016-06-23 Volkswagen Aktiengesellschaft Infotainmentsystem, Fortbewegungsmittel und Vorrichtung zur Bedienung eines Infotainmentsystems eines Fortbewegungsmittels
DE102016200110A1 (de) 2016-01-07 2017-07-13 Volkswagen Aktiengesellschaft Armaturentafel, Fortbewegungsmittel und Vorrichtung zur Bedienung eines Heiz-Klima-Systems eines Fortbewegungsmittels
DE102016207611A1 (de) * 2016-05-03 2017-11-09 Volkswagen Aktiengesellschaft Anzeige- und Bediensystem
US20180062648A1 (en) * 2016-09-01 2018-03-01 Fujitsu Ten Limited Input apparatus, computer-readable recording medium, and detection method

Also Published As

Publication number Publication date
CN113573936A (zh) 2021-10-29
DE102019204051A1 (de) 2020-10-01
EP3947009A1 (de) 2022-02-09

Similar Documents

Publication Publication Date Title
EP3947006B1 (de) Vorrichtung und verfahren zur ausgabe eines parameterwerts in einem fahrzeug
EP3237249B1 (de) Fortbewegungsmittel, anwenderschnittstelle und verfahren zur übergreifenden anzeige eines anzeigeinhaltes auf zwei anzeigeeinrichtungen
EP2885142B1 (de) Bedienvorrichtung zum einstellen einer klimatisierungsvorrichtung eines fahrzeugs und verfahren hierzu
EP3372435B1 (de) Verfahren und bediensystem zum bereitstellen einer bedienschnittstelle
EP3114554B1 (de) Verfahren und vorrichtung zum bereitstellen einer graphischen benutzerschnittstelle in einem fahrzeug
EP2884187A1 (de) Verfahren zur Bedienerführung, Blendenbauteil, Herstellung eines Blendenbauteils sowie Haushaltsgerät mit einem Blendenbauteil
WO2016102296A2 (de) Fingerleiste und anwendung der fingerleiste
EP3270278B1 (de) Verfahren zum betreiben eines bediensystems und bediensystem
DE102015008071A1 (de) Steuerung einer Kfz-Innenraum-Beleuchtung
EP3947008A1 (de) Vorrichtung und verfahren zum erfassen einer eingabe eines nutzers in einem fahrzeug
DE102017110104A1 (de) Fahrzeugschalthebelschnittstelle mit näherungserfassung
DE102014011118B4 (de) Verfahren zum Bedienen einer Lichtfunktion von Kraftfahrzeugscheinwerfern und Kraftfahrzeug mit einer Anzeigeeinrichtung und einem Bedienelement für eine Bedienung der Lichtfunktion der Kraftfahrzeugscheinwerfer
EP3545399B1 (de) Verfahren zum erfassen einer nutzereingabe für eine eingabevorrichtung mit mehreren schaltelementen und eingabevorrichtung
WO2017108856A1 (de) Verfahren und system zum bereitstellen einer benutzerschnittstelle für zumindest eine einrichtung eines fahrzeugs
WO2020193144A1 (de) Verfahren und vorrichtung zum erfassen eines parameterwerts in einem fahrzeug
WO2020193141A1 (de) Verfahren und vorrichtung zum einstellen eines parameterwerts in einem fahrzeug
WO2020193143A1 (de) Vorrichtung und verfahren zum einstellen eines parameterwerts in einem fahrzeug
DE102016207611B4 (de) Anzeige- und Bediensystem
DE102019218386A1 (de) Verfahren und Vorrichtung zum Einstellen einer Position eines verstellbaren Fahrzeugteils
DE102015225248B4 (de) System zum Erfassen eines Wertes für einen von zumindest zwei Einstellungsparametern eines Kraftfahrzeugs
DE102024100592A1 (de) Fahrzeugverkleidung, Baugruppe, umfassend die Fahrzeugverkleidung und das elektrische Ausrüstungselement, wobei die Fahrzeugfahrgastzelle die Baugruppe umfasst
DE102022200015A1 (de) Bedienelement für eine Bedieneinrichtung
DE102020127418A1 (de) Bedieneinrichtung für wenigstens eine elektrische Einrichtung, insbesondere eine Klimaanlage eines Kraftfahrzeugs
DE102012105624A1 (de) Bedieneinrichtung für multifunktionale Maschinen und Verfahren zur Erleichterung einer Betätigung einer Bedieneinrichtung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20713201

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020713201

Country of ref document: EP

Effective date: 20211025