EP2754016A1 - Bedienvorrichtung für ein kraftfahrzeug und verfahren zum bedienen der bedienvorrichtung für ein kraftfahrzeug - Google Patents

Bedienvorrichtung für ein kraftfahrzeug und verfahren zum bedienen der bedienvorrichtung für ein kraftfahrzeug

Info

Publication number
EP2754016A1
EP2754016A1 EP12769598.9A EP12769598A EP2754016A1 EP 2754016 A1 EP2754016 A1 EP 2754016A1 EP 12769598 A EP12769598 A EP 12769598A EP 2754016 A1 EP2754016 A1 EP 2754016A1
Authority
EP
European Patent Office
Prior art keywords
finger
surface element
operating
control surface
operating device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP12769598.9A
Other languages
English (en)
French (fr)
Inventor
Stefan Mattes
Stefan Jansen
Susanne SCHILD
Norbert Kurz
Volker Entenmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE201110112565 external-priority patent/DE102011112565A1/de
Priority claimed from DE102011112567.5A external-priority patent/DE102011112567B4/de
Application filed by Daimler AG filed Critical Daimler AG
Publication of EP2754016A1 publication Critical patent/EP2754016A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02DCONTROLLING COMBUSTION ENGINES
    • F02D28/00Programme-control of engines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • B60K35/10
    • B60K35/28
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • B60K2360/141
    • B60K2360/1438
    • B60K2360/1442
    • B60K2360/164
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02DCONTROLLING COMBUSTION ENGINES
    • F02D2200/00Input parameters for engine control
    • F02D2200/60Input parameters for engine control said parameters being related to the driver demands or status
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03KPULSE TECHNIQUE
    • H03K2217/00Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00
    • H03K2217/94Indexing scheme related to electronic switching or gating, i.e. not by contact-making or -breaking covered by H03K17/00 characterised by the way in which the control signal is generated
    • H03K2217/96Touch switches
    • H03K2217/96062Touch switches with tactile or haptic feedback

Definitions

  • the invention relates to an operating device for a motor vehicle, with which an operating input executed by at least one finger can be detected, and a method for operating the operating device for a motor vehicle, with which an operating input performed by at least one finger is detected with respect to a control surface element.
  • Modern motor vehicles include touchpads or touchscreens as an operating device. These operating devices are by a with at least one finger of a
  • corresponding touchpads are used as an operating device in order to be able to control the corresponding functional units of the motor vehicle, these touchpads are operated with one finger. Most touchpads only recognize the finger when it touches the touchpad's user interface. As a result, these touchpads can only determine a two-dimensional coordinate of the finger. Some touchpads recognize the finger even if it is a few millimeters above the
  • touchpads determine the floating finger only a two-dimensional coordinate. The exact distance of the finger to the surface of the touchpad can not be determined here.
  • Evaluation block that determines the capacitance of the sensor electrodes. If a finger touches the surface of the touchpad, the sensor system registers the change in capacitance of the sensor electrodes and uses these measurements to determine the position of the finger. With these touchpads, the two-dimensional coordinate of the finger can no longer be determined as soon as the finger leaves the surface of the touchpad. If this occurs while driving as a result of a vehicle movement, the operator input based on the evaluation of the finger movement is interrupted. In bad
  • the additional key In order to move the selected selection element, the additional key must be pressed continuously and at the same time the finger on the surface of the touchpad must be moved. Otherwise it would not be possible to distinguish whether the movement of the finger on the surface of the touchpad should only move the mouse pointer or move the marked object with the help of the mouse pointer.
  • an operating device for a motor vehicle with which an operating input executed by at least one finger can be detected, has a transmitting unit for transmitting a signal to the finger, a receiving unit for receiving the signal reflected by the finger, a control surface element the finger is spatially positionable for executing an operation input, and an evaluation unit for determining a spatial position of the finger with respect to the control surface element based on the received signal.
  • Operator input are detected when the finger is not placed on the control surface element.
  • the signal transmitted by the transmitting unit is reflected by the finger and received by the receiving unit.
  • the evaluation unit then calculates the spatial coordinate of the finger from the sensor signals. This makes it possible to track the finger at a predefined distance, which can be, for example, several centimeters, and to determine its three-dimensional position. In this case, the position of the finger is also determined when the finger stands out from the control surface element during the operating procedure. Thus, an operator input made by the finger can be detected more reliably by the operating device.
  • the user can better coordinate his finger movement and position a pointer or cursor shown on the display element more accurate.
  • the detection of the position of the finger represents an additional degree of freedom of use, which is used for the function control can be.
  • a three-dimensional menu control can be enabled.
  • the control surface element for the signal is transparent and the transmitting unit and the receiving unit are arranged on a side facing away from the finger of the control surface element.
  • the operating device preferably comprises a closed user interface in the form of the control surface element. Under this control surface element, the transmitting unit and the receiving unit are arranged. In order to be able to detect the position of the finger above the operating surface element with the transmitting unit and the receiving unit, the operating surface element has a high degree of transmittance in a wavelength range of the signal. Thus, the signal passing through the control surface element twice on its way from the transmitting unit to the finger and back to the receiving unit is not deflected. In this way, the spatial position of the finger can be determined very precisely.
  • the transmitting unit transmits light, in particular in the infrared wavelength range, as the signal.
  • the use of light in the infrared wavelength range has the advantage that the control surface element can be designed so that it is not transparent to the human eye. Thus, the user can not see the technique behind the control panel. Therefore, the external appearance of the operating device can be made higher-quality.
  • a transmitting unit a corresponding infrared illumination and as a receiving unit a corresponding infrared sensors can be used.
  • the control surface element should be designed so that it is visible
  • Wavelength range has a very low and in the infrared range a very high transmittance.
  • the use of a corresponding infrared sensor also has the advantage that it is only slightly influenced by the ambient light. Therefore, the finger can be determined particularly accurately and reliably with respect to the control surface element.
  • the position of the finger can be determined by the evaluation unit on the basis of a transit time of the signal.
  • the receiving unit can be designed as a so-called depth camera. Such a depth camera points
  • a special image sensor determined by the Runtime measurement of the transmission unit for example, as appropriate
  • Lighting unit can be formed, emitted and reflected from the ambient light for each image pixel distance information. By evaluating the pixel-free distance information, the three-dimensional position of the finger can be determined particularly accurately.
  • the position of the finger can be determined by the evaluation unit on the basis of an intensity of the received signal.
  • a so-called mono-camera can be used to determine the position of the finger. This measures with its sensor pixel by pixel the intensity of the reflected light. If a finger is located on or above the control surface element, the evaluation of the intensity distribution can determine the three-dimensional position of the finger, since the amplitudes and the shape of the intensity distribution correlate to the finger distance from the control surface. This makes it possible in a simple manner to grasp the position of the finger three-dimensionally.
  • the operating device has at least two receiving units, which are parallel to one another in an extension direction
  • the receiving unit can also be designed as a stereo camera, which consists of two lenses and image sensors that record the finger from different perspectives. With the known distance of the sensors to each other can be determined by the calculation of the two images, a three-dimensional position of the finger. The necessary procedures and algorithms are known, whereby the position of the finger can be determined without additional effort.
  • the operating device has a plurality of
  • Transmitting units and a plurality of receiving units which in a first and in the first perpendicular, second extension direction parallel to the
  • Main extension direction of the control surface element are arranged.
  • Three-dimensional detection of the finger can also be used a discretely constructed camera.
  • a discretely constructed camera usually consists of lattice-shaped on a circuit board arranged infrared transmitters and infrared receivers.
  • the infrared transmitter can be designed, for example, as a corresponding lighting unit or light emitting diode.
  • the infrared receiver can be as appropriate Infrared sensors or be designed as photodiodes.
  • the intensity of the reflected light can be measured pixel by pixel, the pixels being defined by the grid of the transmitting units or the receiving units depending on the type of control.
  • the determination of the three-dimensional position of the finger takes place as in a
  • Monocamera based on the distribution of the intensity of the reflected light, whereby the due to the discrete structure coarse resolution can be compensated by suitable interpolation of the measured data. Due to the particularly flat design of the discrete camera even small changes of the finger distance of the lead
  • Control surface element to a large change in the sensor signals, so that the distance determination is very high resolution and accurate.
  • the operating device has a sensor unit, with which a touching of the operating surface element with the finger can be detected.
  • the accuracy of the three-dimensional finger position determination can be increased by detecting the touch of the control surface element by the finger with an additional sensor.
  • the sensor may be formed, for example, as a capacitive sensor. Since the geometry of the control surface element is known, the distance coordinate of the finger can be calibrated when touched. Here, any inaccuracies in the determination of distance, for example, from a
  • the operating device has an actuator with which a haptic signal can be output at the finger which touches the operating surface element.
  • the operating device may additionally have a corresponding
  • Control surface element is excited to vibrate.
  • the operation haptic can be turned on and off depending on the operation context be, and it can by a different control of the actuator
  • Control device are made more reliable.
  • the transmitting unit and the receiving unit can be activated in dependence on a signal of the sensor unit for determining the position of the finger.
  • the function of the operating device can be improved by determining the three-dimensional position of the finger only after an initial contact of the operating surface element with the finger. Without this condition can not be exactly between an intended operation and another motivated
  • Functions can be triggered unintentionally.
  • an algorithm can be started which plausibiiometer the measured finger positions based on a model of the possible finger movements and smoothes the measured values (tracking algorithm). In this way, the operation of the operating device can be made more reliable.
  • the three-dimensional position can be determined by several fingers at the same time.
  • the evaluation algorithms must be adapted accordingly.
  • a method for operating an operating device for a motor vehicle with which a movement performed by at least one finger
  • Operational input is detected in relation to a control surface element, wherein in a first operating mode with the operator input based on a on one of
  • Control unit associated with the display element specifically shown content operation is performed, providing at least a second
  • the present method relates to an operating device as stated above, with which the position of a finger, with which an operating input is carried out, can be detected three-dimensionally in relation to a control surface element.
  • the finger does not necessarily have to be placed on the control surface element in order to perform an operator input.
  • the finger can also be in a previously defined distance, which can be, for example, a few centimeters, are placed.
  • Display element shown which is associated with the operating device.
  • a particularly simple and flexible operation of an operating device for a motor vehicle can be made possible.
  • Selection element shown selection element selected by a wiping movement of the finger performed on the control surface element in a direction of the selection element.
  • this operating mode for example, four or eight selection elements or menu entries are displayed on the display element.
  • cross-border gestures can be detected in this first operating mode.
  • a cross-concept gesture for example, in the content displayed on the display element in the operating menu, a level
  • a circular path can be described with the finger, which comprises at least an angle of 240 °.
  • the finger which comprises at least an angle of 240 °.
  • Representing a main menu or a top level of a control menu on the display element causes. This can be achieved, for example, by a quick, two-finger tap on the control surface element.
  • cross-border gestures can be applied to a field of
  • an operating device in the form of corresponding symbols.
  • an operating device in a second operating mode, a pointer is positioned in an area assigned to a selection element by moving the finger on the control surface element, and the selection element is selected by pressing the control surface element with the finger.
  • a corresponding cursor can be displayed on the display element, which is controlled analogously by a movement of the finger on the control surface element.
  • Analog means in this case that at each point on the control surface element is assigned a position of the pointer or the cursor on the display element. The pointer thus moves analogously to the finger.
  • the pointer or cursor is moved over the corresponding selection element and, for selection, a corresponding pressure is exerted on the control surface element with the finger.
  • the control surface element of the operating device is designed to be pressure-sensitive for this purpose or has a corresponding switch function. It is also provided that the pointer remains visible on the display element when the finger is not on the control surface element, but over the control surface element. This will create a more stable, calmer display of the pointer on the
  • swiping gestures performed with the finger can also be detected.
  • swiping gestures performed with the finger can also be detected.
  • List entries are changed. Likewise, for example, can be navigated by swiping gestures in a list. Also in this second operating mode can
  • Cross-border gestures are recognized.
  • a quick, two-finger tap on the control surface element the
  • This operating mode allows a simple and intuitive operation of the operating device.
  • handwritten characters that are executed with the finger on the control surface element can be detected.
  • appropriate messages can be created by the user in a particularly simple manner.
  • this character recognition can be used to enter, for example, corresponding destinations in a navigation system of the motor vehicle.
  • the operation of the control element can be significantly simplified.
  • the selection elements shown on the display element shown in perspective and a pointer shown on the display element is varied depending on the distance of the finger to the control surface element in this illustration with respect to a height.
  • selection elements and the pointer By the perspective view of the selection elements and the pointer a particularly simple operation can be made possible. It is also conceivable that corresponding selection elements in this three-dimensional representation can be selected and raised or moved. The distance of the finger with respect to the control surface element can on the display element by the distance of the selection element or the pointer to a corresponding
  • Reference surface are displayed.
  • a corresponding shadow of the selection element or the pointer can also be displayed, which represents the distance.
  • corresponding music covers can also be selected particularly easily in an entertainment system of the motor vehicle.
  • the music cover shown in perspective can be pressed down analogously to the distance of the finger to the control surface element and thus a particularly simple and intuitive operation can be made possible.
  • the area shown on the display element is changed in size as a function of the distance of the finger to the control surface element.
  • the pointer or cursor can be moved in this operating mode via a corresponding display on the display element, wherein the distance of the finger to the control surface element the
  • Magnification factor of the respective display determined.
  • a corresponding map section of a navigation system which is displayed on the display element, be increased accordingly.
  • a simple operation of the operating device can be achieved.
  • At least one first functional unit of the motor vehicle is moved as a function of the distance of the finger from the control surface element and at least one second functional unit of the motor vehicle depending on a movement of the finger along one Extending direction operated parallel to the main extension direction of the control surface element.
  • Quantitative settings can be done in parallel in three dimensions. For example, when setting an entertainment system of the
  • the faders / balance settings are operated in response to the movement of the finger along the main extension direction of the control surface element and in parallel depending on the distance of the finger to the
  • Control surface element to adjust the volume.
  • the final confirmation of this setting can be done for example via an additional button that is operated for example with the other hand or it can be automatically taken over after a predetermined time.
  • Operating device can be operated very easily and quickly.
  • the third operating mode at least a first of the selection elements is operated if the finger is positioned on the operating surface element and / or at least serves a second selection element, if the finger is positioned at a predetermined distance from the control surface element.
  • an extended keyboard can be enabled.
  • the keyboard shown on the display element may for example be divided into two areas. In this case, a first area of the keyboard can be operated when the finger is positioned on the control surface element and the second part of the keyboard are operated if the finger is lifted off the control surface element. In the second area of the keyboard, for example, numbers or rarely used characters may be available for selection. Thus, typing with this keyboard does not require switching between different displays.
  • FIG. 1 is a schematic representation of an operating device according to a first embodiment in a sectional side view
  • 3 shows a third embodiment of the operating device
  • 4 shows a fourth embodiment of the operating device
  • FIG. 6 shows a display of a display element of an operating device in a first operating mode
  • FIG. 9 shows a display of a display element of an operating device in the third operating mode in a further embodiment.
  • Fig. 1 shows an operating device 10 for a motor vehicle according to the first
  • Embodiment in a schematic sectional side view.
  • Operating device 10 comprises a transmitting unit 12 and a receiving unit 14.
  • the transmitting unit 12 and the receiving unit 14 are coupled to an evaluation unit 16.
  • the transmitting unit 12, the receiving unit 14 and the evaluation unit 16 are arranged below a control surface element 18. On one of the transmitting unit 12, the
  • Operating surface element 18, a finger 20 can be spatially positioned to perform an operator input.
  • the transmitting unit 12 sends out a signal to the finger 20.
  • the signal is reflected by the finger 20 and the reflected signal is received by the receiving unit 14.
  • the evaluation unit 16 is designed to determine a spatial position of the finger 20 with respect to the control surface element 18 on the basis of the received signal.
  • the transmitting unit 12 transmits light in the infrared Wavelength range as the signal off.
  • the control surface element 18 preferably has a high transmittance in this wavelength range.
  • FIG. 2 shows a second exemplary embodiment of the operating device 10.
  • the operating device 10 comprises two receiving units 14, which are arranged at a distance from one another.
  • the receiving unit 14 may be formed, for example, as a corresponding stereo camera that includes two lenses and two image sensors that receive the finger 20 from different perspectives.
  • the three-dimensional position of the finger 20 can be determined by offsetting the images recorded with the receiving units 14.
  • the operating device 10 comprises a transmitting unit 12 and a receiving unit 14.
  • the transmitting unit 12 can be designed as a corresponding lighting unit.
  • the receiving unit 14 may be formed as a so-called depth camera, which usually has only one lens.
  • a special image sensor determines on the basis of the transit time of the signal emitted by the transmitting unit 12 and that of the
  • Receiving unit 14 received signal, the three-dimensional position of the finger 20th
  • Receiving unit 14 may be formed as a mono-camera. Such a mono-camera captures with its lens with the associated image sensor pixel by pixel the intensity of the reflected light from the finger 20. Thus, based on the intensity distribution, the three-dimensional position of the finger 20 can be determined.
  • Fig. 4 shows a fourth embodiment of the operating device 10, in which the
  • Operating device 10 comprises a plurality of transmitting units 12 and a plurality of receiving units 14 which are alternating and parallel to the Main extension direction of the control surface element 18 are arranged.
  • Transmitting units 12 can be used as corresponding infrared transmitters, in particular as
  • the intensity of the reflected light can be measured pixel by pixel.
  • the three-dimensional position of the finger 20 can be determined from the intensity distribution of the reflected light.
  • the three-dimensional graph shows the distribution of the intensity of the light reflected from the finger 20 detected with the receiving units 14.
  • the axis 22 corresponds to a first extension direction and the axis 24 to a second extension direction perpendicular to the first extension direction.
  • Extension directions are parallel to the main extension direction of the
  • Control surface element 18 The coarse resolution of FIG.
  • Transmitting units 12 and receiving units 14 is conditional can be compensated by a suitable interpolation of the measured data.
  • 6 to 9 show different displays of a display element, that of an operating device for a motor vehicle according to one of the preceding
  • this operating device is designed to detect the position of a finger on and / or over a control surface element of the operating device.
  • the position of the finger, with which an operating input is performed, can thus be detected in three dimensions with respect to the operating surface element or a corresponding user interface of the operating device. You can also use your finger on the
  • Control surface element corresponding wiping movements are performed, which are recognized as operating action.
  • the operating device comprises a corresponding sensor element with which a finger on the
  • Operating surface element applied pressure can be detected.
  • various operating modes are provided which can be selected by the operator.
  • a specific content is displayed on a display element by means of which the operation can be performed.
  • FIG. 6 shows a display 30 of a display element of the operating device in the first operating mode.
  • four selection elements in the form of symbols 32 to 38 are shown on the display 30.
  • the symbol 32 is a navigation system of the
  • the symbol 34 is an information and
  • the symbol 36 is associated with systems of the motor vehicle.
  • the symbol 38 is an entertainment system of the
  • the symbols 32 to 38 are arranged in a so-called radial menu.
  • the operator can select one of the illustrated symbols 32 to 38 and the associated function of the motor vehicle by a wiping movement, which he performs on the control surface element of the operating device.
  • the swipe movement which he performs with his finger, takes place in the direction of the symbol 32 to 38, which he wants to select.
  • the display 30 also shows corresponding lines 40 and 42 along which the wiping movement is to be performed. For example, to select the navigation system of the motor vehicle, a wiping movement along the line 40 from top to bottom must be performed.
  • cross-concept gestures are also detected. For example, by quickly executing a circular movement with the finger on the control surface element another level of the operating menu can be selected. This previously described gesture is illustrated on the display 30 by the symbol 44. Likewise, the cross-concept gesture can be provided, by means of which by quickly, twice tapping the finger on the
  • Control surface element is called the main menu. This cross-conceptive gesture is also illustrated on the display 30 by the symbol 46.
  • FIG. 7 shows a display 30 of a display element of the operating device in a second operating mode.
  • the display 30 shows a representation of an inbox of an e-mail program of the motor vehicle.
  • FIG. 8 shows a display 30 of the display element of the operating device in a third operating mode.
  • the individual selection elements in the form of
  • FIG. 9 shows another display 30 of the display of an operating device in the third operating mode.
  • the display 30 shows an extended keyboard.
  • the representation of this keyboard is divided into two areas 52 and 54.
  • a first button 56 which is arranged in the first region 52, be served by the finger is positioned on the control surface element.
  • a second button 58 located in the second area 54 can be operated by having the finger to the
  • Operating surface element is positioned at a predetermined distance.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft eine Bedienvorrichtung (10) für ein Kraftfahrzeug, mit der eine durch zumindest einen Finger (20) ausgeführte Bedieneingabe erfassbar ist, mit einer Sendeeinheit (12) zum Senden eines Signals zu dem Finger (20), einer Empfangseinheit (14) zum Empfangen eines von dem Finger (20) reflektierten Signals, einem Bedienflächenelement (18), in Bezug zu dem der Finger (20) zum Ausführen einer Bedieneingabe räumlich positionierbar ist, und einer Auswerteeinheit (16) zum Bestimmen einer räumlichen Position des Fingers (20) in Bezug zu dem Bedienflächenelement (18) anhand des empfangenen Signals. Ebenso wird ein entsprechendes Verfahren zum Bedienen der Bedienvorrichtung (10) offenbart.

Description

Bedienvorrichtung für ein Kraftfahrzeug und Verfahren zum Bedienen der
Bedienvorrichtung für ein Kraftfahrzeug
Die Erfindung betrifft eine Bedienvorrichtung für ein Kraftfahrzeug, mit der eine durch zumindest einen Finger ausgeführte Bedieneingabe erfassbar ist, und ein Verfahren zum Bedienen der Bedienvorrichtung für ein Kraftfahrzeug, mit der eine durch zumindest einen Finger durchgeführte Bedieneingabe in Bezug zu einem Bedienflächenelement erfasst wird.
Moderne Kraftfahrzeuge umfassen Touchpads oder Touchscreens als Bedienvorrichtung. Diese Bedienvorrichtungen werden durch eine mit zumindest einem Finger einer
Bedienperson durchgeführte Bedieneingabe bedient. Somit können entsprechende Funktionseinheiten des Kraftfahrzeugs, wie beispielsweise das Navigationssystem, Datenverbindungen, Unterhaltungs- und Informationssysteme des Kraftfahrzeugs oder dergleichen bedient werden. Der Bediener bzw. der Fahrzeuginsasse muss sich hierbei mit dem Bedienmodus der Bedienvorrichtung vertraut machen, um sich mit diesem zurechtzufinden. Da in modernen Kraftfahrzeugen immer mehr Funktionseinheiten des Kraftfahrzeugs mit einer Bedienvorrichtung angesteuert werden können, kann ein solcher Bedienmodus sehr komplex und für den Bediener unverständlich sein.
Wenn entsprechende Touchpads als Bedienvorrichtung verwendet werden, um die entsprechenden Funktionseinheiten des Kraftfahrzeugs ansteuern zu können, werden diese Touchpads mit einem Finger bedient. Die meisten Touchpads erkennen den Finger nur, wenn er die Bedienoberfläche des Touchpads berührt. Demzufolge können diese Touchpads nur eine zweidimensionale Koordinate des Fingers bestimmen. Einige Touchpads erkennen den Finger auch dann, wenn er einige Millimeter über der
Oberfläche des Touchpads schwebt. Allerdings bestimmen diese Touchpads für den schwebenden Finger auch nur eine zweidimensionale Koordinate. Der genaue Abstand des Fingers zu der Oberfläche des Touchpads kann hierbei nicht ermittelt werden.
BESTÄTIGUNGSKOPIE Nahezu alle heute eingesetzten Touchpads verwenden eine kapazitive Sensorik. Diese besteht üblicherweise aus einem Gitter von Sensorelektroden und einem
Auswertebaustein, der die Kapazitäten der Sensorelektroden bestimmt. Berührt ein Finger die Oberfläche des Touchpads, registriert die Sensorik die Kapazitätsänderung der Sensorelektroden und bestimmt anhand dieser Messwerte die Position des Fingers. Bei diesen Touchpads kann die zweidimensionale Koordinate des Fingers nicht mehr bestimmt werden, sobald der Finger die Oberfläche des Touchpads verlässt. Passiert dies während der Fahrt infolge einer Fahrzeugbewegung, wird die auf der Auswertung der Fingerbewegung basierende Bedieneingabe unterbrochen. Bei schlechten
Fahrbahnverhältnissen, aber auch bei einem gewollten Abheben des Fingers, einem Weiterbewegen und Wiederaufsetzen des Fingers kann es leicht passieren, dass der Abstand des Fingers von der Oberfläche des Touchpads deutlich größer wird als einige Millimeter. In diesen Fällen kann der Finger mit Hilfe des Touchpads nicht mehr erfasst werden. Der Bedienvorgang wird unterbrochen.
Mit einer Information über die zweidimensionale Position des Fingers auf der
Bedienoberfläche des Touchpads können nur Bewegungen des Fingers in einer Ebene für Bedieneingaben ausgewertet werden. Werden beispielsweise mehr
Bedienfreiheitsgrade benötigt, müssen parallel zur Bewegung des Fingers zusätzliche Eingaben getätigt werden. Ein Beispiel hierfür ist das Bewegen eines Mauszeigers, der auf einem Anzeigeelement dargestellt wird, durch eine entsprechende Bewegung des Fingers. Durch eine entsprechende Betätigung einer Zusatztaste kann ein
entsprechendes Auswahlelement, auf dem der Zeiger positioniert ist, markiert werden. Um das markierte Auswahlelement zu verschieben, muss die Zusatztaste anhaltend gedrückt werden und zugleich der Finger auf der Oberfläche des Touchpads bewegt werden. Ansonsten könnte nicht unterschieden werden, ob durch die Bewegung des Fingers auf der Oberfläche des Touchpads nur der Mauszeiger bewegt werden soll oder mit Hilfe des Mauszeigers das markierte Objekt verschoben werden soll. Solche
Bedieneingaben mit parallelen Bedienhandlungen stellen hohe koordinative
Anforderungen an den Benutzer dar. Diese sind während der Fahrt sowohl mit einer hohen Ablenkungswirkung verbunden als auch aufgrund der Fahrzeugbewegung schwierig auszuführen.
Daher ist es Aufgabe der vorliegenden Erfindung, eine Bedienvorrichtung für ein
Kraftfahrzeug und ein Verfahren zum Bedienen der Bedienvorrichtung für ein Kraftfahrzeug zu schaffen, mittels denen eine einfachere und effizientere Bedienbarkeit zugelassen wird.
Diese Aufgabe wird mit den in den unabhängigen Ansprüchen angegebenen Maßnahmen gelöst.
Weitere vorteilhafte Ausgestaltungen der vorliegenden Erfindung sind Gegenstand der abhängigen Ansprüche.
Gemäß einem ersten Aspekt weist eine Bedienvorrichtung für ein Kraftfahrzeug, mit der eine durch zumindest einen Finger ausgeführte Bedieneingabe erfassbar ist, eine Sendeeinheit zum Aussenden eines Signals zu dem Finger, eine Empfangseinheit zum Empfangen des von dem Finger reflektierten Signals, ein Bedienflächenelement, in Bezug zu dem der Finger zum Ausführen einer Bedieneingabe räumlich positionierbar ist, und eine Auswerteeinheit zum Bestimmen einer räumlichen Position des Fingers in Bezug zu dem Bedienflächenelement anhand des empfangenen Signals auf.
Somit kann mit der Bedienvorrichtung auch eine von einem Finger durchgeführte
Bedieneingabe erfasst werden, wenn der Finger nicht auf dem Bedienflächenelement platziert wird. Das von der Sendeeinheit ausgesendete Signal wird von dem Finger reflektiert und von der Empfangseinheit empfangen. Die Auswerteeinheit berechnet dann aus den Sensorsignalen die räumliche Koordinate des Fingers. Dies ermöglicht es, den Finger in einem zuvor definierten Abstand, der beispielsweise mehrere Zentimeter betragen kann, zu verfolgen und seine dreidimensionale Position zu bestimmen. Hierbei wird die Position des Fingers auch dann ermittelt, wenn sich der Finger während des Bedienvorgangs von dem Bedienflächenelement abhebt. Somit kann eine durch den Finger ausgeführte Bedieneingabe von der Bedienvorrichtung zuverlässiger erfasst werden.
Durch das kontinuierliche Erfassen der Position des Fingers auch in dem von dem Bedienflächenelement abgehobenen Zustand und einer entsprechenden Visualisierung auf einem der Bedienvorrichtung zugeordneten Anzeigeelement kann der Benutzer seine Fingerbewegung besser koordinieren und einen auf dem Anzeigeelement dargestellten Zeiger bzw. Cursor genauer positionieren. Die Erfassung der Position des Fingers stellt einen zusätzlichen Bedienfreiheitsgrad dar, der für die Funktionssteuerung verwendet werden kann. Somit kann beispielsweise eine dreidimensionale Menüsteuerung ermöglicht werden.
Gemäß einer Ausgestaltung ist das Bedienflächenelement für das Signal durchlässig und die Sendeeinheit und die Empfangseinheit sind an einer dem Finger abgewandten Seite des Bedienflächenelements angeordnet. Die Bedienvorrichtung umfasst bevorzugt eine geschlossene Bedienoberfläche in Form des Bedienflächenelements. Unter diesem Bedienflächenelement sind die Sendeeinheit und die Empfangseinheit angeordnet. Um mit der Sendeeinheit und der Empfangseinheit die Position des Fingers über dem Bedienflächenelement erfassen zu können, weist das Bedienflächenelement in einem Wellenlängenbereich des Signals einen hohen Transmissionsgrad auf. Somit wird das Signal, das auf seinem Weg von der Sendeeinheit zu dem Finger und zurück zur Empfangseinheit das Bedienflächenelement zweimal durchdringt, nicht abgelenkt bzw. verfälscht. Auf diese Weise kann die räumliche Position des Fingers besonders exakt bestimmt werden.
Gemäß einer weiteren Ausgestaltung sendet die Sendeeinheit Licht, insbesondere im infraroten Wellenlängenbereich, als das Signal aus. Die Verwendung von Licht im infraroten Wellenlängenbereich weist den Vorteil auf, dass das Bedienflächenelement so gestaltet werden kann, dass es für das menschliche Auge nicht transparent ist. Somit kann der Benutzer die hinter dem Bedienflächenelement angeordnete Technik nicht sehen. Daher kann das äußere Erscheinungsbild der Bedienvorrichtung hochwertiger ausgeführt werden. Als Sendeeinheit kann eine entsprechende Infrarot-Beleuchtung und als Empfangseinheit eine entsprechende Infrarot-Sensorik verwendet werden. Das Bedienflächenelement sollte so ausgebildete sein, dass es im sichtbaren
Wellenlängenbereich einen sehr geringen und im Infrarotbereich einen sehr hohen Transmissionsgrad aufweist. Die Verwendung einer entsprechenden Infrarot-Sensorik weist zudem den Vorteil auf, dass diese von dem Umgebungslicht nur geringfügig beeinflusst wird. Daher kann der Finger im Bezug zu dem Bedienflächenelement besonders exakt und zuverlässig bestimmt werden.
Gemäß einer weiteren Ausgestaltung ist durch die Auswerteeinheit die Position des Fingers anhand einer Laufzeit des Signals bestimmbar. Die Empfangseinheit kann als sogenannte Tiefenkamera ausgebildet sein. Eine solche Tiefenkamera weist
üblicherweise nur ein Objektiv auf. Ein spezieller Bildsensor ermittelt durch die Laufzeitmessung des von der Sendeeinheit, die beispielsweise als entsprechende
Beleuchtungseinheit ausgebildet sein kann, ausgesendeten und von der Umgebung reflektierten Lichts für jedes Bildpixel eine Entfernungsinformation. Durch die Auswertung der pixelfreien Entfernungsinformation kann die dreidimensionale Position des Fingers besonders exakt bestimmt werden.
Gemäß einer weiteren Ausgestaltung ist durch die Auswerteeinheit die Position des Fingers anhand einer Intensität des empfangenen Signals bestimmbar. Ebenso kann zur Bestimmung der Position des Fingers eine sogenannte Mono-Kamera verwendet werden. Diese misst mit ihrem Sensor pixelweise die Intensität des reflektierten Lichts. Befindet sich ein Finger auf oder über dem Bedienflächenelement, kann durch die Auswertung der Intensitätsverteilung die dreidimensionale Position des Fingers bestimmt werden, da die Amplituden und die Form der Intensitätsverteilung mit dem Fingerabstand von der Bedienfläche korreliert. Dies ermöglicht es auf einfache Weise, die Position des Fingers dreidimensional zu erfassen.
Gemäß einer weiteren Ausgestaltung weist die Bedienvorrichtung zumindest zwei Empfangseinheiten auf, die in einer Erstreckungsrichtung parallel zu der
Haupterstreckungsrichtung des Bedienflächenelements beabstandet angeordnet sind. Die Empfangseinheit kann auch als Stereo-Kamera ausgebildet sein, die aus zwei Objektiven und Bildsensoren besteht, die den Finger aus unterschiedlichen Perspektiven aufnehmen. Mit dem bekannten Abstand der Sensoren zueinander kann durch die Verrechnung der beiden Bilder eine dreidimensionale Position des Fingers bestimmt werden. Die dafür notwendigen Verfahren und Algorithmen sind bekannt, wodurch die Position des Fingers ohne zusätzlichen Aufwand bestimmt werden kann.
Gemäß einer Ausgestaltung weist die Bedienvorrichtung eine Mehrzahl von
Sendeeinheiten und eine Mehrzahl von Empfangseinheiten auf, die in einer ersten und in einer zu der ersten senkrechten, zweiten Erstreckungsrichtung parallel zu der
Haupterstreckungsrichtung des Bedienflächenelements angeordnet sind. Zur
dreidimensionalen Erfassung des Fingers kann ebenso eine diskret aufgebaute Kamera verwendet werden. Eine solche diskret aufgebaute Kamera besteht üblicherweise aus gitterförmig auf einer Leiterplatte angeordneten Infrarot-Sendern und Infrarot-Empfängern. Die Infrarot-Sender können beispielsweise als entsprechende Beleuchtungseinheit oder Leuchtdiode ausgebildet sein. Die Infrarot-Empfänger können als entsprechende Infrarotsensoren oder als Fotodioden ausgebildet sein. Durch eine geeignete Ansteuerung der Sendeeinheiten und Empfangseinheiten kann pixelweise die Intensität des reflektierten Lichts gemessen werden, wobei die Pixel je nach Art der Ansteuerung durch das Gitternetz der Sendeeinheiten oder der Empfangseinheiten definiert sind. Die Bestimmung der dreidimensionalen Position des Fingers erfolgt wie bei einer
Monokamera anhand der Verteilung der Intensität des reflektierten Lichts, wobei die durch den diskreten Aufbau bedingte grobe Auflösung durch geeignete Interpolation der Messdaten ausgeglichen werden kann. Durch die besonders flache Bauweise der diskreten Kamera führen bereits kleine Änderungen des Fingerabstands von dem
Bedienflächenelement zu einer großen Veränderung der Sensorsignale, so dass die Entfernungsbestimmung besonders hochauflösend und genau ist.
Gemäß einer weiteren Ausgestaltung weist die Bedienvorrichtung eine Sensoreinheit auf, mit der ein Berühren des Bedienflächenelements mit dem Finger erfassbar ist. Bei allen zuvor beschriebenen Kombinationen von Sende- und Empfangseinheiten kann die Genauigkeit der dreidimensionalen Fingerpositionsbestimmung gesteigert werden, indem das Berühren des Bedienflächenelements durch den Finger mit einer zusätzlichen Sensorik erfasst wird. Die Sensorik kann beispielsweise als kapazitiver Sensor ausgebildet sein. Da die Geometrie des Bedienflächenelements bekannt ist, kann die Abstandskoordinate des Fingers bei Berührung kalibriert werden. Hier können etwaige Ungenauigkeiten bei der Abstandsbestimmung, die beispielsweise aus einem
unterschiedlichen Reflektionsverhalten verschiedener Finger resultieren können, entgegengewirkt werden.
Gemäß einer weiteren Ausgestaltung weist die Bedienvorrichtung einen Aktor auf, mit dem ein haptisches Signal an dem das Bedienflächenelement berührenden Finger ausgebbar ist. Die Bedienvorrichtung kann zusätzlich eine entsprechende
Betätigungshaptik aufweisen. Dabei kann der Benutzer durch das Aufbringen einer Auslösekraft auf das Bedienflächenelement eine entsprechende Funktion auslösen. Als Reaktion darauf wird eine haptische Rückmeldung erzeugt, indem das
Bedienflächenelement zu Schwingungen angeregt wird. Dafür kann entweder ein permanent wirkender mechanischer Haptikmechanismus (z.B. ein Mikroschalter) oder ein steuerbarer elektromechanischer Haptikmechanismus (z.B. ein Wegsensor in
Kombination mit einem elektromagnetischen Aktor) verwendet werden. In dem zweiten Fall kann die Betätigungshaptik abhängig von dem Bedienkontext ein- und ausgeschaltet werden, und es können durch eine unterschiedliche Ansteuerung des Aktors
verschiedene haptische Effekte erzeugt werden. Somit kann die Bedienung der
Bedienvorrichtung zuverlässiger ermöglicht werden.
Gemäß einer weiteren Ausgestaltung sind die Sendeeinheit und die Empfangseinheit in Abhängigkeit von einem Signal der Sensoreinheit zum Bestimmen der Position des Fingers aktivierbar. Zudem kann die Funktion der Bedienvorrichtung verbessert werden, indem die dreidimensionale Position des Fingers erst nach einer initialen Berührung des Bedienflächenelements mit dem Finger ermittelt wird. Ohne diese Bedingung kann nicht exakt zwischen einer intendierten Bedienung und einer anders motivierten
Fingerbewegung über das Bedienflächenelement unterschieden werden, so dass
Funktionen unbeabsichtigt ausgelöst werden können. Außerdem kann nach dem initialen Berühren des Bedienflächenelements ein Algorithmus gestartet werden, der die gemessenen Fingerpositionen anhand eines Modells der möglichen Fingerbewegungen plausibiiisiert und die Messwerte glättet (Tracking-Algorithmus). Auf diese Weise kann die Bedienung der Bedienvorrichtung zuverlässiger gestaltet werden.
Ebenso kann von mehreren Fingern gleichzeitig die dreidimensionale Position bestimmt werden. Dazu sind die Auswertealgorithmen entsprechend anzupassen.
Gemäß einem zweiten Aspekt weist ein Verfahren zum Bedienen einer Bedienvorrichtung für ein Kraftfahrzeug, mit der eine durch zumindest einen Finger durchgeführte
Bedieneingabe in Bezug zu einem Bedienflächenelement erfasst wird, wobei in einem ersten Bedienmodus mit der Bedieneingabe anhand eines auf einem der
Bedienvorrichtung zugeordneten Anzeigeelement spezifisch dargestellten Inhalts eine Bedienung durchgeführt wird, ein Bereitstellen von zumindest einem zweiten
Bedienmodus der Bedienvorrichtung und ein derartiges Auswählen eines der Bedienmodi auf, dass der Inhalt auf dem Anzeigeelement entsprechend dem ausgewählten
Bedienmodus der Bedienvorrichtung spezifisch dargestellt wird.
Das vorliegende Verfahren bezieht sich auf eine Bedienvorrichtung, wie sie zuvor angegeben worden ist, mit der die Position eines Fingers, mit dem eine Bedieneingabe durchgeführt wird, dreidimensional in Bezug zu einem Bedienflächenelement erfassbar ist. Dies bedeutet, dass der Finger nicht zwingend auf dem Bedienflächenelement aufgelegt werden muss, um eine Bedieneingabe durchzuführen. Der Finger kann auch in einem zuvor definierten Abstand, der beispielsweise einige Zentimeter betragen kann, platziert werden.
Durch die Verwendung einer solchen Bedienvorrichtung ergeben sich weitere Konzepte für die Bedienung. Somit ist es möglich, ein hochflexibles Konzept zu erstellen, in dem mehrere Betriebsmodi sinnvoll zum Einsatz kommen. Die jeweiligen Bedienmodi können beispielsweise von einem Bediener entsprechend ausgewählt werden. In Abhängigkeit von dem ausgewählten Bedienmodus wird ein entsprechender Inhalt auf einem
Anzeigeelement dargestellt, der der Bedienvorrichtung zugeordnet ist. Somit kann eine besonders einfache und flexible Bedienung einer Bedienvorrichtung für ein Kraftfahrzeug ermöglicht werden.
Gemäß einer Ausgestaltung wird in einem ersten Bedienmodus ein auf dem
Anzeigeelement dargestelltes Auswahlelement durch eine auf dem Bedienflächenelement durchgeführte Wischbewegung des Fingers in eine Richtung des Auswahlelements ausgewählt. In diesem Bedienmodus werden auf dem Anzeigeelement beispielsweise vier oder acht Auswahlelemente bzw. Menüeinträge dargestellt. Um einen dieser
Menüeinträge auszuwählen, führt der Bediener eine entsprechende Wischbewegung auf dem Bedienflächenelement mit seinem Finger aus, wobei die Wischbewegung in die Richtung des Menüeintrags bzw. des Auswahlelements gerichtet ist. Somit bedarf es keiner weiteren Bestätigung der Auswahl des Menüeintrags.
Zusätzlich können in diesem ersten Bedienmodus konzeptübergreifende Gesten erkannt werden. Mit einer solchen konzeptübergreifenden Geste kann beispielsweise in dem auf dem Anzeigeelement dargestellten Inhalt in dem Bedienmenü eine Ebene
zurückgesprungen werden. Dies kann beispielsweise durch das schnelle Ausführen einer Kreisbewegung auf dem Bedienflächenelement mit dem Finger ermöglicht werden.
Hierbei kann beispielsweise mit dem Finger eine Kreisbahn beschrieben werden, die mindestens einen Winkel von 240° umfasst. Ebenso ist in dem ersten Bedienmodus das Ausführen einer konzeptübergreifenden Geste denkbar, mit der der Bediener das
Darstellen eines Hauptmenüs bzw. einer obersten Ebene eines Bedienmenüs auf dem Anzeigeelement bewirkt. Dies kann beispielsweise durch ein schnelles, zweimaliges Tippen mit dem Finger auf dem Bedienflächenelement erreicht werden. Diese
konzeptübergreifenden Gesten können beispielsweise auf einem Bereich des
Anzeigeelements in Form von entsprechenden Symbolen dargestellt werden. Somit kann eine Bedienvorrichtung besonders einfach und intuitiv bedient werden. Gemäß einer weiteren Ausgestaltung wird in einem zweiten Bedienmodus ein Zeiger in einem einem Auswahlelement zugeordneten Bereich durch Bewegen des Fingers auf dem Bedienflächenelement positioniert und das Auswahlelement wird durch Drücken auf das Bedienflächenelement mit dem Finger ausgewählt. In diesem Bedienmodus kann ein entsprechender Cursor auf dem Anzeigeelement dargestellt werden, der analog durch eine Bewegung des Fingers auf dem Bedienflächenelement gesteuert wird. Analog bedeutet in diesem Fall, dass an jeder Stelle auf dem Bedienflächenelement eine Position des Zeigers bzw. des Cursors auf dem Anzeigeelement zugeordnet ist. Der Zeiger bewegt sich also analog zu dem Finger. Zum Auswählen eines entsprechenden Auswahlelements wird der Zeiger bzw. Cursor über das entsprechende Auswahlelement bewegt und zum Auswählen wird ein entsprechender Druck mit dem Finger auf das Bedienflächenelement ausgeübt. Das Bedienflächenelement der Bedienvorrichtung ist hierzu drucksensitiv ausgelegt bzw. weist eine entsprechende Schalterfunktion auf. Hierbei ist es ebenso vorgesehen, dass der Zeiger auch auf dem Anzeigeelement sichtbar bleibt, wenn sich der Finger nicht auf dem Bedienflächenelement, sondern über dem Bedienflächenelement befindet. Dadurch wird eine stabilere, ruhigere Darstellung des Zeigers auf dem
Anzeigeelement erreicht, wodurch wiederum die Bediensicherheit erhöht wird.
In diesem zweiten Bedienmodus können ebenso Wischgesten, die mit dem Finger ausgeführt werden, erkannt werden. So kann z.B. in einer vertikalen Liste durch eine Wischbewegung nach links oder nach rechts in eine andere Kategorie von
Listeneinträgen gewechselt werden. Ebenso kann beispielsweise über Wischgesten in einer Liste navigiert werden. Auch in diesem zweiten Bedienmodus können
konzeptübergreifende Gesten erkannt werden. So kann beispielsweise durch ein schnelles, zweimaliges Tippen mit dem Finger auf das Bedienflächenelement das
Hauptmenü aufgerufen werden. Dieser Bedienmodus ermöglicht eine einfache und intuitive Bedienung der Bedienvorrichtung.
Gemäß einer weiteren Ausgestaltung werden in dem zweiten Bedienmodus durch das Bewegen des Fingers auf dem Bedienflächenelement Schriftzeichen in ein
Textverarbeitungsprogramm der Bedienvorrichtung eingegeben. In einem
entsprechenden Schreibmodus können handschriftliche Zeichen, die mit dem Finger auf dem Bedienflächenelement ausgeführt werden, erkannt werden. Somit kann durch den Benutzer auf besonders einfache Weise beispielweise entsprechende Nachrichten erstellt werden. Zudem kann diese Zeichenerkennung genutzt werden, um beispielsweise entsprechende Ziele in ein Navigationssystem des Kraftfahrzeugs einzugeben. Somit kann die Bedienung des Bedienelements deutlich vereinfacht werden. Gemäß einer weiteren Ausgestaltung werden in einem dritten Bedienmodus der
Bedienvorrichtung die auf dem Anzeigeelement dargestellten Auswahlelemente perspektivisch dargestellt und ein auf dem Anzeigeelement dargestellter Zeiger wird in Abhängigkeit von dem Abstand des Fingers zu dem Bedienflächenelement in dieser Darstellung bezüglich einer Höhe variiert.
In dem dritten Bedienmodus der Bedienvorrichtung wird zusätzlich eine Bedienhandlung in Abhängigkeit von dem Abstand des Fingers zu dem Bedienflächenelement
berücksichtigt. Durch die perspektivische Darstellung der Auswahlelemente und des Zeigers kann eine besonders einfache Bedienung ermöglicht werden. Hierbei ist es ebenso denkbar, dass entsprechende Auswahlelemente in dieser dreidimensionalen Darstellung ausgewählt und angehoben bzw. verschoben werden können. Der Abstand des Fingers in Bezug zu dem Bedienflächenelement kann auf dem Anzeigeelement durch den Abstand des Auswahlelements bzw. des Zeigers zu einer entsprechenden
Referenzfläche dargestellt werden. Hierbei kann zudem ein entsprechender Schatten des Auswahlelements bzw. des Zeigers eingeblendet werden, der den Abstand repräsentiert. Hierbei können auch bei einem Unterhaltungssystem des Kraftfahrzeugs entsprechende Musik-Cover besonders einfach ausgewählt werden. Die perspektivisch dargestellten Musik-Cover können analog zum Abstand des Fingers zu dem Bedienflächenelement nach unten gedrückt werden und somit kann eine besonders einfache und intuitive Bedienung ermöglicht werden.
Gemäß einer weiteren Ausgestaltung wird in dem dritten Bedienmodus der auf dem Anzeigeelement dargestellte Bereich in Abhängigkeit von dem Abstand des Fingers zu dem Bedienflächenelement in seiner Größe geändert. Der Zeiger bzw. Cursor kann in diesem Bedienmodus über eine entsprechende Anzeige auf dem Anzeigeelement bewegt werden, wobei der Abstand des Fingers zu dem Bedienflächenelement den
Vergrößerungsfaktor der jeweiligen Anzeige bestimmt. Somit kann beispielsweise ein entsprechender Kartenausschnitt eines Navigationssystems, der auf dem Anzeigeelement dargestellt wird, entsprechend vergrößert werden. Somit kann eine einfache Bedienung der Bedienvorrichtung erreicht werden.
Gemäß einer weiteren Ausgestaltung wird in dem dritten Bedienmodus zumindest eine erste Funktionseinheit des Kraftfahrzeugs in Abhängigkeit von dem Abstand des Fingers zu dem Bedienflächenelement und gleichzeitig zumindest eine zweite Funktionseinheit des Kraftfahrzeugs in Abhängigkeit von einer Bewegung des Fingers entlang einer Erstreckungsrichtung parallel zur Haupterstreckungsrichtung des Bedienflächenelements bedient. Quantitative Einstellungen können hierbei parallel in drei Dimensionen erfolgen. Beispielsweise können bei der Einstellung eines Unterhaltungssystems des
Kraftfahrzeugs die Fader/Balance-Einstellungen in Abhängigkeit von der Bewegung des Fingers entlang der Haupterstreckungsrichtung des Bedienflächenelements bedient werden und parallel dazu in Abhängigkeit von dem Abstand des Fingers zu dem
Bedienflächenelement die Lautstärke justiert werden. Die finale Bestätigung dieser Einstellung kann beispielsweise über eine zusätzliche Taste erfolgen, die beispielsweise mit der anderen Hand betätigt wird oder sie kann automatisch nach Ablauf einer vorbestimmten Zeit übernommen werden. Somit kann eine entsprechende
Bedienvorrichtung besonders einfach und schnell bedient werden.
Gemäß einer weiteren Ausgestaltung wird in dem dritten Bedienmodus zumindest ein erstes der Auswahlelemente bedient, falls der Finger auf dem Bedienflächenelement positioniert wird und/oder zumindest ein zweites Auswahlelement bedient, falls der Finger in einem vorgegebenen Abstand zu dem Bedienflächenelement positioniert wird. In diesem Bedienmodus kann beispielsweise eine erweiterte Tastatur ermöglicht werden. Die auf dem Anzeigeelement dargestellte Tastatur kann beispielsweise in zwei Bereiche unterteilt sein. Hierbei kann ein erster Bereich der Tastatur bedient werden, wenn der Finger auf dem Bedienflächenelement positioniert ist und der zweite Teil der Tastatur bedient werden, falls der Finger von dem Bedienflächenelement abgehoben wird. In dem zweiten Bereich der Tastatur können beispielsweise Ziffern oder selten verwendete Zeichen zur Auswahl stehen. Somit ist bei einer Texteingabe mit dieser Tastatur kein Umschalten zwischen verschiedenen Anzeigen erforderlich.
Die vorliegende Erfindung wird nachstehend anhand von Ausführungsbeispielen unter Bezugnahme auf die beiliegende Zeichnung näher erläutert.
Es zeigt:
Fig. 1 eine schematische Darstellung einer Bedienvorrichtung gemäß einer ersten Ausführungsform in einer geschnittenen Seitenansicht,
Fig. 2 eine zweite Ausführungsform der Bedienvorrichtung,
Fig. 3 eine dritte Ausführungsform der Bedienvorrichtung, Fig. 4 eine vierte Ausführungsform der Bedienvorrichtung,
Fig. 5 eine dreidimensionale Darstellung eines mit der Bedienvorrichtung empfangenen Messsignals,
Fig. 6 eine Anzeige eines Anzeigeelements einer Bedienvorrichtung in einem ersten Bedienmodus,
Fig. 7 eine Anzeige eines Anzeigeelements einer Bedienvorrichtung in einem zweiten Bedienmodus,
Fig. 8 eine Anzeige eines Anzeigeelements einer Bedienvorrichtung in einem dritten Bedienmodus, und
Fig. 9 eine Anzeige eines Anzeigeelements einer Bedienvorrichtung in dem dritten Bedienmodus in einer weiteren Ausgestaltung.
Nachstehend erfolgt die Beschreibung eines ersten Ausführungsbeispiels.
Fig. 1 zeigt eine Bedienvorrichtung 10 für ein Kraftfahrzeug gemäß dem ersten
Ausführungsbeispiel in einer schematischen geschnittenen Seitenansicht. Die
Bedienvorrichtung 10 umfasst eine Sendeeinheit 12 und eine Empfangseinheit 14. Die Sendeeinheit 12 und die Empfangseinheit 14 sind mit einer Auswerteeinheit 16 gekoppelt. Die Sendeeinheit 12, die Empfangseinheit 14 und die Auswerteeinheit 16 sind unterhalb eines Bedienflächenelements 18 angeordnet. Auf einer der Sendeeinheit 12, der
Empfangseinheit 14 und der Auswerteeinheit 16 abgewandten Seite des
Bedienflächenelements 18 kann ein Finger 20 zum Ausführen einer Bedieneingabe räumlich positioniert werden.
Die Sendeeinheit 12 sendet ein Signal zum Finger 20 aus. Das Signal wird von dem Finger 20 reflektiert und das reflektierte Signal wird von der Empfangseinheit 14 empfangen. Die Auswerteeinheit 16 ist dazu ausgebildet, eine räumliche Position des Fingers 20 in Bezug zu dem Bedienflächenelement 18 anhand des empfangenen Signals zu bestimmen. Bevorzugt sendet die Sendeeinheit 12 Licht im infraroten Wellenlängenbereich als das Signal aus. Das Bedienflächenelement 18 weist bevorzugt in diesem Wellenlängenbereich einen hohen Transmissionsgrad auf.
Nachstehend erfolgt die Beschreibung eines zweiten Ausführungsbeispiels.
Fig. 2 zeigt ein zweites Ausführungsbeispiel der Bedienvorrichtung 10. Hierbei umfasst die Bedienvorrichtung 10 zwei Empfangseinheiten 14, die beabstandet zueinander angeordnet sind. Die Empfangseinheit 14 kann beispielsweise als entsprechende Stereo- Kamera ausgebildet sein, die zwei Objektive und zwei Bildsensoren umfasst, die den Finger 20 aus unterschiedlichen Perspektiven aufnehmen. Mit Hilfe des bekannten Abstands zwischen den beiden Empfangseinheiten 14 kann durch die Verrechnung der mit den Empfangseinheiten 14 aufgenommenen Bilder die dreidimensionale Position des Fingers 20 bestimmt werden.
Nachstehend erfolgt die Beschreibung eines dritten Ausführungsbeispiels.
Fig. 3 zeigt ein drittes Ausführungsbeispiel der Bedienvorrichtung 10. Vorliegend umfasst die Bedienvorrichtung 10 eine Sendeeinheit 12 und eine Empfangseinheit 14. Die Sendeeinheit 12 kann als entsprechende Beleuchtungseinheit ausgebildet sein. Die Empfangseinheit 14 kann als sogenannte Tiefenkamera ausgebildet sein, welche üblicherweise nur ein Objektiv aufweist. Ein spezieller Bildsensor ermittelt anhand der Laufzeit des von der Sendeeinheit 12 ausgesendeten Signals und des von der
Empfangseinheit 14 empfangenen Signals die dreidimensionale Position des Fingers 20.
Ebenso kann bei dem in Fig. 3 dargestellten dritten Ausführungsbeispiel die
Empfangseinheit 14 als Mono-Kamera ausgebildet sein. Eine solche Mono-Kamera erfasst mit ihrem Objektiv mit dem dazugehörigen Bildsensor pixelweise die Intensität des vom Finger 20 reflektierten Lichts. Somit kann anhand der Intensitätsverteilung die dreidimensionale Position des Fingers 20 bestimmt werden.
Nachstehend erfolgt die Beschreibung eines vierten Ausführungsbeispiels.
Fig. 4 zeigt ein viertes Ausführungsbeispiel der Bedienvorrichtung 10, in der die
Bedienvorrichtung 10 eine Mehrzahl von Sendeeinheiten 12 und eine Mehrzahl von Empfangseinheiten 14 umfasst, die alternierend und parallel zu der Haupterstreckungsrichtung des Bedienflächenelements 18 angeordnet sind. Die
Sendeeinheiten 12 können als entsprechende Infrarot-Sender, insbesondere als
Leuchtdioden, und die Empfangseinheiten 14 als Infrarot-Empfänger, insbesondere als Fotodioden, ausgebildet sein. Diese können gitterförmig auf einer hier nicht dargestellten Leiterplatte angeordnet sein. Durch eine geeignete Ansteuerung der Sendeeinheiten 12 und der Empfangseinheiten 14 kann pixelweise die Intensität des reflektierten Lichts gemessen werden. Die dreidimensionale Position des Fingers 20 kann anhand der Intensitätsverteilung des reflektierten Lichts bestimmt werden.
Fig. 5 zeigt ein Messsignal einer Bedienvorrichtung 10 gemäß den ersten bis vierten Ausführungsbeispielen. Der dreidimensionale Graph zeigt die Verteilung der Intensität des von dem Finger 20 reflektierten Lichts, das mit den Empfangseinheiten 14 erfasst ist. Die Achse 22 entspricht einer ersten Erstreckungsrichtung und die Achse 24 einer zu der ersten Erstreckungsrichtung senkrechten, zweiten Erstreckungsrichtung. Die
Erstreckungsrichtungen verlaufen parallel zu der Haupterstreckungsrichtung des
Bedienflächenelements 18. Die in Fig. 5 dargestellte grobe Auflösung der
Intensitätsverteilung, die durch den diskreten Aufbau bzw. die Anordnung der
Sendeeinheiten 12 und Empfangseinheiten 14 bedingt ist, kann durch eine geeignete Interpolation der Messdaten ausgeglichen werden.
Die Fig. 6 bis 9 zeigen unterschiedliche Anzeigen eines Anzeigeelements, das einer Bedienvorrichtung für ein Kraftfahrzeug gemäß einem der vorhergehenden
Ausführungsbeispiele zugeordnet ist. Wie es bereits zuvor beschrieben worden ist, ist diese Bedienvorrichtung dazu ausgebildet, die Position eines Fingers auf und/oder über einem Bedienflächenelement der Bedienvorrichtung zu erfassen. Die Position des Fingers, mit dem eine Bedieneingabe durchgeführt wird, kann also dreidimensional in Bezug zu dem Bedienflächenelement bzw. einer entsprechenden Bedienoberfläche der Bedienvorrichtung erfasst werden. Zudem können mit dem Finger auf dem
Bedienflächenelement entsprechende Wischbewegungen durchgeführt werden, die als Bedienhandlung erkannt werden. Des Weiteren umfasst die Bedienvorrichtung ein entsprechendes Sensorelement, mit dem ein mit dem Finger auf das
Bedienflächenelement ausgeübter Druck detektiert werden kann.
Zum Bedienen der Bedienvorrichtung werden verschiedene Bedienmodi bereitgestellt, die von dem Bediener ausgewählt werden können. In Abhängigkeit von dem ausgewählten Bedienmodus wird ein spezifisch dargestellter Inhalt auf einem Anzeigeelement dargestellt, mittels dem die Bedienung durchgeführt werden kann.
Fig. 6 zeigt eine Anzeige 30 eines Anzeigeelements der Bedienvorrichtung in dem ersten Bedienmodus. Vorliegend sind auf der Anzeige 30 vier Auswahlelemente in Form von Symbolen 32 bis 38 dargestellt. Das Symbol 32 ist einem Navigationssystem des
Kraftfahrzeugs zugeordnet. Das Symbol 34 ist einem Informations- und
Kommunikationssystem des Fahrzeugs zugeordnet. Das Symbol 36 ist Systemen des Kraftfahrzeugs zugeordnet. Das Symbol 38 ist einem Unterhaltungssystem des
Kraftfahrzeugs zugeordnet. Vorliegend sind die Symbole 32 bis 38 in einem sogenannten Radialmenü angeordnet.
Der Bediener kann eines der dargestellten Symbole 32 bis 38 und die damit verbundene Funktion des Kraftfahrzeugs durch eine Wischbewegung auswählen, die er auf dem Bedienflächenelement der Bedienvorrichtung durchführt. Die Wischbewegung, die er mit dem Finger durchführt, erfolgt dabei in die Richtung des Symbols 32 bis 38, das er auswählen möchte. Die Anzeige 30 zeigt zudem entsprechende Linien 40 und 42, entlang der die Wischbewegung durchzuführen ist. So muss beispielsweise zum Auswählen des Navigationssystems des Kraftfahrzeugs eine Wischbewegung entlang der Linie 40 von oben nach unten durchgeführt werden.
In diesem ersten Bedienmodus werden zudem konzeptübergreifende Gesten erkannt. So kann beispielsweise durch das schnelle Ausführen einer Kreisbewegung mit dem Finger auf dem Bedienflächenelement eine andere Ebene des Bedienmenüs ausgewählt werden. Diese zuvor beschriebene Geste ist auf der Anzeige 30 durch das Symbol 44 veranschaulicht. Ebenso kann die konzeptübergreifende Geste vorgesehen sein, mittels welcher durch schnelles, zweimaliges Tippen mit dem Finger auf dem
Bedienflächenelement das Hauptmenü aufgerufen wird. Auch diese konzeptübergreifende Geste ist auf der Anzeige 30 durch das Symbol 46 veranschaulicht.
Fig. 7 zeigt eine Anzeige 30 eines Anzeigeelements der Bedienvorrichtung in einem zweiten Bedienmodus. Die Anzeige 30 zeigt eine Darstellung eines Posteingangsfachs eines E-Mailprogramms des Kraftfahrzeugs. Durch das Bewegen des Fingers auf dem Bedienflächenelement der Bedienvorrichtung kann ein mit der Anzeige 30 dargestellter Zeiger 48 bewegt werden, der vorliegend als Kreis dargestellt ist. So kann beispielsweise der Zeiger 48 über ein entsprechendes Auswahlelement, im vorliegenden Fall eine eingegangene E-Mail, bewegt werden und mit einem Druck des Fingers auf das Bedienflächenelement kann das Auswahlelement ausgewählt werden. Auf diese Weise kann beispielsweise die entsprechende E-Mail geöffnet werden. Ebenso können in einem zweiten Bedienmodus entsprechende Wischgesten, die mit dem Finger auf dem
Bedienflächenelement ausgeführt werden, berücksichtigt werden. Ferner kann mit Hilfe der Wischgesten zwischen entsprechenden Listeneinträgen gewechselt werden. Auch hier können konzeptübergreifende Gesten berücksichtigt werden.
Fig. 8 zeigt eine Anzeige 30 des Anzeigeelements der Bedienvorrichtung in einem dritten Bedienmodus. Hierbei sind die einzelnen Auswahlelemente in Form von
Flächenelementen 50 perspektivisch dargestellt. So ist ein entsprechender Zeiger 48 in der Anzeige 30 perspektivisch dargestellt. Die Höhe des Zeigers 48 in Bezug zu dem Auswahlelement 50 kann durch den Abstand des Fingers zu dem Bedienflächenelement geändert werden. In diesem Bedienmodus ist es auch möglich, dass entsprechende Auswahlelemente 50 ausgewählt werden, in der Darstellung angehoben werden und verschoben werden.
Fig. 9 zeigt eine weitere Anzeige 30 der Anzeige einer Bedienvorrichtung in dem dritten Bedienmodus. Die Anzeige 30 zeigt eine erweiterte Tastatur. Die Darstellung dieser Tastatur ist in zwei Bereiche 52 und 54 unterteilt. Dabei kann eine erste Taste 56, die in dem ersten Bereich 52 angeordnet ist, dadurch bedient werden, dass der Finger auf dem Bedienflächenelement positioniert wird. Eine zweite Taste 58, die in dem zweiten Bereich 54 angeordnet ist, kann dadurch bedient werden, dass der Finger zu dem
Bedienflächenelement in einem vorgegebenen Abstand positioniert wird.
Obgleich die vorliegende Erfindung vorhergehend anhand von Ausführungsbeispielen beschrieben worden ist, versteht es sich, dass verschiedene Ausgestaltungen und Änderungen durchgeführt werden können, ohne den Umfang der vorliegenden Erfindung zu verlassen, wie er in den beiliegenden Ansprüchen definiert ist.
Bezüglich weiterer Merkmale und Vorteile der vorliegenden Erfindung wird ausdrücklich auf die Offenbarung der Zeichnung verweisen.

Claims

Patentansprüche
1. Bedienvorrichtung (10) für ein Kraftfahrzeug, mit der eine durch zumindest einen Finger (20) ausgeführte Bedieneingabe erfassbar ist, mit
einer Sendeeinheit (12) zum Senden eines Signals zu dem Finger (20),
einer Empfangseinheit (14) zum Empfangen eines von dem Finger (20) reflektierten Signals,
einem Bedienflächenelement (18), in Bezug zu dem der Finger (20) zum Ausführen einer Bedieneingabe räumlich positionierbar ist, und
einer Auswerteeinheit (16) zum Bestimmen einer räumlichen Position des Fingers (20) in Bezug zu dem Bedienflächenelement (18) anhand des empfangenen Signals.
2. Bedienvorrichtung (10) nach Anspruch 1 , dadurch gekennzeichnet, dass das Bedienflächenelement (18) für das Signal durchlässig ist und die Sendeeinheit (12) und die Empfangseinheit (14) an einer dem Finger (20) abgewandten Seite des
Bedienflächenelements (18) angeordnet sind.
3. Bedienvorrichtung (10) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Sendeeinheit (12) Licht, insbesondere im infraroten Wellenlängenbereich, als das Signal sendet.
4. Bedienvorrichtung (10) nach einem der Ansprüche 1 bis 3, dadurch
gekennzeichnet, dass die Auswerteeinheit (16) die Position des Fingers (20) anhand einer Laufzeit des Signals bestimmt.
5. Bedienvorrichtung (10) nach einem der Ansprüche 1 bis 4, dadurch
gekennzeichnet, dass die Auswerteeinheit (16) die Position des Fingers (20) anhand einer Intensität des empfangenen Signals bestimmt.
6. Bedienvorrichtung (10) nach einem der Ansprüche 1 bis 5, gekennzeichnet durch zumindest zwei Empfangseinheiten (14), die in einer Erstreckungsrichtung parallel zu einer Haupterstreckungsrichtung des Bedienflächenelements (18) beabstandet angeordnet sind.
7. Bedienvorrichtung (10) nach einem der Ansprüche 1 bis 6, gekennzeichnet durch eine Mehrzahl von Sendeeinheiten (12) und eine Mehrzahl von Empfangseinheiten (14), die in einer ersten Erstreckungsrichtung und in einer zu der ersten Erstreckungsrichtung senkrecht verlaufenden zweiten Erstreckungsrichtung parallel zu einer
Haupterstreckungsrichtung des Bedienflächenelements (18) angeordnet sind.
8. Bedienvorrichtung (10) nach einem der Ansprüche 1 bis 7, gekennzeichnet durch eine Sensoreinheit zum Erfassen eines Berührens des Bedienflächenelements (18) mit dem Finger (20).
9. Bedienvorrichtung (10) nach Anspruch 8, dadurch gekennzeichnet, dass die Sendeeinheit (12) und die Empfangseinheit (14) in Abhängigkeit von einem Signal der Sensoreinheit zum Bestimmen der Position des Fingers (20) aktivierbar sind.
10. Bedienvorrichtung (10) nach einem der Ansprüche 1 bis 9, gekennzeichnet durch einen Aktor zum Ausgeben eines haptischen Signals an den das
Bedienflächenelement (18) berührenden Finger (20).
11. Verfahren zum Bedienen einer Bedienvorrichtung (10) für ein Kraftfahrzeug, mit der eine durch zumindest einen Finger (20) durchgeführte Bedieneingabe in Bezug zu einem Bedienflächenelement (18) erfasst wird, wobei in einem ersten Bedienmodus mit der Bedieneingabe anhand eines auf einem der Bedienvorrichtung (10) zugeordneten Anzeigeelement (30) spezifisch dargestellten Inhalts eine Bedienung durchgeführt wird, gekennzeichnet durch
Bereitstellen von zumindest einem zweiten Bedienmodus der Bedienvorrichtung (10), und
Auswählen eines der Bedienmodi, so dass der Inhalt auf dem Anzeigeelement (30) entsprechend dem ausgewählten Bedienmodus der Bedienvorrichtung (10) spezifisch dargestellt wird.
12. Verfahren nach Anspruch 11 , dadurch gekennzeichnet, dass in dem ersten Bedienmodus ein auf dem Anzeigeelement (30) dargestelltes Auswahlelement durch eine auf dem Bedienflächenelement (18) durchgeführte Wischbewegung des Fingers (20) in eine Richtung des Auswahlelements ausgewählt wird.
13. Verfahren nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass in dem zweiten Bedienmodus ein Zeiger (48) in einem einem Auswahlelement zugeordneten Bereich durch Bewegen des Fingers (20) auf dem Bedienflächenelement (18) positioniert wird und das Auswahlelement durch Drücken auf das Bedienflächenelement (18) mit dem Finger (20) ausgewählt wird.
14. Verfahren nach einem der Ansprüche 11 bis 13, dadurch gekennzeichnet, dass in dem zweiten Bedienmodus durch das Bewegen des Fingers (20) auf dem
Bedienflächenelement (18) Schriftzeichen in ein Textverarbeitungsprogramm der Bedienvorrichtung (10) eingegeben werden.
15. Verfahren nach einem der Ansprüche 11 bis 14, dadurch gekennzeichnet, dass in einem dritten Bedienmodus der Bedienvorrichtung (10) die auf dem Anzeigeelement (30) dargestellten Auswahlelemente perspektivisch dargestellt werden und ein auf dem Anzeigeelement (30) dargestellter Zeiger (48) in Abhängigkeit von dem Abstand des Fingers (20) zu dem Bedienflächenelement (18) in dieser Darstellung bezüglich einer Höhe geändert wird.
16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass in dem dritten Bedienmodus der auf dem Anzeigeelement (30) dargestellte Bereich in Abhängigkeit von dem Abstand des Fingers (20) zu dem Bedienflächenelement (18) in seiner Größe geändert wird.
17. Verfahren nach Anspruch 15 oder 16 dadurch gekennzeichnet, dass in dem dritten Bedienmodus zumindest eine erste Funktionseinheit des Kraftfahrzeugs in Abhängigkeit von dem Abstand des Fingers (20) zu dem Bedienflächenelement (18) und gleichzeitig zumindest eine zweite Funktionseinheit des Kraftfahrzeugs in Abhängigkeit von einer Bewegung des Fingers (20) entlang einer Erstreckungsrichtung parallel zur Haupterstreckungsrichtung des Bedienflächenelements (18) bedient wird.
18. Verfahren nach einem der Ansprüche 15 bis 17, dadurch gekennzeichnet, dass in dem dritten Bedienmodus zumindest ein erstes der Auswahlelemente bedient wird, falls der Finger (20) auf dem Bedienflächenelement (18) positioniert wird und/oder zumindest ein zweites der Auswahlelemente bedient wird, falls der Finger (20) in einem
vorgegebenen Abstand zu dem Bedienflächenelement (18) positioniert wird.
EP12769598.9A 2011-09-08 2012-09-06 Bedienvorrichtung für ein kraftfahrzeug und verfahren zum bedienen der bedienvorrichtung für ein kraftfahrzeug Withdrawn EP2754016A1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE201110112565 DE102011112565A1 (de) 2011-09-08 2011-09-08 Verfahren zum Bedienen einer Bedienvorrichtung für ein Kraftfahrzeug
DE102011112567.5A DE102011112567B4 (de) 2011-09-08 2011-09-08 Bedienvorrichtung für ein Kraftfahrzeug
PCT/EP2012/003732 WO2013034294A1 (de) 2011-09-08 2012-09-06 Bedienvorrichtung für ein kraftfahrzeug und verfahren zum bedienen der bedienvorrichtung für ein kraftfahrzeug

Publications (1)

Publication Number Publication Date
EP2754016A1 true EP2754016A1 (de) 2014-07-16

Family

ID=47002815

Family Applications (1)

Application Number Title Priority Date Filing Date
EP12769598.9A Withdrawn EP2754016A1 (de) 2011-09-08 2012-09-06 Bedienvorrichtung für ein kraftfahrzeug und verfahren zum bedienen der bedienvorrichtung für ein kraftfahrzeug

Country Status (4)

Country Link
US (1) US20140236454A1 (de)
EP (1) EP2754016A1 (de)
CN (1) CN103782259A (de)
WO (1) WO2013034294A1 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103246070B (zh) * 2013-04-28 2015-06-03 青岛歌尔声学科技有限公司 具有手势控制功能的3d眼镜及其手势控制方法
US9934451B2 (en) 2013-06-25 2018-04-03 Microsoft Technology Licensing, Llc Stereoscopic object detection leveraging assumed distance
KR20150092561A (ko) * 2014-02-05 2015-08-13 현대자동차주식회사 차량용 제어 장치 및 차량
CA2939545C (en) * 2014-02-13 2018-11-27 William Lawrence Chapin Soliton traveling wave air mattresses
DE102014008484A1 (de) 2014-06-07 2015-12-17 Daimler Ag Verfahren zum Betreiben einer Bedienanordnung für ein Kraftfahrzeug
EP3007050A1 (de) * 2014-10-08 2016-04-13 Volkswagen Aktiengesellschaft Anwenderschnittstelle und Verfahren zur Anpassung einer Menüleiste auf einer Anwenderschnittstelle
CN104866196A (zh) * 2015-05-28 2015-08-26 惠州华阳通用电子有限公司 一种大屏幕车载系统的数值调节方法及装置
DE102016103722A1 (de) * 2015-07-01 2017-01-05 Preh Gmbh Optische Sensorvorrichtung mit zusätzlicher kapazitiver Sensorik
CN105404396B (zh) * 2015-12-09 2018-02-06 江苏天安智联科技股份有限公司 一种基于红外感应手势识别的车载设备
DE102017113661B4 (de) * 2017-06-21 2021-03-04 Bcs Automotive Interface Solutions Gmbh Kraftfahrzeugbedienvorrichtung
CN110119242A (zh) * 2019-05-06 2019-08-13 维沃移动通信有限公司 一种触控方法、终端及计算机可读存储介质
US11188157B1 (en) 2020-05-20 2021-11-30 Meir SNEH Touchless input device with sensor for measuring linear distance
KR20230109201A (ko) * 2022-01-12 2023-07-20 현대모비스 주식회사 적어도 하나의 센서를 이용하여 사용자 위치를 인식하는 방법 및 장치

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7084859B1 (en) * 1992-09-18 2006-08-01 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US8228305B2 (en) * 1995-06-29 2012-07-24 Apple Inc. Method for providing human input to a computer
US8482535B2 (en) * 1999-11-08 2013-07-09 Apple Inc. Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US20080122799A1 (en) * 2001-02-22 2008-05-29 Pryor Timothy R Human interfaces for vehicles, homes, and other applications
DE102007015681A1 (de) * 2007-03-31 2008-10-02 Daimler Ag Bedienelement für Kraftfahrzeuge
DE102007043515A1 (de) * 2007-09-12 2009-03-19 Volkswagen Ag Anzeige- und Bedienvorrichtung
DE102008051757A1 (de) * 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
US20100315413A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
KR101091515B1 (ko) * 2009-09-14 2011-12-08 대성전기공업 주식회사 차량의 원격 터치 패드 장치 및 그 제어 방법
CN102043465A (zh) * 2009-10-12 2011-05-04 三星电机株式会社 触觉反馈装置和电子装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2013034294A1 *

Also Published As

Publication number Publication date
WO2013034294A1 (de) 2013-03-14
US20140236454A1 (en) 2014-08-21
CN103782259A (zh) 2014-05-07

Similar Documents

Publication Publication Date Title
EP2754016A1 (de) Bedienvorrichtung für ein kraftfahrzeug und verfahren zum bedienen der bedienvorrichtung für ein kraftfahrzeug
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
EP2016480B1 (de) Optoelektronische vorrichtung zur erfassung der position und/oder bewegung eines objekts sowie zugehöriges verfahren
EP2451672B1 (de) Verfahren und vorrichtung zum bereitstellen einer benutzerschnittstelle in einem fahrzeug
EP2338106B1 (de) Multifunktionsanzeige- und bediensystem sowie verfahren zum steuern eines solchen systems mit optimierter grafischer bediendarstellung
EP1840522B1 (de) Navigationsgerät und Verfahren zum Betreiben eines Navigationsgeräts
EP3507681B1 (de) Verfahren zur interaktion mit bildinhalten, die auf einer anzeigevorrichtung in einem fahrzeug dargestellt werden
DE102014116292A1 (de) System zur Informationsübertragung in einem Kraftfahrzeug
EP2643746B1 (de) Bedienvorrichtung
DE102015211358A1 (de) Eingabevorrichtung für fahrzeuge und fahrzeugcockpitmodul
WO2013104389A1 (de) Verfahren und vorrichtung zum bedienen von funktionen in einem fahrzeug unter verwendung von im dreidimensionalen raum ausgeführten gesten sowie betreffendes computerprogrammprodukt
WO2013034287A2 (de) Bedienanordnung für ein kraftfahrzeug und verfahren zum bedienen der bedienanordnung für ein kraftfahrzeug
EP2121372A1 (de) Berührungslos altivierbare anzeige- und bedienvorrichtung
DE102013000066A1 (de) Zoomen und Verschieben eines Bildinhalts einer Anzeigeeinrichtung
EP3377359A1 (de) Kraftfahrzeug mit zumindest einer radareinheit
DE102013000069B4 (de) Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung
DE102014224898A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102011112567B4 (de) Bedienvorrichtung für ein Kraftfahrzeug
WO2014108160A2 (de) Bedienschnittstelle zum berührungslosen auswählen einer gerätefunktion
DE102011112565A1 (de) Verfahren zum Bedienen einer Bedienvorrichtung für ein Kraftfahrzeug
DE102015117386B4 (de) Verfahren und Vorrichtung zur Aktivierung eines Eingabebereiches auf einer kapazitiven Eingabefläche
DE102008023890A1 (de) Bedieneinrichtung mit einer Anzeigeeinrichtung sowie Verfahren zu ihrem Betrieb
DE102020201735A1 (de) Vorrichtung und Verfahren zur Erkennung von Berührungsbefehlen
DE102012021252A1 (de) Bedienvorrichtung und Verfahren zum Ansteuern von Funktionseinheiten und Kraftfahrzeug
DE102018108503A1 (de) Einbaueinheit für ein Fahrzeug

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20140211

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20170401