WO2024046612A1 - Steuern einer funktion an bord eines kraftfahrzeugs - Google Patents

Steuern einer funktion an bord eines kraftfahrzeugs Download PDF

Info

Publication number
WO2024046612A1
WO2024046612A1 PCT/EP2023/067345 EP2023067345W WO2024046612A1 WO 2024046612 A1 WO2024046612 A1 WO 2024046612A1 EP 2023067345 W EP2023067345 W EP 2023067345W WO 2024046612 A1 WO2024046612 A1 WO 2024046612A1
Authority
WO
WIPO (PCT)
Prior art keywords
gesture
person
motor vehicle
control
available
Prior art date
Application number
PCT/EP2023/067345
Other languages
English (en)
French (fr)
Inventor
Etienne Iliffe-Moon
Iris Koser
Original Assignee
Bayerische Motoren Werke Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke Aktiengesellschaft filed Critical Bayerische Motoren Werke Aktiengesellschaft
Publication of WO2024046612A1 publication Critical patent/WO2024046612A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture

Definitions

  • the present invention relates to the control of a function on board a motor vehicle.
  • the invention relates to improved gesture control.
  • a function on board a motor vehicle can be controlled by executing a predetermined gesture by a user on a touch-sensitive surface.
  • the surface can be attached to a selector lever for a gear level and a driver of the motor vehicle can carry out a function to be controlled by swiping or dragging or can enter letters of text using appropriate gestures.
  • Another approach provides for a multifunction switch that is provided in the area of a center console and that allows various movements, for example turning and moving.
  • An actuation force of the switch can be dynamically controlled in order to provide variable force feedback depending on a function to be controlled.
  • An object underlying the present invention is to provide an improved technology for controlling a function on board a motor vehicle. This task is solved by the subject matter of the applicable independent claims. Subclaims reflect preferred embodiments.
  • a method for controlling a function on board a motor vehicle comprises steps of detecting a first gesture of a person on board the motor vehicle; where the first Gesture includes pointing with two outstretched fingers; providing the person with a visual indication of an available control function; detecting a second gesture of the person, the second gesture being performed with the extended fingers; and controlling an available control function depending on the second gesture.
  • a gesture generally involves moving the two fingers in a predetermined manner to provide an input.
  • the gesture can also be called a sign.
  • Two fingers of the same hand of the person are used and more preferably two adjacent fingers on the hand.
  • a gesture with fewer or more than two fingers can be accepted or rejected in different embodiments.
  • Fingers other than a thumb are preferably used.
  • Pointing may include physical contact with a predetermined object, such as a surface of an input device, or pointing, which may optionally be performed with a movement toward the object being pointed at.
  • Ends of the two fingers can be spaced apart in a predetermined manner to perform the gesture or sign.
  • the ends can be at a distance of at least approximately 1.5 cm or a maximum of approximately 5 cm from one another.
  • the two fingers can be fully extended or curved to a predetermined extent.
  • it can be crucial that the positions of the ends of the two fingers can be determined separately in space.
  • Another finger on the same hand may be more strongly curved and, in particular, angled, retracted or curled. This can also apply to the thumb.
  • less common finger combinations are also possible, for example with two non-adjacent fingers, where one of the fingers can be a thumb, or with two fingers of different hands of the person.
  • the exact selection of fingers and, if necessary, in which position other fingers should be can be predetermined.
  • a gesture that does not meet the predetermined criteria can be rejected, optionally with a reference to the criterion not being met.
  • the first gesture can initiate the operation of a system on board the motor vehicle and can be universal for a variety of systems or their control functions.
  • the second gesture is preferably carried out or determined with respect to the visual cue.
  • the notice is preferably designed to inform the user about available control functions.
  • the control functions or their associated visual cues can be spatially arranged and the second gesture can be evaluated with regard to the spatial arrangement. Different control functions can be operated or selected in different ways and the visual indication can provide graphic information about the operation or selection.
  • the two gestures can also be given by the person fluently or consecutively.
  • the first and second gestures can thus merge into just one movement that the user performs in the motor vehicle in order to carry out the control function.
  • such an integrated movement can always be traced back to a series of the first and second gestures described herein.
  • HVAC heating, ventilation, air conditioning
  • entertainment system a window regulator, a seat adjustment, a convertible top, a communication system or a sunroof.
  • Settings for the vehicle or one of its systems can also be controlled in this way.
  • the system to be controlled may be determined based on a location within the motor vehicle where the first gesture is performed. For example, if the gesture takes place in the area of a ventilation system, this can be determined as the system to be controlled. However, the gesture takes place in the area of a side window, then a window regulator can be determined as the system. In a further embodiment, a system can be determined in which direction the user faces while performing the first gesture. A location of a system can be determined in terms of a classic control element for the user, for example a switch or rotary knob, or in terms of a user-related location of provision, in the example of the ventilation system, for example an air nozzle.
  • a control element, a metaphor or an avatar may be provided for the person's system using artificial reality or augmented reality means.
  • the first gesture can be evaluated with reference to the respective artificial element.
  • the system to be controlled may be determined based on the position and/or direction of the first gesture with respect to the artificial element.
  • the system to be controlled or a control function provided by the system is related to an interior of the motor vehicle.
  • control of a function that affects movement of the motor vehicle is preferably not controllable using gestures.
  • the first gesture can be determined with reference to a visual output device.
  • the visual cue can be provided on the output device.
  • the output device can also include an input device, for example in the form of a touch-sensitive screen.
  • the first gesture may include touching the device, such as a tap or tap. For this purpose, it is preferred that both fingers come into contact with the device at a predetermined maximum time distance. Contact may be temporary or may continue once established. In one embodiment, the gesture is accepted when the contact reaches a predetermined duration.
  • the visual indication of the available control function can be provided at the location where the contact occurred.
  • control functions are available.
  • the visual cue can be given to all or part of the control functions. For example, if more control functions are available than can be meaningfully displayed on a display area of the output device, a predetermined number of instructions can be output and a section can be displayed using the second gesture the control functions can be changed and in particular shifted with respect to a predetermined arrangement.
  • One of the indicated control functions can be selected based on the second gesture.
  • the second gesture may include, for example, sliding, pointing, tapping or tapping.
  • a control function can be selected by releasing contact with one or both fingers at a corresponding location on the display surface.
  • a control function can also be selected in a hierarchical network of control functions. For example, a section of available control functions can be changed by dragging or swiping and one of the control functions can be selected by tapping or pressing.
  • the selected control function affects the representation of further control functions, from which one can then be selected in the same way.
  • an available control function includes setting a value in a predetermined range of values or selecting an element of an ordered list.
  • the second gesture can then include pushing or pulling.
  • a current value or a selected element can be changed depending on the movement with respect to the displayed range of values or the displayed ordered list.
  • a value range can be formed by two predetermined temperatures, between which a target temperature of an HVAC system can be set. While pushing or pulling, a numerical indication of a represented value, in the given example the target temperature, can be output on the output device.
  • an ordered list may involve business cards or other personal or business contact information arranged alphabetically by the names of represented people.
  • the items in the list may concern, for example, albums, songs or artists.
  • a business card can be selected in the ordered list by dragging or sliding.
  • several control functions are available and a spatial orientation of the second gesture is exclusively assigned to each of the available control functions. For example, a first control function can be controlled using a vertical gesture and a second using a horizontal gesture. This can also be done simultaneously, for example by the vertical gesture controlling the volume of a playback and the horizontal gesture controlling its content, for example by selecting a radio station.
  • More than two directions of movement can be assigned to as many control functions, with preferably only one of the control functions being able to be selected at a time using the second gesture.
  • the direction in which the gesture runs can be predetermined and include all spatial directions and their combinations, for example away from the person or towards them or in a single or double diagonal direction.
  • one of the control functions can be selected based on a pointing second gesture.
  • Pointing may include touching the surface of the display device so that a tapping or tapping may occur.
  • the actual triggering or selection of the control function can be carried out when touching or only when the touch is removed.
  • This variant is particularly suitable for selecting one of several options that are mutually exclusive (like a radio button) or individually optional (like a checkbox).
  • one of the control functions may be selected based on a number of repeated second gestures.
  • a first option can be selected by a single second gesture, a second by a double second gesture, and a third by a triple second gesture.
  • the second gesture can in particular include a knock or tap. This variant is particularly suitable because of mutually exclusive options (radio button).
  • Gestures from different people on board the motor vehicle are preferably treated independently of one another.
  • a gesture started by a first person and continued by a second person can be discarded.
  • a first gesture by a first person may be continued by a second gesture by a second person on board.
  • first and second gestures of a first person can be evaluated independently of first and second gestures of a second person.
  • a gesturing person can be recognized.
  • a person can be assigned a predetermined area of an input device, so that in one embodiment several people can use an input device at the same time.
  • a control device for controlling a function on board a motor vehicle comprises a gesture sensor for detecting a first gesture of a person on board the motor vehicle; a visual output device; and a processing facility.
  • the processing device is set up to detect a first gesture of the person, the first gesture comprising pointing with two outstretched fingers; provide a visual indication to the person of an available control function; determine a second gesture of the person, the second gesture being performed with the extended fingers; and to control an available control function depending on the second gesture.
  • the processing device can be set up to carry out a method described herein in whole or in part.
  • the processing device can be designed electronically and include, for example, a programmable microcomputer or microcontroller and the method can be in the form of a computer program product with program code means.
  • the computer program product can also be stored on a computer-readable data carrier. Additional features or advantages of the method can be transferred to the device or vice versa.
  • a motor vehicle includes a control device described herein.
  • the motor vehicle can in particular include a passenger car, a truck or a bus.
  • Figure 1 shows a control device on board a motor vehicle
  • Figure 2 is a flowchart of a method
  • Figure 3 shows an exemplary control of a function
  • Figure 4 shows an exemplary arrangement of possible operating elements for a second gesture
  • Figure 5 shows an exemplary control of a function by selecting a value in a predetermined range
  • Figure 6 illustrates an example control of a function by selecting an element in an ordered list.
  • Figure 1 shows a control device 100 on board a motor vehicle 105.
  • a control device 100 on board a motor vehicle 105.
  • an interior 110 of the motor vehicle 105 there are one or more two people 115, here for example a driver 120 and a passenger 125.
  • the control device 100 comprises a processing device 130, which is preferably connected to at least one sensor 135 and more preferably to an output device 140.
  • an interface 145 is preferably provided for connection to one or more systems 150 on board the motor vehicle 105.
  • the sensor 130 is set up to detect a gesture from a person 115.
  • a gesture of a person 115 preferably includes a movement with two fingers, which can be in a predetermined position. Positions of one or more other fingers can also be predetermined.
  • a sensor 130 may include, for example, a camera, a LiDAR sensor, an ultrasonic sensor, or a radar sensor.
  • the sensor 130 can be part of an input device and, for example, comprise a touch-sensitive surface.
  • the input device can, for example, comprise a capacitively or resistively scanned area.
  • Several sensors 130 can also work together to determine the position of a finger to determine, for example a haptic and an optical sensor such as a camera.
  • the output device 140 is set up to provide visual information and can include, for example, a monitor, a head-up display or a projector. In one embodiment, the output device 140 is combined with an input device that forms a sensor 130, for example in the form of a touch-sensitive screen. The output device 140 can be assigned to one of the users 115. In one embodiment, the output device 140 is set up to display virtual reality or mixed reality content.
  • a system 150 is set up to provide a predetermined function on board the motor vehicle 105.
  • a control function of a system 150 may relate to the function itself or the way in which the function is provided.
  • a system 150 may include an entertainment system, and example control functions may include volume, balance, audio source used, output device used, or display quality.
  • Other exemplary systems 150 include a ventilation system (HVAC), lighting, a navigation system, or a seat adjustment.
  • HVAC ventilation system
  • Figure 2 shows a flowchart of a method 200 for controlling a function on board the motor vehicle 105.
  • the method 200 can be carried out using a control device 100.
  • a first predetermined gesture is detected.
  • the first gesture is performed by a person 115 with two fingers, whereby a posture of the fingers and/or a posture of other fingers can be predetermined.
  • a context of the first gesture can be determined.
  • the context may include the use of one of the systems 150, a predetermined driving situation or a predetermined activity of the person 115 on board the motor vehicle 105.
  • the context may also include a location or direction where the second gesture occurs.
  • a step 215 the system 150 to be controlled can be determined.
  • the specific context can be taken into account.
  • the person 115 may be presented with a visual indication of the particular features available.
  • the hint can include, for example, a scale, one or more symbols or a stylized input element such as a slider, a button or a checkbox.
  • the information is usually provided in one or more dimensions by means of the output device 140.
  • the notice may remain displayed for a predetermined duration even if the person 115 completes the first gesture or remains in the first gesture. After the predetermined duration has elapsed, the notice can be removed and the method 200 can run again from the beginning, as indicated by the broken line.
  • a second gesture of the person 115 can be determined.
  • the second gesture may be evaluated with reference to the visual cue and may include, for example, tapping, tapping, pushing, rotating or pulling.
  • the second gesture can be evaluated with reference to the visual cue, so that the person 115 can, for example, operate a displayed virtual control surface using the second gesture.
  • a control function of the system 150 may be influenced in a manner that is dependent on the second gesture.
  • the second gesture can include selecting an element, setting or deleting an option, assigning or setting an analog value.
  • an affected control function of the system 150 can be selected or influenced in the manner described, for example by setting an operating parameter.
  • the second gesture may be completed when the person 115 removes their fingers performing the gesture from the input device or, if a touchable input device is not used, withdraws their fingers.
  • the end of the second gesture can be determined and the control function can be triggered or parameterized. If the person changes their intention, the input can be canceled between the first and second gesture. To do this, either the second gesture can not be given for longer than a predetermined time or a predetermined second gesture can be given, for example a swipe down or in a circle.
  • FIG. 3 shows an exemplary control of a function of a system 150 on board the motor vehicle 105.
  • the person 115 taps or taps on an input device, which in the present example is implemented as a touch-sensitive screen integrated with the output device 140.
  • the described embodiment can easily be transferred to the use of another output device 140. As shown, typing or tapping can be done with just one or both outstretched fingers of one hand.
  • a step 310 follows in which the visual indication of available control functions is provided.
  • the notice may be overlaid on another representation of the output device 140.
  • the notice may be displayed at a location on a display area of the output device 140 that is dependent on a location where the first gesture occurred.
  • a control element can be displayed in the same place, i.e. under the fingers of the person 115. This variant can be used advantageously, for example, if the control element is to be actuated by moving along the display area. The user 115 then does not have to remove his fingers from the display area to perform a subsequent second gesture.
  • a control element can also be displayed in a predetermined manner offset from the location of the first gesture so that the fingers do not cover the control element.
  • three control elements are shown above the fingers of the person 115, which can control playback of music using an entertainment system.
  • This display variant can be particularly intuitive for selecting an option in the manner of a checkbox or radio button.
  • the person can move one or both fingers to a displayed control element and point to it. During the Movement, the fingers can touch or be placed on the surface of the input device.
  • the second gesture may end when the person 115 puts down or withdraws his fingers.
  • step 305 is followed by step 315, in which a value that relates to the execution of a function of a system 150 can be changed.
  • two functions can be influenced at the same time, one of them through a horizontal movement and the other through a vertical movement. Areas in which a corresponding movement is evaluated are shown with broken lines. The areas can optionally be displayed on the output device 140 for the person 115. A vertical area can follow a horizontal movement or a horizontal area can follow a vertical movement.
  • step 305 can be followed by a step 320, in which a one-dimensional adjustment of a value can take place, here for example in the vertical direction.
  • Figure 4 shows an exemplary arrangement of possible control elements for a second gesture on an output device 140.
  • a vertical control element 405 can be operated by pushing or pulling and can, for example, be used, in particular, to continuously change a value in a predetermined range or to select an element from an ordered list be used.
  • a horizontal control element 410 can be used in a corresponding manner.
  • a third control element 415 can display a status, for example in symbolic or numerical form, or can be set up for tapping or tapping operation. The status can also be provided acoustically or haptically, for example. In one embodiment, a state or discrete selection may be changed linearly or cyclically when the control 415 is tapped or tapped.
  • One or more optional fourth controls 420 may each allow selection from a predetermined set. Each element of the set can be assigned a symbol or other identifier that can be displayed in the control element 420. For example, an element can be selected by tapping or knocking. Optionally, multiple controls 420 can be combined to display an enlarged selection of elements from the set. Sub-elements can also be displayed on one of the control elements 420, for example one or more horizontal or vertical control elements 405, 410.
  • Figure 5 shows an exemplary control of a function by selecting a value in a predetermined range.
  • the range can be predetermined by a lowest and a highest value.
  • a currently selected value can be visualized linearly like a slider or thermometer. By moving the slider or a value displayed by the thermometer up, the value can be increased; by sliding it down, the value can be decreased.
  • the value can also be represented in textual or numerical form, as can be seen in an upper right area.
  • a symbol is also shown for a parameter that is currently being influenced.
  • the symbol in Figure 5 is an example of a volume that can be changed on an exemplary scale from 0 to 99.
  • Figure 6 shows an exemplary control of a function by selecting an element in an ordered list.
  • a predetermined sequence of elements 605 is shown in the vertical direction on the output device 140.
  • the elements 605 are included in a preferably ordered list 610.
  • An order of elements 605 in the list 610 may be determined by properties of the elements 605, for example a numeric or alphanumeric value. Alternatively, the order can also be determined or specified in another way.
  • Control elements 615 can be provided to change the section. In this case, the section in the list 610 can be moved. The shifting can be done by one or more elements 605 at a time.
  • an element 605 in the area of the fingers can be shown enlarged, for example improved by the person 115 to provide additional information or details about the element 605 or to prevent relevant parts of the element 605 from being obscured by a finger of the person 115.
  • Adjacent elements 605 can be shown enlarged by a smaller amount to enable a smooth transition. Properties of such a magnifying glass function or other display options can be predetermined or adjustable by a user.
  • the present invention can enable simple, intuitive and comprehensive operation of control functions on board a motor vehicle 105.
  • a user may simply need to learn how to perform the first gesture with a predetermined hand position.
  • Executing the second gesture can be done in a context-sensitive manner and supported by the hint provided.
  • the execution of one of the gestures can be provided with additional feedback.
  • electrical or acoustic feedback can be provided, for example to represent a set analog value.
  • Feedback can also be provided using vibrations. In this way, the person can differentiate between different control elements 405 - 420 by touch.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Ein Verfahren (200) zum Steuern einer Funktion an Bord eines Kraftfahrzeugs (105), umfasst Schritte des Erfassens einer erste Geste einer Person (115) an Bord des Kraftfahrzeugs (105); wobei die erste Geste ein Zeigen mit zwei ausgestreckten Fingern umfasst; des Bereitstellens eines visuellen Hinweises auf eine verfügbare Steuerfunktion an die Person (115); des Erfassens einer zweiten Geste der Person (115), wobei die zweite Geste mit den ausgestreckten Fingern ausgeführt wird; und des Steuerns einer verfügbaren Steuerfunktion in Abhängigkeit der zweiten Geste.

Description

Steuern einer Funktion an Bord eines Kraftfahrzeugs
Die vorliegende Erfindung betrifft die Steuerung einer Funktion an Bord eines Kraftfahrzeugs. Insbesondere betrifft die Erfindung eine verbesserte Gestensteuerung.
Eine Funktion an Bord eines Kraftfahrzeugs kann gesteuert werden, indem eine vorbestimmte Geste durch einen Benutzer auf einer berührungsempfindlichen Oberfläche ausgeführt wird. Beispielsweise kann die Oberfläche an einem Wählhebel für eine Gangstufe angebracht sein und ein Fahrer des Kraftfahrzeugs kann eine zu steuernde Funktion mittels Wischen oder Ziehen ausführen oder Lettern eines Texts durch entsprechende Gesten eingeben.
Ein anderer Ansatz sieht einen Multifunktionsschalter vor, der im Bereich einer Mittelkonsole bereitgestellt ist und der verschiedene Bewegungen erlaubt, beispielsweise Drehen und Verschieben. Dabei kann eine Betätigungskraft des Schalters dynamisch gesteuert werden, um in Abhängigkeit einer zu steuernden Funktion eine variable Kraftrückmeldung (force feedback) bereitzustellen.
Bestehende Bedienkonzepte sind für eine Person an Bord des Kraftfahrzeugs aber oft nicht offensichtlich und müssen erst erlernt werden. Das Auswählen und Steuern einer Funktion kann aufwändig und fehleranfällig sein. Häufig erfordert das Steuern einer Funktion einen komplexen Ablauf von Eingaben. Die Person kann sich übermäßig auf das Steuern der Funktion konzentrieren müssen, sodass im Fall eines Fahrers dessen Aufmerksamkeit zum Führen des Kraftfahrzeugs reduziert sein kann.
Eine der vorliegenden Erfindung zugrunde liegende Aufgabe besteht in der Angabe einer verbesserten Technik zur Steuerung einer Funktion an Bord eines Kraftfahrzeugs. Diese Aufgabe wird gelöst durch die Gegenstände der geltenden unabhängigen Ansprüche. Unteransprüche geben bevorzugte Ausführungsformen wieder.
Nach einem ersten Aspekt der vorliegenden Erfindung umfasst ein Verfahren zum Steuern einer Funktion an Bord eines Kraftfahrzeugs, Schritte des Erfassens einer erste Geste einer Person an Bord des Kraftfahrzeugs; wobei die erste Geste ein Zeigen mit zwei ausgestreckten Fingern umfasst; des Bereitstellens eines visuellen Hinweises auf eine verfügbare Steuerfunktion an die Person; des Erfassens einer zweiten Geste der Person, wobei die zweite Geste mit den ausgestreckten Fingern ausgeführt wird; und des Steuerns einer verfügbaren Steuerfunktion in Abhängigkeit der zweiten Geste.
Eine Geste umfasst allgemein eine Bewegung der beiden Finger in einer vorbestimmten Weise, um eine Eingabe zu tätigen. Die Geste kann auch als Gebärde bezeichnet werden. Üblicherweise werden zwei Finger derselben Hand der Person verwendet und weiter bevorzugt zwei benachbarte Finger an der Hand. Eine Geste mit weniger oder mehr als zwei Fingern kann in unterschiedlichen Ausführungsformen akzeptiert oder verworfen werden. Bevorzugt werden andere Finger als ein Daumen verwendet. Das Zeigen kann einen physischen Kontakt mit einem vorbestimmten Objekt, beispielsweise einer Oberfläche einer Eingabeeinrichtung, umfassen oder ein Deuten, das optional mit einer Bewegung in Richtung des Objekts ausgeführt sein kann, auf das gedeutet wird.
Enden der beiden Finger können zur Durchführung der Geste oder Gebärde in einer vorbestimmten Weise voneinander beabstandet sein. Beispielsweise können die Enden zur Erkennung einer Geste einen Abstand von wenigstens ca. 1 ,5 cm oder maximal ca. 5 cm voneinander haben. Die beiden Finger können vollständig ausgestreckt oder bis zu einem vorbestimmten Maß gekrümmt sein. Für die Erkennung der Geste kann es entscheidend sein, dass Positionen der Enden der beiden Finger separat voneinander im Raum bestimmt werden können. Ein anderer Finger derselben Hand kann stärker gekrümmt und insbesondere abgewinkelt, eingezogen oder eingerollt sein. Dies kann auch für den Daumen gelten.
In anderen Ausführungsformen sind auch weniger übliche Fingerkombinationen möglich, beispielsweise mit zwei nicht benachbarte Fingern, wobei einer der Finger ein Daumen sein kann, oder mit zwei Fingern unterschiedlicher Hände der Person. Die genaue Auswahl von Fingern und gegebenenfalls in welcher Stellung sich andere Finger befinden sollen, kann vorbestimmt werden. Eine Geste, welche die vorbestimmten Kriterien nicht erfüllt, kann verworfen werden, optional unter Angabe eines Hinweises auf das nicht erfüllte Kriterium. Die erste Geste kann die Bedienung eines Systems an Bord des Kraftfahrzeugs einleiten und für eine Vielzahl Systeme oder deren Steuerfunktionen universell sein. Die zweite Geste wird bevorzugt bezüglich des visuellen Hinweises ausgeführt bzw. bestimmt. Der Hinweis ist bevorzugt dazu eingerichtet, den Benutzer über verfügbare Steuerfunktionen zu informieren. Dazu können die Steuerfunktionen bzw. deren zugeordneten visuellen Hinweise räumlich angeordnet sein und die zweite Geste kann bezüglich der räumlichen Anordnung ausgewertet werden. Unterschiedliche Steuerfunktionen können auf unterschiedliche Weise bedient bzw. ausgewählt werden und der visuelle Hinweis kann grafisch über die Bedienung bzw. Auswahl informieren.
Die beiden Gesten können durch die Person auch fließend oder aneinander anschließend gegeben werden. So können die erste und die zweite Geste zu nur einer Bewegung verschmelzen, die der Benutzer im Kraftfahrzeug vollführt, um die Steuerfunktion auszuführen. Konzeptionell kann eine solche integrierte Bewegung jedoch stets auf eine Aneinanderreihung der hierin beschriebenen ersten und zweiten Gesten zurückgeführt werden.
An Bord des Kraftfahrzeugs können mehrere Systeme vorgesehen sein, die jeweils eine oder mehrere Steuerfunktionen bereitstellen. Die verfügbare Steuerfunktion kann in Abhängigkeit eines zu steuernden Systems an Bord des Kraftfahrzeugs bestimmt werden. Das zu steuernde System kann aus einem Kontext einer Interaktion der Person mit dem Kraftfahrzeug bestimmt werden. Beispielsweise kann dasjenige System bestimmt werden, mit dem der Benutzer zuletzt interagiert hat oder das er zuvor ausgewählt oder bedient hat. Beispielhafte Systeme umfassen ein Lüftungssystem (HVAC: heating, ventilation, air conditioning), ein Unterhaltungssystem, einen Fensterheber, eine Sitzverstellung, ein Verdeck, ein Kommunikationssystem oder Schiebedach. Auch Einstellungen für das Fahrzeug oder eines seiner Systeme können auf diese Weise gesteuert werden.
Das zu steuernde System kann auf der Basis eines Orts innerhalb des Kraftfahrzeugs bestimmt werden, an dem die erste Geste ausgeführt wird. Findet die Geste beispielsweise im Bereich eines Lüftungssystems statt, so kann dieses als zu steuerndes System bestimmt werden, erfolgt die Geste hingegen im Bereich eines Seitenfensters, so kann ein Fensterheber ais System bestimmt werden. In einer weiteren Ausführungsform kann ein System bestimmt werden, in dessen Richtung der Benutzer weist, während er die erste Geste ausführt. Ein Ort eines Systems kann bezüglich eines klassischen Bedienelements für den Benutzer bestimmt werden, beispielsweise eines Schalters oder Drehknopfs, oder bezüglich eines benutzerbezogenen Erbringungsorts, im Beispiel des Lüftungssystems etwa eine Luftdüse.
In einer weiteren Ausführungsform kann ein Bedienelement, eine Metapher oder ein Avatar für das System der Person mit Mitteln der künstlichen Realität (artificial reality) oder erweiterten Realität (augmented reality) bereitgestellt sein. In diesem Fall kann die erste Geste mit Bezug auf das jeweilige künstliche Element ausgewertet werden. Das zu steuernde System kann auf der Basis der Position und/oder Richtung der ersten Geste bezüglich des künstlichen Elements bestimmt werden.
Es ist allgemein bevorzugt, dass das zu steuernde System bzw. eine durch das System bereitgestellte Steuerfunktion auf einen Innenraum des Kraftfahrzeugs bezogen ist. Eine Steuerung einer Funktion, die eine Bewegung des Kraftfahrzeugs betrifft, ist aus Sicherheitsgründen bevorzugt nicht per Gesten steuerbar.
Die erste Geste kann mit Bezug auf ein visuelles Ausgabegerät bestimmt werden. Der visuelle Hinweis kann auf dem Ausgabegerät bereitgestellt werden. Das Ausgabegerät kann auch ein Eingabegerät umfassen, beispielsweise in Form eines berührungsempfindlichen Bildschirms. Die erste Geste kann ein Berühren des Geräts umfassen, beispielsweise ein Tippen oder Klopfen. Dazu ist bevorzugt, dass beide Finger in einem vorbestimmten zeitlichen Maximalabstand Kontakt zu dem Gerät finden. Der Kontakt kann vorübergehend sein oder nach dem Herstellen fortgesetzt werden. In einer Ausführungsform wird die Geste akzeptiert, wenn der Kontakt eine vorbestimmte Dauer erreicht. Der visuelle Hinweis auf die verfügbare Steuerfunktion kann an der Stelle bereitgestellt werden, an welcher der Kontakt erfolgte.
Üblicherweise sind mehrere Steuerfunktionen verfügbar. Der visuelle Hinweis kann auf alle oder einen Teil der Steuerfunktionen gegeben werden. Sind beispielsweise mehr Steuerfunktionen verfügbar als sinnvoll auf einer Anzeigefläche des Ausgabegeräts darstellbar sind, so kann eine vorbestimmte Anzahl Hinweise ausgegeben werden und mittels der zweiten Geste kann ein gezeigter Ausschnitt der Steuerfunktionen verändert und insbesondere bezüglich einer vorbestimmten Anordnung verschoben werden. Eine der hingewiesenen Steuerfunktionen kann auf der Basis der zweiten Geste ausgewählt werden. Die zweite Geste kann beispielsweise ein Schieben, Zeigen, Tippen oder Klopfen umfassen. Eine Steuerfunktion kann ausgewählt werden, indem an einer korrespondierenden Stelle der Anzeigefläche ein Kontakt eines oder beider Finger gelöst wird.
Mittels unterschiedlicher zweiter Gesten kann eine Steuerfunktion auch in einem hierarchischen Geflecht von Steuerfunktionen ausgewählt werden. Beispielsweise kann mittels Ziehen oder Wischen ein Ausschnitt verfügbarer Steuerfunktionen verändert und mittels Tippen oder Drücken eine der Steuerfunktionen ausgewählt werden. Optional betrifft die ausgewählte Steuerfunktion die Darstellung weiterer Steuerfunktionen, unter denen dann auf dieselbe Weise eine ausgewählt werden kann.
Das vorgestellte Verfahren kann sich zur Auswahl einer Steuerfunktion auf verschiedene Weisen eignen. In einer Ausführungsform umfasst eine verfügbare Steuerfunktion das Setzen eines Werts in einem vorbestimmten Wertebereich o- der die Auswahl eines Elements einer geordneten Liste. Die zweite Geste kann dann ein Schieben oder Ziehen umfassen. Ein aktueller Wert bzw. ein ausgewähltes Element kann in Abhängigkeit der Bewegung bezüglich des dargestellten Wertebereichs oder der dargestellten geordneten Liste geändert werden.
Beispielsweise kann ein Wertebereich durch zwei vorbestimmten Temperaturen gebildet sein, zwischen denen eine Zieltemperatur eines HVAC-Systems eingestellt werden kann. Während des Schiebens oder Ziehens kann eine numerische Angabe eines repräsentierten Werts, im gegebenen Beispiel der Zieltemperatur, auf dem Ausgabegerät ausgegeben werden. In einem weiteren Beispiel kann eine geordnete Liste kann Visitenkarten oder andere persönliche oder geschäftliche Kontaktinformationen betreffen, die alphabetisch nach den Namen repräsentierter Personen geordnet sind. In einem anderen Beispiel können die Elemente der Liste beispielsweise Alben, Lieder oder Interpreten betreffen. Durch Ziehen oder Schieben kann eine Visitenkarte in der geordneten Liste ausgewählt werden. In einer weiteren Ausführungsform sind mehrere Steuerfunktionen verfügbar und jeder der verfügbaren Steuerfunktionen ist eine räumliche Ausrichtung der zweiten Geste exklusiv zugeordnet. Beispielsweise kann eine erste Steuerfunktion mittels einer vertikalen und eine zweite mittels einer horizontalen Geste gesteuert werden. Dies kann auch gleichzeitig erfolgen, beispielsweise indem die vertikale Geste eine Lautstärke einer Wiedergabe und die horizontale Geste ihren Inhalt steuert, etwa durch Wahl eines Radiosenders.
Mehr als zwei Bewegungsrichtungen können ebenso vielen Steuerfunktionen zugeordnet sein, wobei vorzugsweise nur eine der Steuerfunktionen zu einem Zeitpunkt mittels der zweiten Geste ausgewählt werden kann. Die Richtung, in der die Geste dazu verläuft, kann vorbestimmt sein und alle Raumrichtungen und ihre Kombinationen umfassen, also auch beispielsweise von der Person weg o- der auf sie zu oder in einfach oder zweifach diagonaler Richtung.
Sind mehrere Steuerfunktionen verfügbar, so kann eine der Steuerfunktionen auf der Basis einer zeigenden zweiten Geste ausgewählt werden. Das Zeigen kann ein Berühren der Oberfläche der Anzeigevorrichtung umfassen, sodass ein Klopfen oder Tippen entstehen kann. Auch in dieser Ausführungsform kann das tatsächliche Auslösen bzw. Auswählen der Steuerfunktion beim Berühren oder erst beim Trennen der Berührung übernommen werden. Diese Variante eignet sich besonders für die Auswahl einer von mehreren Optionen, die gegenseitig ausschließend (nach Art eines Radiobutton) oder einzeln optional (nach Art einer Checkbox) sind.
Sind mehrere Steuerfunktionen verfügbar, so kann eine der Steuerfunktionen auf der Basis einer Anzahl wiederholter zweiter Gesten ausgewählt wird. Beispielsweise kann eine erste Option durch eine einfache zweite Geste, eine zweite durch eine zweifache zweite Geste und eine dritte durch eine dreifache zweite Geste ausgewählt werden. Die zweite Geste kann in diesem Fall insbesondere ein Klopfen oder Tippen umfassen. Diese Variante eignet sich besonders durch gegenseitig ausschließende Optionen (Radiobutton).
Gesten verschiedener Personen an Bord des Kraftfahrzeugs werden bevorzugt voneinander unabhängig behandelt. Eine Geste, die von einer ersten Person begonnen und von einer zweiten Person fortgesetzt wird, kann verworfen werden. In einer anderen Ausführungsform kann eine erste Geste einer ersten Person durch eine zweite Geste einer zweiten Person an Bord fortgesetzt werden. Alternativ können erste und zweite Gesten einer ersten Person unabhängig von ersten und zweiten Gesten einer zweiten Person ausgewertet werden. Zur Unterscheidung verschiedener Eingaben kann eine Erkennung einer gestikulierenden Person durchgeführt werden. Optional kann einer Person ein vorbestimmter Bereich eines Eingabegeräts zugeordnet sein, sodass in einer Ausführungsform mehrere Personen ein Eingabegerät nebenläufig verwenden können.
Nach einem weiteren Aspekt der vorliegenden Erfindung umfasst eine Steuervorrichtung zur Steuerung einer Funktion an Bord eines Kraftfahrzeugs einen Gestensensor zur Erfassung einer erste Geste einer Person an Bord des Kraftfahrzeugs; eine visuelles Ausgabegerät; und eine Verarbeitungseinrichtung. Dabei ist die Verarbeitungseinrichtung dazu eingerichtet, eine erste Geste der Person zu erfassen, wobei die erste Geste ein Zeigen mit zwei ausgestreckten Fingern umfasst; einen visuellen Hinweis auf eine verfügbare Steuerfunktion an die Person bereitzustellen; eine zweite Geste der Person zu bestimmen, wobei die zweite Geste mit den ausgestreckten Fingern ausgeführt wird; und eine verfügbare Steuerfunktion in Abhängigkeit der zweiten Geste zu steuern.
Die Verarbeitungseinrichtung kann dazu eingerichtet sein, ein hierin beschriebenes Verfahren ganz oder teilweise auszuführen. Dazu kann die Verarbeitungseinrichtung elektronisch ausgeführt sein und beispielsweise einen programmierbaren Mikrocomputer oder Mikrocontroller umfassen und das Verfahren kann in Form eines Computerprogrammprodukts mit Programmcodemitteln vorliegen.
Das Computerprogrammprodukt kann auch auf einem computerlesbaren Datenträger abgespeichert sein. Merkmale oder Vorteile des Verfahrens können auf die Vorrichtung übertragen werden oder umgekehrt.
Nach noch einem weiteren Aspekt der vorliegenden Erfindung umfasst ein Kraftfahrzeug eine hierin beschriebene Steuervorrichtung. Das Kraftfahrzeug kann insbesondere einen Personenkraftwagen, einen Lastkraftwagen oder einen Omnibus umfassen. Die Erfindung wird nun mit Bezug auf die beigefügten Zeichnungen genauer beschrieben, in denen:
Figur 1 eine Steuervorrichtung an Bord eines Kraftfahrzeugs;
Figur 2 ein Ablaufdiagramm eines Verfahrens;
Figur 3 eine beispielhafte Steuerung einer Funktion;
Figur 4 eine beispielhafte Anordnung möglicher Bedienelemente für eine zweite Geste;
Figur 5 eine beispielhafte Steuerung einer Funktion durch Auswahl eines Werts in einem vorbestimmten Bereich; und
Figur 6 eine beispielhafte Steuerung einer Funktion durch Auswahl eines Elements in einer geordneten Liste illustriert.
Figur 1 zeigt eine Steuervorrichtung 100 an Bord eines Kraftfahrzeugs 105. In einem Innenraum 110 des Kraftfahrzeugs 105 befinden sich eine oder mehrere zwei Personen 115, hier beispielhaft ein Fahrer 120 und ein Beifahrer 125.
Die Steuervorrichtung 100 umfasst eine Verarbeitungseinrichtung 130, die vorzugsweise mit wenigstens einem Sensor 135 und weiter vorzugsweise mit einem Ausgabegerät 140 verbunden ist. Außerdem ist bevorzugt eine Schnittstelle 145 zur Verbindung mit einem oder mehreren Systemen 150 an Bord des Kraftfahrzeugs 105 vorgesehen.
Der Sensor 130 ist dazu eingerichtet, eine Geste einer Person 115 zu erfassen. Bevorzugt können mehrere Personen 120, 125 voneinander unterschieden werden. Eine Geste einer Person 115 umfasst bevorzugt eine Bewegung mit zwei Fingern, die sich in einer vorbestimmten Stellung befinden können. Stellungen eines oder mehrerer anderer Finger können ebenfalls vorbestimmt sein. Ein Sensor 130 kann beispielsweise eine Kamera, einen LiDAR-Sensor, einen Ultraschallsensor oder einen Radarsensor umfassen. In einer weiteren Ausführungsform kann der Sensor 130 Teil einer Eingabeeinrichtung sein und beispielsweise eine berührungsempfindliche Fläche umfassen. Die Eingabeeinrichtung kann beispielsweise eine kapazitiv oder resistiv abgetastete Fläche umfassen. Es können auch mehrere Sensoren 130 Zusammenwirken, um eine Position eines Fingers zu bestimmen, beispielsweise ein haptischer und ein optischer Sensor wie eine Kamera.
Das Ausgabegerät 140 ist zur Bereitstellung visueller Informationen eingerichtet und kann beispielsweise einen Monitor, eine Head-Up Anzeige oder einen Projektor umfassen. In einer Ausführungsform ist das Ausgabegerät 140 mit einer Eingabeeinrichtung kombiniert ausgeführt, die einen Sensor 130 bildet, beispielsweise in Form eines berührungsempfindlichen Bildschirms. Das Ausgabegerät 140 kann einem der Benutzer 115 zugeordnet sein. In einer Ausführungsform ist das Ausgabegerät 140 zur Darstellung von Virtual Reality oder Mixed Reality Inhalten eingerichtet.
Ein System 150 ist zur Bereitstellung einer vorbestimmten Funktion an Bord des Kraftfahrzeugs 105 eingerichtet. Eine Steuerfunktion eines Systems 150 kann die Funktion selbst oder die Art, wie die Funktion erbracht wird, betreffen. Beispielsweise kann ein System 150 ein Unterhaltungssystem umfassen und beispielhafte Steuerfunktionen können eine Lautstärke, eine Balance, eine verwendete Audio- Quelle, eine verwendete Ausgabeeinrichtung oder eine Darstellungsqualität umfassen. Weitere beispielhafte Systeme 150 umfassen eine Lüftungsanlage (HVAC), eine Beleuchtung, ein Navigationssystem oder eine Sitzverstellung.
Figur 2 zeigt ein Ablaufdiagramm eines Verfahrens 200 zum Steuern einer Funktion an Bord des Kraftfahrzeugs 105. Das Verfahren 200 kann mittels einer Steuervorrichtung 100 ausgeführt werden.
In einem Schritt 205 wird eine erste vorbestimmte Geste erfasst. Die erste Geste wird durch eine Person 115 mit zwei Fingern ausgeführt, wobei eine Haltung der Finger und/oder eine Haltung anderer Finger vorbestimmt sein kann. In einem Schritt 210 kann ein Kontext der ersten Geste bestimmt werden. Der Kontext kann die Benutzung eines der Systeme 150, eine vorbestimmte Fahrsituation o- der eine vorbestimmte Tätigkeit der Person 115 an Bord des Kraftfahrzeugs 105 umfassen. Der Kontext kann auch einen Ort oder eine Richtung umfassen, an dem die zweite Geste stattfindet.
In einem Schritt 215 kann in zu steuerndes System 150 bestimmt werden. Dazu kann der bestimmte Kontext berücksichtigt werden. In einem Schritt 220 können eine oder mehrere verfügbare Steuerfunktionen des ausgewählten Systems 150 bestimmt werden. Dieser Schritt kann dynamisch erfolgen, sodass eine Steuerfunktion, die aktuell nicht verfügbar ist, nicht bestimmt wird. Außerdem kann eine Reihenfolge von Steuerfunktionen bestimmt werden, wobei die Reihenfolge eine Benutzerpräferenz oder eine Wahrscheinlichkeit der Auswahl durch die Person 115 reflektieren kann.
In einem Schritt 225 kann der Person 115 ein visueller Hinweis auf die bestimmten verfügbaren Funktionen angezeigt werden. Der Hinweis kann beispielsweise eine Skala, eines oder mehrere Symbole oder ein stilisiertes Eingabeelement wie einen Schieber, eine Taste oder eine Kontrollbox (Checkbox) umfassen. Der Hinweis wird üblicherweise mittels der Ausgabeeinrichtung 140 ein- oder mehrdimensional bereitgestellt. Der Hinweis kann über eine vorbestimmte Dauer angezeigt bleiben, auch wenn die Person 115 die erste Geste beendet oder in der ersten Geste verharrt. Nach Ablauf der vorbestimmten Dauer kann der Hinweis entfernt werden und das Verfahren 200 kann vom Anfang erneut durchlaufen, wie durch die unterbrochene Linie angedeutet ist.
In einem Schritt 230 kann eine zweite Geste der Person 115 bestimmt werden. Die zweite Geste kann mit Bezug auf den visuellen Hinweis ausgewertet werden und beispielsweise ein Tippen, Klopfen, Schieben, Drehen oder Ziehen umfassen. Die zweite Geste kann mit Bezug auf den visuellen Hinweis ausgewertet werden, sodass die Person 115 mittels der zweiten Geste beispielsweise eine dargestellte virtuelle Steuerfläche bedienen kann.
In einem Schritt 235 kann eine Steuerfunktion des Systems 150 in einer Weise beeinflusst werden, die von der zweiten Geste abhängig ist. So kann die zweite Geste beispielsweise eine Auswahl eines Elements, ein Setzen oder Löschen einer Option, eine Zuordnung oder ein Einstellen eines analogen Werts umfassen. In entsprechender Weise kann eine betroffene Steuerfunktion des Systems 150 ausgewählt oder in der beschriebenen Weise beeinflusst werden, etwa durch Setzen eines Betriebsparameters.
Die zweite Geste kann beendet sein, wenn die Person 115 ihre Finger, mit denen sie die Geste ausführt, von der Eingabevorrichtung nimmt oder, falls keine berührbare Eingabevorrichtung verwendet wird, ihre Finger zurückzieht. In einem Schritt 240 kann das Ende der zweiten Geste bestimmt und die Steuerfunktion ausgelöst bzw. parametrisiert werden. Sollte die Person ihre Intention ändern, so kann zwischen der ersten und der zweiten Geste ein Abbruch der Eingabe erfolgen. Dazu kann entweder die zweite Geste länger als eine vorbestimmte Zeit nicht gegeben oder eine vorbestimmte zweite Geste gegeben werden, beispielsweise ein Wischen nach unten oder im Kreis.
Figur 3 zeigt eine beispielhafte Steuerung einer Funktion eines Systems 150 an Bord des Kraftfahrzeugs 105. In einem Schritt 305 tippt oder klopft die Person 115 auf eine Eingabevorrichtung, die im vorliegenden Beispiel integriert mit dem Ausgabegerät 140 als berührungsempfindlicher Bildschirm realisiert ist. Die beschriebene Ausführungsbeispiel kann leicht an die Verwendung eines anderen Ausgabegeräts 140 übertragen werden. Das Tippen oder Klopfen kann wie dargestellt mit nur einem oder mit beiden ausgestreckten Fingern einer Hand erfolgen.
In einer Ausführungsform folgt ein Schritt 310, in welchem der visuelle Hinweis auf verfügbare Steuerfunktionen bereitgestellt wird. Es ist zu beachten, dass der Hinweis einer anderen Darstellung des Ausgabegeräts 140 überlagert werden kann. Der Hinweis kann an einer Stelle auf einer Anzeigefläche des Ausgabegeräts 140 angezeigt werden, der von einer Stelle abhängig ist, an der die erste Geste erfolgt ist. Beispielsweise kann ein Bedienelement an derselben Stelle, also unter den Fingern der Person 115, dargestellt werden. Diese Variante kann beispielsweise vorteilhaft genutzt werden, wenn das Bedienelement mittels einer Bewegung entlang der Darstellungsfläche betätigt werden soll. Der Benutzer 115 muss dann seine Finger nicht von der Anzeigefläche nehmen, um eine nachfolgende zweite Geste zu vollführen.
Ein Bedienelement kann auch in einer vorbestimmten Weise versetzt zur Stelle der ersten Geste dargestellt werden, sodass die Finger das Bedienelement nicht verdecken. Beispielhaft sind im Schritt 310 über den Fingern der Person 115 drei Bedienelemente dargestellt, die eine Wiedergabe von Musik mittels eines Unterhaltungssystems steuern können. Diese Darstellungsvariante kann insbesondere zur Auswahl einer Option nach Art einer Checkbox oder eines Radiobuttons intuitiv sein. Um eine Auswahl zu tätigen kann die Person einen oder beide Finger an ein dargestelltes Bedienelement bewegen und auf dieses deuten. Während der Bewegung können die Finger die Oberfläche der Eingabevorrichtung berühren oder abgesetzt werden. Die zweite Geste kann enden, wenn die Person 115 ihre Finger absetzt oder zurückzieht.
In einer anderen Variante folgt auf den Schritt 305 ein Schritt 315, in welchem ein Wert, der die Ausführung einer Funktion eines Systems 150 betrifft, verändert werden kann. Vorliegend sind zwei Funktionen gleichzeitig beeinflussbar, eine davon durch eine horizontale und eine andere durch eine vertikale Bewegung. Mit unterbrochenen Linien sind Bereiche dargestellt, in denen eine entsprechende Bewegung ausgewertet wird. Die Bereiche können optional auf des Ausgabegeräts 140 für die Person 115 dargestellt werden. Ein vertikaler Bereich kann einer horizontalen Bewegung folgen oder ein horizontaler Bereich einer vertikalen Bewegung.
In noch einer weiteren Variante kann auf den Schritt 305 ein Schritt 320 erfolgen, in dem eine eindimensionale Verstellung eines Werts erfolgen kann, hier beispielhaft in vertikaler Richtung.
Figur 4 zeigt eine beispielhafte Anordnung möglicher Bedienelemente für eine zweite Geste auf einem Ausgabegerät 140. Ein vertikales Bedienelement 405 kann schiebend oder ziehend betätigt werden und kann beispielsweise zur insbesondere kontinuierlichen Veränderung eines Werts in einem vorbestimmten Bereich oder für die Auswahl eines Elements aus einer geordneten Liste verwendet werden. In entsprechender Weise kann ein horizontales Bedienelement 410 verwendet werden. Ein drittes Bedienelement 415 kann einen Status anzeigen, beispielsweise in symbolischer oder numerischer Form, oder zur Tippenden oder Klopfenden Betätigung eingerichtet sein. Der Status kann auch beispielsweise akustisch oder haptisch bereitgestellt werden. In einer Ausführungsform kann ein Zustand oder eine diskrete Auswahl linear oder zyklisch verändert werden, wenn auf das Bedienelement 415 getippt oder geklopft wird.
Eines oder mehrere optionale vierte Bedienelemente 420 können jeweils eine Auswahl aus einer vorbestimmten Menge erlauben. Jedem Element der Menge kann ein Symbol oder eine andere Kennzeichnung zugeordnet sein, das im Bedienelement 420 dargestellt werden kann. Ein Element kann beispielsweise durch Tippen oder Klopfen ausgewählt werden. Optional können mehrere Bedienelemente 420 zusammengenommen werden, um eine vergrößerte Auswahl Elemente aus der Menge darzustellen. Auf einem der Bedienelemente 420 können auch Unterelemente dargestellt werden, beispielsweise eines oder mehrere horizontale oder vertikale Bedienelemente 405, 410.
Figur 5 zeigt eine beispielhafte Steuerung einer Funktion durch Auswahl eines Werts in einem vorbestimmten Bereich. Der Bereich kann durch einen niedrigsten und einen höchsten Wert vorbestimmt sein. Ein aktuell ausgewählter Wert kann nach Art eines Schiebereglers oder Thermometers linear visualisiert sein. Durch Schieben des Schiebereglers oder eines durch das Thermometer angezeigten Werts nach oben kann der Wert erhöht, durch ein Schieben nach unten verringert werden. Der Wert kann beispielsweise auch in textueller oder numerischer Form wiedergegeben werden, wie in einem oberen rechten Bereich zu sehen ist. Beispielhaft ist zusätzlich ein Symbol für einen Parameter dargestellt, der gerade beeinflusst wird. Das Symbol von Figur 5 steht exemplarisch für eine Lautstärke, die auf einer beispielhaften Skala von 0 bis 99 verändert werden kann.
Figur 6 zeigt eine beispielhafte Steuerung einer Funktion durch Auswahl eines Elements in einer geordneten Liste. Beispielhaft ist auf dem Ausgabegerät 140 in vertikaler Richtung eine vorbestimmte Abfolge von Elementen 605 dargestellt. Die Elemente 605 sind von einer bevorzugt geordneten Liste 610 umfasst. Eine Reihenfolge von Elementen 605 in der Liste 610 kann durch Eigenschaften der Elemente 605 bestimmt sein, beispielsweise einen numerischen oder alphanumerischen Wert. Alternativ kann die Reihenfolge auch auf andere Weise bestimmt beziehungsweise vorgegeben sein.
Auf dem Ausgabegerät 140 kann nur ein vorbestimmter Ausschnitt aus der Liste 610 dargestellt werden. Zur Veränderung des Ausschnitts können Bedienelemente 615 vorgesehen sein. Vorliegend kann damit der Ausschnitt in der Liste 610 verschoben werden. Das Verschieben kann um jeweils eines oder jeweils mehrere Elemente 605 erfolgen.
In der dargestellten Ausführungsform kann ein Element 605 im Bereich der Finger vergrößert dargestellt werden, beispielsweise um der Person 115 verbessert zusätzliche Informationen oder Details über das Element 605 bereitzustellen oder ein Verdecken relevanter Anteile des Elements 605 durch einen Finger der Person 115 zu verhindern. Benachbarte Elemente 605 können um einen geringeren Betrag vergrößert dargestellt werden, um einen fließenden Übergang zu ermöglichen. Eigenschaften einer solchen Lupenfunktion oder andere Darstellungsoptionen können vorbestimmt oder durch einen Benutzer einstellbar sein.
Die vorliegende Erfindung kann ein einfaches, intuitives und übergreifendes Bedienen von Steuerfunktionen an Bord eines Kraftfahrzeugs 105 ermöglichen. Ein Benutzer kann lediglich erlernen müssen, wie er die erste Geste mit einer vorbestimmten Handhaltung ausführt. Das Ausführen der zweiten Geste kann kontextsensitiv und unterstützt durch den bereitgestellten Hinweis erfolgen.
In einer Ausführungsform kann die Ausführung einer der Gesten mit einer zusätzlichen Rückmeldung versehen werden. Beispielsweise kann eine elektrische oder akustische Rückmeldung erfolgen, beispielsweise um einen eingestellten analogen Wert zu repräsentieren. Eine Rückmeldung kann auch mittels Vibrationen erfolgen. So kann die Person verschiedene Bedienelemente 405 - 420 tastend voneinander unterscheiden.
Bezugszeichen
100 Steuervorrichtung
105 Kraftfahrzeug
110 Innenraum
115 Person
120 Fahrer
125 Beifahrer
130 Verarbeitungseinrichtung
135 Sensor
140 Ausgabegerät
145 Schnittstelle
150 System
200 Verfahren
205 erste Geste erfassen
210 Kontext bestimmen
215 zu steuerndes System bestimmen
220 verfügbare Funktionen bestimmen
225 Hinweis auf verfügbare Funktionen anzeigen
230 zweite Geste erfassen
235 Funktion zuordnen und Geste auswerten
240 Funktion steuern
305 erster Schritt
310 zweiter Schritt
315 dritter Schritt
320 vierter Schritt
405 vertikales Bedienelement
410 horizontales Bedienelement
415 Bedienelement
420 weiteres Bedienelement
605 Element
610 Liste 615 Bedienelement zur Verschiebung des Ausschnitts

Claims

Ansprüche
1. Verfahren (200) zum Steuern einer Funktion an Bord eines Kraftfahrzeugs (105), wobei das Verfahren (200) folgende Schritte umfasst:
Erfassen (205) einer erste Geste einer Person (115) an Bord des Kraftfahrzeugs (105); wobei die erste Geste ein Zeigen mit zwei ausgestreckten Fingern umfasst;
Bereitstellen (225) eines visuellen Hinweises auf eine verfügbare Steuerfunktion an die Person (115);
Erfassen (230) einer zweiten Geste der Person (115), wobei die zweite Geste mit den ausgestreckten Fingern ausgeführt wird; und
Steuern (240) einer verfügbaren Steuerfunktion in Abhängigkeit der zweiten Geste.
2. Verfahren (200) nach Anspruch 1 , wobei die verfügbare Steuerfunktion in Abhängigkeit eines zu steuernden Systems (150) an Bord des Kraftfahrzeugs (105) bestimmt wird.
3. Verfahren (200) nach Anspruch 2, wobei das zu steuernde System auf der Basis eines Orts innerhalb des Kraftfahrzeugs (105) bestimmt wird, an dem die erste Geste ausgeführt wird.
4. Verfahren (200) nach einem der vorangehenden Ansprüche, wobei die erste Geste mit Bezug auf ein visuelles Ausgabegerät (140) bestimmt wird, und wobei der visuelle Hinweis auf dem Ausgabegerät (140) bereitgestellt wird.
5. Verfahren (200) nach einem der vorangehenden Ansprüche, wobei mehrere Steuerfunktionen verfügbar sind und eine der Steuerfunktionen auf der Basis der zweiten Geste ausgewählt wird.
6. Verfahren (200) nach einem der vorangehenden Ansprüche, wobei eine verfügbare Steuerfunktion das Setzen eines Werts in einem vorbestimmten Wertebereich oder die Auswahl eines Elements einer geordneten Liste umfasst; und die zweite Geste ein Schieben umfasst.
7. Verfahren (200) nach Anspruch 6, wobei mehrere Steuerfunktionen verfügbar sind; wobei jeder der verfügbaren Steuerfunktionen eine räumliche Ausrichtung der zweiten Geste zugeordnet ist.
8. Verfahren (200) nach einem der vorangehenden Ansprüche, wobei mehrere Steuerfunktionen verfügbar sind und eine der Steuerfunktionen auf der Basis einer zeigenden zweiten Geste ausgewählt wird.
9. Verfahren (200) nach einem der vorangehenden Ansprüche, wobei mehrere Steuerfunktionen verfügbar sind und eine der Steuerfunktionen auf der Basis einer Anzahl wiederholter zweiter Gesten ausgewählt wird.
10. Verfahren (200) nach einem der vorangehenden Ansprüche, wobei Gesten verschiedener Personen (115) an Bord des Kraftfahrzeugs (105) voneinander unabhängig behandelt werden.
11 . Steuervorrichtung (100) zur Steuerung einer Funktion an Bord eines Kraftfahrzeugs (105), wobei die Steuervorrichtung (100) folgendes umfasst: einen Gestensensor (135) zur Erfassung einer erste Geste einer Person (115) an Bord des Kraftfahrzeugs (105); ein visuelles Ausgabegerät (140); und eine Verarbeitungseinrichtung (130), die dazu eingerichtet ist:
- eine erste Geste der Person (115) zu erfassen, wobei die erste Geste ein Zeigen mit zwei ausgestreckten Fingern umfasst;
- einen visuellen Hinweis auf eine verfügbare Steuerfunktion an die Person (115) bereitzustellen;
- eine zweite Geste der Person (115) zu bestimmen, wobei die zweite Geste mit den ausgestreckten Fingern ausgeführt wird; und
- eine verfügbare Steuerfunktion in Abhängigkeit der zweiten Geste zu steuern.
PCT/EP2023/067345 2022-08-29 2023-06-26 Steuern einer funktion an bord eines kraftfahrzeugs WO2024046612A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022121742.6 2022-08-29
DE102022121742.6A DE102022121742A1 (de) 2022-08-29 2022-08-29 Steuern einer Funktion an Bord eines Kraftfahrzeugs

Publications (1)

Publication Number Publication Date
WO2024046612A1 true WO2024046612A1 (de) 2024-03-07

Family

ID=87070849

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/067345 WO2024046612A1 (de) 2022-08-29 2023-06-26 Steuern einer funktion an bord eines kraftfahrzeugs

Country Status (2)

Country Link
DE (1) DE102022121742A1 (de)
WO (1) WO2024046612A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012000263A1 (de) * 2012-01-10 2013-07-11 Daimler Ag Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt
US20190302895A1 (en) * 2018-03-27 2019-10-03 Usens Inc. Hand gesture recognition system for vehicular interactive control

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012000263A1 (de) * 2012-01-10 2013-07-11 Daimler Ag Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt
US20190302895A1 (en) * 2018-03-27 2019-10-03 Usens Inc. Hand gesture recognition system for vehicular interactive control

Also Published As

Publication number Publication date
DE102022121742A1 (de) 2024-02-29

Similar Documents

Publication Publication Date Title
EP2750915B1 (de) Verfahren und anordnung zum bereitstellen einer graphischen nutzerschnittstelle, insbesondere in einem fahrzeug
EP2930049B1 (de) Anwenderschnittstelle und Verfahren zur Anpassung einer Ansicht auf einer Anzeigeeinheit
EP2473908B1 (de) Verfahren und vorrichtung zum anzeigen von informationen
EP3574396A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
EP3508968A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
DE102010048745A1 (de) Benutzerschnittstelle und Verfahren zum Bedienen einer Benutzerschnittstelle
EP2340183A1 (de) Anzeige- und bediensystem in einem kraftfahrzeug mit nutzerbeeinflussbarer darstellung von anzeigeobjekten sowie verfahren zum betreiben eines solchen anzeige- und bediensystems
EP3508967B1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
EP3040849B1 (de) Fortbewegungsmittel, Anwenderschnittstelle und Verfahren zur übergreifenden Anzeige eines Anzeigeinhaltes auf zwei Anzeigeeinrichtungen
EP3270278B1 (de) Verfahren zum betreiben eines bediensystems und bediensystem
DE102012011179A1 (de) Vorrichtung zur Bedienung einesKraftfahrzeuges
DE102009037401A1 (de) Fahrzeug mit einer Bedieneinrichtung
EP3426516B1 (de) Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung
EP3347804B1 (de) Bedienvorrichtung mit zeicheneingabe und löschfunktion
WO2017140569A1 (de) Kraftfahrzeug-bedienvorrichtung und verfahren zum betreiben einer bedienvorrichtung, um eine wechselwirkung zwischen einer virtuellen darstellungsebene und einer hand zu bewirken
DE102009059869A1 (de) Verfahren zum Bereitstellen einer Benutzerschnittstelle und Bedienvorrichtung
DE102013105507A1 (de) Verfahren und Vorrichtung zur Bedienung mindestens eines Bildschirms in einem Fahrzeug
DE102012011177A1 (de) Verfahren zur Bedienung von Funktionen einesFahrzeuges sowie entsprechende Vorrichtung
WO2024046612A1 (de) Steuern einer funktion an bord eines kraftfahrzeugs
DE102020003923B3 (de) Bedieneinheit mit einer berührungssensitiven Bedienfläche
EP3025214B1 (de) Verfahren zum betreiben einer eingabevorrichtung, sowie eingabevorrichtung
WO2014072177A1 (de) Verfahren zum anzeigen von informationen in einem fahrzeug und vorrichtung zum steuern der anzeige
EP3364283A1 (de) Bediensystem, verfahren zum bedienen eines bediensystems und ein fahrzeug mit einem bediensystem
DE102012022803A1 (de) Bedienverfahren und Bediensystem in einem Straßenfahrzeug
DE102014014340B4 (de) Bedienvorrichtung, Kraftfahrzeug und Verfahren zum Bedienen einer Bedienvorrichtung für ein Kraftfahrzeug

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23736255

Country of ref document: EP

Kind code of ref document: A1