WO2024126342A1 - Method and system for capturing user inputs - Google Patents

Method and system for capturing user inputs Download PDF

Info

Publication number
WO2024126342A1
WO2024126342A1 PCT/EP2023/085065 EP2023085065W WO2024126342A1 WO 2024126342 A1 WO2024126342 A1 WO 2024126342A1 EP 2023085065 W EP2023085065 W EP 2023085065W WO 2024126342 A1 WO2024126342 A1 WO 2024126342A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
hand
control
user
input surface
Prior art date
Application number
PCT/EP2023/085065
Other languages
German (de)
French (fr)
Inventor
Finn Jacobsen
Sina BUCH
Original Assignee
Gestigon Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gestigon Gmbh filed Critical Gestigon Gmbh
Publication of WO2024126342A1 publication Critical patent/WO2024126342A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/115Selection of menu items
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/141Activation of instrument input devices by approaching fingers or pens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Definitions

  • the present invention relates to a method and a system for detecting user inputs in an input device, in particular in a vehicle.
  • user inputs in a vehicle can be detected without contact.
  • Modern vehicles usually have at least one control unit installed, which the driver of the vehicle or other passengers can use to control various functions. These can be various vehicle or comfort functions, such as settings for the navigation system, the air conditioning, seat settings, lighting settings and the like. Various functions of an infotainment system can also be operated, such as playing music, making phone calls and the like.
  • Conventional control units can be controlled using corresponding control buttons.
  • Modern systems usually have at least one display, which can be located centrally in the dashboard, for example.
  • the individual functions, menus and the like can be shown here.
  • These displays are often touch-sensitive, i.e. they are designed as touchscreens so that the desired function can be controlled by touching the screen.
  • the control elements are designed in such a way that they can be reached and operated with a finger.
  • a function can be called up when the corresponding area of the touch-sensitive screen is touched.
  • Other control options can also be provided, such as holding and dragging a control element, swiping gestures and the like.
  • control units require a touch-sensitive display and are therefore limited in their design.
  • Modern vehicles often have multiple displays and increasingly larger displays.
  • space is limited and the shape of the displays is usually essentially flat and rectangular and they cannot be distributed arbitrarily in a vehicle. They must be accessible to a user with their hand in order to be able to control a function by touch.
  • Other surfaces in the vehicle without a display are not available for user input.
  • it is also known to control certain functions contactlessly using gestures without reference to a display. To do this, a user performs certain predefined gestures in free space, for example in an area of the vehicle cabin above the center console or in front of the dashboard.
  • Gestures in free space can be used to control functions of the infotainment system, for example, or other vehicle functions such as opening and closing a sunroof. While these gestures can be learned, they are performed in free space and a user does not receive immediate feedback, for example where or how exactly a certain gesture should be performed so that it successfully and reliably controls the desired function. Users are therefore often unsure and it can be difficult to perform the gestures correctly until they are recognized by the system.
  • the present invention is based on the object of improving the detection of user inputs in an input device, in particular in a vehicle.
  • contactless detection of user inputs is to be improved.
  • a first aspect of the invention relates to a method, in particular a computer-implemented method, for detecting user inputs in an input device, wherein the input device has an input surface on which a graphical user interface with at least one control element is displayed, and a detection device, wherein the control element is configured such that it is movable within a movement range of the user interface.
  • a user's hand is detected by means of the detection device and a position of the hand in a detection area is determined, wherein the detection area is a three-dimensional spatial area which is assigned to the input surface.
  • the activation region is a part of the detection region which is arranged at a distance from the input surface
  • the control region is a part of the detection region which is arranged between the input surface and the activation region.
  • control element moves with the pointer if it is determined that the pointer is within the movement region on the control element, and (ii) the control element is positioned at an edge of the movement region if it is determined that the pointer is outside the movement region.
  • the aforementioned method according to the first aspect is therefore based in particular on the fact that user inputs are recorded without contact.
  • the position of the hand is determined in a three-dimensional spatial area which is assigned to the input surface, for example a spatial area which is located in front of the input surface.
  • a detection area is divided into two areas.
  • An activation area is arranged at a distance from the input surface.
  • a control can be moved within a defined area on the user interface, ie in a movement area.
  • different types of controls or buttons can be defined, such as sliders or freely movable design elements.
  • the term "user interface” or “graphical user interface” used here refers in particular to a graphical representation of control elements which are linked to a specific function and allow a user to control the function.
  • the user interface (“UI” or “graphical user interface” - GUI) can contain “control elements” (“UI elements”) such as input areas, buttons, symbols, buttons, icons, sliders, toolbars, selection menus and the like which a user can operate, in particular in the sense of the present invention, without touching them.
  • the (graphical) user interface can also be referred to as a (graphical) user interface.
  • motion area refers in particular to an area of the user interface, which can be a part of the user interface or the entire user interface.
  • the motion area is thus a two-dimensional area that defines the movement limits of a movable control element.
  • input surface refers in particular to any surface, in particular in a vehicle, on which the user interface can be represented graphically. It can be a display or a projection surface as described in more detail below.
  • the input surface can have any design. It can be flat, level and rectangular, or have any shape. In particular, a point on the input surface can be described with two-dimensional coordinates.
  • detection device refers in particular to a device that can detect objects in three-dimensional space without contact and determine their position.
  • the detection device can detect and localize a user's hand.
  • optical methods can be used to detect a user's hand in space.
  • the detection device can consist of one part or several parts, which can depend on which detection area is to be covered.
  • one camera can be provided, or several cameras.
  • three-dimensional spatial area refers in particular to an area that can be described by three-dimensional coordinates.
  • a position in the three-dimensional spatial area has unique three-dimensional coordinates.
  • the coordinate system can be chosen arbitrarily.
  • a coordinate system of the detection device can be selected, or a coordinate system relating to the input surface.
  • vehicle refers in particular to a passenger car, including all types of motor vehicles, hybrid and battery-powered electric vehicles, as well as vehicles such as sedans, vans, buses, trucks, delivery vans and the like.
  • the term "function" used here refers in particular to technical features which can be present in a vehicle, for example in the interior, in order to be controlled by a corresponding control system. In particular, these can be functions of the vehicle and/or an infotainment system, such as lighting, audio output (e.g. volume), air conditioning, telephone, etc.
  • infotainment system such as lighting, audio output (e.g. volume), air conditioning, telephone, etc.
  • the terms “comprises,””includes,””has,””includes,””has,””with,” or any other variation thereof, as used herein, are intended to cover non-exclusive inclusion. For example, a method or apparatus that includes or has a list of elements is not necessarily limited to those elements, but may include other elements not expressly listed or that are inherent in such method or apparatus.
  • a condition A or B is satisfied by one of the following conditions: A is true (or exists) and B is false (or absent), A is false (or absent) and B is true (or exists), and both A and B are true (or exists).
  • the term “configured” or “set up” to perform a specific function (and respective modifications thereof) is to be understood in the sense of the invention that the corresponding device is already in a design or setting in which it can perform the function or that it is at least adjustable - i.e. configurable - so that it can perform the function after the corresponding setting.
  • the configuration can be carried out, for example, by setting parameters of a process sequence or switches or the like to activate or deactivate functionalities or settings.
  • the device can have several predetermined configurations or operating modes, so that configuration can be carried out by selecting one of these configurations or operating modes.
  • control element is positioned at a location on the edge of the movement area that is the shortest distance from the pointer. This maintains a relationship between the position of the pointer and the position of the control element even if the control element is not moved beyond the edge of the movement area. This location can also typically correspond to the location on the edge of the movement area at which the pointer left the movement area, or at least be very close to this location.
  • the control is positioned at the edge of the movement area such that it remains completely visible within the movement area. This can prevent the control from disappearing even partially when the pointer is moved out of the movement area, so that operation is made easier at a later time when the control is to be grasped again.
  • This can be solved, for example, by using an anchor point, such as a center of the control, as the position of the control, which must always be spaced from the edge of the movement area by at least half the size of the control (in particular if the anchor point is the center of the control).
  • the control element moves along the edge of the movement area as long as it is determined that the user's hand is in the control area and that the pointer is outside the movement area. It can thus be provided that the control element is not automatically released when the pointer is moved out of the movement area, at least as long as the user's hand is in the control area, i.e. close enough to the input surface.
  • the control element can then, for example, move along the edge of the movement area and be located at a point on the edge that is the smallest distance from the pointer. In this way, the user can still recognize control of the control element, even if the pointer is no longer in the movement area.
  • the control element is positioned at the position of the pointer, ie in particular centered with respect to the pointer, when it is determined that the user's hand enters the control area and when it is determined that the pointer is within the movement area and preferably also on the Control is located.
  • the control can jump to the position of the pointer. If the control is located exactly at the position of the pointer, rather than slightly offset, for example, it can be easier to use.
  • An anchor point such as a center point of the control, can be positioned at the position of the pointer as soon as the user's hand (or fingertip) enters the control area.
  • the position of the pointer on the input surface is determined by orthogonal projection of the position of the hand onto the input surface when the position of the hand is detected in the detection area.
  • the position of the hand in three-dimensional space is mapped to two-dimensional coordinates of the input surface during the (orthogonal) projection.
  • the position of the pointer can be determined by an orthogonal projection of the position of the hand from three-dimensional space onto the two-dimensional input surface.
  • the position of the hand can be defined by a point on the hand that is closest to the input surface, as explained below. This can also be a fingertip that points in the direction of the input surface.
  • it can also be provided to determine a pointing direction of a finger, for example an outstretched index finger, and to determine the position of the pointer on the input surface by extension in the pointing direction.
  • the control area has a base area which contains at least the input surface and the control area extends from the base area to a cover surface, wherein a distance between the base area and the cover surface of the control area corresponds to the distance between the input surface and the activation area.
  • the base area can also correspond substantially to the input surface.
  • the base area and cover surface can be the same size.
  • the control area can be cuboid-shaped with the input surface as the base area. The control area thus directly adjoins the input surface and occupies the space in front of the input surface, in particular on the entire surface of the input surface.
  • the distance can be selected according to the requirements, for example about 2 cm to about 5 cm, such as about 3 cm.
  • control area is the area in the immediate vicinity of the input surface. So if a user moves his hand close to the input surface (or touches it), i.e. into the control area, a function can be controlled. If the hand remains outside the control area, with other In other words, further away than the distance (or “depth” of the control area), there will be no control or “release” of the user interface.
  • the activation area borders the control area, the activation area having a base area that contains at least the top surface of the control area.
  • the base area of the activation area can correspond to the top surface of the control area.
  • the activation area can be cuboid-shaped, for example.
  • the activation area thus forms an area that is further away from the input surface than the control area. If a user approaches the input surface with his hand, his hand will typically first enter the activation area and only then the control area. If the hand is in the activation area, this can be used, for example, to "wake up" the user interface, which can be visually displayed. The user thus receives early feedback before the actual execution of the control if his hand is in the activation area. This can facilitate the subsequent control, since the user can see that his hand has been properly detected, which can facilitate navigation. This can be helpful, especially since the user moves his hand freely in the space in front of the input surface.
  • a distance between the base and the top surface of the activation area is greater than the distance between the input surface and the activation area.
  • the activation area is thus larger than the control area. This means that feedback can be given to the user in a larger area, while the actual control or operation of the user interface takes place in a smaller area near the input surface. Depending on the application, the dimensions can be adjusted accordingly.
  • the activation area can, for example, have a depth of 10 cm or more.
  • the representation of the user interface indicates the position of the pointer when the position of the hand is detected in the detection area.
  • the representation can show the pointer itself, e.g. as a point on the input surface.
  • it can also be provided to display the pointer in another way, for example by highlighting an area in which the pointer is located, such as a button which is located in the area of the pointer. This serves to give the user appropriate feedback as to where the pointer is located on the input surface in order to simplify operation.
  • the area where the pointer is located becomes the focus for the user, so the activation area can also be called the “focus area”.
  • the position of the user's hand is determined as a position of a point on the user's hand that is closest to the input surface.
  • a point on the hand is advantageously selected that represents the position of the hand.
  • any point on the hand can be selected as the position of the hand, such as a center of the hand.
  • the frontmost point of the hand can be considered particularly relevant from the user's perspective for the input on the input surface.
  • detecting the user's hand includes determining whether at least one finger of the hand is pointing in the direction of the input surface.
  • the position of the hand can be arbitrary and the position of the hand can be determined in the detection area as described above. For a more precise determination, however, it can be determined whether the user is extending a finger in the direction of the input surface, for example the index finger. A user can use this hand position intuitively for operation. It can then be provided to control a function only when the user makes a pointing movement, e.g. by extending his index finger. If the user does not make a pointing movement, the control of a function can be suppressed, since in such a case the user may not intend to control a function.
  • Determining the hand position can therefore improve the accuracy of the operation.
  • the position of a fingertip can be determined with greater accuracy. This position can then be assumed to be the relevant position of the hand, in particular if the tip of the extended finger is the point on the hand that is closest to the input surface, as described above.
  • the user interface function is activated when it is determined that the hand enters the control area and deactivated when the hand leaves the control area.
  • a control surface of the graphical user interface can be pressed when the user enters the control area with his hand (or fingertip), that is, comes very close to the input surface. (or touches it).
  • the control surface can then be held, for example. It can then be released when the user withdraws his hand, ie when the hand (or fingertip) leaves the control area.
  • the entry and exit of the hand into the control area can thus be used advantageously for interaction with the user interface. Further possibilities for how different events can be triggered by the position of the hand, or more precisely the distance of the hand from the input surface, are explained below.
  • At least one transition event is further determined.
  • a transition event can be determined when the hand passes from one of the areas to another, i.e. leaves one area and enters another. This can be the case in particular when it is determined that: the hand enters the control area, the hand leaves the control area, the hand enters the activation area, the hand leaves the activation area, the hand leaves the detection area, or the hand enters the detection area. Together with the position on the input surface, i.e. the pointer position as explained above, complete control of the user interface can be implemented in this way.
  • a second aspect of the invention relates to a system for data processing, comprising at least one processor which is configured to carry out the method according to the first aspect of the invention.
  • the system also has at least one display device which is configured to display a graphical user interface on an input surface, and a detection device which is configured to detect a hand of a user in a three-dimensional spatial area and to determine a position of the hand in the three-dimensional spatial area.
  • the display device comprises a projection device which is set up to project a representation of the graphical user interface onto a surface.
  • a projection device which is set up to project a representation of the graphical user interface onto a surface.
  • areas of the dashboard of a vehicle can be used to display the user interface without having to be equipped with a display or the like.
  • Other areas, such as the center console or the A-pillar of a vehicle can also be used flexibly to display the user interface.
  • a projector can be located, for example, in the roof lining, e.g. in the area of the interior mirror. and project the user interface onto any surface, which can then be used as an input surface for contactless control as described above.
  • the display device can also be designed as a display, which, however, does not have to be touch-sensitive in the sense of the invention.
  • the detection device comprises at least one image detection device, in particular a camera.
  • the position of a user's hand in three-dimensional space can be determined in a simple manner using a camera.
  • One camera or several cameras can be provided.
  • the camera can be an infrared camera.
  • the at least one camera is advantageously a time-of-flight camera (ToF camera).
  • TOF camera time-of-flight camera
  • a third aspect of the invention relates to a computer program with instructions which, when executed on a system according to the second aspect, cause the system to carry out the method according to the first aspect.
  • the computer program can in particular be stored on a non-volatile data carrier.
  • a non-volatile data carrier is preferably a data carrier in the form of an optical data carrier or a flash memory module.
  • the computer program can be present as a file on a data processing unit, in particular on a server, and can be downloaded via a data connection, for example the Internet or a dedicated data connection, such as a proprietary or local network.
  • the computer program can have a plurality of interacting individual program modules.
  • the system according to the second aspect can accordingly have a program memory in which the computer program is stored.
  • the system can also be set up to access a computer program that is available externally, for example on one or more servers or other data processing units, via a communication connection, in particular in order to exchange data with this program, which are used during the course of the process or computer program or represent outputs of the computer program.
  • Fig. 1 schematically shows an input device according to an embodiment with an input surface, a display device and a detection device;
  • Fig. 2 schematically shows a three-dimensional view of a detection area in front of an input surface
  • Fig. 3 schematically shows a side view of a detection area in front of a
  • Input interface (hand in focus area);
  • Fig. 4 schematically shows a side view of a detection area in front of a
  • Input interface (hand in control area);
  • Fig. 5 shows schematically a control element with a pointer in different positions
  • Fig. 6 schematically shows a range of motion of a movable control element
  • Fig. 7 schematically shows possible directions of movement of a movable control element
  • Fig. 8a, b, c schematically show the behavior of a movable control element at an edge
  • Fig. 9a, b schematically show the behavior of a movable control element with respect to a pointer.
  • the same reference numerals are used for the same or corresponding elements of the invention.
  • Fig. 1 shows an input device for detecting a user input.
  • a graphical user interface (GUI) is shown on an input surface 1. This can be projected onto the input surface 1 by means of a projector 2.
  • the input surface 1 can also be formed by a screen, such as a conventional display, which does not have to be a touch-sensitive display.
  • any surface can be used to detect proximity, for example any surface in a vehicle.
  • a detection device 3 is provided as a sensor, which detects a user's hand and determines its position in three-dimensional space.
  • the detection device 3 can, for example, be a 3D sensor, such as a time-of-flight camera, or can comprise optical 2D sensors.
  • the system enables the user to touch the input surface 1 (or possibly a screen) if he or she wishes to do so. In this way, a similar experience to conventional touchscreens can be achieved, but with certain differences in behavior. However, control is basically possible without touching.
  • the detection device 3 forms a hand recognition system that detects a person's hand in real time in a suitable field of view (the detection area) with a suitable level of detail. This means that the detection device 3 can be able to detect fingertip positions in a defined 3D world coordinate system (which may or may not coincide with the sensor coordinate system). In addition, it can be provided that a classification is made as to whether or not an extended (pointing) finger is present, i.e. whether a detected hand is currently making a pointing gesture.
  • a control unit (“controller”; not shown) can also be provided that calibrates the system. In particular, the controller knows the physical position and size of the input surface 1 (in world coordinates), so that it can geometrically relate the detection data of a hand (e.g.
  • the controller receives the inputs from the detection system and converts them into suitable inputs for the GUI application.
  • the system enables the user to control a pointer 9 which represents a logical position on the input surface 1 or the user interface 4.
  • the pointer 9 may or may not have a visual appearance. It may, for example, be represented as a point, or it may be invisible per se.
  • the pointer 9 can logically be activated or deactivated at any time. The pointer 9 is deactivated when the hand is not currently in the vicinity of the input surface 1, i.e. outside the detection area 10, is not in a pointing position (so that no pointing finger can be detected) or for other reasons which are not currently detected by the hand detection.
  • the user is provided to control the pointer 9 with a hand 7 that is in a pointing position, i.e. with an extended index finger 8 that is located near the input surface 1.
  • the user can trigger a control (analogous to a mouse click) that is determined by the distance of the hand from the input surface 1.
  • a control analogous to a mouse click
  • the position of the index finger 8, as detected by the detection device 3, determines the position of the pointer 9 on the input surface 1.
  • the finger position is a position in three-dimensional space (detection area 10)
  • the pointer position is a value in two-dimensional space (input surface 1 or screen).
  • a simple and effective variant of the assignment is an orthogonal projection of the position of the hand 7 (i.e. the tip of the index finger 8) onto the input surface 1.
  • the detection device 3 detects a pointing finger 8 and the position of its tip.
  • the position of the pointer 9 can then simply be the orthogonal projection of the position of the fingertip onto the input surface 1. If no pointing finger is detected, the pointer can be deactivated.
  • a further simplified variant of this solution can consist in simply detecting the position of a hand tip, i.e. the frontmost point of the hand in a certain forward direction, and interpreting this as the finger pointing position. If the forward direction is suitably selected (for example orthogonal to the screen or to the input surface 1), then this detected position is actually the index finger position when the user points at the screen. This way, no classification of finger or pointing position is required.
  • the detection device 3 recognizes a pointing finger 8 including its pointing direction.
  • an index finger beam is determined that begins at the lower end of the finger and runs along the finger direction.
  • the pointer position 9 is then the intersection point of the index beam with the input surface 1.
  • this requires that an index finger is reasonably straight and a pointing direction can be assigned. If this is not the case, the recognition system would reject the input and the pointer would be deactivated.
  • the 3D finger position not only determines the pointer position, but also (when interpreted in a temporal context) a control or a trigger that leads to the control of a function.
  • the detection area 10 in front of the input surface 1 can be divided into two three-dimensional spatial areas, which are referred to here as the control area 5 and the activation area 6. In the simplest case, these areas are cuboid-shaped boxes, as shown in Fig. 2.
  • the control area 5 can also be referred to as the “trigger box” and the activation area 6 as the “focus box”. However, these areas can also take on other shapes depending on the shape of the input surface 1.
  • the sizes given are only examples and can vary depending on the circumstances or the application, for example depending on the position and size of the input surface 1, content of the GUI, etc.
  • the base area of the control area 5 corresponds to the input surface 1.
  • the depth of the control area 5 can be chosen appropriately, for example about 2 to 3 cm.
  • the activation area 6 is another area that is located "in front of” or “above” the control area 5 and whose depth can also be chosen appropriately, for example about 10 cm.
  • the hand 7 has a certain approximation state with respect to the input surface 1 and thus the GUI at any time, which can be expressed by the presence or absence of the hand 7 in the detection area 10 or, more precisely, the activation area 6 and the control area 5. This can be one of three defined states, as explained below, and is determined by the position of the index finger 8 (if a pointing hand is detected). If, as shown in Fig.
  • the position of the index finger 8 is in the activation area 6 (the “focus box”), this state can be referred to as “focus”. If, as shown in Fig. 4, the position of the index finger 8 is in the control area 5 (the “trigger box”), this state can be referred to as “trigger”.
  • the “idle” state can be a situation in which the position of the index finger 8 is not in any of the fields, i.e. outside the detection area 10. This is especially true if no hand or index finger is detected at all. It is useful to apply a filter to avoid flickering between the states at times when the detected finger position is close to the box boundaries. A hysteresis, for example, is a suitable filter.
  • the hand input relevant to the system is completely described by the current pointer position (x and y coordinates) and the current approach state (z coordinate).
  • This data a pair of pointer position and approach state, can be referred to as the control state.
  • the information within the control state is conceptually the same as the (relevant) information about the detected hand, but is fully expressed in screen coordinates (or logical, non-geometric information) and no longer depends on the geometric setup and calibration of the system (position of the sensor, etc.). Therefore, the control state is a self-sufficient input to a graphical user interface (GUI) that provides complete information about a pointing device, similar to a mouse or touch input.
  • GUI graphical user interface
  • Particularly relevant for control are the moments in which the state of the approach changes, i.e. when the position of the hand leaves one of the areas and/or enters one of the areas.
  • the (temporal) detection of the hand position can be based on frames, so that a state change of the approach occurs when the control state determined in frame n+1 results in a different state in the approach than the previous frame n. Therefore, the following transition events can be defined, which correspond to state changes and can be relevant for controlling the functions of the user interface.
  • transition event "TriggerStateEnterEvent” is triggered when the state changes to "Trigger”.
  • the transition event “TriggerStateLeaveEvent” is triggered when the state “Trigger” changes to any other state.
  • These two Transition events can be used to select functions, similar to a mouse click or touching a touchscreen. In this way, drag-and-drop functionality can also be implemented. As long as the hand (or the tip of the index finger 8) remains in the control area 5, an object of the user interface is held and then released when the hand 7 leaves the control area 5.
  • the transition event “FocusStateEnterEvent” is triggered when the state changes to "Focus”.
  • the transition event “FocusStateLeaveEvent” is triggered when the state changes from “Focus” to any other state.
  • the transition event “IdleStateEnterEvent” is triggered when the state changes to "Idle”.
  • the transition event “IdleStateLeaveEvent” is triggered when the state changes from "Idle” to any other state.
  • UI elements user interface controls
  • Such feedback is particularly beneficial in a situation where a user is sitting in a vehicle and wants to interact with virtually displayed objects on a dashboard.
  • clickable elements can appear larger and be easily highlighted. If they then move their finger over one of these elements, it can be additionally highlighted by a "hover effect". If they now click on the element, it can visually appear like a real button for clicking down. Over time, the user learns to interact better and better so that their "click" is recognized by the system.
  • acoustic feedback can also be provided, for example various clicking noises.
  • Fig. 5 shows a schematic of a control element 13, which is shown in the form of a round button and is thus visible to a user as part of the user interface 4.
  • the visible area of the control element 13 is surrounded by an area 14.
  • this is square along the x and y coordinates.
  • On the left a situation is shown in which the pointer 9 is outside the control element 13 and in particular also outside the area 14.
  • the control element 13 is not addressed. However, if the pointer 9 is within the area 14, as shown on the right in Fig. 5, the control element 13 is addressed.
  • the pointer 9 is regarded as “on the control element 13” if its position is at least in the area 14.
  • a control element 13 can be moved, for example moved via drag & drop, by a user pressing with a finger 8 on the input surface 1 in the area of the control element 13 (see Fig. 5 and explanations therefor) and executing a swiping movement on the input surface 1.
  • the control element 13 can also be moved if the user has not yet touched the input surface 1.
  • the distance 1 1 to the input surface is defined, as explained in detail above. If the finger 8 (or the fingertip) falls below this distance 1 1 , i.e.
  • Fig. 6 shows a movable control element 13 which can be moved on the user interface 4. The movement of the control element 13 is on the user interface
  • the 4 is limited vertically and horizontally to a movement area 15.
  • the limits 15a, 15b in the vertical and horizontal direction can be defined individually and freely.
  • the area 15 of the possible movement of the control element 13 defined in this way can correspond to the edges of the user interface 4, extend beyond them or only cover a certain (partial) area within the user interface 4.
  • Movable controls (“Ul elements”) can follow the user’s finger as long as the user is near the input surface 1. A movement of the control 13 is triggered when the finger enters the control area 5 (TriggerStateEnterEvent). Depending on the implementation, the finger must remain there for a short time or the movement can start immediately.
  • the finger 8 does not have to touch the input surface 1. In this way, Ul elements can be manipulated and moved with a finger that is close to, but not directly on, the input surface 1.
  • the control 13 By leaving the control area 5 (TriggerStateLeaveEvent), the control 13 is released so that it can no longer be moved and remains in the last position it had at the time of the transition event "TriggerStateLeaveEvent", i.e. when the finger 8 left the control area 5.
  • Fig. 7 shows a variant in which the permissible range of movement of the control element 13 is completely limited horizontally or vertically.
  • the control element 13 can therefore only be moved in a straight line on one axis. This can simplify the operation of a slider, for example, since the user does not have to carry out the movement exactly horizontally or vertically, since the control element 13 remains on one axis. It goes without saying that the user must hold his finger 8 and thus the pointer 9 at least within the area 14 around the control element 13 in order to cause the control element 13 to be moved.
  • control element 13 has reached the limits of the area 15, but the user has placed his finger within the control area
  • control element 13 cannot or should not move out of the area 15. It should be noted in particular that the input surface 1 (or a display) and the detection device 3 are independent components. If the finger leaves the boundaries of the area 15 (or even the input surface 1) not by pulling the hand back but by crossing the edges, the movable control element 13 must also react accordingly to this situation and should not leave the area 15 in the x or y direction. As explained below, this is solved by positioning the control element 13 at the edge 15c of the area 15.
  • the control element 13 is positioned at the left edge 15c because the finger and thus the pointer 9 has left the defined area 15 (in the x direction).
  • the distance between the control element 13 and the finger or pointer 9 is minimal without the control element 13 leaving the area 15.
  • FIG. 8b A similar situation is shown in Fig. 8b.
  • the pointer 9 has left the area 15 in the x direction and y direction, so that the control element is positioned in the corner.
  • the control element 13 is only released and remains in its last position when the user removes his finger from the input surface 1 (in the z direction). As long as the pointer 9 is outside the movement area 15, the control element 13 can then move along the edge 15c of the movement area 15, whereby it is always located at a point on the edge 15c that is the smallest distance from the pointer 9.
  • the control element 13 is thus placed on the edge 15c of the area 15 as follows. If the finger position (or pointer position) exceeds a limit value in the vertical or horizontal direction, the control element 13 is placed on this edge 16c (or in a corner). Both directions are set independently of one another.
  • the control element 13 is placed such that an anchor point 16, which can in particular be the center or center of gravity, is spaced from the corresponding edge 15c so that the control element 13 remains completely visible. If the anchor point 16 is the center of the control element 13 (see also Fig. 8c), it remains spaced from the edge 15c by half the size of the control element 13 so that the control element 13 remains completely within the area 15.
  • FIG. 9a shows that the pointer 9 does not hit the movable control element 17 exactly. This is in principle sufficient for an actuation, i.e. moving the control element 17 by a corresponding hand movement. However, it can be advantageous for operation if the control element 17 lies exactly on the finger, i.e. the pointer 9. For this purpose, it can be provided that the center point 18 of the control element 17 can snap into the position of the pointer 9, as shown in Fig. 9b. This is also helpful, for example, when moving and rearranging objects on the user interface 4, such as icons, images and the like.
  • a movable control element on a user interface 4 in the system for contactless interaction described above can be used in particular in a vehicle, where the user interface 4 is projected, for example, onto the passenger's dashboard.
  • the passenger can turn the music system up or down.
  • a movable control element such as a horizontal slider
  • the user can, for example, adjust the volume with a touch gesture on the dashboard.
  • the slider moves as soon as the user comes close to the input surface 1 with his finger or touches it and pulls his finger in one direction. Even if the finger then leaves the slider in the vertical direction, the user still has control over the horizontal movement.
  • the slider is therefore not automatically released as soon as the finger is no longer directly above it. Only when the finger is removed (in the z direction) does the slider remain in its last position.
  • a user can freely place different images on an area in a view. To do this, he can tap on an image and drag it with his finger to another position within the displayed boundaries of the user interface.
  • the image is thus designed as a movable control element.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)

Abstract

The invention relates to a method for capturing user inputs in an input device, the input device having: an input surface (1) on which a graphical user interface (4) having at least one control element (13) is displayed; and a capturing device (3), the control element (13) being configured such that it can be moved within a movement range (15) of the user interface (4). In the method, a hand (7) of a user is captured by means of the capturing device (3), and the position (8) of the hand (7) in a capture region (10) is determined, the capture region (10) being a three-dimensional spatial region which is assigned to the input surface (1). It is determined whether the hand (7) of the user is located in an activation region (6), the activation region (6) being a part of the capture region (10) which is located at a distance (11) from the input surface (1), and it is determined whether the hand (7) of the user is located in a control region (5), the control region (5) being a part of the capture region (10) which is located between the input surface (1) and the activation region (6). Furthermore, a position of a pointer (9) on the input surface (1) is determined, the position of the pointer (9) being determined by projecting the position of the hand (7) onto the input surface (1) if the position of the hand (7) is detected in the capture region (10). If it is determined that the hand (7) of the user is located in the control region (5), (i) the control element (13) moves with the pointer (9) if it is determined that the pointer (9) is within the movement range (15) on the control element (13), and (ii) the control element (13) is positioned at an edge (15c) of the movement range (15) if it is determined that the pointer (9) is outside the movement range (15).

Description

VERFAHREN UND SYSTEM ZUM ERFASSEN VON BENUTZEREINGABEN METHOD AND SYSTEM FOR COLLECTING USER INPUT
Die vorliegende Erfindung betrifft ein Verfahren sowie ein System zum Erfassen von Benutzereingaben in einer Eingabevorrichtung, insbesondere in einem Fahrzeug. Insbesondere können Benutzereingaben in einem Fahrzeug berührungslos erfasst werden. The present invention relates to a method and a system for detecting user inputs in an input device, in particular in a vehicle. In particular, user inputs in a vehicle can be detected without contact.
In modernen Fahrzeugen ist meist zumindest eine Bedieneinheit verbaut, über welcher der Fahrer des Fahrzeugs oder andere Passagiere verschiedene Funktionen steuern können. Dies können verschiedene Fahrzeug- oder Komfortfunktionen sein, wie Einstellungen des Navigationssystems, der Klimaanlage, Sitzeinstellungen, Beleuchtungseinstellungen und der dergleichen. Auch lassen sich verschiedene Funktionen eines Infotainmentsystems bedienen, wie beispielsweise das Abspielen von Musik, Führen von Telefonaten und dergleichen. Modern vehicles usually have at least one control unit installed, which the driver of the vehicle or other passengers can use to control various functions. These can be various vehicle or comfort functions, such as settings for the navigation system, the air conditioning, seat settings, lighting settings and the like. Various functions of an infotainment system can also be operated, such as playing music, making phone calls and the like.
Herkömmliche Bedieneinheiten lassen sich über entsprechende Bedientasten steuern. Moderne Systeme verfügen meist über mindestens ein Display, welches sich beispielsweise zentral im Armaturenbrett befinden kann. Hier können die einzelnen Funktionen, Menüs und dergleichen dargestellt sein. Diese Displays sind oftmals berührungsempfindlich, d.h. sie sind als Touchscreens ausgebildet, so dass die gewünschte Funktion durch Berühren des Bildschirms gesteuert werden kann. Die Bedienelemente sind zu diesem Zweck derart gestaltet, dass sie mit einem Finger erreicht und bedient werden können. Es kann eine Funktion aufgerufen werden, wenn der entsprechende Bereich des berührungsempfindlichen Bildschirms berührt wird. Es können auch weitere Möglichkeiten der Steuerung vorgesehen sein, wie das Halten und Ziehen eines Bedienelements, Wischgesten und dergleichen. Conventional control units can be controlled using corresponding control buttons. Modern systems usually have at least one display, which can be located centrally in the dashboard, for example. The individual functions, menus and the like can be shown here. These displays are often touch-sensitive, i.e. they are designed as touchscreens so that the desired function can be controlled by touching the screen. For this purpose, the control elements are designed in such a way that they can be reached and operated with a finger. A function can be called up when the corresponding area of the touch-sensitive screen is touched. Other control options can also be provided, such as holding and dragging a control element, swiping gestures and the like.
Derartige Bedieneinheiten erfordern jedoch ein berührungsempfindliches Display und sind daher in ihrer Gestaltung begrenzt. Moderne Fahrzeuge weisen zwar oftmals mehrere Displays und immer größere Displays auf. Jedoch sind ist das Platzangebot begrenzt und die Formgebung der Displays ist üblicherweise im Wesentlichen flach und rechteckig und sie können nicht beliebig in einem Fahrzeug verteilt werden. Sie müssen durch einen Benutzer mit der Hand erreichbar sein, um eine Funktion durch Berühren steuern zu können. Andere Oberflächen im Fahrzeug ohne Display stehen nicht für eine Benutzereingabe zur Verfügung. In Fahrzeugen ist auch bekannt, bestimmte Funktionen berührungslos durch Gesten ohne Bezug zu einem Display zu steuern. Dazu führt ein Benutzer bestimmte vorgegebene Gesten im freien Raum aus, beispielsweise in einem Raumbereich der Fahrzeugkabine über der Mittelkonsole oder vor dem Armaturenbrett. Durch Gesten im freien Raum lassen sich beispielsweise Funktionen des Infotainmentsystems steuern, oder andere Fahrzeugfunktionen, wie das Öffnen und Schließen eines Schiebedachs. Während diese Gesten zwar erlernbar sein können, werden diese jedoch im freien Raum ausgeführt und ein Benutzer erhält kein unmittelbares Feedback, beispielsweise wo oder wie genau eine bestimmte Geste auszuführen ist, damit sie erfolgreich und zuverlässig die gewünschte Funktion steuert. Benutzer sind daher oftmals unsicher und es kann schwierig sein, die Gesten korrekt auszuführen, bis sie vom System erkannt werden. However, such control units require a touch-sensitive display and are therefore limited in their design. Modern vehicles often have multiple displays and increasingly larger displays. However, space is limited and the shape of the displays is usually essentially flat and rectangular and they cannot be distributed arbitrarily in a vehicle. They must be accessible to a user with their hand in order to be able to control a function by touch. Other surfaces in the vehicle without a display are not available for user input. In vehicles, it is also known to control certain functions contactlessly using gestures without reference to a display. To do this, a user performs certain predefined gestures in free space, for example in an area of the vehicle cabin above the center console or in front of the dashboard. Gestures in free space can be used to control functions of the infotainment system, for example, or other vehicle functions such as opening and closing a sunroof. While these gestures can be learned, they are performed in free space and a user does not receive immediate feedback, for example where or how exactly a certain gesture should be performed so that it successfully and reliably controls the desired function. Users are therefore often unsure and it can be difficult to perform the gestures correctly until they are recognized by the system.
Generell ist für die Benutzerfreundlichkeit eine angemessene Rückmeldung (Feedback) sehr hilfreich. Insbesondere bei der berührungslosen Interaktion besteht ein Problem darin, dem Benutzer nützliches, unterstützendes Feedback zu geben. Der Benutzer fühlt sich oft verloren, weiß nicht, wie er interagieren soll und was das System eigentlich erkennt. In general, appropriate feedback is very helpful for usability. In particular, with touchless interaction, one problem is giving the user useful, supportive feedback. The user often feels lost, does not know how to interact and what the system actually recognizes.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, das Erfassen von Benutzereingaben in einer Eingabevorrichtung insbesondere in einem Fahrzeug zu verbessern. Insbesondere soll eine berührungslose Erfassung von Benutzereingaben verbessert werden. The present invention is based on the object of improving the detection of user inputs in an input device, in particular in a vehicle. In particular, contactless detection of user inputs is to be improved.
Die Lösung dieser Aufgabe wird gemäß der Lehre der unabhängigen Ansprüche erreicht. Verschiedene Ausführungsformen und Weiterbildungen der Erfindung sind Gegenstand der Unteransprüche. This object is achieved according to the teaching of the independent claims. Various embodiments and developments of the invention are the subject of the subclaims.
Ein erster Aspekt der Erfindung betrifft ein, insbesondere computerimplementiertes, Verfahren zum Erfassen von Benutzereingaben in einer Eingabeeinrichtung, wobei die Eingabeeinrichtung eine Eingabeoberfläche, auf welcher eine grafische Benutzerschnittstelle mit zumindest einem Steuerelement dargestellt wird, und eine Erfassungseinrichtung aufweist, wobei das Steuerelement derart konfiguriert ist, dass es innerhalb eines Bewegungsbereichs der Benutzeroberfläche beweglich ist. Bei dem Verfahren wird eine Hand eines Benutzers mittels der Erfassungseinrichtung erfasst und eine Position der Hand in einem Erfassungsbereich bestimmt, wobei der Erfassungsbereich ein dreidimensionaler Raumbereich ist, welcher der Eingabeoberfläche zugeordnet ist. Es wird bestimmt, ob sich die Hand des Benutzers in einem Aktivierungsbereich befindet, wobei der Aktivierungsbereich ein Teil des Erfassungsbereichs ist, welcher in einem Abstand zur Eingabeoberfläche angeordnet ist, und es wird bestimmt, ob sich die Hand des Benutzers in einem Steuerbereich befindet, wobei der Steuerbereich ein Teil des Erfassungsbereichs ist, welcher zwischen der Eingabeoberfläche und dem Aktivierungsbereich angeordnet ist. Es wird des Weiteren eine Position eines Zeigers auf der Eingabeoberfläche bestimmt, wobei die Position des Zeigers durch Projektion der Position der Hand auf die Eingabeoberfläche bestimmt wird, wenn die Position der Hand in dem Erfassungsbereich erkannt wird. Wenn bestimmt wird, dass sich die Hand des Benutzers im Steuerbereich befindet, (i) bewegt sich das Steuerelement mit dem Zeiger mit, wenn bestimmt wird, dass sich der Zeiger innerhalb des Bewegungsbereichs auf dem Steuerelement befindet, und (ii) das Steuerelement wird an einem Rand des Bewegungsbereichs positioniert, wenn bestimmt wird, dass sich der Zeiger außerhalb des Bewegungsbereichs befindet. A first aspect of the invention relates to a method, in particular a computer-implemented method, for detecting user inputs in an input device, wherein the input device has an input surface on which a graphical user interface with at least one control element is displayed, and a detection device, wherein the control element is configured such that it is movable within a movement range of the user interface. In the method, a user's hand is detected by means of the detection device and a position of the hand in a detection area is determined, wherein the detection area is a three-dimensional spatial area which is assigned to the input surface. It is determined whether the user's hand is in an activation area, wherein the activation region is a part of the detection region which is arranged at a distance from the input surface, and it is determined whether the user's hand is located in a control region, wherein the control region is a part of the detection region which is arranged between the input surface and the activation region. A position of a pointer on the input surface is further determined, wherein the position of the pointer is determined by projecting the position of the hand onto the input surface when the position of the hand is detected in the detection region. If it is determined that the user's hand is in the control region, (i) the control element moves with the pointer if it is determined that the pointer is within the movement region on the control element, and (ii) the control element is positioned at an edge of the movement region if it is determined that the pointer is outside the movement region.
Das vorgenannte Verfahren nach dem ersten Aspekt beruht folglich insbesondere darauf, dass Benutzereingaben berührungslos erfasst werden. Die Position der Hand wird in einem dreidimensionalen Raumbereich bestimmt, welcher der Eingabeoberfläche zugeordnet ist, beispielsweise ein Raumbereich, der sich vor der Eingabeoberfläche befindet. Ein Erfassungsbereich ist dabei in zwei Bereiche aufgeteilt. Mit einem Abstand zur Eingabeoberfläche ist ein Aktivierungsbereich angeordnet. The aforementioned method according to the first aspect is therefore based in particular on the fact that user inputs are recorded without contact. The position of the hand is determined in a three-dimensional spatial area which is assigned to the input surface, for example a spatial area which is located in front of the input surface. A detection area is divided into two areas. An activation area is arranged at a distance from the input surface.
Befindet sich die Hand dann in dem Steuerbereich, welcher zwischen dem Aktivierungsbereich und der Eingabeoberfläche angeordnet ist, also näher an der Eingabeoberfläche liegt, erfolgt eine Steuerung, genauer eine Bewegung des Steuerelements innerhalb des Bewegungsbereichs. Der Benutzer muss dazu die Eingabeoberfläche nicht berühren, sondern es ist ausreichend, wenn sich die Hand im Steuerbereich befindet, um eine entsprechende Funktion zu steuern. Es ist somit kein spezielles berührungsempfindliches Display notwendig, was eine flexible Gestaltung der Eingabeoberfläche erlaubt. Durch die Möglichkeit der berührungslosen Interaktion können auch Flächen als Eingabeoberflächen vorgesehen werden, welche nicht für eine Bedienung geeignet sind, die eine Berührung entsprechender Sensoren erfordern würde. Es versteht sich jedoch, dass der Benutzer mit seiner Hand die Eingabeoberfläche trotzdem berühren kann. Dies hat im Sinne der Erfindung jedoch keinen Einfluss auf die Steuerung. Eine solche Eingabeoberfläche kann sich insbesondere in einem Fahrzeug befinden. Gemäß dem Verfahren nach dem ersten Aspekt wird angegeben, wie ein Steuerelement innerhalb eines definierten Bereichs auf der Benutzeroberfläche, d.h. in einem Bewegungsbereich bewegt werden kann. Auf diese Weise können verschiedene Arten von Steuerelementen oder Schaltflächen definiert werden, wie z.B. Schieberegler oder frei bewegliche Gestaltungselemente. If the hand is then in the control area, which is arranged between the activation area and the input surface, i.e. closer to the input surface, a control takes place, more precisely a movement of the control element within the movement area. The user does not have to touch the input surface for this, but it is sufficient if the hand is in the control area to control a corresponding function. A special touch-sensitive display is therefore not necessary, which allows a flexible design of the input surface. The possibility of contactless interaction means that surfaces can also be provided as input surfaces which are not suitable for operation that would require touching corresponding sensors. It goes without saying, however, that the user can still touch the input surface with his hand. However, this has no influence on the control within the meaning of the invention. Such an input surface can be located in a vehicle in particular. According to the method according to the first aspect, it is specified how a control can be moved within a defined area on the user interface, ie in a movement area. In this way, different types of controls or buttons can be defined, such as sliders or freely movable design elements.
In diesem Zusammenhang werden insbesondere Grenzfälle betrachtet. Probleme können bei der Interaktion entstehen, wenn der Finger des Benutzers (d.h. der Zeiger) die äußeren Grenzen des Bewegungsbereichs, wie eines sichtbaren Bereichs der Anwendung überschreitet. Es sollte sichergestellt werden, dass das Steuerelement den Bewegungsbereich nicht verlassen kann. Wenn sich der Finger (Zeiger) außerhalb des Bewegungsbereichs befindet, wird das Steuerelement am Rand des Bewegungsbereichs positioniert, anstatt den Bereich zu verlassen und dadurch womöglich für den Benutzer nicht mehr sichtbar zu sein. Dies erlaubt auch ungewöhnliche Formen der Benutzeroberfläche, die über die von rechteckigen Bildschirmen hinausgehen können. Auch wird dadurch die unabhängige Gestaltung der Eingabeoberfläche und der Erfassungseinrichtung berücksichtigt. In this context, particular attention is paid to edge cases. Interaction problems can arise when the user's finger (i.e. the pointer) exceeds the outer limits of the movement area, such as a visible area of the application. It should be ensured that the control cannot leave the movement area. If the finger (pointer) is outside the movement area, the control is positioned at the edge of the movement area instead of leaving the area and thus possibly no longer being visible to the user. This also allows for unusual shapes of the user interface, which may go beyond rectangular screens. It also takes into account the independent design of the input interface and the capture device.
Der hier verwendete Begriff „Benutzerschnittstelle“ bzw. „grafische Benutzerschnittstelle“ bezieht sich insbesondere auf eine grafische Darstellung von Steuerelementen, welche mit einer bestimmten Funktion verknüpft sind und es einem Benutzer erlauben, die Funktion zu steuern. Die Benutzerschnittstelle („user interface“ - „Ul“ bzw. „graphical user interface“ - GUI) kann „Steuerelemente“ („Ul-Elemente“), wie Eingabeflächen, Schaltflächen, Symbole, Buttons, Icons, Schieberegler, Symbolleisten, Auswahlmenüs und dergleichen enthalten, die ein Benutzer betätigen kann, insbesondere im Sinne der vorliegenden Erfindung, ohne diese zu berühren. Die (grafische) Benutzerschnittstelle kann auch als (grafische) Benutzeroberfläche bezeichnet werden. The term "user interface" or "graphical user interface" used here refers in particular to a graphical representation of control elements which are linked to a specific function and allow a user to control the function. The user interface ("UI" or "graphical user interface" - GUI) can contain "control elements" ("UI elements") such as input areas, buttons, symbols, buttons, icons, sliders, toolbars, selection menus and the like which a user can operate, in particular in the sense of the present invention, without touching them. The (graphical) user interface can also be referred to as a (graphical) user interface.
Der hier verwendete Begriff „Bewegungsbereich“ bezieht sich insbesondere auf einen Bereich der Benutzeroberfläche, welcher ein Teilbereich der Benutzeroberfläche oder auch die gesamte Benutzeroberfläche sein kann. Der Bewegungsbereich ist somit ein zweidimensionaler Bereich, welcher die Bewegungsgrenzen eines beweglichen Steuerelements definiert. The term "motion area" used here refers in particular to an area of the user interface, which can be a part of the user interface or the entire user interface. The motion area is thus a two-dimensional area that defines the movement limits of a movable control element.
Der hier verwendete Begriff „Eingabeoberfläche“ bezieht sich insbesondere auf eine beliebige Oberfläche, insbesondere in einem Fahrzeug, auf welcher die Benutzeroberfläche grafisch darstellbar ist. Es kann sich um ein Display handeln oder eine auch eine Projektionsfläche wie nachfolgend genauer beschrieben. Die Eingabeoberfläche kann eine beliebige Gestaltung aufweisen. Sie kann flach, eben und rechteckig sein, oder auch eine beliebige Gestalt aufweisen. Insbesondere lässt sich ein Punkt auf der Eingabeoberfläche jedoch mit zweidimensionalen Koordinaten beschreiben. The term “input surface” as used here refers in particular to any surface, in particular in a vehicle, on which the user interface can be represented graphically. It can be a display or a projection surface as described in more detail below. The input surface can have any design. It can be flat, level and rectangular, or have any shape. In particular, a point on the input surface can be described with two-dimensional coordinates.
Der hier verwendete Begriff „Erfassungseinrichtung“ bezieht sich insbesondere auf eine Einrichtung, welche kontaktlos Objekte im dreidimensionalen Raum erfassen und dessen Position bestimmen kann. Insbesondere kann die Erfassungseinrichtung eine Hand eines Benutzers erfassen und lokalisieren. Beispielsweise können optische Verfahren angewandt werden, um eine Hand eines Benutzers im Raum zu erfassen. Die Erfassungseinrichtung kann aus einem Teil oder mehreren Teilen bestehen, was abhängig davon sein kann, welcher Erfassungsbereich abgedeckt werden soll. Beispielsweise kann eine Kamera vorgesehen sein, oder mehrere Kameras. The term "detection device" used here refers in particular to a device that can detect objects in three-dimensional space without contact and determine their position. In particular, the detection device can detect and localize a user's hand. For example, optical methods can be used to detect a user's hand in space. The detection device can consist of one part or several parts, which can depend on which detection area is to be covered. For example, one camera can be provided, or several cameras.
Der hier verwendete Begriff „dreidimensionaler Raumbereich“ bezieht sich insbesondere auf einen Bereich, welcher durch dreidimensionale Koordinaten beschrieben werden kann. Eine Position in dem dreidimensionalen Raumbereich hat eindeutige dreidimensionale Koordinaten. Das Koordinatensystem kann beliebig gewählt werden. Es kann beispielsweise ein Koordinatensystem der Erfassungseinrichtung gewählt werden, oder ein Koordinatensystem bezüglich der Eingabeoberfläche. Es besteht insbesondere ein Bezug zwischen dem Erfassungsbereich und der Eingabeoberfläche, um die Position der Hand entsprechenden Stellen auf der Eingabeoberfläche zuordnen zu können. The term "three-dimensional spatial area" used here refers in particular to an area that can be described by three-dimensional coordinates. A position in the three-dimensional spatial area has unique three-dimensional coordinates. The coordinate system can be chosen arbitrarily. For example, a coordinate system of the detection device can be selected, or a coordinate system relating to the input surface. In particular, there is a relationship between the detection area and the input surface in order to be able to assign the position of the hand to corresponding locations on the input surface.
Der hier verwendete Begriff „Fahrzeug“ bezieht sich insbesondere auf einen Pkw, einschließlich aller Arten von Kraftfahrzeugen, Hybrid- und batteriebetriebenen Elektrofahrzeugen sowie Fahrzeuge wie Limousinen, Vans, Busse, Lkw, Lieferwagen und dergleichen. The term “vehicle” as used herein refers in particular to a passenger car, including all types of motor vehicles, hybrid and battery-powered electric vehicles, as well as vehicles such as sedans, vans, buses, trucks, delivery vans and the like.
Der hier verwendete Begriff „Funktion“ bezieht sich insbesondere auf technische Merkmale, welche insbesondere in einem Fahrzeug, beispielsweise im Innenraum vorhanden sein können, um durch eine entsprechende Steuerung gesteuert zu werden. Insbesondere können dies Funktionen des Fahrzeugs und/oder eines Infotainmentsystems sein, wie Beleuchtung, Audioausgabe (z.B. Lautstärke), Klima, Telefon, usw. Die hierein gegebenenfalls verwendeten Begriffe „umfasst“, „beinhaltet“, „schließt ein“, „weist auf“, „hat“, „mit“, oder jede andere Variante davon sollen eine nicht ausschließliche Einbeziehung abdecken. So ist beispielsweise ein Verfahren oder eine Vorrichtung, die eine Liste von Elementen umfasst oder aufweist, nicht notwendigerweise auf diese Elemente beschränkt, sondern kann andere Elemente einschließen, die nicht ausdrücklich aufgeführt sind oder die einem solchen Verfahren oder einer solchen Vorrichtung inhärent sind. The term "function" used here refers in particular to technical features which can be present in a vehicle, for example in the interior, in order to be controlled by a corresponding control system. In particular, these can be functions of the vehicle and/or an infotainment system, such as lighting, audio output (e.g. volume), air conditioning, telephone, etc. The terms "comprises,""includes,""has,""includes,""has,""with," or any other variation thereof, as used herein, are intended to cover non-exclusive inclusion. For example, a method or apparatus that includes or has a list of elements is not necessarily limited to those elements, but may include other elements not expressly listed or that are inherent in such method or apparatus.
Ferner bezieht sich „oder“, sofern nicht ausdrücklich das Gegenteil angegeben ist, auf ein inklusives oder und nicht auf ein exklusives „oder“. Zum Beispiel wird eine Bedingung A oder B durch eine der folgenden Bedingungen erfüllt: A ist wahr (oder vorhanden) und B ist falsch (oder nicht vorhanden), A ist falsch (oder nicht vorhanden) und B ist wahr (oder vorhanden), und sowohl A als auch B sind wahr (oder vorhanden). Furthermore, unless explicitly stated to the contrary, "or" refers to an inclusive "or" and not an exclusive "or". For example, a condition A or B is satisfied by one of the following conditions: A is true (or exists) and B is false (or absent), A is false (or absent) and B is true (or exists), and both A and B are true (or exists).
Die Begriffe „ein“ oder „eine“, wie sie hier verwendet werden, sind im Sinne von „ein/eine oder mehrere“ definiert. Die Begriffe "ein anderer" und „ein weiterer“ sowie jede andere Variante davon sind im Sinne von „zumindest ein Weiterer“ zu verstehen. As used herein, the terms "a" or "an" are defined to mean "one or more". The terms "another" and "another" and any other variation thereof are defined to mean "at least one other".
Der Begriff „Mehrzahl“, wie er hier verwendet wird, ist im Sinne von „zwei oder mehr“ zu verstehen. The term “plurality” as used here should be understood to mean “two or more”.
Unter dem Begriff „konfiguriert“ oder „eingerichtet“ eine bestimmte Funktion zu erfüllen, (und jeweiligen Abwandlungen davon) ist im Sinne der Erfindung zu verstehen, dass die entsprechende Vorrichtung bereits in einer Ausgestaltung oder Einstellung vorliegt, in der sie die Funktion ausführen kann oder sie zumindest so einstellbar - d.h. konfigurierbar - ist, dass sie nach entsprechender Einstellung die Funktion ausführen kann. Die Konfiguration kann dabei beispielsweise über eine entsprechende Einstellung von Parametern eines Prozessablaufs oder von Schaltern oder ähnlichem zur Aktivierung bzw. Deaktivierung von Funktionalitäten bzw. Einstellungen erfolgen. Insbesondere kann die Vorrichtung mehrere vorbestimmte Konfigurationen oder Betriebsmodi aufweisen, so dass das Konfigurieren mittels einer Auswahl einer dieser Konfigurationen bzw. Betriebsmodi erfolgen kann. The term "configured" or "set up" to perform a specific function (and respective modifications thereof) is to be understood in the sense of the invention that the corresponding device is already in a design or setting in which it can perform the function or that it is at least adjustable - i.e. configurable - so that it can perform the function after the corresponding setting. The configuration can be carried out, for example, by setting parameters of a process sequence or switches or the like to activate or deactivate functionalities or settings. In particular, the device can have several predetermined configurations or operating modes, so that configuration can be carried out by selecting one of these configurations or operating modes.
Nachfolgend werden bevorzugte Ausführungsformen des Verfahrens beschrieben, die jeweils, soweit dies nicht ausdrücklich ausgeschlossen wird oder technisch unmöglich ist, beliebig miteinander sowie mit den weiteren beschriebenen anderen Aspekten der Erfindung kombiniert werden können. Bei einigen Ausführungsformen wird das Steuerelement an einer Stelle des Randes des Bewegungsbereichs positioniert, welche den kürzesten Abstand zum Zeiger hat. So bleibt ein Bezug zwischen der Position des Zeigers und der Position des Steuerelements bestehen, auch wenn das Steuerelement nicht über den Rand des Bewegungsbereichs hinaus bewegt wird. Diese Stelle kann typischerweise auch der Stelle des Randes des Bewegungsbereichs entsprechen, an der der Zeiger den Bewegungsbereich verlassen hat, oder dieser Stelle zumindest sehr nahe sein. Preferred embodiments of the method are described below, which can be combined with each other as well as with the other aspects of the invention described, unless this is expressly excluded or is technically impossible. In some embodiments, the control element is positioned at a location on the edge of the movement area that is the shortest distance from the pointer. This maintains a relationship between the position of the pointer and the position of the control element even if the control element is not moved beyond the edge of the movement area. This location can also typically correspond to the location on the edge of the movement area at which the pointer left the movement area, or at least be very close to this location.
Bei einigen Ausführungsformen wird das Steuerelement derart am Rand des Bewegungsbereichs positioniert, dass es vollständig innerhalb des Bewegungsbereichs sichtbar bleibt. Dadurch kann verhindert werden, dass das Steuerelement auch nur teilweise verschwindet, wenn der Zeiger aus dem Bewegungsbereich hinaus bewegt wird, sodass eine Bedienung zu einem späteren Zeitpunkt erleichtert wird, wenn das Steuerelement wieder ergriffen werden soll. Dies kann beispielsweise dadurch gelöst werden, dass ein Ankerpunkt, wie ein Mittelpunkt des Steuerelements als Position des Steuerelements herangezogen wird, welcher vom Rand des Bewegungsbereichs beispielsweise immer mindestens um die Hälfte der Größe des Steuerelements beabstandet sein muss (insbesondere wenn der Ankerpunkt der Mittelpunkt des Steuerelements ist). In some embodiments, the control is positioned at the edge of the movement area such that it remains completely visible within the movement area. This can prevent the control from disappearing even partially when the pointer is moved out of the movement area, so that operation is made easier at a later time when the control is to be grasped again. This can be solved, for example, by using an anchor point, such as a center of the control, as the position of the control, which must always be spaced from the edge of the movement area by at least half the size of the control (in particular if the anchor point is the center of the control).
Bei einigen Ausführungsformen bewegt sich das Steuerelement entlang des Randes des Bewegungsbereichs, solange bestimmt wird, dass sich die Hand des Benutzers im Steuerbereich befindet, und dass sich der Zeiger außerhalb des Bewegungsbereichs befindet. Es kann somit vorgesehen sein, dass das Steuerelement nicht automatisch losgelassen wird, wenn der Zeiger aus dem Bewegungsbereich heraus bewegt wird, zumindest solange sich die Hand des Benutzers im Steuerbereich, also nahe genug an der Eingabeoberfläche befindet. Das Steuerelement kann sich dann beispielsweise entlang des Randes des Bewegungsbereichs bewegen und jeweils an einer Stelle des Randes befinden, welche den kleinsten Abstand zum Zeiger hat. So kann der Benutzer die Kontrolle über das Steuerelement noch erkennen, auch wenn sich der Zeiger nicht mehr im Bewegungsbereich befindet. In some embodiments, the control element moves along the edge of the movement area as long as it is determined that the user's hand is in the control area and that the pointer is outside the movement area. It can thus be provided that the control element is not automatically released when the pointer is moved out of the movement area, at least as long as the user's hand is in the control area, i.e. close enough to the input surface. The control element can then, for example, move along the edge of the movement area and be located at a point on the edge that is the smallest distance from the pointer. In this way, the user can still recognize control of the control element, even if the pointer is no longer in the movement area.
Bei einigen Ausführungsformen wird das Steuerelement an der Position des Zeigers positioniert, d.h. insbesondere zentriert bezüglich des Zeigers, wenn bestimmt wird, dass die Hand des Benutzers in den Steuerbereich eintritt, und wenn bestimmt wird, dass sich der Zeiger innerhalb des Bewegungsbereichs und vorzugsweise auch auf dem Steuerelement befindet. Mit anderen Worten, das Steuerelement kann an die Position des Zeigers springen. Wenn sich das Steuerelement genau an der Position des Zeigers, anstatt beispielsweise etwas versetzt dazu befindet, kann die Bedienung erleichtert werden. Es kann dazu ein Ankerpunkt, wie ein Mittelpunkt des Steuerelements an der Position des Zeigers positioniert werden, sobald der Benutzer mit seiner Hand (bzw. Fingerspitze) in den Steuerbereich gelangt. In some embodiments, the control element is positioned at the position of the pointer, ie in particular centered with respect to the pointer, when it is determined that the user's hand enters the control area and when it is determined that the pointer is within the movement area and preferably also on the Control is located. In other words, the control can jump to the position of the pointer. If the control is located exactly at the position of the pointer, rather than slightly offset, for example, it can be easier to use. An anchor point, such as a center point of the control, can be positioned at the position of the pointer as soon as the user's hand (or fingertip) enters the control area.
Bei einigen Ausführungsformen wird die Position des Zeigers auf der Eingabeoberfläche durch orthogonale Projektion der Position der Hand auf die Eingabeoberfläche bestimmt, wenn die Position der Hand in dem Erfassungsbereich erkannt wird. Die Position der Hand im dreidimensionalen Raum wird bei der (orthogonalen) Projektion auf zweidimensionale Koordinaten der Eingabeoberfläche abgebildet. Die Position des Zeigers kann wie erwähnt durch eine orthogonale Projektion der Position der Hand aus dem dreidimensionalen Raum auf die zweidimensionale Eingabeoberfläche erfolgen. Die Position der Hand kann durch einen Punkt der Hand definiert sein, welcher am nächsten zur Eingabeoberfläche liegt, wie nachfolgend erläutert. Dies kann auch eine Fingerspitze sein, die in Richtung der Eingabeoberfläche zeigt. Statt einer orthogonalen Projektion kann auch vorgesehen sein, eine Zeigerichtung eines Fingers, beispielsweise eines ausgestreckten Zeigefingers zu ermitteln und die Position des Zeigers auf der Eingabeoberfläche durch Verlängerung in Zeigerichtung zu ermitteln. In some embodiments, the position of the pointer on the input surface is determined by orthogonal projection of the position of the hand onto the input surface when the position of the hand is detected in the detection area. The position of the hand in three-dimensional space is mapped to two-dimensional coordinates of the input surface during the (orthogonal) projection. As mentioned, the position of the pointer can be determined by an orthogonal projection of the position of the hand from three-dimensional space onto the two-dimensional input surface. The position of the hand can be defined by a point on the hand that is closest to the input surface, as explained below. This can also be a fingertip that points in the direction of the input surface. Instead of an orthogonal projection, it can also be provided to determine a pointing direction of a finger, for example an outstretched index finger, and to determine the position of the pointer on the input surface by extension in the pointing direction.
Bei einigen Ausführungsformen weist der Steuerbereich eine Grundfläche auf, welche zumindest die Eingabeoberfläche enthält und sich der Steuerbereich von der Grundfläche bis zu einer Deckfläche erstreckt, wobei ein Abstand zwischen der Grundfläche und der Deckfläche des Steuerbereichs dem Abstand zwischen der Eingabeoberfläche und dem Aktivierungsbereich entspricht. Die Grundfläche kann auch im Wesentlichen der Eingabeoberfläche entsprechen. Die Grundfläche und Deckfläche können gleich groß sein. Beispielsweise kann der Steuerbereich quaderförmig mit der Eingabefläche als Grundfläche ausgebildet sein. Der Steuerbereich schließt somit direkt an die Eingabeoberfläche an und nimmt den Raumbereich vor der Eingabeoberfläche ein, insbesondere auf der gesamten Fläche der Eingabeoberfläche. Der Abstand kann entsprechend den Anforderungen gewählt werden, beispielsweise etwa 2 cm bis etwa 5 cm, wie etwa 3 cm. Mit anderen Worten, der Steuerbereich ist der Bereich in unmittelbarer Nähe zur Eingabeoberfläche. Wenn sich also ein Benutzer mit seiner Hand in die Nähe der Eingabeoberfläche begibt (oder diese berührt), d.h. in den Steuerbereich hinein, kann eine Funktion gesteuert werden. Bleibt die Hand außerhalb des Steuerbereichs, mit anderen Worten, weiter weg als der Abstand (bzw. die „Tiefe“ des Steuerbereichs), erfolgt keine Steuerung oder ein „Loslassen“ der Benutzerschnittstelle. In some embodiments, the control area has a base area which contains at least the input surface and the control area extends from the base area to a cover surface, wherein a distance between the base area and the cover surface of the control area corresponds to the distance between the input surface and the activation area. The base area can also correspond substantially to the input surface. The base area and cover surface can be the same size. For example, the control area can be cuboid-shaped with the input surface as the base area. The control area thus directly adjoins the input surface and occupies the space in front of the input surface, in particular on the entire surface of the input surface. The distance can be selected according to the requirements, for example about 2 cm to about 5 cm, such as about 3 cm. In other words, the control area is the area in the immediate vicinity of the input surface. So if a user moves his hand close to the input surface (or touches it), i.e. into the control area, a function can be controlled. If the hand remains outside the control area, with other In other words, further away than the distance (or “depth” of the control area), there will be no control or “release” of the user interface.
Bei einigen Ausführungsformen grenzt der Aktivierungsbereich an den Steuerbereich an, wobei der Aktivierungsbereich eine Grundfläche aufweist, welche zumindest die Deckfläche des Steuerbereichs enthält. Die Grundfläche des Aktivierungsbereichs kann der Deckfläche des Steuerbereichs entsprechend. Der Aktivierungsbereich kann beispielsweise quaderförmig sein. Der Aktivierungsbereich bildet somit einen Bereich, der von der Eingabeoberfläche weiter weg ist als der Steuerbereich. Nähert sich ein Benutzer mit seiner Hand der Eingabeoberfläche, wird er typischerweise mit seiner Hand also zuerst in den Aktivierungsbereich gelangen, erst dann in den Steuerbereich. Wenn die Hand im Aktivierungsbereich ist, kann dies beispielsweise dazu genutzt werden, um die Benutzerschnittstelle „aufzuwecken“, was optisch angezeigt werden kann. Der Benutzer erhält somit vor der eigentlichen Ausführung der Steuerung Frühzeit ein Feedback, wenn sich seine Hand im Aktivierungsbereich befindet. Dies kann die darauffolgende Steuerung erleichtern, da der Benutzer erkennen kann, dass seine Hand ordnungsgemäß detektiert wurde, was die Navigation erleichtern kann. Insbesondere da der Benutzer seine Hand frei im Raum vor der Eingabeoberfläche bewegt, kann dies hilfreich sein. In some embodiments, the activation area borders the control area, the activation area having a base area that contains at least the top surface of the control area. The base area of the activation area can correspond to the top surface of the control area. The activation area can be cuboid-shaped, for example. The activation area thus forms an area that is further away from the input surface than the control area. If a user approaches the input surface with his hand, his hand will typically first enter the activation area and only then the control area. If the hand is in the activation area, this can be used, for example, to "wake up" the user interface, which can be visually displayed. The user thus receives early feedback before the actual execution of the control if his hand is in the activation area. This can facilitate the subsequent control, since the user can see that his hand has been properly detected, which can facilitate navigation. This can be helpful, especially since the user moves his hand freely in the space in front of the input surface.
Bei einigen Ausführungsformen ist ein Abstand zwischen der Grundfläche und der Deckfläche des Aktivierungsbereichs größer als der Abstand zwischen der Eingabeoberfläche und dem Aktivierungsbereich. Der Aktivierungsbereich ist somit größer als der Steuerbereich. Dadurch kann in einem größeren Bereich bereits eine Rückmeldung für den Benutzer gegeben werden, während die eigentliche Steuerung oder Bedienung der Benutzerschnittstelle in einem kleineren Bereich nahe der Eingabeoberfläche stattfindet. Je nach Anwendungsfall können die Abmessungen entsprechend angepasst werden. Der Aktivierungsbereich kann beispielsweise eine Tiefe von 10 cm oder mehr aufweisen. In some embodiments, a distance between the base and the top surface of the activation area is greater than the distance between the input surface and the activation area. The activation area is thus larger than the control area. This means that feedback can be given to the user in a larger area, while the actual control or operation of the user interface takes place in a smaller area near the input surface. Depending on the application, the dimensions can be adjusted accordingly. The activation area can, for example, have a depth of 10 cm or more.
Bei einigen Ausführungsformen gibt die Darstellung der Benutzerschnittstelle die Position des Zeigers an, wenn die Position der Hand in dem Erfassungsbereich erkannt wird. Die Darstellung kann dabei den Zeiger selbst anzeigen, z.B. als Punkt auf der Eingabeoberfläche. Es kann jedoch auch vorgesehen sein, den Zeiger auf andere Weise anzuzeigen, beispielsweise durch Hervorheben eines Bereichs, in dem sich der Zeiger befindet, wie beispielsweise eine Schaltfläche, welche sich im Bereich des Zeigers befindet. Dies dient dazu, dem Benutzer entsprechende Rückmeldung zu geben, wo sich der Zeiger auf der Eingabeoberfläche befindet, um die Bedienung zu vereinfachen. Mit anderen Worten, der Bereich, in dem sich der Zeiger befindet, rückt für den Benutzer in den Fokus, sodass der Aktivierungsbereich auch als „Fokusbereich“ bezeichnet werden kann. In some embodiments, the representation of the user interface indicates the position of the pointer when the position of the hand is detected in the detection area. The representation can show the pointer itself, e.g. as a point on the input surface. However, it can also be provided to display the pointer in another way, for example by highlighting an area in which the pointer is located, such as a button which is located in the area of the pointer. This serves to give the user appropriate feedback as to where the pointer is located on the input surface in order to simplify operation. With other In other words, the area where the pointer is located becomes the focus for the user, so the activation area can also be called the “focus area”.
Bei einigen Ausführungsformen wird als die Position der Hand des Benutzers eine Position eines Punktes der Hand des Benutzers bestimmt, welcher am nächsten zur Eingabeoberfläche ist. Um eine eindeutige Positionsbestimmung der Hand des Benutzers zu erlauben, wird vorteilhaft ein Punkt der Hand ausgewählt, welcher die Position der Hand repräsentiert. Als Position der Hand kann zwar prinzipiell ein beliebiger Punkt der Hand gewählt werden, wie z.B. ein Zentrum der Hand. Es ist jedoch vorteilhaft, denjenigen Punkt der Hand für die Positionsbestimmung heranzuziehen, welcher der Eingabeoberfläche am nächsten ist. Dies erleichtert die Berechnung der Position der Hand. Außerdem kann der vorderste Punkt der Hand aus Sicht des Benutzers für die Eingabe auf der Eingabeoberfläche als besonders relevant angesehen werden. In some embodiments, the position of the user's hand is determined as a position of a point on the user's hand that is closest to the input surface. In order to allow a clear determination of the position of the user's hand, a point on the hand is advantageously selected that represents the position of the hand. In principle, any point on the hand can be selected as the position of the hand, such as a center of the hand. However, it is advantageous to use the point on the hand that is closest to the input surface for the position determination. This makes it easier to calculate the position of the hand. In addition, the frontmost point of the hand can be considered particularly relevant from the user's perspective for the input on the input surface.
Bei einigen Ausführungsformen umfasst das Erfassen der Hand des Benutzers ein Bestimmen, ob zumindest ein Finger der Hand in Richtung der Eingabeoberfläche weist. Prinzipiell kann die Stellung der Hand beliebig sein und die Position der Hand wie oben beschrieben in dem Erfassungsbereich bestimmt werden. Für eine genauere Bestimmung kann jedoch bestimmt werden, ob der Benutzer einen Finger in Richtung der Eingabeoberfläche ausstreckt, beispielsweise den Zeigefinger. Diese Handstellung kann ein Benutzer intuitiv zur Bedienung anwenden. Es kann dann vorgesehen sein, eine Funktion nur dann zu steuern, wenn der Benutzer eine Zeigebewegung macht, indem er z.B. seinen Zeigefinger ausstreckt. Wenn der Benutzer keine Zeigebewegung macht, kann die Steuerung einer Funktion unterdrückt werden, da es in einem solchen Fall sein kann, dass der Benutzer nicht beabsichtigt, eine Funktion zu steuern. Das Bestimmen der Handstellung kann daher die Genauigkeit der Bedienung verbessern. Außerdem lässt sich die Position einer Fingerspitze mit höherer Genauigkeit bestimmen. Diese Position kann dann also die maßgebliche Position der Hand angenommen werden, insbesondere wenn die Fingerspitze des ausgestreckten Fingers derjenige Punkt der Hand ist, welcher der Eingabeoberfläche am nächsten ist, wie oben beschrieben. In some embodiments, detecting the user's hand includes determining whether at least one finger of the hand is pointing in the direction of the input surface. In principle, the position of the hand can be arbitrary and the position of the hand can be determined in the detection area as described above. For a more precise determination, however, it can be determined whether the user is extending a finger in the direction of the input surface, for example the index finger. A user can use this hand position intuitively for operation. It can then be provided to control a function only when the user makes a pointing movement, e.g. by extending his index finger. If the user does not make a pointing movement, the control of a function can be suppressed, since in such a case the user may not intend to control a function. Determining the hand position can therefore improve the accuracy of the operation. In addition, the position of a fingertip can be determined with greater accuracy. This position can then be assumed to be the relevant position of the hand, in particular if the tip of the extended finger is the point on the hand that is closest to the input surface, as described above.
Bei einigen Ausführungsformen wird die Funktion der Benutzerschnittstelle aktiviert, wenn bestimmt wird, dass die Hand in den Steuerbereich eintritt, und deaktiviert, wenn die Hand den Steuerbereich verlässt. Beispielsweise kann eine Bedienfläche der grafischen Benutzerschnittstelle gedrückt werden, wenn der Benutzer mit seiner Hand (oder seiner Fingerspitze) in den Steuerbereich eindringt, also der Eingabeoberfläche sehr nahe kommt (oder sie berührt). Solange die Hand in dem Steuerbereich ist, kann die Bedienfläche dann beispielsweise gehalten werden. Sie kann dann losgelassen werden, wenn der Benutzer seine Hand zurückzieht, d.h. wenn die Hand (oder die Fingerspitze) den Steuerbereich verlässt. Das Eintreten und Verlassen der Hand in den Steuerbereich kann so vorteilhaft für die Interaktion mit der Benutzeroberfläche genutzt werden. Weitere Möglichkeiten, wie verschiedene Ereignisse, welche durch die Position der Hand, genauer den Abstand der Hand zur Eingabeoberfläche, ausgelöst werden können, werden nachfolgend erläutert. In some embodiments, the user interface function is activated when it is determined that the hand enters the control area and deactivated when the hand leaves the control area. For example, a control surface of the graphical user interface can be pressed when the user enters the control area with his hand (or fingertip), that is, comes very close to the input surface. (or touches it). As long as the hand is in the control area, the control surface can then be held, for example. It can then be released when the user withdraws his hand, ie when the hand (or fingertip) leaves the control area. The entry and exit of the hand into the control area can thus be used advantageously for interaction with the user interface. Further possibilities for how different events can be triggered by the position of the hand, or more precisely the distance of the hand from the input surface, are explained below.
Bei einigen Ausführungsformen wird des Weiteren zumindest ein Übergangsereignis bestimmt. Ein Übergangsereignis kann festgestellt werden, wenn die Hand von einem der Bereiche in einen anderen übertritt, also einen Bereich verlässt und in einen anderen eintritt. Dies kann insbesondere dann der Fall sein, wenn bestimmt wird, dass: die Hand in den Steuerbereich eintritt, die Hand den Steuerbereich verlässt, die Hand in den Aktivierungsbereich eintritt, die Hand den Aktivierungsbereich verlässt, die Hand den Erfassungsbereich verlässt oder die Hand in den Erfassungsbereich eintritt. Zusammen mit der Position auf der Eingabeoberfläche, d.h. der Zeigerposition wie oben erläutert, kann so eine vollständige Steuerung der Benutzerschnittstelle implementiert werden. In some embodiments, at least one transition event is further determined. A transition event can be determined when the hand passes from one of the areas to another, i.e. leaves one area and enters another. This can be the case in particular when it is determined that: the hand enters the control area, the hand leaves the control area, the hand enters the activation area, the hand leaves the activation area, the hand leaves the detection area, or the hand enters the detection area. Together with the position on the input surface, i.e. the pointer position as explained above, complete control of the user interface can be implemented in this way.
Ein zweiter Aspekt der Erfindung betrifft ein System zur Datenverarbeitung, aufweisend zumindest einen Prozessor, der so konfiguriert ist, dass er das Verfahren nach dem ersten Aspekt der Erfindung ausführt. Das System weist zudem zumindest eine Anzeigeeinrichtung auf, welche eingerichtet ist, eine grafische Benutzerschnittstelle auf einer Eingabeoberfläche anzuzeigen, und eine Erfassungseinrichtung, welche eingerichtet ist, eine Hand eines Benutzers in einem dreidimensionalen Raumbereich zu erfassen und eine Position der Hand in dem dreidimensionalen Raumbereich zu bestimmen. A second aspect of the invention relates to a system for data processing, comprising at least one processor which is configured to carry out the method according to the first aspect of the invention. The system also has at least one display device which is configured to display a graphical user interface on an input surface, and a detection device which is configured to detect a hand of a user in a three-dimensional spatial area and to determine a position of the hand in the three-dimensional spatial area.
Bei einigen Ausführungsformen des Systems umfasst die Anzeigeeinrichtung eine Projektionseinrichtung, welche eingerichtet ist, eine Darstellung der grafischen Benutzerschnittstelle auf eine Oberfläche zu projizieren. Dies erlaubt eine freie Gestaltung der Anzeige der Benutzerschnittstelle auf jeglichen Oberflächen, auf welche die Benutzeroberfläche projiziert werden kann. Beispielsweise können so Bereiche des Armaturenbretts eines Fahrzeugs für die Anzeige der Benutzerschnittstelle genutzt werden, ohne dass diese mit einem Display oder dergleichen ausgestattet werden müssen. Auch andere Bereiche, wie die Mittelkonsole oder auch beispielsweise die A-Säule eines Fahrzeugs können so flexibel für die Anzeige der Benutzerschnittstelle genutzt werden. Ein Projektor kann sich beispielsweise im Dachhimmel, z.B. im Bereich des Innenspiegels befinden, und die Benutzerschnittstelle auf beliebige Oberflächen projizieren, welche dann als Eingabeoberfläche für eine berührungslose Steuerung wie oben beschrieben genutzt werden können. Es versteht sich, dass die Anzeigeeinrichtung auch als Display ausgebildet sein, welches jedoch im Sinne der Erfindung nicht berührungsempfindlich sein muss. In some embodiments of the system, the display device comprises a projection device which is set up to project a representation of the graphical user interface onto a surface. This allows a free design of the display of the user interface on any surface onto which the user interface can be projected. For example, areas of the dashboard of a vehicle can be used to display the user interface without having to be equipped with a display or the like. Other areas, such as the center console or the A-pillar of a vehicle, can also be used flexibly to display the user interface. A projector can be located, for example, in the roof lining, e.g. in the area of the interior mirror. and project the user interface onto any surface, which can then be used as an input surface for contactless control as described above. It goes without saying that the display device can also be designed as a display, which, however, does not have to be touch-sensitive in the sense of the invention.
Bei einigen Ausführungsformen des Systems umfasst die Erfassungseinrichtung zumindest eine Bilderfassungseinrichtung, insbesondere eine Kamera. Mittels einer Kamera kann auf einfache Weise die Position der Hand eines Benutzers im dreidimensionalen Raum bestimmt werden. Es kann eine Kamera oder es können mehrere Kameras vorgesehen sein. Die Kamera kann eine Infrarot-Kamera sein. Vorteilhaft ist die zumindest eine Kamera eine Time-of-Flight-Kamera (ToF-Kamera). Durch Verwendung einer solchen 3D- Sensoreinrichtung können direkt die Position der Hand im dreidimensionalen Raum und ihre Bewegung erfasst werden. Es können auch 2D-Sensoren kombiniert werden, um die Position der Hand im dreidimensionalen Raum zu erfassen. In some embodiments of the system, the detection device comprises at least one image detection device, in particular a camera. The position of a user's hand in three-dimensional space can be determined in a simple manner using a camera. One camera or several cameras can be provided. The camera can be an infrared camera. The at least one camera is advantageously a time-of-flight camera (ToF camera). By using such a 3D sensor device, the position of the hand in three-dimensional space and its movement can be detected directly. 2D sensors can also be combined to detect the position of the hand in three-dimensional space.
Ein dritter Aspekt der Erfindung betrifft ein Computerprogramm mit Instruktionen, die bei ihrer Ausführung auf einem System nach dem zweiten Aspekt dieses veranlassen, das Verfahren nach dem ersten Aspekt auszuführen. A third aspect of the invention relates to a computer program with instructions which, when executed on a system according to the second aspect, cause the system to carry out the method according to the first aspect.
Das Computerprogramm kann insbesondere auf einem nichtflüchtigen Datenträger gespeichert sein. Bevorzugt ist dies ein Datenträger in Form eines optischen Datenträgers oder eines Flashspeichermoduls. Dies kann vorteilhaft sein, wenn das Computerprogramm als solches unabhängig von einer Prozessorplattform gehandelt werden soll, auf der das ein bzw. die mehreren Programme auszuführen sind. In einer anderen Implementierung kann das Computerprogramm als eine Datei auf einer Datenverarbeitungseinheit, insbesondere auf einem Server vorliegen, und über eine Datenverbindung, beispielsweise das Internet oder eine dedizierte Datenverbindung, wie etwa ein proprietäres oder lokales Netzwerk, herunterladbar sein. Zudem kann das Computerprogramm eine Mehrzahl von zusammenwirkenden einzelnen Programmodulen aufweisen. The computer program can in particular be stored on a non-volatile data carrier. This is preferably a data carrier in the form of an optical data carrier or a flash memory module. This can be advantageous if the computer program as such is to be handled independently of a processor platform on which the one or more programs are to be executed. In another implementation, the computer program can be present as a file on a data processing unit, in particular on a server, and can be downloaded via a data connection, for example the Internet or a dedicated data connection, such as a proprietary or local network. In addition, the computer program can have a plurality of interacting individual program modules.
Das System nach dem zweiten Aspekt kann entsprechend einen Programmspeicher aufweisen, in dem das Computerprogramm abgelegt ist. Alternativ kann das System auch eingerichtet sein, über eine Kommunikationsverbindung auf ein extern, beispielsweise auf einem oder mehreren Servern oder anderen Datenverarbeitungseinheiten verfügbares Computerprogramm zuzugreifen, insbesondere um mit diesem Daten auszutauschen, die während des Ablaufs des Verfahrens bzw. Computerprogramms Verwendung finden oder Ausgaben des Computerprogramms darstellen. The system according to the second aspect can accordingly have a program memory in which the computer program is stored. Alternatively, the system can also be set up to access a computer program that is available externally, for example on one or more servers or other data processing units, via a communication connection, in particular in order to exchange data with this program, which are used during the course of the process or computer program or represent outputs of the computer program.
Die in Bezug auf den ersten Aspekt der Erfindung erläuterten Merkmale und Vorteile gelten entsprechend auch für die weiteren Aspekte der Erfindung. The features and advantages explained with respect to the first aspect of the invention also apply accordingly to the other aspects of the invention.
Weitere Vorteile, Merkmale und Anwendungsmöglichkeiten der vorliegenden Erfindung ergeben sich aus der nachfolgenden detaillierten Beschreibung im Zusammenhang mit den Zeichnungen. Further advantages, features and possible applications of the present invention will become apparent from the following detailed description taken in conjunction with the drawings.
Dabei zeigt: It shows:
Fig. 1 schematisch eine Eingabeeinrichtung gemäß einer Ausführungsform mit einer Eingabeoberfläche, einer Anzeigeeinrichtung und einer Erfassungseinrichtung; Fig. 1 schematically shows an input device according to an embodiment with an input surface, a display device and a detection device;
Fig. 2 schematisch eine dreidimensionale Ansicht eines Erfassungsbereichs vor einer Eingabeoberfläche; Fig. 2 schematically shows a three-dimensional view of a detection area in front of an input surface;
Fig. 3 schematisch eine Seitenansicht eines Erfassungsbereichs vor einerFig. 3 schematically shows a side view of a detection area in front of a
Eingabeoberfläche (Hand im Fokusbereich); Input interface (hand in focus area);
Fig. 4 schematisch eine Seitenansicht eines Erfassungsbereichs vor einerFig. 4 schematically shows a side view of a detection area in front of a
Eingabeoberfläche (Hand im Steuerbereich); Input interface (hand in control area);
Fig. 5 schematisch ein Steuerelement mit einem Zeiger in unterschiedlichen Positionen; Fig. 5 shows schematically a control element with a pointer in different positions;
Fig. 6 schematisch einen Bewegungsbereich eines beweglichen Steuerelements; Fig. 6 schematically shows a range of motion of a movable control element;
Fig. 7 schematisch mögliche Bewegungsrichtungen eines beweglichen Steuerelements; Fig. 7 schematically shows possible directions of movement of a movable control element;
Fig. 8a, b, c schematisch das Verhalten eines beweglichen Steuerelements an einem Rand; und Fig. 8a, b, c schematically show the behavior of a movable control element at an edge; and
Fig. 9a, b schematisch das Verhalten eines beweglichen Steuerelements bezüglich eines Zeigers. In den Figuren werden durchgängig dieselben Bezugszeichen für dieselben oder einander entsprechenden Elemente der Erfindung verwendet. Fig. 9a, b schematically show the behavior of a movable control element with respect to a pointer. Throughout the figures, the same reference numerals are used for the same or corresponding elements of the invention.
In Fig. 1 ist eine Eingabeeinrichtung zum Erfassen einer Benutzereingabe veranschaulicht. Auf einer Eingabeoberfläche 1 wird eine grafische Benutzeroberfläche (GUI) dargestellt. Diese kann mittels eines Projektors 2 auf die Eingabeoberfläche 1 projiziert werden. Alternativ kann die Eingabeoberfläche 1 auch durch einen Bildschirm, wie ein herkömmliches Display gebildet werden, welches kein berührungsempfindliches Display sein muss. Somit kann jede Oberfläche zur Erkennung von Annäherung verwendet werden, beispielsweise eine beliebige Oberfläche in einem Fahrzeug. Wie nachfolgend erläutert, werden Benutzereingaben berührungslos erfasst, und der Benutzer kann eine entsprechende Rückmeldung des Systems erhalten, um die Bedienung der Benutzeroberfläche zu vereinfachen. Dazu ist als Sensor eine Erfassungseinrichtung 3 vorgesehen, welche eine Hand eines Benutzers erfasst und deren Position im dreidimensionalen Raum bestimmt. Die Erfassungseinrichtung 3 kann beispielsweise ein 3D-Sensor, wie eine Time-of-Flight-Kamera sein, oder kann optische 2D-Sensoren umfassen. Das System ermöglicht es dem Benutzer, die Eingabeoberfläche 1 (oder gegebenenfalls einen Bildschirm) zu berühren, wenn er dies möchte. Auf diese Weise kann ein ähnliches Erlebnis wie bei herkömmlichen Touchscreens, aber mit gewissen Unterschieden im Verhalten erreicht werden. Die Steuerung ist aber grundsätzlich ohne Berührung möglich. Fig. 1 shows an input device for detecting a user input. A graphical user interface (GUI) is shown on an input surface 1. This can be projected onto the input surface 1 by means of a projector 2. Alternatively, the input surface 1 can also be formed by a screen, such as a conventional display, which does not have to be a touch-sensitive display. Thus, any surface can be used to detect proximity, for example any surface in a vehicle. As explained below, user inputs are detected without contact, and the user can receive appropriate feedback from the system to simplify the operation of the user interface. For this purpose, a detection device 3 is provided as a sensor, which detects a user's hand and determines its position in three-dimensional space. The detection device 3 can, for example, be a 3D sensor, such as a time-of-flight camera, or can comprise optical 2D sensors. The system enables the user to touch the input surface 1 (or possibly a screen) if he or she wishes to do so. In this way, a similar experience to conventional touchscreens can be achieved, but with certain differences in behavior. However, control is basically possible without touching.
Die Erfassungseinrichtung 3 bildet ein Handerkennungssystem, das in einem geeigneten Sichtfeld (dem Erfassungsbereich) die Hand einer Person in Echtzeit in geeigneter Detailgenauigkeit erkennt. Das bedeutet, dass die Erfassungseinrichtung 3 in der Lage sein kann, Positionen von Fingerspitzen in einem definierten 3D-Weltkoordinatensystem (das mit dem Sensorkoordinatensystem übereinstimmen kann oder auch nicht) zu erkennen. Darüber hinaus kann es vorgesehen sein, dass eine Klassifizierung erfolgt, ob ein gestreckter (zeigender) Finger vorhanden ist oder nicht, d.h. ob eine erkannte Hand gerade eine Zeigegeste macht. Es kann zudem noch eine Steuereinheit („Controller“; nicht dargestellt) vorgesehen sein, der eine Kalibrierung des Systems vornimmt. Insbesondere ist dem Controller die physische Position und Größe der Eingabeoberfläche 1 (in Weltkoordinaten) bekannt, sodass er die Erkennungsdaten einer Hand (z.B. Fingerpositionen) geometrisch mit den Oberflächenpositionen in Beziehung setzen kann. Der Controller empfängt die Eingaben des Erkennungssystems und setzt sie in geeignete Eingaben für die GUI-Anwendung um. Wie im Folgenden insbesondere auch mit Bezug auf Fig. 2, 3 und 4 erläutert werden wird, ermöglicht das System dem Benutzer, einen Zeiger 9 zu steuern, der eine logische Position auf der Eingabeoberfläche 1 bzw. der Benutzeroberfläche 4 darstellt. Der Zeiger 9 kann ein visuelles Erscheinungsbild haben, muss es aber nicht. Er kann z.B. als Punkt dargestellt werden, oder er ist an sich unsichtbar. Außerdem kann der Zeiger 9 jederzeit logischerweise aktiviert oder deaktiviert werden. Der Zeiger 9 ist deaktiviert, wenn sich die Hand gerade nicht in der Nähe der Eingabeoberfläche 1 befindet, d.h. außerhalb des Erfassungsbereichs 10, nicht in einer zeigenden Haltung ist (so dass kein zeigender Finger erkannt werden kann) oder aus anderen Gründen, die von der Handerkennung gerade nicht erkannt werden. The detection device 3 forms a hand recognition system that detects a person's hand in real time in a suitable field of view (the detection area) with a suitable level of detail. This means that the detection device 3 can be able to detect fingertip positions in a defined 3D world coordinate system (which may or may not coincide with the sensor coordinate system). In addition, it can be provided that a classification is made as to whether or not an extended (pointing) finger is present, i.e. whether a detected hand is currently making a pointing gesture. A control unit ("controller"; not shown) can also be provided that calibrates the system. In particular, the controller knows the physical position and size of the input surface 1 (in world coordinates), so that it can geometrically relate the detection data of a hand (e.g. finger positions) to the surface positions. The controller receives the inputs from the detection system and converts them into suitable inputs for the GUI application. As will be explained below, particularly with reference to Fig. 2, 3 and 4, the system enables the user to control a pointer 9 which represents a logical position on the input surface 1 or the user interface 4. The pointer 9 may or may not have a visual appearance. It may, for example, be represented as a point, or it may be invisible per se. In addition, the pointer 9 can logically be activated or deactivated at any time. The pointer 9 is deactivated when the hand is not currently in the vicinity of the input surface 1, i.e. outside the detection area 10, is not in a pointing position (so that no pointing finger can be detected) or for other reasons which are not currently detected by the hand detection.
Es ist vorteilhaft, wenn vorgesehen ist, dass der Benutzer den Zeiger 9 mit einer Hand 7 steuert, die sich in einer zeigenden Haltung befindet, d.h. mit einem gestreckten Zeigefinger 8, der sich in der Nähe der Eingabeoberfläche 1 befindet. Außerdem kann der Benutzer eine Steuerung (analog zum Mausklick) auslösen, die durch den Abstand der Hand zur Eingabeoberfläche 1 bestimmt wird. Die verschiedenen Abstandsbereiche vor der Eingabeoberfläche 1 werden nachfolgend erläutert. It is advantageous if the user is provided to control the pointer 9 with a hand 7 that is in a pointing position, i.e. with an extended index finger 8 that is located near the input surface 1. In addition, the user can trigger a control (analogous to a mouse click) that is determined by the distance of the hand from the input surface 1. The various distance ranges in front of the input surface 1 are explained below.
Die Position des Zeigefingers 8, wie sie von der Erfassungseinrichtung 3 erkannt wird, bestimmt die Position des Zeigers 9 auf der Eingabeoberfläche 1. Es gibt mehrere Varianten, wie eine Zuordnung realisiert werden kann. Insbesondere ist zu beachten, dass die Fingerposition eine Position im dreidimensionalen Raum (Erfassungsbereich 10) ist, während die Zeigerposition ein Wert im zweidimensionalen Raum (Eingabeoberfläche 1 bzw. Bildschirm) ist. The position of the index finger 8, as detected by the detection device 3, determines the position of the pointer 9 on the input surface 1. There are several variants of how an assignment can be realized. In particular, it should be noted that the finger position is a position in three-dimensional space (detection area 10), while the pointer position is a value in two-dimensional space (input surface 1 or screen).
Eine einfache und effektive Variante der Zuordnung ist eine orthogonale Projektion der Position der Hand 7 (d.h. der Spitze des Zeigefingers 8) auf die Eingabeoberfläche 1. Die Erfassungseinrichtung 3 erkennt einen zeigenden Finger 8 und die Position seiner Spitze. Die Position des Zeigers 9 kann dann einfach die orthogonale Projektion der Position der Fingerspitze auf die Eingabeoberfläche 1 sein. Wenn kein zeigender Finger erkannt wird, kann der Zeiger deaktiviert werden. Eine weiter vereinfachte Variante dieser Lösung kann darin bestehen, dass einfach die Position einer Handspitze, d.h. des vordersten Punktes der Hand in einer bestimmten Vorwärtsrichtung, erkannt wird und dies als Fingerzeigposition interpretiert wird. Wenn die Vorwärtsrichtung geeignet gewählt ist (etwa orthogonal zum Bildschirm bzw. zur Eingabeoberfläche 1 ), dann ist diese erkannte Position tatsächlich die Zeigefingerposition, wenn der Benutzer auf den Bildschirm zeigt. Auf diese Weise ist keine Klassifizierung der Finger- oder Zeigeposition erforderlich. A simple and effective variant of the assignment is an orthogonal projection of the position of the hand 7 (i.e. the tip of the index finger 8) onto the input surface 1. The detection device 3 detects a pointing finger 8 and the position of its tip. The position of the pointer 9 can then simply be the orthogonal projection of the position of the fingertip onto the input surface 1. If no pointing finger is detected, the pointer can be deactivated. A further simplified variant of this solution can consist in simply detecting the position of a hand tip, i.e. the frontmost point of the hand in a certain forward direction, and interpreting this as the finger pointing position. If the forward direction is suitably selected (for example orthogonal to the screen or to the input surface 1), then this detected position is actually the index finger position when the user points at the screen. This way, no classification of finger or pointing position is required.
Es kann auch vorgesehen sein, dass die Erfassungseinrichtung 3 einen zeigenden Finger 8 einschließlich seiner Zeigerichtung erkennt. Dabei wird ein Zeigefingerstrahl ermittelt, der am unteren Ende des Fingers beginnt und entlang der Fingerrichtung verläuft. Die Zeigerposition 9 ist dann der Schnittpunkt des Zeigestrahls mit der Eingabeoberfläche 1 . Dies setzt jedoch voraus, dass ein Zeigefinger einigermaßen gerade ist und eine Zeigerichtung zugewiesen werden kann. Ist dies nicht der Fall, würde das Erkennungssystem die Eingabe ablehnen und der Zeiger würde deaktiviert werden. It can also be provided that the detection device 3 recognizes a pointing finger 8 including its pointing direction. In this case, an index finger beam is determined that begins at the lower end of the finger and runs along the finger direction. The pointer position 9 is then the intersection point of the index beam with the input surface 1. However, this requires that an index finger is reasonably straight and a pointing direction can be assigned. If this is not the case, the recognition system would reject the input and the pointer would be deactivated.
Die 3D-Fingerposition bestimmt nicht nur die Zeigerposition, sondern auch (bei Interpretation im zeitlichen Kontext) eine Steuerung bzw. einen Auslöser („Trigger“), der zu einer Steuerung einer Funktion führt. Dazu kann der Erfassungsbereich 10 vor der Eingabeoberfläche 1 in zwei dreidimensionale Raumbereiche aufgeteilt werden, welche hier als Steuerbereich 5 und Aktivierungsbereich 6 bezeichnet werden. Diese Bereiche sind im einfachsten Fall, wie in Fig. 2 dargestellt, quaderförmige Boxen. Der Steuerbereich 5 kann auch als „Triggerbox“ und der Aktivierungsbereich 6 als „Fokusbox“ bezeichnet werden. Diese Bereiche können jedoch abhängig von der Gestalt der Eingabeoberfläche 1 auch andere Formen annehmen. Die angegebenen Größen sind lediglich beispielhaft und können abhängig von den Gegebenheiten oder dem Anwendungsfall variieren, beispielsweise abhängig von der Lage und Größe der Eingabeoberfläche 1 , Inhalt der GUI, usw. The 3D finger position not only determines the pointer position, but also (when interpreted in a temporal context) a control or a trigger that leads to the control of a function. For this purpose, the detection area 10 in front of the input surface 1 can be divided into two three-dimensional spatial areas, which are referred to here as the control area 5 and the activation area 6. In the simplest case, these areas are cuboid-shaped boxes, as shown in Fig. 2. The control area 5 can also be referred to as the “trigger box” and the activation area 6 as the “focus box”. However, these areas can also take on other shapes depending on the shape of the input surface 1. The sizes given are only examples and can vary depending on the circumstances or the application, for example depending on the position and size of the input surface 1, content of the GUI, etc.
Die Grundfläche des Steuerbereichs 5 entspricht der Eingabeoberfläche 1. Die Tiefe des Steuerbereichs 5 kann angemessen gewählt werden, beispielsweise etwa 2 bis 3 cm. Der Aktivierungsbereich 6 ist ein weiterer Bereich, der sich „vor“ oder „über“ dem Steuerbereich 5 befindet und dessen Tiefe ebenfalls angemessen gewählt werden kann, beispielsweise etwa 10 cm. Nun hat die Hand 7 zu jedem Zeitpunkt einen bestimmten Annäherungszustand bezüglich der Eingabeoberfläche 1 und damit der GUI, welcher sich über die Anoder Abwesenheit der Hand 7 im Erfassungsbereich 10 bzw. genauer gesagt Aktivierungsbereich 6 und Steuerbereich 5 ausdrücken lässt. Dies kann einer von drei definierten Zuständen sein, wie nachfolgend erläutert, und wird durch die Position des Zeigefingers 8 bestimmt (wenn eine zeigende Hand erkannt wird). Wenn sich, wie in Fig. 3 dargestellt, die Position des Zeigefingers 8 im Aktivierungsbereich 6 (der „Fokusbox“) befindet, kann dieser Zustand als „Fokus“ bezeichnet werden. Wenn sich, wie in Fig. 4 dargestellt, die Position des Zeigefingers 8 im Steuerbereich 5 (der „Triggerbox“) befindet, kann dieser Zustand als „Auslöser“ oder „Trigger“ bezeichnet werden. Als Zustand „Leerlauf“ kann eine Situation bezeichnet werden, in der sich die Position des Zeigefingers 8 in keinem der Felder, also außerhalb des Erfassungsbereichs 10 befindet. Dies gilt insbesondere für den Fall, dass überhaupt keine Hand oder kein Zeigefinger erkannt wird. Es ist sinnvoll, einen Filter anzuwenden, um ein Flackern zwischen den Zuständen zu Zeiten zu vermeiden, in denen die erkannte Fingerposition nahe an den Boxgrenzen liegt. Als Filter eignet sich beispielsweise eine Hysterese. The base area of the control area 5 corresponds to the input surface 1. The depth of the control area 5 can be chosen appropriately, for example about 2 to 3 cm. The activation area 6 is another area that is located "in front of" or "above" the control area 5 and whose depth can also be chosen appropriately, for example about 10 cm. Now the hand 7 has a certain approximation state with respect to the input surface 1 and thus the GUI at any time, which can be expressed by the presence or absence of the hand 7 in the detection area 10 or, more precisely, the activation area 6 and the control area 5. This can be one of three defined states, as explained below, and is determined by the position of the index finger 8 (if a pointing hand is detected). If, as shown in Fig. 3, the position of the index finger 8 is in the activation area 6 (the “focus box”), this state can be referred to as “focus”. If, as shown in Fig. 4, the position of the index finger 8 is in the control area 5 (the “trigger box”), this state can be referred to as “trigger”. The “idle” state can be a situation in which the position of the index finger 8 is not in any of the fields, i.e. outside the detection area 10. This is especially true if no hand or index finger is detected at all. It is useful to apply a filter to avoid flickering between the states at times when the detected finger position is close to the box boundaries. A hysteresis, for example, is a suitable filter.
Zu jedem Zeitpunkt (bzw. jedem Frame) ist die für das System relevante Handeingabe vollständig durch die aktuelle Zeigerposition (x- und y-Koordinaten) und den aktuellen Annäherungszustand (z-Koordinate) beschrieben. Diese Daten, ein Paar aus Zeigerposition und Annäherungszustand, können als Kontrollzustand bezeichnet werden. Es ist zu beachten, dass die Informationen innerhalb des Kontrollzustands konzeptionell die gleichen sind wie die (relevanten) Informationen über die erkannte Hand, aber vollständig in Bildschirmkoordinaten (bzw. logischen, nicht-geometrischen Informationen) ausgedrückt werden und nicht mehr von der geometrischen Einrichtung und Kalibrierung des Systems (Position des Sensors usw.) abhängen. Daher ist der Steuerzustand eine autarke Eingabe für eine grafische Benutzeroberfläche (GUI), die vollständige Informationen über ein Zeigegerät liefert, ähnlich wie bei einer Maus oder einer Touch- Eingabe. At any point in time (or frame), the hand input relevant to the system is completely described by the current pointer position (x and y coordinates) and the current approach state (z coordinate). This data, a pair of pointer position and approach state, can be referred to as the control state. Note that the information within the control state is conceptually the same as the (relevant) information about the detected hand, but is fully expressed in screen coordinates (or logical, non-geometric information) and no longer depends on the geometric setup and calibration of the system (position of the sensor, etc.). Therefore, the control state is a self-sufficient input to a graphical user interface (GUI) that provides complete information about a pointing device, similar to a mouse or touch input.
Besonders relevant für die Steuerung sind nun die Momente, in denen sich der Zustand der Annäherung ändert, d.h. wenn die Position der Hand einen der Bereiche verlässt und/oder in einen der Bereiche eintritt. Die (zeitliche) Erkennung der Handposition kann auf Frames basieren, so dass eine Zustandsänderung der Annäherung dann eintritt, wenn der im Frame n+1 ermittelte Kontrollzustand einen anderen Zustand in der Annäherung ergibt als der vorherige Frame n. Daher können die folgenden Übergangsereignisse definiert werden, die Zustandsänderungen entsprechen, und für die Steuerung der Funktionen der Benutzeroberfläche relevant sein können. Particularly relevant for control are the moments in which the state of the approach changes, i.e. when the position of the hand leaves one of the areas and/or enters one of the areas. The (temporal) detection of the hand position can be based on frames, so that a state change of the approach occurs when the control state determined in frame n+1 results in a different state in the approach than the previous frame n. Therefore, the following transition events can be defined, which correspond to state changes and can be relevant for controlling the functions of the user interface.
Das Übergangsereignis „TriggerStateEnterEvent“ wird ausgelöst, wenn der Zustand zu „Auslöser“ wechselt. Das Übergangsereignis „TriggerStateLeaveEvent“ wird ausgelöst, wenn der Zustand „Auslöser“ in einen beliebigen anderen Zustand wechselt. Diese beiden Übergangsereignisse können für die Auswahl von Funktionen genutzt werden, ähnlich wie ein Mausklick oder das Berühren eines Touchscreens. Auf diese Weise kann auch eine Drag-and-Drop-Funktionalität realisiert werden. Solange die Hand (bzw. die Spitze des Zeigefingers 8) im Steuerbereich 5 verbleibt, wird ein Objekt der Benutzeroberfläche gehalten und dann losgelassen, wenn die Hand 7 den Steuerbereich 5 verlässt. The transition event "TriggerStateEnterEvent" is triggered when the state changes to "Trigger". The transition event "TriggerStateLeaveEvent" is triggered when the state "Trigger" changes to any other state. These two Transition events can be used to select functions, similar to a mouse click or touching a touchscreen. In this way, drag-and-drop functionality can also be implemented. As long as the hand (or the tip of the index finger 8) remains in the control area 5, an object of the user interface is held and then released when the hand 7 leaves the control area 5.
Zusätzlich können die folgenden Ereignisse definiert werden. Das Übergangsereignis „FocusStateEnterEvent“ wird ausgelöst, wenn der Zustand zu „Fokus“ wechselt. Das Übergangsereignis „FocusStateLeaveEvent“ wird ausgelöst, wenn der Zustand von „Fokus“ in einen beliebigen anderen Zustand wechselt. Das Übergangsereignis „IdleStateEnterEvent“ wird ausgelöst, wenn der Zustand in „Leerlauf“ wechselt. Das Übergangsereignis „IdleStateLeaveEvent“ wird ausgelöst, wenn der Zustand von „Leerlauf“ in einen beliebigen anderen Zustand wechselt. Diese Ereignisse ermöglichen die Implementierung zusätzlicher Funktionen. Beispielsweise kann die Darstellung der Benutzerschnittstelle auf die Tatsache reagieren, dass der Benutzer sich nicht mit der steuernden Hand in der Nähe der Eingabeoberfläche 1 befindet, sich jedoch aber der Eingabeoberfläche 1 nähert, indem er mit seiner Hand in den Aktivierungsbereich 6 eindringt. So erhält der Benutzer ein Feedback, dass das System auf seine Hand 7 erfolgreich reagiert und er kann die Bedienung fortsetzen. In addition, the following events can be defined. The transition event "FocusStateEnterEvent" is triggered when the state changes to "Focus". The transition event "FocusStateLeaveEvent" is triggered when the state changes from "Focus" to any other state. The transition event "IdleStateEnterEvent" is triggered when the state changes to "Idle". The transition event "IdleStateLeaveEvent" is triggered when the state changes from "Idle" to any other state. These events enable the implementation of additional functions. For example, the presentation of the user interface can react to the fact that the user is not near the input surface 1 with the controlling hand, but approaches the input surface 1 by entering the activation area 6 with his hand. The user thus receives feedback that the system has successfully responded to his hand 7 and he can continue operating the system.
Generell ist für die Benutzerfreundlichkeit eine angemessene Rückmeldung (Feedback) sehr hilfreich. Insbesondere bei der berührungslosen Interaktion besteht ein Problem darin, dem Benutzer nützliches, unterstützendes Feedback zu geben. Der Benutzer fühlt sich oft verloren, weiß nicht, wie er interagieren soll und was das System eigentlich erkennt. Das hier beschriebene System kann direktes Feedback durch räumliche Informationen über die Fingerposition geben, so dass der Benutzer versteht, was das System erkennt, um darauf zu reagieren und die Fingerposition und -bewegung anzupassen. Es werden verschiedene Zustände für Steuerelemente der Benutzeroberfläche („Ul-Elemente“) beschrieben, die in Abhängigkeit von der Benutzerinteraktion Echtzeitinformationen und damit Feedback an den Benutzer zurückgeben. Das System zeigt, was es erkennt und welche Ul-Elemente bedient werden können. In general, adequate feedback is very helpful for usability. In touchless interaction in particular, one problem is giving the user useful, supportive feedback. The user often feels lost, does not know how to interact and what the system actually recognizes. The system described here can provide direct feedback through spatial information about the finger position, so that the user understands what the system recognizes in order to react and adjust the finger position and movement. Different states for user interface controls ("UI elements") are described, which, depending on user interaction, return real-time information and thus feedback to the user. The system shows what it recognizes and which UI elements can be operated.
Bei der Interaktion mit Ul-Elementen in einem 3D-Raum muss das System sensibel auf Veränderungen der Fingerposition des Benutzers reagieren. Mehr Feedback gibt dem Benutzer mehr Sicherheit. Die Kombination aus horizontaler und vertikaler Bewegung des Fingers zusammen mit den Tiefendaten (Abstand zum Bildschirm bzw. zur Eingabeoberfläche) führt zu komplexen Zustandsänderungen, wie oben beschrieben. When interacting with Ul elements in a 3D space, the system must react sensitively to changes in the user's finger position. More feedback gives the user more security. The combination of horizontal and vertical movement of the Fingers together with the depth data (distance to the screen or input surface) leads to complex state changes, as described above.
Insbesondere in einer Situation, in der ein Benutzer in einem Fahrzeug sitzt und mit virtuell dargestellten Objekten auf einem Armaturenbrett interagieren will, ist ein entsprechendes Feedback vorteilhaft. Sobald er den Finger hebt, um ein Element der Benutzeroberfläche auszuwählen, können anklickbare Elemente größer erscheinen und leicht hervorgehoben werden. Fährt er nun mit dem Finger über eines dieser Elemente, kann es zusätzlich durch einen „Hover- Effekt“ hervorgehoben werden. Klickt er nun auf das Element, kann es optisch wie ein echter Button zum Herunterklicken erscheinen. Der Benutzer lernt mit der Zeit immer besser zu interagieren, so dass sein „Klick“ vom System erkannt wird. Neben einer optischen Rückmeldung kann auch eine akustische Rückmeldung vorgesehen sein, beispielsweise verschiedene Klickgeräusche. Such feedback is particularly beneficial in a situation where a user is sitting in a vehicle and wants to interact with virtually displayed objects on a dashboard. As soon as they lift their finger to select an element of the user interface, clickable elements can appear larger and be easily highlighted. If they then move their finger over one of these elements, it can be additionally highlighted by a "hover effect". If they now click on the element, it can visually appear like a real button for clicking down. Over time, the user learns to interact better and better so that their "click" is recognized by the system. In addition to visual feedback, acoustic feedback can also be provided, for example various clicking noises.
Fig. 5 zeigt schematisch ein Steuerelement 13, welches in Form einer runden Schaltfläche dargestellt ist und so für einen Benutzer als Teil der Benutzeroberfläche 4 sichtbar ist. Für die Bedienung bzw. Steuerung ist es jedoch vorteilhaft, wenn ein Benutzer mit dem Zeiger 9 das Steuerelement nicht exakt treffen muss. Zu diesem Zweck ist der sichtbare Bereich des Steuerelements 13 von einem Bereich 14 umgeben. Dieser ist der Einfachheit halber viereckig entlang der x- und y-Koordinaten. Links ist eine Situation dargestellt, in welcher der Zeiger 9 außerhalb des Steuerelements 13 und insbesondere auch außerhalb des Bereichs 14 liegt. Das Steuerelement 13 wird nicht angesprochen. Liegt der Zeiger 9 jedoch innerhalb des Bereichs 14, wie rechts in Fig. 5 dargestellt, wird das Steuerelement 13 angesprochen. Der Zeiger 9 wird als „auf dem Steuerelement 13“ angesehen, wenn sich seine Position zumindest im Bereich 14 befindet. Fig. 5 shows a schematic of a control element 13, which is shown in the form of a round button and is thus visible to a user as part of the user interface 4. For operation or control, however, it is advantageous if a user does not have to hit the control element exactly with the pointer 9. For this purpose, the visible area of the control element 13 is surrounded by an area 14. For the sake of simplicity, this is square along the x and y coordinates. On the left, a situation is shown in which the pointer 9 is outside the control element 13 and in particular also outside the area 14. The control element 13 is not addressed. However, if the pointer 9 is within the area 14, as shown on the right in Fig. 5, the control element 13 is addressed. The pointer 9 is regarded as “on the control element 13” if its position is at least in the area 14.
Im Folgenden wird mit Bezug auf Fig. 6 bis Fig. 9 beschrieben, wie ein Steuerelement 13 bewegt, beispielsweise per Drag & Drop verschoben werden kann, indem ein Benutzer mit einem Finger 8 auf die Eingabeoberfläche 1 im Bereich des Steuerelements 13 (vgl. Fig. 5 und Ausführungen dazu) drückt und eine Wischbewegung auf der Eingabeoberfläche 1 ausführt. Das Steuerelement 13 kann auch dann verschoben werden, wenn der Benutzer die Eingabeoberfläche 1 noch nicht berührt hat. Zu diesem Zweck ist wie oben ausführlich erläutert, der Abstand 1 1 zur Eingabeoberfläche definiert. Unterschreitet der Finger 8 (bzw. die Fingerspitze) diesen Abstand 1 1 , d.h. bewegt sich der Finger in den Steuerbereich 5 hinein, und befindet er sich in diesem Moment innerhalb der Grenzen des Steuerelements 13 (bzw. der Fläche 14, welche das Steuerelement 13 umgibt), kann dieses bewegt werden. Fig. 6 zeigt ein bewegliches Steuerelement 13, welches auf der Benutzeroberfläche 4 bewegt werden kann. Die Bewegung des Steuerelements 13 ist auf der BenutzeroberflächeIn the following, with reference to Fig. 6 to Fig. 9, it is described how a control element 13 can be moved, for example moved via drag & drop, by a user pressing with a finger 8 on the input surface 1 in the area of the control element 13 (see Fig. 5 and explanations therefor) and executing a swiping movement on the input surface 1. The control element 13 can also be moved if the user has not yet touched the input surface 1. For this purpose, the distance 1 1 to the input surface is defined, as explained in detail above. If the finger 8 (or the fingertip) falls below this distance 1 1 , i.e. if the finger moves into the control area 5, and is at that moment within the boundaries of the control element 13 (or the area 14 surrounding the control element 13), the control element 13 can be moved. Fig. 6 shows a movable control element 13 which can be moved on the user interface 4. The movement of the control element 13 is on the user interface
4 vertikal und horizontal auf einen Bewegungsbereich 15 begrenzt. Die Grenzen 15a, 15b in vertikaler und horizontaler Richtung können individuell und frei definiert werden. Der so definierte Bereich 15 der möglichen Bewegung des Steuerelements 13 kann den Rändern der Benutzeroberfläche 4 entsprechen, darüber hinausgehen oder auch nur einen bestimmten (Teil-)Bereich innerhalb der Benutzeroberfläche 4 abdecken. 4 is limited vertically and horizontally to a movement area 15. The limits 15a, 15b in the vertical and horizontal direction can be defined individually and freely. The area 15 of the possible movement of the control element 13 defined in this way can correspond to the edges of the user interface 4, extend beyond them or only cover a certain (partial) area within the user interface 4.
Bewegliche Steuerelemente („Ul-Elemente“) können dem Finger des Benutzers folgen, solange sich dieser in der Nähe der Eingabeoberfläche 1 befindet. Eine Bewegung des Steuerelements 13 wird ausgelöst, wenn der Finger in den Steuerbereich 5 eintritt (TriggerStateEnterEvent). Je nach Implementierung muss der Finger für eine kurze Zeit dort verweilen oder die Bewegung kann direkt starten. Movable controls (“Ul elements”) can follow the user’s finger as long as the user is near the input surface 1. A movement of the control 13 is triggered when the finger enters the control area 5 (TriggerStateEnterEvent). Depending on the implementation, the finger must remain there for a short time or the movement can start immediately.
Der Finger 8 muss die Eingabeoberfläche 1 nicht berühren. Auf diese Weise können Ul- Elemente mit einem Finger, der sich in der Nähe, aber nicht direkt auf der Eingabeoberfläche 1 befindet, manipuliert und verschoben werden. Durch das Verlassen des Steuerbereichs 5 (TriggerStateLeaveEvent) wird das Steuerelement 13 freigegeben, so dass es nicht mehr bewegt werden kann und in der letzten Position bleibt, die es zum Zeitpunkt des Übergangsereignisses „TriggerStateLeaveEvent“ hatte, d.h. als der Finger 8 den Steuerbereich 5 verlassen hat. The finger 8 does not have to touch the input surface 1. In this way, Ul elements can be manipulated and moved with a finger that is close to, but not directly on, the input surface 1. By leaving the control area 5 (TriggerStateLeaveEvent), the control 13 is released so that it can no longer be moved and remains in the last position it had at the time of the transition event "TriggerStateLeaveEvent", i.e. when the finger 8 left the control area 5.
Fig. 7 zeigt eine Variante, bei welcher der zulässige Bewegungsbereich des Steuerelements 13 horizontal bzw. vertikal vollständig begrenzt ist. Das Steuerelement 13 kann also nur geradlinig auf einer Achse bewegt werden. Dies kann die Bedienung beispielsweise eines Schiebereglers vereinfachen, da der Benutzer die Bewegung nicht exakt horizontal bzw. vertikal ausführen muss, da das Steuerelement 13 auf einer Achse bleibt. Es versteht sich, dass der Benutzer seinen Finger 8 und damit den Zeiger 9 jedoch mindestens innerhalb des Bereichs 14 um das Steuerelement 13 herum halten muss, um die Verschiebung des Steuerelements 13 zu bewirken. Fig. 7 shows a variant in which the permissible range of movement of the control element 13 is completely limited horizontally or vertically. The control element 13 can therefore only be moved in a straight line on one axis. This can simplify the operation of a slider, for example, since the user does not have to carry out the movement exactly horizontally or vertically, since the control element 13 remains on one axis. It goes without saying that the user must hold his finger 8 and thus the pointer 9 at least within the area 14 around the control element 13 in order to cause the control element 13 to be moved.
Es kann nun die Situation auftreten, dass das Steuerelement 13 an den Grenzen des Bereichs 15 angelangt ist, der Benutzer seinen Finger aber innerhalb des SteuerbereichsThe situation may now arise that the control element 13 has reached the limits of the area 15, but the user has placed his finger within the control area
5 weiter in x- und/oder y-Richtung bewegt. Das Steuerelement 13 kann oder soll sich jedoch nicht aus dem Bereich 15 herausbewegen. Hierbei ist insbesondere anzumerken, dass die Eingabeoberfläche 1 (oder ein Display) und die Erfassungseinrichtung 3 unabhängige Komponenten sind. Wenn also der Finger die Grenzen des Bereichs 15 (oder gar der Eingabeoberfläche 1 ) nicht durch Zurückziehen der Hand, sondern durch Überschreiten der Ränder verlässt, muss das bewegliche Steuerelement 13 auch auf diese Situation entsprechend reagieren und soll den Bereich 15 in x- oder y-Richtung nicht verlassen. Wie nachfolgend erläutert, wird dies dadurch gelöst, dass das Steuerelement 13 am Rand 15c des Bereichs 15 positioniert wird. 5 continues to move in the x and/or y direction. However, the control element 13 cannot or should not move out of the area 15. It should be noted in particular that the input surface 1 (or a display) and the detection device 3 are independent components. If the finger leaves the boundaries of the area 15 (or even the input surface 1) not by pulling the hand back but by crossing the edges, the movable control element 13 must also react accordingly to this situation and should not leave the area 15 in the x or y direction. As explained below, this is solved by positioning the control element 13 at the edge 15c of the area 15.
Wie in Fig. 8a dargestellt, wird das Steuerelement 13 am linken Rand 15c positioniert, da der Finger und damit der Zeiger 9 den definierten Bereich 15 (in x-Richtung) verlassen hat. Hierbei ist der Abstand zwischen dem Steuerelement 13 und Finger bzw. Zeiger 9 minimal, ohne dass das Steuerelement 13 den Bereich 15 verlässt. Eine ähnliche Situation ist in Fig. 8b dargestellt. Hier hat der Zeiger 9 den Bereich 15 in x-Richtung und y-Richtung verlassen, sodass das Steuerelement in der Ecke positioniert wird. As shown in Fig. 8a, the control element 13 is positioned at the left edge 15c because the finger and thus the pointer 9 has left the defined area 15 (in the x direction). The distance between the control element 13 and the finger or pointer 9 is minimal without the control element 13 leaving the area 15. A similar situation is shown in Fig. 8b. Here the pointer 9 has left the area 15 in the x direction and y direction, so that the control element is positioned in the corner.
Auch wenn sich der Zeiger 9 außerhalb des Bewegungsbereichs 15 befindet, behält der Benutzer jedoch die Kontrolle über das Steuerelement 13 solange er mit seinem Finger nah genug an der Eingabeoberfläche 1 (d.h. innerhalb des Steuerbereichs 5) ist. Sobald der Zeiger 9 also wieder in den Bereich 15 gelangt, kann die Bedienung (d.h. das Verschieben) des Steuerelements 13 fortgesetzt werden. Das Steuerelement 13 wird erst losgelassen und verbleibt an seiner letzten Position, wenn der Benutzer seinen Finger von der Eingabeoberfläche 1 (in z-Richtung) entfernt. Solange sich der Zeiger 9 außerhalb des Bewegungsbereichs 15 befindet, kann sich das Steuerelement 13 dann entlang des Randes 15c des Bewegungsbereichs 15 bewegen, wobei es sich entsprechend immer an einer Stelle des Randes 15c befindet, welche den kleinsten Abstand zum Zeiger 9 hat. Even if the pointer 9 is outside the movement area 15, the user retains control of the control element 13 as long as his finger is close enough to the input surface 1 (i.e. within the control area 5). As soon as the pointer 9 returns to the area 15, the operation (i.e. moving) of the control element 13 can continue. The control element 13 is only released and remains in its last position when the user removes his finger from the input surface 1 (in the z direction). As long as the pointer 9 is outside the movement area 15, the control element 13 can then move along the edge 15c of the movement area 15, whereby it is always located at a point on the edge 15c that is the smallest distance from the pointer 9.
Das Steuerelement 13 wird somit wie folgt am Rand 15c des Bereichs 15 platziert. Wenn die Fingerposition (bzw. Zeigerposition) einen Grenzwert in vertikaler oder horizontaler Richtung überschreitet, wird das Steuerelement 13 an diesem Rand 16c (oder in einer Ecke) platziert. Beide Richtungen werden unabhängig voneinander eingestellt. Das Steuerelement 13 wird dabei so platziert, dass ein Ankerpunkt 16, was insbesondere der Mittelpunkt oder Schwerpunkt sein kann, von dem entsprechenden Rand 15c beabstandet ist, so dass das Steuerelement 13 vollständig sichtbar bleibt. Wenn der Ankerpunkt 16 der Mittelpunkt des Steuerelements 13 ist (vgl. auch Fig. 8c), bleibt dieser somit vom Rand 15c um die Hälfte der Größe des Steuerelements 13 beabstandet, damit das Steuerelement 13 vollständig innerhalb des Bereichs 15 bleibt. Ein mögliches Verhalten eines Steuerelements beim Eintreten der Fingerspitze 8 in den Steuerbereich 5 (TriggerStateEnterEvent) ist in Fig. 9a und Fig. 9b veranschaulicht. Fig. 9a zeigt, dass der Zeiger 9 das bewegliche Steuerelement 17 nicht exakt trifft. Dies ist für eine Betätigung, d.h. Verschiebung des Steuerelements 17 durch eine entsprechende Handbewegung prinzipiell ausreichend. Es kann jedoch für die Bedienung vorteilhaft sein, wenn das Steuerelement 17 genau auf dem Finger, d.h. dem Zeiger 9 liegt. Dazu kann vorgesehen sein, dass der Mittelpunkt 18 des Steuerelements 17 an die Position des Zeigers 9 einschnappen kann, wie in Fig. 9b dargestellt. Dies ist beispielsweise auch bei der Verschiebung und Neuanordnung von Objekten auf der Benutzeroberfläche 4, wie Icons, Bildern und dergleichen hilfreich. The control element 13 is thus placed on the edge 15c of the area 15 as follows. If the finger position (or pointer position) exceeds a limit value in the vertical or horizontal direction, the control element 13 is placed on this edge 16c (or in a corner). Both directions are set independently of one another. The control element 13 is placed such that an anchor point 16, which can in particular be the center or center of gravity, is spaced from the corresponding edge 15c so that the control element 13 remains completely visible. If the anchor point 16 is the center of the control element 13 (see also Fig. 8c), it remains spaced from the edge 15c by half the size of the control element 13 so that the control element 13 remains completely within the area 15. A possible behavior of a control element when the fingertip 8 enters the control area 5 (TriggerStateEnterEvent) is illustrated in Fig. 9a and Fig. 9b. Fig. 9a shows that the pointer 9 does not hit the movable control element 17 exactly. This is in principle sufficient for an actuation, i.e. moving the control element 17 by a corresponding hand movement. However, it can be advantageous for operation if the control element 17 lies exactly on the finger, i.e. the pointer 9. For this purpose, it can be provided that the center point 18 of the control element 17 can snap into the position of the pointer 9, as shown in Fig. 9b. This is also helpful, for example, when moving and rearranging objects on the user interface 4, such as icons, images and the like.
Ein bewegliches Steuerelement auf einer Benutzeroberfläche 4 in dem oben beschriebenen System zur berührungslosen Interaktion kann insbesondere in einem Fahrzeug zum Einsatz kommen, wo die Benutzeroberfläche 4 beispielsweise auf das Armaturenbrett des Beifahrers projiziert wird. Der Beifahrer kann hier die Musikanlage lauter oder leiser stellen. Mit einem beweglichen Steuerelement, wie einem horizontalen Schieberegler kann der Benutzer beispielsweise die Lautstärke mit einer Berührungsgeste auf dem Armaturenbrett einstellen. Der Schieberegler bewegt sich, sobald der Benutzer mit seinem Finger in die Nähe der Eingabeoberfläche 1 kommt oder diese berührt und seinen Finger in eine Richtung zieht. Selbst wenn der Finger den Schieberegler dann in vertikaler Richtung verlässt, hat der Benutzer noch die Kontrolle über die horizontale Bewegung. Der Schieberegler wird also nicht automatisch losgelassen, sobald sich der Finger nicht mehr direkt darüber befindet. Erst wenn der Finger (in z-Richtung) entfernt wird, verbleibt der Schieberegler in seiner letzten Position. A movable control element on a user interface 4 in the system for contactless interaction described above can be used in particular in a vehicle, where the user interface 4 is projected, for example, onto the passenger's dashboard. The passenger can turn the music system up or down. With a movable control element, such as a horizontal slider, the user can, for example, adjust the volume with a touch gesture on the dashboard. The slider moves as soon as the user comes close to the input surface 1 with his finger or touches it and pulls his finger in one direction. Even if the finger then leaves the slider in the vertical direction, the user still has control over the horizontal movement. The slider is therefore not automatically released as soon as the finger is no longer directly above it. Only when the finger is removed (in the z direction) does the slider remain in its last position.
Es kann auch vorgesehen sein, dass ein Benutzer in einer Ansicht verschiedene Bilder frei auf einer Fläche platzieren kann. Dazu kann er auf ein Bild tippen und es mit dem Finger an eine andere Position innerhalb von angezeigten Grenzen der Benutzeroberfläche ziehen. Hier ist somit das Bild als bewegliches Steuerelement ausgebildet. It can also be intended that a user can freely place different images on an area in a view. To do this, he can tap on an image and drag it with his finger to another position within the displayed boundaries of the user interface. Here, the image is thus designed as a movable control element.
Während vorhergehend wenigstens eine beispielhafte Ausführungsform beschrieben wurde, ist zu bemerken, dass eine große Anzahl von Variationen dazu existiert. Es ist dabei auch zu beachten, dass die beschriebenen beispielhaften Ausführungsformen nur nichtlimitierende Beispiele darstellen, und es nicht beabsichtigt ist, dadurch den Umfang, die Anwendbarkeit oder die Konfiguration der hier beschriebenen Vorrichtungen und Verfahren zu beschränken. Vielmehr wird die vorhergehende Beschreibung dem Fachmann eine Anleitung zur Implementierung mindestens einer beispielhaften Ausführungsform liefern, wobei sich versteht, dass verschiedene Änderungen in der Funktionsweise und der Anordnung der in einer beispielhaften Ausführungsform beschriebenen Elemente vorgenommen werden können, ohne dass dabei von dem in den angehängten Ansprüchen jeweils festgelegten Gegenstand sowie seinen rechtlichenWhile at least one exemplary embodiment has been described above, it should be noted that a large number of variations thereon exist. It should also be noted that the exemplary embodiments described are only non-limiting examples and are not intended to limit the scope, applicability, or configuration of the devices and methods described herein. Rather, the foregoing description is intended to provide a person skilled in the art with guidance for implementing at least one exemplary embodiment, it being understood that various changes in the operation and arrangement of the elements described in an exemplary embodiment may be made without departing from the subject matter defined in the appended claims and its legal
Äquivalenten abgewichen wird. equivalents are deviated from.
BEZUGSZEICHENLISTE LIST OF REFERENCE SYMBOLS
1 Eingabeoberfläche 1 Input interface
2 Projektor 2 Projector
3 Erfassungseinrichtung (Kamera) 3 Detection device (camera)
4 Benutzeroberfläche 4 User interface
5 Steuerbereich 5 Control area
6 Aktivierungsbereich 6 Activation area
7 Hand 7 Hand
8 Handposition / Zeigefinger 8 Hand position / index finger
9 Zeiger 9 hands
10 Erfassungsbereich 10 Detection range
11 Tiefe des Steuerbereichs 11 Depth of the control area
12 Tiefe des Aktivierungsbereichs 12 Depth of the activation area
13 Steuerelement (sichtbar) 13 Control (visible)
14 aktive Fläche des Steuerelements 14 active area of the control
15 Bewegungsbereich 15 Range of motion
15a horizontale Begrenzung des Bewegungsbereichs15a horizontal limitation of the range of motion
15b vertikale Begrenzung des Bewegungsbereichs15b vertical limitation of the range of motion
15c Rand des Bewegungsbereichs 15c Edge of the movement area
16 Ankerpunkt 16 Anchor point
17 Steuerelement 17 Control
18 Zentrum des Steuerelements 18 Center of the control

Claims

ANSPRÜCHE EXPECTATIONS
1. Verfahren zum Erfassen von Benutzereingaben in einer Eingabeeinrichtung, wobei die Eingabeeinrichtung eine Eingabeoberfläche (1 ), auf welcher eine grafische Benutzerschnittstelle (4) mit zumindest einem Steuerelement (13) dargestellt wird, und eine Erfassungseinrichtung (3) aufweist, wobei das Steuerelement (13) derart konfiguriert ist, dass es innerhalb eines Bewegungsbereichs (15) der Benutzeroberfläche (4) beweglich ist, wobei das Verfahren umfasst: 1. A method for detecting user inputs in an input device, wherein the input device has an input surface (1) on which a graphical user interface (4) with at least one control element (13) is displayed, and a detection device (3), wherein the control element (13) is configured such that it is movable within a movement range (15) of the user interface (4), the method comprising:
Erfassen einer Hand (7) eines Benutzers mittels der Erfassungseinrichtung (3) und Bestimmen einer Position der Hand in einem Erfassungsbereich (10), wobei der Erfassungsbereich (10) ein dreidimensionaler Raumbereich ist, welcher der Eingabeoberfläche (1 ) zugeordnet ist; Detecting a hand (7) of a user by means of the detection device (3) and determining a position of the hand in a detection area (10), wherein the detection area (10) is a three-dimensional spatial area which is assigned to the input surface (1);
Bestimmen, ob sich die Hand (7) des Benutzers in einem Aktivierungsbereich (6) befindet, wobei der Aktivierungsbereich (6) ein Teil des Erfassungsbereichs (10) ist, welcher in einem Abstand (1 1 ) zur Eingabeoberfläche (1 ) angeordnet ist; Determining whether the user's hand (7) is located in an activation area (6), wherein the activation area (6) is a part of the detection area (10) which is arranged at a distance (11) from the input surface (1);
Bestimmen, ob sich die Hand (7) des Benutzers in einem Steuerbereich (5) befindet, wobei der Steuerbereich (5) ein Teil des Erfassungsbereichs (10) ist, welcher zwischen der Eingabeoberfläche (1 ) und dem Aktivierungsbereich (6) angeordnet ist; und Determining whether the user's hand (7) is located in a control area (5), wherein the control area (5) is part of the detection area (10) which is arranged between the input surface (1) and the activation area (6); and
Bestimmen einer Position eines Zeigers (9) auf der Eingabeoberfläche (1 ), wobei die Position des Zeigers (9) durch Projektion der Position der Hand (7) auf die Eingabeoberfläche (1 ) bestimmt wird, wenn die Position der Hand (7) in dem Erfassungsbereich (10) erkannt wird; wobei, wenn bestimmt wird, dass sich die Hand (7) des Benutzers im Steuerbereich (5) befindet, Determining a position of a pointer (9) on the input surface (1 ), wherein the position of the pointer (9) is determined by projecting the position of the hand (7) onto the input surface (1 ) when the position of the hand (7) is detected in the detection area (10); wherein, if it is determined that the user's hand (7) is in the control area (5),
(i) sich das Steuerelement (13) mit dem Zeiger (9) mitbewegt, wenn bestimmt wird, dass sich der Zeiger (9) innerhalb des Bewegungsbereichs (15) auf dem Steuerelement (13) befindet, und (i) the control element (13) moves with the pointer (9) when it is determined that the pointer (9) is within the movement range (15) on the control element (13), and
(ii) das Steuerelement (13) an einem Rand (15c) des Bewegungsbereichs (15) positioniert wird, wenn bestimmt wird, dass sich der Zeiger (9) außerhalb des Bewegungsbereichs (15) befindet. (ii) the control element (13) is positioned at an edge (15c) of the movement range (15) when it is determined that the pointer (9) is outside the movement range (15).
2. Verfahren nach Anspruch 1 , wobei das Steuerelement (13) an einer Stelle des Randes (15c) des Bewegungsbereichs (15) positioniert wird, welche den kürzesten Abstand zum Zeiger (9) hat. 2. Method according to claim 1, wherein the control element (13) is positioned at a location on the edge (15c) of the movement region (15) which has the shortest distance to the pointer (9).
3. Verfahren nach Anspruch 1 oder 2, wobei das Steuerelement (13) derart am Rand (15c) des Bewegungsbereichs (15) positioniert wird, dass es vollständig innerhalb des Bewegungsbereichs (15) sichtbar bleibt. 3. Method according to claim 1 or 2, wherein the control element (13) is positioned at the edge (15c) of the movement area (15) such that it remains completely visible within the movement area (15).
4. Verfahren nach einem der vorhergehenden Ansprüche, wobei sich das Steuerelement (13) entlang des Randes (15c) des Bewegungsbereichs (15) bewegt, solange bestimmt wird, dass sich die Hand (7) des Benutzers im Steuerbereich (5) befindet, und dass sich der Zeiger (9) außerhalb des Bewegungsbereichs (15) befindet. 4. Method according to one of the preceding claims, wherein the control element (13) moves along the edge (15c) of the movement area (15) as long as it is determined that the hand (7) of the user is in the control area (5) and that the pointer (9) is outside the movement area (15).
5. Verfahren nach einem der vorhergehenden Ansprüche, wobei, wenn bestimmt wird, dass die Hand (7) des Benutzers in den Steuerbereich (5) eintritt, und wenn bestimmt wird, dass sich der Zeiger (9) innerhalb des Bewegungsbereichs (15) befindet, das Steuerelement (17) an der Position des Zeigers (9) positioniert wird. 5. Method according to one of the preceding claims, wherein, when it is determined that the hand (7) of the user enters the control area (5) and when it is determined that the pointer (9) is within the movement range (15), the control element (17) is positioned at the position of the pointer (9).
6. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Steuerbereich (5) eine Grundfläche aufweist, welche zumindest die Eingabeoberfläche (1 ) enthält und sich der Steuerbereich (5) von der Grundfläche bis zu einer Deckfläche erstreckt, wobei ein Abstand (11 ) zwischen der Grundfläche und der Deckfläche des Steuerbereichs (5) dem Abstand (1 1 ) zwischen der Eingabeoberfläche (1 ) und dem Aktivierungsbereich (6) entspricht. 6. Method according to one of the preceding claims, wherein the control region (5) has a base area which contains at least the input surface (1 ) and the control region (5) extends from the base area to a cover surface, wherein a distance (11 ) between the base area and the cover surface of the control region (5) corresponds to the distance (1 1 ) between the input surface (1 ) and the activation region (6).
7. Verfahren nach Anspruch 6, wobei der Aktivierungsbereich (6) an den Steuerbereich (5) angrenzt, wobei der Aktivierungsbereich (6) eine Grundfläche aufweist, welche zumindest die Deckfläche des Steuerbereichs (5) enthält. 7. The method according to claim 6, wherein the activation region (6) adjoins the control region (5), wherein the activation region (6) has a base area which contains at least the cover surface of the control region (5).
8. Verfahren nach Anspruch 7, wobei ein Abstand (12) zwischen der Grundfläche und der Deckfläche des Aktivierungsbereichs (6) größer als der Abstand (1 1 ) zwischen der Eingabeoberfläche (1 ) und dem Aktivierungsbereich (6) ist. 8. The method according to claim 7, wherein a distance (12) between the base surface and the top surface of the activation region (6) is greater than the distance (11) between the input surface (1) and the activation region (6).
9. Verfahren nach einem der vorhergehenden Ansprüche, wobei als die Position der Hand (7) des Benutzers eine Position eines Punktes der Hand (7) des Benutzers bestimmt wird, welcher am nächsten zur Eingabeoberfläche (1 ) ist. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Erfassen der Hand (7) des Benutzers ein Bestimmen umfasst, ob zumindest ein Finger (8) der Hand (7) in Richtung der Eingabeoberfläche (1 ) weist. Verfahren nach einem der vorhergehenden Ansprüche, des Weiteren umfassend: Bestimmen eines Übergangsereignisses, wenn bestimmt wird, dass: die Hand in den Steuerbereich (5) eintritt; die Hand den Steuerbereich (5) verlässt; die Hand in den Aktivierungsbereich (6) eintritt; die Hand den Aktivierungsbereich (6) verlässt; die Hand den Erfassungsbereich (10) verlässt; oder die Hand in den Erfassungsbereich (10) eintritt. System zur Datenverarbeitung, aufweisend zumindest einen Prozessor, der so konfiguriert ist, dass er das Verfahren nach einem der vorhergehenden Ansprüche ausführt, sowie zumindest eine Anzeigeeinrichtung (2), welche eingerichtet ist, eine grafische Benutzerschnittstelle (4) auf einer Eingabeoberfläche (1 ) anzuzeigen, und eine Erfassungseinrichtung (3), welche eingerichtet ist, eine Hand (7) eines Benutzers in einem dreidimensionalen Raumbereich zu erfassen und eine Position der Hand in dem dreidimensionalen Raumbereich zu bestimmen. System nach Anspruch 12, wobei die Anzeigeeinrichtung eine Projektionseinrichtung (2) umfasst, welche eingerichtet ist, eine Darstellung der grafischen Benutzeroberfläche (4) auf eine Oberfläche (1 ) zu projizieren. System nach Anspruch 12 oder 13, wobei die Erfassungseinrichtung (3) zumindest eine Kamera umfasst. Computerprogramm mit Instruktionen, die bei ihrer Ausführung auf einem System nach einem der Ansprüche 12 bis 14 dieses veranlassen, das Verfahren nach einem der Ansprüche 1 bis 11 auszuführen. 9. Method according to one of the preceding claims, wherein the position of the hand (7) of the user is determined as a position of a point of the hand (7) of the user which is closest to the input surface (1). Method according to one of the preceding claims, wherein detecting the hand (7) of the user comprises determining whether at least one finger (8) of the hand (7) points in the direction of the input surface (1). Method according to one of the preceding claims, further comprising: determining a transition event when it is determined that: the hand enters the control area (5); the hand leaves the control area (5); the hand enters the activation area (6); the hand leaves the activation area (6); the hand leaves the detection area (10); or the hand enters the detection area (10). System for data processing, comprising at least one processor configured to carry out the method according to one of the preceding claims, and at least one display device (2) configured to display a graphical user interface (4) on an input surface (1), and a detection device (3) configured to detect a hand (7) of a user in a three-dimensional spatial area and to determine a position of the hand in the three-dimensional spatial area. System according to claim 12, wherein the display device comprises a projection device (2) which is set up to project a representation of the graphical user interface (4) onto a surface (1). System according to claim 12 or 13, wherein the detection device (3) comprises at least one camera. Computer program with instructions which, when executed on a system according to one of claims 12 to 14, cause the system to carry out the method according to one of claims 1 to 11.
PCT/EP2023/085065 2022-12-15 2023-12-11 Method and system for capturing user inputs WO2024126342A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022133384.1 2022-12-15
DE102022133384.1A DE102022133384A1 (en) 2022-12-15 2022-12-15 METHOD AND SYSTEM FOR COLLECTING USER INPUT

Publications (1)

Publication Number Publication Date
WO2024126342A1 true WO2024126342A1 (en) 2024-06-20

Family

ID=89386049

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/085065 WO2024126342A1 (en) 2022-12-15 2023-12-11 Method and system for capturing user inputs

Country Status (2)

Country Link
DE (1) DE102022133384A1 (en)
WO (1) WO2024126342A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110219340A1 (en) * 2010-03-03 2011-09-08 Pathangay Vinod System and method for point, select and transfer hand gesture based user interface
US20120229377A1 (en) * 2011-03-09 2012-09-13 Kim Taehyeong Display device and method for controlling the same
WO2013064378A1 (en) * 2011-10-31 2013-05-10 Promethean Limited Gui object manipulation prevention and over-ride
US20180260601A1 (en) * 2015-09-25 2018-09-13 Umajin Limited Fingertip identification for gesture control

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110219340A1 (en) * 2010-03-03 2011-09-08 Pathangay Vinod System and method for point, select and transfer hand gesture based user interface
US20120229377A1 (en) * 2011-03-09 2012-09-13 Kim Taehyeong Display device and method for controlling the same
WO2013064378A1 (en) * 2011-10-31 2013-05-10 Promethean Limited Gui object manipulation prevention and over-ride
US20180260601A1 (en) * 2015-09-25 2018-09-13 Umajin Limited Fingertip identification for gesture control

Also Published As

Publication number Publication date
DE102022133384A1 (en) 2024-06-20

Similar Documents

Publication Publication Date Title
EP2750914B1 (en) Method and device for making available a user interface, in particular in a vehicle
DE102010048745A1 (en) Method of operating user interface in motor vehicle, involves representing predetermined object-specific target areas, graphically on display unit, upon detection of beginning of shift operation of first two selected objects
DE102009059867A1 (en) Method for providing graphical user interface in e.g. operating system of electronic device in vehicle, involves shifting subset of objects independent of positions of objects in area near to position in which gesture is implemented
EP1998996A1 (en) Interactive operating device and method for operating the interactive operating device
WO2013104389A1 (en) Method and device for operating functions in a vehicle using gestures performed in three-dimensional space, and related computer program product
DE102011011802A1 (en) Method and device for providing a user interface, in particular in a vehicle
DE102012020607B4 (en) A motor vehicle with a gesture control device and method for controlling a selection element
EP3418861B1 (en) Method for operating a display device, and a motor vehicle
DE102012206247A1 (en) Method and device for displaying a hand of an operator of a control element of a vehicle
WO2017108855A1 (en) Vehicle with an image capturing unit and an operating system for operating devices of the vehicle and method for operating the operating system
DE102013000069B4 (en) Motor vehicle user interface with a control element for detecting a control action
DE102015012720B4 (en) Interactive operating system and method for performing an operating action in an interactive operating system
DE102014224898A1 (en) Method for operating an input device, input device
WO2024126342A1 (en) Method and system for capturing user inputs
WO2017140569A1 (en) Motor vehicle operator control apparatus and method for operating an operator control apparatus in order to cause an interaction between a virtual presentation plane and a hand
WO2024126352A1 (en) Method and system for capturing user inputs
WO2024126348A1 (en) Method and system for capturing user inputs
WO2024046612A1 (en) Controlling a function on board a motor vehicle
WO2024126351A1 (en) Method and system for capturing user inputs
EP3025214B1 (en) Method for operating an input device, and input device
DE102019131944A1 (en) Method for controlling at least one display unit, motor vehicle and computer program product
EP3963434A1 (en) Method and device for selecting input fields displayed on a screen and/or for activating input content displayed in a selected input field on the screen by means of manual inputs
DE102019218386A1 (en) Method and device for setting a position of an adjustable vehicle part
DE102023133482A1 (en) Method and system for capturing user input
EP2885154B1 (en) Method and an operator control and display device for operating an interactive operator control device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23828996

Country of ref document: EP

Kind code of ref document: A1