DE102019216411A1 - Device for acquiring an input by means of an actuation object and method for operating a device for acquiring an input - Google Patents
Device for acquiring an input by means of an actuation object and method for operating a device for acquiring an input Download PDFInfo
- Publication number
- DE102019216411A1 DE102019216411A1 DE102019216411.0A DE102019216411A DE102019216411A1 DE 102019216411 A1 DE102019216411 A1 DE 102019216411A1 DE 102019216411 A DE102019216411 A DE 102019216411A DE 102019216411 A1 DE102019216411 A1 DE 102019216411A1
- Authority
- DE
- Germany
- Prior art keywords
- area
- actuation
- sub
- haptic feedback
- input unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000001514 detection method Methods 0.000 claims abstract description 57
- 238000013459 approach Methods 0.000 claims description 22
- 230000005540 biological transmission Effects 0.000 claims description 4
- 238000006073 displacement reaction Methods 0.000 claims description 4
- 239000007787 solid Substances 0.000 claims description 2
- 238000002604 ultrasonography Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 5
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 230000035807 sensation Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- FGRBYDKOBBBPOI-UHFFFAOYSA-N 10,10-dioxo-2-[4-(N-phenylanilino)phenyl]thioxanthen-9-one Chemical compound O=C1c2ccccc2S(=O)(=O)c2ccc(cc12)-c1ccc(cc1)N(c1ccccc1)c1ccccc1 FGRBYDKOBBBPOI-UHFFFAOYSA-N 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000000763 evoking effect Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000007794 irritation Effects 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Die Vorrichtung zum Erfassen einer Eingabe mittels eines Betätigungsobjekts (9) umfasst eine Eingabeeinheit (4), die dazu eingerichtet ist, bei einer Betätigung durch das Betätigungsobjekt (9) ein Steuersignal zu erzeugen, eine Annäherungserfassungseinheit (10) zum Erfassen einer Anwesenheit des Betätigungsobjekts (9) in einem ersten (21) oder zweiten Teilbereich (2) eines Erfassungsbereichs (25), wobei der Erfassungsbereich (25) der Annäherungserfassungseinheit (5) vor der Eingabeeinheit (4) angeordnet ist, und eine haptische Rückmeldungseinheit (5, 6), die dazu eingerichtet ist, eine erste haptische Rückmeldung zu erzeugen, wenn die Anwesenheit des Betätigungsobjekts (9) in dem ersten Teilbereich (21) erfasst wurde, und eine zweite haptische Rückmeldung zu erzeugen, wenn die Anwesenheit des Betätigungsobjekts (9) in dem zweiten Teilbereich (22) erfasst wurde. Bei dem Verfahren zum Betreiben einer Vorrichtung zum Erfassen einer Eingabe mittels eines Betätigungsobjekts (9) ist eine Eingabeeinheit (4) dazu eingerichtet, bei einer Betätigung durch das Betätigungsobjekt (9) ein Steuersignal zu erzeugen. Bei dem Verfahren wird eine Anwesenheit des Betätigungsobjekts (9) in einem ersten (21) oder zweiten Teilbereich (22) eines Erfassungsbereichs (25) erfasst und eine erste oder zweite haptische Rückmeldung wird erzeugt.The device for detecting an input by means of an actuation object (9) comprises an input unit (4) which is set up to generate a control signal upon actuation by the actuation object (9), a proximity detection unit (10) for detecting the presence of the actuation object ( 9) in a first (21) or second sub-area (2) of a detection area (25), the detection area (25) of the proximity detection unit (5) being arranged in front of the input unit (4), and a haptic feedback unit (5, 6), which is set up to generate a first haptic feedback when the presence of the actuation object (9) has been detected in the first sub-area (21), and to generate a second haptic feedback when the presence of the actuation object (9) in the second sub-area (22) was recorded. In the method for operating a device for detecting an input by means of an actuation object (9), an input unit (4) is set up to generate a control signal upon actuation by the actuation object (9). In the method, the presence of the actuating object (9) in a first (21) or second partial area (22) of a detection area (25) is detected and a first or second haptic feedback is generated.
Description
Die vorliegende Erfindung betrifft eine Vorrichtung zum Erfassen einer Eingabe mittels eines Betätigungsobjekts. Sie betrifft ferner ein Verfahren zum Betreiben einer Vorrichtung zum Erfassen einer Eingabe mittels eines Betätigungsobjekts.The present invention relates to a device for detecting an input by means of an actuation object. It also relates to a method for operating a device for detecting an input by means of an actuation object.
Die Vielzahl der im modernen Alltag verwendeten elektronischen Einrichtungen weckt den Bedarf nach innovativen Bedienkonzepten, um den Zugriff zentral und flexibel zu gestalten. Ein wichtiger Aspekt ist hierbei, dass ein Nutzer deutlich erkennen können muss, ob er eine Bedienung erfolgreich durchgeführt hat und wo diese erfasst wurde. Dies ist insbesondere bei berührungslosen Bedienungen schwierig, da hier das haptische Feedback einer Berührung oder beim Bewegen eines Schaltelements nicht auftritt. Hierfür sind verschiedene Arten von Rückmeldungen vorgeschlagen worden.The multitude of electronic devices used in modern day-to-day life arouses the need for innovative operating concepts to make access central and flexible. An important aspect here is that a user must be able to clearly see whether he has carried out an operation successfully and where it was recorded. This is particularly difficult in the case of contactless controls, since the haptic feedback of a touch or when a switching element is moved does not occur here. Various types of feedback have been proposed for this purpose.
In der
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, eine Vorrichtung zum Erfassen einer Eingabe mittels eines Betätigungsobjekts und ein Verfahren zu ihrem Betrieb bereitzustellen, die eine möglichst flexible und umfassende Ausgabe von Rückmeldungen ermöglichen.The present invention is based on the object of providing a device for detecting an input by means of an actuation object and a method for its operation, which enable feedback messages to be output as flexibly and comprehensively as possible.
Erfindungsgemäß wird diese Aufgabe durch eine Vorrichtung mit den Merkmalen des Anspruchs 1 und ein Verfahren mit den Merkmalen des Anspruchs 10 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich aus den abhängigen Ansprüchen.According to the invention, this object is achieved by a device with the features of
Die erfindungsgemäße Vorrichtung der eingangs genannten Art umfasst eine Eingabeeinheit, die dazu eingerichtet ist, bei einer Betätigung durch das Betätigungsobjekt ein Steuersignal zu erzeugen, und eine Annäherungserfassungseinheit zum Erfassen einer Anwesenheit des Betätigungsobjekts in einem ersten oder zweiten Teilbereich eines Erfassungsbereichs, wobei der Erfassungsbereich der Annäherungserfassungseinheit vor der Eingabeeinheit angeordnet ist. Sie umfasst ferner eine haptische Rückmeldungseinheit, die dazu eingerichtet ist, eine erste haptische Rückmeldung zu erzeugen, wenn die Anwesenheit des Betätigungsobjekts in dem ersten Teilbereich erfasst wurde, und eine zweite haptische Rückmeldung zu erzeugen, wenn die Anwesenheit des Betätigungsobjekts in dem zweiten Teilbereich erfasst wurde.The device according to the invention of the type mentioned at the outset comprises an input unit which is set up to generate a control signal upon actuation by the actuation object, and an approach detection unit for detecting the presence of the actuation object in a first or second sub-area of a detection area, the detection area of the proximity detection unit is arranged in front of the input unit. It further comprises a haptic feedback unit which is configured to generate a first haptic feedback when the presence of the actuation object has been detected in the first sub-area, and to generate a second haptic feedback when the presence of the actuation object has been detected in the second sub-area .
Die Vorrichtung erlaubt es vorteilhafterweise dem Nutzer, eine Rückmeldung über die Position des Betätigungsobjektes im ersten oder zweiten Teilbereich zu erfassen, ohne dabei zu viel Aufmerksamkeit auf die Bedienung richten zu müssen. Dies ist insbesondere in Umgebungen von Vorteil, in denen der Nutzer nicht abgelenkt werden soll, etwa in einem Fahrzeug. Durch die haptische Rückmeldung braucht der Nutzer seinen Blick nicht vom Verkehrsgeschehen abwenden, um über die Position des Betätigungsobjekts im Bilde zu sein. Bei der Vorrichtung können ferner verschiedene Arten von haptischen Rückmeldungen kombiniert werden, die beispielsweise verschiedene Reichweiten aufweisen. Die Teilbereiche sind dann insbesondere so ausgebildet, dass sie die Erzeugung der jeweiligen Rückmeldungen erlauben.The device advantageously allows the user to record feedback on the position of the actuation object in the first or second partial area without having to pay too much attention to the operation. This is particularly advantageous in environments in which the user should not be distracted, for example in a vehicle. Thanks to the haptic feedback, the user does not need to look away from the traffic situation in order to be aware of the position of the actuating object. In the device, different types of haptic feedback can also be combined, which for example have different ranges. The sub-areas are then designed in particular in such a way that they allow the respective feedbacks to be generated.
Die Eingabeeinheit kann dabei auf unterschiedliche, an sich bekannte Weisen ausgebildet sein. Insbesondere ist sie als Einheit zum Erfassen einer Eingabe ausgebildet und weist ein betätigbares Element auf, bei dem eine Betätigung vorgenommen werden kann. Die Eingabeeinheit umfasst dann einen Sensor, der die Betätigung mittels des betätigbaren Elements erfasst. Zum Beispiel kann eine Bedienfläche ausgebildet sein, bei der eine Berührung und/oder Ausübung von Kraft erfassbar ist.The input unit can be designed in different ways that are known per se. In particular, it is designed as a unit for detecting an input and has an actuatable element which can be actuated. The input unit then comprises a sensor which detects the actuation by means of the actuatable element. For example, an operating surface can be formed in which a touch and / or the exertion of force can be detected.
Bekannte Eingabeeinheiten sind etwa Taster und Schalter, Dreh-, Schiebe- oder andere Regler, berührungsempfindliche Oberflächen wie bei einem Touchscreen oder Einheiten zur kombinierten Erfassung von Betätigungen auf verschiedene Weisen, etwa ein Dreh-Drück-Steller. Die Detektion kann anhand eines bei Betätigung geschlossenen, geöffneten oder in seinen Leitungseigenschaften modifizierten Stromkreis erfasst werden, etwa mittels kapazitiver oder resistiver Sensoren, anhand optischer Sensoren oder mittels Sensoren zum Erfassen von Wärme oder Druckwellen, etwa Schall.Known input units are, for example, buttons and switches, rotary, sliding or other controllers, touch-sensitive surfaces such as a touchscreen or units for the combined detection of actuations in various ways, such as a rotary-push actuator. The detection can be recorded using a circuit that is closed, opened or modified in its conduction properties when actuated, for example using capacitive or resistive sensors, using optical sensors or using sensors for detecting heat or pressure waves, such as sound.
Ferner kann eine Betätigung berührungslos erfasst werden, etwa bei einer Annäherung an einer bestimmte Position oder bei einer bestimmten Geste, die als Betätigung interpretiert wird. Eine Betätigung kann ferner eine Annäherung des Betätigungsobjekts an die Eingabeeinheit umfassen, wobei eine Betätigung insbesondere bei einer Annäherung bis auf einen Abstand unter einem bestimmten Schwellenwert erfasst wird.Furthermore, an actuation can be detected in a contactless manner, for example when approaching a certain position or when a certain gesture is interpreted as an actuation. An actuation can furthermore include an approach of the actuation object to the input unit, an actuation being detected in particular in the event of an approach up to a distance below a certain threshold value.
Das Betätigungsobjekt kann ferner auf an sich bekannte Weise ausgebildet sein. Es handelt sich insbesondere um ein Objekt, dessen Position der Nutzer verändern kann und das zum Betätigen der Eingabeeinheit geeignet ist, insbesondere im Bereich einer Bedienfläche und/oder eines Erfassungsbereichs. Ein Betätigungsobjekt kann beispielsweise eine Hand oder ein Finger des Nutzers oder ein hierzu geeigneter Stift sein. Eine Betätigung kann auf verschiedene Weisen erfolgen, etwa dadurch, dass sich das Betätigungsobjekt an einer bestimmten Position oder in einem bestimmten Raumbereich befindet, indem Druck auf die Eingabeeinheit beziehungsweise auf ein Element der Eingabeeinheit ausgeübt wird oder indem eine Berührung zwischen dem Betätigungsobjekt und der Eingabeeinheit erfolgt, insbesondere an einer bestimmten Position. Sie kann ferner eine Annäherung an die bestimmte Position umfassen, insbesondere eine Annäherung auf einen Abstand unterhalb eines bestimmten Schwellenwerts. Dabei kann die Betätigung ferner so erfolgen, dass unterschiedliche Steuersignale erzeugbar sind, je nachdem welche Art von Betätigung die Eingabeeinheit erfasst. Verschiedene Arten von Betätigungen können beispielsweise in verschiedenen Raumbereichen oder an verschiedenen Positionen erfolgen, sie können mit unterschiedlichem Druck ausgeführt werden oder sie können mittels verschiedener Betätigungsobjekte ausgeführt werden, etwa mittels eines oder zweier Finger.The actuation object can also be designed in a manner known per se. In particular, it is an object whose position the user can change and which is suitable for actuating the input unit, in particular in the area of a control surface and / or a detection area. An actuation object can, for example, be a hand or a finger of the user or a be a suitable pen for this purpose. An actuation can take place in various ways, for example in that the actuation object is located at a certain position or in a certain spatial area, in that pressure is exerted on the input unit or on an element of the input unit or in that there is contact between the actuation object and the input unit , especially in a certain position. It can also include an approach to the specific position, in particular an approach to a distance below a specific threshold value. The actuation can also take place in such a way that different control signals can be generated, depending on which type of actuation the input unit detects. Different types of actuation can take place, for example, in different spatial areas or at different positions, they can be carried out with different pressures or they can be carried out by means of different actuation objects, for example by means of one or two fingers.
Das bei einer Betätigung erfasste Steuersignal kann ebenfalls auf an sich bekannte Weise ausgebildet sein. Es wird insbesondere an eine bedienbare Einrichtung oder eine Steuereinheit überragen, die anhand des Steuersignals eine bestimmte Ansteuerung bewirkt, etwa zum Einstellen oder zum Verändern eines Betriebszustands der Einrichtung.The control signal detected during an actuation can also be embodied in a manner known per se. It is projected in particular to an operable device or a control unit which, on the basis of the control signal, brings about a specific control, for example for setting or changing an operating state of the device.
Bei einer Ausbildung der Erfindung ist ferner eine Anzeigeeinheit zum Anzeigen von Grafikdaten umfasst, die insbesondere eine Anzeigefläche umfasst. Auf dieser werden die Grafikdaten ausgegeben. Anzeigeeinheiten können auf verschiedene Weise ausgebildet sein und etwa mittels einer grafischen Bedienoberfläche zur Erfassung der Eingabe genutzt. Insbesondere erfolgt hier eine Eingabe mit Bezug zu einer bestimmten Position der Anzeigefläche und dort dargestellter grafischer Daten, etwa beim Tippen auf eine dargestellte Schaltfläche oder bei einer Annäherung an diese.In one embodiment of the invention, a display unit for displaying graphic data is also included, which in particular includes a display area. The graphic data is output on this. Display units can be designed in various ways and used, for example, by means of a graphical user interface to record the input. In particular, an input is made here with reference to a specific position of the display area and the graphical data displayed there, for example when tapping on a displayed button or when approaching it.
Bei einer weiteren Ausbildung umfasst die Annäherungserfassungseinheit einen kapazitiven, resistiven oder optischen Sensor. Ferner können akustische Verfahren, etwa mit Ultraschall, oder Radar-basierte Detektionsverfahren verwendet werden. Der Sensor ist insbesondere dazu eingerichtet, das Betätigungsobjekt zu detektieren, wenn es in den Erfassungsbereich der Annährungserfassungseinheit eintritt oder wenn es sich dort befindet. Er kann ferner einen Abstand des Betätigungsobjekts zu der Annäherungserfassungseinheit oder von einer bestimmten Position erfassen, insbesondere von einer Oberfläche der Annäherungserfassungseinheit oder von der Position des Sensors selbst. Beispielsweise wird ein umso stärkeres Signal erfasst, je näher sich das Betätigungsobjekt relativ zu der bestimmten Position befindet.In a further embodiment, the proximity detection unit comprises a capacitive, resistive or optical sensor. Furthermore, acoustic methods, for example using ultrasound, or radar-based detection methods can be used. The sensor is set up in particular to detect the actuation object when it enters the detection area of the proximity detection unit or when it is located there. It can also detect a distance of the actuation object from the proximity detection unit or from a specific position, in particular from a surface of the proximity detection unit or from the position of the sensor itself. For example, the stronger the signal is detected the closer the actuation object is relative to the specific position .
Zudem kann mittels der Annäherungserfassungseinheit die Position des Betätigungsobjekts bestimmt werden, insbesondere mittels dreidimensionaler Koordinaten relativ zu der Eingabeeinheit. Ferner kann ein Parameter einer Bewegung erfasst werden, etwa eine Bewegungsgeschwindigkeit und/oder -richtung, insbesondere einer Richtungskomponente der Bewegung auf die Eingabeeinheit zu oder von ihr weg.In addition, the position of the actuation object can be determined by means of the proximity detection unit, in particular by means of three-dimensional coordinates relative to the input unit. Furthermore, a parameter of a movement can be recorded, for example a movement speed and / or direction, in particular a directional component of the movement towards or away from the input unit.
Die Annäherungserfassungseinheit umfasst beispielsweise eine fotosensitive Zelle, wie etwa ein einzelnes Pixel eines Sensors einer Kamera. Ferner kann eine Detektion mittels Laufzeit eines optischen Signals erfolgen (time-of-flight; ToF), wobei ein Abstand des Betätigungsobjekts zu dem Sensor bestimmbar ist. Ferner kann eine Lichtschranke zur Detektion verwendet werden. Ferner kann eine Kombination einer optischen und kapazitiven Erfassung erfolgen, wobei insbesondere größere Abstände optisch und kleinere Abstände kapazitiv erfasst werden; auch in den Teilbereichen des Erfassungsbereichs können jeweils verschiedene Arten der Erfassung erfolgen.The proximity detection unit comprises, for example, a photosensitive cell, such as a single pixel of a sensor of a camera. Furthermore, detection can take place by means of the transit time of an optical signal (time-of-flight; ToF), a distance between the actuating object and the sensor being able to be determined. A light barrier can also be used for detection. Furthermore, a combination of optical and capacitive detection can take place, in particular larger distances being detected optically and smaller distances being detected capacitively; Different types of detection can also take place in the sub-areas of the detection area.
Die Teilbereiche des Erfassungsbereichs der Annäherungserfassungseinheit können auf unterschiedliche Weisen angeordnet und ausgebildet sein. Sie verlaufen bei dem Verfahren „vor“ der Eingabeeinheit, das heißt so, dass ein Betätigungsobjekt in zumindest einen Teilbereich eintritt, um sich zum Betätigen der Eingabeeinheit zu nähern. Der Begriff „vor“ ist in diesem Zusammenhang also insbesondere als Angabe der Richtung zu verstehen, aus der typischerweise die Bedienung der Eingabeeinheit erfolgt; andere Richtungen, etwa Seitenbereiche, die einem Nutzer nicht zugewandt angeordnet sind, können hiervon ebenfalls umfasst sein. Beispielsweise sind die Teilbereiche als unterschiedliche Schichten parallel zu der Ausdehnungsebene einer berührungsempfindlichen Oberfläche oder einer Fläche einer anderen Eingabeeinheit angeordnet.The partial areas of the detection area of the proximity detection unit can be arranged and designed in different ways. In the method, they run “in front of” the input unit, that is to say in such a way that an actuation object enters at least a partial area in order to approach in order to actuate the input unit. In this context, the term “in front of” is to be understood in particular as indicating the direction from which the input unit is typically operated; other directions, for example side areas that are not arranged facing a user, can also be included here. For example, the subregions are arranged as different layers parallel to the expansion plane of a touch-sensitive surface or an area of another input unit.
Die Teilbereiche sind insbesondere in einer Umgebung der Eingabeeinheit ausgebildet, etwa als Schichten mit jeweils einem bestimmten Abstand beziehungsweise einer bestimmten Dicke. Ein Teilbereich ist beispielsweise definiert durch einen Bereich von Abständen zu der Eingabeeinheit und insbesondere zu einem betätigbaren Element der Eingabeeinheit. Das heißt, ein Teilbereich umfasst alle Positionen im dreidimensionalen Raum, bei denen das Betätigungsobjekt zumindest einen bestimmten Mindestabstand und höchstens einen bestimmten Maximalabstand von der Eingabeeinheit beziehungsweise von deren betätigbarem Element entfernt ist. Die Teilbereiche sind beispielsweise so angeordnet, dass das Betätigungsobjekt, um zu der Eingabeeinheit zu gelangen, zunächst den einen und dann den anderen Teilbereich durchläuft.The subregions are formed in particular in the vicinity of the input unit, for example as layers, each with a specific spacing or a specific thickness. A sub-area is defined, for example, by a range of distances from the input unit and in particular from an actuatable element of the input unit. That is, a sub-area comprises all positions in three-dimensional space in which the actuation object is at least a certain minimum distance and at most a certain maximum distance from the input unit or from its actuatable element. The subregions are arranged, for example, in such a way that the actuation object, in order to get to the input unit, first passes through one and then the other sub-area.
Insbesondere sind der erste und der zweite Teilbereich als echte, voneinander getrennte Teilbereiche des Erfassungsbereichs ausgebildet. Das heißt, sie weisen keine Schnittmenge auf und keine davon umfasst den gesamten Erfassungsbereich.In particular, the first and second sub-areas are designed as real sub-areas of the detection area that are separate from one another. That is, they do not intersect and none of them encompass the entire detection area.
Der erste und der zweite Teilbereich können direkt aneinander angrenzen, wobei insbesondere der Mindestabstand des ersten Teilbereichs dem Maximalabstand des zweiten Teilbereichs entspricht.The first and the second sub-area can directly adjoin one another, wherein in particular the minimum distance of the first sub-area corresponds to the maximum distance of the second sub-area.
Gemäß einer Ausgestaltung der erfindungsgemäßen Vorrichtung wird anhand der Anwesenheit des Betätigungsobjekts in dem ersten oder zweiten Teilbereich eine erste Annäherung an die Eingabeeinheit oder eine Betätigung der Eingabeeinheit bestimmt. Insbesondere wird die Annäherung erfasst, wenn das Betätigungsobjekt im ersten Teilbereich des Erfassungsbereichs erfasst wird, und die Betätigung wird erfasst, wenn das Betätigungsobjekt im zweiten Teilbereich erfasst wird. Dadurch kann eine Bedienung vorteilhafterweise in aufeinanderfolgenden Einzelschritten erfasst werden.According to one embodiment of the device according to the invention, a first approach to the input unit or an actuation of the input unit is determined on the basis of the presence of the actuation object in the first or second partial area. In particular, the approach is detected when the object to be operated is detected in the first sub-area of the detection area, and the operation is detected when the object to be operated is detected in the second sub-area. As a result, an operation can advantageously be recorded in successive individual steps.
Beispielsweise verläuft der erste Teilbereich in einem ersten Abstandsintervall relativ zur Eingabeeinheit und beabstandet zu diesem wie eine Schicht einer bestimmten Dicke. Das Betätigungsobjekt tritt dann zunächst in den ersten Teilbereich ein, wenn es sich der Eingabeeinheit nähert. Insbesondere wird anhand der Annäherung beziehungsweise des Eintritts in den ersten Teilbereich eine Bedienabsicht erfasst; die Eingabeeinheit kann nun auf eine Betätigung vorbereitet werden, etwa durch geeignetes Verändern einer Bedienoberfläche, um die Betätigung zu erleichtern oder zu ermöglichen. Anschließend wird der zweite Teilbereich erreicht, der beispielsweise in einem zweiten Abstandsintervall relativ zur Eingabeeinheit wie eine Schicht bestimmter Dicke verläuft; der zweite Teilbereich kann insbesondere bis zur Oberfläche der Eingabeeinheit reichen. Bei dieser Ausbildung der Erfindung wird insbesondere der Eintritt des Betätigungsobjekts in den zweiten Teilbereich als Betätigung der Eingabeeinheit erfasst, das heißt, der Nutzer muss beispielsweise keine tatsächliche Berührung ausführen und es muss nicht zu einer Kraftübertragung zwischen dem Betätigungsobjekt und der Eingabeeinheit kommen, sondern die Annäherung bis zum ersten Teilbereich genügt. Die Betätigung kann dabei so erfasst werden, dass mit dem Eintritt in den zweiten Teilbereich beziehungsweise beim ersten Erfassen der Anwesenheit des Betätigungsobjekt in dem zweiten Teilbereich das Steuersignal erzeugt wird und die Betätigung abgeschlossen ist. Ferner kann eine über einen bestimmten Zeitraum andauernde Betätigung erfasst werden, etwa indem erfasst wird, wie lange sich das Betätigungsobjekt in dem ersten Teilbereich aufhält; dabei kann zudem eine Position des Betätigungsobjekts in dem zweiten Teilbereich und/oder eine Bewegung innerhalb des zweiten Teilbereichs erfasst werden.For example, the first sub-area runs in a first distance interval relative to the input unit and is spaced apart from it like a layer of a certain thickness. The actuation object then initially enters the first partial area when it approaches the input unit. In particular, an operating intention is detected on the basis of the approach or entry into the first sub-area; the input unit can now be prepared for actuation, for example by appropriately changing a user interface in order to facilitate or enable the actuation. Then the second partial area is reached, which for example runs in a second distance interval relative to the input unit like a layer of a certain thickness; the second sub-area can in particular extend as far as the surface of the input unit. In this embodiment of the invention, in particular the entry of the actuating object into the second sub-area is detected as actuation of the input unit, i.e. the user does not have to actually touch it, for example, and there does not have to be a force transmission between the actuating object and the input unit, but rather an approach up to the first sub-area is sufficient. The actuation can be detected in such a way that the control signal is generated and the actuation is completed upon entry into the second sub-area or when the presence of the actuation object is first detected in the second sub-area. Furthermore, an actuation lasting over a certain period of time can be detected, for example by detecting how long the object to be actuated stays in the first sub-area; a position of the actuating object in the second sub-area and / or a movement within the second sub-area can also be detected.
Die zumindest eine haptische Rückmeldungseinheit ist dazu ausgebildet, eine für den Nutzer haptisch wahrnehmbare Rückmeldung zu erzeugen. Insbesondere wird diese Rückmeldung so erzeugt, dass sie im Bereich des Betätigungsobjekts, beispielsweise also an einem Finger des Nutzers, haptisch wahrnehmbar ist.The at least one haptic feedback unit is designed to generate feedback that is haptically perceptible to the user. In particular, this feedback is generated in such a way that it can be haptically perceived in the area of the actuating object, for example on a finger of the user.
Allerdings können haptisch wahrnehmbare Rückmeldungen auch so erzeugt werden, dass sie auf andere Weise erfassbar sind, insbesondere mittels nicht an der Betätigung beteiligter Teile des Körpers des Nutzers. Beispielsweise kann eine haptische Rückmeldung so ausgegeben werden, dass sie am Fuß des Nutzers erfassbar ist, etwa über die Pedalerie eines Fahrzeugs, oder am Rücken, an einer Sitzfläche oder einer Armablage. Eine solche haptische Rückmeldung, die nicht in einem der Teilbereiche wahrnehmbar ist, kann beispielsweise auch mittels eines am Körper des Nutzers befestigten oder getragenen Geräts ausgegeben werden, etwa mittels eines Mobiltelefons oder eines Fitnessarmbandes.However, haptically perceptible feedback can also be generated in such a way that it can be detected in a different way, in particular by means of parts of the user's body that are not involved in the actuation. For example, a haptic feedback can be output in such a way that it can be detected on the user's foot, for example via the pedals of a vehicle, or on the back, on a seat surface or an armrest. Such a haptic feedback, which cannot be perceived in one of the sub-areas, can also be output, for example, by means of a device attached to or worn on the body of the user, for example by means of a cell phone or a fitness bracelet.
Bei einer weiteren Ausbildung der Erfindung sind die erste und die zweite haptische Rückmeldung anhand verschiedener physikalischer Prinzipien erzeugbar. Dadurch können die haptischen Rückmeldungen und daher auch die Teilbereiche vorteilhafterweise besonders gut voneinander unterschieden werden.In a further embodiment of the invention, the first and the second haptic feedback can be generated on the basis of different physical principles. As a result, the haptic feedback and therefore also the sub-areas can advantageously be distinguished from one another particularly well.
Die bei der Erfindung erzeugte erste und zweite Rückmeldung sollen so ausgebildet sein, dass ein Nutzer sie haptisch unterscheiden kann. Werden die Rückmeldungen anhand verschiedener physikalischer Prinzipien erzeugt, so unterscheiden sie sich nicht nur in ihrem Verlauf, etwa durch verschiedene Intensität, Länge, eine Pulsform oder andere Parameter, sondern die haptische Empfindung des Nutzers wird auf verschiedene Weisen hervorgerufen.The first and second feedback generated in the invention should be designed in such a way that a user can distinguish them haptically. If the feedback is generated on the basis of different physical principles, they not only differ in their course, for example by different intensity, length, pulse shape or other parameters, but the haptic sensation of the user is evoked in different ways.
Bei einer Weiterbildung sind die erste und zweite haptische Rückmeldung mittels einer Kraftübertragung auf das Betätigungsobjekt ohne eine Berührung des Betätigungsobjekts mit einer festen Oberfläche erzeugbar. Die haptische Rückmeldung erfolgt also berührungslos. Dadurch können vorteilhafterweise mit einer Berührung verbundene Nachteile überwunden werden, etwa das Risiko von Verunreinigungen einer berührten Oberfläche.In a further development, the first and second haptic feedback can be generated by means of a force transmission to the actuation object without touching the actuation object with a solid surface. The haptic feedback is therefore contactless. In this way, disadvantages associated with contact can advantageously be overcome, for example the risk of contamination of a touched surface.
Bei einer weiteren Ausbildung ist die erste haptische Rückmeldung mittels zumindest eines Ultraschallaktors und die zweite haptische Rückmeldung mittels einer Luftdüse erzeugbar. Die erste und zweite haptische Rückmeldung können ferner umgekehrt erzeugt werden oder in anderen Kombinationen. Ferner können andere Methoden zur Ausgabe berührungsloser Rückmeldungen verwendet werden, etwa durch Abstrahlen einer Wärmestrahlung.In a further embodiment, the first haptic feedback is by means of at least one ultrasonic actuator and the second is haptic Feedback can be generated by means of an air nozzle. The first and second haptic feedback can also be generated in reverse or in other combinations. Other methods of outputting contactless feedback can also be used, for example by emitting thermal radiation.
Eine haptisch erfassbare Rückmeldung mittels einer Luftdüse kann beispielsweise einen Luftstoß umfassen, der ausgehend von einer bestimmten Position in eine bestimmte Richtung verläuft und dabei eine bestimmte Stärke aufweist. Typischerweise weisen Luftstöße von klein ausgebildeten Luftdüsen keine besonders lange Reichweite auf, etwa in einem Bereich von bis zu 5 cm oder bis zu 10 cm Abstand von der Luftdüse. Bei größer dimensionierten Luftdüsen und/oder Versorgung mit einem besonders starken Luftstrom kann eine größere Reichweite erreicht werden.A haptically detectable feedback by means of an air nozzle can include, for example, a blast of air which, starting from a certain position, runs in a certain direction and has a certain strength. Typically, blasts of air from small air nozzles do not have a particularly long range, for example in a range of up to 5 cm or up to 10 cm from the air nozzle. With larger air nozzles and / or supply with a particularly strong air flow, a greater range can be achieved.
Bei einer Weiterbildung des Verfahrens umfasst die haptische Rückmeldungseinheit ein Array von Ultraschallaktoren, wobei die Ultraschallaktoren in einer Ebene angeordnet sind, die parallel zu einer Dickenerstreckung des ersten oder zweiten Teilbereichs verläuft. Dadurch wird vorteilhafterweise eine optimale Übertragung der mittels Ultraschall erzeugten haptischen Rückmeldung erreicht. Bei weiteren Ausbildungen können die Ultraschallaktoren entlang einer gewölbten oder anders geformten Fläche angeordnet sein. Sie können ferner auf andere Weise als entlang einer Fläche angeordnet und etwa von mehreren Seiten auf den Teilbereich gerichtet sein.In a further development of the method, the haptic feedback unit comprises an array of ultrasonic actuators, the ultrasonic actuators being arranged in a plane which runs parallel to a thickness of the first or second partial area. As a result, an optimal transmission of the haptic feedback generated by means of ultrasound is advantageously achieved. In further configurations, the ultrasonic actuators can be arranged along a curved or differently shaped surface. They can also be arranged in a manner other than along a surface and, for example, be directed onto the partial area from several sides.
Die Ultraschallaktoren des Arrays werden insbesondere so angesteuert, dass es an einer bestimmten Position im Raum zu einer Bündelung der von den Aktoren erzeugten Druckschwankungen kommt. An der Position einer solchen Bündelung kann ein Druck oder ein anderer haptischer Eindruck an der Haut eines Nutzers wahrgenommen werden. Beispielweise kann die Empfindung einer Vibration an der Haut erzeugt werden.The ultrasonic actuators of the array are controlled in particular in such a way that the pressure fluctuations generated by the actuators are bundled at a certain position in space. At the position of such a bundling, a pressure or another haptic impression can be perceived on the skin of a user. For example, the sensation of a vibration can be generated on the skin.
Insbesondere sind die Ultraschallaktoren in einer Ebene angeordnet, die wiederum in einem Winkelbereich von 70° bis 110°, insbesondere senkrecht zu einer Ebene der Eingabeeinrichtung verläuft, bei der Betätigungen erfolgen können. Beispielsweise ist die Eingabeeinrichtung als flache, berührungsempfindliche Oberfläche über einer Anzeigefläche ausgebildet, etwa bei einem Touchscreen. Das Aktorenarray verläuft dann senkrecht dazu so, dass die Flächen miteinander einen rechten Winkel einschließen. Bei diesem Beispiel kann ferner derjenige Teilbereich, in dem die haptische Rückmeldung mittels Ultraschall erzeugt wird, als Schicht parallel zu der Ebene der Eingabeeinheit ausgebildet sein, etwa als Schicht einer bestimmten Dicke vor der berührungsempfindlichen Oberfläche. Die Flächenerstreckung des Teilbereichs, die parallel zur Flächenerstreckung der Ebene der Eingabeeinheit verläuft, schließt daher ebenfalls einen rechten Winkel mit der Ebene der Ultraschallaktoren ein. Auf diese Weise kann eine optimale Kombination möglichst vieler Aktoren auf die Positionen innerhalb des Teilbereichs einwirken.In particular, the ultrasonic actuators are arranged in a plane which in turn runs in an angular range of 70 ° to 110 °, in particular perpendicular to a plane of the input device, in which actuations can take place. For example, the input device is designed as a flat, touch-sensitive surface over a display surface, for example in the case of a touchscreen. The actuator array then runs perpendicular to it in such a way that the surfaces enclose a right angle with one another. In this example, that sub-area in which the haptic feedback is generated by means of ultrasound can also be designed as a layer parallel to the plane of the input unit, for example as a layer of a certain thickness in front of the touch-sensitive surface. The surface extension of the partial area, which runs parallel to the surface extension of the plane of the input unit, therefore also includes a right angle with the plane of the ultrasonic actuators. In this way, an optimal combination of as many actuators as possible can act on the positions within the sub-area.
Bei in einem Array angeordneten Ultraschallaktoren wird typischerweise die optimale Ausgabe einer haptischen Rückmeldung in einem Bereich erreicht, der sich in Emissionsrichtung des Ultraschalls vor den Aktoren so erstreckt, dass die Wirkung mehrerer Aktoren gebündelt werden kann. Das heißt, in einem Randbereich des Aktorenarrays wird typischerweise keine optimale Ausgabe der Rückmeldung erreicht. Die Dickenerstreckung des Teilbereichs, in dem die haptische Rückmeldung mittels Ultraschall ausgegeben wird, ist also so ausgebildet, dass der Teilbereich über dem Aktorenarray angeordnet ist.In the case of ultrasonic actuators arranged in an array, the optimal output of a haptic feedback is typically achieved in an area which extends in front of the actuators in the direction of emission of the ultrasound in such a way that the effect of several actuators can be bundled. That is, in an edge area of the actuator array, typically no optimal output of the feedback is achieved. The thickness extension of the sub-area in which the haptic feedback is output by means of ultrasound is thus designed such that the sub-area is arranged above the actuator array.
Bei einer Ausbildung ist die Eingabeeinheit als berührungsempfindliche Oberfläche ausgebildet und vor einer Anzeigefläche oder von dieser beabstandet angeordnet. Insbesondere sind die Eingabeeinheit und die Anzeigefläche in einem Touchscreen integriert. Auch eine andere, nicht als berührungsempfindliche Oberfläche ausgebildete Eingabeeinheit kann bei der Anzeigefläche oder davon beabstandet angeordnet sein. Dadurch kann die Betätigung vorteilhafterweise besonders einfach und schnell erfolgen, indem die berührungsempfindliche Oberfläche an einer bestimmten Position berührt wird.In one embodiment, the input unit is designed as a touch-sensitive surface and is arranged in front of a display surface or at a distance from it. In particular, the input unit and the display area are integrated in a touchscreen. Another input unit, which is not designed as a touch-sensitive surface, can also be arranged near the display surface or at a distance therefrom. As a result, the actuation can advantageously take place particularly simply and quickly by touching the touch-sensitive surface at a specific position.
Ferner können der erste und der zweite Teilbereich vor der Anzeigefläche ausgebildet sein. Insbesondere erstreckt sich der erste Teilbereich über eine bestimmte Dicke als von der Anzeigefläche beabstandete Schicht im Raum und der zweite Teilbereich als weitere Schicht ausgehend von der Anzeigefläche selbst bis zu einem bestimmten Abstand.Furthermore, the first and the second partial area can be formed in front of the display area. In particular, the first sub-area extends over a certain thickness as a layer spaced apart from the display area in space and the second sub-area as a further layer starting from the display area itself up to a certain distance.
Auch hier kann eine Annäherung und insbesondere ein Eintreten des Betätigungsobjekts in den ersten oder zweiten Teilbereich als Betätigung erfasst werden. Die Berührung der berührungsempfindlichen Oberfläche kann ebenfalls als Betätigung erfasst werden, beispielsweise zusätzlich zur Betätigung mittels Annäherung. In diesem Fall kann zwischen einer ersten Betätigung durch Annäherung und einer zweiten Betätigung durch Berührung unterschieden werden und es kann beispielsweise eine mehrstufige Bedienung implementiert werden, bei der die einzelnen Betätigungen verschiedenen Bedienschritten zugeordnet sind.Here, too, an approach and in particular an entry of the actuating object into the first or second partial area can be detected as an actuation. Touching the touch-sensitive surface can also be detected as an actuation, for example in addition to actuation by means of approach. In this case, a distinction can be made between a first actuation by approaching and a second actuation by touch and, for example, a multi-level operation can be implemented in which the individual actuations are assigned to different operating steps.
Bei einer weiteren Ausbildung weist die Anzeigefläche zumindest eine Öffnung zum Durchleiten eines Luftstroms auf. Insbesondere kann durch die Öffnung ein Luftstrom geleitet werden, der mittels einer hinter der Anzeigefläche angeordneten Luftdüse erzeugt wird. Dadurch kann vorteilhafterweise eine haptisch erfassbare Rückmeldung mittels Luft so erzeugt werden, dass der Nutzer sie einer bestimmten Position der Anzeigefläche zuordnen kann.In a further embodiment, the display surface has at least one opening for the passage of an air stream. In particular, the Opening an air flow can be directed, which is generated by means of an air nozzle arranged behind the display surface. As a result, a haptically detectable feedback can advantageously be generated by means of air in such a way that the user can assign it to a specific position of the display area.
Beispielsweise weist die Anzeigefläche eine Vielzahl von Öffnungen auf, die insbesondere in einem regelmäßigen Muster, etwa als Array oder Matrix, angeordnet sein können. Die haptische Rückmeldung kann dabei für eine bestimmte Position der Anzeigefläche erzeugt werden. Der Luftstrom kann dabei durch eine oder mehrere Öffnungen geleitet werden, um eine mehr oder weniger stark lokalisierte haptische Rückmeldung zu erzeugen.For example, the display surface has a multiplicity of openings which can in particular be arranged in a regular pattern, for example as an array or matrix. The haptic feedback can be generated for a specific position of the display area. The air flow can be passed through one or more openings in order to generate a more or less strongly localized haptic feedback.
Bei einer Rückmeldung mittels eines Luftstroms wird insbesondere eine Kraft erzeugt, die entgegen einer Bewegung des Betätigungsobjekts auf die Eingabeeinheit zu wirkt. Die dabei entstehende Kraft kann daher ein virtuelles Bedienelement simulieren, auf das zum Betätigen eine Kraft ausgeübt werden muss.In the case of feedback by means of an air flow, a force is generated in particular which acts on the input unit against a movement of the actuating object. The resulting force can therefore simulate a virtual operating element on which a force has to be exerted for actuation.
Bei einer Weiterbildung weist der Erfassungsbereich ferner einen zwischen dem ersten und dem zweiten Teilbereich angeordneten Zwischenbereich auf. Dabei ist die Annäherungserfassungseinheit ferner dazu eingerichtet, bei einem Aufenthalt des Betätigungsobjekts in dem Zwischenbereich eine Verschiebung des Betätigungsobjekts zu erfassen. Dadurch kann vorteilhafterweise die Eingabe des Nutzers unterstützt werden.In a further development, the detection area also has an intermediate area arranged between the first and second partial areas. In this case, the proximity detection unit is also set up to detect a displacement of the actuation object when the actuation object is in the intermediate area. In this way, the input of the user can advantageously be supported.
Beispielsweise wird dabei die Position des Betätigungsobjekts relativ zu der Anzeigefläche einer Anzeigeeinheit verfolgt und es kann etwa eine Cursordarstellung ausgegeben werden, die der erfassten Position folgt. Insbesondere wird bei der Verschiebung eine Position des Betätigungsobjekts relativ zu einer Anzeigefläche bestimmt, etwa indem die dem Betätigungsobjekt nächste Position auf der Anzeigefläche bestimmt wird.For example, the position of the actuation object is tracked relative to the display surface of a display unit and a cursor display can be output that follows the detected position. In particular, during the displacement, a position of the actuation object relative to a display area is determined, for example by determining the position on the display area that is closest to the actuation object.
Hierdurch kann beispielsweise eine Bedienung realisiert werden, bei der zunächst ein Eintritt des Betätigungsobjekts in den ersten Teilbereich erfasst wird, wenn es sich bis zu einem bestimmten Maximalabstand der Anzeigefläche nähert. Im nächsten Schritt verlässt das Betätigungsobjekt den ersten Teilbereich und tritt in den - insbesondere direkt angrenzenden - Zwischenbereich in einem geringeren Abstand zur Anzeigefläche ein. Nun wird die Position des Betätigungsobjekts relativ zur Anzeigefläche erfasst und ein Cursor an der dem Betätigungsobjekt nächsten Position ausgegeben, sodass der Nutzer eine visuelle Rückmeldung über die Position erhält. Bei einer noch weiteren Annäherung tritt des Betätigungsobjekt in den - insbesondere direkt an den Zwischenbereich angrenzenden - zweiten Teilbereich ein. Dieses Eintreten wird als Betätigung ausgewertet, etwa nach Art eines Klicks oder einer Tippgeste bei bekannten Systemen. Ferner kann, je nach dem Kontext der Anwendung, eine fortlaufende Betätigung erfasst werden, während sich das Betätigungsobjekt in dem zweiten Teilbereich befindet, sodass beispielsweise eine Bedienung mittels Ziehen-und-Loslassen (drag and drop) oder ein langes Betätigen (Iongpress) implementiert werden können.In this way, for example, an operation can be implemented in which an entry of the actuating object into the first partial area is initially detected when it approaches the display area up to a certain maximum distance. In the next step, the actuation object leaves the first partial area and enters the - in particular directly adjoining - intermediate area at a smaller distance from the display area. The position of the actuation object relative to the display area is now recorded and a cursor is output at the position closest to the actuation object, so that the user receives visual feedback on the position. In the event of a still further approach, the actuating object enters the second partial area, in particular directly adjoining the intermediate area. This occurrence is evaluated as an actuation, for example in the manner of a click or a tap gesture in known systems. Furthermore, depending on the context of the application, a continuous actuation can be detected while the actuation object is in the second partial area, so that, for example, an operation by means of drag and drop or a long press (long press) can be implemented can.
Bei dem Beispiel kann in dem ersten Teilbereich die erste Rückmeldung mit Ultraschall erzeugt werden, während im zweiten Teilbereich die zweite Rückmeldung mittels Luftstößen erzeugt wird. Während des Aufenthalts im Zwischenbereich wird keine Rückmeldung ausgegeben oder es wird die erste oder zweite, oder eine Kombination der ersten und zweiten Rückmeldung erzeugt oder es wird eine dritte, anders ausgebildete Rückmeldung erzeugt.In the example, the first feedback can be generated with ultrasound in the first sub-area, while the second feedback is generated by blasts of air in the second sub-area. During the stay in the intermediate area, no feedback is issued or the first or second, or a combination of the first and second feedback is generated, or a third, differently configured feedback is generated.
Die erste und/oder zweite Rückmeldung kann einmalig ausgegeben werden, wenn das Betätigungsobjekt in dem ersten beziehungsweise zweiten Teilbereich erfasst wurde. Die Rückmeldung kann ferner dauernd oder periodisch wiederkehrend erzeugt werden, solange sich das Betätigungsobjekt in dem Teilbereich befindet oder für eine definierte Zeitdauer. Hierdurch kann der Nutzer erfassen, wenn das Betätigungsobjekt in einen der Teilbereiche eintritt beziehungsweise zu welcher Zeit es sich darin befindet.The first and / or second feedback can be output once if the actuation object was detected in the first or second partial area. The feedback can also be generated continuously or periodically as long as the actuation object is located in the partial area or for a defined period of time. In this way, the user can detect when the actuation object enters one of the sub-areas or at what time it is located therein.
Bei einer weiteren Ausbildung des Verfahrens wird eine Blickrichtung eines Nutzers relativ zu der Eingabeeinheit erfasst. Alternativ oder zusätzlich kann ein Bewegungsverlauf des Betätigungsobjekts relativ zu der Eingabeeinheit erfasst werden. Die Ausgabe der ersten und/oder zweiten Rückmeldung wird an einer Position erzeugt, die eine Parallaxe beim Blick des Nutzers auf die Eingabeeinheit ausgleicht. Blickt der Nutzer beispielsweise seitlich auf die Eingabeeinheit, insbesondere wenn diese über einer Anzeigefläche ausgebildet ist, so wird die Rückmeldung so erzeugt, dass sie einem gemäß der Parallaxe bestimmten Punkt der Eingabeeinheit zugeordnet ist. Dadurch wird vorteilhafterweise eine Irritation des Nutzers vermieden, wenn eine Rückmeldung für einen nicht anvisierten Punkt der Eingabeeinheit ausgegeben wird.In a further embodiment of the method, a direction of view of a user is recorded relative to the input unit. Alternatively or additionally, a course of movement of the actuating object relative to the input unit can be recorded. The output of the first and / or second feedback is generated at a position that compensates for parallax when the user looks at the input unit. For example, if the user looks sideways at the input unit, in particular if it is formed above a display surface, the feedback is generated in such a way that it is assigned to a point on the input unit determined according to the parallax. This advantageously avoids irritation of the user when feedback is output for a point of the input unit that is not targeted.
Bei dem Verfahren zum Betreiben einer Vorrichtung zum Erfassen einer Eingabe mittels eines Betätigungsobjekts ist eine Eingabeeinheit dazu eingerichtet, bei einer Betätigung durch das Betätigungsobjekt ein Steuersignal zu erzeugen. Bei dem Verfahren wird eine Anwesenheit des Betätigungsobjekts in einem ersten oder zweiten Teilbereich eines Erfassungsbereichs erfasst und eine erste haptische Rückmeldung wird erzeugt, wenn die Anwesenheit des Betätigungsobjekts in dem ersten Teilbereich erfasst wurde, und eine zweite haptische Rückmeldung wird erzeugt, wenn die Anwesenheit des Betätigungsobjekts in dem zweiten Teilbereich erfasst wurde.In the method for operating a device for detecting an input by means of an actuation object, an input unit is set up to generate a control signal upon actuation by the actuation object. In the method, a presence of the actuating object in a first or second sub-area of a detection area is detected and a first haptic feedback is generated when the Presence of the actuating object was detected in the first sub-area, and a second haptic feedback is generated when the presence of the actuating object was detected in the second sub-area.
Das erfindungsgemäße Verfahren ist insbesondere ausgebildet, die vorstehend beschriebene erfindungsgemäße Vorrichtung zu betreiben. Das Verfahren weist somit dieselben Vorteile auf wie die erfindungsgemäße Vorrichtung.The method according to the invention is designed in particular to operate the device according to the invention described above. The method thus has the same advantages as the device according to the invention.
Die Erfindung wird nun anhand von Ausführungsbeispielen mit Bezug zu den Zeichnungen erläutert.
-
1 zeigt ein Fahrzeug mit einem ersten Ausführungsbeispiel der erfindungsgemäßen Vorrichtung, -
2 zeigt das erste Ausführungsbeispiel der erfindungsgemäßen Vorrichtung in größerem Detail und -
3 zeigt ein zweites Ausführungsbeispiel der erfindungsgemäßen Vorrichtung.
-
1 shows a vehicle with a first embodiment of the device according to the invention, -
2 shows the first embodiment of the device according to the invention in greater detail and -
3 shows a second embodiment of the device according to the invention.
Mit Bezug zu den
Ein Fahrzeug
Die Annäherungserfassungseinheit
Bei dem Ausführungsbeispiel ist die Annäherungserfassungseinheit
Bei einem weiteren Ausführungsbeispiel wird ferner erfasst, aus welcher Richtung sich das Betätigungsobjekt
In
In der in
Die Öffnungen zum Durchleiten der Luft können auf verschiedene Weisen ausgebildet sein. Bei dem Ausführungsbeispiel erstrecken sie sich über eine bestimmte Anzahl von Bildpunkte (Pixel) der Anzeigefläche
Die Erzeugung der haptisch wahrnehmbaren Rückmeldung mittels Luftstößen erfolgt bei dem Ausführungsbeispiel so, dass sie im zweiten Teilbereich
Die weitere Rückmeldungseinheit
Die Fläche der Ultraschallaktoren
Die weitere Einheit
Bei weiteren Ausführungsbeispielen ist statt eines Touchscreens
Mit Bezug zu den
Zu Beginn des Verfahrens werde auf der Anzeigefläche
Bei dem Verfahren wird mittels der Annäherungserfassungseinheit
In einem zweiten Schritt wird erfasst, dass sich der Finger
Während des Aufenthalts in dem Zwischenbereich
Bei einer weiteren Annäherung an die Anzeigefläche
Es wird eine haptisch wahrnehmbare Rückmeldung mittels der Luftdüsen
Bei dem Ausführungsbeispiel genügt es zum Ausführen einer Betätigung, dass sich der Finger
Bei einem weiteren Ausführungsbeispiel ist keine berührungsempfindliche Oberfläche
Mit Bezug zu
Bei dem zweiten Ausführungsbeispiel erfolgt die Eingabe beabstandet von der Anzeigefläche
Ebenfalls analog zu dem oben erläuterten ersten Ausführungsbeispiel sind Ultraschallaktoren
Es wird eine erste Rückmeldung mittels der Ultraschallaktoren
Bei einem weiteren Ausführungsbeispiel ersetzt eine andere, nicht berührungsempfindliche Oberfläche die berührungsempfindliche Oberfläche
BezugszeichenlisteList of reference symbols
- 11
- Fahrzeugvehicle
- 22
- TouchscreenTouch screen
- 33
- AnzeigeflächeDisplay area
- 44th
- Eingabeeinheit; berührungsempfindliche OberflächeInput unit; touch-sensitive surface
- 55
- Rückmeldungseinheit; LuftdüseFeedback unit; Air nozzle
- 66th
- Rückmeldungseinheit; UltraschallaktorenFeedback unit; Ultrasonic actuators
- 77th
- SteuereinheitControl unit
- 88th
- Weitere EinrichtungFurther facility
- 99
- Betätigungsobjekt; FingerOperation object; finger
- 1010
- AnnäherungserfassungseinheitProximity detection unit
- 2121
- Erster TeilbereichFirst part
- 2222nd
- Zweiter TeilbereichSecond part
- 2323
- ZwischenbereichIntermediate area
- 2525th
- ErfassungsbereichDetection area
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- EP 3118048 A1 [0003]EP 3118048 A1 [0003]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019216411.0A DE102019216411B4 (en) | 2019-10-24 | 2019-10-24 | Device for detecting an input by means of an actuation object and method for operating a device for detecting an input |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019216411.0A DE102019216411B4 (en) | 2019-10-24 | 2019-10-24 | Device for detecting an input by means of an actuation object and method for operating a device for detecting an input |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102019216411A1 true DE102019216411A1 (en) | 2021-04-29 |
DE102019216411B4 DE102019216411B4 (en) | 2022-09-29 |
Family
ID=75379271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019216411.0A Active DE102019216411B4 (en) | 2019-10-24 | 2019-10-24 | Device for detecting an input by means of an actuation object and method for operating a device for detecting an input |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019216411B4 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021207639A1 (en) | 2021-07-16 | 2023-01-19 | Volkswagen Aktiengesellschaft | Method for operating a motor vehicle and motor vehicle |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130120247A1 (en) * | 2010-07-23 | 2013-05-16 | Nec Corporation | Three dimensional display device and three dimensional display method |
US20140092037A1 (en) * | 2012-09-28 | 2014-04-03 | Lg Electronics Inc. | Display device and control method thereof |
DE102017202672A1 (en) * | 2017-02-20 | 2018-08-23 | Bayerische Motoren Werke Aktiengesellschaft | Operating device, vehicle with an operating device and method for controlling an operating device |
US20190179477A1 (en) * | 2015-12-11 | 2019-06-13 | Immersion Corporation | Systems and Methods for Position-Based Haptic Effects |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015009031A1 (en) | 2015-07-11 | 2017-01-12 | Man Truck & Bus Ag | Function selection via gesture control with haptic feedback |
-
2019
- 2019-10-24 DE DE102019216411.0A patent/DE102019216411B4/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130120247A1 (en) * | 2010-07-23 | 2013-05-16 | Nec Corporation | Three dimensional display device and three dimensional display method |
US20140092037A1 (en) * | 2012-09-28 | 2014-04-03 | Lg Electronics Inc. | Display device and control method thereof |
US20190179477A1 (en) * | 2015-12-11 | 2019-06-13 | Immersion Corporation | Systems and Methods for Position-Based Haptic Effects |
DE102017202672A1 (en) * | 2017-02-20 | 2018-08-23 | Bayerische Motoren Werke Aktiengesellschaft | Operating device, vehicle with an operating device and method for controlling an operating device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021207639A1 (en) | 2021-07-16 | 2023-01-19 | Volkswagen Aktiengesellschaft | Method for operating a motor vehicle and motor vehicle |
Also Published As
Publication number | Publication date |
---|---|
DE102019216411B4 (en) | 2022-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2750914B1 (en) | Method and device for making available a user interface, in particular in a vehicle | |
EP2761399B1 (en) | Dataglove having tactile feedback and method | |
EP3303043B1 (en) | Operating device with fast haptic feedback | |
DE102015200037A1 (en) | Operating device with improved haptic feedback | |
EP1930923B1 (en) | Switching device for medical or surgical instruments | |
DE10340188A1 (en) | Screen with a touch-sensitive user interface for command input | |
EP2972698B1 (en) | Method for operating a touch-sensitive control system and device having such a control system | |
EP3573854B1 (en) | Method for operating a control system, control system and vehicle with a control system | |
EP2653335A2 (en) | Method and apparatus for displaying a hand of an operator of an operating element of a vehicle | |
DE102015209593A1 (en) | Operating device with fast haptic feedback | |
DE102009034871A1 (en) | Touch-sensitive control system for detecting drive input in motor vehicle, has actuator releasing haptic stimulus perceptible for actuation elements when input is provided by user, where haptic stimulus is varied based on user input | |
DE102019216411B4 (en) | Device for detecting an input by means of an actuation object and method for operating a device for detecting an input | |
WO2017054894A1 (en) | Interactive operating system and method for carrying out an operational action in an interactive operating system | |
DE102016003978A1 (en) | Operating device for a motor vehicle and motor vehicle | |
EP3298477B1 (en) | Method for operating an operating device, and operating device for a motor vehicle | |
WO2018114432A1 (en) | Operator control apparatus, which can be operated in a contact-free manner, for a motor vehicle, and also motor vehicle and operating method for the operator control apparatus | |
DE102014200609A1 (en) | Touch-sensitive operating device with trough | |
DE20117645U1 (en) | operating device | |
EP4025449B1 (en) | Operating system for a vehicle, motor vehicle comprising an operating system and method for operating an operating system for a vehicle | |
DE102018202668A1 (en) | Operating device and method for controlling at least one functional unit for a motor vehicle with an optical displacement of an operating symbol | |
DE102019002885A1 (en) | operating device | |
EP4025448A1 (en) | Operating system for a vehicle and method for operating an operating system for a vehicle | |
DE102018126472A1 (en) | Input device for a motor vehicle and method for controlling the input device | |
EP3234733B1 (en) | Method for controlling a vehicle system | |
DE102019105764B3 (en) | Method for calibrating a user interface and user interface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R082 | Change of representative |
Representative=s name: REITSTOETTER KINZEBACH, DE Representative=s name: MEISSNER BOLTE PATENTANWAELTE RECHTSANWAELTE P, DE |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R082 | Change of representative |
Representative=s name: MEISSNER BOLTE PATENTANWAELTE RECHTSANWAELTE P, DE |