DE102018211624A1 - Method and user interface for capturing an input using pointing gesture - Google Patents
Method and user interface for capturing an input using pointing gesture Download PDFInfo
- Publication number
- DE102018211624A1 DE102018211624A1 DE102018211624.5A DE102018211624A DE102018211624A1 DE 102018211624 A1 DE102018211624 A1 DE 102018211624A1 DE 102018211624 A DE102018211624 A DE 102018211624A DE 102018211624 A1 DE102018211624 A1 DE 102018211624A1
- Authority
- DE
- Germany
- Prior art keywords
- selection
- selection area
- user
- areas
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000012913 prioritisation Methods 0.000 claims description 4
- 210000003128 head Anatomy 0.000 abstract description 10
- 238000001514 detection method Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000003247 decreasing effect Effects 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Arrangement of adaptations of instruments
-
- B60K35/10—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- B60K2360/11—
-
- B60K2360/141—
-
- B60K2360/1438—
-
- B60K2360/1464—
-
- B60K2360/149—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
Abstract
Es wird ein Verfahren (300) zur Erfassung einer Eingabe eines Nutzers an einer Eingabefläche (104) beschrieben, wobei die Eingabefläche (104) eine Mehrzahl von Auswahlbereichen (201) umfasst. Das Verfahren (300) umfasst das Erfassen (301) von Sensordaten in Bezug auf den Kopf (110), insbesondere die Augen, und zumindest eine Hand (115) des Nutzers. Außerdem umfasst das Verfahren (300) das Bestimmen (302), auf Basis der Sensordaten, zumindest eines ersten Auswahlbereichs (211), auf den der Blick des Nutzers gerichtet sein könnte. Ferner umfasst das Verfahren (300) das Ermitteln (303), auf Basis der Sensordaten, einer Zeigerichtung (125) einer mittels der Hand (115) ausgeführten Zeigegeste des Nutzers. Des Weiteren umfasst das Verfahren (300) das Ermitteln (304), auf Basis der Zeigerichtung (125), eines ausgewählten Auswahlbereichs (201, 211) aus der Mehrzahl von Auswahlbereichen (201), wobei der erste Auswahlbereich (211) bei dem Ermitteln (304) eine erhöhte Priorität im Vergleich zu ein oder mehreren anderen der Mehrzahl von Auswahlbereichen (201) aufweist.A method (300) for detecting an input from a user on an input surface (104) is described, the input surface (104) comprising a plurality of selection areas (201). The method (300) comprises the acquisition (301) of sensor data relating to the head (110), in particular the eyes, and at least one hand (115) of the user. In addition, the method (300) comprises determining (302), based on the sensor data, at least one first selection area (211), which the user could be looking at. The method (300) further comprises determining (303), based on the sensor data, a pointing direction (125) of a pointing gesture made by the user by means of the hand (115). The method (300) further comprises determining (304), based on the pointing direction (125), a selected selection area (201, 211) from the plurality of selection areas (201), the first selection area (211) being determined ( 304) has an increased priority compared to one or more others of the plurality of selection areas (201).
Description
Die Erfindung betrifft ein Verfahren und eine Benutzerschnittstelle, die es einem Nutzer ermöglichen, in zuverlässiger Weise eine Eingabe mittels Zeigegestik zu tätigen.The invention relates to a method and a user interface that enable a user to make a reliable entry using pointing gestures.
Ein Fahrzeug kann eine Benutzerschnittstelle aufweisen, die es einem Nutzer des Fahrzeugs ermöglicht, mittels einer Geste eine Eingabe zu tätigen, z.B. um ein Infotainmentsystem des Fahrzeugs zu bedienen. Dabei kann anhand von ein oder mehreren Kameras die Bewegung der Hand des Nutzers erfasst werden. Die erfassten Bilddaten können ausgewertet werden, um eine Eingabegeste aus einer Mehrzahl von gespeicherten Eingabegesten zu erkennen.A vehicle may have a user interface that enables a user of the vehicle to make an input using a gesture, e.g. to operate an infotainment system of the vehicle. The movement of the user's hand can be recorded using one or more cameras. The captured image data can be evaluated in order to recognize an input gesture from a plurality of stored input gestures.
Eine beispielhafte Eingabegeste ist dabei eine Zeigegeste, die es einem Nutzer ermöglicht, mit dem Finger auf einen bestimmten Auswahlbereich auf einer Auswahl- bzw. Eingabefläche (z.B. auf einem Bildschirm) der Benutzerschnittstelle des Fahrzeugs zu zeigen, um eine mit dem Auswahlbereich assoziierte Eingabe zu tätigen. Die Zeigerichtung des Fingers des Nutzers kann dabei auf Basis der erfassten Bilddaten ermittelt werden.An exemplary input gesture is a pointing gesture, which enables a user to point a finger at a specific selection area on a selection or input surface (for example on a screen) of the user interface of the vehicle in order to make an input associated with the selection area , The pointing direction of the user's finger can be determined on the basis of the captured image data.
Die Zeigerichtung einer Zeigegeste kann meist nur mit einer relativ geringen Genauigkeit auf Basis von Bilddaten ermittelt werden. Des Weiteren zeigt ein Nutzer häufig nur ungenau auf einen auszuwählenden Auswahlbereich. Dabei hängt die Genauigkeit der ermittelten Zeigerichtung typischerweise von der Ausrichtung der ein oder mehreren Kameras ab, durch die die Bilddaten erfasst werden. Eine geringe Genauigkeit der ermittelten Zeigerichtung einer Zeigegeste führt zu einer relativ geringen Zuverlässigkeit einer Eingabe mittels Zeigegestik. Des Weiteren erfordert die geringe Genauigkeit der ermittelten Zeigerichtung einer Zeigegeste die Verwendung von relativ großflächigen Auswahlbereichen. The pointing direction of a pointing gesture can usually only be determined with a relatively low accuracy on the basis of image data. Furthermore, a user often only points inaccurately to a selection area to be selected. The accuracy of the determined pointing direction typically depends on the orientation of the one or more cameras through which the image data are captured. A low accuracy of the determined pointing direction of a pointing gesture leads to a relatively low reliability of an input by means of pointing gesture. Furthermore, the low accuracy of the determined pointing direction of a pointing gesture requires the use of relatively large selection areas.
Das vorliegende Dokument befasst sich mit der technischen Aufgabe, eine kompakte Benutzerschnittstelle bereitzustellen, die eine Eingabe mittels Zeigegestik mit hoher Zuverlässigkeit ermöglicht.The present document deals with the technical task of providing a compact user interface which enables input by means of pointing gesture with high reliability.
Die Aufgabe wird jeweils durch die unabhängigen Ansprüche gelöst. Vorteilhafte Ausführungsformen werden u.a. in den abhängigen Ansprüchen beschrieben. Es wird darauf hingewiesen, dass zusätzliche Merkmale eines von einem unabhängigen Patentanspruch abhängigen Patentanspruchs ohne die Merkmale des unabhängigen Patentanspruchs oder nur in Kombination mit einer Teilmenge der Merkmale des unabhängigen Patentanspruchs eine eigene und von der Kombination sämtlicher Merkmale des unabhängigen Patentanspruchs unabhängige Erfindung bilden können, die zum Gegenstand eines unabhängigen Anspruchs, einer Teilungsanmeldung oder einer Nachanmeldung gemacht werden kann. Dies gilt in gleicher Weise für in der Beschreibung beschriebene technische Lehren, die eine von den Merkmalen der unabhängigen Patentansprüche unabhängige Erfindung bilden können.The task is solved in each case by the independent claims. Advantageous embodiments include described in the dependent claims. It is pointed out that additional features of a claim dependent on an independent claim without the features of the independent claim or only in combination with a subset of the features of the independent claim can form a separate invention that is independent of the combination of all features of the independent claim can be made the subject of an independent claim, a divisional application or a late application. This applies in the same way to the technical teachings described in the description, which can form an invention that is independent of the features of the independent claims.
Gemäß einem Aspekt wird ein Verfahren zur Erfassung einer Eingabe eines Nutzers an einer Eingabefläche beschrieben. Dabei kann die Eingabefläche eine Mehrzahl von Auswahlbereichen umfassen. Die Eingabefläche kann z.B. einen Bildschirm umfassen, auf dem die unterschiedlichen Auswahlbereiche angezeigt werden. Des Weiteren können auf der Eingabefläche Funktionen angezeigt werden, die durch Auswahl der unterschiedlichen Auswahlbereiche ausgelöst werden können.According to one aspect, a method for detecting an input by a user on an input surface is described. The input area can comprise a plurality of selection areas. The input area can e.g. include a screen on which the different selection areas are displayed. In addition, functions can be displayed on the input surface, which can be triggered by selecting the different selection areas.
Das Verfahren umfasst das Erfassen von Sensordaten in Bezug auf den Kopf und/oder die Blickrichtung und/oder die Augen und in Bezug auf zumindest eine Hand des Nutzers. Die Sensordaten können mittels zumindest eines Nutzersensors (z.B. einer Bildkamera, einer Tiefenkamera, Annäherungssensorik, etc.) erfasst werden, der auf den Nutzer gerichtet ist. Die Sensordaten können z.B. an einem bestimmten ersten Zeitpunkt bzw. in einem bestimmten ersten Zeitraum erfasst werden.The method comprises the acquisition of sensor data in relation to the head and / or the viewing direction and / or the eyes and in relation to at least one hand of the user. The sensor data can be acquired by means of at least one user sensor (e.g. an image camera, a depth camera, proximity sensor system, etc.) which is aimed at the user. The sensor data can e.g. at a certain first time or in a certain first period.
Außerdem umfasst das Verfahren das Bestimmen, auf Basis der Sensordaten, zumindest eines ersten Auswahlbereichs, auf den der Blick des Nutzers gerichtet sein könnte. Zu diesem Zweck kann auf Basis der Sensordaten die Blickrichtung des Nutzers ermittelt werden, und es kann dann ermittelt werden, in welchen Auswahlbereich die Blickrichtung des Nutzers fällt oder fallen könnte. Dabei kann insbesondere ermittelt werden, auf welchen Auswahlbereich der Blick des Nutzers an dem ersten Zeitpunkt bzw. während des ersten Zeitraums gerichtet ist bzw. gerichtet sein könnte.In addition, the method includes determining, based on the sensor data, at least one first selection area, which the user could be looking at. For this purpose, the viewing direction of the user can be determined on the basis of the sensor data, and it can then be determined in which selection area the viewing direction of the user falls or could fall. In particular, it can be determined to which selection area the user's gaze is or could be directed at the first point in time or during the first period.
Des Weiteren umfasst das Verfahren das Ermitteln, auf Basis der Sensordaten, einer Zeigerichtung einer mittels der Hand ausgeführten Zeigegeste des Nutzers. Dabei kann die Zeigerichtung einer Zeigegeste ermittelt werden, die an einem zweiten Zeitpunkt bzw. während eines zweiten Zeitraums ausgeführt wird. Dabei können der zweite Zeitpunkt bzw. der zweite Zeitraum gleich dem ersten Zeitpunkt bzw. dem ersten Zeitraum sein. Alternativ können der zweite Zeitpunkt bzw. der zweite Zeitraum dem ersten Zeitpunkt bzw. dem ersten Zeitraum (ggf. unmittelbare) nachfolgen. Es kann somit ermittelt werden, in welche Zeigerichtung der Nutzer zeigt, während und/oder nachdem sein Blick auf den ersten Auswahlbereich gerichtet ist und/oder war.Furthermore, the method comprises determining, based on the sensor data, a pointing direction of a pointing gesture made by the user by hand. The pointing direction of a pointing gesture can be determined, which is carried out at a second point in time or during a second period. The second point in time or the second period can be equal to the first point in time or the first period. Alternatively, the second point in time or the second period can follow the first point in time or the first period (possibly immediately). It can thus be determined in which pointing direction the user points, during and / or after his gaze is and / or was directed at the first selection area.
Beispielsweise kann auf Basis des Blicks bzw. der Blickrichtung des Nutzers an einem ersten Zeitpunkt der erste Auswahlbereich detektiert werden, auf den der Blick des Nutzers letztmalig (vor Erkennung der Zeigegeste) fokussiert war. Dieser (kurz zuvor) betrachtete erste Auswahlbereich kann dann bei der Auswertung der Zeigegeste berücksichtigt werden.For example, based on the user's gaze or the gaze direction of a first The first selection area on which the user's gaze was last focused (before the gesture was recognized) was detected. This (shortly before) considered first selection area can then be taken into account when evaluating the pointing gesture.
Alternativ oder ergänzend kann auf Basis des Blicks bzw. der Blickrichtung des Nutzers für jeden der Mehrzahl von Auswahlbereichen eine Wahrscheinlichkeit dafür ermittelt werden, dass der Auswahlbereich durch den Nutzer betrachtet wird oder betrachtet wurde. Dabei kann ggf. auch die Zeitdauer berücksichtigt werden, für die die einzelnen Auswahlbereiche von dem Nutzer betrachtet wurden. Die Wahrscheinlichkeiten der unterschiedlichen Auswahlbereiche können dann bei der Auswertung der Zeigegeste berücksichtigt werden.Alternatively or additionally, based on the user's gaze or the gaze direction, a probability can be determined for each of the plurality of selection areas that the selection area is or was viewed by the user. The time period for which the individual selection areas were viewed by the user may also be taken into account. The probabilities of the different selection areas can then be taken into account when evaluating the pointing gesture.
Das Verfahren umfasst ferner das Ermitteln, auf Basis der Zeigerichtung, eines ausgewählten Auswahlbereichs aus der Mehrzahl von Auswahlbereichen. Dabei kann ein Auswahlbereich als ausgewählter Auswahlbereich ermittelt werden, wenn die Zeigerichtung in die Auswahlfläche des Auswahlbereichs zeigt, insbesondere wenn die Zeigerichtung für eine Mindestzeitdauer in die Auswahlfläche des Auswahlbereichs zeigt, die gleich wie oder größer als ein Zeitdauer-Schwellenwert ist (z.B. von 0.5 Sekunden, 0.75 Sekunden, 1 Sekunde oder mehr). Alternativ oder ergänzend kann ein Auswahlbereich in Reaktion auf eine detektierte dynamische Geste als ausgewählter Auswahlbereich ermittelt werden. Beispielhafte dynamische Gesten sind ein „Tippen“ mit dem Zeigefinger in der Luft und/oder ein relativ kurzes „nach vorne Stoßen“ des Zeigefingers in der Luft.The method further includes determining, based on the pointing direction, a selected selection area from the plurality of selection areas. A selection area can be determined as a selected selection area if the pointing direction points into the selection area of the selection area, in particular if the pointing direction points into the selection area of the selection area for a minimum period of time that is equal to or greater than a time period threshold value (for example of 0.5 seconds , 0.75 seconds, 1 second or more). Alternatively or additionally, a selection area can be determined as a selected selection area in response to a detected dynamic gesture. Exemplary dynamic gestures are "typing" with the index finger in the air and / or a relatively short "pushing forward" of the index finger in the air.
Der erste Auswahlbereich kann bei dem Ermitteln eine erhöhte Priorität im Vergleich zu ein oder mehreren anderen der Mehrzahl von Auswahlbereichen aufweisen. Mit anderen Worten, der erste Auswahlbereich, auf den (mit erhöhter Wahrscheinlichkeit) der Blick des Nutzers gerichtet ist, kann bevorzugt bei der Auswahl eines Auswahlbereichs mittels Zeigegestik berücksichtigt werden. So kann die Zuverlässigkeit einer auf Zeigegestik basierenden Benutzerschnittstelle erhöht werden.When determining, the first selection area can have an increased priority compared to one or more others of the plurality of selection areas. In other words, the first selection area, to which the user's gaze is directed (with increased probability), can preferably be taken into account when selecting a selection area by means of pointing gestures. This can increase the reliability of a user interface based on pointing gesture.
Das Verfahren kann z.B. umfassen, das Erhöhen einer ersten Wahrscheinlichkeit dafür, dass der erste Auswahlbereich mittels einer Zeigegeste durch den Nutzer ausgewählt werden kann, im Vergleich zu einer zweiten Wahrscheinlichkeit dafür, dass ein oder mehrere andere der Mehrzahl von Auswahlbereichen mittels einer Zeigegeste durch den Nutzer ausgewählt werden können. Das Erhöhen bzw. Reduzieren der Auswahlwahrscheinlichkeit kann dabei z.B. durch das Vergrößern bzw. das Verkleinern der Auswahlfläche eines Auswahlbereichs erreicht werden. Die Summe der Wahrscheinlichkeiten kann dabei konstant bleiben (z.B. bei dem Wert 1).The method can e.g. comprise increasing a first probability that the first selection area can be selected by the user using a pointing gesture, compared to a second probability that one or more of the plurality of selection areas can be selected by the user using a pointing gesture. Increasing or reducing the selection probability can e.g. can be achieved by enlarging or reducing the selection area of a selection area. The sum of the probabilities can remain constant (e.g. at a value of 1).
Dabei ist eine Vergrößerung bzw. eine Verkleinerung der Auswahlfläche eines Auswahlbereichs typischerweise für einen Nutzer nicht sichtbar. Die auf der Eingabefläche dargestellten Auswahlbereiche können unverändert bleiben. Andererseits kann die Auswahlfläche um einen dargestellten Auswahlbereich vergrößert bzw. verkleinert werden, wobei die Auswahlfläche den Teil der Eingabefläche definiert, in den eine Zeigegeste zeigen muss, um den entsprechenden Auswahlbereich auszuwählen. Mit anderen Worten, eine Vergrößerung der Auswahlfläche führt typischerweise nicht zu einer für den Nutzer sichtbaren Vergrößerung der dargestellten Auswahlelemente. Es erfolgt lediglich eine Vergrößerung des theoretischen Auswahlbereichs, d.h. eine Erhöhung der Wahrscheinlichkeit dafür, dass ein bestimmtes dargestelltes Auswahlelement mit einer Zeigegestik ausgewählt werden kann.An enlargement or a reduction in the size of the selection area of a selection area is typically not visible to a user. The selection areas shown on the input area can remain unchanged. On the other hand, the selection area can be enlarged or reduced by a displayed selection area, the selection area defining the part of the input area into which a gesture must point in order to select the corresponding selection area. In other words, an enlargement of the selection area typically does not lead to an enlargement of the displayed selection elements that is visible to the user. There is only an increase in the theoretical selection range, i.e. an increase in the probability that a particular displayed selection element can be selected with a pointing gesture.
Der ausgewählte Auswahlbereich kann dann auf Basis der Zeigerichtung unter Berücksichtigung der ersten und zweiten Wahrscheinlichkeit ermittelt werden. So kann die Zuverlässigkeit einer Gestik-basierten Benutzerschnittstelle weiter erhöht werden.The selected selection area can then be determined on the basis of the pointing direction, taking into account the first and second probability. This further increases the reliability of a gesture-based user interface.
Die Auswahlbereiche können jeweils eine Auswahlfläche aufweisen, auf die der Nutzer zeigen muss, um den jeweiligen Auswahlbereich auszuwählen. Die Auswahlbereiche können in einem Basiszustand der Eingabefläche jeweils eine Auswahlfläche mit einer bestimmten Größe aufweisen. Der Nutzer muss typischerweise auf die Auswahlfläche eines Auswahlbereichs zeigen, insbesondere für eine Mindestzeitdauer, die gleich wie oder länger als der Zeitdauer-Schwellenwert ist, um den jeweiligen Auswahlbereich auszuwählen. The selection areas can each have a selection area to which the user must point in order to select the respective selection area. In a basic state of the input area, the selection areas can each have a selection area with a specific size. The user typically has to point to the selection area of a selection area, in particular for a minimum period of time that is equal to or longer than the time period threshold, in order to select the respective selection area.
Alternativ oder ergänzend kann die Auswahl eines konkreten Auswahlbereichs durch eine relativ kurze dynamische Geste erfolgen (wie z.B. eine kurze Tipp-Bewegung mit einem Finger). Die Verwendung einer dynamischen (Zeige-) Geste für die Auswahl eines Auswahlbereichs ist vorteilhaft, da so eine Auswahl relativ schnell und für einen Nutzer in komfortable Weise getroffen werden kann.Alternatively or in addition, the selection of a specific selection area can be made using a relatively short dynamic gesture (such as a short tap movement with one finger). The use of a dynamic (pointing) gesture for the selection of a selection area is advantageous, since a selection can be made relatively quickly and in a comfortable manner for a user.
Die Größe der Auswahlflächen der unterschiedlichen Auswahlbereiche kann in dem Basiszustand gleich sein. Andererseits kann die Größe der Auswahlflächen der unterschiedlichen Auswahlbereiche in dem Basiszustand von der Zuverlässigkeit abhängen, mit der ein Nutzer auf die Auswahlfläche des jeweiligen Auswahlbereichs zeigen kann. Dabei sinkt die Zuverlässigkeit typischerweise je größer der Winkel zwischen der Zeigerichtung zu dem jeweiligen Auswahlbereich und der senkrecht auf dem Körper des Nutzers stehenden Achse ist. Die Größe der Auswahlflächen kann mit sinkender Zuverlässigkeit der Gestenerkennung erhöht sein (auch im Basiszustand der Eingabefläche).The size of the selection areas of the different selection areas can be the same in the basic state. On the other hand, the size of the selection areas of the different selection areas in the basic state can depend on the reliability with which a user can point to the selection area of the respective selection area. The reliability typically drops the greater the angle between the pointing direction to the respective selection area and the axis perpendicular to the body of the user. The size of the Selection areas can increase with decreasing reliability of gesture recognition (also in the basic state of the input area).
Alternativ oder ergänzend kann mit sinkender Zuverlässigkeit der Gestenerkennung (etwa an den Bereichen der Eingabefläche, die weiter von der Achse des Nutzers entfernt sind) eine Gewichtung zu Gunsten der Blickerkennung erhöht werden.As an alternative or in addition, with decreasing reliability of the gesture recognition (for example at the areas of the input surface which are further away from the axis of the user), a weighting in favor of the gaze recognition can be increased.
Das Verfahren kann umfassen, das Vergrößern der Auswahlfläche des ersten Auswahlbereichs relativ zu der Auswahlfläche von zumindest einem anderen der Mehrzahl von Auswahlbereichen. Die vergrößerte Auswahlfläche des ersten Auswahlbereichs kann dann für das Ermitteln des ausgewählten Auswahlbereichs berücksichtigt werden. Es kann somit die Größe der Auswahlfläche des Auswahlbereichs vergrößert werden, auf den der Blick des Nutzers gerichtet ist, um diesen Auswahlbereich im Rahmen der Gestenerkennung zu priorisieren. Des Weiteren kann die Größe der Auswahlflächen der ein oder mehreren anderen der Mehrzahl von Auswahlbereichen in Abhängigkeit von dem Abstand des jeweiligen Auswahlbereichs von dem ersten Auswahlbereich skaliert (insbesondere reduziert werden). So kann die Zuverlässigkeit der Gestenerkennung weiter erhöht werden.The method may include enlarging the selection area of the first selection area relative to the selection area of at least another of the plurality of selection areas. The enlarged selection area of the first selection area can then be taken into account for determining the selected selection area. The size of the selection area of the selection area, to which the user's gaze is directed, can thus be increased in order to prioritize this selection area as part of gesture recognition. Furthermore, the size of the selection areas of the one or more other of the plurality of selection areas can be scaled (in particular reduced) depending on the distance of the respective selection area from the first selection area. This can further increase the reliability of gesture recognition.
Das Verfahren kann umfassen, das Bestimmen, ob auf Basis der Sensordaten eine Blickrichtung des Nutzers ermittelt werden kann. Ggf. kann es (z.B. aufgrund der Tatsache, dass der Nutzer eine Sonnenbrille trägt), nicht möglich sein, die Blickrichtung des Nutzers zu ermitteln. Im Rahmen des Verfahrens kann ein Maß bzw. ein Grad für die Zuverlässigkeit ermittelt werden, mit der die Blickrichtung des Nutzers auf Basis der Sensordaten ermittelt werden konnte. Das Maß bzw. der Grad für die Zuverlässigkeit der ermittelten Blickrichtung kann dann bei der gestenbasierten Auswahl eines Auswahlbereichs berücksichtigt werden. So kann die Zuverlässigkeit einer gestenbasierten Benutzerschnittstelle weiter erhöht werden.The method can include determining whether a gaze direction of the user can be determined on the basis of the sensor data. Possibly. it may not be possible (e.g. due to the fact that the user is wearing sunglasses) to determine the user's line of sight. Within the scope of the method, a measure or a degree for the reliability can be determined, with which the user's line of sight could be determined on the basis of the sensor data. The measure or the degree for the reliability of the determined viewing direction can then be taken into account in the gesture-based selection of a selection area. This can further increase the reliability of a gesture-based user interface.
Das Verfahren kann umfassen, das Ändern der Größe der Auswahlfläche von zumindest einem Auswahlbereich, insbesondere von dem ersten Auswahlbereich, in Abhängigkeit von der Blickrichtung, um die Mehrzahl von Auswahlbereichen in einen geänderten Zustand zu versetzen. Der ausgewählte Auswahlbereich kann dann auf Basis der Mehrzahl von Auswahlbereichen in dem geänderten Zustand ermittelt werden. Das Überführen der Mehrzahl von Auswahlbereichen in den geänderten Zustand kann erfolgen, wenn (ggf. nur dann wenn) die Blickrichtung bestimmt werden kann.The method can include changing the size of the selection area of at least one selection area, in particular of the first selection area, as a function of the viewing direction, in order to put the plurality of selection areas in a changed state. The selected selection area can then be determined on the basis of the plurality of selection areas in the changed state. The change of the plurality of selection areas into the changed state can take place if (if necessary only if) the viewing direction can be determined.
Andererseits kann das Verfahren umfassen, das Ermitteln des ausgewählten Auswahlbereichs auf Basis der Mehrzahl von Auswahlbereichen in dem Basiszustand (ohne Änderung der Größen der Auswahlflächen von ein oder mehreren Auswahlbereichen), wenn die Blickrichtung nicht bestimmt werden kann. Somit kann auch ohne Erkennung der Blickrichtung eine gestenbasierte Auswahl (mit einer bestimmten Grundzuverlässigkeit) ermöglicht werden. Es kann somit eine robuste Benutzerschnittstelle bereitgestellt werden.On the other hand, the method may include determining the selected selection area based on the plurality of selection areas in the basic state (without changing the sizes of the selection areas of one or more selection areas) if the viewing direction cannot be determined. A gesture-based selection (with a certain basic reliability) can thus be made possible even without recognizing the line of sight. A robust user interface can thus be provided.
Die Eingabefläche bzw. die Mehrzahl von Auswahlbereichen weisen typischerweise eine konstante Gesamtfläche auf. Die Änderung der Größe der Auswahlflächen von ein oder mehreren Auswahlbereichen kann derart erfolgen, dass die Gesamtfläche der Eingabefläche bzw. der Mehrzahl von Auswahlbereichen (auch im geänderten Zustand) konstant bzw. unverändert bleibt.The input area or the plurality of selection areas typically have a constant total area. The size of the selection areas of one or more selection areas can be changed such that the total area of the input area or the plurality of selection areas remains constant or unchanged (even in the changed state).
Die Größe der Auswahlfläche von zumindest einem Auswahlbereich kann in Abhängigkeit von dem Grad bzw. dem Maß der Zuverlässigkeit geändert werden, mit dem die Blickrichtung ermittelt werden kann. Insbesondere kann ggf. nur eine relativ kleine Größenänderung erfolgen, wenn die Blickrichtung nur mit einem relativ geringen Grad an Zuverlässigkeit ermittelt werden kann. Die Größenänderung kann dabei mit steigendem Grad an Zuverlässigkeit verstärkt erfolgen. So kann die Zuverlässigkeit der gestenbasierten Benutzerschnittstelle weiter erhöht werden.The size of the selection area of at least one selection area can be changed depending on the degree or the degree of reliability with which the viewing direction can be determined. In particular, only a relatively small size change can possibly take place if the viewing direction can only be determined with a relatively low degree of reliability. The change in size can take place with increasing degree of reliability. This further increases the reliability of the gesture-based user interface.
Im Rahmen des Verfahrens kann auf Basis der Blickrichtung des Nutzers eine Mehrzahl von Wahrscheinlichkeitswerten für die Mehrzahl von Auswahlbereichen ermittelt werden. Dabei zeigt der Wahrscheinlichkeitswert eines Auswahlbereichs eine Wahrscheinlichkeit dafür an, dass der Blick des Nutzers auf den jeweiligen Auswahlbereich gerichtet ist. Es kann somit eine Wahrscheinlichkeitsverteilung der Blickrichtung für die Mehrzahl von Auswahlbereichen ermittelt werden. Der auf Basis der ermittelten Zeigerichtung ausgewählte Auswahlbereich kann dann in Abhängigkeit von der Mehrzahl von Wahrscheinlichkeitswerten für die Mehrzahl von Auswahlbereichen ermittelt werden. Insbesondere kann die Größe der Auswahlflächen der Mehrzahl von Auswahlbereichen in Abhängigkeit von der Mehrzahl von Wahrscheinlichkeitswerten angepasst werden, um die Mehrzahl von Auswahlbereichen in den geänderten Zustand zu versetzen. Der ausgewählte Auswahlbereich kann dann auf Basis der Mehrzahl von Auswahlbereichen in dem geänderten Zustand ermittelt werden. Durch die Berücksichtigung einer Wahrscheinlichkeitsverteilung für die Blickrichtung kann die Zuverlässigkeit einer gestenbasierten Benutzerschnittstelle weiter erhöht werden.Within the scope of the method, a plurality of probability values for the plurality of selection areas can be determined on the basis of the viewing direction of the user. The probability value of a selection area indicates a probability that the user's gaze is directed at the respective selection area. A probability distribution of the viewing direction for the plurality of selection areas can thus be determined. The selection area selected on the basis of the determined pointing direction can then be determined as a function of the plurality of probability values for the plurality of selection areas. In particular, the size of the selection areas of the plurality of selection areas can be adapted as a function of the plurality of probability values in order to put the plurality of selection areas in the changed state. The selected selection area can then be determined on the basis of the plurality of selection areas in the changed state. By considering a probability distribution for the line of sight, the reliability of a gesture-based user interface can be further increased.
Das Verfahren kann umfassen, das Erfassen von Sensordaten an einer Sequenz von Zeitpunkten. Es kann dann auf Basis der Sensordaten an der Sequenz von Zeitpunkten eine Sequenz von Zeigerichtungen ermittelt werden. Des Weiteren kann auf Basis der Sequenz von Zeigerichtungen ermittelt werden, dass der Nutzer an der Sequenz von Zeitpunkten über unterschiedliche Auswahlbereiche der Mehrzahl von Auswahlbereichen schweift (z.B. ohne lange genug auf einem Auswahlbereich zu verbleiben, um diesen Auswahlbereich auszuwählen).The method may include capturing sensor data on a sequence of Times. A sequence of pointer directions can then be determined on the basis of the sensor data on the sequence of times. Furthermore, it can be determined on the basis of the sequence of pointing directions that the user wanders over the sequence of points in time across different selection areas of the plurality of selection areas (for example without remaining on a selection area long enough to select this selection area).
Die Eingabefläche bzw. die Benutzerschnittstelle können derart ausgebildet sein, dass die Tatsache, dass der Nutzer an der Sequenz von Zeitpunkten über unterschiedliche Auswahlbereiche schweift, optisch nicht auf der Anzeigefläche und/oder auf der Benutzerschnittstelle angezeigt wird. Insbesondere können die Eingabefläche bzw. die Benutzerschnittstelle derart ausgebildet sein, dass durch die schweifende Zeigebewegung keine Ablenkung der Blickrichtung des Nutzers bewirkt wird. So kann gewährleistet werden, dass die Blickrichtung mit dem auszuwählenden Auswahlbereich korreliert und somit zur Erhöhung der Zuverlässigkeit der gestenbasierten Auswahl genutzt werden kann.The input surface or the user interface can be designed in such a way that the fact that the user wanders over the sequence of times over different selection areas is not optically displayed on the display surface and / or on the user interface. In particular, the input surface or the user interface can be designed in such a way that the sweeping pointer movement does not cause the user to be distracted from the viewing direction. This ensures that the viewing direction correlates with the selection area to be selected and can thus be used to increase the reliability of the gesture-based selection.
Wie bereits oben dargelegt, erfolgt die Vergrößerung bzw. die Verkleinerung der Auswahlfläche eines Auswahlbereichs bevorzugt derart, dass die Änderung der Größe der Auswahlfläche für einen Nutzer nicht sichtbar ist. Die auf der Eingabefläche dargestellten Auswahlelemente für die unterschiedlichen Auswahlbereiche können während eines Auswahlvorgangs eine unveränderte (sichtbare) Größe aufweisen und/oder unverändert bleiben. Andererseits können die für die Auswertung der Zeigerichtung verwendeten Auswahlflächen der Auswahlbereiche vergrößert bzw. verkleinert werden (ohne dass dies für einen Nutzer sichtbar wird), so dass die Wahrscheinlichkeiten für die in Abhängigkeit von der Zeigerichtung erfolgenden Auswahl der unterschiedlichen Auswahlbereiche vergrößert bzw. verkleinert werden.As already explained above, the selection area of a selection area is preferably enlarged or reduced in such a way that the change in the size of the selection area is not visible to a user. The selection elements for the different selection areas shown on the input surface can have an unchanged (visible) size and / or remain unchanged during a selection process. On the other hand, the selection areas of the selection areas used for the evaluation of the pointing direction can be enlarged or reduced (without this being visible to a user), so that the probabilities for the selection of the different selection areas taking place depending on the pointing direction are increased or decreased.
Das Verfahren kann umfassen, das Ermitteln von Güte-Information in Bezug auf eine Zuverlässigkeit, mit der die Blickrichtung und/oder die Zeigerichtung ermittelt werden können. Insbesondere kann die Güte-Information die Zuverlässigkeit anzeigen, mit der auf Basis der Blickrichtung und/oder mit der auf Basis der Zeigerichtung der Auswahlbereich identifiziert werden kann, der von einem Nutzer ausgewählt wurde.The method can include determining quality information relating to reliability, with which the viewing direction and / or the pointing direction can be determined. In particular, the quality information can indicate the reliability with which the selection area, which was selected by a user, can be identified on the basis of the viewing direction and / or with which on the basis of the pointing direction.
Es kann dann in Abhängigkeit von der Güte-Information eine Gewichtung der ermittelten Blickrichtung und/oder der ermittelten Zeigerichtung, insbesondere ein Ausmaß der Priorisierung des ersten Auswahlbereichs, beim Ermitteln des ausgewählten Auswahlbereichs, angepasst werden. Insbesondere können die Wahrscheinlichkeitswerte für die unterschiedlichen Auswahlbereiche, die auf Basis der Blickrichtung ermittelt werden, in Abhängigkeit von der Güte-Information mehr oder weniger stark bei der Zeigegestik-basierten Ermittlung eines ausgewählten Auswahlbereichs berücksichtigt werden.Depending on the quality information, a weighting of the determined viewing direction and / or the determined pointing direction, in particular an extent of the prioritization of the first selection area when determining the selected selection area, can then be adapted. In particular, the probability values for the different selection areas, which are determined on the basis of the viewing direction, can be taken into account to a greater or lesser extent, depending on the quality information, in the gesture-based determination of a selected selection area.
Wenn die Güte-Information z.B. anzeigt, dass die Blickrichtung nur sehr unzuverlässige Information in Bezug auf den auszuwählenden Auswahlbereich liefert und/oder dass die Zeigerichtung mit relativ hoher Zuverlässigkeit ermittelt werden kann, so kann ggf. nur eine relativ geringe Priorisierung des (betrachteten) ersten Auswahlbereichs erfolgen (was z.B. durch eine relativ geringe Vergrößerung der Auswahlfläche des ersten Auswahlbereichs erreicht werden kann). Insbesondere können in diesem Fall die Blick-basierten Wahrscheinlichkeitswerte für die unterschiedlichen Auswahlbereiche nur in einem relativ geringen Maße bei der Zeigegestik-basierten Ermittlung eines ausgewählten Auswahlbereichs berücksichtigt werden.If the quality information e.g. indicates that the viewing direction provides only very unreliable information with regard to the selection area to be selected and / or that the pointing direction can be determined with relatively high reliability, then only a relatively slight prioritization of the (considered) first selection area can take place (e.g. by a relatively small increase in the selection area of the first selection area can be achieved). In this case, in particular, the gaze-based probability values for the different selection areas can only be taken into account to a relatively small extent in the gesture-based determination of a selected selection area.
Wenn die Güte-Information anderseits anzeigt, dass die Blickrichtung sehr zuverlässige Information in Bezug auf den auszuwählenden Auswahlbereich liefert (z.B. aufgrund einer relativ langen Betrachtungszeitdauer) und/oder dass die Zeigerichtung nur mit relativ geringer Zuverlässigkeit ermittelt werden kann (z.B. weil auf einen Auswahlbereich am (vom Nutzer abgewandten) Rand der Eingabefläche gezeigt wird), so kann ggf. eine relativ starke Priorisierung des (betrachteten) ersten Auswahlbereichs erfolgen (was z.B. durch eine relativ starke Vergrößerung der Auswahlfläche des ersten Auswahlbereichs erreicht werden kann). Insbesondere können in diesem Fall die Blick-basierten Wahrscheinlichkeitswerte für die unterschiedlichen Auswahlbereiche in einem relativ starken Maße bei der Zeigegestik-basierten Ermittlung eines ausgewählten Auswahlbereichs berücksichtigt werden.On the other hand, if the quality information indicates that the viewing direction provides very reliable information with regard to the selection area to be selected (e.g. due to a relatively long period of observation) and / or that the pointing direction can only be determined with relatively low reliability (e.g. because of a selection area on (the edge of the input surface facing away from the user), then a relatively strong prioritization of the (considered) first selection area can take place (which can be achieved, for example, by a relatively large enlargement of the selection area of the first selection area). In this case, in particular, the gaze-based probability values for the different selection areas can be taken into account to a relatively large extent in the gesture-based determination of a selected selection area.
Die Güte-Information kann z.B. auf Basis der Zeitdauer ermittelt werden, mit der der Nutzer einen Auswahlbereich betrachtet. Dabei steigt typischerweise mit steigender Betrachtungszeitdauer die Wahrscheinlichkeit dafür an, dass der Nutzer den betrachteten Auswahlbereich auswählen möchte. Der betrachtete Auswahlbereich kann somit bei der Ermittlung des ausgewählten Auswahlbereichs auf Basis der Zeigegeste in Abhängigkeit von der Betrachtungszeitdauer mehr oder weniger stark priorisiert werden.The quality information can e.g. are determined on the basis of the length of time with which the user looks at a selection area. Typically, the likelihood that the user would like to select the selected selection area increases with increasing observation time. The selection area under consideration can thus be prioritized more or less strongly when determining the selected selection area on the basis of the pointing gesture, depending on the period of observation.
Gemäß einem weiteren Aspekt wird eine Benutzerschnittstelle zur Erfassung einer Eingabe eines Nutzers beschrieben. Die Benutzerschnittstelle umfasst eine Eingabefläche, die in eine Mehrzahl von Auswahlbereichen unterteilt ist. Die Eingabefläche kann einen Bildschirm umfassen, der eingerichtet ist, die Mehrzahl von Auswahlbereichen anzuzeigen. Ferner kann die Eingabefläche Teil eines Straßenkraftfahrzeugs sein.According to a further aspect, a user interface for recording an input from a user is described. The user interface comprises an input area which is divided into a plurality of selection areas. The input surface may include a screen that is set up, the plurality of selection areas display. Furthermore, the input surface can be part of a road motor vehicle.
Die Benutzerschnittstelle umfasst zumindest einen Nutzersensor, der eingerichtet ist, Sensordaten in Bezug auf den Kopf und eine Hand des Nutzers zu erfassen. Außerdem umfasst die Benutzerschnittstelle eine Steuereinheit, die eingerichtet ist, auf Basis der Sensordaten zumindest einen ersten Auswahlbereich aus der Mehrzahl von Auswahlbereichen zu bestimmen, auf den der Blick des Nutzers gerichtet sein könnte bzw. gerichtet ist. Die Steuereinheit ist außerdem eingerichtet, auf Basis der Sensordaten eine Zeigerichtung einer mittels der Hand ausgeführten Zeigegeste des Nutzers zu ermitteln. Des Weiteren ist die Steuereinheit eingerichtet, auf Basis der Zeigerichtung einen ausgewählten Auswahlbereich aus der Mehrzahl von Auswahlbereichen zu ermitteln, wobei der erste Auswahlbereich bei der Ermittlung des ausgewählten Auswahlbereichs eine erhöhte Priorität im Vergleich zu ein oder mehreren anderen der Mehrzahl von Auswahlbereichen aufweist.The user interface comprises at least one user sensor, which is set up to record sensor data relating to the head and hand of the user. In addition, the user interface comprises a control unit which is set up to determine, based on the sensor data, at least one first selection area from the plurality of selection areas, at which the user's gaze could be directed or is directed. The control unit is also set up, based on the sensor data, to determine a pointing direction of a pointing gesture made by the user by hand. Furthermore, the control unit is set up to determine a selected selection area from the plurality of selection areas on the basis of the pointing direction, the first selection area having an increased priority in comparison with one or more others of the plurality of selection areas when determining the selected selection area.
Die Mehrzahl von Auswahlbereichen kann mit einer entsprechenden Mehrzahl von Funktionen assoziiert sein. Die Steuereinheit kann dann eingerichtet sein, zu veranlassen, dass die mit dem ausgewählten Auswahlbereich assoziiert Funktion ausgeführt wird.The plurality of selection areas can be associated with a corresponding plurality of functions. The control unit can then be set up to cause the function associated with the selected selection area to be carried out.
Gemäß einem weiteren Aspekt wird ein Straßenkraftfahrzeug (insbesondere ein Personenkraftwagen oder ein Lastkraftwagen oder ein Bus) beschrieben, das die in diesem Dokument beschriebene Benutzerschnittstelle umfasst.According to a further aspect, a road motor vehicle (in particular a passenger car or a truck or a bus) is described which comprises the user interface described in this document.
Gemäß einem weiteren Aspekt wird ein Software (SW) Programm beschrieben. Das SW Programm kann eingerichtet werden, um auf einem Prozessor (z.B. auf einem Steuergerät eines Fahrzeugs) ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.According to a further aspect, a software (SW) program is described. The SW program can be set up to be executed on a processor (e.g. on a control device of a vehicle) and thereby to carry out the method described in this document.
Gemäß einem weiteren Aspekt wird ein Speichermedium beschrieben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem Prozessor ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.According to a further aspect, a storage medium is described. The storage medium can comprise a software program which is set up to be executed on a processor and thereby to carry out the method described in this document.
Es ist zu beachten, dass die in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systeme sowohl alleine, als auch in Kombination mit anderen in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen verwendet werden können. Des Weiteren können jegliche Aspekte der in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen in vielfältiger Weise miteinander kombiniert werden. Insbesondere können die Merkmale der Ansprüche in vielfältiger Weise miteinander kombiniert werden.It should be noted that the methods, devices and systems described in this document can be used both alone and in combination with other methods, devices and systems described in this document. Furthermore, any aspect of the methods, devices and systems described in this document can be combined with one another in a variety of ways. In particular, the features of the claims can be combined with one another in a variety of ways.
Im Weiteren wird die Erfindung anhand von Ausführungsbeispielen näher beschrieben. Dabei zeigen
-
1 beispielhafte Komponenten eines Fahrzeugs; -
2a beispielhafte Auswahlbereiche einer Eingabefläche, ohne Erfassung der Blickrichtung; -
2b beispielhafte Auswahlbereiche einer Eingabefläche, bei Vorliegen einer erfassten Blickrichtung; und -
3 ein Ablaufdiagramm eines beispielhaften Verfahrens zur Ermittlung einer Nutzereingabe.
-
1 exemplary components of a vehicle; -
2a exemplary selection areas of an input surface, without capturing the line of sight; -
2 B Exemplary selection areas of an input surface, when there is a detected line of sight; and -
3 a flowchart of an exemplary method for determining a user input.
Wie eingangs dargelegt, befasst sich das vorliegende Dokument mit der zuverlässigen Erfassung von Nutzereingaben mittels Zeigegestik. In diesem Zusammenhang zeigt
Außerdem umfasst das Fahrzeug
Das Fahrzeug
Die unterschiedlichen Auswahlbereiche
Wie oben dargelegt, kann die Steuereinheit
Wie eingangs dargelegt, kann die Zeigerichtung
Bei der Durchführung einer Zeigegeste schaut ein Nutzer typischerweise auf den Auswahlbereich
Beispielsweise kann auf Basis der Blickrichtung
Beispielsweise kann, wie in
Es wird somit eine Blickunterstützung verwendet, um die Eingabe mittels einer Zeigegestik zuverlässiger und genauer zu machen. Wenn auf Basis der Sensordaten des Nutzersensors
Wenn auf Basis der Sensordaten des Nutzersensors
Für die in diesem Dokument beschriebene Gesten-basierte Benutzerschnittstelle ist somit keine Blickunterstützung erforderlich. Wenn es die Fahrsituation nicht zulässt, dass ein Nutzer die Eingabefläche
Die Zuverlässigkeit der Erkennung der Blickrichtung
Die Eingabefläche
Zur Ermittlung der Zeigerichtung
Das Verfahren
Außerdem umfasst das Verfahren
Die Mindestzeitdauer (z.B. 300ms) kann der Fixationsdauer des menschlichen Auges entsprechen. Nach Ablauf der Mindestzeitdauer kann typischerweise angenommen werden, dass nicht nur der Blick, sondern auch die Aufmerksamkeit des Nutzers auf einem Auswahlbereich
Ferner umfasst das Verfahren
Des Weiteren umfasst das Verfahren
Durch die in diesem Dokument beschriebenen Maßnahmen können die Genauigkeit und/oder die Zuverlässigkeit der Erkennung einer Zeigegestik erhöht werden. Dabei ist für die Erkennung einer Zeigegestik nicht zwingend die Erkennung der Blickrichtung
Die vorliegende Erfindung ist nicht auf die gezeigten Ausführungsbeispiele beschränkt. Insbesondere ist zu beachten, dass die Beschreibung und die Figuren nur das Prinzip der vorgeschlagenen Verfahren, Vorrichtungen und Systeme veranschaulichen sollen.The present invention is not restricted to the exemplary embodiments shown. In particular, it should be noted that the description and the figures are only intended to illustrate the principle of the proposed methods, devices and systems.
Claims (15)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018211624.5A DE102018211624A1 (en) | 2018-07-12 | 2018-07-12 | Method and user interface for capturing an input using pointing gesture |
CN201980030140.4A CN112074801A (en) | 2018-07-12 | 2019-07-11 | Method and user interface for detecting input through a pointing gesture |
PCT/EP2019/068737 WO2020011943A1 (en) | 2018-07-12 | 2019-07-11 | Method and user interface for capturing an input by means of pointing gestures |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018211624.5A DE102018211624A1 (en) | 2018-07-12 | 2018-07-12 | Method and user interface for capturing an input using pointing gesture |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018211624A1 true DE102018211624A1 (en) | 2020-01-16 |
Family
ID=67514581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018211624.5A Pending DE102018211624A1 (en) | 2018-07-12 | 2018-07-12 | Method and user interface for capturing an input using pointing gesture |
Country Status (3)
Country | Link |
---|---|
CN (1) | CN112074801A (en) |
DE (1) | DE102018211624A1 (en) |
WO (1) | WO2020011943A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020214556A1 (en) | 2020-11-19 | 2022-05-19 | Volkswagen Aktiengesellschaft | Communication system for a vehicle for dealing with an occupant's sleep disorder |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050047629A1 (en) * | 2003-08-25 | 2005-03-03 | International Business Machines Corporation | System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8982160B2 (en) * | 2010-04-16 | 2015-03-17 | Qualcomm, Incorporated | Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size |
US9823742B2 (en) * | 2012-05-18 | 2017-11-21 | Microsoft Technology Licensing, Llc | Interaction and management of devices using gaze detection |
US9529530B2 (en) * | 2013-08-16 | 2016-12-27 | Edward Lau | Electronic device and gesture input method of item selection |
EP2843507A1 (en) * | 2013-08-26 | 2015-03-04 | Thomson Licensing | Display method through a head mounted device |
JP6331567B2 (en) * | 2014-03-27 | 2018-05-30 | 株式会社デンソー | Display input device for vehicle |
US10121063B2 (en) * | 2015-01-12 | 2018-11-06 | BMT Business Meets Technology Holding AG | Wink gesture based control system |
EP3118722B1 (en) * | 2015-07-14 | 2020-07-01 | Nokia Technologies Oy | Mediated reality |
DE102015115526A1 (en) * | 2015-09-15 | 2017-03-16 | Visteon Global Technologies, Inc. | Method for target detection of target objects, in particular for the target detection of operating elements in a vehicle |
US10832031B2 (en) * | 2016-08-15 | 2020-11-10 | Apple Inc. | Command processing using multimodal signal analysis |
-
2018
- 2018-07-12 DE DE102018211624.5A patent/DE102018211624A1/en active Pending
-
2019
- 2019-07-11 CN CN201980030140.4A patent/CN112074801A/en active Pending
- 2019-07-11 WO PCT/EP2019/068737 patent/WO2020011943A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050047629A1 (en) * | 2003-08-25 | 2005-03-03 | International Business Machines Corporation | System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020214556A1 (en) | 2020-11-19 | 2022-05-19 | Volkswagen Aktiengesellschaft | Communication system for a vehicle for dealing with an occupant's sleep disorder |
WO2022106176A1 (en) | 2020-11-19 | 2022-05-27 | Volkswagen Aktiengesellschaft | Communication system for a vehicle for acting in the event of a sleeping disorder with an occupant |
Also Published As
Publication number | Publication date |
---|---|
CN112074801A (en) | 2020-12-11 |
WO2020011943A1 (en) | 2020-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112014003563B4 (en) | Device and method for gesture determination, gesture control device, program and recording medium | |
WO2017211817A1 (en) | Operator control comprising eye tracker unit and method for calibrating an eye tracker unit for an operator control | |
DE102018129741A1 (en) | Device and method for controlling a display of a vehicle | |
DE112017005111T5 (en) | Board display controller | |
DE102018127163B4 (en) | DRIVER CONDITIONING DEVICE, METHOD AND PROGRAM | |
DE102017211005A1 (en) | DRIVER STATE MONITORING USING CORNEAL REFLECTIONS | |
DE102015115526A1 (en) | Method for target detection of target objects, in particular for the target detection of operating elements in a vehicle | |
DE102016201531A1 (en) | Method and device for detecting fatigue of a driver | |
DE102015214116A1 (en) | A method and apparatus for estimating a gaze direction of a vehicle occupant, method and apparatus for determining a vehicle occupant specific headmovement gain parameter, and method and apparatus for gaze estimating a vehicle occupant | |
DE102017000249A1 (en) | Driving Assistance System | |
DE102018100663A1 (en) | A vehicle information display system and method for presenting vehicle information | |
DE102014204800A1 (en) | Method and apparatus for providing a graphical user interface in a vehicle | |
DE102015213769A1 (en) | Method and device for predicting a line of sight of a vehicle occupant | |
DE102018201768B4 (en) | Method for displaying information in a head-up display of a vehicle, display system for a vehicle and vehicle with a display system | |
DE102018211624A1 (en) | Method and user interface for capturing an input using pointing gesture | |
DE102019105216A1 (en) | Method and device for operating a display system with data glasses | |
DE102018004662A1 (en) | Optical detection system with variable characteristic range via dynamic "pixel selection" - controlled by control parameters supplied by systems and / or controlled by means of self-determined control parameters | |
DE102020125780A1 (en) | DEVICE AND METHOD FOR CONTROLLING A VEHICLE HEIGHT | |
DE102015217717A1 (en) | A vehicle camera system and method for displaying images on a vehicle display of a vehicle | |
DE102018211908A1 (en) | Method for capturing a digital image of an environment of a motor vehicle and motor vehicle with an image capturing device | |
WO2020052894A1 (en) | Method for assisting a user in performing a scrolling process, apparatus and motor vehicle | |
DE102014009638A1 (en) | Method for detecting a viewing direction of a driver in a motor vehicle and viewing direction detection device for a motor vehicle | |
EP3966061B1 (en) | Human-machine interaction in a motor vehicle | |
DE102018208833A1 (en) | System and method for controlling the map navigation of a vehicle | |
DE102019003061B4 (en) | Device for testing an optical detection system for a motor vehicle, and a method for this |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |