DE102014012158A1 - Gestenerkennungsverfahren und Gestenerkennungsvorrichtung - Google Patents

Gestenerkennungsverfahren und Gestenerkennungsvorrichtung Download PDF

Info

Publication number
DE102014012158A1
DE102014012158A1 DE102014012158.5A DE102014012158A DE102014012158A1 DE 102014012158 A1 DE102014012158 A1 DE 102014012158A1 DE 102014012158 A DE102014012158 A DE 102014012158A DE 102014012158 A1 DE102014012158 A1 DE 102014012158A1
Authority
DE
Germany
Prior art keywords
gesture recognition
gesture
recognition device
state
gestures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014012158.5A
Other languages
English (en)
Inventor
Erhard Schweninger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mechaless Systems GmbH
Original Assignee
Mechaless Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mechaless Systems GmbH filed Critical Mechaless Systems GmbH
Priority to DE102014012158.5A priority Critical patent/DE102014012158A1/de
Publication of DE102014012158A1 publication Critical patent/DE102014012158A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die erfindungsgemäße Vorrichtung weist eine Gestenerkennungsvorrichtung mit einer Armlehne (403) oder einer anderen mechanischen Vorrichtung zur Reduktion der Bewegungsfreiheiten der Bedienerhand auf. Für die Gestenerkennung werden mindestens zwei Entfernungsbereiche, ein zweiter (A2) und ein dritter Bereich (A3), für nicht berührende Gesten verwendet, wobei Gesten, die im zweiten Bereich (A2) ausgeführt werden, als Gesten erkannt werden können und wobei Gesten, die im dritten Bereich (A3) ausgeführt werden, als Gesten ignoriert werden. Dabei erstreckt sich der zweite Bereich (A2) von der Oberfläche des Sensors (OTGS) oder ersatzweise der ersten Grenze eines optionalen ersten Bereichs (A1), in dem die Gesten als Berührungsgesten (S, ST, TT, DT, MT) interpretiert würden oder wo eine Berührung einer Oberfläche stattfindet, bis zu mindestens einer zweiten Grenze erstreckt. Gleichzeitig erstreckt sich der dritte Bereich (A3) sich von einer zweiten Grenze, die mit der vorgenannten zweiten Grenze nicht identisch sein muss, typischerweise bis zu der Entfernung, in der technisch keine Erkennung mehr möglich ist. Die Bereiche (A1, A2, A3) überlappen sich nicht.

Description

  • Einleitung und Stand der Technik
  • Die Steuerung von Geräten oder eines Teils derer Funktionen anhand von Gesten erfreut sich zurzeit wachsender Beliebtheit und wird zunehmend eingesetzt. Zwangsläufig kommt es bei den aus dem Stand der Technik bekannten Gestensensoren häufig zu der ungewollten Situation, dass sich jene angesprochen wähnt, während die auslösende Gestik durch den Benutzer gar nicht bewusst als Eingabe- oder Steuerbewegung gedacht war. Mit anderen Worten, der Benutzer bewegt sich oder gestikuliert und erzeugt ungewollt Kommandobewegungen für den Sensor.
  • Ein konkretes, typisches Beispiel findet sich im Cockpit eines Fahrzeugs (PKW, LKW). Der Raum, der für die Erfassung und Auswertung durch einen Gestensensor zur Verfügung steht, überschneidet sich nicht selten zu einem großen Teil mit dem Bereich, in dem der Fahrer oder Beifahrer die verschiedenen, üblichen Hand- oder Körperbewegungen ausführen. Dabei sind diese Bewegungen durch den Ausführenden nicht dazu bestimmt, als Geste durch den Gestensensor interpretiert zu werden. die keineswegs für den Gestensensor vorgesehen sind.
  • Aus dem Stand der Technik, speziell der DE 10015960 A1 ist für die Spracherkennung eine zustandsabhängige Steuerung der 'False Acceptance Rate” (FAR) und/oder 'False Rejection Rate' (FRR), also der Rate mit der im ersteren Fall nicht gesprochene Worte als gesprochene, dem zu erkennenden Vokabular entstammende Wort fälschlich erkannt werden und im zweiten Fall gesprochene Worte, die dem zu erkennenden Vokabular entstammen, fälschlich als nicht erkannt werden. Aus der DE 10 2009 019 910 A1 ist eine Steuerung von Zuständen eines Gestenerkenners durch einfaches und mehrfaches Tippen sowie durch eine lange Berührung (Drücken), kurzes Ziehen und Ziehen bekannt.
  • Auch ist aus der DE 10 2009 019 910 A1 eine Erfassung des zeitlichen Ablaufs zur Unterscheidung des einfachen und mehrfachen Tippens bei der Eingabe der obigen Berührungsgesten bekannt. (Abschnitt [0079] bis Abschnitt [0081] der DE 10 2009 019 910 A1 ) Allerdings bezieht sich die DE 10 2009 019 910 A1 ausschließlich auf die Verarbeitung von Berührungsgesten und lässt die Nutzung von Zusatzinformationen bei der Verarbeitung von dreidimensionalen Gesten vollkommen offen.
  • Aus der DE 10 2012 000 201 A1 ist eine dreidimensionale Gestensteuerung bekannt,
  • Steuerung der FAR- und FRR-Rate
  • In der folgenden Beschreibung werden verschiedene Schriften aus dem Stand der Technik genannt. Deren Inhalt ist Teil dieser Offenbarung.
  • Zur Steuerung eines beliebigen Systems mittels Gestenerkennung wird daher zum Ersten vorgeschlagen, die Gestenerkennung in Form einer vordefinierten Zustandsfolge (100104) ähnlich der DE 10015960 A1 durchzufuhren, wobei bei Erkennen eines entsprechenden Gestenbefehls der Gestensensor von einem Zustand in einen anderen Zustand wechselt und der Wechsel in Abhängigkeit von mindestens einem Gestenerkennungsparameter erfolgt. Die Gestenerkennungsparameter können beispielsweise die sogenannte 'False Acceptance Rate” (FAR) und/oder 'False Rejection Rate' (FRR) beeinflussen, die somit für die einzelnen Zustande (100104) auf zustandsindividuelle Werte eingestellt werden, um eine verbesserte Erkennungsgenauigkeit zu erzielen. Darüber hinaus wird vorgeschlagen, dass durch eine charakteristische, wohldefinierte Berührungssequenz der Sensor bzw. dessen eigentliche Sensorfunktionalität aktiviert wird. Hierbei wird im Sinne dieser Offenbarung als Berührung eine Annäherung eines Gesteneingabeobjekts – also beispielsweise einer Hand – auf einen Abstand kleiner als ein erster Abstand (A1) gesehen. Bei der Sensorfunktionalität handelt kann es sich sowohl um eine Gestik im Raum als auch eine berührende Gestik handeln, die durch Annäherung an ein Display unterhalb eines ersten Abstands (A1) dargestellt werden. Somit sind Fehlauslösungen sehr sicher zu vermeiden. Der Fahrer kann also uneingeschränkt, d. h. wie gewohnt, seine Umgebung nutzen, erst wenn er den das Gestenerkennungsgerät explizit durch Quasiberührung(en) anspricht, wird der Raum vor der Sensorik des Gestenerkennungsgerätes von dieser als Eingabebereich angesehen.
  • Darüber hinaus wird ein zugehöriges Sensorsystem vorgeschlagen, der sowohl Gesten im Raum als auch Quasiberührungen sicher detektieren und unterscheiden kann.
  • Beschreibung der Steuerung der FAR- und FRR-Rate Die vorliegende Erfindung betrifft somit unter anderem Gestenerkennungsverfahren nach dem Oberbegriff der Ansprüche 1 bis 3 und 1716 sowie eine Gestenerkennungsvorrichtung nach dem Oberbegriff des Anspruches 18.
  • Gestengesteuerte Systeme sind heutzutage weitläufig bekannt und bieten den Vorteil, dass die steuernde Person nicht zu einem direkten Kontakt mit dem jeweils zu steuernden Gerat gezwungen ist.
  • Die eigentliche Gestenerkennung erfolgt mit Hilfe entsprechender Gestenerkennungsalgorithmen, die auf ein vorgegebenes Gestenvokabular zugreifen. Die Gestenerkennungsalgorithmen müssen derart beschaffen sein, dass der an das zu steuernde Gerat gerichtete Gestenbefehl möglichst gut von ähnlichen Umgebungssignalen beispielsweise Objektbewegungen im Hintergrund unterschieden werden kann.
  • Dabei tritt das Problem auf, dass teilweise auch Bewegungen als ein Gestenbefehl erkannt werden, obwohl diese nicht zu dem ursprünglich vorgesehenen Gestenvokabular gehören. Diese irrtümliche Akzeptierung einer vermeintlichen Gestenbefehls wird durch die sogenannten 'False Acceptance Rate' (FAR) beschrieben, die angibt, wie viele Gestenfolgen als Gestenbefehl erkannt wurden, obwohl sie nicht zu dem vorgesehenen Vokabular gehörten. Die FAR-Rate ist somit ein Maß für die Akzeptanzempfindlichkeit bzw. Akzeptanzschwelle, anhand der entschieden wird, dass eine Bewegung oder Bewegungsabfolge als Gestenbefehl akzeptiert und anschließend entsprechend ausgewertet wird.
  • Ebenso werden teilweise Gestenbefehle nicht erkannt, obwohl sie zu dem ursprünglich vorgesehenen Gestenvokabular gehören. Diese irrtümliche Zurückweisung von korrekten Gestenbefehlen wird durch die sogenannten 'False Rejection Rate (FRR) beschrieben, die angibt, wie viele Gestenbefehle nicht erkannt wurden, obwohl sie zu dem vorgesehenen Vokabular gehörten. Die FRR-Rate ist somit ein Maß für die Zurückweisungsempfindlichkeit oder Zurückweisungsschwelle, bei der ein Gestenbefehl nicht erkannt wird. Bei der Steuerung eines Geräts mittels Gesten ohne Verwendung eines zusätzlichen Signalgebers, wie beispielsweise eines Tasters oder Schalters, besteht das Problem darin, gleichzeitig eine möglichst optimale FAR-Rate und FRR-Rate zu erzielen. Beide Fehlerraten sollten im Idealfall minimal sein.
  • Algorithmusbedingt sind die beiden Fehlerraten oder Empfindlichkeiten jedoch gegenläufig, d. h. eine ansteigende FAR-Rate ist mit einer abfallenden FRR-Rate verbunden und umgekehrt, so dass sich beide Fehlerraten nicht gleichzeitig optimieren lassen. Im Extremfall wird kein Gestenbefehl erkannt (d. h. FAR = 0%, FRR = 100%) bzw. alle Gestenfolgen als Gestenbefehl akzeptiert (FAR = 100%, FRR = 0%).
  • In herkömmlichen Gestenerkennungssystemen wird u. a. ein Gestenerkennungsverfahren nach dem Oberbegriff des Anspruchs 3 mit Hilfe von 'Key Gesture Spotting' angewendet, bei dem das Erkennen einer Schlüsselgeste ('Key-Gesture') erforderlich ist, welches den Beginn einer Befehlssequenz markiert und zur Aktivierung der eigentlichen Gestenerkennungsfunktion des jeweiligen gestengesteuerten Geräts dient. Nach dem Erkennen der Schlüsselgeste wird von dem Gestenerkennungsalgorithmus dann auf die Eingabe eines Gestenbefehls gewartet, der einen Menü-Punkt auswählt oder einen entsprechenden Steuerparameter einstellt. Durch den Gestenbefehl „Wischen mit einer Hand von links unten nach rechts oben oberhalb des Displays eines Gerätes” kann somit beispielsweise der Menü-Punkt zur Einstellung der Lautstärke ausgewählt werden, während durch den Gestenbefehl „Wischen mit einer Hand von links oben nach rechts unten oberhalb des Displays eines Gerätes” der entsprechende Lautstärkeparameter eingestellt wird. Durch die optionale Eingabe einer geeigneten Schlussgeste, kann die Befehlssequenz beendet werden.
  • Ebenso kann der Gestenerkennungsalgorithmus jedoch auch das Ende der Befehlssequenz aus dem vorgegebenen und zuvor durchlaufenen Menü-Schema erkennen.
  • Bei diesen Gestenerkennungssystemen werden somit verschiedene Zustände durchlaufen, wobei im ersten Zustand auf die Erkennung der Schlüsselgeste gewartet wird. Nach dem Erkennen der Schlüsselgeste wird in mindestens einem weiteren Zustand auf die Erkennung eines Gestenbefehls zur Auswahl eines Menü-Punkts bzw. zur Einstellung eines entsprechenden Parameters gewartet. Die Erkennung der einzelnen Gestenbefehle wird dabei in den einzelnen Zuständen mit konstanten Werten für die FAR-Rate und die FRR-Rate durchgeführt, die mittels eines ersten Gestenerkennungsparameters derart eingestellt sind, dass ein suboptimaler Kompromiss realisiert ist. Bei dieser Vorgehensweise treten jedoch, da keiner der Parameter auf einen optimalen Wert eingestellt ist, wesentliche Fehlauslösungen auf.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Gestenerkennungsverfahren und eine Gestenerkennungsvorrichtung vorzuschlagen, bei der die Gestenerkennungsgenauigkeit, d. h. die Wahrscheinlichkeit von Fehlauslosungen, verringert ist.
  • Diese Aufgabe wird erfindungsgemäß durch Gestenerkennungsverfahren mit den Merkmalen der Ansprüche 1 bis 3 und 1716 bzw. eine Gestenerkennungsvorrichtung mit den Merkmalen des Anspruchs 18 gelost. Die Unteransprüche definieren jeweils bevorzugte und vorteilhafte Ausführungsformen der vorliegenden Erfindung.
  • Erfindungsgemäß erfolgt die Gestenerkennung mit zustandsspezifisch eingestellten Gestenerkennungsparametern, welche auch als sogenannten 'Scores' bezeichnet werden. Die Scores hängen dabei von der Gestenqualität und dem Ort ab, an dem diese ausgeführt wurden. Die Gestenerkennungsparameter werden in den einzelnen Zuständen somit auf unterschiedliche Werte eingestellt, so dass beispielsweise die FAR-Rate und die FRR-Rate entsprechend zustandsspezifisch beeinflusst werden. Diese Vorgehensweise besitzt den Vorteil, dass die Gestenerkennungsparameter für jeden Zustand optimal angepasst werden können. Mit Hilfe der vorliegenden Erfindung kann der Tatsache Rechnung getragen werden, dass das jeweils gewünschte Empfindlichkeitsverhalten des Gestenerkenners zumindest in gewissen Grenzen vom jeweiligen Zustand abhängig ist.
  • Insbesondere ist es vorteilhaft, wenn in demjenigen Zustand, in dem auf die Eingabe der Schlüsselgeste gewartet wird, für die FAR-Rate ein geringerer Wert als in den anderen Zuständen gewählt wird, so dass die der FAR-Rate entsprechende Akzeptanzschwelle, bei der eine Gestenfolge als Gestenbefehl erkannt wird, erhöht wird, wodurch der Benutzer gezwungen wird, die Schlüsselgeste deutlich darzustellen und gegebenenfalls zu wiederholen. Mit der Minimierung der FAR-Rate ist in der Regel eine Erhöhung der FRR-Rate verbunden, d. h. die Zurückweisungsschwelle, bei der ein Gestenbefehl nicht erkannt wird, wird herabgesetzt.
  • Beispielsweise aus der DE 102012010627 A1 ist ein Gestenerkennungssystem auf Basis eines HMM-Gestenerkenners bekannt, das den euklidischen Abstand eines Feature-Vektors (Bezugszeichen 45, 46 und 48 in 10 der DE 102012010627 A1 ) zu prototypischen Vektoren (Bezugszeichen 41 bis 44 in 10 der DE 102012010627 A1 ) bestimmt und mit Schwellwerten und/oder Schwellwertellipsoiden (z. B. Bezugszeichen 47 in 10 DE 102012010627 A1 ) vergleicht. Dabei geschieht der Vergleich gemäß der DE 102012010627 A1 so, dass zwischen dem ermittelten Abstand Feature-Vektor (Bezugszeichen 45, 46 und 48 in 10 der DE 102012010627 A1 ) zu Prototyp (Bezugszeichen 41 bis 44 in 10 der DE 102012010627 A1 ) auf der einen Seite und dem Schwellwert-Radius (bezogen auf den beispielhaften Fall eines sphärischen Schwellwertellipsoids, wie es beispielhaft mit Bezugszeichen 47 in 10 der DE 102012010627 A1 eingezeichnet ist) eine Differenz gebildet wird. Ist die Differenz positiv, so liegt der Feature-Vektor außerhalb des Schwellwert-Ellipsoids (z. B. Bezugszeichen 47 in 10 DE 102012010627 A1 ) ist er negativ, so liegt er innerhalb des Schwellwert-Ellipsoids.
  • Es ist der erfindungsgemäße Gedanke, dass die FAR- und FRR-Rate zustandsbedingt bei der Gestenerkennung eingestellt werden. Da im Falle eines HMM-Gestenerkenners der Abstand zwischen dem Feature-Vektor eines Gestenprototypen und dem aktuellen Feature-Vektor den besagten Score darstellt, wird eben dieser Abstand für die Bewertung genutzt. Dies geschieht vorzugsweise im beispielhaften Falle eines HMM-Gestenerkennungssystems, wie das der DE 102012010627 A1 , beispielsweise so, dass für jeden Prototypen einer Prototypendatenbank (z. B. Bezugszeichen 15 in 7 DE 102012010627 A1 ), die Teil des besagten HMM-Gestenerkennungssystems ist, mehr als ein Schwellwertradius des Schwellwertellipsoids abgelegt wird, was einen Unterschied zum offenbarten Stand der Technik darstellt. Die Vorrichtung, die das HMM-Gestenerkennungsverfahren ausführt, entscheidet dabei aufgrund des jeweiligen Zustands des Systems darüber, welcher von mindestens zwei Schwellwerten, die zu einem Prototypen der Prototypendatenbank (z. B. Bezugszeichen 15 in 7 DE 102012010627 A1 ) gehören, für die Bewertung des aktuellen Feature-Vektors zustandsabhängig zu nutzen ist. Hierdurch wird die FAR-Rate und die FRR-rate zustandsabhängig eingestellt.
  • Kleinere Schwellwertradien führen dabei zu einer erhöhten FRR-Rate und einer erniedrigten FAR-Rate.
  • Größere Schwellwertradien führen dabei zu einer verringerten FRR-Rate und einer erhöhten FAR-Rate.
  • Sofern statt sphärischer Schwellwertellipsoide komplexere Schwellwertkörper genutzt werden, die durch mehr als einen Parameter gekennzeichnet sind, so kann bezogen auf deren Volumen ausgesagt werden:
    Kleinere Volumina eines Schwellwertellipsoids führen dabei zu einer erhöhten FRR-Rate und einer erniedrigten FAR-Rate.
  • Größere Volumina eines Schwellwertellipsoids führen dabei zu einer verringerten FRR-Rate und einer erhöhten FAR-Rate.
  • Bei dem erfindungsgemäßen Verfahren wird also ein mindestens ein Gestenerkennungsparameter zustandsabhängig eingestellt. Hierbei handelt es sich im Falle eines HMM-Gestenerkenners bei einem ersten Gestenerkennungsparameter typischerweise um einen Schwellwert mit dem eine Bewertung eines Feature-Vektors des Gestenerkennungs-Systems, hier der Abstand zu einem Prototyp der Prototypendatenbank, verglichen wird. Dabei kann der als Vergleichsergebnis sich ergebende Zahlenwert auch binär sein. Das Ergebnis kann also beispielsweise lauten: innerhalb des Schwellwertellipsoids – also Geste erkannt –, oder außerhalb des Schwellwertellipsoids – also Geste nicht erkannt.
  • Somit hängt vom dem Ergebnis des Vergleichs zwischen Feature-Vektor-Bewertung und Schwellwert, also konkret von dem besagten Zahlenwert, ab, ob eine Geste als erkannt oder nicht erkannt bewertet wird und mit welcher FAR- bzw. FRR-rate dies geschieht.
  • Aus der DE 102012010627 A1 ist auch bekannt, dass andere Verfahren zur Mustererkennung ebenfalls verwendet werden können. Wichtig ist hierbei, dass das physikalische Sensor-Interface (z. B. Bezugszeichen 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, S5 in 7 der DE 102012010627 A1 ) mindestens ein Datum, was einen eindimensionalen Feature-Vektor gleichkäme, liefert, das bewertet wird, wodurch mindestens ein Zahlenwert, beispielsweise der besagte Abstand, ermittelt wird und dass zumindest dieser Zahlenwert mit zumindest einem Schwellwert verglichen wird, wobei dieser Schwellwert selbst wieder zustandsabhängig ist.
  • Nach dem Erkennen der Schlüsselgeste kann die FAR-Rate erhöht und damit die Akzeptanzschwelle herabgesetzt werden. Gleichzeitig wird die FRR-Rate reduziert und damit die Wahrscheinlichkeit einer irrtümlichen Zurückweisung eines Gestenbefehls verringert. Im konkreten Fall bedeutet dies die Wahl größerer Schwellwertellipsoide bzw. größerer Schwellwertradien. Hierdurch wird die Wahrscheinlichkeit einer Fehlauslösung von komplexeren Gestenbefehlen gesenkt und gleichzeitig der Bedienungskomfort gesteigert.
  • Durch die zuvor beschriebene, zustandsabhängige Einstellung der Gestenerkennungsparameter kann die Tatsache ausgenutzt werden, dass die Wahrscheinlichkeit für eine Steuergeste bzw. einen Steuerbefehl nach Erkennen der Schlüsselgeste bei nahezu 100% liegt, da bei anderen Gelegenheiten als dem Ausgangszustand, in dem auf die Eingabe der Schlüsselgeste gewartet wird, das Auftreten der Schlüsselgeste unwahrscheinlich ist.
  • Ein bevorzugtes Anwendungsgebiet der vorliegenden Erfindung ist der Bereich der Unterhaltungselektronik oder der Fahrerinformationssysteme und Bedieneinrichtungen eines Kfz, wo die Gestensteuerung zunehmend an Bedeutung gewinnen wird. Die Erfindung eignet sich jedoch im Prinzip für beliebig ausgestaltete Systeme, die mittels Gestenerkennung gesteuert werden sollen. Des Weiteren ist die Erfindung nicht nur auf die Einstellung der FAR-Rate und der FRR-Rate mittels eines besagten ersten Gestenerkennungsparameters beschränkt, sondern kann auch auf die Einstellung anderer Gestenerkennungsparameter angewendet werden, die für die Gestenerkennungsfunktion maßgeblich sind. Beispielsweise wird die Gestenerkennung vorzugsweise räumlich begrenzt, wodurch nur Gesten innerhalb eines vorbestimmten Raumvolumens erkannt werden und Handlungen zur Bedienung anderer Instrumente ohne Aktivierung der Gestenerkennung in vorbestimmten Bereichen möglich werden. Zweckmäßigerweise erfolgt dies typischerweise im Zusammenhang mit einem sphärischen Koordinatensystem, wobei die zulässigen Raumwinkel- und Abstandsbereiche auf jeweils ein oder mehrere vorbestimmte Wertintervalle begrenz werden. Die Grenzen dieser Intervalle werden für den Abstand beispielsweise des Gestenerkennungsobjekts vom Koordinatenursprung durch zweite Gestenparameter und für den Raumwinkel beispielsweise durch dritte Gestenparameter bestimmt, die vorzugsweise zustandsabhängig eingestellt werden können. Hierfür wird die erfindungsgemäße Vorrichtung mit einer Einrichtung zur Messung und Bewertung des Abstands vom Gesteneingabeobjekt zu einem Punkt, beispielsweise auf einer Armlehne, in der die Gestenerkennungsvorrichtung untergebracht ist, bevorzugt versehen. Auch ist die Gestenerkennungsvorrichtung bevorzugt in der Lage das Vorhandensein des Gesteneingabeobjekts in einem bestimmten Raumwinkelsegment zu detektieren und/oder ganz bevorzugt sogar die genaue Winkelposition bezogen auf ein sphärisches Koordinatensystem mit dem Koordinatenursprung wie zuvor festzustellen.
  • Die Erfindung wird nachfolgend näher unter Bezugnahme auf die Zeichnungen anhand eines bevorzugten Ausführungsbeispiels beschrieben.
  • In der nun folgenden Auflistung der Figuren werden bereits Begriffe verwendet, die erst weiter unten erläutert werden.
  • 1 zeigt ein vereinfachtes Blockschaltbild einer erfindungsgemäßen Gestenerkennungsvorrichtung.
  • 2 zeigt ein detaillierteres Blockschaltbild einer erfindungsgemäßen Vorrichtung
  • 3 zeigt einen Ablauf mit X Schlüsselgesten
  • 4 zeigt einen Ablauf mit X Schlüssel- und N Menü-Gesten
  • 5 zeigt eine Aufsicht auf den erfindungsgemäßen Gestenerkenner eingebaut in eine Sitzarmlehne. Die Darstellung ist schematisch. Sie zeigt die Sendekeulen (401, 402) einer 3D-Messschleifen (Erläuterung folgt) und den Empfindlichkeitsbereich (405) einer 2D-Messschleife (Erläuterung folgt). Eine Armlehne ist angedeutet.
  • 6 zeigt eine Aufsicht auf den erfindungsgemäßen Gestenerkenner eingebaut in eine Sitzarmlehne. Zusätzlich ist eine dritte 3-D-Messschleife (Erläuterung folgt) als Pegel-Messschleife dargestellt. Die Darstellung ist schematisch. Sie zeigt die Sendekeulen (401, 402) der 3D-Messschleifen (Erläuterung folgt) und den Empfindlichkeitsbereich (405) einer 2D-Messschleife (Erläuterung folgt). Die Armlehne ist angedeutet.
  • 7 zeigt eine Aufsicht auf den erfindungsgemäßen Gestenerkenner eingebaut in eine Sitzarmlehne. Eine dritte 3-D-Messschleife (Erläuterung folgt) als Pegel-Messschleife ebenfalls dargestellt. Die Darstellung ist schematisch. Sie zeigt die Sendekeulen (401, 402) der 3D-Messschleifen (Erläuterung folgt) und den Empfindlichkeitsbereich (405) einer 2D-Messschleife(Erläuterung folgt). Die Armlehne ist angedeutet. Zusätzlich sind einen Wisch-Geste (W) und eine Slide-Geste angedeutet.
  • 8 zeigt eine Aufsicht auf den erfindungsgemäßen Gestenerkenner eingebaut in eine Sitzarmlehne. Eine dritte 3-D-Messschleife als Pegel-Messschleife ebenfalls dargestellt. Die Darstellung ist schematisch. Sie zeigt die Sendekeulen (401, 402) der 3D-Messschleifen und den Empfindlichkeitsbereich (405) einer 2D-Messschleife. Die Armlehne ist angedeutet. Zusätzlich ist die im Text unten beschriebene Wippe angedeutet.
  • 9 verdeutlicht die später beschriebenen drei Erkennungsbereiche.
  • 10 skizziert die Positionierung der Hand auf einer Armlehne von der Seite.
  • 11 zeigt ein nicht beanspruchtes beispielhaftes Halios-System entsprechend dem Stand der Technik
  • Die Gestenerkennungsvorrichtung 7 (siehe 2) umfasst beispielsweise ein Sensorsystem oder Sensorsystem-Array 1, über welches externe Signale erfasst werden. Die Signale werden mit Hilfe eines (nicht gezeigten) Verstärkers verstärkt und mit Hilfe zumindest eines oder mehrerer Analog/Digital-Wandler 2 ggf. digitalisiert. Der digitale Datenstrom wird anschließend einer Gestenerkennungseinheit 3 zugeführt, welche mit Hilfe eines Gestenerkennungsalgorithmus versucht, in den einzelnen Signalen enthaltene Gestenbefehle eines Benutzers zu erkennen. Zu diesem Zweck greift die Gestenerkennungseinheit 3 auf einen Programmspeicher 4 zu, in dem das jeweils auszuführende Gestenerkennungsprogramm abgelegt ist. Zudem kommuniziert die Gestenerkennungseinheit 3 mit einem Datenspeicher 5, der zum Zwischenspeichern von Daten, insbesondere der von dem bevorzugten Analog/Digital-Wandler 2 kommenden Daten, dient und auch alternativ mit dem Programmspeicher 4 durch einen gemeinsamen Speicher realisiert sein kann.
  • Der Programmspeicher 4 ist mit einer Programmierschnittstelle verbunden, über welche das gespeicherte Gestenerkennungsprogramm verändert und insbesondere die für den jeweiligen Gestenerkennungsalgorithmus maßgeblichen Gestenerkennungsparameter eingestellt werden können, um insbesondere die FAR-Rate und die FRR-Rate für jeden Zustand auf gewünschte Werte mittel zustandsabhängiger erster Gestenparameter einzustellen.
  • Nach Erkennen eines Gestenbefehls, welcher zu einer gewünschten Einstellung eines bestimmten Parameters der jeweiligen gestengesteuerten Vorrichtung fuhren soll, wird dieser Gestenbefehl von der Gestenerkennungseinheit 3 in ein entsprechendes Steuersignal für einen geeigneten Aktor 6 bzw. ein geeignetes Stellglied der gestengesteuerten Vorrichtung, wie beispielsweise einen Schalter oder Regler etc., umgesetzt, um die dem erkannten Gestenbefehl entsprechende gewünschte Einstellung herbeizuführen.
  • Die von der Gestenerkennungseinheit 3 durchgeführte Gestenerkennung erfolgt im Wesentlichen nach dem in 1 gezeigten Zustandsschema.
  • In einem Bereitschaftszustand ('Idle State') 100 wartet die Gestenerkennungseinheit 3 auf das Erscheinen einer bestimmten Schlüsselgeste. Das Erkennen der Schlüsselgeste hat die Selbstaktivierung der Gestenerkennungsfunktion zur Folge. Bei der Schlüsselgeste sollte es sich um eine Geste handeln, die nicht versehentlich dargestellt werden kann oder sehr unwahrscheinlich ist, so dass Fehlauslösungen durch den nicht ausgewerteten Kontext des jeweils dargestellten Gestenbefehls unwahrscheinlich sind.
  • Im Bereitschaftszustand 100, in dem auf die Eingabe der Schlüsselgeste gewartet wird, ist die FAR-Rate auf einen relativ niedrigen Wert, insbesondere auf einen niedrigeren Wert als in den anderen Zuständen mittels oder mehrerer eines Gestenerkennungsparameter, eingestellt, so dass die der FAR-Rate entsprechende Akzeptanzschwelle, bei der eine Gestenfolge als Gestenbefehl erkannt wird, erhöht wird, wodurch der Benutzer gezwungen wird, die Schlüsselgeste deutlich darzustellen und gegebenenfalls zu wiederholen. Mit der Minimierung der FAR-Rate ist in der Regel eine Erhöhung der FRR-Rate verbunden. Typischerweise wird für die Schlüsselgeste das Raumvolumen minimiert was durch Beschränkung des Abstandsintervalls mittels eines oder mehrerer zweiter Gestenerkennungsparameter und durch Beschränkung des Raumwinkelintervalls mittels eines oder mehrerer dritter Gestenparameter geschehen kann.
  • Nach Erkennen der Schlüsselgeste wird in einen Zustand 101 gewechselt, in dem die Gestenerkennungseinheit 3 auf das Auftreten eines Gestenbefehls wartet, durch den ein Menü-Punkt ausgewählt oder ein gewünschter Parameter, beispielsweise die Lautstarke, des gestengesteuerten Geräts auf einen gewünschten Wert eingestellt wird.
  • Im Folgenden wird davon ausgegangen, dass bis zur Einstellung eines Steuerparameters insgesamt N Gestenbefehle oder Menü-Gesten durch den Nutzer eingegeben werden müssen.
  • Nach Erkennen der ersten Menü-Geste wird somit in einen Zustand 102 gewechselt. Nach dem Erkennen der N-ten Menü-Geste, durch welches der gewünschte Parameter auf einen gewünschten Wert eingestellt wird, befindet sich die Gestenerkennungseinheit 3 in einem Zustand 103. Diesen Zustand 103 erreicht die Gestenerkennungseinheit 3 nur, wenn sowohl die Schlüsselgeste als auch sämtliche N Menü-Gesten erkannt wurden. Ansosnsten springt die Gestenerkennungseinheit vorzugsweise mit einer Fehlermeldung beispielsweise in den Bereitschaftszustand (100) zurück.
  • In diesem Zustand 103 kann die Gestenerkennungseinheit 3 in Kenntnis der sinnvollen Befehlssequenzlänge N das Ende dieser Befehlsfolge erkennen und automatisch wieder in den Bereitschaftszustand 100 wechseln.
  • Alternativ kann die Gestenerkennungseinheit 3 im Zustand 103 auch auf das Auftreten einer geeigneten Schlussgeste warten, durch welchen der Benutzer das Ende der Befehlssequenz bzw. Gestensequenz mitteilt. Das Erkennen dieser Schlussgeste hat einen Wechsel in einen Endzustand 104 zur Folge, wobei anschließend die Gestenerkennungseinheit 3 wieder in den Bereitschaftszustand 100 zurückkehrt.
  • Nach dem Erkennen der Schlüsselgeste im Zustand 100 kann die FAR-Rate erhöht und damit die Akzeptanzschwelle durch Änderung des ersten Gestenerkennungsparameters herabgesetzt werden. Gleichzeitig wird die FRR-Rate reduziert und das Raumvolumen für die Erkennung von Gesten – das Erkennervolumen – mittels Änderung des zweiten und/oder dritten Gestenerkennungsparameters vergrößert und damit die Wahrscheinlichkeit einer irrtümlichen Zurückweisung eines Gestenbefehls verringert. Diese Einstellung kann für die dem Bereitschaftszustand 100 nachfolgenden Zustände 101104 beibehalten werden. Hierdurch wird die Wahrscheinlichkeit einer Fehlauslösung von komplexeren Gestenbefehlen gesenkt und gleichzeitig der Bedienungskomfort gesteigert.
  • In 3 ist eine komplexere Variante dargestellt. In einem Bereitschaftszustand ('Idle State') 200 wartet die Gestenerkennungseinheit 3 auf das Erscheinen einer ersten bestimmten Schlüsselgeste. Das Erkennen der ersten Schlüsselgeste hat wieder die Selbstaktivierung der Gestenerkennungsfunktion zur Folge. Bei der ersten Schlüsselgeste sollte es sich wieder um eine Geste handeln, die nicht versehentlich dargestellt werden kann oder sehr unwahrscheinlich ist, so dass Fehlauslösungen durch den nicht ausgewerteten Kontext des jeweils dargestellten Gestenbefehls unwahrscheinlich sind.
  • Im Bereitschaftszustand 200, in dem auf die Eingabe der ersten Schlüsselgeste gewartet wird, ist das Erkennervolumen minimiert und die FAR-Rate wie oben auf einen relativ niedrigen Wert, insbesondere auf einen niedrigeren Wert als in anderen Zuständen, eingestellt, so dass die der FAR-Rate entsprechende Akzeptanzschwelle, bei der eine Gestenfolge als Gestenbefehl erkannt wird, erhöht wird, wodurch der Benutzer gezwungen wird, die erste Schlüsselgeste im Erkennervolumen deutlich darzustellen und gegebenenfalls zu wiederholen. Mit der Minimierung der FAR-Rate ist auch hier in der Regel eine Erhöhung der FRR-Rate verbunden.
  • Im Gegensatz zur oben beschriebenen Prozedur (siehe auch 1) wird bei der in 3 dargestellten Methode aber nicht nur eine Schlüsselgeste angegeben, sondern eine Folge von X Schlüsselgesten. Nachdem also die erste Schlüsselgeste im Zustand 201 detektiert wurde, wechselt der Gestenerkenner in den nächsten Zustand, wartet dort auf das Erkennen der zweiten Schlüsselgeste und wechselt dann zum nächsten Zustand und dies so lange bis die X-te Schlüsselgeste der X Schlüsselgesten erkannt wurde und somit der Zustand 202 erfolgreich durchlaufen wurde. Dabei kann jede dieser X Schlüsselgesten eine andere FAR-Rate entsprechende Akzeptanzschwelle besitzen. In einer weiteren Ausprägung der Erfindung haben alle Schlüsselgesten eine in gleicher Weise einer erhöhten FAR-Rate entsprechende Akzeptanzschwelle. In einer weiteren Ausprägung der Erfindung hat beispielsweise eine nachfolgende Schlüsselgeste eine niedrigere FAR-Rate entsprechende Akzeptanzschwelle als die vorausgehende Schlüsselgeste. Nur wenn alle X Schlüsselgesten in der richtigen Reihenfolge durch den jeweiligen Gestensprecher im Erkennervolumen vor der Gestenerkennungsvorrichtung dargestellt wurden, kann der Zustand 203 erreicht werden.
  • Nach Erkennen der X-ten Schlüsselgeste wird wie oben in einen Zustand 201 gewechselt, in dem die Gestenerkennungseinheit 3 auf das Auftreten eines Gestenbefehls wartet, durch den ein Menü-Punkt ausgewählt oder ein gewünschter Parameter, beispielsweise die Lautstarke, des gestengesteuerten Geräts auf einen gewünschten Wert eingestellt wird.
  • Im Folgenden wird davon ausgegangen, dass bis zur Einstellung eines Steuerparameters insgesamt N Gestenbefehle oder Menü-Gesten eingegeben werden müssen.
  • Nach Erkennen der ersten Menü-Geste wird somit in einen Zustand 203 gewechselt. Nach dem Erkennen der N-ten Menü-Geste, durch welches der gewünschte Parameter auf einen gewünschten Wert eingestellt wird, befindet sich die Gestenerkennungseinheit 3 in einem Zustand 204. Diesen Zustand 204 erreicht die Gestenerkennungseinheit 3 nur, wenn sowohl sämtliche X-Schlüsselgesten als auch sämtliche N Menü-Gesten erkannt wurden.
  • In dem Zustand 204 kann die Gestenerkennungseinheit 3 in Kenntnis der sinnvollen Befehlssequenzlänge N wieder wie oben das Ende dieser Befehlsfolge erkennen und automatisch wieder in den Bereitschaftszustand 200 wechseln.
  • Alternativ kann die Gestenerkennungseinheit 3 im Zustand 204 auch wieder auf das Auftreten einer geeigneten Schlussgeste warten, durch welchen der Benutzer das Ende der Befehlssequenz bzw. Gestensequenz mitteilt. Das Erkennen dieser Schlussgeste hat einen Wechsel in einen Endzustand 205 zur Folge, wobei anschließend die Gestenerkennungseinheit 3 wieder in den Bereitschaftszustand 200 zurückkehrt.
  • Typischerweise werden sowohl bei einer als auch bei X Schlüsselgesten Abbruchbedingungen vorgesehen, zu denen aus einem der Zustände (101 bis 104 bzw. 201 bis 205) direkt in den Ausgangszustand 100 bzw. 200 gesprungen wird. Eine solche Abbruchbedingung kann beispielsweise eine zu große Anzahl an als falsch erkannten Gesten und/oder das Überschreiten einer Zeitbegrenzung beim Warten auf die erfolgreiche Darstellung des nächsten Gestenbefehls ein.
  • Es kann verlangt werden, dass die Schlüsselgesten in unterschiedlichen räumlichen Abständen vom Gestenerkennungssystem dargestellt werden. Dies kann im Extremfall bedeuten, dass einzelne oder alle Schlüsselgesten in Abständen dargestellt werden müssen, die sehr klein oder auch Null sein können. In diesem letzteren Fall handelt es sich also nicht um dreidimensionale Gesten, sondern um sogenannte „Touch-Gesten”, bei denen der Gestenerkenner fast berührt wird oder der Bediener den Eindruck einer Berührung hat. Hierbei wird deutlich, dass neben einem dreidimensionalen Gestenerkennungssystem weitere Erkennungssysteme wie beispielsweise Gestenerkenner für zweidimensionale Berührungsgestenerkennung und Spracherkennungssysteme aktiv sein können. Auch ist es denkbar, Gestenerkenner parallel zu betreiben, die über separate Sensoreinheiten, wie beispielsweise in der US 20050210419 A1 offenbart, verfügen.
  • Somit ist es denkbar, dass ein Gestenerkenner die Bewegungen der Hand über ein optisches System auswertet, ein Gestenerkenner die Bewegungen der Gestensprecherhand durch Auswertung von Sensordaten einer Sensoreinheit entsprechend der US 20050210419 A1 und ein Gestenerkenner zweidimensionale Gesten auf einer Bildschirmoberfläche auswertet und ein Spracherkenner parallel gesprochene Schlüsselworte auswertet, die mit den Gesten korrelieren müssen.
  • Jedem der Zustände kann daher jeden der verwendeten Gesten- und Spracherkenner jeweils ein zu erkennendes Signal, im Folgenden „Formel” genannt, zugeordnet werden. Die Formel weist für jeden Zustand und jeden parallel verwendeten Erkenner einen Formelteil auf. Dabei ist dieser Formelteil
    • • im Falle eines dreidimensionalen Gestenerkenners eine berührungslos darzustellende Geste,
    • • im Falle eines zweidimensionalen Quasiberührungsgestenerkenners eine darzustellende Geste mit einer Quasiberührung einer geeigneten Fläche, wobei unter Quasiberührung die Unterschreitung eines ersten Abstands (A1) zu dieser Fläche zu verstehen ist,
    • • im Falle eines zweidimensionalen Berührungsgestenerkenners eine darzustellende Geste mit Berührung einer geeigneten Fläche, beispielsweise eines Touch-Screens,
    • • im Falle eines Gestenerkenners auf Basis einer Sensoreinheit (z. B. gemäß US 20050210419 A1 ) eine darzustellende Bewegung oder ein darzustellendes Bewegungsmuster der Sensor-Einheit
    • • im Falle eines Spracherkenners ein zu sprechendes Schlüsselwort und/oder ein zu sprechendes Schlüsselwort mit Auswertung der Prosodie-Eigenschaften.
  • Weitere Mustererkennungen basierend auf Schrifterkennung, Fingerabdruckerkennung etc. sind als verwendbar denkbar. Auch ist es denkbar, dass weitere Sensor- und Schaltersignale in eine Formel einbezogen werden. (siehe folgendes Beispiel)
  • Die Kombination verschiedener Erkenner und der zugehörigen Gesten und/oder Schlüsselworte und/oder Signale über Sensoren ergibt somit Formeln, die erkannt werden. Dies wird mit Hilfe der 4 erläutert. Der grundsätzliche Ablauf ist ähnlich zu dem der 3. Der Ablauf der 4 unterscheidet sich jedoch von dem der 3 dadurch, dass in jedem Zustand eine spezifische Kombination von Formelteilen verwendet wird.
  • Dies soll an einem Beispiel verdeutlicht werden:
    Es ist beispielsweise denkbar, dass als erste Schlüsselformel eine Sensoreinheit in Form einer Acht mit der linken Hand geschwenkt wird und dabei das Wort „Sesam” gesprochen wird und gleichzeitig mit der rechten Hand eine Wischgeste (im Folgenden auch Wipe-Geste genannt) über dem entsprechenden Gestenerkennersystem für eine dreidimensionale Geste ausgeführt wird.
  • Die zweite Schlüsselformel kann beispielsweise vorsehen, nur eine Berührungsgeste auf einem Touch-Screen auszuführen und gleichzeitig einen Schalter zu betätigen.
  • In jedem Zustand kann jeweils für jeden Gesten- bzw. Spracherkenner eine einer anderen FAR-Rate entsprechende Akzeptanzschwelle vorgesehen werden.
  • Die erfindungsgemäße Vorrichtung zeichnet sich also dadurch aus, dass in jedem Zustand 300 bis 305 mindestens ein Gesten- und/oder Spracherkenner auf eine Geste bzw. ein Schlüsselwort wartet, wobei auch in einem oder mehreren der Zustände 300 bis 305 mehr als ein Gesten- und/oder Spracherkenner auf eine Geste bzw. ein Schlüsselwort warten können und wobei mindestens einer der Zustände 300 bis 305 dadurch gekennzeichnet ist, dass mindestens ein Gestenerkenner auf eine Geste wartet, wobei diese Geste eine dreidimensionale Geste ist.
  • Auch kann jedem der Erkenner in jedem der Zustände eine andere FAR-Rate entsprechende Akzeptanzschwelle vorgegeben werden. Auch hier ist es sinnvoll, dass diese Schwellen für die Formelteile der Schlüsselformeln höher liegen als für die der Menü-Formeln.
  • Schließlich kann jedem der Erkenner in jedem der Zustände ein anderes Erkennungsvolumen zugewiesen werden. Als Erkennervolumen ist der räumliche Bereich vor der erfindungsgemäßen Vorrichtung gemeint, in dem die Gesten ausgeführt werden bzw. der Bereich in dem die Schlüsselworte gesprochen werden. Auch hier ist es sinnvoll, dass dieses Erkennervolumen für die Formelteile der Schlüsselformeln kleiner ist als für die der Menü-Formeln.
  • Realisierung einer erfindungsgemäßen Vorrichtung
  • Die hier vorgestellte Realisierung einer erfindungsgemäßen Vorrichtung ist – unter anderem – vor allem aber für die Anwendung in einem Fahrzeug-Cockpit gedacht.
  • Die Bedien-Philosophie beruht hierbei auf zwei grundlegenden Prinzipien:
    • 1. Der Einbauort des Sensors ist so gewählt, dass letzterer bequem und idealerweise sogar ”blind” (also ohne hinzusehen) sicher erreicht und berührt werden kann. Die anschließend auszuführende eigentliche Bedienung (Gestik) ist in dieser Position ebenfalls sehr sicher und ergonomisch durchzuführen.
    • 2. Es wird vorzugsweise nur ein kleiner Befehls-Satz an Gestik vorgesehen, was der Bediensicherheit in Form einer niedrigen FRR und eine niedrigen FAR zugutekommt, da die Separation zwischen verschiedenen Gesten verbessert wird. Es werden dementsprechend typischerweise nur die am häufigsten eingesetzten und für die Gestik am besten geeigneten Steuerfunktionen implementiert werden, also diejenigen mit einer maximalen Unterscheidbarkeit.
    • 3. Das Eingabevolumen, also der Raumbereich in dem die jeweilige Geste auszuführen ist, wird jeweils so gewählt, dass die Bedienung anderer Bedienelemente nicht zu einer Gestenerkennung führen kann. Dieses Eingabevolumen wird erfindungsgemäß in Abhängigkeit vom Zustand des Systems angepasst. Nach der Durchführung einer dreidimensionalen Schlüsselgeste ist es für die folgenden Gesten typischerweise größer als davor.
  • Als Einbauort im KFZ sehr gut geeignet sind z. B. die Armlehne (403), Armstützen, gut zugänglich Bereiche in der Fahrzeugtür oder in der Mittelkonsole. Alles dies sind Positionen, bei denen eine sehr gute (konstante) räumliche Relation zur bedienenden Hand gegeben ist. Ein auf der Armlehne (403) ruhender Unterarm bestimmt somit sehr gut die Position der bedienenden Hand. Diese Position kann (in Längsrichtung des Fahrzeugs) weiterhin gut beibehalten werden, z. B. dadurch, dass der Ellenbogen des Bedieners während der Gestik-Bewegungen weiter in Kontakt mit der Armlehne bleibt. Daraus ergibt sich das zweite Prinzip, dass Armbewegungen vor und zurück (also in Längsrichtung des Fahrzeugs) ungünstig sind und daher typischer Weise vermieden werden. Demnach führt die Hand nur noch Bewegungen in einer Ebene durch, die die Richtungen oben-unten und links-rechts beinhaltet.
  • Im Folgenden wird zur Vereinfachung der Beschreibung nur ein Sensorsystem betrachtet, das ausschließlich in der Armlehne (403) eines Autositzes untergebracht ist. Andere Einbauorte sind natürlich denkbar.
  • Der Sensor sei am vorderen Ende der Armlehne (403) eines Autositzes und zwar zumindest auf der Fahrerseite eins PKWs, LKWs oder Busses eingebaut. Der Sensor kann nur wenige Zentimeter groß gefertigt werden und kann in unterschiedlichen geometrischen, formschönen Designs, beispielsweise rund, halbrund, elliptisch, eckig, mit Facetten, etc. und mehr oder weniger in die Armlehne (403) integriert realisiert werden.
  • Viele Vorteile des hier vorgestellten Sensor- bzw. Bedienkonzeptes kommen ganze besonders in dieser Automotive-Anwendung zum Tragen, wie im Folgenden noch gezeigt wird.
  • Beispielsweise kann ein solches Bedienelement unter Kombination der in den Schutzrechten EP 1435509 B1 und US 7456815 B2 offenbarten Technologien hergestellt werden. Diese Technologie wird im Folgenden als HALIOS Technologie oder als HALIOS-Messmethode bezeichnet.
  • 10 zeigt die beispielhafte Positionierung einer Hand (501) und des Armes (502) auf einer Armlehne (503). Hierdurch befindet sich die Hand in einer vordefinierten Position. In einem Kfz wäre die Fahrtrichtung typischerweise links. Durch diese Anordnung sind die Freiheitsgrade der zur Bewegung der Hand beschränkt, wodurch die Bedienung intuitiver wird. Das Sensorsystem (OTGS) befindet sich am Ende der Armlehne in Fahrtrichtung des Kfz. Der sensitive Bereich für Quasiberührungsgesten (504) befindet sich in gut erreichbarer Entfernung. Die im Folgenden erläuterten Messkeulen der optischen Sensormessschleifen (500) sind so ausgerichtet, dass eine einfache Bedienung möglich ist.
  • Einfachste Realisierung für Wisch- oder Wipe-Gesten (W)
  • In seiner einfachsten Realisierung umfasst ein derartiges erfindungsgemäßes Sensorsystem auf einer solchen HALIOS-Basis zwei 3D-Messschleifen, eine erste 3D Messschleife (401) und eine zweite 3D-Messchleife (402), beispielsweise für die Detektion von Wisch- Gesten, auch als Wipe-Gesten oder einfach nur „Wipe” (W) bezeichnet, im dreidimensionalen Raum vor dem Sensor (OTGS), und eine 2D-Messschleife (405, 505) die für Quasiberührungen in der Nähe des Messfensters, so genannte „Touch-Gesten” besonders sensibel ist, als zweidimensional Quasiberührungsgesten besonders gut detektieren kann.
  • Wenn in dieser Offenbarung von 3D Messschleifen die Rede ist, so ist damit ein System gemeint, dass beispielsweise einem System gemäß der Anmeldung DE 10 2013 005 787.6 entspricht.
  • Weitere Schriften hierzu wären beispielsweise EP 1435509 B1 , EP 1410507 B1 , DE 102005045993 B4
  • Wenn in dieser Offenbarung von 2D Messschleifen die Rede ist, so ist damit ein System gemeint, dass beispielsweise einem System gemäß der Offenbarung DA 10 2006 020 570 A1 entspricht.
  • Bei diesen Messmethoden (siehe 11) wird eine Sende-LED, ein Sender (H), mit einem modulierten Sendesignal (S5) angesteuert und strahlt nach Durchgang durch eine erste optische Übertragungsstrecke (11) und nach Reflexion an einem Objekt (O), typischerweise hier dem Gestenerkennungsobjekt, und Rückstreuung über eine zweite Übertragungsstrecke (12) in einen Empfänger (D) ein. Gleichzeitig strahlt eine Kompensations-LED, ein ebenfalls modulierter Kompensationssender (K), über ein typischerweise bekannte dritte Übertragungsstrecke (13) ebenfalls in den Empfänger (D), typischerweise eine Fotodiode, ein. Die Überlagerung ist dabei vorzugsweise linear. Ein Regler (CT) regelt dabei den Sender (H) und/oder den Kompensationssender (K) so, dass das Empfängerausgangssignal (S0) bis auf einen Regelfehler und Systemrauschen keine Anteile des Sendesignals (S5) mehr enthält. Das bedeutet, dass das Kompensationssendesignal (S3), das den Kompensationssender (K) speist und vom Regler (CT) erzeugt wird, komplementär zum Sendesignal ist. Der Kompensationssender (K) sendet also im Extremfall beispielsweise immer dann, wenn der Sender (H) nicht sendet und umgekehrt. Die Regelung kann dabei die Amplitude und/oder die Verzögerung umfassen. Der Regler (CT) gibt daher typischerweise einen oder zwei Messwerte, typischerweise als ein erstes Regelsignal (S4) und ein zweites Regelsignal (S4b), aus. Eine Regelung der Verzögerung zur Laufzeitmessung ist beispielsweise aus der DE 10 2005 045 993 B4 bekannt. Die technische Lehre der DE 10 2005 045 993 B4 , kann mit der technischen Lehre der anderen in dieser Offenbarung genannten Schriften natürlich kombiniert werden.
  • Aus dem Stand der Technik sind somit verschiedene Techniken bekannt, die zum einen den Abstand eines Gesteneingabeobjektes, beispielsweise den Abstand einer Hand vom Sensor (OTGS), feststellen können und zum anderen die unabhängig davon die Reflektivität des Objekts. Sofern nur eine Regelung der Amplitude erfolgt, kann beispielsweise von der Änderung der Amplitude auf den Abstand des Gesteneingabeobjektes geschlossen werden.
  • Weitere Schriften hierzu wären beispielsweise EP 1269629 B1 , EP 1410507 B1 , EP 1410507 B1
  • Der Inhalt dieser bekannten Schriften und der sonstigen in dieser Offenbarung genannten Schriften in Kombination mit den hier offenbarten Merkmalen sind ausdrücklich Teil dieser Offenbarung.
  • Eine solche Anordnung ist in 5 dargestellt. Die Armlehne ist in der 5 schematisch von oben mit ihrem Ende in Aufsicht in Bodenrichtung dargestellt. In dieser Darstellung käme der Unterarm auf der Fläche der Armlehne (403) zu liegen, während die Hand im Bereich der Sende- und Empfangskeulen der ersten und zweiten 3D-Messchleife (401, 402) sich befinden würde. Im entspannten Zustand hängt die Hand leicht abgewinkelt nach unten im Bereich der Eben der Wisch- oder Wipe-Gesten (W) und zeigt quasi in das Zeichnungsblatt hinein.
  • Wipe-Gesten (W) sind dabei nun so definiert, dass die Hand sich vor dem Sensor längs einer Linie im dreidimensionalen Raum bewegt, ohne den Abstand zum Sensor wesentlich zu verändern oder diesen zu berühren. Dies kann bei dem Beispiel durch eine einfache Drehung der abgewinkelten entspannten Hand um das Handgelenk erfolgen. Dies wird vom Gestensprecher als besonders angenehm empfunden, da der Energieaufwand zur Ausführung dieser Geste minimal ist. Die Geste wird kurz gesagt als lässig empfunden und signalisiert außenstehenden eine souveräne Beherrschung des bedienten Gerätes. Eine solche Wipe-Geste wird also in einem Kfz typischerweise quer zur Fahrtrichtung ausgeführt.
  • Eine Wipe-Geste mit einer Berührung der Sensorbedienfläche oder in einem geringen Abstand zu dieser wird nicht als Wipe-Geste oder Wisch-Geste (W) bezeichnet, sondern als Gleit-Geste oder Slide-Gester (S) oder nur kurz als „Slide”. Diese wird später zusammen mit 7 beschrieben.
  • Grundlegende Realisierung für Berührungs- oder Touch-Gesten (ST, DT, TT, MT)
  • Daneben werden im Folgenden noch Annäherungsgesten (407) verwendet, bei denen sich die Hand auf den Sensor (OTGS) zubewegt und Touch-Gesten (ST, DT, TT, MT), auch Quasiberührungsgesten genannt. Bei Quasiberührungsgesten wird die Bewegung auf den Sensor (OTGS) zu in unmittelbarer Nähe der Sensorbedienoberfläche stoppt. Dies geschieht in einem dafür vorgesehenen Bereich (405) des Sensor (OTGS). Im Extremfall kann eine Berührung stattfinden, die aber nicht erforderlich ist. Das Gestenerkennungsobjekt, typischerweise die Hand, nähert sich hierfür nur bis auf einen Abstand kleiner als ein erster Abstand (A1) der diesem vorgesehenen Bereich (405).
  • Der Hardware-Aufwand an elektro-optischen Bauteilen beträgt, neben der von der Messmethode (HALIOS) vorgegebenen Fotodiode als Empfänger (D) und der im HALIOS-Verfahren vorgesehenen Kompensations-LED als Kompensationssender (K), also typischerweise noch drei Sende-LEDs (H1, H2, H3) als Sender (H) für die beiden 3D-Messschleifen (401, 402) und die 2D-Messchleife (405). Vorzugsweise kommen für die Sendewellenlängen dieser LEDs Wellenlängen des IR-Spektrums beispielsweise 850 nm und 940 nm zum Einsatz. Es ist natürlich auch die Verwendung anderer Wellenlängen, beispielsweise die von sichtbarem Licht denkbar.
  • Wie bereits beschrieben, sind hiervon eine erste Sende-LED (H1) und eine zweite Sende-LED (H2) vorwiegend für die Erkennung von Wisch- oder Wipe-Gesten (W) mittels der 3D-Messchleifen (401, 402) bestimmt. Diese werden im Folgenden als Wipe-LEDs (H1, H2) bezeichnet.
  • Wie ebenfalls bereits beschrieben ist eine dritte Sende-LED (H3) als 2D Messschleife vorwiegend für die Erkennung von Quasiberührungs- oder Touch-Gesten (ST, DT, TT, MT) bestimmt und wird im Folgenden als Touch-LED (H3) bezeichnet.
  • Die beiden Wipe-LEDs (H1, H2) zur Erkennung der besagten Wisch- oder Wipe-Gesten (W) strahlen leicht gespreizt, typischerweise fast senkrecht nach oben. Hierzu verweisen wir an dieser Stelle ausdrücklich auf die Anmeldungen mit Aktenzeichen DE 10 2013 005 787.6 , die Zusatz der Offenbarung 10 2013 003 791.3 ist, verwiesen, deren technische Lehre ausdrücklich Teil dieser Offenbarung ist. Die Ebene, in der die Sendekeulen der 3D-Messschleifen (401, 402) liegen, steht ungefähr senkrecht zur Längsachse der Armlehne (403) und damit der Längsachse des Fahrzeugs und ist damit senkrecht oder evtl. leicht nach vorne geneigt.
  • Die Hauptaufgabe der 3D-Messschleifen (401, 402) ist die präzise Detektion einer Wischbewegung (W) von links nach rechts und umgekehrt von rechts nach links in einer relativ kurzen Entfernung, von z. B. 5 cm bis maximal 10 cm im Raum vor dem Sensor (OTGS).
  • Die Funktion zur Erkennung einer Quasiberührungsgeste (Touch-Geste) ist vergleichbar mit einem elektro-mechanischen Taster/Schalter oder einem kapazitiven Schalter. D. h. diese typischerweise optische 2D-Messschleife (405) ist so realisiert und eingestellt, dass sie praktisch erst durch eine Quasiberührung, höchstens ein, zwei Millimeter vor der echten physischen Berührung auslöst. An dieser Stelle sei beispielsweise auf die Offenlegungsschrift DE 10 2006 020 570 A1 verwiesen, deren technische Lehre damit Teil dieser Offenbarung ist. Sie kommt in der Wahrnehmung eines Nutzers einer echten Berührungsdetektion gleich. Damit die Erkennung von Quasiberührungsgesten (S, ST, DT, TT, MT) nicht ungewollt ausgelöst werden kann, kann deren sensitive Fläche (405) am vorderen Ende der Armlehne (403) innerhalb der aktiven Fläche des Sensors (OTGS) entsprechend DE 10 2006 020 570 A1 untergebracht sein, möglicherweise auf einer eigens dafür nach vorne geneigten Fläche (Facette) des Sensors (OTGS).
  • Grundlegende Realisierung für eine Pegel Erkennung
  • In einer verbesserten Ausführung des Sensorsystems wird eine vierte Sende-LED (H4), die im Folgenden so genannte Pegel-LED (H4), zwischen den beiden äußeren Wipe-LEDs (H1, H2) angebracht, die zu der ersten (401) und zweiten (402) 3D-Messschleife gehören. Die Pegel–LED (H4) ist der Sender einer dritten 3D-Messschleife (408). Dies ist in 6 dargestellt. Die Pegel-LED (H4) verbessert allgemein die Bediensicherheit des Sensors (OTGS) bei der Erkennung von Wisch- oder Wipe-Gesten (W). Insbesondere ermöglicht sie aber die Einstellung eines Pegels, einer Amplitude, durch Anheben oder Absenken der Hand über dem Sensor (OTGS) innerhalb des Erfassungsbereichs der Pegel-3D-Messschleife (408). Insbesondere zur Erhöhung des Bedienkomforts, also der Feinfühligkeit der Einstellung, kann – z. B. durch die Erhöhung des Sendestromes der Pegel-LED (H4) – der nutzbare Arbeitsbereich der Pegel-Messschleife auf typischerweise 20 bis 25 Zentimeter erhöht werden. Hierbei wird die Keule der Pegel-3D-Messschleife (408) geeignet zu einer vergrößerten Keule der Pegel-3D-Messschleife (406) erweitert. Auch bei der Implementierung der weiter unten im Detail beschriebenen Zähl-Wippe kann die Pegel-LED (H4) eingesetzt werden, da bei diesem Verfahren die Wipe-LEDs (H1, H2) relativ weit nach außen (rechts/links) gekippt sein müssen und es voraussichtlich notwendig ist, dass der Sensor (OTGS) auch stets eine Information über seinen mittleren Sektor benötigt.
  • Slide-Gesten (S)
  • Eine weitere, mögliche Erweiterung des Funktionsumfangs in einer erfindungsgemäßen Vorrichtung stellt die sogenannte Erkennung von Slide-Gesten (S) dar, also der Erkennung einer Wisch- oder Wipe-Geste (W) an/auf bzw. in der unmittelbaren Nähe der Sensoroberfläche des Sensors (OTGS) mit einem Finger oder der ganzen flachen Hand. Dafür werden insgesamt erfahrungsgemäß mindestens zwei, noch besser drei 2D-Messschleifen eingebaut. Vgl. . An dieser Stelle Sei beispielsweise auf die Offenlegungsschrift DA 10 2006 020 570 A1 verwiesen, deren technische Lehre damit Teil dieser Offenbarung ist. Die Sende-LEDs (H5, H6, H7) der betreffenden 2D-Messschleifen werden im Folgenden als Touch-LEDs bezeichnet.
  • Das Gesten-Sensor-System der EP 1435509 B1 kann beispielsweise durch eine 2D-Messschleife (405), also eine einzelne zusätzliche Touch-LED (H5), um die Erkennung von Touch-Gesten (Quasiberührungsgesten) (S, ST, DT, TT, MT) erweitert werden. In der einfachsten Realisierung benötigt man nur diese eine zusätzliche Touch-LED (H5), wenn der Sensor (OTGS) mit einigen, wenigen Zentimetern Ausdehnung/Breite relativ großflächig mit zwei, drei oder sogar vier Fingern der Bedienerhand „berührt” (angetippt) wird. Hierbei meint berühren das Unterschreiten eines ersten Abstands (A1) zur Sensoroberfläche. Somit wird die sich ergebende besonders berührungssensitive Fläche, der Touch-Notspot, mit Sicherheit immer getroffen.
  • Werden zwei, drei (oder evtl. noch mehrere) Touch-LEDs (H5, H6, H7), also zwei, drei (oder evtl. noch mehrere) 2D-Messschleifen, eingesetzt, so entsteht eine zweite Bedienebene an der Oberfläche des Sensors (OTGS), welche mit weiteren Funktionen belegt werden kann. Im Laufe des Entstehens der Erfindung wurde erkannt, dass die Wisch- oder Wipe-Geste (W) auf oder in der Nähe der Sensoroberfläche von links nach rechts oder in umgekehrter Richtung gegenüber der Gestik in der Luft vorzugsweise eine höhere Priorität haben sollte.
  • Je nach Applikation und den Vorstellungen des Anwenders und abhängig von der HW-Ausstattung sind verschieden umfangreiche Befehlssätze mit einer erfindungsgemäßen Vorrichtung möglich.
  • Aus diesen wenigen Einzelbefehlen können, je nach Anwendung und wie oben beschrieben, verschieden lange Befehls-Sequenzen für einige, wenige oder auch mehrere Teilapplikationen definiert werden.
  • Gemäß der grundsätzlichen Zielsetzung, möglichst wenig Aufmerksamkeit des Fahrers durch die Bedienung eines erfindungsgemäßen Sensorsystems zu beanspruchen, werden im Idealfall möglichst alle Befehle zumindest durch ein Signal bestätigt. Dieses Signal kann beispielsweise akustisch oder optisch oder haptisch sein. Hierunter fallen insbesondere die üblichen direkten visuellen Reaktionen der angesteuerten bzw. beeinflussten Geräte/Systeme im Fahrzeug und/oder deren Anzeigen, die als Rückmeldung angesehen werden können. Beispielsweise kann das Radio-Display umgeschaltet werden, die Zoomstufe im Navigations-Bildschirm sich ändern, Lüftungslamellen sich drehen usw.
  • Quasiberührungsgesten (ST, DT, TT, MT)
  • Als zentrales Merkmal der Bedienphilosophie einer erfindungsgemäßen Vorrichtung sind Quasiberührungsgesten im Gegensatz zu räumlich ausgeführten Gesten. Quasiberührungsgesten erfordern keinen echten Kontakt mit einer Bedienfläche, sind also strenggenommen eigentlich räumlich ausgeführte Gesten und nicht unbedingt Berührungsgesten mit einem direkten Kontakt zur Sensoroberfläche. Quasiberührungsgesten schließen solche Berührungsgesten aber nicht aus. Sie werden jedoch so dicht unterhalb eines ersten Abstands (A1) von der Sensoroberfläche durchgeführt, dass sie vom Nutzer als Berührungsgesten wahrgenommen werden. Ein geeignetes Sensorsystem hierzu ist beispielsweise in der EP 2016480 B1 offenbart. Wenn also im Folgenden und innerhalb dieser Offenbarung von Berührung oder Antippen die Rede ist, so ist damit der Eintritt in den besagten Abstandsbereich (A1) gemeint und nicht notwendigerweise ein direkter Kontakt beispielsweise zwischen der Bedienerhand und der Sensoroberfläche.
  • Typischerweise, aber nicht notwendigerweise steht eine Quasiberührungsgeste am Anfang einer typischen Bediensequenz.
  • Eine Einzelquasiberührung (ST), also die einmalige Berührung des Sensors (OTGS), kommt als Aktivierungs-Sequenz des Sensors typischerweise nicht in Frage, da sie von einer ungewollten, zufälligen Berührung des Sensors (OTGS) nicht zu unterscheiden wäre. Allerdings ist eine Einzelquasiberührung sehr wohl geeignet zur Bestätigung (Übernahme) einer Einstellung oder zur Beendigung einer Eingabe-Sequenz. Hier sei auf den ersten Abschnitt dieser Offenbarung verwiesen, bei dem eine Veränderung der FAR- und FRR-Rate in Abhängigkeit von den Sensorzuständen bereits beschrieben wurde. Die Doppelquasiberührung (DT) ist eine erste praxistaugliche Quasiberührungs-Sequenz zur Aktivierung der erfindungsgemäßen Vorrichtung. Ein doppeltes Antippen des Sensors (OTGS), genauer das doppelte aufeinanderfolgende Annähern des Gestenerkennungsobjekts – typischerweise die Hand – unter einen ersten Abstand (A1) an die Sensoroberfläche (405) innerhalb eines relativ eng definierten (parametrierbaren) Zeitraumes (z. B. 0,5 s...1,0 s) idealerweise großflächig, mit allen Fingern, schaltet die eigentliche Gestik-Funktionalität sicher ein. Eine Doppelquasiberührung (DT) ist also eine Einfachquasiberührung (ST) gefolgt von einer zweiten Einfachquasiberührung (ST) innerhalb einer vorgegeben Zeit. Dabei werten typischerweise Werte von 1 s oder 0,5 s oder 250 ms oder 100 ms als Zeitraum für die zweite Quasiberührung nach der ersten Quasiberührung gewählt.
  • Die Dreifachquasiberührung (TT), ist eine zweite mögliche, noch nicht zu komplizierte, also zu lang dauernde, d. h. praktikable Aktivierungssequenz. Sie kann je nach gewünschter Applikation einer erfindungsgemäßen Vorrichtung eine bereits sehr unterschiedliche Funktion aufweisen. Eine Dreifachquasiberührung (DT) ist also eine Doppelquasiberührung (ST) gefolgt von einer dritten Einfachquasiberührung (ST) innerhalb einer wiederum vorgegeben Zeit. Dabei werden typischerweise wieder Werte von 1 s oder 0,5 s oder 250 ms oder 100 ms als Zeitraum für die dritte Quasiberührung nach der zweiten Quasiberührung gewählt.
  • Der so definierte zweite Zeitraum muss nicht notwendigerweise mit dem ersten Zeitraum betragsgleich sein. Abweichungen sind denkbar, wodurch ein Rhythmus vorgegeben wird.
  • Auf diese Weise können beliebige Mehrfachquasiberührungen (MT) definiert werden. Dabei kann die Information der Mehrfachquasiberührungsgesten (MT), deren Definition hier auch Doppel- und Dreifachquasiberührung en umfassen soll, somit auch im jeweiligen zeitlichen Abstand der Quasiberührungen, also dem Rhythmus, liegen.
  • Erstens können Doppelquasiberührungen (DD) und Dreifachquasiberührungen (TT) und Mehrfachquasiberührungen (MT) zusammen mindestens zwei Geräte oder Funktionen unterscheiden, d. h. direkt adressieren. Dies gilt nebenbei gesagt auch für das Verharren in einem Neutralpunkt (CB) oder in einem neutralen Bereich (CB'). Solche Geräte können z. B. Radio und Navigationsgerät sein.
  • Zweitens kann eine zweistufige und damit kleine und überschaubare Menü-Struktur aufgebaut werden, bei der z. B. eine Doppelquasiberührung (DT) die erste Selektionsebene aufruft, von der aus z. B. durch eine Wisch- oder Wipe-Geste (W) und Bestätigung zunächst die eigentliche Funktion ausgewählt wird. Die Dreifachquasiberührung (TT) oder Mehrfachquasiberührung (MT) ist dann für einen sogenannten ”Hotkey” mit direktem Zugriff auf eine der meistgenutzten Funktionen, wie z. B. das Radio oder etwa die Telefonlautstärke, frei.
  • Sofern aufgrund der Anwendung jedoch eine längere Menü-Liste implementiert werden sollte, ist es empfehlenswert, zur besseren Übersicht die entsprechenden Informationen im Sichtfeld des Fahrers einzublenden, damit im Zweifelsfall dem Nutzer vermittelt wird, worauf er gerade zugreift, bzw. was er gerade verändert.
  • Wisch- oder Wipe-Gesten (W)
  • Ebenfalls grundsätzlich im Bedienkonzept ist die sehr anspruchslose Wisch- oder Wipe-Geste (W) in Form einer Wischbewegung über dem Sensor (OTGS) in einigen oder auch mehreren Zentimetern Abstand, quer zur Längsachse der Armlehne (403) von links nach rechts und umgekehrt. Durch die sehr gute räumliche Zuordnung des Unterarms zur Armlehne (403) ist eine sichere Bedienung bei infolge der geringen aufzuwendenden Energie geringster dafür benötigter Aufmerksamkeit des Fahrers möglich.
  • Es wird bei diesem beispielhaften Konzept bewusst auf eine Wisch- oder Wipe-Geste (W) in der Querrichtung dazu, also beispielsweise von vorne nach hinten und umgekehrt, verzichtet, da diese Gestik eine relativ hohe ”Qualität der Bewegung” erfordert und die Erkennungswahrscheinlichkeiten für die beiden einzelnen, orthogonalen Wisch-Ereignisses deutlich sinken würde. In den 6 bis 8 entspricht dies einer Wisch- oder Wipe-Geste in Richtung oder entgegengesetzt zu den Pfeilen (407) in 7. Ein Gestensprecher würde eine solche Gestik als „anstrengend” und damit unangenehm empfinden.
  • In der Praxis hat sich herausgestellt, dass die hier beschriebene Wisch- oder Wipe-Geste (W) eher einem Rotieren der Hand in einer vertikalen Ebene nahekommt (9), da nicht selten die Wisch- oder Wipe-Geste (W) mehrfach wiederholt wird. Ein Beispiel hierfür ist ein mehrfaches Weiterschalten der Radiosender in einer beispielhaften gedachten Anwendung. Der Benutzer führt also immer wieder Ausholbewegungen durch, die in höherem Abstand zum erfindungsgemäßen Sensorsystem erfolgen sollten, als die eigentlichen Wisch- oder Wipe-Gesten (W) in der gewollten Richtung. Ein Faktor von ungefähr 3 sollte im Idealfall gewährleistet sein. Dies ist in 9 dargestellt. Eine Wisch- oder Wipe-Geste (W) ist erst dann gültig, wenn die Hand im definierten Abstandsbereich (A2) so die Lichtkeulen der Wipe-LEDs (H1, H2) der 3D-Messschleifen (401, 402) durchquert, dass die Signale der beiden Messvorrichtungen beiden der 3D-Messschleifen (401, 402) jeweils vor und nach dieser Durchquerung die Ruhepegel (Idle) oder einen innerhalb eines Tolleranzbandes jeweils in der Nähe dieses Ruhepegels liegenden Ausgangspegel ausgeben. Mit anderen Worten, die Wisch- oder Wipe-Geste (W) muss ”komplett” von einer Seite zur anderen ausgeführt werden. Darüber hinaus ist es sinnvoll einen ersten Bereich (A1) zu definieren in dem Wisch – oder Wipe-Gesten als Gleitgesten (Slide-Gesten S), eine spezielle Form der Quasiberührungsgesten, aufgefasst werden und einen zweiten Bereich (A2) in dem Wisch- oder Wipe-Gesten (W) als solche akzeptiert werden und einen dritten Bereich (A3) in dem keine Gesten erkannt werden, da dieser zur Rückführung der Hand dienen soll. Natürlich ist die Definition weiterer Bereiche über dieser drei Bereiche (A1, A2, A3) hinaus denkbar.
  • Es sind zahlreiche Funktionalitäten für eine Wisch- oder Wipe-Geste (W) definierbar. Menügesteuert bzw. kontextgebunden gibt es zumindest theoretisch kaum Grenzen: Radiosenderwahl, Zoomstufen im Navi-Display, Wechsel der Anzeigeinhalten von Bord-Computer-Daten, Telefonbucheinträge, usw.
  • Aber auch das relativ grobstufige Ändern von Pegelwerten, wie z. B. im Falle von Gebläse-Drehzahlen, Temperatureinstellungen, Radio- oder Telefonlautstärke ist durch solche Wisch- oder Wipe-Geste zu bewerkstelligen.
  • Einstellen von Zahlwerten (CNT)
  • Um eine bessere formale Trennung zwischen den Vorgängen ”Selektieren” und ”Verändern” bei einer erfindungsgemäßen Vorrichtung zu erreichen, empfiehlt sich, dessen Ausstattung mit einer eigenen Amplituden/Pegel-Funktion, im Folgenden hier kurz Count-Funktion genannt.
  • Zwei Realisierungen für eine zugehörige Count-Geste (CNT) erscheinen bisher gut umsetzbar:
  • Zählen über Abstand (CNT1)
  • Grundsätzlich reicht die einfachste Hardwarerealisierung (6) einer erfindungsgemäßen Vorrichtung aus, um Zählwerte über den Abstand der Bedienerhand zum Sensor durch Zählen einzustellen. Diese Werte werden im Folgenden Zählwerte genannt. Dafür sollten die beiden Sendekeulen der 3D-Messschleifen (401, 402) für die Erkennung von Wisch- oder Wipe-Gesten (W) nicht zu weit nach außen gekippt sein, sodass dazwischen keine größere nicht überwachte und somit blinde Lücke für den Sensor (OTGS) entsteht. Dennoch ist mehr Bediensicherheit und Komfort möglich, dadurch, dass eine dedizierte Zähl-Messschleife (406, 408) bzw. Pegel-LED (H4) auf der vertikalen Sensorachse also symmetrisch eingebaut wird, um nicht zuletzt über die größere ”Reichweite” eine bessere Auflösung zu erzielen. (vgl. 7) Die Ermittlung eines Zähl-Wertes kann hier mindestens auf zwei Arten erfolgen:
  • Erstens Ermittlung des Zählwertes über eine Zeitfunktion.
  • Wenn der Wert der Zähl-Messschleife (406, 408) für eine gewisse Zeit in einem gewissen Toleranzband bleibt, wird dieser Wert automatisch übernommen. Hierfür wird durch die Vorrichtung, beispielsweise mittels der Soft- und/oder Firmware eines der Vorrichtung zugehörigen Auswerterechners, die zeitliche Ableitung des Abstand der Hand zum Sensor (OTGS) über die Zählmessschleife (406, 408), die typischerweise eine dritte 3D-Messschleife ist, gebildet. Unterschreitet diese Abstandsänderungsgeschwindigkeit einen programmierbaren oder vorgegebenen Grenzwert, so wird der Zustand als Verharren gewertet und die besagte Übernahme des Abstandswertes als Zählwert wird durchgeführt. Nach dem bestätigenden akustischen, visuellen oder aptischen Signal hat die Bedienerhand eine gewisse Zeit (z. B. 1 s) bis eine weitere Einstellung vorgenommen werden kann oder aber es wird mit einer expliziten Bestätigung die Bedienung fortgesetzt (z. B. mit einer Touch-Geste). Alternativ kann auch so weiter verfahren werden, dass die Hand zunächst vollständig aus dem Erfassungsfeld des Sensors (OTGS), beispielsweise in den dritten Bereich (A3), verschwindet.
  • Zweitens, der Bediener führt die Bestätigung explizit selbst aus.
  • Nachdem der Bediener beispielsweise seine Hand eine Weile bei einem gewissen Wert (Pegel), wie oben beschrieben, verweilt hat, führt er zügig eine Quasiberührung (Touch-Geste) aus.
  • Der besagte Auswerterechner, der typischerweise Teil der Gestenerkennungsvorrichtung (3) ist, filtert typischerweise mittels seiner Soft- und/oder Firmware diese sich schnell ändernde Touch-Bewegung aus, ignoriert diese also, und stellt den zuletzt stabil gehaltenen Wert ein. Dafür muss natürlich die Historie dieser 2D-Messschleife (405) für ein bis zwei Sekunden in einem Speicher (9) des besagten Auswerterechners gespeichert werden. Natürlich können auch die Werte der anderen Messschleifen (401, 402, 406, 408) zwischengespeichert werden.
  • Zählen über Wippe
  • Eine andere Möglichkeit einen Zählerwert zu verändern bzw. einzustellen stellt die sogenannten Wippe- oder Waage-Eingabe dar. (Siehe 8) Sobald sich der Sensor (OTGS) im Zählmodus befindet, bestimmt die seitliche Auslenkung der Hand über dem Sensor (OTGS) aus dem Verhältnis der Werte der beiden äußeren 3D-Messschleifen (401, 402) in welche Richtung ein Zählerwert verändert werden soll. Bereits ausschließlich mit den zwei 3D-LEDs der drei 3D-Messchleifen (401, 408, 402) lässt sich diese Funktion sehr gut umsetzen, wenn diese Funktion bei der Formgebung der Sendekeulen der drei 3D-Messchleifen (401, 408, 402) bereits eingeplant wird. Auch hier gilt: eine weitere, mittlere Sende-LED (H4) einer mittleren 3D-Messschleife (408) erhöht sowohl die Bediensicherheit als auch den Bedienkomfort. Diese LED (H4) wird in dieser Offenbarung auch als Pegel-LED (H4) bezeichnet. Durch drei entsprechend gut geformte Sendekeulen der drei 3D-Messchleifen (401, 408, 402) lässt sich bei der Bestimmung der Handposition zwischen ”außen” und ”weiter außen” unterscheiden, was sich unmittelbar in unterschiedliche Zählgeschwindigkeiten übersetzen lässt. Bei dieser Methode gibt es einen relativ breiten mittleren neutralen Sektor (CB), den Neutralpunkt, der zu keiner Wertveränderung führt. Dies ermöglicht ein Abtauchen der Hand ”durch die Mitte” zum Durchführen einer Berührungsgeste (ST, DT, TT, MT) zum Zweck der Wertübernahme, ohne dass bei dieser Aktion der gewählte Wert in letzter Sekunde ungewollt verändert wird. Wenn der Neutralpunt (CB) raumförmig ist, wobei er beispielsweise auch bei zum ersten Bereich (A1) reichen kann, handelt es sich eher um einen Neutralbereich (CB'). (siehe 8) In diesem Fall kann der neutrale Bereich (CB') von einem vierten Bereich (Bup) auf der einen Seite flankiert sein, bei dem der Zählwert erhöht wird, wenn sich beispielsweise eine Hand in diesem Bereich befindet, und von einem fünften Bereich (Bdown) auf der anderen Seite flankiert sein, bei dem der Zählwert durch die Vorrichtung erniedrigt wird, wenn sich beispielsweise eine Hand in diesem Bereich befindet, (Siehe 8) Dabei überlappen typischerweise der neutrale Bereich (CB') und der vierte (Bup) und fünfte Bereich (Bdown) die zuerst genannten mindestens drei Bereiche (A1, A2, A3) (siehe 9 und 8 im Vergleich).
  • Der neutrale Bereich (CB') und/oder der Neutralpunkt (CB) unterscheiden das erfindungsgemäße Verfahren in einer Ausprägung vom Stand der Technik, insbesondere von der DE 10 2009 019 910 A1 , die sich nur mit Berührungsgesten befasst und daher keinen räumlichen Neutralpunkt (CB) und/oder einen neutralen Punkt (CB') oberhalb des Gestenerkenners aufweist.
  • Slide-(S) oder Gleit-Gesten
  • Die Slide-Geste (S) (siehe 7) ist eine mögliche Erweiterung, die gewissermaßen auch als Ausgleich dafür angesehen werden könnte, dass es beim dem hier beschriebenen Konzept einer erfindungsgemäßen Vorrichtung keine Wisch- oder Wipe-Geste (W) in Längsrichtung gibt, da die Hand an die Armlehne (403) gebunden ist.
  • Wenn bei einer Anwendung noch ein weiterer Freiheitsgrad in der Eingabe benötigt werden sollte, stellt die Slide-Geste (S) eine mögliche Lösung dieses Problems dar. Man erhält dadurch noch eine zweite Ebene für Wisch- oder Wipe-Gesten in der Nähe der Oberfläche des Sensors (OTGS) oder im Extremfall auf dieser, die sich eindeutig und sicher von der ”normalen” Erkennung von Wisch- oder Wipe-Gesten (W) unterscheiden lässt. Bei einer Slide-Geste (S) wird entweder mit der ganzen Hand bzw. allen Fingern flach über den Sensor (OTGS) gestrichen oder auch nur mit drei, zwei Fingern oder einem einzigen Finger. Wichtig ist in jedem Fall die Unterschreitung der ersten Abstands (A1) zur Oberfläche des Sensors (OTGS) im empfindlichen Touch-Bereich der 2D-Messchleife (405) und die komplette Durchführung der Bewegung von einer Seite des Sensors (OTGS) zur anderen.
  • Abschließendes zur Bedienphilosophie
  • Der überschaubare Befehlsumfang des Sensors (OTGS) sollte zu möglichst kurzen Befehlssequenzen und für die am einfachsten zu realisierenden Steuerfunktionen zusammengebaut werden, um eine einfache, sichere Bedienung zu gewährleisten, die in einem fahrenden Auto mit einer sehr guten Erkennungswahrscheinlichkeit ausgewertet werden kann.
  • Für den Fall, dass längere Menülisten implementiert werden sollen, können diese durch eine entsprechende Darstellung in einem gut einsehbaren Display unterstützt werden, um den Bediener, der meistens der Fahrer ist, mit der notwendigen Übersicht auszustatten.
  • Die Ausführung einer korrekten/gültigen Geste wird begünstigt durch die Tatsache, dass eine sehr gute räumliche Zuordnung zwischen der steuernden Hand und dem Sensor (OTGS) durch die Armlehne (403) gegeben ist. Mit anderen Worten, die Hand des Bedieners befindet sich automatisch in der richtigen Position relativ zum Sensor, so dass dieser auch ”blind” gefunden und ausreichend präzise bedient wird. Als richtige Position kann intuitiv eine Positionierung am Neutralpunkt (CB) und im zweiten Bereich (A2) angesehen werden.
  • Dies ist vor allem dadurch gegeben, dass der Ellenbogen stets in Kontakt zur Armlehne (403) steht. Selbst Fliehkräfte und unebene Straßen sollten den abgestützten Unterarm in seiner Bewegungsausführung nicht wesentlich stören können.
  • Messobjekt-Kalibrierung
  • Ein grundsätzliches Problem bei einer Gestensteuerung, die auf der Messung der Reflektion beruht, sind stark unterschiedliche Reflektionsgrade des Messobjekts. Also typischerweise der Hand oder der Finger. Insbesondere schlecht oder sehr schlecht reflektierende Handschuhe im IR-Spektrum erfordern teilweise erhebliche Maßnahmen, damit der Sensor (OTGS) auch damit noch bedienbar bleibt.
  • Da beim hier vorgestellten Konzept einer erfindungsgemäßen Vorrichtung am Anfang jeder Bediensequenz eine Berührungsgeste (ST, DT, TT, MT) steht, ist dieser Sensor (OTGS) in jedem Fall in der Lage, den Reflexionsgrad des Messobjekts, sei es den einer Hand mit oder ohne Handschuh auszumessen, da bei einer Berührungsgeste die Distanz des Messobjekts stets bekannt bzw. definiert ist, da sie extrem klein oder Null ist . Hierbei kann beispielsweise eine technische Lehre wie die der DE 10 2005 045 993 B4 angewendet werden.
  • Daher ist es möglich, diesen unbekannten Faktor der Reflektivität der Hand in weiten Grenzen auszugleichen.
  • Während einer Berührungsgeste (S, ST, DT, TT, MT) wird also durch eine 2D-Messschleife (405) ein Parameter der Hand oder des berührenden Objekts, beispielsweise des Handschuhs, vermessen und anschließend zur Kalibrierung der 3D-Messschleifen (401, 402, 406, 408) der Gestenerkennungsvorrichtung benutzt.
  • Prinzipielle Grenzen dabei setzt eigentlich nur der optische Hintergrund in der typischen Anwendung, dem Auto, der in der Regel als gut reflektierend angenommen werden kann, was für die Gestenerkennung nicht optimal ist. Bei einer relativ hohen Grundkopplung zwischen einem Sender und einem Empfänger z. B. durch einen sehr hellen Fahrzeughimmel im Fahrzeugdach, kann es sein, dass ein sehr schwach reflektierender schwarzer Lederhandschuh eine Signalabschwächung im Messsignal erzeugt und keine, eigentlich erwartete Signalverstärkung, auf die ein reflektives Gestik-Messverfahren üblicherweise ausgelegt ist.
  • Abhilfe kann hier die Ausrichtung der Sendestrahlen der 3D-Messschleifen (401, 408, 402, 406) auf Bereiche in der Fahrgastzelle bieten, die wenig bis sehr wenig zum Sensor (OTGS) zurückreflektieren. Geeignet ist hierfür beispielsweise der Bereich der Windschutzscheibe. Die Ebene, in der die diesbezüglich entscheidenden Senderkeulen der 3D-Messschleifen (401, 402, 406, 408) liegen, muss dafür allerdings weit nach vorne geneigt werden können, sodass im Wesentlichen nur die klare/freie Windschutzscheibe angestrahlt bzw. durchstrahlt wird.
  • Die deutliche Neigung der Senderkeulen der 3D-Messschleifen (401, 402, 406, 408) nach vorne wäre der Erkennung der Wisch- oder Wipe-Gesten (W) sogar zuträglich, da die Rücklauf-/Ausholbewegungen im dritten Bereich (A3) durch diese Neigung aufgrund des geometrischen Zusammenhangs zusätzlich unterdrückt wären.
  • Bei dem Einstellen von Zahlenwerten (CNT) sollte der Sendestrahl der dritten 3D-Messschleife (406, 408) nach wie vor etwa senkrecht nach oben ausgerichtet sein, damit die angehobene Hand immer noch diesen Strahl beeinflussen kann. Ggf. können weitere 3D-Messschleifen vorgesehen werden. Dies ist im Gegensatz zum vorhergesagten möglich, da es bei dieser Funktion weniger auf die zuvor erwähnte Grundkopplung durch die Fahrzeugdecke ankommt, weil während des gesamten Einstellprozesses vor allem die Bedienerhand erfasst werden muss.
  • Die hier kurz beschriebenen Maßnahmen zur optimalen Auswertung von ungünstigen Handschuhen werden sich aber erfahrungsgemäß nicht bei jedem Fahrzeugtyp optimal umsetzen lassen.
  • Somit gewänne die Erkennung von Slide-Gesten (S) (als ”kleiner Ersatz” für die Erkennung von Wipe-Gesten (W)) wiederum merklich an Bedeutung, denn Sie könnte das ”Notprogramm” für die Bedienung mit schlecht reflektierenden Handschuhen bereitstellen. Das liegt daran, dass eine 2D-Messschleife zur Erkennung von Touch-Gesten (ST, DT, TT, MT) und Slide-Gesten (S) praktisch keine nennenswerte ”Reichweite” hat und damit von einem stark reflektierenden Hintergrund in (etwas) größerer Entfernung praktisch unabhängig ist. Im Übrigen, wären die Sendekeulen der 2D-Messschleifen zur Touch-Gesten-Erkennung, insofern man überhaupt von ”Keulen” sprechen kann, noch am leichtesten optimal auf die Windschutzscheibe auszurichten.
    Der Gestenerkenner kann also so gestaltet werden, dass durch eine Mehrfachquasiberührung (MT) ein Notprogramm des Gestenerkennungsvorrichtung aktiviert werden kann, welches Funktionen zur Verfügung stellt, die vor dem Ausführen der besagten Mehrfachquasiberührung (MT) eine räumliche Geste erforderten. Eine solche räumliche Geste ist in diesem Sinne eine Geste, die im zweiten Bereich (A2) ausgeführt wird. Diese räumliche Geste ist dann nach dem Ausführen der besagten Mehrfachquasiberührung (MT) nicht mehr erforderlich.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 10015960 A1 [0003, 0007]
    • DE 102009019910 A1 [0003, 0004, 0004, 0004, 0134]
    • DE 102012000201 A1 [0005]
    • DE 102012010627 A1 [0022, 0022, 0022, 0022, 0022, 0022, 0022, 0022, 0022, 0023, 0023, 0023, 0030, 0030]
    • US 20050210419 A1 [0068, 0069, 0070]
    • EP 1435509 B1 [0085, 0089, 0108]
    • US 7456815 B2 [0085]
    • DE 102013005787 [0088, 0103]
    • EP 1410507 B1 [0089, 0093, 0093]
    • DE 102005045993 B4 [0089, 0091, 0091, 0142]
    • DA 102006020570 A1 [0090, 0107]
    • EP 1269629 B1 [0093]
    • DE 102012010627 [0094, 0094]
    • DE 102013000376 [0094]
    • DE 102013002674 [0094]
    • DE 102013213162 [0094]
    • DE 102013002676 [0094]
    • DE 10211307 [0094]
    • EP 2011/059598 [0094]
    • DE 10300223 [0094]
    • DE 101338236 [0094]
    • DE 10300224 [0094]
    • EP 10168569 [0094]
    • DE 102006020570 [0094]
    • DE 102006003269 [0094]
    • DE 102013003791 [0103]
    • DE 102006020570 A1 [0105, 0105]
    • EP 2016480 B1 [0113]

Claims (41)

  1. Gestenerkennungsverfahren, – wobei ein Feature-Vektor durch eine Gestenerkennungsvorrichtung auf der Basis von Sensor-Messwerten von Sensoren, die Teil der Gestenerkennungsvorrichtung sind, ermittelt und bewertet wird und – wobei im Rahmen dieser Bewertung durch die besagte Gestenerkennungsvorrichtung zumindest ein erster Zahlenwert ermittelt wird, und – wobei eine Geste und/oder ein Gestenbefehl erkannt und eine zu steuernde Vorrichtung entsprechend gesteuert wird, – wobei das Gestenerkennungsverfahren in Form einer vordefinierten Zustandsfolge (100104, 200205, 300305) erfolgt, – wobei bei Erkennen eines entsprechenden Gestenbefehls durch die Gestenerkennungsvorrichtung diese von einen Zustand in einen anderen Zustand wechselt und – wobei die Gestenerkennungsvorrichtung in jedem Zustand die Gestenerkennung unter Zuhilfenahme mindestens eines ersten Gestenerkennungsparameters durchführt, dadurch gekennzeichnet, – dass es sich bei dem mindestens einen ersten Gestenerkennungsparameter um einen Schwellwert handelt, mit dem das Ergebnis der Bewertung des Feature-Vektors, der erste Zahlenwert, durch die Gestenerkennungsvorrichtung verglichen wird und – dass der mindestens eine erste Gestenerkennungsparameter für mindestens zwei Zustände (100104) durch die Gestenerkennungsvorrichtung unterschiedlich eingestellt wird und – dass bei dem besagten Vergleich durch die Gestenerkennungsvorrichtung ein zweiter Zahlenwert, der auch binär sein kann, ermittelt wird und – dass von dem zweiten Zahlenwert abhängt, ob eine Geste durch die Gestenerkennungsvorrichtung als erkannt oder nicht erkannt bewertet wird.
  2. Gestenerkennungsverfahren, – wobei mittels einer Gestenerkennungsvorrichtung der Abstand eines Gestenerkennungsobjektes, insbesondere einer Hand und/oder eines anderen Körperteils zu einem Sensor (OTGS) einer Gestenerkennungsvorrichtung ermittelt und bewertet wird und – wobei im Rahmen dieser Bewertung zumindest ein erster Zahlenwert ermittelt wird, und – wobei eine Geste und/oder ein Gestenbefehl nur erkannt und eine zu steuernde Vorrichtung entsprechend gesteuert wird, wenn der Zahlenwert innerhalb eines vordefinierten zweiten Intervalls liegt, wobei die Grenzen des vordefinierten Intervalls durch zweite Gestenerkennungsparameter definiert werden, und – wobei diese Grenzen auch unendlich und Null einschließen können und – wobei das Gestenerkennungsverfahren in Form einer vordefinierten Zustandsfolge (100104, 200205, 300305) erfolgt, – wobei bei Erkennen eines entsprechenden Gestenbefehls von einen Zustand in einen anderen Zustand gewechselt wird und in jedem Zustand die Gestenerkennung gemäß mindestens einem zweiten Gestenerkennungsparameter durchgeführt wird, dadurch gekennzeichnet, – dass es sich bei mindestens einen zweiten Gestenerkennungsparameter um mindestens eine Grenze des besagten zweiten Intervalls handelt, wobei durch die Gestenerkennungsvorrichtung geprüft wird, ob das Ergebnis der Bewertung des Abstands, der erste Zahlenwert, innerhalb dieses Intervalls liegt und – dass der zweite Gestenerkennungsparameter in mindesten zwei Zuständen (100104) unterschiedlich durch die Gestenerkennungsvorrichtung eingestellt wird.
  3. Gestenerkennungsverfahren, – wobei mittels einer Gestenerkennungsvorrichtung der Aufenthalt eines Gestenerkennungsobjektes, insbesondere einer Hand und/oder eines anderen Körperteils, in einem vorbestimmten Raumwinkelsegent bezogen auf den Ort eines Sensors (OTGS) der Gestenerkennungsvorrichtung als Koordinatenursprung eines sphärischen Koordinatensystems und oder eine Winkelkoordinate dieses Gestenerkennungsobjektes ermittelt und bewertet wird und – wobei im Rahmen dieser Bewertung zumindest ein erster Zahlenwert ermittelt wird, und – wobei eine Geste und/oder ein Gestenbefehl nur erkannt und eine zu steuernde Vorrichtung entsprechend gesteuert wird, wenn der Zahlenwert innerhalb eines vordefinierten dritten Intervalls liegt, wobei die Grenzen des vordefinierten Intervalls durch dritte Gestenerkennungsparameter definiert werden, und – wobei die Grenzen auch 360° und 180° und Null einschließen können und – wobei das Gestenerkennungsverfahren in Form einer vordefinierten Zustandsfolge (100104, 200205, 300305) erfolgt, – wobei bei Erkennen eines entsprechenden Gestenbefehls von einen Zustand in einen anderen Zustand gewechselt wird und in jedem Zustand die Gestenerkennung gemäß mindestens einem dritten Gestenerkennungsparameter durchgeführt wird, dadurch gekennzeichnet, – dass es sich bei mindestens einen dritten Gestenerkennungsparameter um mindestens eine Grenze des besagten dritten Intervalls handelt, wobei durch die Gestenerkennungsvorrichtung geprüft wird, ob das Ergebnis der Bewertung des Abstands, der erste Zahlenwert, innerhalb dieses dritten Intervalls liegt und – dass der dritte Gestenerkennungsparameter in mindesten zwei Zuständen (100104) unterschiedlich durch die Gestenerkennungsvorrichtung eingestellt wird.
  4. Gestenerkennungsverfahren nach einem oder mehreren der vorhergehenden Ansprüche, dadurch gekennzeichnet, – dass in mindesten einem Zustand (100104, 201205, 301305) – eine zweidimensionale Quasiberührungsgeste durch die Gestenerkennungsvorrichtung erwartet wird oder – eine Bewegung oder ein Bewegungsmuster einer Sensoreinheit durch die Gestenerkennungsvorrichtung erwartet wird.
  5. Gestenerkennungsverfahren nach einem oder mehreren der vorhergehenden Ansprüche dadurch gekennzeichnet, dass in mindesten einem Zustand (100104, 201205, 301305) durch die Gestenerkennungsvorrichtung eine dreidimensionale berührungsfreie Geste erwartet wird.
  6. Gestenerkennungsverfahren nach einem oder mehreren der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Gestenerkennungsparameter zur entsprechenden zustandsindividuellen Einstellung einer ersten Gestenerkennungsrate (FAR) für zumindest zwei Zustände (100104, 200205, 300305) durch die Gestenerkennungsvorrichtung unterschiedlich eingestellt wird, wobei die erste Gestenerkennungsrate (FAR) ein Maß dafür ist, wie viele Gestenbefehle als solche erkannt werden, obwohl sie nicht zu einem dem durch die Gestenerkennungsvorrichtung durchgeführten Gestenerkennungsverfahren zugrundeliegenden Gestenerkennungsvokabular gehören.
  7. Gestenerkennungsverfahren nach einem oder mehreren der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens ein Gestenerkennungsparameter zur entsprechenden zustandsindividuellen Einstellung einer zweiten Gestenerkennungsrate (FRR) für mindestens zwei Zustande (100104, 200205, 300305) unterschiedlich eingestellt wird, wobei die zweite Gestenerkennungsrate (FRR) ein Maß dafür ist, wie viele Gestenbefehle durch die Gestenerkennungsvorrichtung nicht erkannt werden, obwohl sie zu einem dem durch die Gestenerkennungsvorrichtung durchgeführten Gestenerkennungsverfahren zugrundeliegenden Gestenerkennungsvokabular gehören.
  8. Gestenerkennungsverfahren nach einem oder mehreren der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in mindestens einem ersten Zustand (100) auf eine dargestellte Geste zur Aktivierung der Gestenerkennung durch die Gestenerkennungsvorrichtung gewartet wird, und dass nach Erkennen der dargestellten Geste durch die Gestenerkennungsvorrichtung die Gestenerkennungsvorrichtung von einem ersten Zustand (100, 200, 300) in einen weiteren ersten Zustand (201, 301) oder in mindestens einen zweiten Zustand (101103, 202204, 301305) wechselt, in dem die Gestenerkennungsvorrichtung auf einen Gestenbefehl zur Auswahl und/oder Einstellung eines Parameters der zu steuern den Vorrichtung wartet.
  9. Gestenerkennungsverfahren nach Anspruch 6 und einem oder mehreren der anderen vorausgehenden Ansprüche dadurch gekennzeichnet, dass die erste Gestenerkennungsrate (FAR) in dem ersten Zustand (100, 200, 201, 300, 301) auf einen ersten Wert und in dem zweiten Zustand (101–103, 202204, 302304) auf einen zweiten Wert durch die Gestenerkennungsvorrichtung durch Änderung eines Gestenerkennungsparameters eingestellt wird, wobei der erste und zweite Wert für die erste Gestenerkennungsrate (FAR) derart gewählt werden, dass die Rate der Gestenbefehle, die in dem jeweiligen Zustand als solche erkannt werden, obwohl sie nicht zu dem Gestenerkennungsvokabular gehören, in dem ersten Zustand (100, 200, 201, 300, 301) kleiner als in dem zweiten Zustand (101103, 202204, 302304) ist.
  10. Gestenerkennungsverfahren nach Anspruch 7 und einem oder mehreren der anderen vorausgehenden Ansprüche , dadurch gekennzeichnet, dass die zweite Gestenerkennungsrate (FRR) in dem ersten Zustand (100, 200, 201, 300, 301) auf einen ersten Wert und in dem zweiten Zustand (101103, 202204, 302304) auf einen zweiten Wert durch die Gestenerkennungsvorrichtung durch Änderung eines Gestenerkennungsparameters eingestellt wird, wobei der erste und zweite Wert für die zweite Gestenerkennungsrate (FRR) derart gewählt werden, dass die Rate der Gestenbefehle, die in dem jeweiligen Zustand nicht erkannt werden, obwohl sie zu dem Gestenerkennungsvokabular gehören, in dem ersten Zustand (100) grösser als in dem zweiten Zustand (101–103, 202204, 302304) ist.
  11. Gestenerkennungsverfahren nach Anspruch 8 und Anspruch 3, dadurch gekennzeichnet, dass der dritte Gestenerkennungsparameter in dem ersten Zustand (100, 200, 201, 300, 301) auf einen ersten Wert und in dem zweiten Zustand (101103, 202204, 302304) auf einen zweiten Wert durch die Gestenerkennungsvorrichtung eingestellt wird, wobei der erste und zweite Wert für den dritten Gestenerkennungsparameter derart gewählt werden, dass die Gesten in einem geringeren Abstand zur Gestenerkennungsvorrichtung und/oder in Kontakt zur Bedienfläche des Gestenerkennungsvorrichtung ausgeführt werden müssen als in dem zweiten Zustand (101–103, 202204, 302304).
  12. Gestenerkennungsverfahren nach einem der Ansprüche 8 bis 11, dadurch gekennzeichnet, dass bei Erkennen einer dargestellten Schlussgeste, welche das Ende der Gestensteuerung für die zu steuernde Vorrichtung bezeichnet, oder bei Erkennen einer vorgegebenen Folge von Gestenbefehlen durch die Gestenerkennungsvorrichtung die Gestenerkennungsvorrichtung von dem zweiten Zustand (101–103, 202204, 302304) wieder in den ersten Zustand (100, 200, 300) wechselt.
  13. Gestenerkennungsverfahren nach einem oder mehreren der vorhergehenden Ansprüche wobei von dem jeweiligen Zustand (100104, 201205, 301305) der Gestenerkennungsvorrichtung abhängig ist, ob zweidimensionale Berührungsgesten und/oder zweidimensionale Quasiberührungsgesten und/oder dreidimensionale Gesten und/oder Bewegungen oder Bewegungsmuster einer Sensoreinheit und/oder ein Schlüsselwort zur Erkennung durch einen Spracherkenner durch die Gestenerkennungsvorrichtung erwartet werden und wobei in mindestens einem Zustand eine drei-dimensionale Geste ohne Berührung des Erkenners erwartet wird und wobei in jedem Zustand mindestens eine zweidimensionale Berührungsgeste und/oder zweidimensionale Quasiberührungsgeste und/oder dreidimensionale Geste und/oder Bewegung oder Bewegungsmuster einer Sensoreinheit und/oder ein Schlüsselwort zur Erkennung durch einen Spracherkenner erwartet werden
  14. Gestenerkennungsverfahren nach einem oder mehreren der vorhergehenden Ansprüche dadurch gekennzeichnet, dass von dem jeweiligen Zustand (100104, 201205, 301305) des Gestenerkennungssystems abhängig ist, ob Signale weiterer Sensoren und/oder Schalter zusätzlich zu einer Geste erwartet werden. Gestenerkennungsverfahren nach einem oder mehreren der vorhergehenden Ansprüche dadurch gekennzeichnet, dass in mindestens einem Zustand eine optische und/oder akustische und/oder haptische Rückmeldung an den Bediener erfolgt, dass die Gestenerkennung sich in diesem Zustand befindet, wobei diese Signalisierung in unterschiedlichen Zuständen unterschiedlich oder auch in einzelnen Zuständen nicht erfolgen kann.
  15. Gestenerkennungsverfahren nach einem oder mehreren der vorhergehenden Ansprüche dadurch gekennzeichnet, dass für die Erkennung mindestens eines Gesten- und/oder Sprachbefehls in mindestens einem Zustand ein Zeitfenster vorgesehen ist innerhalb dessen ein erwarteter Gesten- und/oder Sprachbefehl durch die Gestenerkennungsvorrichtung erkannt worden sein muss, um in einen nachfolgenden Zustand der Gestenerkennungsvorrichtung zu gelangen.
  16. Gestenerkennungsverfahren dadurch gekennzeichnet, – dass mindestens eine Doppel- (DT) und/oder Dreifachquasiberührung (TT) und/oder Mehrfachquasiberührung (MT) verwendet wird, – wobei eine Doppelquasiberührung (DT) eine Einfachquasiberührung (ST) gefolgt von einer zweiten Einfachquasiberührung (ST) innerhalb von weniger als 1 s oder 0,5 s oder 250 ms oder 100 ms ist und – wobei eine Dreifachquasiberührung (TT) eine Doppelquasiberührung (DT) gefolgt von einer dritten Einfachquasiberührung (ST) innerhalb von weniger als 1 s oder 0,5 s oder 250 ms oder 100 ms ist und – wobei eine Mehrfachquasiberührung (MT) eine Folge von mindestens zwei Einfachquasiberührungen (ST) ist wobei eine nachfolgende Einzelquasiberührung (ST) der vorausgehenden Einzelquasiberührung (ST) innerhalb von weniger als 1 s oder 0,5 s oder 250 ms oder 100 ms folgen muss und – wobei die erwarteten zeitlichen Abstände zwischen je zwei Einzelquasiberührungen (ST) einer Mehrfachquasiberührung (MT) auch einen zeitlichen Mindestabstand aufweisen können, der mehr als 0,5 s oder 250 ms oder 100 ms oder 50 ms betragen kann und – wobei die erwarteten zeitlichen Mindestabstände und/oder zeitlichen Minimalabstände, d. h. der erwartete Rhythmus, zwischen je zwei verschiedenen Paaren von je zwei Einzelquasiberührungen (ST) einer Mehrfachquasiberührung (MT) unterschiedlich sein können und – wobei diese Quasiberührungen keinen direkten Kontakt zu einer Oberfläche eines Sensors erfordern und in einem Abstand kleiner als ein erster Abstand (A1) vom Sensor ausgeführt werden, und – wobei insbesondere eine Doppelt- (DT) und/oder Dreifachquasiberührung (TT) und/oder Mehrfachquasiberührung (MT) mit oder ohne Rhythmus für die Selektion mindestens einer Funktion und/oder eines Geräts und/oder eines Parameters oder mehrerer verschiedener Funktionen und/oder Geräte und/oder Parameter eines zu bedienenden Gerätes oder von Systemzuständen, die einzustellen sind, optional verwendet werden kann.
  17. Gestenerkennungsverfahren nach Anspruch 16 – wobei das Objekt oder eine Hand, das die Geste ausführt, einen Teilbereich (CB') oder einen Punkt (CB) im Raumbereich vor einem Sensorelement einer Gestenerkennungsvorrichtung durchläuft bevor – durch eine Doppelquasiberührung (DT) und/oder – durch eine Dreifachquasiberührung (TT) und/oder – durch eine Mehrfachquasiberührung (MT) mit oder ohne einen vorgegebenen Rhythmus als Schlussgeste (104, 205) oder Schlussformel (305) eine Zustandsfolge (101.104, 201205, 301305) der Gestenerkennungsvorrichtung abgeschlossen wird oder als Schlüsselgeste (101, 201) oder Schlüsselformel (301) die Fortführung einer Zustandsfolge (101.104, 201205, 301305) der Gestenerkennungsvorrichtung zugelassen wird.
  18. Gestenerkennungsvorrichtung mit Objekterfassungsmitteln und/oder Sensoren und/oder einem Sensorsystem (1) und/oder einem Sensor-Array zum Erfassen mindestens eines Signals, dass den Aufenthalt eines Gestenerkennungsobjekts, insbesondere einer Bedienerhand oder eines anderen Körperteils zu der Gestenerkennungsvorrichtung und/oder eines Teils derselben, in einem vorbestimmten Raumwinkelsegment und/oder einen Koordinatenwinkel eines sphärischen Koordinatensystems in Form eines ersten Messwertes messen kann, und mit Gestenerkennungsmitteln (3), dadurch gekennzeichnet, – dass die Gestenerkennungsvorrichtung mindestens einen ersten Raumwinkelbereich und einen zweiten Raumwinkelbereich bezogen auf einen Punkt der mechanischen Fixierung, für nicht berührende Gesten verwendet, wobei Gesten, die im zweiten Raumwinkelbereich ausgeführt werden, als Gesten erkannt werden und – dass Gesten, die im ersten Raumwinkelbereich ausgeführt werden als Gesten durch die Gestenerkennungsvorrichtung ignoriert werden, wenn sie nicht gleichzeitig im zweiten Raumwinkelbereich ausgeführt werden, und – dass der zweite Raumwinkelbereich von dem ersten Raumwinkelbereich umfasst wird und – dass die Grenzen zwischen dem ersten Raumwinkelbereich und dem zweiten Raumwinkelbereich durch dritte Gestenparameter festgelegt sind.
  19. Gestenerkennungsvorrichtung mit Objekterfassungsmitteln und/oder Sensoren und/oder einem Sensorsystem (1) und/oder einem Sensor-Array zum Erfassen mindestens eines Signals, dass den Abstand eines Gestenerkennungsobjekts, insbesondere einer Bedienerhand oder eines anderen Körperteils zu der Gestenerkennungsvorrichtung und/oder eines Teils derselben messen kann, und mit Gestenerkennungsmitteln (3), dadurch gekennzeichnet, – dass die Gestenerkennungsvorrichtung mindestens zwei Entfernungsbereiche, einen zweiten (A2) und einen dritten Bereich (A3) bezogen auf einen Punkt der mechanischen Fixierung, für nicht berührende Gesten verwendet, wobei Gesten, die im zweiten Bereich (A2) ausgeführt werden, als Gesten erkannt werden und – dass Gesten, die im dritten Bereich (A3) ausgeführt werden als Gesten durch die Gestenerkennungsvorrichtung ignoriert werden und – dass der zweite Bereich (A2) sich von der Oberfläche des Sensors (OTGS) oder ersatzweise der ersten Grenze eines optionalen ersten Bereichs (A1), in dem die Gesten als Berührungsgesten (S, ST, TT, DT, MT) interpretiert würden oder wo eine Berührung einer Oberfläche stattfindet, bis zu mindestens einer zweiten Grenze erstreckt und – dass der dritte Bereich (A3) sich von mindestens einer zweiten Grenze, die mit der vorgenannten zweiten Grenze nicht identisch sein muss, zumindest bis zu der Entfernung erstreckt, in der technisch keine Erkennung durch die Gestenerkennungsvorrichtung mehr möglich ist und – dass sich der optionale erste Bereich (A1) und der zweite Bereich (A2) und der dritte Bereich (A3) nicht überlappen und – wobei die besagten Grenzen der Bereiche (A1, A2, A3) die zweiten Gestenerkennungsparameter darstellen.
  20. Gestenerkennungsvorrichtung mit Objekterfassungsmitteln und/oder Sensoren und/oder einem Sensorsystem (1) und/oder einem Sensor-Array zum Erfassen mindestens eines Signals, und mit Gestenerkennungsmitteln (3) die einen Feature-Vektor ermitteln und bewerten, wobei zumindest ein erster Zahlenwert ermittelt wird, zum Erkennen eines in einem und/oder mehreren erfassten Signalen enthaltenen Gestenbefehls und zum Umsetzen des erkannten Gestenbefehls in mindestens ein entsprechendes Steuersignal für mindestens eine zu steuernde Vorrichtung, wobei die Gestenerkennungsmittel (3) derart ausgestaltet sind, dass sie die Gestenerkennung in Form einer vordefinierten Zustandsfolge (100104, 200205, 300305) durchführen und bei Erkennen eines entsprechenden Gestenbefehls von einen Zustand in einen anderen Zustand wechseln, wobei die Gestenerkennungsmittel (3) die Gestenerkennung in jedem Zustand gemäß mindestens einem ersten Gestenerkennungsparameter durchführen, dadurch gekennzeichnet, – dass der erste Gestenerkennungsparameter für mindestens zwei Zustande (100104, 200205, 300305) auf unterschiedliche Werte durch die Gestenerkennungsvorrichtung eingestellt wird und – dass es sich bei dem ersten Gestenerkennungsparameter um einen Schwellwert handelt, mit dem die Gestenerkennungsmittel (3) das Ergebnis der Bewertung des Feature-Vektors, den ersten Zahlenwert, vergleichen und – dass die Gestenerkennungsmittel (3) bei diesem Vergleich einen zweiten Zahlenwert, der auch binär sein kann, ermitteln und – dass von dem zweiten Zahlenwert abhängt, ob die Gestenerkennungsmittel (3) eine Geste als erkannt oder nicht erkannt bewerten.
  21. Gestenerkennungsvorrichtung nach einem oder mehreren der Ansprüche 18 bis 20 dadurch gekennzeichnet, – dass die Gestenerkennungsvorrichtung mit einer mechanischen Fixierung, insbesondere eine Armlehne (403) oder eine andere mechanische Vorrichtung zur Reduktion der Bewegungsfreiheiten des Gesteneingabeobjekts, mechanisch verbunden ist.
  22. Gestenerkennungsvorrichtung nach einem oder mehreren der Ansprüche 18 bis 20, dadurch gekennzeichnet, dass mindestens ein Gestenerkennungsparameter in mindestens zwei Zuständen (100104, 200205, 300305) einen unterschiedlichen Wert aufweist.
  23. Gestenerkennungsvorrichtung nach Anspruch 21, dadurch gekennzeichnet, dass Programmiermittel (4) zum Programmieren mindestens eines Gestenerkennungsparameters auf einen für einen einzelnen Zustand (100104, 200205, 300305) vorgesehenen Wert vorhanden sind.
  24. Gestenerkennungsvorrichtung nach einem oder mehreren der Ansprüche Anspruch 18 bis 23, dadurch gekennzeichnet, dass die Gestenerkennungsvorrichtung (7) bzw. die Gestenerkennungsmittel (3) der Gestenerkennungsvorrichtung (7) zur Durchführung des Verfahrens nach einem der Ansprüche 1–17 ausgestaltet sind.
  25. Gestenerkennungsvorrichtung nach einem oder mehreren der Ansprüche 18 bis 24 dadurch gekennzeichnet, dass dem Bediener einer solchen Gestenerkennungsvorrichtung durch die Vorrichtung selbst oder eine mit dieser verbundenen Vorrichtung mindestens eine akustische oder optische Rückmeldung gegeben wird wenn sich das Gestenerkennungssystem in mindestens einen anderen Zustand als einem ersten Zustand (100, 200, 201, 300, 301) befindet, wobei die Meldungen für verschiedene Zustände verschieden sein können.
  26. Gestenerkennungsvorrichtung nach einem oder mehreren der Ansprüche 18 bis 25, mindestens aber Anspruch 19, – wobei für den Fall, dass die die Gesten mit der Bedienerhand ausgeführt werden, ein Anheben der Hand um einen Winkel um mehr als 30° einen sicheren Wechsel der Hand vom zweiten Bereich (A2) in den dritten Bereich (A3) darstellt, wenn bei diesem Vorgang der zur Hand gehörige Unterarm auf der mechanischen Vorrichtung (403) aufliegt und die Hand sich zu Beginn im zweiten Bereich (A2) befindet.
  27. Gestenerkennungsvorrichtung nach einem oder mehreren der Ansprüche 18 bis 26, mindestens aber Anspruch 19, – wobei in einem ersten Entfernungsbereich (A1) im Nahbereich des erfindungsgemäßen Systems in dem die Gesten als Quasiberührungs(ST, DT, TT, MT) oder Gleitgesten (S) erkannt werden.
  28. Gestenerkennungsvorrichtung nach einem oder mehreren der Ansprüche 18 bis 27, mindestens aber Anspruch 19, – wobei der Abstand einer Hand zum Sensor (OTGS) sich bei einem Schwenk um 45° von unten nach oben um einen Faktor von mehr als zwei und/oder drei ändert wenn bei diesem Vorgang der zur Hand gehörige Unterarm auf der mechanischen Vorrichtung (403) aufliegt und die Hand sich zu Beginn im zweiten Bereich (A2) befindet.
  29. Gestenerkennungsvorrichtung nach einem oder mehreren der Ansprüche 18 bis 28, mindestens aber Anspruch 18, – wobei sie mindestens zwei 3D-Messschleifen zur Erkennung von Wisch- oder Wipe-Gesten in einem zweiten Bereich (A2) aufweist und – die Sendekeulen dieser 3D-Messchleifen auf eine transparente Fläche mit einer Transparenz größer 50% oder größer 75% oder größer 90% oder dunkle Fläche mit einem Reflektionsgrad kleiner 50% oder kleiner 25% oder kleiner 10% ausgerichtet ist.
  30. Gestenerkennungsvorrichtung nach einem oder mehreren der Ansprüche 18 bis 29, mindestens aber Anspruch 18, – wobei sie mindestens zwei 3D-Messschleifen (401, 402) zur Erkennung von Wisch- oder Wipe-Gesten in einem zweiten Bereich (A2) aufweist und – wobei sie mindestens eine dritte 3D-Messschleife zur Einstellung eines Zahlwertes aufweist.
  31. Gestenerkennungsvorrichtung nach einem oder mehreren der Ansprüche 18 bis 30, mindestens aber Anspruch 18, – wobei sie mindestens zwei 3D-Messschleifen (401, 402) zur Erkennung von Wisch- oder Wipe-Gesten in einem zweiten Bereich (A2) aufweist und – wobei sie über eine Teilvorrichtung verfügt, die eine Annäherungsgeschwindigkeit eines eine Geste ausführenden Objekts oder einer Hand aus den Messwerten mindestens zwei der besagten 3D-Messschleifen ermittelt und – wobei sie den Betrag dieser Annäherungsgeschwindigkeit mit einem Sollwert vergleicht
  32. Gestenerkennungsvorrichtung nach Anspruch 31 – wobei sie bei Unterschreiten eines ersten Sollwertes ein Verharren feststellt und – wobei diese Feststellung vom Vorzeichen der Annäherungsgeschwindigkeit abhängig sein kann und – wobei diese Feststellung zu einer Änderung des Zustands der Gestenerkennungsvorrichtung führt.
  33. Gestenerkennungsvorrichtung nach Anspruch 31 und/oder Anspruch 32 wobei eine Änderungsgeschwindigkeit oberhalb eines zweiten Sollwertes nicht zu einer Änderung des Zustands der Gestenerkennungsvorrichtung führt.
  34. Gestenerkennungsvorrichtung nach einem oder mehreren der Ansprüche 18 bis 33, mindestens aber Anspruch 18, – wobei sie mindestens drei 3D-Messschleifen (401, 402, 406, 408) zur Erkennung von Wisch- oder Wipe-Gesten in einem zweiten Bereich (A2) aufweist und – wobei sie über eine Teilvorrichtung verfügt, die einen Zählerstand durch fortlaufendes Zählen ermittelt und – wobei Zählrichtung und/oder Zählgeschwindigkeit durch die Position einer Geste gegenüber dem Sensor (OTGS) bestimmt wird.
  35. Gestenerkennungsvorrichtung nach Anspruch 34 – wobei der zweite Bereich (A2), in dem Gesten erkannt werden, einen räumlichen Teilbereich (CB') oder einen Punkt (CB) aufweist, in dem die Zählgeschwindigkeit null ist.
  36. Gestenerkennungsvorrichtung nach Anspruch 35 – wobei der räumliche Teilbereich (CB'), in dem die Zählgeschwindigkeit null ist, bis zur Grenze des ersten Bereiches (A1) und/oder zur Oberfläche des Sensors (OTGS) reicht.
  37. Gestenerkennungsvorrichtung nach Anspruch 36 oder 35 – wobei dem räumlichen Teilbereich (CB'), in dem die Zählgeschwindigkeit null ist ein zweiter räumlicher Teilbereich (Bup) benachbart ist, in dem die Zählgeschwindigkeit positiv ist und/oder ein dritter räumlicher Teilbereich (Bdown) benachbart ist, in dem die Zählgeschwindigkeit negativ ist
  38. Gestenerkennungsvorrichtung nach einem oder mehreren der Ansprüche 18 bis 37, mindestens aber Anspruch 18, – wobei durch eine Schlussgeste (104, 205, 305) ein Zahlenwert einer Messschleife (401, 402, 406, 408) als Zählwert übernommen wird und – wobei die Schlussgeste – ein Verharren in einem Neutralpunkt (CB) oder – ein Verharren in einem neutralen Teilbereich (CB') oder – eine Einfachquasiberührung (ST) oder – eine Doppelquasiberührung (DT) oder – eine Dreifachquasiberührung (TT) oder – eine Mehrfachquasiberührung (MT) ist.
  39. Gestenerkennungsvorrichtung nach einem oder mehreren der Ansprüche 18 bis 38, mindestens aber Anspruch 18, – wobei durch eine Mehrfachquasiberührung (MT) ein Notprogramm des Gestenerkennungsvorrichtung aktiviert werden kann, welches Funktionen zur Verfügung stellt, die vor dem Ausführen der besagten Mehrfachquasiberührung (MT) mindestens eine räumliche Geste erforderten, also eine Geste, die im zweiten Bereich (A2) ausgeführt wird und die nach dem Ausführen der besagten Mehrfachquasiberührung (MT) keine Geste mehr erfordert, die im zweiten Bereich (A2) ausgeführt wird.
  40. Gestenerkennungsvorrichtung nach einem oder mehreren der Ansprüche 18 bis 39, mindestens aber Anspruch 18, – wobei während einer Berührungsgeste (S, ST, DT, TT, MT) durch mindestens eine 2D-Messschleife (405) Parameter der Hand oder des berührenden Objekts vermessen werden, die zur Kalibrierung von 3D-Messschleifen (401, 402, 406, 408) der Gestenerkennungsvorrichtung benutzt werden.
  41. Gestenerkennungsvorrichtung nach einem oder mehreren der Ansprüche 18 bis 40, mindestens aber Anspruch 18, – wobei durch eine Schlussgeste (104, 205, 305) zwischen zwei Funktionen einer Vorrichtung, die durch die Gestenerkennungsvorrichtung gesteuert wird, unterschieden wird und – wobei die Schlussgeste – ein Verharren in einem Neutralpunkt (CB) oder – ein Verharren in einem neutralen Teilbereich (CB') oder – eine Einfachquasiberührung (ST) oder – eine Doppelquasiberührung (DT) oder – eine Dreifachquasiberührung (TT) oder – eine Mehrfachquasiberührung (MT) ist.
DE102014012158.5A 2013-09-12 2014-08-12 Gestenerkennungsverfahren und Gestenerkennungsvorrichtung Pending DE102014012158A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014012158.5A DE102014012158A1 (de) 2013-09-12 2014-08-12 Gestenerkennungsverfahren und Gestenerkennungsvorrichtung

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102013015363.8 2013-09-12
DE102013015363 2013-09-12
DE102014012158.5A DE102014012158A1 (de) 2013-09-12 2014-08-12 Gestenerkennungsverfahren und Gestenerkennungsvorrichtung

Publications (1)

Publication Number Publication Date
DE102014012158A1 true DE102014012158A1 (de) 2015-03-12

Family

ID=52478611

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102014012158.5A Pending DE102014012158A1 (de) 2013-09-12 2014-08-12 Gestenerkennungsverfahren und Gestenerkennungsvorrichtung
DE202014010352.6U Expired - Lifetime DE202014010352U1 (de) 2013-09-12 2014-08-12 Gestenerkennungsvorrichtung

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE202014010352.6U Expired - Lifetime DE202014010352U1 (de) 2013-09-12 2014-08-12 Gestenerkennungsvorrichtung

Country Status (1)

Country Link
DE (2) DE102014012158A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017210784A1 (en) * 2016-06-06 2017-12-14 Nureva Inc. Time-correlated touch and speech command input
WO2018069027A1 (de) * 2016-10-13 2018-04-19 Bayerische Motoren Werke Aktiengesellschaft Multimodaler dialog in einem kraftfahrzeug
US10338713B2 (en) 2016-06-06 2019-07-02 Nureva, Inc. Method, apparatus and computer-readable media for touch and speech interface with audio location
US10587978B2 (en) 2016-06-03 2020-03-10 Nureva, Inc. Method, apparatus and computer-readable media for virtual positioning of a remote participant in a sound space
CN113033274A (zh) * 2019-12-09 2021-06-25 广州印芯半导体技术有限公司 指纹辨识系统及其辨识方法
CN113573934A (zh) * 2019-03-25 2021-10-29 大众汽车股份公司 用于调节交通工具中的参数值的方法和装置

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10015960A1 (de) 2000-03-30 2001-10-11 Micronas Munich Gmbh Spracherkennungsverfahren und Spracherkennungsvorrichtung
DE10133823A1 (de) 2001-07-16 2003-02-27 Gerd Reime Optoelektronische Vorrichtung zur Positions- und Bewegungserfassung sowie zugehöriges Verfahren
EP1269629B1 (de) 2000-01-18 2003-10-08 Gerd Reime Opto-elektronischer schalter mit auswertung von bewegungsänderungen
DE10211307A1 (de) 2002-03-13 2003-11-20 Mechaless Systems Gmbh Vorrichtung und Verfahren zur optoelektronischen Erkennung der Bewegung und/oder Position eines Objekts
DE10300223B3 (de) 2003-01-03 2004-06-24 Gerd Reime Optoelektronische Messanordnung mit Fremdlichtkompensation sowie Verfahren zur phasenkorrekten Kompensation eines Signals der Messanordnung
DE10300224A1 (de) 2003-01-03 2004-07-22 Gerd Reime Optoelektronische Messanordnung sowie damit versehener Drehknopf
US20050210419A1 (en) 2004-02-06 2005-09-22 Nokia Corporation Gesture control system
DE102006003269A1 (de) 2006-01-24 2007-07-26 Mechaless Systems Gmbh Verfahren zur Lichtlaufzeitmessung
DE102006020570A1 (de) 2006-05-01 2007-11-08 Mechaless Systems Gmbh Optoelektronische Vorrichtung zur Erfassung der Position und/oder Bewegung eines Objekts sowie zugehöriges Verfahren
DE102005045993B4 (de) 2005-07-29 2008-11-13 Gerd Reime Verfahren zur Lichtlaufzeitmessung
DE102009019910A1 (de) 2008-05-01 2009-12-03 Atmel Corporation, San Jose Gestenerkennung
EP2405283A1 (de) 2010-07-06 2012-01-11 Mechaless Systems GmbH Optoelektronische Messanordnung mit einer Kompensationslichtquelle
WO2012007236A1 (de) 2010-07-16 2012-01-19 Mechaless Systems Gmbh Optisches bedienelement, insbesondere taster oder schalter
DE102012000201A1 (de) 2012-01-09 2013-07-11 Daimler Ag Verfahren und Vorrichtung zum Bedienen von auf einer Anzeigeeinheit eines Fahrzeugs angezeigten Funktionen unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt
DE102012010627A1 (de) 2012-05-23 2013-11-28 Elmos Semiconductor Ag Kontinuierlich arbeitende Gestenerkennungsvorrichtung und zugehörige Gestensprache zur Übermittlung von Kommandos und Informationen an eine Mensch-Maschineschnittstelle
DE102013000376A1 (de) 2013-01-07 2014-07-10 Elmos Semiconductor Ag Vorrichtung zur optischen Messung biometrischer Parameter eines Wirbeltieres oder Menschen
DE102013002676A1 (de) 2013-02-12 2014-08-14 Elmos Semiconductor Ag Kompensiertes Sensorsystem mit einem in der Sensitivität regelbaren Empfänger als kompensierendes Element
DE102013019660A1 (de) 2013-02-12 2014-08-14 Elmos Semiconductor Ag Vorrichtung zur optischen Messung biometrischer Parameter eines Tieres, einer Pflanze oder eines Menschen
DE102014002486A1 (de) 2013-02-27 2014-08-28 Elmos Semiconductor Ag Kompensierendes optisches Sensorsystem
DE102014212860A1 (de) 2013-07-04 2015-01-08 Mechaless Systems Gmbh Verfahren zur durch Gestensteuerung berührungslos erfolgenden Bedienung einer Leuchte

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10338236A1 (de) 2003-08-14 2005-03-17 Deutsche Telekom Ag Verfahren zur elektronischen Teilnahme an Glücksspielen
DE102008048825A1 (de) 2008-09-22 2010-03-25 Volkswagen Ag Anzeige- und Bediensystem in einem Kraftfahrzeug mit nutzerbeeinflussbarer Darstellung von Anzeigeobjekten sowie Verfahren zum Betreiben eines solchen Anzeige- und Bediensystems

Patent Citations (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1269629B1 (de) 2000-01-18 2003-10-08 Gerd Reime Opto-elektronischer schalter mit auswertung von bewegungsänderungen
DE10015960A1 (de) 2000-03-30 2001-10-11 Micronas Munich Gmbh Spracherkennungsverfahren und Spracherkennungsvorrichtung
US7456815B2 (en) 2001-07-16 2008-11-25 Gerd Reime Optoelectronic device for position and/or movement detection as well as the associated method
DE10133823A1 (de) 2001-07-16 2003-02-27 Gerd Reime Optoelektronische Vorrichtung zur Positions- und Bewegungserfassung sowie zugehöriges Verfahren
EP1410507B1 (de) 2001-07-16 2004-11-24 Gerd Reime Optoelektronische vorrichtung zur positions- und bewegungserfassung sowie zugehöriges verfahren
DE10211307A1 (de) 2002-03-13 2003-11-20 Mechaless Systems Gmbh Vorrichtung und Verfahren zur optoelektronischen Erkennung der Bewegung und/oder Position eines Objekts
DE10300224A1 (de) 2003-01-03 2004-07-22 Gerd Reime Optoelektronische Messanordnung sowie damit versehener Drehknopf
EP1435509B1 (de) 2003-01-03 2008-01-16 Gerd Reime Optoelektronisches Messverfahren und Vorrichtung
DE10300223B3 (de) 2003-01-03 2004-06-24 Gerd Reime Optoelektronische Messanordnung mit Fremdlichtkompensation sowie Verfahren zur phasenkorrekten Kompensation eines Signals der Messanordnung
US20050210419A1 (en) 2004-02-06 2005-09-22 Nokia Corporation Gesture control system
DE102005045993B4 (de) 2005-07-29 2008-11-13 Gerd Reime Verfahren zur Lichtlaufzeitmessung
DE102006003269A1 (de) 2006-01-24 2007-07-26 Mechaless Systems Gmbh Verfahren zur Lichtlaufzeitmessung
DE102006020570A1 (de) 2006-05-01 2007-11-08 Mechaless Systems Gmbh Optoelektronische Vorrichtung zur Erfassung der Position und/oder Bewegung eines Objekts sowie zugehöriges Verfahren
EP2016480B1 (de) 2006-05-01 2013-10-23 Mechaless Systems GmbH Optoelektronische vorrichtung zur erfassung der position und/oder bewegung eines objekts sowie zugehöriges verfahren
DE102009019910A1 (de) 2008-05-01 2009-12-03 Atmel Corporation, San Jose Gestenerkennung
EP2405283A1 (de) 2010-07-06 2012-01-11 Mechaless Systems GmbH Optoelektronische Messanordnung mit einer Kompensationslichtquelle
WO2012007236A1 (de) 2010-07-16 2012-01-19 Mechaless Systems Gmbh Optisches bedienelement, insbesondere taster oder schalter
DE102012000201A1 (de) 2012-01-09 2013-07-11 Daimler Ag Verfahren und Vorrichtung zum Bedienen von auf einer Anzeigeeinheit eines Fahrzeugs angezeigten Funktionen unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt
DE102012010627A1 (de) 2012-05-23 2013-11-28 Elmos Semiconductor Ag Kontinuierlich arbeitende Gestenerkennungsvorrichtung und zugehörige Gestensprache zur Übermittlung von Kommandos und Informationen an eine Mensch-Maschineschnittstelle
DE102013000376A1 (de) 2013-01-07 2014-07-10 Elmos Semiconductor Ag Vorrichtung zur optischen Messung biometrischer Parameter eines Wirbeltieres oder Menschen
DE102013002676A1 (de) 2013-02-12 2014-08-14 Elmos Semiconductor Ag Kompensiertes Sensorsystem mit einem in der Sensitivität regelbaren Empfänger als kompensierendes Element
DE102013019660A1 (de) 2013-02-12 2014-08-14 Elmos Semiconductor Ag Vorrichtung zur optischen Messung biometrischer Parameter eines Tieres, einer Pflanze oder eines Menschen
DE102014002486A1 (de) 2013-02-27 2014-08-28 Elmos Semiconductor Ag Kompensierendes optisches Sensorsystem
DE102014212860A1 (de) 2013-07-04 2015-01-08 Mechaless Systems Gmbh Verfahren zur durch Gestensteuerung berührungslos erfolgenden Bedienung einer Leuchte

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10587978B2 (en) 2016-06-03 2020-03-10 Nureva, Inc. Method, apparatus and computer-readable media for virtual positioning of a remote participant in a sound space
WO2017210784A1 (en) * 2016-06-06 2017-12-14 Nureva Inc. Time-correlated touch and speech command input
US10338713B2 (en) 2016-06-06 2019-07-02 Nureva, Inc. Method, apparatus and computer-readable media for touch and speech interface with audio location
US10394358B2 (en) 2016-06-06 2019-08-27 Nureva, Inc. Method, apparatus and computer-readable media for touch and speech interface
US10831297B2 (en) 2016-06-06 2020-11-10 Nureva Inc. Method, apparatus and computer-readable media for touch and speech interface
US10845909B2 (en) 2016-06-06 2020-11-24 Nureva, Inc. Method, apparatus and computer-readable media for touch and speech interface with audio location
US11409390B2 (en) 2016-06-06 2022-08-09 Nureva, Inc. Method, apparatus and computer-readable media for touch and speech interface with audio location
WO2018069027A1 (de) * 2016-10-13 2018-04-19 Bayerische Motoren Werke Aktiengesellschaft Multimodaler dialog in einem kraftfahrzeug
CN109804429A (zh) * 2016-10-13 2019-05-24 宝马股份公司 机动车中的多模式对话
US11551679B2 (en) 2016-10-13 2023-01-10 Bayerische Motoren Werke Aktiengesellschaft Multimodal dialog in a motor vehicle
CN113573934A (zh) * 2019-03-25 2021-10-29 大众汽车股份公司 用于调节交通工具中的参数值的方法和装置
CN113033274A (zh) * 2019-12-09 2021-06-25 广州印芯半导体技术有限公司 指纹辨识系统及其辨识方法

Also Published As

Publication number Publication date
DE202014010352U1 (de) 2015-06-17

Similar Documents

Publication Publication Date Title
DE102014012158A1 (de) Gestenerkennungsverfahren und Gestenerkennungsvorrichtung
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
DE102013012466B4 (de) Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung
EP2183661B1 (de) Verfahren zur bestimmung der position eines betätigungselements, insbesondere eines fingers eines nutzers, in einem kraftfahrzeug und positionsbestimmungsvorrichtung
DE102011010594A1 (de) Verfahren, Vorrichtung und Computerprogrammprodukt zum Ansteuern einer Funktionseinheit eines Fahrzeugs
EP3237250B1 (de) Fingerleiste und anwendung der fingerleiste
DE102014116292A1 (de) System zur Informationsübertragung in einem Kraftfahrzeug
EP1477351A2 (de) Fahrzeugdach mit einer Bedieneinrichtung für elektrische Fahrzeugkomponenten sowie Verfahren zur Bedienung elektrischer Fahrzeugkomponenten
DE102010026291A1 (de) Kraftfahrzeug
EP3254172B1 (de) Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug
EP3573854B1 (de) Verfahren zum betreiben eines bediensystems, bediensystem und fahrzeug mit einem bediensystem
DE102012206247A1 (de) Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs
DE102017201799A1 (de) Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Anwenderunterscheidung
EP3508967A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
DE102009057081A1 (de) Verfahren zum Bereitstellen einer Benutzerschnittstelle
DE102013100328A1 (de) Adaptives Schnittstellensystem
WO2014108152A2 (de) Kraftfahrzeug-bedienschnittstelle mit einem bedienelement zum erfassen einer bedienhandlung
DE102015010421A1 (de) Dreidimensionale Erfassung des Fahrzeuginnenraums
EP2030828B1 (de) Multimodales Bediensystem und Verfahren zum Bedienen von Komponenten und Funktionen in einem Kraftfahrzeug
DE102009056014A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Bedienschnittstelle für ein in einem Fahrzeug lösbar befestigtes Gerät
DE102016204274A1 (de) System und Verfahren zum Erfassen einer Eingabegeste eines Nutzers
DE202015100273U1 (de) Eingabevorrichtung
DE102018222869A1 (de) Bediensystem für ein Fahrzeug und Verfahren zum Betreiben eines Bediensystems
DE102014224599A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102020202918A1 (de) Verfahren und System zur Ansteuerung wenigstens einer Funktion in einem Fahrzeug

Legal Events

Date Code Title Description
R138 Derivation of utility model

Ref document number: 202014010352

Country of ref document: DE

R163 Identified publications notified
R012 Request for examination validly filed
R163 Identified publications notified

Effective date: 20150331

R012 Request for examination validly filed

Effective date: 20150410

R016 Response to examination communication