DE102013211335B4 - Verfahren und Vorrichtung zum berührungslosen Erkennen einer Geste unter Verwendung eines ersten Sensors und eines zweiten Sensors - Google Patents

Verfahren und Vorrichtung zum berührungslosen Erkennen einer Geste unter Verwendung eines ersten Sensors und eines zweiten Sensors Download PDF

Info

Publication number
DE102013211335B4
DE102013211335B4 DE102013211335.8A DE102013211335A DE102013211335B4 DE 102013211335 B4 DE102013211335 B4 DE 102013211335B4 DE 102013211335 A DE102013211335 A DE 102013211335A DE 102013211335 B4 DE102013211335 B4 DE 102013211335B4
Authority
DE
Germany
Prior art keywords
sensor
gesture
signal
trajectory
dimensional space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102013211335.8A
Other languages
English (en)
Other versions
DE102013211335A1 (de
Inventor
Jürgen Seidel
Jürgen Hasch
Werner Soergel
Thomas Fritzsche
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102013211335.8A priority Critical patent/DE102013211335B4/de
Publication of DE102013211335A1 publication Critical patent/DE102013211335A1/de
Application granted granted Critical
Publication of DE102013211335B4 publication Critical patent/DE102013211335B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Abstract

Verfahren (300) zum berührungslosen Erkennen einer Geste (102) unter Verwendung eines ersten Sensors (135; 200) und eines räumlich von dem ersten Sensor (135; 200) entfernt angeordneten zweiten Sensors (140), wobei die Geste (102) eine Bewegung eines Objekts in einem dreidimensionalen Raum repräsentiert, wobei das Verfahren (300) folgende Schritte umfasst:
Einlesen (305) einer ersten Sensorposition (150) des ersten Sensors (135; 200) und einer zweiten Sensorposition (155) des zweiten Sensors (140), wobei dem ersten Sensor (135; 200) ein erster Erfassungsbereich (160) des dreidimensionalen Raums zugeordnet ist und dem zweiten Sensor (140) ein zweiter Erfassungsbereich (165) des dreidimensionalen Raums zugeordnet ist;
Einlesen (310) eines ersten Abtastsignals (115) des ersten Sensors (135; 200), um eine erste Trajektorie des Objekts zu erfassen, wobei die erste Trajektorie ein Bewegen des Objekts durch den ersten Erfassungsbereich (160) repräsentiert;
Einlesen (310) eines zweiten Abtastsignals (125) des zweiten Sensors (140), um eine zweite Trajektorie des Objekts zu erfassen, wobei die zweite Trajektorie ein Bewegen des Objekts durch den zweiten Erfassungsbereich (165) repräsentiert; und
Erkennen (315) der Geste (102) unter Verwendung zumindest einer der Sensorpositionen (150, 155) und zumindest eines der Abtastsignale (115, 125), gekennzeichnet durch einen Schritt des Ermittelns der ersten Sensorposition (150) des ersten Sensors (135; 200) und einer zweiten Sensorposition (155) des zweiten Sensors (140) und
durch einen Schritt des Empfangens eines Triggersignals zum Bestimmen einer relativen Position des ersten Sensors (135; 200) zu dem zweiten Sensor (140), wobei im Schritt des Ermittelns (305) ansprechend auf das Triggersignal ein erstes Ortungssignal von dem ersten Sensor (135; 200) und/oder ein zweites Ortungssignal von dem zweiten Sensor (140) ausgegeben wird, wobei die relative Position des ersten Sensors (135; 200) zu dem zweiten Sensor (140) unter Verwendung des von dem zweiten Sensor (140) empfangenen ersten Ortungssignals und/oder des von dem ersten Sensor (135; 200) empfangenen zweiten Ortungssignals bestimmt wird.

Description

  • Stand der Technik
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zum berührungslosen Erkennen einer Geste unter Verwendung eines ersten Sensors und eines zweiten Sensors, auf eine entsprechende Vorrichtung sowie auf ein entsprechendes Computerprogrammprodukt.
  • Mensch-Maschine-Schnittstellen („human-machine interface“) ermöglichen die Eingabe von Daten beispielsweise mittels Bildschirm, Tastatur, Maus, Spracherkennung, Touchscreen oder Touchpad. Eine vergleichsweise neue Art der Eingabe ist die berührungslose Gestenerkennung. Berührungslose Eingabehilfen werden heute in verschiedensten Geräten verwendet, insbesondere etwa in computergesteuerten Medizingeräten, um eine sterile Eingabe zu ermöglichen.
  • Die WO 2009 024 881 A1 beschreibt ein herkömmliches Verfahren zum berührungslosen Erkennen einer Geste.
  • Aus der DE 2011 075 725 A1 ist eine Vorrichtung und ein dazugehöriges Verfahren zur Gestenerkennung eines Lebeweseen mit mehreren räumlich verteilten Sensoren bekannt, bei welchem unter Ausnutzung des Mikro-Doppler-Effekts ein Bewegungsablauf des Lebewesens erfasst und eine Geste des Lebewesens erkannt wird.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund werden mit der vorliegenden Erfindung ein verbessertes Verfahren und eine verbesserte Vorrichtung zum berührungslosen Erkennen einer Geste sowie ein entsprechendes Computerprogrammprodukt gemäß den Hauptansprüchen vorgestellt. Vorteilhafte Ausgestaltungen ergeben sich aus den jeweiligen Unteransprüchen und der nachfolgenden Beschreibung.
  • Aus dem Artikel Jeffrey Hightower, Gaetano Borriello „A Survey and Taxonomy of Location Systems for Ubiquitous Computing“ Technical Report UW-CSE, 24.08.2001 ist ein Verfahren zu Lokalisierung mobiler Computeranwendungen bekannt. Hierbei werden verschiedene Lokalisierungssysteme, unter anderem auch ein Radarsystem vorgestellt.
  • Aus der Dissertation Jan Blumenthal, „Ressourcenarme und dezentrale Lokalisierung autonomer Sensorknoten in Sensornetzwerken“, Universität Rostock 2008, Kapitel 2 und 3, Seite 9 bis 64 ist ein Verfahren zur Distanzermittlung in Sensornetzwerken bekannt. Für die Lokalisierung der Sensorknoten wird insbesondere ein Radarverfahren eingesetzt. Aus den empfangenen Signalen der Referenzknoten wird ein charakteristischer Identifier zu jedem Sender ermittelt und in einer zentralen Datenbank gespeichert. Die Lokalisierung der Sensorknoten erfolgt durch Vergleich der gespeicherten Signaturen mit den berechneten Signaturen aus den aktuellen Umgebungsdaten.
  • Aus der DE 101 24 909 A1 ist ein Verfahren mit einer Vorrichtung zum Betrieb einer Radarsensoranordnung an einem Fahrzeug bekannt. Hierbei ist eine Anzahl von benachbarten, weitgehend untereinander synchronisierten Einzelsensoren zur Bestimmung der Position eines Zielobjektes bekannt. In einem Messzyklus wird die Laufzeit des von einem Einzelsensor ausgesendeten und vom Zielobjekt zu diesem Einzelsensor und zu einem jeweils anderen Einzelsensor reflektierten Radarsignals ausgewertet. Aus der Auswertung der Direkt- und der Kreuzechos wird zumindest die Lage des Zielobjekts bestimmt und ein Dedektionsgütesignal ermittelt. Nach Erreichen eines vorgegebenen Betrags des Dedektionsgütesignals bei einem Zielobjekt wird eine Kalibrierung durchgeführt.
  • Es wird ein Verfahren zum berührungslosen Erkennen einer Geste unter Verwendung eines ersten Sensors und eines räumlich von dem ersten Sensor entfernt angeordneten zweiten Sensors vorgestellt, wobei die Geste eine Bewegung eines Objekts in einem dreidimensionalen Raum repräsentiert, wobei das Verfahren folgende Schritte umfasst:
    • Einlesen einer ersten Sensorposition des ersten Sensors und einer zweiten Sensorposition des zweiten Sensors, wobei dem ersten Sensor ein erster Erfassungsbereich des dreidimensionalen Raums zugeordnet ist und dem zweiten Sensor ein zweiter Erfassungsbereich des dreidimensionalen Raums zugeordnet ist;
    • Einlesen eines ersten Abtastsignals des ersten Sensors, um eine erste Trajektorie des Objekts zu erfassen, wobei die erste Trajektorie ein Bewegen des Objekts durch den ersten Erfassungsbereich repräsentiert;
    • Einlesen eines zweiten Abtastsignals des zweiten Sensors, um eine zweite Trajektorie des Objekts zu erfassen, wobei die zweite Trajektorie ein Bewegen des Objekts durch den zweiten Erfassungsbereich repräsentiert; und
    • Erkennen der Geste unter Verwendung zumindest einer der Sensorpositionen und zumindest eines der Abtastsignale.
  • Unter einer Geste kann im Allgemeinen eine definierte Bewegung zumindest einer Gliedmaße einer Person verstanden werden. Die Geste kann zwei- oder dreidimensional sein. Die Geste kann beispielsweise verwendet werden, um ein gestengesteuertes Gerät zu steuern. Bei einer Bewegung eines Objekts kann es sich um das Ausführen der Geste handeln. Beispielsweise können Hände, Finger und/oder Arme einer Person bewegt werden, um die Geste auszuführen. Die Sensoren können ausgebildet sein, um die Geste zu erfassen. Bei den Sensoren kann es sich beispielsweise um Radarsensoren handeln. Unter einem dreidimensionalen Raum kann im Allgemeinen ein Raum verstanden werden, in dem die Geste ausgeführt und durch die Sensoren erfasst werden kann. Die Sensoren können je an bestimmten Positionen in dem dreidimensionalen Raum angebracht sein. Diese Sensorpositionen können eingelesen oder ermittelt werden. Beispielsweise können die Sensorpositionen über eine Schnittstelle zu einer Speichereinrichtung eingelesen werden, in der die Sensorpositionen gespeichert sind. Beispielsweise können die Sensoren verwendet werden, um einen Innenraum eines Fahrzeugs oder einen Fahrer des Fahrzeugs zu überwachen. Dabei können die Sensorpositionen durch den Einbauort der Sensoren definiert und somit vorbekannt und in der Speichereinrichtung hinterlegt werden. Gemäß einer weiteren Ausführungsform können die Sensorpositionen, beispielsweise bei einer Inbetriebnahme des Systems, ermittelt werden. Beispielsweise kann eine Entfernung und/oder ein Winkel zwischen den Sensoren gemessen werden, um die Sensorpositionen zu ermitteln. Den Sensorpositionen kann je ein Erfassungsbereich zugeordnet werden. Unter einem ersten Erfassungsbereich kann ein Bereich des dreidimensionalen Raumes verstanden werden, in dem die Geste durch den ersten Sensor erfasst werden kann. Unter einem zweiten Erfassungsbereich kann ein Bereich des dreidimensionalen Raumes verstanden werden, in dem die Geste durch den zweiten Sensor erfasst werden kann.
  • Die Sensoren sind vorzugsweise räumlich getrennt und können weitgehend frei im Raum angeordnet werden. Somit können die Sensoren entfernt voneinander angeordnet sein. Beispielsweise kann jeder der Sensoren als ein eigenständig funktionsfähiger Sensor ausgeführt sein. Jeder Sensor kann eine eigene Befestigungseinrichtung zum Befestigen des Sensors an einem Raumelement des dreidimensionalen Raums aufweisen. Somit können die Sensoren unabhängig voneinander in dem zu überwachenden Raum platziert werden. Ein Abstand zwischen zwei Sensoren kann frei wählbar sein. Erfassungsbereiche zweier Sensoren können, aber müssen sich nicht überlappen. Jeder Sensor kann ein eigenes Sensorgehäuse aufweisen. Die Sensorgehäuse von zwei benachbart angeordneten Sensoren können voneinander beabstandet sein, also keinen gemeinsamen Berührungspunkt aufweisen. Auch können benachbart angeordnete Sensoren ohne gemeinsames Gehäuse und ohne gemeinsame mechanische Verbindungsstruktur ausgeführt sein.
  • Die Sensoren können als Radarsensoren ausgeführt sein. Alternativ können die Sensoren auch als Lidar-, Ultraschall- oder Videosensoren ausgeführt sein.
    Die Sensoren, insbesondere die Radarsensoren, sind ausgebildet, um eine zeitlich diskret aufgelöste Abstandsinformation und/oder eine zeitlich diskret aufgelöste Intensitätsinformation und/oder eine zeitlich diskret aufgelöste Richtungsinformation und/oder eine zeitlich diskret aufgelöste Dopplerinformation des oder der sich im Erfassungsbereich der Sensoren befindlichen Objekte auszuwerten. Entsprechende Auswerteergebnisse können beispielsweise in Form der Abtastsignale ausgegeben werden.
  • Die Sensoren können den dreidimensionalen Raum abtasten und entsprechende Abtastsignale ausgeben. Die Abtastsignale können von einer entsprechenden Vorrichtung eingelesen werden. Die Abtastsignale können ein Bewegen des Objekts, beispielsweise der Gliedmaße, durch den ersten und/oder den zweiten Erfassungsbereich repräsentieren. Das Bewegen des Objekts durch den ersten Erfassungsbereich kann einer ersten Trajektorie des Objekts entsprechen. Das Bewegen des Objekts durch den zweiten Erfassungsbereich kann einer zweiten Trajektorie des Objekts entsprechen. Unter einer Trajektorie kann eine in eine bestimmte Richtung zurückgelegte Wegstrecke des Objekts verstanden werden.
  • Zumindest eine der Sensorpositionen und zumindest eines der Abtastsignale kann verwendet werden, um die Geste zu erkennen. Hierbei kann die Bewegung des Objekts beispielsweise hinsichtlich zumindest eines Merkmals der Geste analysiert werden, um die Bewegung als die Geste zu identifizieren. Dazu kann die erkannte Trajektorie des Objekts mit einer der Geste zugeordneten Bewegungstrajektorie verglichen werden.
  • Dem vorliegenden Ansatz liegt die Erkenntnis zugrunde, dass eine von einer Person ausgeführte Geste oft nur dann sicher von einem Gestenerkennungssystem erkannt werden kann, wenn sich die Person beim Ausführen der Geste bewusst einem Sensor des Gestenerkennungssystems zuwendet. Eine solche zusätzliche Orientierungsbewegung kann von der Person als störend empfunden werden. Vorteilhafterweise kann ein Erfassungsbereich des Gestenerkennungssystems vergrößert werden, indem das Gestenerkennungssystem mit mindestens einem zusätzlichen Sensor ausgestattet wird. Die beiden Sensoren können dann an unterschiedlichen Orten eines Raumes angebracht sein oder sind an unterschiedlichen Orten eines Raumes angebracht. Die jeweilige Position der Sensoren kann von dem Gestenerkennungssystem ermittelt werden. Wenn die Person die Geste ausführt, kann die Geste von dem ersten und/oder von dem zweiten Sensor erfasst werden, je nachdem, in welchem Bereich des Raumes sich die Person aufhält.
  • Der vorliegende Ansatz bietet den Vorteil, dass mit technisch einfachen und kostengünstig bereitzustellenden Mitteln eine Bewegungsfreiheit der Person beim Ausführen der Geste vergrößert und damit eine Bedienbarkeit des Gestenerkennungssystems deutlich verbessert werden kann.
  • Wie bereits erwähnt kann das Verfahren einen Schritt des Ermittelns der ersten Sensorposition des ersten Sensors und einer zweiten Sensorposition des zweiten Sensors umfassen. Die Sensorpositionen können beispielsweise bei jeder Inbetriebnahme erneut ermittelt werden, oder es können einmal ermittelte Sensorpositionen in einer Speichereinrichtung gespeichert werden und beispielsweise bei einer erneuten Inbetriebnahme des Systems ausgelesen werden.
  • Gemäß einer Ausführungsform des vorliegenden Ansatzes kann das Verfahren einen Schritt des Empfangens eines Synchronisationssignals zum Synchronisieren des ersten Sensors und des zweiten Sensors über eine Schnittstelle zu einer Synchronisationseinheit umfassen. Die Sensoren können beispielsweise je eine Uhr aufweisen. Das Synchronisationssignal kann eine Information repräsentieren, durch die festgestellt werden kann, ob die Uhren der Sensoren eine identische Uhrzeit aufweisen. Das Synchronisationssignal kann beispielsweise verwendet werden, um diese Uhrzeiten zu synchronisieren. Bei einer Synchronisationseinheit kann es sich um ein elektrisches Steuergerät handeln, das Synchronisationssignale verarbeiten kann. Mittels der Schnittstelle kann eine Datenverbindung zwischen den Sensoren und der Synchronisationseinheit hergestellt werden. Durch das Empfangen des Synchronisationssignals kann eine hohe Genauigkeit der Sensordaten sichergestellt werden.
  • Gemäß einer Ausführungsform des vorliegenden Ansatzes kann im Schritt des Empfangens das Synchronisationssignal über eine drahtlose Schnittstelle zu der Synchronisationseinheit ausgegeben werden. Bei einer drahtlosen Schnittstelle kann es sich beispielsweise um eine Funkverbindung zwischen den Sensoren und der Synchronisationseinheit handeln. Eine solche Schnittstelle ermöglicht eine besonders einfache und kostengünstige Montage der Sensoren in dem dreidimensionalen Raum.
  • Erfindungsgemäß wird in einem Schritt des Empfangens ein Triggersignal zum Bestimmen einer relativen Position des ersten Sensors zu dem zweiten Sensor empfangen. Hierbei wirdansprechend auf das Triggersignal im Schritt des Ermittelns ein erstes Ortungssignal von dem ersten Sensor und/oder ein zweites Ortungssignal von dem zweiten Sensor ausgegeben. Dabei wird die relative Position des ersten Sensors zu dem zweiten Sensor unter Verwendung des von dem zweiten Sensor empfangenen ersten Ortungssignals und/oder des von dem ersten Sensor empfangenen zweiten Ortungssignals bestimmt. Unter einem Triggersignal kann im Allgemeinen ein Signal verstanden werden, durch das eine Ortung der Sensoren zum Ermitteln der jeweiligen Sensorpositionen initiiert wird. Die Ortung kann unter Verwendung von Ortungssignalen erfolgen. Bei den Ortungssignalen kann es sich etwa um Radarwellen handeln. Die Ortungssignale können von den Sensoren ansprechend auf das Triggersignal ausgegeben werden. Ferner können die Sensoren das von dem jeweils anderen Sensor ausgegebene Ortungssignal empfangen. Beispielsweise kann in Abhängigkeit von einer zeitlichen Differenz zwischen dem Empfangen des Triggersignals und dem Empfangen des Ortungssignals eine Entfernung zwischen dem ersten und dem zweiten Sensor berechnet werden. Unter Verwendung des Triggersignals und der Ortungssignale können die Sensoren mit hoher Genauigkeit in dem dreidimensionalen Raum lokalisiert werden.
  • Gemäß einer Ausführungsform des vorliegenden Ansatzes kann das Verfahren einen Schritt des Zuordnens der Geste zu einem Gestennutzer umfassen. Hierbei kann ein Aufenthaltsort des Gestennutzers dem ersten und/oder dem zweiten Erfassungsbereich des dreidimensionalen Raums zuordenbar sein. Unter einem Gestennutzer kann im Allgemeinen eine Person verstanden werden, die eine Geste ausführt. Insbesondere kann die Geste von dem Gestennutzer genutzt werden, um ein gestengesteuertes Gerät zu steuern. Durch den Schritt des Zuordnens kann vorteilhafterweise festgestellt werden, ob sich der Gestennutzer beim Ausführen der Geste in dem ersten und/oder zweiten Erfassungsbereich des dreidimensionalen Raums befindet. Dadurch, dass der Aufenthaltsort des Gestennutzers ermittelt werden kann, kann eine hohe Robustheit des Verfahrens gegenüber beweglichen Abschattungen erreicht werden.
  • Gemäß einer Ausführungsform des vorliegenden Ansatzes kann die Geste ferner zumindest einem weiteren Gestennutzer zugeordnet werden. Dabei kann zumindest ein weiterer Aufenthaltsort des zumindest einen weiteren Gestennutzers dem ersten und/oder dem zweiten Erfassungsbereich des dreidimensionalen Raums zuordenbar sein. Dies hat den Vorteil, dass die Geste auch dann erkannt werden kann, wenn sie von unterschiedlichen Gestennutzern an unterschiedlichen Aufenthaltsorten ausgeführt wird. Dadurch kann eine Bedienbarkeit des gestengesteuerten Geräts erheblich verbessert werden und die Robustheit des Verfahrens weiter erhöht werden.
  • Gemäß einer Ausführungsform des vorliegenden Ansatzes können im Schritt des Einlesens der Abtastsignale das erste Abtastsignal und das zweite Abtastsignal ein Radarsensorsignal repräsentieren. Bei dem Radarsensorsignal kann es sich um ein von einem Radarmodul eines Sensors bereitgestelltes Radarsignal handeln. Das Radarmodul kann ausgebildet sein, um das Radarsignal in Form eines Primärsignals auszusenden. Das Primärsignal kann von Objekten in dem dreidimensionalen Raum reflektiert werden und in Form eines Sekundärsignals von dem Radarmodul empfangen werden. Unter Verwendung des Primär- und des Sekundärsignals können Positionen, Bewegungen, Geschwindigkeiten und/oder Konturen der Objekte in dem dreidimensionalen Raum mit hoher Zuverlässigkeit erfasst werden.
  • Gemäß einer Ausführungsform des vorliegenden Ansatzes kann im Schritt des Einlesens der Sensorpositionen ferner zumindest eine weitere Sensorposition zumindest eines weiteren Sensors eingelesen werden. Hierbei kann dem zumindest einen weiteren Sensor zumindest ein weiterer Erfassungsbereich des dreidimensionalen Raums zugeordnet sein. Das Verfahren kann dabei ferner einen Schritt des Einlesens zumindest eines weiteren Abtastsignals umfassen, um zumindest eine weitere Trajektorie des Objekts zu erfassen. Die zumindest eine weitere Trajektorie kann ein Bewegen des Objekts durch den zumindest einen weiteren Erfassungsbereich repräsentieren. Im Schritt des Erkennens kann die Geste ferner unter Verwendung der zumindest einen weiteren Sensorposition und des zumindest einen weiteren Abtastsignals erkannt werden. Beispielsweise kann eine Mehrzahl von Sensoren in dem dreidimensionalen Raum angeordnet sein, um ein Sensornetzwerk zum Erkennen der Geste zu bilden. Unter Verwendung eines solchen Sensornetzwerks kann mit einfachen Mitteln ein besonders großer Erfassungsbereich realisiert werden. Die Mehrzahl von Sensoren können um einen zu überwachenden Raum herum, beispielsweise an den Raum umschließenden Wänden angeordnet sein. Zusätzlich oder alternativ können die oder einige der Mehrzahl von Sensoren an einer Decke des Raums angeordnet sein. Auf diese Weise kann beispielsweise eine Geste einer Person unabhängig von einer Stellung der Person im Raum erkannt werden. Auch können Gesten mehrere Personen im Raum unabhängig von einander erkannt werden.
  • Der vorliegende Ansatz schafft ferner eine Vorrichtung zum berührungslosen Erkennen einer Geste unter Verwendung eines ersten Sensors und eines räumlich von dem ersten Sensor entfernt angeordneten zweiten Sensors. Hierbei kann die Geste eine Bewegung eines Objekts in einem dreidimensionalen Raum repräsentieren. Die Vorrichtung kann folgende Merkmale aufweisen:
    • eine Einleseeinheit zum Einlesen einer ersten Sensorposition des ersten Sensors und einer zweiten Sensorposition des zweiten Sensors, wobei dem ersten Sensor ein erster Erfassungsbereich des dreidimensionalen Raums zugeordnet ist und dem zweiten Sensor ein zweiter Erfassungsbereich des dreidimensionalen Raums zugeordnet ist;
    • eine Einleseeinheit zum Einlesen eines ersten Abtastsignals des ersten Sensors, um eine erste Trajektorie des Objekts zu erfassen, wobei die erste Trajektorie ein Bewegen des Objekts durch den ersten Erfassungsbereich repräsentiert;
    • eine Einleseeinheit zum Einlesen eines zweiten Abtastsignals des zweiten Sensors, um eine zweite Trajektorie des Objekts zu erfassen, wobei die zweite Trajektorie ein Bewegen des Objekts durch den zweiten Erfassungsbereich repräsentiert; und
    • eine Erkennungseinheit zum Erkennen der Geste unter Verwendung zumindest einer der Sensorpositionen und zumindest eines der Abtastsignale.
  • Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
  • Durch eine solche Vorrichtung kann die dem Ansatz zugrunde liegende Aufgabe schnell und effizient gelöst werden.
  • Von Vorteil ist auch ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, wenn das Programmprodukt auf einem Computer oder einer Vorrichtung ausgeführt wird.
  • Die Erfindung wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
    • 1 eine schematische Darstellung einer Gestenerkennungssituation mit einer Vorrichtung zum berührungslosen Erkennen einer Geste gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
    • 2 eine schematische Darstellung einer Gestenerkennungssituation mit einem Sensorknoten zur Verwendung in einem Ausführungsbeispiel der vorliegenden Erfindung; und
    • 3 ein Ablaufdiagramm eines Verfahrens zum berührungslosen Erkennen einer Geste gemäß einem weiteren Ausführungsbeispiel der vorliegenden Erfindung.
  • In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
  • 1 zeigt eine schematische Darstellung einer Gestenerkennungssituation mit einer Vorrichtung 100 zum berührungslosen Erkennen einer Geste 102 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • Die Vorrichtung 100 ist ausgebildet, um einen dreidimensionalen Raum zu überwachen. Die Vorrichtung 100 weist eine Einleseeinheit 105, eine weitere Einleseeinheit 110 zum Einlesen eines ersten Abtastsignals 115, eine Einleseeinheit 120 zum Einlesen eines zweiten Abtastsignals 125 sowie eine Erkennungseinheit 130 auf. In dem dreidimensionalen Raum sind ferner ein erster Sensor 135 und ein zweiter Sensor 140 angeordnet. In dem dreidimensionalen Raum befindet sich eine Person 145. Bei der Person 145 kann es sich um einen Gestennutzer handeln, der die Geste 102 ausführen kann. Beispielsweise kann die Person 145 die Geste 102 durch eine definierte Bewegung einer Hand ausführen. Wir die Hand beispielsweise entlang einer definierten Bewegungstrajektorie geführt, so kann dies als die Geste 102 angesehen werden. Die Person 145 kann von den Sensoren 135, 140 erfasst werden, wenn sie die Geste 102 ausführt. Gemäß dem in 1 gezeigten Ausführungsbeispiel sind die Sensoren 135, 140 so angeordnet, dass die Sensoren 135, 140 die Person 145 aus unterschiedlichen Richtungen, hier aus einander entgegengesetzten Richtungen erfassen können.
  • Auch wenn es in 1 nicht gezeigt ist, können weitere Sensoren eingesetzt werden, die weitere Abtastsignale bereitstellen können, die von weiteren Einleseeinheiten der Vorrichtung 100 eingelesen werden können.
  • Die Einleseeinheit 105 ist gemäß einem Ausführungsbeispiel ausgebildet, umeine erste Sensorposition 150 des ersten Sensors 135 und eine zweite Sensorposition 155 des zweiten Sensors 140 über eine Schnittstelle, beispielsweise zu einer Speichereinrichtung in der Daten bezüglich der Sensorpositionen 150, 155 hinterlegt sind, einzulesen.
  • Erfindungsgemäß ist die Einleseeinheit 105 auch als eine Ermittlungseinheit zum Ermitteln von unbekannten Sensorpositionen 150, 155 ausgeführtund jeweils mit den Sensoren 135, 140 verbunden, beispielsweise über eine Funkverbindung. Die Ermittlungseinheit ist ausgebildet, um die erste Sensorposition 150 des ersten Sensors 135 und die zweite Sensorposition 155 des zweiten Sensors 140 zu ermitteln. Hierbei ist der ersten Sensorposition 150 ein erster Erfassungsbereich 160 und der zweiten Sensorposition 155 ein zweiter Erfassungsbereich 165 des dreidimensionalen Raums zugeordnet. Die Person 145 kann sich in dem ersten Erfassungsbereich 160 und alternativ oder zusätzlich in dem zweiten Erfassungsbereich 165 aufhalten, wenn sie die Geste 102 ausführt.
  • Die Einleseeinheit 110 ist mit dem ersten Sensor 135 und die Einleseeinheit 120 ist mit dem zweiten Sensor 140 verbunden, beispielsweise jeweils über eine Funkverbindung. Der erste Sensor 135 ist ausgebildet, um das erste Abtastsignal 115 auszugeben. Der zweite Sensor 140 ist ausgebildet, um das zweite Abtastsignal 125 auszugeben. Hierbei repräsentiert das erste Abtastsignal 115 ein Bewegen der Person 145 durch den ersten Erfassungsbereich 160 und das zweite Abtastsignal 125 ein Bewegen der Person 145 durch den zweiten Erfassungsbereich 165, insbesondere sofern die Person 145 die Geste 102 ausführt. Die Einleseeinheit 110 ist ausgebildet, um das erste Abtastsignal 115 einzulesen. Die Einleseeinheit 120 ist ausgebildet, um das zweite Abtastsignal 125 einzulesen.
  • Die Sensoren 135, 140 sind ausgebildet, um die Geste 102 berührungslos je durch Aussenden eines Überwachungssignals und Empfangen einer Reflexion des Überwachungssignals zu erfassen. Bei dem Überwachungssignal kann es sich beispielsweise um eine Radarsignal oder um ein Ultraschallsignal handeln. Beispielsweise können die Sensoren 135, 140 ausgebildet sein, um durch fortlaufendes Aussenden des Überwachungssignals eine Bewegung der Person 145, beispielsweise eine Bewegung einer Hand der Person 145 zu erfassen. Die Sensoren 135, 140 können ausgebildet sein, um die Reflexion des Überwachungssignals oder Reflexionen aufeinanderfolgender Überwachungssignale auszuwerten, um eine Trajektorie der Bewegung zu bestimmen und durch einen Vergleich der Trajektorie der Bewegung mit einer der Geste 102 zugeordneten Bewegungstrajektorie die Geste 102 zu identifizieren. Kann zwischen mehreren unterschiedlichen Gesten 102 unterschieden werden, so kann durch einen Vergleich der Trajektorie der Bewegung mit den unterschiedlichen Gesten 102 zugeordneten Bewegungstrajektorien, die jeweils erfolgte Geste 102 identifiziert werden. Somit können die Abtastsignale 115, 125 bereits eine Information über die erkannte Geste 102 umfassen. In diesem Fall kann die Erkennungseinheit 130 ausgebildet sein, um von den einzelnen Sensoren 135, 140 übermittelte Informationen über erkannte Gesten 102 zusammenzuführen. Alternativ können die Abtastsignale 115, 125 lediglich eine Information über die Reflexion des Überwachungssignals umfassen oder eine Information über eine erkannte Trajektorie einer Bewegung umfassen und die Geste 102 kann von der Erkennungseinheit 130 identifiziert werden.
  • Die Einleseeinheiten 110, 120 sind je mit der Erkennungseinheit 130 verbunden. Die Einleseeinheit 110 kann das erste Abtastsignal 115 ausgeben. Die zweite Einleseeinheit 120 kann das zweite Abtastsignal 125 ausgeben. Die Erkennungseinheit 130 ist ausgebildet, um die Abtastsignale 115, 125 zu empfangen. Ferner ist die Erkennungseinheit 130 mit der Einleseeinheit 105 oder der Ermittlungseinheit verbunden. Die Einleseeinheit 105 oder Ermittlungseinheit ist ausbildet, um die Sensorpositionen 150, 155 der Sensoren 135, 140 etwa in Form entsprechender Signale an die Erkennungseinheit 130 auszugeben. Die Erkennungseinheit 130 ist ausgebildet, um unter Verwendung zumindest einer der Sensorpositionen 150, 155 und zumindest eines der Abtastsignale 115, 125 die Geste 102 zu erkennen.
  • Erfindungsgemäß empfangen die Sensoren 135, 140 zum Ermitteln der Sensorpositionen 150, 155 je ein Triggersignal. Das Triggersignal kann von der Vorrichtung 100 bereitgestellt werden. Ansprechend auf das Triggersignal gebendie Sensoren, 135, 140 je ein Ortungssignal aus. Hierbei kann eine relative Position des ersten Sensors 135 zu dem zweiten Sensor 140 unter Verwendung des von dem zweiten Sensor 140 empfangenen ersten Ortungssignals bestimmt werden. Alternativ oder zusätzlich kann die relative Position unter Verwendung des von dem ersten Sensor 135 empfangenen zweiten Ortungssignals bestimmt werden. Beispielsweise kann eine Zeitverschiebung zwischen dem Empfangen des Triggersignals und dem Empfangen der Ortungssignale verwendet werden, um eine Entfernung zwischen den Sensoren 135, 140 zu ermitteln.
  • In dem dreidimensionalen Raum kann sich eine weitere Person 170 befinden. Bei der weiteren Person 170 kann es sich um einen weiteren Gestennutzer handeln, der die Geste 102 ausführen kann. Die weitere Person 170 kann wie die Person 145 von den Sensoren 135, 140 erfasst werden, wenn sie die Geste 102 ausführt. Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung kann die Geste 102 derjenigen Person 145, 170 zugeordnet werden, die die Geste 102 ausführt. Führen beide Personen 145, 170 die Geste 102 aus, so kann die Geste 102 beiden Personen 145, 170 zugeordnet werden. Die Zuordnung der Geste 102 zu den Personen 145, 170 kann in Abhängigkeit von den jeweiligen Aufenthaltsorten der Personen 145, 170 in dem ersten Erfassungsbereich 160 und/oder dem zweiten Erfassungsbereich 165 erfolgen. Alternativ zu der Geste 102 kann die weitere Person 170 eine weitere, sich von der Geste 102 unterscheidende Geste ausführen, die auf eine entsprechende Weise erkannt und der Person 170 zugeordnet werden kann.
  • Ein Abstand zwischen zwei am weitesten voneinander entfernten Sensoren 135, 140 des Sensornetzwerkes kann beispielsweise mehr als zwei Meter, mehr als drei Meter oder mehr als 5m betragen.
  • Gemäß einem Ausführungsbeispiel ist in 1 ein Sensornetzwerk bestehend aus mehreren drahtlos vernetzten im Raum verteilten Radarsensoren 135, 140 gezeigt, die zur Gestenerkennung ortsaufgelöste Daten über Gesten 102 zuordenbare Bewegungen und Objekte 145, 170 an eine zentrale Auswerteeinheit 100 übertragen. Durch die Verwendung mehrerer Sensoren 135, 140 können Einschränkungen im Erfassungsbereich eines einzelnen Gestenerkennungssensors 135, 140 überwunden werden. Dadurch ist es für eine Person 145, die möchte, dass die von ihr ausgeführte Geste 102 erkannt wird, nicht notwendig sich bewusst zu einem einzelnen der Sensoren 135, 140 hin zu orientieren. Dieser Vorschlag kann bei allen Arten von Geräten zum Einsatz kommen, beispielsweise bei computergesteuerten Medizingeräten bei denen eine sterile Eingabe von Befehlen von Wichtigkeit ist.
  • 2 zeigt eine schematische Darstellung einer Gestenerkennungssituation mit einem Sensorknoten 200 zur Verwendung in einem Ausführungsbeispiel der vorliegenden Erfindung.
  • Der Sensorknoten 200, auch Sensormodul genannt, ist in einem dreidimensionalen Raum angeordnet. In dem dreidimensionalen Raum befindet sich eine Person 145. Bei der Person kann es sich um die in 1 gezeigte Person 145 handeln. Der Sensorknoten 200 ist ausgebildet, um die von der Person 145 ausgeführte Geste zu erfassen. Der Sensorknoten kann als einer der in 1 gezeigten Sensoren eingesetzt werden.
  • Der Sensorknoten 200 weist ein Funkmodul 215, ein Gestenerkennungsmodul 220 sowie eine Stromversorgung 225 auf. Das Funkmodul 215 und das Gestenerkennungsmodul 220, auch Gestenerkennungssensor genannt, sind je mit der Stromversorgung 225 verbunden. Bei der Stromversorgung 225 kann es sich um eine Energiespeichereinheit, etwa in Form einer Batterie oder eines Akkumulators, handeln.
  • Das Funkmodul 215 ist mit dem Gestenerkennungsmodul 220 verbunden. Das Funkmodul 215 kann beispielsweise über eine Schnittstelle mit der in 1 gezeigten Vorrichtung 100 verbunden sein. Das Funkmodul 215 kann ausgebildet sein, um das Abtastsignal und/oder die Sensorposition an die Vorrichtung 100 zu übertragen.
  • Das Gestenerkennungsmodul 220 weist einen schwenkbaren Erfassungsbereich 230 auf. Die Person 145 ist so positioniert, dass sie sich beim Ausführen der Geste in dem Erfassungsbereich 230 befindet. Das Gestenerkennungsmodul 220 ist ausgebildet, um Bewegungen der Person 145 in dem Erfassungsbereich 230 zu erfassen. Beispielsweise kann das Gestenerkennungsmodul 220 die Bewegungen mittels Radarortung erfassen. Ferner kann das Gestenerkennungsmodul 220 das entsprechende Abtastsignal an das Funkmodul 215 ausgeben. Das Funkmodul 115 kann das Abtastsignal über die Schnittstelle an die in 1 gezeigte Vorrichtung 100 übertragen. Die Vorrichtung 100 kann ausgebildet sein, um die Geste unter Verwendung des Abtastsignals und der Sensorposition zu erkennen.
  • Ferner kann das Funkmodul 215 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung ausgebildet sein, um ein von einer Synchronisationseinheit ausgegebenes Synchronisationssignal zu empfangen. Die Synchronisationseinheit kann Teil der in 1 dargestellten Vorrichtung 100 sein. Das Funkmodul 215 kann das Synchronisationssignal an das Gestenerkennungsmodul 220 ausgeben.
  • Beispielsweise kann die Synchronisationseinheit ausgebildet sein, um unter Verwendung des Synchronisationssignals das Gestenerkennungsmodul 220 mit einem weiteren Gestenerkennungsmodul eines weiteren in dem dreidimensionalen Raum angebrachten Sensorknotens zu synchronisieren. Hierbei kann es sich um ein Sensornetzwerk bestehend aus mehreren drahtlos miteinander verbundenen Sensorknoten zum Erfassen der Geste handeln.
  • Das Synchronisationssignal kann an den Sensorknoten 200 und den weiteren Sensorknoten gesendet werden, um die Sensorkonten 200 zu synchronisieren.
  • Besteht ein solches Sensornetzwerk aus dem Sensorknoten 200 und zwei weiteren Sensorknoten, so können sich die Sensorknoten gegenseitig orten. Durch Methoden wie Triangulation kann jeder Sensorknoten die jeweils als benachbart georteten Sensorknoten in sein Koordinatensystem oder einem Gesamtkoordinatensystem einordnen. Alternativ kann die Einordnung der Positionen der Sensorknoten auch von der in 1 gezeigten Vorrichtung 100 vorgenommen werden.
  • Im Folgenden wird anhand der 1 und 2 ein Ausführungsbeispiel der vorliegenden Erfindung beschrieben.
  • Ein System zum berührungslosen Erfassen einer Geste 102 kann eine Mehrzahl von Sensoren 135, 140, auch Sensorknoten 200 genannt, aufweisen. Die Sensoren 135, 140, 200 können einen Hochfrequenzsensor, etwa ein Radarmodul, als Gestenerkennungsmodul 220 zur Gesten- bzw. Bewegungsmustererkennung und/oder zur Datenvorverarbeitung aufweisen. Das Radarmodul kann auch als Radarsensor oder Sensor bezeichnet werden. Ferner können die Sensorknoten 135, 140, 200 ein Modul zur Funkdatenübertragung als Funkmodul 215, auch Funkschnittstelle genannt, und weitere Module als Stromversorgung 225 aufweisen.
  • Die Sensoren 135, 140, 200 können sich über die Funkschnittstelle synchronisieren und sich relativ zueinander über den getriggerten Empfang eines Radarsignals des jeweils anderen Sensors 135, 140, 200 lokalisieren. Dabei werden die Richtungen, aus denen die jeweils anderen Sensoren 135, 140, 200 empfangen werden, gemessen und abgelegt. Ansprechend auf die Bestimmung der Sensorpositionen wird der Raum ablaufgesteuert durch die im Raum angebrachten Sensoren 135, 140, 200 abgetastet.
  • Die Sensoren 135, 140, 200 können ausgebildet sein, um ortsaufgelöst Daten über Objekte und Bewegungen in ihrem jeweiligen Überwachungsbereich zu gewinnen. Ferner können die Sensoren 135, 140, 200 ausgebildet sein, um diese Daten an eine zentrale Auswerteeinheit 100 zu übertragen. Die zentrale Auswerteeinheit 100 kann auch als zentrales Steuergerät oder Mastersensor bezeichnet werden. Dabei kann es sich beispielsweise um die in 1 gezeigte Vorrichtung 100 handeln. Die Sensoren 135, 140, 200 weisen eine relative Orientierung im Raum auf. Die Sensoren 135, 140, 200 können ausgebildet sein, um den überwachten Raum richtungsaufgelöst abzutasten. Somit kann sichergestellt werden, dass die erfassten Bewegungsmuster, auch Gesten oder Eingaben genannt, ortsaufgelöst sind und einem Nutzer der Sensoren 135, 140, 200 zugeordnet werden können. Die eigentliche Zuordnung der Eingaben erfolgt in der zentralen Auswerteeinheit 100. Damit kann ein solches System auch mehrnutzerfähig und robust gegenüber beweglichen Abschaltungen gemacht werden.
  • 3 zeigt ein Ablaufdiagramm eines Verfahrens 300 zum berührungslosen Erkennen einer Geste gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Hierbei kann die Geste unter Verwendung eines ersten Sensors und zumindest eines zweiten Sensors erkannt werden. Die Geste repräsentiert ferner eine Bewegung eines Objekts in einem dreidimensionalen Raum. Zunächst erfolgt ein Schritt 305 des Einlesens oder Ermittelns einer ersten Sensorposition des ersten Sensors und zumindest einer zweiten Sensorposition des zumindest einen zweiten Sensors. Dabei ist dem ersten Sensor ein erster Erfassungsbereich des dreidimensionalen Raums und dem zumindest einen zweiten Sensor ein zweiter Erfassungsbereich des dreidimensionalen Raums zugeordnet. In einem Schritt 310 wird ein erstes Abtastsignal des ersten Sensors eingelesen, um eine erste Trajektorie des Objekts zu erfassen. Hierbei repräsentiert die erste Trajektorie ein Bewegen des Objekts durch den ersten Erfassungsbereich. Ferner wird im Schritt 310 ein zweites Abtastsignal des zumindest einen zweiten Sensors eingelesen, um eine zweite Trajektorie des Objekts zu erfassen. Hierbei repräsentiert die zweite Trajektorie ein Bewegen des Objekts durch den zweiten Erfassungsbereich. Schließlich erfolgt ein Schritt 315 des Erkennens der Geste unter Verwendung zumindest einer der Sensorpositionen und zumindest eines der Abtastsignale.
  • Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden. Ferner können erfindungsgemäße Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden.
  • Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.

Claims (9)

  1. Verfahren (300) zum berührungslosen Erkennen einer Geste (102) unter Verwendung eines ersten Sensors (135; 200) und eines räumlich von dem ersten Sensor (135; 200) entfernt angeordneten zweiten Sensors (140), wobei die Geste (102) eine Bewegung eines Objekts in einem dreidimensionalen Raum repräsentiert, wobei das Verfahren (300) folgende Schritte umfasst: Einlesen (305) einer ersten Sensorposition (150) des ersten Sensors (135; 200) und einer zweiten Sensorposition (155) des zweiten Sensors (140), wobei dem ersten Sensor (135; 200) ein erster Erfassungsbereich (160) des dreidimensionalen Raums zugeordnet ist und dem zweiten Sensor (140) ein zweiter Erfassungsbereich (165) des dreidimensionalen Raums zugeordnet ist; Einlesen (310) eines ersten Abtastsignals (115) des ersten Sensors (135; 200), um eine erste Trajektorie des Objekts zu erfassen, wobei die erste Trajektorie ein Bewegen des Objekts durch den ersten Erfassungsbereich (160) repräsentiert; Einlesen (310) eines zweiten Abtastsignals (125) des zweiten Sensors (140), um eine zweite Trajektorie des Objekts zu erfassen, wobei die zweite Trajektorie ein Bewegen des Objekts durch den zweiten Erfassungsbereich (165) repräsentiert; und Erkennen (315) der Geste (102) unter Verwendung zumindest einer der Sensorpositionen (150, 155) und zumindest eines der Abtastsignale (115, 125), gekennzeichnet durch einen Schritt des Ermittelns der ersten Sensorposition (150) des ersten Sensors (135; 200) und einer zweiten Sensorposition (155) des zweiten Sensors (140) und durch einen Schritt des Empfangens eines Triggersignals zum Bestimmen einer relativen Position des ersten Sensors (135; 200) zu dem zweiten Sensor (140), wobei im Schritt des Ermittelns (305) ansprechend auf das Triggersignal ein erstes Ortungssignal von dem ersten Sensor (135; 200) und/oder ein zweites Ortungssignal von dem zweiten Sensor (140) ausgegeben wird, wobei die relative Position des ersten Sensors (135; 200) zu dem zweiten Sensor (140) unter Verwendung des von dem zweiten Sensor (140) empfangenen ersten Ortungssignals und/oder des von dem ersten Sensor (135; 200) empfangenen zweiten Ortungssignals bestimmt wird.
  2. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Empfangens eines Synchronisationssignals zum Synchronisieren des ersten Sensors (135; 200) und des zweiten Sensors (140) über eine Schnittstelle zu einer Synchronisationseinheit.
  3. Verfahren (300) gemäß Anspruch 2, bei dem im Schritt des Empfangens das Synchronisationssignal über eine drahtlose Schnittstelle zu der Synchronisationseinheit ausgegeben wird.
  4. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Zuordnens der Geste (102) zu einem Gestennutzer, wobei ein Aufenthaltsort des Gestennutzers dem ersten Erfassungsbereich (150) und/oder dem zweiten Erfassungsbereich (155) des dreidimensionalen Raums zuordenbar ist.
  5. Verfahren (300) gemäß Anspruch 4, bei dem im Schritt des Zuordnens die Geste (102) ferner zumindest einem weiteren Gestennutzer zugeordnet wird, wobei zumindest ein weiterer Aufenthaltsort des zumindest einen weiteren Gestennutzers dem ersten Erfassungsbereich (160) und/oder dem zweiten Erfassungsbereich (165) des dreidimensionalen Raums zuordenbar ist.
  6. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Einlesens (310) der Abtastsignale (115, 125) das erste Abtastsignal (115) und das zweite Abtastsignal (125) je ein Radarsensorsignal repräsentieren.
  7. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Einlesens (305) der Sensorpositionen (150, 155) ferner zumindest eine weitere Sensorposition zumindest eines weiteren Sensors eingelesen wird, wobei dem zumindest einen weiteren Sensor zumindest ein weiterer Erfassungsbereich des dreidimensionalen Raums zugeordnet ist, wobei das Verfahren (300) ferner einen Schritt des Einlesens (310) zumindest eines weiteren Abtastsignals umfasst, um zumindest eine weitere Trajektorie des Objekts zu erfassen, wobei die zumindest eine weitere Trajektorie ein Bewegen des Objekts durch den zumindest einen weiteren Erfassungsbereich repräsentiert, wobei im Schritt des Erkennens (315) die Geste (102) ferner unter Verwendung der zumindest einen weiteren Sensorposition und des zumindest einen weiteren Abtastsignals erkannt wird.
  8. Vorrichtung (100) zum berührungslosen Erkennen einer Geste (102) unter Verwendung eines ersten Sensors (135; 200) und eines räumlich von dem ersten Sensor (135; 200) entfernt angeordneten zweiten Sensors (140), wobei die Geste (102) eine Bewegung eines Objekts in einem dreidimensionalen Raum repräsentiert, wobei die Vorrichtung (100) folgende Merkmale aufweist: eine Einleseeinheit (105) zum Einlesen einer ersten Sensorposition (150) des ersten Sensors (135; 200) und einer zweiten Sensorposition (155) des zweiten Sensors (140), wobei dem ersten Sensor (135; 200) ein erster Erfassungsbereich (160) des dreidimensionalen Raums zugeordnet ist und dem zweiten Sensor (140) ein zweiter Erfassungsbereich (165) des dreidimensionalen Raums zugeordnet ist; eine Einleseeinheit (110) zum Einlesen eines ersten Abtastsignals (115) des ersten Sensors (135; 200), um eine erste Trajektorie des Objekts zu erfassen, wobei die erste Trajektorie ein Bewegen des Objekts durch den ersten Erfassungsbereich (160) repräsentiert; eine Einleseeinheit (120) zum Einlesen eines zweiten Abtastsignals (125) des zweiten Sensors (140), um eine zweite Trajektorie des Objekts zu erfassen, wobei die zweite Trajektorie ein Bewegen des Objekts durch den zweiten Erfassungsbereich (165) repräsentiert; und eine Erkennungseinheit (130) zum Erkennen der Geste (102) unter Verwendung zumindest einer der Sensorpositionen (150, 155) und zumindest eines der Abtastsignale (115, 125), dadurch gekennzeichnet, dass. die Einleseeinheiten (110, 120) als Ermittlungseinheiten zum Ermitteln von unbekannten Sensorpositionen (150, 155) ausgeführt und jeweils mit einem der Sensoren (135, 140), insbesondere über eine Funkverbindung, verbunden sind und dass die Sensoren (135, 140) jeweils ausgebildet sind, ansprechend auf ein empfangenes Triggersignal ein von dem jeweiligen anderen Sensor zu empfangendes Ortungssignal für eine relative Positionsbestimmung des ersten Sensors (135) und des zweiten Sensors (140) zueinander auszugeben.
  9. Computerprogrammprodukt mit Programmcode zur Durchführung des Verfahrens (300) nach einem der Ansprüche 1 bis 7, wenn das Programmprodukt auf der Vorrichtung (100) ausgeführt wird.
DE102013211335.8A 2013-06-18 2013-06-18 Verfahren und Vorrichtung zum berührungslosen Erkennen einer Geste unter Verwendung eines ersten Sensors und eines zweiten Sensors Active DE102013211335B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013211335.8A DE102013211335B4 (de) 2013-06-18 2013-06-18 Verfahren und Vorrichtung zum berührungslosen Erkennen einer Geste unter Verwendung eines ersten Sensors und eines zweiten Sensors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013211335.8A DE102013211335B4 (de) 2013-06-18 2013-06-18 Verfahren und Vorrichtung zum berührungslosen Erkennen einer Geste unter Verwendung eines ersten Sensors und eines zweiten Sensors

Publications (2)

Publication Number Publication Date
DE102013211335A1 DE102013211335A1 (de) 2014-12-18
DE102013211335B4 true DE102013211335B4 (de) 2019-09-12

Family

ID=52009795

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013211335.8A Active DE102013211335B4 (de) 2013-06-18 2013-06-18 Verfahren und Vorrichtung zum berührungslosen Erkennen einer Geste unter Verwendung eines ersten Sensors und eines zweiten Sensors

Country Status (1)

Country Link
DE (1) DE102013211335B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021211743A1 (de) 2021-10-18 2023-04-20 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Bereitstellen von Tracking-Daten für die Erkennung der Bewegung von Personen und Händen zum Steuern mindestens einer Funktion eines Technischen Systems und Sensorsystem

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015005735A1 (de) * 2015-05-07 2016-11-10 Abb Ag Installationsgerät der Haus- oder Gebäudeinstallationstechnik mit erweiterter Funktionalität
DE102015015067A1 (de) 2015-11-20 2017-05-24 Audi Ag Kraftfahrzeug mit zumindest einer Radareinheit
US10303259B2 (en) 2017-04-03 2019-05-28 Youspace, Inc. Systems and methods for gesture-based interaction
US10437342B2 (en) 2016-12-05 2019-10-08 Youspace, Inc. Calibration systems and methods for depth-based interfaces with disparate fields of view
US10303417B2 (en) * 2017-04-03 2019-05-28 Youspace, Inc. Interactive systems for depth-based input
DE102017004214A1 (de) 2017-04-29 2018-10-31 INPRO Innovationsgesellschaft für fortgeschrittene Produktionssysteme in der Fahrzeugindustrie mbH Verfahren zur Identifikation standardisierter industrie- und anwendungsfallspezifischer Freihandbefehle
DE102017212368A1 (de) 2017-07-19 2019-01-24 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zur positionsbestimmung im innenraum eines kraftfahrzeugs
DE102018008366B4 (de) 2018-10-23 2020-06-18 INPRO Innovationsgesellschaft für fortgeschrittene Produktionssysteme in der Fahrzeugindustrie mbH Verfahren und Anlage zum gestenbasierten Steuern eines Prüfprozesses an einem industriellen teilautomatisierten Sichtprüfplatzes eines industriellen technischen Prozesses oder einer industriellen technischen Produktionsanlage

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10124909A1 (de) 2001-05-22 2002-12-19 Bosch Gmbh Robert Verfahren und Vorrichtung zum Betrieb einer Radarsensoranordnung
WO2009024881A1 (en) 2007-08-23 2009-02-26 Telefonaktiebolaget Lm Ericsson (Publ) System and method for gesture-based command and control of targets in wireless network
DE102011075725A1 (de) 2011-05-12 2012-11-15 Robert Bosch Gmbh Verfahren zum Erkennen von Gesten

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10124909A1 (de) 2001-05-22 2002-12-19 Bosch Gmbh Robert Verfahren und Vorrichtung zum Betrieb einer Radarsensoranordnung
WO2009024881A1 (en) 2007-08-23 2009-02-26 Telefonaktiebolaget Lm Ericsson (Publ) System and method for gesture-based command and control of targets in wireless network
DE102011075725A1 (de) 2011-05-12 2012-11-15 Robert Bosch Gmbh Verfahren zum Erkennen von Gesten

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BLUMENTHAL, J.: Ressourcenarme und dezentrale Lokalisierung autonomer Sensorknoten in Sensornetzwerken. Dissertation, Universität Rostock, Fakultät für Informatik und Elektrotechnik, 2008, Kapitel 2 und 3, S. 9-64. URL: http://rosdok.uni-rostock.de/file/rosdok_derivate_000000003601/Dissertation_Blumenthal_2008.pdf [abgerufen am 02.10.2018] *
HIGHTOWER, J. and BORRIELLO, G.: A Survey and Taxonomy of Location Systems for Ubiquitous Computing. Technical Report, 2001, S. 1-29. Semantic Scholar [online] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021211743A1 (de) 2021-10-18 2023-04-20 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Bereitstellen von Tracking-Daten für die Erkennung der Bewegung von Personen und Händen zum Steuern mindestens einer Funktion eines Technischen Systems und Sensorsystem

Also Published As

Publication number Publication date
DE102013211335A1 (de) 2014-12-18

Similar Documents

Publication Publication Date Title
DE102013211335B4 (de) Verfahren und Vorrichtung zum berührungslosen Erkennen einer Geste unter Verwendung eines ersten Sensors und eines zweiten Sensors
EP2824433B1 (de) Universelle Messdatenerfassung in Gewässern
DE102011075725A1 (de) Verfahren zum Erkennen von Gesten
DE10143561B4 (de) Verfahren und System zur Lokalisierung von Emittern
DE102015006931B4 (de) Parkzonen-Erkennungsvorrichtung und Steuerungsverfahren davon
DE102012004396A1 (de) Verfahren und Vorrichtung zum Erfassen von Objekten in einer Umgebung eines Fahrzeugs
DE102020101482B3 (de) Sicherheitssystem und Verfahren
DE102021201968B4 (de) Verfahren zum Betreiben einer Ultrabreitbandvorrichtung, Ultrabreitbandvorrichtung und Fahrzeug umfassend eine Ultrabreitbandvorrichtung
WO2012031685A1 (de) Positionsbestimmung mittels rfid-tags
WO2015000089A1 (de) Verfahren zur bestimmung von trajektorien beweglicher physischer objekte in einem raum, auf der basis von sensordaten mehrerer sensoren
DE102016201845A1 (de) Verfahren und System zum Erfassen einer Eingabe für eine Einrichtung
DE102015121384A1 (de) Verfahren und Vorrichtung zur hochpräzisen Positionsbestimmung eines mobilen Gerätes sowie Verfahren zur Lokalisierung oder Positionierung von ortsfesten Geräten
DE102018200757A1 (de) Verfahren und Vorrichtung zum Detektieren kritischer Querbewegungen
DE102018208464A1 (de) Verfahren zur Funktionsprüfung eines Radarsensors sowie zur Durchführung des Verfahrens geeignete Einrichtung
DE202019005611U1 (de) Leitsystem basierend auf Millimeter-Wellen Radar
DE102019132024A1 (de) Sicherheitssystem
DE112021003079T5 (de) Radarvorrichtung und radarsystem
DE102019200177B4 (de) Verfahren zur Identifizierung eines Lebewesens
DE202019106569U1 (de) Sicherheitssystem
CN106371082B (zh) 线性速度拖引干扰识别方法
US10436621B2 (en) Detection for localizing a particle
DE112018003083T5 (de) Sechs-Freiheitsgrade-Tracking von Objekten unter Verwendung von Sensoren
AT515554B1 (de) Ultraschallsensor und Verfahren zur Ortung von Objekten
DE102017220506A1 (de) Verfahren und Vorrichtung zum Schätzen eines maritimen Verkehrszustandes
DE102018211350A1 (de) System und verfahren zur lokalisierung eines mobilen endgeräts sowie verfahren zum erzeugen von datensätzen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R084 Declaration of willingness to licence