-
Mit fortschreitender technischer Entwicklung bieten elektronische Geräte eine immer größere Funktionsvielfalt mit welcher die Bedienschnittstelle schritthalten muss und deshalb ebenso immer leistungsfähiger werden muss. Nur so kann dem Anwender der vollständige Funktionsumfang dieser Geräte nutzbar gemacht werden. Mit steigendem Funktionsumfang wird jedoch vor allem die intuitive Bedienbarkeit eine immer größer werdendes Herausforderung. Dazu werden oftmals Gesten, das heißt Bewegungen menschlicher Extremitäten, eingesetzt, wie beispielsweise beschrieben in
WO 2013/130285 oder
EP 2 693 300 A3 . Mit wachsendem Umfang und steigender Komplexität der zu steuernden Funktionen reichen diese Systeme aber oftmals nicht mehr aus, um dem Nutzer alle Funktionen auf intuitive Art und Weise zugänglich zu machen. Der beschränkende Faktor herkömmlicher Systeme ist in der Regel die begrenzte Anzahl an nutzbaren Freiheitsgraden. Die hier beschriebene Erfindung betrifft deshalb ein Verfahren und eine Vorrichtung, die eingesetzt werden können, um die Steuerung elektronischer Geräte mittels der Bewegung von Objekten zu ermöglichen und dabei eine Vielzahl unterschiedlicher Bewegungen erkennbar machen. Das können beispielsweise neben Gesten mit Händen und/oder Füßen auch die Bewegung eines gesamten menschlichen Körpers oder beliebiger anderer Objekte in einem definierten Raum sein. Als zu steuernde Geräte sind alle elektronischen Geräte denkbar, die eine Eingabe benötigen. Durch die Art und Weise wie die Objektbewegungen erkannt werden, lässt sich die Vorrichtung beispielsweise in Räume integrieren, um smarte Haushaltsgeräte wie zum Beispiel Lampen, Leuchten, Rollläden, Verschattungen, Klimaanlagen, Heizgeräte, Musik- und Filmwiedergabegeräte zu steuern.
Die Aufgabe der Erfindung ist es eine Lösung bereitzustellen, mittels der eine Erfassung oder Erkennung einer Bewegung eines Objekts in einem Raum möglich ist. Gleichzeitig kann die Relativlage des Objekts im Raum zu einem Bezugspunkt bestimmt werden. Die Erfindung ermöglicht dadurch eine große Anzahl an Freiheitsgraden und damit eine große Anzahl an steuerbaren Funktionen angebundener Geräte. Das beschriebene Verfahren kann zudem kombiniert werden mit Methoden des Maschinellen Lernens beziehungsweise Künstlicher Intelligenz, um so beispielsweise die Erkennungsrate von Gesten des Anwenders zu verbessern. Diese Aufgabe wird durch das in den Patentansprüchen offenbarte Verfahren und die offenbarte Vorrichtung gelöst. Vorteilhafte Weiterbildungen der Erfindung sind in den abhängigen Patentansprüche und in folgender Beschreibung sowie den Abbildungen offenbart.
-
Vorrichtung
-
Die erfindungsgemäße Erfassungsvorrichtung umfasst mindestens zwei Sensoreinrichtungen, mindestens eine Auswerteeinrichtung sowie einen drahtgebundenen und/oder drahtlosen Datenübertragungskanal. Der Datenübertragungskanal verbindet die Sensoreinrichtungen mit der mindestens einen Auswerteeinrichtung und ermöglicht so die Platzierung der mindestens zwei Sensoreinrichtungen an unterschiedlichen Positionen im Raum. Hierzu können beispielsweise serielle oder parallele Busse zur drahtgebundenen Datenübertragung eingesetzt werden, oder drahtlose Übertragungsverfahren wie beispielsweise Wlan, Bluetooth, Zigbee, NFC, LiFi, LoRaWAN und/oder Mobilfunk. In den Sensoreinrichtungen kommen Verfahren zur Messung der Distanz zwischen der jeweiligen Sensoreinrichtung und einem Objekt zum Einsatz, beispielsweise basierend auf Laufzeit, Licht/IR, Kapazität, Schall, Ultra-wideband und/oder Radar.
-
Verfahren
-
Das Verfahren zur Erkennung von Objektbewegungen in einem bestimmten Bereich besteht aus mehreren Schritten, welche nacheinander durchgeführt werden. Als Bewegung wird hier die Änderung der Position eines Objekts mit der Zeit verstanden. Zunächst wird der zu betrachtende Bereich in mehrere Zellen zerlegt, die in der Regel in ihrer Dimension der des zu betrachtenden Bereichs entsprechen. Wird beispielsweise ein dreidimensionaler Bereich betrachtet, wird dieser in der Regel in dreidimensionale Zellen zerlegt, entsprechend bei zwei- und eindimensionalen Bereichen. Nachfolgend werden Sensoreinrichtungen einer Erfassungsvorrichtung so angeordnet, dass jede der Zellen im Erfassungsbereich von mindestens einer Sensoreinrichtung liegt. Jeder Zelle wird entsprechend ihrer Position im betrachteten Bereich ein Speicherplatz in einem Speicherbereich, beispielsweise eine Variable (Speicherplatz) in einem ein- oder mehrdimensionalen Array (Speicherbereich), zugeordnet und gegebenenfalls mit einem initialen Wert beschrieben. Sobald eine Sensoreinrichtung ein Objekt in einer der Zellen erfasst, wird der Wert des der Zelle zugeordneten Speicherplatzes so abgeändert, dass diese Erfassung bis zur Auswertung erkennbar bleibt. Zusätzlich zur Erfassung des Vorhandenseins lassen sich an dieser Stelle zeitliche Informationen abspeichern, welche eine Aussage zur Geschwindigkeit der Bewegung ermöglichen. So kann beispielsweise in festgelegten zeitlichen Intervallen das Vorhandensein eines Objekts in der jeweiligen Zelle geprüft werden und der Wert des zugeordneten Speicherplatzes erhöht werden, sofern das Objekt vorhanden ist. Wird das zeitliche Intervall ausreichend kurz gewählt, kann aus der Höhe des in der jeweiligen Zelle vorhanden Werts die Aufenthaltszeit des Objekts in der jeweiligen Zelle abgeleitet werden. Zum Beispiel kann gelten: Je höher der Wert, desto länger verweilte das Objekt in der Zelle und desto langsamer war die Bewegung in dieser Zelle. Zusätzlich lassen sich an dieser Stelle weitere Eigenschaften des erfassten Objekts abspeichern, sofern die Sensoreinrichtung diese detektieren kann und sie zur Unterscheidung von Objektbewegungen nützlich sind. Dazu zählen beispielsweise die Form, Farbe, Helligkeit, der Reflexionsgrad, die Temperatur, die Geschwindigkeit und/oder die Lautstärke des Objekts im Erfassungsbereich. Dadurch lässt sich beispielsweise die Bewegung eines Objekts, welches sich während der Bewegung erhitzt von der gleichen Bewegung des Objekts unterscheiden, das sich während der Bewegung abkühlt.
Die genannten Schritte aus Erfassung durch die Sensoreinrichtung und Speicherung an einem definierten Speicherplatz werden so lange wiederholt durchgeführt, bis eine definierte Abbruchbedingung erreicht ist. Dies kann beispielsweise die Bedingung sein, dass keine der Sensoreinrichtungen über einen definierten Zeitraum ein Objekt in ihrem jeweiligen Erfassungsbereich detektiert oder beispielsweise ein Objekt in einer als Endbereich definierten Raumzone erkannt wird. Ist die Abbruchbedingung erreicht, erfolgt im nächsten Schritt die Auswertung der gespeicherten Werte in der Auswerteeinrichtung. Dazu wird der Inhalt des Speicherbereichs mit mindestens einem bekannten Referenzinhalt verglichen, der eine bekannte Bewegung repräsentiert. Der mindestens eine Referenzinhalt wird vorab generiert indem der Speicherbereich ausgelesen wird nachdem die zu „erlernende“ Bewegung mindestens einmal ausgeführt wurde. Insbesondere bei der Erkennung von menschlichen Gesten ist zu erwarten, dass die Bewegung nicht bei jedem Mal exakt gleich ausgeführt wird. Ebenso können Umgebungsbedingungen wie zum Beispiel die Umgebungshelligkeit und/oder -temperatur zu Abweichungen in den Sensorwerten führen. Deshalb ist es im Allgemeinen notwendig keine exakte Übereinstimmung mit dem Referenzinhalt zu fordern und/oder bei der Generierung der Referenzinhalte bereits Abweichungen zu berücksichtigen. Zur Erhöhung der Robustheit gegenüber Abweichungen von der „idealen“ Bewegung können so zum Beispiel mehrere Referenzinhalte zur gleichen Bewegung gespeichert werden, welche die Bewegung in mehreren Durchgängen mit akzeptablen Abweichungen repräsentieren oder es können generell akzeptable Differenzen zwischen erfasstem Inhalt und Referenzinhalt festgelegt werden. Außerdem ist es möglich auf Maschinelles Lernen und/oder Verfahren basierend auf Künstlicher Intelligenz zurückzugreifen, die mit einer Vielzahl von Inhalten aus verschiedenen Durchgängen trainiert werden und dann anhand ihrer Modelle entscheiden ob beziehungsweise welcher Bewegung der vorliegende Inhalt zuzuordnen ist. Insbesondere Modelle zur Erkennung von Mustern können geeignet sein die Bewegung trotz Abweichungen bei der Ausführung und/oder Abweichung des bewegten Objekts zuverlässig zu erkennen. Wird eine Übereinstimmung des erfassten Inhalts mit dem Referenzinhalt einer bekannten Bewegung festgestellt, gegebenenfalls unter Berücksichtigung akzeptabler Abweichungen, wird im letzten Schritt diese Bewegung als erkannt ausgegeben.
-
Kalibrierung
-
Mit der Kalibrierung wird das System auf die herrschenden Umgebungsbedingungen eingerichtet. Insbesondere werden dabei die Nullwerte der jeweiligen Sensoreinheiten gemessen, um bei der eigentlichen Messung zu erkennen, ob sich ein Objekt im betrachteten Raumbereich befindet. Sie ist deshalb in der Regel notwendig, um Objekte und damit auch deren Bewegungen zuverlässig zu detektieren. Für die Kalibrierung werden zwei Fälle unterschieden:
- - Fall 1: Zu jeder Sensoreinrichtung ist die jeweilige Position in z-Richtung des Raums bekannt als absolute Position und/oder als relative Position.
In diesem Fall wird zur Kalibrierung von jeder Sensoreinrichtung im Freiraum, das heißt ohne dass sich ein zu detektierendes Objekt im von den Sensoreinrichtungen erfassten Raum befindet, der jeweilige Abstand zu den Raumgrenzen gemessen und als Nullwert abgespeichert.
- - Fall 2: Die jeweilige Position der Sensoreinrichtungen in z-Richtung des Raums ist nicht bekannt, jedoch sind hier die Form der Begrenzung des Raums in z-Richtung an den x-/y-Positionen der Sensoreinrichtungen bekannt, beziehungsweise kann diese aus dem typischen Anwendungszweck der Vorrichtung mit ausreichend hoher Wahrscheinlichkeit abgeleitet werden. Die Form kann hierbei beispielsweise durch die Abweichung der Begrenzung in z-Richtung zu einem Referenzwert an den x-/y-Positionen der jeweiligen Sensoreinrichtung beschrieben werden. Die Abweichung der Begrenzung des Raums in z-Richtung kann auch für alle Sensoreinrichtungen null sein, nämlich dann wenn die Begrenzung des Raums parallel zur x-/y-Ebene verläuft.
-
In diesem Fall wird zur Kalibrierung von jeder Sensoreinheit im Freiraum, das heißt ohne dass sich ein zu detektierendes Objekt im von den Sensoreinrichtungen erfassten Raum befindet, der jeweilige Abstand zu den Raumgrenzen gemessen und als Nullwert abgespeichert. Unter Berücksichtigung der für jede Sensoreinrichtung bekannten Abweichung der Begrenzung des Raums in z-Richtung sowie des jeweils gemessenen Abstands zu den Raumgrenzen kann die jeweilige Position der Sensoreinrichtung in z-Richtung des Raums als absolute Position und/oder als relative Position mathematisch bestimmt werden.
-
Für die Detektion von Objekten werden in der Regel lediglich Messwerte betrachtet, die einen geringeren Wert als der für die jeweilige Sensoreinrichtung abgespeicherte Nullwert aufweisen. Bei der Berechnung der Raumzone in welcher sich ein detektiertes Objekt befindet, wird die Position der Sensoreinrichtung in z-Richtung bezogen auf eine festgelegte Referenzposition, beispielsweise die Position einer definierten Sensoreinheit, vom erfassten Messwert subtrahiert. Dadurch wird erreicht, dass die Grenzen der Raumzonen über die Sensoreinheiten hinweg auf einer Ebene liegen. Das führt zu einer intuitiven Bedienbarkeit insbesondere beim Einsatz zur Erkennung von menschlichen Gesten. Denn durch dieses Vorgehen können Gesten in einer Ebene ausgeführt werden, unabhängig davon, ob die Sensoreinheiten ebenfalls auf einer Ebene angebracht sind oder nicht. Bei größeren Differenzen der Positionen der Sensoreinheiten in z-Richtung kann es vorteilhaft sein, die Anzahl der Raumzonen pro Sensoreinheit so zu variieren, dass der Raum bestmöglich abgedeckt wird.
-
Beispielhafte Ausführungen
-
In einer beispielhaften Ausführung sind die Sensoreinrichtungen als Time-of-Flight-Sensoren ausgeführt. 10 und 11 zeigen diese beispielhafte Ausführung in einer perspektivischen Ansicht, wobei in 11 zur grafischen Verdeutlichung die Raumzonen in einer vereinfachten Art eingezeichnet sind. Time-of-Flight-Sensoren sind generell dazu ausgelegt, mittels eines Laufzeitverfahrens eine Distanz zu einem Objekt zu messen. Dazu wird die Umgebung der Sensoreinrichtung mittels eines gerichteten Lichtpulses (beispielhaft im infraroten Spektralbereich) ausgeleuchtet und die Zeit gemessen, die das Licht bis zum Objekt und wieder zurück zur Sensoreinrichtung benötigt. Diese Zeit ist direkt proportional zur Distanz zu dem Objekt. Die Sensoreinrichtung kann so die Entfernung zu dem Objekt feststellen. Typischerweise können mit Time-of-Flight-Sensoren Distanzen von wenigen Millimetern bis zu mehreren zehn Metern gemessen werden. Insbesondere der Bereich bis zu drei Metern ist für die beispielhafte Ausführung von Relevanz. In der beispielhaften Ausführung werden mehrere Sensoreinrichtungen auf definierten Positionen im Raum platziert und durch einen drahtlosen Datenübertragungskanal mit einer zentralen Auswerte- und Speichereinrichtung verbunden. Die Sensoreinrichtungen erfassen zunächst zur Kalibrierung die Distanz zum nächsten Objekt im Freiraum, das heißt ohne dass sich ein zu detektierendes Objekt im von den Sensoreinrichtungen erfassten Raum befindet. Aus den gemessenen Daten werden die Raumzonen in z-Richtung definiert. Danach starten wiederholende Messungen, um festzustellen, ob sich ein Objekt in einer der Raumzonen befindet. Dies ist der Fall, wenn mindestens eine der gemessenen Distanzen kleiner ist als die für die jeweilige Sensoreinrichtung während der Kalibrierung erfasste Distanz. Die Sensoreinrichtungen erfassen dabei die Distanz zu einem Objekt oder mehreren Objekten in Richtung ihres Lichtpulses (hier bezeichnet als z-Richtung). Erfasst wird deshalb die Distanz zu der Oberfläche des Objekts/der Objekte, die der Lichtpuls zuerst trifft. Diese Distanz wird mittels Datenübertragungskanal zur Auswertungseinrichtung übertragen. Dort wird die jeweils gemessene Distanz als Abstand in z-Richtung gemäß einer Anordnung von Raumzonen diskretisiert, welche sich durch die Auflösung der Sensoreinrichtung (betrifft z-Richtung) sowie die jeweiligen Abstände der Sensoreinrichtungen in x- und y-Richtung definiert. Die Auswerteeinheit bestimmt die Raumzone beziehungsweise die Raumzonen in der beziehungsweise in denen sich das Objekt beziehungsweise die Objekte befinden, indem sie dem von der jeweilgen Sensoreinheit gemessenen Abstand in z-Richtung die betreffende Raumzone zuordnet, die durch die Position der Sensoreinheit in x-/y-Richtung definiert ist. Damit ist die jeweilige Position der erfassten Oberfläche des Objekts festgestellt. Zur späteren Bestimmung der ausgeführten Geste wird die betreffende Raumzone beziehungsweise die betreffenden Raumzonen in der Speichereinrichtung abgespeichert. Durch die Wiederholung dieses Vorgehens lassen sich neben der aktuellen Position auch Bewegungen beziehungsweise Geschwindigkeiten von Objekten durch die Raumzonen erfassen. Dabei kann zur Speicherung in der Speichereinrichtung beispielsweise eine Array-Datenstruktur verwendet werden, die die Raumzonen in bis zu drei Dimensionen repräsentiert. Jeder Raumzone wird dabei ein Feld der Array-Datenstruktur zugeordnet und zu Beginn jeder Messung mit einem definierten Startwert initialisiert. Mit jeder Messung, durchgeführt beispielsweise in einem Intervall in einem Erkennungszyklus, wird der Wert der Raumzonen, in denen Objekte detektiert werden, um einen festgelegten Betrag erhöht. Nach Abschluss des Erkennungszyklus repräsentieren die Werte in der Array-Datenstruktur sowohl den räumlichen als auch den zeitlichen Verlauf der ausgeführten Bewegung. Die Werte in der Array-Datenstruktur werden dann mit Referenzwerten unterschiedlicher Bewegungen in verschiedenen Array-Datenstrukturen verglichen und so die Referenz-Bewegung mit der höchsten Übereinstimmung ermittelt. Unter Berücksichtigung einer Toleranz zur Abweichung von gemessener Bewegung und Referenz-Bewegung wird die Bewegung, das heißt zum Beispiel eine Geste, dann als „erkannt“ oder „nicht erkannt“ deklariert. Dabei können bei Bedarf „Ein- und Ausfahrwege“ des Objekts in und aus dem von den Sensoreinrichtungen erfassten Raum vernachlässigt werden. Sowohl die Erstellung von Array-Datenstruktur der Referenz-Bewegungen wie auch die Auswertung gemessener Array-Datenstrukturen können durch den Einsatz von Methoden zur Mustererkennung mittels Maschinellem Lernen und/oder Künstlicher Intelligenz verbessert und vereinfacht werden. 5 und 6 zeigen beispielhaft die Visualisierung einer zweidimensionalen Array-Datenstruktur für die in 4 schematisch dargestellte Bewegung einer menschlichen Hand. In 5 wird diese Bewegung mit durchgängig gleichmäßiger Geschwindigkeit ausgeführt, während in 6 der horizontale Teil der Bewegung mit langsamerer Geschwindigkeit ausgeführt wird als die vertikalen Teile der Bewegung.
Für die Auswertung von Gesten menschlicher Hände und/oder Füße sowie Objekten in vergleichbarer Größe, hat sich ein Abstand der Sensoreinheiten zwischen circa 5 und 50 Zentimetern als zweckmäßig erwiesen. Das Intervall einzelner Messungen liegt dazu beispielsweise im Bereich von 10 Millisekunden bis 100 Millisekunden, ein Erkennungszyklus bei 2 Sekunden bis 10 Sekunden.
-
Zur Feststellung von Bewegungen von Personen oder Objekten, die sich in der Größe der von Personen ähneln, sind je nach geforderter Auflösung Abstände zwischen circa 10 Zentimetern und 100 Zentimetern zweckmäßig.
-
Durch die Verbindung mehrerer im Raum verteilter Sensoreinrichtungen wird es möglich komplexere Vorgänge zu erfassen als es mit einer einzelnen Sensoreinrichtung möglich wäre. So können beispielsweise Wisch-Gesten einer menschlichen Hand im Raum auf verschiedene Art und Weise erkannt werden wie in 2 schematisch dargestellt. Insbesondere wird es möglich Gesten auf unterschiedlichen Raumebenen (in z-Richtung) zu unterscheiden wie 2 mit dem Bewegungspfad der Geste (37) und (38), (39) und (40) sowie (41) und (42) schematisch zeigt. Eine weitere Dimension für die Bewegungserkennung wird durch die verteilten Sensoreinrichtungen ermöglicht, dadurch, dass unterschieden wird in welchen Raumzonen in x-/y-Richtung die Geste ausgeführt wird (vgl. 11). Zusätzlich lässt sich durch die im Raum verteilten Sensoreinrichtungen die Ausführungsgeschwindigkeit der Bewegung bestimmen, indem die Zeitpunkte der Erfassung mit in die Auswertung einfließen. Dies stellt ein weiteres Unterscheidungsmerkmal dar, was einer weiteren Dimension der Bewegungserkennung entspricht.
Durch die Verbindung mehrerer im Raum verteilter Sensoreinrichtungen ist es zudem möglich gleichzeitig mehrere Objekte zu erfassen. So lassen sich beispielsweise Gesten erkennen, die gleichzeitig mit zwei Händen ausgeführt werden. 3 stellt dies schematisch für Bewegungen in x-Richtung (Bewegungspfade (41)(42)(43)(44)) und z-Richtung (Bewegungspfade (45 und (46)) dar. Entsprechendes gilt für Bewegungen in y-Richtung.
-
Die Vorrichtung und das Verfahren erlauben des Weiteren die Auswertung von Pfaden durch einzelne Raumzonen wodurch komplexe Gesten aus mehreren Pfadteilen in x-/y-/z-Richtung, wie zum Beispiel in 4 schematisch für x-/z-Richtung dargestellt, erkannt werden können.
-
Die Vorrichtung und das Verfahren erlauben außerdem die Bestimmung der Größe eines Objekts im Detektionsbereich, indem ausgewertet wird über wie viele Raumzonen sich das Objekt ausdehnt. Für Objekte mit unterschiedlicher Ausdehnung in die verschiedenen Raumrichtungen lässt sich zudem die Ausrichtung detektieren. 7 und 8 zeigen schematisch die Ausdehnung über unterschiedlich viele Raumzonen in x-Richtung bei unterschiedlicher Ausrichtung des Objekts im Raum.
-
In einer weiteren beispielhaften Ausführung werden die Sensoreinrichtungen in einer Leuchte integriert, so dass sie in einzelnen im Raum verteilten Leuchtmodulen angeordnet sind. Ein solches Leuchtmodul kann neben der Sensoreinrichtung beispielsweise eine LED-Lichtquelle, eine LED-Optik, einen Kühlkörper und eine Treiberelektronik enthalten. Diese beispielhafte Ausführungsform erlaubt die Auswertung der Bewegungen von Objekten unterhalb und/oder oberhalb der Leuchtmodule, so dass dadurch eine Anpassung der Beleuchtung, das heißt beispielsweise der Helligkeit, der Lichtfarbe, der Farbtemperatur, des Abstrahlwinkels, der Abstrahlcharakteristik, der ausgeleuchteten Bereiche und/oder der spektralen Verteilung des Lichts ermöglicht wird. Zudem können weitere Parameter im Raum verändert werden, um mit Bewegungen das gesamte Raumerlebnis zu beeinflussen. Zu diesen Parametern zählen zum Beispiel die Lautstärke der Musik im Raum, Musiktitel, Videotitel, Verschattungen und/oder Raumtemperatur. Durch die in dieser beispielhaften Ausführung bestehende Verbindung der Sensoreinrichtungen mit Leuchtmodulen, die dementsprechend ebenso im Raum verteilt angeordnet sind, wird die erweiterte Möglichkeit geschaffen die Raumzonen der Objektdetektion gezielt auszuleuchten beziehungsweise die Parameter der Beleuchtung in diesen Raumzonen gezielt anzupassen. Wird ein Objekt in ein oder mehreren Raumzonen detektiert, kann das zugehörige Leuchtmodul beispielsweise die Helligkeit erhöhen. Das führt dazu, dass ein Objekt gezielt hell angeleuchtet werden kann, während die Umgebung dunkel bleibt.
-
9 zeigt eine beispielhafte Ausführung bei der die Sensoreinrichtungen als Time-of-Flight-Sensoren ausgeführt sind und in Leuchtenkörpern integriert sind. In dieser beispielhaften Ausführung sind die Sensoreinrichtungen mittels eines drahtgebundenen Datenübertragungskanals an die darüber angebrachte, zentrale Auswerte- und Speichereinrichtung angebunden, mit welcher sie über ein serielles Protokoll kommunizieren. In dieser Ausführung sind die Sensoreinrichtungen in einer einzigen Reihe angeordnet, was zur Folge hat, dass sich die Position des detektierten Objekts lediglich in zwei Dimensionen auflösen lässt. Diese Einschränkung ist für die beispielhafte Anwendung jedoch ausreichend. Die Sensoreinrichtungen erfassen die Distanz zu einem Objekt oder mehreren Objekten in Richtung ihres Lichtpulses (hier in z-Richtung). Erfasst wird deshalb die Distanz zu der Oberfläche des Objekts/der Objekte, die der Lichtpuls zuerst trifft. Diese Distanz wird zur Auswertungseinrichtung übertragen. Dort wird die jeweils gemessene Distanz als Abstand in z-Richtung gemäß einer Anordnung von Raumzonen diskretisiert, welche sich durch die Auflösung der Sensoreinrichtung (betrifft z-Richtung) sowie die jeweiligen Abstände der Sensoreinrichtungen in x-Richtung definiert. Die Auswerteeinheit bestimmt die Raumzone beziehungsweise die Raumzonen in der beziehungsweise in denen sich das Objekt beziehungsweise die Objekte befinden, indem sie dem von der jeweiligen Sensoreinheit gemessenen Abstand in z-Richtung die betreffende Raumzone zuordnet, die durch die Position der Sensoreinheit in x-Richtung definiert ist. Damit ist die jeweilige Position der erfassten Oberfläche des Objekts festgestellt und wird in der Speichereinrichtung hinterlegt. Durch die zeitliche Wiederholung dieses Vorgehens lassen sich neben der aktuellen Position auch Bewegungen beziehungsweise Geschwindigkeiten von Objekten durch die Raumzonen erfassen.
-
Figurenliste
-
- 1 zeigt schematisch die Schritte einer beispielhaften Ausführungsform bei der das Verfahren angewendet wird, um eine Objektbewegung in einem Bereich (1) zu erkennen. Dabei wird der betrachtete Bereich (1) in zwölf Zellen (2) zerlegt und drei Sensoreinrichtungen (3) (4) (5) so angeordnet, dass jede der zwölf Zellen im Erfassungsbereich (6) (7) (8) von mindestens einer Sensoreinrichtung liegt. Jeder der Zellen wird ein Speicherplatz (9) in einem Speicherbereich (10), der aus mehreren Zellen besteht, zugeordnet. Element (11) verdeutlicht beispielhaft die Zuordnung von vier Zellen zu ihrem jeweiligen Speicherplatz. Bewegt sich ein Objekt (12) in die durch Pfeil (13) angedeutete Richtung durch die Erfassungsbereiche (6) (7) (8), wird es nacheinander von den Sensoreinrichtungen (3) (4) (5) erfasst. Der zeitliche Ablauf wird in 1 durch die Darstellung zu unterschiedlichen, aufeinanderfolgenden Zeitpunkten (14) (15) (16) und (17) abgebildet. Der Speicherplatz in welcher mindestens eine Sensoreinrichtung das Objekt detektiert, wird mit einem Wert (18) (19) (20) beschrieben. Nach Abschluss der Erfassung wird der Inhalt des Speicherbereichs (10) mit Referenzinhalten (21) (22) (23) verglichen (24), die bekannten Objektbewegungen (25) (26) (27) entsprechen. Bei ausreichend hoher Übereinstimmung von erfasstem Inhalt (10) und Referenzinhalt (23) wird die entsprechende, bekannte Objektbewegung (27) als erkannt ausgegeben (28).
- 2 zeigt schematisch den Aufbau einer beispielhaften Ausführungsform zur Detektion von Bewegungen in x- und z-Richtung bestehend aus der Speichereinrichtung (29), der Auswerteeinrichtung (30) und den durch einen Datenübertragungskanal (49) angebundenen Sensoreinrichtungen (31) (32) (33) und (34). Durch diese Ausführungsform lässt sich die Bewegung der schematisch dargestellten Hand (35) bestimmen. Dabei lassen sich in z-Richtung verschiedene Raumebenen unterscheiden, die schematisch durch die Bewegungspfade der Geste (37) und (38), (39) und (40) sowie (41) und (42) dargestellt werden.
- 3 zeigt schematisch den Aufbau einer beispielhaften Ausführungsform zur Detektion von Bewegungen in x- und z-Richtung bestehend aus der Speichereinrichtung (29), der Auswerteeinrichtung (30) und den durch einen Datenübertragungskanal (49) angebundenen Sensoreinrichtungen (31) (32) (33) und (34). Hier werden die Bewegungen der schematisch dargestellten Hände (35) (36) erkannt, die auf in z-Richtung verschiedenen Raumebenen (41) (42) und (43) (44) ausgeführt werden oder in z-Richtung erfolgen (45) (46).
- 4 zeigt schematisch den Aufbau einer beispielhaften Ausführungsform zur Detektion von Bewegungen in x- und z-Richtung bestehend aus der Speichereinrichtung (29), der Auswerteeinrichtung (30) und den durch einen Datenübertragungskanal (49) angebundenen Sensoreinrichtungen (31) (32) (33) und (34). Die beispielhafte Ausführungsform erlaubt die Auswertung von Pfaden durch einzelne Raumzonen wodurch komplexe Gesten aus mehreren Pfadteilen in x-Richtung (47) und z-Richtung (48) erkannt werden können. Zur Verdeutlichung sind die Erfassungsbereiche (50) der Sensoreinrichtungen und deren Unterteilung in Raumbereiche (51) visualisiert.
- 5 und 6 zeigen schematisch das beispielhafte Ergebnis des vorgestellten Verfahrens nachdem die Geste in einer beispielhaften Ausführung entsprechend 4 durchgeführt wurde. Dabei stellt (55) den Speicherbereich dar, (56) eine einzelne Speicherzelle, die einem Raumbereich im Erfassungsbereich einer Sensoreinrichtung zugeordnet ist und anfangs mit dem Wert 0 beschrieben ist. In Abhängigkeit der von den Sensoreinrichtungen (31) (32) (33) und (34) detektierten Objekte werden die jeweiligen Speicherzellen beschrieben (57), so dass nach Durchführung der Geste der Speicherinhalt die durchgeführte Geste repräsentiert. Werden die Sensorwerte in festen Zeitintervallen erfasst und die Werte im Speicher für jede Erfassung erhöht, repräsentieren höhere Werte eine höhere Anzahl an Erfassungen des Objekts, woraus eine langsamere Bewegung abgeleitet werden kann. 5 entspricht demnach einer gleichmäßigen Objektbewegung in allen Abschnitten des Bewegungspfads. Dahingegen entspricht 6 einer Objektbewegung, die in x-Richtung langsamer ausgeführt wurde als in den anderen Abschnitten des Bewegungspfads. Durch die Markierung der Zelle, in der das Objekt als erstes durch eine Sensoreinrichtung erkannt wurde (58), ist es zudem möglich aus den Ergebnissen den Startpunkt der Bewegung festzustellen.
- 7 und 8 zeigen schematisch den Aufbau einer beispielhaften Ausführungsform zur Detektion von Bewegungen in x- und z-Richtung bestehend aus der Speichereinrichtung (29), der Auswerteeinrichtung (30) und den durch einen Datenübertragungskanal (49) angebundenen Sensoreinrichtungen (31) (32) (33) und (34). Zur Verdeutlichung sind die Erfassungsbereiche (50) der Sensoreinrichtungen und deren Unterteilung in Raumbereiche (51) visualisiert. Die beispielhafte Ausführungsform erlaubt die Auswertung der Größe eines Objekts (59), das sich in x-Richtung über mehrere Raumzonen ausdehnt, wodurch auch Rückschlüsse auf die Ausrichtung des Objekts gezogen werden können wie der Vergleich der vom Objekt abgedeckten Raumzonen in 7 und 8 zeigt.
- 9 zeigt eine beispielhafte Ausführung in Form einer Leuchte bei der zur Beleuchtungssteuerung die Detektion von Bewegungen eines oder mehrerer Objekte, insbesondere Händen, unter der Leuchte verwendet werden. Die beispielhafte Ausführungsform besteht aus der Auswerteeinrichtung und der Speichereinrichtung platziert im Deckengehäuse (90) und den durch einen Datenübertragungskanal (96) angebundenen Sensoreinrichtungen, die in Leuchtmodule (91) (92) (93) (94) und (95) integriert sind. Die beispielhafte Ausführungsform erlaubt die Auswertung der Bewegungen von Objekten unterhalb der Leuchtmodule, so dass dadurch eine Steuerung der Beleuchtung ermöglicht wird.
- 10 und 11 zeigen schematisch den Aufbau einer beispielhaften Ausführungsform zur Detektion von Bewegungen in x-, y- und z-Richtung bestehend aus einer kombinierten Auswerte- und Speichereinrichtung (100) und den durch einen drahtlosen Datenübertragungskanal (101) angebundenen Sensoreinrichtungen (102). In 11 sind zur Verdeutlichung die Raumzonen (103) in einer vereinfachten Form dargestellt.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- WO 2013130285 [0001]
- EP 2693300 A3 [0001]