DE102021005129A1 - Verfahren und Vorrichtung zum Steuern elektronischer Geräte, insbesondere Leuchten - Google Patents

Verfahren und Vorrichtung zum Steuern elektronischer Geräte, insbesondere Leuchten Download PDF

Info

Publication number
DE102021005129A1
DE102021005129A1 DE102021005129.7A DE102021005129A DE102021005129A1 DE 102021005129 A1 DE102021005129 A1 DE 102021005129A1 DE 102021005129 A DE102021005129 A DE 102021005129A DE 102021005129 A1 DE102021005129 A1 DE 102021005129A1
Authority
DE
Germany
Prior art keywords
sensor devices
movement
sensor
procedure
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102021005129.7A
Other languages
English (en)
Inventor
wird später genannt Erfinder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vanory GmbH
Original Assignee
Vanory GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vanory GmbH filed Critical Vanory GmbH
Priority to DE102021005129.7A priority Critical patent/DE102021005129A1/de
Publication of DE102021005129A1 publication Critical patent/DE102021005129A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Mit wachsendem Funktionsumfang elektronischer Geräte steigen die Anforderungen an die Steuerungsmöglichkeiten, um dem Nutzer alle Funktionen auf intuitive Art und Weise zugänglich zu machen. Der beschränkende Faktor herkömmlicher Systeme ist in der Regel die begrenzte Anzahl an nutzbaren Freiheitsgraden der Steuerung. Die hier beschriebene Erfindung betrifft deshalb ein Verfahren und eine Vorrichtung, die eingesetzt werden können, um die Steuerung elektronischer Geräte mittels der Bewegung von Objekten zu ermöglichen und dabei eine Vielzahl unterschiedlicher Bewegungen erkennbar machen. Das können beispielsweise neben Gesten mit Händen und/oder Füßen auch die Bewegung eines gesamten menschlichen Körpers oder beliebiger anderer Objekte in einem definierten Raum sein. Die Aufgabe der Erfindung ist es eine Lösung bereitzustellen, mittels der eine Erfassung oder Erkennung einer Bewegung eines Objekts in einem Raum möglich ist. Gleichzeitig kann die Relativlage des Objekts im Raum zu einem Bezugspunkt bestimmt werden. Die Erfindung ermöglicht dadurch eine große Anzahl an Freiheitsgraden und damit eine große Anzahl an steuerbaren Funktionen angebundener Geräte.

Description

  • Mit fortschreitender technischer Entwicklung bieten elektronische Geräte eine immer größere Funktionsvielfalt mit welcher die Bedienschnittstelle schritthalten muss und deshalb ebenso immer leistungsfähiger werden muss. Nur so kann dem Anwender der vollständige Funktionsumfang dieser Geräte nutzbar gemacht werden. Mit steigendem Funktionsumfang wird jedoch vor allem die intuitive Bedienbarkeit eine immer größer werdendes Herausforderung. Dazu werden oftmals Gesten, das heißt Bewegungen menschlicher Extremitäten, eingesetzt, wie beispielsweise beschrieben in WO 2013/130285 oder EP 2 693 300 A3 . Mit wachsendem Umfang und steigender Komplexität der zu steuernden Funktionen reichen diese Systeme aber oftmals nicht mehr aus, um dem Nutzer alle Funktionen auf intuitive Art und Weise zugänglich zu machen. Der beschränkende Faktor herkömmlicher Systeme ist in der Regel die begrenzte Anzahl an nutzbaren Freiheitsgraden. Die hier beschriebene Erfindung betrifft deshalb ein Verfahren und eine Vorrichtung, die eingesetzt werden können, um die Steuerung elektronischer Geräte mittels der Bewegung von Objekten zu ermöglichen und dabei eine Vielzahl unterschiedlicher Bewegungen erkennbar machen. Das können beispielsweise neben Gesten mit Händen und/oder Füßen auch die Bewegung eines gesamten menschlichen Körpers oder beliebiger anderer Objekte in einem definierten Raum sein. Als zu steuernde Geräte sind alle elektronischen Geräte denkbar, die eine Eingabe benötigen. Durch die Art und Weise wie die Objektbewegungen erkannt werden, lässt sich die Vorrichtung beispielsweise in Räume integrieren, um smarte Haushaltsgeräte wie zum Beispiel Lampen, Leuchten, Rollläden, Verschattungen, Klimaanlagen, Heizgeräte, Musik- und Filmwiedergabegeräte zu steuern.
    Die Aufgabe der Erfindung ist es eine Lösung bereitzustellen, mittels der eine Erfassung oder Erkennung einer Bewegung eines Objekts in einem Raum möglich ist. Gleichzeitig kann die Relativlage des Objekts im Raum zu einem Bezugspunkt bestimmt werden. Die Erfindung ermöglicht dadurch eine große Anzahl an Freiheitsgraden und damit eine große Anzahl an steuerbaren Funktionen angebundener Geräte. Das beschriebene Verfahren kann zudem kombiniert werden mit Methoden des Maschinellen Lernens beziehungsweise Künstlicher Intelligenz, um so beispielsweise die Erkennungsrate von Gesten des Anwenders zu verbessern. Diese Aufgabe wird durch das in den Patentansprüchen offenbarte Verfahren und die offenbarte Vorrichtung gelöst. Vorteilhafte Weiterbildungen der Erfindung sind in den abhängigen Patentansprüche und in folgender Beschreibung sowie den Abbildungen offenbart.
  • Vorrichtung
  • Die erfindungsgemäße Erfassungsvorrichtung umfasst mindestens zwei Sensoreinrichtungen, mindestens eine Auswerteeinrichtung sowie einen drahtgebundenen und/oder drahtlosen Datenübertragungskanal. Der Datenübertragungskanal verbindet die Sensoreinrichtungen mit der mindestens einen Auswerteeinrichtung und ermöglicht so die Platzierung der mindestens zwei Sensoreinrichtungen an unterschiedlichen Positionen im Raum. Hierzu können beispielsweise serielle oder parallele Busse zur drahtgebundenen Datenübertragung eingesetzt werden, oder drahtlose Übertragungsverfahren wie beispielsweise Wlan, Bluetooth, Zigbee, NFC, LiFi, LoRaWAN und/oder Mobilfunk. In den Sensoreinrichtungen kommen Verfahren zur Messung der Distanz zwischen der jeweiligen Sensoreinrichtung und einem Objekt zum Einsatz, beispielsweise basierend auf Laufzeit, Licht/IR, Kapazität, Schall, Ultra-wideband und/oder Radar.
  • Verfahren
  • Das Verfahren zur Erkennung von Objektbewegungen in einem bestimmten Bereich besteht aus mehreren Schritten, welche nacheinander durchgeführt werden. Als Bewegung wird hier die Änderung der Position eines Objekts mit der Zeit verstanden. Zunächst wird der zu betrachtende Bereich in mehrere Zellen zerlegt, die in der Regel in ihrer Dimension der des zu betrachtenden Bereichs entsprechen. Wird beispielsweise ein dreidimensionaler Bereich betrachtet, wird dieser in der Regel in dreidimensionale Zellen zerlegt, entsprechend bei zwei- und eindimensionalen Bereichen. Nachfolgend werden Sensoreinrichtungen einer Erfassungsvorrichtung so angeordnet, dass jede der Zellen im Erfassungsbereich von mindestens einer Sensoreinrichtung liegt. Jeder Zelle wird entsprechend ihrer Position im betrachteten Bereich ein Speicherplatz in einem Speicherbereich, beispielsweise eine Variable (Speicherplatz) in einem ein- oder mehrdimensionalen Array (Speicherbereich), zugeordnet und gegebenenfalls mit einem initialen Wert beschrieben. Sobald eine Sensoreinrichtung ein Objekt in einer der Zellen erfasst, wird der Wert des der Zelle zugeordneten Speicherplatzes so abgeändert, dass diese Erfassung bis zur Auswertung erkennbar bleibt. Zusätzlich zur Erfassung des Vorhandenseins lassen sich an dieser Stelle zeitliche Informationen abspeichern, welche eine Aussage zur Geschwindigkeit der Bewegung ermöglichen. So kann beispielsweise in festgelegten zeitlichen Intervallen das Vorhandensein eines Objekts in der jeweiligen Zelle geprüft werden und der Wert des zugeordneten Speicherplatzes erhöht werden, sofern das Objekt vorhanden ist. Wird das zeitliche Intervall ausreichend kurz gewählt, kann aus der Höhe des in der jeweiligen Zelle vorhanden Werts die Aufenthaltszeit des Objekts in der jeweiligen Zelle abgeleitet werden. Zum Beispiel kann gelten: Je höher der Wert, desto länger verweilte das Objekt in der Zelle und desto langsamer war die Bewegung in dieser Zelle. Zusätzlich lassen sich an dieser Stelle weitere Eigenschaften des erfassten Objekts abspeichern, sofern die Sensoreinrichtung diese detektieren kann und sie zur Unterscheidung von Objektbewegungen nützlich sind. Dazu zählen beispielsweise die Form, Farbe, Helligkeit, der Reflexionsgrad, die Temperatur, die Geschwindigkeit und/oder die Lautstärke des Objekts im Erfassungsbereich. Dadurch lässt sich beispielsweise die Bewegung eines Objekts, welches sich während der Bewegung erhitzt von der gleichen Bewegung des Objekts unterscheiden, das sich während der Bewegung abkühlt.
    Die genannten Schritte aus Erfassung durch die Sensoreinrichtung und Speicherung an einem definierten Speicherplatz werden so lange wiederholt durchgeführt, bis eine definierte Abbruchbedingung erreicht ist. Dies kann beispielsweise die Bedingung sein, dass keine der Sensoreinrichtungen über einen definierten Zeitraum ein Objekt in ihrem jeweiligen Erfassungsbereich detektiert oder beispielsweise ein Objekt in einer als Endbereich definierten Raumzone erkannt wird. Ist die Abbruchbedingung erreicht, erfolgt im nächsten Schritt die Auswertung der gespeicherten Werte in der Auswerteeinrichtung. Dazu wird der Inhalt des Speicherbereichs mit mindestens einem bekannten Referenzinhalt verglichen, der eine bekannte Bewegung repräsentiert. Der mindestens eine Referenzinhalt wird vorab generiert indem der Speicherbereich ausgelesen wird nachdem die zu „erlernende“ Bewegung mindestens einmal ausgeführt wurde. Insbesondere bei der Erkennung von menschlichen Gesten ist zu erwarten, dass die Bewegung nicht bei jedem Mal exakt gleich ausgeführt wird. Ebenso können Umgebungsbedingungen wie zum Beispiel die Umgebungshelligkeit und/oder -temperatur zu Abweichungen in den Sensorwerten führen. Deshalb ist es im Allgemeinen notwendig keine exakte Übereinstimmung mit dem Referenzinhalt zu fordern und/oder bei der Generierung der Referenzinhalte bereits Abweichungen zu berücksichtigen. Zur Erhöhung der Robustheit gegenüber Abweichungen von der „idealen“ Bewegung können so zum Beispiel mehrere Referenzinhalte zur gleichen Bewegung gespeichert werden, welche die Bewegung in mehreren Durchgängen mit akzeptablen Abweichungen repräsentieren oder es können generell akzeptable Differenzen zwischen erfasstem Inhalt und Referenzinhalt festgelegt werden. Außerdem ist es möglich auf Maschinelles Lernen und/oder Verfahren basierend auf Künstlicher Intelligenz zurückzugreifen, die mit einer Vielzahl von Inhalten aus verschiedenen Durchgängen trainiert werden und dann anhand ihrer Modelle entscheiden ob beziehungsweise welcher Bewegung der vorliegende Inhalt zuzuordnen ist. Insbesondere Modelle zur Erkennung von Mustern können geeignet sein die Bewegung trotz Abweichungen bei der Ausführung und/oder Abweichung des bewegten Objekts zuverlässig zu erkennen. Wird eine Übereinstimmung des erfassten Inhalts mit dem Referenzinhalt einer bekannten Bewegung festgestellt, gegebenenfalls unter Berücksichtigung akzeptabler Abweichungen, wird im letzten Schritt diese Bewegung als erkannt ausgegeben.
  • Kalibrierung
  • Mit der Kalibrierung wird das System auf die herrschenden Umgebungsbedingungen eingerichtet. Insbesondere werden dabei die Nullwerte der jeweiligen Sensoreinheiten gemessen, um bei der eigentlichen Messung zu erkennen, ob sich ein Objekt im betrachteten Raumbereich befindet. Sie ist deshalb in der Regel notwendig, um Objekte und damit auch deren Bewegungen zuverlässig zu detektieren. Für die Kalibrierung werden zwei Fälle unterschieden:
    • - Fall 1: Zu jeder Sensoreinrichtung ist die jeweilige Position in z-Richtung des Raums bekannt als absolute Position und/oder als relative Position. In diesem Fall wird zur Kalibrierung von jeder Sensoreinrichtung im Freiraum, das heißt ohne dass sich ein zu detektierendes Objekt im von den Sensoreinrichtungen erfassten Raum befindet, der jeweilige Abstand zu den Raumgrenzen gemessen und als Nullwert abgespeichert.
    • - Fall 2: Die jeweilige Position der Sensoreinrichtungen in z-Richtung des Raums ist nicht bekannt, jedoch sind hier die Form der Begrenzung des Raums in z-Richtung an den x-/y-Positionen der Sensoreinrichtungen bekannt, beziehungsweise kann diese aus dem typischen Anwendungszweck der Vorrichtung mit ausreichend hoher Wahrscheinlichkeit abgeleitet werden. Die Form kann hierbei beispielsweise durch die Abweichung der Begrenzung in z-Richtung zu einem Referenzwert an den x-/y-Positionen der jeweiligen Sensoreinrichtung beschrieben werden. Die Abweichung der Begrenzung des Raums in z-Richtung kann auch für alle Sensoreinrichtungen null sein, nämlich dann wenn die Begrenzung des Raums parallel zur x-/y-Ebene verläuft.
  • In diesem Fall wird zur Kalibrierung von jeder Sensoreinheit im Freiraum, das heißt ohne dass sich ein zu detektierendes Objekt im von den Sensoreinrichtungen erfassten Raum befindet, der jeweilige Abstand zu den Raumgrenzen gemessen und als Nullwert abgespeichert. Unter Berücksichtigung der für jede Sensoreinrichtung bekannten Abweichung der Begrenzung des Raums in z-Richtung sowie des jeweils gemessenen Abstands zu den Raumgrenzen kann die jeweilige Position der Sensoreinrichtung in z-Richtung des Raums als absolute Position und/oder als relative Position mathematisch bestimmt werden.
  • Für die Detektion von Objekten werden in der Regel lediglich Messwerte betrachtet, die einen geringeren Wert als der für die jeweilige Sensoreinrichtung abgespeicherte Nullwert aufweisen. Bei der Berechnung der Raumzone in welcher sich ein detektiertes Objekt befindet, wird die Position der Sensoreinrichtung in z-Richtung bezogen auf eine festgelegte Referenzposition, beispielsweise die Position einer definierten Sensoreinheit, vom erfassten Messwert subtrahiert. Dadurch wird erreicht, dass die Grenzen der Raumzonen über die Sensoreinheiten hinweg auf einer Ebene liegen. Das führt zu einer intuitiven Bedienbarkeit insbesondere beim Einsatz zur Erkennung von menschlichen Gesten. Denn durch dieses Vorgehen können Gesten in einer Ebene ausgeführt werden, unabhängig davon, ob die Sensoreinheiten ebenfalls auf einer Ebene angebracht sind oder nicht. Bei größeren Differenzen der Positionen der Sensoreinheiten in z-Richtung kann es vorteilhaft sein, die Anzahl der Raumzonen pro Sensoreinheit so zu variieren, dass der Raum bestmöglich abgedeckt wird.
  • Beispielhafte Ausführungen
  • In einer beispielhaften Ausführung sind die Sensoreinrichtungen als Time-of-Flight-Sensoren ausgeführt. 10 und 11 zeigen diese beispielhafte Ausführung in einer perspektivischen Ansicht, wobei in 11 zur grafischen Verdeutlichung die Raumzonen in einer vereinfachten Art eingezeichnet sind. Time-of-Flight-Sensoren sind generell dazu ausgelegt, mittels eines Laufzeitverfahrens eine Distanz zu einem Objekt zu messen. Dazu wird die Umgebung der Sensoreinrichtung mittels eines gerichteten Lichtpulses (beispielhaft im infraroten Spektralbereich) ausgeleuchtet und die Zeit gemessen, die das Licht bis zum Objekt und wieder zurück zur Sensoreinrichtung benötigt. Diese Zeit ist direkt proportional zur Distanz zu dem Objekt. Die Sensoreinrichtung kann so die Entfernung zu dem Objekt feststellen. Typischerweise können mit Time-of-Flight-Sensoren Distanzen von wenigen Millimetern bis zu mehreren zehn Metern gemessen werden. Insbesondere der Bereich bis zu drei Metern ist für die beispielhafte Ausführung von Relevanz. In der beispielhaften Ausführung werden mehrere Sensoreinrichtungen auf definierten Positionen im Raum platziert und durch einen drahtlosen Datenübertragungskanal mit einer zentralen Auswerte- und Speichereinrichtung verbunden. Die Sensoreinrichtungen erfassen zunächst zur Kalibrierung die Distanz zum nächsten Objekt im Freiraum, das heißt ohne dass sich ein zu detektierendes Objekt im von den Sensoreinrichtungen erfassten Raum befindet. Aus den gemessenen Daten werden die Raumzonen in z-Richtung definiert. Danach starten wiederholende Messungen, um festzustellen, ob sich ein Objekt in einer der Raumzonen befindet. Dies ist der Fall, wenn mindestens eine der gemessenen Distanzen kleiner ist als die für die jeweilige Sensoreinrichtung während der Kalibrierung erfasste Distanz. Die Sensoreinrichtungen erfassen dabei die Distanz zu einem Objekt oder mehreren Objekten in Richtung ihres Lichtpulses (hier bezeichnet als z-Richtung). Erfasst wird deshalb die Distanz zu der Oberfläche des Objekts/der Objekte, die der Lichtpuls zuerst trifft. Diese Distanz wird mittels Datenübertragungskanal zur Auswertungseinrichtung übertragen. Dort wird die jeweils gemessene Distanz als Abstand in z-Richtung gemäß einer Anordnung von Raumzonen diskretisiert, welche sich durch die Auflösung der Sensoreinrichtung (betrifft z-Richtung) sowie die jeweiligen Abstände der Sensoreinrichtungen in x- und y-Richtung definiert. Die Auswerteeinheit bestimmt die Raumzone beziehungsweise die Raumzonen in der beziehungsweise in denen sich das Objekt beziehungsweise die Objekte befinden, indem sie dem von der jeweilgen Sensoreinheit gemessenen Abstand in z-Richtung die betreffende Raumzone zuordnet, die durch die Position der Sensoreinheit in x-/y-Richtung definiert ist. Damit ist die jeweilige Position der erfassten Oberfläche des Objekts festgestellt. Zur späteren Bestimmung der ausgeführten Geste wird die betreffende Raumzone beziehungsweise die betreffenden Raumzonen in der Speichereinrichtung abgespeichert. Durch die Wiederholung dieses Vorgehens lassen sich neben der aktuellen Position auch Bewegungen beziehungsweise Geschwindigkeiten von Objekten durch die Raumzonen erfassen. Dabei kann zur Speicherung in der Speichereinrichtung beispielsweise eine Array-Datenstruktur verwendet werden, die die Raumzonen in bis zu drei Dimensionen repräsentiert. Jeder Raumzone wird dabei ein Feld der Array-Datenstruktur zugeordnet und zu Beginn jeder Messung mit einem definierten Startwert initialisiert. Mit jeder Messung, durchgeführt beispielsweise in einem Intervall in einem Erkennungszyklus, wird der Wert der Raumzonen, in denen Objekte detektiert werden, um einen festgelegten Betrag erhöht. Nach Abschluss des Erkennungszyklus repräsentieren die Werte in der Array-Datenstruktur sowohl den räumlichen als auch den zeitlichen Verlauf der ausgeführten Bewegung. Die Werte in der Array-Datenstruktur werden dann mit Referenzwerten unterschiedlicher Bewegungen in verschiedenen Array-Datenstrukturen verglichen und so die Referenz-Bewegung mit der höchsten Übereinstimmung ermittelt. Unter Berücksichtigung einer Toleranz zur Abweichung von gemessener Bewegung und Referenz-Bewegung wird die Bewegung, das heißt zum Beispiel eine Geste, dann als „erkannt“ oder „nicht erkannt“ deklariert. Dabei können bei Bedarf „Ein- und Ausfahrwege“ des Objekts in und aus dem von den Sensoreinrichtungen erfassten Raum vernachlässigt werden. Sowohl die Erstellung von Array-Datenstruktur der Referenz-Bewegungen wie auch die Auswertung gemessener Array-Datenstrukturen können durch den Einsatz von Methoden zur Mustererkennung mittels Maschinellem Lernen und/oder Künstlicher Intelligenz verbessert und vereinfacht werden. 5 und 6 zeigen beispielhaft die Visualisierung einer zweidimensionalen Array-Datenstruktur für die in 4 schematisch dargestellte Bewegung einer menschlichen Hand. In 5 wird diese Bewegung mit durchgängig gleichmäßiger Geschwindigkeit ausgeführt, während in 6 der horizontale Teil der Bewegung mit langsamerer Geschwindigkeit ausgeführt wird als die vertikalen Teile der Bewegung.
    Für die Auswertung von Gesten menschlicher Hände und/oder Füße sowie Objekten in vergleichbarer Größe, hat sich ein Abstand der Sensoreinheiten zwischen circa 5 und 50 Zentimetern als zweckmäßig erwiesen. Das Intervall einzelner Messungen liegt dazu beispielsweise im Bereich von 10 Millisekunden bis 100 Millisekunden, ein Erkennungszyklus bei 2 Sekunden bis 10 Sekunden.
  • Zur Feststellung von Bewegungen von Personen oder Objekten, die sich in der Größe der von Personen ähneln, sind je nach geforderter Auflösung Abstände zwischen circa 10 Zentimetern und 100 Zentimetern zweckmäßig.
  • Durch die Verbindung mehrerer im Raum verteilter Sensoreinrichtungen wird es möglich komplexere Vorgänge zu erfassen als es mit einer einzelnen Sensoreinrichtung möglich wäre. So können beispielsweise Wisch-Gesten einer menschlichen Hand im Raum auf verschiedene Art und Weise erkannt werden wie in 2 schematisch dargestellt. Insbesondere wird es möglich Gesten auf unterschiedlichen Raumebenen (in z-Richtung) zu unterscheiden wie 2 mit dem Bewegungspfad der Geste (37) und (38), (39) und (40) sowie (41) und (42) schematisch zeigt. Eine weitere Dimension für die Bewegungserkennung wird durch die verteilten Sensoreinrichtungen ermöglicht, dadurch, dass unterschieden wird in welchen Raumzonen in x-/y-Richtung die Geste ausgeführt wird (vgl. 11). Zusätzlich lässt sich durch die im Raum verteilten Sensoreinrichtungen die Ausführungsgeschwindigkeit der Bewegung bestimmen, indem die Zeitpunkte der Erfassung mit in die Auswertung einfließen. Dies stellt ein weiteres Unterscheidungsmerkmal dar, was einer weiteren Dimension der Bewegungserkennung entspricht.
    Durch die Verbindung mehrerer im Raum verteilter Sensoreinrichtungen ist es zudem möglich gleichzeitig mehrere Objekte zu erfassen. So lassen sich beispielsweise Gesten erkennen, die gleichzeitig mit zwei Händen ausgeführt werden. 3 stellt dies schematisch für Bewegungen in x-Richtung (Bewegungspfade (41)(42)(43)(44)) und z-Richtung (Bewegungspfade (45 und (46)) dar. Entsprechendes gilt für Bewegungen in y-Richtung.
  • Die Vorrichtung und das Verfahren erlauben des Weiteren die Auswertung von Pfaden durch einzelne Raumzonen wodurch komplexe Gesten aus mehreren Pfadteilen in x-/y-/z-Richtung, wie zum Beispiel in 4 schematisch für x-/z-Richtung dargestellt, erkannt werden können.
  • Die Vorrichtung und das Verfahren erlauben außerdem die Bestimmung der Größe eines Objekts im Detektionsbereich, indem ausgewertet wird über wie viele Raumzonen sich das Objekt ausdehnt. Für Objekte mit unterschiedlicher Ausdehnung in die verschiedenen Raumrichtungen lässt sich zudem die Ausrichtung detektieren. 7 und 8 zeigen schematisch die Ausdehnung über unterschiedlich viele Raumzonen in x-Richtung bei unterschiedlicher Ausrichtung des Objekts im Raum.
  • In einer weiteren beispielhaften Ausführung werden die Sensoreinrichtungen in einer Leuchte integriert, so dass sie in einzelnen im Raum verteilten Leuchtmodulen angeordnet sind. Ein solches Leuchtmodul kann neben der Sensoreinrichtung beispielsweise eine LED-Lichtquelle, eine LED-Optik, einen Kühlkörper und eine Treiberelektronik enthalten. Diese beispielhafte Ausführungsform erlaubt die Auswertung der Bewegungen von Objekten unterhalb und/oder oberhalb der Leuchtmodule, so dass dadurch eine Anpassung der Beleuchtung, das heißt beispielsweise der Helligkeit, der Lichtfarbe, der Farbtemperatur, des Abstrahlwinkels, der Abstrahlcharakteristik, der ausgeleuchteten Bereiche und/oder der spektralen Verteilung des Lichts ermöglicht wird. Zudem können weitere Parameter im Raum verändert werden, um mit Bewegungen das gesamte Raumerlebnis zu beeinflussen. Zu diesen Parametern zählen zum Beispiel die Lautstärke der Musik im Raum, Musiktitel, Videotitel, Verschattungen und/oder Raumtemperatur. Durch die in dieser beispielhaften Ausführung bestehende Verbindung der Sensoreinrichtungen mit Leuchtmodulen, die dementsprechend ebenso im Raum verteilt angeordnet sind, wird die erweiterte Möglichkeit geschaffen die Raumzonen der Objektdetektion gezielt auszuleuchten beziehungsweise die Parameter der Beleuchtung in diesen Raumzonen gezielt anzupassen. Wird ein Objekt in ein oder mehreren Raumzonen detektiert, kann das zugehörige Leuchtmodul beispielsweise die Helligkeit erhöhen. Das führt dazu, dass ein Objekt gezielt hell angeleuchtet werden kann, während die Umgebung dunkel bleibt.
  • 9 zeigt eine beispielhafte Ausführung bei der die Sensoreinrichtungen als Time-of-Flight-Sensoren ausgeführt sind und in Leuchtenkörpern integriert sind. In dieser beispielhaften Ausführung sind die Sensoreinrichtungen mittels eines drahtgebundenen Datenübertragungskanals an die darüber angebrachte, zentrale Auswerte- und Speichereinrichtung angebunden, mit welcher sie über ein serielles Protokoll kommunizieren. In dieser Ausführung sind die Sensoreinrichtungen in einer einzigen Reihe angeordnet, was zur Folge hat, dass sich die Position des detektierten Objekts lediglich in zwei Dimensionen auflösen lässt. Diese Einschränkung ist für die beispielhafte Anwendung jedoch ausreichend. Die Sensoreinrichtungen erfassen die Distanz zu einem Objekt oder mehreren Objekten in Richtung ihres Lichtpulses (hier in z-Richtung). Erfasst wird deshalb die Distanz zu der Oberfläche des Objekts/der Objekte, die der Lichtpuls zuerst trifft. Diese Distanz wird zur Auswertungseinrichtung übertragen. Dort wird die jeweils gemessene Distanz als Abstand in z-Richtung gemäß einer Anordnung von Raumzonen diskretisiert, welche sich durch die Auflösung der Sensoreinrichtung (betrifft z-Richtung) sowie die jeweiligen Abstände der Sensoreinrichtungen in x-Richtung definiert. Die Auswerteeinheit bestimmt die Raumzone beziehungsweise die Raumzonen in der beziehungsweise in denen sich das Objekt beziehungsweise die Objekte befinden, indem sie dem von der jeweiligen Sensoreinheit gemessenen Abstand in z-Richtung die betreffende Raumzone zuordnet, die durch die Position der Sensoreinheit in x-Richtung definiert ist. Damit ist die jeweilige Position der erfassten Oberfläche des Objekts festgestellt und wird in der Speichereinrichtung hinterlegt. Durch die zeitliche Wiederholung dieses Vorgehens lassen sich neben der aktuellen Position auch Bewegungen beziehungsweise Geschwindigkeiten von Objekten durch die Raumzonen erfassen.
  • Figurenliste
    • 1 zeigt schematisch die Schritte einer beispielhaften Ausführungsform bei der das Verfahren angewendet wird, um eine Objektbewegung in einem Bereich (1) zu erkennen. Dabei wird der betrachtete Bereich (1) in zwölf Zellen (2) zerlegt und drei Sensoreinrichtungen (3) (4) (5) so angeordnet, dass jede der zwölf Zellen im Erfassungsbereich (6) (7) (8) von mindestens einer Sensoreinrichtung liegt. Jeder der Zellen wird ein Speicherplatz (9) in einem Speicherbereich (10), der aus mehreren Zellen besteht, zugeordnet. Element (11) verdeutlicht beispielhaft die Zuordnung von vier Zellen zu ihrem jeweiligen Speicherplatz. Bewegt sich ein Objekt (12) in die durch Pfeil (13) angedeutete Richtung durch die Erfassungsbereiche (6) (7) (8), wird es nacheinander von den Sensoreinrichtungen (3) (4) (5) erfasst. Der zeitliche Ablauf wird in 1 durch die Darstellung zu unterschiedlichen, aufeinanderfolgenden Zeitpunkten (14) (15) (16) und (17) abgebildet. Der Speicherplatz in welcher mindestens eine Sensoreinrichtung das Objekt detektiert, wird mit einem Wert (18) (19) (20) beschrieben. Nach Abschluss der Erfassung wird der Inhalt des Speicherbereichs (10) mit Referenzinhalten (21) (22) (23) verglichen (24), die bekannten Objektbewegungen (25) (26) (27) entsprechen. Bei ausreichend hoher Übereinstimmung von erfasstem Inhalt (10) und Referenzinhalt (23) wird die entsprechende, bekannte Objektbewegung (27) als erkannt ausgegeben (28).
    • 2 zeigt schematisch den Aufbau einer beispielhaften Ausführungsform zur Detektion von Bewegungen in x- und z-Richtung bestehend aus der Speichereinrichtung (29), der Auswerteeinrichtung (30) und den durch einen Datenübertragungskanal (49) angebundenen Sensoreinrichtungen (31) (32) (33) und (34). Durch diese Ausführungsform lässt sich die Bewegung der schematisch dargestellten Hand (35) bestimmen. Dabei lassen sich in z-Richtung verschiedene Raumebenen unterscheiden, die schematisch durch die Bewegungspfade der Geste (37) und (38), (39) und (40) sowie (41) und (42) dargestellt werden.
    • 3 zeigt schematisch den Aufbau einer beispielhaften Ausführungsform zur Detektion von Bewegungen in x- und z-Richtung bestehend aus der Speichereinrichtung (29), der Auswerteeinrichtung (30) und den durch einen Datenübertragungskanal (49) angebundenen Sensoreinrichtungen (31) (32) (33) und (34). Hier werden die Bewegungen der schematisch dargestellten Hände (35) (36) erkannt, die auf in z-Richtung verschiedenen Raumebenen (41) (42) und (43) (44) ausgeführt werden oder in z-Richtung erfolgen (45) (46).
    • 4 zeigt schematisch den Aufbau einer beispielhaften Ausführungsform zur Detektion von Bewegungen in x- und z-Richtung bestehend aus der Speichereinrichtung (29), der Auswerteeinrichtung (30) und den durch einen Datenübertragungskanal (49) angebundenen Sensoreinrichtungen (31) (32) (33) und (34). Die beispielhafte Ausführungsform erlaubt die Auswertung von Pfaden durch einzelne Raumzonen wodurch komplexe Gesten aus mehreren Pfadteilen in x-Richtung (47) und z-Richtung (48) erkannt werden können. Zur Verdeutlichung sind die Erfassungsbereiche (50) der Sensoreinrichtungen und deren Unterteilung in Raumbereiche (51) visualisiert.
    • 5 und 6 zeigen schematisch das beispielhafte Ergebnis des vorgestellten Verfahrens nachdem die Geste in einer beispielhaften Ausführung entsprechend 4 durchgeführt wurde. Dabei stellt (55) den Speicherbereich dar, (56) eine einzelne Speicherzelle, die einem Raumbereich im Erfassungsbereich einer Sensoreinrichtung zugeordnet ist und anfangs mit dem Wert 0 beschrieben ist. In Abhängigkeit der von den Sensoreinrichtungen (31) (32) (33) und (34) detektierten Objekte werden die jeweiligen Speicherzellen beschrieben (57), so dass nach Durchführung der Geste der Speicherinhalt die durchgeführte Geste repräsentiert. Werden die Sensorwerte in festen Zeitintervallen erfasst und die Werte im Speicher für jede Erfassung erhöht, repräsentieren höhere Werte eine höhere Anzahl an Erfassungen des Objekts, woraus eine langsamere Bewegung abgeleitet werden kann. 5 entspricht demnach einer gleichmäßigen Objektbewegung in allen Abschnitten des Bewegungspfads. Dahingegen entspricht 6 einer Objektbewegung, die in x-Richtung langsamer ausgeführt wurde als in den anderen Abschnitten des Bewegungspfads. Durch die Markierung der Zelle, in der das Objekt als erstes durch eine Sensoreinrichtung erkannt wurde (58), ist es zudem möglich aus den Ergebnissen den Startpunkt der Bewegung festzustellen.
    • 7 und 8 zeigen schematisch den Aufbau einer beispielhaften Ausführungsform zur Detektion von Bewegungen in x- und z-Richtung bestehend aus der Speichereinrichtung (29), der Auswerteeinrichtung (30) und den durch einen Datenübertragungskanal (49) angebundenen Sensoreinrichtungen (31) (32) (33) und (34). Zur Verdeutlichung sind die Erfassungsbereiche (50) der Sensoreinrichtungen und deren Unterteilung in Raumbereiche (51) visualisiert. Die beispielhafte Ausführungsform erlaubt die Auswertung der Größe eines Objekts (59), das sich in x-Richtung über mehrere Raumzonen ausdehnt, wodurch auch Rückschlüsse auf die Ausrichtung des Objekts gezogen werden können wie der Vergleich der vom Objekt abgedeckten Raumzonen in 7 und 8 zeigt.
    • 9 zeigt eine beispielhafte Ausführung in Form einer Leuchte bei der zur Beleuchtungssteuerung die Detektion von Bewegungen eines oder mehrerer Objekte, insbesondere Händen, unter der Leuchte verwendet werden. Die beispielhafte Ausführungsform besteht aus der Auswerteeinrichtung und der Speichereinrichtung platziert im Deckengehäuse (90) und den durch einen Datenübertragungskanal (96) angebundenen Sensoreinrichtungen, die in Leuchtmodule (91) (92) (93) (94) und (95) integriert sind. Die beispielhafte Ausführungsform erlaubt die Auswertung der Bewegungen von Objekten unterhalb der Leuchtmodule, so dass dadurch eine Steuerung der Beleuchtung ermöglicht wird.
    • 10 und 11 zeigen schematisch den Aufbau einer beispielhaften Ausführungsform zur Detektion von Bewegungen in x-, y- und z-Richtung bestehend aus einer kombinierten Auswerte- und Speichereinrichtung (100) und den durch einen drahtlosen Datenübertragungskanal (101) angebundenen Sensoreinrichtungen (102). In 11 sind zur Verdeutlichung die Raumzonen (103) in einer vereinfachten Form dargestellt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2013130285 [0001]
    • EP 2693300 A3 [0001]

Claims (14)

  1. Verfahren zur Erkennung von Objektbewegungen, dadurch gekennzeichnet, dass man a) den zu betrachteten Bereich in mehrere Zellen zerlegt, b) mehrere Sensoreinrichtungen so anordnet, dass jede dieser Zellen im Erfassungsbereich von mindestens einer Sensoreinrichtung liegt, c) jeder Zelle einen Speicherplatz in einem Speicherbereich entsprechend ihrer Position im betrachteten Bereich zuordnet, d) den Speicherplatz jeder Zelle, in welcher mindestens eine Sensoreinrichtung während eines definierten Zeitintervalls mindestens ein Objekt detektiert, mit einem Wert beschreibt, e) den Inhalt des Speicherbereichs mit mindestens einem Referenzinhalt vergleicht, der eine bekannte Objektbewegung repräsentiert, f) bei ausreichend hoher Übereinstimmung von erfasstem Inhalt und Referenzinhalt die entsprechende, bekannte Objektbewegung als erkannt ausgibt.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zusätzlich die Zelle gespeichert wird, in welcher das mindestens eine Objekt zuerst und/oder zuletzt detektiert wurde.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zusätzlich die Reihenfolge der Zellen gespeichert wird in welcher das mindestens eine Objekt detektiert wurde.
  4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der in Schritt d) abgespeicherte Wert eine Abhängigkeit von der Dauer der Detektion mindestens eines Objekts in mindestens einer Zelle durch mindestens eine Sensoreinrichtung aufweist.
  5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der in Schritt d) abgespeicherte Wert eine Abhängigkeit von Eigenschaften des Objekts zum Zeitpunkt der Detektion aufweist wie beispielsweise Form, Farbe, Helligkeit, Reflexionsgrad, Temperatur, Geschwindigkeit und/oder Lautstärke
  6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass Verfahrensschritt e) und/oder Verfahrensschritt f) mittels Algorithmen basierend auf Maschinellem Lernen und/oder Künstlicher Intelligenz durchgeführt werden.
  7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Generierung des Referenzinhalts für Verfahrensschritt f) mittels Algorithmen basierend auf Maschinellem Lernen und/oder Künstlicher Intelligenz durchgeführt wird.
  8. Vorrichtung zur Erkennung von Objektbewegungen, insbesondere zur Anwendung des Verfahrens nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass a) sie mindestens zwei Sensoreinrichtungen umfasst, welche den Abstand zu einem oder mehreren Objekten detektieren, b) die mindestens zwei Sensoreinrichtungen an unterschiedlichen Positionen im Raum angebracht sind, c) sie mindestens eine Auswerteeinrichtung umfasst, d) sie mindestens eine Speichereinrichtung umfasst, welche einen Speicherbereich aufweist, der sich in mindestens zwei Speicherplätze unterteilen lässt, e) sie mindestens einen Datenübertragungskanal umfasst, welcher die Sensoreinrichtungen mit der mindestens einen Auswerteeinrichtung sowie der mindestens einen Speichereinrichtung verbindet.
  9. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass die Sensoreinrichtungen ihren Abstand zu einem oder mehreren Objekten durch Laufzeitmessung, Licht, Infrarot, Kapazität, Schall, Ultra-Weitband und/oder Radar bestimmen.
  10. Vorrichtung nach einem der Ansprüche 8 bis 9, dadurch gekennzeichnet, dass der Datenübertragungskanal ein drahtloses Übertragungsverfahren nutzt.
  11. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass als Übertragungsverfahren eines der folgenden verwendet wird: Wlan, Bluetooth, Zigbee, NFC, LiFi, LoRaWAN und/oder Mobilfunk.
  12. Vorrichtung nach einem der Ansprüche 8 bis 9, dadurch gekennzeichnet, dass der Datenübetragungskanal ein drahtgebundenes, serielles und/oder paralleles Datenübertragungsverfahren nutzt.
  13. Vorrichtung nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass sie in einer Leuchte integriert ist.
  14. Vorrichtung nach einem der Ansprüche 9 bis 13, dadurch gekennzeichnet, dass sie zur Änderung von mindestens einem der folgenden Parameter verwendet wird: Helligkeit, Beleuchtungsstärke, Lichtfarbe, Farbtemperatur, Spektralverteilung, Abstrahlcharakteristik, Musiktitel, Videotitel, Lautstärke, Verschattung, Raumtemperatur.
DE102021005129.7A 2021-10-13 2021-10-13 Verfahren und Vorrichtung zum Steuern elektronischer Geräte, insbesondere Leuchten Withdrawn DE102021005129A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021005129.7A DE102021005129A1 (de) 2021-10-13 2021-10-13 Verfahren und Vorrichtung zum Steuern elektronischer Geräte, insbesondere Leuchten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021005129.7A DE102021005129A1 (de) 2021-10-13 2021-10-13 Verfahren und Vorrichtung zum Steuern elektronischer Geräte, insbesondere Leuchten

Publications (1)

Publication Number Publication Date
DE102021005129A1 true DE102021005129A1 (de) 2023-04-13

Family

ID=85705611

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021005129.7A Withdrawn DE102021005129A1 (de) 2021-10-13 2021-10-13 Verfahren und Vorrichtung zum Steuern elektronischer Geräte, insbesondere Leuchten

Country Status (1)

Country Link
DE (1) DE102021005129A1 (de)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0559357A1 (de) 1992-03-04 1993-09-08 Csir Überwachungssystem
WO1994008258A1 (en) 1992-10-07 1994-04-14 Octrooibureau Kisch N.V. Apparatus and a method for classifying movement of objects along a passage
DE10242890A1 (de) 2002-09-16 2004-03-25 Technische Universität München Kostenbewusste visuelle Interaktion über ein Distanzsensorenfeld
WO2013130285A2 (en) 2012-03-01 2013-09-06 Qualcomm Incorporated Gesture detection based on information from multiple types of sensors
EP2693300A2 (de) 2012-08-01 2014-02-05 Samsung Electronics Co., Ltd Vorrichtung und Verfahren zur Gestenerkennung basierend auf der Richtung der Geste
DE102013012466A1 (de) 2013-07-26 2015-01-29 Audi Ag Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung
US9127942B1 (en) 2012-09-21 2015-09-08 Amazon Technologies, Inc. Surface distance determination using time-of-flight of light

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0559357A1 (de) 1992-03-04 1993-09-08 Csir Überwachungssystem
WO1994008258A1 (en) 1992-10-07 1994-04-14 Octrooibureau Kisch N.V. Apparatus and a method for classifying movement of objects along a passage
DE10242890A1 (de) 2002-09-16 2004-03-25 Technische Universität München Kostenbewusste visuelle Interaktion über ein Distanzsensorenfeld
WO2013130285A2 (en) 2012-03-01 2013-09-06 Qualcomm Incorporated Gesture detection based on information from multiple types of sensors
EP2693300A2 (de) 2012-08-01 2014-02-05 Samsung Electronics Co., Ltd Vorrichtung und Verfahren zur Gestenerkennung basierend auf der Richtung der Geste
US9127942B1 (en) 2012-09-21 2015-09-08 Amazon Technologies, Inc. Surface distance determination using time-of-flight of light
DE102013012466A1 (de) 2013-07-26 2015-01-29 Audi Ag Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung

Similar Documents

Publication Publication Date Title
DE102004034187B4 (de) Personendetektor und damit ausgerüstete elektronische Einrichtung
DE60212633T2 (de) Verfahren und vorrichtung zur optischen positionserfassung eines gegenstandes
WO2013075154A1 (de) Konfiguration von betriebsgeräten für leuchtmittel
DE102017106812B4 (de) Vorrichtung und zugehöriges Verfahren zur selbständigen Adresskonfiguration konfektionierbarer, flexibler LED-Sensor-Bänder
EP2915022B1 (de) Verfahren zum eingeben eines steuerbefehls für eine komponente eines kraftwagens
DE102013100522A1 (de) Universelle Sensoranordnung zur Erfassung von Bediengesten an Fahrzeugen
DE102007057372A1 (de) Testsystem für Lidarsensoren
DE102009016918A1 (de) Beleuchtungseinrichtung, Gebäude mit einer Beleuchtungseinrichtung und Verfahren zum Betreiben einer Beleuchtungseinrichtung
EP3123833A1 (de) Gesteuerte leuchtenvorrichtung
EP2952981B1 (de) Verfahren zum betreiben einer gebäudeinstallation mit einem situationswächter sowie gebäudeinstallation mit einem situationswächter
WO2014078881A2 (de) Konfiguration von betriebsgeräten für leuchtmittel
DE102021005129A1 (de) Verfahren und Vorrichtung zum Steuern elektronischer Geräte, insbesondere Leuchten
EP2663909A1 (de) Fernsteuerungseinrichtung und schnittstellen-modul zur steuerung einer vorrichtung anhand eines beweglichen objektes
DE60213777T2 (de) Vorrichtung und verfahren zur optischen erfassung der bewegung von objekten
EP3520576A1 (de) System und verfahren zur erstellung von anwesenheitsprofilen für die gebäudesteuerung
DE102014106680B4 (de) Schalterbetätigungseinrichtung, mobiles Gerät und Verfahren zum Betätigen eines Schalters durch eine nicht-taktile "Push"-Geste
DE60205735T2 (de) Trainierbares laser-optisches sensorsystem zur objekterkennung
DE102020109190A1 (de) Scheinwerfersystem, Scheinwerfer, Optikkomponente hierfür und Verfahren zum Ermitteln einer räumlichen Lichtverteilung derselben
DE102019206083A1 (de) Verfahren zur optischen Inspektion, Kamerasystem und Fahrzeug
DE102017221656A1 (de) Bewegungserfassung von Objekten mittels Bewegungsmelder
DE102015015390A1 (de) Einfache Gestenerkennungsvorrichtung
DE102017129627B4 (de) Abstandsermittlung basierend auf verschiedenen Tiefenschärfebereichen bei unterschiedlichen Fokuseinstellungen eines Objektivs
DE102014201313A1 (de) Verfahren zur Erkennung einer Bewegungsbahn mindestens eines bewegten Objektes innerhalb eines Erfassungsbereiches, Verfahren zur Gestikerkennung unter Einsatz eines derartigen Erkennungsverfahrens sowie Vorrichtung zur Durchführung eines derartigen Erkennungsverfahrens
DE102013208687A1 (de) Vorrichtung und Verfahren zum Ermitteln einer Raumtemperatur
DE102023123163A1 (de) Beleuchtungsvorrichtung und Beleuchtungsverfahren mit Messung und Anzeige des Abstands

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee