DE102018213656B4 - Leuchte zur Nachverfolgung von Belegenden - Google Patents
Leuchte zur Nachverfolgung von Belegenden Download PDFInfo
- Publication number
- DE102018213656B4 DE102018213656B4 DE102018213656.4A DE102018213656A DE102018213656B4 DE 102018213656 B4 DE102018213656 B4 DE 102018213656B4 DE 102018213656 A DE102018213656 A DE 102018213656A DE 102018213656 B4 DE102018213656 B4 DE 102018213656B4
- Authority
- DE
- Germany
- Prior art keywords
- occupant
- field
- view
- fov
- lamp
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 claims abstract description 56
- 238000012546 transfer Methods 0.000 claims description 8
- 238000000034 method Methods 0.000 description 25
- 238000012545 processing Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 16
- 239000003086 colorant Substances 0.000 description 9
- 230000004044 response Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 4
- 238000004378 air conditioning Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000010438 heat treatment Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000009423 ventilation Methods 0.000 description 4
- 101100116570 Caenorhabditis elegans cup-2 gene Proteins 0.000 description 3
- 101100116572 Drosophila melanogaster Der-1 gene Proteins 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- UGFAIRIUMAVXCW-UHFFFAOYSA-N Carbon monoxide Chemical compound [O+]#[C-] UGFAIRIUMAVXCW-UHFFFAOYSA-N 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 229910002092 carbon dioxide Inorganic materials 0.000 description 2
- 239000001569 carbon dioxide Substances 0.000 description 2
- 229910002091 carbon monoxide Inorganic materials 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 239000000779 smoke Substances 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 239000002826 coolant Substances 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000003973 irrigation Methods 0.000 description 1
- 230000002262 irrigation Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/105—Controlling the light source in response to determined parameters
- H05B47/115—Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
- H05B47/125—Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B45/00—Circuit arrangements for operating light-emitting diodes [LED]
- H05B45/10—Controlling the intensity of the light
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B20/00—Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
- Y02B20/40—Control techniques providing energy savings, e.g. smart controller or presence detection
Landscapes
- Circuit Arrangement For Electric Light Sources In General (AREA)
Abstract
Description
- GEBIET DER OFFENBARUNG
- Die vorliegende Offenbarung betrifft Leuchten und insbesondere ein intelligentes Beleuchtungsmodul für Leuchten.
- HINTERGRUND
- In den vergangenen Jahren hat eine Bewegung Fahrt aufgenommen, um Glühbirnen durch Leuchten zu ersetzen, die effizientere Leuchttechnologien verwenden, und um außerdem relativ effiziente Leuchtstoffröhren durch Leuchttechnologien zu ersetzen, die ein angenehmeres natürliches Licht erzeugen. Eine derartige Technologie, die sich als äußerst vielversprechend erwiesen hat, verwendet Leuchtdioden (LEDs). Im Vergleich mit Glühbirnen sind LED-gestützte Leuchten viel effizienter bei der Umwandlung von elektrischer Energie in Licht, sie haben eine längere Lebensdauer, und können auch Licht erzeugen, welches sehr natürlich ist. Im Vergleich mit Leuchtstoffröhren sind LED-gestützte Leuchten nicht nur effizienter, sondern sie können auch Licht erzeugen, welches viel natürlicher ist, und sie können Farben besser wiedergeben. Infolgedessen ersetzen Leuchten, die LED Technologien anwenden, Glühbirnen und Leuchtstoffröhren in privaten, kommerziellen und industriellen Anwendungen.
- Im Gegensatz zu Glühbirnen, die dadurch betrieben werden, dass ein Draht einem gewünschten Strom ausgesetzt wird, benötigen LED-gestützte Leuchten elektronische Schaltungen, um ein oder mehrere LEDs anzusteuern bzw. anzutreiben. Die elektronischen Schaltungen umfassen allgemein eine Energieversorgung und eine spezielle Steuerschaltung, um in einzigartiger Weise konfigurierte Ansteuersignale bereitzustellen, die benötigt werden, um die eine oder die mehreren LEDs in einer gewünschten Weise anzusteuern. Die Anwesenheit der Steuerschaltung fügt einen potenziell signifikanten Grad von Intelligenz zu den Leuchten hinzu, die wirksam eingesetzt werden können, um verschiedene Typen einer Beleuchtungssteuerung anzuwenden. Eine derartige Beleuchtungssteuerung kann auf verschiedene Umgebungsbedingungen gestützt werden, wie beispielsweise Umgebungslicht und eine Belegung.
- Beispielsweise beschreib die
DE 20 2014 104 825 U1 ein Beleuchtungssystem zum Beleuchten einer Wegstrecke mit in einer Reihe geschalteten Beleuchtungseinheiten, die jeweils zumindest einen Teil der Wegstrecke mit Licht beleuchten. - Eine weitere Beleuchtungseinrichtung ist in der
DE 10 2009 016 918 A1 beschrieben. - Des Weiteren offenbart die
WO 2013/158955 A1 - ZUSAMMENFASSUNG
- Die vorliegende Erfindung schafft eine Leuchte mit den Merkmalen des Anspruchs 1, eine Leuchte mit den Merkmalen des Anspruchs 19, eine Leuchte mit den Merkmalen des Anspruchs 20 und eine Leuchte mit den Merkmalen des Anspruchs 21.
- Wenn, in einer Ausführungsform, keine Anzeige über eine Belegung vorhanden ist, dann kommuniziert die Steuerschaltung mit wenigstens einer benachbarten Leuchte über die Kommunikationsschnittstelle, um zu bestimmen, ob die Person in dem Sichtfeld der wenigstens einen benachbarten Leuchte ist. Wenn die Person in dem Sichtfeld der wenigstens einen benachbarten Leuchte ist, dann kommuniziert die Steuerschaltung mit der wenigstens einen benachbarten Leuchte über die Kommunikationsschnittstelle, um eine Übergabe der Nachverfolgung der Bewegung der Person an die wenigstens eine benachbarte Leuchte zu ermöglichen. Die Steuerschaltung stellt auch eine Personen-Information, die sich auf die Person bezieht und von der Bildinformation abgeleitet ist, an der wenigstens einen benachbarten Leuchte über die Kommunikationsschnittstelle im Zusammenhang mit der Übergabe bereit.
- Während der Nachverfolgung der Bewegung der Person ist die Steuerschaltung, in einer Ausführungsform, ferner konfiguriert, um: vorherzusagen, ob die Person gerade das Sichtfeld verlässt, und wenn vorhergesagt wird, dass die Person gerade das Sichtfeld verlässt, mit wenigstens einer benachbarten Leuchte über die Kommunikationsschnittstelle zu kommunizieren, um eine Übergabe der Nachverfolgung der Bewegung der Person an die wenigstens eine benachbarte Leuchte zu ermöglichen. Während die Bewegung der Person nachverfolgt wird, kann die Steuerschaltung konfiguriert sein, um dann, wenn die Person das Sichtfeld gerade nicht verlässt, eine Nachverfolgung der Bewegung der Person innerhalb des Sichtfelds wieder aufzunehmen. Um vorherzusagen, ob die Person gerade das Sichtfeld verlässt, kann die Steuerschaltung konfiguriert sein, um wenigstens einen Ort der Person innerhalb des Sichtfelds, eine Bewegungsrichtung der Person und/oder eine Bewegungsgeschwindigkeit der Person zu bestimmen; und den wenigstens einen Ort der Person innerhalb des Sichtfelds, in der Bewegungsrichtung der Person, und die Bewegungsrichtung der Person zu verwenden, um vorherzusagen, ob die Person gerade das Sichtfeld verlässt. Die Steuerschaltung kann konfiguriert sein, um eine Personen-Information, die sich auf die Person bezieht und von der Bildinformation abgeleitet wird, an der wenigstens einen benachbarten Leuchte über die Kommunikationsschnittstelle im Zusammenhang mit der Übergabe bereitzustellen.
- In einer Ausführungsform ist die Steuerschaltung ferner konfiguriert, um eine Bewegung in dem Sichtfeld, verursacht durch ein sich in dem Sichtfeld bewegendes Objekt, zu erfassen; zu bestimmen, ob das sich in dem Sichtfeld bewegende Objekte eine vorher verfolgte bzw. nachverfolgte Person ist; und wenn das sich in dem Sichtfeld bewegende Objekt eine vorher verfolgte Person ist, eine Verfolgung bzw. Nachverfolgung der vorher verfolgten Person wiederaufzunehmen, wobei eine Bestimmung, ob das Objekt in dem Sichtfeld eine Person bzw. ein Belegender ist, initiiert wird, wenn das sich in dem Sichtfeld bewegende Objekt nicht eine vorher verfolgte Person ist.
- Durchschnittsfachleute in dem technischen Gebiet werden den Umfang der vorliegenden Offenbarung erkennen und zusätzliche Aspekte davon nach dem Studium der folgenden ausführlichen Beschreibung der bevorzugten Ausführungsformen im Zusammenhang mit den beiliegenden Zeichnungsfiguren realisieren.
- Figurenliste
- Die beiliegenden Zeichnungsfiguren, die in einen Teil dieser Beschreibung eingebaut sind und einen Teil davon bilden, illustrieren mehrere Aspekte der Offenbarung und dienen zusammen mit der Beschreibung der Erläuterung der Prinzipien der Offenbarung.
- In den Zeichnungen zeigen:
-
1 eine perspektivische Ansicht einer Leuchte eines abgehängten Typs gemäß einer Ausführungsform der Offenbarung; -
2 einen Querschnitt der Leuchte der1 ; -
3 einen Querschnitt der Leuchte der1 , wobei dargestellt ist, wie Licht von den LEDs der Leuchte austritt und über Linsen der Leuchte heraus reflektiert wird; -
4 ein Treibermodul, ein LED Feld und ein intelligentes Beleuchtungsmodul (Intelligent Lighting Module; ILM) innerhalb der Leuchte der1 ; -
5 eine Beleuchtungs- und Netzumgebung gemäß einer Ausführungsform; -
6 eine Raumaufteilung für eine beispielhafte Büroumgebung gemäß einer Ausführungsform; -
7A und7B Sichtfelder für zwei unterschiedliche Beleuchtungsumgebungen; -
8 ein Flussdiagramm, das einen Betrieb einer Leuchte gemäß einer Ausführungsform zeigt; -
9 ein Flussdiagramm, das eine Personenerfassung, Klassifizierung, Nachverfolgung und Übergabe für eine gegebene Leuchte gemäß einer Ausführungsform darstellt; -
10A bis10F eine Bewegung von Personen oder Belegenden durch ein beispielhaftes Sichtfeld; -
11A Sichtfelder vor einer Abbildungsoperation; -
11B Sichtfelder nach einer Abbildungsoperation; -
12 ein Treibermodul, das in einem Elektronikgehäuse vorgesehen ist, und ein Kommunikationsmodul in einem zugehörigen Gehäuse, das mit dem Äußeren des Elektronikgehäuses gekoppelt ist; -
13 ein Blockdiagramm eines ILM gemäß einer Ausführungsform der Offenbarung; -
14 eine isometrische Ansicht von oben von einem ILM gemäß einer ersten Ausführungsform der Offenbarung; -
15 ein Bildmodul, das in einem Gehäuse einer Leuchte gemäß einer Ausführungsform der Offenbarung installiert ist; und -
16 einen Bildsensor gemäß einer Ausführungsform der Offenbarung. - AUSFÜHRLICHE BESCHREIBUNG
- Die nachstehend aufgeführten Ausführungsformen stellen die notwendige Information bereit, um Durchschnittsfachleute in dem technischen Gebiet in die Lage zu versetzen, die Ausführungsformen in der Praxis umzusetzen, und sie illustrieren die bevorzugte Vorgehensweise zur Umsetzung der Ausführungsformen. Auf ein Studium der folgenden Beschreibung hin im Hinblick auf die beiliegenden Zeichnungsfiguren werden Durchschnittsfachleute in dem technischen Gebiet die Konzepte der Offenbarung verstehen und werden Anwendungen von diesen Konzepten, die hier nicht besonders angesprochen werden, erkennen. Es sei darauf hingewiesen, dass diese Konzepte und Anwendungen in den Umfang der Offenbarung und der beiliegenden Ansprüche fallen.
- Obwohl die Begriffe erster, zweiter usw. hier verwendet werden, um verschiedene Elemente zu beschreiben, sei darauf hingewiesen, dass diese Elemente durch diese Ausdrücke nicht beschränkt werden sollten. Diese Ausdrücke werden nur verwendet, um ein Element von einem anderen zu unterscheiden. Zum Beispiel könnte ein erstes Element als ein zweites Element bezeichnet werden, und in ähnlicher Weise könnte ein zweites Element als ein erstes Element bezeichnet werden, ohne von dem Umfang der vorliegenden Offenbarung abzuweichen. Wie hier verwendet umfasst der Begriff „und/oder“ irgendwelche und sämtliche Kombinationen von ein oder mehreren der angegebenen zugehörigen Einzelteile.
- Die hier verwendete Terminologie dient dem Zweck einer Beschreibung nur von bestimmten Ausführungsformen und es ist nicht beabsichtigt, dass sie für die Offenbarung beschränkend ist. Wie hier verwendet sollen die singularen Formen „einer“, „eine“, „eines“ und „der“, „die“, „das“ genauso die pluralen Formen umfassen, außer wenn der Kontext dies deutlich anderweitig anzeigt. Es sei ferner darauf hingewiesen, dass die Ausdrücke „umfasst“, „umfassend“, „beinhaltet“ und/oder „einschließend“, wenn sie hier verwendet werden, die Anwesenheit von angegebenen Merkmalen, Zahlen, Schritten, Operationen, Elementen und/oder Komponenten spezifizieren, aber die Anwesenheit oder Hinzufügung von ein oder mehreren anderen Merkmalen, Zahlen, Schritten, Operationen, Elementen, Komponenten und/oder Gruppen davon nicht ausschließen.
- Außer wenn dies anderweitig definiert wird, weisen sämtliche Begriffe (einschließlich von technischen und wissenschaftlichen Begriffen), die hier verwendet werden, die gleiche Bedeutung auf, so wie sie gewöhnlicherweise von einem Durchschnittsfachmann in dem technischen Gebiet, auf das sich diese Offenbarung bezieht, verstanden wird. Es sei ferner darauf hingewiesen, dass Begriffe, die hier verwendet werden, so interpretiert werden sollten, dass sie eine Bedeutung aufweisen, die konsistent mit deren Bedeutung in dem Kontext dieser Beschreibung und dem relevanten Stand der Technik ist, und sie sollten nicht in einem idealisierten oder übermäßig formalen Sinn interpretiert werden, außer wenn dies ausdrücklich hier definiert ist.
- Bevor die Einzelheiten der vorliegenden Offenbarung näher erläutert werden, wird ein Überblick über eine beispielhafte Leuchte, die die voranstehend beschriebenen Konzepte beinhaltet, bereitgestellt. Während die Konzepte der vorliegenden Offenbarung in irgendeinem Typ von Beleuchtungssystem verwendet werden können, beschreibt die unmittelbar folgende Beschreibung diese Konzepte in einer Leuchte eines abgehängten Typs, wie beispielsweise der Leuchte
10 , die in1 bis3 dargestellt ist. Diese besondere Leuchte ist im Wesentlichen ähnlich zu der CR und CS Serie von Leuchten des abgehängten Typs, die von Cree, Inc. aus Durham, NC hergestellt werden. - Im Allgemeinen sind Leuchten des abgehängten Typs, wie beispielsweise die Leuchte
10 , konstruiert, um in einer Decke angebracht zu werden oder davon abgehängt zu werden. In den meisten Anwendungen werden die Leuchten des abgehängten Typs in einer abgehängten Decke (nicht gezeigt) einer kommerziellen, bildungsbezogenen oder regierungsbezogenen Einheit angebracht. Wie in1 bis3 dargestellt umfasst die Leuchte10 einen quadratischen oder rechteckförmigen äußeren Rahmen12 . In dem zentralen Abschnitt der Leuchte10 befinden sich zwei rechteckförmige Linsen14 , die allgemein transparent, lichtdurchlässig oder undurchsichtig sind. Reflektoren16 erstrecken sich von dem äußeren Rahmen12 zu den äußeren Kanten der Linsen14 . Die Linsen14 erstrecken sich effektiv zwischen den innersten Abschnitten der Reflektoren16 zu einem zentralen Anbringungselement18 , welches auch als eine Wärmesenke dient und in dieser Ausführungsform dazu dient, die zwei inneren Kanten der Linsen14 zu verbinden. Wie mit näheren Einzelheiten nachstehend beschrieben wird, kann ein intelligentes Beleuchtungsmodul (ILM)20 in, auf oder an dem zentralen Anbringungselement18 oder irgend einem anderen geeigneten Abschnitt der Leuchte10 angebracht sein. Das ILM20 stellt eine Intelligenz für die Leuchte10 bereit, nimmt ein oder mehrere Sensoren SX auf oder ist anderweitig mit diesen gekoppelt, und ermöglicht drahtgebundene und/oder drahtlose Kommunikationen mit anderen Leuchten10 oder anderen entfernten Einheiten. - Im Grunde genommen ist das ILM
20 ein Steuerungs- und Kommunikationsmodul für die Leuchte10 . Die Kommunikationen mit anderen Leuchten10 und anderen Einheiten kann sich darauf beziehen, Zustandsinformation und Sensorinformation zu teilen und außerdem Befehle oder andere Information bereitzustellen, die die Steuerung der Leuchten10 oder anderer Einheiten während eines normalen Betriebs oder einer Inbetriebnahme unterstützen. Während drei SensorenS1-S3 dargestellt sind, kann die Leuchte irgendeine Anzahl der gleichen oder unterschiedlichen Sensoren SX aufweisen. Die Sensoren SX können einen oder mehrere der folgenden umfassen: einen Bildsensor, einen Belegungssensor (zum Beispiel einen passiven Infrarot(PIR)-Sensor), einen akustischen Sensor, einen Umgebungslichtsensor, einen Temperatursensor, einen Feuchtigkeitssensor, einen Drucksensor, einen Vibrationssensor, einen Kohlenmonoxidsensor, einen Kohlendioxidsensor, einen Luftqualitätssensor, einen Rauchsensor, einen Energiesensor o. ä. Sensoren. Weitere Einzelheiten werden nachstehend angegeben. - Wenn man nun
2 und3 besonders betrachtet, stellt die Rückseite des zentralen Anbringungselement18 eine Anbringungsstruktur für eine Festkörperlichtquelle bereit, wie beispielsweise ein LED-Feld22 , welches ein oder mehrere Reihen von individuellen LEDs, die auf einem geeigneten Substrat angebracht sind, umfasst. Die LEDs sind orientiert, um Licht vorwiegend nach oben in Richtung auf eine konkave Abdeckung24 hin auszusenden. Das Volumen, das von der Abdeckung24 , den Linsen14 und der Rückseite des zentralen Anbringungselement18 begrenzt wird, stellt eine Mischkammer26 bereit. An sich wird Licht von den LEDs des LED-Felds22 in Richtung auf die Abdeckung24 nach oben austreten und durch die jeweiligen Linsen14 , wie in3 dargestellt, nach unten reflektiert. Es sei darauf hingewiesen, dass nicht sämtliche Lichtstrahlen, die von den LEDs ausgesendet werden, direkt von dem Boden der Abdeckung24 und durch eine bestimmte Linse14 mit einer einzelnen Reflektionen zurückreflektiert werden. Viele der Lichtstrahlen werden innerhalb der Mischkammer26 herumspringen und sich effektiv mit anderen Lichtstrahlen mischen, so dass ein gewünschtes gleichförmiges Licht durch die jeweiligen Linsen14 ausgesendet wird. - Durchschnittsfachleute in dem technischen Gebiet werden erkennen, dass der Typ der Linsen
14 , der Typ der LEDs, die Form der Abdeckung24 und irgendeine Beschichtung auf der Bodenseite der Abdeckung24 , unter zahlreichen anderen Variablen, die Größe und die Qualität des Lichts, das durch die Leuchte10 ausgesendet wird, beeinflussen werden. Wie mit näheren Einzelheiten nachstehend diskutiert wird, kann das LED-Feld22 LEDs mit unterschiedlichen Farben umfassen, wobei das von den verschiedenen LEDs ausgesendete Licht zusammen gemischt wird, um ein weißes Licht mit einer gewünschten Charakteristik zu bilden, wie beispielsweise einem gewünschten spektralen Inhalt (einer Farbe oder einer Farbtemperatur), einem gewünschten Farbwiedergabeindex (CRI), einem Ausgabepegel und dergleichen auf Grundlage der Konstruktionsparameter für die bestimmte Ausführungsform, die Umgebungsbedingungen oder dergleichen. - Wenn das zentrale Anbringungselement
18 als eine Wärmesenke dient, können sich Rippen (die nicht dargestellt sind) von dem zentralen Anbringungselement18 in irgendeine Richtung erstrecken. Wenn sich die Rippen von dem Boden des zentralen Anbringungselement18 erstrecken, können die Rippen von dem Boden der Leuchte10 sichtbar sein. Eine Anordnung der LEDs des LED-Felds22 in einem thermischen Kontakt entlang der oberen Seite des zentralen Anbringungselement18 ermöglicht, dass irgendwelche Wärme, die von den LEDs erzeugt wird, effektiv an die Bodenseite des zentralen Anbringungselements18 für eine Ableitung in den Raum, in dem die Leuchte10 angebracht ist, transferiert wird. - Wie in
4 dargestellt ist ein Treibermodul28 mit dem LED-Feld22 und dem ILM20 über eine geeignete Verkabelung30 gekoppelt und an einer Treiberbefestigung32 der Leuchte10 angebracht. Das Treibermodul28 wird verwendet, um das LED-Feld22 anzusteuern, um im Ansprechen auf Befehle von dem ILM20 einen gewünschten Lichtausgabepegel bereitzustellen. Im normalen Betrieb verwendet das ILM20 seine interne Logik, um einen Ein/Aus-Zustand und einen Ausgabepegel für das LED-Feld22 auf Grundlage von Informationen, die direkt oder indirekt von ein oder mehreren SensorenS1-S3 , anderen Leuchten10 und/oder entfernten Einheiten, wie beispielsweise Steuerknoten36 , Verarbeitungsknoten38 , System-Controllern34 , Wand-Controllern (nicht gezeigt) und der gleichen empfangen wird, zu bestimmen. Das ILM20 kann auch Information über den Zustand der Leuchte10 , Sensorinformation, Steuerinformation, Anfragen nach Information und dergleichen an ein oder mehrere der anderen Leuchten10 und/oder entfernten Einheiten senden. Während es als ein integriertes Modul beschrieben wird, kann die Funktionalität des ILM20 in das Treibermodul28 oder andere elektronische Schaltungen der Leuchte10 eingebaut sein. - Der System-Controller
34 stellt irgendeinen Typ von entfernter Steuereinheiten dar, die konfiguriert ist, um wenigstens ein anderes System außer dem Beleuchtungsnetz, in dem sich die Leuchten10 befinden, zu steuern. Zum Beispiel kann der System-Controller34 ein Controller für ein oder mehrere der folgenden sein: eine Heizung, ein System für eine Klimaanlage (HVAC), ein Sicherheitssystem, ein Feuerschutzsystem, ein Bewässerungssystem, ein Herstellungssystem, Evakuierungssysteme, Belegungsüberwachungs- oder Steuer-Systeme und dergleichen. Wie nachstehend mit näheren Einzelheiten diskutiert, erlauben die hier bereitgestellten Konzepte in dem Beleuchtungsnetz nicht nur zu bestimmen, ob verschiedene Räume belegt sind, sondern auch um die Anzahl von Personen bzw. Belegenden in einem Raum zu bestimmen, wenn der Raum belegt ist. Mit modernen HVAC Systemen, die Kühlmittelströmungen mit variabler Geschwindigkeit und Gebläsegeschwindigkeiten mit variabler Geschwindigkeit umfassen, besteht eine HVAC Steuerung nicht mehr einfach in der Einschaltung oder Ausschaltung des HVAC Systems. Die Rate oder der Grad einer Erwärmung, Kühlung und/oder Lüftung ist variabel. Mit den hier bereitgestellten Konzepten kann eine HVAC Steuerung nicht nur eine Raumtemperatur berücksichtigen, sondern auch die Anzahl von Belegenden bzw. Personen in dem Raum, was hier als ein Belegungsgrad bezeichnet wird. - Das Beleuchtungsnetz ist in der Lage den Belegungsgrad für jeden Raum zu berichten, so dass die HVAC Steuerung den Grad einer Erwärmung, Klimatisierung und/oder Belüftung für jeden Raum auf Grundlage der Temperatur und außerdem sich ändernden Belegungsgraden dynamisch einstellen kann. Ein Raum mit einer größeren Anzahl von Personen kann in vorteilhafter Weise höhere Grade einer Erwärmung, einer Klimatisierung und/oder Belüftung und umgekehrt erhalten. Zusätzlich oder anstelle einer Steuerung der Erwärmung, Klimatisierung und/oder den Belüftungsgrade auf Grundlage des Belegungsgrads können andere HVAC Einstellungen auf Grundlage von Belegungsgraden dynamisch gesteuert oder eingestellt werden. Zum Beispiel können die HVAC Sollpunkte, Rückstellungen und/oder tote Zonen (Hysterese-Bereiche um einen Sollpunkt oder einen Rückstellungspunkt herum) dynamisch auf Grundlage von Raum-zu-Raum oder global für eine gesamte Umgebung, die diese Räume enthält, verändert werden. Wie voranstehend angegeben ist eine HVAC Steuerung auf Grundlage von tatsächlichen Belegungsgraden im Gegensatz zu einer allgemeinen Belegung ein Beispiel einer Steuerung.
- Die Leuchten
10 können konfiguriert sein, um mit den System-Controllern34 direkt zu kommunizieren oder die Belegungs-Information an einer Zwischeneinrichtungen, wie beispielsweise dem Verarbeitungsknoten38 oder dem Steuerknoten36 , der die von einer Gruppe von Leuchten10 gesammelte Belegungs-Information verarbeiten wird und geeignete auf eine Belegung bezogene Befehle oder eine derartige Information an den System-Controllern34 bereitstellen wird, bereitzustellen. Die Verarbeitungsknoten38 sind allgemein Teil des Beleuchtungsnetzes und können verwendet werden, um eine Konfiguration der verschiedenen Leuchten10 in dem Beleuchtungsnetz während einer Inbetriebnahme, eine Gruppensteuerung der Leuchten10 , wenn eine derartige Steuerung unter den Leuchten10 nicht verteilt wird, Kommunikationen mit entfernten Einheiten und dergleichen zu ermöglichen. Die Steuerknoten36 sind speziell eingerichtete Beleuchtung-Steuereinrichtungen, die verwendet werden, um die Leuchten10 individuell oder als eine Gruppe zu konfigurieren oder zu steuern. - Bezugnehmend nun auf
5 wird ein beispielhaftes Beleuchtungsnetz dargestellt. Das Beleuchtungsnetz umfasst mehrere Leuchten10 , die jeweils einen ersten SensorS1 , der ein Bildsensor ist, und einen zweiten SensorS2 , der eine PIR-gestützter Belegungssensor ist, umfassen. Der erste und der zweite SensorS1 undS2 kann andere Ausbildungen annehmen, wie Durchschnittsfachleute in dem technischen Gebiet erkennen werden. Die besondere Kombination eines Bildsensors für den ersten SensorS1 und eines PIR-gestützten Belegungssensors für den zweiten SensorS2 ist nur für Illustrationszwecke angegeben. - Wie dargestellt ist eine erste Gruppe der Leuchten
10 konfiguriert, um untereinander und außerdem mit anderen Einheiten unter Verwendung von drahtlosen Kommunikationen zu kommunizieren und sie bilden einen Teil eines BeleuchtungsnetzesN1 oder sind mit diesen gekoppelt. Eine zweite Gruppe der Leuchten10 ist konfiguriert, um untereinander und auch mit anderen Einheiten unter Verwendung von drahtgebundenen Kommunikationen zu kommunizieren, wie beispielsweise Ethernet-gestützten Kommunikationen, und sie bilden ebenfalls einen Teil des BeleuchtungsnetzesN1 oder sind mit diesen gekoppelt. Das BeleuchtungsnetzN1 kann mit einem traditionellen lokalen Netz (LAN)N2 gekoppelt sein, welches eine traditionelle Vernetzung innerhalb einer Organisation unterstützt. Das LANN2 ist ferner mit einem Cloud-NetzN3 , wie beispielsweise dem Internet oder einer ähnlichen Netz-Infrastruktur gekoppelt, die eine Kommunikation mit entfernten Einheiten, Servern, Diensten und dergleichen in einer traditionellen Weise ermöglicht. Kommunikationen mit den verschiedenen System-Controllern34 , Steuerknoten36 und Verarbeitungsknoten38 können durch das BeleuchtungsnetzN1 , das LANN2 und das Cloud-NetzN3 , in Abhängigkeit von dem Ort und der Funktionalität der Einrichtungen, unterstützt werden. Obwohl nicht dargestellt kann das BeleuchtungsnetzN1 verschiedene Router, Vermittlungsstellen, Gateways, alleinstehende Sensoren, Wand-Controller zum Einschalten und Ausschalten sowie zum Abzudunkeln von sämtlichen Leuchten10 oder Gruppen davon und dergleichen umfassen. -
6 zeigt eine beispielhafte Büroumgebung mit zahlreichen Leuchten10 , die in der Decke der Büroumgebung verteilt sind und für eine allgemeine Beleuchtung verwendet werden. In dieser Ausführungsform sei angenommen, dass jede der Leuchten10 wenigstens einen Bildsensor-gestützten SensorS1 und einen PIR-gestützten BelegungssensorS2 umfasst. In dieser Konfiguration wird der Bildsensor-gestützter SensorS1 als ein primärer Belegungssensor mit einer hohen Auflösung verwendet, während der PIR-gestützte BelegungssensorS2 als ein sekundärer Belegungssensor mit einer viel geringeren Auflösung verwendet wird. - Wie in
7A und7B dargestellt weist der (Bildsensor-gestützte) erste SensorS1 für jede Leuchte10 ein zugehöriges Sichtfeld (FOV) auf. Das Sichtfeld (FOV) entspricht einem Gebiet, von dem der erste SensorS1 der Leuchte10 Bildinformation aufnehmen kann. Eine Bild wird hier grob so definiert, dass es Bild-bezogene Information umfasst, die von dem BildsensorS1 eingefangen wird. Die Bild-bezogene Information umfasst, ist aber nicht beschränkt auf, Information, die einem gesamten Standbild oder einem Teil eines Standbilds, sämtlichen Videobildern oder einem Teil von ein oder mehreren Videobildern, Charakteristiken (d. h. Farbe, Wellenlänge, Helligkeit, Kontrast, Größe, Form usw.) von irgendeinem Aspekt von einem gesamten Standbild oder einem Teil eines Standbilds oder von ein oder mehreren Videorahmen oder sämtlichen Videorahmen, oder irgendeine Kombination davon entspricht. Die Sichtfelder (FOVs) für die ersten SensorenS1 der jeweiligen Leuchten10 können in Abhängigkeit von der Konstruktion der ersten SensorenS1 und/oder der zugehörigen Leuchten10 fest oder variabel sein. In jedem Fall können die Sichtfelder (FOV) entweder im Wesentlichen zueinander ausgerichtet sein, so dass nur eine geringe oder keine Überlappung vorhanden ist, wie in7A bereitgestellt, oder derart, dass sie im Wesentlichen miteinander überlappen, wie in7B bereitgestellt. Nachstehend werden Einzelheiten weiter unten angegeben darüber, wie diese unterschiedlichen Konfigurationen die Nachverfolgung bzw. Verfolgung von Belegenden z.B. Personen überall in einer gegebenen Umgebung beeinflussen. - Bezugnehmend nun auf
8 ist ein Flussdiagramm bereitgestellt, um sowohl den allgemeinen Betrieb von jeder Leuchte10 als auch eine Nachverfolgung von Personen (Belegenden) innerhalb einer gegebenen Umgebung zu illustrieren. Jede Leuchte10 wird ihre Lichtausgabe für eine allgemeine Beleuchtung auf Grundlage von Informationen oder Befehlen steuern, die von anderen Einheiten und/oder Sensoren bereitgestellt werden (Schritt100 ). Zum Beispiel kann eine Lichtausgabe gesteuert werden, wie beispielsweise eine Einschaltung, Ausschaltung oder eine Abdunklung auf einen gewünschten Pegel, auf Grundlage von Informationen, die von einem oder irgendeiner Kombination eines zugehörigen Wand-Controllers, eines Steuerknotens36 , eines System-Controllers34 , eines Verarbeitungsknotens38 , einer anderen Leuchte10 und der gleichen empfangen wird. - Zusätzlich zu der Bereitstellung von Licht für eine allgemeine Beleuchtung ist jede Leuchte
10 konfiguriert, um die Anzahl von Personen (Belegenden) in dem zugehörigen Sichtfeld zu bestimmen (Schritt102 ) und eine Belegungs-Information auf Grundlage der Anzahl von Personen in dem zugehörigen Sichtfeld an einer entfernten Einheit, wie beispielsweise dem System-Controller34 , dem Steuerknoten36 , dem Verarbeitungsknoten38 und dergleichen bereitzustellen (Schritt104 ). Im Wesentlichen entspricht die Belegungs-Information für eine gegebene Leuchte10 allgemein der Anzahl von Personen innerhalb des Sichtfelds der Leuchte. Auf Grundlage der Belegungs-Information für die Leuchten10 in einem gegebenen Gebiet kann die Anzahl von Personen für ein gegebenes Gebiet durch Addition der Anzahl von Personen, die in den Sichtfeldern für jede der Leuchten in dem gegebenen Gebiet sind, berechnet werden. In bestimmten Ausführungsformen werden Schritte vorgenommen, um eine redundante Zählung einer Person, die sich in mehreren Sichtfeldern gleichzeitig befindet, zu vermeiden. Einzelheiten werden nachstehend angegeben. - Wie voranstehend angegeben wird eine Steuerung der Lichtausgabe (Schritt
100 ), eine Bestimmung der Anzahl von Personen in einem zugehörigen Sichtfeld (Schritt102 ) und eine Bereitstellung von Belegungs-Information an einer entfernten Einheit (Schritt104 ) für jede Leuchte einzeln vorgesehen. Jede Leuchte10 verwendet die zugehörigen SensorenS1 ,S2 usw., um Personen auf einer Einzelpersonenbasis nachzuverfolgen bzw. zu verfolgen. An sich kann eine oder können mehrere Personen durch eine gegebene Leuchte10 zu irgendeiner gegebenen Zeit verfolgt werden. In einer Ausführungsform wird die Leuchte10 ihre SensorenS1 ,S2 usw. verwenden, um eine Bewegung zu erfassen, die durch ein sich bewegendes Objekt in dem zugehörigen Sichtfeld verursacht wird (Schritt106 ), und um das Objekt entweder als einen Belegenden oder einen Nicht-Belegenden zu klassifizieren (Schritt108 ). Ein Belegender wird als eine Person (ein Mensch) angesehen, während ein Nicht-Belegender allgemein als ein Objekt oder irgendetwas anderes als eine Person angesehen wird. Wenn ein Objekt als ein Belegender klassifiziert wird, wird der Belegende verfolgt, während der Belegende in dem zugehörigen Sichtfeld bleibt (Schritt110 ). - Wenn sich der Belegende (d. h. die Person) außerhalb von dem zugehörigen Sichtfeld bewegt oder dies für diesen (für diese) vorhergesagt wird, wird die Leuchte
10 eine Koordination mit benachbarten Leuchten10 durchführen, um eine Übergabe der Personen-Nachverfolgung an die benachbarte Leuchte10 , die ein Sichtfeld bereitstellt, an das sich die Person bewegt hat oder an das eine Bewegung vorhergesagt wird, zu ermöglichen (Schritt112 ). Die Schritte106 -112 für die Erfassung, Klassifizierung, Nachverfolgung und Übergabe können Information bereitstellen, die nützlich ist, wenn sowohl die Lichtausgabe gesteuert wird (Schritt100 ) als auch die Anzahl von Personen in dem Sichtfeld einer gegebenen Leuchte10 bestimmt wird (Schritt102 ). Grundlegend wird die Leuchte10 , wenn Personen in dem zugehörigen Sichtfeld erfasst werden oder dieses verlassen, die Gesamtanzahl von Personen (Belegenden) in ihrem zugehörigen Feld entsprechend dynamisch aktualisieren und berichten. Wiederum können Personen innerhalb des zugehörigen Sichtfelds einer bestimmten Leuchte10 auf einer individuellen Grundlage nachverfolgt werden, bei der die Leuchte10 mehrere Personen zu einer gegebenen Zeit nachverfolgen kann. -
9 ist ein Flussdiagramm, welches darstellt, wie individuelle Personen innerhalb des Sichtfelds einer gegebenen Leuchte unter Verwendung eines Bildsensor-gestützten ersten SensorsS1 und eines PIR-gestützten BelegungssensorsS2 erfasst und nachverfolgt werden. Der erste SensorS1 wird für eine Erfassung mit hoher Auflösung, eine Klassifizierung und Nachverfolgung von Personen innerhalb eines Sichtfelds für die zugehörige Leuchte10 verwendet. Der zweite SensorS2 wird für eine Belegungserfassung mit niedriger Auflösung verwendet. An sich können verschiedene andere Typen von Sensoren, wie beispielsweise akustische Sensoren, thermische Sensoren, Bildsensoren und dergleichen, für den SensorS2 verwendet werden. Es sei angenommen, dass die Steuerelektronik und zugehörige Software der Leuchte10 Information verwenden, die von den ersten und zweiten SensorenS1 undS2 gesammelt werden, und möglicherweise von benachbarten Leuchten10 verwenden, um die folgende Funktionalität bereitzustellen. Durchschnittsfachleute in dem technischen Gebiet werden erkennen, dass eine derartige Funktionalität in verschiedenen Hardware- und/oder Software-Komponenten von ein oder mehreren Leuchten10 und zugehörigen Einrichtungen integriert oder unter diesen verteilt werden kann. - Der Prozess startet, wenn die Leuchte
10 Informationen analysiert, die von einem oder beiden der ersten und zweiten SensorenS1 undS2 bereitgestellt wird, um eine Bewegung zu überwachen, die durch die Bewegung eines Objekts innerhalb des Sichtfelds der Leuchte oder einer allgemeinen Nähe verursacht wird (Schritt200 ). Wenn eine Bewegung nicht erfasst wird (Schritt202 ), wird die Leuchte10 weiter eine Bewegung überwachen (Schritt200 ). Wenn eine Bewegung erfasst wird (Schritt202 ), wird die Leuchte10 Information analysieren, die von dem ersten SensorS1 bereitgestellt wird, um zu bestimmen, ob das Objekt ein Belegender d.h. eine Person ist, die vorher erfasst worden ist und gegenwärtig gerade verfolgt bzw. nachverfolgt wird (Schritt204 ). Eine Bewegungserfassung verwendet die Verwendung von ein oder mehreren SensorenS1 . Als ein Beispiel für einen Bild-gestützten Sensor SX wird die Leuchte10 aufgenommene Bildinformation analysieren, um eine Bewegung zu erfassen. Für einen PIR-gestützten Belegungssensor SX wird die Leuchte10 einen Ausgang empfangen, der eine Bewegung innerhalb des Sichtfelds des Sensors anzeigt. Die Leuchte10 kann die Information von verschiedenen Sensoren SX verarbeiten, um eine Bewegung zu erfassen oder anderweitig zu identifizieren. - Wenn das Objekt nicht eine Person ist, die gegenwärtig gerade nachverfolgt wird, dann wird die Leuchte
10 die Information analysieren, die von dem ersten SensorS1 bereitgestellt wird, um das Objekt entweder als einen Belegenden bzw. eine Person oder einen Nicht-Belegenden (keine Person) zu klassifizieren, wobei ein Belegender eine Person ist und ein Nicht-Belegender ein lebloses Objekt ist (Schritt206 ). Durchschnittsfachleute in dem technischen Gebiet werden verschiedene Vorgehensweisen zum Klassifizieren eines Objekts erkennen. Beispiele umfassen Verfahren mit einem Histogramm von orientierten Gradienten (Histogram of Oriented Gradients; HOG), die Maschinenlernvorgänge verwenden, um eine Objekterscheinung und eine Objektform zu klassifizieren. Ein Einbau einer Prinzipalkomponentenanalyse (Principal Components Analysis; PCA) in die HOE Verfahren erlauben eine besonders robuste und reproduzierbare Klassifizierung von Belegenden und Gruppen von belegenden. Eine HOG-gestützte Klassifizierung wird als ausreichend robust und dennoch nicht übermäßig aufwendig hinsichtlich der Berechnungen für eine Beleuchtungsanwendung angesehen. Wenn noch eine größere Genauigkeit benötigt wird, kann die Verwendung von dünnbesiedelten konvergierenden neuronalen Netzen (Sparse Convergent Neural Networks; SCNN) angewendet werden; jedoch kann die Verwendung von SCNN mehr Mikroprozessorspeicher und/oder eine höhere Geschwindigkeit als HOG-gestützte Verfahren erfordern. Das SCNN Verfahren versuchte die Komplexität von bekannten Verfahren mit einem neuronalen Netz zu verringern, wodurch die Antwortzeit und die Rechenressourcen sogar in visuell komplexen Umgebungen reduziert werden. Für weitere Informationen hinsichtlich einer Objektklassifizierung wird auf folgendes verwiesen: - N. Dalal and B. Triggs, „Histograms of Oriented Gradients for Human Detection," IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 886-893 (2005);
- Q. Zhu et al., „Fast Human Detection Using a Cascade of Histograms of Oriented Gradients," IEEE Computer Soc. Conf. on Computer Vision and Pattern Recog., 1491-8 (2006);
- A. Satpathy et al., „Human Detection by Quadratic Classification on Subspace of Extended Histogram of Gradients," IEEE Trans, on Image Proc., 23, 287-97 (2014);
- C. Zeng and H. Ma, „Robust Head-shoulder Detection by PCA-Based Multilevel HOG-LBP Detectorfor People Counting," Intl. Conf. on Pattern Recognition, 2069-72 (2010); and
- M. Mathew et al., „Sparse, Quantized, Full Frame CNN for Low Power Embedded Devices," IEEE Conf. on Computer Vision and Pattern Recog., 328-36 (2017),
- Wenn das Objekt ein Nicht-Belegender ist (Schritt
208 ), wird die Leuchte10 weiter nach einer Bewegung überwachen (Schritt200 ). Wenn das Objekt eine Belegender d. h. eine Person ist (Schritt208 ), dann wird die Leuchte10 die Information, die von dem ersten SensorS1 bereitgestellt wird, analysieren, um den Belegenden bzw. die Person innerhalb des Sichtfelds, das zu dem ersten SensorS1 gehört, nachzuverfolgen (Schritt210 ). Die Funktion zur Nachverfolgung kann in einem Bereich von Möglichkeiten sein, dass einfach bestimmt wird, dass die Person innerhalb des Sichtfelds ist, bis zu einer Bestimmung von einem oder mehreren eines genauen Orts innerhalb des Sichtfelds, einer Bewegungsrichtung und einer Bewegungsgeschwindigkeit, wobei die Bewegungsrichtung und die Bewegungsgeschwindigkeit mit einem geeigneten Vektor dargestellt werden können, der mit einer Richtung und einer Größe, die der Geschwindigkeit entspricht, assoziiert ist. - Die Leuchte
10 kann die Information, die von dem ersten SensorS1 empfangen wird, auch analysieren, um ein oder mehrere physikalische Charakteristiken im Zusammenhang mit dem Belegenden bzw. der Person zu identifizieren, beispielsweise die Form, die Größe, Farben, Muster und dergleichen. Diese Charakteristiken sind nützlich zur erneuten Identifikation einer Person, wenn eine Nachverfolgung innerhalb des Sichtfelds der Leuchte verloren geht, zur Erkennung, dass die Person eine einzelne Person ist, wenn die Person in einem Gebiet ist, bei dem die Sichtfelder von angrenzenden Leuchten10 überlappen, und für die Übergabe der Nachverfolgung einer Person von einer Leuchte10 an eine andere, wenn sich die Person von einem Sichtfeld einer Leuchte an ein anderes bewegt. - Die Nachverfolgungsfunktion kann verschiedene Nachverfolgungsverfahren anwenden, einschließlich einer Kalman-Filterung, die eine einfache und effektive Technik zum andauernden Nachverfolgen von Objekten bereitstellt. Weitere Informationen über eine Kalman-Filterung wird in den folgenden Dokumenten nachgewiesen:
- R. Kalman, „A New Approach to Linear Filtering and Prediction Problems," Trans. of the ASME - Journal of Basic Engineering, 82 (Series D): 35-45 (1960), and
- J. Berclaz et al., „Robust People Tracking with Global Trajectory Optimization," IEEE Computer Society Conf. on Computer Vision and Pattern Recog., 744-750 (2006),
- Wenn eine Bewegung erfasst wird und das erfasste Objekt eine vorher verfolgte Person ist (Schritt
204 ), dann kann die Leuchte10 die Schritte zum Klassifizieren des Objekts (Schritt206 und208 ) überspringen, da das Objekt bereits als eine Person bzw. ein Belegender bekannt ist, und kann direkt zu einer Nachverfolgung der Person voranschreiten (Schritt210 ). Wie voranstehend angegeben kann diese Situation auftreten, wenn eine Person das Sichtfeld für die Leuchte10 nicht verlassen hat, aber eine Nachverfolgung wegen irgendwelcher Gründe verloren geht. Wenn sich die Person innerhalb des Sichtfelds bewegt, wird die Leuchte10 eine Bewegung im Zusammenhang mit der sich bewegenden Person erfassen (Schritt202 ), die von dem SensorS1 bereitgestellt Information analysieren, und erkennen, auf Grundlage der Analyse der Information, die von dem SensorS1 bereitgestellt wird, dass das Objekt eine früher verfolgte Person ist (Schritt204 ). - Wenn eine Person nachverfolgt wird, kann die Leuchte
10 konfiguriert sein, um zu erfassen, wann eine Nachverfolgung für die Person verloren geht (Schritt212 ), und um außerdem zu erfassen oder vorherzusagen, dass die Person das Sichtfeld (Schritt214 ) für die Leuchte10 verlässt. Unter der Annahme, dass eine Nachverfolgung für die Person nicht verloren geht (Schritt212 ), und zwar dadurch, dass die Person das Sichtfeld der Leuchte10 nicht verlassen hat oder gerade nicht verlässt, wird eine Nachverfolgung fortdauern (Schritt210 ). Wenn eine Nachverfolgung der Person verloren geht (Schritt212 ), dann kann die Leuchte10 konfiguriert sein, um Information von dem zweiten SensorS2 , der in dieser Ausführungsform ein PIR-gestützter Belegungssensor ist, zu prüfen und zu bestimmen, ob von dem SensorS2 gerade eine Belegung erfasst wird oder nicht (Schritt216 ). Wenn die Information von dem zweiten SensorS2 anzeigt, dass gerade noch eine Belegung erfasst wird (Schritt218 ), dann wird die Leuchte10 weiter versuchen die Person bzw. den Belegenden nachzuverfolgen (Schritt210 ). - Wenn die Information von dem zweiten Sensor
S2 anzeigt, dass eine Belegung nicht erfasst wird (Schritt218 ), dann wird die Leuchte10 mit angrenzenden Leuchten10 , die benachbarte Sichtfelder zu demjenigen, das von der Leuchte10 bereitgestellt wird, b bereitstellen, kommunizieren (Schritt220 ). Die Interaktion zwischen benachbarten Leuchten kann unterschiedliche Formen annehmen. Zum Beispiel kann die Leuchte10 ihre Nachbarn fragen, ob irgendwelche Personen jüngst in deren Sichtfeldern von dem Sichtfeld der Leuchte10 erschienen sind. Die Leuchte10 kann ihre Nachbarn auch mit jüngster Information über ein oder mehrere des jüngsten Orts, der Richtung, der Geschwindigkeit und physikalischen Eigenschaften der verlorenen Personen (dem verlorenen belegenden) versehen, und die Nachbarn werden die von der Leuchte10 bereitgestellte Information mit irgendwelchen Personen, die gegenwärtig von den Nachbarn verfolgt werden, vergleichen. - Wenn eine Bestimmung durchgeführt wird, dass die verlorene Person nicht in dem Sichtfeld des Nachbars ist (Schritt
222 ), wird die Leuchte10 auf die Überwachung nach einer Bewegung zurückkehren (Schritt200 ). An diesem Punkt ist die Leuchte10 in der Lage die verlorene Person zu erkennen, wenn die Person nochmals in dem Sichtfeld der Leuchte erfasst wird. Es sei darauf hingewiesen, dass die Leuchte10 immer das Sichtfeld nach neuen Objekten überwacht, die Personen sein könnten, wenn sich der Prozess wiederholt. - Wenn eine Bestimmung durchgeführt wird, das die verlorene Person in dem Sichtfeld des Nachbarn ist (Schritt
222 ), wird die Leuchte10 irgendeine Übergabeinformation bereitstellen, die für eine Übergabe einer Nachverfolgung der verlorenen Person an den Nachbarn, der die Person in seinem Sichtfeld aufgenommen hat (Schritt224 ) erforderlich ist, und wird dann eine Übergabe der Person an den Nachbarn ermöglichen (Schritt226 ). Die Übergabeinformation kann eine Kombination des Orts, der Richtung, der Geschwindigkeit und von physikalischen Charakteristiken der verlorenen Personen umfassen. Diese Liste ist nicht erschöpfend und Durchschnittsfachleute in dem technischen Gebiet werden andere wichtige Information erkennen, die in verschiedenen Ausführungsformen nützlich sein kann. Eine Kalman-Filterung oder dergleichen kann verwendet werden, um Übergaben (Handoff) zu ermöglichen. - Bezugnehmend auf den Schritt
214 ist ein anderer Auslöser für eine Übergabe der Nachverfolgung einer Person an den Nachbarn, wenn die Leuchte10 aktiv die Person verfolgt (Schritt210 ) und vorhersagt oder bestimmt, dass die Person gerade das Sichtfeld der Leuchte verlässt (Schritt214 ). Wenn die Leuchte10 den Nachbarn identifizieren kann, in dessen Richtung sich die Person gerade bewegt, dann wird die Leuchte10 die Übergabeinformation für die Person (Schritt224 ) erstellen und mit dem Nachbarn kommunizieren, um die Übergabeinformation zu teilen und die Übergabe zu ermöglichen (Schritt226 ). Wenn die Leuchte10 den Nachbarn, in dessen Richtung sich die Person gerade bewegt, nicht identifizieren kann, wird die Leuchte10 die Übergabeinformation für die Person erstellen und mit anderen Leuchten10 in dem BeleuchtungsnetzN1 kommunizieren, um nach einer Person, die in deren Sichtfeldern eintritt, zu suchen. Ein Nachbar, der die Person empfängt, kann einen Empfang der Person bestätigen und seinen Belegungs-Zählwert erhöhen, um die neue Person in seinem Sichtfeld zu berücksichtigen. - Die Leuchte
10 wird ihren Belegung-Zählwert verkleinern, um zu berücksichtigen, dass sie eine Person hat, die ihr Sichtfeld verlässt. - Der Schritt
228 zeigt an, dass eine Übergabe eines belegenden (einer Person) von einem Nachbar in den Prozess an der Nachverfolgungsphase eintreten kann (Schritt210 ); jedoch können andere Ausführungsformen eine Person einbringen, die von einem Nachbarn an einem anderen Punkt in dem Prozess übergeben wird. -
10A bis10F illustrieren Bilder eines einzelnen Sichtfelds (FOV), abgeleitet von einem SensorS1 zu sechs Zeitpunkten (t1-t6). In diesem Beispiel sind zwei Belegende, die PersonP1 und die PersonP2 , sowie ein Nicht-Belegendes-Objekt N, zu einem Zeitpunkt oder einem anderen in dem Sichtfeld (FOV) vorhanden. In dem gesamten Ablauf tritt die PersonP1 in das Sichtfeld von links ein, geht von links nach rechts durch das Sichtfeld, und verlässt das Sichtfeld rechts. Unter Verwendung von Information, die von dem SensorS1 gesammelt wird, verwendet die Leuchte10 einen ersten Prozess zum Erfassen und zum Bestimmen, dass die PersonT1 ein Belegender für Belegungszwecke ist, und um außerdem die PersonP1 nachzuverfolgen, wenn sie in das Sichtfeld eintritt, durch dieses geht und dieses verlässt. - Unter Verwendung der gleichen Information, die von dem Sensor
S1 gesammelt wird, verwendet die Leuchte10 einen zweiten Prozess, um die Bewegung des Nicht-Belegenden-Objekts zu erfassen, sobald das Nicht-Belegender-Objekt beginnt sich zur Zeit t3 zu bewegen (10C ). Auf Grundlage der gesammelten Informationen wird die Leuchte10 in der Lage sein, zu bestimmen, dass das Nicht-Belegender-Objekt N nicht ein Belegender für Belegungszwecke ist. Unter Verwendung der Information, die von dem SensorS1 gesammelt wird, verwendet die Leuchte10 einen dritten Prozess zum Erfassen und zum Bestimmen, dass die PersonP2 ein Belegender für Belegungszwecke ist, und außerdem zum Nachverfolgen der PersonP2 , wenn sie in das Sichtfeld eintritt und durch dieses diagonal geht. - Die Leuchte
10 wird ihren Belegungs-Zählwert entsprechend aktualisieren, wenn die PersonenP1 undP2 das Sichtfeld (FOV) betreten und verlassen. Die Anwesenheit oder Bewegung des Nicht-Belegender-Objekts N wird den Belegungs-Zählwert nicht beeinflussen. Die Leuchte10 wird die Belegungs-Information periodisch oder wenn sie sich ändert an eine entfernte Einheit, wie beispielsweise einen System-Controller34 , einen Steuerknoten36 , einen Verarbeitungsknoten38 oder dergleichen berichten, die eine geeignete Aktion auf Grundlage der Belegungs-Information oder einer Änderung in der Belegungs-Information vornehmen werden. - Wenn überlappende Sichtfelder vorhanden sind, die von den verschiedenen Leuchten
10 bereitgestellt werden, können Logikbäume entwickelt werden, um eine Bewegung von Personen d. h. Belegenden durch die Grenzen (den Umfang) der verschiedenen Sichtfelder zu erkennen und darauf zu reagieren, wobei benachbarte Leuchten10 auf Grundlage von ihrer Position relativ zu der berichtenden Leuchte10 über eine unmittelbare Personenankunft benachrichtigt werden. In einer Ausführungsform wird eine Übergabelogik entwickelt, um effektiv den Fall zu behandeln, bei dem eine Person in einem überlappenden Abschnitt von zwei Sichtfeldern befindlich ist, indem eine probabilistische Gewichtung eingebaut wird, um zu definieren, welche Leuchte10 die Person bzw. den Belegenden „besitzt“ und diese somit berücksichtigen sollte. - Wenn eine Gesamtbelegung für einen bestimmten Raum bestimmt wird, ist eine Identifikation der Leuchten
10 , die innerhalb des Raums sind, sowie des relativen Orts der Leuchten10 in dem Raum sehr nützlich zur Aufrechterhaltung von genauen Belegung-Berücksichtigung für den Raum.11A zeigt eine Büroumgebung, die einen Konferenzraum, 2 Büros und einen Arbeitsplatz (Zelleneinheit) mit vier Arbeitsplätzen aufweist. Jedes gestrichelte Rechteck stellt das Sichtfeld einer Überkopf-Leuchte10 dar. Wie dargestellt können viele der Sichtfelder der Leuchten miteinander überlappen, so wie diejenigen, die voranstehend in Verbindung mit7B diskutiert wurden. - Wie grafisch in
11A dargestellt sind die Räume, in denen sich die Leuchten10 befinden, sowie die Beziehungen oder relativen Orte der Leuchten10 innerhalb der Büroumgebung deutlich dargestellt. Wenn jedoch die Leuchten10 installiert sind, sind weder die Leuchten10 , noch irgendwelche entfernten Einheiten, die Information von diesen steuern oder empfangen können, in der Lage eine Orts- oder Beziehungsinformation ohne eine automatisierte oder manuelle Abbildung irgendeiner Art zu unterscheiden.11B stellt grafisch die Tatsache dar, dass dann, wenn sie anfänglich installiert werden, die Leuchten10 grundlegend zufällig angeordnet und orientiert sind. Während eines Inbetriebnahmeprozesses kann ein Benutzer eine entfernte Einheit, wie beispielsweise einen Steuerknoten36 , verwenden, um auf die Sichtfelder für die verschiedenen Leuchten10 zuzugreifen und diese entsprechend ihrer Orientierung und ihrem Ort überall in der Büroumgebung abzubilden. Der Benutzer kann auch die Leuchten zu Belegungsgruppen zuordnen, und zwar auf Grundlage des bestimmten Raums, in dem sich die Leuchten10 befinden. Zum Beispiel wird die Konferenzraum-Belegungsgruppe sechs Leuchten10 aufweisen, die Belegungsgruppe für jedes der Büros wird zwei Leuchten10 umfassen, und die Belegungsgruppe für das Zellenbüro (den Arbeitsplatz) wird sechs Leuchten10 umfassen. - In Abhängigkeit von den Fähigkeiten des Systems kann der Benutzer in der Lage sein Leuchten
10 genau abzubilden und zu orientieren, so dass jede Leuchte10 versehen werden kann mit ausreichend Information zur Identifikation der anderen Leuchten10 , die innerhalb der bestimmten Belegungsgruppe für die Leuchte10 sind, derjenigen benachbarten Leuchten10 , die unmittelbar angrenzend zu der Leuchte10 sind, der Rolle der Position der benachbarten Leuchten10 relativ zu der Leuchte10 und dergleichen. An sich kann jede Leuchte10 mit Information versehen werden, die die Belegungsgruppe, in der sie sich befindet, die benachbarten Leuchten10 , die unmittelbar angrenzend zu anderen Leuchten10 sind, und einen relativen Orte der benachbarten Leuchten10 identifiziert. Diese Information ist besonders nützlich für die Nachverfolgungs- und Übergabefunktionen, die voranstehend beschrieben wurden. - Der Abbildungsprozess kann zu einem gewissen Ausmaß automatisiert werden. In einer höchst automatisierten Ausführungsform wird der Verarbeitungsknoten
38 oder dergleichen Bildinformation von den verschiedenen Leuchten10 sammeln, den Inhalt und/oder die Charakteristiken der Bildinformation analysieren, und eine Karte der Leuchten10 , wie voranstehend beschrieben und grafisch in11A dargestellt, erzeugen. Während eines derartigen Prozesses kann die Bildanalyse Objekte, Muster, Farben, Lichtintensitäten, Beleuchtungsgradienten und dergleichen identifizieren, um die Sichtfelder in eine geschlossene Karte zusammen zu stückeln. In diesem besonderen Beispiel sind Abschnitte des Umfangs der Sichtfelder, von denen es wahrscheinlich ist, dass sie nützliche Ausrichtungsmerkmale umfassen, wie beispielsweise Wände, geteilte Objekte und dergleichen, in Fettdruck hervorgehoben. Diese Abschnitte des Umfangs der Sichtfelder umfassen Wände, Objekte, die Sichtfelder überspannen, und dergleichen. - Der Abbildungsprozess kann durch andere Ortsbestimmungstechniken ergänzt oder ersetzt werden. Zum Beispiel kann eine Lichtmesstechnik angewendet werden, bei der die verschiedenen Leuchten
10 abwechselnd eine gepulste Lichtausgabe bereitstellen, während die anderen leuchten 10 geeignete Sensoren verwenden, um nach dem gepulsten Licht zu suchen. Diejenigen Leuchten10 , die in der Lage sind, gepulste Lichtausgaben voneinander zu erfassen, werden einer bestimmten Gruppe zugeordnet. Für zusätzliche Information bezüglich einer Lichtvermessung und einer Gruppierung von Leuchten wird auf die U. S. Patente mit den Nrn. 8,975,827 und 9,706,617 verwiesen, die hier durch Bezugnahme in ihrer Gesamtheit Teil der vorliegenden Anmeldung sind. Die Leuchten10 können auch Triangulations- oder Abstandsbestimmungstechniken unter Verwendung von Funkfrequenz-, akustischen, Licht-, oder ähnlichen Signalen verwenden, um den Abbildungsprozess bereitzustellen oder zu unterstützen. Es wird Bezug genommen auf die United States Patentanmeldungen mit den Seriennummern14/928,592 15/192,035 15/191,753 15/334,853 -
12 stellt eine beispielhafte schematische Darstellung des Treibermoduls28 , des LED-Felds22 und des ILM20 bereit. In der dargestellten Ausführungsform kann das LED-Feld22 ein Gemisch von LEDs mit unterschiedlichen Farben umfassen. Während Durchschnittsfachleute in dem technischen Gebiet verschiedener Farbkombinationen erkennen werden, verwendet das folgende Beispiel rote LEDs40 , die rötliches Licht bei einer ersten Wellenlänge aussenden, blau-verschobene gelbe (BSY) LEDs42 , die ein gelbliches/grünliches Licht bei einer zweiten Wellenlänge aussenden, und BSY LEDs44 , die ein gelbliches/grünliches Licht bei einer dritten Wellenlänge, die sich von der zweiten Wellenlänge unterscheidet, aussenden. Das LED-Feld22 kann in mehrere Ketten von in Reihe geschalteten LEDs aufgeteilt sein. Grundlegend bildet eine LED-Kette LS1, die eine Anzahl von roten LEDs40 umfasst, eine erste Gruppe von LEDs. Die LED-Kette LS2, die BSY LEDs42 umfasst, bildet eine zweite Gruppe von LEDs. Die LED Kette LS3, die BSY LEDs44 umfasst, bildet eine dritte Gruppe von LEDs. - Allgemein steuert das Treibermodul
28 die Ansteuerströme i1, i2 und i3, die verwendet werden, um die jeweiligen LED Ketten LS1, LS2 und LS3 anzusteuern. Das Verhältnis der Ansteuerströme i1, i2 und i3, die durch ihre jeweilige LED Ketten LS1, LS2 und LS3 bereitgestellt werden, können eingestellt werden, um effektiv die relativen Intensitäten des rötlichen Lichts, das von den roten LEDs40 der LED KetteS1 ausgesendet wird, des gelblichen/grünlichen Lichts, das von den BSY LEDs42 der LED-Kette LS2 ausgesendet wird, und des gelblichen/grünlichen Lichts, das von den BSY LEDs44 der LED Kette LS3 ausgesendet wird, effektiv zu steuern. Das sich ergebende Licht von jeder LED-Kette LS1, LS2 und LS3 mischt sich, um eine gesamte Lichtausgabe zu erzeugen, die eine gewünschte Farbe, eine korrelierte Farbtemperatur (CCT) und eine Intensität aufweist, wobei die letztere auch als ein Abdunkelungspegel bezeichnet werden kann. Wie angegeben kann die gesamte Lichtausgabe weißes Licht sein, das auf oder innerhalb einer gewünschten Nähe der Schwarzkörper-Ortskurve (BBL) fällt und eine gewünschte CCT aufweist. - Die Anzahl von LED-Ketten LSx kann in einem Bereich von eine bis mehreren liegen, und unterschiedliche Kombinationen von LED Farben können in den unterschiedlichen Ketten verwendet werden. Jede LED Kette LSx kann LEDs mit der gleichen Farbe, Veränderungen der gleichen Farbe oder von im Wesentlichen unterschiedlichen Farben aufweisen. In der dargestellten Ausführungsform ist jede LED-Kette LS1, LS2 und LS3 derart konfiguriert, dass sämtliche LEDs
40 ,42 ,44 , die in der Kette sind, im Wesentlichen alle identisch in der Farbe sind. Jedoch können sich die LEDs40 ,42 ,44 in jeder Kette wesentlich in der Farbe unterscheiden oder können vollständig unterschiedliche Farben in bestimmten Ausführungsformen sein. In einer anderen Ausführungsform können drei LED Ketten LSx mit roten, grünen und blauen LEDs verwendet werden, wobei jede LED Kette LSx speziell einer einzelnen Farbe zugeordnet ist. In noch einer anderen Ausführungsform können wenigstens zwei LED Ketten LSx verwendet werden, wobei die gleichen oder unterschiedlich gefärbten BSY oder blau-verschobenen grünen (BSG) LEDs in einer der LED Ketten LSx verwendet werden und rote LEDs in der anderen der LED Ketten LSx verwendet werden. Eine Ausführungsform mit einer einzelnen Kette wird auch in Erwägung gezogen, wobei Ströme individuell für die einzelnen LEDs der unterschiedlichen Farben unter Verwendung von Bypass-Schaltungen oder dergleichen eingestellt werden können. - Das Treibermodul
28 , das in12 dargestellt ist, umfasst eine AC-DC Umwandlungsschaltung46 , eine Steuerschaltung48 , eine ILM Kommunikationsschnittstelle (I/F) 50, einen Treiberverbinder52 und eine Anzahl von Stromquellen, wie beispielsweise die dargestellten DC-DC Wandler54 . Die AC-DC Umwandlungsschaltung46 ist konfiguriert, um ein AC-Energiesignal (AC IN) zu empfangen, dass AC-Energiesignal gleichzurichten, den Leistungsfaktor des AC-Energiesignals zu korrigieren, und ein DC-Energiesignal (PWA) bereitzustellen. Das DC-Energiesignal kann verwendet werden, um die Steuerschaltung48 und irgendwelche anderen Schaltungen, die in dem Treibermodul28 vorgesehen sind, einschließlich der DC-DC Wandler54 und der ILM Kommunikationsschnittstelle (I/F) 50, mit Energie zu versorgen. Das DC-Energiesignal kann auch an dem Treiberverbinder52 bereitgestellt werden, um das ILM20 mit Energie zu versorgen. Eine Verkabelung30 kann sich von dem Treibermodul52 zu einem ILM Verbinder56 erstrecken, der an dem oder in dem zentralen Anbringungselement18 (1 bis4 ) oder einem anderen Abschnitt der Leuchte10 angebracht sein kann. In einer Ausführungsform ist der ILM Verbinder56 konfiguriert, um lösbar das ILM20 zu halten. Wenn die Verkabelung30 verbunden ist und das ILM20 mit dem ILM Verbinder56 in Eingriff steht, dann kann das ILM20 das DC-Energiesignal empfangen und außerdem mit der Steuerschaltung48 des Treibermoduls28 über die ILM Kommunikationsschnittstelle50 unter Verwendung von proprietären oder standardmäßigen Kommunikationsprotokollen kommunizieren. - Um die Lichtausgabe des LED-Felds
22 zu steuern, wird das ILM20 einen gewünschten Lichtausgabepegel auf Grundlage von einem oder mehreren der voranstehend beschriebenen Faktoren bestimmen und einen Befehl an das Treibermodul28 senden. Das Treibermodul28 wird den Befehl empfangen, den gewünschten Lichtausgabepegel von dem Befehl bestimmen, und das LED-Feld22 in einer Weise ansteuern, um den Lichtausgabepegel bereitzustellen. Das Treibermodul28 kann einen Empfang des Befehls bestätigen und/oder eine ausreichende Rückkopplung an dem ILM20 bereitstellen, dass das LED-Feld22 in Übereinstimmung mit dem Befehl angesteuert wird. Von einem Aus-Zustand kann das ILM20 das Treibermodul28 anweisen, das LED-Feld22 einzuschalten und anzusteuern, um einen bestimmten Lichtausgabepegel im Ansprechen auf eine Bestimmung, dass die Leuchte10 eingeschaltet werden sollte, bereitzustellen. Von einem Ein-Zustand kann das ILM20 das Treibermodul28 anweisen, eine Ansteuerung des LED-Felds22 im Ansprechen auf eine Bestimmung, dass die Leuchte10 abgeschaltet werden sollte, zu stoppen. - Im Ansprechen auf einen Befehl durch das ILM
20 zum Ausgeben von Licht bei einem bestimmten Lichtausgabepegel, stellen die drei jeweiligen DC-DC Wandler54 des Treibermoduls28 Ansteuerströme i1, i2 und i3 für die drei LED Ketten LS1, LS2 und LS3 im Ansprechen auf Steuersignale CS1, CS2 und CS3 bereit. Die Steuersignale CS1, CS2 und CS3 können Impulsbreiten-modulierte (PWM) Signale sein, die effektiv die jeweiligen DC-DC Wandler54 während eines logischen Hoch-Zustands einschalten und während eines logischen Niedrig-Zustands von jeder Periode des PWM Signals ausschalten. Infolgedessen können die Ansteuerströme i1, i2 und i3 für die drei LED Ketten LS1, LS2 und LS3 auch PWM Signale sein. Die Intensität von Licht, das von jeder der drei LED Ketten LS1, LS2 und LS3 ausgesendet wird, wird sich auf Grundlage des Tastverhältnisses der jeweiligen PWM Signale unterscheiden. Die Steuerschaltung48 wird das Tastverhältnis der Ansteuerströme i1, i2 und i3, die an jeder der LED Ketten LS1, LS2 und LS3 bereitgestellt werden, einstellen, um effektiv die Intensität des sich ergebenden Lichts, das von den LED Ketten LS1, LS2 und LS3 ausgesendet wird, einstellen, während die gewünschte CCT aufrechterhalten wird, und zwar auf Grundlage von Befehlen von dem ILM20 . - In einer alternativen Ausführungsform können die Ansteuerströme i1, i2 und i3 für die drei LED Ketten LS1, LS2 und LS3 variable DC-Ströme anstelle von PWM Signalen sein. Unter bestimmten Umständen kann eine Abdunkelungseinrichtung, wie beispielsweise ein Wand-Controller, das AC-Energiesignal steuern und ein getrenntes 0-10 V DC Signal oder dergleichen an dem Treibermodul
28 bereitstellen. Die AC-DC Umwandlungsschaltung46 oder andere elektronische Schaltungen können konfiguriert sein, um den relativen Betrag einer Abdunklung im Zusammenhang mit dem AC-Energiesignal oder dem 0-10 V DC Signal zu erfassen und ein entsprechendes Abdunkelungssignal (Dimming Signal) an der Steuerschaltung48 des Treibermoduls28 bereitzustellen. Die Steuerschaltung48 kann Information auf Grundlage des Abdunkelungssignals an das ILM20 über die ILM Kommunikationsschnittstelle50 weitergeben. Das ILM20 kann die Abdunkelungsinformation berücksichtigen, wenn Befehle an dem Treibermodul28 bereitgestellt werden. - Die Steuerschaltung
48 kann eine Zentralverarbeitungseinheit (CPU)58 und ausreichend Speicher60 umfassen, um die Steuerschaltung48 in die Lage zu versetzen, mit dem ILM20 über die ILM Kommunikationsschnittstelle50 unter Verwendung eines definierten Protokolls, wie beispielsweise der digitalen adressierbaren Beleuchtungsschnittstelle (Digital Addressable Lighting Interface; DALI) oder DALI2 bidirektional zu kommunizieren. Die Steuerschaltung48 kann Daten oder Befehle von dem ILM20 empfangen und eine geeignete Aktion vornehmen, um die Daten zu verarbeiten und die empfangenen Befehle zu implementieren. Die Befehle können in einem Bereich von Möglichkeiten sein, die eine Steuerung, wie das LED-Feld22 angesteuert wird, bis zu einer Rückgabe von Betriebsdaten des Treibermoduls28 an das ILM20 beinhalten. - Es sei darauf hingewiesen, dass dann, wenn der Begriff „Steuersystem“ in den Ansprüchen oder generisch in der Beschreibung verwendet wird, der Begriff breit verstanden werden sollte, um die Hardware oder irgendwelche zusätzliche Software oder Firmware zu umfassen, die benötigt wird, um die angegebene Funktionalität bereitzustellen. Der Begriff „Steuersystem“ soll nicht lediglich als nur Software verstanden werden, da elektronische Schaltungen benötigt werden, um Steuersysteme zu implementieren, die hier beschrieben werden. Zum Beispiel kann ein Steuersystem die Steuerschaltung
48 , die DC-DC Wandler54 , die AC-DC Umwandlungsschaltung46 und dergleichen umfassen, muss dies aber nicht notwendigerweise tun. - Unter Bezugnahme auf
13 wird ein Blockschaltbild einer Ausführungsform des ILM20 dargestellt. Das ILM20 umfasst eine Steuerschaltung62 mit einer zugehörigen CPU64 und einem Speicher66 , der die benötigten Softwarebefehle und Daten enthält, um einen Betrieb wie voranstehend beschrieben zu ermöglichen. Die Steuerschaltung62 kann mit einer Treiberkommunikationsschnittstelle68 assoziiert sein, die mit dem Treibermodul28 gekoppelt werden soll, entweder direkt oder indirekt über den ILM Verbinder56 . Die Steuerschaltung62 kann mit einer drahtgebundenen Kommunikationsschnittstelle72 , einer drahtlosen Kommunikationsstelle74 oder beiden assoziiert sein, um drahtgebundene oder drahtlose Kommunikationen mit anderen Leuchten10 und/oder entfernten Einheiten, wie beispielsweise Wand-Controllern, mobilen Terminals, Personalcomputern und dergleichen, zu ermöglichen. Die drahtlose Kommunikationsschnittstelle74 kann die benötigte Transceiver-Elektronik umfassen, um drahtlose Kommunikationen mit entfernten Einheiten unter Verwendung von irgendeiner Anzahl von drahtlosen Kommunikationsprotokollen zu ermöglichen. Die drahtgebundene Kommunikationsschnittstelle72 kann einen universellen seriellen Bus (USB), Ethernet, oder ähnliche Schnittstellen unter Verwendung irgendeiner Anzahl von drahtgebundenen Kommunikationsprotokollen unterstützen. - In einer Ausführungsform kann das ILM
20 Energie in der Form eines DC Signals von dem Treibermodul28 über den ILM Verbinder56 empfangen und Kommunikationen mit dem Treibermodul28 über die Treiberkommunikationsschnittstelle68 und den ILM Verbinder56 zu ermöglichen. Kommunikationen mit anderen Leuchten10 und/oder entfernten Einheiten, wie beispielsweise Wand-Controllern, mobilen Terminals, Personalcomputern und dergleichen, werden über die drahtgebundenen oder drahtlosen Kommunikationsschnittstellen72 ,74 ermöglicht. - In einer alternativen Ausführungsform wird das ILM
20 Energie in der Form eines DC-Energiesignal über die drahtgebundene Kommunikationsschnittstelle72 empfangen, die als eine Energie-über-Ethernet (Power Over Ethernet; PoE) Schnittstelle konfiguriert sein kann. Das DC-Energiesignal, das über die drahtgebundene Kommunikationsschnittstelle72 empfangen wird, wird verwendet, um die Elektronik des ILM20 mit Energie zu versorgen, und wird an das Treibermodul28 über den ILM Verbinder56 gegeben. Das Treibermodul28 wird das DC-Energiesignal verwenden, um die Elektronik des Treibermoduls28 mit Energie zu versorgen und das LED-Feld22 anzusteuern. Eine Kommunikation bzw. Kommunikationen mit anderen Leuchten10 und/oder entfernten Einheiten, wie beispielsweise Wand-Controllern, mobilen Kameras, Personalcomputern und dergleichen, werden über die drahtgebundene Kommunikationsschnittstelle72 durchgeführt. Das ILM20 wird Kommunikationen mit dem Treibermodul28 über die Treiberkommunikationsschnittstelle68 und den ILM Verbinder56 ermöglichen. - Wie angegeben umfasst das ILM
20 mehrere integrierte Sensoren S1-SN, die direkt oder indirekt mit der Steuerschaltung62 gekoppelt sind. Die Sensoren S1-SN können ein oder mehrere Sensoren umfassen, beispielsweise Belegungssensoren, Umgebungslichtsensoren, akustische Sensoren, Temperatursensoren, Feuchtigkeitssensoren, Drucksensoren, Vibrationssensoren, Kohlenmonoxidsensoren, Kohlendioxidsensoren, Luftqualitätssensoren, Rauchsensoren, Energiesensoren oder andere Sensoren. Die Sensoren S1-SN stellen Sensordaten an der Steuerschaltung62 bereit. Auf Grundlage einer internen Logik wird das ILM20 Grundlage der Sensordaten und irgendwelcher anderer Daten oder Befehle, die von entfernten Einheiten empfangen werden, wie beispielsweise anderen Leuchten10 , Wand-Controllern, mobilen Kameras, Personalcomputern und dergleichen, bestimmen, wie das Treibermodul28 das LED-Feld22 ansteuern sollte. Auf Grundlage davon, wie das Treibermodul28 das LED-Feld22 anzusteuern sollte, wird das ILM20 geeignete Befehle erzeugen und an dem Treibermodul28 über die Treiberkommunikationsschnittstelle68 und den ILM Verbinder56 senden. Das Treibermodul28 wird das LED-Feld22 auf Grundlage der von dem ILM20 empfangenen Befehle ansteuern. Diese Befehle können dazu führen, dass das Treibermodul28 das LED-Feld22 abschaltet, das LED-Feld22 auf einen bestimmten Lichtausgabepegel einschaltet, den von dem LED-Feld22 bereitgestellten Lichtausgabepegel ändert, die Farbe oder die CCT der Lichtausgabe ändert, und dergleichen - Zusätzlich zu einer Steuerung des Treibermoduls
28 , um die Lichtausgabe des LED-Felds22 zu steuern, spielt das ILM20 eine gewichtige Rolle bei der Koordination der Intelligenz und der Teilung von Daten unter den Leuchten10 und mit anderen entfernten Einheiten, wie beispielsweise den System-Controllern34 , dem Steuerknoten36 und den Verarbeitungsknoten38 . Zusätzlich zu einem Empfang von Daten und Befehlen von anderen Leuchten10 und entfernten Steuereinheiten und der Verwendung von derartiger Information, um das Treibermodul28 zu steuern, kann das ILM20 auch Befehle an anderen Leuchten10 und entfernten Steuereinheiten auf Grundlage der Sensordaten von seinen integrierten Sensoren S1-SN, sowie der Sensordaten und Befehle, die von den anderen Leuchten10 und entfernten Steuereinheiten empfangen werden, bereitstellen. - Das ILM
20 kann eine Benutzerschnittstelle76 aufweisen, die Information bereitstellt, die sich auf den Zustand oder dem Betrieb des ILM20 bezieht, die einem Benutzer ermöglicht, Information an dem ILM20 manuell bereitzustellen, oder einer Kombination davon. An sich kann die Benutzerschnittstelle76 einen Eingabemechanismus, einen Ausgabemechanismus oder beide umfassen. Der Eingabemechanismus kann ein oder mehrere von Knöpfen, Tasten, Tastaturen, Touchscreens, Mikrofonen oder dergleichen umfassen. Der Ausgabemechanismus kann ein oder mehrere LEDs, eine Anzeige oder dergleichen umfassen. Für die Zwecke dieser Anmeldung wird ein Knopf so definiert, dass er eine Drucktaste, einen gesamten Kippschalter oder einen Teil davon, eine Drehwählscheibe, einen Schiebeschalter oder irgendeinen anderen mechanischen Eingabemechanismus umfasst. - Ein beispielhaftes ILM
20 ist in14 dargestellt. Das ILM20 weist ein Gehäuse H auf, in dem oder auf dem SensorenS1 ,S2 undS3 und die Elektronik, die voranstehend beschrieben wurde, untergebracht sind. In dieser besonderen, aber nicht beschränkenden, Ausführungsform, ist der SensorS1 ein Bildsensor, der SensorS2 ist ein PIR-gestützter Belegungssensor, und der SensorS3 ist ein akustischer Sensor, der hinter drei Öffnungen angebracht ist, die in dem Gehäuse H vorgesehen sind. Zum Beispiel ist das Gehäuse H des ILM20 konfiguriert, um lösbar in einen inkompatiblen Aufnehmer (nicht gezeigt) oder dergleichen, der von der Leuchte10 bereitgestellt wird, in einer einrasten Weise einzugreifen, so dass die SensorenS1-S3 der Beleuchtungsumgebung ausgesetzt sind, wenn das ILM20 an der Leuchte10 angebracht ist. - Unter Bezugnahme auf
15 ist eine Ausführungsform des ILM20 dargestellt, bei der ein Bildsensor80 unmittelbar innerhalb des Gehäuses H des ILM20 angebracht ist. Eine Linse82 oder eine Öffnung ist in Gehäuse H vorgesehen, so dass die vordere Oberfläche der Linse82 mit der vorderen Oberfläche des Gehäuses H fluchtet. Ein Pixelfeld84 des Bildsensors80 ist zu der Linse82 derart ausgerichtet, dass das Pixelfeld84 einem Sichtfeld durch die Linse82 ausgesetzt ist. Ein beispielhafter CMOS-gestützter Bildsensor80 ist in16 gezeigt. Während ein CMOS-gestützter Bildsensor80 dargestellt ist, werden Durchschnittsfachleute in dem technischen Gebiet erkennen, dass andere Typen von Bildsensoren80 , wie beispielsweise CCD-gestützte Sensoren, verwendet werden können. CMOS-gestützte Bildsensoren80 sind besonders nützlich in Beleuchtungsanwendungen, weil sie eine breite spektrale Empfindlichkeit aufweisen, die mit derjenigen des menschlichen Auges überlappt. - Der Bildsensor
80 umfasst allgemein das Pixelfeld84 , eine analoge Verarbeitungsschaltung86 , einen Analog-zu-digital-Wandler (ADC)88 , eine digitale Verarbeitungsschaltung90 , und eine Sensor Steuerschaltung92 . Im Betrieb wird das Pixelfeld84 einen Befehl zur Aufnahme von Bildinformation von der Sensor Steuerschaltung92 empfangen. Im Ansprechen darauf wird das Pixelfeld84 das Licht, das an jedem Pixel erfasst wird, in ein analoges Signal transformieren und die analogen Signale für jedes Pixel des Pixelfelds84 an die analoge Verarbeitungsschaltung86 übergeben. Die analoge Verarbeitungsschaltung86 wird die analogen Signale filtern und verstärken, um verstärkte Signale zu erzeugen, die von dem ADC88 in digitale Signale umgewandelt werden. Die digitalen Signale werden von der digitalen Verarbeitungsschaltung90 verarbeitet, um Bilddaten zu erzeugen. Die Bilddaten werden an die Steuerschaltung62 des ILM20 zur Analyse, Speicherung oder zur Weitergabe an andere Leuchtens10 oder eine andere Einheit übergeben. - Die Sensorsteuerschaltung
92 wird das Pixelfeld84 veranlassen, im Ansprechen auf einen Empfang eines Befehls über ein Sensorsteuersignal (SCS) von dem ILM20 oder einer anderen entfernten Einheit ein Bild aufzunehmen. Die Sensorssteuerschaltung92 steuert das Timing der Bildverarbeitung, die von der analogen Verarbeitungsschaltung86 , dem ADC88 , und der digitalen Verarbeitungsschaltung90 bereitgestellt wird. Die Sensorsteuerschaltung92 stellt auch die Verarbeitungsparameter des Bildsensors ein, wie beispielsweise die Verstärkung und die Art der Filterung, die von der analogen Verarbeitungsschaltung86 vorgenommen wird, sowie den Typ einer Bildverarbeitung, die von der digitalen Verarbeitungsschaltung90 vorgenommen wird. Diese Verarbeitungsparameter können durch Information vorgegeben werden, die von der Steuerschaltung62 des ILM20 bereitgestellt wird. Für zusätzliche Information bezüglich einer Bildaufnahme wird auf die U. S. Patentanmeldung mit der Seriennummer14/623,314 - Durchschnittsfachleute in dem technischen Gebiet werden Verbesserungen und Modifikationen an dem bevorzugten Ausführungsformen der vorliegenden Offenbarung erkennen. Sämtliche derartigen Verbesserungen und Modifikationen fallen in den Umfang der Konzepte, die hier offenbart sind, und der Ansprüche, die folgen.
Claims (21)
- Leuchte (10), umfassend: eine Kommunikationsschnittstelle (20); eine Lichtquelle (22), die konfiguriert ist, um eine Lichtausgabe für eine allgemeine Beleuchtung bereitzustellen; einen Bildsensor (S1), der konfiguriert ist, um Bildinformation im Zusammenhang mit einem Sichtfeld (FOV) aufzunehmen; einen sekundären Sensor (S2); und eine Steuerschaltung (48), die der Lichtquelle (22), dem sekundären Sensor (S2) und dem Bildsensor (S1) zugeordnet ist und konfiguriert ist, um: an der Lichtquelle (22) zum Steuern der Lichtausgabe ein Ansteuersignal bereitzustellen; für jedes Objekt (P1, P2, N) in dem Sichtfeld (FOV): - auf Grundlage der Bildinformation zu bestimmen, ob ein Objekt (P1, P2, N) in dem Sichtfeld (FOV) ein Belegender (P1, P2) ist; und - wenn das Objekt (P1, P2, N) der Belegende (P1, P2) ist: - eine Bewegung des Belegenden (P1, P2) innerhalb des Sichtfelds (FOV) zu verfolgen; - zu bestimmen, ob der Belegende (P1, P2) von dem Sichtfeld (FOV) verloren wird; - wenn der Belegende (P1, P2) von dem Sichtfeld (FOV) verloren geht, den sekundären Sensor (S2) nach einer Anzeige über die Belegung zu prüfen; und - wenn die Anzeige über die Belegung vorhanden ist, eine Nachverfolgung der Bewegung des Belegenden (P1, P2) innerhalb des Sichtfelds (FOV) wieder aufzunehmen.
- Leuchte (10) nach
Anspruch 1 , wobei die Steuerschaltung (48) zusätzlich dazu ausgelegt ist, dann, wenn keine Anzeige über eine Belegung vorhanden ist, eine Kommunikation mit wenigstens einer benachbarten Leuchte über die Kommunikationsschnittstelle (20) vorgenommen wird, um zu bestimmen, ob der Belegende (P1, P2) in einem Sichtfeld (FOV) der wenigstens einen benachbarten Leuchte ist. - Leuchte (10) nach
Anspruch 2 , wobei die Steuerschaltung (48) zusätzlich dazu ausgelegt ist, dann, wenn der Belegende (P1, P2) in dem Sichtfeld (FOV) der wenigstens einen benachbarten Leuchte ist, eine Kommunikation mit der wenigstens einen benachbarten Leuchte über die Kommunikationsschnittstelle (20) erfolgt, um eine Übergabe einer Nachverfolgung der Bewegung des Belegenden (P1, P2) an die wenigstens eine benachbarte Leuchte zu ermöglichen. - Leuchte (10) nach
Anspruch 3 , wobei die Steuerschaltung (48) ferner konfiguriert ist, um eine Belegungs-Information, die sich auf den Belegenden (P1, P2) bezieht und von der Bildinformation abgeleitet wird, an der wenigstens einen benachbarten Leuchte über die Kommunikationsschnittstelle (20) in Verbindung mit der Übergabe bereitzustellen. - Leuchte (10) nach
Anspruch 1 , wobei, während die Bewegung des Belegenden (P1, P2) verfolgt wird, die Steuerschaltung (48) weiter konfiguriert ist, um: vorherzusagen, ob der Belegende (P1, P2) das Sichtfeld (FOV) verlässt; und wenn vorhergesagt wird, dass der Belegende (P1, P2) das Sichtfeld (FOV) verlässt, mit wenigstens einer benachbarten Leuchte über die Kommunikationsschnittstelle (20) zu kommunizieren, um eine Übergabe einer Nachverfolgung der Bewegung des Belegenden (P1, P2) an die wenigstens eine benachbarte Leuchte zu ermöglichen. - Leuchte (10) nach
Anspruch 5 , wobei, während die Bewegung des Belegenden (P1, P2) nachverfolgt wird, die Steuerschaltung (48) weiter konfiguriert ist, um, wenn der Belegende (P1, P2) das Sichtfeld (FOV) nicht verlässt, eine Nachverfolgung der Bewegung des Belegenden (P1, P2) innerhalb des Sichtfelds (FOV) wieder aufzunehmen. - Leuchte (10) nach
Anspruch 5 , wobei zur Vorhersage, ob der Belegende (P1, P2) das Sichtfeld (FOV) verlässt, die Steuerschaltung (48) konfiguriert ist, um: wenigstens einen Ort des Belegenden (P1, P2) innerhalb des Sichtfelds (FOV) und/oder eine Bewegungsrichtung des Belegenden (P1, P2) und/oder eine Bewegungsgeschwindigkeit des Belegenden (P1, P2) zu bestimmen; und wenigstens den Ort des Belegenden (P1, P2) innerhalb des Sichtfelds (FOV) und/oder die Bewegungsrichtung des Belegenden (P1, P2) und/oder die Bewegungsgeschwindigkeit des Belegenden (P1, P2) zu verwenden, um vorherzusagen, ob der Belegende (P1, P2) das Sichtfeld (FOV) gerade verlässt. - Leuchte (10) nach
Anspruch 5 , wobei die Steuerschaltung (48) weiter konfiguriert ist, um eine Belegungs-Information, die sich auf den Belegenden (P1, P2) bezieht und von der Bildinformation abgeleitet wird, an der wenigstens eine benachbarten Leuchte über die Kommunikationsschnittstelle (20) in Verbindung mit der Übergabe bereitzustellen. - Leuchte (10) nach
Anspruch 1 , wobei die Steuerschaltung (48) konfiguriert ist, um die Bewegung einer Vielzahl von Belegenden (P1, P2) innerhalb des Sichtfelds (FOV) gleichzeitig nachzuverfolgen. - Leuchte nach
Anspruch 1 , wobei die Steuerschaltung (48) weiter konfiguriert ist: eine Bewegung in dem Sichtfeld (FOV), verursacht durch das sich in dem Sichtfeld bewegende Objekt (P1, P2, N), zu erfassen; und, nach Erfassung der Bewegung in dem Sichtfeld (FOV) zu bestimmen, ob das Objekt (P1, P2) in dem Sichtfeld (FOV) der Belegende (P1, P2) ist. - Leuchte (10) nach
Anspruch 8 , wobei die Steuerschaltung (48) weiter konfiguriert ist, um zu bestimmen, ob das Objekt (P1, P2, N), das sich in dem Sichtfeld (FOV) bewegt, ein vorher nachverfolgter Belegender (P1, P2) ist, und wenn das Objekt (P1, P2, N), das sich in dem Sichtfeld (FOV) bewegt, der vorher nachverfolgte Belegende (P1, P2) ist, eine Nachverfolgung des vorher nachverfolgten Belegenden (P1, P2) wieder aufzunehmen. - Leuchte (10) nach
Anspruch 8 , wobei die Steuerschaltung (48) eine Bewegung in dem Sichtfeld (FOV) auf Grundlage der Bildinformation erfasst. - Leuchte nach
Anspruch 8 , wobei der sekundäre Sensor (S2) nicht ein Bildsensor ist, und wobei die Steuerschaltung (48) eine Bewegung in dem Sichtfeld (FOV) auf Grundlage der Bildinformation und von Information, die von dem sekundären Sensor (S2) bereitgestellt wird, erfasst. - Leuchte (10) nach
Anspruch 1 , wobei die Steuerschaltung (48) weiter konfiguriert ist, um: eine Bewegung in dem Sichtfeld (FOV), verursacht durch das sich in dem Sichtfeld (FOV) bewegende Objekt (P1, P2, N), zu erfassen; zu bestimmen, ob das sich in dem Sichtfeld (FOV) bewegende Objekt (P1, P2, N) ein vorher nachverfolgter Belegender (P1, P2) ist; wenn das sich in dem Sichtfeld (FOV) bewegende aufzunehmen. (P1, P2, N) der vorher nachverfolgte Belegende (P1, P2) ist, eine Nachverfolgung des vorher nachverfolgten Belegenden (P1, P2) wieder aufzunehmen, wobei eine Bestimmung, ob das Objekt (P1, P2, N) in dem Sichtfeld (FOV) der Belegende (P1, P2) ist, initiiert wird, wenn das sich in dem Sichtfeld (FOV) bewegende Objekt (P1, P2, N) nicht der vorher nachverfolgte Belegende (P1, P2) ist. - Leuchte nach
Anspruch 1 , wobei das Ansteuersignal, das an die Lichtquelle (22) bereitgestellt wird, wenigstens teilweise auf die Bildinformation gestützt ist. - Leuchte (10) nach
Anspruch 1 , wobei, während die Bewegung des Belegenden (P1, P2) nachverfolgt wird, die Steuerschaltung (48) weiter konfiguriert ist, um wenigstens einen Ort des Belegenden (P1, P2) innerhalb des Sichtfelds (FOV) und/oder eine Richtung der Bewegung des Belegenden (P1, P2) und/oder eine Bewegungsgeschwindigkeit des Belegenden (P1, P2) auf Grundlage der Bildinformation zu bestimmen. - Leuchte (10) nach
Anspruch 1 , wobei, während die Bewegung des Belegenden (P1, P2) nachverfolgt wird, die Steuerschaltung (48) weiter konfiguriert ist, um wenigstens eine Charakteristik des Belegenden (P1, P2) auf Grundlage der Bildinformation zu bestimmen. - Leuchte (10) nach
Anspruch 1 , wobei, wenn der Belegende (P1, P2) gleichzeitig in dem Sichtfeld (FOV) des Bildsensors (S1) und einem Sichtfeld einer benachbarten Leuchte ist, die Steuerschaltung (48) weiter konfiguriert ist, um mit der benachbarten Leuchte zu koordinieren, um zu bestimmen, ob der Belegende (P1, P2) in der Belegungs-Information berücksichtigt werden soll oder ob die benachbarte Leuchte den Belegenden (P1, P2) als einen Belegenden (P1, P2) in dem Sichtfeld der benachbarten Leuchte berücksichtigen soll. - Leuchte (10), umfassend: eine Kommunikationsschnittstelle (20); eine Lichtquelle (22), die konfiguriert ist, um eine Lichtausgabe für eine allgemeine Beleuchtung bereitzustellen; einen Bildsensor (S1), der konfiguriert ist, um Bildinformation im Zusammenhang mit einem Sichtfeld (FOV) aufzunehmen; eine Steuerschaltung (48), die der Lichtquelle (22) und dem Bildsensor (S1) zugeordnet ist und konfiguriert ist, um: an der Lichtquelle (22) zum Steuern der Lichtausgabe ein Ansteuersignal bereitzustellen; für jedes Objekt (P1, P2, N) in dem Sichtfeld (FOV): - einen Belegenden (P1, P2) in dem Sichtfeld (FOV) des Bildsensors (S1) zu detektieren; - wenn der Belegende (P1, P2) sich aus dem Sichtfeld (FOV) des Bildsensors (S1) bewegt, dies festzulegen; und - mit einer benachbarten Leuchte über die Kommunikationsschnittstelle (20) zu kommunizieren, um eine Übergabe einer Nachverfolgung der Bewegung des Belegenden (P1, P2) an die wenigstens eine benachbarte Leuchte zu ermöglichen.
- Leuchte (10), umfassend: eine Kommunikationsschnittstelle (20); eine Lichtquelle (22), die konfiguriert ist, um eine Lichtausgabe für eine allgemeine Beleuchtung bereitzustellen; einen Bildsensor (S1), der konfiguriert ist, um Bildinformation im Zusammenhang mit einem Sichtfeld (FOV) aufzunehmen; eine Steuerschaltung (48), die der Lichtquelle (22) und dem Bildsensor (S1) zugeordnet ist und konfiguriert ist, um: an der Lichtquelle (22) zum Steuern der Lichtausgabe ein Ansteuersignal bereitzustellen; für jedes Objekt (P1, P2, N) in dem Sichtfeld (FOV): - einen Belegenden (P1, P2) in dem Sichtfeld (FOV) des Bildsensors (S1) zu detektieren; - vorherzusagen, ob der Belegende (P1, P2) das Sichtfeld (FOV) verlässt; und -wenn vorhergesagt wird, dass der Belegende (P1, P2) das Sichtfeld (FOV) verlässt, mit wenigstens einer benachbarten Leuchte über die Kommunikationsschnittstelle (20) zu kommunizieren, um eine Übergabe einer Nachverfolgung der Bewegung des Belegenden (P1, P2) an die wenigstens eine benachbarte Leuchte zu ermöglichen.
- Leuchte (10), umfassend: eine Kommunikationsschnittstelle (20); eine Lichtquelle (22), die konfiguriert ist, um eine Lichtausgabe für eine allgemeine Beleuchtung bereitzustellen; einen Bildsensor (S1), der konfiguriert ist, um Bildinformation im Zusammenhang mit einem Sichtfeld (FOV) aufzunehmen; eine Steuerschaltung (48), die der Lichtquelle (22) und dem Bildsensor (S1) zugeordnet ist und konfiguriert ist, um: an der Lichtquelle (22) zum Steuern der Lichtausgabe ein Ansteuersignal bereitzustellen; für jedes Objekt (P1, P2, N) in dem Sichtfeld (FOV): - eine Bewegung in dem Sichtfeld (FOV), verursacht durch das sich in dem Sichtfeld (FOV) bewegende Objekt (P1, P2, N), zu erfassen; - zu bestimmen, ob das sich in dem Sichtfeld (FOV) bewegende Objekt (P1, P2, N) ein vorher nachverfolgter Belegender (P1, P2) ist; - wenn das sich in dem Sichtfeld (FOV) bewegende Objekte (P1, P2, N) der vorher nachverfolgte Belegende (P1, P2) ist, eine Nachverfolgung des vorher nachverfolgten Belegenden (P1, P2) wieder aufzunehmen; wobei eine Bestimmung, ob das Objekt (P1, P2, N) in dem Sichtfeld (FOV) der Belegende (P1, P2) ist, initiiert wird, wenn das sich in dem Sichtfeld (FOV) bewegende Objekt (P1, P2, N) nicht der vorher nachverfolgte Belegende (P1, P2) ist.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/681,941 US10165650B1 (en) | 2017-08-21 | 2017-08-21 | Occupant tracking |
US15/681,941 | 2017-08-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102018213656A1 DE102018213656A1 (de) | 2019-02-21 |
DE102018213656B4 true DE102018213656B4 (de) | 2021-12-30 |
Family
ID=64692268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018213656.4A Active DE102018213656B4 (de) | 2017-08-21 | 2018-08-14 | Leuchte zur Nachverfolgung von Belegenden |
Country Status (2)
Country | Link |
---|---|
US (1) | US10165650B1 (de) |
DE (1) | DE102018213656B4 (de) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10465869B2 (en) | 2017-01-30 | 2019-11-05 | Ideal Industries Lighting Llc | Skylight fixture |
US10830400B2 (en) | 2018-02-08 | 2020-11-10 | Ideal Industries Lighting Llc | Environmental simulation for indoor spaces |
US11102453B2 (en) * | 2018-02-19 | 2021-08-24 | Cisco Technology, Inc. | Analytics based lighting for network cameras |
US11195002B2 (en) | 2018-08-22 | 2021-12-07 | Ideal Industries Lighting Llc | Method and system for image based occupancy detection |
CN110022426A (zh) * | 2019-04-12 | 2019-07-16 | 南京东奇艾尼特科技有限公司 | 一种基于图像识别的相机智能补光方法 |
EP4052543A1 (de) | 2019-10-28 | 2022-09-07 | Ideal Industries Lighting Llc | Systeme und verfahren zur bereitstellung einer dynamischen beleuchtung |
CN111867194B (zh) * | 2020-07-02 | 2021-05-18 | 燕山大学 | 基于多传感器信息融合的太阳能路灯控制器 |
EP4183229A4 (de) * | 2020-07-14 | 2023-12-13 | JDRF Electromag Engineering Inc. | Elemente zur optischen auflösungsverringerung |
US11382202B2 (en) * | 2020-08-27 | 2022-07-05 | Himax Imaging Limited | Method and apparatus for controlling a lighting fixture based on motion detection and related lighting fixture |
EP4057779A1 (de) * | 2021-03-11 | 2022-09-14 | Tridonic GmbH & Co. KG | System mit einer leuchte und einem kameramodul |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009016918A1 (de) | 2009-04-08 | 2010-10-14 | Osram Gesellschaft mit beschränkter Haftung | Beleuchtungseinrichtung, Gebäude mit einer Beleuchtungseinrichtung und Verfahren zum Betreiben einer Beleuchtungseinrichtung |
WO2013158955A1 (en) | 2012-04-20 | 2013-10-24 | Rensselaer Polytechnic Institute | Sensory lighting system and method for characterizing an illumination space |
DE202014104825U1 (de) | 2014-10-08 | 2016-01-12 | Sick Ag | Beleuchtungssystem zum Beleuchten einer Wegstrecke |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6185444B1 (en) | 1998-03-13 | 2001-02-06 | Skelscan, Inc. | Solid-state magnetic resonance imaging |
AU2006321133A1 (en) | 2005-11-30 | 2007-06-07 | Nihon Medi-Physics Co., Ltd. | Head degenerative disease detection method, detecting program, and detector |
US20080273754A1 (en) | 2007-05-04 | 2008-11-06 | Leviton Manufacturing Co., Inc. | Apparatus and method for defining an area of interest for image sensing |
GB2458095A (en) | 2007-06-15 | 2009-09-09 | Sharp Kk | Solid state illumination system with elements employed as both light source and light sensor |
US9131128B2 (en) | 2011-09-28 | 2015-09-08 | The United States Of America As Represented By The Secretary Of The Army | System and processor implemented method for improved image quality and generating an image of a target illuminated by quantum particles |
US9215781B2 (en) | 2008-04-16 | 2015-12-15 | Avo Usa Holding 2 Corporation | Energy savings and improved security through intelligent lighting systems |
US20100262296A1 (en) | 2008-06-25 | 2010-10-14 | HID Laboratories, Inc. | Lighting control system and method |
US20130307419A1 (en) | 2012-05-18 | 2013-11-21 | Dmitri Simonian | Lighting system with sensor feedback |
US8872964B2 (en) | 2009-05-20 | 2014-10-28 | Express Imaging Systems, Llc | Long-range motion detection for illumination control |
US8588551B2 (en) | 2010-03-01 | 2013-11-19 | Microsoft Corp. | Multi-image sharpening and denoising using lucky imaging |
CA2816978C (en) | 2010-11-04 | 2020-07-28 | Digital Lumens Incorporated | Method, apparatus, and system for occupancy sensing |
EP3734143A3 (de) | 2011-03-21 | 2020-12-02 | Digital Lumens Incorporated | Verfahren, vorrichtung und systeme zur bereitstellung einer auf einer insassenanzahl beruhenden variablen beleuchtung |
US20170185057A1 (en) * | 2011-04-14 | 2017-06-29 | Suntracker Technologies Ltd. | System and method for the optimization of radiance modelling and controls in predictive daylight harvesting |
JP5530399B2 (ja) | 2011-05-23 | 2014-06-25 | 日本電信電話株式会社 | 画像処理方法、画像処理装置および画像処理プログラム |
US10326921B2 (en) | 2011-11-14 | 2019-06-18 | Tseng-Lu Chien | Light device has built-in camera and related digital data device's functions |
US8975827B2 (en) | 2012-07-01 | 2015-03-10 | Cree, Inc. | Lighting fixture for distributed control |
US9706617B2 (en) | 2012-07-01 | 2017-07-11 | Cree, Inc. | Handheld device that is capable of interacting with a lighting fixture |
US9082202B2 (en) | 2012-09-12 | 2015-07-14 | Enlighted, Inc. | Image detection and processing for building control |
JP5903634B2 (ja) | 2012-11-16 | 2016-04-13 | パナソニックIpマネジメント株式会社 | 照明制御装置および照明システム |
US9710691B1 (en) | 2014-01-23 | 2017-07-18 | Diamond Fortress Technologies, Inc. | Touchless fingerprint matching systems and methods |
TWM488825U (zh) | 2014-06-20 | 2014-10-21 | Shu-Chen Guo | 主動式智慧型照度自動控制之照明光源模組及燈具 |
US9686477B2 (en) | 2015-02-16 | 2017-06-20 | Cree, Inc. | Lighting fixture with image sensor |
US9750112B2 (en) | 2015-08-14 | 2017-08-29 | Cree, Inc. | Lighting fixture sensor network |
US9769900B2 (en) | 2015-10-30 | 2017-09-19 | Cree, Inc. | Lighting fixture with image sensor module |
US10211660B2 (en) | 2016-02-08 | 2019-02-19 | Cree, Inc. | LED lighting device with adaptive profiles for controlling power consumption |
-
2017
- 2017-08-21 US US15/681,941 patent/US10165650B1/en active Active
-
2018
- 2018-08-14 DE DE102018213656.4A patent/DE102018213656B4/de active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009016918A1 (de) | 2009-04-08 | 2010-10-14 | Osram Gesellschaft mit beschränkter Haftung | Beleuchtungseinrichtung, Gebäude mit einer Beleuchtungseinrichtung und Verfahren zum Betreiben einer Beleuchtungseinrichtung |
WO2013158955A1 (en) | 2012-04-20 | 2013-10-24 | Rensselaer Polytechnic Institute | Sensory lighting system and method for characterizing an illumination space |
DE202014104825U1 (de) | 2014-10-08 | 2016-01-12 | Sick Ag | Beleuchtungssystem zum Beleuchten einer Wegstrecke |
Non-Patent Citations (7)
Title |
---|
A. Satpathy et al., „Human Detection by Quadratic Classification on Subspace of Extended Histogram of Gradients," IEEE Trans, on Image Proc., 23, 287-97 (2014) |
C. Zeng and H. Ma, „Robust Head-shoulder Detection by PCA-Based Multilevel HOG-LBP Detectorfor People Counting," Intl. Conf. on Pattern Recognition, 2069-72 (2010) |
J. Berclaz et al., „Robust People Tracking with Global Trajectory Optimization," IEEE Computer Society Conf. on Computer Vision and Pattern Recog., 744-750 (2006) |
M. Mathew et al., „Sparse, Quantized, Full Frame CNN for Low Power Embedded Devices," IEEE Conf. on Computer Vision and Pattern Recog., 328-36 (2017) |
N. Dalal and B. Triggs, „Histograms of Oriented Gradients for Human Detection," IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 886-893 (2005) |
Q. Zhu et al., „Fast Human Detection Using a Cascade of Histograms of Oriented Gradients," IEEE Computer Soc. Conf. on Computer Vision and Pattern Recog., 1491-8 (2006) |
R. Kalman, „A New Approach to Linear Filtering and Prediction Problems," Trans. of the ASME - Journal of Basic Engineering, 82 (Series D): 35-45 (1960) |
Also Published As
Publication number | Publication date |
---|---|
DE102018213656A1 (de) | 2019-02-21 |
US10165650B1 (en) | 2018-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018213656B4 (de) | Leuchte zur Nachverfolgung von Belegenden | |
DE112016003708B4 (de) | Beleuchtungsverwaltungssystem | |
US10991215B2 (en) | Intelligent signage | |
EP2417388B1 (de) | Integrierte led- und sensorvorrichtung | |
DE102009052621A1 (de) | Beleuchtungsvorrichtung | |
DE112017000705T5 (de) | Bildanalysetechniken | |
DE69922653T2 (de) | Vorrichtung zur Überwachung eines Physikalsystems | |
WO2013075154A1 (de) | Konfiguration von betriebsgeräten für leuchtmittel | |
CN202551470U (zh) | 图像识别智能照明控制系统 | |
US11657637B2 (en) | Image-based occupancy detector | |
DE102009052699A1 (de) | Beleuchtungsvorrichtung | |
DE102019003049B4 (de) | Vorrichtung und Verfahren zum Erfassen von Objekten | |
DE202012103365U1 (de) | Leuchte | |
DE102014113228A1 (de) | LED-Betriebsvorrichtung, Beleuchtungsvorrichtung und Steuerschaltung für eine LED-Betriebsvorrichtung | |
EP2822360B1 (de) | Verfahren zur durch Gestensteuerung berührungslos erfolgenden Bedienung einer Leuchte | |
DE102016118486A1 (de) | Beleuchtungssteuerungsvorrichtung, beleuchtungssystem und verfahren zur steuerung einer beleuchtungsvorrichtung | |
EP3203153B1 (de) | Küchengerät mit einer beleuchtungseinheit und verfahren zur betätigung einer beleuchtungseinheit | |
EP3107354B1 (de) | Beleuchtungseinheit und steuerungsverfahren | |
EP2925098A1 (de) | Leuchte ausgestaltet zur kommunikation mit mobilem gerät | |
DE102018000893A1 (de) | Verfahren zur Ansteuerung von mit zumindest einer Melder-Einheit versehenen Leuchten innerhalb zumindest eines Raums und System zur Durchführung des Verfahrens | |
DE112015002545T5 (de) | Digital gesteuerter treiber für leuchten | |
DE102020132833A1 (de) | Leuchtvorrichtung, System mit Leuchtvorrichtungen sowie Verfahren zum Betreiben des System | |
DE102012013963A1 (de) | Sensorleuchte | |
EP3267768B1 (de) | Beleuchtungsanordnung für die industrielle bildverarbeitung | |
AT15517U1 (de) | System zur ortsaufgelösten Beleuchtungssteuerung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R081 | Change of applicant/patentee |
Owner name: IDEAL INDUSTRIES LIGHTING LLC (N.D.GES.D.STAAT, US Free format text: FORMER OWNER: CREE, INC., DURHAM, N.C., US Owner name: IDEAL INDUSTRIES LIGHTING LLC (N.D.GES.D. STAA, US Free format text: FORMER OWNER: CREE, INC., DURHAM, N.C., US |
|
R082 | Change of representative |
Representative=s name: BOULT WADE TENNANT LLP, DE Representative=s name: ISARPATENT - PATENT- UND RECHTSANWAELTE BARTH , DE Representative=s name: ISARPATENT - PATENT- UND RECHTSANWAELTE BEHNIS, DE |
|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: H05B0037020000 Ipc: H05B0047115000 |
|
R082 | Change of representative |
Representative=s name: BOULT WADE TENNANT LLP, DE |
|
R018 | Grant decision by examination section/examining division | ||
R081 | Change of applicant/patentee |
Owner name: IDEAL INDUSTRIES LIGHTING LLC (N.D.GES.D.STAAT, US Free format text: FORMER OWNER: IDEAL INDUSTRIES LIGHTING LLC (N.D.GES.D. STAATES DELAWARE), SYCAMORE, IL, US |
|
R020 | Patent grant now final |