DE102018213656B4 - Leuchte zur Nachverfolgung von Belegenden - Google Patents

Leuchte zur Nachverfolgung von Belegenden Download PDF

Info

Publication number
DE102018213656B4
DE102018213656B4 DE102018213656.4A DE102018213656A DE102018213656B4 DE 102018213656 B4 DE102018213656 B4 DE 102018213656B4 DE 102018213656 A DE102018213656 A DE 102018213656A DE 102018213656 B4 DE102018213656 B4 DE 102018213656B4
Authority
DE
Germany
Prior art keywords
occupant
field
view
fov
lamp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018213656.4A
Other languages
English (en)
Other versions
DE102018213656A1 (de
Inventor
Paul Fini
Ronald W. Bessems
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cree Lighting USA LLC
Original Assignee
Ideal Industries Lighting LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ideal Industries Lighting LLC filed Critical Ideal Industries Lighting LLC
Publication of DE102018213656A1 publication Critical patent/DE102018213656A1/de
Application granted granted Critical
Publication of DE102018213656B4 publication Critical patent/DE102018213656B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • H05B47/125Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B45/00Circuit arrangements for operating light-emitting diodes [LED]
    • H05B45/10Controlling the intensity of the light
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Circuit Arrangement For Electric Light Sources In General (AREA)

Abstract

Leuchte (10), umfassend:eine Kommunikationsschnittstelle (20);eine Lichtquelle (22), die konfiguriert ist, um eine Lichtausgabe für eine allgemeine Beleuchtung bereitzustellen;einen Bildsensor (S1), der konfiguriert ist, um Bildinformation im Zusammenhang mit einem Sichtfeld (FOV) aufzunehmen;einen sekundären Sensor (S2); undeine Steuerschaltung (48), die der Lichtquelle (22), dem sekundären Sensor (S2) und dem Bildsensor (S1) zugeordnet ist und konfiguriert ist, um:an der Lichtquelle (22) zum Steuern der Lichtausgabe ein Ansteuersignal bereitzustellen;für jedes Objekt (P1, P2, N) in dem Sichtfeld (FOV):- auf Grundlage der Bildinformation zu bestimmen, ob ein Objekt (P1, P2, N) in dem Sichtfeld (FOV) ein Belegender (P1, P2) ist; und- wenn das Objekt (P1, P2, N) der Belegende (P1, P2) ist:- eine Bewegung des Belegenden (P1, P2) innerhalb des Sichtfelds (FOV) zu verfolgen;- zu bestimmen, ob der Belegende (P1, P2) von dem Sichtfeld (FOV) verloren wird;- wenn der Belegende (P1, P2) von dem Sichtfeld (FOV) verloren geht, den sekundären Sensor (S2) nach einer Anzeige über die Belegung zu prüfen; und- wenn die Anzeige über die Belegung vorhanden ist, eine Nachverfolgung der Bewegung des Belegenden (P1, P2) innerhalb des Sichtfelds (FOV) wieder aufzunehmen.

Description

  • GEBIET DER OFFENBARUNG
  • Die vorliegende Offenbarung betrifft Leuchten und insbesondere ein intelligentes Beleuchtungsmodul für Leuchten.
  • HINTERGRUND
  • In den vergangenen Jahren hat eine Bewegung Fahrt aufgenommen, um Glühbirnen durch Leuchten zu ersetzen, die effizientere Leuchttechnologien verwenden, und um außerdem relativ effiziente Leuchtstoffröhren durch Leuchttechnologien zu ersetzen, die ein angenehmeres natürliches Licht erzeugen. Eine derartige Technologie, die sich als äußerst vielversprechend erwiesen hat, verwendet Leuchtdioden (LEDs). Im Vergleich mit Glühbirnen sind LED-gestützte Leuchten viel effizienter bei der Umwandlung von elektrischer Energie in Licht, sie haben eine längere Lebensdauer, und können auch Licht erzeugen, welches sehr natürlich ist. Im Vergleich mit Leuchtstoffröhren sind LED-gestützte Leuchten nicht nur effizienter, sondern sie können auch Licht erzeugen, welches viel natürlicher ist, und sie können Farben besser wiedergeben. Infolgedessen ersetzen Leuchten, die LED Technologien anwenden, Glühbirnen und Leuchtstoffröhren in privaten, kommerziellen und industriellen Anwendungen.
  • Im Gegensatz zu Glühbirnen, die dadurch betrieben werden, dass ein Draht einem gewünschten Strom ausgesetzt wird, benötigen LED-gestützte Leuchten elektronische Schaltungen, um ein oder mehrere LEDs anzusteuern bzw. anzutreiben. Die elektronischen Schaltungen umfassen allgemein eine Energieversorgung und eine spezielle Steuerschaltung, um in einzigartiger Weise konfigurierte Ansteuersignale bereitzustellen, die benötigt werden, um die eine oder die mehreren LEDs in einer gewünschten Weise anzusteuern. Die Anwesenheit der Steuerschaltung fügt einen potenziell signifikanten Grad von Intelligenz zu den Leuchten hinzu, die wirksam eingesetzt werden können, um verschiedene Typen einer Beleuchtungssteuerung anzuwenden. Eine derartige Beleuchtungssteuerung kann auf verschiedene Umgebungsbedingungen gestützt werden, wie beispielsweise Umgebungslicht und eine Belegung.
  • Beispielsweise beschreib die DE 20 2014 104 825 U1 ein Beleuchtungssystem zum Beleuchten einer Wegstrecke mit in einer Reihe geschalteten Beleuchtungseinheiten, die jeweils zumindest einen Teil der Wegstrecke mit Licht beleuchten.
  • Eine weitere Beleuchtungseinrichtung ist in der DE 10 2009 016 918 A1 beschrieben.
  • Des Weiteren offenbart die WO 2013/158955 A1 ein sensorisiertes Beleuchtungssystem und ein entsprechendes Verfahren zum Charakterisieren eines beleuchteten Volumens.
  • ZUSAMMENFASSUNG
  • Die vorliegende Erfindung schafft eine Leuchte mit den Merkmalen des Anspruchs 1, eine Leuchte mit den Merkmalen des Anspruchs 19, eine Leuchte mit den Merkmalen des Anspruchs 20 und eine Leuchte mit den Merkmalen des Anspruchs 21.
  • Wenn, in einer Ausführungsform, keine Anzeige über eine Belegung vorhanden ist, dann kommuniziert die Steuerschaltung mit wenigstens einer benachbarten Leuchte über die Kommunikationsschnittstelle, um zu bestimmen, ob die Person in dem Sichtfeld der wenigstens einen benachbarten Leuchte ist. Wenn die Person in dem Sichtfeld der wenigstens einen benachbarten Leuchte ist, dann kommuniziert die Steuerschaltung mit der wenigstens einen benachbarten Leuchte über die Kommunikationsschnittstelle, um eine Übergabe der Nachverfolgung der Bewegung der Person an die wenigstens eine benachbarte Leuchte zu ermöglichen. Die Steuerschaltung stellt auch eine Personen-Information, die sich auf die Person bezieht und von der Bildinformation abgeleitet ist, an der wenigstens einen benachbarten Leuchte über die Kommunikationsschnittstelle im Zusammenhang mit der Übergabe bereit.
  • Während der Nachverfolgung der Bewegung der Person ist die Steuerschaltung, in einer Ausführungsform, ferner konfiguriert, um: vorherzusagen, ob die Person gerade das Sichtfeld verlässt, und wenn vorhergesagt wird, dass die Person gerade das Sichtfeld verlässt, mit wenigstens einer benachbarten Leuchte über die Kommunikationsschnittstelle zu kommunizieren, um eine Übergabe der Nachverfolgung der Bewegung der Person an die wenigstens eine benachbarte Leuchte zu ermöglichen. Während die Bewegung der Person nachverfolgt wird, kann die Steuerschaltung konfiguriert sein, um dann, wenn die Person das Sichtfeld gerade nicht verlässt, eine Nachverfolgung der Bewegung der Person innerhalb des Sichtfelds wieder aufzunehmen. Um vorherzusagen, ob die Person gerade das Sichtfeld verlässt, kann die Steuerschaltung konfiguriert sein, um wenigstens einen Ort der Person innerhalb des Sichtfelds, eine Bewegungsrichtung der Person und/oder eine Bewegungsgeschwindigkeit der Person zu bestimmen; und den wenigstens einen Ort der Person innerhalb des Sichtfelds, in der Bewegungsrichtung der Person, und die Bewegungsrichtung der Person zu verwenden, um vorherzusagen, ob die Person gerade das Sichtfeld verlässt. Die Steuerschaltung kann konfiguriert sein, um eine Personen-Information, die sich auf die Person bezieht und von der Bildinformation abgeleitet wird, an der wenigstens einen benachbarten Leuchte über die Kommunikationsschnittstelle im Zusammenhang mit der Übergabe bereitzustellen.
  • In einer Ausführungsform ist die Steuerschaltung ferner konfiguriert, um eine Bewegung in dem Sichtfeld, verursacht durch ein sich in dem Sichtfeld bewegendes Objekt, zu erfassen; zu bestimmen, ob das sich in dem Sichtfeld bewegende Objekte eine vorher verfolgte bzw. nachverfolgte Person ist; und wenn das sich in dem Sichtfeld bewegende Objekt eine vorher verfolgte Person ist, eine Verfolgung bzw. Nachverfolgung der vorher verfolgten Person wiederaufzunehmen, wobei eine Bestimmung, ob das Objekt in dem Sichtfeld eine Person bzw. ein Belegender ist, initiiert wird, wenn das sich in dem Sichtfeld bewegende Objekt nicht eine vorher verfolgte Person ist.
  • Durchschnittsfachleute in dem technischen Gebiet werden den Umfang der vorliegenden Offenbarung erkennen und zusätzliche Aspekte davon nach dem Studium der folgenden ausführlichen Beschreibung der bevorzugten Ausführungsformen im Zusammenhang mit den beiliegenden Zeichnungsfiguren realisieren.
  • Figurenliste
  • Die beiliegenden Zeichnungsfiguren, die in einen Teil dieser Beschreibung eingebaut sind und einen Teil davon bilden, illustrieren mehrere Aspekte der Offenbarung und dienen zusammen mit der Beschreibung der Erläuterung der Prinzipien der Offenbarung.
  • In den Zeichnungen zeigen:
    • 1 eine perspektivische Ansicht einer Leuchte eines abgehängten Typs gemäß einer Ausführungsform der Offenbarung;
    • 2 einen Querschnitt der Leuchte der 1;
    • 3 einen Querschnitt der Leuchte der 1, wobei dargestellt ist, wie Licht von den LEDs der Leuchte austritt und über Linsen der Leuchte heraus reflektiert wird;
    • 4 ein Treibermodul, ein LED Feld und ein intelligentes Beleuchtungsmodul (Intelligent Lighting Module; ILM) innerhalb der Leuchte der 1;
    • 5 eine Beleuchtungs- und Netzumgebung gemäß einer Ausführungsform;
    • 6 eine Raumaufteilung für eine beispielhafte Büroumgebung gemäß einer Ausführungsform;
    • 7A und 7B Sichtfelder für zwei unterschiedliche Beleuchtungsumgebungen;
    • 8 ein Flussdiagramm, das einen Betrieb einer Leuchte gemäß einer Ausführungsform zeigt;
    • 9 ein Flussdiagramm, das eine Personenerfassung, Klassifizierung, Nachverfolgung und Übergabe für eine gegebene Leuchte gemäß einer Ausführungsform darstellt;
    • 10A bis 10F eine Bewegung von Personen oder Belegenden durch ein beispielhaftes Sichtfeld;
    • 11A Sichtfelder vor einer Abbildungsoperation;
    • 11B Sichtfelder nach einer Abbildungsoperation;
    • 12 ein Treibermodul, das in einem Elektronikgehäuse vorgesehen ist, und ein Kommunikationsmodul in einem zugehörigen Gehäuse, das mit dem Äußeren des Elektronikgehäuses gekoppelt ist;
    • 13 ein Blockdiagramm eines ILM gemäß einer Ausführungsform der Offenbarung;
    • 14 eine isometrische Ansicht von oben von einem ILM gemäß einer ersten Ausführungsform der Offenbarung;
    • 15 ein Bildmodul, das in einem Gehäuse einer Leuchte gemäß einer Ausführungsform der Offenbarung installiert ist; und
    • 16 einen Bildsensor gemäß einer Ausführungsform der Offenbarung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die nachstehend aufgeführten Ausführungsformen stellen die notwendige Information bereit, um Durchschnittsfachleute in dem technischen Gebiet in die Lage zu versetzen, die Ausführungsformen in der Praxis umzusetzen, und sie illustrieren die bevorzugte Vorgehensweise zur Umsetzung der Ausführungsformen. Auf ein Studium der folgenden Beschreibung hin im Hinblick auf die beiliegenden Zeichnungsfiguren werden Durchschnittsfachleute in dem technischen Gebiet die Konzepte der Offenbarung verstehen und werden Anwendungen von diesen Konzepten, die hier nicht besonders angesprochen werden, erkennen. Es sei darauf hingewiesen, dass diese Konzepte und Anwendungen in den Umfang der Offenbarung und der beiliegenden Ansprüche fallen.
  • Obwohl die Begriffe erster, zweiter usw. hier verwendet werden, um verschiedene Elemente zu beschreiben, sei darauf hingewiesen, dass diese Elemente durch diese Ausdrücke nicht beschränkt werden sollten. Diese Ausdrücke werden nur verwendet, um ein Element von einem anderen zu unterscheiden. Zum Beispiel könnte ein erstes Element als ein zweites Element bezeichnet werden, und in ähnlicher Weise könnte ein zweites Element als ein erstes Element bezeichnet werden, ohne von dem Umfang der vorliegenden Offenbarung abzuweichen. Wie hier verwendet umfasst der Begriff „und/oder“ irgendwelche und sämtliche Kombinationen von ein oder mehreren der angegebenen zugehörigen Einzelteile.
  • Die hier verwendete Terminologie dient dem Zweck einer Beschreibung nur von bestimmten Ausführungsformen und es ist nicht beabsichtigt, dass sie für die Offenbarung beschränkend ist. Wie hier verwendet sollen die singularen Formen „einer“, „eine“, „eines“ und „der“, „die“, „das“ genauso die pluralen Formen umfassen, außer wenn der Kontext dies deutlich anderweitig anzeigt. Es sei ferner darauf hingewiesen, dass die Ausdrücke „umfasst“, „umfassend“, „beinhaltet“ und/oder „einschließend“, wenn sie hier verwendet werden, die Anwesenheit von angegebenen Merkmalen, Zahlen, Schritten, Operationen, Elementen und/oder Komponenten spezifizieren, aber die Anwesenheit oder Hinzufügung von ein oder mehreren anderen Merkmalen, Zahlen, Schritten, Operationen, Elementen, Komponenten und/oder Gruppen davon nicht ausschließen.
  • Außer wenn dies anderweitig definiert wird, weisen sämtliche Begriffe (einschließlich von technischen und wissenschaftlichen Begriffen), die hier verwendet werden, die gleiche Bedeutung auf, so wie sie gewöhnlicherweise von einem Durchschnittsfachmann in dem technischen Gebiet, auf das sich diese Offenbarung bezieht, verstanden wird. Es sei ferner darauf hingewiesen, dass Begriffe, die hier verwendet werden, so interpretiert werden sollten, dass sie eine Bedeutung aufweisen, die konsistent mit deren Bedeutung in dem Kontext dieser Beschreibung und dem relevanten Stand der Technik ist, und sie sollten nicht in einem idealisierten oder übermäßig formalen Sinn interpretiert werden, außer wenn dies ausdrücklich hier definiert ist.
  • Bevor die Einzelheiten der vorliegenden Offenbarung näher erläutert werden, wird ein Überblick über eine beispielhafte Leuchte, die die voranstehend beschriebenen Konzepte beinhaltet, bereitgestellt. Während die Konzepte der vorliegenden Offenbarung in irgendeinem Typ von Beleuchtungssystem verwendet werden können, beschreibt die unmittelbar folgende Beschreibung diese Konzepte in einer Leuchte eines abgehängten Typs, wie beispielsweise der Leuchte 10, die in 1 bis 3 dargestellt ist. Diese besondere Leuchte ist im Wesentlichen ähnlich zu der CR und CS Serie von Leuchten des abgehängten Typs, die von Cree, Inc. aus Durham, NC hergestellt werden.
  • Im Allgemeinen sind Leuchten des abgehängten Typs, wie beispielsweise die Leuchte 10, konstruiert, um in einer Decke angebracht zu werden oder davon abgehängt zu werden. In den meisten Anwendungen werden die Leuchten des abgehängten Typs in einer abgehängten Decke (nicht gezeigt) einer kommerziellen, bildungsbezogenen oder regierungsbezogenen Einheit angebracht. Wie in 1 bis 3 dargestellt umfasst die Leuchte 10 einen quadratischen oder rechteckförmigen äußeren Rahmen 12. In dem zentralen Abschnitt der Leuchte 10 befinden sich zwei rechteckförmige Linsen 14, die allgemein transparent, lichtdurchlässig oder undurchsichtig sind. Reflektoren 16 erstrecken sich von dem äußeren Rahmen 12 zu den äußeren Kanten der Linsen 14. Die Linsen 14 erstrecken sich effektiv zwischen den innersten Abschnitten der Reflektoren 16 zu einem zentralen Anbringungselement 18, welches auch als eine Wärmesenke dient und in dieser Ausführungsform dazu dient, die zwei inneren Kanten der Linsen 14 zu verbinden. Wie mit näheren Einzelheiten nachstehend beschrieben wird, kann ein intelligentes Beleuchtungsmodul (ILM) 20 in, auf oder an dem zentralen Anbringungselement 18 oder irgend einem anderen geeigneten Abschnitt der Leuchte 10 angebracht sein. Das ILM 20 stellt eine Intelligenz für die Leuchte 10 bereit, nimmt ein oder mehrere Sensoren SX auf oder ist anderweitig mit diesen gekoppelt, und ermöglicht drahtgebundene und/oder drahtlose Kommunikationen mit anderen Leuchten 10 oder anderen entfernten Einheiten.
  • Im Grunde genommen ist das ILM 20 ein Steuerungs- und Kommunikationsmodul für die Leuchte 10. Die Kommunikationen mit anderen Leuchten 10 und anderen Einheiten kann sich darauf beziehen, Zustandsinformation und Sensorinformation zu teilen und außerdem Befehle oder andere Information bereitzustellen, die die Steuerung der Leuchten 10 oder anderer Einheiten während eines normalen Betriebs oder einer Inbetriebnahme unterstützen. Während drei Sensoren S1-S3 dargestellt sind, kann die Leuchte irgendeine Anzahl der gleichen oder unterschiedlichen Sensoren SX aufweisen. Die Sensoren SX können einen oder mehrere der folgenden umfassen: einen Bildsensor, einen Belegungssensor (zum Beispiel einen passiven Infrarot(PIR)-Sensor), einen akustischen Sensor, einen Umgebungslichtsensor, einen Temperatursensor, einen Feuchtigkeitssensor, einen Drucksensor, einen Vibrationssensor, einen Kohlenmonoxidsensor, einen Kohlendioxidsensor, einen Luftqualitätssensor, einen Rauchsensor, einen Energiesensor o. ä. Sensoren. Weitere Einzelheiten werden nachstehend angegeben.
  • Wenn man nun 2 und 3 besonders betrachtet, stellt die Rückseite des zentralen Anbringungselement 18 eine Anbringungsstruktur für eine Festkörperlichtquelle bereit, wie beispielsweise ein LED-Feld 22, welches ein oder mehrere Reihen von individuellen LEDs, die auf einem geeigneten Substrat angebracht sind, umfasst. Die LEDs sind orientiert, um Licht vorwiegend nach oben in Richtung auf eine konkave Abdeckung 24 hin auszusenden. Das Volumen, das von der Abdeckung 24, den Linsen 14 und der Rückseite des zentralen Anbringungselement 18 begrenzt wird, stellt eine Mischkammer 26 bereit. An sich wird Licht von den LEDs des LED-Felds 22 in Richtung auf die Abdeckung 24 nach oben austreten und durch die jeweiligen Linsen 14, wie in 3 dargestellt, nach unten reflektiert. Es sei darauf hingewiesen, dass nicht sämtliche Lichtstrahlen, die von den LEDs ausgesendet werden, direkt von dem Boden der Abdeckung 24 und durch eine bestimmte Linse 14 mit einer einzelnen Reflektionen zurückreflektiert werden. Viele der Lichtstrahlen werden innerhalb der Mischkammer 26 herumspringen und sich effektiv mit anderen Lichtstrahlen mischen, so dass ein gewünschtes gleichförmiges Licht durch die jeweiligen Linsen 14 ausgesendet wird.
  • Durchschnittsfachleute in dem technischen Gebiet werden erkennen, dass der Typ der Linsen 14, der Typ der LEDs, die Form der Abdeckung 24 und irgendeine Beschichtung auf der Bodenseite der Abdeckung 24, unter zahlreichen anderen Variablen, die Größe und die Qualität des Lichts, das durch die Leuchte 10 ausgesendet wird, beeinflussen werden. Wie mit näheren Einzelheiten nachstehend diskutiert wird, kann das LED-Feld 22 LEDs mit unterschiedlichen Farben umfassen, wobei das von den verschiedenen LEDs ausgesendete Licht zusammen gemischt wird, um ein weißes Licht mit einer gewünschten Charakteristik zu bilden, wie beispielsweise einem gewünschten spektralen Inhalt (einer Farbe oder einer Farbtemperatur), einem gewünschten Farbwiedergabeindex (CRI), einem Ausgabepegel und dergleichen auf Grundlage der Konstruktionsparameter für die bestimmte Ausführungsform, die Umgebungsbedingungen oder dergleichen.
  • Wenn das zentrale Anbringungselement 18 als eine Wärmesenke dient, können sich Rippen (die nicht dargestellt sind) von dem zentralen Anbringungselement 18 in irgendeine Richtung erstrecken. Wenn sich die Rippen von dem Boden des zentralen Anbringungselement 18 erstrecken, können die Rippen von dem Boden der Leuchte 10 sichtbar sein. Eine Anordnung der LEDs des LED-Felds 22 in einem thermischen Kontakt entlang der oberen Seite des zentralen Anbringungselement 18 ermöglicht, dass irgendwelche Wärme, die von den LEDs erzeugt wird, effektiv an die Bodenseite des zentralen Anbringungselements 18 für eine Ableitung in den Raum, in dem die Leuchte 10 angebracht ist, transferiert wird.
  • Wie in 4 dargestellt ist ein Treibermodul 28 mit dem LED-Feld 22 und dem ILM 20 über eine geeignete Verkabelung 30 gekoppelt und an einer Treiberbefestigung 32 der Leuchte 10 angebracht. Das Treibermodul 28 wird verwendet, um das LED-Feld 22 anzusteuern, um im Ansprechen auf Befehle von dem ILM 20 einen gewünschten Lichtausgabepegel bereitzustellen. Im normalen Betrieb verwendet das ILM 20 seine interne Logik, um einen Ein/Aus-Zustand und einen Ausgabepegel für das LED-Feld 22 auf Grundlage von Informationen, die direkt oder indirekt von ein oder mehreren Sensoren S1-S3, anderen Leuchten 10 und/oder entfernten Einheiten, wie beispielsweise Steuerknoten 36, Verarbeitungsknoten 38, System-Controllern 34, Wand-Controllern (nicht gezeigt) und der gleichen empfangen wird, zu bestimmen. Das ILM 20 kann auch Information über den Zustand der Leuchte 10, Sensorinformation, Steuerinformation, Anfragen nach Information und dergleichen an ein oder mehrere der anderen Leuchten 10 und/oder entfernten Einheiten senden. Während es als ein integriertes Modul beschrieben wird, kann die Funktionalität des ILM 20 in das Treibermodul 28 oder andere elektronische Schaltungen der Leuchte 10 eingebaut sein.
  • Der System-Controller 34 stellt irgendeinen Typ von entfernter Steuereinheiten dar, die konfiguriert ist, um wenigstens ein anderes System außer dem Beleuchtungsnetz, in dem sich die Leuchten 10 befinden, zu steuern. Zum Beispiel kann der System-Controller 34 ein Controller für ein oder mehrere der folgenden sein: eine Heizung, ein System für eine Klimaanlage (HVAC), ein Sicherheitssystem, ein Feuerschutzsystem, ein Bewässerungssystem, ein Herstellungssystem, Evakuierungssysteme, Belegungsüberwachungs- oder Steuer-Systeme und dergleichen. Wie nachstehend mit näheren Einzelheiten diskutiert, erlauben die hier bereitgestellten Konzepte in dem Beleuchtungsnetz nicht nur zu bestimmen, ob verschiedene Räume belegt sind, sondern auch um die Anzahl von Personen bzw. Belegenden in einem Raum zu bestimmen, wenn der Raum belegt ist. Mit modernen HVAC Systemen, die Kühlmittelströmungen mit variabler Geschwindigkeit und Gebläsegeschwindigkeiten mit variabler Geschwindigkeit umfassen, besteht eine HVAC Steuerung nicht mehr einfach in der Einschaltung oder Ausschaltung des HVAC Systems. Die Rate oder der Grad einer Erwärmung, Kühlung und/oder Lüftung ist variabel. Mit den hier bereitgestellten Konzepten kann eine HVAC Steuerung nicht nur eine Raumtemperatur berücksichtigen, sondern auch die Anzahl von Belegenden bzw. Personen in dem Raum, was hier als ein Belegungsgrad bezeichnet wird.
  • Das Beleuchtungsnetz ist in der Lage den Belegungsgrad für jeden Raum zu berichten, so dass die HVAC Steuerung den Grad einer Erwärmung, Klimatisierung und/oder Belüftung für jeden Raum auf Grundlage der Temperatur und außerdem sich ändernden Belegungsgraden dynamisch einstellen kann. Ein Raum mit einer größeren Anzahl von Personen kann in vorteilhafter Weise höhere Grade einer Erwärmung, einer Klimatisierung und/oder Belüftung und umgekehrt erhalten. Zusätzlich oder anstelle einer Steuerung der Erwärmung, Klimatisierung und/oder den Belüftungsgrade auf Grundlage des Belegungsgrads können andere HVAC Einstellungen auf Grundlage von Belegungsgraden dynamisch gesteuert oder eingestellt werden. Zum Beispiel können die HVAC Sollpunkte, Rückstellungen und/oder tote Zonen (Hysterese-Bereiche um einen Sollpunkt oder einen Rückstellungspunkt herum) dynamisch auf Grundlage von Raum-zu-Raum oder global für eine gesamte Umgebung, die diese Räume enthält, verändert werden. Wie voranstehend angegeben ist eine HVAC Steuerung auf Grundlage von tatsächlichen Belegungsgraden im Gegensatz zu einer allgemeinen Belegung ein Beispiel einer Steuerung.
  • Die Leuchten 10 können konfiguriert sein, um mit den System-Controllern 34 direkt zu kommunizieren oder die Belegungs-Information an einer Zwischeneinrichtungen, wie beispielsweise dem Verarbeitungsknoten 38 oder dem Steuerknoten 36, der die von einer Gruppe von Leuchten 10 gesammelte Belegungs-Information verarbeiten wird und geeignete auf eine Belegung bezogene Befehle oder eine derartige Information an den System-Controllern 34 bereitstellen wird, bereitzustellen. Die Verarbeitungsknoten 38 sind allgemein Teil des Beleuchtungsnetzes und können verwendet werden, um eine Konfiguration der verschiedenen Leuchten 10 in dem Beleuchtungsnetz während einer Inbetriebnahme, eine Gruppensteuerung der Leuchten 10, wenn eine derartige Steuerung unter den Leuchten 10 nicht verteilt wird, Kommunikationen mit entfernten Einheiten und dergleichen zu ermöglichen. Die Steuerknoten 36 sind speziell eingerichtete Beleuchtung-Steuereinrichtungen, die verwendet werden, um die Leuchten 10 individuell oder als eine Gruppe zu konfigurieren oder zu steuern.
  • Bezugnehmend nun auf 5 wird ein beispielhaftes Beleuchtungsnetz dargestellt. Das Beleuchtungsnetz umfasst mehrere Leuchten 10, die jeweils einen ersten Sensor S1, der ein Bildsensor ist, und einen zweiten Sensor S2, der eine PIR-gestützter Belegungssensor ist, umfassen. Der erste und der zweite Sensor S1 und S2 kann andere Ausbildungen annehmen, wie Durchschnittsfachleute in dem technischen Gebiet erkennen werden. Die besondere Kombination eines Bildsensors für den ersten Sensor S1 und eines PIR-gestützten Belegungssensors für den zweiten Sensor S2 ist nur für Illustrationszwecke angegeben.
  • Wie dargestellt ist eine erste Gruppe der Leuchten 10 konfiguriert, um untereinander und außerdem mit anderen Einheiten unter Verwendung von drahtlosen Kommunikationen zu kommunizieren und sie bilden einen Teil eines Beleuchtungsnetzes N1 oder sind mit diesen gekoppelt. Eine zweite Gruppe der Leuchten 10 ist konfiguriert, um untereinander und auch mit anderen Einheiten unter Verwendung von drahtgebundenen Kommunikationen zu kommunizieren, wie beispielsweise Ethernet-gestützten Kommunikationen, und sie bilden ebenfalls einen Teil des Beleuchtungsnetzes N1 oder sind mit diesen gekoppelt. Das Beleuchtungsnetz N1 kann mit einem traditionellen lokalen Netz (LAN) N2 gekoppelt sein, welches eine traditionelle Vernetzung innerhalb einer Organisation unterstützt. Das LAN N2 ist ferner mit einem Cloud-Netz N3, wie beispielsweise dem Internet oder einer ähnlichen Netz-Infrastruktur gekoppelt, die eine Kommunikation mit entfernten Einheiten, Servern, Diensten und dergleichen in einer traditionellen Weise ermöglicht. Kommunikationen mit den verschiedenen System-Controllern 34, Steuerknoten 36 und Verarbeitungsknoten 38 können durch das Beleuchtungsnetz N1, das LAN N2 und das Cloud-Netz N3, in Abhängigkeit von dem Ort und der Funktionalität der Einrichtungen, unterstützt werden. Obwohl nicht dargestellt kann das Beleuchtungsnetz N1 verschiedene Router, Vermittlungsstellen, Gateways, alleinstehende Sensoren, Wand-Controller zum Einschalten und Ausschalten sowie zum Abzudunkeln von sämtlichen Leuchten 10 oder Gruppen davon und dergleichen umfassen.
  • 6 zeigt eine beispielhafte Büroumgebung mit zahlreichen Leuchten 10, die in der Decke der Büroumgebung verteilt sind und für eine allgemeine Beleuchtung verwendet werden. In dieser Ausführungsform sei angenommen, dass jede der Leuchten 10 wenigstens einen Bildsensor-gestützten Sensor S1 und einen PIR-gestützten Belegungssensor S2 umfasst. In dieser Konfiguration wird der Bildsensor-gestützter Sensor S1 als ein primärer Belegungssensor mit einer hohen Auflösung verwendet, während der PIR-gestützte Belegungssensor S2 als ein sekundärer Belegungssensor mit einer viel geringeren Auflösung verwendet wird.
  • Wie in 7A und 7B dargestellt weist der (Bildsensor-gestützte) erste Sensor S1 für jede Leuchte 10 ein zugehöriges Sichtfeld (FOV) auf. Das Sichtfeld (FOV) entspricht einem Gebiet, von dem der erste Sensor S1 der Leuchte 10 Bildinformation aufnehmen kann. Eine Bild wird hier grob so definiert, dass es Bild-bezogene Information umfasst, die von dem Bildsensor S1 eingefangen wird. Die Bild-bezogene Information umfasst, ist aber nicht beschränkt auf, Information, die einem gesamten Standbild oder einem Teil eines Standbilds, sämtlichen Videobildern oder einem Teil von ein oder mehreren Videobildern, Charakteristiken (d. h. Farbe, Wellenlänge, Helligkeit, Kontrast, Größe, Form usw.) von irgendeinem Aspekt von einem gesamten Standbild oder einem Teil eines Standbilds oder von ein oder mehreren Videorahmen oder sämtlichen Videorahmen, oder irgendeine Kombination davon entspricht. Die Sichtfelder (FOVs) für die ersten Sensoren S1 der jeweiligen Leuchten 10 können in Abhängigkeit von der Konstruktion der ersten Sensoren S1 und/oder der zugehörigen Leuchten 10 fest oder variabel sein. In jedem Fall können die Sichtfelder (FOV) entweder im Wesentlichen zueinander ausgerichtet sein, so dass nur eine geringe oder keine Überlappung vorhanden ist, wie in 7A bereitgestellt, oder derart, dass sie im Wesentlichen miteinander überlappen, wie in 7B bereitgestellt. Nachstehend werden Einzelheiten weiter unten angegeben darüber, wie diese unterschiedlichen Konfigurationen die Nachverfolgung bzw. Verfolgung von Belegenden z.B. Personen überall in einer gegebenen Umgebung beeinflussen.
  • Bezugnehmend nun auf 8 ist ein Flussdiagramm bereitgestellt, um sowohl den allgemeinen Betrieb von jeder Leuchte 10 als auch eine Nachverfolgung von Personen (Belegenden) innerhalb einer gegebenen Umgebung zu illustrieren. Jede Leuchte 10 wird ihre Lichtausgabe für eine allgemeine Beleuchtung auf Grundlage von Informationen oder Befehlen steuern, die von anderen Einheiten und/oder Sensoren bereitgestellt werden (Schritt 100). Zum Beispiel kann eine Lichtausgabe gesteuert werden, wie beispielsweise eine Einschaltung, Ausschaltung oder eine Abdunklung auf einen gewünschten Pegel, auf Grundlage von Informationen, die von einem oder irgendeiner Kombination eines zugehörigen Wand-Controllers, eines Steuerknotens 36, eines System-Controllers 34, eines Verarbeitungsknotens 38, einer anderen Leuchte 10 und der gleichen empfangen wird.
  • Zusätzlich zu der Bereitstellung von Licht für eine allgemeine Beleuchtung ist jede Leuchte 10 konfiguriert, um die Anzahl von Personen (Belegenden) in dem zugehörigen Sichtfeld zu bestimmen (Schritt 102) und eine Belegungs-Information auf Grundlage der Anzahl von Personen in dem zugehörigen Sichtfeld an einer entfernten Einheit, wie beispielsweise dem System-Controller 34, dem Steuerknoten 36, dem Verarbeitungsknoten 38 und dergleichen bereitzustellen (Schritt 104). Im Wesentlichen entspricht die Belegungs-Information für eine gegebene Leuchte 10 allgemein der Anzahl von Personen innerhalb des Sichtfelds der Leuchte. Auf Grundlage der Belegungs-Information für die Leuchten 10 in einem gegebenen Gebiet kann die Anzahl von Personen für ein gegebenes Gebiet durch Addition der Anzahl von Personen, die in den Sichtfeldern für jede der Leuchten in dem gegebenen Gebiet sind, berechnet werden. In bestimmten Ausführungsformen werden Schritte vorgenommen, um eine redundante Zählung einer Person, die sich in mehreren Sichtfeldern gleichzeitig befindet, zu vermeiden. Einzelheiten werden nachstehend angegeben.
  • Wie voranstehend angegeben wird eine Steuerung der Lichtausgabe (Schritt 100), eine Bestimmung der Anzahl von Personen in einem zugehörigen Sichtfeld (Schritt 102) und eine Bereitstellung von Belegungs-Information an einer entfernten Einheit (Schritt 104) für jede Leuchte einzeln vorgesehen. Jede Leuchte 10 verwendet die zugehörigen Sensoren S1, S2 usw., um Personen auf einer Einzelpersonenbasis nachzuverfolgen bzw. zu verfolgen. An sich kann eine oder können mehrere Personen durch eine gegebene Leuchte 10 zu irgendeiner gegebenen Zeit verfolgt werden. In einer Ausführungsform wird die Leuchte 10 ihre Sensoren S1, S2 usw. verwenden, um eine Bewegung zu erfassen, die durch ein sich bewegendes Objekt in dem zugehörigen Sichtfeld verursacht wird (Schritt 106), und um das Objekt entweder als einen Belegenden oder einen Nicht-Belegenden zu klassifizieren (Schritt 108). Ein Belegender wird als eine Person (ein Mensch) angesehen, während ein Nicht-Belegender allgemein als ein Objekt oder irgendetwas anderes als eine Person angesehen wird. Wenn ein Objekt als ein Belegender klassifiziert wird, wird der Belegende verfolgt, während der Belegende in dem zugehörigen Sichtfeld bleibt (Schritt 110).
  • Wenn sich der Belegende (d. h. die Person) außerhalb von dem zugehörigen Sichtfeld bewegt oder dies für diesen (für diese) vorhergesagt wird, wird die Leuchte 10 eine Koordination mit benachbarten Leuchten 10 durchführen, um eine Übergabe der Personen-Nachverfolgung an die benachbarte Leuchte 10, die ein Sichtfeld bereitstellt, an das sich die Person bewegt hat oder an das eine Bewegung vorhergesagt wird, zu ermöglichen (Schritt 112). Die Schritte 106-112 für die Erfassung, Klassifizierung, Nachverfolgung und Übergabe können Information bereitstellen, die nützlich ist, wenn sowohl die Lichtausgabe gesteuert wird (Schritt 100) als auch die Anzahl von Personen in dem Sichtfeld einer gegebenen Leuchte 10 bestimmt wird (Schritt 102). Grundlegend wird die Leuchte 10, wenn Personen in dem zugehörigen Sichtfeld erfasst werden oder dieses verlassen, die Gesamtanzahl von Personen (Belegenden) in ihrem zugehörigen Feld entsprechend dynamisch aktualisieren und berichten. Wiederum können Personen innerhalb des zugehörigen Sichtfelds einer bestimmten Leuchte 10 auf einer individuellen Grundlage nachverfolgt werden, bei der die Leuchte 10 mehrere Personen zu einer gegebenen Zeit nachverfolgen kann.
  • 9 ist ein Flussdiagramm, welches darstellt, wie individuelle Personen innerhalb des Sichtfelds einer gegebenen Leuchte unter Verwendung eines Bildsensor-gestützten ersten Sensors S1 und eines PIR-gestützten Belegungssensors S2 erfasst und nachverfolgt werden. Der erste Sensor S1 wird für eine Erfassung mit hoher Auflösung, eine Klassifizierung und Nachverfolgung von Personen innerhalb eines Sichtfelds für die zugehörige Leuchte 10 verwendet. Der zweite Sensor S2 wird für eine Belegungserfassung mit niedriger Auflösung verwendet. An sich können verschiedene andere Typen von Sensoren, wie beispielsweise akustische Sensoren, thermische Sensoren, Bildsensoren und dergleichen, für den Sensor S2 verwendet werden. Es sei angenommen, dass die Steuerelektronik und zugehörige Software der Leuchte 10 Information verwenden, die von den ersten und zweiten Sensoren S1 und S2 gesammelt werden, und möglicherweise von benachbarten Leuchten 10 verwenden, um die folgende Funktionalität bereitzustellen. Durchschnittsfachleute in dem technischen Gebiet werden erkennen, dass eine derartige Funktionalität in verschiedenen Hardware- und/oder Software-Komponenten von ein oder mehreren Leuchten 10 und zugehörigen Einrichtungen integriert oder unter diesen verteilt werden kann.
  • Der Prozess startet, wenn die Leuchte 10 Informationen analysiert, die von einem oder beiden der ersten und zweiten Sensoren S1 und S2 bereitgestellt wird, um eine Bewegung zu überwachen, die durch die Bewegung eines Objekts innerhalb des Sichtfelds der Leuchte oder einer allgemeinen Nähe verursacht wird (Schritt 200). Wenn eine Bewegung nicht erfasst wird (Schritt 202), wird die Leuchte 10 weiter eine Bewegung überwachen (Schritt 200). Wenn eine Bewegung erfasst wird (Schritt 202), wird die Leuchte 10 Information analysieren, die von dem ersten Sensor S1 bereitgestellt wird, um zu bestimmen, ob das Objekt ein Belegender d.h. eine Person ist, die vorher erfasst worden ist und gegenwärtig gerade verfolgt bzw. nachverfolgt wird (Schritt 204). Eine Bewegungserfassung verwendet die Verwendung von ein oder mehreren Sensoren S1. Als ein Beispiel für einen Bild-gestützten Sensor SX wird die Leuchte 10 aufgenommene Bildinformation analysieren, um eine Bewegung zu erfassen. Für einen PIR-gestützten Belegungssensor SX wird die Leuchte 10 einen Ausgang empfangen, der eine Bewegung innerhalb des Sichtfelds des Sensors anzeigt. Die Leuchte 10 kann die Information von verschiedenen Sensoren SX verarbeiten, um eine Bewegung zu erfassen oder anderweitig zu identifizieren.
  • Wenn das Objekt nicht eine Person ist, die gegenwärtig gerade nachverfolgt wird, dann wird die Leuchte 10 die Information analysieren, die von dem ersten Sensor S1 bereitgestellt wird, um das Objekt entweder als einen Belegenden bzw. eine Person oder einen Nicht-Belegenden (keine Person) zu klassifizieren, wobei ein Belegender eine Person ist und ein Nicht-Belegender ein lebloses Objekt ist (Schritt 206). Durchschnittsfachleute in dem technischen Gebiet werden verschiedene Vorgehensweisen zum Klassifizieren eines Objekts erkennen. Beispiele umfassen Verfahren mit einem Histogramm von orientierten Gradienten (Histogram of Oriented Gradients; HOG), die Maschinenlernvorgänge verwenden, um eine Objekterscheinung und eine Objektform zu klassifizieren. Ein Einbau einer Prinzipalkomponentenanalyse (Principal Components Analysis; PCA) in die HOE Verfahren erlauben eine besonders robuste und reproduzierbare Klassifizierung von Belegenden und Gruppen von belegenden. Eine HOG-gestützte Klassifizierung wird als ausreichend robust und dennoch nicht übermäßig aufwendig hinsichtlich der Berechnungen für eine Beleuchtungsanwendung angesehen. Wenn noch eine größere Genauigkeit benötigt wird, kann die Verwendung von dünnbesiedelten konvergierenden neuronalen Netzen (Sparse Convergent Neural Networks; SCNN) angewendet werden; jedoch kann die Verwendung von SCNN mehr Mikroprozessorspeicher und/oder eine höhere Geschwindigkeit als HOG-gestützte Verfahren erfordern. Das SCNN Verfahren versuchte die Komplexität von bekannten Verfahren mit einem neuronalen Netz zu verringern, wodurch die Antwortzeit und die Rechenressourcen sogar in visuell komplexen Umgebungen reduziert werden. Für weitere Informationen hinsichtlich einer Objektklassifizierung wird auf folgendes verwiesen:
    • N. Dalal and B. Triggs, „Histograms of Oriented Gradients for Human Detection," IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 886-893 (2005);
    • Q. Zhu et al., „Fast Human Detection Using a Cascade of Histograms of Oriented Gradients," IEEE Computer Soc. Conf. on Computer Vision and Pattern Recog., 1491-8 (2006);
    • A. Satpathy et al., „Human Detection by Quadratic Classification on Subspace of Extended Histogram of Gradients," IEEE Trans, on Image Proc., 23, 287-97 (2014);
    • C. Zeng and H. Ma, „Robust Head-shoulder Detection by PCA-Based Multilevel HOG-LBP Detectorfor People Counting," Intl. Conf. on Pattern Recognition, 2069-72 (2010); and
    • M. Mathew et al., „Sparse, Quantized, Full Frame CNN for Low Power Embedded Devices," IEEE Conf. on Computer Vision and Pattern Recog., 328-36 (2017),
    wobei die Offenbarungen von diesen hier in ihrer Gesamtheit Teil der vorliegenden Anmeldung sind.
  • Wenn das Objekt ein Nicht-Belegender ist (Schritt 208), wird die Leuchte 10 weiter nach einer Bewegung überwachen (Schritt 200). Wenn das Objekt eine Belegender d. h. eine Person ist (Schritt 208), dann wird die Leuchte 10 die Information, die von dem ersten Sensor S1 bereitgestellt wird, analysieren, um den Belegenden bzw. die Person innerhalb des Sichtfelds, das zu dem ersten Sensor S1 gehört, nachzuverfolgen (Schritt 210). Die Funktion zur Nachverfolgung kann in einem Bereich von Möglichkeiten sein, dass einfach bestimmt wird, dass die Person innerhalb des Sichtfelds ist, bis zu einer Bestimmung von einem oder mehreren eines genauen Orts innerhalb des Sichtfelds, einer Bewegungsrichtung und einer Bewegungsgeschwindigkeit, wobei die Bewegungsrichtung und die Bewegungsgeschwindigkeit mit einem geeigneten Vektor dargestellt werden können, der mit einer Richtung und einer Größe, die der Geschwindigkeit entspricht, assoziiert ist.
  • Die Leuchte 10 kann die Information, die von dem ersten Sensor S1 empfangen wird, auch analysieren, um ein oder mehrere physikalische Charakteristiken im Zusammenhang mit dem Belegenden bzw. der Person zu identifizieren, beispielsweise die Form, die Größe, Farben, Muster und dergleichen. Diese Charakteristiken sind nützlich zur erneuten Identifikation einer Person, wenn eine Nachverfolgung innerhalb des Sichtfelds der Leuchte verloren geht, zur Erkennung, dass die Person eine einzelne Person ist, wenn die Person in einem Gebiet ist, bei dem die Sichtfelder von angrenzenden Leuchten 10 überlappen, und für die Übergabe der Nachverfolgung einer Person von einer Leuchte 10 an eine andere, wenn sich die Person von einem Sichtfeld einer Leuchte an ein anderes bewegt.
  • Die Nachverfolgungsfunktion kann verschiedene Nachverfolgungsverfahren anwenden, einschließlich einer Kalman-Filterung, die eine einfache und effektive Technik zum andauernden Nachverfolgen von Objekten bereitstellt. Weitere Informationen über eine Kalman-Filterung wird in den folgenden Dokumenten nachgewiesen:
    • R. Kalman, „A New Approach to Linear Filtering and Prediction Problems," Trans. of the ASME - Journal of Basic Engineering, 82 (Series D): 35-45 (1960), and
    • J. Berclaz et al., „Robust People Tracking with Global Trajectory Optimization," IEEE Computer Society Conf. on Computer Vision and Pattern Recog., 744-750 (2006),
    wobei die Offenbarungen von diesen hier durch Bezugnahme in ihrer Gesamtheit Teil der vorliegenden Anmeldung ist.
  • Wenn eine Bewegung erfasst wird und das erfasste Objekt eine vorher verfolgte Person ist (Schritt 204), dann kann die Leuchte 10 die Schritte zum Klassifizieren des Objekts (Schritt 206 und 208) überspringen, da das Objekt bereits als eine Person bzw. ein Belegender bekannt ist, und kann direkt zu einer Nachverfolgung der Person voranschreiten (Schritt 210). Wie voranstehend angegeben kann diese Situation auftreten, wenn eine Person das Sichtfeld für die Leuchte 10 nicht verlassen hat, aber eine Nachverfolgung wegen irgendwelcher Gründe verloren geht. Wenn sich die Person innerhalb des Sichtfelds bewegt, wird die Leuchte 10 eine Bewegung im Zusammenhang mit der sich bewegenden Person erfassen (Schritt 202), die von dem Sensor S1 bereitgestellt Information analysieren, und erkennen, auf Grundlage der Analyse der Information, die von dem Sensor S1 bereitgestellt wird, dass das Objekt eine früher verfolgte Person ist (Schritt 204).
  • Wenn eine Person nachverfolgt wird, kann die Leuchte 10 konfiguriert sein, um zu erfassen, wann eine Nachverfolgung für die Person verloren geht (Schritt 212), und um außerdem zu erfassen oder vorherzusagen, dass die Person das Sichtfeld (Schritt 214) für die Leuchte 10 verlässt. Unter der Annahme, dass eine Nachverfolgung für die Person nicht verloren geht (Schritt 212), und zwar dadurch, dass die Person das Sichtfeld der Leuchte 10 nicht verlassen hat oder gerade nicht verlässt, wird eine Nachverfolgung fortdauern (Schritt 210). Wenn eine Nachverfolgung der Person verloren geht (Schritt 212), dann kann die Leuchte 10 konfiguriert sein, um Information von dem zweiten Sensor S2, der in dieser Ausführungsform ein PIR-gestützter Belegungssensor ist, zu prüfen und zu bestimmen, ob von dem Sensor S2 gerade eine Belegung erfasst wird oder nicht (Schritt 216). Wenn die Information von dem zweiten Sensor S2 anzeigt, dass gerade noch eine Belegung erfasst wird (Schritt 218), dann wird die Leuchte 10 weiter versuchen die Person bzw. den Belegenden nachzuverfolgen (Schritt 210).
  • Wenn die Information von dem zweiten Sensor S2 anzeigt, dass eine Belegung nicht erfasst wird (Schritt 218), dann wird die Leuchte 10 mit angrenzenden Leuchten 10, die benachbarte Sichtfelder zu demjenigen, das von der Leuchte 10 bereitgestellt wird, b bereitstellen, kommunizieren (Schritt 220). Die Interaktion zwischen benachbarten Leuchten kann unterschiedliche Formen annehmen. Zum Beispiel kann die Leuchte 10 ihre Nachbarn fragen, ob irgendwelche Personen jüngst in deren Sichtfeldern von dem Sichtfeld der Leuchte 10 erschienen sind. Die Leuchte 10 kann ihre Nachbarn auch mit jüngster Information über ein oder mehrere des jüngsten Orts, der Richtung, der Geschwindigkeit und physikalischen Eigenschaften der verlorenen Personen (dem verlorenen belegenden) versehen, und die Nachbarn werden die von der Leuchte 10 bereitgestellte Information mit irgendwelchen Personen, die gegenwärtig von den Nachbarn verfolgt werden, vergleichen.
  • Wenn eine Bestimmung durchgeführt wird, dass die verlorene Person nicht in dem Sichtfeld des Nachbars ist (Schritt 222), wird die Leuchte 10 auf die Überwachung nach einer Bewegung zurückkehren (Schritt 200). An diesem Punkt ist die Leuchte 10 in der Lage die verlorene Person zu erkennen, wenn die Person nochmals in dem Sichtfeld der Leuchte erfasst wird. Es sei darauf hingewiesen, dass die Leuchte 10 immer das Sichtfeld nach neuen Objekten überwacht, die Personen sein könnten, wenn sich der Prozess wiederholt.
  • Wenn eine Bestimmung durchgeführt wird, das die verlorene Person in dem Sichtfeld des Nachbarn ist (Schritt 222), wird die Leuchte 10 irgendeine Übergabeinformation bereitstellen, die für eine Übergabe einer Nachverfolgung der verlorenen Person an den Nachbarn, der die Person in seinem Sichtfeld aufgenommen hat (Schritt 224) erforderlich ist, und wird dann eine Übergabe der Person an den Nachbarn ermöglichen (Schritt 226). Die Übergabeinformation kann eine Kombination des Orts, der Richtung, der Geschwindigkeit und von physikalischen Charakteristiken der verlorenen Personen umfassen. Diese Liste ist nicht erschöpfend und Durchschnittsfachleute in dem technischen Gebiet werden andere wichtige Information erkennen, die in verschiedenen Ausführungsformen nützlich sein kann. Eine Kalman-Filterung oder dergleichen kann verwendet werden, um Übergaben (Handoff) zu ermöglichen.
  • Bezugnehmend auf den Schritt 214 ist ein anderer Auslöser für eine Übergabe der Nachverfolgung einer Person an den Nachbarn, wenn die Leuchte 10 aktiv die Person verfolgt (Schritt 210) und vorhersagt oder bestimmt, dass die Person gerade das Sichtfeld der Leuchte verlässt (Schritt 214). Wenn die Leuchte 10 den Nachbarn identifizieren kann, in dessen Richtung sich die Person gerade bewegt, dann wird die Leuchte 10 die Übergabeinformation für die Person (Schritt 224) erstellen und mit dem Nachbarn kommunizieren, um die Übergabeinformation zu teilen und die Übergabe zu ermöglichen (Schritt 226). Wenn die Leuchte 10 den Nachbarn, in dessen Richtung sich die Person gerade bewegt, nicht identifizieren kann, wird die Leuchte 10 die Übergabeinformation für die Person erstellen und mit anderen Leuchten 10 in dem Beleuchtungsnetz N1 kommunizieren, um nach einer Person, die in deren Sichtfeldern eintritt, zu suchen. Ein Nachbar, der die Person empfängt, kann einen Empfang der Person bestätigen und seinen Belegungs-Zählwert erhöhen, um die neue Person in seinem Sichtfeld zu berücksichtigen.
  • Die Leuchte 10 wird ihren Belegung-Zählwert verkleinern, um zu berücksichtigen, dass sie eine Person hat, die ihr Sichtfeld verlässt.
  • Der Schritt 228 zeigt an, dass eine Übergabe eines belegenden (einer Person) von einem Nachbar in den Prozess an der Nachverfolgungsphase eintreten kann (Schritt 210); jedoch können andere Ausführungsformen eine Person einbringen, die von einem Nachbarn an einem anderen Punkt in dem Prozess übergeben wird.
  • 10A bis 10F illustrieren Bilder eines einzelnen Sichtfelds (FOV), abgeleitet von einem Sensor S1 zu sechs Zeitpunkten (t1-t6). In diesem Beispiel sind zwei Belegende, die Person P1 und die Person P2, sowie ein Nicht-Belegendes-Objekt N, zu einem Zeitpunkt oder einem anderen in dem Sichtfeld (FOV) vorhanden. In dem gesamten Ablauf tritt die Person P1 in das Sichtfeld von links ein, geht von links nach rechts durch das Sichtfeld, und verlässt das Sichtfeld rechts. Unter Verwendung von Information, die von dem Sensor S1 gesammelt wird, verwendet die Leuchte 10 einen ersten Prozess zum Erfassen und zum Bestimmen, dass die Person T1 ein Belegender für Belegungszwecke ist, und um außerdem die Person P1 nachzuverfolgen, wenn sie in das Sichtfeld eintritt, durch dieses geht und dieses verlässt.
  • Unter Verwendung der gleichen Information, die von dem Sensor S1 gesammelt wird, verwendet die Leuchte 10 einen zweiten Prozess, um die Bewegung des Nicht-Belegenden-Objekts zu erfassen, sobald das Nicht-Belegender-Objekt beginnt sich zur Zeit t3 zu bewegen (10C). Auf Grundlage der gesammelten Informationen wird die Leuchte 10 in der Lage sein, zu bestimmen, dass das Nicht-Belegender-Objekt N nicht ein Belegender für Belegungszwecke ist. Unter Verwendung der Information, die von dem Sensor S1 gesammelt wird, verwendet die Leuchte 10 einen dritten Prozess zum Erfassen und zum Bestimmen, dass die Person P2 ein Belegender für Belegungszwecke ist, und außerdem zum Nachverfolgen der Person P2, wenn sie in das Sichtfeld eintritt und durch dieses diagonal geht.
  • Die Leuchte 10 wird ihren Belegungs-Zählwert entsprechend aktualisieren, wenn die Personen P1 und P2 das Sichtfeld (FOV) betreten und verlassen. Die Anwesenheit oder Bewegung des Nicht-Belegender-Objekts N wird den Belegungs-Zählwert nicht beeinflussen. Die Leuchte 10 wird die Belegungs-Information periodisch oder wenn sie sich ändert an eine entfernte Einheit, wie beispielsweise einen System-Controller 34, einen Steuerknoten 36, einen Verarbeitungsknoten 38 oder dergleichen berichten, die eine geeignete Aktion auf Grundlage der Belegungs-Information oder einer Änderung in der Belegungs-Information vornehmen werden.
  • Wenn überlappende Sichtfelder vorhanden sind, die von den verschiedenen Leuchten 10 bereitgestellt werden, können Logikbäume entwickelt werden, um eine Bewegung von Personen d. h. Belegenden durch die Grenzen (den Umfang) der verschiedenen Sichtfelder zu erkennen und darauf zu reagieren, wobei benachbarte Leuchten 10 auf Grundlage von ihrer Position relativ zu der berichtenden Leuchte 10 über eine unmittelbare Personenankunft benachrichtigt werden. In einer Ausführungsform wird eine Übergabelogik entwickelt, um effektiv den Fall zu behandeln, bei dem eine Person in einem überlappenden Abschnitt von zwei Sichtfeldern befindlich ist, indem eine probabilistische Gewichtung eingebaut wird, um zu definieren, welche Leuchte 10 die Person bzw. den Belegenden „besitzt“ und diese somit berücksichtigen sollte.
  • Wenn eine Gesamtbelegung für einen bestimmten Raum bestimmt wird, ist eine Identifikation der Leuchten 10, die innerhalb des Raums sind, sowie des relativen Orts der Leuchten 10 in dem Raum sehr nützlich zur Aufrechterhaltung von genauen Belegung-Berücksichtigung für den Raum. 11A zeigt eine Büroumgebung, die einen Konferenzraum, 2 Büros und einen Arbeitsplatz (Zelleneinheit) mit vier Arbeitsplätzen aufweist. Jedes gestrichelte Rechteck stellt das Sichtfeld einer Überkopf-Leuchte 10 dar. Wie dargestellt können viele der Sichtfelder der Leuchten miteinander überlappen, so wie diejenigen, die voranstehend in Verbindung mit 7B diskutiert wurden.
  • Wie grafisch in 11A dargestellt sind die Räume, in denen sich die Leuchten 10 befinden, sowie die Beziehungen oder relativen Orte der Leuchten 10 innerhalb der Büroumgebung deutlich dargestellt. Wenn jedoch die Leuchten 10 installiert sind, sind weder die Leuchten 10, noch irgendwelche entfernten Einheiten, die Information von diesen steuern oder empfangen können, in der Lage eine Orts- oder Beziehungsinformation ohne eine automatisierte oder manuelle Abbildung irgendeiner Art zu unterscheiden. 11B stellt grafisch die Tatsache dar, dass dann, wenn sie anfänglich installiert werden, die Leuchten 10 grundlegend zufällig angeordnet und orientiert sind. Während eines Inbetriebnahmeprozesses kann ein Benutzer eine entfernte Einheit, wie beispielsweise einen Steuerknoten 36, verwenden, um auf die Sichtfelder für die verschiedenen Leuchten 10 zuzugreifen und diese entsprechend ihrer Orientierung und ihrem Ort überall in der Büroumgebung abzubilden. Der Benutzer kann auch die Leuchten zu Belegungsgruppen zuordnen, und zwar auf Grundlage des bestimmten Raums, in dem sich die Leuchten 10 befinden. Zum Beispiel wird die Konferenzraum-Belegungsgruppe sechs Leuchten 10 aufweisen, die Belegungsgruppe für jedes der Büros wird zwei Leuchten 10 umfassen, und die Belegungsgruppe für das Zellenbüro (den Arbeitsplatz) wird sechs Leuchten 10 umfassen.
  • In Abhängigkeit von den Fähigkeiten des Systems kann der Benutzer in der Lage sein Leuchten 10 genau abzubilden und zu orientieren, so dass jede Leuchte 10 versehen werden kann mit ausreichend Information zur Identifikation der anderen Leuchten 10, die innerhalb der bestimmten Belegungsgruppe für die Leuchte 10 sind, derjenigen benachbarten Leuchten 10, die unmittelbar angrenzend zu der Leuchte 10 sind, der Rolle der Position der benachbarten Leuchten 10 relativ zu der Leuchte 10 und dergleichen. An sich kann jede Leuchte 10 mit Information versehen werden, die die Belegungsgruppe, in der sie sich befindet, die benachbarten Leuchten 10, die unmittelbar angrenzend zu anderen Leuchten 10 sind, und einen relativen Orte der benachbarten Leuchten 10 identifiziert. Diese Information ist besonders nützlich für die Nachverfolgungs- und Übergabefunktionen, die voranstehend beschrieben wurden.
  • Der Abbildungsprozess kann zu einem gewissen Ausmaß automatisiert werden. In einer höchst automatisierten Ausführungsform wird der Verarbeitungsknoten 38 oder dergleichen Bildinformation von den verschiedenen Leuchten 10 sammeln, den Inhalt und/oder die Charakteristiken der Bildinformation analysieren, und eine Karte der Leuchten 10, wie voranstehend beschrieben und grafisch in 11A dargestellt, erzeugen. Während eines derartigen Prozesses kann die Bildanalyse Objekte, Muster, Farben, Lichtintensitäten, Beleuchtungsgradienten und dergleichen identifizieren, um die Sichtfelder in eine geschlossene Karte zusammen zu stückeln. In diesem besonderen Beispiel sind Abschnitte des Umfangs der Sichtfelder, von denen es wahrscheinlich ist, dass sie nützliche Ausrichtungsmerkmale umfassen, wie beispielsweise Wände, geteilte Objekte und dergleichen, in Fettdruck hervorgehoben. Diese Abschnitte des Umfangs der Sichtfelder umfassen Wände, Objekte, die Sichtfelder überspannen, und dergleichen.
  • Der Abbildungsprozess kann durch andere Ortsbestimmungstechniken ergänzt oder ersetzt werden. Zum Beispiel kann eine Lichtmesstechnik angewendet werden, bei der die verschiedenen Leuchten 10 abwechselnd eine gepulste Lichtausgabe bereitstellen, während die anderen leuchten 10 geeignete Sensoren verwenden, um nach dem gepulsten Licht zu suchen. Diejenigen Leuchten 10, die in der Lage sind, gepulste Lichtausgaben voneinander zu erfassen, werden einer bestimmten Gruppe zugeordnet. Für zusätzliche Information bezüglich einer Lichtvermessung und einer Gruppierung von Leuchten wird auf die U. S. Patente mit den Nrn. 8,975,827 und 9,706,617 verwiesen, die hier durch Bezugnahme in ihrer Gesamtheit Teil der vorliegenden Anmeldung sind. Die Leuchten 10 können auch Triangulations- oder Abstandsbestimmungstechniken unter Verwendung von Funkfrequenz-, akustischen, Licht-, oder ähnlichen Signalen verwenden, um den Abbildungsprozess bereitzustellen oder zu unterstützen. Es wird Bezug genommen auf die United States Patentanmeldungen mit den Seriennummern 14/928,592 , eingereicht am 30. Oktober 2015, 15/192,035 , eingereicht am 24. Juni 2016, 15/191,753 , eingereicht am 24. Juni 2016; und 15/334,853 , eingereicht am 26. Oktober 2016, wobei diese verschiedene Gruppierungs- und Abbildungstechniken offenbaren und hier durch Bezugnahme in ihrer Gesamtheit Teil der vorliegenden Anmeldung sind.
  • 12 stellt eine beispielhafte schematische Darstellung des Treibermoduls 28, des LED-Felds 22 und des ILM 20 bereit. In der dargestellten Ausführungsform kann das LED-Feld 22 ein Gemisch von LEDs mit unterschiedlichen Farben umfassen. Während Durchschnittsfachleute in dem technischen Gebiet verschiedener Farbkombinationen erkennen werden, verwendet das folgende Beispiel rote LEDs 40, die rötliches Licht bei einer ersten Wellenlänge aussenden, blau-verschobene gelbe (BSY) LEDs 42, die ein gelbliches/grünliches Licht bei einer zweiten Wellenlänge aussenden, und BSY LEDs 44, die ein gelbliches/grünliches Licht bei einer dritten Wellenlänge, die sich von der zweiten Wellenlänge unterscheidet, aussenden. Das LED-Feld 22 kann in mehrere Ketten von in Reihe geschalteten LEDs aufgeteilt sein. Grundlegend bildet eine LED-Kette LS1, die eine Anzahl von roten LEDs 40 umfasst, eine erste Gruppe von LEDs. Die LED-Kette LS2, die BSY LEDs 42 umfasst, bildet eine zweite Gruppe von LEDs. Die LED Kette LS3, die BSY LEDs 44 umfasst, bildet eine dritte Gruppe von LEDs.
  • Allgemein steuert das Treibermodul 28 die Ansteuerströme i1, i2 und i3, die verwendet werden, um die jeweiligen LED Ketten LS1, LS2 und LS3 anzusteuern. Das Verhältnis der Ansteuerströme i1, i2 und i3, die durch ihre jeweilige LED Ketten LS1, LS2 und LS3 bereitgestellt werden, können eingestellt werden, um effektiv die relativen Intensitäten des rötlichen Lichts, das von den roten LEDs 40 der LED Kette S1 ausgesendet wird, des gelblichen/grünlichen Lichts, das von den BSY LEDs 42 der LED-Kette LS2 ausgesendet wird, und des gelblichen/grünlichen Lichts, das von den BSY LEDs 44 der LED Kette LS3 ausgesendet wird, effektiv zu steuern. Das sich ergebende Licht von jeder LED-Kette LS1, LS2 und LS3 mischt sich, um eine gesamte Lichtausgabe zu erzeugen, die eine gewünschte Farbe, eine korrelierte Farbtemperatur (CCT) und eine Intensität aufweist, wobei die letztere auch als ein Abdunkelungspegel bezeichnet werden kann. Wie angegeben kann die gesamte Lichtausgabe weißes Licht sein, das auf oder innerhalb einer gewünschten Nähe der Schwarzkörper-Ortskurve (BBL) fällt und eine gewünschte CCT aufweist.
  • Die Anzahl von LED-Ketten LSx kann in einem Bereich von eine bis mehreren liegen, und unterschiedliche Kombinationen von LED Farben können in den unterschiedlichen Ketten verwendet werden. Jede LED Kette LSx kann LEDs mit der gleichen Farbe, Veränderungen der gleichen Farbe oder von im Wesentlichen unterschiedlichen Farben aufweisen. In der dargestellten Ausführungsform ist jede LED-Kette LS1, LS2 und LS3 derart konfiguriert, dass sämtliche LEDs 40, 42, 44, die in der Kette sind, im Wesentlichen alle identisch in der Farbe sind. Jedoch können sich die LEDs 40, 42, 44 in jeder Kette wesentlich in der Farbe unterscheiden oder können vollständig unterschiedliche Farben in bestimmten Ausführungsformen sein. In einer anderen Ausführungsform können drei LED Ketten LSx mit roten, grünen und blauen LEDs verwendet werden, wobei jede LED Kette LSx speziell einer einzelnen Farbe zugeordnet ist. In noch einer anderen Ausführungsform können wenigstens zwei LED Ketten LSx verwendet werden, wobei die gleichen oder unterschiedlich gefärbten BSY oder blau-verschobenen grünen (BSG) LEDs in einer der LED Ketten LSx verwendet werden und rote LEDs in der anderen der LED Ketten LSx verwendet werden. Eine Ausführungsform mit einer einzelnen Kette wird auch in Erwägung gezogen, wobei Ströme individuell für die einzelnen LEDs der unterschiedlichen Farben unter Verwendung von Bypass-Schaltungen oder dergleichen eingestellt werden können.
  • Das Treibermodul 28, das in 12 dargestellt ist, umfasst eine AC-DC Umwandlungsschaltung 46, eine Steuerschaltung 48, eine ILM Kommunikationsschnittstelle (I/F) 50, einen Treiberverbinder 52 und eine Anzahl von Stromquellen, wie beispielsweise die dargestellten DC-DC Wandler 54. Die AC-DC Umwandlungsschaltung 46 ist konfiguriert, um ein AC-Energiesignal (AC IN) zu empfangen, dass AC-Energiesignal gleichzurichten, den Leistungsfaktor des AC-Energiesignals zu korrigieren, und ein DC-Energiesignal (PWA) bereitzustellen. Das DC-Energiesignal kann verwendet werden, um die Steuerschaltung 48 und irgendwelche anderen Schaltungen, die in dem Treibermodul 28 vorgesehen sind, einschließlich der DC-DC Wandler 54 und der ILM Kommunikationsschnittstelle (I/F) 50, mit Energie zu versorgen. Das DC-Energiesignal kann auch an dem Treiberverbinder 52 bereitgestellt werden, um das ILM 20 mit Energie zu versorgen. Eine Verkabelung 30 kann sich von dem Treibermodul 52 zu einem ILM Verbinder 56 erstrecken, der an dem oder in dem zentralen Anbringungselement 18 (1 bis 4) oder einem anderen Abschnitt der Leuchte 10 angebracht sein kann. In einer Ausführungsform ist der ILM Verbinder 56 konfiguriert, um lösbar das ILM 20 zu halten. Wenn die Verkabelung 30 verbunden ist und das ILM 20 mit dem ILM Verbinder 56 in Eingriff steht, dann kann das ILM 20 das DC-Energiesignal empfangen und außerdem mit der Steuerschaltung 48 des Treibermoduls 28 über die ILM Kommunikationsschnittstelle 50 unter Verwendung von proprietären oder standardmäßigen Kommunikationsprotokollen kommunizieren.
  • Um die Lichtausgabe des LED-Felds 22 zu steuern, wird das ILM 20 einen gewünschten Lichtausgabepegel auf Grundlage von einem oder mehreren der voranstehend beschriebenen Faktoren bestimmen und einen Befehl an das Treibermodul 28 senden. Das Treibermodul 28 wird den Befehl empfangen, den gewünschten Lichtausgabepegel von dem Befehl bestimmen, und das LED-Feld 22 in einer Weise ansteuern, um den Lichtausgabepegel bereitzustellen. Das Treibermodul 28 kann einen Empfang des Befehls bestätigen und/oder eine ausreichende Rückkopplung an dem ILM 20 bereitstellen, dass das LED-Feld 22 in Übereinstimmung mit dem Befehl angesteuert wird. Von einem Aus-Zustand kann das ILM 20 das Treibermodul 28 anweisen, das LED-Feld 22 einzuschalten und anzusteuern, um einen bestimmten Lichtausgabepegel im Ansprechen auf eine Bestimmung, dass die Leuchte 10 eingeschaltet werden sollte, bereitzustellen. Von einem Ein-Zustand kann das ILM 20 das Treibermodul 28 anweisen, eine Ansteuerung des LED-Felds 22 im Ansprechen auf eine Bestimmung, dass die Leuchte 10 abgeschaltet werden sollte, zu stoppen.
  • Im Ansprechen auf einen Befehl durch das ILM 20 zum Ausgeben von Licht bei einem bestimmten Lichtausgabepegel, stellen die drei jeweiligen DC-DC Wandler 54 des Treibermoduls 28 Ansteuerströme i1, i2 und i3 für die drei LED Ketten LS1, LS2 und LS3 im Ansprechen auf Steuersignale CS1, CS2 und CS3 bereit. Die Steuersignale CS1, CS2 und CS3 können Impulsbreiten-modulierte (PWM) Signale sein, die effektiv die jeweiligen DC-DC Wandler 54 während eines logischen Hoch-Zustands einschalten und während eines logischen Niedrig-Zustands von jeder Periode des PWM Signals ausschalten. Infolgedessen können die Ansteuerströme i1, i2 und i3 für die drei LED Ketten LS1, LS2 und LS3 auch PWM Signale sein. Die Intensität von Licht, das von jeder der drei LED Ketten LS1, LS2 und LS3 ausgesendet wird, wird sich auf Grundlage des Tastverhältnisses der jeweiligen PWM Signale unterscheiden. Die Steuerschaltung 48 wird das Tastverhältnis der Ansteuerströme i1, i2 und i3, die an jeder der LED Ketten LS1, LS2 und LS3 bereitgestellt werden, einstellen, um effektiv die Intensität des sich ergebenden Lichts, das von den LED Ketten LS1, LS2 und LS3 ausgesendet wird, einstellen, während die gewünschte CCT aufrechterhalten wird, und zwar auf Grundlage von Befehlen von dem ILM 20.
  • In einer alternativen Ausführungsform können die Ansteuerströme i1, i2 und i3 für die drei LED Ketten LS1, LS2 und LS3 variable DC-Ströme anstelle von PWM Signalen sein. Unter bestimmten Umständen kann eine Abdunkelungseinrichtung, wie beispielsweise ein Wand-Controller, das AC-Energiesignal steuern und ein getrenntes 0-10 V DC Signal oder dergleichen an dem Treibermodul 28 bereitstellen. Die AC-DC Umwandlungsschaltung 46 oder andere elektronische Schaltungen können konfiguriert sein, um den relativen Betrag einer Abdunklung im Zusammenhang mit dem AC-Energiesignal oder dem 0-10 V DC Signal zu erfassen und ein entsprechendes Abdunkelungssignal (Dimming Signal) an der Steuerschaltung 48 des Treibermoduls 28 bereitzustellen. Die Steuerschaltung 48 kann Information auf Grundlage des Abdunkelungssignals an das ILM 20 über die ILM Kommunikationsschnittstelle 50 weitergeben. Das ILM 20 kann die Abdunkelungsinformation berücksichtigen, wenn Befehle an dem Treibermodul 28 bereitgestellt werden.
  • Die Steuerschaltung 48 kann eine Zentralverarbeitungseinheit (CPU) 58 und ausreichend Speicher 60 umfassen, um die Steuerschaltung 48 in die Lage zu versetzen, mit dem ILM 20 über die ILM Kommunikationsschnittstelle 50 unter Verwendung eines definierten Protokolls, wie beispielsweise der digitalen adressierbaren Beleuchtungsschnittstelle (Digital Addressable Lighting Interface; DALI) oder DALI2 bidirektional zu kommunizieren. Die Steuerschaltung 48 kann Daten oder Befehle von dem ILM 20 empfangen und eine geeignete Aktion vornehmen, um die Daten zu verarbeiten und die empfangenen Befehle zu implementieren. Die Befehle können in einem Bereich von Möglichkeiten sein, die eine Steuerung, wie das LED-Feld 22 angesteuert wird, bis zu einer Rückgabe von Betriebsdaten des Treibermoduls 28 an das ILM 20 beinhalten.
  • Es sei darauf hingewiesen, dass dann, wenn der Begriff „Steuersystem“ in den Ansprüchen oder generisch in der Beschreibung verwendet wird, der Begriff breit verstanden werden sollte, um die Hardware oder irgendwelche zusätzliche Software oder Firmware zu umfassen, die benötigt wird, um die angegebene Funktionalität bereitzustellen. Der Begriff „Steuersystem“ soll nicht lediglich als nur Software verstanden werden, da elektronische Schaltungen benötigt werden, um Steuersysteme zu implementieren, die hier beschrieben werden. Zum Beispiel kann ein Steuersystem die Steuerschaltung 48, die DC-DC Wandler 54, die AC-DC Umwandlungsschaltung 46 und dergleichen umfassen, muss dies aber nicht notwendigerweise tun.
  • Unter Bezugnahme auf 13 wird ein Blockschaltbild einer Ausführungsform des ILM 20 dargestellt. Das ILM 20 umfasst eine Steuerschaltung 62 mit einer zugehörigen CPU 64 und einem Speicher 66, der die benötigten Softwarebefehle und Daten enthält, um einen Betrieb wie voranstehend beschrieben zu ermöglichen. Die Steuerschaltung 62 kann mit einer Treiberkommunikationsschnittstelle 68 assoziiert sein, die mit dem Treibermodul 28 gekoppelt werden soll, entweder direkt oder indirekt über den ILM Verbinder 56. Die Steuerschaltung 62 kann mit einer drahtgebundenen Kommunikationsschnittstelle 72, einer drahtlosen Kommunikationsstelle 74 oder beiden assoziiert sein, um drahtgebundene oder drahtlose Kommunikationen mit anderen Leuchten 10 und/oder entfernten Einheiten, wie beispielsweise Wand-Controllern, mobilen Terminals, Personalcomputern und dergleichen, zu ermöglichen. Die drahtlose Kommunikationsschnittstelle 74 kann die benötigte Transceiver-Elektronik umfassen, um drahtlose Kommunikationen mit entfernten Einheiten unter Verwendung von irgendeiner Anzahl von drahtlosen Kommunikationsprotokollen zu ermöglichen. Die drahtgebundene Kommunikationsschnittstelle 72 kann einen universellen seriellen Bus (USB), Ethernet, oder ähnliche Schnittstellen unter Verwendung irgendeiner Anzahl von drahtgebundenen Kommunikationsprotokollen unterstützen.
  • In einer Ausführungsform kann das ILM 20 Energie in der Form eines DC Signals von dem Treibermodul 28 über den ILM Verbinder 56 empfangen und Kommunikationen mit dem Treibermodul 28 über die Treiberkommunikationsschnittstelle 68 und den ILM Verbinder 56 zu ermöglichen. Kommunikationen mit anderen Leuchten 10 und/oder entfernten Einheiten, wie beispielsweise Wand-Controllern, mobilen Terminals, Personalcomputern und dergleichen, werden über die drahtgebundenen oder drahtlosen Kommunikationsschnittstellen 72, 74 ermöglicht.
  • In einer alternativen Ausführungsform wird das ILM 20 Energie in der Form eines DC-Energiesignal über die drahtgebundene Kommunikationsschnittstelle 72 empfangen, die als eine Energie-über-Ethernet (Power Over Ethernet; PoE) Schnittstelle konfiguriert sein kann. Das DC-Energiesignal, das über die drahtgebundene Kommunikationsschnittstelle 72 empfangen wird, wird verwendet, um die Elektronik des ILM 20 mit Energie zu versorgen, und wird an das Treibermodul 28 über den ILM Verbinder 56 gegeben. Das Treibermodul 28 wird das DC-Energiesignal verwenden, um die Elektronik des Treibermoduls 28 mit Energie zu versorgen und das LED-Feld 22 anzusteuern. Eine Kommunikation bzw. Kommunikationen mit anderen Leuchten 10 und/oder entfernten Einheiten, wie beispielsweise Wand-Controllern, mobilen Kameras, Personalcomputern und dergleichen, werden über die drahtgebundene Kommunikationsschnittstelle 72 durchgeführt. Das ILM 20 wird Kommunikationen mit dem Treibermodul 28 über die Treiberkommunikationsschnittstelle 68 und den ILM Verbinder 56 ermöglichen.
  • Wie angegeben umfasst das ILM 20 mehrere integrierte Sensoren S1-SN, die direkt oder indirekt mit der Steuerschaltung 62 gekoppelt sind. Die Sensoren S1-SN können ein oder mehrere Sensoren umfassen, beispielsweise Belegungssensoren, Umgebungslichtsensoren, akustische Sensoren, Temperatursensoren, Feuchtigkeitssensoren, Drucksensoren, Vibrationssensoren, Kohlenmonoxidsensoren, Kohlendioxidsensoren, Luftqualitätssensoren, Rauchsensoren, Energiesensoren oder andere Sensoren. Die Sensoren S1-SN stellen Sensordaten an der Steuerschaltung 62 bereit. Auf Grundlage einer internen Logik wird das ILM 20 Grundlage der Sensordaten und irgendwelcher anderer Daten oder Befehle, die von entfernten Einheiten empfangen werden, wie beispielsweise anderen Leuchten 10, Wand-Controllern, mobilen Kameras, Personalcomputern und dergleichen, bestimmen, wie das Treibermodul 28 das LED-Feld 22 ansteuern sollte. Auf Grundlage davon, wie das Treibermodul 28 das LED-Feld 22 anzusteuern sollte, wird das ILM 20 geeignete Befehle erzeugen und an dem Treibermodul 28 über die Treiberkommunikationsschnittstelle 68 und den ILM Verbinder 56 senden. Das Treibermodul 28 wird das LED-Feld 22 auf Grundlage der von dem ILM 20 empfangenen Befehle ansteuern. Diese Befehle können dazu führen, dass das Treibermodul 28 das LED-Feld 22 abschaltet, das LED-Feld 22 auf einen bestimmten Lichtausgabepegel einschaltet, den von dem LED-Feld 22 bereitgestellten Lichtausgabepegel ändert, die Farbe oder die CCT der Lichtausgabe ändert, und dergleichen
  • Zusätzlich zu einer Steuerung des Treibermoduls 28, um die Lichtausgabe des LED-Felds 22 zu steuern, spielt das ILM 20 eine gewichtige Rolle bei der Koordination der Intelligenz und der Teilung von Daten unter den Leuchten 10 und mit anderen entfernten Einheiten, wie beispielsweise den System-Controllern 34, dem Steuerknoten 36 und den Verarbeitungsknoten 38. Zusätzlich zu einem Empfang von Daten und Befehlen von anderen Leuchten 10 und entfernten Steuereinheiten und der Verwendung von derartiger Information, um das Treibermodul 28 zu steuern, kann das ILM 20 auch Befehle an anderen Leuchten 10 und entfernten Steuereinheiten auf Grundlage der Sensordaten von seinen integrierten Sensoren S1-SN, sowie der Sensordaten und Befehle, die von den anderen Leuchten 10 und entfernten Steuereinheiten empfangen werden, bereitstellen.
  • Das ILM 20 kann eine Benutzerschnittstelle 76 aufweisen, die Information bereitstellt, die sich auf den Zustand oder dem Betrieb des ILM 20 bezieht, die einem Benutzer ermöglicht, Information an dem ILM 20 manuell bereitzustellen, oder einer Kombination davon. An sich kann die Benutzerschnittstelle 76 einen Eingabemechanismus, einen Ausgabemechanismus oder beide umfassen. Der Eingabemechanismus kann ein oder mehrere von Knöpfen, Tasten, Tastaturen, Touchscreens, Mikrofonen oder dergleichen umfassen. Der Ausgabemechanismus kann ein oder mehrere LEDs, eine Anzeige oder dergleichen umfassen. Für die Zwecke dieser Anmeldung wird ein Knopf so definiert, dass er eine Drucktaste, einen gesamten Kippschalter oder einen Teil davon, eine Drehwählscheibe, einen Schiebeschalter oder irgendeinen anderen mechanischen Eingabemechanismus umfasst.
  • Ein beispielhaftes ILM 20 ist in 14 dargestellt. Das ILM 20 weist ein Gehäuse H auf, in dem oder auf dem Sensoren S1, S2 und S3 und die Elektronik, die voranstehend beschrieben wurde, untergebracht sind. In dieser besonderen, aber nicht beschränkenden, Ausführungsform, ist der Sensor S1 ein Bildsensor, der Sensor S2 ist ein PIR-gestützter Belegungssensor, und der Sensor S3 ist ein akustischer Sensor, der hinter drei Öffnungen angebracht ist, die in dem Gehäuse H vorgesehen sind. Zum Beispiel ist das Gehäuse H des ILM 20 konfiguriert, um lösbar in einen inkompatiblen Aufnehmer (nicht gezeigt) oder dergleichen, der von der Leuchte 10 bereitgestellt wird, in einer einrasten Weise einzugreifen, so dass die Sensoren S1-S3 der Beleuchtungsumgebung ausgesetzt sind, wenn das ILM 20 an der Leuchte 10 angebracht ist.
  • Unter Bezugnahme auf 15 ist eine Ausführungsform des ILM 20 dargestellt, bei der ein Bildsensor 80 unmittelbar innerhalb des Gehäuses H des ILM 20 angebracht ist. Eine Linse 82 oder eine Öffnung ist in Gehäuse H vorgesehen, so dass die vordere Oberfläche der Linse 82 mit der vorderen Oberfläche des Gehäuses H fluchtet. Ein Pixelfeld 84 des Bildsensors 80 ist zu der Linse 82 derart ausgerichtet, dass das Pixelfeld 84 einem Sichtfeld durch die Linse 82 ausgesetzt ist. Ein beispielhafter CMOS-gestützter Bildsensor 80 ist in 16 gezeigt. Während ein CMOS-gestützter Bildsensor 80 dargestellt ist, werden Durchschnittsfachleute in dem technischen Gebiet erkennen, dass andere Typen von Bildsensoren 80, wie beispielsweise CCD-gestützte Sensoren, verwendet werden können. CMOS-gestützte Bildsensoren 80 sind besonders nützlich in Beleuchtungsanwendungen, weil sie eine breite spektrale Empfindlichkeit aufweisen, die mit derjenigen des menschlichen Auges überlappt.
  • Der Bildsensor 80 umfasst allgemein das Pixelfeld 84, eine analoge Verarbeitungsschaltung 86, einen Analog-zu-digital-Wandler (ADC) 88, eine digitale Verarbeitungsschaltung 90, und eine Sensor Steuerschaltung 92. Im Betrieb wird das Pixelfeld 84 einen Befehl zur Aufnahme von Bildinformation von der Sensor Steuerschaltung 92 empfangen. Im Ansprechen darauf wird das Pixelfeld 84 das Licht, das an jedem Pixel erfasst wird, in ein analoges Signal transformieren und die analogen Signale für jedes Pixel des Pixelfelds 84 an die analoge Verarbeitungsschaltung 86 übergeben. Die analoge Verarbeitungsschaltung 86 wird die analogen Signale filtern und verstärken, um verstärkte Signale zu erzeugen, die von dem ADC 88 in digitale Signale umgewandelt werden. Die digitalen Signale werden von der digitalen Verarbeitungsschaltung 90 verarbeitet, um Bilddaten zu erzeugen. Die Bilddaten werden an die Steuerschaltung 62 des ILM 20 zur Analyse, Speicherung oder zur Weitergabe an andere Leuchtens 10 oder eine andere Einheit übergeben.
  • Die Sensorsteuerschaltung 92 wird das Pixelfeld 84 veranlassen, im Ansprechen auf einen Empfang eines Befehls über ein Sensorsteuersignal (SCS) von dem ILM 20 oder einer anderen entfernten Einheit ein Bild aufzunehmen. Die Sensorssteuerschaltung 92 steuert das Timing der Bildverarbeitung, die von der analogen Verarbeitungsschaltung 86, dem ADC 88, und der digitalen Verarbeitungsschaltung 90 bereitgestellt wird. Die Sensorsteuerschaltung 92 stellt auch die Verarbeitungsparameter des Bildsensors ein, wie beispielsweise die Verstärkung und die Art der Filterung, die von der analogen Verarbeitungsschaltung 86 vorgenommen wird, sowie den Typ einer Bildverarbeitung, die von der digitalen Verarbeitungsschaltung 90 vorgenommen wird. Diese Verarbeitungsparameter können durch Information vorgegeben werden, die von der Steuerschaltung 62 des ILM 20 bereitgestellt wird. Für zusätzliche Information bezüglich einer Bildaufnahme wird auf die U. S. Patentanmeldung mit der Seriennummer 14/623,314 , eingereicht am 16. Februar 2015, die hier durch Bezugnahme in ihrer Gesamtheit Teil der vorliegenden Anmeldung ist, verwiesen.
  • Durchschnittsfachleute in dem technischen Gebiet werden Verbesserungen und Modifikationen an dem bevorzugten Ausführungsformen der vorliegenden Offenbarung erkennen. Sämtliche derartigen Verbesserungen und Modifikationen fallen in den Umfang der Konzepte, die hier offenbart sind, und der Ansprüche, die folgen.

Claims (21)

  1. Leuchte (10), umfassend: eine Kommunikationsschnittstelle (20); eine Lichtquelle (22), die konfiguriert ist, um eine Lichtausgabe für eine allgemeine Beleuchtung bereitzustellen; einen Bildsensor (S1), der konfiguriert ist, um Bildinformation im Zusammenhang mit einem Sichtfeld (FOV) aufzunehmen; einen sekundären Sensor (S2); und eine Steuerschaltung (48), die der Lichtquelle (22), dem sekundären Sensor (S2) und dem Bildsensor (S1) zugeordnet ist und konfiguriert ist, um: an der Lichtquelle (22) zum Steuern der Lichtausgabe ein Ansteuersignal bereitzustellen; für jedes Objekt (P1, P2, N) in dem Sichtfeld (FOV): - auf Grundlage der Bildinformation zu bestimmen, ob ein Objekt (P1, P2, N) in dem Sichtfeld (FOV) ein Belegender (P1, P2) ist; und - wenn das Objekt (P1, P2, N) der Belegende (P1, P2) ist: - eine Bewegung des Belegenden (P1, P2) innerhalb des Sichtfelds (FOV) zu verfolgen; - zu bestimmen, ob der Belegende (P1, P2) von dem Sichtfeld (FOV) verloren wird; - wenn der Belegende (P1, P2) von dem Sichtfeld (FOV) verloren geht, den sekundären Sensor (S2) nach einer Anzeige über die Belegung zu prüfen; und - wenn die Anzeige über die Belegung vorhanden ist, eine Nachverfolgung der Bewegung des Belegenden (P1, P2) innerhalb des Sichtfelds (FOV) wieder aufzunehmen.
  2. Leuchte (10) nach Anspruch 1, wobei die Steuerschaltung (48) zusätzlich dazu ausgelegt ist, dann, wenn keine Anzeige über eine Belegung vorhanden ist, eine Kommunikation mit wenigstens einer benachbarten Leuchte über die Kommunikationsschnittstelle (20) vorgenommen wird, um zu bestimmen, ob der Belegende (P1, P2) in einem Sichtfeld (FOV) der wenigstens einen benachbarten Leuchte ist.
  3. Leuchte (10) nach Anspruch 2, wobei die Steuerschaltung (48) zusätzlich dazu ausgelegt ist, dann, wenn der Belegende (P1, P2) in dem Sichtfeld (FOV) der wenigstens einen benachbarten Leuchte ist, eine Kommunikation mit der wenigstens einen benachbarten Leuchte über die Kommunikationsschnittstelle (20) erfolgt, um eine Übergabe einer Nachverfolgung der Bewegung des Belegenden (P1, P2) an die wenigstens eine benachbarte Leuchte zu ermöglichen.
  4. Leuchte (10) nach Anspruch 3, wobei die Steuerschaltung (48) ferner konfiguriert ist, um eine Belegungs-Information, die sich auf den Belegenden (P1, P2) bezieht und von der Bildinformation abgeleitet wird, an der wenigstens einen benachbarten Leuchte über die Kommunikationsschnittstelle (20) in Verbindung mit der Übergabe bereitzustellen.
  5. Leuchte (10) nach Anspruch 1, wobei, während die Bewegung des Belegenden (P1, P2) verfolgt wird, die Steuerschaltung (48) weiter konfiguriert ist, um: vorherzusagen, ob der Belegende (P1, P2) das Sichtfeld (FOV) verlässt; und wenn vorhergesagt wird, dass der Belegende (P1, P2) das Sichtfeld (FOV) verlässt, mit wenigstens einer benachbarten Leuchte über die Kommunikationsschnittstelle (20) zu kommunizieren, um eine Übergabe einer Nachverfolgung der Bewegung des Belegenden (P1, P2) an die wenigstens eine benachbarte Leuchte zu ermöglichen.
  6. Leuchte (10) nach Anspruch 5, wobei, während die Bewegung des Belegenden (P1, P2) nachverfolgt wird, die Steuerschaltung (48) weiter konfiguriert ist, um, wenn der Belegende (P1, P2) das Sichtfeld (FOV) nicht verlässt, eine Nachverfolgung der Bewegung des Belegenden (P1, P2) innerhalb des Sichtfelds (FOV) wieder aufzunehmen.
  7. Leuchte (10) nach Anspruch 5, wobei zur Vorhersage, ob der Belegende (P1, P2) das Sichtfeld (FOV) verlässt, die Steuerschaltung (48) konfiguriert ist, um: wenigstens einen Ort des Belegenden (P1, P2) innerhalb des Sichtfelds (FOV) und/oder eine Bewegungsrichtung des Belegenden (P1, P2) und/oder eine Bewegungsgeschwindigkeit des Belegenden (P1, P2) zu bestimmen; und wenigstens den Ort des Belegenden (P1, P2) innerhalb des Sichtfelds (FOV) und/oder die Bewegungsrichtung des Belegenden (P1, P2) und/oder die Bewegungsgeschwindigkeit des Belegenden (P1, P2) zu verwenden, um vorherzusagen, ob der Belegende (P1, P2) das Sichtfeld (FOV) gerade verlässt.
  8. Leuchte (10) nach Anspruch 5, wobei die Steuerschaltung (48) weiter konfiguriert ist, um eine Belegungs-Information, die sich auf den Belegenden (P1, P2) bezieht und von der Bildinformation abgeleitet wird, an der wenigstens eine benachbarten Leuchte über die Kommunikationsschnittstelle (20) in Verbindung mit der Übergabe bereitzustellen.
  9. Leuchte (10) nach Anspruch 1, wobei die Steuerschaltung (48) konfiguriert ist, um die Bewegung einer Vielzahl von Belegenden (P1, P2) innerhalb des Sichtfelds (FOV) gleichzeitig nachzuverfolgen.
  10. Leuchte nach Anspruch 1, wobei die Steuerschaltung (48) weiter konfiguriert ist: eine Bewegung in dem Sichtfeld (FOV), verursacht durch das sich in dem Sichtfeld bewegende Objekt (P1, P2, N), zu erfassen; und, nach Erfassung der Bewegung in dem Sichtfeld (FOV) zu bestimmen, ob das Objekt (P1, P2) in dem Sichtfeld (FOV) der Belegende (P1, P2) ist.
  11. Leuchte (10) nach Anspruch 8, wobei die Steuerschaltung (48) weiter konfiguriert ist, um zu bestimmen, ob das Objekt (P1, P2, N), das sich in dem Sichtfeld (FOV) bewegt, ein vorher nachverfolgter Belegender (P1, P2) ist, und wenn das Objekt (P1, P2, N), das sich in dem Sichtfeld (FOV) bewegt, der vorher nachverfolgte Belegende (P1, P2) ist, eine Nachverfolgung des vorher nachverfolgten Belegenden (P1, P2) wieder aufzunehmen.
  12. Leuchte (10) nach Anspruch 8, wobei die Steuerschaltung (48) eine Bewegung in dem Sichtfeld (FOV) auf Grundlage der Bildinformation erfasst.
  13. Leuchte nach Anspruch 8, wobei der sekundäre Sensor (S2) nicht ein Bildsensor ist, und wobei die Steuerschaltung (48) eine Bewegung in dem Sichtfeld (FOV) auf Grundlage der Bildinformation und von Information, die von dem sekundären Sensor (S2) bereitgestellt wird, erfasst.
  14. Leuchte (10) nach Anspruch 1, wobei die Steuerschaltung (48) weiter konfiguriert ist, um: eine Bewegung in dem Sichtfeld (FOV), verursacht durch das sich in dem Sichtfeld (FOV) bewegende Objekt (P1, P2, N), zu erfassen; zu bestimmen, ob das sich in dem Sichtfeld (FOV) bewegende Objekt (P1, P2, N) ein vorher nachverfolgter Belegender (P1, P2) ist; wenn das sich in dem Sichtfeld (FOV) bewegende aufzunehmen. (P1, P2, N) der vorher nachverfolgte Belegende (P1, P2) ist, eine Nachverfolgung des vorher nachverfolgten Belegenden (P1, P2) wieder aufzunehmen, wobei eine Bestimmung, ob das Objekt (P1, P2, N) in dem Sichtfeld (FOV) der Belegende (P1, P2) ist, initiiert wird, wenn das sich in dem Sichtfeld (FOV) bewegende Objekt (P1, P2, N) nicht der vorher nachverfolgte Belegende (P1, P2) ist.
  15. Leuchte nach Anspruch 1, wobei das Ansteuersignal, das an die Lichtquelle (22) bereitgestellt wird, wenigstens teilweise auf die Bildinformation gestützt ist.
  16. Leuchte (10) nach Anspruch 1, wobei, während die Bewegung des Belegenden (P1, P2) nachverfolgt wird, die Steuerschaltung (48) weiter konfiguriert ist, um wenigstens einen Ort des Belegenden (P1, P2) innerhalb des Sichtfelds (FOV) und/oder eine Richtung der Bewegung des Belegenden (P1, P2) und/oder eine Bewegungsgeschwindigkeit des Belegenden (P1, P2) auf Grundlage der Bildinformation zu bestimmen.
  17. Leuchte (10) nach Anspruch 1, wobei, während die Bewegung des Belegenden (P1, P2) nachverfolgt wird, die Steuerschaltung (48) weiter konfiguriert ist, um wenigstens eine Charakteristik des Belegenden (P1, P2) auf Grundlage der Bildinformation zu bestimmen.
  18. Leuchte (10) nach Anspruch 1, wobei, wenn der Belegende (P1, P2) gleichzeitig in dem Sichtfeld (FOV) des Bildsensors (S1) und einem Sichtfeld einer benachbarten Leuchte ist, die Steuerschaltung (48) weiter konfiguriert ist, um mit der benachbarten Leuchte zu koordinieren, um zu bestimmen, ob der Belegende (P1, P2) in der Belegungs-Information berücksichtigt werden soll oder ob die benachbarte Leuchte den Belegenden (P1, P2) als einen Belegenden (P1, P2) in dem Sichtfeld der benachbarten Leuchte berücksichtigen soll.
  19. Leuchte (10), umfassend: eine Kommunikationsschnittstelle (20); eine Lichtquelle (22), die konfiguriert ist, um eine Lichtausgabe für eine allgemeine Beleuchtung bereitzustellen; einen Bildsensor (S1), der konfiguriert ist, um Bildinformation im Zusammenhang mit einem Sichtfeld (FOV) aufzunehmen; eine Steuerschaltung (48), die der Lichtquelle (22) und dem Bildsensor (S1) zugeordnet ist und konfiguriert ist, um: an der Lichtquelle (22) zum Steuern der Lichtausgabe ein Ansteuersignal bereitzustellen; für jedes Objekt (P1, P2, N) in dem Sichtfeld (FOV): - einen Belegenden (P1, P2) in dem Sichtfeld (FOV) des Bildsensors (S1) zu detektieren; - wenn der Belegende (P1, P2) sich aus dem Sichtfeld (FOV) des Bildsensors (S1) bewegt, dies festzulegen; und - mit einer benachbarten Leuchte über die Kommunikationsschnittstelle (20) zu kommunizieren, um eine Übergabe einer Nachverfolgung der Bewegung des Belegenden (P1, P2) an die wenigstens eine benachbarte Leuchte zu ermöglichen.
  20. Leuchte (10), umfassend: eine Kommunikationsschnittstelle (20); eine Lichtquelle (22), die konfiguriert ist, um eine Lichtausgabe für eine allgemeine Beleuchtung bereitzustellen; einen Bildsensor (S1), der konfiguriert ist, um Bildinformation im Zusammenhang mit einem Sichtfeld (FOV) aufzunehmen; eine Steuerschaltung (48), die der Lichtquelle (22) und dem Bildsensor (S1) zugeordnet ist und konfiguriert ist, um: an der Lichtquelle (22) zum Steuern der Lichtausgabe ein Ansteuersignal bereitzustellen; für jedes Objekt (P1, P2, N) in dem Sichtfeld (FOV): - einen Belegenden (P1, P2) in dem Sichtfeld (FOV) des Bildsensors (S1) zu detektieren; - vorherzusagen, ob der Belegende (P1, P2) das Sichtfeld (FOV) verlässt; und -wenn vorhergesagt wird, dass der Belegende (P1, P2) das Sichtfeld (FOV) verlässt, mit wenigstens einer benachbarten Leuchte über die Kommunikationsschnittstelle (20) zu kommunizieren, um eine Übergabe einer Nachverfolgung der Bewegung des Belegenden (P1, P2) an die wenigstens eine benachbarte Leuchte zu ermöglichen.
  21. Leuchte (10), umfassend: eine Kommunikationsschnittstelle (20); eine Lichtquelle (22), die konfiguriert ist, um eine Lichtausgabe für eine allgemeine Beleuchtung bereitzustellen; einen Bildsensor (S1), der konfiguriert ist, um Bildinformation im Zusammenhang mit einem Sichtfeld (FOV) aufzunehmen; eine Steuerschaltung (48), die der Lichtquelle (22) und dem Bildsensor (S1) zugeordnet ist und konfiguriert ist, um: an der Lichtquelle (22) zum Steuern der Lichtausgabe ein Ansteuersignal bereitzustellen; für jedes Objekt (P1, P2, N) in dem Sichtfeld (FOV): - eine Bewegung in dem Sichtfeld (FOV), verursacht durch das sich in dem Sichtfeld (FOV) bewegende Objekt (P1, P2, N), zu erfassen; - zu bestimmen, ob das sich in dem Sichtfeld (FOV) bewegende Objekt (P1, P2, N) ein vorher nachverfolgter Belegender (P1, P2) ist; - wenn das sich in dem Sichtfeld (FOV) bewegende Objekte (P1, P2, N) der vorher nachverfolgte Belegende (P1, P2) ist, eine Nachverfolgung des vorher nachverfolgten Belegenden (P1, P2) wieder aufzunehmen; wobei eine Bestimmung, ob das Objekt (P1, P2, N) in dem Sichtfeld (FOV) der Belegende (P1, P2) ist, initiiert wird, wenn das sich in dem Sichtfeld (FOV) bewegende Objekt (P1, P2, N) nicht der vorher nachverfolgte Belegende (P1, P2) ist.
DE102018213656.4A 2017-08-21 2018-08-14 Leuchte zur Nachverfolgung von Belegenden Active DE102018213656B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/681,941 US10165650B1 (en) 2017-08-21 2017-08-21 Occupant tracking
US15/681,941 2017-08-21

Publications (2)

Publication Number Publication Date
DE102018213656A1 DE102018213656A1 (de) 2019-02-21
DE102018213656B4 true DE102018213656B4 (de) 2021-12-30

Family

ID=64692268

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018213656.4A Active DE102018213656B4 (de) 2017-08-21 2018-08-14 Leuchte zur Nachverfolgung von Belegenden

Country Status (2)

Country Link
US (1) US10165650B1 (de)
DE (1) DE102018213656B4 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10465869B2 (en) 2017-01-30 2019-11-05 Ideal Industries Lighting Llc Skylight fixture
US10830400B2 (en) 2018-02-08 2020-11-10 Ideal Industries Lighting Llc Environmental simulation for indoor spaces
US11102453B2 (en) * 2018-02-19 2021-08-24 Cisco Technology, Inc. Analytics based lighting for network cameras
US11195002B2 (en) 2018-08-22 2021-12-07 Ideal Industries Lighting Llc Method and system for image based occupancy detection
CN110022426A (zh) * 2019-04-12 2019-07-16 南京东奇艾尼特科技有限公司 一种基于图像识别的相机智能补光方法
EP4052543A1 (de) 2019-10-28 2022-09-07 Ideal Industries Lighting Llc Systeme und verfahren zur bereitstellung einer dynamischen beleuchtung
CN111867194B (zh) * 2020-07-02 2021-05-18 燕山大学 基于多传感器信息融合的太阳能路灯控制器
EP4183229A4 (de) * 2020-07-14 2023-12-13 JDRF Electromag Engineering Inc. Elemente zur optischen auflösungsverringerung
US11382202B2 (en) * 2020-08-27 2022-07-05 Himax Imaging Limited Method and apparatus for controlling a lighting fixture based on motion detection and related lighting fixture
EP4057779A1 (de) * 2021-03-11 2022-09-14 Tridonic GmbH & Co. KG System mit einer leuchte und einem kameramodul

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009016918A1 (de) 2009-04-08 2010-10-14 Osram Gesellschaft mit beschränkter Haftung Beleuchtungseinrichtung, Gebäude mit einer Beleuchtungseinrichtung und Verfahren zum Betreiben einer Beleuchtungseinrichtung
WO2013158955A1 (en) 2012-04-20 2013-10-24 Rensselaer Polytechnic Institute Sensory lighting system and method for characterizing an illumination space
DE202014104825U1 (de) 2014-10-08 2016-01-12 Sick Ag Beleuchtungssystem zum Beleuchten einer Wegstrecke

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6185444B1 (en) 1998-03-13 2001-02-06 Skelscan, Inc. Solid-state magnetic resonance imaging
AU2006321133A1 (en) 2005-11-30 2007-06-07 Nihon Medi-Physics Co., Ltd. Head degenerative disease detection method, detecting program, and detector
US20080273754A1 (en) 2007-05-04 2008-11-06 Leviton Manufacturing Co., Inc. Apparatus and method for defining an area of interest for image sensing
GB2458095A (en) 2007-06-15 2009-09-09 Sharp Kk Solid state illumination system with elements employed as both light source and light sensor
US9131128B2 (en) 2011-09-28 2015-09-08 The United States Of America As Represented By The Secretary Of The Army System and processor implemented method for improved image quality and generating an image of a target illuminated by quantum particles
US9215781B2 (en) 2008-04-16 2015-12-15 Avo Usa Holding 2 Corporation Energy savings and improved security through intelligent lighting systems
US20100262296A1 (en) 2008-06-25 2010-10-14 HID Laboratories, Inc. Lighting control system and method
US20130307419A1 (en) 2012-05-18 2013-11-21 Dmitri Simonian Lighting system with sensor feedback
US8872964B2 (en) 2009-05-20 2014-10-28 Express Imaging Systems, Llc Long-range motion detection for illumination control
US8588551B2 (en) 2010-03-01 2013-11-19 Microsoft Corp. Multi-image sharpening and denoising using lucky imaging
CA2816978C (en) 2010-11-04 2020-07-28 Digital Lumens Incorporated Method, apparatus, and system for occupancy sensing
EP3734143A3 (de) 2011-03-21 2020-12-02 Digital Lumens Incorporated Verfahren, vorrichtung und systeme zur bereitstellung einer auf einer insassenanzahl beruhenden variablen beleuchtung
US20170185057A1 (en) * 2011-04-14 2017-06-29 Suntracker Technologies Ltd. System and method for the optimization of radiance modelling and controls in predictive daylight harvesting
JP5530399B2 (ja) 2011-05-23 2014-06-25 日本電信電話株式会社 画像処理方法、画像処理装置および画像処理プログラム
US10326921B2 (en) 2011-11-14 2019-06-18 Tseng-Lu Chien Light device has built-in camera and related digital data device's functions
US8975827B2 (en) 2012-07-01 2015-03-10 Cree, Inc. Lighting fixture for distributed control
US9706617B2 (en) 2012-07-01 2017-07-11 Cree, Inc. Handheld device that is capable of interacting with a lighting fixture
US9082202B2 (en) 2012-09-12 2015-07-14 Enlighted, Inc. Image detection and processing for building control
JP5903634B2 (ja) 2012-11-16 2016-04-13 パナソニックIpマネジメント株式会社 照明制御装置および照明システム
US9710691B1 (en) 2014-01-23 2017-07-18 Diamond Fortress Technologies, Inc. Touchless fingerprint matching systems and methods
TWM488825U (zh) 2014-06-20 2014-10-21 Shu-Chen Guo 主動式智慧型照度自動控制之照明光源模組及燈具
US9686477B2 (en) 2015-02-16 2017-06-20 Cree, Inc. Lighting fixture with image sensor
US9750112B2 (en) 2015-08-14 2017-08-29 Cree, Inc. Lighting fixture sensor network
US9769900B2 (en) 2015-10-30 2017-09-19 Cree, Inc. Lighting fixture with image sensor module
US10211660B2 (en) 2016-02-08 2019-02-19 Cree, Inc. LED lighting device with adaptive profiles for controlling power consumption

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009016918A1 (de) 2009-04-08 2010-10-14 Osram Gesellschaft mit beschränkter Haftung Beleuchtungseinrichtung, Gebäude mit einer Beleuchtungseinrichtung und Verfahren zum Betreiben einer Beleuchtungseinrichtung
WO2013158955A1 (en) 2012-04-20 2013-10-24 Rensselaer Polytechnic Institute Sensory lighting system and method for characterizing an illumination space
DE202014104825U1 (de) 2014-10-08 2016-01-12 Sick Ag Beleuchtungssystem zum Beleuchten einer Wegstrecke

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
A. Satpathy et al., „Human Detection by Quadratic Classification on Subspace of Extended Histogram of Gradients," IEEE Trans, on Image Proc., 23, 287-97 (2014)
C. Zeng and H. Ma, „Robust Head-shoulder Detection by PCA-Based Multilevel HOG-LBP Detectorfor People Counting," Intl. Conf. on Pattern Recognition, 2069-72 (2010)
J. Berclaz et al., „Robust People Tracking with Global Trajectory Optimization," IEEE Computer Society Conf. on Computer Vision and Pattern Recog., 744-750 (2006)
M. Mathew et al., „Sparse, Quantized, Full Frame CNN for Low Power Embedded Devices," IEEE Conf. on Computer Vision and Pattern Recog., 328-36 (2017)
N. Dalal and B. Triggs, „Histograms of Oriented Gradients for Human Detection," IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 886-893 (2005)
Q. Zhu et al., „Fast Human Detection Using a Cascade of Histograms of Oriented Gradients," IEEE Computer Soc. Conf. on Computer Vision and Pattern Recog., 1491-8 (2006)
R. Kalman, „A New Approach to Linear Filtering and Prediction Problems," Trans. of the ASME - Journal of Basic Engineering, 82 (Series D): 35-45 (1960)

Also Published As

Publication number Publication date
DE102018213656A1 (de) 2019-02-21
US10165650B1 (en) 2018-12-25

Similar Documents

Publication Publication Date Title
DE102018213656B4 (de) Leuchte zur Nachverfolgung von Belegenden
DE112016003708B4 (de) Beleuchtungsverwaltungssystem
US10991215B2 (en) Intelligent signage
EP2417388B1 (de) Integrierte led- und sensorvorrichtung
DE102009052621A1 (de) Beleuchtungsvorrichtung
DE112017000705T5 (de) Bildanalysetechniken
DE69922653T2 (de) Vorrichtung zur Überwachung eines Physikalsystems
WO2013075154A1 (de) Konfiguration von betriebsgeräten für leuchtmittel
CN202551470U (zh) 图像识别智能照明控制系统
US11657637B2 (en) Image-based occupancy detector
DE102009052699A1 (de) Beleuchtungsvorrichtung
DE102019003049B4 (de) Vorrichtung und Verfahren zum Erfassen von Objekten
DE202012103365U1 (de) Leuchte
DE102014113228A1 (de) LED-Betriebsvorrichtung, Beleuchtungsvorrichtung und Steuerschaltung für eine LED-Betriebsvorrichtung
EP2822360B1 (de) Verfahren zur durch Gestensteuerung berührungslos erfolgenden Bedienung einer Leuchte
DE102016118486A1 (de) Beleuchtungssteuerungsvorrichtung, beleuchtungssystem und verfahren zur steuerung einer beleuchtungsvorrichtung
EP3203153B1 (de) Küchengerät mit einer beleuchtungseinheit und verfahren zur betätigung einer beleuchtungseinheit
EP3107354B1 (de) Beleuchtungseinheit und steuerungsverfahren
EP2925098A1 (de) Leuchte ausgestaltet zur kommunikation mit mobilem gerät
DE102018000893A1 (de) Verfahren zur Ansteuerung von mit zumindest einer Melder-Einheit versehenen Leuchten innerhalb zumindest eines Raums und System zur Durchführung des Verfahrens
DE112015002545T5 (de) Digital gesteuerter treiber für leuchten
DE102020132833A1 (de) Leuchtvorrichtung, System mit Leuchtvorrichtungen sowie Verfahren zum Betreiben des System
DE102012013963A1 (de) Sensorleuchte
EP3267768B1 (de) Beleuchtungsanordnung für die industrielle bildverarbeitung
AT15517U1 (de) System zur ortsaufgelösten Beleuchtungssteuerung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: IDEAL INDUSTRIES LIGHTING LLC (N.D.GES.D.STAAT, US

Free format text: FORMER OWNER: CREE, INC., DURHAM, N.C., US

Owner name: IDEAL INDUSTRIES LIGHTING LLC (N.D.GES.D. STAA, US

Free format text: FORMER OWNER: CREE, INC., DURHAM, N.C., US

R082 Change of representative

Representative=s name: BOULT WADE TENNANT LLP, DE

Representative=s name: ISARPATENT - PATENT- UND RECHTSANWAELTE BARTH , DE

Representative=s name: ISARPATENT - PATENT- UND RECHTSANWAELTE BEHNIS, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H05B0037020000

Ipc: H05B0047115000

R082 Change of representative

Representative=s name: BOULT WADE TENNANT LLP, DE

R018 Grant decision by examination section/examining division
R081 Change of applicant/patentee

Owner name: IDEAL INDUSTRIES LIGHTING LLC (N.D.GES.D.STAAT, US

Free format text: FORMER OWNER: IDEAL INDUSTRIES LIGHTING LLC (N.D.GES.D. STAATES DELAWARE), SYCAMORE, IL, US

R020 Patent grant now final