DE102018002765A1 - Beleuchtungssystem - Google Patents

Beleuchtungssystem Download PDF

Info

Publication number
DE102018002765A1
DE102018002765A1 DE102018002765.2A DE102018002765A DE102018002765A1 DE 102018002765 A1 DE102018002765 A1 DE 102018002765A1 DE 102018002765 A DE102018002765 A DE 102018002765A DE 102018002765 A1 DE102018002765 A1 DE 102018002765A1
Authority
DE
Germany
Prior art keywords
marker
unit
signal
lighting
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018002765.2A
Other languages
English (en)
Inventor
Anmelder Gleich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zactrack GmbH
Original Assignee
Zactrack GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zactrack GmbH filed Critical Zactrack GmbH
Priority to DE102018002765.2A priority Critical patent/DE102018002765A1/de
Priority to PCT/EP2019/058246 priority patent/WO2019192989A1/de
Priority to CN201980024822.4A priority patent/CN111955054B/zh
Priority to US17/044,821 priority patent/US11576246B2/en
Publication of DE102018002765A1 publication Critical patent/DE102018002765A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/155Coordinated control of two or more light sources
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0257Hybrid positioning
    • G01S5/0263Hybrid positioning by combining or switching between positions derived from two or more separate positioning systems
    • G01S5/0264Hybrid positioning by combining or switching between positions derived from two or more separate positioning systems at least one of the systems being a non-radio wave positioning system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/14Determining absolute distances from a plurality of spaced points of known location
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S2205/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S2205/01Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations specially adapted for specific applications
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • H05B47/125Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Abstract

Die vorliegende Erfindung betrifft ein Beleuchtungssystem (1) zum Beleuchten eines in einem Objektraum (8) befindlichen Objekts (2), mit einer zur Emission von Beleuchtungslicht (4b) in den Objektraum (8) ausgelegten Beleuchtungseinheit (3), einer Abstandsmesseinheit (5) zum Aufnehmen eines Abstandsbilds (41) des Objektraums (8) mit dem darin befindlichen Objekt (2), die relativ zu zumindest einem Teil der Beleuchtungseinheit (3), ortsfest an diesem angeordnet ist, einem Markersystem (6) mit einer Marker-Emittereinheit (66a) zur Emission eines Markersignals (7) und einer Marker-Empfängereinheit (6ab) zum Erfassen zumindest eines Signalanteils (7a) des Markersignals (7), wobei das Beleuchtungssystem (1) dazu eingerichtet ist, das Objekt (2) anhand des Abstandsbilds (41) in einem Bereich des Objektraums (8) zu lokalisieren und mithilfe des mit der Marker-Empfängereinheit (6ab) empfangenen Signalteils zu individualisieren und in Abhängigkeit davon das Objekt (2) mit der Beleuchtungseinheit (3) zu beleuchten.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein Beleuchtungssystem zum Beleuchten eines in einem Objektraum befindlichen Objekts.
  • Stand der Technik
  • Das vorliegend in Rede stehende Beleuchtungssystem kann bspw. zur Beleuchtung einer Bühne, etwa im Unterhaltungsbereich, z. B. einer Konzertbühne, genutzt werden. Ein Ziel ist eine zumindest in Teilen oder auch vollständig automatisierte Beleuchtung, die sich bspw. adaptiv in Abhängigkeit von einer Position oder Bewegung eines Akteurs auf der Bühne anpasst. Es kann bspw. ein Lichtspot automatisiert einem Akteur auf der Bühne folgen. Ein solcher Akteur kann z. B. ein Moderator oder Schauspieler sein, es kann aber selbstverständlich auch jedes andere Objekt Gegenstand einer automatisierten Beleuchtung werden, bspw. auch Fahrzeuge oder Tiere etc., siehe unten im Detail. Dies soll ein vorteilhaftes Anwendungsgebiet illustrieren, den Gegenstand aber zunächst nicht in seiner Allgemeinheit beschränken.
  • Darstellung der Erfindung
  • Der vorliegenden Erfindung liegt das technische Problem zugrunde, ein besonders vorteilhaftes Beleuchtungssystem anzugeben.
  • Dies wird erfindungsgemäß mit einem Beleuchtungssystem gemäß Anspruch 1 gelöst. Dieses weist zusätzlich zu einer Beleuchtungseinheit zur Emission des Beleuchtungslichts eine Abstandsmesseinheit zum Aufnehmen eines Abstandsbildes und ein Markersystem auf. Mit der Abstandsmesseinheit kann innerhalb eines bestimmten Erfassungsfelds (Field of View, FoV), vorliegend als Objektraum bezeichnet, ein Abstandsbild aufgenommen werden. Im Unterschied zu einem konventionellen zweidimensionalen Bild enthält dieses Abstandsbild zusätzlich eine Abstandsinformation, gewissermaßen eine Tiefe (bezüglich Möglichkeiten der technischen Umsetzung im Einzelnen wird auf die nachstehende Offenbarung verwiesen). Das Abstandsbild kann bspw. derart aufgebaut sein, dass jedem Pixel ein Entfernungswert zugeordnet ist, was auch als Raumpixel oder Voxel bezeichnet wird. Im Prinzip entspricht dies dreidimensionalen Punkten im Objektraum. Dort, wo sich das Objekt befindet, haben dann in der Regel viele Pixel einen ähnlichen Entfernungswert (im Einzelnen auch abhängig von der Größe bzw. Orientierung etc. des Objekts), ergibt sich also eine Punktewolke.
  • Der Erfinder hat nun einerseits festgestellt, dass sich ein im Objektraum befindliches Objekt anhand eines Abstandsbildes gut im Objektraum lokalisieren lässt jedenfalls in einem Bereich davon, bspw. durch Auswertung bzw. Zugrundelegung einer eben beschriebenen Punktewolke. Diese kann bspw. im Zuge einer Bildbearbeitung, bspw. mit einem Gradienten- oder auch Grauwertverfahren, identifiziert werden. Ein Objekt, das sich im Objektfeld befindet, lässt sich also von Sondersituationen abgesehen (s. u. im Detail) in der Regel zuverlässig und auch mit hinreichender Genauigkeit lokalisieren.
  • Andererseits kann jedoch eine Objekterkennung bzw. - klassifizierung anhand des Abstandsbildes zumindest rechen- und damit zeitaufwendig sein, was angesichts dynamischer Beleuchtungsvorgänge problematisch sein kann. Es kann auch bereits das Abstandsbild an sich auflösungsbegrenzt sein, sodass sich zwar der Ort des Objekts hinreichend genau bestimmen lässt, aber bspw. keine weitergehende Differenzierung möglich ist. Zur Illustration, es kann bspw. im Einzelnen schwer zu differenzieren sein, ob das festgestellte Objekt tatsächlich der zu beleuchtende Moderator bzw. Schauspieler oder bspw. ein Bühnenarbeiter ist. Auch bei anderen Objekten bzw. Objektklassen lassen sich beliebig vergleichbare Beispiele finden.
  • Deshalb ist zusätzlich das Markersystem vorgesehen. Das zu beleuchtende Objekt, bspw. der Schauspieler, wird mit der Marker-Emittereinheit ausgestattet, und mit der Marker-Empfängereinheit wird dann das davon emittierte Markersignal bzw. ein Signalanteil erfasst. Das Beleuchtungssystem ist dann dazu eingerichtet, mithilfe des mit der Marker-Empfängereinheit empfangenen Signalanteils das Objekt zu individualisieren. Es wird also durch Auswertung des Signalanteils eine zum Abstandsbild zusätzliche Information gewonnen, anhand welcher z. B. entschieden werden kann, ob das Objekt beleuchtet werden soll oder nicht. Die „Individualisierung“ des Objekts kann sich bspw. auch dahingehend ergeben, dass der anhand des Abstandsbildes ermittelte Bereich nicht hinreichend genau für die Entscheidung über die Beleuchtung ist, bspw. wenn mehrere Akteure bzw. Objekte einander gegenseitig verschatten, und das Markersignal dann zur Lokalisierung und damit Individualisierung innerhalb des Bereichs genutzt wird (siehe unten im Detail).
  • Zusammengefasst ermöglicht die Kombination aus Abstandsmesseinheit und Markersystem einerseits eine gute Lokalisierung im Objektraum und andererseits eine Individualisierung des Objekts. Letzteres meint, dass dem Objekt in abstrakter Betrachtung ein Marker bzw. Label zugeordnet wird, was z. B. ein Entscheidungsdiagramm der Automatisierung vereinfachen bzw. generell die Zuverlässigkeit erhöhen und/oder die Entscheidungsprozesse verkürzen kann. Zudem ist die Abstandsmesseinheit an bzw. bei der Beleuchtungseinheit angeordnet, was eine gute Korrelation zwischen Abstandsbild und beleuchtetem Raum ergibt, also bspw. einen reduzierten Rechenaufwand und damit schnelle Reaktionszeiten bedeutet.
  • Bevorzugte Ausgestaltungen finden sich in den abhängigen Ansprüchen und der gesamten Offenbarung, wobei in der Darstellung der Merkmale nicht immer im Einzelnen zwischen Vorrichtungs- und Verfahrens- bzw. Verwendungsaspekten unterschieden wird; jedenfalls implizit ist die Offenbarung hinsichtlich sämtlicher Anspruchskategorien zu lesen. Die Beschreibung richtet sich also stets sowohl auf das Beleuchtungssystem, das für einen bestimmten Betrieb eingerichtet ist, als auch auf ein entsprechendes Betriebsverfahren bzw. entsprechende Verwendungen.
  • Ein besonderer Vorteil des erfindungsgemäßen Beleuchtungssystems ergibt sich aus der Anordnung der Abstandsmesseinheit an der Beleuchtungseinheit, ortsfest zu zumindest einem Teil davon (in der Regel einem Sockel, auch als Leuchtenfuß oder Leuchtenhalterung bezeichnet, siehe unten). Diese räumliche Nähe oder gar Integration (die Abstandsmesseinheit könnte bspw. auch in den Sockel eingelassen sein) kann die nachträgliche Korrelation des Abstandsbildes mit der Steuerung der Beleuchtungseinheit vereinfachen. Bildlich gesprochen entspricht der erfasste Objektraum dem, was die Beleuchtungseinheit „sieht“ bzw. wohin sie leuchtet. Etwas abstrakter ausgedrückt sind die Abstandsmess- und die Beleuchtungseinheit aufgrund der Anordnung beieinander innerhalb desselben Koordinatensystems verortet. Es können bspw. rechen- und damit zeitaufwendige Koordinatentransformationen vermieden werden, was angesichts der in den diskutierten Anwendungen mitunter schnellen Bewegungen (z. B. Tanz oder Sport etc.) von besonderem Vorteil sein kann.
  • In einem einfachen Beispiel kann es sogar ausreichen, wenn das Markersystem seinerseits nicht für eine weitergehende räumliche Differenzierung innerhalb des Objektraums eingerichtet ist. Dies kann bspw. einen Anwendungsfall betreffen, in welchem im Zeitverlauf zwar unterschiedliche Objekte in unterschiedlicher Weise zu beleuchten sind, bspw. unterschiedliche Schauspieler mit jeweils einem Beleuchtungslicht anderer Farbe, diese Objekte bzw. Akteure aus dramaturgischen Gründen jedoch ohnehin nur nacheinander (nicht gleichzeitig) im Objektraum auftauchen. Dann reicht es aus, wenn mit der jeweiligen Marker-Emittereinheit, die dem jeweiligen Objekt zugeordnet ist, das entsprechende Label bildlich gesprochen für das gesamte Objektfeld hinterlegt ist (darin befindet sich ja nur der eine Akteur). Umgekehrt illustriert dieses Beispiel auch, dass in komplexeren Anwendungsfällen eine weitergehende Differenzierung von Interesse sein kann, siehe unten im Detail. Das Gerät funktioniert natürlich auch ohne Markiereinheit solange nur ein Darsteller auf der Bühne ist. Wenn das gewährleistet ist, und das trifft auf sehr viele Vortagssituationen zu, benötigt der Darsteller keine Markiereinheit. Die Blob-Detektion findet die Zielperson auch so und kann den Scheinwerfer steuern. Vorrangig bei mehreren Blobs, und zwar wenn sie sich überlappen, entsteht ein Entscheidungsproblem.
  • Mit der Abstandsmesseinheit wird das Abstandsbild signallauf zeitbasiert gemessen. Dazu wird ein elektromagnetischer Puls in den Objektraum emittiert, in der Regel werden sequenziell eine Vielzahl Pulse emittiert. Trifft ein jeweiliger Puls auf das Objekt, wird er an dessen Oberfläche anteilig zurück zu der Abstandsmesseinheit reflektiert, er kann als Echopuls mit einem geeigneten Sensor aufgezeichnet werden. Erfolgt die Aussendung des Pulses zu einem Zeitpunkt t0 und wird der Echopuls zu einem späteren Zeitpunkt t1 erfasst, kann der Abstand d zu der reflektierenden Oberfläche des Objekts über die Laufzeit ΔtA = t1 - t0 nach d = Δ t A c/2
    Figure DE102018002765A1_0001
    bestimmt werden. Hierbei ist c der Wert der Lichtgeschwindigkeit.
  • Im Allgemeinen ist bspw. auch eine Abstandsmesseinheit denkbar, die nur auf einer Achse raumwinkelauflösend ist, bevorzugt ist auf zwei Achsen eine Raumwinkelauflösung gegeben. Der Objektraum kann also in Zeilen und Spalten und damit Raumwinkelsegmente unterteilt sein, wobei je Segment ein Abstandswert ermittelt wird.
  • Je nach Ausgestaltung im Einzelnen kann die Abstandsmesseinheit einen jeweiligen Puls zur Abstandsmessung entweder in den gesamten Objektraum emittieren, auch im Falle einer Raumwinkelauflösung, oder können die Pulse sequenziell (nacheinander) in unterschiedliche Segmente des Objektraums emittiert werden (auch als „scannender Betrieb“ bezeichnet). Die erstgenannte Variante kann in Verbindung mit einem raumwinkelsensitiven Detektor gleichwohl eine Raumwinkelauflösung ergeben, siehe unten im Detail. Bei der letztgenannten Variante kann das raumwinkelselektive Aussenden, also das sequenzielle Bepulsen der einzelnen Segmente, bspw. über einen beweglichen Spiegel (z. B. MEMS-Spiegel), erreicht werden. Bevor ein jeweilig darauffolgender Puls emittiert wird, wird für eine bestimmte, der gewünschten Reichweite entsprechende Pausendauer gewartet (bildlich gesprochen „gelauscht“), ob aus dem fraglichen Segment ein Echopuls zurückkommt).
  • Soweit generell davon die Rede ist, dass das Beleuchtungssystem für einen bestimmten Betrieb „eingerichtet“ ist, meint dies bspw., dass in einer Steuereinheit ein entsprechender Programmablauf hinterlegt ist. Die Möglichkeiten zur softwareseitigen Umsetzung sind ebenso vielseitig (standardisierte Protokolle wie DMX oder ART-Net oder auch beliebig andere/eigene, maßgeschneiderte Programme und Sprachen) wie jene der hardwareseitigen Architektur. Die Steuereinheit kann bspw. in die Beleuchtungseinheit integriert sein, teilweise oder vollständig, es ist aber bspw. auch dezentraler Aufbau möglich. Zur Steuerung der Beleuchtungseinheit hin kann es für die Befehle zur Steuerung der Beleuchtung eine Schnittstelle geben, es ist aber auch ein integraler Aufbau möglich. Die Steuereinheit bzw. Teile davon können bspw. in einem konventionellen Rechner realisiert sein, ebenso ist aber auch ein individueller Aufbau mit Microcontrollern möglich.
  • Bevorzugt gibt es eine Benutzerschnittstelle zur Ein- und/oder Ausgabe, vorzugsweise eine Displayeinheit zur grafischen Darstellung, auch als Graphical User Interface GUI bezeichnet, die insbesondere als Touchscreen ausgeführt sein kann. In der Anwendung kann die Beleuchtungseinheit tatsächlich vollautomatisch (ohne Benutzereingriff) betrieben werden, ebenso ist aber auch ein teilautomatischer Betrieb oder ein Hin- und Herschalten zwischen automatischem Betrieb und Benutzersteuerung möglich, für letztere gibt es bevorzugt eine Konsole. Die vorstehend in Bezug genommenen Programme müssen selbstverständlich auch nicht statisch sein, sie können bspw. durch einen Benutzer über eine Schnittstelle angepasst werden, es ist aber bspw. auch ein AI-Programm zum selbstständigen Erlernen bzw. Optimieren von Handlungsvorgängen und -optionen möglich.
  • In bevorzugter Ausgestaltung ist die Marker-Emittereinheit Teil eines Markergeräts, das zudem eine Empfängereinheit aufweist. Ebenso ist die Marker-Empfängereinheit Teil eines Markergeräts, das ferner eine Emittereinheit aufweist. Die Marker-Geräte sind jeweils symmetrisch zum Senden und Empfangen ausgelegt (Zweiwegsystem), bevorzugt sind sie untereinander baugleich. Von der Reduzierung unterschiedlicher Teile und der damit erhöhten Benutzerfreundlichkeit abgesehen kann der symmetrische Aufbau z. B. auch hinsichtlich eines Einmessvorgangs Vorteile bieten, bspw. wenn mehrere Marker-Empfängereinheiten vorgesehen sind, um deren Positionen relativ zueinander zu bestimmen. Bevorzugt ist der zweiwegige bzw. symmetrische Aufbau mit demselben Signaltyp realisiert, insbesondere einem Funksignal (z. B. UWB, siehe unten, auch bezüglich möglicher Alternativen).
  • In bevorzugter Ausgestaltung ist das Markersystem funkbasiert, ist also das Markersignal ein Funksignal. Soweit im Allgemeinen bspw. auch ein Ultraschall- bzw. im elektromagnetischen Spektralbereich ein Radar- oder Infrarotsignal denkbar ist, kann ein Funksignal eine technisch robuste und adäquate Umsetzung ermöglichen. Im Allgemeinen könnte die Marker-Emittereinheit bspw. auch ein RFID-Tag sein, bevorzugt ist ein Zweiwegsystem, siehe unten. Die Funkfrequenzen liegen unterhalb von 3000 GHz (mit einer möglichen Untergrenze in MHz-Bereich). Bevorzugt wird für das Markersignal auf Ultra-Breitband-Technologie (UWB) zurückgegriffen, die sich insbesondere in der Nahbereichskommunikation eignet.
  • In bevorzugter Ausgestaltung ist nicht nur die Abstandsmesseinheit, sondern auch die Marker-Empfängereinheit an bzw. bei der Beleuchtungseinheit angeordnet. Wenngleich im Allgemeinen auch eine Integration in einem beweglichen Teil der Beleuchtungseinheit denkbar ist, ist wiederum eine Anordnung an oder im Sockel bevorzugt. Die Abstandsmesseinheit und die Marker-Empfängereinheit können insbesondere ortsfest zueinander vorgesehen sein.
  • Bei einer bevorzugten Ausführungsform wird aus dem mit der Marker-Empfängereinheit erfassten Signalanteil die Entfernung zwischen Emitter- und Empfängereinheit ermittelt. Dazu kann bspw. die Signalintensität erfasst werden, wobei sich die Entfernung bei bekannter Ausgangsleistung aus dem Leistungsabfall ergibt. Die Abstandsmessung kann, wenn mehrere Marker-Empfängereinheiten vorgesehen sind, auch eine Ortung des Objekts über das Markersignal ermöglichen (siehe unten im Detail). Sie kann aber andererseits auch für sich von Interesse und Vorteil sein, nämlich bspw. die Lokalisierung in Verbindung mit dem Abstandsbild verbessern helfen. Befinden sich nämlich mehrere Objekte im Objektraum, kann anhand des Abstandsbildes eine endgültige Entscheidung über die Objektposition bspw. dann problematisch sein, wenn ein anderes Objekt aus Sicht der Abstandsmesseinheit davorsteht, es also gewissermaßen verschattet. Mit dem aus dem Markersignal gewonnenen Abstandswert lässt sich das verschattete Objekte dann gleichwohl lokalisieren.
  • Bei einer bevorzugten Ausführungsform weist das Markersystem eine weitere Marker-Empfängereinheit auf, mit welcher im Betrieb ein Signalanteil des Markersignals erfasst wird. Vorteilhaft kann das Beleuchtungssystem dann dahingehend eingerichtet sein, das aus den mit den unterschiedlichen Marker-Empfängereinheiten erfassten Signalanteilen mittels einer Triangulation eine Position der Marker-Emittereinheit und damit des Objekts ermittelt wird.
  • Es kann also bspw. mit einer ersten Marker-Empfängereinheit ein erster Signalanteil und mit einer zweiten Marker-Empfängereinheit ein zweiter Signalanteil empfangen werden, wobei die Empfängereinheiten vorteilhafterweise in gewissem Abstand zueinander an bzw. auch in oder neben dem Objektraum angeordnet werden, bspw. am Rand einer Bühne oder auch auf der Bühne. Die Marker-Emittereinheit und die Empfängereinheiten spannen dann miteinander ein Dreieck auf, das Objekt kann anhand der Signalanteile lokalisiert werden. Zur Illustration, es kann bspw. aus dem ersten Signalanteil ein erster Abstandswert ermittelt werden, was abstrakt betrachtet in der zweidimensionalen Ebene der Bühne einem Kreis um die erste Marker-Empfängereinheit entspricht. Der zweite Signalanteil ergibt einen Kreis um die zweite Marker-Empfängereinheit, und das Objekt kann am Schnittpunkt der Kreise verortet werden. Es können auch mehr Marker-Empfängereinheiten vorgesehen sein, womit sich die Genauigkeit erhöhen lässt.
  • Bei einer bevorzugten Ausführungsform ist die Beleuchtungseinheit dazu ausgelegt, entlang unterschiedlicher Strahlen jeweils einen Lichtkegel zu emittieren. Dabei weisen diese Strahlen zwar in unterschiedliche Richtungen, gehen aber dennoch auf einen gemeinsamen Ursprung in einem Polarkoordinatensystem zurück. Eine Möglichkeit zur Umsetzung ist ein sogenannter Scanner, bei dem der von einer Lichtquelle emittierte Lichtkegel auf einen dreh- bzw. verkippbar gelagerten Spiegel fällt und je nach Dreh- bzw. Kippstellung in eine jeweilige Richtung reflektiert wird. Ebenso ist denkbar, dass mehrere Scheinwerferköpfe vorgesehen sind, die, relativ zueinander lagefixiert oder auch beweglich, ihren jeweiligen Lichtkegel in eine jeweilig eigene Richtung emittieren. Generell ist ein Aufbau bevorzugt, bei dem derselbe Lichtkegel im Zeitverlauf verschiedene Richtungen überstreicht, was vorteilhafterweise ein Verfolgen des Objekts erlaubt.
  • Dies ist z. B. mit dem erwähnten Scanner oder einem nachstehend im Detail diskutierten kopfbewegten Scheinwerfer möglich.
  • Als Lichtquelle können eine oder mehrere lichtemittierende Dioden (LED) verwendet werden, welche auch in Form von mikro-LEDs vorliegen können. Diese kann in Form mindestens einer einzeln gehäusten LED oder in Form mindestens eines LED-Chips, der eine oder mehrere Leuchtdioden aufweist, vorliegen. Es können mehrere LED-Chips auf einem gemeinsamen Substrat („Submount“) montiert sein und eine LED bilden oder einzeln oder gemeinsam bspw. auf einer Platine (z. B. FR4, Metallkernplatine, etc.) befestigt sein („CoB“ = Chip on Board). Die mindestens eine LED kann mit mindestens einer eigenen und/oder gemeinsamen Optik zur Strahlführung ausgerüstet sein, bspw. mit mindestens einer Fresnel-Linse oder einem Kollimator. Anstelle oder zusätzlich zu anorganischen LEDs, bspw. auf Basis von AlInGaN oder InGaN oder AlInGaP, sind allgemein auch organische LEDs (OLEDs, z.B. Polymer-OLEDs) einsetzbar.
  • Weiterhin sind auch Quantenpunkt-Leuchtdioden verwendbar. Die LED-Chips können direkt emittierend sein oder einen vorgelagerten Leuchtstoff aufweisen. Alternativ kann die lichtemittierende Komponente eine Laserdiode oder eine Laserdioden-Anordnung sein, bspw. eine LARP-Anordnung (Laser-Activated Remote Phosphor). Denkbar ist auch, eine OLED-Leuchtschicht oder mehrere OLED-Leuchtschichten oder einen OLED-Leuchtbereich vorzusehen. Die Emissionswellenlängen der lichtemittierenden Komponenten können im ultravioletten, sichtbaren oder infraroten Spektralbereich liegen. Die lichtemittierenden Komponenten können zusätzlich mit einem eigenen Konverter ausgestattet sein. Weiterhin können Halogenlampen und Entladungslampen verwendet werden.
  • In bevorzugter Ausgestaltung weist die Beleuchtungseinheit einen Sockel und einen Arm, sowie zur Emission des Beleuchtungslichts einen Leuchtenkopf auf (bevorzugt genau einen Leuchtenkopf). Der Arm ist drehbar an dem Sockel gelagert und der Leuchtenkopf drehbar an dem Arm. In der Anwendung ist die Beleuchtungseinheit dann bevorzugt derart ausgerichtet, dass eine Drehebene, die sich aus der Lagerung des Arms am Sockel ergibt, horizontal liegt, auch als Pan bezeichnet (die Drehachse, um welche gedreht wird, liegt senkrecht zu besagter Drehebene). Eine Drehebene, die sich aus der drehbaren Lagerung des Leuchtenkopfs am Arm ergibt, liegt dann bevorzugt vertikal, der entsprechende Freiheitsgrad wird auch als Tilt bezeichnet (die Drehachse liegt wiederum senkrecht zu besagter Drehebene).
  • Generell ist die Abstandsmesseinheit in bevorzugter Ausgestaltung an einem Sockel der Beleuchtungseinheit befestigt. In abstrakter Betrachtung ist die Abstandsmesseinheit relativ zu dem vorstehend erwähnten Ursprung des Polarkoordinatensystems der Beleuchtung ortsfest, es wird auf die vorstehenden Vorteilsangaben verwiesen (keine Koordinatentransformation erforderlich etc.). Vorteilhaft kann eine nahe an der Beleuchtungseinheit angeordnete Abstandsmesseinheit sein, bspw. um nicht mehr als 1,5 m, 1 m bzw. 0,8 m dazu beabstandet (mit möglichen Untergrenzen bei 0,1 m bzw. 0,2 m). Der Abstand wird zwischen Eintrittspupille der Abstandsmesseinheit und lichtemittierender Fläche der Beleuchtungseinheit genommen (falls dieser Abstand im Zeitverlauf aufgrund einer bewegbaren Lagerung des Leuchtenkopfes variiert, wird ein Mittelwert betrachtet).
  • Bei einer bevorzugten Ausführungsform ist die Abstandsmesseinheit über eine Halterung an dem Sockel befestigt und kann sie mit dieser Halterung in unterschiedliche Kippstellungen relativ zum Sockel gebracht werden. Im Allgemeinen ist bspw. auch ein stufenloses Verkippen in Verbindung mit einer Arretierbarkeit denkbar, bevorzugt sind eine Mehrzahl vordefinierte Kippstellungen vorgegeben. In einer jeweiligen Kippstellung kann die Abstandsmesseinheit bspw. verrasten oder mit einer Arretierschraube fixiert werden. Trotz dieser Einstellbarkeit ist die Abstandsmesseinheit dann relativ zu dem Sockel wiederum orts- und lagefixiert.
  • In bevorzugter Ausgestaltung ist eine mit den stufenlos oder vordefiniert einstellbaren Kippstellungen aufgespannte Ebene parallel zu einer Drehebene, die sich aus der Lagerung des Leuchtenkopfs am Sockel ergibt. Bevorzugt ist der Leuchtenkopf nicht direkt, sondern über einem Arm am Sockel gelagert (siehe vorne) und ergibt sich besagte Drehebene aus der Lagerung des Arms am Sockel, siehe vorne (Pan). Die von den unterschiedlichen Kippstellungen aufgespannte Ebene liegt senkrecht zu einer Drehachse, um welche die unterschiedlichen Kippstellungen ineinander übergeführt werden können.
  • Bei einer bevorzugten Ausführungsform ist die Abstandsmesseinheit dazu ausgelegt, für die Abstandsmessung Pulse im infraroten Spektralbereich zu emittieren. Die Wellenlängen können also bspw. bei mindestens 700 nm, 750 nm, 800 nm bzw. 850 nm liegen, mit möglichen (davon unabhängigen) Obergrenzen bei bspw. höchstens 2000 nm, 1800 nm bzw. 1600 nm (jeweils in der Reihenfolge der Nennung zunehmend bevorzugt). Ein besonders vorteilhafter Wert kann bspw. bei rund 905 nm liegen, weitere vorteilhafte Obergrenzen ergeben sich zu 1500 nm, 1400 nm, 1300 nm, 1200 nm, 1100 nm, 1000 nm bzw. 950 nm.
  • Auch unabhängig vom Spektralbereich im Einzelnen kann das Abstandsbild auf unterschiedliche Weise erhalten werden, gibt es also unterschiedliche Möglichkeiten zur Realisierung der Raumwinkelauflösung. Es wird auch auf die Anmerkungen eingangs verwiesen. Die Raumwinkelauflösung kann sich einerseits aus einem raumwinkelselektiven Aussenden der elektromagnetischen Pulse ergeben, die Raumwinkelsegmente werden also abgescannt. Dazu ist in der Regel ein bewegbar gelagerter bzw. schwingender Spiegel vorgesehen, etwa ein MEMS-Spiegel, über den typischerweise ein Laserstrahl in den Objektraum geführt wird. Je nach Spiegelstellung gelangt der Laserstrahl bzw. Laserpuls in ein jeweiliges Segment des Objektraums, die Segmente werden nacheinander bepulst (wobei jeweils für eine bestimmte Zeitdauer gewartet wird, ob ein Echopuls zurückkommt).
  • Bei einem alternativen Ansatz wird in den gesamten Objektraum ein Licht- bzw. Strahlungspuls emittiert, also in alle Segmente gleichzeitig, wobei sich die Differenzierung zwischen den unterschiedlichen Segmenten dann aus einem raumwinkelauflösenden Sensor ergibt, bspw. einem Photomischdetektor, auch PMD-Sensor genannt. Der Sensor kann aus den unterschiedlichen Raumrichtungen und damit aus den unterschiedlichen Segmenten eintreffende Echopulse zuordnen, was die pixel- bzw. segmentweise Auflösung ergibt.
  • In bevorzugter Ausgestaltung ist als Abstandsmesseinheit eine TOF-Kamera vorgesehen, die nach dem eben beschriebenen Prinzip mit einem raumwinkelauflösenden Sensor arbeitet. Der Lichtpuls wird in den gesamten Objektraum emittiert, und für jeden Bildpunkt wird die Zeit gemessen, die bis zum Eintreffen eines Echopulses vergeht. Zur Illustration, eine solche Raumwinkelauflösung kann sich bspw. durch die Kombination eines konventionellen Bildsensors, z. B. CCD oder CMOS, und einer vorgelagerten Optik ergeben, welche die Sensorfläche ins Unendliche abbildet, jedes Pixel in einer jeweilig eigene Raumrichtung. Umgekehrt wird damit ein aus einer jeweiligen Raumrichtung eintreffender Echopuls auf ein jeweilig eigenes Pixel (bzw. eine Pixelgruppe) geführt. Unabhängig davon im Einzelnen können mit einer typischen TOF-Kamera bspw. rund 20 Bilder (Frames) pro Sekunde aufgenommen werden, was für die vorliegende Anwendungen adäquat sein kann.
  • Bei einer bevorzugten Ausführungsform ist das Beleuchtungssystem dazu eingerichtet, das Objekt mithilfe des Markersignals bzw. Signalanteils zu klassifizieren. Solche Objektklassen können bspw. „Mensch“ und „Fahrzeug“ oder „Tier“ sein, wobei selbstverständlich auch eine weitergehende Differenzierung möglich ist. So kann z. B. bei den Menschen zwischen Schauspielern und Statisten bzw. Bühnenarbeitern oder auch dem Publikum unterschieden werden. Die Fahrzeuge können bspw. Landfahrzeuge sein, etwa Kraftfahrzeuge, auch in miniaturisierter Form, oder auch Luftfahrzeuge, wie bspw. Drohnen.
  • Generell können bspw. auch Roboter subsumiert oder auch einer eigenen Klasse zugeordnet werden. Weiterhin kann bspw. zwischen Bühnenausstattung und den eigentlichen Akteuren unterschieden werden, also bspw. zwischen dem Bühnenequipment inkl. Lautsprechern etc. einerseits und den Schauspielern bzw. der Musikgruppe oder anderweitig handelnden Personen (Moderator etc.) andererseits. Der erfindungsgemäße Ansatz der zusätzlichen Markierung kann z. B. insoweit von Vorteil sein, als auch die Bühnenausstattung selbst zumindest in Teilen beweglich sein kann (z. B. auf Schienen oder frei beweglich, etwa an einer Drohne fliegend), was die Unterscheidung von den Akteuren anspruchsvoll machen kann.
  • Generell kann das Markersignal bevorzugt eine Information über das Objekt tragen, bevorzugt kann dann allein anhand dieser die Klassifizierung vorgenommen werden. Auch unabhängig von einer späteren Klassifizierung kann die Objektinformation dem bevorzugten Funksignal aufmoduliert sein, etwa über die Trägerfrequenz oder im bevorzugten UWB-Betrieb, in welchem Einzelpulse erzeugt werden, über eine Pulsphasenmodulation oder eine Veränderung der Polarität bzw. Amplitude der Pulse.
  • Ein aus dem Abstandsbild und dem Markersignal gewonnener Datensatz kann selbstverständlich auch um weitere Eingangsdaten ergänzt werden, es kann bspw. auch eine akustische Erfassung geben, z. B. von Rhythmen und/oder auch Lied- bzw. Textinhalten. Ebenso ist denkbar, dass bspw. mit einer zusätzlichen Kamera oder einem Scanner speziell Gesichter bzw. geometrische Daten erfasst werden. Auch unabhängig davon im Einzelnen kann der gewonnene Datensatz dann mit unterschiedlichen Datenbanken abgeglichen werden, kann also bspw. zu jeder Objektklasse eine Liste bzw. ein Parametersatz hinterlegt sein. Mit entsprechenden Datenspeichern kann die Steuereinheit direkt oder auch über ein Netzwerk bzw. eine Cloud-Anbindung verbunden sein. Dies gilt selbstverständlich auch für Datenbanken mit Details zu der Beleuchtungseinheit (Lichtsteuerungs-Datenbank, Leuchten-Datenbank, Leuchtmittel-Datenbank etc.).
  • Weitere Eingangsgrößen können sich bspw. aus Steuerungssystemen von Seilwinden, Flugwerken, Bühnenmaschinerie, sowohl Ober- als auch Untermaschinerie, Drehgebern, Lineargebern, Lichtschranken und/oder Endschaltern ergeben. Ebenso ist denkbar, dass über ein Smartphone zusätzliche Einflussgrößen erfasst werden, bspw. über Schrittzahlen, Bewegungsrichtung, Position und/oder Orientierung (Gyroskop-Information), auch benutzerbezogene Daten können eingehen, bspw. die Pulszahl etc.
  • Für die Auswertung des Abstandsbildes kann auf an sich bekannte Verfahren zurückgegriffen werden. Es kann bspw. durch morphologisches Filtern eine geometrische Struktur analysiert werden (was die Grundlage einer Bilderkennung sein kann), und es lassen sich auch eine Schwellwertanalyse, Bild-Segmentierung, Kanten-Detektion und/oder Farb-Analyse auf das Abstandsbild anwenden. Mittels eines sogenannten Connected-Component Labelling lassen sich verbundene Objekt- bzw. Datenpunkte finden und gruppieren, was gelegentlich auch als Blob-Detektion bezeichnet wird. Im Prinzip ist auch denkbar, dass das Abstandsbild mit einem weiteren Abstandsbild zusammengefügt wird (als Stitching bezeichnet), welches mit einer weiteren Abstandsmesseinheit, die ebenfalls an der Beleuchtungseinheit angeordnet ist, zur Vergrößerung des Erfassungswinkels aufgenommen wird. Bevorzugt ist an der Beleuchtungseinheit jedoch genau eine Abstandsmesseinheit vorgesehen.
  • Die Erfindung betrifft auch ein Verfahren zum Betreiben eines vorstehend beschriebenen Beleuchtungssystems, wobei das Objekt mit der Marker-Emittereinheit ausgestattet wird, vorzugsweise mit einem vorstehend beschriebenen Zweiwegsystem (Marker-Gerät). Dieses emittiert dann im Betrieb das Markersignal, das mit der Marker-Empfängereinheit, die bevorzugt ebenfalls Teil eines Marker-Geräts ist, erfasst wird. Die Marker-Empfängereinheit kann bspw. am Rand der Bühne angeordnet sein, bevorzugt gemeinsam mit einer oder mehreren weiteren Marker-Empfängereinheit(en). Zugleich wird mit der Abstandsmesseinheit das Abstandsbild des Objektraums aufgenommen, anhand davon wird das Objekt im Objektraum lokalisiert, jedenfalls in einem Bereich davon. Das Markersignal bzw. der/die erfassten Signalanteile werden dabei für eine Individualisierung des Objekts genutzt. Bevorzugt kann das Objekt auch anhand des Markersignals lokalisiert werden, was die Genauigkeit erhöhen kann.
  • Im Einzelnen wird dann im Betrieb idealerweise nicht nur ein Abstandsbild aufgenommen, sondern werden im Zeitverlauf eine Vielzahl Abstandsbilder nacheinander aufgenommen, bspw. mindestens 5 bzw. 10 Abstandsbilder pro Sekunde (technisch bedingt können Obergrenzen bspw. bei höchstens 50, 40 bzw. 30 Abstandsbildern pro Sekunde liegen). Wird bevorzugt eine TOF-Kamera verwendet, emittiert diese zur Aufnahme eines jeweiligen Abstandsbildes in der Regel nicht nur einen einzigen Puls, sondern ein Pulspaket, also mehrere Einzelpulse nacheinander. Daraus resultiert eine entsprechende Mehrzahl Echopulse, und es kann bspw. durch Mittelung das Signal-/Rauschverhältnis verbessert werden.
  • Bei einer bevorzugten Ausführungsform wird mit der Abstandsmesseinheit vorab ein Referenz-Abstandsbild des Objektraums aufgenommen. Die Abstandsmesseinheit befindet sich hierbei bereits in ihrer Position relativ zu z. B. der Bühne, und das Referenz-Abstandsbild wird dann im Zuge eines Einrichtens bzw. Einmessens aufgenommen. Dabei befindet sich das später zu beleuchtende Objekt noch nicht im Objektraum, andere Gegenstände wie Bühnenequipment etc. sind jedoch idealerweise bereits an ihren Positionen angeordnet. Wird später im Betrieb das Abstandsbild des Objektraums mit dem darin befindlichen Objekt aufgenommen, kann das Referenz-Abstandsbild für eine Differenzbetrachtung genutzt werden. Damit lassen sich jene Pixel bzw. Voxel herausrechnen, die einen statischen Hintergrund bilden und in der Bildauswertung entsprechend nicht weiter berücksichtigt werden müssen. Dies kann den Rechenaufwand reduzieren und Reaktionszeiten verkürzen helfen.
  • Bei einer bevorzugten Ausführungsform werden im Betrieb, also während der Beleuchtung, wenn sich das Objekt in dem Objektraum befindet, nacheinander eine Mehrzahl Abstandsbilder aufgenommen (siehe vorne). Im Zuge einer Differenzbetrachtung werden dann diese Abstandsbilder in ein Verhältnis zueinander gesetzt, und es lassen sich bspw. Bewegungstrajektorien gewinnen. Bewegt sich das Objekt z. B. durch den Objektraum und wird es dabei mit einem Lichtkegel verfolgt, kann anhand der Bewegungstrajektorien eine Vorausberechnung erfolgen. Aus den vorherigen Abstandsbildern wird also ein Zukunftsvektor erstellt, was auch als Prediction-Modelling bezeichnet werden kann. Damit lässt sich in einem Bereich von z. B. bis zu 200 ms vorhersagen, wo sich das Objekt befinden wird und kann die Steuerung der Beleuchtungseinheit entsprechend in die Zukunft hinein angepasst bzw. vorbereitet werden.
  • Die Differenzbetrachtungen können bspw. auch dahingehend genutzt werden, dass Pixel bzw. Voxel, die aktuell in Bewegung sind, anders gewichtet werden als für einen längeren Zeitraum ruhende Pixel/Voxel. Es kann also nicht nur ein statischer Hintergrund abgezogen werden (Referenz-Abstandsbild, siehe vorne), sondern es kann auch eine dynamische Anpassung wichtig/weniger wichtig geben. Längere Zeit unbewegte Pixel/Voxel werden dann z. B. nicht mehr in derselben Genauigkeit wie die bewegten Pixel/Voxel ausgewertet. Sie können in darauffolgenden Abstandsbildern auch herausgerechnet werden.
  • Die Erfindung betrifft auch die Verwendung eines vorliegend beschriebenen Beleuchtungssystems zur Beleuchtung einer Darbietungsfläche. Hierbei kann es sich insbesondere um eine Bühne, etwa eine Konzert- bzw. Showbühne, insbesondere Arena, handeln, selbstverständlich aber auch um Theaterbühne oder dergleichen. Die Darbietung kann z. B. auch auf einer Messe erfolgen, es ist also insbesondere eine Beleuchtung von Messeflächen und dergleichen möglich. Auch im Film- bzw. Fernsehbereich sind Anwendungen denkbar, ebenso zur Beleuchtung von Tanzflächen, auch in Discotheken.
  • In der Anwendung können auch eine Mehrzahl Beleuchtungseinheiten, die jeweils mit einer dazu ortsfesten Abstandsmesseinheit ausgestattet sind, kombiniert werden. Sie können die Darbietungsfläche bspw. von unterschiedlichen, aber auch von derselben Seite aus beleuchten. Je nach Anordnung im Einzelnen kann die Zahl der Beleuchtungseinheiten mit Abstandsmesseinheiten (insbesondere TOF-Kameras) beliebig erhöht werden, insbesondere wenn die Objekträume nicht oder nur teilweise überlappen. Andererseits kann aber auch eine Begrenzung nach oben von Interesse sein, bspw. um einer unerwünschten Wechselwirkung der einzelnen TOF-Messungen vorzubeugen. So können bspw. nicht mehr als 10, 8 bzw. 6 erfindungsgemäß ausgestattete Beleuchtungseinheiten bzw. -systeme an derselben Darbietungsfläche kombiniert werden.
  • In einem Verbund von Beleuchtungseinheiten können dann die von einem erfindungsgemäßen Beleuchtungssystem bzw. der zugeordneten Steuereinheit ermittelten Objektinformationen bzw. Objektkoordinaten zur Steuerung weiterer Beleuchtungseinheiten verwendet werden, bspw. um ein gemeinsames Objekt zu beleuchten.
  • Gibt es mehrere Objekte, die unterschiedlich beleuchtet werden sollen, werden diese bevorzugt jeweils mit einer eigenen Marker-Emittereinheit (insbesondere einen jeweiligen Marker-Gerät) ausgestattet, wobei dem jeweiligen Markersignal vorzugsweise eine jeweilig eigene Objektinformation aufmoduliert ist. Trotz der zusätzlichen Markierung mittels Marker-Emittereinheit kann auch eine Begrenzung der Anzahl an unterschiedlichen bzw. zu unterscheidenden Objekten von Vorteil sein. In der Anwendung können bspw. höchstens 10, 8 bzw. 6 Objekte zu unterscheiden und unterschiedlich zu beleuchten sein.
  • Relativ zu der Darbietungsfläche kann die Beleuchtungseinheit samt Abstandsmesseinheit ortsfest vorgesehen sein, bspw. an einem ortsfesten Ständer oder Träger montiert. Es ist aber andererseits auch eine relativ zur Darbietungsfläche versetzbar, insbesondere verschiebbar, gelagerte Beleuchtungseinheit denkbar. Da die Abstandsmesseinheit relativ zur Beleuchtungseinheit bzw. deren Sockel ortsfest ist, wird, wenn diese Einheit insgesamt versetzt wird, die vorstehend diskutierte Korrelation zwischen den Bezugs- bzw. Koordinatensystemen nicht aufgehoben. Die Beleuchtungseinheit kann samt Abstandsmesseinheit bspw. auf einer Schiene verschiebbar sein, es ist aber bspw. auch eine Anordnung an einem Roboterarm denkbar.
  • Figurenliste
  • Im Folgenden wird die Erfindung anhand eines Ausführungsbeispiel näher erläutert, wobei die einzelnen Merkmale im Rahmen der nebengeordneten Ansprüche auch in anderer Kombination erfindungswesentlich sein können und auch weiterhin nicht im Einzelnen zwischen den unterschiedlichen Anspruchskategorien unterschieden wird.
  • Im Einzelnen zeigt
    • 1 eine Anwendung eines erfindungsgemäßen Beleuchtungssystems in einer Aufsicht, von oben auf eine Bühne blickend;
    • 2 eine Beleuchtungseinheit des Beleuchtungssystems gemäß 1 in einer Detailansicht;
    • 3 wiederum in einer Aufsicht auf eine Bühne blickend in schematischer Darstellung ein Marker-System als Teil des Beleuchtungssystems gemäß 1;
    • 4 ein Ablaufdiagramm zur Illustration der Vorgänge bei Erfassung und Beleuchtung eines Objekts mit dem Beleuchtungssystem gemäß 1.
  • Bevorzugte Ausführung der Erfindung
  • 1 zeigt ein erfindungsgemäßes Beleuchtungssystem 1 in schematischer Darstellung, zur Illustration in einer Anwendung. Diese betrifft die Beleuchtung eines Objekts 2, etwa eines Schauspielers oder Moderators auf einer Bühne (siehe unten im Detail). Dazu weist das Beleuchtungssystem zunächst eine Beleuchtungseinheit 3 auf. Diese ist aus einem Sockel 3a und einem daran bewegbar gelagerten Leuchtenkopf 3b aufgebaut, bezüglich weiterer Details siehe 2. In dem Leuchtenkopf 3b ist ein Leuchtmittel angeordnet, bspw. LED-basiert, in der Regel in Verbindung mit einer Optik. Im Betrieb kann mit dem Leuchtenkopf 3b jedenfalls entlang eines Strahls 4a ein Lichtkegel 4 mit dem Beleuchtungslicht 4b emittiert werden. Aufgrund der bewegbaren Lagerung des Leuchtenkopfs 3b kann der Lichtkegel 4 über die Darbietungsfläche bewegt werden.
  • Das Beleuchtungssystem 1 weist ferner eine Abstandsmesseinheit 5 auf, vorliegend eine TOF-Kamera. Mit dieser kann von einem Objektraum 8 ein Abstandsbild aufgenommen werden, es ist dann eine Lokalisierung des Objekts 2 anhand des Abstandsbildes möglich. Damit kann der Lichtkegel 4 über eine entsprechende Ansteuerung der Beleuchtungseinheit 3 automatisiert auf das Objekt 2 gerichtet werden bzw. diesem folgen, wenn es sich bewegt. Dazu wird das Abstandsbild ausgewertet, vgl. auch 4 und die detaillierten Angaben in der Beschreibungseinleitung.
  • Die Abstandsmesseinheit 5 ist am Sockel 3a der Beleuchtungseinheit 3 befestigt. Dies ist insoweit von Vorteil, als die TOF-Kamera von derselben Stelle aus auf die Darbietungsfläche bzw. Bühne blickt, von welcher aus auch beleuchtet wird. Vereinfacht ausgedrückt sind Abstandsmess- und Beleuchtungseinheit 5, 3 also im selben Bezugssystem angeordnet, womit die Detektion des Objekts 2 im Abstandsbild unmittelbar in eine Ansteuerung der Beleuchtungseinheit 3 (insbesondere Pan/Tilt-Koordinaten) umgesetzt werden kann.
  • Das Beleuchtungssystem 1 weist ferner ein Marker-System 6 auf, wobei vorliegend ein erstes Marker-Gerät 6a und ein zweites Marker-Gerät 6b gezeigt sind. Ersteres ist am Sockel 3a der Beleuchtungseinheit 3 angeordnet, Letzteres trägt der Schauspieler. Jedes der Marker-Geräte 6a,b weist eine Emittereinheit 6aa,ba und eine Empfängereinheit 6ab,bb auf. Im Betrieb emittiert die dem Schauspieler, also dem Objekt 2 zugeordnete Marker-Emittereinheit 6ba ein Markersignal 7 (ein UWB-Signal). Dieses bzw. ein Signalanteil davon wird mit der dem Sockel 3a der Beleuchtungseinheit 3 zugeordneten Marker-Empfängereinheit 6ab erfasst. Das Markersignal 7 kann bspw. eine Information über das Objekt 2 tragen, anhand welcher dieses individualisiert bzw. die Beleuchtung eingestellt werden kann (z. B. „zu beleuchtendes Objekt: ja/nein“ bzw. auch „Art der Beleuchtung: Farbe etc.“). Bezüglich weiterer Möglichkeiten wird auch auf 3 verwiesen.
  • Der symmetrische Aufbau der Marker-Geräte 6a,b kann bspw. in einer Einmessphase von Vorteil sein, wenn also das Beleuchtungssystem 1 an der Bühne installiert wird. Es wird auf die Beschreibungseinleitung verwiesen.
  • 2 zeigt nun zunächst die Beleuchtungseinheit 3 weiter im Detail, und zwar in einer Seitenansicht. Die Beleuchtungseinheit 3 ist als kopfbewegter Scheinwerfer ausgeführt, der Leuchtenkopf 3b ist über einen Arm 3c am Sockel 3a gelagert. Relativ zu dem Sockel 3a ist der Arm 3c in einer Drehebene 30a drehbar, die in der vorliegenden Darstellung und auch in der Anwendung horizontal liegt (Pan). Der Leuchtenkopf 3b ist in einer Drehebene 30b drehbar an dem Arm 3c gelagert. Die Drehebene 30b liegt vorliegend und in der Anwendung vertikal (Tilt). Mit dem entsprechend gelagerten Leuchtenkopf 3b kann der Lichtkegel 4 über die Darbietungsfläche bzw. Bühne bewegt und kann insbesondere das Objekt 2 verfolgt werden.
  • 3 zeigt eine Bühne 35 in schematischer Darstellung, und zwar von oben auf die Darbietungsfläche 35a blickend. Die Ansicht entspricht also jener gemäß 1, im Unterschied dazu ist vorliegend die Beleuchtungseinheit 3 nicht mehr im Einzelnen dargestellt. Stattdessen illustriert die Figur insbesondere das Marker-System 6 weiter im Detail. Am Rand der Bühne 35 ist nicht nur das Marker-Gerät 6a, sondern sind zwei weitere Marker-Geräte 6c, d angeordnet. Es gibt somit zwei weitere Marker-Empfängereinheiten 6cb,db.
  • Jede der Marker-Empfängereinheiten 6ab,cb,db empfängt einen jeweiligen Signalanteil 7a,c,d des Markersignals 7. In Kenntnis der Ausgangsleistung wird dabei über die jeweilig erfasste Signalintensität aus dem Leistungsabfall ein jeweiliger Abstandswert errechnet. Jede Marker-Empfängereinheit 6ab,cb,db für sich ergibt damit jeweils einen Kreis 36a,c,d auf dem sich das Objekt 2 befinden kann. Da mehrere, von unterschiedlichen Stellen aus aufgenommene Messwerte vorliegen, lässt sich das Objekt 2 damit lokalisieren, nämlich am Schnittpunkt der Kreise 36a,c,d. Die Marker-Empfängereinheiten 6ab,cb,db sind jeweils Teil eines bidirektionalen Marker-Geräts 6a,c,d. Im Zuge einer Einrichtung bzw. eines Einmessen können so bspw. die Relativabstände untereinander ermittelt werden. Die Lokalisierung des Objekts 2 ist dann mittels einer Triangulation möglich.
  • 4 illustriert in einem Ablaufdiagramm die Vorgänge in einer Steuereinheit 40 des Beleuchtungssystems 1. Die Steuereinheit 40 hat einen oder mehrere Eingänge 40a für das bzw. die Abstandsbilder und die Messergebnisse der Marker-Empfängereinheiten 6ab,cb,db, sowie ferner einen oder mehrere Ausgänge 40b zur Ausgabe von Befehlen an die Beleuchtungseinheit 30 (entweder direkt an diese oder an ein Steuergerät davon). Eine Eingangsgröße ist nun einerseits das Abstandsbild 41, wobei im Zeitverlauf eine Vielzahl Abstandsbilder des Objektraums 3 aufgenommen werden, bspw. mit einer Wiederholrate von 20 Hz.
  • Im Einzelnen kann die TOF-Kamera bspw. mit einer Pulsdauer von 41 ns und Pulspausen derselben Dauer in den Objektraum emittieren, wobei zur Aufnahme eines jeweiligen Abstandsbildes ein Pulspaket mit bspw. 40000 Pulsen zugrunde gelegt werden kann. Dessen Dauer liegt dann bei 3,5 ms, was ein Messzeitfenster für Phasenbilder vorgibt. Ein Pulsrahmen kann dann aus vier Pulspaketen im Abstand von 1,6 ms entsprechen, was für den Pulsrahmen eine Dauer von 20,4 ms ergibt. Dies ist das Messzeitfenster für die 3D-Bilder.
  • Generell können die Puls- und/oder Pausendauern bzw. auch die Zahl der Pulse je Paket kameraintern voreingestellt sein. Es ist aber andererseits auch eine bedarfs- und anwendungsbezogene Parametrisierung möglich, bspw. bei oder vor dem Hochfahren des Beleuchtungssystems. Es kann sogar auch eine Anpassung im laufenden Betrieb möglich sein. Eine gewisse Variabilität kann bspw. in einer Anwendung mit mehreren TOF-Kameras von Interesse sein, um Artefakten aufgrund einer gegenseitigen Beeinflussung vorzubeugen.
  • Wie 4 zeigt, wird das Abstandsbild dann einer Bildverarbeitung 42 unterzogen. Diese kann im Falle der TOF-Kamera insbesondere in Kombination mit dem 2D-Kamerabild erfolgen; aus dem 3D-Entfernungsbild werden Zielpunkte, auch Blobs genannt, im Objektraum 6 erkannt. Als Ergebnis liegen dann bezogen auf einen Koordinatenraum 43 Informationen vor, an welcher bzw. welchen Stellen sich gegebenenfalls beleuchtungsseitig interessante Objekte befinden. Hierbei ist zu beachten, dass die Darstellungen gemäß den 1 und 3 schematischer Natur sind und sich in der Praxis vielfach eine größere Anzahl an Akteuren auf der Bühne 35 befinden wird. Dabei kann es insbesondere auch zu Situationen kommen, in denen einige der Akteure aus Sicht der TOF-Kamera hintereinander stehen, sodass die Akteure anhand des Abstandsbildes 41 nicht mehr eindeutig in dem resultierenden Koordinatensystem 43 verortet werden können. Andererseits kann es auch Situationen geben, in denen die Entscheidung über das anzuwendende Beleuchtungsprofil auch dann eine Herausforderung darstellen kann, wenn sich nur ein einziger Akteur auf der Bühne befindet (z. B. im zeitlichen Wechsel mit anderen Akteuren, die anhand des Abstandsbildes 41 nicht differenziert werden können).
  • Als weitere Eingangsgrößen werden deshalb die mit den Marker-Empfängereinheiten 6ab,cb,db erfassten Signalanteile 7a,c,d zugrunde gelegt, wobei im Zuge einer Auswertung 45 eine Objektinformation 46 erhalten wird. Diese kann eine mittels Triangulation bestimmte Position des Objekts auf der Darbietungsfläche 35a und/oder eine Information über die Objektklasse beinhalten. Es können also auch unabhängig von der Ortung gemäß 3 unterschiedliche Objekte bspw. mit einer jeweilig eigenen Objektinformation codiert und so für die Steuereinheit 40 erkennbar gemacht sein.
  • Nach einer Korrelation 47 zwischen Ergebnis der Bildauswertung einerseits und Auswertung der Objektinformation andererseits kann dann das eigentliche Beleuchtungsschema 48 erstellt werden. Aus der Lokalisierung im Koordinatensystem 43 können dann bspw. Pan/Tilt-Werte für die Ansteuerung der Beleuchtungseinheit 3 erzeugt werden, was noch innerhalb der Steuereinheit 40 oder auch bereits im Steuergerät der Beleuchtungseinheit 3 erfolgen kann.
  • Im Einzelnen können für die Beleuchtung dann sogenannte Light Codes programmiert und/oder gespeichert sein. Diese können fest vorgegeben sein, z. B. „Folge dem Objekt“/ „Beleuchte nach 10 Sekunden mit einer anderen Farbe“ etc., es ist aber auch eine Adaption im Betrieb denkbar (z. B. durch bestimmte Bewegungen des Objekts ausgelöst, etwa ein Springen). Mögliche Steuerungsfunktionen der Beleuchtungseinheit 3 können z. B. Pan, Tilt, Dimmer, Fokus, Zoom, Frost, Farbe, relative Iris, relativer Fokus und/oder relativer Dimmer sein, auch eine Korrelation mit anderen Effekteinrichtungen und/oder Bühneneinrichtungen (auch Kleidung etc., auch des Publikums) bzw. mit Effekten auf Videoprojektions- und LED-Wänden ist denkbar.
  • Bezugszeichenliste
  • Beleuchtungssystem 1
    Objekts 2
    Beleuchtungseinheit 3
    Sockel 3a
    Leuchtenkopf 3b
    Arm 3c
    Lichtkegel 4
    Strahl 4a
    Beleuchtungslicht 4b
    Abstandsmesseinheit 5
    Marker-Geräte 6a-d
    Emittereinheiten 6aa,ba,ca,da
    Empfängereinheiten 6ab,bb,cb,db
    Markersignal 7
    Signalanteile 7a, c, d
    Objektraum 8
    Drehebene (Pan) 30a
    Drehebene (Tilt) 30b
    Bühne 35
    Darbietungsfläche 35a
    Kreise 36a, c, d
    Steuereinheit 40
    Eingänge 40a
    Ausgänge 40b
    Abstandsbild 41
    Bildverarbeitung 42
    Koordinatenraum 43
    Auswertung (Markersignal) 45
    Objektinformation 46
    Korrelation 47
    Beleuchtungsschema 48

Claims (18)

  1. Beleuchtungssystem (1) zum Beleuchten eines in einem Objektraum (8) befindlichen Objekts (2), mit - einer zur Emission von Beleuchtungslicht (4b) in den Objektraum (8) ausgelegten Beleuchtungseinheit (3), - einer Abstandsmesseinheit (5) zum Aufnehmen eines Abstandsbilds (41) des Objektraums (8) mit dem darin befindlichen Objekt (2), die relativ zu zumindest einem Teil der Beleuchtungseinheit (3), ortsfest an diesem angeordnet ist, - einem Markersystem (6) mit einer Marker-Emittereinheit (66a) zur Emission eines Markersignals (7) und einer Marker-Empfängereinheit (6ab) zum Erfassen zumindest eines Signalanteils (7a) des Markersignals (7), wobei das Beleuchtungssystem (1) dazu eingerichtet ist, - das Objekt (2) anhand des Abstandsbilds (41) in einem Bereich des Objektraums (8) zu lokalisieren und mithilfe des mit der Marker-Empfängereinheit (6ab) empfangenen Signalteils zu individualisieren und - in Abhängigkeit davon das Objekt (2) mit der Beleuchtungseinheit (3) zu beleuchten.
  2. Beleuchtungssystem (1) nach Anspruch 1, bei welchem die Marker-Emittereinheit (66a) Teil eines ersten Marker-Geräts (6b) ist, das zusätzlich eine Empfängereinheit (6bb) aufweist, und die Marker-Empfängereinheit (6ab) Teil eines zweiten Marker-Geräts (6a) ist, das zusätzlich eine Emittereinheit (6aa) aufweist.
  3. Beleuchtungssystem (1) nach Anspruch 1 oder 2, bei welchem das Markersystem (6) funkbasiert ist, also das Markersignal (7) ein Funksignal ist, insbesondere ein UWB-Signal.
  4. Beleuchtungssystem (1) nach einem der vorstehenden Ansprüche, bei welchem die Marker-Empfängereinheit (6ab) relativ zu zumindest einem Teil der Beleuchtungseinheit (3), ortsfest an diesem angeordnet ist.
  5. Beleuchtungssystem (1) nach einem der vorstehenden Ansprüche, welches dazu eingerichtet ist, aus dem mit der Marker-Empfängereinheit (6ab) erfassten Signalanteil (7a) des Markersignals (7) eine Entfernung der Marker-Emittereinheit (66a) von der Marker-Empfängereinheit (6ab) zu bestimmen.
  6. Beleuchtungssystem (1) nach Anspruch 5, bei welchem das Markersystem (6) eine weitere Marker-Empfängereinheit (6cb,db) zum Erfassen zumindest eines Signalanteils (7c,d) des Markersignals (7) aufweist, wobei das Beleuchtungssystem (1) dazu eingerichtet ist, aus den Signalanteilen (7a,c,d) eine Position der Marker-Emittereinheit (66a) relativ zu den Marker-Empfängereinheiten (6ab,cb,db) mittels einer Triangulation zu bestimmen.
  7. Beleuchtungssystem (1) nach einem der vorstehenden Ansprüche, bei welchem die Beleuchtungseinheit (3) dazu ausgelegt ist, entlang unterschiedlicher Strahlen (4a), die in unterschiedliche Richtungen weisen, jeweils einen Lichtkegel (4) zu emittieren, wobei die unterschiedlichen Strahlen (4a) einen gemeinsamen Ursprung in einem Polarkoordinatensystem haben.
  8. Beleuchtungssystem (1) nach Anspruch, 7, bei welchem die Beleuchtungseinheit (3) einen Sockel (3a) und einen Arm (3c), sowie zur Emission des Beleuchtungslichts (4b) einen Leuchtenkopf (3b) aufweist, wobei der Arm (3c) drehbar an dem Sockel (3a) gelagert ist und der Leuchtenkopf (3b) drehbar an dem Arm (3c) gelagert ist.
  9. Beleuchtungssystem (1) nach einem der vorstehenden Ansprüche, bei welchem die Abstandsmesseinheit (5) ortsfest an einem Sockel (3a) der Beleuchtungseinheit (3) befestigt ist.
  10. Beleuchtungssystem (1) nach Anspruch 9, bei welcher eine Halterung, mittels welcher die Abstandsmesseinheit (5) ortsfest an dem Sockel (3a) befestigt ist, derart vorgesehen ist, dass die Abstandsmesseinheit (5) mit der Halterung in unterschiedliche Kippstellungen relativ zu dem Sockel (3a) gebracht werden kann.
  11. Beleuchtungssystem (1) nach Anspruch 10, bei welchem ein zur Emission des Beleuchtungslichts (4b) vorgesehener Leuchtenkopf (3b) der Beleuchtungseinheit (3) relativ zu dem Sockel (3a) in einer Drehebene (30a) drehbar ist, wobei eine mit den unterschiedlichen Kippstellungen der Halterung aufgespannte Ebene parallel zu der Drehebene (30a) liegt.
  12. Beleuchtungssystem (1) nach einem der vorstehenden Ansprüche, die Abstandsmesseinheit (5) dazu ausgelegt ist, für die Abstandsmessung Pulse im infraroten Spektralbereich zu emittieren.
  13. Beleuchtungssystem (1) nach einem der vorstehenden Ansprüche, bei welchem die Abstandsmesseinheit (5) eine TOF-Kamera ist.
  14. Beleuchtungssystem (1) nach einem der vorstehenden Ansprüche, das dazu eingerichtet ist, das Objekt (2) mithilfe des mit der Marker-Empfängereinheit (6ab) erfassten Signalanteils (7a) zu klassifizieren.
  15. Verfahren zum Betreiben eines Beleuchtungssystems (1) nach einem der vorstehenden Ansprüche, bei welchem Verfahren - das Objekt (2) mit der Marker-Emittereinheit (66a) versehen wird, - das Markersignal (7) mit der Marker-Empfängereinheit (6ab) erfasst wird, - mit der Abstandsmesseinheit (5) das Abstandsbild (41) von dem Objektraum (8) mit dem darin befindlichen Objekt (2) aufgenommen wird, - das Objekt (2) anhand des Abstandsbilds (41) in zumindest einem Bereich des Objektraums (8) lokalisiert wird, und - das Objekt (2) anhand des Markersignals (7) individualisiert und in Abhängigkeit davon beleuchtet wird.
  16. Verfahren nach Anspruch 15, bei welchem vorab, noch bevor sich das Objekt (2) in dem Objektraum (8) befindet, ein Referenz-Abstandsbild des Objektraums (8) aufgenommen wird, welches dann im Zuge einer Auswertung des Abstandsbilds (41) für eine Differenzbetrachtung genutzt wird.
  17. Verfahren nach Anspruch 15 oder 16, bei welchem, wenn sich das Objekt (2) in dem Objektraum (8) befindet, nacheinander eine Mehrzahl Abstandsbilder (41) aufgenommen werden, die im Zuge einer Auswertung für eine Differenzbetrachtung genutzt werden, insbesondere zur Bestimmung von Bewegungstrajektorien.
  18. Verwendung eines Beleuchtungssystems (1) nach einem der Ansprüche 1 bis 14 zur Beleuchtung einer Darbietungsfläche, insbesondere einer Bühne, vorzugsweise in einem Verfahren nach einem der Ansprüche 15 bis 17.
DE102018002765.2A 2018-04-04 2018-04-04 Beleuchtungssystem Pending DE102018002765A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102018002765.2A DE102018002765A1 (de) 2018-04-04 2018-04-04 Beleuchtungssystem
PCT/EP2019/058246 WO2019192989A1 (de) 2018-04-04 2019-04-02 Beleuchtungssystem
CN201980024822.4A CN111955054B (zh) 2018-04-04 2019-04-02 照明系统
US17/044,821 US11576246B2 (en) 2018-04-04 2019-04-02 Illumination system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018002765.2A DE102018002765A1 (de) 2018-04-04 2018-04-04 Beleuchtungssystem

Publications (1)

Publication Number Publication Date
DE102018002765A1 true DE102018002765A1 (de) 2019-10-10

Family

ID=66041482

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018002765.2A Pending DE102018002765A1 (de) 2018-04-04 2018-04-04 Beleuchtungssystem

Country Status (4)

Country Link
US (1) US11576246B2 (de)
CN (1) CN111955054B (de)
DE (1) DE102018002765A1 (de)
WO (1) WO2019192989A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11365871B2 (en) 2020-04-06 2022-06-21 Robert Bosch Gmbh Human tracking to produce improved jobsite lighting
EP4141318A4 (de) * 2020-04-24 2024-03-13 Panasonic Ip Man Co Ltd Beleuchtungssystem

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CH671821A5 (en) * 1986-06-18 1989-09-29 Enrico Schneider Stage lighting system for providing different lightingeffects
EP0814344A2 (de) * 1996-06-19 1997-12-29 Matsushita Electric Works, Ltd. Beleuchtungssystem mit automatischer Nachführung
DE10214227A1 (de) * 2002-03-22 2003-10-02 Finger Christina System zur Bestrahlung mindestens eines Objektes, Verwendung des Systems und Verfahren zur Bestrahlung mindestens eines Objektes
DE102007057757A1 (de) * 2006-11-30 2008-06-19 Thomas Patzner System und Verfahren zum automatischen Ausrichten eines Beleuchtungsmittels oder einer optischen Aufnahmevorrichtung
WO2016051018A1 (en) * 2014-10-02 2016-04-07 Taikateatteri 13 Ry Arrangement for providing visual effects and related method

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5023709A (en) * 1989-11-06 1991-06-11 Aoi Studio Kabushiki Kaisha Automatic follow-up lighting system
CN1192249C (zh) * 1996-06-19 2005-03-09 松下电工株式会社 自动跟踪照明设备、照明控制器和跟踪设备
CN102726123B (zh) * 2010-01-15 2015-02-18 皇家飞利浦电子股份有限公司 用于对局部化光贡献进行2d检测的方法和系统
WO2012051715A1 (en) * 2010-10-18 2012-04-26 Will Bauer System and method for controlling media projectors
CN202915911U (zh) * 2012-10-19 2013-05-01 广州市盛光微电子有限公司 一种用于测距的拍摄装置
US9196067B1 (en) * 2013-03-05 2015-11-24 Amazon Technologies, Inc. Application specific tracking of projection surfaces
CN106465499B (zh) * 2014-05-22 2018-11-30 莱弗实验室公司 定向照明系统和方法
WO2016198556A1 (en) * 2015-06-09 2016-12-15 Feeney Liam A visual tracking system and method
CN105357484A (zh) * 2015-11-20 2016-02-24 西安斯凯智能科技有限公司 一种目标定位跟踪系统、装置及定位跟踪方法
CN105848284B (zh) * 2016-05-03 2019-05-07 山东省计算中心(国家超级计算济南中心) 一种无线传感网络高精度定位系统
US10701253B2 (en) * 2017-10-20 2020-06-30 Lucasfilm Entertainment Company Ltd. Camera systems for motion capture
KR20200086332A (ko) * 2017-12-11 2020-07-16 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 대상물의 현재 위치 결정 방법, 포지셔닝 시스템, 트래커 및 컴퓨터 프로그램

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CH671821A5 (en) * 1986-06-18 1989-09-29 Enrico Schneider Stage lighting system for providing different lightingeffects
EP0814344A2 (de) * 1996-06-19 1997-12-29 Matsushita Electric Works, Ltd. Beleuchtungssystem mit automatischer Nachführung
DE10214227A1 (de) * 2002-03-22 2003-10-02 Finger Christina System zur Bestrahlung mindestens eines Objektes, Verwendung des Systems und Verfahren zur Bestrahlung mindestens eines Objektes
DE102007057757A1 (de) * 2006-11-30 2008-06-19 Thomas Patzner System und Verfahren zum automatischen Ausrichten eines Beleuchtungsmittels oder einer optischen Aufnahmevorrichtung
WO2016051018A1 (en) * 2014-10-02 2016-04-07 Taikateatteri 13 Ry Arrangement for providing visual effects and related method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11365871B2 (en) 2020-04-06 2022-06-21 Robert Bosch Gmbh Human tracking to produce improved jobsite lighting
EP4141318A4 (de) * 2020-04-24 2024-03-13 Panasonic Ip Man Co Ltd Beleuchtungssystem

Also Published As

Publication number Publication date
CN111955054B (zh) 2023-06-20
WO2019192989A1 (de) 2019-10-10
US11576246B2 (en) 2023-02-07
CN111955054A (zh) 2020-11-17
US20210132181A1 (en) 2021-05-06

Similar Documents

Publication Publication Date Title
CN105100780B (zh) 使用选择的像素阵列分析的光学安全监视
EP3033251B1 (de) Sensoranordnung zur erfassung von bediengesten an fahrzeugen
DE112013005337T5 (de) Objekterfassung und Nachverfolgung mit veränderlichen Feldbeleuchtungsvorrichtungen
EP2569757B1 (de) Bewegungsanalyse- und/oder -verfolgungssystem
EP2695785A1 (de) Kraftfahrzeug mit Fahrerassistenzsystem und Verfahren zum Betrieb eines Fahrerassistenzsystems
DE102019206644B3 (de) Verfahren zum Betrieb einer Umgebungsbeleuchtungseinrichtung eines Kraftfahrzeugs und Kraftfahrzeug
EP2946226B1 (de) Universelle sensoranordnung zur erfassung von bediengesten an fahrzeugen
EP3526963A1 (de) Objektüberwachung mit infrarotbildaufnahme und infrarotpulsbeleuchtung
EP3164735B1 (de) Time-of-flight-kamera, kraftfahrzeug und verfahren zum betrieb einer time-of-flight-kamera in einem kraftfahrzeug
DE102016200109A1 (de) Vorrichtung und Verfahren zur Erfassung von Gegenständen in einem Erfassungsbereich
DE102014104174A1 (de) Gesteuerte Leuchtenvorrichtung
DE19680709C1 (de) Computergesteuertes Spielsystem
DE102018002765A1 (de) Beleuchtungssystem
DE102016010373B4 (de) Verfahren und Vorrichtung zur Erkennung des Öffnungszustands eines Garagentores
DE102019003049B4 (de) Vorrichtung und Verfahren zum Erfassen von Objekten
EP3696537A1 (de) Vorrichtung und verfahren zur schadenserkennung an einem fahrenden fahrzeug
WO2022171328A1 (de) Mikrolinsenarray-projektionsvorrichtung, beleuchtungsvorrichtung und fahrzeug
DE2132624A1 (de) Verfahren zum beleuchten bewegter objekte
DE102022115267A1 (de) Verfahren zur Ermittlung wenigstens einer Korrekturfunktionen für ein LiDARSystem, LiDAR-System, Fahrzeug mit wenigstens einem LiDAR-System, Messanlage
DE102020213059B4 (de) Verfahren zur Umfelderfassung, Erfassungseinrichtung und Kraftfahrzeug
DE102017129626A1 (de) Sensorsystem zum dreidimensionalen Erfassen einer Szene mit verschiedenen Photonenakkumulationen
DE102017117212A1 (de) System und Verfahren zur Stereotriangulation
DE102017215614A1 (de) Stochastisch getaktete Bilderzeugung eines Lidar-System
DE102019112781B4 (de) Verfahren zum Koppeln von Koordinatensystemen und computergestütztes System
EP1347672B1 (de) System und Verfahren zur Bestrahlung eines Objektes

Legal Events

Date Code Title Description
R163 Identified publications notified
R082 Change of representative

Representative=s name: KOENIG SZYNKA TILMANN VON RENESSE PATENTANWAEL, DE