DE102019133753A1 - Werkzeuge für augmentierte realität in der lichtgestaltung - Google Patents

Werkzeuge für augmentierte realität in der lichtgestaltung Download PDF

Info

Publication number
DE102019133753A1
DE102019133753A1 DE102019133753.4A DE102019133753A DE102019133753A1 DE 102019133753 A1 DE102019133753 A1 DE 102019133753A1 DE 102019133753 A DE102019133753 A DE 102019133753A DE 102019133753 A1 DE102019133753 A1 DE 102019133753A1
Authority
DE
Germany
Prior art keywords
lighting fixture
virtual elements
display
virtual
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102019133753.4A
Other languages
English (en)
Inventor
Koen Buys
Christopher Mizerak
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronic Theatre Controls Inc
Original Assignee
Electronic Theatre Controls Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronic Theatre Controls Inc filed Critical Electronic Theatre Controls Inc
Publication of DE102019133753A1 publication Critical patent/DE102019133753A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/155Coordinated control of two or more light sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • H05B47/19Controlling the light source by remote control via wireless transmission
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/12Geometric CAD characterised by design entry means specially adapted for CAD, e.g. graphical user interfaces [GUI] specially adapted for CAD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/13Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)

Abstract

Ein Beleuchtungskörper in einem Veranstaltungsbereich kann anhand Augmented-Reality auf einem Benutzergerät gesteuert werden, das virtuelle Elemente auf einem Bild des Beleuchtungskörpers und/oder einer Szene im Veranstaltungsbereich anzeigt. Benutzereingabe zum Steuern des Beleuchtungskörpers wird über die virtuellen Elemente empfangen und ein Signal wird vom Benutzergerät gesendet, um den Beleuchtungskörper im Veranstaltungsbereich aufgrund der Benutzereingabe zu verändern. Die virtuellen Elemente ändern sich auf der Anzeige, um die Änderung des Zustands des tatsächlichen Beleuchtungskörpers widerzuspiegeln. Das Verändern des Beleuchtungskörpers umfasst das Ändern der Helligkeit, der Farbe oder des Fokus von Licht oder das Ändern der Position des Beleuchtungskörpers. Die virtuellen Elemente können ein Auswahlkästchen um den Beleuchtungskörper, Herstellerdaten, Kanalnummern, DMX-Adressen, Diagnostikinformationen, einen Schieberegler, einen Schalter, einen Drehknopf, einen Knopf, einen virtuellen Verschluss, eine virtuelle Schwenk-/Neigungsachse, einen beweglichen virtuellen Lichtstrahl oder ein Kulissenelement umfassen.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Patentanmeldung beansprucht den Vorteil der US- amerikanischen provisorischen Patentanmeldung Nr. 62/777,490 , eingereicht am 10. Dezember, 2018, und der US- amerikanischen provisorischen Patentanmeldung Nr. 62/777,466 , eingereicht am 10. Dezember 2018, wobei der gesamte Inhalt beider hiermit durch Bezugnahme hierin aufgenommen ist.
  • GEBIET DER ERFINDUNG
  • Die hierin beschriebenen Ausführungsformen betreffen das Steuern eines oder mehrerer Beleuchtungskörper.
  • KURZDARSTELLUNG
  • Lichtgestaltern, Bedienern von Beleuchtungskonsolen und/oder Beleuchtungssystemtechnikern könnte eine intuitive Anwendung zum Steuern von Beleuchtungskörpern über ein Anzeigegerät zugutekommen. Gegenwärtige Verfahren zum Steuern von Beleuchtungskörpern beinhalten häufig Software- und/oder Hardwarelösungen mit primitiven, taschenrechnerähnlichen Benutzerschnittstellen. Auch müssen visuelle Anzeigeinformationen sorgfältig in das System programmiert werden, um über die Benutzerschnittstelle auf geeignete Weise ausgedrückt werden zu können. Leider werden komplexe Beleuchtungsgerätedaten in diesen Systemen häufig in Form einer Kalkulationstabelle angezeigt. Dieser Schnittstellentyp erfordert genaue Kenntnis von dem Beleuchtungssystem, um Probleme ausfindig zu machen, Einstellungen vorzunehmen und neue visuelle Anzeigen zu erstellen. Der Benutzer muss das, was er im realen Display sehen möchte, geistig in die geeigneten Befehle in den Beleuchtungssteuerungsberechnungen umwandeln. Dieser Prozess kann langsam, umständlich und ineffizient sein, und es wird oft ein fachkundiger und erfahrener Benutzer benötigt.
  • Lichtgestaltungsentscheidungen müssen auch häufig unter Bedingungen getroffen werden, die denen der tatsächlichen Aufführung ähnlich sind. Beispielsweise muss eventuell das Erscheinungsbild und die Bewegung der Darsteller bei der Lichtgestaltung berücksichtigt werden, was erfordern kann, dass die Darsteller während des Programmierens der Lichteffekte anwesend sind. Eine solche Notwendigkeit kann unter manchen Umständen kostspielig oder unmöglich sein. Das Bewältigen dieser Aufgaben kann zum Vergeuden von Aufbauzeit führen und den Lichtgestaltungsprozess ineffizient machen.
  • Mit herkömmlichen Lichtgestaltungsmethoden muss sich der Benutzer auch verschiedene Bedingungen in einem Veranstaltungsbereich merken (z. B. wo sich potenzielle Gefahrenbereiche auf der Bühne befinden). Beispielsweise müssen Gefahren wie Falltüren, Bereiche unter Kulissenelementen, die auf die Bühne herabgelassen werden, und andere möglicherweise gefährliche Elemente vom Benutzer im Auge behalten werden, um die Darsteller während einer Generalprobe oder einer Veranstaltung nicht zu gefährden. Das visuelle Markieren solcher Bereiche kann den visuellen Eindruck des Veranstaltungsbereichs stören.
  • Um auf die vorstehenden Probleme einzugehen, sehen die hierin beschriebenen Systeme und Verfahren eine Augmented-Reality-Steuerschnittstelle für die Lichtgestaltung vor. Die Augmented-Reality-Schnittstelle behebt die Diskrepanz zwischen einer visuellen Anzeige der realen Elemente und der taschenrechnerartigen Schnittstelle eines typischen Beleuchtungssteuerungssystem, die ein Benutzer gegenwärtig erfährt. Die Augmented-Reality-Schnittstelle könnte ferner als Gestaltungsvorlage dienen, die zu jeder Tageszeit verwendet werden kann. Außerdem könnte die Augmented-Reality-Schnittstelle virtuelle Anzeigen von Gefahren bereitstellen, um den Benutzer zu informieren, ohne den visuellen Eindruck des Veranstaltungsbereichs zu opfern.
  • Hierin beschriebene Verfahren sehen das Steuern eines Beleuchtungskörpers vor. Die Verfahren umfassen das Erfassen, anhand einer Kamera, von Bilddaten des Beleuchtungskörpers, Erstellen, anhand eines elektronischen Prozessors, einer Anzeige, die eine Repräsentation des Beleuchtungskörpers auf einem Anzeigegerät umfasst, Erstellen, anhand des elektronischen Prozessors, von einem oder mehreren virtuellen Elementen, und Augmentieren, anhand des elektronischen Prozessors, der Repräsentation des Beleuchtungskörpers in der Anzeige mit dem einen oder den mehreren virtuellen Elementen. Die Verfahren umfassen auch das Empfangen, mittels des elektronischen Prozessors, einer Eingabe über den einen oder die mehreren virtuellen Elemente auf der Anzeige, um den Beleuchtungskörper zu steuern, und das Erzeugen, anhand des elektronischen Prozessors, eines Steuersignals, um eine Eigenschaft des Beleuchtungskörpers als Reaktion auf die Eingabe zu ändern.
  • In manchen Ausführungsformen umfasst die Anzeige die Umgebung des Beleuchtungskörpers, die in den Bilddaten des Beleuchtungskörpers erfasst ist.
  • In manchen Ausführungsformen umfassen das eine oder die mehreren virtuellen Elemente interaktive virtuelle Elemente und das Empfangen, mittels des elektronischen Prozessors, der Eingabe über das eine oder die mehreren virtuellen Elemente, um den Beleuchtungskörper zu steuern, umfasst das Empfangen der Eingabe als Ergebnis von Benutzerinteraktion mit dem einen oder den mehreren virtuellen Elementen auf der Anzeige.
  • In manchen Ausführungsformen umfassen die Verfahren auch das Erstellen, anhand des elektronischen Prozessors, der Anzeige mit dem einen oder den mehreren virtuellen Elementen in einem geänderten Zustand, nachdem das Steuersignals als Reaktion auf die Eingabe erzeugt wurde.
  • In manchen Ausführungsformen ist das Steuersignal zum Ändern einer Helligkeit von Licht, das vom Beleuchtungskörper erzeugt wird, zum Ändern einer Farbe von Licht, das vom Beleuchtungskörper erzeugt wird, zum Ändern eines Fokus von Licht, das vom Beleuchtungskörper erzeugt wird, zum Ändern einer Winkelposition des Beleuchtungskörpers, zum Ändern eines projizierten Bilds, das vom Beleuchtungskörper erzeugt wird, zum Ändern eines projizierten Videos, das vom Beleuchtungskörper erzeugt wird, zum Ändern eines Lichteffekts, der vom Beleuchtungskörper erzeugt wird (z. B. eines Stroboskopeffekts, eines Ausblendungseffekts, eines Wischeffekts oder dergleichen), eine Kombination aus denselben oder dergleichen betriebsbereit.
  • In manchen Ausführungsformen umfassen das eine oder die mehreren virtuellen Elemente Herstellerdaten des Beleuchtungskörpers, Kanalnummern des Beleuchtungskörpers, digitale Multiplexadressen des Beleuchtungskörpers, Diagnostikinformationen des Beleuchtungskörpers, einen Schieberegler, einen Schalter, einen Drehknopf, einen Knopf, einen virtuellen Verschluss, eine virtuelle Achse für eines aus Schwenken und Neigen des Beleuchtungskörpers, eine Farbpallette, Informationen bezüglich des vom Beleuchtungskörper erzeugten Lichts und/oder ein Auswahlkästchen, das den Beleuchtungskörper umgibt, um dem Benutzer das Wählen des Beleuchtungskörpers zum Ändern des Beleuchtungskörpers zu ermöglichen.
  • Hierin beschriebene Systeme sehen das Steuern eines Beleuchtungskörpers vor. Die Systeme umfassen ein Anzeigegerät und eine Steuerung, die einen elektronischen Prozessor umfasst, der an einen Speicher gekoppelt ist. Der Speicher speichert Anweisungen, die beim Ausführen vonseiten des elektronischen Prozessors die Steuerung konfigurieren, um Bilddaten des Beleuchtungskörpers von einer Kamera zu empfangen, eine Anzeige zu erstellen, die eine Repräsentation des Beleuchtungskörpers auf einem Anzeigegerät umfasst, ein oder mehrere virtuelle Elemente zu erstellen, die die Repräsentation des Beleuchtungskörpers auf der Anzeige mit dem einen oder den mehreren virtuellen Elementen augmentiert, eine Eingabe über das eine oder die mehreren virtuellen Elemente auf der Anzeige zu empfangen, um den Beleuchtungskörpers zu steuern und ein Steuersignal zu erzeugen, um eine Eigenschaft des Beleuchtungskörpers als Reaktion auf die Eingabe zu ändern.
  • In manchen Ausführungsformen umfasst die Anzeige die Umgebung des Beleuchtungskörpers, die in den Bilddaten des Beleuchtungskörpers erfasst ist.
  • In manchen Ausführungsformen umfassen das eine oder die mehreren virtuellen Elemente interaktive virtuelle Elemente und die Eingabe wird als Ergebnis von Benutzerinteraktion mit dem einen oder den mehreren virtuellen Elementen auf der Anzeige empfangen.
  • In manchen Ausführungsformen ist die Steuerung ferner zum Erstellen der Anzeige mit dem einen oder den mehreren virtuellen Elementen in einem geänderten Zustand konfiguriert, nachdem das Steuersignal als Reaktion auf die Eingabe erzeugt wurde.
  • In manchen Ausführungsformen ist das Steuersignal zum Ändern einer Helligkeit von Licht, das vom Beleuchtungskörper erzeugt wird, Ändern einer Farbe von Licht, das vom Beleuchtungskörper erzeugt wird, Ändern eines Fokus von Licht, das vom Beleuchtungskörper erzeugt wird und/oder Ändern einer Winkelposition des Beleuchtungskörpers betriebsbereit.
  • In manchen Ausführungsformen umfassen das eine oder die mehreren virtuellen Elemente Herstellerdaten des Beleuchtungskörpers, Kanalnummern des Beleuchtungskörpers, digitale Multiplexadressen des Beleuchtungskörpers, Diagnostikinformationen des Beleuchtungskörpers, einen Schieberegler, einen Schalter, einen Drehknopf, einen Knopf, einen virtuellen Verschluss, eine virtuelle Achse für eines aus Schwenken und Neigen des Beleuchtungskörpers, eine Farbpallette, Informationen bezüglich des vom Beleuchtungskörper erzeugten Lichts und/oder ein Auswahlkästchen, das den Beleuchtungskörper umgibt, um dem Benutzer das Wählen des Beleuchtungskörpers zum Ändern des Beleuchtungskörpers zu ermöglichen.
  • Hierin beschriebene Verfahren sehen das Steuern eines Beleuchtungssystems vor. Die Verfahren umfassen das Erfassen, anhand einer Kamera, eines Bilds einer Szene, die anhand eines Beleuchtungskörpers zu beleuchten ist, das Erstellen, anhand eines elektronischen Prozessors, einer Anzeige, die eine Repräsentation der Szene auf einem Anzeigegerät umfasst, das Erstellen, anhand des elektronischen Prozessors, von einem oder mehreren virtuellen Elementen, die mit dem Gerät verknüpft sind, und das Augmentieren, anhand des elektronischen Prozessors, der Repräsentation der Szene auf der Anzeige mit dem einen oder den mehreren virtuellen Elementen. Die Verfahren umfassen auch das Empfangen, mittels des elektronischen Prozessors, einer Eingabe über das eine oder die mehreren virtuellen Elementen auf der Anzeige, um das Gerät im Beleuchtungssystem zu steuern, und das Erzeugen, anhand des elektronischen Prozessors, eines Steuersignals, um eine Eigenschaft des Geräts als Reaktion auf die Eingabe zu ändern.
  • In manchen Ausführungsformen umfassen das eine oder die mehreren virtuellen Elemente interaktive virtuelle Elemente und das Empfangen, mittels des elektronischen Prozessors, der Eingabe über das eine oder die mehreren virtuellen Elemente, um das Gerät zu steuern, umfasst das Empfangen der Eingabe als Ergebnis von Benutzerinteraktion mit dem einen oder den mehreren virtuellen Elementen auf der Anzeige.
  • In manchen Ausführungsformen umfassen die Verfahren auch das Erstellen, anhand des elektronischen Prozessors, der Anzeige mit dem einen oder den mehreren virtuellen Elementen in einem geänderten Zustand, nachdem das Steuersignals als Reaktion auf die Eingabe erzeugt wurde.
  • In manchen Ausführungsformen ist das Steuersignal zum Ändern einer Helligkeit von Licht, das vom Beleuchtungskörper erzeugt wird, Ändern einer Farbe von Licht, das vom Beleuchtungskörper erzeugt wird, Ändern eines Fokus von Licht, das vom Beleuchtungskörper erzeugt wird und/oder Ändern einer Winkelposition des Beleuchtungskörpers betriebsbereit.
  • In manchen Ausführungsformen umfassen das eine oder die mehreren virtuellen Elemente einen virtuellen Lichtstrahl, der mit einem Beleuchtungskörper verknüpft ist, eine Windensteuerung, um das Bewegen von Kulissenelementen einzuleiten, ein Kulissenelement, einen Umriss, der einen Gefahrenbereich kennzeichnet, eine Falltür, einen Ventilator und/oder eine Nebelmaschine.
  • Hierin beschriebene Systeme sehen das Steuern eines Geräts in einem Beleuchtungssystems vor. Die Systeme umfassen ein Anzeigegerät und eine Steuerung. Die Steuerung umfasst einen elektronischen Prozessor, der an einen Speicher gekoppelt ist. Der Speicher speichert Anweisungen, die beim Ausführen vonseiten des elektronischen Prozessors die Steuerung konfigurieren, um von einer Kamera Bilddaten einer von einem Beleuchtungskörper zu beleuchtenden Szene zu empfangen, eine Anzeige zu erstellen, die eine Repräsentation der Szene auf einem Anzeigegerät umfasst, ein oder mehrerer virtuelle Elemente zu erstellen, die mit dem Gerät verknüpft sind, die Repräsentation der Szene auf der Anzeige mit dem einen oder den mehreren virtuellen Elementen zu augmentieren, eine Eingabe über das eine oder die mehreren virtuellen Elementen auf der Anzeige zu empfangen, um das Gerät im Beleuchtungssystem zu steuern, und ein Steuersignal zu erzeugen, um eine Eigenschaft des Geräts als Reaktion auf die Eingabe zu ändern.
  • In manchen Ausführungsformen umfassen das eine oder die mehreren virtuellen Elemente interaktive virtuelle Elemente und das Empfangen der Eingabe über das eine oder die mehreren virtuellen Elemente, um das Gerät zu steuern, umfasst das Empfangen der Eingabe als Ergebnis von Benutzerinteraktion mit dem einen oder den mehreren virtuellen Elementen auf der Anzeige.
  • In manchen Ausführungsformen ist die Steuerung ferner zum Erstellen der Anzeige mit dem einen oder den mehreren virtuellen Elementen in einem geänderten Zustand konfiguriert, nachdem das Steuersignal als Reaktion auf die Eingabe erzeugt wurde.
  • In manchen Ausführungsformen ist das Steuersignal zum Ändern einer Helligkeit von Licht, das vom Beleuchtungskörper erzeugt wird, Ändern einer Farbe von Licht, das vom Beleuchtungskörper erzeugt wird, Ändern eines Fokus von Licht, das vom Beleuchtungskörper erzeugt wird und/oder Ändern einer Winkelposition des Beleuchtungskörpers betriebsbereit.
  • In manchen Ausführungsformen umfassen das eine oder die mehreren virtuellen Elemente einen virtuellen Lichtstrahl, der mit einem Beleuchtungskörper verknüpft ist, eine Windensteuerung, um das Bewegen von Kulissenelementen einzuleiten, ein Kulissenelement, einen Umriss, der einen Gefahrenbereich kennzeichnet, eine Falltür, einen Ventilator und/oder eine Nebelmaschine.
  • Es versteht sich, bevor Ausführungsformen im Detail erörtert werden, dass die Ausführungsformen in ihrer Anwendung nicht auf die Details der Konfiguration und Anordnung von Komponenten begrenzt sind, die in der folgenden Beschreibung dargelegt oder in den begleitenden Zeichnungen gezeigt sind. Die Ausführungsformen können auf verschiedenen Weisen praktiziert oder durchgeführt werden. Es versteht sich auch, dass die hierein verwendete Ausdrucksweise und Terminologie Beschreibungszwecken dienen und nicht als einschränkend angesehen werden dürfen. Die Verwendung von „enthaltend“ „umfassend“ oder „aufweisend“ und Varianten von diesen soll die anschließend aufgelisteten Einheiten und Äquivalente derselben sowie zusätzliche Einheiten umfassen. Soweit nicht anders angegeben, werden Begriffe wie „befestigt“, „verbunden“, „getragen“ und „gekoppelt“ und Varianten derselben im weiten Sinn verwendet und umfassen sowohl direkte als auch indirekte Befestigungen, Verbindungen, Träger und Kopplungen.
  • Außerdem versteht es sich, dass Ausführungsformen Hardware, Software und elektronische Komponenten oder Module umfassen können, die beispielsweise zu Erörterungszwecken so dargestellt und beschrieben sein können als wäre die Mehrheit der Komponenten ausschließlich als Hardware implementiert. Der Durchschnittsfachmann erkennt jedoch beim Lesen dieser detaillierten Beschreibung, dass zumindest in einer Ausführungsform die auf Elektronik basierenden Aspekte in Software implementiert sein können (z. B. auf einem persistenten computerlesbaren Medium gespeichert), die durch eine oder mehrere Verarbeitungseinheiten wie einen Mikroprozessor und/oder anwendungsspezifische integrierte Schaltungen („ASCIS“) ausführbar ist. Schlechthin ist anzumerken, dass mehrere Geräte auf Hardware- und Softwarebasis, sowie mehrere verschiedene strukturelle Komponenten verwendet werden können, um die Ausführungsformen zu implementieren. Beispielsweise können „Server“ und „Computergeräte“, die in der Beschreibung erläutert sind, eine oder mehrere Verarbeitungseinheiten, ein oder mehrere Module computerlesbarer Medien, eine oder mehrere Eingabe-/Ausgabe-Schnittstellen und verschiedene Verbindungen (z. B. einen System-Bus) umfassen, die die Komponenten verbinden.
  • Andere Aspekte der Ausführungsformen werden durch Betrachten der ausführlichen Beschreibung und der begleitenden Zeichnungen offensichtlich.
  • Figurenliste
  • Es zeigen:
    • 1 ein System zum Steuern eines Beleuchtungskörpers anhand einer Augmented-Reality-Schnittstelle.
    • 1A ein alternatives System zum Steuern eines Beleuchtungskörpers anhand einer Augmented-Reality-Schnittstelle.
    • 2 eine Steuerung für das System von 1.
    • 2A eine Steuerung für das System von 1A.
    • 3 eine Kamera und einen Beleuchtungskörper in einem Veranstaltungsbereich für das System von 1.
    • 3A eine Kamera und einen Beleuchtungskörper in einem Veranstaltungsbereich für das System von 1A.
    • 4 eine Anwendungsanzeige, die einen Beleuchtungskörper und virtuelle Elemente umfasst.
    • 5 die Anwendungsanzeige von 4 auf einem Benutzergerät.
    • 6 ein zusätzliches Benutzergerät für das System von 1.
    • 7 eine Anwendungsanzeige, die eine zu beleuchtende Szene und virtuelle Elemente umfasst.
    • 8 eine andere Anwendungsanzeige, die die Szene von 7 und andere virtuelle Elemente umfasst.
    • 9 eine Anwendungsanzeige, die sowohl Beleuchtungskörper als auch eine von den Beleuchtungskörpern zu beleuchtende Szene umfasst.
    • 10 ein Flussdiagramm eines Verfahrens zum Steuern eines Beleuchtungskörpers anhand einer Augmented-Reality-Schnittstelle.
    • 11 ein anderes Flussdiagramm eines Verfahrens zum Steuern eines Beleuchtungskörpers anhand einer Augmented-Reality-Schnittstelle.
    • 12 Kameras und Beleuchtungskörper in einem Veranstaltungsbereich für das System von 1.
    • 12A Kameras und Beleuchtungskörper in einem Veranstaltungsbereich für das System von 1A.
    • 13 ein Beispiel für einen Anwendungsschnittstellenbildschirm zur Verwendung mit dem System von 1 und/oder 1A, das die Bewegung eines Beleuchtungskörpers gemäß einer Benutzereingabe steuert.
    • 14 einen Scan einer Oberfläche, den eine Kamera feststellen kann, um einen Schwerpunkt eines Beleuchtungsstrahls zu ermitteln.
    • 15 ein Beispiel für einen Anwendungsschnittstellenbildschirm zur Verwendung mit dem System von 1 und/oder 1A, das die Bewegung eines Beleuchtungskörpers gemäß einer Benutzereingabe steuert, die das Beleuchtungsstrahlziel kennzeichnet.
    • 16 einen Prozess zum Ermitteln einer Beleuchtungskörperanordnung.
    • 17 einen Prozess zum Ermitteln einer Beleuchtungskörperanordnung.
    • 18 einen Prozess zum Richten eines Beleuchtungskörpers in einem Veranstaltungsbereich.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die hierin beschriebenen Ausführungsformen betreffen eine Augmented-Reality-Schnittstelle zur Lichtgestaltung und das Steuern eines oder mehrerer Beleuchtungskörper. Beispielsweise stellt 1 ein System 100 zum Steuern eines Beleuchtungskörpers 102 anhand einer Augmented-Reality-Schnittstelle dar. Das System 100 umfasst ein Benutzereingabegerät 104A-104D, eine Steuertafel oder ein Schaltpult 106, einen Beleuchtungskörper 102, Kameras 108, ein Netzwerk 110 und einen serverseitigen Computer oder Server 112. Das Benutzereingabegerät 104A-104D umfasst beispielsweise einen Personal- oder Desktop-Computer 104A, einen Laptop-Computer 104B, einen Tablet-Computer 104C oder ein Mobiltelefon (beispielsweise ein Smartphone) 104D. Andere Benutzereingabegeräte 104 umfassen beispielsweise einen Augmented-Reality-Kopfhörer oder eine Augmented-Reality-Brille (in 6 gezeigt). In manchen Ausführungsformen sind die Kameras 108 in das Benutzereingabegerät 104A-104D wie die Kamera des Mobiltelefons 104D integriert. In anderen Ausführungsformen sind die Kameras 108 vom Benutzereingabegerät 104A-104D getrennt.
  • Das Benutzereingabegerät 104A-104D ist zum kommunikativen Verbinden mit dem Server 112 über das Netzwerk 110 und Liefern von Informationen an den oder Empfangen von Informationen von dem Server 112 konfiguriert, der mit der Steuerung oder dem Betrieb des Systems 100 in Beziehung steht. Das Benutzereingabegerät 104A-104D ist auch zum kommunikativen Verbinden mit der Steuertafel 106 konfiguriert, um Informationen an die Steuertafel 106 zu liefern oder Informationen von dieser zu empfangen. Die Verbindungen zwischen dem Benutzereingabegerät 104A-104D und der Steuertafel 106 oder Netzwerk 110 sind beispielsweise verdrahtete Verbindungen, drahtlose Verbindungen oder eine Kombination aus drahtlosen und verdrahteten Verbindungen. Ähnlich sind die Verbindungen zwischen dem Server 112 und dem Netzwerk 110, der Steuertafel 106 und den Beleuchtungskörpern 102 oder der Steuertafel 106 und den Kameras 108 verdrahtete Verbindungen, drahtlose Verbindungen oder eine Kombination aus drahtlosen und verdrahteten Verbindungen.
  • Das Netzwerk 110 ist beispielsweise ein Wide Area Network („WAN“) (beispielsweise ein TCP/IP-basiertes Netzwerk), ein Local Area Network („LAN“), ein Neighborhood Area Network („NAN“), ein Home Area Network („HAN“) oder ein Personal Area Network („PAN“), die eine Vielfalt von Kommunikationsprotokollen wie Wi-Fi, Bluetooth, ZigBee, usw. einsetzen. In manchen Implementierungen ist das Netzwerk 110 ein Mobilfunknetz wie beispielsweise ein Global System for Mobile Communications („GSM“)-Netzwerk, ein General Packet Radio Service („GPRS“)-Netzwerk, ein Code Division Multiple Access („CDMA“)-Netzwerk, ein Evolution-Data Optimized („EV-DO“)-Netzwerk, ein Enhanced Data Rates for GSM Evolution („EDGE“)-Netzwerk, ein 3GSM-Netzwerk, ein 4GSM-Netzwerk, ein 4G LTE-Netzwerk, ein 5G New Radio, ein Digital Enhanced Cordless Telecommunications („DECT“)-Netzwerk, ein Digital AMPS („IS-136/TDMA“)-Netzwerk oder ein Integrated Digital Enhanced Network („iDEN“)-Netzwerk usw.
  • 1 stellt ein alternatives System 100A zum Steuern eines Beleuchtungskörpers 102 anhand einer Augmented-Reality-Schnittstelle dar. Die Hardware des alternativen Systems 100A ist mit dem vorstehenden System 100 identisch, die Steuertafel oder das Schaltpult 106 wurden jedoch entfernt. Als solches ist das Benutzereingabegerät 104A-104D zum kommunikativen Verbinden mit dem Beleuchtungskörper 102 und mit den Kameras 108 konfiguriert. Die Verbindungen zwischen dem Benutzereingabegerät 104A-104D und dem Beleuchtungskörper 102 und die Verbindungen zwischen dem Benutzereingabegerät 104A-104D und den Kameras 108 sind verdrahtete Verbindungen, drahtlose Verbindungen oder eine Kombination aus drahtlosen und verdrahteten Verbindungen.
  • 2 stellt eine Steuerung 200 für das System 100 dar. Die Steuerung 200 ist elektrisch und/oder kommunikativ mit einer Vielfalt von Modulen oder Komponenten des Systems 100 verbunden. Beispielsweise ist die dargestellte Steuerung 200 mit einer oder mehreren Anzeigevorrichtungen 202 (z. B. LEDs, einer Flüssigkeitskristallanzeige („LCD“) usw.), einer Benutzereingabe oder Benutzerschnittstelle 204 (z. b. einer Benutzerschnittstelle des Benutzereingabegeräts 104A-104D in 1) und einer Kommunikationsschnittstelle 206 verbunden. Die Steuerung 200 ist auch mit der Steuertafel 106 verbunden. Die Kommunikationsschnittstelle 206 ist mit dem Netzwerk 110 verbunden, um das Kommunizieren der Steuerung 200 mit dem Server 112 zu ermöglichen. Die Steuerung 200 umfasst Kombinationen von Hardware und Software, die unter anderem zum Steuern des Betriebs des Systems 100, Steuern des Betriebs des Beleuchtungskörpers 102, Steuern des Betriebs der Kamera 108, Empfangen eines oder mehrerer Signale von der Kamera 108, Kommunizieren über das Netzwerk 110, Kommunizieren mit der Steuertafel 106, Empfangen von Eingabe von einem Benutzer über die Benutzerschnittstelle 204, Liefern von Informationen an einen Benutzer über die Anzeigevorrichtungen 202 usw. betriebsbereit sind. In manchen Ausführungsformen sind die Anzeigevorrichtungen 202 und die Benutzerschnittstelle 204 zusammen in Form von beispielsweise einem Berührungsbildschirm integriert.
  • In der in 2 dargestellten Ausführungsform ist die Steuerung 200 mit dem Benutzereingabegerät 104A-104D verknüpft. Infolgedessen wird die Steuerung 200 in 2 als mit der Steuertafel 106 verbunden dargestellt, die wiederum mit den Beleuchtungskörpern 102 und den Kameras 108 verbunden ist. In anderen Ausführungsformen ist die Steuerung 200 in der Steuertafel 106 enthalten, und die Steuerung 200 kann beispielsweise Steuersignale direkt an die Beleuchtungskörper 102s und die Kameras 108 liefern. In anderen Ausführungsformen ist die Steuerung 200 mit dem Server 112 verknüpft und kommuniziert über das Netzwerk 110, um Steuersignale an die Steuertafel 106, die Beleuchtungskörper 102 und/oder die Kameras 108 zu liefern.
  • Die Steuerung 200 umfasst mehrere elektrische und elektronische Komponenten, die Leistung, Betriebssteuerung und Schutz der Komponenten und Module innerhalb der Steuerung 200 und/oder des Systems 100 bereitstellen. Beispielsweise umfasst die Steuerung 200 unter anderem eine Verarbeitungseinheit 208 (z. B. einen elektronischen Prozessor, einen Mikroprozessor, einen Mikrocontroller oder eine andere geeignete programmierbare Vorrichtung), einen Speicher 210, Eingabeeinheiten 212 und Ausgabeeinheiten 214. Die Verarbeitungseinheit 208 umfasst unter anderem eine Steuereinheit 216, eine arithmetischlogische Einheit („ALU“) 218 und mehrere Register 220 (gezeigt als eine Gruppe von Registern in 2) und ist anhand einer bekannten Computerarchitektur implementiert
    (z. B. einer modifizierten Harvard-Architektur, einer Von-Neumann-Architektur usw.). Die Verarbeitungseinheit 208, der Speicher 210, die Eingabeeinheiten 212 und die Ausgabeeinheiten 214 sowie die verschiedenen Module oder Schaltkreise, die mit der Steuerung 200 verbunden sind, sind über einen oder mehrere Steuer- und/oder Datenbusse (z. B. einen gemeinsamen Bus 222) verbunden. Die Steuer- und/oder Datenbusse sind zu Anschauungszwecken allgemein in 2 gezeigt. Die Verwendung von einem oder mehreren Steuer- und/oder Datenbussen für die Verbindung und Kommunikation zwischen den verschiedenen Modulen, Schaltkreisen und Komponenten sind dem Fachmann in Anbetracht der hierin beschriebenen Ausführungsformen bekannt.
  • Der Speicher 210 ist ein persistentes computerlesbares Medium und umfasst beispielsweise einen Programmspeicherbereich und einen Datenspeicherbereich. Der Programmspeicherbereich und der Datenspeicherbereich können Kombinationen aus verschiedenen Speichertypen wie einem ROM, einem RAM (z. B. DRAM, SDRAM usw.) EEPROM, Flashspeicher, einer Festplatte, einer SD-Karte oder anderen geeigneten magnetischen, optischen, physischen oder elektronischen Speichergeräte umfassen. Die Verarbeitungseinheit 208 ist mit dem Speicher 210 verbunden und führt Softwareanweisungen aus, die in einem RAM des Speichers 210 (z. B. während des Ausführens), einem ROM des Speichers 210 (z. B. auf im Allgemeinen permanenter Basis) oder einem anderen persistenten computerlesbaren Medium wie einem anderen Speicher oder einer Disc gespeichert werden können. In der Implementierung des Systems 100 und der Steuerung 200 enthaltene Software kann im Speicher 210 der Steuerung 200 gespeichert werden. Die Software umfasst beispielsweise Firmware, eine oder mehrere Anwendungen, Programmdaten, Filter, Regeln, ein oder mehrere Programmmodule und andere ausführbare Anweisungen. Die Steuerung 200 ist zum Abrufen von unter anderem Anweisungen bezüglich der hierin beschriebenen Steuerprozesse und -verfahren aus dem Speicher 210 und dem Ausführen derselben konfiguriert. In anderen Ausführungsformen umfasst die Steuerung 200 zusätzliche, weniger oder unterschiedliche Komponenten.
  • Die Benutzerschnittstelle 204 ist enthalten, um Benutzersteuerung des Systems 100, der Beleuchtungskörper 102 und/oder der Kameras 108 bereitzustellen. Die Benutzerschnittstelle 204 ist betriebswirksam mit der Steuerung 200 gekoppelt, um beispielsweise Steuer- oder Ansteuersignale, die an die Beleuchtungskörper 102 geliefert werden, und/oder Steuer- oder Ansteuersignale zu steuern, die an die Kameras 108 geliefert werden. Die Benutzerschnittstelle 204 kann eine beliebige Kombination aus digitalen und analogen Eingabegeräten umfassen, die zum Erreichen einer gewünschten Steuerebene für das System 100 erforderlich sind. Beispielsweise kann die Benutzerschnittstelle 204 einen Computer umfassen, der Anzeige- und Eingabegeräte, eine Berührungsbildschirmanzeige, mehrere Drehknöpfe, Skalen, Schalter, Knöpfe, Schieber oder dergleichen aufweist. In der in 2 dargestellten Ausführungsform ist die Benutzerschnittstelle 204 von der Steuertafel 106 getrennt. In anderen Ausführungsformen ist die Benutzerschnittstelle 204 in der Steuertafel 106 enthalten.
  • Die Steuerung 200 ist so konfiguriert, dass sie in Kombination mit der Steuertafel 106 arbeitet, um direkte Steuer- oder Ansteuersignale an die Beleuchtungskörper 102 und/oder die Kameras 108 zu liefern. Wie vorstehend beschrieben ist die Steuerung 200 in manchen Ausführungsformen zum Liefern direkter Steuer- oder Ansteuersignale an die Beleuchtungskörper 102 und/oder die Kameras 108 konfiguriert, ohne getrennt mit der Steuertafel 106 zu interagieren (z. B. umfasst die Steuertafel 106 die Steuerung 200). Die direkten Ansteuersignale, die an die Beleuchtungskörper 102 und/oder Kameras 108 geliefert werden, werden beispielsweise aufgrund einer Benutzereingabe bereitgestellt, die vonseiten der Steuerung 200 von der Benutzerschnittstelle 204 empfangen wird. Die Steuerung 200 ist auch zum Empfangen von einem oder mehreren Signalen von den Kameras 108 in Bezug auf die Bild- oder Scandaten konfiguriert.
  • Wie in 2A gezeigt und vorstehend beschrieben, umfasst das System 100A eine Steuerung 200, die zum Arbeiten ohne die Steuertafel 106 konfiguriert ist, sodass die Steuerung 200 zum Liefern von Signalen an die Beleuchtungskörper 102 und/oder die Kameras 108 und zum Empfangen von einem oder mehreren Signalen von den Kameras 108 in Bezug auf die Bild- oder Scandaten konfiguriert ist.
  • Die Steuerung 200 ist zum Implementieren von Augmented-Reality-Steuerung des Systems 100 mittels beispielsweise bekannter Augmented-Reality-Bibliotheken (z. B. ARCore, ARKit, usw.) konfiguriert, die auf dem Benutzereingabegerät 104A-104D bereits zur Verfügung stehen oder zu diesem hinzugefügt werden können. Beispiele für grundlegende Augmented-Reality-Anzeigen und -Steuerungen, die anhand der bekannten Augmented-Reality-Bibliotheken erzeugt und/oder gehandhabt werden können, sind beispielsweise in der US- amerikanischen Patentanmeldung, Veröffentlichungsnr. 2011/0221672 , veröffentlicht am 15. September 2011, und der US- amerikanischen Patentanmeldung, Veröffentlichungsnr. 2004/0046711 , veröffentlicht am 11. März, 2004 beschrieben, die beide hiermit durch Bezugnahme hierin aufgenommen sind.
  • 3 stellt den Beleuchtungskörper 102, das Benutzereingabegerät 104A-104D, die Steuertafel 106 und die Kameras 108 des Systems 100 in einem Veranstaltungsbereich 300 dar. Das Benutzereingabegerät 104A-104D weist den Beleuchtungskörper 102 an eine Augmented-Reality-Anwendung zu verwenden, die von der Steuerung 200 betrieben wird (z. B. anhand bekannter Augmented-Reality-Bibliotheken wie ARKit, ARCore usw.). Die Steuerung 200 empfängt Scandaten von den Kameras 108 und erstellt eine Anzeige. Die Anzeige umfasst ein oder mehrere virtuelle Elemente 302A-302D, die in die von den Kameras 108 erfasste Szene eingeblendet werden. Wie ebenfalls in 3 schematisch dargestellt, umfasst der Veranstaltungsbereich 300 ein oder mehrere Kulissenelemente 304, Falltüren 306 oder dergleichen. Die Steuerung 200 ermittelt den Ort des Benutzereingabegeräts 104A-104D im Veranstaltungsbereich 300 durch Paaren des Benutzereingabegeräts 104A-104D mit einem dreidimensionalen Modellraum, der den Veranstaltungsbereich 300 repräsentiert. Beispielsweise kann das Benutzereingabegerät 104A-104D sich selbst, den Beleuchtungskörper 102 und andere physische Elemente im Veranstaltungsbereich 300 anhand Daten orten, die von den Kameras 108 empfangen werden. Ein Benutzer kann auch mehrere Bezugspunkt oder Gegenstände, die sich im Veranstaltungsbereich 300 befinden, über eine interaktive Anzeige des Veranstaltungsbereichs 300 auf dem Benutzereingabegerät 104A-104D feststellen. In manchen Ausführungsformen erstellt die Steuerung 200 ein dreidimensionales Modell des Veranstaltungsbereichs 300, das ein Koordinatensystem umfasst, das die Positionen des Beleuchtungskörpers 102 und anderer Gegenstände oder Oberflächen im Veranstaltungsbereich 300 mit Bezug auf Bezugspunkte ortet, die sich im Veranstaltungsbereich 300 befinden. Das Paaren des Benutzereingabegeräts 104A-104D mit einem dreidimensionalen Modellraum zum Orten von Gegenständen innerhalb des dreidimensionalen Modellraums wird nachstehend mit Bezug auf 12-18 ausführlicher beschrieben.
  • 3A stellt das System 100A im Veranstaltungsbereich 300 dar. Wie vorstehend beschrieben, ist im System 100A die Steuertafel 106 entfernt, und das Benutzereingabegerät 104A-104D ist zum direkten Kommunizieren mit dem Beleuchtungskörper 102 und den Kameras 108 konfiguriert.
  • 4 stellt eine Anwendungsanzeige 400 dar, die Repräsentationen der Beleuchtungskörper 102 und virtuellen Elemente 302E-302H umfasst. Diese Anwendungsanzeige 400 wird auf dem Benutzereingabegerät 104A-104D wie dem in 5 gezeigten Smartphone 104D oder dem/der in 6 gezeigten Augmented-Reality-Kopfhörer/Brille angezeigt, um den Benutzer interagieren zu lassen. Die Anzeige 400 kann ein Bildschirm, eine Projektion, eine durchsichtige Einblendungsvorrichtung oder or dergleichen sein. Die Szene im Veranstaltungsbereich 300 wird von den Kameras 108 erfasst und mit einem oder mehreren virtuellen Elementen 302E-302H augmentiert. Insbesondere sind das eine oder die mehreren virtuellen Elemente 302E-302H auf der Anwendungsanzeige 400 als in die erfasste Szene eingeblendet gezeigt. Die virtuellen Elemente 302E-302H können interaktiv sein, sodass die Steuerung 200 über das eine oder die mehreren Elemente 302E-302H eine Benutzereingabe empfangen kann. Beispiele für virtuelle Elemente 302A-302H, die auf der Anzeige 400 gezeigt werden, umfassen einen virtuellen Lichtstrahl 302A (3), eine virtuelle Zoomachse 302B (siehe 3), eine Farbpalette 302C von Licht, das vom Beleuchtungskörper 102 erzeugt werden kann (siehe 3), eine virtuelle Schwenkachse 302D (siehe 3), eine virtuelle Neigungsachse, einen virtuellen Schalter, einen virtuellen Drehknopf, einen virtuellen Knopf, einen virtuellen Verschluss, Herstellerdaten 302E des Beleuchtungskörpers 102 (siehe 4), Kanalnummern 302F (siehe 4), digitale Multiplex (oder DMX)-Adressen 302G (siehe 4), diagnostische Informationen bezüglich des Beleuchtungskörpers 302H (siehe 4), Informationen bezüglich des Lichts, das konfiguriert ist, um vom Beleuchtungskörper 102 erzeugt, zu werden, einen Rahmen zum Auswählen eines bestimmten Beleuchtungskörpers 102 oder dergleichen.
  • 7 stellt eine Anwendungsanzeige 700 dar, die eine von den Kameras 108 erfasste Szene im Veranstaltungsbereich 300 umfasst. In manchen Ausführungsformen zeigt die für die Anzeige 700 erfasste Szene eventuell keine der einen oder mehreren Beleuchtungskörper 102. Die Anzeige 700 kann beispielsweise die Bühne 1204 (siehe 12), ein Kulissenelement 304, eine Person oder dergleichen umfassen. Wie vorstehend beschrieben ist die Anzeige 700 mit einem oder mehreren virtuellen Elementen 302A-302H augmentiert. Beispiele für virtuelle Elemente, die auf der Anzeige 700 gezeigt werden, umfassen eine Farbpallette 302C, ein Auswahlsymbol 3021 für Schablonen die zwischen oder vor die Optik gelegt werden („Gobo“), ein Symbol 302J zum Richten eines Strahlmittelpunkts, ein Symbol 302K zur Größenänderung deiner Strahlausbreitung, eine virtuelle Windensteuerung, um die Bewegung eines Kulissenelements einzuleiten, einen virtuellen Umriss, der einen Bereich anzeigt, der für den Schauspieler oder Darsteller gefährlich sein kann, eine virtuelles Kulissenelement oder dergleichen.
  • 8 stellt eine andere Anwendungsanzeige 800 dar, die eine von den Kameras 108 erfasste Szene im Veranstaltungsbereich 300 umfasst. Die für die Anzeige 800 erfasste Szene zeigt eventuell keine der einen oder mehreren Beleuchtungskörper 102. Wie vorstehend beschrieben, ist die Anzeige 800 mit einem oder mehreren virtuellen Elementen augmentiert. Beispiele für virtuelle Elemente, die auf der Anzeige 800 gezeigt werden, umfassen einen oder mehrere virtuelle Lichtstrahlen 302A, Lichtrendern eines virtuellen Kulissenelements 302M, Lichtrendern eines virtuellen Darstellers 302N oder Kombinationen aus denselben.
  • 9 zeigt eine andere Anwendungsanzeige 900, die die Bühne 1204 (siehe 12) des Veranstaltungsbereichs 300 sowie den einen oder die mehreren Beleuchtungskörper 102 umfasst. Wie vorstehend beschrieben, ist die Anzeige 900 mit einem oder mehreren virtuellen Elementen augmentiert. Auf dieser Anwendungsanzeige 900 ist auch die Kalibrierung des einen oder der mehreren Beleuchtungskörper 102 zusätzlich zu den vorstehend beschriebenen Merkmalen möglich. Die Anzeige 900 zeigt den virtuellen Lichtstrahl 302A von jedem Beleuchtungskörper 102 sowie den tatsächlichen Lichtstrahl 902 von jedem Beleuchtungskörper 102, der beleuchtet ist. Wenn einer der Beleuchtungskörper 102 kalibriert werden muss, kann der Benutzer auf der Anwendungsanzeige 900 beobachten, dass der tatsächliche Lichtstrahl 902 nicht mit dem virtuellen Lichtstrahl 302A übereinstimmt. Die Strahlen 902, 302A können bezüglich der Farbe, des Fokus/der Größe, des Orts, der Form und dergleichen unterschiedlich sein. In einer solchen Situation stellt der Benutzer den Beleuchtungskörper 102 ein, um ihn beispielsweise durch Einstellen des Schwenkens und Neigens des Beleuchtungskörpers 102 zu kalibrieren, indem er mir den virtuellen Schwenk- und Neigungsachsen interagiert. Wenn die Strahlen 902, 302A übereinstimmen, kann der Benutzer den Beleuchtungskörper 102 als kalibriert ansehen. Ferner verwendet der Benutzer 900 die Anzeige zum Schätzen der Stellung des Beleuchtungskörpers 102, um die Stellungsschätzungsdaten zur späteren Verwendung in eine Datenbank oder Berechnung einzugeben.
  • Wie in 10 gezeigt, kann das System 100, 100A gemäß einem Verfahren 1000 arbeiten, um einen Beleuchtungskörper 102 zu steuern. Zuerst werden der Beleuchtungskörper 102 und die Umgebung des Beleuchtungskörpers 102 in einem Veranstaltungsbereich 300 mit einer oder mehreren Kameras 108 erfasst (SCHRITT 1001). In manchen Ausführungsformen werden auch der Ort und/oder die Orientierung der Kameras 108 ermittelt (z. B. eine Stellung von jeder der Kameras 108). Der Beleuchtungskörper 102 und die Umgebung im Veranstaltungsbereich 300 werden in einer Anwendungsanzeige 400, 700, 800, und/oder 900 angezeigt (SCHRITT 1002). Die Anwendungsanzeige 400, 700, 800 und/oder 900 wird mit einem oder mehreren virtuellen Elementen 302A-302N augmentiert (SCHRITT 1003).
  • Das Verfahren 1000 umfasst ferner das Empfangen von Benutzereingaben über eine Benutzerschnittstelle, um den Beleuchtungskörper 102 zu steuern (SCHRITT 1004). Die Benutzereingabe kann eine Interaktion mit einem Berührungsbildschirm, ein Stimmbefehl, eine Handgeste, die von einem oder mehreren Scannern (wie den Kameras 108) erfasst wird, eine Beschleunigung oder Positionsänderung, die von einem oder mehreren Sensoren im Benutzergerät 104A-104D festgestellt werden oder dergleichen sein. Außerdem kann die Benutzereingabe eine Interaktion mit dem einen oder den mehreren virtuellen Elementen 302A-302N in der Anwendungsanzeige 400, 700, 800 und/oder 900 sein. Beispielsweise kann der Benutzer einen virtuellen Lichtstrahl 302A, einen virtuellen Verschluss, einen virtuell Drehknopf oder dergleichen in der Anwendungsanzeige 400, 700, 800, und/oder 900 greifen und bewegen.
  • Das Verfahren 1000 umfasst auch das Ändern eines Merkmals des Beleuchtungskörpers 102 auf eine beliebige Weise als Reaktion auf die empfangene Benutzereingabe (SCHRITT 1005). Beispielsweise kann die Benutzereingabe des Bewegens des virtuellen Lichtstrahls 302A in der Anwendungsanzeige 400, 700, 800, und/oder 900 von der Steuerung 200 empfangen werden, die ein Steuer- oder Ansteuersignal sendet, um zu veranlassen, dass sich der Beleuchtungskörper 102 in eine Schwenk-/Neigungs-Winkelposition bewegt, die den Lichtstrahl 902 auf das neue Lichtstrahlziel richtet. Wie vorstehend beschrieben können andere mögliche Benutzereingaben eine Farbe, einen Fokus, eine Helligkeit und dergleichen des vom Beleuchtungskörper 102 erzeugten Lichts ändern. Zusätzlich zum Ändern des Beleuchtungskörpers 102 gemäß der Benutzereingabe umfasst das Verfahren 1000 auch (als Teil von Schritt 1005) das Aktualisieren der Anwendungsanzeige 400, 700, 800 und/oder 900, um die realen Änderungen wiederzugeben, die am Beleuchtungskörper 102 vorgenommen wurden. Diese Änderungen umfassen das Ändern der Werte, die zu den verschiedenen Einstellungen des Beleuchtungskörpers 102 oder der virtuellen Elemente 302A-302N gehören.
  • Wie in 11 gezeigt, kann das System 100, 100A zusätzlich oder alternativ gemäß einem Verfahren 1100 zum Steuern eines Beleuchtungskörpers 102 arbeiten. Zuerst wird eine vom Beleuchtungskörper 102 zu beleuchtende Szene (z. B. ein Teil des Veranstaltungsbereichs 300) mit den Kameras 108 erfasst (SCHRITT 1101). In manchen Ausführungsformen zeigt diese Szene den Beleuchtungskörper 102, der gemäß dem Verfahren 1100 zu steuern ist, eventuell nicht. In manchen Ausführungsformen werden auch der Ort und/oder die Orientierung der Kameras 108 (z. B. eine Stellung von jeder der Kameras 108) ermittelt. Das Verfahren 1100 umfasst ferner das Anzeigen der Szene des Veranstaltungsbereichs 300 in einer Anwendungsanzeige 700, 800 (SCHRITT 1102). Die Anwendungsanzeige 700, 800 wird dann mit einem oder mehreren virtuellen Elementen 302A-302N augmentiert (SCHRITT 1103).
  • Das Verfahren 1100 umfasst ferner das Empfangen einer Benutzereingabe, um den Beleuchtungskörper 102 zu steuern (SCHRITT 1104). Die Benutzereingabe kann eine Interaktion mit dem einen oder den mehreren virtuellen Elementen 302A-302N in der Anwendungsanzeige 700, 800 sein. Beispielsweise kann der Benutzer, wie vorstehend beschrieben, einen Lichtstrahl 302A ein Kulissenelement 304 oder dergleichen greifen und bewegen.
  • Das Verfahren 1100 umfasst auch das Ändern des Beleuchtungskörpers 102 als Reaktion auf die empfangene Benutzereingabe (SCHRITT 1105). Beispielsweise kann die Benutzereingabe des Bewegens des virtuellen Lichtstrahls 302A auf der Anwendungsanzeige 700, 800 bewirken, das sich der Beleuchtungskörper 102 in eine entsprechende Schwenk- oder Neigungs-Winkelposition bewegt, die den bewegten virtuellen Lichtstrahl 302A im realen Veranstaltungsbereich 300 neu erstellt. Beispielsweise kann die Steuerung 200 die Benutzereingabe empfangen und eine Stellung des Beleuchtungskörpers 102 ermitteln, die den bewegten virtuellen Lichtstrahl im realen Veranstaltungsbereich 300 implementieren würde. Die Steuerung 200 sendet ein Steuer- oder Ansteuersignal an den Beleuchtungskörper 102 oder an die Steuertafel 106, um den Beleuchtungskörper 102 gemäß der Bewegung des virtuellen Lichtstrahls 302A auf der Anzeige 700, 800 zu steuern. Andere mögliche Benutzereingaben können über die Anzeige 700, 800 zum Ändern einer Farbe, eines Fokus, einer Helligkeit oder dergleichen des von Beleuchtungskörper 102 erzeugten Lichts empfangen werden, und können eine entsprechende Änderung im Beleuchtungskörper 102 im realen Veranstaltungsbereich 300 einleiten. Die Benutzereingaben könnten zusätzlich oder alternativ Windenmotoren für reale Kulissenelemente 304, Motoren für die Falltür 306, Nebelmaschinen oder dergleichen steuern.
  • Das Paaren des Benutzereingabegeräts 104A-104D mit einem dreidimensionalen Modellraum zum Orten von Gegenständen innerhalb des dreidimensionalen Modellraums wird mit Bezug auf 12-18 beschrieben. Dadurch, dass sie Gegenstände aus der realen Welt in einem dreidimensionalen Modellraum präzise orten können, ist mit den Augmented-Reality-Anwendungsanzeigen 400, 700, 800 und/oder 900 ein präzises Repräsentieren und korrektes Positionieren virtueller Elemente 302A-302N auf der Anwendungsanzeige 400, 700, 800 und/oder 900 bezüglich der realen Elemente des Veranstaltungsbereichs 300 möglich.
  • 12 stellt die Steuertafel 106, den Beleuchtungskörper 102, die Kamera 108 und das Benutzereingabegerät 104A-104D des Systems 100 im Veranstaltungsbereich 300 dar. Das Benutzereingabegerät 104A-104D richtet den Beleuchtungskörper 102 so, dass ein Beleuchtungsstrahl 1200, der vom Beleuchtungskörper 102 projiziert wird, an diskreten Orten 1202A, 1202B, 1202C, 1202D auf eine Bühnenoberfläche 1204 im Veranstaltungsbereich 300 auftritt. In manchen Ausführungsformen kann ein Benutzer die Bewegung des Beleuchtungskörpers 102 direkt steuern, oder der Beleuchtungskörper 102 kann sich gemäß einem vorprogrammierten Muster bewegen.
  • 12A stellt das System 100A im Veranstaltungsbereich 300 dar. Wie vorstehend beschrieben, ist im System 100A die Steuertafel 106 entfernt, und das Benutzereingabegerät 104A-104D ist zum direkten Kommunizieren mit dem Beleuchtungskörper 102 und der Kamera 108 konfiguriert.
  • Mit Bezug auf das System 100 und/oder das System 100A stellt 13 ein Beispiel für einen Anwendungsschnittstellenbildschirm 1300 zur Verwendung mit dem Benutzergerät 104A-104D dar, das Benutzereingaben empfängt, um die Bewegung des Beleuchtungskörpers 102 zum Synchronisieren der Position des Beleuchtungsstrahls 1200 mit den diskreten Orten 1202 auf dem Boden im Veranstaltungsbereichs 300 zu steuern. In manchen Ausführungsformen bewegt sich der Beleuchtungsstrahl 1200 an mindestens drei Orte (1202A, 1202B, 1202C). Andere Ausführungsformen umfassen das Bewegen des Beleuchtungsstrahls 1200 an einen vierten Ort 1202D. Andere Ausführungsformen umfassen das Bewegen des Beleuchtungsstrahls 1200 an mehr als vier Orte 1202. Die Bewegung des Beleuchtungskörpers 102 erfolgt durch Ändern des Winkels des Beleuchtungskörpers 102 durch entweder Schwenken oder Neigen des Beleuchtungskörpers 102.
  • Die Steuerung 200 ist zum Speichern der Winkeländerungsdaten konfiguriert, die der Bewegung des Beleuchtungskörpers 102 entsprechen, um den Beleuchtungsstrahl 1200 vom ersten Ort 1202A zum zweiten Ort 1202B, vom zweiten Ort 1202B zum dritten Ort 1202C usw. zu bewegen.
  • Mit Bezug auf 12 und 12A ist die Steuerung 200 ferner zum Speichern der Koordinatendaten von jedem der mindestens drei Orte 1202 auf der Oberfläche 1204 konfiguriert. In manchen Ausführungsformen werden die Koordinatendaten von einem Benutzer eingegeben, etwa wenn der Benutzer die Bewegung des Beleuchtungskörpers 102 direkt steuert. In manchen Ausführungsformen werden die Koordinatendaten anhand der Steuerung 200 durch Berechnen einer Position des Benutzergeräts 104A-104D bezüglich eines oder mehrerer Bezugspunkte 1206 mit Scandaten von einer oder mehreren Kameras 108 ermittelt. Die Kameras 108 können in das Benutzergerät 104A-104D integriert sein, drahtlos mit dem Benutzergerät 104A-104D verbunden sein, mit dem Benutzergerät 104A-104D verdrahtet sein oder anders verknüpft sein. Die Bezugspunkte 1206 stellen Orientierungs- und Entfernungsinformationen für das Benutzergerät 104A-104D bereit. In manchen Ausführungsformen sind die Bezugspunkte 1206 sichtbare Markierungen auf der Oberfläche 1204. Andere Ausführungsformen umfassen mindestens einen Bezugspunkt 1206 in Form einer sensorlesbaren Markierung, die für das menschliche Auge nicht sichtbar ist (z. B. eine Infrarotmarkierung). Anhand bekannter Computervision, Bilderkennung und Scan-Anwendungen (z. B. eines Simultaneous Localization and Mapping („SLAM“)-Programms), kann die Steuerung 200 Entfernungen zwischen gekennzeichneten Punkten auf der Oberfläche 1204 berechnen, nachdem das Benutzergerät 104A-104D mit den Bezugspunkten 1206 ordnungsgemäß kalibriert wurde.
  • Um die diskreten Orte 1202 zu ermitteln, an denen der Beleuchtungsstrahl 1200 die Oberfläche 1204 ohne Benutzereingabeinformationen bezüglich der Orte kontaktiert, ist die Steuerung 200 zum Ermitteln eines Schwerpunkts des Beleuchtungsstrahls durch Scandaten konfiguriert, die von der Kamera 108 bereitgestellt werden. Ein Beispiel für den Scan der Oberfläche 1204, den die Kamera 108 durchführen kann, ist in 14 gezeigt. Der Schwerpunkt kann ungeachtet des Anstellwinkels des Beleuchtungsstrahls 1200 anhand eines beliebigen Verfahrens gefunden werden, einschließlich beispielsweise Lichtintensitätsanalyse der Oberfläche 1204. Als solche werden die Bilddaten des Beleuchtungsstrahls 1200 an jedem der diskreten Orte 1202 von der Kamera 108 erfasst und von der Steuerung 200 analysiert. Nach abgeschlossener Analyse ist die Steuerung 200 zum Ausgeben von Werten für die Koordinatendaten von jedem der diskreten Orte 1202 bezüglich des einen oder der mehreren Bezugspunkte 1206 konfiguriert.
  • Da das Steuern des Beleuchtungskörpers 102 mit der Steuerung 200 gepaart ist, kann die Steuerung 200 jedes Mal, wenn sich der Beleuchtungskörper 102 bewegt, die Winkeländerung quantifizieren. Obwohl diese Winkeländerung der Steuerung 200 als ein relativer Winkel des Beleuchtungskörpers 102 von einer Position in eine andere und nicht als absoluter Winkel zur Oberfläche 1204 bekannt ist, können die absoluten Winkel durch mathematische Berechnungen anhand einer Perspektiveninversionslösung gefunden werden, die nachstehend allgemein beschrieben wird.
  • Um die Position des Beleuchtungskörpers 102 bezüglich der Bühnenoberfläche 1204 zu berechnen, verwendet die Perspektiveninversionslösung die Länge jeder Seite eines Dreiecks, das vom Beleuchtungsstrahl 1200 auf der Bühnenoberfläche 1204 verfolgt wird, und die Winkeländerungen des Beleuchtungskörpers 102, die das Dreieck schufen. Die Länge der Seiten des Dreiecks kann, wie vorstehend beschrieben, mit den Koordinatendateneingaben der mindestens drei Orte 1202 oder durch Berechnung gefunden werden. Die Winkel sind aufgrund der Steuerung 200 bekannt, die den Beleuchtungskörper 102 wie vorstehend beschrieben steuert.
  • Da ein Ungewissheitsgrad vorliegen kann, wenn die Position des Beleuchtungskörpers 102 aufgrund von nur drei diskreten Orten 1202A, 1202B und 1202C berechnet wird, umfassen manche Ausführungsformen einen vierten diskreten Ort 1202D. Mit vier diskreten Orten 1202A, 1202B, 1202C, 1202D ist die Steuerung 200 so konfiguriert, dass sie Sätze von drei diskreten Orten sequenziell ermittelt (z. B. 1202A, 1202B und 1202C erstens, 1202B, 1202C und 1202D zweitens, 1202A, 1202C und 1202D drittens, usw.), und ist zum Ausgeben eines Werts für die Längen des Beleuchtungsstrahls 1200 konfiguriert, wie er vorlag, als er auf jeden der diskreten Orte 1202A, 1202B, 1202C, 1202D gerichtet wurde. Die Steuerung 200 wird dann zum Vergleichen dieser Ergebnisse konfiguriert, wenn sie überlappen, um die Werte mit größerer Gewissheit zu berechnen. Andere Ausführungsformen umfassen mehr als die vier diskreten Orte 1202. Solche Ausführungsformen machen die Berechnung noch genauer. Wurde die Länge des Beleuchtungsstrahls 1200 vom Beleuchtungskörper 102 zu jedem einzelnen diskreten Ort 1202A, 1202B, 1202C, 1202D gefunden, wird die Steuerung 200 beispielsweise zum Trilaterieren oder Quadrilaterieren des Orts des Beleuchtungskörpers 102 konfiguriert. Der Punkt an dem sich die Kugeln möglicher Lösungen für die diskreten Orte 1202A, 1202B, 1202C, 1202D kreuzen, wird als Ort des Beleuchtungskörpers 102 gekennzeichnet. Diese Berechnung ergibt sogar zwei Ergebnisse - eines über der Bühnenoberfläche 1204 und eines unterhalb der Bühnenoberfläche 1204. Die Steuerung 200 ist zum Verwerfen des Ergebnisses unterhalb der Bühnenoberfläche 1204 konfiguriert.
  • In manchen Ausführungsformen des Systems 100 und/oder des Systems 100A ist die Steuerung 200 ferner zum Ausführen eines Optimiererbetriebs mit den möglichen Positionen des Beleuchtungskörpers 102 konfiguriert. Da die Messwerte geringfügig abweichen könnten oder das Steuer-Feedback im Signal ein Rauschen aufweisen kann, kann ein Optimiererbetrieb die Position des Beleuchtungskörpers 102 genauer ermitteln (z. B. die Genauigkeit der Position des Beleuchtungskörpers verbessern). Der Optimierer führt anhand des Kosinussatzes Berechnungen mit den Werten durch, die er zuvor durch das Ausführen der Perspektiveninversionslösung erhielt. Der Optimierer nimmt die Länge des Beleuchtungsstrahl 1200 vom Beleuchtungskörper 102 zu jedem einzelnen diskreten Ort 1202A, 1202B, 1202C, 1202D, kombiniert diese Daten mit den bekannten Winkeländerungen des Beleuchtungskörpers 102 und ermittelt mögliche Werte für die Entfernungen auf der Bühnenoberfläche 1204 zwischen den diskreten Orten 1202A, 1202B, 1202C, 1202D. Das diese Entfernungen durch Messung oder andere vorstehend beschriebene Verfahren bekannt sind, vergleicht der Optimierer diese bekannten Entfernungen mit den ermittelten Entfernungen, um die Genauigkeit der Ergebnisse aus der Perspektiveninversionslösung zu beurteilen.
  • Ein Beispiel für einen geeigneten Optimiererbetrieb ist ein Limited Memory Broyden-Fletcher-Goldfarb-Shanno (LBFGS)-Optimierer, obwohl auch andere Optimiererbetriebe verwendet werden können. Wenn der Optimiererbetrieb Ergebnisse ausgibt, die sich einem Wert angleichen, wird dieser bestimmte Wert als genauer als der anfängliche Wert angesehen. Wenn sich die Ergebnisse keinem Wert angleichen und stattdessen streuen, wird der anfängliche Wert als genau genug ausgegeben, um ohne einen weiteren Versuch des Optimiererbetriebs fortzufahren. Nach diesen Schritten wird der Ort des Beleuchtungskörpers 102 wieder trilateriert (oder quadrilateriert). Der Ort wird dann als die genaueste Schätzung der Position des Beleuchtungskörpers 102 bezüglich der Bühnenoberfläche 1204 (oder des Bezugspunkts 1206) ausgegeben.
  • Nachdem die Steuerung 200 die Position des Beleuchtungskörpers 102 ermittelt hat, wird die Steuerung 200 so konfiguriert, dass sie die Orientierung des Beleuchtungskörpers 102 bezüglich der Bühnenoberfläche 1204 ermittelt. In manchen Ausführungsformen werden jedoch sowohl die Positionsberechnung für den Beleuchtungskörper 102 als auch die Orientierungsberechnung für den Beleuchtungskörper 102 mit dem Optimiererbetrieb bewerkstelligt.
  • Die Steuerung 200 verwendet beliebige drei der diskreten Orte 1202 auf der Bühnenoberfläche 1204 und die entsprechenden relativen Winkeländerungsinformationen vom Steuern des Beleuchtungskörpers 102. Die relativen Winkeländerungsinformationen umfassen Schwenken, Neigen oder sowohl Schwenken als auch Neigen. Die Steuerung 200 ermittelt Kugelkoordinaten der diskreten Orte 1202 , die den Beleuchtungsstrahl 1200 empfangen, wenn der Beleuchtungskörper 102 in jede Position orientiert ist. Diese Kugelkoordinaten sind relative Kugelkoordinaten, da sie Schwenk- und Neigungswinkel des Beleuchtungskörpers 102 bezüglich der Achse des Beleuchtungsstrahls 1200 umfassen, und der Ursprung die Position des Beleuchtungskörpers 102 ist (d. h. der Brennpunkt des Beleuchtungsstrahls 1200).
  • Die Steuerung 200 ist zum Translatieren der bekannten kartesischen Koordinaten der gefundenen Position des Beleuchtungskörpers 102 und der bekannten diskreten Orte 1202 bezüglich der Bezugspunkte 1206 in reale Kugelkoordinaten mit dem Beleuchtungskörper 102 als Ursprung konfiguriert. Manche Ausführungsformen umfassen die Bezugspunkte 1206, die einer der bekannten diskreten Orte 1202 in dieser Berechnung sind.
  • Die Steuerung 200 wird dann zum Durchführen einer Matrixtransformation konfiguriert, die sowohl die relativen Kugelkoordinaten und die realen Kugelkoordinaten verwendet, um die relativen Kugelkoordinaten der Orientierung des Beleuchtungskörpers 102 an jeder Position in reale Kugelkoordinaten zu translatieren (z. B. relativ zu einer Bezugsebene, die als absolute Kugelkoordinaten bezeichnet werden kann). Nachdem diese Beziehung ermitteln wurde, werden die Gier-, Nick- und Rollinformationen zur Orientierung des Beleuchtungskörpers 102 bezüglich der Bühnenoberfläche 1204 extrahiert. In manchen Ausführungsformen können das Gieren, Nicken und Rollen als absolute Winkel des Beleuchtungskörpers 102 bezüglich der Oberfläche 1204 bezeichnet werden, die eine Ebene der diskreten Orte 1202A, 1202B, 1202C und 1202D umfasst. Diese Informationen sind die absolute Orientierung des Beleuchtungskörpers 102 unabhängig vom Befestigungsverfahren.
  • Nachdem die vorstehenden Berechnungen abgeschlossen wurden, wird die Steuerung 200 so konfiguriert, dass sie die Ergebnisse als die angegebene Position und Orientierung des Beleuchtungskörpers 102 darstellt (z. B. wird die Steuerung 200 oder ein Benutzergerät 104A-104D mit dem dreidimensionalen Modellraum des Veranstaltungsbereichs gepaart). Mit diesen Informationen kann die Steuerung 200 Bilddaten ändern, die sich auf den Beleuchtungskörper 102 und den Beleuchtungsstrahl 1200 in einer interaktiven Umgebung beziehen, und den Beleuchtungskörper 102 steuern. Nachdem die Beleuchtungskörper 102 im Veranstaltungsbereich 300 festgestellt, klassifiziert und geortet wurden, können die vorstehend berechneten Informationen zum Implementieren von Übergängen verschiedener Stile verwendet werden.
  • Mit weiterem Bezug auf 12 und 12A können die vorstehend berechneten Informationen auch zum Ändern von Befehlsfolgedaten verwendet werden, die an den Beleuchtungskörper 102 gesendet werden, um die Orte 1208, die auf der Oberfläche 1204 gekennzeichnet sind, in geeignete Winkeländerungen des Beleuchtungskörpers 102 zu translatieren, damit das Richten des Beleuchtungsstrahls 1200 auf die gekennzeichneten Orte 1208 bewirkt wird. Manche Ausführungsformen des Systems 100, 100A umfassen die Steuerung 200, die zum Steuern des Beleuchtungskörpers 102 gemäß der geänderten Befehlsfolgedaten konfiguriert ist.
  • In manchen Ausführungsformen wird die Angabe der Orte 1208 auf einem Berührungsbildschirm des Benutzergeräts 104A-104D vorgenommen, wobei eine Augmented-Reality-Schnittstelle verwendet wird (beispielsweise durch einen Anwendungsschnittstellenbildschirm 1500, wie in 15 gezeigt). In einer solchen Schnittstelle sieht der Benutzer die Oberfläche 1204 auf dem Berührungsbildschirm und kann auf ein Ziel 1208 auf der Oberfläche 1204 des Berührungsbildschirms zeigen. Die Steuerung 200 ist so konfiguriert, dass sie diesen angegebenen Abschnitt des Bildschirms dann in eine äquivalente Position des Ziels 1208 auf der Oberfläche 1204 umwandelt. Die Steuerung 200 ist so konfiguriert, dass sie die Orientierung der Aufnahmesicht der Kamera 108 auf die Oberfläche 1204 aufgrund einer Kalibrierung mit einem oder mehreren Bezugspunkten 1206 bezieht. Zusätzlich oder alternativ verwendet das System 100, 100A eine oder mehrere inertiale Messeinheiten („IMU“), die mit dem Benutzergerät 104A-104D gekoppelt sind, um die Positions- und Orientierungsdaten des Benutzergeräts 104A-104D zu ermitteln. Die Kameras 108 sind in diesem Fall nicht unbedingt notwendig, das Benutzergerät 104A-104D würde jedoch mit dem dreidimensionalen Modellraum durch Positionieren und Orientieren des Geräts in einer bekannten Ausgangsanordnung und Aufzeichnen der Daten von den IMUs an dieser Ausgangsanordnung gepaart. In Ausführungsformen des Systems 100, 100A können mittels Augmented-Reality-Bibliotheken (z. B. ARCore, ARKit, usw.) sowohl die IMUs als auch die Kameras 108 dazu verwendet werden, die Genauigkeit der Daten zu verbessern.
  • Nachdem die reale Position des Ziels 1208 auf der Oberfläche 1204 ermittelt wurde, wird die Steuerung 200 zum Senden eines Steuersignals an einen oder mehrere Motoren konfiguriert, um die Bewegung des Beleuchtungskörpers 102 zu betätigen. Der Beleuchtungskörper 102 bewegt sich in die geeignete Orientierung, um den Beleuchtungsstrahl 1200 auf das Ziel 1208 zu projizieren. Beispielsweise ist die Steuerung 200 zum Translatieren der realen kartesischen Koordinaten des Ziels 1208 in die oben beschriebene veränderte Steuerfolge konfiguriert, um den Beleuchtungskörper 102 so zu betreiben, dass sich der Beleuchtungsstrahl 1200 auf geeignete Weise im dreidimensionalen Modellraum bewegt.
  • In manchen Ausführungsformen des Systems 100, 100A kann die Angabe des gewünschten Ziels 1208 für den Beleuchtungsstrahl 1200 auf der Oberfläche 1204 im Veranstaltungsbereich 300 vorgenommen werden, indem die Mitte des Aufnahmesicht der Kamera 108 auf das Ziel 1208 gerichtet wird. Wie vorstehend beschrieben ist die Steuerung 200 zum Umwandeln dieser Mitte der Aufnahmesicht in eine äquivalente Position des Ziels 1208 auf der tatsächlichen Oberfläche 1204 konfiguriert. In dieser Konfiguration kann die Angabe des gewünschten Ziels 1208 anhand eines eindeutigen Befehls, wie eines Stimmbefehls, eines Drucks auf einen Knopf oder dergleichen betätigt werden. Zusätzlich oder alternativ wird die Angabe des gewünschten Ziels 1208 in einen stetigen oder kontinuierlichen Modus geschaltet, sodass sich das gewünschte Ziel 1208 gleichzeitig oder mit einer gewissen Verzögerung bezüglich der sich ändernden Aufnahmesicht der Kamera 108 bewegt, wenn die Kamera 108 durch den Veranstaltungsbereich 300 bewegt wird. In manchen Ausführungsformen kann dieser Modus als eine Verfolgersteuerung verwendet werden.
  • In manchen Ausführungsformen des Systems 100, 100A wird die Angabe des gewünschten Ziels 308 des Beleuchtungsstrahls 1200 auf der Oberfläche 1204 im Veranstaltungsbereich 300 vorgenommen, indem ein Ende des Benutzergeräts 104A-104D in eine Richtung mit der Kamerasicht der Kamera 108 gerichtet wird, die in eine orthogonale Richtung zeigt. Beispielsweise könnte ein Benutzer mit einem Smartphone 104D das oberen Ende des Smartphones 106D auf den gewünschten Ort 1208 richten, während die Kamera 108 auf die Oberfläche 1204 gerichtet ist. In dieser Konfiguration kann das Beleuchtungsstrahlziel 1208 mit einer konstanten Entfernung, die möglicherweise vom Benutzer bezeichnet wird, vom Ende des Smartphones 104D oder von der Mitte der Aufnahmesicht der Kamera 108 in einer orthogonalen Richtung zu der Richtung der Aufnahmesicht eingestellt werden. In manchen Ausführungsformen ermittelt das Benutzergerät 104A-104D den Ort des gewünschten Ziels 1208, indem das Ende des Benutzergeräts 104A-104D auf das gewünschte Ziel 1208 gerichtet wird und der bekannte Ort (Koordinaten) des Benutzergeräts 104A-104D im Veranstaltungsbereich zusammen mit einem Neigungswinkel des Geräts 104A-104D bezüglich der Oberfläche 1204 verwendet wird (z. B. ermittelt unter Verwendung interner IMUs des Geräts 104A-104D), um den Ort des gewünschten Ziels 1208 im Veranstaltungsbereich 300 zu ermitteln.
  • In manchen Ausführungsformen des Systems 100, 100A wird die Angabe des gewünschten Ziels 1208 des Beleuchtungsstrahls 1200 als Ort des Benutzergeräts 104A-104D selbst eingestellt. Die Steuerung 200 ermittelt den Ort des Benutzergeräts 104A-104D aufgrund der Aufzeichnungsdaten von der Kamera 108. Diese Daten werden verarbeitet, um den Ort bezüglich eines oder mehrerer Bezugspunkte 1206 zu berechnen. Die Steuerung 200 ist zum Kennzeichnen des aktuellen Orts des Benutzergeräts 104A-104D bezüglich der Bezugspunkte 1206 als das Ziel 1208 konfiguriert. Wie vorstehenden beschrieben, kann die Angabe des gewünschten Ziels 1208 als Ort des Benutzergeräts 104A-104D durch einen eindeutigen Befehl betätigt werden. Zusätzlich oder alternativ kann die Angabe des Benutzergeräts 104A-104D als Ziel 1208 in einen kontinuierlichen oder ständigen Modus geschaltet werden.
  • Wie in 16 gezeigt, kann das System 100, 100A gemäß einem Verfahren 1600 arbeiten, um die Anordnungsinformationen zum Beleuchtungskörper 102 zu berechnen. Zuerst wählt und misst der Benutzer vier diskrete physische Orte 1202A, 1202B, 1202C, 1202D auf der Oberfläche 1204 (SCHRITT 1601).
  • Dann fokussiert der Benutzer den Beleuchtungskörper 102 auf jeden der vier diskreten Orte 1202A, 1202B, 1202C, 1202D und speichert die resultierenden Winkeländerungswerte für das Schwenken und Neigen des Beleuchtungskörpers (SCHRITT 1602). Als Nächstes wählt entweder die Steuerung 200 oder der Benutzer beliebige drei der vier diskreten Orte 1202A, 1202B, 1202C, 1202D und die entsprechenden Winkeländerungen, die der Beleuchtungskörper 102 vornahm, um den Beleuchtungsstrahl 1200 auf jeden der jeweiligen ausgewählten diskreten Orte 1202A, 1202B, 1202C, 1202D zu richten (SCHRITT 1603).
  • Eine Perspektiveninversionslösung wird zum Lösen für die Entfernungen von den diskreten Orten 1202A, 1202B, 1202C, 1202D auf der Oberfläche 1204 zum Beleuchtungskörper 102 verwendet (SCHRITT 1604). Nachdem alle Werte für die Entfernungen ermittelt wurden, wird die Position des Beleuchtungskörpers 102 trilateriert (SCHRITT 1605).
  • Die Steuerung 200 ermittelt dann, ob alle möglichen Kombinationen aus drei der diskreten Orten 1202A, 1202B, 1202C, 1202D und entsprechenden Winkeländerungen anhand der Perspektiveninversionslösung berechnet wurden (SCHRITT 1606). Wenn nicht alle möglichen Kombinationen berechnet wurden, geht das Verfahren 1600 zu SCHRITT 1603 zurück, um die anderen möglichen Kombinationen zu vollenden.
  • Wenn bei SCHRITT 1606 alle möglichen Kombinationen berechnet wurden, geht das Verfahren 1600 zum Errechnen eines Fehlers jeder gefundenen möglichen Lösung über (SCHRITT 1607). Als nächstes speichert die Steuerung 200 die Lösung mit den wenigsten Fehlern als die beste anfängliche Lösung für die Position des Beleuchtungskörpers 102 (SCHRITT 1608). Die beste anfängliche Lösung wird dann als Eingabe verwendet, um ein Optimieren (z. B. Verbessern der Genauigkeit) des Ergebnisses durch Ausführen von Berechnungen unter Verwendung des Kosinussatz zu versuchen (SCHRITT 1609). Die Steuerung 200 ermittelt dann, ob sich der Optimierungsvorgang an eine Lösung anglich (SCHRITT 1610).
  • Wenn sich der Optimierungsvorgang an eine Lösung anglich, wird die optimale Lösung als die Lösung für die Länge des Lichtstrahls 1200 von jedem der diskreten Orte 1202A, 1202B, 1202C, 1202D zum Beleuchtungskörper 102 (SCHRITT 1611A) anstelle der vorhergehenden besten anfänglichen Lösung aus SCHRITT 1608 ausgegeben. Wenn sich der Optimierungsvorgang keiner Lösung anglich, ignoriert die Steuerung 200 den Optimierungsvorgang und gibt die beste anfängliche Lösung von SCHRITT 1608 aus (SCHRITT 1611B). Die Steuerung 200 ermittelt dann die Position des Beleuchtungskörpers 102 über Trilateration mit den besten verfügbaren Längen (SCHRITT 1612).
  • Nachdem nun die Position des Beleuchtungskörpers 102 ermittelt wurde, wählt die Steuerung 200 einen Satz aus den drei diskreten Orten 1202 und die entsprechenden Winkeländerungen des Beleuchtungskörpers 102 aus (SCHRITT 1613). Die Kugelkoordinaten der diskreten Orte 1202 werden gefunden, wobei der Beleuchtungskörper 102 als Ursprungsort dient (SCHRITT 1614). Dann werden die bekannten kartesischen Koordinaten der diskreten Orte 1202 und des Beleuchtungskörpers 102 in reale Kugelkoordinaten mit dem Beleuchtungskörper 102 als Ursprung umgewandelt (SCHRITT 1615). Um die relativen Kugelkoordinaten des Beleuchtungskörpers 102 in absolute Kugelkoordinaten zu translatieren, wird eine Matrixtransformation durchgeführt (SCHRITT 1616). Dann werden die Gier-, Nick- und Rollinformationen zum Beleuchtungskörper 102 ermittelt und extrahiert (SCHRITT 1617). Die Steuerung 200 gibt dann die Position und Orientierung des Beleuchtungskörpers 102 bezüglich der Oberfläche 1204 und des Bezugspunkts 1206 aus (SCHRITT 1618).
  • Obwohl vorstehend die SCHRITTE 1613-1617 beschrieben wurden, umfassen manche Ausführungsformen des Verfahrens 1600, dass sowohl die Positionsberechnung für den Beleuchtungskörper 102 als auch die Orientierungsberechnung für den Beleuchtungskörper 102 während des Optimierungsschritts (SCHRITT 1609) bewerkstelligt werden und von SCHRITT 1612 direkt zu SCHRITT 1618 übergegangen wird.
  • Mit Bezug auf 17 kann das System 100, 100A zusätzlich oder alternativ gemäß einem Verfahren 1700 arbeiten, um die Anordnungsinformationen zum Beleuchtungskörper 102 zu berechnen. Zuerst wird der Beleuchtungskörper 102 eingeschaltet (SCHRITT 1701). Eine Steuerroutine wird ausgeführt und die Steuerung 200 zeichnet den Einstellungswinkel des Beleuchtungskörpers 102 auf, während die Kamera 110 den diskreten Ort 1202 des Beleuchtungsstrahls 1200 auf der Oberfläche 1204 an drei zufälligen Punkten erfasst (SCHRITT 1702). Die Steuerung 200 berechnet dann die Entfernungen von den diskreten Orten 1202 zum Beleuchtungskörper 102 (SCHRITT 1703). Diese Entfernungen werden zum Trilaterieren der Position des Beleuchtungskörpers 102 verwendet (SCHRITT 1704).
  • Das Verfahren 1700 geht dann zu SCHRITT 1705 über, wo der Fehler von jeder möglichen Lösung berechnet wird. Die Steuerung 200 speichert die Lösung mit den geringsten Fehlern als die beste anfängliche Lösung für die Position des Beleuchtungskörpers 102 (SCHRITT 1706). Die beste anfängliche Lösung wird als Eingabe verwendet, um zu versuchen, das Ergebnis durch Ausführen von Berechnungen unter Verwendung des Kosinussatzes zu optimieren (SCHRITT 1707). Die Steuerung 200 ermittelt dann, ob die anfängliche Lösung (nach der Optimierung) für die Position des Beleuchtungskörpers 102 mit ausreichender Genauigkeit bekannt ist, um unter einer Fehlerschwelle zu liegen (SCHRITT 1708).
  • Wenn der Positionsfehler an SCHRITT 1708 nicht kleiner als die Fehlerschwelle ist, ermittelt die Steuerung 200, ob die Anzahl der diskreten Orte 1202, die von einem Positionenzähler aufgezeichnet wurde, über einem Schwellenwert liegt (SCHRITT 1709). Der Schwellenwert für die Positionen kann eine geeignete Zahl sein, die beispielsweise zehn diskrete Orte 1202 umfasst. Wenn bei SCHRITT 1709 der Positionenzähler kleiner als der Schwellenwert ist, bewegt die Steuerung 200 den Beleuchtungskörper 102 in eine neue Winkelposition (SCHRITT 1710) und erhöht den im Positionenzähler gespeicherten Wert um eins. Als Nächstes erfasst die Steuerung 200 Daten, die einem anderen diskreten Ort 1202 entsprechen (SCHRITT 1711). Nach dem Erfassen der Daten, die einem anderen diskreten Ort 1202 entsprechen (SCHRITT 1711), geht das Verfahren 800 zu SCHRITT 1703 zurück, um die Entfernungen von den diskreten Orten 1202 zum Beleuchtungskörper 102 neu zu berechnen. Das Verfahren 1700 wird durch die SCHRITTE 1704-1707 fortgeführt.
  • Dieser Abschnitt des Verfahrens 1700 bildet eine Schleife bis entweder die anfängliche Lösung (nach der Optimierung) innerhalb der Fehlerschwelle gefunden wird, oder die im Positionenzähler gespeicherte Zahl über dem Schwellenwert liegt. In manchen Ausführungsformen bewirkt das Hinzufügen des vierten diskreten Orts 1202D, dass die anfängliche Lösung innerhalb der Fehlerschwelle zu liegen kommt. In anderen Ausführungsformen werden fünf oder mehr diskrete Orte 1202 verwendet. In anderen Ausführungsformen werden nur die anfänglichen drei diskreten Orte 1202A, 1202B und 1202C verwendet, um eine anfängliche Lösung zu erhalten, die innerhalb der Fehlerschwelle liegt. Wenn an SCHRITT 1708 der Positionsfehler kleiner oder gleich der Fehlerschwelle ist, wird das Verfahren 1700 an SCHRITT 1712 fortgesetzt. Ähnlich geht, wenn die neue anfängliche Lösung, die in SCHRITT 1706 gefunden wurde, nach der Optimierung genau genug ist, und nachdem das Verfahren 1700 durch die Schleife der SCHRITTE 1707-1711 und 1703-1708 fortgesetzt wurde, das Verfahren 1700 zu SCHRITT 1712 über. Ferner geht, wenn die anfängliche Lösung, die in SCHRITT 1706 gefunden und in SCHRITT 1707 optimiert wurde, nicht innerhalb der Fehlerschwelle liegt, der Positionenzähler jedoch einen Wert aufweist, der über der Positionenschwelle liegt, das Verfahren 1700 zu SCHRITT 1712 über, ohne weitere diskrete Orte 1202 zu versuchen.
  • Die Steuerung 200 ermittelt dann, ob sich der Optimierungsvorgang an eine Lösung anglich (SCHRITT 1712). Wenn sich der Optimierungsvorgang an eine Lösung anglich, wird die optimale Lösung als die Lösung für die Längen des Lichtstrahls 1200 von jedem der diskreten Orte 1202 zum Beleuchtungskörper 102 (SCHRITT 1713A) anstelle der vorhergehenden besten anfänglichen Lösung aus SCHRITT 1706 ausgegeben. Wenn sich der Optimierungsvorgang keiner Lösung anglich, ignoriert die Steuerung 200 den Optimierungsvorgang und gibt die beste anfängliche Lösung von SCHRITT 1706 aus (SCHRITT 1713B). Die Steuerung 200 berechnet dann die Position des Beleuchtungskörpers 102 ein letztes Mal durch Trilateration mit den besten verfügbaren Werten für die Längen von den diskreten Orten 1202 zum Beleuchtungskörper 102 (SCHRITT 1714).
  • Bei ermittelter Position des Beleuchtungskörpers 102 wählt die Steuerung 200 einen Satz aus drei der diskreten Orte 1202 und die entsprechenden Winkeländerungen des Beleuchtungskörpers 102 aus (SCHRITT 1715). Die Kugelkoordinaten der diskreten Orte 302 werden gefunden, wobei der Beleuchtungskörper 102 als Ursprungsort dient (SCHRITT 1716). Dann werden die bekannten kartesischen Koordinaten der diskreten Orte 1202 und des Beleuchtungskörpers 102 in reale Kugelkoordinaten mit dem Beleuchtungskörper 102 als Ursprung umgewandelt (SCHRITT 1717). Um die relativen Kugelkoordinaten des Beleuchtungskörpers 102 in absolute Kugelkoordinaten zu translatieren, wird eine Matrixtransformation durchgeführt (SCHRITT 1718). Dann werden die Gier-, Nick- und Rollinformationen des Beleuchtungskörpers 102 gefunden und extrahiert (SCHRITT 1719). Die Steuerung 200 ermittelt dann die Position und Orientierung des Beleuchtungskörpers 102 bezüglich der Oberfläche 1204 und des Bezugspunkts 1206 (SCHRITT 1720).
  • Obwohl vorstehend die SCHRITTE 1715-1719 beschrieben wurden, umfassen manche Ausführungsformen des Verfahrens 1700, dass sowohl die Positionsberechnung für den Beleuchtungskörper 102 als auch die Orientierungsberechnung für den Beleuchtungskörper 102 während des Optimierungsschritts (SCHRITT 1707) bewerkstelligt werden und von SCHRITT 1714 direkt zu SCHRITT 1720 übergegangen wird.
  • Mit Bezug auf 9 wird ein Verfahren 1800 zum Richten eines Beleuchtungskörpers 102 im Veranstaltungsbereich 300 gezeigt. Das System 100, 100A kann zusätzlich oder alternativ gemäß dem Verfahren 1800 arbeiten. Das Verfahren 1800 beginnt mit dem Paaren des Benutzergeräts 104A-104D im Veranstaltungsbereich 300 mit einem dreidimensionalen Modellraum des Beleuchtungsstrahls 1200 und des Beleuchtungskörpers 102 (SCHRITT 1801). Dieser Schritt wird beispielsweise dadurch erreicht, dass die Kamera 108 so gerichtet wird, dass die Aufnahmesicht der Kamera mindestens einen der Bezugspunkte 1206 scannt. Nachdem die Bezugspunkte 1206 gescannt wurden, kann die Steuerung 200 ermitteln, wo sich das Benutzergerät 104A-104D im Veranstaltungsbereich 300 befindet, und welche Orientierung es im Veranstaltungsbereich 300 aufweist (z. B. wie oben bezüglich 12 und 12A beschrieben).
  • Das Verfahren 1800 umfasst auch, dass die Steuerung 200 ein Beleuchtungsstrahlziel 1208 angibt (SCHRITT 1802). Das Beleuchtungsstrahlziel 1208 kann auf beispielsweise eine der vorstehend beschriebenen Weisen gekennzeichnet werden. Das Beleuchtungsstrahlziel 1208 ist bezüglich der Aufnahmesicht der Kamera 108 angeordnet. Nachdem das Beleuchtungsstrahlziel 1208 angegeben wurde, umfasst das Verfahren 1800, dass die Steuerung 200 das Ziel, das vom Benutzergerät 104A-104D angegeben wurde, in Koordinaten im Veranstaltungsbereich 300 im dreidimensionalen Modellraum umwandelt (SCHRITT 1803). Das Umwandeln wir aufgrund der zuvor gesammelten Daten zur Orientierung und Position des Benutzergeräts 104A-104D vorgenommen.
  • Nach Abschluss dieser Umwandlung umfasst das Verfahren 1800, dass die Steuerung 200 die Koordinaten im Veranstaltungsbereich 300 für das Beleuchtungsstrahlziel 1208 bezüglich der Beleuchtungskörperanordnung interpretiert (z. B. Positionen und Orientierungen) und eine entsprechende Anordnung des Beleuchtungskörpers 102 ermittelt (z. B. anhand Verfahren 1600 oder Verfahren 1700), die den Beleuchtungsstrahl 1200 auf geeignete Weise auf das Beleuchtungsstrahlziel 1208 richtet (SCHRITT 1804). Das Verfahren 1800 umfasst dann, dass die Steuerung 200 das Betätigen von mindestens einem Motor steuert, der mit dem Beleuchtungskörper 102 gekoppelt oder verknüpft ist, um den Beleuchtungskörper 102 gemäß der ermittelten Orientierung des Beleuchtungskörpers 102 zu bewegen, sodass der Beleuchtungsstrahl 1200 auf das Beleuchtungsstrahlziel 1208 gerichtet wird (SCHRITT 1805).
  • Somit sehen die hierin beschriebenen Ausführungsformen Verfahren und Systeme zum Steuern eines oder mehrerer Beleuchtungskörper durch Interaktion mit einer Augmented-Reality-Anzeige vor. Verschiedene Merkmale und Vorteile einiger Ausführungsformen werden in den folgenden Ansprüchen dargelegt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 62/777490 [0001]
    • US 62/777466 [0001]
    • US 2011/0221672 [0044]
    • US 2004/0046711 [0044]

Claims (22)

  1. Verfahren zum Steuern eines Beleuchtungskörpers, das Verfahren umfassend: Erfassen, anhand einer Kamera, von Bilddaten des Beleuchtungskörpers; Erstellen, anhand eines elektronischen Prozessors, einer Anzeige, die eine Repräsentation des Beleuchtungskörpers auf einem Anzeigegerät umfasst; Erstellen, anhand des elektronischen Prozessors, von einem oder mehreren virtuellen Elementen; Augmentieren, anhand des elektronischen Prozessors, der Repräsentation des Beleuchtungskörpers auf der Anzeige mit dem einen oder den mehreren virtuellen Elementen; Empfangen, mittels des elektronischen Prozessors, einer Eingabe über das eine oder die mehreren virtuellen Elementen auf der Anzeige, um den Beleuchtungskörper zu steuern; und Erzeugen, anhand des elektronischen Prozessors, eines Steuersignals, um eine Eigenschaft des Beleuchtungskörpers als Reaktion auf die Eingabe zu ändern.
  2. Verfahren nach Anspruch 1, wobei die Anzeige die Umgebung des Beleuchtungskörpers umfasst, die in den Bilddaten des Beleuchtungskörpers erfasst ist.
  3. Verfahren nach Anspruch 1, wobei: das eine oder die mehreren virtuellen Elemente interaktive virtuelle Elemente umfassen; und das Empfangen, mittels des elektronischen Prozessors, der Eingabe über das eine oder die mehreren virtuellen Elemente, um den Beleuchtungskörper zu steuern, das Empfangen der Eingabe als Ergebnis von Benutzerinteraktion mit dem einen oder den mehreren virtuellen Elementen auf der Anzeige umfasst.
  4. Verfahren nach Anspruch 1, ferner umfassend: Erstellen, anhand des elektronischen Prozessors, der Anzeige mit dem einen oder den mehreren virtuellen Elementen in einem geänderten Zustand, nachdem das Steuersignal als Reaktion auf die Eingabe erzeugt wurde.
  5. Verfahren nach Anspruch 1, wobei das Steuersignal zum Ändern einer Helligkeit von Licht, das vom Beleuchtungskörper erzeugt wird, Ändern einer Farbe von Licht, das vom Beleuchtungskörper erzeugt wird, Ändern eines Fokus von Licht, das vom Beleuchtungskörper erzeugt wird und/oder Ändern einer Winkelposition des Beleuchtungskörpers betriebsbereit ist.
  6. Verfahren nach Anspruch 1, wobei das eine oder die mehreren virtuellen Elemente Herstellerdaten des Beleuchtungskörpers, Kanalnummern des Beleuchtungskörpers, digitale Multiplexadressen des Beleuchtungskörpers, Diagnostikinformationen des Beleuchtungskörpers, einen Schieberegler, einen Schalter, einen Drehknopf, einen Knopf, einen virtuellen Verschluss, eine virtuelle Achse für eines aus Schwenken und Neigen des Beleuchtungskörpers, eine Farbpallette, Informationen bezüglich des vom Beleuchtungskörper erzeugten Lichts und/oder ein Auswahlkästchen umfassen, das den Beleuchtungskörper umgibt, um dem Benutzer das Wählen des Beleuchtungskörpers zum Ändern des Beleuchtungskörpers zu ermöglichen.
  7. System zum Steuern eines Beleuchtungskörpers, das System umfassend: ein Anzeigegerät; und eine Steuerung, die einen elektronischen Prozessor umfasst, der mit einem Speicher verknüpft ist, wobei der Speicher Anweisungen speichert, die beim Ausführen vonseiten des elektronischen Prozessors die Steuerung so konfigurieren, dass sie: Bilddaten des Beleuchtungskörpers von einer Kamera empfängt, eine Anzeige erstellt, die eine Repräsentation des Beleuchtungskörpers auf einem Anzeigegerät umfasst, ein oder mehrere virtuelle Elemente erstellt, die Repräsentation des Beleuchtungskörpers auf der Anzeige mit dem einen oder den mehreren virtuellen Elementen augmentiert, über das eine oder die mehreren virtuellen Elementen auf der Anzeige eine Eingabe empfängt, um den Beleuchtungskörper zu steuern, und ein Steuersignal erzeugt, um eine Eigenschaft des Beleuchtungskörpers als Reaktion auf die Eingabe zu ändern.
  8. System nach Anspruch 7, wobei die Anzeige die Umgebung des Beleuchtungskörpers umfasst, die in den Bilddaten des Beleuchtungskörpers erfasst ist.
  9. System nach Anspruch 7, wobei: das eine oder die mehreren virtuellen Elemente interaktive virtuelle Elemente umfassen; und die Eingabe als Ergebnis von Benutzerinteraktion mit dem einen oder den mehreren virtuellen Elementen auf der Anzeige empfangen wird.
  10. System nach Anspruch 7, wobei die Steuerung ferner zum Erstellen der Anzeige mit dem einen oder den mehreren virtuellen Elementen in einem geänderten Zustand konfiguriert ist, nachdem das Steuersignal als Reaktion auf die Eingabe erzeugt wurde.
  11. System nach Anspruch 7, wobei das Steuersignal zum Ändern einer Helligkeit von Licht, das vom Beleuchtungskörper erzeugt wird, Ändern einer Farbe von Licht, das vom Beleuchtungskörper erzeugt wird, Ändern eines Fokus von Licht, das vom Beleuchtungskörper erzeugt wird und/oder Ändern einer Winkelposition des Beleuchtungskörpers betriebsbereit ist.
  12. System nach Anspruch 7, wobei das eine oder die mehreren virtuellen Elemente Herstellerdaten des Beleuchtungskörpers, Kanalnummern des Beleuchtungskörpers, digitale Multiplexadressen des Beleuchtungskörpers, Diagnostikinformationen des Beleuchtungskörpers, einen Schieberegler, einen Schalter, einen Drehknopf, einen Knopf, einen virtuellen Verschluss, eine virtuelle Achse für eines aus Schwenken und Neigen des Beleuchtungskörpers, eine Farbpallette, Informationen bezüglich des vom Beleuchtungskörper erzeugten Lichts und/oder ein Auswahlkästchen umfassen, das den Beleuchtungskörper umgibt, um dem Benutzer das Wählen des Beleuchtungskörpers zum Ändern des Beleuchtungskörpers zu ermöglichen.
  13. Verfahren zum Steuern eines Geräts in einem Beleuchtungssystem, das Verfahren umfassend: Erfassen, anhand einer Kamera, eines Bilds einer Szene, die anhand eines Beleuchtungskörpers zu beleuchten ist; Erstellen, anhand eines elektronischen Prozessors, einer Anzeige, die eine Repräsentation der Szene auf einem Anzeigegerät umfasst; Erstellen, anhand des elektronischen Prozessors, von einem oder mehreren virtuellen Elementen, die mit dem Gerät verknüpft sind; Augmentieren, anhand des elektronischen Prozessors, der Repräsentation der Szene auf der Anzeige mit dem einen oder den mehreren virtuellen Elementen; Empfangen, mittels des elektronischen Prozessors, einer Eingabe über das eine oder die mehreren virtuellen Elementen auf der Anzeige, um das Gerät im Beleuchtungssystem zu steuern; und Erzeugen, anhand des elektronischen Prozessors, eines Steuersignals, um eine Eigenschaft des Geräts als Reaktion auf die Eingabe zu ändern.
  14. Verfahren nach Anspruch 13, wobei: das eine oder die mehreren virtuellen Elemente interaktive virtuelle Elemente umfassen; und das Empfangen, mittels des elektronischen Prozessors, der Eingabe über das eine oder die mehreren virtuellen Elemente, um das Gerät zu steuern, das Empfangen der Eingabe als Ergebnis von Benutzerinteraktion mit dem einen oder den mehreren virtuellen Elementen auf der Anzeige umfasst.
  15. Verfahren nach Anspruch 13, ferner umfassend: Erstellen, anhand des elektronischen Prozessors, der Anzeige mit dem einen oder den mehreren virtuellen Elementen in einem geänderten Zustand, nachdem das Steuersignal als Reaktion auf die Eingabe erzeugt wurde.
  16. Verfahren nach Anspruch 13, wobei das Steuersignal zum Ändern einer Helligkeit von Licht, das vom Beleuchtungskörper erzeugt wird, Ändern einer Farbe von Licht, das vom Beleuchtungskörper erzeugt wird, Ändern eines Fokus von Licht, das vom Beleuchtungskörper erzeugt wird und/oder Ändern einer Winkelposition des Beleuchtungskörpers betriebsbereit ist.
  17. Verfahren nach Anspruch 13, wobei das eine oder die mehreren virtuellen Elemente einen virtuellen Lichtstrahl, der mit einem Beleuchtungskörper verknüpft ist, eine Windensteuerung, um das Bewegen von Kulissenelementen einzuleiten, ein Kulissenelement, einen Umriss, der einen Gefahrenbereich kennzeichnet, eine Falltür, einen Ventilator und/oder eine Nebelmaschine umfassen.
  18. System zum Steuern eines Geräts in einem Beleuchtungssystem, das System umfassend: ein Anzeigegerät; und eine Steuerung, die einen elektronischen Prozessor umfasst, der mit einem Speicher verknüpft ist, wobei der Speicher Anweisungen speichert, die beim Ausführen vonseiten des elektronischen Prozessors die Steuerung so konfigurieren, dass sie: Bilddaten einer Szene, die anhand eines Beleuchtungskörpers zu beleuchten ist, von einer Kamera empfängt, eine Anzeige erstellt, die eine Repräsentation der Szene auf einem Anzeigegerät umfasst, ein oder mehrerer virtuelle Elemente erstellt, die mit dem Gerät verknüpft sind, die Repräsentation der Szene auf der Anzeige mit dem einen oder den mehreren virtuellen Elementen augmentiert, eine Eingabe über das eine oder die mehreren virtuellen Elementen auf der Anzeige empfängt, um das Gerät im Beleuchtungssystem zu steuern, und ein Steuersignal erzeugt, um eine Eigenschaft des Geräts als Reaktion auf die Eingabe zu ändern.
  19. System nach Anspruch 18, wobei: das eine oder die mehreren virtuellen Elemente interaktive virtuelle Elemente umfassen; und das Empfangen der Eingabe über das eine oder die mehreren virtuellen Elemente, um das Gerät zu steuern, das Empfangen der Eingabe als Ergebnis von Benutzerinteraktion mit dem einen oder den mehreren virtuellen Elementen auf der Anzeige umfasst.
  20. System nach Anspruch 18, wobei die Steuerung zum Erstellen der Anzeige mit dem einen oder den mehreren virtuellen Elementen in einem geänderten Zustand konfiguriert ist, nachdem das Steuersignal als Reaktion auf die Eingabe erzeugt wurde.
  21. System nach Anspruch 18, wobei das Steuersignal zum Ändern einer Helligkeit von Licht, das vom Beleuchtungskörper erzeugt wird, Ändern einer Farbe von Licht, das vom Beleuchtungskörper erzeugt wird, Ändern eines Fokus von Licht, das vom Beleuchtungskörper erzeugt wird und/oder Ändern einer Winkelposition des Beleuchtungskörpers betriebsbereit ist.
  22. System nach Anspruch 18, wobei das eine oder die mehreren virtuellen Elemente einen virtuellen Lichtstrahl, der mit einem Beleuchtungskörper verknüpft ist, eine Windensteuerung, um das Bewegen von Kulissenelementen einzuleiten, ein Kulissenelement, einen Umriss, der einen Gefahrenbereich kennzeichnet, eine Falltür, einen Ventilator und/oder eine Nebelmaschine umfassen.
DE102019133753.4A 2018-12-10 2019-12-10 Werkzeuge für augmentierte realität in der lichtgestaltung Withdrawn DE102019133753A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862777466P 2018-12-10 2018-12-10
US201862777490P 2018-12-10 2018-12-10
US62/777,466 2018-12-10
US62/777,490 2018-12-10

Publications (1)

Publication Number Publication Date
DE102019133753A1 true DE102019133753A1 (de) 2020-07-16

Family

ID=69172027

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019133753.4A Withdrawn DE102019133753A1 (de) 2018-12-10 2019-12-10 Werkzeuge für augmentierte realität in der lichtgestaltung

Country Status (3)

Country Link
US (1) US20200184222A1 (de)
DE (1) DE102019133753A1 (de)
GB (1) GB2581248A (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11494953B2 (en) * 2019-07-01 2022-11-08 Microsoft Technology Licensing, Llc Adaptive user interface palette for augmented reality
US20240035648A1 (en) * 2022-07-29 2024-02-01 Electronic Theatre Controls, Inc. Method for creating xyz focus paths with a user device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040046711A1 (en) 2000-12-18 2004-03-11 Siemens Ag User-controlled linkage of information within an augmented reality system
US20110221672A1 (en) 2010-02-28 2011-09-15 Osterhout Group, Inc. Hand-worn control device in an augmented reality eyepiece

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112013008713A2 (pt) * 2010-10-15 2021-05-25 Koninklijke Philips Electronics N.V. sistema de interação com o usuário para o controle de um sistema sw iluminação para a iluminação de um ambiente e disposição eletrônico portátil
CN109041372B (zh) * 2011-12-14 2021-01-05 飞利浦灯具控股公司 用于控制照明的方法和装置
US20150355829A1 (en) * 2013-01-11 2015-12-10 Koninklijke Philips N.V. Enabling a user to control coded light sources
US20150028746A1 (en) * 2013-07-26 2015-01-29 3M Innovative Properties Company Augmented reality graphical user interface for network controlled lighting systems
US10568179B2 (en) * 2013-09-20 2020-02-18 Osram Sylvania Inc. Techniques and photographical user interface for controlling solid-state luminaire with electronically adjustable light beam distribution
US9554447B2 (en) * 2013-11-12 2017-01-24 Abl Ip Holding Llc Head-wearable user interface device for lighting related operations
WO2020088990A1 (en) * 2018-10-30 2020-05-07 Signify Holding B.V. Management of light effects in a space

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040046711A1 (en) 2000-12-18 2004-03-11 Siemens Ag User-controlled linkage of information within an augmented reality system
US20110221672A1 (en) 2010-02-28 2011-09-15 Osterhout Group, Inc. Hand-worn control device in an augmented reality eyepiece

Also Published As

Publication number Publication date
GB201918110D0 (en) 2020-01-22
GB2581248A (en) 2020-08-12
US20200184222A1 (en) 2020-06-11

Similar Documents

Publication Publication Date Title
DE102019133756A1 (de) Systems and methods for generating a lighting design
DE112016006262B4 (de) Dreidimensionaler Scanner und Verarbeitungsverfahren zur Messunterstützung für diesen
EP2176833B1 (de) Verfahren und system zur ermittlung der position und orientierung einer kamera relativ zu einem realen objekt
DE102016113060A1 (de) Verfahren zum Steuern eines Objekts
WO2019201652A1 (de) Verfahren zur benutzung einer mehrgliedrigen aktuierten kinematik, vorzugsweise eines roboters, besonders vorzugsweise eines knickarmroboters, durch einen benutzer mittels einer mobilen anzeigevorrichtung
WO2015117905A1 (de) 3d-bildanalysator zur blickrichtungsbestimmung
DE102018129143A1 (de) Variabler messobjektabhängiger Kameraaufbau und Kalibrierung davon
DE102014113453A1 (de) Beleuchtungssteuerpult und Beleuchtungssteuersystem
EP2915022B1 (de) Verfahren zum eingeben eines steuerbefehls für eine komponente eines kraftwagens
DE102008016215A1 (de) Informationsvorrichtungsbediengerät
DE102019133752A1 (de) Systeme und verfahren zum ermitteln von informationen überbeleuchtungskörperanordnungen
DE102019133749A1 (de) Automatisierte neu-erstellung einer beleuchtungstechnik für einen veranstaltungsort
WO2012013388A1 (de) Parallele online-offline rekonstruktion für drei-dimensionale raumvermessung
DE102019133753A1 (de) Werkzeuge für augmentierte realität in der lichtgestaltung
DE102009020307A1 (de) Simulator für eine Sichtprüfungsvorrichtung
WO2007014966A1 (de) Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE10215885A1 (de) Automatische Prozesskontrolle
DE102018113336A1 (de) Verfahren zum Verwenden mit einer Maschine zum Einstellen einer Erweiterte-Realität-Anzeigeumgebung
WO2020126240A1 (de) Verfahren zum betreiben eines feldgeräts der automatisierungstechnik in einer augmented-reality/mixed-reality-umgebung
EP2831839B1 (de) Verfahren zum automatischen betreiben einer überwachungsanlage
DE112020003765T5 (de) Überwachte Einrichtung eines Steuervorrichtungs mit Bildgeber
DE102011002577A1 (de) Fernsteuerungseinrichtung zur Steuerung einer Vorrichtung anhand eines beweglichen Objektes sowie Schnittstellen-Modul zur Kommunikation zwischen Modulen einer derartigen Fernsteuerungseinrichtung oder zwischen einem der Module und einer externen Vorrichtung
DE102004061841A1 (de) Markerloses Tracking System für Augmented Reality Anwendungen
DE102019102252A1 (de) Verfahren zur Unterstützung der Installation eines Sensors bzw. einer Leuchte in Beleuchtungssystemen
DE102019213108A1 (de) Fahrzeug und verfahren zum steuern desselben

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R082 Change of representative

Representative=s name: KUEHR, VERA, DIPL.-BIOL., DE