-
Die Erfindung betrifft eine Sensoranordnung.
-
Derartige Sensoranordnungen umfassen generell wenigstens einen Sensor, der Lichtstrahlen emittiert. Typischerweise weist der Sensor hierzu wenigstens einen Lichtstrahlen emittierenden Sender und wenigstens einen Lichtstrahlen empfangenden Empfänger auf.
-
Der Sensor kann beispielsweise von einer Lichtschranke mit nur einem Sender und nur einem Empfänger gebildet sein. Weiterhin kann der Sensor von einem Lichtvorhang mit einer Reihenanordnung von Sendern und einer Reihenanordnung von Empfängern gebildet sein. Derartige Sensoren werden zu Überwachungszwecken eingesetzt, das heißt mit den Sensoren wird ein definierter Überwachungsbereich überwacht. Der oder die Sender sind in einem Gehäuse an einem ersten Rand des Überwachungsbereichs angeordnet, während der oder die Empfänger in einem Gehäuse am gegenüberliegenden Rand des Überwachungsbereichs angeordnet sind. Dabei generiert der Sensor ein Objektfeststellungssignal in Form eines binären Schaltsignals, dessen Schaltzustände angeben, ob sich ein Objekt im Überwachungsbereich befindet oder nicht.
-
Um eine Überwachungsfunktion erfüllen zu können, muss der Sensor vor Aufnahme seines Arbeitsbetriebs so justiert werden, dass die von dem oder den Sendem emittierten Lichtstrahlen auf den oder die zugeordneten Empfänger treffen. Diese Justage ist relativ aufwändig, da derartige Sensoren typischerweise Lichtstrahlen im nicht sichtbaren Wellenlängenbereich, insbesondere im Infrarotbereich emittieren. Die Justage kann somit nicht anhand der Lichtstrahlen selbst erfolgen, da diese für das menschliche Auge nicht sichtbar sind.
-
Um eine Justage zu ermöglichen, wird daher bei bekannten Sensoren in einem der Gehäuse eine Sendeeinheit, die sichtbare Pilotstrahlen emittiert, integriert. Alternativ wird eine solche Sendeeinheit als Anbaueinheit am Gehäuse nachträglich angebracht. Zur Justage werden die Pilotstrahlen auf ein Zielobjekt am anderen Gehäuse ausgerichtet. Diese zusätzlichen Mittel zur Justage des Sensors führen zu einem erhöhten konstruktiven Aufwand und damit zu einer Erhöhung der Herstellkosten des Sensors.
-
Der Erfindung liegt die Aufgabe zugrunde eine Sensoranordnung mit erweiterter Funktionalität bereitzustellen.
-
Zur Lösung dieser Aufgabe sind die Merkmale des Anspruchs 1 vorgesehen. Vorteilhafte Ausführungsformen und zweckmäßige Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen beschrieben.
-
Die Erfindung betrifft eine Sensoranordnung mit wenigstens einem Sensor und einer Virtuelle-Realität-Einheit, wobei mit der Virtuelle-Realität-Einheit ein Umgebungsbild mit dem Sensor darstellbar ist. Die Virtuelle-Realität-Einheit weist Darstellungsmittel auf, mittels derer vom Sensor emittierte Lichtstrahlen, deren Wellenlängen im nicht sichtbaren Wellenlängenbereich liegen, als sichtbare Strahlen im Umgebungsbild darstellbar sind.
-
Erfindungsgemäß ist dem Sensor der Sensoranordnung eine Virtuelle-Realität-Einheit zugeordnet, mit der Umgebungsbilder mit dem Sensor generiert werden. Generell können mit der Virtuelle-Realität-Einheit Informationen als virtuelle Inhalte in die Umgebungsbilder eingeblendet werden, die einem Benutzer insbesondere Statusinformationen über den Sensor und die mit diesem durchgeführten Überwachungsfunktionen liefern.
-
Der Sensor der erfindungsgemäßen Sensoranordnung emittiert Lichtstrahlen im nicht sichtbaren Wellenlängenbereich, insbesondere im Infrarot (IR)-Bereich oder im Ultraviolett (UV)-Bereich. Erfindungsgemäß weist die Virtuelle-Realität-Einheit Darstellungsmittel auf, mit denen die Lichtstrahlen des Sensors in den Umgebungsbildern als sichtbare Strahlen dargestellt werden, das heißt ein Benutzer kann in den Umgebungsbildern den Strahlverlauf der Lichtstrahlen des Sensors sehen.
-
Damit wird eine signifikante Erweiterung der Funktionalität der Sensoranordnung erzielt. Insbesondere kann anhand der im Umgebungsbild sichtbar gemachten Lichtstrahlen eine Justage des Sensors vorgenommen werden, ohne dass hierzu am Sensor zusätzliche konstruktive Maßnahmen vorgesehen werden müssen.
-
Die Virtuelle-Realität-Einheit kann dabei für Sensoranordnungen mit unterschiedlichsten Sensoren eingesetzt werden, wobei generell die Sensoranordnung auch mehrere Sensoren umfassen kann. Umfasst die Sensoranordnung mehrere Sensoren, können durch die in den Umgebungsbildern sichtbar gemachten Lichtstrahlen deren Strahlführungen so kontrolliert werden, dass sich die Sensoren nicht gegenseitig beeinflussen.
-
Der Sensor der erfindungsgemäßen Sensoranordnung kann beispielsweise von einer Lichtschranke oder einem Lichtvorhang gebildet sein. In diesem Fall sind der oder die Sender in einem ersten Gehäuse integriert, das an einem ersten Rand eines zu überwachenden Überwachungsbereichs angeordnet ist. Der oder die Empfänger sind in einem zweiten Gehäuse am gegenüberliegenden Rand es Überwachungsbereichs angeordnet.
-
Der oder die Sender emittieren Lichtstrahlen im nicht sichtbaren Wellenlängenbereich, insbesondere im IR-Bereich. Da diese Lichtstrahlen mittels der Virtuelle-Realität-Einheit im Umgebungsbild sichtbar gemacht werden, können diese sichtbar gemachten Lichtstrahlen zur Ausrichtung der Gehäuse derart, dass die Lichtstrahlen des oder der Sender auf die zugeordneten Empfänger auftreffen, genutzt werden.
-
In einer alternativen Ausgestaltung kann der Sensor als Reflexionslichtschranke oder als Reflexions-Lichtvorhang ausgebildet sein. In diesem Fall befinden sich der oder die Sender mit dem oder den Empfängern in einem Gehäuse am ersten Rand des Überwachungsbereichs. Am gegenüberliegenden Rand des Überwachungsbereichs befindet sich eine Reflektoreinheit, auf die die Lichtstrahlen bei freiem Überwachungsbereich geführt sind. Eine Objekterkennung erfolgt wieder durch Erfassen von Strahlunterbrechungen der Lichtstrahlen. Die Justage erfolgt entsprechend der vorgenannten Ausführungsformen der Sensoren.
-
Im Arbeitsbetrieb des Sensors gelangen bei freiem Überwachungsbereich die Lichtstrahlen aller Sender ungehindert zum jeweils zugeordneten Empfänger. Ein Objekteingriff im Überwachungsbereich wird dadurch festgestellt, dass wenigstens einer der Lichtstrahlen unterbrochen ist.
-
Die vorgenannten Sensoren können insbesondere als Sicherheitssensoren ausgebildet sein und weisen zur Erfüllung der normativen Anforderungen für einen Einsatz im Bereich der Sicherheitstechnik einen fehlersicheren Aufbau auf.
-
Der Sensor der erfindungsgemäßen Sensoranordnung kann vorteilhaft als Scanner, insbesondere als Flächendistanzsensor ausgebildet sein. In diesem Fall werden die Lichtstrahlen periodisch innerhalb eines zwei- oder dreidimensionalen Raumbereichs geführt. Auch mit einem derartigen Sensor können Überwachungsfunktionen durchgeführt werden, wobei auch in diesem Fall der Sensor Lichtstrahlen im IR-Bereich emittiert. Mit einem Sensor in Form eines Flächendistanzsensors werden durch die durchgeführten Distanzmessungen Positionen von Objekten im Raum bestimmt. Dies kann insbesondere zur Durchführung von Schutzfeldüberwachungen durchgeführt werden. Abhängig davon, ob ein Objekt in ein im Flächendistanzsensor vorgebbares Schutzfeld eindringt oder nicht, wird ein entsprechendes Objektfeststellungssignal generiert. Auch derartige Flächendistanzsensoren können als Sicherheitssensoren ausgebildet sein und werden dann insbesondere für eine Gefahrenbereichsüberwachung an gefahrbringenden Anlagen eingesetzt.
-
Um diese Gefahrenbereichsüberwachung zuverlässig durchführen zu können, müssen die Scanbereiche, in denen die Lichtstrahlen des Flächendistanzsensors geführt sind, den Gefahrenbereich abdecken. Dies kann mit der erfindungsgemäßen Sichtbarmachung der Lichtstrahlen mittels der Virtuelle-Realität-Einheit einfach und zuverlässig bewerkstelligt werden.
-
Generell können die Sensoren auch von Lichttastern, Distanzsensoren, Barcodelesegeräten und dergleichen, die auch Lichtstrahlen im IR-Bereich emittieren, gebildet sein.
-
Ein Beispiel für Sensoren, die Licht im UV-Bereich emittieren, und Lumineszenzsensoren, mit denen lumineszierte Objekte, insbesondere Marken, erfasst werden.
-
Gemäß einer vorteilhaften Ausführungsform der Erfindung weisen die Darstellungsmittel wenigstens eine Kamera mit einem zugeordneten Filter auf, wobei die Kamera mittels des Filters in einem Wellenlängenbereich betreibbar ist, der zumindest teilweise mit dem Wellenlängenbereich der Lichtstrahlen übereinstimmt. Die Lichtstrahlen sind als sichtbare Strahlen in einem Umgebungsbild der Kamera dargestellt.
-
Die oder jede Kamera weist Empfangselemente, vorzugsweise in einer zeilen- oder matrixförmigen Anordnung auf, die generell nicht nur Licht im sichtbaren Wellenlängenbereich empfangen und registrieren können sondern auch im nicht sichtbaren Wellenlängenbereich, insbesondere im IR- und UV-Bereich.
-
Durch ein der Kamera zugeordnetes wellenlängenselektives Filter wird die Kamera in einem vorgegebenen Wellenlängenbereich betrieben, der erfindungsgemäß so gewählt ist, dass mit der Kamera nicht nur ein reales Umgebungsbild erfasst wird sondern auch die Lichtstrahlen des Sensors als sichtbare Strahlen im Umgebungsbild dargestellt werden.
-
Um entweder nur das reale Umgebungsbild oder wahlweise auch die Lichtstrahlen des Sensors sichtbar zu machen, ist vorteilhaft der Kamera ein Filter zugeordnet, das zwischen unterschiedlichen Wellenlängenbereichen umschaltbar ist.
-
Alternativ können der Kamera unterschiedliche Filter zugeordnet werden.
-
Schließlich ist es möglich, dass mehrere Kameras vorgesehen sind, wobei den Kameras unterschiedliche Filter zugeordnet sind.
-
Durch diese möglichen Auswahlvarianten ist insbesondere auch eine Anpassung an Sensoren möglich, die Lichtstrahlen in unterschiedlichen, nicht sichtbaren Wellenlängenbereichen emittieren. Somit können die verschiedenen Lichtstrahlen dieser Sensoren in Umgebungsbildern sichtbar gemacht werden.
-
Vorteilhaft weist die Virtuelle-Realität-Einheit Eingabemittel auf, mittels derer ein Wellenlängenbereich für einen Filter auswählbar ist.
-
Die Eingabemittel können insbesondere in Form eines Eingabemenüs ausgebildet sein, wobei ein Benutzer durch Eingaben im Eingabemenü das oder die Filter für den gewünschten Wellenlängenbereich auswählen kann.
-
Die mit der oder den Kameras generierten Umgebungsbildern, insbesondere mit den dort sichtbar gemachten Lichtstrahlen und gegebenenfalls weiteren visualisierten Informationen können optional abgespeichert und/oder an interne Einheiten übertragen werden, insbesondere zu Dokumentationszwecken.
-
Generell können die in Umgebungsbildern sichtbar gemachten Lichtstrahlen auch zu Funktionsprüfungen des Sensors genutzt werden.
-
Gemäß einer vorteilhaften Weiterbildung der Erfindung weist die Virtuelle-Realität-Einheit Analysemittel auf, mittels derer Wellenlängen von in einer Umgebung vorhandenen Lichtquellen erfasst und angezeigt werden.
-
Insbesondere weisen die Analysemittel Spektrometer auf.
-
Mit diesen Analysemitteln kann Störlicht, dessen Wellenlängenbereich außerhalb des sichtbaren Bereichs liegt, detektiert und analysiert werden. Die Ergebnisse dieser Analyse können dem Benutzer angezeigt werden, wodurch derer die Möglichkeit hat die jeweilige Applikation hinsichtlich vorhandener Störlichtquellen anzupassen.
-
Auch können mit derartigen Analysemitteln optische Leckagen an Geräten, Maschinen und dergleichen erfasst und analysiert werden.
-
Gemäß einer vorteilhaften Ausführungsform der Erfindung, weist die Virtuelle-Realität-Einheit eine Datenbrille auf.
-
Die Datenbrille bildet generell eine AR (augmented reality)-Brille beziehungsweise eine VR (virtual reality)-Brille. Die oder jede Kamera ist im Rahmen der Datenbrille integriert, wobei generell auch andere Zuordnungen der Kameras zur Datenbrille möglich sind.
-
Die mit den Kameras generierten Umgebungsbildern der Umgebung des Sensors, insbesondere mit den dort sichtbar gemachten Lichtstrahlen, werden mittels der Datenbrille in das Sichtfeld des die Datenbrille tragenden Benutzers eingeblendet. Die Kameras sind vorteilhaft so an der Datenbrille positioniert, dass die mit den Kameras aufgenommenen Umgebungsbilder dem Sichtfeld der Datenbrille, das heißt des die Datenbrille tragenden Benutzers entsprechen.
-
Die Virtuelle-Realität-Einheit wird durch eine Rechnereinheit komplettiert, die die Auswertung von Daten, insbesondere von Bilddaten der Kameras und gegebenenfalls auch Steuerungsfunktionen übernimmt, wobei hierzu entsprechende Softwaremodule, wie zum Beispiel Steuermodule oder Auswertemodule, vorgesehen sind.
-
Diese Rechnereinheit kann in Form eines Prozessors ausgebildet sein, der in der Datenbrille integriert sein kann.
-
Alternativ kann die Rechnereinheit auch eine externe Einheit wie zum Beispiel ein mobiles Endgerät sein. Das mobile Endgerät kann ein Smartphone, ein Tablet-Rechner, ein PC (Personal Computer) oder dergleichen sein.
-
Eine solche Rechnereinheit kann auch eine Anzeigeeinheit zur Anzeige relevanter Größen, die insbesondere in einem Auswertemodul generiert werden, aufweisen.
-
Zudem kann die Rechnereinheit ein Auswahlmenü generieren, in dem ein Benutzer die Filterfunktionen der Virtuelle-Realität-Einheit vorgeben kann.
-
Gemäß einer weiteren Ausgestaltung kann die Virtuelle-Realität-Einheit auch von dem mobilen Endgerät alleine gebildet sein, das heißt in diesem Fall ist keine Datenbrille vorgesehen.
-
Die Kameras können im mobilen Endgerät integriert sein oder separate Einheiten bilden.
-
Die einzelnen räumlich getrennten Komponenten der Virtuelle-Realität-Einheit können über leitungsgebundene oder berührungslos arbeitende Datenverbindungen verbunden sein, wobei als Leitungen elektrische Leitungen oder auch Lichtwellenleiter vorgesehen sein können.
-
Die Erfindung wird im Folgenden anhand der Zeichnungen erläutert. Es zeigen:
- 1: Schematische Darstellung eines Ausführungsbeispiels der erfindungsgemäßen Sensoranordnung.
- 2: Ausführungsbeispiel einer Virtuelle-Realität-Einheit für die Sensoranordnung gemäß 1.
- 3: Blockschaltbild der Virtuelle-Realität-Einheit gemäß 1.
-
1 zeigt ein Ausführungsbeispiel der erfindungsgemäßen Sensoranordnung 1. Die Sensoranordnung 1 umfasst einen Sensor in Form eines Lichtvorhangs 2. Der Lichtvorhang 2 umfasst eine Sendereinheit 3 mit einem ersten Gehäuse 3a, in welcher eine Reihenanordnung von Lichtstrahlen 4 emittierenden Sendern 5 angeordnet ist. Die Sender 5 sind beispielsweise von Leuchtdioden gebildet und emittieren Lichtstrahlen 4 im nicht sichtbaren Wellenlängenbereich, insbesondere im IR-Bereich. Die Sender 5 werden mittels einer nicht dargestellten Sendersteuerung aktiviert. Der Lichtvorhang 2 umfasst weiter eine Empfängereinheit 6 mit einem zweiten Gehäuse 6a, in welcher eine Reihenanordnung von Lichtstrahlen 4 empfangenden Empfängern 7 integriert ist, die beispielsweise von Photodioden gebildet sind. Die Empfangssignale der Empfänger 7 werden in einer Auswerteeinheit 8 ausgewertet. Ist der Lichtvorhang 2 als Sicherheitssensor ausgebildet, weist dieser einen fehlersicheren Aufbau auf, was zum Beispiel durch eine zweikanalige Auswerteeinheit 8 realisiert werden kann.
-
Jeder Sender 5 bildet mit einem zugeordneten Empfänger 7 ein Sender-Empfänger-Paar. Durch eine optische Synchronisation werden die Sender-Empfänger-Paare zyklisch einzeln nacheinander aktiviert.
-
Mit dem Lichtvorhang 2 wird ein Überwachungsbereich überwacht, wobei die Sendereinheit 3 und die Empfängereinheit 6 an gegenüberliegenden Rändern des Überwachungsbereichs angeordnet sind. Im Überwachungsbetrieb des Lichtvorhangs 2 erfolgt eine Objektdetektion von Objekten im Überwachungsbereich. Bei freiem Überwachungsbereich treffen die Lichtstrahlen 4 aller Sender-Empfänger-Paare ungehindert auf den jeweils zugeordneten Empfänger 7. Bei einem Objekteingriff in dem Überwachungsbereich werden die Lichtstrahlen 4 wenigstens eines der Sender-Empfänger-Paare unterbrochen. Abhängig von den Empfangssignalen der Empfänger 7 und in der Auswerteeinheit 8 als Objektfeststellungssignal ein binäres Schaltsignal generiert, dessen Schaltzustände angeben, ob sich ein Objekt im Überwachungsbereich befindet oder nicht. Mit dem Objektfeststellungssignal wird vorzugsweise der Betrieb einer Anlage gesteuert.
-
Die Sensoranordnung 1 umfasst weiterhin eine Virtuelle-Realität-Einheit 9, die im vorliegenden Fall eine Datenbrille 10 umfasst, die von einem Benutzer getragen wird und mit der ein Sichtfeld 11 erfasst wird.
-
2 zeigt schematisch den Aufbau der Virtuelle-Realität-Einheit 9. Die Virtuelle-Realität-Einheit 9 umfasst neben der Datenbrille 10 ein mobiles Endgerät 12, das im vorliegenden Fall von einem Smartphone gebildet ist. Alternativ kann das mobile Endgerät 12 auch von einem PC, Tablet-Rechner oder dergleichen gebildet sein. Das Smartphone ist über eine Leitung 13 an die Datenbrille 10 angeschlossen. Generell kann auch eine berührungslos arbeitende Datenverbindung wie zum Beispiel Bluetooth oder WLAN vorgesehen sein.
-
Wie 2 zeigt, sind im Rahmen der Datenbrille 10 zwei Kameras 14 integriert. Die Kamerasichtfelder 15 der Kameras 14 decken im Wesentlichen das Sichtfeld 11 der Datenbrille 10 ab. Prinzipiell kann auch nur eine Kamera 14 vorgesehen sein. Auch mehr als zwei Kameras 14 sind möglich.
-
Prinzipiell kann die Virtuelle-Realität-Einheit 9 auch allein von der Datenbrille 10 gebildet sein, wobei dann in der Datenbrille 10 eine Rechnereinheit integriert ist.
-
Weiterhin kann die Virtuelle-Realität-Einheit 9 aus einem mobilen Endgerät 12 ohne Datenbrille 10 bestehen. Dann sind die Kameras 14 im mobilen Endgerät 12 integriert.
-
3 zeigt ein Blockschaltbild der Virtuelle-Realität-Einheit 9. Wie dort dargestellt, sind die Kameras 14 mit einem Prozessor 16 des mobilen Endgeräts 12 derart verbunden, dass die in den Kameras 14 generierten Bildinformationen dem Prozessor 16 zugeführt sind. Die Kameras 14 können als CMOS- oder CCD-Kameras mit einer vorzugsweise matrixförmigen Anordnung von Empfangselementen ausgebildet sein. Die Empfangselemente sind empfindlich für Licht sowohl im sichtbaren als auch unsichtbaren Wellenlängenbereich, insbesondere im IR- und UV-Bereich.
-
In dem Prozessor 16 sind Softwaremodule integriert, die Auswerte- und Steuermodule ausbilden. Im vorliegenden Fall ist der Prozessor 16 im mobilen Endgerät 12 integriert.
-
Der Prozessor 16 steuert eine Anzeigeeinheit 17 an, die vom Display des mobilen Endgeräts 12 gebildet ist. Weiterhin steuert der Prozessor 16 ein Auswahlmenü 18, das am Display des mobilen Endgeräts 12 angezeigt wird.
-
Wie 3 weiter zeigt, ist jeder Kamera 14 ein Filter 19 angeordnet. Die Filter 19 werden vom Prozessor 16 gesteuert und sind dadurch derart umschaltbar, dass diese selektiv für unterschiedliche Wellenlängenbereiche, die im sichtbaren oder nicht sichtbaren Bereich liegen, durchlässig sind und andere Wellenlängenbereiche sperren. Prinzipiell ist auch ein mechanischer Wechsel zwischen einzelnen Filtern 19 möglich.
-
Mit dem Auswahlmenü 18 können die Filterfunktionen der beiden Filter 19 vorgegeben werden. Der Status der Filter 19 kann an der Anzeigeeinheit 17 angezeigt werden.
-
Ein Filter 19 kann so eingestellt sein, dass mit der diesem Filter 19 zugeordneten Kamera 14 ein reales, für das menschliche Auge sichtbares Umgebungsbild, in dem der Lichtvorhang 2 vorhanden ist, angezeigt wird. Das zweite Filter 19 ist vorteilhaft für den IR-Bereich durchlässig. Mit der diesem Filter 19 zugeordneten Kamera 14 werden die Lichtstrahlen 4 des Lichtvorhangs 2 sichtbar gemacht. Generell können diese Funktionen auch von einer Kamera 14 übernommen werden, wobei dann das zugeordnete Filter 19 transparent im sichtbaren Bereich und IR-Bereich ist.
-
Zudem können im Umgebungsbild Informationen betreffend den Lichtvorhang 2 angezeigt werden.
-
Weiterhin kann die Virtuelle-Realität-Einheit 9 Analysemittel aufweisen, mittels derer Wellenlängen von in einer Umgebung vorhandenen Lichtquellen erfasst und angezeigt werden.
-
Insbesondere weisen die Analysemittel Spektrometer auf.
-
Damit kann vorhandenes Störlicht erfasst und analysiert werden. Die Analyseergebnisse können an der Anzeigeeinheit 17 angezeigt werden.
-
Bezugszeichenliste
-
- (1)
- Sensoranordnung
- (2)
- Lichtvorhang
- (3)
- Sendereinheit
- (3a)
- Gehäuse, erstes
- (4)
- Lichtstrahlen
- (5)
- Sender
- (6)
- Empfängereinheit
- (6a)
- Gehäuse, zweites
- (7)
- Empfänger
- (8)
- Auswerteeinheit
- (9)
- Virtuelle-Realität-Einheit
- (10)
- Datenbrille
- (11)
- Sichtfeld
- (12)
- Endgerät
- (13)
- Leitung
- (14)
- Kamera
- (15)
- Kamerasichtfeld
- (16)
- Prozessor
- (17)
- Anzeigeeinheit
- (18)
- Auswahlmenü
- (19)
- Filter