DE202021105534U1 - Sensoranordnung - Google Patents

Sensoranordnung Download PDF

Info

Publication number
DE202021105534U1
DE202021105534U1 DE202021105534.0U DE202021105534U DE202021105534U1 DE 202021105534 U1 DE202021105534 U1 DE 202021105534U1 DE 202021105534 U DE202021105534 U DE 202021105534U DE 202021105534 U1 DE202021105534 U1 DE 202021105534U1
Authority
DE
Germany
Prior art keywords
sensor
sensor arrangement
virtual reality
until
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202021105534.0U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leuze Electronic GmbH and Co KG
Original Assignee
Leuze Electronic GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leuze Electronic GmbH and Co KG filed Critical Leuze Electronic GmbH and Co KG
Priority to DE202021105534.0U priority Critical patent/DE202021105534U1/de
Publication of DE202021105534U1 publication Critical patent/DE202021105534U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/20Detecting, e.g. by using light barriers using multiple transmitters or receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/20Detecting, e.g. by using light barriers using multiple transmitters or receivers
    • G01V8/22Detecting, e.g. by using light barriers using multiple transmitters or receivers using reflectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Sensoranordnung (1) mit wenigstens einem Sensor und einer Virtuelle-Realität-Einheit (9), wobei mit der Virtuelle-Realität-Einheit (9) ein Umgebungsbild mit dem Sensor darstellbar ist, und wobei die Virtuelle-Realität-Einheit (9) Darstellungsmittel aufweist, mittels derer vom Sensor emittierte Lichtstrahlen (4), deren Wellenlängen im nicht sichtbaren Wellenlängenbereich liegen, als sichtbare Strahlen im Umgebungsbild darstellbar sind.

Description

  • Die Erfindung betrifft eine Sensoranordnung.
  • Derartige Sensoranordnungen umfassen generell wenigstens einen Sensor, der Lichtstrahlen emittiert. Typischerweise weist der Sensor hierzu wenigstens einen Lichtstrahlen emittierenden Sender und wenigstens einen Lichtstrahlen empfangenden Empfänger auf.
  • Der Sensor kann beispielsweise von einer Lichtschranke mit nur einem Sender und nur einem Empfänger gebildet sein. Weiterhin kann der Sensor von einem Lichtvorhang mit einer Reihenanordnung von Sendern und einer Reihenanordnung von Empfängern gebildet sein. Derartige Sensoren werden zu Überwachungszwecken eingesetzt, das heißt mit den Sensoren wird ein definierter Überwachungsbereich überwacht. Der oder die Sender sind in einem Gehäuse an einem ersten Rand des Überwachungsbereichs angeordnet, während der oder die Empfänger in einem Gehäuse am gegenüberliegenden Rand des Überwachungsbereichs angeordnet sind. Dabei generiert der Sensor ein Objektfeststellungssignal in Form eines binären Schaltsignals, dessen Schaltzustände angeben, ob sich ein Objekt im Überwachungsbereich befindet oder nicht.
  • Um eine Überwachungsfunktion erfüllen zu können, muss der Sensor vor Aufnahme seines Arbeitsbetriebs so justiert werden, dass die von dem oder den Sendem emittierten Lichtstrahlen auf den oder die zugeordneten Empfänger treffen. Diese Justage ist relativ aufwändig, da derartige Sensoren typischerweise Lichtstrahlen im nicht sichtbaren Wellenlängenbereich, insbesondere im Infrarotbereich emittieren. Die Justage kann somit nicht anhand der Lichtstrahlen selbst erfolgen, da diese für das menschliche Auge nicht sichtbar sind.
  • Um eine Justage zu ermöglichen, wird daher bei bekannten Sensoren in einem der Gehäuse eine Sendeeinheit, die sichtbare Pilotstrahlen emittiert, integriert. Alternativ wird eine solche Sendeeinheit als Anbaueinheit am Gehäuse nachträglich angebracht. Zur Justage werden die Pilotstrahlen auf ein Zielobjekt am anderen Gehäuse ausgerichtet. Diese zusätzlichen Mittel zur Justage des Sensors führen zu einem erhöhten konstruktiven Aufwand und damit zu einer Erhöhung der Herstellkosten des Sensors.
  • Der Erfindung liegt die Aufgabe zugrunde eine Sensoranordnung mit erweiterter Funktionalität bereitzustellen.
  • Zur Lösung dieser Aufgabe sind die Merkmale des Anspruchs 1 vorgesehen. Vorteilhafte Ausführungsformen und zweckmäßige Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen beschrieben.
  • Die Erfindung betrifft eine Sensoranordnung mit wenigstens einem Sensor und einer Virtuelle-Realität-Einheit, wobei mit der Virtuelle-Realität-Einheit ein Umgebungsbild mit dem Sensor darstellbar ist. Die Virtuelle-Realität-Einheit weist Darstellungsmittel auf, mittels derer vom Sensor emittierte Lichtstrahlen, deren Wellenlängen im nicht sichtbaren Wellenlängenbereich liegen, als sichtbare Strahlen im Umgebungsbild darstellbar sind.
  • Erfindungsgemäß ist dem Sensor der Sensoranordnung eine Virtuelle-Realität-Einheit zugeordnet, mit der Umgebungsbilder mit dem Sensor generiert werden. Generell können mit der Virtuelle-Realität-Einheit Informationen als virtuelle Inhalte in die Umgebungsbilder eingeblendet werden, die einem Benutzer insbesondere Statusinformationen über den Sensor und die mit diesem durchgeführten Überwachungsfunktionen liefern.
  • Der Sensor der erfindungsgemäßen Sensoranordnung emittiert Lichtstrahlen im nicht sichtbaren Wellenlängenbereich, insbesondere im Infrarot (IR)-Bereich oder im Ultraviolett (UV)-Bereich. Erfindungsgemäß weist die Virtuelle-Realität-Einheit Darstellungsmittel auf, mit denen die Lichtstrahlen des Sensors in den Umgebungsbildern als sichtbare Strahlen dargestellt werden, das heißt ein Benutzer kann in den Umgebungsbildern den Strahlverlauf der Lichtstrahlen des Sensors sehen.
  • Damit wird eine signifikante Erweiterung der Funktionalität der Sensoranordnung erzielt. Insbesondere kann anhand der im Umgebungsbild sichtbar gemachten Lichtstrahlen eine Justage des Sensors vorgenommen werden, ohne dass hierzu am Sensor zusätzliche konstruktive Maßnahmen vorgesehen werden müssen.
  • Die Virtuelle-Realität-Einheit kann dabei für Sensoranordnungen mit unterschiedlichsten Sensoren eingesetzt werden, wobei generell die Sensoranordnung auch mehrere Sensoren umfassen kann. Umfasst die Sensoranordnung mehrere Sensoren, können durch die in den Umgebungsbildern sichtbar gemachten Lichtstrahlen deren Strahlführungen so kontrolliert werden, dass sich die Sensoren nicht gegenseitig beeinflussen.
  • Der Sensor der erfindungsgemäßen Sensoranordnung kann beispielsweise von einer Lichtschranke oder einem Lichtvorhang gebildet sein. In diesem Fall sind der oder die Sender in einem ersten Gehäuse integriert, das an einem ersten Rand eines zu überwachenden Überwachungsbereichs angeordnet ist. Der oder die Empfänger sind in einem zweiten Gehäuse am gegenüberliegenden Rand es Überwachungsbereichs angeordnet.
  • Der oder die Sender emittieren Lichtstrahlen im nicht sichtbaren Wellenlängenbereich, insbesondere im IR-Bereich. Da diese Lichtstrahlen mittels der Virtuelle-Realität-Einheit im Umgebungsbild sichtbar gemacht werden, können diese sichtbar gemachten Lichtstrahlen zur Ausrichtung der Gehäuse derart, dass die Lichtstrahlen des oder der Sender auf die zugeordneten Empfänger auftreffen, genutzt werden.
  • In einer alternativen Ausgestaltung kann der Sensor als Reflexionslichtschranke oder als Reflexions-Lichtvorhang ausgebildet sein. In diesem Fall befinden sich der oder die Sender mit dem oder den Empfängern in einem Gehäuse am ersten Rand des Überwachungsbereichs. Am gegenüberliegenden Rand des Überwachungsbereichs befindet sich eine Reflektoreinheit, auf die die Lichtstrahlen bei freiem Überwachungsbereich geführt sind. Eine Objekterkennung erfolgt wieder durch Erfassen von Strahlunterbrechungen der Lichtstrahlen. Die Justage erfolgt entsprechend der vorgenannten Ausführungsformen der Sensoren.
  • Im Arbeitsbetrieb des Sensors gelangen bei freiem Überwachungsbereich die Lichtstrahlen aller Sender ungehindert zum jeweils zugeordneten Empfänger. Ein Objekteingriff im Überwachungsbereich wird dadurch festgestellt, dass wenigstens einer der Lichtstrahlen unterbrochen ist.
  • Die vorgenannten Sensoren können insbesondere als Sicherheitssensoren ausgebildet sein und weisen zur Erfüllung der normativen Anforderungen für einen Einsatz im Bereich der Sicherheitstechnik einen fehlersicheren Aufbau auf.
  • Der Sensor der erfindungsgemäßen Sensoranordnung kann vorteilhaft als Scanner, insbesondere als Flächendistanzsensor ausgebildet sein. In diesem Fall werden die Lichtstrahlen periodisch innerhalb eines zwei- oder dreidimensionalen Raumbereichs geführt. Auch mit einem derartigen Sensor können Überwachungsfunktionen durchgeführt werden, wobei auch in diesem Fall der Sensor Lichtstrahlen im IR-Bereich emittiert. Mit einem Sensor in Form eines Flächendistanzsensors werden durch die durchgeführten Distanzmessungen Positionen von Objekten im Raum bestimmt. Dies kann insbesondere zur Durchführung von Schutzfeldüberwachungen durchgeführt werden. Abhängig davon, ob ein Objekt in ein im Flächendistanzsensor vorgebbares Schutzfeld eindringt oder nicht, wird ein entsprechendes Objektfeststellungssignal generiert. Auch derartige Flächendistanzsensoren können als Sicherheitssensoren ausgebildet sein und werden dann insbesondere für eine Gefahrenbereichsüberwachung an gefahrbringenden Anlagen eingesetzt.
  • Um diese Gefahrenbereichsüberwachung zuverlässig durchführen zu können, müssen die Scanbereiche, in denen die Lichtstrahlen des Flächendistanzsensors geführt sind, den Gefahrenbereich abdecken. Dies kann mit der erfindungsgemäßen Sichtbarmachung der Lichtstrahlen mittels der Virtuelle-Realität-Einheit einfach und zuverlässig bewerkstelligt werden.
  • Generell können die Sensoren auch von Lichttastern, Distanzsensoren, Barcodelesegeräten und dergleichen, die auch Lichtstrahlen im IR-Bereich emittieren, gebildet sein.
  • Ein Beispiel für Sensoren, die Licht im UV-Bereich emittieren, und Lumineszenzsensoren, mit denen lumineszierte Objekte, insbesondere Marken, erfasst werden.
  • Gemäß einer vorteilhaften Ausführungsform der Erfindung weisen die Darstellungsmittel wenigstens eine Kamera mit einem zugeordneten Filter auf, wobei die Kamera mittels des Filters in einem Wellenlängenbereich betreibbar ist, der zumindest teilweise mit dem Wellenlängenbereich der Lichtstrahlen übereinstimmt. Die Lichtstrahlen sind als sichtbare Strahlen in einem Umgebungsbild der Kamera dargestellt.
  • Die oder jede Kamera weist Empfangselemente, vorzugsweise in einer zeilen- oder matrixförmigen Anordnung auf, die generell nicht nur Licht im sichtbaren Wellenlängenbereich empfangen und registrieren können sondern auch im nicht sichtbaren Wellenlängenbereich, insbesondere im IR- und UV-Bereich.
  • Durch ein der Kamera zugeordnetes wellenlängenselektives Filter wird die Kamera in einem vorgegebenen Wellenlängenbereich betrieben, der erfindungsgemäß so gewählt ist, dass mit der Kamera nicht nur ein reales Umgebungsbild erfasst wird sondern auch die Lichtstrahlen des Sensors als sichtbare Strahlen im Umgebungsbild dargestellt werden.
  • Um entweder nur das reale Umgebungsbild oder wahlweise auch die Lichtstrahlen des Sensors sichtbar zu machen, ist vorteilhaft der Kamera ein Filter zugeordnet, das zwischen unterschiedlichen Wellenlängenbereichen umschaltbar ist.
  • Alternativ können der Kamera unterschiedliche Filter zugeordnet werden.
  • Schließlich ist es möglich, dass mehrere Kameras vorgesehen sind, wobei den Kameras unterschiedliche Filter zugeordnet sind.
  • Durch diese möglichen Auswahlvarianten ist insbesondere auch eine Anpassung an Sensoren möglich, die Lichtstrahlen in unterschiedlichen, nicht sichtbaren Wellenlängenbereichen emittieren. Somit können die verschiedenen Lichtstrahlen dieser Sensoren in Umgebungsbildern sichtbar gemacht werden.
  • Vorteilhaft weist die Virtuelle-Realität-Einheit Eingabemittel auf, mittels derer ein Wellenlängenbereich für einen Filter auswählbar ist.
  • Die Eingabemittel können insbesondere in Form eines Eingabemenüs ausgebildet sein, wobei ein Benutzer durch Eingaben im Eingabemenü das oder die Filter für den gewünschten Wellenlängenbereich auswählen kann.
  • Die mit der oder den Kameras generierten Umgebungsbildern, insbesondere mit den dort sichtbar gemachten Lichtstrahlen und gegebenenfalls weiteren visualisierten Informationen können optional abgespeichert und/oder an interne Einheiten übertragen werden, insbesondere zu Dokumentationszwecken.
  • Generell können die in Umgebungsbildern sichtbar gemachten Lichtstrahlen auch zu Funktionsprüfungen des Sensors genutzt werden.
  • Gemäß einer vorteilhaften Weiterbildung der Erfindung weist die Virtuelle-Realität-Einheit Analysemittel auf, mittels derer Wellenlängen von in einer Umgebung vorhandenen Lichtquellen erfasst und angezeigt werden.
  • Insbesondere weisen die Analysemittel Spektrometer auf.
  • Mit diesen Analysemitteln kann Störlicht, dessen Wellenlängenbereich außerhalb des sichtbaren Bereichs liegt, detektiert und analysiert werden. Die Ergebnisse dieser Analyse können dem Benutzer angezeigt werden, wodurch derer die Möglichkeit hat die jeweilige Applikation hinsichtlich vorhandener Störlichtquellen anzupassen.
  • Auch können mit derartigen Analysemitteln optische Leckagen an Geräten, Maschinen und dergleichen erfasst und analysiert werden.
  • Gemäß einer vorteilhaften Ausführungsform der Erfindung, weist die Virtuelle-Realität-Einheit eine Datenbrille auf.
  • Die Datenbrille bildet generell eine AR (augmented reality)-Brille beziehungsweise eine VR (virtual reality)-Brille. Die oder jede Kamera ist im Rahmen der Datenbrille integriert, wobei generell auch andere Zuordnungen der Kameras zur Datenbrille möglich sind.
  • Die mit den Kameras generierten Umgebungsbildern der Umgebung des Sensors, insbesondere mit den dort sichtbar gemachten Lichtstrahlen, werden mittels der Datenbrille in das Sichtfeld des die Datenbrille tragenden Benutzers eingeblendet. Die Kameras sind vorteilhaft so an der Datenbrille positioniert, dass die mit den Kameras aufgenommenen Umgebungsbilder dem Sichtfeld der Datenbrille, das heißt des die Datenbrille tragenden Benutzers entsprechen.
  • Die Virtuelle-Realität-Einheit wird durch eine Rechnereinheit komplettiert, die die Auswertung von Daten, insbesondere von Bilddaten der Kameras und gegebenenfalls auch Steuerungsfunktionen übernimmt, wobei hierzu entsprechende Softwaremodule, wie zum Beispiel Steuermodule oder Auswertemodule, vorgesehen sind.
  • Diese Rechnereinheit kann in Form eines Prozessors ausgebildet sein, der in der Datenbrille integriert sein kann.
  • Alternativ kann die Rechnereinheit auch eine externe Einheit wie zum Beispiel ein mobiles Endgerät sein. Das mobile Endgerät kann ein Smartphone, ein Tablet-Rechner, ein PC (Personal Computer) oder dergleichen sein.
  • Eine solche Rechnereinheit kann auch eine Anzeigeeinheit zur Anzeige relevanter Größen, die insbesondere in einem Auswertemodul generiert werden, aufweisen.
  • Zudem kann die Rechnereinheit ein Auswahlmenü generieren, in dem ein Benutzer die Filterfunktionen der Virtuelle-Realität-Einheit vorgeben kann.
  • Gemäß einer weiteren Ausgestaltung kann die Virtuelle-Realität-Einheit auch von dem mobilen Endgerät alleine gebildet sein, das heißt in diesem Fall ist keine Datenbrille vorgesehen.
  • Die Kameras können im mobilen Endgerät integriert sein oder separate Einheiten bilden.
  • Die einzelnen räumlich getrennten Komponenten der Virtuelle-Realität-Einheit können über leitungsgebundene oder berührungslos arbeitende Datenverbindungen verbunden sein, wobei als Leitungen elektrische Leitungen oder auch Lichtwellenleiter vorgesehen sein können.
  • Die Erfindung wird im Folgenden anhand der Zeichnungen erläutert. Es zeigen:
    • 1: Schematische Darstellung eines Ausführungsbeispiels der erfindungsgemäßen Sensoranordnung.
    • 2: Ausführungsbeispiel einer Virtuelle-Realität-Einheit für die Sensoranordnung gemäß 1.
    • 3: Blockschaltbild der Virtuelle-Realität-Einheit gemäß 1.
  • 1 zeigt ein Ausführungsbeispiel der erfindungsgemäßen Sensoranordnung 1. Die Sensoranordnung 1 umfasst einen Sensor in Form eines Lichtvorhangs 2. Der Lichtvorhang 2 umfasst eine Sendereinheit 3 mit einem ersten Gehäuse 3a, in welcher eine Reihenanordnung von Lichtstrahlen 4 emittierenden Sendern 5 angeordnet ist. Die Sender 5 sind beispielsweise von Leuchtdioden gebildet und emittieren Lichtstrahlen 4 im nicht sichtbaren Wellenlängenbereich, insbesondere im IR-Bereich. Die Sender 5 werden mittels einer nicht dargestellten Sendersteuerung aktiviert. Der Lichtvorhang 2 umfasst weiter eine Empfängereinheit 6 mit einem zweiten Gehäuse 6a, in welcher eine Reihenanordnung von Lichtstrahlen 4 empfangenden Empfängern 7 integriert ist, die beispielsweise von Photodioden gebildet sind. Die Empfangssignale der Empfänger 7 werden in einer Auswerteeinheit 8 ausgewertet. Ist der Lichtvorhang 2 als Sicherheitssensor ausgebildet, weist dieser einen fehlersicheren Aufbau auf, was zum Beispiel durch eine zweikanalige Auswerteeinheit 8 realisiert werden kann.
  • Jeder Sender 5 bildet mit einem zugeordneten Empfänger 7 ein Sender-Empfänger-Paar. Durch eine optische Synchronisation werden die Sender-Empfänger-Paare zyklisch einzeln nacheinander aktiviert.
  • Mit dem Lichtvorhang 2 wird ein Überwachungsbereich überwacht, wobei die Sendereinheit 3 und die Empfängereinheit 6 an gegenüberliegenden Rändern des Überwachungsbereichs angeordnet sind. Im Überwachungsbetrieb des Lichtvorhangs 2 erfolgt eine Objektdetektion von Objekten im Überwachungsbereich. Bei freiem Überwachungsbereich treffen die Lichtstrahlen 4 aller Sender-Empfänger-Paare ungehindert auf den jeweils zugeordneten Empfänger 7. Bei einem Objekteingriff in dem Überwachungsbereich werden die Lichtstrahlen 4 wenigstens eines der Sender-Empfänger-Paare unterbrochen. Abhängig von den Empfangssignalen der Empfänger 7 und in der Auswerteeinheit 8 als Objektfeststellungssignal ein binäres Schaltsignal generiert, dessen Schaltzustände angeben, ob sich ein Objekt im Überwachungsbereich befindet oder nicht. Mit dem Objektfeststellungssignal wird vorzugsweise der Betrieb einer Anlage gesteuert.
  • Die Sensoranordnung 1 umfasst weiterhin eine Virtuelle-Realität-Einheit 9, die im vorliegenden Fall eine Datenbrille 10 umfasst, die von einem Benutzer getragen wird und mit der ein Sichtfeld 11 erfasst wird.
  • 2 zeigt schematisch den Aufbau der Virtuelle-Realität-Einheit 9. Die Virtuelle-Realität-Einheit 9 umfasst neben der Datenbrille 10 ein mobiles Endgerät 12, das im vorliegenden Fall von einem Smartphone gebildet ist. Alternativ kann das mobile Endgerät 12 auch von einem PC, Tablet-Rechner oder dergleichen gebildet sein. Das Smartphone ist über eine Leitung 13 an die Datenbrille 10 angeschlossen. Generell kann auch eine berührungslos arbeitende Datenverbindung wie zum Beispiel Bluetooth oder WLAN vorgesehen sein.
  • Wie 2 zeigt, sind im Rahmen der Datenbrille 10 zwei Kameras 14 integriert. Die Kamerasichtfelder 15 der Kameras 14 decken im Wesentlichen das Sichtfeld 11 der Datenbrille 10 ab. Prinzipiell kann auch nur eine Kamera 14 vorgesehen sein. Auch mehr als zwei Kameras 14 sind möglich.
  • Prinzipiell kann die Virtuelle-Realität-Einheit 9 auch allein von der Datenbrille 10 gebildet sein, wobei dann in der Datenbrille 10 eine Rechnereinheit integriert ist.
  • Weiterhin kann die Virtuelle-Realität-Einheit 9 aus einem mobilen Endgerät 12 ohne Datenbrille 10 bestehen. Dann sind die Kameras 14 im mobilen Endgerät 12 integriert.
  • 3 zeigt ein Blockschaltbild der Virtuelle-Realität-Einheit 9. Wie dort dargestellt, sind die Kameras 14 mit einem Prozessor 16 des mobilen Endgeräts 12 derart verbunden, dass die in den Kameras 14 generierten Bildinformationen dem Prozessor 16 zugeführt sind. Die Kameras 14 können als CMOS- oder CCD-Kameras mit einer vorzugsweise matrixförmigen Anordnung von Empfangselementen ausgebildet sein. Die Empfangselemente sind empfindlich für Licht sowohl im sichtbaren als auch unsichtbaren Wellenlängenbereich, insbesondere im IR- und UV-Bereich.
  • In dem Prozessor 16 sind Softwaremodule integriert, die Auswerte- und Steuermodule ausbilden. Im vorliegenden Fall ist der Prozessor 16 im mobilen Endgerät 12 integriert.
  • Der Prozessor 16 steuert eine Anzeigeeinheit 17 an, die vom Display des mobilen Endgeräts 12 gebildet ist. Weiterhin steuert der Prozessor 16 ein Auswahlmenü 18, das am Display des mobilen Endgeräts 12 angezeigt wird.
  • Wie 3 weiter zeigt, ist jeder Kamera 14 ein Filter 19 angeordnet. Die Filter 19 werden vom Prozessor 16 gesteuert und sind dadurch derart umschaltbar, dass diese selektiv für unterschiedliche Wellenlängenbereiche, die im sichtbaren oder nicht sichtbaren Bereich liegen, durchlässig sind und andere Wellenlängenbereiche sperren. Prinzipiell ist auch ein mechanischer Wechsel zwischen einzelnen Filtern 19 möglich.
  • Mit dem Auswahlmenü 18 können die Filterfunktionen der beiden Filter 19 vorgegeben werden. Der Status der Filter 19 kann an der Anzeigeeinheit 17 angezeigt werden.
  • Ein Filter 19 kann so eingestellt sein, dass mit der diesem Filter 19 zugeordneten Kamera 14 ein reales, für das menschliche Auge sichtbares Umgebungsbild, in dem der Lichtvorhang 2 vorhanden ist, angezeigt wird. Das zweite Filter 19 ist vorteilhaft für den IR-Bereich durchlässig. Mit der diesem Filter 19 zugeordneten Kamera 14 werden die Lichtstrahlen 4 des Lichtvorhangs 2 sichtbar gemacht. Generell können diese Funktionen auch von einer Kamera 14 übernommen werden, wobei dann das zugeordnete Filter 19 transparent im sichtbaren Bereich und IR-Bereich ist.
  • Zudem können im Umgebungsbild Informationen betreffend den Lichtvorhang 2 angezeigt werden.
  • Weiterhin kann die Virtuelle-Realität-Einheit 9 Analysemittel aufweisen, mittels derer Wellenlängen von in einer Umgebung vorhandenen Lichtquellen erfasst und angezeigt werden.
  • Insbesondere weisen die Analysemittel Spektrometer auf.
  • Damit kann vorhandenes Störlicht erfasst und analysiert werden. Die Analyseergebnisse können an der Anzeigeeinheit 17 angezeigt werden.
  • Bezugszeichenliste
  • (1)
    Sensoranordnung
    (2)
    Lichtvorhang
    (3)
    Sendereinheit
    (3a)
    Gehäuse, erstes
    (4)
    Lichtstrahlen
    (5)
    Sender
    (6)
    Empfängereinheit
    (6a)
    Gehäuse, zweites
    (7)
    Empfänger
    (8)
    Auswerteeinheit
    (9)
    Virtuelle-Realität-Einheit
    (10)
    Datenbrille
    (11)
    Sichtfeld
    (12)
    Endgerät
    (13)
    Leitung
    (14)
    Kamera
    (15)
    Kamerasichtfeld
    (16)
    Prozessor
    (17)
    Anzeigeeinheit
    (18)
    Auswahlmenü
    (19)
    Filter

Claims (17)

  1. Sensoranordnung (1) mit wenigstens einem Sensor und einer Virtuelle-Realität-Einheit (9), wobei mit der Virtuelle-Realität-Einheit (9) ein Umgebungsbild mit dem Sensor darstellbar ist, und wobei die Virtuelle-Realität-Einheit (9) Darstellungsmittel aufweist, mittels derer vom Sensor emittierte Lichtstrahlen (4), deren Wellenlängen im nicht sichtbaren Wellenlängenbereich liegen, als sichtbare Strahlen im Umgebungsbild darstellbar sind.
  2. Sensoranordnung (1) nach Anspruch 1, dadurch gekennzeichnet, dass die Darstellungsmittel wenigstens eine Kamera 14 mit einem zugeordneten Filter (19) aufweist, wobei die Kamera 14 mittels des Filters (19) in einem Wellenlängenbereich betreibbar ist, der zumindest teilweise mit dem Wellenlängenbereich der Lichtstrahlen (4) übereinstimmt, wodurch die Lichtstrahlen (4) als sichtbare Strahlen in einem Umgebungsbild der Kamera 14 dargestellt sind.
  3. Sensoranordnung (1) nach Anspruch 2, dadurch gekennzeichnet, dass der Kamera 14 ein Filter (19) zugeordnet ist, das zwischen unterschiedlichen Wellenlängenbereichen umschaltbar ist.
  4. Sensoranordnung (1) nach Anspruch 2, dadurch gekennzeichnet, dass der Kamera 14 unterschiedliche Filter (19) zugeordnet werden können.
  5. Sensoranordnung (1) nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass mehrere Kameras (14) vorgesehen sind, wobei den Kameras (14) unterschiedliche Filter (19) zugeordnet sind.
  6. Sensoranordnung (1) nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass die Virtuelle-Realität-Einheit (9) Eingabemittel aufweist, mittels derer ein Wellenlängenbereich für einen Filter (19) auswählbar ist.
  7. Sensoranordnung (1) nach einem der Ansprüche 2 bis 6, dadurch gekennzeichnet, dass die Virtuelle-Realität-Einheit (9) Analysemittel aufweist, mittels derer Wellenlängen von in einer Umgebung vorhandenen Lichtquellen erfasst und angezeigt werden.
  8. Sensoranordnung (1) nach Anspruch 7, dadurch gekennzeichnet, dass die Analysemittel Spektrometer aufweisen.
  9. Sensoranordnung (1) nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass im Umgebungsbild Informationen anzeigbar sind.
  10. Sensoranordnung (1) nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass die Virtuelle-Realität-Einheit (9) eine Datenbrille (10) aufweist.
  11. Sensoranordnung (1) nach Anspruch 10, dadurch gekennzeichnet, dass eine Anzeigeeinheit (17) und/oder eine Rechnereinheit mit einem Steuermodul und/oder Auswertemodul in der Datenbrille (10) integriert oder mit dieser verbunden sind.
  12. Sensoranordnung (1) nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass die Virtuelle-Realität-Einheit (9) ein mobiles Endgerät (12) aufweist.
  13. Sensoranordnung (1) nach Anspruch 12, dadurch gekennzeichnet, dass das mobile Endgerät (12) ein Smartphone, ein Tablet-Rechner oder ein PC ist.
  14. Sensoranordnung (1) nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass der Sensor Lichtstrahlen (4) im Infrarot- oder Ultraviolett-Bereich emittiert.
  15. Sensoranordnung (1) nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass der Sensor eine Lichtschranke, eine Reflexionslichtschranke, ein Lichtvorhang (2) oder ein Reflexions-Lichtvorhang ist.
  16. Sensoranordnung (1) nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass der Sensor ein Flächendistanzsensor ist.
  17. Sensoranordnung (1) nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass der Sensor ein Lumineszenzsensor ist.
DE202021105534.0U 2021-10-13 2021-10-13 Sensoranordnung Active DE202021105534U1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202021105534.0U DE202021105534U1 (de) 2021-10-13 2021-10-13 Sensoranordnung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202021105534.0U DE202021105534U1 (de) 2021-10-13 2021-10-13 Sensoranordnung

Publications (1)

Publication Number Publication Date
DE202021105534U1 true DE202021105534U1 (de) 2022-08-24

Family

ID=83193040

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202021105534.0U Active DE202021105534U1 (de) 2021-10-13 2021-10-13 Sensoranordnung

Country Status (1)

Country Link
DE (1) DE202021105534U1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2315066A1 (de) 2003-12-01 2011-04-27 Andreas Durner Elektronische Brille, insbesondere Nachtsichtbrille
DE102012111345A1 (de) 2012-11-23 2014-05-28 Sick Ag Mobiles Handgerät zur Ausrichtung eines Sensors
DE102014217962A1 (de) 2014-09-09 2016-03-10 Bayerische Motoren Werke Aktiengesellschaft Positionierung eines HMD im Fahrzeug
DE102008016767B4 (de) 2008-04-02 2016-07-28 Sick Ag Optoelektronischer Sensor und Verfahren zur Detektion von Objekten
EP3489872A1 (de) 2017-11-23 2019-05-29 Leuze electronic GmbH + Co. KG Sensoranordnung

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2315066A1 (de) 2003-12-01 2011-04-27 Andreas Durner Elektronische Brille, insbesondere Nachtsichtbrille
DE102008016767B4 (de) 2008-04-02 2016-07-28 Sick Ag Optoelektronischer Sensor und Verfahren zur Detektion von Objekten
DE102012111345A1 (de) 2012-11-23 2014-05-28 Sick Ag Mobiles Handgerät zur Ausrichtung eines Sensors
DE102014217962A1 (de) 2014-09-09 2016-03-10 Bayerische Motoren Werke Aktiengesellschaft Positionierung eines HMD im Fahrzeug
EP3489872A1 (de) 2017-11-23 2019-05-29 Leuze electronic GmbH + Co. KG Sensoranordnung

Similar Documents

Publication Publication Date Title
DE69704485T2 (de) Sichtsystem
EP3008662B1 (de) Verfahren zur optischen erfassung eines fingerabdrucks oder eines gegenstandes und vorrichtung mit mindestens einem bildschirm
EP3054264B1 (de) Vorrichtung und Verfahren zum Ermitteln der Solllagen-Abweichung zweier Körper
DE102012016675A1 (de) Verfahren zur Farbkalibrierung eines Farbmonitors mit LED-Hintergrundbeleuchtung
DE102005028490C5 (de) Kamerasystem
DE102018119376A1 (de) Display zur Darstellung einer optischen Information
DE102018125091A1 (de) Vorrichtung zur Bildrahmenerfassung, Erkennung eingefrorener Bildrahmen, Systeme zur Erkennung eingefrorener Bildrahmen, Verfahren und Fahrzeug
DE102020213021A1 (de) Verfahren zur Bereitstellung wenigstens eines Datenpakets von einem Fahrzeug an ein vorausfahrendes oder folgendes Fahrzeug und Steuereinheit
DE202021105534U1 (de) Sensoranordnung
EP3894884B1 (de) Lidar-system sowie kraftfahrzeug
EP3282286B1 (de) Optischer sensor
EP3139309B1 (de) Sensoranordnung zur erfassung von probenkörpern
DE112020001591T5 (de) Optischer sensor mit gerichteter empfindlichkeit
DE102012106030A1 (de) Kamerasystem zur Erkennung des Zustands einer Fahrzeugscheibe
DE102014014501A1 (de) Flammdetektor, Verfahren zur Flammerkenung und Filterarray für einen CMOS-Chip
DE112021000671T5 (de) Elektronisches gerät
EP2549431A1 (de) Bildfusion zur Überwachung eines Gefahrenbereichs
DE202015100438U1 (de) Optoelektronischer Sensor zur Erfassung von Objektinformationen
DE202021102112U1 (de) Lichtvorhang
DE102010014252A1 (de) Vorrichtung zur Zählerstanderfassung
DE102015226011A1 (de) Detektionsvorrichtung zum Detektieren zumindest eines reflektierenden Elements in einem Detektionsbereich, Fahrzeug und Verfahren zum Erfassen eines Detektionsbereiches mittels einer Detektionsvorrichtung
DE102020119941A1 (de) Optische Detektionsvorrichtung, Fahrzeug mit wenigstens einer optischen Detektionsvorrichtung und Verfahren zum Betreiben einer optischen Detektionsvorrichtung
WO2019011645A1 (de) Vorrichtung zur zeitnahme
WO2002031455A1 (de) Erfassung von phase und amplitude elektromagnetischer wellen
DE202020104211U1 (de) Lichtvorhang

Legal Events

Date Code Title Description
R163 Identified publications notified
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years