DE102018118909B3 - Sensoranordnung und Verfahren zur Erfassung von Objekten - Google Patents

Sensoranordnung und Verfahren zur Erfassung von Objekten Download PDF

Info

Publication number
DE102018118909B3
DE102018118909B3 DE102018118909.5A DE102018118909A DE102018118909B3 DE 102018118909 B3 DE102018118909 B3 DE 102018118909B3 DE 102018118909 A DE102018118909 A DE 102018118909A DE 102018118909 B3 DE102018118909 B3 DE 102018118909B3
Authority
DE
Germany
Prior art keywords
individual sensors
individual
sensor
sensors
arrangement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018118909.5A
Other languages
English (en)
Inventor
Markus Hammes
Robert Bauer
Bahram Torabi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sick AG filed Critical Sick AG
Priority to DE102018118909.5A priority Critical patent/DE102018118909B3/de
Application granted granted Critical
Publication of DE102018118909B3 publication Critical patent/DE102018118909B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Es wird eine Sensoranordnung (10) zu Erfassung von Objekten in einem Überwachungsbereich (22) mit einer Vielzahl erster Einzelsensoren (12, 12a) eines ersten Typs angegeben, deren Einzelüberwachungsfelder (20) gemeinsam den Überwachungsbereich (22) bilden. Dabei sind die Einzelsensoren (12, 12a) gemeinsam auf einem flexiblen Träger (14) angeordnet, der zur Anbringung an einer gekrümmten Kontur der Kontur entsprechend formbar ist.

Description

  • Die Erfindung betrifft eine Sensoranordnung und ein Verfahren zur Erfassung von Objekten in einem Überwachungsbereich nach dem Oberbegriff von Anspruch 1 beziehungsweise 11.
  • Für einfachere Anwendungsfälle bei geringer Komplexität und Größe des Überwachungsbereichs genügen der Erfassungsbereich und die Konfigurierbarkeit eines Einzelsensors. Bei komplexeren Anwendungen im industriellen Umfeld, etwa im Bereich großer Maschinen oder Roboter, kommen dagegen Gruppen mehrerer Einzelsensoren zum Einsatz, die über Steuerungssysteme miteinander verbunden sind. Auf diese Weise wird auch die Überwachung großer Bereiche und komplexer Geometrien möglich, die aufgrund von Hinterschnitten, Verdeckungen und dergleichen nicht von einem einzigen Punkt aus erfassbar sind. Ein Sensorverbund ermöglicht auch, zusätzliche Messinformation mit verschiedenen Sensortypen zu erfassen.
  • Ein derartiger Sensorverbund ist zwar sehr flexibel, erfordert aber einen hohen Aufwand. Das betrifft zum einen die Einrichtung des Systems einschließlich der Verkabelung, Montage und Justierung der Einzelsensoren, aber auch die Schaffung der Voraussetzungen für ein Zusammenspiel der Einzelsensoren einschließlich der Programmierung des Steuerungssystems, der Synchronisation der Einzelsensoren zueinander, der Fusion der Sensordaten deren Registrierung in ein gemeinsames Koordinatensystem. Obwohl der Einzelsensor wesentlich günstiger sein kann als ein komplexer Sensor mit vielen Konfigurationsmöglichkeiten und großem Erfassungsbereich, wird aus den genannten Gründen ein Sensorverbund verhältnismäßig teuer und ist auch im Hinblick auf den erforderlichen Bauraum ineffizient.
  • Ein wichtiges Anwendungsfeld von industriellen Sensoren ist die Sicherheitstechnik. Deren primäres Ziel ist, Personen vor Gefahrenquellen zu schützen, wie sie beispielsweise Maschinen im industriellen Umfeld darstellen. Die Maschine wird mit Hilfe von Sensoren überwacht, und wenn demnach eine Situation vorliegt, in der eine Person gefährlich nahe an die Maschine zu gelangen droht, wird eine geeignete Absicherungsmaßnahme ergriffen. In der Sicherheitstechnik eingesetzte Sensoren müssen besonders zuverlässig arbeiten und deshalb hohe Sicherheitsanforderungen erfüllen, beispielsweise die Norm EN13849 für Maschinensicherheit und die Gerätenorm IEC61496 oder EN61496 für berührungslos wirkende Schutzeinrichtungen (BWS).
  • An sich bietet ein Sensorverbund mit redundanten oder diversitären Sensoren hohes Potential, um hohe Sicherheitsniveaus im Sinne der genannten Normen zu erreichen, etwa Performancelevel d oder e nach ISO EN 13849-1. Durch die zusätzlichen Sicherheitsanforderungen hinsichtlich Einrichtung des Sensorverbundes, Datenübertragung, Zusammenführung und Konsistenzprüfung der Sensordaten zwischen den Einzelkomponenten entsteht jedoch ein erheblicher Mehraufwand, der dazu führt, dass dieses Potenzial bisher ungenutzt bleibt. So bleibt es bei Absicherungen mit bewährten Lösungen wie Lichtgitter oder mittels Schutzfeldüberwachungen von Laserscannem. Gerade Laserscanner sind wegen ihrer Baugröße und ihrer mechanisch bewegten Teile für eine Mitbewegung auf einem Fahrzeug (AGV, Automated Guided Vehicle, oder AGC, Automated Guided Cart) oder Roboter nicht prädestiniert, obwohl sie dafür durchaus erfolgreich verwendet werden.
  • Aus der DE 10 2008 063 081 A1 ist eine Sicherungsvorrichtung zum Betreiben einer mehrgliedrigen Maschine bekannt. Dabei werden mehrere Abstandssensoren auf einem flexiblen Substrat angeordnet, das an zumindest leicht gebogene Flächen der Maschine angebracht werden kann. Eine Zentraleinheit wertet die Abstandssensoren aus, um bei einem zu nahen Objekt eine Warnung auszugeben.
  • Die GB 2558273 A betrifft ein Sensorsystem für ein Fahrzeug mit einem Array von Radarsensoren auf einem flexiblen Substrat, das beispielsweise an der Stoßstange angebracht wird. Die Radardaten werden zur Umgebungsüberwachung gemeinsam mit anderen Sensoren ausgewertet, wie einem in Höhe des Rückspiegels an der Frontscheibe angebrachten Bildsensor.
  • In der DE 10 2016 210 769 A1 wird ein Kraftfahrzeug mit einer Erfassungseinrichtung vorgestellt, die das Umfeld mittels Radar und einer flexiblen Folienantenne mit mehreren Sende- und/oder Empfangsantennen überwacht.
  • Die nachveröffentlichte DE 10 2017 127 065 A1 befasst sich mit einem Flächensensor, der eine Matrixanordnung von Lichttastern aufweist. Der Flächensensor ist in einer Ausführungsform auf einer flexiblen Leiterfolie aufgebracht.
  • Es ist daher Aufgabe der Erfindung, einen Sensorverbund aus mehreren Einzelsensoren zu verbessern.
  • Diese Aufgabe wird durch eine Sensoranordnung und ein Verfahren zur Erfassung von Objekten in einem Überwachungsbereich nach Anspruch 1 beziehungsweise 8 gelöst. Die Sensoranordnung weist eine Vielzahl von Einzelsensoren auf. Diese Einzelsensoren sind vorerst desselben Typs, um durch Kombination ihrer jeweiligen Einzelüberwachungsfelder einen größeren Überwachungsbereich zu erfassen. Auch eine zumindest teilweise Überlappung für eine redundante Überwachung oder Auflösungserhöhung ist denkbar. In weiteren Ausführungsformen kommen womöglich Einzelsensoren eines anderen Typs hinzu.
  • Die Erfindung geht von dem Grundgedanken aus, die Einzelsensoren auf einem gemeinsamen Träger miteinander zu verbinden. Dieser Träger ist überdies flexibel, und deshalb ist es möglich, den Träger und damit die Anordnung der Einzelsensoren an praktisch beliebig gekrümmte Konturen anzupassen. Dazu kann der Träger vorab in die gewünschte Kontur verformt werden, oder er schmiegt sich während des Aufbringens oder Befestigens an die Kontur an.
  • Die Erfindung hat den Vorteil, dass die Anordnung der Einzelsensoren auf ganz einfache Weise an komplexe Geometrien, wie etwa einen Roboterarm, eine Kontur eines Fahrzeugs oder irgendeine Kontur an einem zu überwachenden Bereich angepasst werden kann. Trotzdem stehen die Einzelsensoren von Anfang an über den Träger in einem zumindest teilweise festen räumlichen Bezug zueinander, der auch in der verformten Kontur erhalten bleibt. Die Anbringung zahlreicher Einzelsensoren ist erheblich vereinfacht, da nur der Träger montiert werden muss.
  • Dabei bleibt die Sensoranordnung in gewisser Weise ein Gerät, das nicht nur physisch von dem Träger zusammengehalten wird, sondern vorzugsweise auch gemeinsam angesteuert und ausgelesen werden kann. Durch interne Möglichkeiten der Synchronisierung und Datenfusion sind viele Schwierigkeiten herkömmlicher, diskreter Sensorverbünde vermeidbar, oder zumindest kann ihnen viel einfacher und wenigstens teilweise schon auf Ebene der Herstellung der ursprünglichen Sensoranordnung auf dem Träger begegnet werden. So lassen sich mit geringem Integrationsaufwand sehr komplexe Bereiche überwachen und insbesondere im Nahbereich der Einzelsensoren Daten mit einer sehr hohen Informationsdichte gewinnen. Gerade im Personenschutz ist eine starke Aufwertung des sicherheitstechnischen Niveaus und des Informationsgehaltes durch Redundanz, gegenseitige Konsistenzprüfung und gegebenenfalls Diversität der verwendeten Sensoren ermöglicht.
  • Die Sensoranordnung weist bevorzugt eine Vielzahl zweiter Einzelsensoren eines zweiten Typs auf, wobei das Erfassungsprinzip von Einzelsensoren des ersten Typs ein anderes ist als das Erfassungsprinzip von Einzelsensoren des zweiten Typs. Die Anzahl der ersten Einzelsensoren kann gleich derjenigen der zweiten Einzelsensoren sein, aber das ist nicht zwingend erforderlich und, wie im Beispiel unterschiedlich gro-ßer Einzelüberwachungsfelder der Erfassungsprinzipien, nicht immer sinnvoll. Durch zwei Erfassungsprinzipien werden noch mehr Informationen erfasst. Speziell wird auf diese Weise eine diversitäre Redundanz für eine sicherheitstechnische Anwendung geschaffen, ebenso kann es aber auch darum gehen, zusätzliche Informationen über die Objekte im Überwachungsbereich zu gewinnen. Es gibt viele Möglichkeiten, Sensoren mit unterschiedlichen Erfassungsprinzipien zu realisieren. Sie können völlig unterschiedliche Messgrößen gewinnen, wie eine Farbe und eine Geschwindigkeit, sie können sich physikalisch voneinander unterscheiden wie ein kapazitiver und ein optischer Sensor, oder sie gewinnen dieselbe Messgröße auf ganz unterschiedlichen Wegen, wie ein Lichttaster zur Entfernungsmessung mit einem Triangulations- gegenüber einem Lichtlaufzeitverfahren.
  • Die ersten Einzelsensoren und die zweiten Einzelsensoren bilden vorzugsweise auf dem Träger eine alternierende Anordnung. Das bedeutet nicht zwingend, eine unmittelbar einander abwechselnde Anordnung, zumal schon die Anzahl der ersten Einzelsensoren nicht gleich der Anzahl der zweiten Einzelsensoren sein muss. Der Zweck ist vielmehr, dass nach Möglichkeit auch nach dem Verformen aus jedem Teilbereich des Überwachungsbereichs Messinformationen mit beiden Sensortypen gewonnen werden, und dazu sollte in der nahen Nachbarschaft jedes ersten Einzelsensors des ersten Sensortyps ein zweiter Einzelsensor des zweiten Sensortyps vorhanden sein und umgekehrt.
  • Das Erfassungsprinzip der ersten Einzelsensoren des ersten Typs ist vorzugsweise ein Lichtlaufzeitverfahren zum Bestimmen von Abständen zu den Objekten und/oder das Erfassungsprinzip der zweiten Einzelsensoren des zweiten Typs ein Bilderfassungsverfahren. Lichtlaufzeitsensoren (TOF, Time of Flight) bestimmen als eindimensionale Taster einen Abstandswert zu dem Objekt, oder sie besitzen in komplexeren Ausführungsformen als Mehrstrahler oder sogar 3D-Bildsensoren eine Ortsauflösung und erfassen Entfernungsbilder beziehungsweise Tiefenkarten, deren Pixel einen Abstandswert codieren. Ein Bilderfassungsverfahren soll hier einen herkömmlichen Bildsensor zur Erfassung eines zweidimensionalen Grauwert- oder Farbbildes bezeichnen. Eine Mischung von Lichtlaufzeit- und Bildsensoren sorgt für eine komplementäre optische Erfassung von Objektkontur und -textur, die sehr viele nützliche Auswertungen erlaubt.
  • Vorzugsweise ist auf dem Träger zwischen den Einzelsensoren eine Vielzahl von Beleuchtungseinheiten oder Beleuchtungsmodulen angeordnet. Damit wird für optische Einzelsensoren für eine passende Ausleuchtung des Überwachungsbereichs gesorgt, insbesondere auch mit einem puls- oder phasenmodulierten Lichtsignal für eine Lichtlaufzeitmessung.
  • Ein jeweiliger Einzelsensor ist vorzugsweise als hochintegriertes System auf jeweils einem einzigen Chip ausgebildet. Die Einzelsensoren sind damit sehr kompakt und können in der gewünschten Dichte und Anordnung auf dem Träger gepackt werden. Für viele Sensorprinzipien einschließlich Lichtlaufzeitmessung und Bilderfassung sind derartige hochintegrierte Systeme verfügbar. Durch die zunehmende Verbreitung im Konsumbereich, insbesondere für Smartphones, gibt es Stückzahleffekte, die auch Sensoranordnungen mit einer Vielzahl von Einzelsensoren bei noch vertretbaren Gesamtkosten möglich machen.
  • Die Einzelsensoren bilden vorzugsweise eine eindimensionale Anordnung auf einem bandförmigen Träger. Damit entsteht eine Sensorkette auf einer Art Trägerband, die vorzugsweise auf die benötigte Länge zurechtgeschnitten oder jedenfalls in verschiedenen Längen angeboten werden kann. Eine solche Sensorkette kann ähnlich einer LED-Lichterkette an einer Kontur angebracht werden, natürlich mit dem Unterschied, dass die Kontur damit sensorische Eigenschaften gewinnt und höchstens aus sekundären Gründen zur deren Unterstützung Licht abgibt. Eine Kombination mit einer LED-Lichterkette, insbesondere auf demselben Trägerband, zur Anzeige von Status oder ähnlichen Informationen der Einzelsensoren, ist auch denkbar.
  • Die Einzelsensoren bilden alternativ eine zweidimensionale Anordnung auf einem in mindestens einer Richtung biegsamen, flächigen Träger. Der Träger ist in der Lage, in zumindest einer Richtung einer Kontur zu folgen. Vorzugsweise ist der Träger sogar flächig, also in zwei Richtungen flexibel. Die Sensoranordnung wird dann wie eine Haut oder eine Folie an die gewünschte Kontur angepasst.
  • Die Sensoranordnung weist bevorzugt eine zentrale Steuer- und Auswertungseinheit auf. Die zentrale Steuer- und Auswertungseinheit ist auf dem Träger oder extern angeordnet. Darin wird der Datenstrom von den Einzelsensoren gemeinsam verarbeitet. Die zentrale Steuer- und Auswertungseinheit hat vorzugsweise Zugriff auf den gesamten Datenstrom und ist in der Lage, die Einzelsensoren sehr einfach zu synchronisieren. Die Verarbeitung kann bereits das eigentliche Anwendungsziel verfolgen, also beispielsweise Steuerungssignale zur Absicherung anzeigen. Ebenso ist aber denkbar, zunächst nur die Objektinformationen zu sammeln, in ein gemeinsames Koordinatensystem umzurechnen oder auf andere Weise zu konsolidieren. Die anwendungsspezifische Auswertung folgt dann in einer anderen Instanz, die Sensoranordnung verhält sich effektiv wie ein mächtiger Sensor mit größerem, anpassbarem Überwachungsbereich und/oder diversitärem Erfassungsprinzip.
  • Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, in einem Kalibrierungevorgang die Position und/oder Orientierung der Einzelsensoren anhand von deren Position auf dem Träger und von Erfassungsdaten gemeinsam beobachteter Strukturen in dem Überwachungsbereich zu bestimmen. Derartige Strukturen können zeitgleich durch Überlappung von Einzelüberwachungen oder im Zeitverlauf nacheinander erfasst werden, insbesondere während einer anfänglichen Referenzfahrt in einer mobilen Anwendung der Sensoranordnung. Da die Einzelsensoren nicht wie bei einer diskreten Sensoranordnung unabhängig montiert werden, sondern ihre Position zueinander auf dem flexiblen Träger bekannt ist, startet der Kalibriervorgang mit sehr guten Anfangsbedingungen für ein Einlernen der jeweiligen 6D-Position der Einzelsensoren, wobei natürlich je nach Anwendung nicht immer alle Freiheitsgrade kalibriert werden müssen. In diesem Zusammenhang sei darauf hingewiesen, dass der flexible Träger vorzugsweise nur flexibel im Sinne von an eine Kontur anpassbar ist, nicht aber spürbar auseinandergezogen werden kann, so dass die Abstände der Einzelsensoren erhalten bleiben.
  • Die Sensoranordnung weist bevorzugt eine gemeinsame Schnittstelle für die Einzelsensoren auf. Die gemeinsame Schnittstelle steht in Verbindung mit den Einzelsensoren, wobei eine direkte Verbindung oder eine indirekte Verbindung über mehrere Einzelsensoren wie ein Bussystem in Betracht kommt. Entsprechende Leitungen werden in oder auf dem Träger angeordnet. Eine Drahtlosverbindung innerhalb der Sensoranordnung ist zwar nicht ausgeschlossen, erhöht aber die Komplexität erheblich. Über die gemeinsame Schnittstelle werden die Sensordaten außen verfügbar, insbesondere in der zentralen Steuer- und Auswertungseinheit, und umgekehrt können so Einzelsensoren angesteuert werden. Diese Verbindung nach außen kann ebenfalls drahtgebunden, aber auch drahtlos sein.
  • Das erfindungsgemäße Verfahren kann auf ähnliche Weise weitergebildet werden und zeigt dabei ähnliche Vorteile. Derartige vorteilhafte Merkmale sind beispielhaft, aber nicht abschließend in den sich an die unabhängigen Ansprüche anschließenden Unteransprüchen beschrieben.
  • Vorzugsweise wird der flexible Träger an einer Kontur einer Maschine angebracht, insbesondere eines Fahrzeugs oder eines Roboters, und die Maschine auf Basis der Erfassungsdaten der Einzelsensoren abgesichert. Für solche sicherheitstechnischen Anwendungen ist die einfache Möglichkeit der Erfassung redundanter oder gar diversitär-redundanter Objektinformationen besonders nützlich. Das erfindungsgemäße Verfahren dient aber zunächst ganz allgemein dazu, einer Kontur an einer Maschine eine flexible Sensorik zu verleihen, die nicht zwingend für eine Absicherung verwendet werden muss.
  • Die Erfindung wird nachstehend auch hinsichtlich weiterer Merkmale und Vorteile beispielhaft anhand von Ausführungsformen und unter Bezug auf die beigefügte Zeichnung näher erläutert. Die Abbildungen der Zeichnung zeigen in:
    • 1 eine schematische Darstellung einer Sensoranordnung auf einem flexiblen Träger mit gemeinsamer Schnittstelle und zentraler Steuer- und Auswertungseinheit;
    • 2 eine schematische Darstellung einer Ausführungsform der Sensoranordnung zur Lichtlaufzeitmessung und Bilderfassung;
    • 3 eine Darstellung gemäß 2 mit zusätzlichen Beleuchtungseinheiten;
    • 4 eine Darstellung einer zweidimensionalen Sensoranordnung auf einem flächigen flexiblen Träger;
    • 5 eine schematische Darstellung eines Fahrzeugs, an dessen Außenkontur eine erfindungsgemäße Sensoranordnung angebracht ist; und
    • 6 eine Draufsicht auf einen Bereich, der mit einer erfindungsgemäßen Sensoranordnung an einer seiner Konturen überwacht wird.
  • 1 zeigt eine schematische Darstellung einer Sensoranordnung 10 mit einer Vielzahl von Einzelsensoren 12, die gemeinsam auf einem flexiblen Träger 14 angeordnet sind. Eine solche Sensoranordnung 10 wird mittels Anbringen des Trägers 14 stationär an einer feststehenden Kontur, etwa einer Wand oder einem Maschinenteil, oder vorzugsweise mobil an einem Fahrzeug, einem Roboter oder dergleichen angebracht. Beispielhafte Anwendungen sind die Erfassung von automatisierungsrelevanten Umgebungsdaten oder eine Absicherung einer gefahrbringenden Maschine.
  • Die Einzelsensoren 12 sind vorzugsweise hochintegrierte Sensorbausteine möglichst als jeweils ein einziger Chip. Prinzipiell kommen beliebige Einzelsensoren 12 in Betracht, etwa optische Sensoren, kapazitive Sensoren, Radarsensoren oder Ultraschallsensoren. Die Einzelsensoren 12 als solche sind in vielen Varianten und vergleichsweise kostengünstig verfügbar, insoweit profitiert die Erfindung auch von der stetigen Weiterentwicklung insbesondere der Sensorik für Smartphones. Eine Verwendung hochintegrierter Einzelsensoren 12 bedeutet eine Kapselung ohne Zugriff auf deren interne Verarbeitung. Das ist an sich in sicherheitstechnischen Anwendungen heikel, lässt sich aber durch eine Vielzahl zum Teil redundanter oder diversitär-redundanter Einzelsensoren 12 und gegenseitige Konsistenzprüfungen ausgleichen, so dass dennoch hohe Sicherheitsniveaus erreicht werden können.
  • Der flexible Träger 14 ist zumindest in Richtung der Reihenanordnung der Einzelsensoren 12 formbar oder biegsam und kann deshalb an nahezu beliebige stetige Konturen angebracht werden, etwa indem der flexible Träger 14 als Folie oder biegsames Profil ausgebildet ist. Es entsteht auf diese Weise eine flexible Sensorkette von Einzelsensoren 12 vergleichbar einer Lichterkette aus LEDs. Diese Sensorkette ist sehr variabel für verschiedenste Anwendungen einsetzbar, indem sie sich an eine für die Erfassungsaufgabe günstige Kontur anpasst.
  • Gleichzeitig hält der Träger 14 die Einzelsensoren 12 in einem festen Verbund zusammen. Das erleichtert einmal den Montage- und Justageaufwand ganz erheblich und macht für den Fall einer größeren Anzahl von beispielsweise mehr als zehn Einzelsensoren 12 die Montage im Gegensatz zu einem freien Verbund einzelner Sensoren überhaupt erst praktikabel. Außerdem bleibt in mindestens einer Dimension, hier der Längsrichtung innerhalb der Reihenanordnung, der gegenseitige räumliche Bezug der Einzelsensoren 12 stets erhalten, und dadurch wird eine geometrische Mindestabdeckung und Auflösung sicherstellt.
  • Der flexible Träger 14 ist längenanpassbar beziehungsweise in unterschiedlichen Längen verfügbar, was durch die offene Kante am rechten Ende angedeutet sein soll. Auch Varianten mit unterschiedlichen Dichten von Einzelsensoren 12 sind denkbar, so dass insgesamt beliebige regelmäßige Linearanordnungen erzeugt werden können. Unregelmäßige gegenseitige Abstände der Einzelsensoren 12 sind aber auch nicht ausgeschlossen.
  • Die Einzelsensoren 12 sind an eine gemeinsame Schnittstelle 16 angeschlossen. Darüber werden die notwendigen Daten, etwa in der einen Richtung Messdaten von den Einzelsensoren 12, möglicherweise auch Diagnose- und Konfidenzinformationen sowie Konfigurationsdaten, in der anderen Richtung Steuerbefehle und Parameter an die Einzelsensoren 12 übertragen. Die Einzelsensoren 12 können wie gezeigt untereinander und so in Serie mit der gemeinsamen Schnittstelle 16 verbunden sein, beispielsweise über einen Bus. Abweichend von der Darstellung sind auch parallele beziehungsweise direkte Verbindungen von der gemeinsamen Schnittstelle 16 zu zumindest einigen der Einzelsensoren 12 denkbar. Diese Verbindungen sind durch Leitungen auf dem flexiblen Träger 14 oder in dem flexiblen Träger 14 realisierbar, aber auch drahtlose elektrische oder optische Verbindungen sind denkbar. Außerdem kann es gerade innerhalb einer längeren Anordnung von Einzelsensoren 12 mindestens einen Zwischenknoten geben, der mit der gemeinsamen Schnittstelle 16 kommuniziert und für die Datenverbindung zu Einzelsensoren 12 in seiner Nachbarschaft zuständig ist.
  • Die gemeinsame Schnittstelle 16 steht drahtlos oder leitungsgebunden in Verbindung mit einer zentralen Steuer- und Auswertungseinheit 18. Von dort werden die Einzelsensoren 12 angesteuert, konfiguriert und parametriert, und die Steuer- und Auswertungseinheit 18 verarbeitet den Datenstrom von den Einzelsensoren 12. Die Steuer- und Auswertungseinheit 18 weist vorzugsweise ihrerseits eine Schnittstelle zur Kommunikation mit einer übergeordneten Steuerung auf. Aus Sicht von außen, etwa der übergeordneten Steuerung, ist daher die Sensoranordnung 10 ein einheitliches, zentral ansprechbares System vergleichbar einem besonders mächtigen Einzelsensor mit großem Erfassungsbereich beziehungsweise vielen Messverfahren.
  • Die gezeigte Aufteilung der Kommunikation, Steuerung und Auswertung über die gemeinsame Schnittstelle 16 und die zentrale Steuer- und Auswertungseinheit 18 ist schematisch und beispielhaft zu verstehen, die gemeinsame Funktionalität lässt sich auch anders verteilen. Es sind Einzelsensoren 12 mit einer gewissen Eigenintelligenz vorstellbar, die bereits eine eigene Signalverarbeitung bis hin zur Ausgabe der gewünschten Messgröße in passender Einheit und Wiederholrate bieten. Die gemeinsame Schnittstelle 16 kann bereits Auswertungskapazitäten vorsehen, um die Datenströme zu konsolidieren, beispielsweise Sensordaten in ein gemeinsames Koordinatensystem fusionieren. Es ist auch variabel, wie weit die Auswertung der Sensoranordnung 10 geht, die bereits das für die Anwendung relevante Endergebnis liefern kann, etwa ein binäres sicherheitsgerichtetes Signal, dass eine Schutzfeldverletzung erfasst wurde, oder umgekehrt womöglich nur die Messdaten liefert, die dann erst in einer übergeordneten Steuerung ausgewertet werden.
  • Vorzugsweise geht die interne Verarbeitung zumindest bis zu einem Vorverarbeiten, Sammeln und Fusionieren der Daten. Das macht die Integration der Sensoranordnung 10 in ein übergeordnetes Steuerungssystem sehr einfach und reduziert die erforderliche Datenbandbreite nach außen deutlich. In dieser internen Verarbeitung sind für Anwendungen im Personenschutz sicherheitstechnische Überwachungsmechanismen vorgesehen. Die erforderlichen Daten der Einzelsensoren 12 sind innerhalb der Sensoranordnung 10 zugänglich, so dass hohe Sicherheitsniveaus mit vertretbarem Aufwand erreicht werden. Diese Daten werden dafür auf ihre Integrität geprüft, sicherheitstechnisch überwacht, verarbeitet, übertragen und zur gegenseitigen Konsistenzprüfung verwendet, wozu insbesondere Gebrauch von ihrer Redundanz und gegebenenfalls Diversität gemacht wird.
  • 2 zeigt eine schematische Darstellung einer Ausführungsform der Sensoranordnung 10 zur Lichtlaufzeitmessung und Bilderfassung. Dabei sind zwei verschiedene Typen von Einzelsensoren 12a-b in alternierender Reihenanordnung vorgesehen. Die Anordnung muss nicht streng alternierend sein, insbesondere im Falle unterschiedlich großer Einzelüberwachungsfelder 20 der beiden Typen von Einzelsensoren 12a-b. Vielmehr sollte die Reihenanordnung so gebildet sein, dass ein möglichst großer Anteil des in der Überlagerung der Einzelüberwachungsfelder 20 gebildeten gemeinsamen Überwachungsbereichs 22 mit beiden Sensorprinzipien der Einzelsensoren 12a-b erfasst ist. Durch die Überlappung benachbarter Einzelüberwachungsfelder 20 sowohl von Einzelsensoren 12a-b gleichen wie unterschiedlichen Typs kann der Grad an redundanter beziehungsweise diversitär-redundanter Erfassung eingestellt werden.
  • Während es auch allgemein vorteilhaft ist, vor allem für die Sicherheitstechnik, wenn Sensordaten diversitär durch zwei verschiedene Typen von Einzelsensoren 12a-b erfasst werden, zeigt 2 beispielhaft die besonders bevorzugte Kombination von zwei unterschiedlichen optischen Sensorprinzipien, nämlich eine Abstandsmessung mit einem Lichtlaufzeitverfahren (TOF, Time of Flight) der Einzelsensoren 12a und eine Bilderfassung durch die Einzelsensoren 12b (CAM, Camera). Beide Sensorprinzipien sind für sich bekannt und entsprechende hochintegrierte Einzelsensoren 12a-b verfügbar. Zur Lichtlaufzeitmessung können ein- oder mehrstrahlige Abstandmesser und ortsauflösende Zeilen- oder Matrixanordnungen von TOF-Pixeln eingesetzt werden. Das ist sowohl mit einem Phasenverfahren, etwa mittels Photomischdetektion, als auch einem Pulsverfahren denkbar, vorzugsweise durch Zeitmessung in einer SPAD-Anordnung (Single-Photon Avalanche Diode). Die Bilderfassung basiert auf einem CMOS- oder CCD-Bildsensor, der wahlweise ein Grauwert- oder Farbbild liefert. Den Einzelsensoren 12a-b kann jeweils eine Optik zugeordnet sein, vorzugsweise in Form von Mikrolinsen oder allgemein Mikrooptiken als eine Art Deckschicht des flexiblen Trägers 14 jeweils über den Einzelsensoren 12a-b.
  • Eine solche optische Sensorkette ist in der Lage, zugleich die Konturen der Umgebung anhand der Abstandsbestimmung zu vermessen und Bilder zu erfassen, um Informationen mit der ganzen Vielfalt von Bildauswertungsverfahren zu gewinnen. Sogar eine stereoskopische Verrechnung zweidimensionalen Bildern aus unterschiedlicher Perspektive zu einer Tiefenkarte ist denkbar, sei es von zwei verschiedenen Einzelsensoren 12b oder nach Relativbewegung im Zeitverlauf. Dadurch werden Abstände sogar diversitär bestimmt.
  • 3 zeigt eine Variante der Ausführungsform gemäß 2. Dabei sind in der Reihenanordnung zwischen den Einzelsensoren 12a-b Beleuchtungsmodule 24 vorgesehen. Die Dichte der Beleuchtungsmodule 24 in 3 ist anpassbar, beispielsweise je ein zusätzliches Beleuchtungsmodul 24 zwischen jedem Paar Einzelsensoren 12a-b ist möglich. Dadurch sind auch Einzelsensoren 12a-b verwendbar, die keine eigene Beleuchtung mitbringen, so wie das in 2 implizit für die Einzelsensoren 12a mit Lichtlaufzeitverfahren vorausgesetzt wurde. Die Beleuchtungsmodule 24 erzeugen das jeweils für die Erfassung der Einzelsensoren 12a-b erforderliche Licht in einem passenden Spektrum, sei es eine reine Flächenbeleuchtung oder puls- beziehungsweise phasenmoduliertes Licht für ein Lichtlaufzeitverfahren. Eine Mehrfachnutzung des ausgesendeten Lichts der Beleuchtungsmodule 24 durch verschiedene Einzelsensoren 12a-b ist möglich. Ergänzend oder alternativ ist im Übrigen auch vorstellbar, dass zumindest einige Einzelsensoren 12a-b eine eigene Beleuchtung besitzen und benachbarte Einzelsensoren 12a-b deren Licht mit verwenden. Die erforderliche Beleuchtung entsteht somit durch gegenseitige Ergänzung von dedizierten Beleuchtungsmodulen 24 und/oder integrierten Beleuchtungen von Einzelsensoren 12a-b.
  • 4 zeigt eine Sensoranordnung 10 auf einem flächigen Träger 14. Während bisher die Einzelsensoren 12 eine Reihenanordnung oder Sensorkette gebildet haben, ist nach dieser Ausführungsform auch eine flächige Anordnung denkbar. Dabei ist der Träger 14 in zumindest einer Richtung, vorzugsweise beiden Richtungen biegsam und so an eine beliebige flächige Kontur anpassbar. Die Anordnung mehrerer Sensorketten nebeneinander hierzu bietet eine Alternative. In 4 sind die Einzelsensoren 12 zu einer regelmäßigen Matrix angeordnet. In einem anderen Beispiel bilden die Einzelsensoren 12 eine Wabenstruktur oder sind in einem anderen auch unregelmäßigen Muster über die Fläche verteilt.
  • 5 zeigt ein Anwendungsbeispiel für die Umfelderfassung mittels einer erfindungsgemäßen Sensoranordnung 10 an einem Fahrzeug 26 wie einem fahrerlosen Transportfahrzeug (AGV, Automated Guided Vehicle). Auch andere Maschinen wie ein Roboter sind denkbar, die bewegliche Teile aufweisen oder als Ganzes beweglich sind. Die Sensoranordnung 10 ist über den flexiblen Träger 14 wie eine Art Klebeband an den gekrümmten vorderen und hinteren Konturen des Fahrzeugs 26 angebracht. Die Einzelüberwachungsfelder 20 sind nur durch zentrale Strahlen angedeutet. In dem gezeigten Beispiel sind es zwei Sensoranordnungen 10, die einen mittleren Bereich freilassen, weil sich das Fahrzeug 26 in dieser lateralen Richtung nicht bewegt. Selbstverständlich könnte auch eine andere Anzahl von Sensoranordnungen 10 über andere Teilbereiche der Außenkontur angebracht werden.
  • Bevorzugt dient die Umfelderfassung mittels der Sensoranordnung 10 der Absicherung, d. h. der Vermeidung von Unfällen vor allem mit Personen. Besonders geeignet für die Erfassung der notwendigen Sensordaten ist eine optische Abstandsmessung und Bildaufnahme mit der zu 2 oder 3 vorgestellten Ausführungsform. Damit werden die Konturen im Umfeld und damit die Positionen der Objekte in Bezug auf das Fahrzeug 26 erkannt, und anhand der aufgenommenen Bilder kann beispielsweise noch unterschieden werden, um welche Art von Objekt es sich handelt. Insbesondere kann eine sicherheitsrelevante Datenfusion zur Erzeugung und Ausgabe einer von allen Einzelsensoren 12a-b erfassten Umgebungskontur in einem gemeinsamen Fahrzeugkoordinatensystem führen, die bei Bedarf um die mittels Bildsensoren erfassten Texturen ergänzt wird. Damit lassen sich Schutzfeldzustände oder Annäherungsszenarien erkennen, auf die das Fahrzeug 26 sicherheitsgerichtet durch Maßnahmen wie Warntöne, Abbremsen, Ausweichen oder einen Nothalt reagiert. Die gemeinsamen Sensordaten können überdies für Navigationszwecke verwendet werden.
  • 6 zeigt ein weiteres Anwendungsbeispiel für eine stationäre Umfelderfassung und gegebenenfalls Absicherung. In diesem Fall wird zur Bereichsüberwachung eine Sensoranordnung 10 an einer Wand eines Raumes 28 angebracht. Diese Wand kann natürlich anders als dargestellt Krümmungen aufweisen, womöglich sogar flächige Krümmungen, und je nach Bedarf wird eine Sensorkette gemäß den Ausführungsformen der 2 und 3 oder eine flächige Sensoranordnung gemäß der zu 4 erläuterten Ausführungsform angebracht.
  • Obwohl die Sensoranordnung 10 jeweils an eine a priori nicht bekannte Krümmung angepasst wird, erleichtert der geometrische Bezug der Einzelsensoren 12 durch deren Anordnung auf dem flexiblen Träger 14 und ein durch die gemeinsame Schnittstelle 16 beziehungsweise die zentrale Steuer- und Auswertungseinheit 18 koordinierter fester zeitlicher Bezug der Messwerte zueinander das automatische Einlernen oder Kalibrieren der relativen Positionen und Ausrichtungen der Einzelsensoren 12a-b. Dazu werden zugleich in Überlappungsbereichen oder nacheinander während einer Referenz- oder Einlernfahrt von mehreren Einzelsensoren 12a-b aufgenommene Strukturen genutzt.
  • Beispielsweise wird eine Sensorkette wie in 5 an die Kontur eines komplex geformten Fahrzeugs angebracht. Während einer Einlernfahrt in einer Referenzumgebung werden aus dem synchronisierten Datenstrom der Einzelsensoren 12a-b die Positionen und Ausrichtungen der Einzelsensoren 12a-b ermittelt und für eine globale Koordinatentransformation der Sensordaten verwendet. Eine derartige automatische Referenzfahrt wäre bei herkömmlichen diskreten Einzelsensoren zunächst bei der Montage und dann allein aufgrund der Synchronisierungsschwierigkeiten mit einem erheblich größeren Aufwand verbunden. Denkbar wäre noch, diskrete Einzelsensoren durch standardisierte Schnittstellen zum Beispiel steckbar oder durch eine Funkkaskade zu einer Sensorkette zu erweitern. Die einfache Handhabung einer erfindungsgemäßen Sensoranordnung 10 würde dennoch nicht erreicht.

Claims (9)

  1. Sensoranordnung (10) zur Erfassung von Objekten in einem Überwachungsbereich (22) mit einer Vielzahl erster Einzelsensoren (12, 12a) eines ersten Typs, deren Einzelüberwachungsfelder (20) gemeinsam den Überwachungsbereich (22) bilden, wobei die Einzelsensoren (12, 12a) gemeinsam auf einem flexiblen Träger (14) angeordnet sind, der zur Anbringung an einer gekrümmten Kontur der Kontur entsprechend formbar ist, dadurch gekennzeichnet, dass der Sensor eine Vielzahl zweiter Einzelsensoren (12b) eines zweiten Typs aufweist, dass das Erfassungsprinzip der ersten Einzelsensoren (12a) des ersten Typs ein Lichtlaufzeitverfahren zum Bestimmen von Abständen zu den Objekten und das Erfassungsprinzip der zweiten Einzelsensoren (12b) des zweiten Typs ein Bilderfassungsverfahren ist und dass die ersten Einzelsensoren (12a) und die zweiten Einzelsensoren (12b) auf dem Träger (14) eine alternierende Anordnung bilden.
  2. Sensoranordnung (10) nach Anspruch 1, wobei auf dem Träger (14) zwischen den Einzelsensoren (12, 12a-b) eine Vielzahl von Beleuchtungseinheiten (24) angeordnet ist.
  3. Sensoranordnung (10) nach einem der vorhergehenden Ansprüche, wobei ein jeweiliger Einzelsensor (12, 12a-b) als hochintegriertes System auf jeweils einem einzigen Chip ausgebildet ist.
  4. Sensoranordnung (10) nach einem der vorhergehenden Ansprüche, wobei die Einzelsensoren (12, 12a-b) eine eindimensionale Anordnung auf einem bandförmigen Träger (14) bilden.
  5. Sensoranordnung (10) nach einem der Ansprüche 1 bis 3, wobei die Einzelsensoren (12, 12a-b) eine zweidimensionale Anordnung auf einem in mindestens einer Richtung biegsamen, flächigen Träger (14) bilden.
  6. Sensoranordnung (10) nach einem der vorhergehenden Ansprüche, die eine zentrale Steuer- und Auswertungseinheit (18) aufweist, die insbesondere dafür ausgebildet ist, in einem Kalibrierungsvorgang die Position und/oder Orientierung der Einzelsensoren (12, 12a-b) anhand von deren Position auf dem Träger (14) und von Erfassungsdaten gemeinsam beobachteter Strukturen in dem Überwachungsbereich (22) zu bestimmen.
  7. Sensoranordnung (10) nach einem der vorhergehenden Ansprüche, die eine gemeinsame Schnittstelle (16) für die Einzelsensoren (12, 12a-b) aufweist.
  8. Verfahren zur Erfassung von Objekten in einem Überwachungsbereich (22), bei dem eine Vielzahl erster Einzelsensoren (12, 12a) eines ersten Typs und eine Vielzahl zweiter Einzelsensoren (12b) eines zweiten Typs die Objekte in ihren jeweiligen Einzelüberwachungsfeldern (20) erfasst und die Erfassungen aus den Einzelüberwachungsfeldern (20), die gemeinsam den Überwachungsbereich (22) bilden, kombiniert werden, wobei das Erfassungsprinzip der ersten Einzelsensoren (12a) des ersten Typs ein Lichtlaufzeitverfahren zum Bestimmen von Abständen zu den Objekten und das Erfassungsprinzip der zweiten Einzelsensoren (12b) des zweiten Typs ein Bilderfassungsverfahren ist, wobei ein flexibler Träger (14), auf dem die Einzelsensoren (12, 12a) angeordnet sind, an einer gekrümmten Kontur angeordnet und entsprechend der Kontur geformt wird und wobei die ersten Einzelsensoren (12a) und die zweiten Einzelsensoren (12b) auf dem Träger (14) eine alternierende Anordnung bilden.
  9. Verfahren nach Anspruch 8, wobei der flexible Träger (14) an einer Kontur einer Maschine (26) angebracht wird, insbesondere eines Fahrzeugs oder eines Roboters, und die Maschine (26) auf Basis der Erfassungsdaten der Einzelsensoren (12, 12a-b) abgesichert wird.
DE102018118909.5A 2018-08-03 2018-08-03 Sensoranordnung und Verfahren zur Erfassung von Objekten Active DE102018118909B3 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018118909.5A DE102018118909B3 (de) 2018-08-03 2018-08-03 Sensoranordnung und Verfahren zur Erfassung von Objekten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018118909.5A DE102018118909B3 (de) 2018-08-03 2018-08-03 Sensoranordnung und Verfahren zur Erfassung von Objekten

Publications (1)

Publication Number Publication Date
DE102018118909B3 true DE102018118909B3 (de) 2019-12-05

Family

ID=68576575

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018118909.5A Active DE102018118909B3 (de) 2018-08-03 2018-08-03 Sensoranordnung und Verfahren zur Erfassung von Objekten

Country Status (1)

Country Link
DE (1) DE102018118909B3 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008063081A1 (de) 2008-12-24 2010-08-05 Gottfried Wilhelm Leibniz Universität Hannover Sicherungsvorrichtung und Verfahren zum Betreiben einer mehrgliedrigen Maschine
DE102016210769A1 (de) 2016-06-16 2017-12-21 Audi Ag Kraftfahrzeug mit einer Erfassungseinrichtung
GB2558273A (en) 2016-12-23 2018-07-11 Hohla Martin Sensor system for a vehicle and method for determining assessment threat
DE102017127065A1 (de) 2017-11-17 2019-05-23 Sick Ag Flächensensor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008063081A1 (de) 2008-12-24 2010-08-05 Gottfried Wilhelm Leibniz Universität Hannover Sicherungsvorrichtung und Verfahren zum Betreiben einer mehrgliedrigen Maschine
DE102016210769A1 (de) 2016-06-16 2017-12-21 Audi Ag Kraftfahrzeug mit einer Erfassungseinrichtung
GB2558273A (en) 2016-12-23 2018-07-11 Hohla Martin Sensor system for a vehicle and method for determining assessment threat
DE102017127065A1 (de) 2017-11-17 2019-05-23 Sick Ag Flächensensor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ISO EN 13849-1

Similar Documents

Publication Publication Date Title
EP3497476B1 (de) Kraftfahrzeug und verfahren zur 360°-umfelderfassung
EP2835973B1 (de) 3D-Kamera und Verfahren zur Erfassung von dreidimensionalen Bilddaten
EP2386876B1 (de) Entfernungsmessender optoelektronischer Sicherheitssensor und Verfahren zur Überwachung eines Überwachungsbereichs
EP2854106B1 (de) 3D-Kamera nach dem Stereoskopieprinzip und Verfahren zum Erfassen von Tiefenkarten
DE102010037744B3 (de) Optoelektronischer Sensor
EP1933167B1 (de) Optoelektronischer Sensor sowie Verfahren zur Erfassung und Abstandsbestimmung eines Objekts
EP3218244B1 (de) Betrieb eines schienenfahrzeugs mit einem bilderzeugungssystem
EP2083209B1 (de) Sicherheitssystem zur berührungslosen Messung von Wegen und/oder Geschwindigkeiten
EP3510463A1 (de) Sensoranordnung für ein autonom betriebenes nutzfahrzeug und ein verfahren zur rundumbilderfassung
EP3791105B1 (de) Vorrichtung und verfahren zur sicherung eines maschinell oder automatisch gesteuerten beweglichen gerätes und sensorkachel
EP1068992A2 (de) Rückfahrhilfe
DE102010002250A1 (de) Überwachungssystem
DE102009034848A1 (de) Optoelektronischer Sensor
DE102018118909B3 (de) Sensoranordnung und Verfahren zur Erfassung von Objekten
DE102020110809B3 (de) Verfahren und Vorrichtung zum Erkennen von Blooming in einer Lidarmessung
DE102011017707A1 (de) Verfahren und Vorrichtung zur Erkennung von einem Objekt in einer Umgebung einer Kamera
EP2101193A1 (de) Sicherheitssystem zur berührungslosen Messung von Positionen, Wegen und Geschwindigkeiten
DE202018104484U1 (de) Sensoranordnung zur Erfassung von Objekten
EP3545338B1 (de) Empfangseinrichtung für eine optische detektionsvorrichtung, detektionsvorrichtung und fahrerassistenzsystem
DE202012102541U1 (de) 3D-Kamera
DE102011007464A1 (de) Verfahren und Vorrichtung zur Visualisierung einer Szene
EP2860714B1 (de) Optoelektronische Vorrichtung und Verfahren zur Überwachung eines Überwachungsbereichs
DE10113413A1 (de) Verfahren zur optoelektronischen Überwachung von Gefahrbereichen vor führerlosen, automatischen Transportsystemen
DE202017102191U1 (de) 3D-Lichtlaufzeitkamera zur Erfassung dreidimensionaler Bilddaten
DE202020106363U1 (de) Fahrzeug und Vorrichtung zur Durchführung eines Verfahrens zur Vermeidung einer Kollision eines Fahrzeugs mit einem Hindernis

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final