DE202018103869U1 - 3D sensor for monitoring a surveillance area - Google Patents
3D sensor for monitoring a surveillance area Download PDFInfo
- Publication number
- DE202018103869U1 DE202018103869U1 DE202018103869.9U DE202018103869U DE202018103869U1 DE 202018103869 U1 DE202018103869 U1 DE 202018103869U1 DE 202018103869 U DE202018103869 U DE 202018103869U DE 202018103869 U1 DE202018103869 U1 DE 202018103869U1
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- distance
- distances
- memory
- predicted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F16—ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
- F16P—SAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
- F16P3/00—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
- F16P3/12—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
- F16P3/14—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
- F16P3/142—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2545—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/10—Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
- G01C3/14—Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with binocular observation at a single point, e.g. stereoscopic type
Abstract
3D-Sensor (10), insbesondere 3D-Kamera, zum Überwachen eines Überwachungsbereichs (12), wobei der 3D-Sensor (10) mindestens einen Lichtempfänger (16a-b) zum Erzeugen eines Empfangssignals aus Empfangslicht aus dem Überwachungsbereich (12) sowie eine Steuer- und Auswertungseinheit (24) aufweist, die dafür ausgebildet ist, durch Auswerten des Empfangssignals Objekte (28) in dem Überwachungsbereich (12) zu erfassen und den kürzesten Abstand der erfassten Objekte (28) zu mindestens einem Bezugsvolumen (26a, 26b) zu bestimmen, dadurch gekennzeichnet, dass die Steuer- und Auswertungseinheit (24) einen Speicher aufweist und weiterhin dafür ausgebildet ist, für die Bestimmung des jeweiligen kürzesten Abstands eines erfassten Objekts (28) mindestens einen vorausberechneten Abstand zu dem Bezugsvolumen (26a, 26b) aus einem Speicher zu lesen. 3D sensor (10), in particular 3D camera, for monitoring a monitoring area (12), wherein the 3D sensor (10) at least one light receiver (16a-b) for generating a received signal from received light from the monitoring area (12) and a Control and evaluation unit (24), which is designed to detect by evaluating the received signal objects (28) in the monitoring area (12) and the shortest distance of the detected objects (28) to at least one reference volume (26a, 26b) determine, characterized in that the control and evaluation unit (24) has a memory and is further adapted for the determination of the respective shortest distance of a detected object (28) at least one precalculated distance to the reference volume (26a, 26b) of a Memory to read.
Description
Die Erfindung betrifft einen 3D-Sensor, insbesondere eine 3D-Kamera, zum Überwachen eines Überwachungsbereichs nach dem Oberbegriff von Anspruch 1.The invention relates to a 3D sensor, in particular a 3D camera, for monitoring a surveillance area according to the preamble of
3D-Sensoren nehmen Bilder auf, die in ihren Pixeln einen Abstandswert enthalten. Diese tiefenaufgelösten oder dreidimensionalen Bilddaten werden auch als Tiefenkarte bezeichnet. Der im Vergleich zu einer zweidimensionalen Bilderfassung höhere Geräte- und Auswertungsaufwand wird in vielen Anwendungen durch die Zusatzinformationen gerechtfertigt. Zu den 3D-Sensoren zählen 3D-Kameras in unterschiedlichen Technologien, beispielsweise Stereoskopie, Triangulation, Lichtlaufzeit, mit Auswertung der Störung passiver zweidimensionaler Muster oder von projizierten Beleuchtungsmustern. Weiterhin bekannt sind in zwei oder allen drei Richtungen abtastende Laserscanner, die über die jeweiligen Abtastwinkel und die gemessene Entfernung ebenfalls dreidimensionale Bilddaten erfassen.3D sensors capture images that contain a distance value in their pixels. This depth-resolved or three-dimensional image data is also referred to as a depth map. Compared to a two-dimensional image capture higher device and evaluation effort is justified in many applications by the additional information. The 3D sensors include 3D cameras in various technologies, such as stereoscopy, triangulation, light propagation time, with evaluation of the disturbance of passive two-dimensional patterns or of projected illumination patterns. Also known are scanning in two or all three directions laser scanner, which also detect three-dimensional image data on the respective scanning angle and the measured distance.
Ein besonderes Anwendungsgebiet ist die Sicherheitstechnik mit dem primären Ziel, Personen vor Gefahrenquellen zu schützen, wie sie beispielsweise Maschinen im industriellen Umfeld darstellen. Die Maschine wird mit Hilfe des 3D-Sensors überwacht, und wenn demnach eine Situation vorliegt, in der eine Person gefährlich nahe an die Maschine zu gelangen droht, wird eine geeignete Absicherungsmaßnahme ergriffen.A special field of application is safety technology with the primary aim of protecting persons from sources of danger such as, for example, machines in an industrial environment. The machine is monitored with the help of the 3D sensor, and therefore if there is a situation where a person threatens to get dangerously close to the machine, an appropriate safeguard is taken.
In der Sicherheitstechnik eingesetzte Sensoren müssen besonders zuverlässig arbeiten und deshalb hohe Sicherheitsanforderungen erfüllen, beispielsweise die Norm EN13849 für Maschinensicherheit und die Gerätenorm IEC61496 oder EN61496 für berührungslos wirkende Schutzeinrichtungen (BWS). Zur Erfüllung dieser Sicherheitsnormen sind eine Reihe von Maßnahmen zu treffen, wie sichere elektronische Auswertung durch redundante, diversitäre Elektronik, Funktionsüberwachung oder speziell Überwachung der Verschmutzung optischer Bauteile.Sensors used in safety technology must work extremely reliably and therefore meet high safety requirements, for example EN13849 for machine safety and IEC61496 or EN61496 for contactless protective devices (ESPE). To meet these safety standards, a number of measures must be taken, such as safe electronic evaluation by means of redundant, diverse electronics, function monitoring or especially monitoring of the contamination of optical components.
Das gängige Absicherungskonzept sieht vor, dass Schutzfelder konfiguriert werden, die während des Betriebs der Maschine vom Bedienpersonal nicht betreten werden dürfen. Erkennt der Sensor einen unzulässigen Schutzfeldeingriff, etwa ein Bein einer Bedienperson, so löst er einen sicherheitsgerichteten Halt der Maschine aus.The common protection concept envisages that protective fields are configured that must not be entered by operating personnel during operation of the machine. If the sensor detects an inadmissible protective field intervention, for example a leg of an operator, it triggers a safety-related stop of the machine.
In der sicherheitstechnischen Überwachung von Robotern besteht ein zunehmender Wunsch nach engerer Zusammenarbeit mit Personen (MRK, Mensch-Roboter-Kollaboration). Relevante Normen in diesem Zusammenhang sind beispielsweise die
Eine Bewertung von Objekten und Maschinen bezüglich Geschwindigkeit und gegenseitiger Entfernung wird in den genannten Roboternormen als „Speed and Separation Monitoring“ bezeichnet. Sichere überwachende Sensoren, wie Laserscanner oder 3D-Kameras, unterstützen das aber nicht. Sie arbeiten weiterhin mit den üblichen Schutzfeldern, und sie liefern nur ein binäres Abschaltsignal, ob ein Schutzfeld verletzt ist oder nicht. Zwar ist die Sicherheit auf diese Weise gewährleistet, aber nicht besonders flexibel und auch häufig mit unnötigen Sicherheitszuschlägen und damit Einschränkungen der Verfügbarkeit, da die Schutzfelder für worst-case-Szenarien und nicht die tatsächliche aktuelle Situation konfiguriert sind.An evaluation of objects and machines with regard to speed and mutual distance is referred to in the named robot standards as "Speed and Separation Monitoring". Safe monitoring sensors, such as laser scanners or 3D cameras, do not support this. They continue to work with the usual protective fields, and they only provide a binary shutdown signal as to whether or not a protective field is violated. Although security is guaranteed in this way, it is not very flexible and often involves unnecessary security surcharges and hence availability restrictions because the protection fields are configured for worst-case scenarios rather than the actual situation.
Für ein Sicherheitskonzept auf Basis kürzester Abstände zwischen Objekt und Maschine muss eine Vielzahl von Abständen im dreidimensionalen Raum berechnet werden. Eine exakte Berechnung zur Laufzeit bedeutet einen sehr hohen Rechenaufwand, der bei den erforderlichen Auflösungen und Ansprechzeiten nur mit extremen Rechenressourcen zu leisten ist. Der Aufwand lässt sich verringern, wenn Objekte und Maschinen mit einfachen geometrischen Modellen dargestellt werden, was aber zwangsläufig eine zusätzliche Unterschätzung der Abstände mit sich bringt, da die Modelle zu großzügige Umhüllungen bilden. Dadurch wird unnötig auf scheinbare Gefahrensituationen reagiert, die sich bei exakter Berechnung als unkritisch erwiesen hätten.For a safety concept based on the shortest distances between object and machine, a large number of distances must be calculated in three-dimensional space. An exact calculation at runtime means a very high computational effort, which can only be achieved with the required resolutions and response times with extreme computing resources. The effort can be reduced if objects and machines are represented with simple geometric models, but this inevitably leads to an additional underestimation of the distances, since the models form too generous enclosures. This unnecessarily reacts to apparent dangerous situations that would have proved to be uncritical if calculated exactly.
G. Borgefors, „Distance transformations in digital images.“ Computer vision, graphics, and image processing 34.3 (1986), S. 344-371 befasst sich mit Distanztransformationen, die aus einem digitalen Bild mit Bildmerkmalspixeln und sonstigen Pixeln ein Grauwertbild erzeugen, dessen Werte jeweils den Abstand zu dem nächsten Bildmerkmalspixel codieren.G. Borgefors, "Distance transformations in digital images." Computer vision, graphics, and image processing 34.3 (1986), pp. 344-371 deals with distance transformations that generate a gray value image from a digital image with image feature pixels and other pixels Values each encode the distance to the next image feature pixel.
Alle diese Arbeiten beschränken sich jedoch auf den zweidimensionalen Fall und haben auch nichts mit den erläuterten Sicherheitsanwendungen zu tun. Außerdem wird jeweils nur ein punktueller Abstand von einem einzelnen Pixel zu dem Bildmerkmal berechnet, nicht der Abstand zwischen zwei flächigen oder gar räumlichen Bereichen.However, all this work is limited to the two-dimensional case and have nothing to do with the described security applications. In addition, only a punctual distance from a single pixel to the image feature is calculated, not the distance between two planar or even spatial regions.
In der
Es ist daher Aufgabe der Erfindung, eine verbesserte Abstandsbestimmung für eine dreidimensionale Überwachung anzugeben.It is therefore an object of the invention to provide an improved distance determination for a three-dimensional monitoring.
Diese Aufgabe wird durch einen 3D-Sensor zum Überwachen eines Überwachungsbereichs nach Anspruch 1 gelöst. Mit einem Lichtempfänger wird Empfangslicht aus dem Überwachungsbereich erfasst und daraus ein Empfangssignal gewonnen. Die Ausgestaltung des Lichtempfängers und damit die Art des Empfangssignals hängen von dem 3D-Sensor ab. Beispielsweise ist der Lichtempfänger ein Bildsensor oder ein Paar von Bildsensoren, und die aus den Pixeln ausgelesenen Informationen werden summarisch als Empfangssignal bezeichnet. Das Empfangssignal wird in dem 3D-Sensor ausgewertet, um Objekte zu erfassen, etwa als 3D-Punktewolke oder vorzugsweise in einer Detektionskarte, d. h. einem zweidimensionalen Bild, in dessen Pixel jeweils dort Einträge vorgenommen werden, wo ein relevantes Objekt erfasst ist. Es wird dann ein kürzester Abstand von den erfassten Objekten zu mindestens einem Bezugsvolumen bestimmt. Das Bezugsvolumen ist ein Teilbereich des Überwachungsbereichs und virtuell, jedoch mit Bezug zur realen Szenerie festgelegt, und es kommt dem Bezugsvolumen je nach Anwendung eine bestimmte Bedeutung zu, etwa dass sich dort eine abzusichernde Maschine befindet oder ein erfasstes Objekt in diesem Raumbereich eine bestimmte Reaktion auslösen soll.This object is achieved by a 3D sensor for monitoring a surveillance area according to
Die Erfindung geht von dem Grundgedanken aus, die Abstandsberechnung zur Laufzeit durch Vorausberechnungen zu entlasten. Dazu ist ein Speicher vorgesehen, in dem vorausberechnete Abstände abgelegt werden, insbesondere als Nachschlagtabelle (LUT, Lookup Table). Im Betrieb werden die vorausberechneten Abstände eingelesen oder nachgeschlagen und entweder direkt als kürzeste Abstände von den erfassten Objekten zu mindestens einem Bezugsvolumen oder als Grundlage für eine weitere Abstandsbestimmung genutzt.The invention is based on the basic idea of relieving the distance calculation at runtime by precalculations. For this purpose, a memory is provided in which pre-calculated distances are stored, in particular as a look-up table (LUT, Lookup Table). In operation, the predicted distances are read or looked up and used either directly as the shortest distances from the detected objects to at least one reference volume or as a basis for further distance determination.
Die Erfindung hat den Vorteil, dass eine effiziente Berechnung von Abständen im Raum auch unter Berücksichtigung von Verdeckungen aus der Zentralperspektive des 3D-Sensors ermöglicht wird. Dadurch werden höhere Auflösungen und kurze Ansprechzeiten auch bei moderaten Hardwareanforderungen realisierbar. Der Aufwand für eine Abstandsberechnung zu einem Bezugsvolumen im Raum skaliert mit der geometrischen Komplexität des Bezugsvolumens. Dieser Aufwand fällt aber erfindungsgemäß nicht mehr zur Laufzeit an, sondern davor. Dadurch werden praktisch beliebige Bezugsvolumina ohne Beschränkung auf einfache Modellierung möglich, da erfindungsgemäß die Berechnungen zur Laufzeit nahezu unabhängig von der konkreten Geometrie des Bezugsvolumens sind.The invention has the advantage that an efficient calculation of distances in space is made possible, even taking into account occlusions from the central perspective of the 3D sensor. As a result, higher resolutions and fast response times can be achieved even with moderate hardware requirements. The effort for a distance calculation to a reference volume in space scales with the geometric complexity of the reference volume. However, according to the invention, this expense is no longer incurred at runtime, but before that. As a result, virtually any reference volumes are possible without limitation to simple modeling, since according to the invention the calculations at runtime are almost independent of the specific geometry of the reference volume.
Der 3D-Sensor ist vorzugsweise eine 3D-Kamera. Eine 3D-Kamera kann jede bekannte Technik verwenden, wie ein Triangulationsprinzip, bei dem zwei Kamerabilder einer bewegten Kamera oder einer Stereokamera untereinander beziehungsweise ein Kamerabild mit einem bekannten Projektionsmuster korreliert und Disparitäten geschätzt werden, oder ein Lichtlaufzeitprinzip mit direkter Laufzeitmessung von Lichtsignalen oder Phasenmessung. Auch ein Laserscanner erzeugt 3D-Punktwolken, die bei einem klassischen Laserscanner auf eine Abtastebene beschränkt sind. Durch Veränderung der Abtastebene, also auch in Elevation bewegte Abtastung oder mehrere in Elevation versetzte Abtaststrahlen entfällt diese Beschränkung bei einem Laserscanner. Die erfindungsgemäße Abstandsbestimmung lässt sich auch für andere dreidimensionale Sensordaten etwa eines Radars oder Ultraschallsensors verwenden.The 3D sensor is preferably a 3D camera. A 3D camera can use any known technique, such as a triangulation principle, in which two camera images of a moving camera or a stereo camera correlate with each other or a camera image with a known projection pattern and disparities are estimated, or a light transit time principle with direct transit time measurement of light signals or phase measurement. A laser scanner also generates 3D point clouds, which are limited to a scanning level in a classic laser scanner. By changing the scanning plane, so even moving in elevation scanning or multiple offset in elevation scanning beams eliminates this limitation in a laser scanner. The distance determination according to the invention can also be used for other three-dimensional sensor data such as a radar or ultrasound sensor.
Vorzugsweise ist der 3D-Sensor für den Einsatz im Personenschutz vor einer gefahrbringenden Maschine sicher ausgebildet und erfüllt dafür die einleitend genannten oder entsprechende Normen, um eine gefahrbringende Maschine abzusichern.The 3D sensor is preferably designed to be safe for use in personal protection in front of a dangerous machine and for this purpose it complies with the standards mentioned above or corresponding standards in order to protect a dangerous machine.
Das Bezugsvolumen ist vorzugsweise eine Gefahrenstelle, welche eine Maschine absichert. Eine Gefahrenstelle ist eine Modellierung der Maschine und ihrer Arbeitsbewegungen zu deren Absicherung. Die Gefahrenstelle umfasst die Maschine selbst, Teilbereiche davon wie Werkzeugspitzen oder den beweglichen Teil eines Roboterarms und/oder sonstige Bereiche wie Zugangswege. Eine einfache Geometrie der Gefahrenstelle vereinfacht die Abstandsberechnung auf Kosten der Verfügbarkeit, und erfindungsgemäß kann der Aufwand für komplexe Geometrien bereits vorab geleistet werden. Gefahrenstellen werden bei der Planung der Sicherheitsanwendung konfiguriert, unter Umständen auch voll- oder halbautomatisch anhand des vorgesehenen Bewegungsablaufs der Maschine.The reference volume is preferably a point of danger which secures a machine. A danger point is a modeling of the machine and its working movements for their protection. The danger point includes the machine itself, parts of it such as tool tips or the movable part of a robot arm and / or other areas such as access routes. A simple geometry of the danger point simplifies the distance calculation at the expense of availability, and according to the invention, the complexity of complex geometries can already be achieved in advance. Danger points are configured during the planning of the safety application, under certain circumstances also fully or semi-automatically based on the intended movement sequence of the machine.
Erfasste Objekte in einer Gefahrenstelle werden bevorzugt ignoriert, beziehungsweise die Gefahrenstelle wird bei der Detektion ausmaskiert. Die Gefahrenstelle selbst wird also stets als frei von zu erfassenden Objekten angesehen, oder vielmehr als durch die Maschine blockiert. Tatsächlich wäre im Bezugsvolumen der Gefahrenstelle durchaus Raum für solche Objekte. Auch bildet die Maschine natürlich selbst ein Objekt, das zunächst von dem 3D-Sensor erfasst wird. Dies zu ignorieren vereinfacht die Überwachung und die Bestimmung kürzester Abstände, denn die Dynamik der Maschine innerhalb der Gefahrenstelle spielt so keine Rolle. Sicherheitstechnisch ist dies auch unproblematisch, denn jedes Objekt wird rechtzeitig erkannt, wenn es sich der Gefahrenstelle nähert.Detected objects in a danger location are preferably ignored, or the danger location is masked out during the detection. The danger point itself is therefore always considered to be free of objects to be detected, or rather blocked by the machine. In fact, in the reference volume of the danger spot, there would definitely be room for such objects. Of course, the machine itself forms an object that is initially detected by the 3D sensor. Ignoring this simplifies the monitoring and the determination of the shortest distances, because the dynamics of the machine within the danger point does not matter. From a safety point of view, this is also not a problem because every object is recognized in time when it approaches the danger point.
Der 3D-Sensor weist vorzugsweise eine sichere Schnittstelle zur Ausgabe kürzester Abstände aus. Herkömmlich ist eine solche sichere Schnittstelle eines in der Sicherheitstechnik eingesetzten Sensors eine binäre Schnittstelle, über die ein binäres Signal ausgegeben wird, ob eine Schutzfeldverletzung vorliegt (OSSD, Output Signal Switching Device). Stattdessen wird nun der jeweils aktuelle kürzeste Abstand sicher für eine angeschlossene Steuerung zur Verfügung gestellt. Diese Steuerung, etwa die übergeordnete Steuerung einer Roboterzelle oder auch die Steuerung der Maschine beziehungsweise des Roboters selbst, kann anhand des kürzesten Abstands sehr einfach feststellen, ob eine Gefahr besteht, und übernimmt die eigentliche Absicherungsfunktion selbst. Alternativ erfolgt die Sicherheitsbewertung schon in dem 3D-Sensors.The 3D sensor preferably has a secure interface for outputting the shortest distances. Conventionally, such a secure interface of a sensor used in safety technology is a binary interface, via which a binary signal is output, whether a protective field violation exists (OSSD, Output Signal Switching Device). Instead, the current shortest distance is now provided safely for a connected controller. This control, such as the higher-level control of a robot cell or the control of the machine or of the robot itself, can very easily determine on the basis of the shortest distance whether there is a danger and takes over the actual safety function. Alternatively, the safety assessment is carried out already in the 3D system. sensor.
Der 3D-Sensor ist bevorzugt für ein Detektionsvermögen ausgelegt, bei dem Objekte ab einer Mindestgröße sicher erfasst werden, wobei für die Bestimmung des kürzesten Abstands nur Objekte der Mindestgröße berücksichtigt sind. Das Detektionsvermögen ist eine in den einschlägigen Normen spezifizierte Eignung eines sicheren Sensors, Objekte einer Mindestgröße im gesamten Überwachungsbereich sicher zu erfassen. Die entsprechende Auslegung des Sensors betrifft seinen Aufbau, also seine Optik, seinen Lichtempfänger und weitere mögliche, noch nicht genannte Komponenten wie etwa eine Beleuchtung, und die sichere Auswertung. Das Detektionsvermögen schließt erst einmal nicht aus, dass auch kleinere Objekte erfasst werden. Für Objekte, die kleiner sind als die Mindestgröße, ist aber der Schutz nicht garantiert, beispielsweise wird ein Finger bei einem für Armschutz ausgelegten Sensor nicht sicher erfasst. Deshalb werden Objekte kleiner als die Mindestgröße möglicherweise mittels Filtern in der Auswertung ausgeschlossen. Es ist auch möglich, eine Mindestgröße oberhalb des Detektionsvermögens zu wählen, also eine an sich bereitgestellte Auflösung nicht auszunutzen. Als Zahlenbeispiele seien 14 mm für Fingerschutz oder im Bereich von 30 bis 80 mm für den Schutz von Extremitäten, insbesondere 55 mm für Oberarmschutz, oder 200 mm für den Körper genannt.The 3D sensor is preferably designed for a detection capability in which objects of a minimum size are reliably detected, with only objects of the minimum size being taken into account for determining the shortest distance. The detection capability is a suitability of a safe sensor specified in the relevant standards to safely detect objects of a minimum size in the entire surveillance area. The corresponding design of the sensor relates to its structure, so its optics, its light receiver and other possible, not yet mentioned components such as lighting, and the safe evaluation. The detection capability does not rule out that even smaller objects are detected. For objects that are smaller than the minimum size, however, the protection is not guaranteed, for example, a finger is not reliably detected in a sensor designed for arm protection. Therefore, objects smaller than the minimum size may be excluded by filtering in the evaluation. It is also possible to select a minimum size above the detection capability, ie not to exploit a resolution provided per se. Number examples are 14 mm for finger protection or in the range of 30 to 80 mm for the protection of extremities, in particular 55 mm for upper arm protection, or 200 mm for the body.
Die Steuer- und Auswertungseinheit ist vorzugsweise als eingebettetes System implementiert. Durch Embedded-Hardware, wie SoC (System on chip) oder FPGA (Field Programmable Gate Array) wird eine kompakte, in sich geschlossene Architektur des 3D-Sensors ermöglicht. Aufgrund der erfindungsgemäßen Bestimmung kürzester Abstände reichen die begrenzten Rechenkapazitäten dennoch für eine Echtzeitberechnung aus. Die Implementierung lässt sich auch effizient zwischen einem Mikroprozessor und einem FPGA beziehungsweise ASIC (Application-Specific Integrated Circuit) aufteilen, beispielsweise in dem das FPGA direkt auf einen RAM-Speicher zugreift, den der Mikroprozessor beschreibt. Alternativ zu einem eingebetteten System ist beispielsweise ein Szenario denkbar, in dem ein Sensor oder mehrere Sensoren die Objekterfassung leisten, etwa in Form von Detektionskarten, und die Abstandsberechnung erfolgt dann auf einem Zentralrechner beziehungsweise in einer übergeordneten Steuerung auf Basis der fusionierten Sensordaten.The control and evaluation unit is preferably implemented as an embedded system. Embedded hardware such as SoC (System on chip) or FPGA (Field Programmable Gate Array) enables a compact, self-contained architecture of the 3D sensor. Due to the determination according to the invention of the shortest distances, the limited computing capacities nevertheless suffice for a real-time calculation. The implementation can also be divided efficiently between a microprocessor and an application-specific integrated circuit (FPGA) or ASIC, for example, in which the FPGA directly accesses a RAM memory which the microprocessor describes. As an alternative to an embedded system, for example, a scenario is conceivable in which one or more sensors perform the object detection, for example in the form of detection cards, and the distance calculation then takes place on a central computer or in a higher-level controller based on the fused sensor data.
Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, einen vorausberechneten Abstand zu einem Zwischenbezugsbereich aus dem Speicher zu lesen und daraus den kürzesten Abstand zu bestimmen. In dieser Ausführungsform ist zumindest ein Teil der vorausberechneten Abstände noch nicht das endgültige Ergebnis, sondern wird noch verfeinert. Alternativ werden die aus dem Speicher gelesenen Abstände unmittelbar als kürzester Abstand für den diskretisierten Ort des Objekts verwendet. Es ist auch denkbar, für erfasste Objekte in manchen Teilbereichen des Überwachungsbereichs eine verfeinernde Nachberechnung vorzunehmen und in anderen nicht.The control and evaluation unit is preferably designed to read a predicted distance to an intermediate reference region from the memory and to determine therefrom the shortest distance. In this embodiment, at least some of the predicted distances are not yet the final result, but will be refined. Alternatively, the distances read from the memory are used immediately as the shortest distance for the discretized location of the object. It is also conceivable to carry out a refining recalculation for detected objects in some subareas of the surveillance area and not in others.
Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, für verschiedene Bereiche des Überwachungsbereichs kürzeste Abstände zu dem Bezugsvolumen zu berechnen und in dem Speicher abzulegen. In dieser Ausführungsform ist der 3D-Sensor selbst in der Lage, sich die Abstände vorauszuberechnen. Alternativ geschieht dies auf einem externen Rechner, beispielsweise einem Konfigurationsrechner oder in einem Netzwerk beziehungsweise einer Cloud, und die vorausberechneten Abstände werden anschließend in den Speicher des 3D-Sensors übertragen. Die in dem 3D-Sensor implementierte Berechnung von kürzesten Abständen kann auch zur Laufzeit verwendet werden, etwa wenn ausnahmsweise eine höhere Genauigkeit benötigt wird oder für einen Teilbereich, in dem ein Objekt erfasst wurde, keine vorausberechneten Abstände vorliegen.The control and evaluation unit is preferably designed to calculate shortest distances to the reference volume for different areas of the monitoring area and store them in the memory. In this embodiment, the 3D sensor itself is able to predict the distances. Alternatively, this is done on an external computer, such as a Configuration computer or in a network or a cloud, and the precalculated distances are then transferred to the memory of the 3D sensor. The calculation of shortest distances implemented in the 3D sensor can also be used at runtime, for example if a higher accuracy is required as an exception or for a subarea in which an object was detected, there are no predicted distances.
In dem Speicher sind vorausberechnete Abstände vorzugsweise in einem 3D-Raster des Überwachungsbereichs abgelegt. Das 3D-Raster deckt zumindest den relevanten Teil des Überwachungsbereichs ab, in dem Objekte erfasst werden sollen, vorzugsweise den gesamten Arbeitsbereich des 3D-Sensors. Zur Laufzeit werden die erfassten Objekte in das 3D-Raster eingeordnet. Sofern eine Detektionskarte erstellt wird, deren Pixel genau an den Positionen besetzt sind, in denen relevante Objekte erfasst wurden, ist damit die laterale Diskretisierung schon vorgenommen, und es wird nur noch der Tiefenwert entsprechend der Tiefenauflösung des 3D-Rasters diskretisiert. Das 3D-Raster ist vorzugsweise nur in lateraler Richtung regelmäßig im Sinne eines Rechteckgitters. Um der Zentralperspektive des 3D-Sensors zu entsprechen, wird das Rechteckgitter vorzugsweise mit zunehmendem Tiefenwert zentrisch gestreckt, die Rasterelemente sind also keine Quader, sondern Pyramidenstümpfe.Pre-calculated distances are preferably stored in the memory in a 3D raster of the monitoring area. The 3D raster covers at least the relevant part of the surveillance area in which objects are to be detected, preferably the entire working area of the 3D sensor. At runtime, the captured objects are placed in the 3D grid. If a detection map is created whose pixels are occupied exactly at the positions in which relevant objects were detected, so that the lateral discretization is already made, and it is only the depth value corresponding to the depth resolution of the 3D grid discretized. The 3D grid is preferably only in the lateral direction regularly in the sense of a rectangular grid. In order to correspond to the central perspective of the 3D sensor, the rectangular grid is preferably centered with increasing depth value, so the grid elements are not cuboids, but truncated pyramids.
Rasterelemente des 3D-Rasters werden vorzugsweise mit zunehmender Entfernung von dem 3D-Sensor höher. Das betrifft nicht die laterale Vergrößerung durch die Zentralperspektive, sondern eine zusätzliche Vergrößerung in der Tiefenrichtung. Die Tiefenschätzung wird für größere Entfernungen ungenauer, und daher reicht es dann auch aus, mit in Tiefenrichtung gröberen Rasterelementen größerer Höhe zu arbeiten.Raster elements of the 3D grid preferably become higher with increasing distance from the 3D sensor. This does not affect the lateral magnification through the central perspective, but an additional magnification in the depth direction. The depth estimate becomes more inaccurate for longer distances, and so it is sufficient to work with coarser grid elements of greater height in the depth direction.
Bei der Bestimmung eines vorausberechneten Abstands eines Rasterelements des 3D-Rasters wird bevorzugt der kürzeste Abstand zu einer Sichtlinie von dem 3D-Sensor durch das Rasterelement selbst und den aus Sicht des 3D-Sensors dahinter liegenden Teil der Sichtlinie, insbesondere einem Abschattungsvolumen aus dem Rasterelement selbst und den in Sichtrichtung des 3D-Sensors dahinterliegenden Rasterelementen bestimmt. Damit wird die projektive Abschattung, Okklusion oder Verdeckung aus der Zentralperspektive des 3D-Sensors berücksichtig, d. h. die Projektion eines Objekts längs der Sichtlinie von dem 3D-Sensor in die Ferne. Der nicht einsehbare projektive Schatten wird vorsichtshalber als von einem Objekt mitbelegt angesehen. Der Abstand des projektiven Schattens eines Rasterelements zu einem Bezugsvolumen kann kürzer sein als derjenige des Rasterelements, und das ist dann aus Sicherheitsüberlegungen der richtige Wert.When determining a predicted distance of a raster element of the 3D raster, the shortest distance to a line of sight from the 3D sensor is preferably the raster element itself and the part of the line of sight behind the 3D sensor, in particular a shading volume from the raster element itself and determined in the viewing direction of the 3D sensor raster elements behind. Thus, the projective shading, occlusion or occlusion from the central perspective of the 3D sensor is considered, d. H. the projection of an object along the line of sight from the 3D sensor into the distance. The non-observable projective shadow is considered as a precaution as being occupied by an object. The distance of the projective shadow of a raster element to a reference volume may be shorter than that of the raster element, and this is then the correct value for safety reasons.
Das Abschattungsvolumen wird bevorzugt für die Bestimmung eines vorausberechneten Abstands mit einem Zylinder mit endseitigen Halbkugeln umhüllt. Damit wird das Abschattungsvolumen überschätzt, was für die Sicherheit unbedenklich ist. Dafür werden die Berechnungen einfacher. Diese Berechnungen erfolgen zwar nicht zur Laufzeit, aber auch vorab stehen nicht beliebige Rechenressourcen zur Verfügung beziehungsweise es hat Vorteile, die Wartezeiten abzukürzen, bis eine Konfiguration getestet oder in Betrieb genommen werden kann.The shading volume is preferably enveloped for the determination of a predicted distance with a cylinder with end hemispheres. This overestimates the shading volume, which is safe for safety. This will make the calculations easier. Although these calculations are not performed at runtime, there are also no arbitrary computing resources available in advance, or there are advantages to shortening the waiting times until a configuration can be tested or put into operation.
Diskretisierungsfehler der vorausberechneten Abstände sind vorzugsweise konservativ unterschätzt. Durch die Einordnung in ein 3D-Raster entstehen Diskretisierungsfehler. Aus Gründen der Sicherheit sollte hier nicht einfach gerundet werden, mit der Folge, dass ein kürzester Abstand überschätzt und damit eventuell eine Gefahr zu spät bemerkt wird. Vielmehr wird vorsichtshalber jeder vorausberechnete Abstand so korrigiert, dass Ungenauigkeiten stets nur zu einem Unterschätzen des kürzesten Abstands und deshalb womöglich zu einer unnötigen sicherheitsgerichteten Reaktion, jedoch keiner Gefährdung führen. Beispielsweise wird dazu immer angenommen, dass sich ein Objekt in einem Rasterelement an dessen dem Bezugsvolumen nächsten Punkt befindet.Discretization errors of the predicted distances are preferably conservatively underestimated. The classification into a 3D raster causes discretization errors. For reasons of safety, it should not be rounded here, with the result that a shortest distance overestimates and thus possibly a danger is noticed too late. Rather, as a precaution, each precalculated distance is corrected so that inaccuracies always lead to an underestimation of the shortest distance and therefore possibly to an unnecessary safety-related response, but no hazard. For example, it is always assumed that an object in a raster element is at its closest point to the reference volume.
Vorzugsweise ist je ein Satz vorausberechneter Abstände je Bezugsvolumen gespeichert. Damit werden komplexe Überwachungsaufgaben mit mehreren parallel überwachten Bezugsvolumina und/oder dynamisch sich verändernden Bezugsvolumina aufgeteilt. Die jeweiligen Sätze oder Nachschlagtabellen vorausberechneter Abstände werden im Speicher des Sensors gespeichert, so dass dieser direkt Zugriff hat, oder sie dienen als externe Bausteine, aus denen je nach Situation vorausberechnete Abstände für den Speicher des Sensors zusammengestellt werden.Preferably, one set of predicted distances per reference volume is stored. Thus, complex monitoring tasks with several parallel monitored reference volumes and / or dynamically changing reference volumes are divided. The respective sets or look-up tables of predicted distances are stored in the memory of the sensor so that it has direct access, or they serve as external components from which, depending on the situation, pre-calculated distances for the memory of the sensor are compiled.
Bezugsvolumina sind vorzugsweise aktivierbar, und vorausberechnete Abstände zu mindestens einer Kombination parallel aktiver Bezugsvolumina sind aus vorausberechneten Abständen je Bezugsvolumen zusammengestellt. Das dient dazu, parallel mehrere Bezugsvolumina zu überwachen, etwa mehrere Maschinen oder verschiedene Bereiche derselben Maschine. Die Sätze vorausberechneter Abstände je Bezugsvolumen, oder die Nachschlagtabellen, bilden eine Art Baukastensystem, aus dem die für die Überwachungssituation erforderlichen Bausteine oder Nachschlagtabellen entsprechend der aktiven Bezugsvolumina zusammengefügt werden. Dadurch können die Bezugsvolumina in beliebiger Kombination und bis zur Grenze des Speichers und Speicherdurchsatzes beliebiger Anzahl aktiv sein, während dennoch mit vorausberechneten Abständen gearbeitet wird. Nachschlagtabellen können derart zusammengeführt sein, dass darin für jedes Rasterelement mehrere Einträge entsprechend der einzelnen aktiven Bezugsvolumina vorgenommen werden. Alternativ werden die kürzesten Abstände zu dem jeweils kürzesten Abstand nur zu dem nächsten Bezugsvolumen konsolidiert. Damit kann dann natürlich nur noch ein globaler kürzester Abstand zu allen Bezugsvolumina gemeinsam bestimmt werden, nicht mehr zu den einzelnen Bezugsvolumina und ohne zu wissen, welches konkrete Bezugsvolumen das nächste ist.Reference volumes are preferably activatable, and precalculated distances to at least one combination of parallel active reference volumes are compiled from predicted distances per reference volume. This serves to monitor several reference volumes in parallel, such as several machines or different areas of the same machine. The sets of predicted distances per reference volume, or look-up tables, form a kind of modular system from which the building blocks or look-up tables necessary for the monitoring situation are assembled according to the active reference volumes. This allows the reference volumes in any combination and up to the limit of memory and Memory throughput of any number can be active while still working with pre-calculated distances. Lookup tables may be merged such that for each raster element, multiple entries corresponding to the individual active reference volumes are made therein. Alternatively, the shortest distances to the shortest distance are consolidated only to the next reference volume. Of course, this means that only a global shortest distance to all reference volumes can be determined together, no longer to the individual reference volumes and without knowing which concrete reference volume is the next one.
Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, auf eine andere Kombination aktiver Bezugsvolumina umzuschalten. Dazu werden vorzugsweise die Sätze von vorausberechneten Abständen je Bezugsvolumen neu kombiniert. Die wechselnden Bezugsvolumina bilden eine Dynamik des überwachten Arbeitsprozesses ab, etwa wenn ein Roboter seinen Arbeitsbereich wechselt. Im Prinzip wäre es denkbar, die Bezugsvolumina großzügig zu definieren, so dass sie alle Phasen des Prozessablaufs zugleich abdecken. Wechselnde Bezugsvolumina können aber viel kleiner bleiben, da sie nur die aktuell relevanten Teilbereiche umfassen.The control and evaluation unit is preferably designed to switch to another combination of active reference volumes. For this purpose, the sets of predicted distances per reference volume are preferably recombined. The changing reference volumes represent a dynamic of the monitored work process, such as when a robot changes its workspace. In principle, it would be conceivable to generously define the reference volumes so that they cover all phases of the process flow at the same time. However, changing reference volumes can remain much smaller since they only include the currently relevant subareas.
Einzelne oder mehrere vorbereitende Schritte, bis die für die nächste Betriebsphase erforderlichen vorausberechneten Abstände in dem Speicher des 3D-Sensors bereitliegen, können je nach Ausführungsform in dem 3D-Sensor selbst und/oder extern beispielsweise in einem Konfigurationsrechner, einer übergeordneten Steuerung oder einer Cloud mit anschließendem Übertragen der Ergebnisse in den Speicher des 3D-Sensors abgearbeitet werden.Individual or several preparatory steps until the precalculated distances required for the next phase of operation are available in the memory of the 3D sensor, depending on the embodiment in the 3D sensor itself and / or externally, for example in a configuration computer, a higher-level controller or a cloud subsequent transfer of the results are processed in the memory of the 3D sensor.
In dem Speicher ist bevorzugt zu einem vorausberechneten Abstand eine Zusatzinformation gespeichert, die den Abstand oder den Bezugspunkt, zu dem der Abstand besteht, weiter charakterisiert. Beispielsweise wird durch eine Zusatzinformation angegeben, zu welchem konkreten geometrischen Punkt einer Gefahrenstelle oder Maschine der kürzeste Abstand besteht, oder es wird näher beschrieben, was sich dort befindet. Beispielsweise ist eine Werkzeugspitze unter Umständen sicherheitstechnisch anders zu bewerten als ein nur wenig bewegter, stumpfer Gelenkbereich.In the memory, additional information is preferably stored at a predicted distance which further characterizes the distance or reference point to which the distance exists. For example, it is indicated by additional information to which specific geometric point of a danger point or machine the shortest distance exists, or it will be described in more detail what is there. For example, under certain circumstances, a tool tip may have a different safety-related evaluation than a slightly moving, blunt joint region.
Zumindest einige der vorausberechneten Abstände sind vorzugsweise relativ zu anderen vorausberechneten Abständen gespeichert. Insbesondere stehen nur für einige Rasterelemente, etwa die oberste, dem 3D-Sensor zugewandte Schicht, Absolutwerte zur Verfügung, während die übrigen vorausberechneten Abstände nur die Differenz zu diesen Absolutwerten direkt oder kaskadierend angeben. Das ist eine speichereffiziente Kodierung oder Komprimierung, mit der weniger Speicherbedarf besteht. Inkrementelle Komprimierung ermöglicht geringerer Speicherverbrauch At least some of the predicted distances are preferably stored relative to other predicted distances. In particular, absolute values are available only for some raster elements, for example the uppermost layer facing the 3D sensor, while the remaining predicted distances indicate only the difference to these absolute values directly or cascadingly. This is a memory-efficient encoding or compression that requires less memory. Incremental compression allows lower memory usage
In bevorzugter Weiterbildung werden mehrere 3D-Sensoren zu einem Sensorverbund zusammengeschlossen, die einander in ihren Überwachungsbereichen und/oder ihrer Perspektive ergänzen. Ein möglicher Vorteil ist, durch gegenseitige Ergänzung einen insgesamt größeren Überwachungsbereich zu erfassen. Außerdem sind unterschiedliche Perspektiven hilfreich, um Abschattungen zu verringern. Um die gemeinsame Auswertung besonders einfach zu halten, werden zunächst kürzeste Abstände aus Sicht der einzelnen 3D-Sensoren bestimmt und anschließend zwischen den 3D-Sensoren verglichen und verrechnet, um den kürzesten Abstand für den Sensorverbund zu finden. Prinzipiell können Objektpositionen oder Empfangssignale, insbesondere 3D-Punktewolken, auch früher in der Verarbeitungskette fusioniert werden, der Sensorverbund entspricht dann einem mächtigeren 3D-Sensor mit größerem Sichtfeld und/oder weniger Abschattung.In a preferred embodiment, a plurality of 3D sensors are combined to form a sensor network, which complement each other in their monitoring areas and / or their perspective. A possible advantage is to capture a larger surveillance area by mutual complementation. In addition, different perspectives are helpful to reduce shadowing. In order to keep the joint evaluation particularly simple, the shortest distances are first determined from the point of view of the individual 3D sensors and then compared and calculated between the 3D sensors in order to find the shortest distance for the sensor network. In principle, object positions or received signals, in particular 3D point clouds, can also be fused earlier in the processing chain; the sensor network then corresponds to a more powerful 3D sensor with a larger field of view and / or less shading.
Die Erfindung wird nachstehend auch hinsichtlich weiterer Merkmale und Vorteile beispielhaft anhand von Ausführungsformen und unter Bezug auf die beigefügte Zeichnung näher erläutert. Die Abbildungen der Zeichnung zeigen in:
-
1 eine schematische dreidimensionale Darstellung eines 3D-Sensors und seines Überwachungsbereichs; -
2 eine beispielhafte Überwachungssituation mit mehreren Gefahrenstellen und Objekten; -
3 eine schematische Seitenansicht einer beispielhaften Erfassungssituation einer Person in der Nähe einer Gefahrenstelle; -
4 eine Darstellung eines 3D-Rasters für die Vorausberechnung von kürzesten Abständen; -
5 eine Darstellung der Rasterelemente eines Sichtstrahls des 3D-Sensors; und -
6a-b eine weitere Darstellung der Rasterelemente eines Sichtstrahls sowie eine vereinfachende Umhüllung mit einem Zylindermodell.
-
1 a schematic three-dimensional representation of a 3D sensor and its monitoring area; -
2 an exemplary monitoring situation with several danger points and objects; -
3 a schematic side view of an exemplary detection situation of a person in the vicinity of a danger point; -
4 a representation of a 3D grid for the precalculation of shortest distances; -
5 a representation of the raster elements of a viewing beam of the 3D sensor; and -
6a-b a further illustration of the raster elements of a viewing beam and a simplistic enclosure with a cylinder model.
Zur Erfassung eines Überwachungs- oder Raumbereichs
Zwischen den beiden Bildsensoren
Mit den beiden Bildsensoren
Die Steuer- und Auswertungseinheit
Eine wichtige sicherheitstechnische Anwendung des 3D-Sensors
Die Sicherheitsbewertung basiert auf einer Abstandsüberwachung, die nun zunächst unter Bezugnahme auf die
Eine Gefahrenstelle
Mehrere Gefahrenstellen
Objekte
Im Beispiel der
Die Steuer- und Auswertungseinheit
In
Der jeweils zuletzt bezüglich einer Gefahrenstelle
Die Abstandsberechnung ist ein äußerst rechenintensiver Prozess, da für den Vergleich zum Auffinden des kürzesten Abstands zwischen einer Vielzahl von Raumpunkten von Gefahrenstelle
Die Vorbereitung von Nachschlagtabellen für eine nachfolgende Betriebsphase geschieht vorzugsweise in mehreren Schritten. Zunächst wird für jede Gefahrenstelle
Die
Das 3D-Raster 34 deckt vorzugsweise, aber nicht notwendigerweise den gesamten Arbeitsbereich des 3D-Sensors
Die konkrete geometrische Abstandsbestimmung im dreidimensionalen Raum ist rechenintensiv, zumal vorzugsweise beliebig komplexe Formen der Gefahrenstelle
Nachdem der vorausberechnete Abstand für das oberste Rasterelement
Es ist denkbar, in der Nachschlagtabelle zur Datenkomprimierung inkrementelle Werte zu speichern. Beispielsweise wird nur für die oberste Schicht von Rasterelementen
Bisher wurde bei der Abstandsberechnung entweder ein Abstand zu dem im Prinzip unendlich dünnen Geradensegment des Sichtstrahls
Auf die beschriebene Weise wird jeweils eine Nachschlagtabelle oder HDM für jede Gefahrenstelle
Die kombinierte Nachschlagtabelle beinhaltet gemeinsam alle vorausberechneten Abstände für eine bestimmte Konfiguration aktiver Gefahrenstellen
Die kombinierten Nachschlagtabellen werden beispielsweise noch zur Konfigurationszeit oder beim Booten des Systems aus den einzelnen Nachschlagtabellen fusioniert. Jedenfalls liegt dann für den Betrieb für jede im Prozessablauf benötigte parallele Aktivierung von Gefahrenstellen
Zur Laufzeit wird dann zunächst mit den aktiven Gefahrenstellen
Jeder Objektpunkt der erfassten, relevanten Objekte
Ein einfacher Vergleich der so aufgefundenen kürzesten Abstände je Objektpunkt, der auch schon sukzessive in dem Durchgang durch die Objektpunkte zum jeweiligen Nachschlagen beziehungsweise Berechnen von deren Abstand zur nächsten Gefahrenstelle
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 2007156372 A1 [0013]US 2007156372 A1 [0013]
- EP 3200122 A1 [0050, 0051]EP 3200122 A1 [0050, 0051]
Zitierte Nicht-PatentliteraturCited non-patent literature
- ISO 10218 [0006]ISO 10218 [0006]
- ISO 15066 [0006]ISO 15066 [0006]
- ISO 13855 [0006]ISO 13855 [0006]
- ISO 13857 [0006]ISO 13857 [0006]
- D. G. Bailey, „An efficient euclidean distance transform.“ International workshop on combinatorial image analysis. Springer, Berlin, Heidelberg, 2004, S. 394-408 [0010]D.G. Bailey, "An efficient euclidean distance transform." International workshop on combinatorial image analysis. Springer, Berlin, Heidelberg, 2004, p. 394-408 [0010]
- T. Schouten et al. „Fast exact Euclidean distance (FEED) transformation.“ Pattern Recognition, 2004. ICPR 2004 [0011]T. Schouten et al. "Fast-accurate Euclidean distance (FEED) transformation." Pattern Recognition, 2004. ICPR 2004 [0011]
Claims (13)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202018103869.9U DE202018103869U1 (en) | 2018-07-06 | 2018-07-06 | 3D sensor for monitoring a surveillance area |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202018103869.9U DE202018103869U1 (en) | 2018-07-06 | 2018-07-06 | 3D sensor for monitoring a surveillance area |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202018103869U1 true DE202018103869U1 (en) | 2019-10-10 |
Family
ID=68419418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202018103869.9U Expired - Lifetime DE202018103869U1 (en) | 2018-07-06 | 2018-07-06 | 3D sensor for monitoring a surveillance area |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE202018103869U1 (en) |
-
2018
- 2018-07-06 DE DE202018103869.9U patent/DE202018103869U1/en not_active Expired - Lifetime
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3421189B1 (en) | Method for monitoring a machine | |
EP2275990B1 (en) | 3D sensor | |
EP3578320B1 (en) | Configuring a hazardous area monitored by a 3d sensor | |
EP2275989B1 (en) | Stereoscopic 3D camera | |
EP2406769B1 (en) | Method and apparatus for reducing the memory requirement for determining disparity values for at least two stereoscopically recorded images | |
EP2854106B1 (en) | 3D camera according to the stereoscopy principle and method for recording depth maps | |
DE102007007576B4 (en) | Method and device for securing a working space | |
EP3578319B1 (en) | Method for securing a hazardous area | |
DE102020206759A1 (en) | Method and processing system for updating a first image generated by a first camera based on a second image generated by a second camera | |
EP3573021B1 (en) | Visualising 3d image data | |
EP3611422A1 (en) | Sensor assembly and method for securing a supervised area | |
EP2819109B1 (en) | Optoelectronic 3D-sensor and method for recognising objects | |
DE102018116371B4 (en) | 3D sensor and method for monitoring a surveillance area | |
EP3572971B1 (en) | Securing a surveillance area with at least one machine | |
DE102017129609A1 (en) | Recognition of changes in a coverage area | |
DE102009026091A1 (en) | Method for monitoring three-dimensional spatial area, particularly work cell of automatic working machine, for e.g. robot, involves accomplishing independent scene analysis of images in or for each camera | |
DE202018103869U1 (en) | 3D sensor for monitoring a surveillance area | |
EP2818824B1 (en) | Apparatus comprising an optoelectronic 3D-sensor and method for recognising objects | |
EP3893145B1 (en) | Protection of hazardous location | |
EP2549431B1 (en) | Image fusion for surveillance of a hazardous area | |
DE102019127826B4 (en) | Safe optoelectronic sensor and method for securing a surveillance area | |
EP3663800B1 (en) | Method for detecting objects using a 3d camera | |
EP3496398B1 (en) | Secure stereo camera and method for testing the functionality of the image sensors | |
EP3465608B1 (en) | Method and device for determining a transfer between two display images, and vehicle | |
DE3446009C2 (en) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R207 | Utility model specification | ||
R156 | Lapse of ip right after 3 years |