DE102019127826B4 - Safe optoelectronic sensor and method for securing a surveillance area - Google Patents

Safe optoelectronic sensor and method for securing a surveillance area Download PDF

Info

Publication number
DE102019127826B4
DE102019127826B4 DE102019127826.0A DE102019127826A DE102019127826B4 DE 102019127826 B4 DE102019127826 B4 DE 102019127826B4 DE 102019127826 A DE102019127826 A DE 102019127826A DE 102019127826 B4 DE102019127826 B4 DE 102019127826B4
Authority
DE
Germany
Prior art keywords
sensor
event
evaluation unit
designed
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019127826.0A
Other languages
German (de)
Other versions
DE102019127826A1 (en
Inventor
Christoph Hofmann
Romain MÜLLER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sick AG filed Critical Sick AG
Priority to DE102019127826.0A priority Critical patent/DE102019127826B4/en
Publication of DE102019127826A1 publication Critical patent/DE102019127826A1/en
Application granted granted Critical
Publication of DE102019127826B4 publication Critical patent/DE102019127826B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/142Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/144Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using light grids

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

Sicherer optoelektronischer Sensor (10) zum Absichern eines Überwachungsbereichs (12) mit mindestens einer Maschine (24), insbesondere einem Roboter, wobei der Sensor (10) einen Bildsensor (14) mit einer Vielzahl von Pixelelementen zum Erzeugen von Bilddaten von Objekten (24, 26) in dem Überwachungsbereich (12) und eine Steuer- und Auswertungseinheit (18) aufweist, die dafür ausgebildet ist, anhand der Bilddaten Objekte (24, 26) zu erfassen und zumindest deren Position zu bestimmen und zu bewerten, um im Falle einer Gefahr auf die Maschine (24) einzuwirken, dadurch gekennzeichnet, dass der Bildsensor (14) ein ereignisbasierter Bildsensor ist, der durch zweikanalige oder selbstprüfende Architektur und/oder durch Plausibilisierungen der Bilddaten mittels der Steuer- und Auswertungseinheit (18) als sicherer ereignisbasierter Bildsensor (14) ausgebildet ist, und dass die Steuer- und Auswertungseinheit dafür ausgebildet ist, von den Pixelelementen erfasste Ereignisse als bewegte Objekte zu behandeln.Safe optoelectronic sensor (10) for securing a monitoring area (12) with at least one machine (24), in particular a robot, the sensor (10) having an image sensor (14) with a large number of pixel elements for generating image data of objects (24, 26) in the monitoring area (12) and a control and evaluation unit (18) which is designed to use the image data to detect objects (24, 26) and to at least determine and evaluate their position in order to prevent danger to act on the machine (24), characterized in that the image sensor (14) is an event-based image sensor, which by means of two-channel or self-checking architecture and / or by plausibility checks of the image data by means of the control and evaluation unit (18) as a safe event-based image sensor (14 ) is designed, and that the control and evaluation unit is designed to include events detected by the pixel elements as moving objects to treat.

Description

Die Erfindung betrifft einen sicheren optoelektronischen Sensor, insbesondere eine sichere Kamera, und ein Verfahren zum Absichern eines Überwachungsbereichs nach dem Oberbegriff von Anspruch 1 beziehungsweise 14.The invention relates to a safe optoelectronic sensor, in particular a safe camera, and a method for protecting a surveillance area according to the preamble of claims 1 and 14, respectively.

Das primäre Ziel der Sicherheitstechnik ist, Personen vor Gefahrenquellen zu schützen, wie sie beispielsweise Maschinen im industriellen Umfeld darstellen. Die Maschine wird mit Hilfe von Sensoren überwacht, und wenn demnach eine Situation vorliegt, in der eine Person gefährlich nahe an die Maschine zu gelangen droht, wird eine geeignete Absicherungsmaßnahme ergriffen. Das gängige Absicherungskonzept sieht vor, dass Schutzfelder konfiguriert werden, die während des Betriebs der Maschine vom Bedienpersonal nicht betreten werden dürfen. Erkennt der Sensor einen unzulässigen Schutzfeideingriff, etwa ein Bein einer Bedienperson, so löst er einen sicherheitsgerichteten Halt der Maschine aus.The primary goal of safety technology is to protect people from sources of danger, such as those presented by machines in an industrial environment. The machine is monitored with the help of sensors, and if there is a situation in which a person threatens to get dangerously close to the machine, a suitable safety measure is taken. The current protection concept provides that protective fields are configured that are not allowed to be entered by the operating personnel while the machine is in operation. If the sensor detects an impermissible protective field intervention, for example an operator's leg, it triggers a safety-related stop of the machine.

In der Sicherheitstechnik eingesetzte Sensoren müssen besonders zuverlässig arbeiten und deshalb hohe Sicherheitsanforderungen erfüllen, beispielsweise die Norm EN13849 für Maschinensicherheit und die Gerätenorm IEC61496 oder EN61496 für berührungslos wirkende Schutzeinrichtungen (BWS). Zur Erfüllung dieser Sicherheitsnormen sind eine Reihe von Maßnahmen zu treffen, wie sichere elektronische Auswertung durch redundante, diversitäre Elektronik, Funktionsüberwachung oder speziell Überwachung der Verschmutzung optischer Bauteile.Sensors used in safety technology must work particularly reliably and therefore meet high safety requirements, for example the EN13849 standard for machine safety and the IEC61496 or EN61496 device standard for electro-sensitive protective devices (ESPE). A number of measures must be taken to meet these safety standards, such as safe electronic evaluation through redundant, diverse electronics, function monitoring or, in particular, monitoring of the contamination of optical components.

Durch den zunehmenden Einsatz von Robotern oder sogenannten Cobots (collaborative robot) im Industriebereich werden Sicherheitsaspekte und Mensch-Roboter-Kollaboration (MRK) immer wichtiger. Relevante Normen in diesem Zusammenhang sind beispielsweise die ISO 10218 für Industrieroboter oder die ISO/TS 15066 für kollaborierende Roboter. MRK erfordert per Definition ein Arbeiten sehr nah am Roboter. Schutzfelder und Sicherheitsabstände sollten folglich möglichst klein bleiben, natürlich unter der Vorgabe, dass die Sicherheit gewährleistet bleibt. Die Normen ISO13854 , ISO 13855 , ISO 13857 befassen sich mit der Festlegung von Sicherheitsabständen. Da sich die Gefährdung, der der Mensch ausgesetzt ist, nahezu kontinuierlich ändert, sind zugleich hochdynamische, situationsangepasste Sicherheitskonzepte gefragt. Die Kollaboration erfordert dabei ein sehr häufiges Anfordern der Sicherheitsfunktion.With the increasing use of robots or so-called cobots (collaborative robots) in the industrial sector, safety aspects and human-robot collaboration (HRC) are becoming more and more important. Relevant standards in this context are, for example ISO 10218 for industrial robots or the ISO / TS 15066 for collaborative robots. By definition, HRC requires working very close to the robot. Protective fields and safety distances should therefore remain as small as possible, of course subject to the stipulation that safety remains guaranteed. The norms ISO13854 , ISO 13855 , ISO 13857 deal with the definition of safety distances. Since the threat to which people are exposed changes almost continuously, highly dynamic, situation-adapted security concepts are also required. The collaboration requires the safety function to be requested very frequently.

Eine Bewertung von Objekten und Maschinen bezüglich Geschwindigkeit und gegenseitiger Entfernung wird in den genannten Roboternormen als „Speed and Separation Monitoring“ bezeichnet. Die meisten herkömmlichen sicheren überwachenden Sensoren, wie Laserscanner oder 3D-Kameras, unterstützen das aber nicht. Sie arbeiten weiterhin mit den üblichen Schutzfeldern, und sie liefern nur ein binäres Abschaltsignal, ob ein Schutzfeld verletzt ist oder nicht. Zwar ist die Sicherheit auf diese Weise gewährleistet, aber nicht besonders flexibel und auch häufig mit unnötigen Sicherheitszuschlägen und damit Einschränkungen der Verfügbarkeit, da die Schutzfelder für worst-case-Szenarien und nicht die tatsächliche aktuelle Situation konfiguriert sind.An evaluation of objects and machines in terms of speed and mutual distance is referred to as "Speed and Separation Monitoring" in the robot standards mentioned. Most conventional safe monitoring sensors, such as laser scanners or 3D cameras, do not support this. They continue to work with the usual protective fields, and they only provide a binary switch-off signal to indicate whether a protective field is violated or not. Security is guaranteed in this way, but not particularly flexible and often with unnecessary security surcharges and thus restrictions on availability, since the protective fields are configured for worst-case scenarios and not the actual current situation.

Es gibt im Stand der Technik auch einige Ansätze, um Abstände zwischen Maschine und möglicherweise zu nahe kommendem Objekt zu überwachen. Beispielsweise sind Stereokameras oder Lichtlaufzeitkameras bekannt, die entsprechende Abstandsinformationen erzeugen und ausgeben. Auch mit üblichen Bildkameras, die zweidimensionale Bilder liefern, lässt sich durch entsprechend aufwändige Bildauswertung für ein sicheres Umfeld sorgen. Speziell thermische Kameras können Lebewesen und Objekte unterscheiden.There are also some approaches in the prior art for monitoring the distances between the machine and an object that is possibly too close. For example, stereo cameras or time-of-flight cameras are known which generate and output corresponding distance information. Even with conventional image cameras that deliver two-dimensional images, a correspondingly complex image evaluation can be used to ensure a safe environment. Thermal cameras in particular can differentiate between living beings and objects.

Ein Nachteil von Bildkameras ist, dass Veränderungen durch Vergleichen zweier oder mehrerer Bilder erfasst werden. Dies bedarf aufwändiger Bildauswertung und daher hoher Rechenleistung. Als weiterer Nachteil kommt hinzu, dass die Informationen aufgrund der Framerate diskret sind. Was zwischen den Frames passiert, wird nicht gemessen. Durch Hochgeschwindigkeitskameras könnte ein höherer Informationsfluss erreicht werden, aber das funktioniert auch nur in Grenzen, und zu den hohen Hardwarekosten kommt die noch aufwändigere Verarbeitung der immensen Datenmengen hinzu. Weiterhin existieren Algorithmen, die beispielsweise den optischen Fluss bestimmen und damit vorhersagen, was zwischen den Frames beziehungsweise in künftigen Frames geschieht. Das bedeutet wiederum hohen Rechenaufwand und erzeugt weitere Fehler, da die echte Messinformation dieselbe bleibt.A disadvantage of image cameras is that changes are recorded by comparing two or more images. This requires complex image evaluation and therefore high computing power. Another disadvantage is that the information is discrete due to the frame rate. What happens between the frames is not measured. A higher flow of information could be achieved with high-speed cameras, but that only works to a limited extent, and in addition to the high hardware costs there is the even more complex processing of the immense amounts of data. There are also algorithms that determine the optical flow, for example, and thus predict what will happen between the frames or in future frames. This in turn means a high computational effort and generates further errors, since the real measurement information remains the same.

In jüngster Zeit ist eine neuartige Kameratechnik entstanden, die sogenannte ereignis- oder eventbasierte Kamera. Sie wird in Anlehnung an den visuellen Cortex auch als neuromorphologische Kamera bezeichnet. Dies wurde aber bisher in keinen Zusammenhang mit der Sicherheitstechnik oder gar der Mensch-Roboter-Kooperation gebracht. Eine herkömmliche Kamera belichtet mit einer regelmäßigen Frame- oder Bildwiederholrate alle ihre Pixel und liest sie dann gleichzeitig aus, um so eine der Bildwiederholrate entsprechende Anzahl stationärer zweidimensionaler Bilder pro betrachtetem Zeitraum zu gewinnen.Recently, a new type of camera technology has emerged, the so-called event-based or event-based camera. Based on the visual cortex, it is also referred to as a neuromorphological camera. So far, however, this has not been brought into connection with safety technology or even human-robot cooperation. A conventional camera exposes all of its pixels at a regular frame or image repetition rate and then reads them out simultaneously in order to obtain a number of stationary two-dimensional images per observed period corresponding to the image repetition rate.

In einer ereignisbasierten Kamera gibt es ebenfalls eine Matrix von Pixeln, aber weder eine feste Bildwiederholrate noch ein gemeinsames Auslesen von Pixeln. Stattdessen prüft jedes Pixel einzeln, ob es eine Änderung in der Intensität feststellt. Nur in diesem Fall wird eine Bildinformation ausgegeben beziehungsweise ausgelesen, und zwar nur von diesem Pixel. Jedes Pixel ist somit eine Art unabhängiger Bewegungsdetektor. Eine erfasste Bewegung wird individuell als Ereignis gemeldet. Dadurch reagiert die ereignisbasierte Kamera äußerst schnell auf die Dynamik in der Szene. Die Bilddaten sind für das menschliche Auge nicht so intuitiv zu erfassen, weil die statischen Bildanteile fehlen.In an event-based camera there is also a matrix of pixels, but neither a fixed frame rate nor a common one Reading out pixels. Instead, each pixel checks individually to see if it detects a change in intensity. Only in this case is image information output or read out, and only from this pixel. Each pixel is thus a kind of independent motion detector. A detected movement is reported individually as an event. As a result, the event-based camera reacts extremely quickly to the dynamics in the scene. The image data cannot be grasped so intuitively for the human eye because the static image components are missing.

Eine ereignisbasierte Kamera wird beispielsweise in einem Whitepaper der Firma Prophesee beschrieben, das auf deren Internetseite abgerufen werden kann.An event-based camera is described, for example, in a whitepaper from the Prophesee company, which can be found on their website.

Aus der WO 2015/036592 A1 , WO 2017/174579 A1 und WO 2018/073379 A1 sind jeweils Pixelschaltkreise für eine ereignisbasierte Kamera bekannt.From the WO 2015/036592 A1 , WO 2017/174579 A1 and WO 2018/073379 A1 pixel circuits for an event-based camera are known.

Die Arbeit von Gallego, Guillermo, Henri Rebecq, und Davide Scaramuzza, „A unifying contrast maximization framework for event cameras, with applications to motion, depth, and optical flow estimation“, IEEE Int. Conf. Comput. Vis. Pattern Recog.(CVPR), Vol. 1. 2018 stellt Verfahren vor, wie sich aus den Daten einer ereignisbasierten Kamera Bewegung, Entfernungen und optischer Fluss bestimmen lassen.The work of Gallego, Guillermo, Henri Rebecq, and Davide Scaramuzza, "A unifying contrast maximization framework for event cameras, with applications to motion, depth, and optical flow estimation", IEEE Int. Conf. Comput. Vis. Pattern Recog. (CVPR), Vol. 1. 2018 presents methods of how movement, distances and optical flow can be determined from the data from an event-based camera.

Die US 2013 / 0 335 595 A1 offenbart eine Vorrichtung und ein Verfahren zur ereignisbasierten Bildverarbeitung, konkret zur Bestimmung des optischen Flusses, der aber wie schon erwähnt ein recht komplexes und aufwändiges Werkzeug ist.The US 2013/0 335 595 A1 discloses a device and a method for event-based image processing, specifically for determining the optical flow, which, however, as already mentioned, is a very complex and expensive tool.

Die DE 10 2013 106 514 B3 offenbart ein Absichern einer automatisiert arbeitenden Maschine, die von einem Kamerasystem überwacht wird. Bei Erkennung eines Fremdobjekts in einem konfigurierten Schutzbereich wird eine sicherheitsrelevante Funktion ausgelöst, außer es wird durch Analyse der Kamerabilder festgestellt, dass es sich bei dem Fremdobjekt um einen Schweißfunken handelt.The DE 10 2013 106 514 B3 discloses securing an automated machine that is monitored by a camera system. When a foreign object is detected in a configured protection area, a safety-relevant function is triggered, unless it is determined by analyzing the camera images that the foreign object is a welding spark.

In der DE 10 2017 207 852 A1 wird eine Branddetektionsvorrichtung beschrieben, die einen flächigen Dynamic-Vision-Sensor verwendet.In the DE 10 2017 207 852 A1 describes a fire detection device that uses a two-dimensional dynamic vision sensor.

Vor diesem Hintergrund ist daher Aufgabe der Erfindung, die sichere optische Überwachung einer Maschine zu verbessern.Against this background, the object of the invention is therefore to improve the safe optical monitoring of a machine.

Diese Aufgabe wird durch einen sicheren optoelektronischen Sensor, insbesondere eine sichere Kamera, und ein Verfahren zum Absichern eines Überwachungsbereichs nach Anspruch 1 beziehungsweise 14 gelöst. Der Sensor ist sicher, also für eine sicherheitstechnische Anwendung ausgelegt, und erfüllt dafür die notwendigen der einleitend genannten oder entsprechenden Normen beziehungsweise Anforderungen, um eine gefahrbringende Maschine abzusichern. Es handelt sich insbesondere um eine Kamera. Als Maschine wird in dieser Beschreibung das Beispiel eines Roboters verwendet, wobei aber andere Maschinen mit gemeint sind, die eine Unfallgefahr vor allem für das Bedienpersonal darstellen. Speziell wird eine Mensch-Roboter-Kollaboration abgesichert.This object is achieved by a safe optoelectronic sensor, in particular a safe camera, and a method for securing a surveillance area according to claims 1 and 14, respectively. The sensor is safe, i.e. designed for a safety-related application, and therefore fulfills the necessary standards or requirements of the standards or requirements mentioned in the introduction in order to protect a hazardous machine. In particular, it is a camera. The example of a robot is used as the machine in this description, but also includes other machines that pose a risk of accidents, especially for the operating personnel. A human-robot collaboration is specially safeguarded.

Der Sensor weist mindestens einen Bildsensor mit einer Vielzahl von Pixelelementen auf, um Bilddaten von Objekten in einer Umgebung der Maschine zu erfassen. Diese Bilddaten werden in einer Steuer- und Auswertungseinheit verarbeitet, um die Objekte zu erfassen und zumindest deren Position zu bestimmen. Weiter unten werden auch andere Parameter genannt, die zusätzlich bestimmt werden können, wie der Abstand des Objekts zu der Maschine oder dessen Geschwindigkeit und weitere. Anhand der Position und gegebenenfalls weiterer Parameter wird die Gefahrenlage bewertet und erforderlichenfalls eine Gegenmaßnahme eingeleitet, um eine erkannte Gefahr auszuräumen. Je nach Situation kann diese Gegenmaßnahme in einer Verlangsamung der Bewegung, einem Ausweichen oder einem Anhalten bestehen. Die Steuer- und Auswertungseinheit kann zumindest teilweise extern außerhalb des eigentlichen Sensors implementiert sein, beispielsweise in einer an den Sensor angeschlossenen Sicherheitssteuerung und/oder in einer Robotersteuerung, und wird hier funktional dennoch dem Sensor zugerechnet.The sensor has at least one image sensor with a multiplicity of pixel elements in order to acquire image data of objects in the vicinity of the machine. These image data are processed in a control and evaluation unit in order to detect the objects and at least determine their position. Other parameters that can also be determined, such as the distance between the object and the machine or its speed, and others are also mentioned below. On the basis of the position and, if necessary, further parameters, the danger situation is evaluated and, if necessary, a countermeasure is initiated in order to eliminate a recognized danger. Depending on the situation, this countermeasure can consist of slowing down the movement, evasive action or stopping. The control and evaluation unit can at least partially be implemented externally outside the actual sensor, for example in a safety controller connected to the sensor and / or in a robot controller, and is functionally assigned to the sensor here.

Die Erfindung geht von dem Grundgedanken einer ereignisbasierten Absicherung aus. Der Bildsensor ist dafür ein ereignisbasierter oder neuromorphologischer Bildsensor anstelle eines herkömmlichen Bildsensors. Die Unterschiede wurden einleitend kurz diskutiert: Die Pixel erkennen jeweils Veränderungen in der Intensität, statt einfach die jeweilige Intensität zu messen. Eine solcher Veränderung, die vorzugsweise rasch genug sein und ein Rauschmaß übersteigen sollte, ist eines der namensgebenden Ereignisse. Zudem werden Signale nur bei einer solchen Veränderung in der Intensität bereitgestellt beziehungsweise ausgelesen werden, und zwar nur von dem betroffenen Pixel oder den betroffenen Pixeln.The invention is based on the basic idea of event-based protection. The image sensor is an event-based or neuromorphological image sensor instead of a conventional image sensor. The differences were briefly discussed in the introduction: The pixels each recognize changes in intensity instead of simply measuring the respective intensity. Such a change, which should preferably be quick enough and exceed a noise figure, is one of the eponymous events. In addition, signals are only provided or read out in the event of such a change in intensity, specifically only from the affected pixel or pixels.

Die Erfindung hat den Vorteil, dass eine ereignisbasierte Absicherung möglich wird, insbesondere ein ereignisbasiertes Speed-and-Separation Monitoring. Eine eigentliche Framerate gibt es nicht mehr. Die effektive Wiederholrate der Erfassung durch die auf Ereignisse reagierenden Pixel ist extrem hoch. Diese geringen Latenzen ermöglichen eine Erfassung und Reaktion praktisch in Echtzeit. Es werden nur solche Bereiche ausgelesen und damit beachtet, in denen es eine Intensitätsveränderung gibt. Redundante Daten wie ein statischer Hintergrund werden erst gar nicht aufgenommen. Eine Hintergrundsegmentierung und Erkennung von Objekten, nämlich den für eine Absicherung gefährlichen bewegten Objekten, leistet bereits der ereignisbasierte Bildsensor durch sein Arbeitsprinzip. Die Bildauswertung wesentlich vereinfacht und zugleich robuster und damit der Sensor technologisch einfacher zu realisieren und verbessert trotzdem die Überwachung besonders im Falle hochdynamischer, enger Kollaborationsszenarien. Dabei wird der Prozessablauf effizienter, der Bedarf an Rechenleistung und auch Energieaufnahme verringert sich.The invention has the advantage that event-based protection becomes possible, in particular event-based speed-and-separation monitoring. There is no longer an actual frame rate. The effective repetition rate of the acquisition by the event-responsive pixels is extremely high. These low latencies enable detection and response in practically real time. Only those areas are read out and thus taken into account in which there is a change in intensity. Redundant data such as a static background are not recorded at all. Background segmentation and detection of objects, namely moving objects that are dangerous for protection, is already performed by the event-based image sensor through its operating principle. The image evaluation is significantly simplified and at the same time more robust and thus the sensor is technologically easier to implement and nevertheless improves the monitoring, especially in the case of highly dynamic, close collaboration scenarios. The process flow becomes more efficient, the need for computing power and energy consumption are reduced.

Ein ereignisbasierter Bildsensor ermöglicht zusätzlich zu der sehr schnellen Pixelauslöserate auch einen hohen Dynamikbereich. Der ereignisbasierte Bildsensor ist gegenüber dem Gleichlichtanteil des Hintergrundes nahezu unempfindlich, da dies keine Intensitätsänderung verursacht und deshalb kein Ereignis auslöst. Die meisten Fremdlichtszenarien werden dadurch abgedeckt, denn Szenenänderungen sind entweder sehr träge, weil das Licht permanent an ist, oder ganz kurzfristig, wenn beispielsweise Licht eingeschaltet wird. Ein solches kurzes Ereignis verschwindet schnell in den Bilddaten. Eine modulierte Lichtquelle, wie beispielsweise eine mit 50 Hz modulierte Halogenlampe, kann von der Steuer- und Auswertungseinheit unterdrückt werden. Alle diese Fälle zeigen eine deutlich andere Signatur als die Bewegung von Menschen oder Robotern.In addition to the very fast pixel trigger rate, an event-based image sensor also enables a high dynamic range. The event-based image sensor is almost insensitive to the constant light component of the background, since this does not cause any change in intensity and therefore does not trigger an event. Most extraneous light scenarios are covered by this, because scene changes are either very sluggish because the light is permanently on, or very briefly when, for example, the light is switched on. Such a brief event quickly disappears in the image data. A modulated light source, such as a halogen lamp modulated at 50 Hz, can be suppressed by the control and evaluation unit. All of these cases show a distinctly different signature than the movement of humans or robots.

Als zusätzlicher Vorteil kann angesehen werden, dass sich typischerweise aus den Bilddaten eines ereignisbasierten Bildsensors eine Person zwar als Person erkennen, nicht aber identifizieren lässt. Für die Absicherung, die jede Person schützen soll, ist das völlig ausreichend. Im Gegensatz zu herkömmlichen Bildern ist es nicht mehr erforderlich, erkannte Personen aus Datenschutzgründen zu anonymisieren, weil auch das bereits automatisiert durch das Prinzip des ereignisbasierten Bildsensors geschieht.It can be seen as an additional advantage that a person can typically be recognized as a person from the image data of an event-based image sensor, but cannot be identified. This is completely sufficient for the security that every person is supposed to protect. In contrast to conventional images, it is no longer necessary to anonymize recognized persons for data protection reasons, because this is already done automatically by the principle of the event-based image sensor.

Ein jeweiliges Pixelelement stellt bevorzugt fest, wenn sich die von dem Pixelelement erfasste Intensität ändert, und liefert genau dann ereignisbasiert eine Bildinformation. Das besondere Verhalten der Pixelelemente einer ereignisbasierten Kamera wurde bereits mehrfach angesprochen. Das Pixelelement prüft, ob sich die erfasste Intensität verändert. Nur das ist ein Ereignis, und nur bei einem Ereignis wird eine Bildinformation ausgegeben oder ausgelesen. Es ist eine Art Hysterese denkbar, bei der das Pixelelement eine definierte, zu geringfügige Änderung der Intensität noch ignoriert und nicht als Ereignis auffasst.A respective pixel element preferably determines when the intensity detected by the pixel element changes, and precisely then delivers image information based on an event. The special behavior of the pixel elements of an event-based camera has already been mentioned several times. The pixel element checks whether the recorded intensity changes. Only that is an event, and image information is only output or read out in the event of one event. A type of hysteresis is conceivable in which the pixel element ignores a defined, too slight change in the intensity and does not perceive it as an event.

Das Pixelelement liefert vorzugsweise als Bildinformation eine differentielle Information, ob sich die Intensität verringert oder erhöht hat. Die aus dem Pixelelement gelesene Information ist also beispielsweise ein Vorzeichen +1 oder -1 je nach Änderungsrichtung der Intensität. Dabei kann eine Schwelle für Intensitätsänderungen gesetzt sein, bis zu denen das Pixelelement noch kein Ereignis auslöst. In einer nachgelagerten internen Repräsentation zur weiteren Auswertung kann für Zeiten, zu denen kein Ereignis erfasst wurde, der Wert 0 ergänzt werden.The pixel element preferably supplies differential information as image information as to whether the intensity has decreased or increased. The information read from the pixel element is therefore, for example, a sign +1 or -1 depending on the direction of change of the intensity. A threshold can be set for intensity changes up to which the pixel element does not yet trigger an event. In a subsequent internal representation for further evaluation, the value 0 can be added for times when no event was recorded.

Das Pixelelement liefert bevorzugt als Bildinformation eine integrierte Intensität in einem durch eine Änderung der Intensität bestimmten Zeitfenster. Hier beschränkt sich die Information nicht auf eine Richtung der Intensitätsänderung, sondern es wird in einem durch das Ereignis festgelegten Zeitfenster das einfallende Licht integriert und dadurch ein Grauwert bestimmt. Der Messwert entspricht damit demjenigen einer herkömmlichen Kamera, aber der Zeitpunkt der Erfassung bleibt ereignisbasiert und an eine Intensitätsänderung gekoppelt.The pixel element preferably supplies, as image information, an integrated intensity in a time window determined by a change in the intensity. Here the information is not limited to one direction of the change in intensity, but the incident light is integrated in a time window determined by the event and a gray value is thereby determined. The measured value corresponds to that of a conventional camera, but the time of acquisition remains event-based and linked to a change in intensity.

Das jeweilige Pixelelement gibt Bildinformationen bevorzugt mit einer Aktualisierungsfrequenz von mindestens einem KHz oder sogar mindestens zehn KHz, hundert KHz oder 1 MHz ausgibt. Das entspricht Latenzzeiten von nur 1 ms bis sogar nur 1 µs. Die Aktualisierungsfrequenz einer herkömmlichen Kamera ist die Bildwiederholfrequenz oder Framerate. Eine solche gemeinsame Bildwiederholfrequenz kennt die ereignisbasierte Kamera nicht, da die Pixelelemente ihre Bildinformationen einzeln und ereignisbasiert ausgeben oder auffrischen. Dabei gibt es aber extrem kurze Ansprechzeiten, die mit einer herkömmlichen Kamera nur zu immensen Kosten mit tausend oder mehr Bildern pro Sekunde erreichbar wären, bei einer ereignisbasierten immer noch möglichen Aktualisierungsfrequenz wäre das mit herkömmlichen Kameras technisch nicht mehr darstellbar. Diese hohe zeitliche Auflösung hat auch den Vorteil, dass es praktisch keine Bewegungsartefakte (motion blurr) gibt. Innerhalb einer der extrem kurzen Aktualisierungsperioden, die einer herkömmlichen Belichtungszeit entspricht, bewegt sich ein Objekt nicht mehrere Pixel weiter, und deshalb wird auch kein verschmiertes Bild aufgenommen.The respective pixel element outputs image information preferably with an update frequency of at least one KHz or even at least ten KHz, one hundred KHz or 1 MHz. This corresponds to latency times from just 1 ms to even just 1 µs. The refresh rate of a traditional camera is the refresh rate or frame rate. The event-based camera does not have such a common image refresh rate, since the pixel elements output or refresh their image information individually and on an event-based basis. However, there are extremely short response times that could only be achieved with a conventional camera at immense costs with thousands or more images per second; with an event-based update frequency that is still possible, this would no longer be technically feasible with conventional cameras. This high temporal resolution also has the advantage that there are practically no motion artifacts (motion blurr). An object does not move several pixels further within one of the extremely short update periods, which corresponds to a conventional exposure time, and therefore no smeared image is recorded.

Der Bildsensor erzeugt bevorzugt als Bildinformation einen Datenstrom aus Ereignissen, die jeweils Koordinateninformationen des zugehörigen Pixelelements, eine Zeitinformation und eine Intensitätsinformation aufweisen. Ein herkömmlicher Datenstrom besteht aus den Intensitäts- oder Grauwerten der Pixel, und der Ortsbezug in der Bildsensorebene entsteht dadurch, dass sämtliche Pixel in geordneter Abfolge ausgelesen werden. Bei dem ereignisbasierten Bildsensor werden stattdessen vorzugsweise Datentupel je Ereignis ausgegeben, die das Ereignis zuordenbar machen. Dabei wird der Ort des zugehörigen Pixelelements, die Richtung ±1 der Intensitätsänderung und/oder die zum Ereignis gemessene Intensität sowie ein Zeitstempel festgehalten.The image sensor preferably generates a data stream of events as image information, each of which has coordinate information of the associated pixel element, time information and intensity information. A conventional data stream consists of the intensity or gray values of the pixels, and the location reference in the image sensor plane arises from the fact that all pixels are read out in an orderly sequence. In the event-based image sensor, instead, data tuples are preferably output for each event that the event make assignable. The location of the associated pixel element, the direction ± 1 of the change in intensity and / or the intensity measured for the event and a time stamp are recorded.

Vorzugsweise wird der Datenstrom durch Auffüllen mit Nullen in eine Matrix gewandelt, deren Basis durch die Anordnung der Pixelelemente auf dem Bildsensor und die Zeit gebildet ist. Für die weitere Verarbeitung ist häufig eine gewohnte Matrixdarstellung geeigneter, die aus einer Sequenz zeitlich aufeinander folgender Einzelbilder besteht, d.h. aus in der Zeit aneinandergereihten Schichten der jeweils zu einem festen Zeitpunkt aufgenommenen Intensitätsverteilung über die Pixelelemente des Bildsensors. Die Granulierung der Zeitrichtung würde herkömmlich durch die Framerate vorgegeben, bei einer ereignisbasierten Kamera kann sie viel feiner festgelegt werden. Durch die Ereignisse wird letztlich eine dünn besetzte Matrix (sparse matrix) erzeugt, der Datenstrom von dem ereignisbasierten Bildsensor entspricht einer speicher- und bandbreitensparenden Repräsentation davon.The data stream is preferably converted into a matrix by filling it with zeros, the basis of which is formed by the arrangement of the pixel elements on the image sensor and the time. For further processing, a familiar matrix display is often more suitable, which consists of a sequence of individual images following one another in time, i.e. of layers of the intensity distribution recorded at a fixed point in time over the pixel elements of the image sensor. The granulation of the time direction would conventionally be specified by the frame rate; with an event-based camera it can be specified much more precisely. The events ultimately generate a sparse matrix, and the data stream from the event-based image sensor corresponds to a memory and bandwidth-saving representation of it.

Der ereignisbasierte Bildsensor ist bevorzugt durch zweikanalige oder selbstprüfende Architektur und/oder durch Plausibilisierungen der Bilddaten mittels der Steuer- und Auswertungseinheit als sicherer ereignisbasierter Bildsensor ausgebildet. Damit erfüllt der nicht für die Sicherheitstechnik entwickelte ereignisbasierte Bildsensor die Anforderungen entsprechend den einleitend genannten Normen. Es ist denkbar, die Sicherheit direkt im Bildsensor zu verankern, aber das erfordert eine extrem teure Chipentwicklung. Stattdessen können zwei allein nicht sichere Bildsensoren verwendet werden, die einander gegenseitig prüfen, oder es werden mit nur einem zunächst nicht sicheren Bildsensor Tests und Plausibilisierungen in dem gewünschten Sicherheitsniveau entsprechenden Zeitabständen durchgeführt. Solche Tests können vom Bildsensor selbst oder der Steuer- und Auswertungseinheit gesteuert werden.The event-based image sensor is preferably designed as a secure event-based image sensor through two-channel or self-checking architecture and / or through plausibility checks of the image data by means of the control and evaluation unit. The event-based image sensor that was not developed for safety technology thus fulfills the requirements of the standards mentioned in the introduction. It is conceivable to anchor security directly in the image sensor, but that requires extremely expensive chip development. Instead, two image sensors that are not safe alone can be used, which mutually check each other, or tests and plausibility checks are carried out with only one initially unsafe image sensor at time intervals corresponding to the desired security level. Such tests can be controlled by the image sensor itself or the control and evaluation unit.

Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, von den Pixelelementen erfasste Ereignisse als bewegte Objekte auszuwerten, insbesondere Signale von Pixelelementen innerhalb sicherheitsrelevanter interessierender Bereiche. Wenn in einem Pixel oder Pixelbereich des ereignisbasierten Bildsensors ein Ereignis registriert wird, so wird dies in der Auswertung direkt als bewegtes Objekt behandelt. Die mit herkömmlichen Bildsensoren notwendige Objektsegmentierung samt Vergleich mit früheren Bildern, um eine Bewegung festzustellen, kann entfallen, da bereits die Rohdaten entsprechend gefiltert sind. Zusätzliche Verarbeitung oder Filter kann es aber geben. Beispielsweise wird dabei ein bewegtes Objekt ignoriert, das nur ganz kurzzeitig auftaucht und wieder verschwindet und/oder das für ein Körperteil zu klein ist. Außerdem ist es denkbar, im Überwachungsbereich sicherheitsrelevante interessierende Bereiche (ROI, region of interest) zu definieren und Objekte außerhalb ebenfalls zu ignorieren. Solche sicherheitsrelevanten interessierenden Bereiche dürfen keinesfalls mit Schutzfeldern verwechselt werden. Ein Eingriff in ein Schutzfeld würde sofort eine Absicherung der Maschine auslösen. Dagegen sind in dem sicherheitsrelevanten interessierenden Bereich Objekte durchaus zugelassen und sogar erwartet, es wird dadurch lediglich der Bereich abgesteckt, in dem Objekte überhaupt auf gefährliche Nähe, Geschwindigkeit und dergleichen geprüft werden. Außerhalb der sicherheitsrelevanten interessierenden Bereichen droht aufgrund organisatorischer Maßnahmen, mechanischer Absperrungen oder unter allen denkbaren Bedingungen ausreichend großer Abstände niemals eine Gefahr.The control and evaluation unit is preferably designed to evaluate events detected by the pixel elements as moving objects, in particular signals from pixel elements within safety-relevant areas of interest. If an event is registered in a pixel or pixel area of the event-based image sensor, this is treated directly as a moving object in the evaluation. The object segmentation required with conventional image sensors, including comparison with previous images in order to determine movement, can be dispensed with, since the raw data is already filtered accordingly. However, there may be additional processing or filters. For example, a moving object is ignored that only appears for a very short time and then disappears again and / or that is too small for a part of the body. It is also conceivable to define safety-relevant areas of interest (ROI, region of interest) in the monitoring area and to ignore objects outside as well. Such safety-relevant areas of interest must not be confused with protective fields. Intervention in a protective field would immediately trigger protection of the machine. In contrast, objects are absolutely permitted and even expected in the safety-relevant area of interest; only the area is thereby marked out in which objects are checked for dangerous proximity, speed and the like at all. Outside the safety-relevant areas of interest, there is never a danger due to organizational measures, mechanical barriers or under all conceivable conditions sufficiently large distances.

Die Steuer- und Auswertungseinheit ist vorzugsweise für eine Objektverfolgung ausgebildet. Dafür sind Algorithmen beispielsweise basierend auf Kalman-Filtern an sich bekannt. Allerdings ist die Objektverfolgung erheblich vereinfacht, weil bereits der ereignisbasierte Bildsensor eine sehr verlässliche und einfache Objektsegmentierung für bewegte Objekte liefert. Das Ergebnis einer Objektverfolgung sind beispielsweise Listen mit vorhandenen Objekten, frühere Bewegungsbahnen der Objekte oder eine Prognose für die künftige Bewegungsbahn samt kinematischer Parameter wie Geschwindigkeit und Beschleunigung.The control and evaluation unit is preferably designed for object tracking. For this, algorithms based on Kalman filters, for example, are known per se. However, object tracking is considerably simplified because the event-based image sensor already provides very reliable and simple object segmentation for moving objects. The result of an object tracking are, for example, lists with existing objects, previous movement paths of the objects or a forecast for the future movement path including kinematic parameters such as speed and acceleration.

Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, die Position, an der ein zuvor verfolgtes Objekt zuletzt erfasst wurde, als Position eines ruhenden Objekts zu speichern und in der Bewertung einer Gefahr zu berücksichtigen. Eine Konsequenz der besonderen Arbeitsweise eines ereignisbasierten Bildsensors ist, dass ruhende Objekte nicht erfasst werden. Das betrifft auch eine Person, die im Überwachungsbereich stehenbleibt. Sie geht der Objektverfolgung zumindest vorübergehend verloren. Solche Positionen merkt sich die Steuer- und Auswertungseinheit gemäß dieser Ausführungsform, und dadurch ist bekannt, wo Personen stehen, so dass dies im Absicherungskonzept berücksichtigt werden kann. Sofern die Person außerhalb der Reichweite des Roboters steht, kann dieser mit normaler Geschwindigkeit weiterarbeiten, denn sobald die Person sich wieder bewegt und doch eine reduzierte Arbeitsgeschwindigkeit erforderlich ist, wird das durch den ereignisbasierten Bildsensor mit kürzesten Latenzen erkannt. Aber auch innerhalb der Reichweite ist ein Weiterarbeiten möglich, solange der Roboter die bekannte Position meidet, an der eine Person steht. In diesem Fall sollte aber vorzugsweise die Arbeitsgeschwindigkeit verlangsamt sein. Für den Roboter gilt natürlich genauso, dass er nur in Bewegung erfasst wird, aber das ist gänzlich unkritisch, weil ein stehender Roboter keine Gefahrenquelle ist.The control and evaluation unit is preferably designed to store the position at which a previously tracked object was last detected as the position of a stationary object and to take it into account in the assessment of a hazard. One consequence of the special way an event-based image sensor works is that stationary objects are not detected. This also applies to a person who stops in the monitored area. It is lost to object tracking, at least temporarily. The control and evaluation unit notes such positions in accordance with this embodiment, and it is thereby known where people are standing, so that this can be taken into account in the protection concept. If the person is outside the range of the robot, it can continue to work at normal speed, because as soon as the person moves again and a reduced working speed is required, this is recognized by the event-based image sensor with the shortest possible latencies. But it is also possible to continue working within the range as long as the robot avoids the known position at which a person is standing. In this case, however, the working speed should preferably be slowed down. Of course, the same applies to the robot that it is only detected when it is in motion, but that is entirely not critical because a stationary robot is not a source of danger.

Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, neu in die Objektverfolgung aufzunehmende Objekte in bestimmten Teilbereichen des Überwachungsbereichs zu suchen, insbesondere am Rand. Der bestimmte Teilbereich ist vorzugsweise ein Zugang, wie einer Tür oder eine Öffnung in einer Absperrung um eine Roboterzelle. In jedem Fall können neue Personen und Objekte nur vom Rand her erscheinen. Vorzugsweise ist beim Hochfahren der Anlage durch Organisationsmaßnahmen darauf zu achten, dass sich niemand in der Nähe des Roboters befindet, denn der Sensor würde eine dort stehende Person erst wahrnehmen, wenn sie sich bewegt. Im laufenden Betrieb ist das durch Objektverfolgung lösbar, die auch die Positionen stehender Objekte kennt, aber anfangs fehlen diese Informationen. Eine beispielhafte Lösung ist, dass das Hochfahren der Anlage autorisierten Personen vorbehalten ist, in deren Verantwortung es dann liegt, für eine freie Umgebung des Roboters zu sorgen.The control and evaluation unit is preferably designed to search for objects to be newly included in the object tracking in certain partial areas of the monitoring area, in particular at the edge. The specific sub-area is preferably an access, such as a door or an opening in a barrier around a robot cell. In any case, new people and objects can only appear from the edge. When starting up the system, organizational measures should preferably be taken to ensure that nobody is in the vicinity of the robot, because the sensor would only perceive a person standing there if they were moving. This can be solved during operation by object tracking, which also knows the positions of stationary objects, but this information is initially missing. An exemplary solution is that the start-up of the system is reserved for authorized persons, who are then responsible for ensuring that the robot environment is clear.

Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, einen Gefahrenbereich innerhalb des Überwachungsbereichs zu definieren, der möglichen Positionen der Maschine entspricht, insbesondere durch Auswerten von Bilddaten, die während des Betriebs der Maschine aufgenommen werden. Der Gefahrenbereich ist ein spezieller interessierender Bereich innerhalb des Überwachungsbereichs. Wenn sich hier etwas bewegt, insbesondere ein Objekt, das die Objektverfolgung nicht vom Rand her zum Roboter verfolgt hat, wird das dem Roboter zugeordnet. Der Gefahrenbereich lässt sich beispielsweise dadurch einlernen, dass der Roboter von dem ereignisbasierten Bildsensor einige Zeit im Betrieb ohne Störung durch andere Objekte beobachtet wird. Es haben dann genau die Pixel Ereignisse geliefert, die Orten entsprechen, an die sich in der Beobachtungszeit zumindest einmal ein Teil des Roboters bewegt hat. Der Gefahrenbereich lässt sich alternativ aus der Robotersteuerung beziehungsweise dessen Bewegungsplanung oder von Hand definieren. Auch ein dynamischer Abgleich mit der Robotersteuerung ist vorstellbar, in diesem Fall ist auch ein dynamischer Gefahrenbereich mit variablen, der gegenwärtigen Roboterpose entsprechenden Grenzen vorstellbar.The control and evaluation unit is preferably designed to define a danger area within the monitoring area which corresponds to possible positions of the machine, in particular by evaluating image data that are recorded during operation of the machine. The hazard area is a special area of interest within the monitored area. If something moves here, in particular an object that the object tracking did not follow from the edge to the robot, this is assigned to the robot. The danger area can be taught-in, for example, by observing the robot for some time during operation by the event-based image sensor without being disturbed by other objects. Precisely those pixels then delivered events that correspond to locations to which a part of the robot has moved at least once during the observation time. The danger area can alternatively be defined from the robot controller or its motion planning, or by hand. A dynamic comparison with the robot controller is also conceivable, in this case a dynamic danger area with variable limits corresponding to the current robot pose is also conceivable.

Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, in den Bilddaten zu prüfen, ob zugleich ein Ereignis an einer ersten Position innerhalb des Gefahrenbereichs und an einer zweiten Position außerhalb des Gefahrenbereichs eingetreten ist, und in diesem Fall einen Abstand zwischen der ersten Position und der zweiten Position zu berechnen und bei der Bewertung einer Gefahr zu berücksichtigen. Bewegungen innerhalb des Gefahrenbereichs werden dem Roboter zugeschrieben, andere Bewegungen liegen nicht in dessen Reichweite und sind daher einem fremden Objekt zuzuordnen. Die genannte doppelte Bedingung bedeutet also, dass sich der Roboter und zugleich ein Objekt in dessen Umgebung bewegen. Die Umgebung kann dabei auf sicherheitsrelevante interessierende Bereiche beschränkt bleiben. Es wird der Abstand zwischen Roboter und Objekt berechnet, möglicherweise auch weitere kinematische Parameter wie die Geschwindigkeit insbesondere aus der Objektverfolgung, und dies wird bewertet, um abzuleiten, ob der Roboter sicherheitsgerichtet reagieren muss. Liegt die doppelte Bedingung nicht vor, so gibt es dafür zwei mögliche Gründe. Entweder bewegt sich im Gefahrenbereich nichts, dann steht der Roboter, und für den Moment ist nichts abzusichern. Andernfalls gibt es kein bewegtes Objekt im Umfeld, womit ebenfalls keine unmittelbare Gefahr droht. Zu beachten ist noch, dass es durchaus ein stehendes Objekt auch nahe dem Roboter geben kann. Die Behandlung dieses Falls durch die Objektverfolgung und Speichern von Positionen von Objekten, die der Objektverfolgung vorübergehend verloren gehen, wurde bereits diskutiert.The control and evaluation unit is preferably designed to check in the image data whether an event has occurred at the same time at a first position within the danger area and at a second position outside the danger area, and in this case a distance between the first position and the second position to be calculated and taken into account when assessing a hazard. Movements within the danger area are assigned to the robot, other movements are not within its range and are therefore to be assigned to a foreign object. The double condition mentioned means that the robot and an object move in its environment at the same time. The environment can remain limited to safety-relevant areas of interest. The distance between the robot and the object is calculated, possibly also other kinematic parameters such as the speed, in particular from the object tracking, and this is evaluated in order to deduce whether the robot must react in a safety-oriented manner. If the double condition does not exist, there are two possible reasons for this. Either nothing moves in the danger area, then the robot stands still and nothing needs to be secured for the moment. Otherwise there is no moving object in the vicinity, which also means there is no imminent danger. It should also be noted that there may well be a stationary object near the robot. The handling of this case by tracking objects and storing positions of objects that are temporarily lost from tracking has already been discussed.

Der Sensor weist bevorzugt einen sicheren Ausgang auf, um Objektpositionen, Abstände von Objekten zu der Maschine und/oder daraus abgeleitete Zusatzinformationen auszugeben, insbesondere die Geschwindigkeit und/oder Bewegungsrichtung. In diesem Fall findet die weitere Bewertung der Gefahr außerhalb des Sensors statt, der dafür die notwendigen und teilweise auch schon aufbereiteten Detektionsergebnisse liefert. Für diese weitere Bewertung kann eine angeschlossene Sicherheitssteuerung und/oder die Robotersteuerung selbst zuständig sein. Trotz dieser Verteilung der Funktionalität kann dies noch als Steuer- und Auswertungseinheit des Sensors verstanden werden, die dann eine doppelte Bedeutung als Baustein innerhalb des Sensors und im genannten weiteren Sinne bekommt. Die Objektposition wird vorzugsweise in die Bewertung eingehen, in aller Regel auch der Abstand. Ein weiterer wichtiger Parameter, etwa für ein Speed-and-Separation-Monitoring, ist die Geschwindigkeit, da ein nahes, langsames Objekt weniger gefährdet ist als ein etwas ferneres, schnelles Objekt, und ähnliche Überlegungen gelten für die Bewegungsrichtung. Weitere kinematische Parameter wie die Beschleunigung können je nach Ausführungsform auch eine Rolle spielen. Objektpositionen sind vorzugsweise repräsentativ, etwa ein Objektschwerpunkt oder derjenige Objektpunkt, zu dem der Abstand berechnet wurde, und nicht sämtliche bekannten Objektpositionen zu einem Objekt oder dessen Objektpunktewolke. Es ist aber auch denkbar, Hüllkörper zu Objekten oder doch die 3D-Punktwolke des Objekts auszugeben.The sensor preferably has a safe output in order to output object positions, distances from objects to the machine and / or additional information derived therefrom, in particular the speed and / or direction of movement. In this case, the further assessment of the danger takes place outside the sensor, which supplies the necessary and, in some cases, already processed detection results. A connected safety controller and / or the robot controller itself can be responsible for this further evaluation. Despite this distribution of functionality, this can still be understood as a control and evaluation unit of the sensor, which then has a double meaning as a component within the sensor and in the broader sense mentioned. The object position will preferably be included in the evaluation, as a rule also the distance. Another important parameter, for example for speed-and-separation monitoring, is the speed, since a nearby, slow object is less endangered than a somewhat more distant, fast object, and similar considerations apply to the direction of movement. Other kinematic parameters such as acceleration can also play a role depending on the embodiment. Object positions are preferably representative, for example an object center of gravity or that object point to which the distance was calculated, and not all known object positions to an object or its object point cloud. However, it is also conceivable to output enveloping bodies for objects or at least the 3D point cloud of the object.

Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, eine die Gefahr ausräumende Arbeitsgeschwindigkeit und/oder einen die Gefahr ausräumenden Arbeitsablauf für die Maschine zu bestimmen. Wenn eine Gefahr erkannt ist, also beispielsweise ein Objekt mit zu großer Geschwindigkeit zu nahe kommt, so ist eine angemessene Sicherheitsreaktion zu bestimmen. Die Arbeitsgeschwindigkeit sollte für eine hohe Produktivität so hoch wie noch sicher möglich sein. Je nach Ausführungsform und Situation bleibt der Roboter bei seiner üblichen Bewegungsbahn und verlangsamt. Alternativ wird eine neue Bewegungsbahn mit mehr Abstand zu dem Objekt geplant, die erforderlichenfalls auch langsamer ausgeführt wird. Eine angepasste Arbeitsgeschwindigkeit schließt die Möglichkeit einer Arbeitsgeschwindigkeit Null ein, d.h. einen Halt oder Nothalt. Alle diese Anpassungen sind dank der hohen effektiven Wiederholrate des ereignisbasierten Bildsensors extrem schnell und flexibel möglich. Es wurde bereits ausgeführt, dass die Steuer- und Auswertungseinheit im engeren Sinne ein Baustein des Sensors sein, aber auch im weiteren Sinne die Sicherheitssteuerung und/oder die Robotersteuerung sowie beliebig darüber verteilte Funktionalität umfassen kann.The control and evaluation unit is preferably designed to determine a working speed that eliminates the risk and / or a workflow for the machine that eliminates the risk. If a danger is recognized, for example an object comes too close at too great a speed, an appropriate safety reaction must be determined. The working speed should be as high as safely possible for high productivity. Depending on the embodiment and the situation, the robot remains in its usual trajectory and slows down. Alternatively, a new trajectory is planned with a greater distance to the object, which is also carried out more slowly if necessary. An adapted working speed includes the possibility of a working speed of zero, ie a stop or an emergency stop. All of these adjustments can be made extremely quickly and flexibly thanks to the high effective repetition rate of the event-based image sensor. It has already been stated that the control and evaluation unit can be a component of the sensor in the narrower sense, but can also include the safety controller and / or the robot controller and any functionality distributed over it in the broader sense.

Der Sensor ist vorzugsweise auf der Maschine und mit deren Arbeitsbewegungen mitbewegt angeordnet. Das gilt insbesondere für die Werkzeugspitze eines Roboterarms (EOAS, End-of-arm Safeguarding). Andere Beispiele sind personengeführte oder autonome beziehungsweise automatisch geführte Fahrzeuge (AGV, automated guided vehicle).The sensor is preferably arranged on the machine and moved along with its working movements. This applies in particular to the tool tip of a robot arm (EOAS, end-of-arm safeguarding). Other examples are person-guided or autonomous or automatically guided vehicles (AGV, automated guided vehicle).

Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, Objekte anhand eines modulierten Beleuchtungsmusters zu identifizieren, das von einer am Objekt angeordneten Trackereinrichtung erzeugt ist. Das Beleuchtungsmuster ist beispielsweise ein Pulsieren mit einer individuellen, eindeutig zuordenbaren Frequenz. Das verursacht spezifische Intensitätsänderungen, die der ereignisbasierte Bildsensor wahrnimmt und die in der nachgelagerten Bildauswertung sehr einfach erkannt werden. Die Trackereinrichtung kann beispielsweise an dem Roboter angebracht werden, so dass dessen Bewegungen auch ohne einen definierten Gefahrenbereich dem Roboter zugeordnet werden können. Auch sonstige nichtbelebte Objekte in der Umgebung des Roboters können eine Trackereinrichtung tragen. Zu schützende Personen werden dann sehr leicht daran erkannt, dass sie nicht über die Trackereinrichtung identifiziert werden. Denkbar ist aber auch, dass autorisiertes Bedienpersonal ebenfalls eine Trackereinrichtung trägt, wobei dann eventuell aufgrund von deren besonderer Erfahrung sogar etwas höhere Arbeitsgeschwindigkeiten zugelassen werden.The control and evaluation unit is preferably designed to identify objects on the basis of a modulated lighting pattern that is generated by a tracker device arranged on the object. The lighting pattern is, for example, a pulsation with an individual, clearly assignable frequency. This causes specific changes in intensity, which the event-based image sensor perceives and which are very easily recognized in the subsequent image analysis. The tracker device can be attached to the robot, for example, so that its movements can be assigned to the robot even without a defined danger area. Other inanimate objects in the vicinity of the robot can also carry a tracker device. Persons to be protected are then very easily recognized by the fact that they are not identified via the tracker device. It is also conceivable, however, that authorized operating personnel also wear a tracker device, in which case even somewhat higher working speeds are permitted on the basis of their particular experience.

Der Sensor weist bevorzugt mindestens zwei ereignisbasierte Bildsensoren in einer Stereoanordnung auf, wobei die Steuer- und Auswertungseinheit dafür ausgebildet ist, in den Bilddaten der beiden Bildsensoren erfasste Ereignisse einander zuzuordnen anhand dessen mit einem Stereoverfahren einen Tiefenwert zu berechnen. Auf diese Weise entsteht eine ereignisbasierte Stereokamera. Das eröffnet eine dritte Erfassungsdimension, die genauere Sicherheitskonzepte erlaubt. Bei zweidimensionaler Erfassung werden implizit oder explizit Sicherheitszuschläge vorgenommen. Es kommt dann zu unnötigen Absicherungsmaßnahmen, obwohl objektiv der dreidimensionale Abstand noch gar nicht gefährlich wäre. Während eine herkömmliche Stereokamera meist durch Korrelation über alle Pixel zumindest parallel zum Basisabstand nach Korrespondenzen sucht, kann sich bei ereignisbasiertem Stereo die Korrespondenzsuche auf die wenigen jeweils ansprechenden Pixel beschränken. Wenn es eine Objektverfolgung gibt, dann ist mit deren Hilfe in den meisten Fällen schon ohne jegliche pixelbasierte Korrelation klar, welche Erfassungen der beiden Bildsensoren zueinander gehören müssen. Jedenfalls sind nur wenige, kleine Pixelbereiche zu korrelieren, da meist die überwiegende Anzahl der Pixel in der dünn besetzten Matrix ohnehin nur Null zeigt. Die weiteren Schritte entsprechen dann dem üblichen Stereoverfahren, d.h. der Pixelabstand zueinander korrespondierende Pixel der beiden ereignisbasierten Bildsensoren wird mit Parametern wie dem Pixelabstand (pitch) und dem Basisabstand zwischen den Bildsensoren in einen Tiefenwert umgerechnet.The sensor preferably has at least two event-based image sensors in a stereo arrangement, the control and evaluation unit being designed to assign events recorded in the image data of the two image sensors to one another on the basis of which a stereo method is used to calculate a depth value. This creates an event-based stereo camera. This opens up a third dimension of coverage that allows more precise security concepts. In the case of two-dimensional recording, safety margins are made implicitly or explicitly. This leads to unnecessary safeguarding measures, although objectively the three-dimensional distance would not be dangerous at all. While a conventional stereo camera usually searches for correspondences by correlation across all pixels at least parallel to the base distance, in event-based stereo the search for correspondence can be limited to the few pixels that respond. If there is object tracking, in most cases it is already clear with its help, without any pixel-based correlation, which recordings of the two image sensors must belong to one another. In any case, only a few, small pixel areas need to be correlated, since the majority of the pixels in the sparse matrix usually show only zero anyway. The further steps then correspond to the usual stereo method, i.e. the pixel spacing of the corresponding pixels of the two event-based image sensors is converted into a depth value using parameters such as the pixel spacing (pitch) and the basic spacing between the image sensors.

Das erfindungsgemäße Verfahren kann auf ähnliche Weise weitergebildet werden und zeigt dabei ähnliche Vorteile. Derartige vorteilhafte Merkmale sind beispielhaft, aber nicht abschließend in den sich an die unabhängigen Ansprüche anschließenden Unteransprüchen beschrieben.The method according to the invention can be developed in a similar way and shows similar advantages. Such advantageous features are described by way of example, but not conclusively, in the subclaims that follow the independent claims.

Die Erfindung wird nachstehend auch hinsichtlich weiterer Merkmale und Vorteile beispielhaft anhand von Ausführungsformen und unter Bezug auf die beigefügte Zeichnung näher erläutert. Die Abbildungen der Zeichnung zeigen in:

  • 1 eine schematische dreidimensionale Darstellung einer Kamera und ihres Ü berwachu ngsbereichs;
  • 2 eine beispielhafte Intensitätsverteilung eines Pixels zur Erläuterung von ereignisbasierter Erfassung von Bildinformation;
  • 3 eine beispielhafte Überwachungssituation aus der Draufsicht einer Kamera gemäß 1 mit einem Roboter und mehreren Personen;
  • 4 eine beispielhafte Darstellung der erfassten Bewegungsbahnen eines langsamen und eines schnellen Objekts;
  • 5 eine beispielhafte Darstellung der erfassten Bewegungsbahn eines Objekts und einer Prognose für die künftige Bewegungsbahn; und
  • 6 eine beispielhafte Darstellung der erfassten Bewegungsbahnen des Roboters und eines Objekts sowie der jeweiligen Abstände dazwischen.
The invention is explained in more detail below also with regard to further features and advantages by way of example using embodiments and with reference to the accompanying drawings. The figures in the drawing show in:
  • 1 a schematic three-dimensional representation of a camera and its surveillance area;
  • 2 an exemplary intensity distribution of a pixel for explaining event-based acquisition of image information;
  • 3rd an exemplary monitoring situation from the top view of a camera according to FIG 1 with a robot and several people;
  • 4th an exemplary representation of the detected trajectories of a slow and a fast object;
  • 5 an exemplary representation of the detected trajectory of an object and a prognosis for the future trajectory; and
  • 6th an exemplary representation of the detected trajectories of the robot and an object as well as the respective distances between them.

1 zeigt in einer schematischen dreidimensionalen Darstellung eine Kamera 10 als Beispiel eines optoelektronischen Sensors in einer Anordnung in Vogelperspektive zur Erfassung eines Überwachungsbereichs 12. Der gesamte erfassbare Überwachungsbereich 12 oder auch Arbeitsbereich kann über eine Konfiguration auf sicherheitsrelevante Teilbereiche eingeschränkt werden. Die Kamera 10 ist vorzugsweise fehlersicher im Sinne von Sicherheitsnormen wie den einleitend genannten ausgelegt. Sie weist einen Bildsensor 14 mit einer Vielzahl von insbesondere zu einer Matrix angeordneten Pixelelementen auf, der erfindungsgemäß ein ereignisbasierter Bildsensor 14 ist, worauf später noch im Detail eingegangen wird. Dem Bildsensor 14 ist ein Objektiv 16 vorgeordnet, das in der Praxis als jedes bekannte Abbildungsobjektiv realisiert sein kann. 1 shows a camera in a schematic three-dimensional representation 10 as an example of an optoelectronic sensor in an arrangement in a bird's eye view for detecting a monitoring area 12th . The entire detectable surveillance area 12th or the work area can be restricted to security-relevant sub-areas via a configuration. The camera 10 is preferably designed to be fail-safe in the sense of safety standards such as those mentioned in the introduction. She has an image sensor 14th with a plurality of pixel elements, in particular arranged in a matrix, which according to the invention is an event-based image sensor 14th which will be discussed in detail later. The image sensor 14th is a lens 16 upstream, which can be implemented in practice as any known imaging lens.

Mit dem Bildsensor 14 ist eine Steuer- und Auswertungseinheit 18 verbunden. Die Steuer- und Auswertungseinheit 18kann in verschiedenster Hardware implementiert sein, beispielsweise digitalen Bausteinen wie Mikroprozessoren, ASICs (Application Specific Integrated Circuit), FPGAs (Field Programmable Gate Array), GPUs (Graphics Processing Unit) oder Mischformen davon. Zumindest Teile der Funktionalität der Steuer- und Auswertungseinheit 18 können extern implementiert sein, beispielsweise in einer über einen sicheren Ausgang 20 angeschlossenen Sicherheitssteuerung 22 oder einer Robotersteuerung eines über die Sicherheitssteuerung 22 oder alternativ abweichend von 1 direkt angeschlossenen Roboters 24. Der Roboter 24 steht stellvertretend für eine Maschine, von der eine Gefahr für Personen 26 in deren Umgebung ausgeht.With the image sensor 14th is a control and evaluation unit 18th connected. The control and evaluation unit 18 can be implemented in a wide variety of hardware, for example digital components such as microprocessors, ASICs (Application Specific Integrated Circuit), FPGAs (Field Programmable Gate Array), GPUs (Graphics Processing Unit) or mixed forms thereof. At least parts of the functionality of the control and evaluation unit 18th can be implemented externally, for example in one via a safe output 20th connected safety controller 22nd or a robot controller via the safety controller 22nd or alternatively different from 1 directly connected robot 24 . The robot 24 represents a machine that poses a danger to people 26th goes out in their surroundings.

Die Steuer- und Auswertungseinheit 18 ist mit dem Bildsensor 14 verbunden und wertet dessen Bilddaten aus. Ziel dieser Auswertung ist die Überwachung des Roboters 24, um Unfälle mit Personen 26 und auch anderen Objekten in dessen Umgebung zu verhindern. Dazu werden Positionen des Roboters 24 beziehungsweise seiner bewegten Teile, Positionen von Personen 26 in dessen Umgebung und je nach Sicherheitskonzept Zusatzgrößen wie Abstände, Geschwindigkeiten und weitere kinematische oder sonstige Größen bestimmt. Im Gefährdungsfall wird über den sicheren Ausgang 20 eine sicherheitsgerichtete Reaktion eingeleitet. Das ist nur im äußersten Fall ein Nothalt. Dank des ereignisbasierten Bildsensors 14 ist eine extrem schnelle Reaktion mit feiner Anpassung von Arbeitsgeschwindigkeit und eventuell auch Bewegungsbahn des Roboters 24 möglich, so dass dessen Produktivität so wenig wie möglich eingeschränkt wird.The control and evaluation unit 18th is with the image sensor 14th connected and evaluates its image data. The aim of this evaluation is to monitor the robot 24 to avoid accidents with people 26th and also to prevent other objects in its vicinity. For this purpose, positions of the robot 24 or its moving parts, positions of people 26th in its environment and depending on the safety concept, additional variables such as distances, speeds and other kinematic or other variables are determined. In the event of danger, the safe output 20th a safety-related reaction initiated. This is only an emergency stop in extreme cases. Thanks to the event-based image sensor 14th is an extremely fast reaction with fine adjustment of the working speed and possibly also the robot's trajectory 24 possible, so that its productivity is restricted as little as possible.

2 zeigt zur Erläuterung des Funktionsprinzips des ereignisbasierten Bildsensors 14 im oberen Teil einen rein beispielhaften zeitlichen Intensitätsverlauf in einem Pixelelement des Bildsensors 14. Ein herkömmlicher Bildsensor würde diesen Intensitätsverlauf über ein vorgegebenes Belichtungszeitfenster integrieren, die integrierten Werte aller Pixelelemente würden im Takt einer vorgegebenen Framerate ausgegeben und dann für das nächste Bild zurückgesetzt. 2 shows to explain the functional principle of the event-based image sensor 14th in the upper part a purely exemplary time-dependent intensity profile in a pixel element of the image sensor 14th . A conventional image sensor would integrate this intensity profile over a specified exposure time window, the integrated values of all pixel elements would be output at a specified frame rate and then reset for the next image.

Das Pixelelement des ereignisbasierten Bildsensors 14 reagiert stattdessen individuell und unabhängig von einer Framerate auf eine Intensitätsänderung. Mit senkrechten Strichen sind jeweils Zeitpunkte markiert, zu denen eine Intensitätsänderung festgestellt wurde. Im unteren Teil der 2 sind zu diesen Zeitpunkten Ereignisse mit Plus und Minus je nach Richtung der Intensitätsänderung dargestellt. Es ist denkbar, dass das Pixelelement nicht auf jegliche Intensitätsänderung reagiert, sondern erst, wenn eine gewisse Schwelle überschritten wird. Das Pixelelement wird ereignisbasiert zu den Zeitpunkten ausgelesen, zu denen eine Intensitätsänderung erkannt wird, und gibt dann das Vorzeichen aus. Die Bildinformationen können anschließend noch um den Wert Null zu den Zeiten ergänzt werden, in denen es kein Ereignis gab, damit ein Bild über alle Pixelelemente des Bildsensors 14 entsteht. Diese Bild zeigt anders als von herkömmlichen Bildern gewohnt nur die bewegten Kanten an, seien es Objektkonturen, Schatten oder Aufdrucke.The pixel element of the event-based image sensor 14th instead reacts individually and independently of a frame rate to a change in intensity. Points in time at which a change in intensity was determined are marked with vertical lines. In the lower part of the 2 events at these times are shown with plus and minus depending on the direction of the change in intensity. It is conceivable that the pixel element does not react to any change in intensity, but only when a certain threshold is exceeded. The pixel element is read out event-based at the times at which a change in intensity is detected, and then outputs the sign. The image information can then be supplemented with the value zero at the times when there was no event, so that an image over all pixel elements of the image sensor 14th arises. Unlike conventional images, this picture only shows the moving edges, be it object contours, shadows or imprints.

Neben solchen differenziellen ereignisbasierten Kameras gibt es auch integrierende ereignisbasierte Kameras. Sie reagiert ganz analog auf Intensitätsänderungen. Anstelle einer Ausgabe der Richtung der Intensitätsänderung wird aber in einem durch das Ereignis vorgegebenen Zeitfenster das einfallende Licht integriert. Dadurch entsteht ein Grauwert. Differenzielle und integrierende ereignisbasierte Kameras haben einen unterschiedlichen Hardwareaufbau, und die differenzielle ereignisbasierte Kamera ist schneller, da sie kein Integrationszeitfenster benötigt. Zur Technologie einer ereignisbasierten Kamera wird ergänzend auf die einleitend genannte Patentliteratur und wissenschaftliche Literatur verwiesen.In addition to such differential event-based cameras, there are also integrating event-based cameras. It reacts analogously to changes in intensity. Instead of outputting the direction of the change in intensity, however, the incident light is integrated in a time window specified by the event. This creates a gray value. Differential and integrating event-based cameras have a different hardware structure, and the differential event-based camera is faster because it does not require an integration time window. For the technology of an event-based camera, reference is also made to the patent literature and scientific literature mentioned in the introduction.

Durch die ereignisbasierte Erfassung von Bildinformationen entsteht ein dünn besetzter (sparse) dreidimensionaler Datensatz, da für eine feste Zeit anders als bei einer herkömmlichen Kamera nicht jedes Pixelelement eine Bildinformation liefert, sondern nur diejenigen, die ein Ereignis in Form einer Intensitätsänderung registrieren. Ein Ereignis wird beispielsweise als Tupel mit dem Vorzeichen der Intensitätsänderung bei differentieller ereignisbasierter Kamera beziehungsweise einem Grauwert bei integrierende ereignisbasierter Kamera, der Pixelposition auf dem Bildsensor 14 in X- und Y-Richtung und einem Zeitstempel ausgegeben. Solche Ereignisse können nachgelagert durch Auffüllen mit Nullen wieder zu einer üblichen Matrix ergänzt werden. Zwei Dimensionen entsprechen dann der Pixelanordnung auf dem Bildsensor 14. Wird auch die Zeit berücksichtigt, so entsteht eine dreidimensionale Matrix, deren Schichten jeweils zweidimensionale Bewegungsbilder sind und deren dritte Dimension die Zeit vorzugsweise mit extrem hoher Zeitauflösung im Bereich höchstens weniger Mikrosekunden oder noch darunter ist. Das entspricht einem Film mit durch die Schichten gebildeten Frames, jedoch mit ungewöhnlich hoher Framerate.The event-based acquisition of image information creates a sparsely populated (sparse) three-dimensional data set, since unlike a conventional camera, not every pixel element provides image information for a fixed time, but only those that register an event in the form of a change in intensity. An event is, for example, the pixel position on the image sensor as a tuple with the sign of the change in intensity in the case of a differential event-based camera or a gray value in the case of an integrating event-based camera 14th output in X and Y directions and a time stamp. Such events can be added to a normal matrix afterwards by filling them with zeros. Two dimensions then correspond to the pixel arrangement on the image sensor 14th . If time is also taken into account, a three-dimensional matrix is created, the layers of which are each two-dimensional movement images and the third dimension of which is time, preferably with an extremely high time resolution in the range at most a few microseconds or even less. This corresponds to a film with frames formed by the layers, but with an unusually high frame rate.

3 zeigt eine beispielhafte Überwachungssituation in dem Überwachungsbereich 12. Die Absicherungsaufgabe auf Basis der Kamera 10 besteht darin, die Anwesenheit von Personen 26 zu erkennen und abhängig von deren Position und gegebenenfalls weiterer Größen sowie Position und gegebenenfalls weiterer Größen des Roboters 24 sicherheitsgerichtet eine definierte Reaktion einzuleiten, so dass jederzeit die Sicherheit gewährleistet ist. Es wird nochmals darauf hingewiesen, dass Roboter 24 und Personen 26 stellvertretend für beliebige Maschinen beziehungsweise Objekte in deren Umgebung mit Unfallgefahr stehen. Der ereignisbasierte Bildsensor 14 erkennt nur Intensitätsänderungen, so dass das Kamerabild in Wirklichkeit anders aussieht als in 3. Ruhende Objekte wie der Sockel des Roboters 24 werden nicht erfasst, und auch die Personen 26 werden nicht unbedingt mit allen Strukturmerkmalen erkannt, sondern lediglich deren bewegte Kanten. 3rd shows an exemplary monitoring situation in the monitoring area 12th . The security task based on the camera 10 is the presence of people 26th to recognize and depending on their position and possibly other sizes and position and possibly other sizes of the robot 24 initiate a defined reaction in a safety-oriented manner, so that safety is guaranteed at all times. It is again pointed out that robots 24 and people 26th represent any machines or objects in their vicinity with the risk of accidents. The event-based image sensor 14th only recognizes changes in intensity, so that the camera image looks different in reality than in 3rd . Static objects like the base of the robot 24 are not recorded, and neither are the people 26th are not necessarily recognized with all structural features, but only their moving edges.

Aufgrund seines Funktionsprinzips nimmt der ereignisbasierte Bildsensor 14 überhaupt nur bewegte Objekte wahr. Wenn ein Pixel anspricht, dann befindet sich am entsprechenden Ort im Überwachungsbereich 12 ein Objekt, das im Sicherheitskonzept berücksichtigt werden muss. Das schließt aber zeitliche oder räumliche Filter nicht aus, die beispielsweise ein nur ganz kurz auftauchendes oder kleines Objekt als Störung ausblenden. Es bedarf jedoch keiner aufwändigen Segmentierung, um einen Hintergrund abzutrennen und bewegte Objekte aufzufinden, das geschieht implizit von Anfang an. Mit einer herkömmlichen Kamera würde dieses Zwischenergebnis erst nach einer Vielzahl von Schritten erhalten.Due to its functional principle, the event-based image sensor takes 14th only moving objects are true. If a pixel responds, then it is at the corresponding location in the monitoring area 12th an object that must be taken into account in the security concept. However, this does not exclude temporal or spatial filters that, for example, hide an object that only appears very briefly or as a disturbance. However, there is no need for complex segmentation to separate a background and find moving objects; this happens implicitly from the beginning. With a conventional camera, this intermediate result would only be obtained after a large number of steps.

Um nicht nur die aktuelle Situation zu bewerten, sondern weitere Größen wie die Geschwindigkeit, die Bewegungsrichtung oder auch eine Extrapolation der Bewegung zu erhalten, werden die Personen 26 vorzugsweise von einer Objektverfolgung getrackt. Die damit bisher erfassten Bewegungsbahnen 28 sind in 3 eingezeichnet. Vorzugsweise sind nicht gezeigte Bereiche definiert, wie eine Tür oder ein sonstiger Zugang, wo die Objektverfolgung jeweils einsetzt. Jedenfalls werden Personen 26 von einem der Bildränder her die Szene betreten. Voraussetzung für diese Annahme ist, dass sich beim Hochfahren der Anlage niemand im Überwachungsbereich 12 aufhält, denn eine stehende Person 26 würde nicht erfasst und könnte später irgendwo auftauchen.In order not only to evaluate the current situation, but also to obtain other variables such as the speed, the direction of movement or an extrapolation of the movement, the people 26th preferably tracked by an object tracking. The trajectories of movement recorded so far 28 are in 3rd drawn. Areas, not shown, are preferably defined, such as a door or some other access point where object tracking begins. Anyway, become people 26th enter the scene from one of the edges of the picture. The prerequisite for this assumption is that nobody is in the monitoring area when the system is started up 12th stops, because a standing person 26th would not be recorded and could show up somewhere later.

Auch wenn eine bisher von der Objektverfolgung überwachte Person 26 zum Stehen kommt, geht sie der Erfassung vorübergehend verloren. Diese Position sollte sich die Steuer- und Auswertungseinheit 18 merken und im Sicherheitskonzept berücksichtigen. Der Roboter 24 kann weiterarbeiten, die stehende Person 26 ist keiner Gefahr ausgesetzt. Dabei kann situativ eine maximale Arbeitsgeschwindigkeit in Abhängigkeit vom Abstand der stehenden Person 26 vorgegeben werden. Beginnt die Person 26 sich wieder zu bewegen, so wird das mit der extrem geringen Latenz des ereignisbasierten Bildsensors 14 erkannt, und der Roboter 24 kann praktisch sofort seine Arbeitsgeschwindigkeit anpassen. Die mögliche Arbeitsgeschwindigkeit ist deshalb regelmäßig höher als bei herkömmlichem Speed-and-Separation-Monitoring, und das führt zu einer Effizienzsteigerung des Prozesses.Even if a person previously monitored by object tracking 26th comes to a stop, it is temporarily lost from detection. This position should be the control and evaluation unit 18th note and take into account in the security concept. The robot 24 can continue working, the standing person 26th is not exposed to any danger. Depending on the situation, a maximum working speed can be set depending on the distance between the standing person 26th can be specified. The person begins 26th Moving again is what happens with the extremely low latency of the event-based image sensor 14th recognized and the robot 24 can adjust his working speed practically immediately. The possible working speed is therefore regularly higher than with conventional speed-and-separation monitoring, and this leads to an increase in the efficiency of the process.

Der Gegenpart im Sicherheitskonzept zu den Personen 26 ist der Roboter 24 selbst. Auch dessen Bewegungen werden von dem ereignisbasierten Bildsensor 14 erfasst. Um sie dem Roboter 24 zuzuordnen, kann ein Gefahrenbereich 30 um den Roboter definiert werden. Hier wahrgenommene Bewegungen werden dann dem Roboter 24 zugeordnet. Dabei wird auch genau das relevante bewegte Teil des Roboters 24 mit dessen präziser Position erfasst. Es wird keinesfalls pauschal der gesamte Gefahrenbereich 30 geschützt, was häufig zu deutlich überschätzten Abständen und damit unnötigen Produktivitätseinbußen führen würde. Aufwändige Robotermodelle oder dergleichen, überhaupt eine Kenntnis über Robotertyp oder dessen Geometrie oder eine Kommunikation mit der Robotersteuerung sind dafür nicht erforderlich. Um den Gefahrenbereich 30 besonders genau festzulegen, kann der Roboter 24 von dem Bildsensor 14 ohne Personen 26 in dessen Umgebung eine gewisse Zeit beobachtet werden. Genau die Pixel, die möglicherweise unter Berücksichtigung einer Rauschschwelle in dieser Zeit Ereignisse geliefert haben, gehören zum Gefahrenbereich 30.The counterpart in the security concept to the people 26th is the robot 24 itself. Its movements are also recorded by the event-based image sensor 14th detected. To them the robot 24 can be assigned to a hazardous area 30th to be defined around the robot. Movements perceived here are then transmitted to the robot 24 assigned. In doing so, exactly the relevant moving part of the robot is also determined 24 recorded with its precise position. The entire danger area is by no means a blanket 30th protected, which would often lead to clearly overestimated intervals and thus unnecessary productivity losses. Elaborate robot models or the like, any knowledge of the robot type or its geometry or communication with the robot controller are not required for this. To the danger area 30th The robot can determine particularly precisely 24 from the image sensor 14th without people 26th can be observed in the vicinity for a certain period of time. Exactly those pixels which, taking into account a noise threshold, may have delivered events during this time belong to the danger zone 30th .

Immer wenn zugleich eine bewegte Person 26 und ein bewegter Roboter 24 erfasst werden, so wird situativ der gegenseitige Abstand berechnet und abhängig davon der Roboter 24 in Echtzeit verlangsamt oder beschleunigt beziehungsweise eine Ausweichbewegung eingeleitet. Weitere Parameter wie die Geschwindigkeit, insbesondere deren Komponente in Richtung aufeinander zu, können berücksichtigt werden. Diese Abstandsberechnung erfolgt deutlich schneller als bei herkömmlichen Kameras, da es keine begrenzende Framerate gibt beziehungsweise die Ansprechzeit der Pixel des ereignisbasierten Bildsensors 14 ungleich höher ist. Interessanterweise entspricht typischerweise die Größenordnung der Update-Rate eines ereignisbasierten Bildsensors 14 der Update-Rate von Bahnplanungsbefehlen für einen Roboter 24. Bewegt sich der Roboter 24 nicht, so geht von ihm keine Gefahr aus, und die Person 26 darf sich beliebig nähern. Auch eine außerhalb der Reichweite des Roboters 24 stehende Person 26 ist keiner Gefahr ausgesetzt, wobei hier die Arbeitsgeschwindigkeit des Roboters 24 noch abstandsabhängig begrenzt bleibt. Die Behandlung ruhender Personen 26 im Rahmen der Objektverfolgung wurde bereits diskutiert.Whenever a moving person at the same time 26th and a moving robot 24 are detected, the mutual distance is calculated depending on the situation and, depending on this, the robot 24 Real time slowed down or accelerated or an evasive movement initiated. Further parameters such as the speed, in particular their component in the direction towards one another, can be taken into account. This distance calculation is much faster than with conventional cameras, as there is no limiting frame rate or the response time of the pixels of the event-based image sensor 14th is much higher. Interestingly, the order of magnitude typically corresponds to the update rate of an event-based image sensor 14th the update rate of path planning commands for a robot 24 . The robot moves 24 not, there is no danger from him and the person 26th may approach at will. Also one out of reach of the robot 24 standing person 26th is not exposed to any danger, although here the working speed of the robot 24 still remains limited depending on the distance. Treatment of dormant people 26th in the context of object tracking has already been discussed.

Der Roboter 24 kann in einer bevorzugten Ausführungsform mit einer pulsierenden Beleuchtung ausgestattet werden. Das gleiche gilt für bekannte bewegte Objekte, die sich prinzipiell in der Umgebung des Roboters 24 aufhalten dürfen, wie mobile Roboter oder Fahrzeuge (AMR, autonomous moblie robots, AGV, automated guided vehicle, AGC, automated guided container). Die Pulsfrequenz ist jeweils individuell eingestellt, so dass damit eine Identifizierung des Roboters 24 oder des bekannten Objekts möglich ist. Statt einer einfachen Modulationsfrequenz sind auch komplexere optische Codes denkbar. Aliaseffekte gibt es hier keine, weil der ereignisbasierte Bildsensor 14 keine feste Framefrequenz hat. Bewegte Objekte ohne identifizierte Pulsfrequenz werden als Person 26 behandelt. Alternativ können autorisierte Personen 26 ebenfalls eine pulsierende Beleuchtung tragen. Mit derartigen Trackern wird die Auswertung noch einfacher.The robot 24 can be equipped with pulsating lighting in a preferred embodiment. The same applies to known moving objects that are in principle in the vicinity of the robot 24 stop, such as mobile robots or vehicles (AMR, autonomous moblie robots, AGV, automated guided vehicle, AGC, automated guided container). The pulse frequency is set individually so that the robot can be identified 24 or the known object is possible. Instead of a simple modulation frequency, more complex optical codes are also conceivable. There are no aliasing effects here because of the event-based image sensor 14th does not have a fixed frame rate. Moving objects without an identified pulse rate are considered a person 26th treated. Alternatively, authorized persons can 26th also wear pulsating lighting. Such trackers make the evaluation even easier.

4 zeigt eine beispielhafte Darstellung der erfassten Bewegungsbahn 28a eines langsamen Objekts und der Bewegungsbahn 28b eines schnellen Objekts. Solche Bewegungsbahnen 28a-b werden beispielsweise von der Objektverfolgung gewonnen. Die Darstellung ist nun anders als in 3. Dort wurden die zu verschiedenen Zeitpunkten erfassten Positionen einfach im Raum beziehungsweise auf der Grundfläche aneinandergereiht. Dadurch wird gut sichtbar, wo die Person 26 gelaufen ist, aber der Zeitbezug geht verloren. In 4 dagegen ist die X-Y-Position als Funktion der Zeit zu sehen. Dabei ist die Granulierung wegen der extrem schnellen Erfassung in dem ereignisbasierten Bildsensor 14 sehr fein, so dass sich eine quasi-kontinuierliche Zeitachse ergibt. Unterscheiden sich zwei Bewegungen nur durch die Geschwindigkeit, so ergibt sich wie in 4 eine entsprechend gestauchte beziehungsweise gestreckte Bewegungsbahn 28a-b. 4th shows an exemplary representation of the recorded trajectory 28a of a slow object and the trajectory 28b of a fast object. Such trajectories 28a-b are obtained from object tracking, for example. The representation is now different than in 3rd . There, the positions recorded at different points in time were simply lined up in the room or on the floor area. This makes it easy to see where the person is 26th ran, but the time reference is lost. In 4th on the other hand, the XY position can be seen as a function of time. The granulation is because of the extremely fast detection in the event-based image sensor 14th very fine, so that a quasi-continuous time axis results. If two movements differ only in terms of speed, the result is as in 4th a correspondingly compressed or stretched trajectory 28a-b .

Aus solchen zeitaufgelösten Bewegungsbahnen 28a-b lässt sich die volle vektorielle Geschwindigkeit samt Bewegungsrichtung zu v = ( d x d y ) / d t

Figure DE102019127826B4_0001
bestimmen, wobei dx und dy die Änderung der Pixelkoordinate x beziehungsweise y innerhalb einer Zeit dt ist. Die originären Einheiten sind Pixel beziehungsweise Pixel/Sekunde, aber dies kann bei gemessenem oder unterstelltem Abstand, zum Beispiel indem jedes Objekt vorsichtshalber als auf dem Boden befindlich angesehen wird, in eine übliche Einheit umgerechnet werden.From such time-resolved trajectories 28a-b allows the full vectorial speed including the direction of movement v = ( d x d y ) / d t
Figure DE102019127826B4_0001
determine, where dx and dy are the change in pixel coordinates x and y, respectively, within a time dt. The original units are pixels or pixels / second, but this can be converted into a standard unit if the distance is measured or assumed, for example by considering every object to be on the ground as a precaution.

5 zeigt eine beispielhafte Darstellung der erfassten Bewegungsbahn 28 eines Objekts und einer Prognose oder Prädiktion für die künftige Bewegungsbahn 32. Dazu werden die letzten i ermittelten Geschwindigkeiten betrachtet, um einen Wahrscheinlichkeitskorridor für die Bewegung aufzustellen. Die abnehmende Grausättigung soll die abnehmenden Wahrscheinlichkeiten für eine bestimmte Position andeuten. Die künftige Bewegungsbahn 32 ist als Dreieck gezeigt, denn die Prädiktion wird umso ungenauer, je weiter man versucht, in die Zukunft zu schauen. 5 shows an exemplary representation of the recorded trajectory 28 of an object and a prognosis or prediction for the future trajectory 32 . For this purpose, the last i determined speeds are considered in order to establish a probability corridor for the movement. The decreasing gray saturation is intended to indicate the decreasing probabilities for a certain position. The future trajectory 32 is shown as a triangle, because the prediction becomes less precise the further one tries to look into the future.

6 zeigt eine beispielhafte Darstellung der erfassten Bewegungsbahn 28 eines Objekts und der erfassten Bewegungsbahn 34 des Roboters 24 sowie der jeweiligen Abstände 36 dazwischen. Die durch gestrichelte Linien angedeuteten Abstände 36 sind auf einen jeweiligen festen Zeitpunkt ti bezogen, so dass die jeweiligen Positionen zu diesem festen Zeitpunkt euklidisch miteinander verglichen werden können: d = ( x r x o ) 2 + ( y r y o ) 2 .

Figure DE102019127826B4_0002
Dabei stehen die Indizes r und o für den Roboter 24 beziehungsweise das Objekt. 6th shows an exemplary representation of the recorded trajectory 28 of an object and the recorded trajectory 34 of the robot 24 as well as the respective distances 36 between. The distances indicated by dashed lines 36 are related to a respective fixed point in time t i , so that the respective positions at this fixed point in time can be compared with each other in Euclidean terms: d = ( x r - x O ) 2 + ( y r - y O ) 2 .
Figure DE102019127826B4_0002
The indices r and o stand for the robot 24 or the object.

Die jeweilige Arbeitsgeschwindigkeit des Roboters 24 zur Zeit ti kann dann an die Objektgeschwindigkeit vo und die Distanz d angepasst werden: vr(ti) = f(vo(ti), d(ti)). Wenn wie zu 5 beschrieben die Geschwindigkeit vorhergesagt wird, so lässt sich auch für den künftigen Abstand zwischen Roboter 24 und Objekt eine Prädiktion bestimmen. Die Berechnung der Arbeitsgeschwindigkeit des Roboters 24 kann dann auch von den Prädiktionen abhängig gemacht werden. Wegen der geringen Latenzen des ereignisbasierten Bildsensors 14 sind die Anpassungen der Arbeitsgeschwindigkeit praktisch in Echtzeit möglich.The respective working speed of the robot 24 at time t i can then be adapted to the object speed v o and the distance d: v r (t i ) = f (v o (t i ), d (t i )). If how to 5 Described the speed is predicted, so can also be used for the future distance between robots 24 and object determine a prediction. The calculation of the working speed of the robot 24 can then also be made dependent on the predictions. Because of the low latencies of the event-based image sensor 14th Adjustments to the working speed are practically possible in real time.

Bisher wurde die Absicherung eines zwar in sich beweglichen, aber insgesamt an einem Ort verharrenden Roboters 24 durch eine statisch montierte Kamera 10 betrachtet. Die Kamera 10 eignet sich alternativ auch für mobile Anwendungen, wie AMR, AGV/AGC, wo dann entsprechende Sicherheitsfunktionen definiert werden.So far, the safeguarding of a robot that can move in itself, but generally remains in one place 24 by a statically mounted camera 10 considered. The camera 10 Alternatively, it is also suitable for mobile applications such as AMR, AGV / AGC, where appropriate safety functions are then defined.

Die zweidimensionale Überwachung kann zu einer dreidimensionalen Überwachung erweitert werden, indem zwei ereignisbasierte Bildsensoren 14 in einer Stereokonfiguration betrieben werden. Dabei erfolgt die Stereokorrelation nicht wie sonst üblich pixelweise über die gesamte Matrix, sondern nur für die wenigen gleichzeitig in beiden Bildsensoren 14 erfassten Ereignisse, so dass sich der Aufwand ganz erheblich reduziert. Eine herkömmliche Segmentierung zum Abtrennen eines Hintergrundes, zum Erfassen von Objekten an sich und speziell nur bewegter Objekte ist unabhängig vom Korrelationsverfahren nicht erforderlich, da dies die ereignisbasierten Bildsensoren 14 schon selbst leisten. Die Überwachung in drei Dimensionen hat den Vorteil, dass keine Sicherheitszuschläge bei den berechneten Abständen oder konservativen Annahmen über die Distanz der erfassten Objekte gemacht werden müssen, wie dass diese sich in maximaler Distanz befinden. Dadurch wird die Absicherung noch besser an die Situation angepasst, und der Roboter 24 kann noch schneller arbeiten.The two-dimensional monitoring can be expanded to a three-dimensional monitoring by using two event-based image sensors 14th operated in a stereo configuration. The stereo correlation does not take place, as is otherwise usual, pixel by pixel over the entire matrix, but only for the few at the same time in both image sensors 14th recorded events, so that the effort is considerably reduced. A conventional segmentation for separating a background, for detecting objects per se and especially only moving objects is not necessary, regardless of the correlation method, since this is what the event-based image sensors do 14th already do it yourself. Monitoring in three dimensions has the advantage that no safety margins have to be made for the calculated distances or conservative assumptions about the distance of the detected objects, such as that they are at the maximum distance. As a result, the protection is adapted even better to the situation, and the robot 24 can work even faster.

Claims (14)

Sicherer optoelektronischer Sensor (10) zum Absichern eines Überwachungsbereichs (12) mit mindestens einer Maschine (24), insbesondere einem Roboter, wobei der Sensor (10) einen Bildsensor (14) mit einer Vielzahl von Pixelelementen zum Erzeugen von Bilddaten von Objekten (24, 26) in dem Überwachungsbereich (12) und eine Steuer- und Auswertungseinheit (18) aufweist, die dafür ausgebildet ist, anhand der Bilddaten Objekte (24, 26) zu erfassen und zumindest deren Position zu bestimmen und zu bewerten, um im Falle einer Gefahr auf die Maschine (24) einzuwirken, dadurch gekennzeichnet, dass der Bildsensor (14) ein ereignisbasierter Bildsensor ist, der durch zweikanalige oder selbstprüfende Architektur und/oder durch Plausibilisierungen der Bilddaten mittels der Steuer- und Auswertungseinheit (18) als sicherer ereignisbasierter Bildsensor (14) ausgebildet ist, und dass die Steuer- und Auswertungseinheit dafür ausgebildet ist, von den Pixelelementen erfasste Ereignisse als bewegte Objekte zu behandeln.Safe optoelectronic sensor (10) for securing a monitoring area (12) with at least one machine (24), in particular a robot, the sensor (10) having an image sensor (14) with a large number of pixel elements for generating image data of objects (24, 26) in the monitoring area (12) and a control and evaluation unit (18) which is designed to use the image data to detect objects (24, 26) and to at least determine and evaluate their position in order to be able to use the image data to act on the machine (24), characterized in that the image sensor (14) is an event-based image sensor, which by means of two-channel or self-checking architecture and / or by plausibility checks of the image data by means of the control and evaluation unit (18) as a safe event-based image sensor (14 ) is designed, and that the control and evaluation unit is designed to include events detected by the pixel elements as moving objects to treat. Sensor (10) nach Anspruch 1, wobei ein jeweiliges Pixelelement feststellt, wenn sich die von dem Pixelelement erfasste Intensität ändert, und genau dann ereignisbasiert eine Bildinformation liefert, wobei insbesondere das Pixelelement als Bildinformation eine differentielle Information liefert, ob sich die Intensität verringert oder erhöht hat, oder eine integrierte Intensität in einem durch eine Änderung der Intensität bestimmten Zeitfenster liefert und/oder wobei das jeweilige Pixelelement Bildinformationen mit einer Aktualisierungsfrequenz von mindestens einem KHz oder sogar mindestens zehn KHz, hundert KHz oder 1 MHz ausgibt.Sensor (10) Claim 1 , wherein a respective pixel element determines when the intensity detected by the pixel element changes, and precisely then delivers an event-based image information, wherein in particular the pixel element delivers differential information as image information, whether the intensity has decreased or increased, or an integrated intensity in supplies a time window determined by a change in the intensity and / or wherein the respective pixel element outputs image information with an update frequency of at least one KHz or even at least ten KHz, one hundred KHz or 1 MHz. Sensor (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (18) dafür ausgebildet ist, Signale von Pixelelementen innerhalb sicherheitsrelevanter interessierender Bereiche als bewegte Objekte (24, 26) auszuwerten.Sensor (10) according to one of the preceding claims, wherein the control and evaluation unit (18) is designed to evaluate signals from pixel elements within safety-relevant areas of interest as moving objects (24, 26). Sensor (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (18) für eine Objektverfolgung ausgebildet ist.Sensor (10) according to one of the preceding claims, wherein the control and evaluation unit (18) is designed for object tracking. Sensor (10) nach Anspruch 4, wobei die Steuer- und Auswertungseinheit (18) dafür ausgebildet ist, die Position, an der ein zuvor verfolgtes Objekt (26) zuletzt erfasst wurde, als Position eines ruhenden Objekts (26) zu speichern und in der Bewertung einer Gefahr zu berücksichtigen.Sensor (10) Claim 4 , the control and evaluation unit (18) being designed to store the position at which a previously tracked object (26) was last detected as the position of a stationary object (26) and to take it into account in the assessment of a hazard. Sensor (10) nach Anspruch 4 oder 5, wobei die Steuer- und Auswertungseinheit (18) dafür ausgebildet ist, neu in die Objektverfolgung aufzunehmende Objekte (26) in bestimmten Teilbereichen des Überwachungsbereichs (12) zu suchen, insbesondere am Rand.Sensor (10) Claim 4 or 5 , the control and evaluation unit (18) being designed to search for objects (26) to be newly included in the object tracking in certain sub-areas of the monitoring area (12), in particular at the edge. Sensor (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (18) dafür ausgebildet ist, einen Gefahrenbereich (30) innerhalb des Überwachungsbereichs (12) zu definieren, der möglichen Positionen der Maschine (24) entspricht, insbesondere durch Auswerten von Bilddaten, die während des Betriebs der Maschine (24) aufgenommen werden.Sensor (10) according to one of the preceding claims, wherein the control and evaluation unit (18) is designed to define a danger area (30) within the monitoring area (12) which corresponds to possible positions of the machine (24), in particular by evaluation of image data which are recorded during the operation of the machine (24). Sensor (10) nach Anspruch 7, wobei die Steuer- und Auswertungseinheit (18) dafür ausgebildet ist, in den Bilddaten zu prüfen, ob zugleich ein Ereignis an einer ersten Position innerhalb des Gefahrenbereichs (30) und an einer zweiten Position außerhalb des Gefahrenbereichs (30) eingetreten ist, und in diesem Fall einen Abstand zwischen der ersten Position und der zweiten Position zu berechnen und bei der Bewertung einer Gefahr zu berücksichtigen.Sensor (10) Claim 7 , wherein the control and evaluation unit (18) is designed to check in the image data whether an event has occurred at the same time at a first position within the danger area (30) and at a second position outside the danger area (30), and in In this case, to calculate a distance between the first position and the second position and to take it into account when assessing a hazard. Sensor (10) nach einem der vorhergehenden Ansprüche, der einen sicheren Ausgang (20) aufweist, um Objektpositionen, Abstände von Objekten (26) zu der Maschine (24) und/oder daraus abgeleitete Zusatzinformationen auszugeben, insbesondere die Geschwindigkeit und/oder Bewegungsrichtung.Sensor (10) according to one of the preceding claims, which has a safe output (20) to determine object positions, distances from objects (26) to output the machine (24) and / or additional information derived therefrom, in particular the speed and / or direction of movement. Sensor (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (18) dafür ausgebildet ist, eine die Gefahr ausräumende Arbeitsgeschwindigkeit und/oder einen die Gefahr ausräumenden Arbeitsablauf für die Maschine (24) zu bestimmen.Sensor (10) according to one of the preceding claims, wherein the control and evaluation unit (18) is designed to determine a working speed that eliminates the risk and / or a workflow for the machine (24) that eliminates the risk. Sensor (10) nach einem der vorhergehenden Ansprüche, wobei der Sensor (10) auf der Maschine (24) und mit deren Arbeitsbewegungen mitbewegt angeordnet ist.Sensor (10) according to one of the preceding claims, wherein the sensor (10) is arranged on the machine (24) and moved along with its working movements. Sensor (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (18) dafür ausgebildet ist, Objekte (24, 26) anhand eines modulierten Beleuchtungsmusters zu identifizieren, das von einer am Objekt (24, 26) angeordneten Trackereinrichtung erzeugt ist.Sensor (10) according to one of the preceding claims, wherein the control and evaluation unit (18) is designed to identify objects (24, 26) on the basis of a modulated lighting pattern generated by a tracker device arranged on the object (24, 26) . Sensor (10) nach einem der vorhergehenden Ansprüche, der mindestens zwei ereignisbasierte Bildsensoren (14) in einer Stereoanordnung aufweist, und wobei die Steuer- und Auswertungseinheit (18) dafür ausgebildet ist, in den Bilddaten der beiden Bildsensoren (14) erfasste Ereignisse einander zuzuordnen anhand dessen mit einem Stereoverfahren einen Tiefenwert zu berechnen.Sensor (10) according to one of the preceding claims, which has at least two event-based image sensors (14) in a stereo arrangement, and wherein the control and evaluation unit (18) is designed to assign events recorded in the image data of the two image sensors (14) to one another using this to calculate a depth value with a stereo method. Verfahren zum Absichern eines Überwachungsbereichs (12) mit mindestens einer Maschine (24), insbesondere einem Roboter, wobei ein Bildsensor (14) mit einer Vielzahl von Pixelelementen Bilddaten von Objekten (24, 26) in dem Überwachungsbereich (12) erzeugt und die Bilddaten ausgewertet werden, um Objekte (24, 26) zu erfassen, zumindest deren Position zu bestimmen und zu bewerten, um eine Gefahr zu erkennen und in diesem Falle auf die Maschine (24) einzuwirken, dadurch gekennzeichnet, dass der Bildsensor (14) ein ereignisbasierter Bildsensor ist, der durch zweikanalige oder selbstprüfende Architektur und/oder durch Plausibilisierungen der Bilddaten mittels der Steuer- und Auswertungseinheit (18) als sicherer ereignisbasierter Bildsensor (14) ausgebildet ist, und dass die von den Pixelelementen erfassten Ereignisse als bewegte Objekte behandelt werden.Method for securing a surveillance area (12) with at least one machine (24), in particular a robot, an image sensor (14) with a plurality of pixel elements generating image data of objects (24, 26) in the surveillance area (12) and evaluating the image data are to detect objects (24, 26), at least to determine their position and to evaluate in order to recognize a danger and in this case to act on the machine (24), characterized in that the image sensor (14) is an event-based image sensor which is designed as a secure event-based image sensor (14) through two-channel or self-checking architecture and / or through plausibility checks of the image data by means of the control and evaluation unit (18), and that the events recorded by the pixel elements are treated as moving objects.
DE102019127826.0A 2019-10-15 2019-10-15 Safe optoelectronic sensor and method for securing a surveillance area Active DE102019127826B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019127826.0A DE102019127826B4 (en) 2019-10-15 2019-10-15 Safe optoelectronic sensor and method for securing a surveillance area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019127826.0A DE102019127826B4 (en) 2019-10-15 2019-10-15 Safe optoelectronic sensor and method for securing a surveillance area

Publications (2)

Publication Number Publication Date
DE102019127826A1 DE102019127826A1 (en) 2021-04-15
DE102019127826B4 true DE102019127826B4 (en) 2021-06-02

Family

ID=75156054

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019127826.0A Active DE102019127826B4 (en) 2019-10-15 2019-10-15 Safe optoelectronic sensor and method for securing a surveillance area

Country Status (1)

Country Link
DE (1) DE102019127826B4 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020101794A1 (en) 2020-01-27 2021-07-29 Sick Ag Securing a machine

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130335595A1 (en) * 2012-06-19 2013-12-19 Samsung Electronics Co., Ltd. Event-based image processing apparatus and method
DE102013106514B3 (en) * 2013-06-21 2014-10-30 Pilz Gmbh & Co. Kg Device and method for securing an automated machine
WO2015036592A1 (en) * 2013-09-16 2015-03-19 Chronocam Dynamic, single photodiode pixel circuit and operating method thereof
WO2017174579A1 (en) * 2016-04-04 2017-10-12 Chronocam Sample and hold based temporal contrast vision sensor
DE102017207852A1 (en) * 2016-06-08 2017-12-14 Robert Bosch Gmbh Fire detection device for detecting a fire and / or smoke in a surveillance area
WO2018073379A1 (en) * 2016-10-20 2018-04-26 Chronocam Pixel circuit for detecting time-dependent visual data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130335595A1 (en) * 2012-06-19 2013-12-19 Samsung Electronics Co., Ltd. Event-based image processing apparatus and method
DE102013106514B3 (en) * 2013-06-21 2014-10-30 Pilz Gmbh & Co. Kg Device and method for securing an automated machine
WO2015036592A1 (en) * 2013-09-16 2015-03-19 Chronocam Dynamic, single photodiode pixel circuit and operating method thereof
WO2017174579A1 (en) * 2016-04-04 2017-10-12 Chronocam Sample and hold based temporal contrast vision sensor
DE102017207852A1 (en) * 2016-06-08 2017-12-14 Robert Bosch Gmbh Fire detection device for detecting a fire and / or smoke in a surveillance area
WO2018073379A1 (en) * 2016-10-20 2018-04-26 Chronocam Pixel circuit for detecting time-dependent visual data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GALLEGO, Guillermo ; REBECQ, Henri ; SCARAMUZZA, Davide: A unifying contrast maximization framework for event cameras, with applications to motion, depth, and optical flow estimation. In: IEEE/CVF Conference on Computer Vision and Pattern Recognition, 18-23 June 2018, Salt Lake City, UT, USA, 2018, S. 3867-3876. - ISSN 2575-7075 (E); 1063-6919 (P). DOI: 10.1109/CVPR.2018.00407. URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8578505 [abgerufen am 2019-11-25] *

Also Published As

Publication number Publication date
DE102019127826A1 (en) 2021-04-15

Similar Documents

Publication Publication Date Title
EP2558886B1 (en) Device for monitoring at least one three-dimensional safety area
EP3011225B1 (en) Device and method for securing a machine that operates in an automated manner
EP3701340B1 (en) Monitoring device, industrial installation, method for monitoring, and computer program
EP3421189B1 (en) Method for monitoring a machine
EP3611422B1 (en) Sensor assembly and method for securing a supervised area
EP3200122B1 (en) Optoelectronic sensor and method for secure detection of objects of at least a certain size
EP2825812B1 (en) Method and device for securing a hazardous working area of an automated machine
EP3578319B1 (en) Method for securing a hazardous area
EP2023160A1 (en) 3D room surveillance with configuration mode for determining the protection fields
DE102017111885B4 (en) Method and system for monitoring a machine
EP3650740B1 (en) Safety system and method for monitoring a machine
DE102016222245A1 (en) Device and method for acting on objects
DE102020114488B3 (en) Optoelectronic safety sensor and method for protecting a machine
DE102008046346A1 (en) Spatial region i.e. medical treatment room, monitoring method for X-ray device, involves developing three-dimensional environment model from spatial points, where model specifies space volumes occupied by objects within spatial region
EP3572971B1 (en) Securing a surveillance area with at least one machine
DE102019127826B4 (en) Safe optoelectronic sensor and method for securing a surveillance area
DE102009026091A1 (en) Method for monitoring three-dimensional spatial area, particularly work cell of automatic working machine, for e.g. robot, involves accomplishing independent scene analysis of images in or for each camera
EP3203262B1 (en) Optoelectronic device for securing a source of danger
EP3893145B1 (en) Protection of hazardous location
EP3575666A1 (en) Device for protecting a hazardous area of a system
DE10138960A1 (en) Surveillance method for monitoring surveillance space uses different brightness values provided by different image data sets for providing distance information for given point
EP2818824B1 (en) Apparatus comprising an optoelectronic 3D-sensor and method for recognising objects
DE102020101794A1 (en) Securing a machine
DE202015102019U1 (en) Camera for taking pictures of a detection area
EP4102486A2 (en) Aircraft and method for controlling the flight movement of an aircraft

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final