DE102019127826B4 - Safe optoelectronic sensor and method for securing a surveillance area - Google Patents
Safe optoelectronic sensor and method for securing a surveillance area Download PDFInfo
- Publication number
- DE102019127826B4 DE102019127826B4 DE102019127826.0A DE102019127826A DE102019127826B4 DE 102019127826 B4 DE102019127826 B4 DE 102019127826B4 DE 102019127826 A DE102019127826 A DE 102019127826A DE 102019127826 B4 DE102019127826 B4 DE 102019127826B4
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- event
- evaluation unit
- designed
- control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F16—ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
- F16P—SAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
- F16P3/00—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
- F16P3/12—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
- F16P3/14—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
- F16P3/142—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F16—ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
- F16P—SAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
- F16P3/00—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
- F16P3/12—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
- F16P3/14—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
- F16P3/144—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using light grids
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
Sicherer optoelektronischer Sensor (10) zum Absichern eines Überwachungsbereichs (12) mit mindestens einer Maschine (24), insbesondere einem Roboter, wobei der Sensor (10) einen Bildsensor (14) mit einer Vielzahl von Pixelelementen zum Erzeugen von Bilddaten von Objekten (24, 26) in dem Überwachungsbereich (12) und eine Steuer- und Auswertungseinheit (18) aufweist, die dafür ausgebildet ist, anhand der Bilddaten Objekte (24, 26) zu erfassen und zumindest deren Position zu bestimmen und zu bewerten, um im Falle einer Gefahr auf die Maschine (24) einzuwirken, dadurch gekennzeichnet, dass der Bildsensor (14) ein ereignisbasierter Bildsensor ist, der durch zweikanalige oder selbstprüfende Architektur und/oder durch Plausibilisierungen der Bilddaten mittels der Steuer- und Auswertungseinheit (18) als sicherer ereignisbasierter Bildsensor (14) ausgebildet ist, und dass die Steuer- und Auswertungseinheit dafür ausgebildet ist, von den Pixelelementen erfasste Ereignisse als bewegte Objekte zu behandeln.Safe optoelectronic sensor (10) for securing a monitoring area (12) with at least one machine (24), in particular a robot, the sensor (10) having an image sensor (14) with a large number of pixel elements for generating image data of objects (24, 26) in the monitoring area (12) and a control and evaluation unit (18) which is designed to use the image data to detect objects (24, 26) and to at least determine and evaluate their position in order to prevent danger to act on the machine (24), characterized in that the image sensor (14) is an event-based image sensor, which by means of two-channel or self-checking architecture and / or by plausibility checks of the image data by means of the control and evaluation unit (18) as a safe event-based image sensor (14 ) is designed, and that the control and evaluation unit is designed to include events detected by the pixel elements as moving objects to treat.
Description
Die Erfindung betrifft einen sicheren optoelektronischen Sensor, insbesondere eine sichere Kamera, und ein Verfahren zum Absichern eines Überwachungsbereichs nach dem Oberbegriff von Anspruch 1 beziehungsweise 14.The invention relates to a safe optoelectronic sensor, in particular a safe camera, and a method for protecting a surveillance area according to the preamble of
Das primäre Ziel der Sicherheitstechnik ist, Personen vor Gefahrenquellen zu schützen, wie sie beispielsweise Maschinen im industriellen Umfeld darstellen. Die Maschine wird mit Hilfe von Sensoren überwacht, und wenn demnach eine Situation vorliegt, in der eine Person gefährlich nahe an die Maschine zu gelangen droht, wird eine geeignete Absicherungsmaßnahme ergriffen. Das gängige Absicherungskonzept sieht vor, dass Schutzfelder konfiguriert werden, die während des Betriebs der Maschine vom Bedienpersonal nicht betreten werden dürfen. Erkennt der Sensor einen unzulässigen Schutzfeideingriff, etwa ein Bein einer Bedienperson, so löst er einen sicherheitsgerichteten Halt der Maschine aus.The primary goal of safety technology is to protect people from sources of danger, such as those presented by machines in an industrial environment. The machine is monitored with the help of sensors, and if there is a situation in which a person threatens to get dangerously close to the machine, a suitable safety measure is taken. The current protection concept provides that protective fields are configured that are not allowed to be entered by the operating personnel while the machine is in operation. If the sensor detects an impermissible protective field intervention, for example an operator's leg, it triggers a safety-related stop of the machine.
In der Sicherheitstechnik eingesetzte Sensoren müssen besonders zuverlässig arbeiten und deshalb hohe Sicherheitsanforderungen erfüllen, beispielsweise die Norm EN13849 für Maschinensicherheit und die Gerätenorm IEC61496 oder EN61496 für berührungslos wirkende Schutzeinrichtungen (BWS). Zur Erfüllung dieser Sicherheitsnormen sind eine Reihe von Maßnahmen zu treffen, wie sichere elektronische Auswertung durch redundante, diversitäre Elektronik, Funktionsüberwachung oder speziell Überwachung der Verschmutzung optischer Bauteile.Sensors used in safety technology must work particularly reliably and therefore meet high safety requirements, for example the EN13849 standard for machine safety and the IEC61496 or EN61496 device standard for electro-sensitive protective devices (ESPE). A number of measures must be taken to meet these safety standards, such as safe electronic evaluation through redundant, diverse electronics, function monitoring or, in particular, monitoring of the contamination of optical components.
Durch den zunehmenden Einsatz von Robotern oder sogenannten Cobots (collaborative robot) im Industriebereich werden Sicherheitsaspekte und Mensch-Roboter-Kollaboration (MRK) immer wichtiger. Relevante Normen in diesem Zusammenhang sind beispielsweise die
Eine Bewertung von Objekten und Maschinen bezüglich Geschwindigkeit und gegenseitiger Entfernung wird in den genannten Roboternormen als „Speed and Separation Monitoring“ bezeichnet. Die meisten herkömmlichen sicheren überwachenden Sensoren, wie Laserscanner oder 3D-Kameras, unterstützen das aber nicht. Sie arbeiten weiterhin mit den üblichen Schutzfeldern, und sie liefern nur ein binäres Abschaltsignal, ob ein Schutzfeld verletzt ist oder nicht. Zwar ist die Sicherheit auf diese Weise gewährleistet, aber nicht besonders flexibel und auch häufig mit unnötigen Sicherheitszuschlägen und damit Einschränkungen der Verfügbarkeit, da die Schutzfelder für worst-case-Szenarien und nicht die tatsächliche aktuelle Situation konfiguriert sind.An evaluation of objects and machines in terms of speed and mutual distance is referred to as "Speed and Separation Monitoring" in the robot standards mentioned. Most conventional safe monitoring sensors, such as laser scanners or 3D cameras, do not support this. They continue to work with the usual protective fields, and they only provide a binary switch-off signal to indicate whether a protective field is violated or not. Security is guaranteed in this way, but not particularly flexible and often with unnecessary security surcharges and thus restrictions on availability, since the protective fields are configured for worst-case scenarios and not the actual current situation.
Es gibt im Stand der Technik auch einige Ansätze, um Abstände zwischen Maschine und möglicherweise zu nahe kommendem Objekt zu überwachen. Beispielsweise sind Stereokameras oder Lichtlaufzeitkameras bekannt, die entsprechende Abstandsinformationen erzeugen und ausgeben. Auch mit üblichen Bildkameras, die zweidimensionale Bilder liefern, lässt sich durch entsprechend aufwändige Bildauswertung für ein sicheres Umfeld sorgen. Speziell thermische Kameras können Lebewesen und Objekte unterscheiden.There are also some approaches in the prior art for monitoring the distances between the machine and an object that is possibly too close. For example, stereo cameras or time-of-flight cameras are known which generate and output corresponding distance information. Even with conventional image cameras that deliver two-dimensional images, a correspondingly complex image evaluation can be used to ensure a safe environment. Thermal cameras in particular can differentiate between living beings and objects.
Ein Nachteil von Bildkameras ist, dass Veränderungen durch Vergleichen zweier oder mehrerer Bilder erfasst werden. Dies bedarf aufwändiger Bildauswertung und daher hoher Rechenleistung. Als weiterer Nachteil kommt hinzu, dass die Informationen aufgrund der Framerate diskret sind. Was zwischen den Frames passiert, wird nicht gemessen. Durch Hochgeschwindigkeitskameras könnte ein höherer Informationsfluss erreicht werden, aber das funktioniert auch nur in Grenzen, und zu den hohen Hardwarekosten kommt die noch aufwändigere Verarbeitung der immensen Datenmengen hinzu. Weiterhin existieren Algorithmen, die beispielsweise den optischen Fluss bestimmen und damit vorhersagen, was zwischen den Frames beziehungsweise in künftigen Frames geschieht. Das bedeutet wiederum hohen Rechenaufwand und erzeugt weitere Fehler, da die echte Messinformation dieselbe bleibt.A disadvantage of image cameras is that changes are recorded by comparing two or more images. This requires complex image evaluation and therefore high computing power. Another disadvantage is that the information is discrete due to the frame rate. What happens between the frames is not measured. A higher flow of information could be achieved with high-speed cameras, but that only works to a limited extent, and in addition to the high hardware costs there is the even more complex processing of the immense amounts of data. There are also algorithms that determine the optical flow, for example, and thus predict what will happen between the frames or in future frames. This in turn means a high computational effort and generates further errors, since the real measurement information remains the same.
In jüngster Zeit ist eine neuartige Kameratechnik entstanden, die sogenannte ereignis- oder eventbasierte Kamera. Sie wird in Anlehnung an den visuellen Cortex auch als neuromorphologische Kamera bezeichnet. Dies wurde aber bisher in keinen Zusammenhang mit der Sicherheitstechnik oder gar der Mensch-Roboter-Kooperation gebracht. Eine herkömmliche Kamera belichtet mit einer regelmäßigen Frame- oder Bildwiederholrate alle ihre Pixel und liest sie dann gleichzeitig aus, um so eine der Bildwiederholrate entsprechende Anzahl stationärer zweidimensionaler Bilder pro betrachtetem Zeitraum zu gewinnen.Recently, a new type of camera technology has emerged, the so-called event-based or event-based camera. Based on the visual cortex, it is also referred to as a neuromorphological camera. So far, however, this has not been brought into connection with safety technology or even human-robot cooperation. A conventional camera exposes all of its pixels at a regular frame or image repetition rate and then reads them out simultaneously in order to obtain a number of stationary two-dimensional images per observed period corresponding to the image repetition rate.
In einer ereignisbasierten Kamera gibt es ebenfalls eine Matrix von Pixeln, aber weder eine feste Bildwiederholrate noch ein gemeinsames Auslesen von Pixeln. Stattdessen prüft jedes Pixel einzeln, ob es eine Änderung in der Intensität feststellt. Nur in diesem Fall wird eine Bildinformation ausgegeben beziehungsweise ausgelesen, und zwar nur von diesem Pixel. Jedes Pixel ist somit eine Art unabhängiger Bewegungsdetektor. Eine erfasste Bewegung wird individuell als Ereignis gemeldet. Dadurch reagiert die ereignisbasierte Kamera äußerst schnell auf die Dynamik in der Szene. Die Bilddaten sind für das menschliche Auge nicht so intuitiv zu erfassen, weil die statischen Bildanteile fehlen.In an event-based camera there is also a matrix of pixels, but neither a fixed frame rate nor a common one Reading out pixels. Instead, each pixel checks individually to see if it detects a change in intensity. Only in this case is image information output or read out, and only from this pixel. Each pixel is thus a kind of independent motion detector. A detected movement is reported individually as an event. As a result, the event-based camera reacts extremely quickly to the dynamics in the scene. The image data cannot be grasped so intuitively for the human eye because the static image components are missing.
Eine ereignisbasierte Kamera wird beispielsweise in einem Whitepaper der Firma Prophesee beschrieben, das auf deren Internetseite abgerufen werden kann.An event-based camera is described, for example, in a whitepaper from the Prophesee company, which can be found on their website.
Aus der
Die Arbeit von
Die
Die
In der
Vor diesem Hintergrund ist daher Aufgabe der Erfindung, die sichere optische Überwachung einer Maschine zu verbessern.Against this background, the object of the invention is therefore to improve the safe optical monitoring of a machine.
Diese Aufgabe wird durch einen sicheren optoelektronischen Sensor, insbesondere eine sichere Kamera, und ein Verfahren zum Absichern eines Überwachungsbereichs nach Anspruch 1 beziehungsweise 14 gelöst. Der Sensor ist sicher, also für eine sicherheitstechnische Anwendung ausgelegt, und erfüllt dafür die notwendigen der einleitend genannten oder entsprechenden Normen beziehungsweise Anforderungen, um eine gefahrbringende Maschine abzusichern. Es handelt sich insbesondere um eine Kamera. Als Maschine wird in dieser Beschreibung das Beispiel eines Roboters verwendet, wobei aber andere Maschinen mit gemeint sind, die eine Unfallgefahr vor allem für das Bedienpersonal darstellen. Speziell wird eine Mensch-Roboter-Kollaboration abgesichert.This object is achieved by a safe optoelectronic sensor, in particular a safe camera, and a method for securing a surveillance area according to
Der Sensor weist mindestens einen Bildsensor mit einer Vielzahl von Pixelelementen auf, um Bilddaten von Objekten in einer Umgebung der Maschine zu erfassen. Diese Bilddaten werden in einer Steuer- und Auswertungseinheit verarbeitet, um die Objekte zu erfassen und zumindest deren Position zu bestimmen. Weiter unten werden auch andere Parameter genannt, die zusätzlich bestimmt werden können, wie der Abstand des Objekts zu der Maschine oder dessen Geschwindigkeit und weitere. Anhand der Position und gegebenenfalls weiterer Parameter wird die Gefahrenlage bewertet und erforderlichenfalls eine Gegenmaßnahme eingeleitet, um eine erkannte Gefahr auszuräumen. Je nach Situation kann diese Gegenmaßnahme in einer Verlangsamung der Bewegung, einem Ausweichen oder einem Anhalten bestehen. Die Steuer- und Auswertungseinheit kann zumindest teilweise extern außerhalb des eigentlichen Sensors implementiert sein, beispielsweise in einer an den Sensor angeschlossenen Sicherheitssteuerung und/oder in einer Robotersteuerung, und wird hier funktional dennoch dem Sensor zugerechnet.The sensor has at least one image sensor with a multiplicity of pixel elements in order to acquire image data of objects in the vicinity of the machine. These image data are processed in a control and evaluation unit in order to detect the objects and at least determine their position. Other parameters that can also be determined, such as the distance between the object and the machine or its speed, and others are also mentioned below. On the basis of the position and, if necessary, further parameters, the danger situation is evaluated and, if necessary, a countermeasure is initiated in order to eliminate a recognized danger. Depending on the situation, this countermeasure can consist of slowing down the movement, evasive action or stopping. The control and evaluation unit can at least partially be implemented externally outside the actual sensor, for example in a safety controller connected to the sensor and / or in a robot controller, and is functionally assigned to the sensor here.
Die Erfindung geht von dem Grundgedanken einer ereignisbasierten Absicherung aus. Der Bildsensor ist dafür ein ereignisbasierter oder neuromorphologischer Bildsensor anstelle eines herkömmlichen Bildsensors. Die Unterschiede wurden einleitend kurz diskutiert: Die Pixel erkennen jeweils Veränderungen in der Intensität, statt einfach die jeweilige Intensität zu messen. Eine solcher Veränderung, die vorzugsweise rasch genug sein und ein Rauschmaß übersteigen sollte, ist eines der namensgebenden Ereignisse. Zudem werden Signale nur bei einer solchen Veränderung in der Intensität bereitgestellt beziehungsweise ausgelesen werden, und zwar nur von dem betroffenen Pixel oder den betroffenen Pixeln.The invention is based on the basic idea of event-based protection. The image sensor is an event-based or neuromorphological image sensor instead of a conventional image sensor. The differences were briefly discussed in the introduction: The pixels each recognize changes in intensity instead of simply measuring the respective intensity. Such a change, which should preferably be quick enough and exceed a noise figure, is one of the eponymous events. In addition, signals are only provided or read out in the event of such a change in intensity, specifically only from the affected pixel or pixels.
Die Erfindung hat den Vorteil, dass eine ereignisbasierte Absicherung möglich wird, insbesondere ein ereignisbasiertes Speed-and-Separation Monitoring. Eine eigentliche Framerate gibt es nicht mehr. Die effektive Wiederholrate der Erfassung durch die auf Ereignisse reagierenden Pixel ist extrem hoch. Diese geringen Latenzen ermöglichen eine Erfassung und Reaktion praktisch in Echtzeit. Es werden nur solche Bereiche ausgelesen und damit beachtet, in denen es eine Intensitätsveränderung gibt. Redundante Daten wie ein statischer Hintergrund werden erst gar nicht aufgenommen. Eine Hintergrundsegmentierung und Erkennung von Objekten, nämlich den für eine Absicherung gefährlichen bewegten Objekten, leistet bereits der ereignisbasierte Bildsensor durch sein Arbeitsprinzip. Die Bildauswertung wesentlich vereinfacht und zugleich robuster und damit der Sensor technologisch einfacher zu realisieren und verbessert trotzdem die Überwachung besonders im Falle hochdynamischer, enger Kollaborationsszenarien. Dabei wird der Prozessablauf effizienter, der Bedarf an Rechenleistung und auch Energieaufnahme verringert sich.The invention has the advantage that event-based protection becomes possible, in particular event-based speed-and-separation monitoring. There is no longer an actual frame rate. The effective repetition rate of the acquisition by the event-responsive pixels is extremely high. These low latencies enable detection and response in practically real time. Only those areas are read out and thus taken into account in which there is a change in intensity. Redundant data such as a static background are not recorded at all. Background segmentation and detection of objects, namely moving objects that are dangerous for protection, is already performed by the event-based image sensor through its operating principle. The image evaluation is significantly simplified and at the same time more robust and thus the sensor is technologically easier to implement and nevertheless improves the monitoring, especially in the case of highly dynamic, close collaboration scenarios. The process flow becomes more efficient, the need for computing power and energy consumption are reduced.
Ein ereignisbasierter Bildsensor ermöglicht zusätzlich zu der sehr schnellen Pixelauslöserate auch einen hohen Dynamikbereich. Der ereignisbasierte Bildsensor ist gegenüber dem Gleichlichtanteil des Hintergrundes nahezu unempfindlich, da dies keine Intensitätsänderung verursacht und deshalb kein Ereignis auslöst. Die meisten Fremdlichtszenarien werden dadurch abgedeckt, denn Szenenänderungen sind entweder sehr träge, weil das Licht permanent an ist, oder ganz kurzfristig, wenn beispielsweise Licht eingeschaltet wird. Ein solches kurzes Ereignis verschwindet schnell in den Bilddaten. Eine modulierte Lichtquelle, wie beispielsweise eine mit 50 Hz modulierte Halogenlampe, kann von der Steuer- und Auswertungseinheit unterdrückt werden. Alle diese Fälle zeigen eine deutlich andere Signatur als die Bewegung von Menschen oder Robotern.In addition to the very fast pixel trigger rate, an event-based image sensor also enables a high dynamic range. The event-based image sensor is almost insensitive to the constant light component of the background, since this does not cause any change in intensity and therefore does not trigger an event. Most extraneous light scenarios are covered by this, because scene changes are either very sluggish because the light is permanently on, or very briefly when, for example, the light is switched on. Such a brief event quickly disappears in the image data. A modulated light source, such as a halogen lamp modulated at 50 Hz, can be suppressed by the control and evaluation unit. All of these cases show a distinctly different signature than the movement of humans or robots.
Als zusätzlicher Vorteil kann angesehen werden, dass sich typischerweise aus den Bilddaten eines ereignisbasierten Bildsensors eine Person zwar als Person erkennen, nicht aber identifizieren lässt. Für die Absicherung, die jede Person schützen soll, ist das völlig ausreichend. Im Gegensatz zu herkömmlichen Bildern ist es nicht mehr erforderlich, erkannte Personen aus Datenschutzgründen zu anonymisieren, weil auch das bereits automatisiert durch das Prinzip des ereignisbasierten Bildsensors geschieht.It can be seen as an additional advantage that a person can typically be recognized as a person from the image data of an event-based image sensor, but cannot be identified. This is completely sufficient for the security that every person is supposed to protect. In contrast to conventional images, it is no longer necessary to anonymize recognized persons for data protection reasons, because this is already done automatically by the principle of the event-based image sensor.
Ein jeweiliges Pixelelement stellt bevorzugt fest, wenn sich die von dem Pixelelement erfasste Intensität ändert, und liefert genau dann ereignisbasiert eine Bildinformation. Das besondere Verhalten der Pixelelemente einer ereignisbasierten Kamera wurde bereits mehrfach angesprochen. Das Pixelelement prüft, ob sich die erfasste Intensität verändert. Nur das ist ein Ereignis, und nur bei einem Ereignis wird eine Bildinformation ausgegeben oder ausgelesen. Es ist eine Art Hysterese denkbar, bei der das Pixelelement eine definierte, zu geringfügige Änderung der Intensität noch ignoriert und nicht als Ereignis auffasst.A respective pixel element preferably determines when the intensity detected by the pixel element changes, and precisely then delivers image information based on an event. The special behavior of the pixel elements of an event-based camera has already been mentioned several times. The pixel element checks whether the recorded intensity changes. Only that is an event, and image information is only output or read out in the event of one event. A type of hysteresis is conceivable in which the pixel element ignores a defined, too slight change in the intensity and does not perceive it as an event.
Das Pixelelement liefert vorzugsweise als Bildinformation eine differentielle Information, ob sich die Intensität verringert oder erhöht hat. Die aus dem Pixelelement gelesene Information ist also beispielsweise ein Vorzeichen +1 oder -1 je nach Änderungsrichtung der Intensität. Dabei kann eine Schwelle für Intensitätsänderungen gesetzt sein, bis zu denen das Pixelelement noch kein Ereignis auslöst. In einer nachgelagerten internen Repräsentation zur weiteren Auswertung kann für Zeiten, zu denen kein Ereignis erfasst wurde, der Wert 0 ergänzt werden.The pixel element preferably supplies differential information as image information as to whether the intensity has decreased or increased. The information read from the pixel element is therefore, for example, a sign +1 or -1 depending on the direction of change of the intensity. A threshold can be set for intensity changes up to which the pixel element does not yet trigger an event. In a subsequent internal representation for further evaluation, the value 0 can be added for times when no event was recorded.
Das Pixelelement liefert bevorzugt als Bildinformation eine integrierte Intensität in einem durch eine Änderung der Intensität bestimmten Zeitfenster. Hier beschränkt sich die Information nicht auf eine Richtung der Intensitätsänderung, sondern es wird in einem durch das Ereignis festgelegten Zeitfenster das einfallende Licht integriert und dadurch ein Grauwert bestimmt. Der Messwert entspricht damit demjenigen einer herkömmlichen Kamera, aber der Zeitpunkt der Erfassung bleibt ereignisbasiert und an eine Intensitätsänderung gekoppelt.The pixel element preferably supplies, as image information, an integrated intensity in a time window determined by a change in the intensity. Here the information is not limited to one direction of the change in intensity, but the incident light is integrated in a time window determined by the event and a gray value is thereby determined. The measured value corresponds to that of a conventional camera, but the time of acquisition remains event-based and linked to a change in intensity.
Das jeweilige Pixelelement gibt Bildinformationen bevorzugt mit einer Aktualisierungsfrequenz von mindestens einem KHz oder sogar mindestens zehn KHz, hundert KHz oder 1 MHz ausgibt. Das entspricht Latenzzeiten von nur 1 ms bis sogar nur 1 µs. Die Aktualisierungsfrequenz einer herkömmlichen Kamera ist die Bildwiederholfrequenz oder Framerate. Eine solche gemeinsame Bildwiederholfrequenz kennt die ereignisbasierte Kamera nicht, da die Pixelelemente ihre Bildinformationen einzeln und ereignisbasiert ausgeben oder auffrischen. Dabei gibt es aber extrem kurze Ansprechzeiten, die mit einer herkömmlichen Kamera nur zu immensen Kosten mit tausend oder mehr Bildern pro Sekunde erreichbar wären, bei einer ereignisbasierten immer noch möglichen Aktualisierungsfrequenz wäre das mit herkömmlichen Kameras technisch nicht mehr darstellbar. Diese hohe zeitliche Auflösung hat auch den Vorteil, dass es praktisch keine Bewegungsartefakte (motion blurr) gibt. Innerhalb einer der extrem kurzen Aktualisierungsperioden, die einer herkömmlichen Belichtungszeit entspricht, bewegt sich ein Objekt nicht mehrere Pixel weiter, und deshalb wird auch kein verschmiertes Bild aufgenommen.The respective pixel element outputs image information preferably with an update frequency of at least one KHz or even at least ten KHz, one hundred KHz or 1 MHz. This corresponds to latency times from just 1 ms to even just 1 µs. The refresh rate of a traditional camera is the refresh rate or frame rate. The event-based camera does not have such a common image refresh rate, since the pixel elements output or refresh their image information individually and on an event-based basis. However, there are extremely short response times that could only be achieved with a conventional camera at immense costs with thousands or more images per second; with an event-based update frequency that is still possible, this would no longer be technically feasible with conventional cameras. This high temporal resolution also has the advantage that there are practically no motion artifacts (motion blurr). An object does not move several pixels further within one of the extremely short update periods, which corresponds to a conventional exposure time, and therefore no smeared image is recorded.
Der Bildsensor erzeugt bevorzugt als Bildinformation einen Datenstrom aus Ereignissen, die jeweils Koordinateninformationen des zugehörigen Pixelelements, eine Zeitinformation und eine Intensitätsinformation aufweisen. Ein herkömmlicher Datenstrom besteht aus den Intensitäts- oder Grauwerten der Pixel, und der Ortsbezug in der Bildsensorebene entsteht dadurch, dass sämtliche Pixel in geordneter Abfolge ausgelesen werden. Bei dem ereignisbasierten Bildsensor werden stattdessen vorzugsweise Datentupel je Ereignis ausgegeben, die das Ereignis zuordenbar machen. Dabei wird der Ort des zugehörigen Pixelelements, die Richtung ±1 der Intensitätsänderung und/oder die zum Ereignis gemessene Intensität sowie ein Zeitstempel festgehalten.The image sensor preferably generates a data stream of events as image information, each of which has coordinate information of the associated pixel element, time information and intensity information. A conventional data stream consists of the intensity or gray values of the pixels, and the location reference in the image sensor plane arises from the fact that all pixels are read out in an orderly sequence. In the event-based image sensor, instead, data tuples are preferably output for each event that the event make assignable. The location of the associated pixel element, the direction ± 1 of the change in intensity and / or the intensity measured for the event and a time stamp are recorded.
Vorzugsweise wird der Datenstrom durch Auffüllen mit Nullen in eine Matrix gewandelt, deren Basis durch die Anordnung der Pixelelemente auf dem Bildsensor und die Zeit gebildet ist. Für die weitere Verarbeitung ist häufig eine gewohnte Matrixdarstellung geeigneter, die aus einer Sequenz zeitlich aufeinander folgender Einzelbilder besteht, d.h. aus in der Zeit aneinandergereihten Schichten der jeweils zu einem festen Zeitpunkt aufgenommenen Intensitätsverteilung über die Pixelelemente des Bildsensors. Die Granulierung der Zeitrichtung würde herkömmlich durch die Framerate vorgegeben, bei einer ereignisbasierten Kamera kann sie viel feiner festgelegt werden. Durch die Ereignisse wird letztlich eine dünn besetzte Matrix (sparse matrix) erzeugt, der Datenstrom von dem ereignisbasierten Bildsensor entspricht einer speicher- und bandbreitensparenden Repräsentation davon.The data stream is preferably converted into a matrix by filling it with zeros, the basis of which is formed by the arrangement of the pixel elements on the image sensor and the time. For further processing, a familiar matrix display is often more suitable, which consists of a sequence of individual images following one another in time, i.e. of layers of the intensity distribution recorded at a fixed point in time over the pixel elements of the image sensor. The granulation of the time direction would conventionally be specified by the frame rate; with an event-based camera it can be specified much more precisely. The events ultimately generate a sparse matrix, and the data stream from the event-based image sensor corresponds to a memory and bandwidth-saving representation of it.
Der ereignisbasierte Bildsensor ist bevorzugt durch zweikanalige oder selbstprüfende Architektur und/oder durch Plausibilisierungen der Bilddaten mittels der Steuer- und Auswertungseinheit als sicherer ereignisbasierter Bildsensor ausgebildet. Damit erfüllt der nicht für die Sicherheitstechnik entwickelte ereignisbasierte Bildsensor die Anforderungen entsprechend den einleitend genannten Normen. Es ist denkbar, die Sicherheit direkt im Bildsensor zu verankern, aber das erfordert eine extrem teure Chipentwicklung. Stattdessen können zwei allein nicht sichere Bildsensoren verwendet werden, die einander gegenseitig prüfen, oder es werden mit nur einem zunächst nicht sicheren Bildsensor Tests und Plausibilisierungen in dem gewünschten Sicherheitsniveau entsprechenden Zeitabständen durchgeführt. Solche Tests können vom Bildsensor selbst oder der Steuer- und Auswertungseinheit gesteuert werden.The event-based image sensor is preferably designed as a secure event-based image sensor through two-channel or self-checking architecture and / or through plausibility checks of the image data by means of the control and evaluation unit. The event-based image sensor that was not developed for safety technology thus fulfills the requirements of the standards mentioned in the introduction. It is conceivable to anchor security directly in the image sensor, but that requires extremely expensive chip development. Instead, two image sensors that are not safe alone can be used, which mutually check each other, or tests and plausibility checks are carried out with only one initially unsafe image sensor at time intervals corresponding to the desired security level. Such tests can be controlled by the image sensor itself or the control and evaluation unit.
Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, von den Pixelelementen erfasste Ereignisse als bewegte Objekte auszuwerten, insbesondere Signale von Pixelelementen innerhalb sicherheitsrelevanter interessierender Bereiche. Wenn in einem Pixel oder Pixelbereich des ereignisbasierten Bildsensors ein Ereignis registriert wird, so wird dies in der Auswertung direkt als bewegtes Objekt behandelt. Die mit herkömmlichen Bildsensoren notwendige Objektsegmentierung samt Vergleich mit früheren Bildern, um eine Bewegung festzustellen, kann entfallen, da bereits die Rohdaten entsprechend gefiltert sind. Zusätzliche Verarbeitung oder Filter kann es aber geben. Beispielsweise wird dabei ein bewegtes Objekt ignoriert, das nur ganz kurzzeitig auftaucht und wieder verschwindet und/oder das für ein Körperteil zu klein ist. Außerdem ist es denkbar, im Überwachungsbereich sicherheitsrelevante interessierende Bereiche (ROI, region of interest) zu definieren und Objekte außerhalb ebenfalls zu ignorieren. Solche sicherheitsrelevanten interessierenden Bereiche dürfen keinesfalls mit Schutzfeldern verwechselt werden. Ein Eingriff in ein Schutzfeld würde sofort eine Absicherung der Maschine auslösen. Dagegen sind in dem sicherheitsrelevanten interessierenden Bereich Objekte durchaus zugelassen und sogar erwartet, es wird dadurch lediglich der Bereich abgesteckt, in dem Objekte überhaupt auf gefährliche Nähe, Geschwindigkeit und dergleichen geprüft werden. Außerhalb der sicherheitsrelevanten interessierenden Bereichen droht aufgrund organisatorischer Maßnahmen, mechanischer Absperrungen oder unter allen denkbaren Bedingungen ausreichend großer Abstände niemals eine Gefahr.The control and evaluation unit is preferably designed to evaluate events detected by the pixel elements as moving objects, in particular signals from pixel elements within safety-relevant areas of interest. If an event is registered in a pixel or pixel area of the event-based image sensor, this is treated directly as a moving object in the evaluation. The object segmentation required with conventional image sensors, including comparison with previous images in order to determine movement, can be dispensed with, since the raw data is already filtered accordingly. However, there may be additional processing or filters. For example, a moving object is ignored that only appears for a very short time and then disappears again and / or that is too small for a part of the body. It is also conceivable to define safety-relevant areas of interest (ROI, region of interest) in the monitoring area and to ignore objects outside as well. Such safety-relevant areas of interest must not be confused with protective fields. Intervention in a protective field would immediately trigger protection of the machine. In contrast, objects are absolutely permitted and even expected in the safety-relevant area of interest; only the area is thereby marked out in which objects are checked for dangerous proximity, speed and the like at all. Outside the safety-relevant areas of interest, there is never a danger due to organizational measures, mechanical barriers or under all conceivable conditions sufficiently large distances.
Die Steuer- und Auswertungseinheit ist vorzugsweise für eine Objektverfolgung ausgebildet. Dafür sind Algorithmen beispielsweise basierend auf Kalman-Filtern an sich bekannt. Allerdings ist die Objektverfolgung erheblich vereinfacht, weil bereits der ereignisbasierte Bildsensor eine sehr verlässliche und einfache Objektsegmentierung für bewegte Objekte liefert. Das Ergebnis einer Objektverfolgung sind beispielsweise Listen mit vorhandenen Objekten, frühere Bewegungsbahnen der Objekte oder eine Prognose für die künftige Bewegungsbahn samt kinematischer Parameter wie Geschwindigkeit und Beschleunigung.The control and evaluation unit is preferably designed for object tracking. For this, algorithms based on Kalman filters, for example, are known per se. However, object tracking is considerably simplified because the event-based image sensor already provides very reliable and simple object segmentation for moving objects. The result of an object tracking are, for example, lists with existing objects, previous movement paths of the objects or a forecast for the future movement path including kinematic parameters such as speed and acceleration.
Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, die Position, an der ein zuvor verfolgtes Objekt zuletzt erfasst wurde, als Position eines ruhenden Objekts zu speichern und in der Bewertung einer Gefahr zu berücksichtigen. Eine Konsequenz der besonderen Arbeitsweise eines ereignisbasierten Bildsensors ist, dass ruhende Objekte nicht erfasst werden. Das betrifft auch eine Person, die im Überwachungsbereich stehenbleibt. Sie geht der Objektverfolgung zumindest vorübergehend verloren. Solche Positionen merkt sich die Steuer- und Auswertungseinheit gemäß dieser Ausführungsform, und dadurch ist bekannt, wo Personen stehen, so dass dies im Absicherungskonzept berücksichtigt werden kann. Sofern die Person außerhalb der Reichweite des Roboters steht, kann dieser mit normaler Geschwindigkeit weiterarbeiten, denn sobald die Person sich wieder bewegt und doch eine reduzierte Arbeitsgeschwindigkeit erforderlich ist, wird das durch den ereignisbasierten Bildsensor mit kürzesten Latenzen erkannt. Aber auch innerhalb der Reichweite ist ein Weiterarbeiten möglich, solange der Roboter die bekannte Position meidet, an der eine Person steht. In diesem Fall sollte aber vorzugsweise die Arbeitsgeschwindigkeit verlangsamt sein. Für den Roboter gilt natürlich genauso, dass er nur in Bewegung erfasst wird, aber das ist gänzlich unkritisch, weil ein stehender Roboter keine Gefahrenquelle ist.The control and evaluation unit is preferably designed to store the position at which a previously tracked object was last detected as the position of a stationary object and to take it into account in the assessment of a hazard. One consequence of the special way an event-based image sensor works is that stationary objects are not detected. This also applies to a person who stops in the monitored area. It is lost to object tracking, at least temporarily. The control and evaluation unit notes such positions in accordance with this embodiment, and it is thereby known where people are standing, so that this can be taken into account in the protection concept. If the person is outside the range of the robot, it can continue to work at normal speed, because as soon as the person moves again and a reduced working speed is required, this is recognized by the event-based image sensor with the shortest possible latencies. But it is also possible to continue working within the range as long as the robot avoids the known position at which a person is standing. In this case, however, the working speed should preferably be slowed down. Of course, the same applies to the robot that it is only detected when it is in motion, but that is entirely not critical because a stationary robot is not a source of danger.
Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, neu in die Objektverfolgung aufzunehmende Objekte in bestimmten Teilbereichen des Überwachungsbereichs zu suchen, insbesondere am Rand. Der bestimmte Teilbereich ist vorzugsweise ein Zugang, wie einer Tür oder eine Öffnung in einer Absperrung um eine Roboterzelle. In jedem Fall können neue Personen und Objekte nur vom Rand her erscheinen. Vorzugsweise ist beim Hochfahren der Anlage durch Organisationsmaßnahmen darauf zu achten, dass sich niemand in der Nähe des Roboters befindet, denn der Sensor würde eine dort stehende Person erst wahrnehmen, wenn sie sich bewegt. Im laufenden Betrieb ist das durch Objektverfolgung lösbar, die auch die Positionen stehender Objekte kennt, aber anfangs fehlen diese Informationen. Eine beispielhafte Lösung ist, dass das Hochfahren der Anlage autorisierten Personen vorbehalten ist, in deren Verantwortung es dann liegt, für eine freie Umgebung des Roboters zu sorgen.The control and evaluation unit is preferably designed to search for objects to be newly included in the object tracking in certain partial areas of the monitoring area, in particular at the edge. The specific sub-area is preferably an access, such as a door or an opening in a barrier around a robot cell. In any case, new people and objects can only appear from the edge. When starting up the system, organizational measures should preferably be taken to ensure that nobody is in the vicinity of the robot, because the sensor would only perceive a person standing there if they were moving. This can be solved during operation by object tracking, which also knows the positions of stationary objects, but this information is initially missing. An exemplary solution is that the start-up of the system is reserved for authorized persons, who are then responsible for ensuring that the robot environment is clear.
Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, einen Gefahrenbereich innerhalb des Überwachungsbereichs zu definieren, der möglichen Positionen der Maschine entspricht, insbesondere durch Auswerten von Bilddaten, die während des Betriebs der Maschine aufgenommen werden. Der Gefahrenbereich ist ein spezieller interessierender Bereich innerhalb des Überwachungsbereichs. Wenn sich hier etwas bewegt, insbesondere ein Objekt, das die Objektverfolgung nicht vom Rand her zum Roboter verfolgt hat, wird das dem Roboter zugeordnet. Der Gefahrenbereich lässt sich beispielsweise dadurch einlernen, dass der Roboter von dem ereignisbasierten Bildsensor einige Zeit im Betrieb ohne Störung durch andere Objekte beobachtet wird. Es haben dann genau die Pixel Ereignisse geliefert, die Orten entsprechen, an die sich in der Beobachtungszeit zumindest einmal ein Teil des Roboters bewegt hat. Der Gefahrenbereich lässt sich alternativ aus der Robotersteuerung beziehungsweise dessen Bewegungsplanung oder von Hand definieren. Auch ein dynamischer Abgleich mit der Robotersteuerung ist vorstellbar, in diesem Fall ist auch ein dynamischer Gefahrenbereich mit variablen, der gegenwärtigen Roboterpose entsprechenden Grenzen vorstellbar.The control and evaluation unit is preferably designed to define a danger area within the monitoring area which corresponds to possible positions of the machine, in particular by evaluating image data that are recorded during operation of the machine. The hazard area is a special area of interest within the monitored area. If something moves here, in particular an object that the object tracking did not follow from the edge to the robot, this is assigned to the robot. The danger area can be taught-in, for example, by observing the robot for some time during operation by the event-based image sensor without being disturbed by other objects. Precisely those pixels then delivered events that correspond to locations to which a part of the robot has moved at least once during the observation time. The danger area can alternatively be defined from the robot controller or its motion planning, or by hand. A dynamic comparison with the robot controller is also conceivable, in this case a dynamic danger area with variable limits corresponding to the current robot pose is also conceivable.
Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, in den Bilddaten zu prüfen, ob zugleich ein Ereignis an einer ersten Position innerhalb des Gefahrenbereichs und an einer zweiten Position außerhalb des Gefahrenbereichs eingetreten ist, und in diesem Fall einen Abstand zwischen der ersten Position und der zweiten Position zu berechnen und bei der Bewertung einer Gefahr zu berücksichtigen. Bewegungen innerhalb des Gefahrenbereichs werden dem Roboter zugeschrieben, andere Bewegungen liegen nicht in dessen Reichweite und sind daher einem fremden Objekt zuzuordnen. Die genannte doppelte Bedingung bedeutet also, dass sich der Roboter und zugleich ein Objekt in dessen Umgebung bewegen. Die Umgebung kann dabei auf sicherheitsrelevante interessierende Bereiche beschränkt bleiben. Es wird der Abstand zwischen Roboter und Objekt berechnet, möglicherweise auch weitere kinematische Parameter wie die Geschwindigkeit insbesondere aus der Objektverfolgung, und dies wird bewertet, um abzuleiten, ob der Roboter sicherheitsgerichtet reagieren muss. Liegt die doppelte Bedingung nicht vor, so gibt es dafür zwei mögliche Gründe. Entweder bewegt sich im Gefahrenbereich nichts, dann steht der Roboter, und für den Moment ist nichts abzusichern. Andernfalls gibt es kein bewegtes Objekt im Umfeld, womit ebenfalls keine unmittelbare Gefahr droht. Zu beachten ist noch, dass es durchaus ein stehendes Objekt auch nahe dem Roboter geben kann. Die Behandlung dieses Falls durch die Objektverfolgung und Speichern von Positionen von Objekten, die der Objektverfolgung vorübergehend verloren gehen, wurde bereits diskutiert.The control and evaluation unit is preferably designed to check in the image data whether an event has occurred at the same time at a first position within the danger area and at a second position outside the danger area, and in this case a distance between the first position and the second position to be calculated and taken into account when assessing a hazard. Movements within the danger area are assigned to the robot, other movements are not within its range and are therefore to be assigned to a foreign object. The double condition mentioned means that the robot and an object move in its environment at the same time. The environment can remain limited to safety-relevant areas of interest. The distance between the robot and the object is calculated, possibly also other kinematic parameters such as the speed, in particular from the object tracking, and this is evaluated in order to deduce whether the robot must react in a safety-oriented manner. If the double condition does not exist, there are two possible reasons for this. Either nothing moves in the danger area, then the robot stands still and nothing needs to be secured for the moment. Otherwise there is no moving object in the vicinity, which also means there is no imminent danger. It should also be noted that there may well be a stationary object near the robot. The handling of this case by tracking objects and storing positions of objects that are temporarily lost from tracking has already been discussed.
Der Sensor weist bevorzugt einen sicheren Ausgang auf, um Objektpositionen, Abstände von Objekten zu der Maschine und/oder daraus abgeleitete Zusatzinformationen auszugeben, insbesondere die Geschwindigkeit und/oder Bewegungsrichtung. In diesem Fall findet die weitere Bewertung der Gefahr außerhalb des Sensors statt, der dafür die notwendigen und teilweise auch schon aufbereiteten Detektionsergebnisse liefert. Für diese weitere Bewertung kann eine angeschlossene Sicherheitssteuerung und/oder die Robotersteuerung selbst zuständig sein. Trotz dieser Verteilung der Funktionalität kann dies noch als Steuer- und Auswertungseinheit des Sensors verstanden werden, die dann eine doppelte Bedeutung als Baustein innerhalb des Sensors und im genannten weiteren Sinne bekommt. Die Objektposition wird vorzugsweise in die Bewertung eingehen, in aller Regel auch der Abstand. Ein weiterer wichtiger Parameter, etwa für ein Speed-and-Separation-Monitoring, ist die Geschwindigkeit, da ein nahes, langsames Objekt weniger gefährdet ist als ein etwas ferneres, schnelles Objekt, und ähnliche Überlegungen gelten für die Bewegungsrichtung. Weitere kinematische Parameter wie die Beschleunigung können je nach Ausführungsform auch eine Rolle spielen. Objektpositionen sind vorzugsweise repräsentativ, etwa ein Objektschwerpunkt oder derjenige Objektpunkt, zu dem der Abstand berechnet wurde, und nicht sämtliche bekannten Objektpositionen zu einem Objekt oder dessen Objektpunktewolke. Es ist aber auch denkbar, Hüllkörper zu Objekten oder doch die 3D-Punktwolke des Objekts auszugeben.The sensor preferably has a safe output in order to output object positions, distances from objects to the machine and / or additional information derived therefrom, in particular the speed and / or direction of movement. In this case, the further assessment of the danger takes place outside the sensor, which supplies the necessary and, in some cases, already processed detection results. A connected safety controller and / or the robot controller itself can be responsible for this further evaluation. Despite this distribution of functionality, this can still be understood as a control and evaluation unit of the sensor, which then has a double meaning as a component within the sensor and in the broader sense mentioned. The object position will preferably be included in the evaluation, as a rule also the distance. Another important parameter, for example for speed-and-separation monitoring, is the speed, since a nearby, slow object is less endangered than a somewhat more distant, fast object, and similar considerations apply to the direction of movement. Other kinematic parameters such as acceleration can also play a role depending on the embodiment. Object positions are preferably representative, for example an object center of gravity or that object point to which the distance was calculated, and not all known object positions to an object or its object point cloud. However, it is also conceivable to output enveloping bodies for objects or at least the 3D point cloud of the object.
Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, eine die Gefahr ausräumende Arbeitsgeschwindigkeit und/oder einen die Gefahr ausräumenden Arbeitsablauf für die Maschine zu bestimmen. Wenn eine Gefahr erkannt ist, also beispielsweise ein Objekt mit zu großer Geschwindigkeit zu nahe kommt, so ist eine angemessene Sicherheitsreaktion zu bestimmen. Die Arbeitsgeschwindigkeit sollte für eine hohe Produktivität so hoch wie noch sicher möglich sein. Je nach Ausführungsform und Situation bleibt der Roboter bei seiner üblichen Bewegungsbahn und verlangsamt. Alternativ wird eine neue Bewegungsbahn mit mehr Abstand zu dem Objekt geplant, die erforderlichenfalls auch langsamer ausgeführt wird. Eine angepasste Arbeitsgeschwindigkeit schließt die Möglichkeit einer Arbeitsgeschwindigkeit Null ein, d.h. einen Halt oder Nothalt. Alle diese Anpassungen sind dank der hohen effektiven Wiederholrate des ereignisbasierten Bildsensors extrem schnell und flexibel möglich. Es wurde bereits ausgeführt, dass die Steuer- und Auswertungseinheit im engeren Sinne ein Baustein des Sensors sein, aber auch im weiteren Sinne die Sicherheitssteuerung und/oder die Robotersteuerung sowie beliebig darüber verteilte Funktionalität umfassen kann.The control and evaluation unit is preferably designed to determine a working speed that eliminates the risk and / or a workflow for the machine that eliminates the risk. If a danger is recognized, for example an object comes too close at too great a speed, an appropriate safety reaction must be determined. The working speed should be as high as safely possible for high productivity. Depending on the embodiment and the situation, the robot remains in its usual trajectory and slows down. Alternatively, a new trajectory is planned with a greater distance to the object, which is also carried out more slowly if necessary. An adapted working speed includes the possibility of a working speed of zero, ie a stop or an emergency stop. All of these adjustments can be made extremely quickly and flexibly thanks to the high effective repetition rate of the event-based image sensor. It has already been stated that the control and evaluation unit can be a component of the sensor in the narrower sense, but can also include the safety controller and / or the robot controller and any functionality distributed over it in the broader sense.
Der Sensor ist vorzugsweise auf der Maschine und mit deren Arbeitsbewegungen mitbewegt angeordnet. Das gilt insbesondere für die Werkzeugspitze eines Roboterarms (EOAS, End-of-arm Safeguarding). Andere Beispiele sind personengeführte oder autonome beziehungsweise automatisch geführte Fahrzeuge (AGV, automated guided vehicle).The sensor is preferably arranged on the machine and moved along with its working movements. This applies in particular to the tool tip of a robot arm (EOAS, end-of-arm safeguarding). Other examples are person-guided or autonomous or automatically guided vehicles (AGV, automated guided vehicle).
Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, Objekte anhand eines modulierten Beleuchtungsmusters zu identifizieren, das von einer am Objekt angeordneten Trackereinrichtung erzeugt ist. Das Beleuchtungsmuster ist beispielsweise ein Pulsieren mit einer individuellen, eindeutig zuordenbaren Frequenz. Das verursacht spezifische Intensitätsänderungen, die der ereignisbasierte Bildsensor wahrnimmt und die in der nachgelagerten Bildauswertung sehr einfach erkannt werden. Die Trackereinrichtung kann beispielsweise an dem Roboter angebracht werden, so dass dessen Bewegungen auch ohne einen definierten Gefahrenbereich dem Roboter zugeordnet werden können. Auch sonstige nichtbelebte Objekte in der Umgebung des Roboters können eine Trackereinrichtung tragen. Zu schützende Personen werden dann sehr leicht daran erkannt, dass sie nicht über die Trackereinrichtung identifiziert werden. Denkbar ist aber auch, dass autorisiertes Bedienpersonal ebenfalls eine Trackereinrichtung trägt, wobei dann eventuell aufgrund von deren besonderer Erfahrung sogar etwas höhere Arbeitsgeschwindigkeiten zugelassen werden.The control and evaluation unit is preferably designed to identify objects on the basis of a modulated lighting pattern that is generated by a tracker device arranged on the object. The lighting pattern is, for example, a pulsation with an individual, clearly assignable frequency. This causes specific changes in intensity, which the event-based image sensor perceives and which are very easily recognized in the subsequent image analysis. The tracker device can be attached to the robot, for example, so that its movements can be assigned to the robot even without a defined danger area. Other inanimate objects in the vicinity of the robot can also carry a tracker device. Persons to be protected are then very easily recognized by the fact that they are not identified via the tracker device. It is also conceivable, however, that authorized operating personnel also wear a tracker device, in which case even somewhat higher working speeds are permitted on the basis of their particular experience.
Der Sensor weist bevorzugt mindestens zwei ereignisbasierte Bildsensoren in einer Stereoanordnung auf, wobei die Steuer- und Auswertungseinheit dafür ausgebildet ist, in den Bilddaten der beiden Bildsensoren erfasste Ereignisse einander zuzuordnen anhand dessen mit einem Stereoverfahren einen Tiefenwert zu berechnen. Auf diese Weise entsteht eine ereignisbasierte Stereokamera. Das eröffnet eine dritte Erfassungsdimension, die genauere Sicherheitskonzepte erlaubt. Bei zweidimensionaler Erfassung werden implizit oder explizit Sicherheitszuschläge vorgenommen. Es kommt dann zu unnötigen Absicherungsmaßnahmen, obwohl objektiv der dreidimensionale Abstand noch gar nicht gefährlich wäre. Während eine herkömmliche Stereokamera meist durch Korrelation über alle Pixel zumindest parallel zum Basisabstand nach Korrespondenzen sucht, kann sich bei ereignisbasiertem Stereo die Korrespondenzsuche auf die wenigen jeweils ansprechenden Pixel beschränken. Wenn es eine Objektverfolgung gibt, dann ist mit deren Hilfe in den meisten Fällen schon ohne jegliche pixelbasierte Korrelation klar, welche Erfassungen der beiden Bildsensoren zueinander gehören müssen. Jedenfalls sind nur wenige, kleine Pixelbereiche zu korrelieren, da meist die überwiegende Anzahl der Pixel in der dünn besetzten Matrix ohnehin nur Null zeigt. Die weiteren Schritte entsprechen dann dem üblichen Stereoverfahren, d.h. der Pixelabstand zueinander korrespondierende Pixel der beiden ereignisbasierten Bildsensoren wird mit Parametern wie dem Pixelabstand (pitch) und dem Basisabstand zwischen den Bildsensoren in einen Tiefenwert umgerechnet.The sensor preferably has at least two event-based image sensors in a stereo arrangement, the control and evaluation unit being designed to assign events recorded in the image data of the two image sensors to one another on the basis of which a stereo method is used to calculate a depth value. This creates an event-based stereo camera. This opens up a third dimension of coverage that allows more precise security concepts. In the case of two-dimensional recording, safety margins are made implicitly or explicitly. This leads to unnecessary safeguarding measures, although objectively the three-dimensional distance would not be dangerous at all. While a conventional stereo camera usually searches for correspondences by correlation across all pixels at least parallel to the base distance, in event-based stereo the search for correspondence can be limited to the few pixels that respond. If there is object tracking, in most cases it is already clear with its help, without any pixel-based correlation, which recordings of the two image sensors must belong to one another. In any case, only a few, small pixel areas need to be correlated, since the majority of the pixels in the sparse matrix usually show only zero anyway. The further steps then correspond to the usual stereo method, i.e. the pixel spacing of the corresponding pixels of the two event-based image sensors is converted into a depth value using parameters such as the pixel spacing (pitch) and the basic spacing between the image sensors.
Das erfindungsgemäße Verfahren kann auf ähnliche Weise weitergebildet werden und zeigt dabei ähnliche Vorteile. Derartige vorteilhafte Merkmale sind beispielhaft, aber nicht abschließend in den sich an die unabhängigen Ansprüche anschließenden Unteransprüchen beschrieben.The method according to the invention can be developed in a similar way and shows similar advantages. Such advantageous features are described by way of example, but not conclusively, in the subclaims that follow the independent claims.
Die Erfindung wird nachstehend auch hinsichtlich weiterer Merkmale und Vorteile beispielhaft anhand von Ausführungsformen und unter Bezug auf die beigefügte Zeichnung näher erläutert. Die Abbildungen der Zeichnung zeigen in:
-
1 eine schematische dreidimensionale Darstellung einer Kamera und ihres Ü berwachu ngsbereichs; -
2 eine beispielhafte Intensitätsverteilung eines Pixels zur Erläuterung von ereignisbasierter Erfassung von Bildinformation; -
3 eine beispielhafte Überwachungssituation aus der Draufsicht einer Kamera gemäß1 mit einem Roboter und mehreren Personen; -
4 eine beispielhafte Darstellung der erfassten Bewegungsbahnen eines langsamen und eines schnellen Objekts; -
5 eine beispielhafte Darstellung der erfassten Bewegungsbahn eines Objekts und einer Prognose für die künftige Bewegungsbahn; und -
6 eine beispielhafte Darstellung der erfassten Bewegungsbahnen des Roboters und eines Objekts sowie der jeweiligen Abstände dazwischen.
-
1 a schematic three-dimensional representation of a camera and its surveillance area; -
2 an exemplary intensity distribution of a pixel for explaining event-based acquisition of image information; -
3rd an exemplary monitoring situation from the top view of a camera according to FIG1 with a robot and several people; -
4th an exemplary representation of the detected trajectories of a slow and a fast object; -
5 an exemplary representation of the detected trajectory of an object and a prognosis for the future trajectory; and -
6th an exemplary representation of the detected trajectories of the robot and an object as well as the respective distances between them.
Mit dem Bildsensor
Die Steuer- und Auswertungseinheit
Das Pixelelement des ereignisbasierten Bildsensors
Neben solchen differenziellen ereignisbasierten Kameras gibt es auch integrierende ereignisbasierte Kameras. Sie reagiert ganz analog auf Intensitätsänderungen. Anstelle einer Ausgabe der Richtung der Intensitätsänderung wird aber in einem durch das Ereignis vorgegebenen Zeitfenster das einfallende Licht integriert. Dadurch entsteht ein Grauwert. Differenzielle und integrierende ereignisbasierte Kameras haben einen unterschiedlichen Hardwareaufbau, und die differenzielle ereignisbasierte Kamera ist schneller, da sie kein Integrationszeitfenster benötigt. Zur Technologie einer ereignisbasierten Kamera wird ergänzend auf die einleitend genannte Patentliteratur und wissenschaftliche Literatur verwiesen.In addition to such differential event-based cameras, there are also integrating event-based cameras. It reacts analogously to changes in intensity. Instead of outputting the direction of the change in intensity, however, the incident light is integrated in a time window specified by the event. This creates a gray value. Differential and integrating event-based cameras have a different hardware structure, and the differential event-based camera is faster because it does not require an integration time window. For the technology of an event-based camera, reference is also made to the patent literature and scientific literature mentioned in the introduction.
Durch die ereignisbasierte Erfassung von Bildinformationen entsteht ein dünn besetzter (sparse) dreidimensionaler Datensatz, da für eine feste Zeit anders als bei einer herkömmlichen Kamera nicht jedes Pixelelement eine Bildinformation liefert, sondern nur diejenigen, die ein Ereignis in Form einer Intensitätsänderung registrieren. Ein Ereignis wird beispielsweise als Tupel mit dem Vorzeichen der Intensitätsänderung bei differentieller ereignisbasierter Kamera beziehungsweise einem Grauwert bei integrierende ereignisbasierter Kamera, der Pixelposition auf dem Bildsensor
Aufgrund seines Funktionsprinzips nimmt der ereignisbasierte Bildsensor
Um nicht nur die aktuelle Situation zu bewerten, sondern weitere Größen wie die Geschwindigkeit, die Bewegungsrichtung oder auch eine Extrapolation der Bewegung zu erhalten, werden die Personen
Auch wenn eine bisher von der Objektverfolgung überwachte Person
Der Gegenpart im Sicherheitskonzept zu den Personen
Immer wenn zugleich eine bewegte Person
Der Roboter
Aus solchen zeitaufgelösten Bewegungsbahnen
Die jeweilige Arbeitsgeschwindigkeit des Roboters
Bisher wurde die Absicherung eines zwar in sich beweglichen, aber insgesamt an einem Ort verharrenden Roboters
Die zweidimensionale Überwachung kann zu einer dreidimensionalen Überwachung erweitert werden, indem zwei ereignisbasierte Bildsensoren
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019127826.0A DE102019127826B4 (en) | 2019-10-15 | 2019-10-15 | Safe optoelectronic sensor and method for securing a surveillance area |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019127826.0A DE102019127826B4 (en) | 2019-10-15 | 2019-10-15 | Safe optoelectronic sensor and method for securing a surveillance area |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102019127826A1 DE102019127826A1 (en) | 2021-04-15 |
DE102019127826B4 true DE102019127826B4 (en) | 2021-06-02 |
Family
ID=75156054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019127826.0A Active DE102019127826B4 (en) | 2019-10-15 | 2019-10-15 | Safe optoelectronic sensor and method for securing a surveillance area |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019127826B4 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020101794A1 (en) | 2020-01-27 | 2021-07-29 | Sick Ag | Securing a machine |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130335595A1 (en) * | 2012-06-19 | 2013-12-19 | Samsung Electronics Co., Ltd. | Event-based image processing apparatus and method |
DE102013106514B3 (en) * | 2013-06-21 | 2014-10-30 | Pilz Gmbh & Co. Kg | Device and method for securing an automated machine |
WO2015036592A1 (en) * | 2013-09-16 | 2015-03-19 | Chronocam | Dynamic, single photodiode pixel circuit and operating method thereof |
WO2017174579A1 (en) * | 2016-04-04 | 2017-10-12 | Chronocam | Sample and hold based temporal contrast vision sensor |
DE102017207852A1 (en) * | 2016-06-08 | 2017-12-14 | Robert Bosch Gmbh | Fire detection device for detecting a fire and / or smoke in a surveillance area |
WO2018073379A1 (en) * | 2016-10-20 | 2018-04-26 | Chronocam | Pixel circuit for detecting time-dependent visual data |
-
2019
- 2019-10-15 DE DE102019127826.0A patent/DE102019127826B4/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130335595A1 (en) * | 2012-06-19 | 2013-12-19 | Samsung Electronics Co., Ltd. | Event-based image processing apparatus and method |
DE102013106514B3 (en) * | 2013-06-21 | 2014-10-30 | Pilz Gmbh & Co. Kg | Device and method for securing an automated machine |
WO2015036592A1 (en) * | 2013-09-16 | 2015-03-19 | Chronocam | Dynamic, single photodiode pixel circuit and operating method thereof |
WO2017174579A1 (en) * | 2016-04-04 | 2017-10-12 | Chronocam | Sample and hold based temporal contrast vision sensor |
DE102017207852A1 (en) * | 2016-06-08 | 2017-12-14 | Robert Bosch Gmbh | Fire detection device for detecting a fire and / or smoke in a surveillance area |
WO2018073379A1 (en) * | 2016-10-20 | 2018-04-26 | Chronocam | Pixel circuit for detecting time-dependent visual data |
Non-Patent Citations (1)
Title |
---|
GALLEGO, Guillermo ; REBECQ, Henri ; SCARAMUZZA, Davide: A unifying contrast maximization framework for event cameras, with applications to motion, depth, and optical flow estimation. In: IEEE/CVF Conference on Computer Vision and Pattern Recognition, 18-23 June 2018, Salt Lake City, UT, USA, 2018, S. 3867-3876. - ISSN 2575-7075 (E); 1063-6919 (P). DOI: 10.1109/CVPR.2018.00407. URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8578505 [abgerufen am 2019-11-25] * |
Also Published As
Publication number | Publication date |
---|---|
DE102019127826A1 (en) | 2021-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2558886B1 (en) | Device for monitoring at least one three-dimensional safety area | |
EP3011225B1 (en) | Device and method for securing a machine that operates in an automated manner | |
EP3701340B1 (en) | Monitoring device, industrial installation, method for monitoring, and computer program | |
EP3421189B1 (en) | Method for monitoring a machine | |
EP3611422B1 (en) | Sensor assembly and method for securing a supervised area | |
EP3200122B1 (en) | Optoelectronic sensor and method for secure detection of objects of at least a certain size | |
EP2825812B1 (en) | Method and device for securing a hazardous working area of an automated machine | |
EP3578319B1 (en) | Method for securing a hazardous area | |
EP2023160A1 (en) | 3D room surveillance with configuration mode for determining the protection fields | |
DE102017111885B4 (en) | Method and system for monitoring a machine | |
EP3650740B1 (en) | Safety system and method for monitoring a machine | |
DE102016222245A1 (en) | Device and method for acting on objects | |
DE102020114488B3 (en) | Optoelectronic safety sensor and method for protecting a machine | |
DE102008046346A1 (en) | Spatial region i.e. medical treatment room, monitoring method for X-ray device, involves developing three-dimensional environment model from spatial points, where model specifies space volumes occupied by objects within spatial region | |
EP3572971B1 (en) | Securing a surveillance area with at least one machine | |
DE102019127826B4 (en) | Safe optoelectronic sensor and method for securing a surveillance area | |
DE102009026091A1 (en) | Method for monitoring three-dimensional spatial area, particularly work cell of automatic working machine, for e.g. robot, involves accomplishing independent scene analysis of images in or for each camera | |
EP3203262B1 (en) | Optoelectronic device for securing a source of danger | |
EP3893145B1 (en) | Protection of hazardous location | |
EP3575666A1 (en) | Device for protecting a hazardous area of a system | |
DE10138960A1 (en) | Surveillance method for monitoring surveillance space uses different brightness values provided by different image data sets for providing distance information for given point | |
EP2818824B1 (en) | Apparatus comprising an optoelectronic 3D-sensor and method for recognising objects | |
DE102020101794A1 (en) | Securing a machine | |
DE202015102019U1 (en) | Camera for taking pictures of a detection area | |
EP4102486A2 (en) | Aircraft and method for controlling the flight movement of an aircraft |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R082 | Change of representative | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |