DE202020106491U1 - Visualization of a protective field - Google Patents

Visualization of a protective field Download PDF

Info

Publication number
DE202020106491U1
DE202020106491U1 DE202020106491.6U DE202020106491U DE202020106491U1 DE 202020106491 U1 DE202020106491 U1 DE 202020106491U1 DE 202020106491 U DE202020106491 U DE 202020106491U DE 202020106491 U1 DE202020106491 U1 DE 202020106491U1
Authority
DE
Germany
Prior art keywords
sensor
visualization device
designed
display
evaluation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202020106491.6U
Other languages
German (de)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sick AG filed Critical Sick AG
Priority to DE202020106491.6U priority Critical patent/DE202020106491U1/en
Publication of DE202020106491U1 publication Critical patent/DE202020106491U1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/144Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using light grids
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40478Graphic display of work area of robot, forbidden, permitted zone

Abstract

Visualisierungsvorrichtung (10) für mindestens ein Schutzfeld (26) mindestens eines Sensors (22), der eine Maschine (18), insbesondere einen Roboter oder Roboterarm, durch Überwachung des Schutzfeldes (26) absichert, wobei die Visualisierungsvorrichtung (10) eine Anzeige (12) und eine Steuer- und Auswertungseinheit (14) aufweist, die dafür ausgebildet ist, eine graphische Repräsentation des Schutzfeldes (26) zu erzeugen und die graphische Repräsentation auf der Anzeige (12) darzustellen, dadurch gekennzeichnet, dass der Sensor (22) an einem beweglichen Maschinenteil der Maschine (18) mitbewegt angebracht ist und dass die Steuer- und Auswertungseinheit (14) weiterhin dafür ausgebildet ist, eine Pose des Sensors (22) bezüglich der Visualisierungsvorrichtung (10) zu bestimmen und die graphische Repräsentation des Schutzfeldes (26) an die Pose anzupassen.

Figure DE202020106491U1_0000
Visualization device (10) for at least one protective field (26) of at least one sensor (22), which protects a machine (18), in particular a robot or robot arm, by monitoring the protective field (26), the visualization device (10) having a display (12 ) and a control and evaluation unit (14) which is designed to generate a graphic representation of the protective field (26) and to display the graphic representation on the display (12), characterized in that the sensor (22) on a movable machine part of the machine (18) and that the control and evaluation unit (14) is also designed to determine a pose of the sensor (22) in relation to the visualization device (10) and to display the graphic representation of the protective field (26). adjust the pose.
Figure DE202020106491U1_0000

Description

Die Erfindung betrifft eine Visualisierungsvorrichtung zum Visualisieren eines Schutzfeldes nach dem Oberbegriff von Anspruch 1.The invention relates to a visualization device for visualizing a protective field according to the preamble of claim 1.

Das primäre Ziel der Sicherheitstechnik ist, Personen vor Gefahrenquellen zu schützen, wie sie beispielsweise Maschinen im industriellen Umfeld darstellen. Die Maschine wird mit Hilfe von Sensoren überwacht, und wenn demnach eine Situation vorliegt, in der eine Person gefährlich nahe an die Maschine zu gelangen droht, wird eine geeignete Absicherungsmaßnahme ergriffen. In der Sicherheitstechnik eingesetzte Sensoren müssen besonders zuverlässig arbeiten und deshalb hohe Sicherheitsanforderungen erfüllen, beispielsweise die Norm EN 13849 für Maschinensicherheit und die Gerätenorm IEC61496 oder EN61496 für berührungslos wirkende Schutzeinrichtungen (BWS). Zur Erfüllung dieser Sicherheitsnormen sind eine Reihe von Maßnahmen zu treffen, wie sichere elektronische Auswertung durch redundante, diversitäre Elektronik, Funktionsüberwachung oder Überwachung der Verschmutzung optischer Bauteile.The primary goal of safety technology is to protect people from sources of danger, such as those presented by machines in an industrial environment. The machine is monitored with the help of sensors, and accordingly, if there is a situation where a person threatens to come dangerously close to the machine, an appropriate safety measure is taken. Sensors used in safety technology must work particularly reliably and therefore meet high safety requirements, for example the EN 13849 standard for machine safety and the IEC61496 or EN61496 device standard for electro-sensitive protective equipment (ESPE). A number of measures must be taken to meet these safety standards, such as reliable electronic evaluation using redundant, diverse electronics, function monitoring or monitoring of the contamination of optical components.

In der sicherheitstechnischen Überwachung von Robotern, speziell Leichtbaurobotern, besteht ein zunehmender Wunsch nach engerer Zusammenarbeit mit Personen (MRK, Mensch-Roboter-Kollaboration) auch in komplexen Umgebungen. Relevante Normen in diesem Zusammenhang sind beispielsweise die ISO 10218 für Industrieroboter oder die ISO 15066 für kollaborierende Roboter. Ähnliche Problemstellungen ergeben sich für andere Maschinen als Roboter, beispielsweise AGVs/AGCs (Automated Guided Vehicle/Container) oder Drohnen.In the safety-related monitoring of robots, especially lightweight robots, there is an increasing desire for closer cooperation with people (HRC, human-robot collaboration) even in complex environments. Relevant standards in this context are, for example, ISO 10218 for industrial robots or ISO 15066 for collaborating robots. Similar problems arise for machines other than robots, such as AGVs/AGCs (Automated Guided Vehicle/Container) or drones.

Hier besteht nun die Möglichkeit, einen kleinen, leichten Distanzsensor beziehungsweise eine Mehrfachanordnung solcher Distanzsensoren mit dem Werkzeug am Roboterarm mitzubewegen. Mit einem entsprechenden Distanzsensor nach dem Prinzip der Lichtlaufzeitmessung befasst sich die DE 10 2015 112 656 A1 . Damit wird eine Art virtuelle Schutzglocke um das Werkzeug überwacht und der Roboter bei Eindringen eines sicherheitsrelevanten Objekts gebremst oder angehalten. Die DE 10 2019 110 882 A1 erweitert dies um eine Anpassung von Abstandsschwellen und damit der Ausdehnung der virtuellen Schutzglocke während einer Annäherungsbewegung an eine Arbeitsoberfläche oder ein Werkstück. In der noch unveröffentlichten europäischen Patentanmeldung mit dem Aktenzeichen EP19176696.3 wird auch die Ausrichtung der schützenden Strahlen mindestens eines Distanzsensors und damit die Form, insbesondere Öffnungswinkel und/oder Durchmesser der Schutzglocke verändert.Here there is now the possibility of moving a small, light distance sensor or a multiple arrangement of such distance sensors with the tool on the robot arm. With a corresponding distance sensor based on the principle of time of flight measurement, the DE 10 2015 112 656 A1 . This monitors a kind of virtual protective bell around the tool and the robot is braked or stopped if a safety-relevant object enters. the DE 10 2019 110 882 A1 extends this with an adjustment of distance thresholds and thus the expansion of the virtual protective bell during an approach movement to a work surface or a workpiece. In the still unpublished European patent application with the file number EP19176696.3 the alignment of the protective beams of at least one distance sensor and thus the shape, in particular the opening angle and/or diameter of the protective bell, is also changed.

In der EP 3 533 568 A1 wird ein Robotersystem vorgestellt, bei dem ein erster beispielsweise kapazitiver Sensor sehr nahe oder berührende Objekte erkennt. Ein zweiter Sensor, der ein optischer Sensor nach einem Lichtlaufzeitprinzip sein kann, erfasst Objekte in einem größeren Überwachungsbereich. Es können Roboterbewegungen eingelernt werden, der jeweilige Überwachungsbereich der Sensoren jedoch bleibt unverändert.In the EP 3 533 568 A1 a robot system is presented in which a first, for example, capacitive sensor detects very close or touching objects. A second sensor, which can be an optical sensor based on a time-of-flight principle, detects objects in a larger surveillance area. Robot movements can be taught, but the respective monitoring range of the sensors remains unchanged.

Ein Distanzsensor nach dem Lichtlaufzeitverfahren und ganz allgemein optoelektronische Sicherheitssensoren arbeiten in der Regel mit nahinfraroten Lichtquellen, die für das menschliche Auge bewusst nicht sichtbar sind. Dies führt jedoch dazu, dass die Arbeitsweise und speziell der Erfassungsbereich der Sensoren schwer nachvollzogen werden kann. Ähnliches gilt bei anderen berührungslos wirkenden Sensoren. In vielen Phasen einer sicherheitstechnischen Anwendung besonders mit eng optimierten Abläufen in Kooperation mit Personen fehlen dann wichtige Informationen oder sind nur auf umständlichen Wegen zu erhalten. Diese Schwierigkeiten nehmen erheblich zu, wenn sich der Sensor mit einer Maschine oder einem Roboter mitbewegt und die Situation noch unübersichtlicher wird.A distance sensor based on the time-of-flight method and optoelectronic safety sensors in general generally work with near-infrared light sources that are deliberately not visible to the human eye. However, this means that the mode of operation and especially the detection range of the sensors can be difficult to understand. The same applies to other non-contact sensors. In many phases of a safety-related application, especially with tightly optimized processes in cooperation with people, important information is then missing or can only be obtained in a cumbersome way. These difficulties increase significantly when the sensor moves with a machine or robot and the situation becomes even more confusing.

Die noch unveröffentlichte europäische Patentanmeldung mit dem Aktenzeichen EP20198357.4 ermöglicht eine Visualisierung von Sensordaten in einer industriellen Umgebung vorzugsweise durch Überblenden eines Kamerabildes mit Zusatzinformationen (Augmented Reality). Dabei orientiert sich die Kamera an speziellen Markern, zu denen in einem anfänglichen Konfigurationsverfahren die Pose von Sensoren eingelernt wird. Mit einer Bewegung der Sensoren kann das System aber nicht umgehen.The still unpublished European patent application with the file number EP20198357.4 enables visualization of sensor data in an industrial environment, preferably by overlaying a camera image with additional information (augmented reality). The camera orients itself to special markers, for which the pose of sensors is taught in an initial configuration process. However, the system cannot deal with a movement of the sensors.

Die EP 1 521 211 A2 befasst sich mit dem Bestimmen einer Pose einer Bildempfangseinrichtung, um damit im Rahmen von Augmented Reality zur Unterstützung der Roboterprogrammierung oder zur Anleitung von Arbeitskräften bei Montage- und Wartungsvorgängen virtuelle Objekte, wie eine Roboterbahn, eine andere Umgebung oder virtuelle Werkstücke einzublenden. Bei diesen virtuellen Objekten ist aber nicht an Sensoren und schon gar nicht deren unsichtbare Wirkprinzipien oder Erfassungsbereiche gedacht.the EP 1 521 211 A2 deals with determining a pose of an image receiving device in order to display virtual objects such as a robot path, another environment or virtual workpieces within the framework of augmented reality to support robot programming or to guide workers during assembly and maintenance processes. With these virtual objects, however, sensors and certainly not their invisible operating principles or detection areas are not considered.

In der DE 10 2010 017 857 A1 wird eine 3D-Kamera vorgestellt, die eine Maschine aus der Vogelperspektive beobachtet und absichert. Auf einer Anzeigeeinrichtung können einer Person sowohl in einer Konfigurationsphase als auch im Betrieb Schutzfelder dargestellt werden. Die 3D-Kamera bewegt sich aber nicht.In the DE 10 2010 017 857 A1 a 3D camera is presented, which observes and secures a machine from a bird's eye view. Protective fields can be shown to a person on a display device both in a configuration phase and during operation. However, the 3D camera does not move.

Die EP 2 048 557 B1 stellt eine Konfiguration für eine 3D-Kamera vor, bei dem ein Handgerät durch seine eigene Position Grenzpunkte von Schutzfeldern festlegt. Die Konfigurationsfortschritte können auf dem Handgerät insbesondere in Überblendung eines realen Bildes visualisiert werden. Auch hier bewegt sich die 3D-Kamera nicht.the EP 2 048 557 B1 presents a configuration for a 3D camera in which a hand-held device defines boundary points of protective fields through its own position. The configuration progress can be visualized on the hand-held device, in particular by superimposing a real image. Again, the 3D camera does not move.

Aus der DE 10 2012 111 345 A1 ist ein mobiles Handgerät zur Ausrichtung eines Sensors bekannt. Darauf wird ein Überlagerungsbild des Sichtbereichs des Sensors und einer Zielanzeige einer Position eines von dem Sensor erzeugten Lichtflecks dargestellt. Eine Bewegung des Sensors ist nicht vorgesehen, lediglich das Handgerät kann in eine andere Perspektive gebracht werden. Schutzfelder oder auch nur allgemein eine Absicherung einer Maschine sind nicht erwähnt.From the DE 10 2012 111 345 A1 a mobile hand-held device for aligning a sensor is known. An overlay image of the field of view of the sensor and a target indication of a position of a spot of light generated by the sensor is then displayed. A movement of the sensor is not intended, only the hand-held device can be brought into a different perspective. Protective fields or just general machine protection are not mentioned.

Die EP 2 378 445 B1 offenbart ein System zur sicherheitstechnischen Planung, Konfigurierung und Analyse einer industriellen Anlage, die als 3D-Computermodell hinterlegt ist und deren Arbeitsbewegungen simuliert werden können. Die Simulation umfasst ferner ein Sensormodell eines Sicherheitssensors einschließlich grafisch darstellbarer Schutzfelder. Das bleibt jedoch alles rein virtuell, und selbst noch innerhalb des Modells ist eine Bewegung des Sensors nicht vorgesehen, der vielmehr als fix montiert angenommen wird.the EP 2 378 445 B1 discloses a system for safety-related planning, configuration and analysis of an industrial plant, which is stored as a 3D computer model and whose work movements can be simulated. The simulation also includes a sensor model of a safety sensor, including protective fields that can be displayed graphically. However, this all remains purely virtual, and even within the model there is no provision for the sensor to move, which is assumed to be permanently mounted.

Es ist daher Aufgabe der Erfindung, eine verbesserte Absicherung einer Maschine zu ermöglichen.It is therefore the object of the invention to enable improved protection of a machine.

Diese Aufgabe wird durch eine Visualisierungsvorrichtung zum Visualisieren eines Schutzfeldes nach Anspruch 1 gelöst. Die Visualisierungsvorrichtung ist vorzugsweise ein mobiles Endgerät wie ein Tablet, ein Smartphone oder eine VR-Brille. Ein Sensor überwacht das Schutzfeld, um eine Maschine abzusichern. Die Maschine ist insbesondere ein Roboter oder Roboterarm mit einem Werkzeug, das vornehmlich abzusichern ist (EOAS, End-of-Arm-Safeguarding). Dieses Anwendungsbeispiel eines Roboters wird im Folgenden vielfach stellvertretend verwendet, die Erläuterungen sind jeweils analog auch auf ein anderes bewegliches Maschinenteil zu übertragen.This object is achieved by a visualization device for visualizing a protective field according to claim 1. The visualization device is preferably a mobile terminal such as a tablet, a smartphone or VR glasses. A sensor monitors the protective field to protect a machine. The machine is in particular a robot or robotic arm with a tool that primarily has to be protected (EOAS, End-of-Arm Safeguarding). This application example of a robot is often used as a representative in the following; the explanations can also be applied analogously to another moving machine part.

Ein Schutzfeld ist ein durch eine 2D- oder 3D-Geomtrie definierter Teilbereich des Erfassungsbereichs des Sensors, wobei diese Geometrie durch Anordnung und Bauart des Sensors bedingt und/oder konfiguriert sein kann. Der Sensor hat vorzugsweise ein Wirkprinzip, das mit bloßem Auge nicht nachvollzogen werden kann, so dass ohne die Visualisierung die Geometrie des Schutzfeldes allenfalls ganz indirekt erkennbar wäre. Der Sensor ist vorzugsweise sicher, sei es in sich oder im Zusammenspiel seiner Anwendung. Sicher bedeutet in diesem Zusammenhang, dass der Sensor beziehungsweise die damit verwirklichte Anwendung eine Sicherheitsnorm für Maschinensicherheit, für berührungslos wirkende Schutzeinrichtungen oder eine vergleichbare Sicherheitsnorm erfüllt, die den Betrieb im Personenschutz beziehungsweise der Unfallvermeidung zulässt. Dazu sind dort genau definierte Maßnahmen wie Redundanzen oder Selbsttests erforderlich, mit der die Funktionsfähigkeit gewährleistet und ein etwaiger Fehler aufgedeckt wird. Der Sensor löst eine sicherheitsgerichtete Reaktion aus, mit der die Maschine in einen sicheren Zustand überführt wird, wenn er einen unzulässigen Schutzfeldeingriff erkennt.A protective field is a sub-area of the detection area of the sensor defined by a 2D or 3D geometry, whereby this geometry can be determined and/or configured by the arrangement and design of the sensor. The sensor preferably has an operating principle that cannot be understood with the naked eye, so that without the visualization the geometry of the protective field would at best be recognizable quite indirectly. The sensor is preferably safe, either in itself or in the interaction of its application. In this context, safe means that the sensor or the application implemented with it meets a safety standard for machine safety, for non-contact protective devices or a comparable safety standard that allows operation for personal protection or accident prevention. Precisely defined measures such as redundancies or self-tests are required there to ensure functionality and detect any errors. The sensor triggers a safety-related reaction with which the machine is switched to a safe state if it detects an inadmissible protective field intrusion.

Eine Steuer- und Auswertungseinheit der Visualisierungsvorrichtung bestimmt eine graphische Repräsentation des Schutzfeldes mit Geometrieobjekten wie Polygonen, Kreisen oder räumlichen Entsprechungen, die das Schutzfeld als Flächen oder Körper veranschaulichen. Die graphische Repräsentation wird auf einer Anzeige dargestellt. Die Steuer- und Auswertungseinheit kann mindestens ein interner Baustein wie ein Prozessor, aber auch mindestens teilweise extern über ein Netzwerk oder eine Cloud angeschlossen sein oder Ressourcen der Maschine nutzen.A control and evaluation unit of the visualization device determines a graphic representation of the protective field with geometric objects such as polygons, circles or spatial correspondences that illustrate the protective field as areas or bodies. The graphical representation is presented on a display. The control and evaluation unit can be connected to at least one internal module such as a processor, but also at least partially externally via a network or a cloud, or use the machine's resources.

Die Erfindung geht von dem Grundgedanken aus, dass der Sensor an einem beweglichen Maschinenteil der Maschine mitbewegt wird und das Schutzfeld auch in der Bewegung korrekt visualisiert wird. Deshalb berechnet die Steuer- und Auswertungseinheit eine Pose des mitbewegten Sensors bezüglich der Visualisierungsvorrichtung. Pose bedeutet wie üblich die Position und Orientierung in jeweils bis zu drei Freiheitsgraden. Die Pose des Sensors ist durch die Bewegung des Maschinenteils dynamisch. Die graphische Repräsentation des Schutzfeldes wird an die Pose angepasst. Mit anderen Worten werden die Visualisierungen des Schutzfeldes bezüglich des beweglichen Maschinenteils und des daran montierten Sensors an die richtige Position und in die richtige Drehlage gebracht, sie werden mit der Bewegung mitgeführt und/oder vollziehen Drehungen nach.The invention is based on the basic idea that the sensor is moved along with a moving machine part of the machine and the protective field is also correctly visualized during movement. Therefore, the control and evaluation unit calculates a pose of the sensor that is moved with it in relation to the visualization device. As usual, pose means the position and orientation in up to three degrees of freedom. The pose of the sensor is dynamic due to the movement of the machine part. The graphic representation of the protective field is adapted to the pose. In other words, the visualizations of the protective field with regard to the moving machine part and the sensor mounted on it are placed in the correct position and in the correct rotational position, they are carried along with the movement and/or follow rotations.

Die Erfindung hat den Vorteil, dass auf eine intuitive Weise Aufschluss über Abmessungen, Orientierung und Anzahl der ansonsten regelmäßig unsichtbaren Schutzfelder gegeben wird. Durch die Anpassung an die Mitbewegung ist das auch in komplexen Umgebungen möglich, in denen die Situation ohne eine Visualisierung besonders schwer zu überblicken wäre. Damit sind Optimierungen und Überprüfungen der Abläufe ganz wesentlich erleichtert und beschleunigt. Am Sensor selbst muss dafür gar nichts geändert werden, und es wird eine Diagnose auch in Echtzeit ermöglicht, ohne in den laufenden Prozess einzugreifen. Diese Vorteile betreffenden nahezu den gesamten Lebenszyklus, wie das Projektieren einer Anwendung, das Einrichten des Sensors, das Validieren einer Sicherheitsanwendung, den Normalbetrieb und die Wartung.The invention has the advantage that information about the dimensions, orientation and number of the otherwise regularly invisible protective fields is provided in an intuitive manner. By adapting to the movement, this is also possible in complex environments in which the situation would be particularly difficult to overview without visualization. This makes optimizations and checks of the processes much easier and faster. Nothing has to be changed on the sensor itself for this, and diagnosis is also made possible in real time, without having to go into the current one intervene process. These advantages affect almost the entire life cycle, such as projecting an application, setting up the sensor, validating a safety application, normal operation and maintenance.

Die Visualisierungsvorrichtung weist bevorzugt eine Kamera auf, wobei die Steuer- und Auswertungseinheit dafür ausgebildet ist, ein Kamerabild der Kamera und die graphische Repräsentation des Schutzfeldes gemeinsam darzustellen. Damit wird das Schutzfeld als virtuelles Objekt in der Szene behandelt und dargestellt. Auf der Anzeige wird das Schutzfeld einem Livebild überblendet (Augmented Reality). Die Visualisierungsvorrichtung kann auch alternativ zu einer rein virtuellen Darstellung in der Lage sein, die auf einem Modell der Maschine beispielsweise in Form eines CAD-Modells und einem programmierten Bewegungsablauf basiert.The visualization device preferably has a camera, with the control and evaluation unit being designed to display a camera image from the camera and the graphic representation of the protective field together. The protective field is thus treated and displayed as a virtual object in the scene. The protective field is superimposed on a live image on the display (augmented reality). Alternatively, the visualization device can also be capable of a purely virtual representation, which is based on a model of the machine, for example in the form of a CAD model and a programmed motion sequence.

Die Maschine ist bevorzugt ein Roboter mit mehreren Gelenken und insbesondere einem Endeffektor als das bewegliche Maschinenteil. Bei einem solchen Roboter oder Roboterarm hängt die Pose des Endeffektors, also gleichsam dessen Hand, kumuliert von den einzelnen Gelenkstellungen ab. Der Endeffektor oder die Werkzeugspitze ist häufig die eigentliche durch das Schutzfeld abzusichernde Gefahrenquelle.The machine is preferably a robot with multiple joints and in particular an end effector as the movable machine part. In such a robot or robot arm, the pose of the end effector, that is to say its hand, depends cumulatively on the individual joint positions. The end effector or the tool tip is often the actual source of danger to be protected by the protective field.

Die Visualisierungsvorrichtung weist bevorzugt eine Schnittstelle zu der Maschine zur Kommunikation von Daten über die Bewegung des beweglichen Maschinenteils auf. Informationen über die Bewegung können in Form von Messdaten weiterer Sensoren der Maschine übergeben werden, insbesondere von Drehgebern oder dergleichen, die eine Stellung von Gelenken gemessen. Dies ist in beliebigen Verarbeitungszuständen der Messdaten möglich, die eine Maschinensteuerung schon vorgenommen hat. Informationen über die Bewegung schließen vorzugsweise eine Information über die aktuelle Pose des beweglichen Maschinenteils ein.The visualization device preferably has an interface to the machine for communicating data about the movement of the movable machine part. Information about the movement can be transferred in the form of measurement data from other sensors of the machine, in particular from rotary encoders or the like, which measure the position of joints. This is possible in any processing status of the measurement data that a machine control has already carried out. Information about the movement preferably includes information about the current pose of the movable machine part.

Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, von der Maschine empfangene Daten auf der Anzeige darzustellen. Neben der Visualisierung von Schutzfeldern gibt es eine Vielfalt weiterer Informationen über Maschine und Sensor, die für Planung, Optimierung und Überwachung einer Anwendung von großem Nutzen sind. Die Maschine kann beispielsweise ein CAD-Modell der Maschine, geplante Arbeitsschritte, einen Namen oder Typ der Maschine, eine Kommunikationsadresse und ganz allgemein jegliche Informationen einer Benutzerschnittstelle der Maschine in vielfältiger Aufbereitung übertragen, die dann auf der Visualisierungsvorrichtung angezeigt werden.The control and evaluation unit is preferably designed to display data received from the machine on the display. In addition to the visualization of protective fields, there is a variety of other information about the machine and sensor that is of great use for planning, optimizing and monitoring an application. The machine can, for example, transmit a CAD model of the machine, planned work steps, a name or type of the machine, a communication address and in general any information from a user interface of the machine in a variety of formats, which is then displayed on the visualization device.

Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, eine erste Transformation für die Pose des beweglichen Maschinenteils gegenüber einer Maschinenbasis zu bestimmen, insbesondere für die Pose eines Endeffektors eines Roboters gegenüber einer Roboterbasis aus Daten über Gelenkstellungen des Roboters. Die erste Transformation berücksichtigt die Dynamik durch die Bewegung des Maschinenteils, rechnet also bezüglich der Maschine stationären Koordinaten in ein mit dem Maschinenteil und damit dem daran befestigten Sensor mitbewegtes Koordinatensystem um. Im Bereich der Robotik spricht man von der Vorwärtskinematik, der sich auf andere Maschinen übertragen lässt. Durch die kumulierte Wirkung mehrerer Gelenke ergibt sich eine recht komplexe Bewegung des Endeffektors, die aber als Verkettung der einzelnen Gelenkbewegungen anhand von Informationen etwa von an den Gelenken angebrachten Drehgebern mit vergleichsweise elementaren Transformationen ausgedrückt werden kann. Es ist denkbar, die Vorwärtskinematik nicht in der Visualisierungsvorrichtung zu bestimmen, sondern auf entsprechende Berechnungen der Robotersteuerung zuzugreifen.The control and evaluation unit is preferably designed to determine a first transformation for the pose of the movable machine part relative to a machine base, in particular for the pose of an end effector of a robot relative to a robot base from data about the robot's joint positions. The first transformation takes into account the dynamics caused by the movement of the machine part, i.e. it converts coordinates that are stationary with respect to the machine into a coordinate system that moves with the machine part and thus with the sensor attached to it. In the field of robotics, one speaks of forward kinematics, which can be transferred to other machines. The cumulative effect of several joints results in a quite complex movement of the end effector, which, however, can be expressed as a chain of the individual joint movements based on information, for example from rotary encoders attached to the joints, with comparatively elementary transformations. It is conceivable not to determine the forward kinematics in the visualization device, but to access corresponding calculations of the robot controller.

Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, eine zweite Transformation zwischen einem Koordinatensystem der Visualisierungsvorrichtung und einem Koordinatensystem der Maschine zu bestimmen. Mit der zweiten Transformation wird zwischen der Perspektive der Visualisierungsvorrichtung und einem stationären Bezug der Maschine umgerechnet, also beispielsweise einer Maschinenbasis oder Roboterbasis ohne Berücksichtigung der Bewegung des Maschinenteils. Durch Verkettung der ersten und der zweiten Transformation ist dann die Pose des Sensors bezüglich der Visualisierungsvorrichtung bekannt.The control and evaluation unit is preferably designed to determine a second transformation between a coordinate system of the visualization device and a coordinate system of the machine. The second transformation is used to convert between the perspective of the visualization device and a stationary reference of the machine, ie for example a machine base or robot base without taking into account the movement of the machine part. The pose of the sensor with respect to the visualization device is then known by concatenating the first and the second transformation.

Die zweite Transformation ist bevorzugt aus Teiltransformationen über mindestens ein Referenzkoordinatensystem bestimmt, das in einer Umgebung der Maschine festgemacht ist, insbesondere an einem Marker. Die zweite Transformation wird hier in mindestens zwei Zwischentransformationen zerlegt. Das Referenzkoordinatensystem ist beispielsweise an einem Marker oder einem sonstigen Raumpunkt wie einem Ursprung einer Roboterzelle festgemacht. Es ist denkbar, mehrere Zwischentransformationen zu verketten und sich damit sozusagen von Referenzpunkt zu Referenzpunkt bis zu der Maschine zu hangeln. In der zweiten Transformation ist nur die Perspektive der Visualisierungsvorrichtung dynamisch, die Zwischentransformationen zwischen den Referenzkoordinatensystemen und zu einem stationären Maschinenkoordinatensystem sind statisch und können vorab parametriert oder berechnet werden.The second transformation is preferably determined from partial transformations via at least one reference coordinate system that is fixed in an area surrounding the machine, in particular on a marker. The second transformation is broken down here into at least two intermediate transformations. The reference coordinate system is fixed, for example, to a marker or another point in space such as the origin of a robot cell. It is conceivable to chain several intermediate transformations and thus, so to speak, to shimmy from reference point to reference point to the machine. In the second transformation, only the perspective of the visualization device is dynamic, the intermediate transformations between the reference coordinate systems and to a stationary machine coordinate system are static and can be parameterized or calculated in advance.

Der mindestens eine Sensor ist bevorzugt als optoelektronischer Sensor insbesondere mit einem Lichtsender zur Erzeugung von Sensorlicht in einem nicht sichtbaren Spektrum ausgebildet. Optoelektronische Sensoren eignen sich besonders zur Überwachung von Schutzfeldern. Arbeiten sie mit Licht außerhalb des sichtbaren Spektrums, meist Infrarotlicht, so sind die Erfassungsbereiche und Schutzfelder mit bloßem Auge nicht erkennbar, und deshalb ist die erfindungsgemäße Visualisierung besonders hilfreich.The at least one sensor is preferably designed as an optoelectronic sensor, in particular with a light transmitter for generating sensor light in a non-visible spectrum. Photoelectric sensors are particularly suitable for monitoring protective fields. If you work with light outside the visible spectrum, usually infrared light, the detection areas and protective fields cannot be seen with the naked eye, and the visualization according to the invention is therefore particularly helpful.

Der mindestens eine Sensor ist bevorzugt als berührungsloser Distanzsensor zum Messen von Abstandswerten ausgebildet, wobei die Geometrie des Schutzfeldes durch Vergleich der gemessenen Abstandswerte mit mindestens einer Abstandsschwelle festgelegt ist. Der Distanzsensor ist vorzugsweise für eine Messung von Abständen mit einem Lichtlaufzeitverfahren ausgebildet ist. Solche Distanzsensoren können kostengünstig, leicht und kompakt gebaut werden und sind in der Lage, sicherheitsrelevante Eingriffe verlässlich zu erkennen. Es werden mehrere Abstände aus der jeweiligen Position am Maschinenteil zur Umgebung gemessen, sei es durch mehrere Distanzsensoren und/oder einen Distanzsensor mit mehreren Messstrecken. Die Abstände werden mit mindestens einer Abstandsschwelle verglichen, und ein Eingriff in kürzerem Abstand als die Abstandsschwelle wird als Schutzfeldeingriff aufgefasst. Die jeweiligen Messstrecken für die mehreren Abstandswerte bilden gemeinsam eine Art virtuelle Schutzmantel oder Schutzglocke als Schutzfeld, die allerdings nicht zu allen Seiten geschlossen sein muss und deren unterer Rand durch die Abstandsschwelle festgelegt ist. Es ist denkbar, Abstandsschwellen je nach Orientierung der jeweiligen Messstrecke unterschiedlich zu setzen, so dass der ferne Rand der Schutzglocke eine Kontur erhält, und/oder eine Anpassung mit der Bewegung des Maschinenteils vorzunehmen, so dass die Schutzglocke sich dynamisch verändert.The at least one sensor is preferably designed as a non-contact distance sensor for measuring distance values, the geometry of the protective field being defined by comparing the measured distance values with at least one distance threshold. The distance sensor is preferably designed for measuring distances using a time-of-flight method. Such distance sensors can be built inexpensively, easily and compactly and are able to reliably detect security-relevant interventions. Several distances from the respective position on the machine part to the environment are measured, be it by several distance sensors and/or a distance sensor with several measuring sections. The distances are compared with at least one distance threshold, and an intervention at a shorter distance than the distance threshold is considered an intervention in the protective field. The respective measurement sections for the multiple distance values together form a kind of virtual protective shell or protective bell as a protective field, which, however, does not have to be closed on all sides and whose lower edge is defined by the distance threshold. It is conceivable to set distance thresholds differently depending on the orientation of the respective measurement section, so that the far edge of the protective bell is given a contour, and/or to make an adjustment with the movement of the machine part, so that the protective bell changes dynamically.

Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, eine Abstandsschwelle darzustellen. Das ist besonders dann interessant, wenn es unterschiedliche oder dynamisch angepasste Abstandsschwellen gibt beziehungsweise wenn die Abstandsschwellen gestaffelt werden. Letzteres dient dazu, einen Eingriff in die Messstrecken je nach Abstand zum Sensor unterschiedlich zu werten und beispielsweise mit einer vergleichsweise fernen Abstandsschwelle nur eine Warnung zu erzeugen, dann bei näherem Eingriff die Bewegung des Maschinenteils zu verlangsamen und bei einem nahen Eingriff sofort zu stoppen. Diese unterschiedlichen Abstandsschwellen können ebenfalls visualisiert werden.The control and evaluation unit is preferably designed to represent a distance threshold. This is particularly interesting if there are different or dynamically adjusted distance thresholds or if the distance thresholds are staggered. The latter is used to evaluate an intervention in the measuring sections differently depending on the distance to the sensor and, for example, to generate only a warning with a comparatively distant distance threshold, then to slow down the movement of the machine part if the intervention is closer and to stop it immediately if the intervention is close. These different distance thresholds can also be visualized.

Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, den mindestens einen Sensor darzustellen. Das geschieht beispielsweise anhand eines CAD-Modells, um einen physisch gar nicht vorhandenen Sensor zu visualisieren oder auch unterschiedliche Sensormodelle auszuprobieren, ohne sie tatsächlich zu montieren. Weiterhin kann ein Sensor auch in einer Solllage visualisiert werden, um dies mit der Realität zu vergleichen.The control and evaluation unit is preferably designed to display the at least one sensor. This is done, for example, using a CAD model to visualize a sensor that does not physically exist or to try out different sensor models without actually installing them. Furthermore, a sensor can also be visualized in a target position in order to compare this with reality.

Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, Parameter, Betriebszustände, Messdaten und/oder Fehlermeldungen des Sensors darzustellen. Oben wurde schon erwähnt, dass es möglich ist, außer den Schutzfeldern weitere Informationen über Maschine und Sensor darzustellen. Für den Sensor können beispielsweise Parameter wie Temperatur, aktive Sensorbereiche, Einstellungen, Betriebsmodi, auftretende Fehler und Messdaten einschließlich einer von dem Sensor wahrgenommenen Kontur angezeigt werden. Die Visualisierungsvorrichtung kann als vollständige Bedienschnittstelle des Sensors fungieren.The control and evaluation unit is preferably designed to display parameters, operating states, measurement data and/or error messages from the sensor. It has already been mentioned above that it is possible to display further information about the machine and sensor in addition to the protective fields. For example, parameters such as temperature, active sensor areas, settings, operating modes, errors that occur and measurement data including a contour perceived by the sensor can be displayed for the sensor. The visualization device can function as the complete operating interface of the sensor.

Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, eine vergangene und/oder künftige Bewegungsbahn des beweglichen Maschinenteils darzustellen. Die bisherige Bewegungsbahn ist durch früher ermittelte Posen bekannt und kann beispielsweise fortlaufend mit einer bestimmten Länge oder Dauer angezeigt werden. Die zukünftige Bewegungsbahn kann die Maschinensteuerung liefern, oder es wird ein Prädiktor verwendet, beispielsweise auf Kalman-Filtern basierend.The control and evaluation unit is preferably designed to display a past and/or future trajectory of the moving machine part. The previous trajectory is known from previously determined poses and can, for example, be displayed continuously with a specific length or duration. The future trajectory can be provided by the machine control, or a predictor is used, for example based on Kalman filters.

Die Steuer- und Auswertungseinheit ist bevorzugt dafür ausgebildet, eine voraussichtliche Bewegungsbahn im Falle eines Schutzfeldeingriffs darzustellen. Das ist eine für die Planung und Diagnose einer sicherheitstechnischen Anwendung entscheidende Information, denn die Maschine muss den sicheren Zustand auch im schlechtesten Fall rechtzeitig ohne Unfall erreichen. Dies lässt sich anhand der Visualisierung einer Ausweichbahn oder eines Bremswegs besonders intuitiv überprüfen.The control and evaluation unit is preferably designed to display a probable trajectory in the event of an intrusion into the protective field. This is crucial information for the planning and diagnosis of a safety-related application, because the machine must reach the safe state in good time without an accident, even in the worst case. This can be checked particularly intuitively using the visualization of an avoidance path or a braking distance.

Die Steuer- und Auswertungseinheit ist dafür ausgebildet, einen Prüfpunkt, einen Umschaltpunkt, einen Arbeitspunkt und/oder eine Gefahrenstelle darzustellen, wobei an einem Umschaltpunkt ein Arbeitsvorgang beginnt oder endet, an einem Arbeitspunkt das bewegliche Maschinenteil mit einem Werkstück in Berührung kommt, an einem Prüfpunkt eine Funktionsprüfung des Sensors erfolgt und eine Gefahrenstelle ein Ort oder Bereich ist, an dem Verletzungen drohen. In dieser Ausführungsform werden wichtige Punkte der Arbeitsbewegung der Maschine visualisiert. Solche Punkte sind meist rein virtuell und wären anders nicht zu erkennen. Als drei Beispiele derartiger Punkte sind ein Umschaltpunkt, ein Arbeitspunkt und ein Prüfpunkt zu nennen. An einem Umschaltpunkt setzt die eigentliche Arbeitsbewegung hin zu einem Arbeitspunkt ein oder endet dort. In dieser Phase müssen Schutzfelder regelmäßig angepasst werden, damit die Arbeitsbewegung nicht fehlerhaft die Sicherheitsfunktion auslöst. Der Arbeitspunkt bezeichnet den Ort, wo die eigentliche Bearbeitung erfolgt und beispielsweise ein Werkzeug des beweglichen Maschinenteils ein Werkstück greift, bearbeitet oder bewegt. Der Prüfpunkt kann angefahren werden, vorzugsweise zyklisch, um dort eine Referenz zu vermessen und damit festzustellen, ob die Funktion des Sensors einschließlich der Schutzfeldüberwachung noch gewährleistet ist. Das ist beispielsweise eine Referenzkontur, die zuvor bei einwandfreier Funktion eingelernte wurde. Eine Gefahrenstelle ein Ort oder Bereich, wo Verletzungen und insbesondere Quetschungen drohen.The control and evaluation unit is designed to display a test point, a switchover point, a working point and/or a danger point, with a work process beginning or ending at a switchover point, at a working point the movable machine part comes into contact with a workpiece, at a test point a functional check of the sensor is performed and a hazard is a location or area where there is a risk of injury. In this embodiment, important points of the working movement of the machine are visualized. Such points are mostly pure virtual and would not be recognizable otherwise. Three examples of such points are a switchover point, an operating point and a test point. The actual working movement towards a working point begins or ends at a switching point. In this phase, protective fields must be adjusted regularly so that the work movement does not trigger the safety function incorrectly. The working point designates the place where the actual processing takes place and, for example, a tool of the moving machine part grips, processes or moves a workpiece. The test point can be approached, preferably cyclically, in order to measure a reference there and thus determine whether the function of the sensor, including the protective field monitoring, is still guaranteed. This is, for example, a reference contour that was previously taught in if it was working properly. A hazard is a location or area where there is a risk of injury, particularly crushing.

Das erfindungsgemäße Verfahren kann auf ähnliche Weise weitergebildet werden und zeigt dabei ähnliche Vorteile. Derartige vorteilhafte Merkmale sind beispielhaft, aber nicht abschließend in den sich an die unabhängigen Ansprüche anschließenden Unteransprüchen beschrieben. Es handelt sich um ein computerimplementiertes Verfahren, dass beispielsweise in einem digitalen Baustein wie einem Prozessor oder dergleichen automatisch abläuft.The method according to the invention can be developed in a similar way and shows similar advantages. Such advantageous features are described by way of example but not exhaustively in the dependent claims which follow the independent claims. It is a computer-implemented method that runs automatically, for example, in a digital component such as a processor or the like.

Die Erfindung wird nachstehend auch hinsichtlich weiterer Merkmale und Vorteile beispielhaft anhand von Ausführungsformen und unter Bezug auf die beigefügte Zeichnung näher erläutert. Die Abbildungen der Zeichnung zeigen in:

  • 1 eine Übersichtsdarstellung einer Visualisierungsvorrichtung für einen Sensor an einer abzusichernden Maschine am Beispiel eines Roboterarms;
  • 2 eine Blockdarstellung einer Absicherung mit mindestens einem Sensor;
  • 3 eine Darstellung verschiedener Koordinatensysteme mit jeweiligen Transformationen für die Visualisierung; und
  • 4-6 eine beispielhafte Visualisierung von Schutzfeldern für einen Roboter in verschiedenen Posen oder Bewegungszuständen.
The invention is explained in more detail below, also with regard to further features and advantages, by way of example on the basis of embodiments and with reference to the attached drawing. The illustrations of the drawing show in:
  • 1 an overview of a visualization device for a sensor on a machine to be protected using the example of a robot arm;
  • 2 a block diagram of a protection with at least one sensor;
  • 3 a representation of different coordinate systems with respective transformations for the visualization; and
  • 4-6 an exemplary visualization of protective fields for a robot in different poses or movement states.

1 zeigt eine Übersichtsdarstellung einer Visualisierungsvorrichtung 10 und einer damit beobachteten Szenerie. Die Visualisierungsvorrichtung 10 ist beispielsweise ein Smartphone, ein Tablet, eine AR-Brille (Augmented Reality) oder ein ähnliches Gerät mit einer Anzeige 12. Auch eine Weboberfläche und damit ein Fernzugriff ist denkbar. Je nach Ausführung der Visualisierungsvorrichtung 10 und der Anzeige 12 ist eine Darstellung von 2D-Bilddaten oder 3D-Bilddaten möglich. Die Visualisierungsvorrichtung 10 umfasst ferner eine Steuer- und Auswertungseinheit 14 in Form mindestens eines Prozessors oder eines ähnlichen digitalen Bausteins sowie eine optionale Kamera 16. Beides ist gestrichelt eingezeichnet, da es sich im Geräteinneren beziehungsweise auf der Rückseite befindet. 1 shows an overview of a visualization device 10 and a scene observed with it. The visualization device 10 is, for example, a smartphone, a tablet, AR glasses (augmented reality) or a similar device with a display 12. A web interface and thus remote access is also conceivable. Depending on the design of the visualization device 10 and the display 12, a representation of 2D image data or 3D image data is possible. The visualization device 10 also includes a control and evaluation unit 14 in the form of at least one processor or a similar digital module and an optional camera 16. Both are shown in dashed lines because they are located inside the device or on the back.

In der beobachteten Szenerie befindet sich ein abzusichernder Roboterarm 18 mit mehreren Gelenken 20, der mit einer Bedienperson zusammenarbeitet. Der Roboterarm 18 ist ein Beispiel, die nachfolgenden Erläuterungen sind auf andere abzusichernde bewegte Maschinen und Szenarien übertragbar, insbesondere AGVs/AGCs (Automated Guided Vehicle / Cart) oder Drohnen.In the scene observed, there is a robot arm 18 to be secured with a plurality of joints 20, which works together with an operator. The robot arm 18 is an example; the following explanations can be transferred to other moving machines and scenarios to be secured, in particular AGVs/AGCs (Automated Guided Vehicle/Cart) or drones.

Zur Absicherung hier speziell des Endeffektors an dessen Spitze sind an dem Roboterarm 18 Distanzsensoren 22a-b angebracht, vorzugsweise in der Umgebung eines Werkzeugs zu dessen Absicherung (EOAS, End-of-Arm-Safeguarding). Die Distanzsensoren 22a-b bestimmen Abstandswerte längs mehrerer Sichtstrahlen 24. Die gezeigte Anzahl von zwei Distanzsensoren 22a-b ist rein beispielhaft, es können mehr Distanzsensoren oder nur ein Distanzsensor sein, der dann allerdings längs mehrerer Sichtstrahlen 24 messen kann. Allgemein gehen von jedem Distanzsensor 22a-b eine oder mehrere Sichtstrahlen 24 aus. Sichtstrahlen 24 können annähernd geometrische Strahlen sein oder einen endlichen Querschnitt aufweisen, wenn beispielsweise der Distanzsensor 22a-b als Flächentaster mit aufgefächertem Lichtstrahl arbeitet. Als Distanzsensoren 22a-b eignen sich besonders optoelektronische Abstandssensoren beispielsweise mit Messung der Lichtlaufzeit (ToF, Time of Flight). Die einleitend genannte DE 10 2015 112 656 A1 stellt ein derartiges System vor, auf das ergänzend verwiesen wird. Es gibt aber auch andere optoelektronische Sensoren, um Abstände zu bestimmen oder Schutzfelder zu überwachen, wie Laserscanner und 2D- oder 3D-Kameras, ebenso wie ganz andere Technologien, etwa Ultraschallsensoren, kapazitive Sensoren, Radarsensoren und dergleichen. Der Sensor ist vorzugsweise sicher im einleitend definierten Sinne, wobei die Sicherheit in der Anwendung alternativ auch durch Vergleich der Messergebnisse mehrerer nicht-sicherer Sensoren oder sonstige Tests erreicht werden kann.To protect here specifically the end effector at its tip, distance sensors 22a-b are attached to the robot arm 18, preferably in the vicinity of a tool to protect it (EOAS, End-of-Arm Safeguarding). The distance sensors 22a-b determine distance values along several lines of sight 24. The number of two distance sensors 22a-b shown is purely an example; there can be more distance sensors or just one distance sensor, which can then measure along several lines of sight 24. In general, one or more visual beams 24 emanate from each distance sensor 22a-b. Viewing rays 24 can be approximately geometric rays or can have a finite cross-section, for example if the distance sensor 22a-b operates as a surface scanner with a fanned-out light beam. Particularly suitable as distance sensors 22a-b are optoelectronic distance sensors, for example with measurement of the light propagation time (ToF, Time of Flight). The one mentioned in the introduction DE 10 2015 112 656 A1 presents such a system, to which reference is also made. But there are also other optoelectronic sensors for determining distances or monitoring protective fields, such as laser scanners and 2D or 3D cameras, as well as completely different technologies, such as ultrasonic sensors, capacitive sensors, radar sensors and the like. The sensor is preferably safe in the sense defined in the introduction, whereby safety in the application can alternatively also be achieved by comparing the measurement results of a number of non-safe sensors or other tests.

Während des Betriebs werden die von den Distanzsensoren 22a-b gemessenen Abstandswerte mit Abstandsschwellen verglichen. Je nach Position des Roboterarms 18 auf dessen Bewegungsbahn können dafür feste, vorgegebene Abstandsschwellen oder angepasste Abstandsschwellen verwendet werden. Die Abstandsschwellen definieren einen von dem jeweiligen Distanzsensor 22a-b ausgehenden Abschnitt der Sichtstrahlen 24, der als schützender Strahl bezeichnet werden kann. Die schützenden Strahlen gemeinsam bilden ein Schutzfeld 26 als eine Art virtuellen Schutzmantel oder virtuelle Schutzglocke um den Endeffektor. Der Begriff Schutzfeld wird vereinfachend im Singular verwendet, es können auch mehrere Schutzfelder sein. Ohnehin könnte die Gesamtheit aller einzelnen Schutzfelder wieder als ein einziges, gemeinsames Schutzfeld bezeichnet werden.During operation, the distance values measured by the distance sensors 22a-b are compared to distance thresholds. Depending on the position of the robot arm 18 on its movement path, fixed, predetermined distance thresholds or adapted distance thresholds can be used for this. The distance thresholds define a distance emanating from the respective distance sensor 22a-b Section of line of sight rays 24 which may be referred to as the protective ray. The protective beams together form a protective field 26 as a kind of virtual protective shell or virtual protective bell around the end effector. The term protective field is used in the singular for simplification; there can also be several protective fields. In any case, the totality of all individual protective fields could again be referred to as a single, common protective field.

Greift eine Person beispielsweise mit ihrer Hand 28 in den mittels des Schutzfeldes 26 abgesicherten Bereich ein und unterbricht damit einen der Sichtstrahlen 24 in einem kürzeren Abstand als die zugehörige Abstandsschwelle, so wird das Schutzfeld 26 als verletzt angesehen. Deshalb wird eine sicherheitsgerichtete Reaktion des Roboterarms 18 ausgelöst, die abhängig von den verletzten Abstandsschwellen in einem Verlangsamen, Ausweichen oder einem Nothalt bestehen kann.For example, if a person reaches into the area protected by the protective field 26 with their hand 28 and thus interrupts one of the visual beams 24 at a shorter distance than the associated distance threshold, then the protective field 26 is considered to be injured. A safety-oriented reaction of the robot arm 18 is therefore triggered, which can consist of slowing down, evasive action or an emergency stop, depending on the distance thresholds that have been violated.

Die Abstandsschwellen sind während einer Bewegung des Roboterarms 18 im Freiraum vorzugsweise auf einen vorgegebenen festen Wert gesetzt. Das Schutzfeld 26 hat damit eine feste Ausdehnung. Nähert sich der Endeffektor aber einer Arbeitsfläche 30 oder einem Objekt 32 an, so würde quasi das Schutzfeld 26 anstoßen und fehlerhaft die Sicherheitsfunktion auslösen. Deshalb werden die Abstandsschwellen vorzugsweise in solchen Phasen der Annährung sukzessive reduziert und bei der anschließenden Rückwärtsbewegung wieder verlängert. Durch veränderte Ausrichtung der Sichtstrahlen 24 kann neben der Länge des Schutzfeldes 26 auch dessen Form verändert werden, insbesondere Durchmesser oder Öffnungswinkel einer Schutzglocke variiert werden. Dazu können beispielsweise Lichtquellen oder Sendeoptiken bewegt oder unterschiedliche Lichtquellen aktiviert werden.The distance thresholds are preferably set to a predetermined fixed value during a movement of the robot arm 18 in free space. The protective field 26 thus has a fixed extent. However, if the end effector approaches a work surface 30 or an object 32, the protective field 26 would hit and erroneously trigger the safety function. For this reason, the distance thresholds are preferably successively reduced in such phases of approach and lengthened again during the subsequent backward movement. By changing the orientation of the viewing beams 24, not only the length of the protective field 26 but also its shape can be changed, in particular the diameter or opening angle of a protective bell can be varied. For this purpose, for example, light sources or transmission optics can be moved or different light sources can be activated.

Das in 1 aus den Sichtstrahlen 24 zusammengesetzte Schutzfeld 26 ist in der realen Szenerie nicht erkennbar, wenn die Distanzsensoren 22a-b mit Licht außerhalb des sichtbaren Spektrums arbeiten beziehungsweise Sensoren mit einem anderen unsichtbaren Wirkprinzip eingesetzt sind. Selbst noch mit Licht im visuellen Spektrum wäre vielleicht ein Auftreffpunkt des Lichts erkennbar, nicht aber das Schutzfeld 26 als solches, da ja das Licht nicht bei der Abstandsschwelle anhält und überdies während der Propagation durch Luft allenfalls aufgrund von Staub sichtbar würde.This in 1 The protective field 26 composed of the visual beams 24 cannot be seen in the real scene if the distance sensors 22a-b work with light outside the visible spectrum or sensors with another invisible operating principle are used. Even with light in the visual spectrum, an impingement point of the light would perhaps be recognizable, but not the protective field 26 as such, since the light does not stop at the distance threshold and, moreover, would only be visible during propagation through air at most due to dust.

Deshalb wird das Schutzfeld 26 auf der Visualisierungsvorrichtung 10 dargestellt, vorzugsweise in Überblendung mit einem Bild der Kamera 16. Die Visualisierungsvorrichtung 10 kann dafür ein Modell, insbesondere ein Simulationsmodell oder ein CAD-Modell, des Schutzfeldes 26 und/oder des Distanzsensors 22a-b kennen. Das Schutzfeld 26 ließe sich alternativ auch aus der Position des Distanzsensors 22a-b anhand der Sichtstrahlen 24 erzeugen.For this reason, the protective field 26 is displayed on the visualization device 10, preferably superimposed with an image from the camera 16. For this purpose, the visualization device 10 can know a model, in particular a simulation model or a CAD model, of the protective field 26 and/or the distance sensor 22a-b . Alternatively, the protective field 26 could also be generated from the position of the distance sensor 22a-b using the visual beams 24.

Um das Schutzfeld 26 in der richtigen Pose, d.h. der richtigen Position und Orientierung darzustellen, muss die Steuer- und Auswertungseinheit 14 die Pose des Distanzsensors 22a-b bezüglich der Visualisierungsvorrichtung 10 oder anders ausgedrückt eine Koordinatentransformation zwischen Koordinaten der Visualisierungsvorrichtung 10 und Koordinaten des mit dem Roboterarm 18 mitbewegten Distanzsensors 22a-b bestimmen, und zwar vorzugsweise in Echtzeit. Dies wird später unter Bezugnahme auf die 3 näher erläutert. Unter Berücksichtigung dieser Pose wird eine graphische Repräsentation des Schutzfeldes 26 erzeugt, die beispielsweise aus passenden graphischen Geometrieobjekten wie Polygonen, Kreisen und dergleichen zusammengesetzt ist. Für den dreidimensionalen Fall sind Dreiecksnetze und sonstige an sich bekannte Darstellungsmöglichkeiten denkbar. Diese grafische Repräsentation stellt die Steuer- und Auswertungseinheit 14 dann auf der Anzeige 12 dar.In order to display the protective field 26 in the correct pose, i.e. the correct position and orientation, the control and evaluation unit 14 must determine the pose of the distance sensor 22a-b in relation to the visualization device 10 or, to put it another way, a coordinate transformation between coordinates of the visualization device 10 and coordinates of the Determine robot arm 18 moving distance sensor 22a-b, preferably in real time. This will be referred to later with reference to the 3 explained in more detail. Taking this pose into account, a graphic representation of the protective field 26 is generated, which is composed, for example, of suitable graphic geometry objects such as polygons, circles and the like. For the three-dimensional case, triangular networks and other display options known per se are conceivable. The control and evaluation unit 14 then displays this graphical representation on the display 12.

Die Visualisierung kann als App in der Steuer- und Auswertungseinheit 14 implementiert sein. Es ist denkbar, zumindest einen Teil der Berechnungen extern vorzunehmen und vorverarbeitete oder fertige Ergebnisse zurück zu übertragen, beispielsweise über ein Netzwerk, einen Edge-Controller oder eine Cloud.The visualization can be implemented as an app in the control and evaluation unit 14 . It is conceivable to carry out at least part of the calculations externally and to transmit pre-processed or finished results back, for example via a network, an edge controller or a cloud.

Die Visualisierungsvorrichtung 10 kann diverse drahtgebundene und vorzugsweise drahtlose Schnittstellen aufweisen. Eine Schnittstelle zu einer Robotersteuerung des Roboterarms 18 kann einerseits Informationen über die Stellung oder Bewegung des Roboterarms 18 an die Steuer- und Auswertungseinheit 14 übertragen. Andererseits wäre darüber eine Verbindung zu einer Bedienschnittstelle des Roboterarms 18 denkbar, um Prozessmeldungen, Fehlermeldungen und sonstige Parameter für eine ergänzende Visualisierung auszulesen oder sogar zu konfigurieren. Auch eine Schnittstelle zu dem Distanzsensor 22a-b ist denkbar, um von dort Daten zur ergänzenden Visualisierung zu erfahren oder möglicherweise die Visualisierungsvorrichtung 10 zur Konfiguration des Distanzsensors 22a-b zu nutzen. Weitere mögliche Schnittstellen verbinden mit einem Validierungstool oder einem Risikobeurteilungstool, um darin die Dokumentation zu unterstützen.The visualization device 10 can have various wired and preferably wireless interfaces. An interface to a robot controller of the robot arm 18 can on the one hand transmit information about the position or movement of the robot arm 18 to the control and evaluation unit 14 . On the other hand, a connection to an operator interface of the robot arm 18 would be conceivable in order to read out or even configure process messages, error messages and other parameters for an additional visualization. An interface to the distance sensor 22a-b is also conceivable in order to obtain data from there for additional visualization or possibly to use the visualization device 10 to configure the distance sensor 22a-b. Other possible interfaces connect to a validation tool or a risk assessment tool to support the documentation.

2 zeigt ergänzend eine Blockdarstellung der Absicherung. Die Sensoren 22 ebenso wie die Maschine 18 sind hier etwas abstrakter und nicht als Distanzsensor und Roboterarm bezeichnet, um zu unterstreichen, dass 1 nur eine vorteilhafte Ausführungsform zeigt. Die Messwerte eines oder mehrerer Sensoren 22 werden an eine Steuerung 34 weitergegeben, innerhalb derer ein Funktionsblock 36 für die weiteren Sicherheitsauswertungen zuständig ist und die erforderlichenfalls ein sicheres Signal an die Maschine 18 beziehungsweise deren Steuerung ausgibt, um eine Sicherheitsreaktion auszulösen. Die Sicherheitsauswertungen alternativ wenigstens teilweise in mindestens einem der Sensoren 22 untergebracht sein. Der Funktionsblock 36 kann als solcher, aber auch als Softwarepaket, App oder in jeder sonst geeigneten Form implementiert sein. Der Funktionsblock 36 dient der eigentlichen Absicherung und sollte nicht mit der Funktionalität oder App für die Visualisierung in der Visualisierungsvorrichtung 10 verwechselt werden. Die Steuerung 34 ist vorzugsweise eine Sicherheitssteuerung, alternativ kommt aber auch eine andere Hardware in Betracht, wie ein Mikrocontroller, ein Computer, ein PLC (programmable logic controller), die Roboter- oder Maschinensteuerung, eine Edge-Computing-Infrastruktur oder eine Cloud. Auch hinsichtlich der Kommunikationsverbindungen besteht eine große Auswahl, etwa I/O-Link, Bluetooth, WLAN, Wi-Fi, 3G/4G/5G und prinzipiell jeglicher industrietaugliche Standard. Die schon erwähnten Schnittstellen der Visualisierungsvorrichtung 10 können mit der Steuerung 34 bestehen, die entsprechend weitervermittelt. 2 additionally shows a block diagram of the protection. The sensors 22 as well as the machine 18 are here a little more abstract and not referred to as a distance sensor and robotic arm to underline that 1 only one beneficial embodiment shows. The measured values of one or more sensors 22 are forwarded to a controller 34, within which a function block 36 is responsible for the further safety evaluations and which, if necessary, outputs a safe signal to the machine 18 or its controller in order to trigger a safety reaction. Alternatively, the safety evaluations can be accommodated at least partially in at least one of the sensors 22 . The function block 36 can be implemented as such, but also as a software package, app or in any other suitable form. The function block 36 is used for the actual protection and should not be confused with the functionality or app for the visualization in the visualization device 10 . The controller 34 is preferably a safety controller, but other hardware can alternatively also be considered, such as a microcontroller, a computer, a PLC (programmable logic controller), the robot or machine controller, an edge computing infrastructure or a cloud. There is also a wide range of communication connections, such as I/O-Link, Bluetooth, WLAN, Wi-Fi, 3G/4G/5G and in principle any industrial standard. The already mentioned interfaces of the visualization device 10 can exist with the controller 34, which forwards accordingly.

Die Sensoren 22 und die Steuerung 34, zumindest soweit es den sicherheitsrelevanten Funktionsblock 36 betrifft, müssen eine sichere Erfassung und Auswertung im Sinne der einschlägigen Normen leisten. Ein Weg dafür ist, dass sichere Sensoren und eine Sicherheitssteuerung eingesetzt werden. Es ist aber auch denkbar, originär nicht sichere Hardware zu verwenden und das geforderte Sicherheitsniveau durch Redundanz, auch diversitäre Redundanz, beziehungsweise Plausibilitätschecks oder zyklische Tests zu erreichen.The sensors 22 and the controller 34, at least as far as the safety-relevant function block 36 is concerned, must provide reliable detection and evaluation in terms of the relevant standards. One way to do this is to use safe sensors and a safety controller. However, it is also conceivable to use originally non-secure hardware and to achieve the required level of security through redundancy, including diverse redundancy, or plausibility checks or cyclic tests.

3 illustriert die Bestimmung der Pose des Sensors 22 und damit des Schutzfeldes 26 bezüglich der Visualisierungsvorrichtung 10. Das lässt sich letztlich als Koordinatentransformation eines Kamerakoordinatensystems KameraKS in ein Sensorkoordinatensystem EoasKS ausdrücken und wird hier in eine Vielzahl miteinander zu verkettender einzelner Transformationen zerlegt. Ein Teil dieser Transformationen ist statisch, ein anderer dynamisch. 3 illustrates the determination of the pose of the sensor 22 and thus the protective field 26 with respect to the visualization device 10. This can ultimately be expressed as a coordinate transformation of a camera coordinate system CameraKS into a sensor coordinate system EoasKS and is broken down here into a large number of individual transformations to be linked together. Some of these transformations are static, some are dynamic.

Die einzelnen Schritte in diesem Beispiel sind: von der Kamera oder Visualisierungsvorrichtung 10 mit dem Kamerakoordinatensystem KameraKS zu einem Marker 38 mit einer Transformation TKM in ein Markerkoordinatensystem MarkerKS, von dem Marker 38 zu einem Zellenursprung einer Roboterzelle mit einer Transformation TMZ in ein Zellenkoordinatensystem ZellenKS, von dem Zellenursprung zu einer Roboterbasis mit einer Transformation TZR in ein Roboterkoordinatensystem RoboterKS, von der Roboterbasis zu einem Endeffektor mit einer Transformation TRT in ein Endeffektorkoordinatensystem TcsKS und von dort mit einer Transformation TTE in das Sensorkoordinatensystem EoasKS. Schließlich können weitere Transformationen TEeD zu Sensordaten oder TEpD zu Prozessdaten führen.The individual steps in this example are: from the camera or visualization device 10 with the camera coordinate system CameraKS to a marker 38 with a transformation T KM into a marker coordinate system MarkerKS, from the marker 38 to a cell origin of a robot cell with a transformation T MZ into a cell coordinate system cells KS , from the cell origin to a robot base with a transformation T ZR into a robot coordinate system RoboterKS, from the robot base to an end effector with a transformation T RT into an end effector coordinate system TcsKS and from there with a transformation T TE into the sensor coordinate system EoasKS. Finally, further transformations can lead to T EeD to sensor data or T EpD to process data.

Damit kann die gesamte Transformation für die Visualisierung berechnet werden, indem die einzelnen Transformationen nacheinander ausgeführt beziehungsweise miteinander verkettet werden: TVisualisierung = TKM ◯ TMZ ◯ TZR ◯ TRT ◯ TTE ◯ TEeD. Der letzte Transformationsschritt kann durch TEpD ersetzt werden oder entfallen. Mit den jeweiligen letzten Transformationen erfolgt noch eine Anpassung, je nachdem, welche Daten in welcher Pose zu dem Sensor 22 visualisiert werden sollen.The entire transformation for the visualization can thus be calculated by executing the individual transformations one after the other or chaining them together: T visualization = T KM ◯ T MZ ◯ T ZR ◯ T RT ◯ T TE ◯ T EeD . The last transformation step can be replaced by T EpD or omitted. With the respective last transformations, there is still an adjustment, depending on which data is to be visualized in which pose in relation to the sensor 22 .

Die Transformationen TMZ und TZR zwischen Marker 38, Zellenursprung und Roboterbasis sind statisch und können vorab berechnet werden. Hier kann auch der Zwischenschritt zum Zellenursprung entfallen oder sich die Visualisierungsvorrichtung 10 direkt am Roboter Koordinatensystem ausrichten. Umgekehrt können weitere Zwischentransformationen über zusätzliche Marker oder sonstige Referenzpunkte eingefügt werden.The transformations T MZ and T ZR between marker 38, cell origin and robot base are static and can be calculated in advance. The intermediate step to the cell origin can also be omitted here or the visualization device 10 can be aligned directly on the robot coordinate system. Conversely, further intermediate transformations can be inserted via additional markers or other reference points.

Sofern nicht die Visualisierungsvorrichtung 10 fest montiert ist, muss die Transformation TKM dynamisch berechnet werden, da sie von der Pose der Visualisierungsvorrichtung 10 abhängt. Die Ausrichtung der Visualisierungsvorrichtung 10 anhand des Markers 38 ist jedoch nicht Gegenstand der Erfindung, hierzu wird ergänzend auf die einleitend genannte noch unveröffentlichte europäische Patentanmeldung mit dem Aktenzeichen EP20198357.4 verwiesen. Es gibt auch andere Möglichkeiten, Kamerakoordinaten in Weltkoordinaten umzurechnen, etwa auf Basis natürlicher Landmarken, wie Fenster, Türrahmen, Säulen, fest installierte Maschinen oder dergleichen, mit funkgestützten Verfahren, wie UWB, Bluetooth, NFC, RFID oder dergleichen, oder durch Bewegungsverfolgung der Visualisierungsvorrichtung 10 beispielsweise mit einem eigenen Inertialsensor (IMU, inertial measurement unit).Unless the visualization device 10 is permanently mounted, the transformation T KM must be calculated dynamically since it depends on the pose of the visualization device 10 . However, the alignment of the visualization device 10 using the marker 38 is not the subject of the invention EP20198357.4 referred. There are also other ways of converting camera coordinates into world coordinates, for example based on natural landmarks such as windows, door frames, pillars, permanently installed machines or the like, with radio-based methods such as UWB, Bluetooth, NFC, RFID or the like, or by tracking the movement of the visualization device 10, for example, with its own inertial sensor (IMU, inertial measurement unit).

Interessant für die Erfindung ist dagegen die dynamische Transformation TRT von dem stationären Roboterkoordinatensystem in das mitbewegte Endeffektorkoordinatensystem. Hiermit wird die Bewegung des Endeffektors nachvollzogen, vorzugsweise durch fortlaufende Berechnung in Echtzeit, damit die Visualisierungen zu der Bewegung beziehungsweise der jeweiligen aktuellen Pose des Roboterarms 18 passt. Ein Beispiel für diese Transformation TRT ist die Vorwärtskinematik. Das bezeichnet in der Robotik die Berechnung der Pose des Endeffektor beispielsweise aus den aktuell eingestellten Gelenkwinkeln der Gelenke 20 sowie möglichen weiteren Kinematikparametern des Roboterarms 18, insbesondere um neben der Pose auch noch weitere Informationen wie die Geschwindigkeit und Bewegungsrichtung abzuleiten. Die Vorwärtskinematik kann in der Steuer- und Auswertungseinheit 14 anhand der von dem Roboterarm 18 übertragenen Parameter, alternativ bereits in der Robotersteuerung berechnet werden.On the other hand, the dynamic transformation T RT from the stationary robot coordinate system to the end effector coordinate system that is moved along is of interest for the invention. The movement of the end effector is thereby reproduced, preferably by continuous calculation in real time, so that the visualizations match the movement or the respective current pose of the robot arm 18 . An example of this trans formation T RT is the forward kinematics. In robotics, this refers to the calculation of the pose of the end effector, for example from the currently set joint angles of the joints 20 and possible other kinematic parameters of the robot arm 18, in particular to derive additional information such as the speed and direction of movement in addition to the pose. The forward kinematics can be calculated in the control and evaluation unit 14 using the parameters transmitted by the robot arm 18, alternatively already in the robot controller.

Die dann noch folgenden Transformationen TTE, TEeD und TEpD beziehen sich auf die feste Montage des Sensors 22 beziehungsweise eine gewünschte Visualisierung bezüglich des Sensors 22 und sind wiederum statisch.The transformations T TE , T EeD and T EpD that then follow relate to the fixed mounting of the sensor 22 or a desired visualization with regard to the sensor 22 and are again static.

Die 4 bis 6 zeigen eine beispielhafte Visualisierung in verschiedenen Posen des Roboterarms 18. Das Schutzfeld 26 setzt sich aus mehreren hier flächigen, dreieckigen Sichtstrahlen 24 zusammen und ist virtuell als graphische Repräsentation in ein Livebild eingeblendet. Die Schutzfelder 26 werden jeweils an der richtigen Stelle am Endeffektor und in passender Orientierung visualisiert. Besonders hilfreich ist diese Form der Darstellung in einer komplexen industriellen Szenerie mit weiteren Objekten, Sensoren und/oder Maschinen.the 4 until 6 show an exemplary visualization in different poses of the robot arm 18. The protective field 26 is made up of several triangular visual beams 24, which are flat here, and is superimposed virtually as a graphic representation in a live image. The protective fields 26 are each visualized at the correct location on the end effector and in the appropriate orientation. This form of representation is particularly helpful in a complex industrial setting with other objects, sensors and/or machines.

Zusätzlich zu Schutzfeldern 26 oder an deren Stelle können noch eine Vielzahl weiterer Informationen visualisiert werden. Das sind zum einen Sensordaten, und hier wiederum Parameter, Betriebsmodi und dergleichen, die gegebenenfalls auch eingestellt werden, sowie Messdaten oder Fehlermeldungen. Einige nicht abschließend genannte Beispiele sind Distanzwerte, die Anzahl aktiver Lichtempfangselemente (SPAD, Single-Photon Avalanche Diode), die Signalstärke einzelner Lichtempfangselemente, Temperaturen an verschiedenen Messorten im Sensor, eine Betriebszeit, eine Datenrate, eine Identifikation und dergleichen mehr. Auch Roboterdaten können visualisiert werden, wenn entsprechende Schnittstellen zwischen der Visualisierungsvorrichtung 10 und dem Roboterarm 18 geschaffen werden, die vorzugsweise zur Übertragung der Vorwärtskinematik oder dafür zugrundeliegender Ausgangswerte ohnehin vorgesehen sind. Insbesondere kann auf die Bewegungsplanung oder die Bedienschnittstelle des Roboterarms 18 zugegriffen werden. Aus der Vorwärtskinematik, alternativ einer Historie der bisherigen Posen und gegebenenfalls einer Prädiktion kann die Bewegungsbahn gezeigt werden. Dabei kann vorzugsweise entschieden werden, wie lange in die Vergangenheit die Bahn visualisiert wird, ähnlich einem virtuellen Ariadnefaden. Es sind damit auch Geschwindigkeiten und Orientierungen des Roboterarms 18 zugängig, die auf Wunsch des Users ebenfalls visualisiert werden könnten.In addition to protective fields 26 or instead of them, a large number of other pieces of information can be visualized. On the one hand, there are sensor data, and here again parameters, operating modes and the like, which may also be set, as well as measurement data or error messages. A few non-exhaustive examples are distance values, the number of active light-receiving elements (SPAD, Single-Photon Avalanche Diode), the signal strength of individual light-receiving elements, temperatures at various measurement locations in the sensor, an operating time, a data rate, an identification and the like. Robot data can also be visualized if corresponding interfaces are created between the visualization device 10 and the robot arm 18, which are preferably provided in any case for the transmission of the forward kinematics or the initial values on which this is based. In particular, the movement planning or the user interface of the robot arm 18 can be accessed. The movement path can be shown from the forward kinematics, alternatively from a history of the previous poses and, if necessary, a prediction. It can preferably be decided how long in the past the path is visualized, similar to a virtual Ariadne's thread. Speeds and orientations of the robot arm 18 are thus also accessible, which could also be visualized if the user so desires.

In einer typischen Anwendung mit dem Roboterarm 18 gibt es wichtige anwendungsspezifische Raumpunkte, die ebenfalls visualisiert werden können. Zu nennen sind hier beispielhaft ein Umschaltpunkt (switch point), ein Arbeitspunkt (process point) und ein Prüfpunkt (check point). Am Umschaltpunkt endet und beginnt eine freie Fahrt des Endeffektors mit Übergang in eine eigentliche Arbeitsphase. In dieser Arbeitsphase wird der Arbeitspunkt erreicht, an dem der Endeffektor ein Werkstück berührt, beispielsweise um es zu bearbeiten, zugreifen oder zu bewegen. Am Prüfpunkt wird die Funktionsfähigkeit des Sensors 22 getestet. Für weitere Details dieser besonderen Raumpunkte wird auf die DE 10 2019 110 882 A1 verwiesen. Aus der Bewegungsplanung kann weiterhin eine Abfolge der nächsten künftig angefahrenen dieser Raumpunkte auf der Anzeige 12 dargestellt werden.In a typical application with the robotic arm 18, there are important application-specific spatial points that can also be visualized. A switch point, a process point and a check point should be mentioned here by way of example. At the switching point, a free run of the end effector begins and ends with a transition to an actual work phase. In this work phase, the work point is reached at which the end effector touches a workpiece, for example to process, grip or move it. The functionality of the sensor 22 is tested at the test point. For further details of these special space points, refer to the DE 10 2019 110 882 A1 referred. From the movement planning, a sequence of the next of these spatial points to be approached in the future can be shown on the display 12 .

Die Visualisierung ist in praktisch allen Phasen von Vorteil. Bei der Projektierung und Simulation einer Anwendung können CAD-Modelle samt ihres Wirkprinzips beziehungsweise der erzeugten oder überwachbaren Schutzfelder 26 in einer realen industriellen Szenerie angeordnet werden. Dabei kann eine Variantenauswahl eines Sensors getroffen und die die bauliche Eignung und die Kompatibilität geprüft werden.Visualization is beneficial at virtually all stages. When planning and simulating an application, CAD models together with their operating principle or the protective fields 26 that are generated or can be monitored can be arranged in a real industrial setting. A variant of a sensor can be selected and the structural suitability and compatibility can be checked.

Bei der Inbetriebnahme und Validierung einer Anwendung lässt sich prüfen, ob Endeffektor und Werkstück von dem Schutzfeld 26 vollständig umschlossen sind, ob der Sensor stets einen Referenzhintergrund innerhalb seiner nominellen Reichweite registrieren kann und ob eine gute Signalrate des Sensors zu erwarten ist, was wegen Oberflächen mit Glanz oder starker beziehungsweise schwacher Remission möglicherweise nicht der Fall ist. Die Roboterbahn kann optimiert werden, insbesondere um Kantentreffer der Sichtstrahlen 24 zu vermeiden. Gerade bei hochflexiblen Anlagen, die umgebaut, angepasst oder erweitert werden, sind leistungsfähige und leicht zugängliche Analyse- und Bewertungsmethoden für den Sicherheitsnachweis erforderlich, und dazu trägt die erfindungsgemäße Visualisierung erheblich bei, die einen niederschwelligen Zugang bietet. In Anlehnung an Augmented Reality könnte das als Augmented Validation bezeichnet werden.When commissioning and validating an application, it can be checked whether the end effector and workpiece are completely enclosed by the protective field 26, whether the sensor can always register a reference background within its nominal range and whether a good signal rate from the sensor can be expected, which is due to surfaces with Gloss or strong or weak remission may not be the case. The robot path can be optimized, in particular in order to avoid edge hits by the sight beams 24 . Efficient and easily accessible analysis and evaluation methods for the safety verification are required, especially in the case of highly flexible systems that are converted, adapted or expanded, and the visualization according to the invention, which offers low-threshold access, makes a significant contribution to this. Based on augmented reality, this could be referred to as augmented validation.

Während des eigentlichen Betriebs der Anwendung kann eine verbesserte Handhabung und Kooperation erreicht werden. Dazu sind diverse zumeist schon angesprochene Visualisierungen möglich, angefangen bei den Schutzfeldern 26 über allgemeine Mess- und Sensordaten, Abstandsschwellen, anwendungsspezifische Raumpunkte, Robotergeschwindigkeit, Roboter Bahnen, Roboterstoppweg, Darstellung einer Gefahrenstelle insbesondere in Form einer Warnung vor Quetschgefahr am Arbeitspunkt und Fehlermeldungen, insbesondere welcher Sensor 22 konkret davon betroffen ist. Letzteres erleichtert vor allem die Wartung und Diagnose einer Anwendung.Improved handling and cooperation can be achieved during the actual operation of the application. Various visualizations, most of which have already been mentioned, are possible for this purpose, starting with the protective fields 26 via general measurement and sensor data, distance thresholds, application-specific spatial points, Robot speed, robot trajectories, robot stopping path, representation of a danger point, in particular in the form of a warning of the risk of crushing at the working point, and error messages, in particular which sensor 22 is specifically affected. The latter primarily facilitates the maintenance and diagnosis of an application.

Grundsätzlich könnte eine Anwendung zunächst komplett mittels Simulation geplant werden. Dazu erfolgt die Darstellung auf der Visualisierungsvorrichtung 10 in Virtueller Realität (VR). Im Anschluss daran wird die reale Anwendung und Szenerie wie erläutert in Überblendung mit Schutzfeldern 26 und sonstigen virtuellen Informationen gezeigt (AR, Augmented Reality). Dies ermöglicht einen sehr intuitiven Soll-ist-Vergleich durch den Übergang VR-AR, mit dem sich auch Manipulationen in einer Anwendung aufdecken lassen.In principle, an application could first be planned completely using simulation. For this purpose, the display on the visualization device 10 takes place in virtual reality (VR). Following this, the real application and scenery, as explained, is shown superimposed with protective fields 26 and other virtual information (AR, augmented reality). This enables a very intuitive target/actual comparison through the VR-AR transition, which can also be used to uncover manipulations in an application.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • DE 102015112656 A1 [0004, 0038]DE 102015112656 A1 [0004, 0038]
  • DE 102019110882 A1 [0004, 0058]DE 102019110882 A1 [0004, 0058]
  • EP 19176696 [0004]EP19176696 [0004]
  • EP 3533568 A1 [0005]EP 3533568 A1 [0005]
  • EP 20198357 [0007, 0053]EP20198357 [0007, 0053]
  • EP 1521211 A2 [0008]EP 1521211 A2 [0008]
  • DE 102010017857 A1 [0009]DE 102010017857 A1 [0009]
  • EP 2048557 B1 [0010]EP 2048557 B1 [0010]
  • DE 102012111345 A1 [0011]DE 102012111345 A1 [0011]
  • EP 2378445 B1 [0012]EP 2378445 B1 [0012]

Claims (14)

Visualisierungsvorrichtung (10) für mindestens ein Schutzfeld (26) mindestens eines Sensors (22), der eine Maschine (18), insbesondere einen Roboter oder Roboterarm, durch Überwachung des Schutzfeldes (26) absichert, wobei die Visualisierungsvorrichtung (10) eine Anzeige (12) und eine Steuer- und Auswertungseinheit (14) aufweist, die dafür ausgebildet ist, eine graphische Repräsentation des Schutzfeldes (26) zu erzeugen und die graphische Repräsentation auf der Anzeige (12) darzustellen, dadurch gekennzeichnet, dass der Sensor (22) an einem beweglichen Maschinenteil der Maschine (18) mitbewegt angebracht ist und dass die Steuer- und Auswertungseinheit (14) weiterhin dafür ausgebildet ist, eine Pose des Sensors (22) bezüglich der Visualisierungsvorrichtung (10) zu bestimmen und die graphische Repräsentation des Schutzfeldes (26) an die Pose anzupassen.Visualization device (10) for at least one protective field (26) of at least one sensor (22), which protects a machine (18), in particular a robot or robot arm, by monitoring the protective field (26), the visualization device (10) having a display (12 ) and a control and evaluation unit (14) which is designed to generate a graphic representation of the protective field (26) and to display the graphic representation on the display (12), characterized in that the sensor (22) on a movable machine part of the machine (18) and that the control and evaluation unit (14) is also designed to determine a pose of the sensor (22) in relation to the visualization device (10) and to display the graphic representation of the protective field (26). adjust the pose. Visualisierungsvorrichtung (10) nach Anspruch 1, die eine Kamera (16) aufweist, und wobei die Steuer- und Auswertungseinheit (14) dafür ausgebildet ist, ein Kamerabild der Kamera (16) und die graphische Repräsentation des Schutzfeldes (26) gemeinsam darzustellen.Visualization device (10) after claim 1 Having a camera (16), and wherein the control and evaluation unit (14) is designed to display a camera image of the camera (16) and the graphic representation of the protective field (26) together. Visualisierungsvorrichtung (10) nach Anspruch 1 oder 2, wobei die Maschine (18) ein Roboter mit mehreren Gelenken (20) und insbesondere einem Endeffektor als das bewegliche Maschinenteil ist.Visualization device (10) after claim 1 or 2 , wherein the machine (18) is a robot with multiple joints (20) and in particular an end effector as the movable machine part. Visualisierungsvorrichtung (10) nach einem der vorhergehenden Ansprüche, die eine Schnittstelle zu der Maschine (18) zur Kommunikation von Daten über die Bewegung des beweglichen Maschinenteils aufweist.Visualization device (10) according to one of the preceding claims, which has an interface to the machine (18) for communication of data on the movement of the movable machine part. Visualisierungsvorrichtung (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (14) dafür ausgebildet ist, von der Maschine (18) empfangene Daten auf der Anzeige (12) darzustellen.Visualization device (10) according to one of the preceding claims, wherein the control and evaluation unit (14) is designed to display data received from the machine (18) on the display (12). Visualisierungsvorrichtung (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (14) dafür ausgebildet ist, eine erste Transformation für die Pose des beweglichen Maschinenteils gegenüber einer Maschinenbasis zu bestimmen, insbesondere für die Pose eines Endeffektors eines Roboters gegenüber einer Roboterbasis aus Daten über Gelenkstellungen (20) des Roboters.Visualization device (10) according to one of the preceding claims, wherein the control and evaluation unit (14) is designed to determine a first transformation for the pose of the movable machine part relative to a machine base, in particular for the pose of an end effector of a robot relative to a robot base Data on joint positions (20) of the robot. Visualisierungsvorrichtung (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (14) dafür ausgebildet ist, eine zweite Transformation zwischen einem Koordinatensystem der Visualisierungsvorrichtung (10) und einem Koordinatensystem der Maschine (18) zu bestimmen.Visualization device (10) according to one of the preceding claims, wherein the control and evaluation unit (14) is designed to determine a second transformation between a coordinate system of the visualization device (10) and a coordinate system of the machine (18). Visualisierungsvorrichtung (10) nach Anspruch 7, wobei die zweite Transformation aus Teiltransformationen über mindestens ein Referenzkoordinatensystem bestimmt ist, das in einer Umgebung der Maschine (18) festgemacht ist, insbesondere an einem Marker (38).Visualization device (10) after claim 7 , The second transformation being determined from partial transformations via at least one reference coordinate system which is fixed in an area surrounding the machine (18), in particular on a marker (38). Visualisierungsvorrichtung (10) nach einem der vorhergehenden Ansprüche, wobei der mindestens eine Sensor (22) als optoelektronischer Sensor insbesondere mit einem Lichtsender zur Erzeugung von Sensorlicht in einem nicht sichtbaren Spektrum ausgebildet ist.Visualization device (10) according to one of the preceding claims, wherein the at least one sensor (22) is designed as an optoelectronic sensor, in particular with a light transmitter for generating sensor light in a non-visible spectrum. Visualisierungsvorrichtung (10) nach einem der vorhergehenden Ansprüche, wobei der mindestens eine Sensor (22) als berührungsloser Distanzsensor zum Messen von Abstandswerten ausgebildet ist und wobei die Geometrie des Schutzfeldes (26) durch Vergleich der gemessenen Abstandswerte mit mindestens einer Abstandsschwelle festgelegt ist, wobei insbesondere die Steuer- und Auswertungseinheit (14) dafür ausgebildet ist, eine Abstandsschwelle darzustellen.Visualization device (10) according to one of the preceding claims, wherein the at least one sensor (22) is designed as a non-contact distance sensor for measuring distance values and wherein the geometry of the protective field (26) is defined by comparing the measured distance values with at least one distance threshold, wherein in particular the control and evaluation unit (14) is designed to represent a distance threshold. Visualisierungsvorrichtung (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (14) dafür ausgebildet ist, den mindestens einen Sensor (22) darzustellen.Visualization device (10) according to one of the preceding claims, wherein the control and evaluation unit (14) is designed to display the at least one sensor (22). Visualisierungsvorrichtung (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (14) dafür ausgebildet ist, Parameter, Betriebszustände, Messdaten und/oder Fehlermeldungen des Sensors (22) darzustellen.Visualization device (10) according to one of the preceding claims, wherein the control and evaluation unit (14) is designed to display parameters, operating states, measurement data and/or error messages of the sensor (22). Visualisierungsvorrichtung (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (14) dafür ausgebildet ist, eine vergangene und/oder künftige Bewegungsbahn des beweglichen Maschinenteils darzustellen, insbesondere eine voraussichtliche Bewegungsbahn im Falle eines Schutzfeldeingriffs.Visualization device (10) according to one of the preceding claims, wherein the control and evaluation unit (14) is designed to display a past and/or future trajectory of the movable machine part, in particular a probable trajectory in the event of an intervention in the protective field. Visualisierungsvorrichtung (10) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswertungseinheit (14) dafür ausgebildet ist, einen Prüfpunkt, einen Umschaltpunkt, einen Arbeitspunkt und/oder eine Gefahrenstelle darzustellen, wobei an einem Umschaltpunkt ein Arbeitsvorgang beginnt oder endet, an einem Arbeitspunkt das bewegliche Maschinenteil mit einem Werkstück in Berührung kommt, an einem Prüfpunkt eine Funktionsprüfung des Sensors (22) erfolgt und eine Gefahrenstelle ein Ort oder Bereich ist, an dem Verletzungen drohen.Visualization device (10) according to one of the preceding claims, wherein the control and evaluation unit (14) is designed to display a test point, a switchover point, an operating point and/or a hazard point, with a work process beginning or ending at a switchover point, at a Operating point, the moving machine part comes into contact with a workpiece, a functional test of the sensor (22) takes place at a test point and a Hazardous location is a place or area where there is a risk of injury.
DE202020106491.6U 2020-11-12 2020-11-12 Visualization of a protective field Active DE202020106491U1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202020106491.6U DE202020106491U1 (en) 2020-11-12 2020-11-12 Visualization of a protective field

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202020106491.6U DE202020106491U1 (en) 2020-11-12 2020-11-12 Visualization of a protective field

Publications (1)

Publication Number Publication Date
DE202020106491U1 true DE202020106491U1 (en) 2022-02-16

Family

ID=80474206

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202020106491.6U Active DE202020106491U1 (en) 2020-11-12 2020-11-12 Visualization of a protective field

Country Status (1)

Country Link
DE (1) DE202020106491U1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1521211A2 (en) 2003-10-01 2005-04-06 KUKA Roboter GmbH Method and apparatus for determining the position and orientation of an image receiving device
DE102010017857A1 (en) 2010-04-22 2011-10-27 Sick Ag 3D security device and method for securing and operating at least one machine
EP2048557B1 (en) 2007-10-11 2013-03-27 Sick Ag Optoelectronic sensor and mobile device and configuration method
DE102012111345A1 (en) 2012-11-23 2014-05-28 Sick Ag Mobile handheld device e.g. smart phone for aligning arrangement of optoelectronic sensor, has interface unit to receive range of view image and information about position of light spots in range of view image
EP2378445B1 (en) 2010-04-14 2016-05-11 Sick AG System and method for planning the security of a potentially hazardous industrial facility
DE102015112656A1 (en) 2015-07-31 2017-02-02 Sick Ag Distance sensor
EP3533568A1 (en) 2018-03-02 2019-09-04 OMRON Corporation Robot system
DE102019110882A1 (en) 2019-04-26 2020-10-29 Sick Ag Securing a moving machine part

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1521211A2 (en) 2003-10-01 2005-04-06 KUKA Roboter GmbH Method and apparatus for determining the position and orientation of an image receiving device
EP2048557B1 (en) 2007-10-11 2013-03-27 Sick Ag Optoelectronic sensor and mobile device and configuration method
EP2378445B1 (en) 2010-04-14 2016-05-11 Sick AG System and method for planning the security of a potentially hazardous industrial facility
DE102010017857A1 (en) 2010-04-22 2011-10-27 Sick Ag 3D security device and method for securing and operating at least one machine
DE102012111345A1 (en) 2012-11-23 2014-05-28 Sick Ag Mobile handheld device e.g. smart phone for aligning arrangement of optoelectronic sensor, has interface unit to receive range of view image and information about position of light spots in range of view image
DE102015112656A1 (en) 2015-07-31 2017-02-02 Sick Ag Distance sensor
EP3533568A1 (en) 2018-03-02 2019-09-04 OMRON Corporation Robot system
DE102019110882A1 (en) 2019-04-26 2020-10-29 Sick Ag Securing a moving machine part

Similar Documents

Publication Publication Date Title
EP2023160B1 (en) 3D room surveillance with configuration mode for determining the protection fields
EP2048557B1 (en) Optoelectronic sensor and mobile device and configuration method
EP3611422B1 (en) Sensor assembly and method for securing a supervised area
DE102019110882B4 (en) Securing a moving machine part
EP3709106B1 (en) Securing of a machine
DE102018118265B4 (en) Procedure and monitoring system for protecting a machine
EP3744482B1 (en) Securing of a movable part of a machine
EP3421191A1 (en) Sensor for securing a machine
EP2053538B1 (en) Securing a surveillance area and visual support for automatic processing
DE102007007576A1 (en) Method and device for securing a working space
DE102010007520B3 (en) Safety control with a large number of connections for sensors
EP3650740B1 (en) Safety system and method for monitoring a machine
DE112017002639T5 (en) Robot control device
DE102017111885B4 (en) Method and system for monitoring a machine
DE102015224641A1 (en) A method for detecting a collision of a robot arm with an object and robot with a robot arm
DE102017111886B3 (en) Determine the movement of a machine to be protected
EP3546136A1 (en) Augmented reality system
DE102019211770B3 (en) Process for the computer-aided recording and evaluation of a workflow in which a human worker and a robotic system interact
EP2819109B1 (en) Optoelectronic 3D-sensor and method for recognising objects
DE102016222245A1 (en) Device and method for acting on objects
DE102020129823B4 (en) Visualization of a protective field
EP2625008B1 (en) Control of a robot
EP3812863B1 (en) Movable machine
DE202017104603U1 (en) System for securing a machine
AT517784A1 (en) Method for the automated control of a machine component

Legal Events

Date Code Title Description
R207 Utility model specification