-
Gebiet der Erfindung
-
Die vorliegende Erfindung betrifft ein Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters.
-
Stand der Technik
-
Ein- und/oder Ausgabeschnittstellen von Computern sind unter dem Namen „Human Maschine Interface“ (HMI) bekannt. Zusätzlich zu klassischen Geräten wie Bildschirm, Tastatur und Maus sind in jüngerer Zeit auch mobile Geräte und in der Art von Brillen auf dem Kopf aufsetzbare Ausgabegeräte bekannt, insbesondere zur Darstellung und/oder zur Interaktion mit virtuellen Welten bzw. Virtual Reality (VR) oder erweiterten Realitäten, Augmented Reality (AR).
-
Moderne Industrieroboter können eine projektierte Sicherheitskonfiguration aufweisen, die sich auf einen jeweiligen Roboter bezieht und bei diesem abgelegt sein kann. Die Sicherheitskonfiguration kann Teilobjekte umfassen, die durch unterschiedliche dreidimensionale geometrische Formen sicherheitsrelevante Räume bzw. Zellen um den Roboter oder um bestimmte Punkte des Roboters beschreiben. Weder für einen Inbetriebnehmer, noch für Roboterprogrammierer, Anlagen- oder Bedienpersonal ist die festgelegte Sicherheitprojektierung zur Einschränkung des maximalen Arbeitsraums des Roboters mit freien Augen sichtbar.
-
Hierbei kann zwischen den folgenden Arten von Teilobjekten der Sicherheitskonfiguration bzw. der geometrischen Formen unterschieden werden:
- Erstens, geometrische Objekte, deren Bezugspunkt zur weiteren Formgebung und Positionierung im Roboterfuß liegt, nämlich der sichere Zellenraum bzw. Sicherheitszellenbereich, und darauf basierend der Arbeitsraum und Schutzraum, und zweitens, geometrische Objekte, deren Bezugspunkt zur weiteren Formgebung und Positionierung am Flanschmittelpunkt des Roboters liegt, also am Endpunkt des Roboters an dem ein Werkzeug montiert wird, nämlich der sichere Werkzeugraum bzw. „sicheres Werkzeug“.
-
Derzeit können die jeweiligen Sicherheitsprojektierungen eines Industrieroboters entweder an einem Bedienhandgerät des Roboters grafisch dargestellt werden oder mittels einer geeigneten Simulationssoftware an einem Computer. Zweiteres hat den Vorteil, dass nicht nur der Roboter selbst, sondern die gesamte Roboterzelle einer grafischen Darstellung zugeführt werden kann.
-
Nachteil beider derzeit existierender Möglichkeiten zur Darstellung der am Roboter projektierten Sicherheitskonfiguration ist, dass diese keinen direkten Kontext zur realen Roboterzelle ermöglichen.
-
Dadurch ist die Bewertung der am Industrieroboter getroffenen Sicherheitsprojektierung gegenwärtig ein sehr aufwändiger Prozess, da alle relevanten Einflussgrößen wie Roboter und dessen Sicherheitsprojektierung, trennende Schutzeinrichtungen wie Schutzzäune und Schutztore und weitere Objekte der Roboterzelle in ein virtuelles Anlagenmodell übergeführt werden müssen. Auch der Umstand, dass das virtuelle Anlagenmodell nicht exakt der real existierenden Roboterzelle entsprechen könnte, hinterlässt einen Restgrad an Unschärfe und Unsicherheit hinsichtlich Verifikation und Validierung der projektierten Sicherheitskonfiguration.
-
Die
DE 101 28 015 A1 offenbart ein Verfahren zum Planen einer veränderten Produktionsumgebung, insbesondere einer Fertigungsumgebung für Automobilkomponenten, ausgehend von einer real existierenden Fertigungsumgebung, wobei virtuelle Planungsergebnisse erzeugt werden, wobei die virtuellen Planungsergebnisse mit Hilfe eines Augmented Reality AR-Systems mit der realen Fertigungsumgebung überlagert werden.
-
Aus der
DE 10 2004 016 331 A1 ist eine Vorrichtung zur Darstellung von Informationen, insbesondere Augmented-Reality Informationen, für mindestens einen Anwender bekannt, mit mindestens einer Raumerfassungseinheit zur Erfassung einer aktuellen Realität und zur Generierung entsprechender Rauminformationen, mindestens einer Umgebungserfassungseinheit zur Erfassung einer Umgebung und zur Generierung entsprechender Umgebungsinformationen, die eine Position und/oder eine Ausrichtung der Vorrichtung in Bezug auf die Umgebung kennzeichnen, mindestens einer Verarbeitungseinheit zur Verknüpfung der Umgebungsinformationen, der Rauminformationen und von in einem ersten Speichermedium abgelegten Informationen, die zur Beschreibung mindestens eines Objektes dienen, zu einer Menge von Bildinformationen derart, dass wechselseitige Verdeckungen der aktuellen Realität und des durch die abgelegten Informationen beschriebenen Objektes durch mindestens eine Wiedergabeeinheit erkennbar gemacht werden.
-
Die
DE 10 2005 011 126 A1 offenbart ein System zur Modellierung einer realen Umgebung mit Mitteln zur Positionserfassung eines realen Objektes, mindestens einem ersten Speicherbereich für ein Objektmodell des realen Objektes, mindestens einem zweiten Speicherbereich für ein Umgebungsmodell der realen Umgebung und mindestens einer Verarbeitungseinheit zur positionsgenauen Integration des Objektmodells in das Umgebungsmodell.
-
Aus der
DE 10 2004 046 144 A1 ist ein System, insbesondere Augmented Reality System zum Planen einer Produktionsumgebung, bekannt, wobei das System eine Bildwiedergabeeinheit mit einem Eingang für ein Bildsignal aufweist, und das System eine mit der Bildwiedergabeeinheit wirkverbundene Überlagerungseinheit aufweist, welche ausgebildet ist, einen Objekt-Datensatz, welcher ein zu positionierendes, insbesondere dreidimensionales Objekt repräsentiert, mit einem eine zweidimensionale Abbildung, insbesondere eine zweidimensionale Abbildung eines Raumes, repräsentierenden Bild-Datensatz zu einer perspektivischen zweidimensionalen Darstellung zu überlagern, und ein die perspektivische zweidimensionale Darstellung repräsentierendes Bildsignal zu erzeugen und dieses an die Bildwiedergabeeinheit zu senden, wobei das System eine mit der Überlagerungseinheit wirkverbundene Ermittlungseinheit aufweist, welche ausgebildet ist, zum perspektivischen Überlagern des Objekt-Datensatzes aus dem Bild-Datensatz eine Erfassungsrichtung und -position zu ermitteln, aus der die durch den Bild-Datensatz repräsentierte Abbildung erfasst worden ist.
-
Zusammenfassung der Erfindung
-
Es ist eine Aufgabe der Erfindung, ein Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters anzugeben, dass den Ablauf einer Kontrolle und/oder Abnahme von Sicherheitsprojektierungen von Industrierobotern optimiert.
-
Die Lösung der Aufgabe erfolgt durch ein Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters mit einem Augmented Reality Human-Machine-Interface (AR-HMI) durch einen Benutzer des AR-HMI, wobei das AR-HMI eine Anzeige und eine Videokamera umfasst, wobei das Verfahren die Schritte umfasst:
- - Erfassen des Robotertyps des Roboters am AR-HMI,
- - Darstellen eines virtuellen Roboterbildes zumindest eines Teils eines Roboters des Robotertyps in der Anzeige des AR-HMI, bevorzugt eines Bereiches von einer Roboterbase bis zur Achse 2 des Roboters,
- - wobei die Darstellung des virtuellen Roboterbildes ein reales Bild der Videokamera des AR-HMI in der Anzeige der AR-HMI überlagert,
- - wobei das reale Bild ein reales Roboterbild eines Roboters des Robotertyps umfasst,
- - wobei der Benutzer durch Bewegung des AR-HMI, insbesondere der Kamera des AR-HMI, im Raum, das virtuelle Roboterbild mit dem realen Roboterbild in Positionsübereinstimmung bringt,
- - wobei der Benutzer die Positionsübereinstimmung zwischen virtuellem Roboterbild und realem Roboterbild dem AR-HMI bestätigt und/oder das AR-HMI die Positionsübereinstimmung erkennt/bestätigt,
- - Darstellen eines virtuellen ersten Sicherheitszellenbereichs um das virtuelle Roboterbild in der bestätigten Position als Überlagerung des realen Bildes in der Anzeige des AR-HMI.
-
Erfindungsgemäß wird eine Augmented Reality bzw. Mixed Reality Vorrichtung und Software genutzt. Durch Verwendung der AR-HMI, bevorzugt umfassend eine Datenbrille, besonders bevorzugt ein Hololense System der Firma Microsoft, werden virtuelle, softwaretechnisch existierende Sicherheitszellenbereiche, insbesondere Sicherheitsprojektierungen bzw. projektierten Sicherheitkonfigurationen, von Industrierobotern in eine real existierende Roboterzelle projiziert bzw. mit dieser überlagert, in welcher der entsprechende Roboter verbaut ist. Zur optimalen Überlagerung und somit zur korrekten Darstellung des Sicherheitszellenbereiches kann der Benutzer des AR-HMI ein ihm angezeigtes virtuelles Roboterbild durch Verändern des realen Kamerabildes und somit des realen Roboterbildes übereinstimmen bzw. abgleichen, bis Positionsübereinstimmung zwischen den beiden Bildern besteht, und diese Übereinstimmung dem AR-HMI bestätigen. Das AR-HMI kann die Positionsübereinstimmung alternativ auch selbständig erkennen oder diese bestätigen. Es kann somit eine automatische, insbesondere bildliche und/oder konturelle, Erkennung und/oder Bestätigung der Übereinstimmung der Objekte erfolgen. Hierdurch werden die virtuellen Daten über den Roboter und dessen Sicherheitsbereiche mit der realen Verbauung des Roboters abgeglichen, so dass die exakte tatsächliche Lage eines Sicherheitszellenbereichs angezeigt werden kann. Ein virtueller erster Sicherheitszellenbereich wird dem Benutzer um das virtuelle Roboterbild in der bestätigten Position als Überlagerung des realen Bildes in der Anzeige des AR-HMI angezeigt. Der Benutzer kann sich danach bevorzugt beliebig mit dem AR-HMI um den Roboter im Raum bewegen und die tatsächlich vorhandenen Gegenstände in Bezug auf den angezeigten virtuellen Sicherheitszellenbereich bewerten. Hierdurch können durch den Benutzer bestehende reale Abstände bzw. bestehende Probleme durch fehlende oder zu geringe Abstände zu den Sicherheitszonen festgestellt werden.
-
Auch kann dieses Verfahre dazu beitragen, sicherheitstechnische Eingrenzungen des maximal möglichen Arbeitsraums eines Industrieroboters mittels softwaretechnischer Maßnahmen auf Seiten der Robotersteuerung zu vollziehen, anstatt wie heute üblich, den maximal möglichen Arbeitsraum durch mechanische Festanschläge an Achsen des Roboters einzuschränken.
-
Durch die erfindungsgemäße Lösung kann somit ein Sicherheitsraum, insbesondere eine Sicherheitsprojektierung von Industrierobotern mittels AR-HMI, beispielsweise mittels einer Hololense der Firma Microsoft, visualisiert werden. Die Zusammenführung der am Industrieroboter erzeugten und meist ausschließlich dort abgelegten dreidimensionalen geometrischen Objekte der Projektierung der Sicherheitskonfiguration mit der realen Roboterzelle mittels AR-GUI, insbesondere mittels Microsoft Hololense, wird möglich.
-
Durch das Zusammenführen der mittels Software am Roboter projektierten Sicherheitskonfiguration mit der real existierenden Roboterzelle, in der dieser verbaut ist, lassen sich die zuvor beschriebenen Nachteile in Bezug auf Aufwand und Unschärfe der Sicherheitszelle beheben.
-
Die Bezeichnungen „Roboter“ und „Roboterbild“ können sich hierbei ausschließlich auf einen ortsfesten Teil eines vollständigen Roboters beziehen, insbesondere auf einen Sockel des Roboters.
-
Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen, der Beschreibung sowie den beigefügten Zeichnungen angegeben.
-
Um die exakte tatsächliche Lage eines Sicherheitszellenbereichs anzeigen zu können, werden, wie zuvor beschrieben, virtuellen Daten über den Roboter und dessen Sicherheitsbereiche mit der realen Verbauung des Roboters abgeglichen. Diese Abgleichung - Positions-Matching - kann ausreichend sein zur Darstellung der Sicherheitszellenbereiche/-räume, insbesondere des ersten und zweiten Sicherheitszellenbereiches, eines Arbeitsraumes und/oder eines Schutzraumes.
-
Optional kann bei der Darstellung des virtuellen ersten und/oder zweiten Sicherheitszellenbereiches und/oder des Arbeitsraumes und/oder des Schutzraumes zumindest eine aktuelle Achsposition des realen Roboters berücksichtigt werden, insbesondere nach einem Auslesen der Achsposition, vorzugsweise die Achsposition der Achse 1 des Roboters.
-
Vorzugsweise ist der virtuelle erste Sicherheitszellenbereich im Wesentlichen würfel- oder quader- oder prismenförmig. Die Grundfläche des Sicherheitszellenbereichs kann mehr als vier Eckpunkte aufweisen.
-
Bevorzugt erfolgt das Erfassen des Robotertyps des Roboters am AR-HMI dadurch, dass eine reale Bezeichnung des Robotertyps mit der Videokamera des AR-HMI erfasst wird oder dass der Benutzer den Robotertyp am AR-HMI auswählt. Die reale Bezeichnung des Robotertyps kann eine alphanumerische Schrift des Robotertyps sein oder beispielsweise ein QR-Code.
-
Bevorzugt wird zusätzlich zum virtuellen ersten Sicherheitszellenbereich ein virtueller zweiter Sicherheitszellenbereich um das virtuelle Roboterbild in der bestätigten Position als Überlagerung des realen Bildes in der Anzeige des AR-HMI dargestellt, wobei der zweite Sicherheitszellenbereich einen definierten Abstand, der vom Benutzer frei konfigurierbar sein kann, zum ersten Sicherheitszellenbereich aufweist. Der virtuelle zweite Sicherheitszellenbereich hat bevorzugt die selbe Form wie der virtuelle erste Sicherheitszellenbereich. Der virtuelle zweite Sicherheitszellenbereich kann eine Zone mit weiter erhöhter Sicherheit betreffen, beispielsweise um eine Abschaltverzögerung oder Trägheit des Systems berücksichtigen zu können. Sowohl der erste als auch der zweite Sicherheitszellenbereich können bevorzugt beliebig aus- und eingeblendet werden.
-
Vorzugsweise wird eine projektierte Sicherheitskonfiguration vom AR-HMI aus einem Datenspeicher ausgelesen oder an das AR-HMI übertragen, so dass der virtuelle erste Sicherheitszellenbereich auf Basis der projektierten Sicherheitskonfiguration erstellt werden kann.
-
Bevorzugt umfasst das AR-HMI zumindest einen stationären Computer und zumindest einen mobilen Computer, wobei der mobile Computer die Anzeige und die Videokamera umfasst und bevorzugt als AR-Brille ausgebildet ist, besonders bevorzugt als Hololense der Firma Microsoft. Umfangreichere Berechnungen werden bevorzugt auf dem stationären Computer durchgeführt.
-
Vorzugsweise werden aktuelle Achspositionen des Roboters am AR-HMI erfasst, bevorzugt dadurch, dass die aktuellen Achspositionen vom Roboter an das AR-HMI übertragen werden oder dass eine Anzeige der aktuellen Achspositionen mit der Videokamera des AR-HMI erfasst wird.
-
Aus den aktuellen Achspositionen wird bevorzugt ein Flanschmittelpunkt des Roboters bestimmt, bevorzugt mittels Vorwärtstransformation, insbesondere mittels Vorwärtstransformation nach Denavit-Hartenberg.
-
Vorzugsweise wird zumindest ein virtueller sicherer Werkzeugraum um den Flanschmittelpunkt als Überlagerung des realen Bildes in der Anzeige des AR-HMI angezeigt, wobei der sichere Werkzeugraum bevorzugt im Wesentlichen eine Kugel bildet.
-
Figurenliste
-
Die Erfindung wird im Folgenden beispielhaft unter Bezugnahme auf die Zeichnungen beschrieben.
- 1 ist ein schematisches Flussdiagramm von Schritten eines erfindungsgemäßen Verfahrens.
- 2 ist eine schematische dreidimensionale Darstellung eines Roboters und seiner Umgebung, nämlich einer Roboterzelle, mit virtuellen Sicherheitszellenbereichen, die nach einem erfindungsgemäßen Verfahren bestimmt wurden.
- 3 ist eine schematische Darstellung des Positions-Matchings in einem erfindungsgemäßen Verfahren.
-
Detaillierte Beschreibung der Erfindung
-
In der 1 ist ein erfindungsgemäßes Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters 1 mit einem Augmented Reality Human-Machine-Interface (AR-HMI) durch einen Benutzer des AR-HMI dargestellt.
-
Der Roboter 1 und seine Umgebung, insbesondere eine Roboterzelle und ein virtueller erster Sicherheitszellenbereich 2, sowie ein virtueller zweiter Sicherheitszellenbereich 4, ist in 2 dargestellt.
-
3 zeigt schließlich schematisch, wie das optische Matching, die Positionsbestimmung, in einem erfindungsgemäßen Verfahren erfolgt. Der virtuelle Robotersockel - vorzugsweise ein Bereich von einer Roboterbase bis zu einer Achse 2 - in 3 links dargestellt, wird mit dem real in der Zelle verbauten Robotersockel, in 3 rechts dargestellt, mittels Hololense überlagert.
-
Das Verfahren - siehe 1 - umfasst insgesamt grob die Schritte, dass die Sicherheitskonfiguration eines Roboter auf ein AR-HMI, insbesondere eine Holo-Lens, entweder durch Herunterladen oder durch Scannen eines Roboterdisplays oder einer Roboteranzeige übertragen werden, A, B, C. Anschließendes, insbesondere optisches, Matching des virtuellen Roberfußes/-sockels mit dem tatsächlich in der Bearbeitungs-/Roboterzelle befindlichen/positionierten Roboters, E. Anschließend Darstellung der sicheren Zellenräume/-bereiche auf der Hololense bzw. für das Auge sichtbar rund um den realen Roboter, F.
-
Im einzelnen umfasst das Verfahren die in 1 dargestellten Schritte:
- I
- Start
- A
- Auswahl eines Roboters
- A1
- Daten erfassen für AR-HMI
- S
- Scannen / Ablesen
- L
- Load / Übertragen
- B1
- Erfassen (Ablesen) des Robotertyps des Roboters am AR-HMI
- B2
- Erfassen (Ablesen) aktueller Achspositionen des Roboters am AR-HMI
- B3
- Erfassen (Ablesen) Sicherheitskonfiguration
- C1
- Laden des Roboterarchivs
- C2
- Laden der Sicherheitskonfiguration
- E
- Das virtuelle Roboterbild mit dem realen Roboterbild in Positionsübereinstimmung bringen, Matching
- F
- Darstellen von Sicherheitsbereichen, insbesondere eines virtuellen ersten Sicherheitszellenbereichs und/oder eines virtuellen sicheren Werkzeugraums
- II
- Ende
-
Das Verfahren umfasst somit:
- - Erfassen des Robotertyps des Roboters 1 am AR-HMI, A, B, C, wobei das Erfassen des Robotertyps umfassen kann ein Erfassen, insbesondere Ablesen, des Robotertyps des Roboters am AR-HMI, B1, oder ein Laden des Robotertyps aus einem Roboterarchiev C1,
- - Darstellen eines virtuellen Roboterbildes zumindest eines Teils eines Roboters des Robotertyps in der Anzeige der AR-HMI,
- - wobei die Darstellung des virtuellen Roboterbildes ein reales Bild der Videokamera des AR-HMI in der Anzeige der AR-HMI überlagert,
- - wobei das reale Bild ein reales Roboterbild des Roboters 1 des Robotertyps umfasst,
- - wobei der Benutzer durch Bewegung des AR-HMI im Raum, das virtuelle Roboterbild mit dem realen Roboterbild in Positionsübereinstimmung bringt, E, also ein „Positions-Matching“ durchführt,
- - wobei der Benutzer die Positionsübereinstimmung zwischen virtuellem Roboterbild und realem Roboterbild dem AR-HMI bestätigt, und/oder das AR-HMI die Positionsübereinstimmung erkennt oder bestätigt,
- - Darstellen eines virtuellen ersten Sicherheitszellenbereichs 2, F, um das virtuelle Roboterbild in der bestätigten Position als Überlagerung des realen Bildes in der Anzeige des AR-HMI.
-
Eine projektierte Sicherheitskonfiguration kann hierzu vom AR-HMI aus einem Datenspeicher ausgelesen oder an das AR-HMI übertragen werden, B3, C2, so dass der virtuelle erste Sicherheitszellenbereich 1 auf Basis der projektierten Sicherheitskonfiguration erstellt werden kann.
-
Zusätzlich können aktuelle Achspositionen des Roboters 1 am AR-HMI erfasst werden, B2, bevorzugt dadurch, dass die aktuellen Achspositionen vom Roboter 1 an das AR-HMI übertragen werden oder dass eine Anzeige der aktuellen Achspositionen mit der Videokamera des AR-HMI erfasst wird.
-
Die aktuellen Achspositionen können ergänzend zur Positionsbestimmung, zum Positions-Matching, des Roboters verwendet werden. Die aktuellen Achspositionen können bei der Darstellung des virtuellen ersten Sicherheitszellenbereiches 2 und / oder eines zweiten Sicherheitszellenbereiches 4 und / oder eines Arbeitsraumes und / oder eines Schutzraumes 5 berücksichtigt werden, vorzugsweise zumindest die Achsposition der Achse 1 des Roboters, insbesondere zur Positionierung eines Bezugskoordiantensystems im Roboterfuß und/oder zur Bestimmung der Roboterbasis. Die geometrischen Objekte der projektierten Sicherheitskonfiguration wie beispielsweise erster und zweiter Sicherheitszellenbereich 2, 4 oder Arbeitsraum des jeweiligen Roboters können für diesen Bezugspunkt hinterlegt sein.
-
Für den Matching-Vorgang selbst ist es nicht erforderlich eine aktuelle Achsposition aus dem Roboter auszulesen. Es kann aber die mittels Matching bestimmte Position des Roboters um aktuelle Achspositionen, bei Berücksichtigung der Achsgeometrien wie Winkel, Länge, Verdrehung etc., ergänzt werden, um Positionen für Bezugskoordinatensysteme - für den Roboterfuß oder für den Endeffektor - festzulegen. Aus den aktuellen Achspositionen kann insbesondere ein Flanschmittelpunkt bestimmt werden.
-
Zumindest ein virtueller sicherer Werkzeugraum 3 kann um den Flanschmittelpunkt als Überlagerung des realen Bildes in der Anzeige des AR-HMI dargestellt werden, F, wobei der sichere Werkzeugraum 3 bevorzugt im Wesentlichen eine Kugel bildet.
-
Als Überlagerung des realen Bildes in der Anzeige des AR-HMI können insgesamt beispielsweise folgende virtuelle Sicherheitsbereiche dargestellt werden: sicheren Zellenraum, also Sicherheitszellenbereich, sicherer Arbeitsraum, sicherer Schutzraum, sicherer Werkzeugraum, sichere TCP Messungen. Ein „Arbeitsraum“ kann beispielsweise ein mittels Brille/Hololense sichtbarer Raum um die sicheren Werkzeugräume 3 bzw. Räume der sicheren Werkzeuge 3 sein, beispielsweise ein Quader über die vier im Zellenraum dargestellten Kugeln 3, um einen Raum zu definieren aus dem sich der Roboter nicht herausbewegt. Dies ist beispielsweise notwendig, damit eine Bedienperson Werkzeuge am Roboterflansch wechseln kann und dabei Kenntnis erlangt, wie weit Sie sich dem Roboter bzw. Roboterflansch nähern kann. Demgegenüber ist ein „Schutzraum“ ein Raum, in dem eine Bedienperson jedenfalls sicher ist, da Schutzraum einen Raum im Zellenbereich definiert, in den sich der Roboter gemäß seiner projektierten Sicherheitskonfiguration nicht hineinbewegen kann. Siehe beispielhaft den in 2 im Zellenbereich rechts neben dem Roboter dargestellten Quader, der einen Schutzraum 5 darstellt.
-
Als AR-HMI kann beispielsweise eine Hololense der Firma Microsoft verwendet werden. Das AR-HMI wird nachfolgend auch als „Brille“ bezeichnet.
-
Eine mögliche Umsetzung eines erfindungsgemäßen Verfahrens wird im Folgenden beschrieben.
-
Für die Darstellung von vollständigen Sicherheitskonfigurationen können drei Informationen benötigt werden:
- -Robotertyp
- -Aktuelle Achsenposition des Roboters
- -Roboter Sicherheitskonfiguration
-
Zum Robotertyp:
- In einer Programmierungsphase kann eine Datenbank mit virtuellen Robotertypen erstellt werden. Diese kann zum Beispiel CAD Modelle von unterschiedlichen Roboterherstellern, wie solche der Firmen KUKA, ABB oder FANUC, umfassen.
-
Um die Brille auf den real existierenden Roboter kalibrieren zu können, wird das virtuelle Äquivalent jener Robotergeometrie benötigt, welches überlagert werden soll. Die Information des abzubildenden Roboters wird an die Brille entweder mittels auslesen des Roboterbackups übergeben, oder bestimmt durch direktes ablesen eines QR-Codes oder des Typenschilds am real existierenden Roboter selbst. Durch Auswählen des durch ein Auswahlmenü in der Brille zur Verfügung gestellten Robotermodells durch den Bediener der Brille, wird ein Matching Vorgang zwischen virtuellem Robotermodell und Realroboter gestartet. Dies erfolgt durch Projektion/Überlagerung des virtuellen Robotersockels (vorzugsweise Bereich von Roboterbase bis Achse 2) mit seinem realen Gegenüber. Damit versucht die Brille, die virtuelle Geometrie des Robotersockels in der Realumgebung zu finden. Um das zu erreichen, muss der Brillenbediener den mittels Brille projizierten Robotersockel bestmöglich mit dem realen überlagern. Sobald die erforderlichen Übereinstimmungen zwischen virtueller und realer Sockelgeometrie gegeben sind, wird der Matching Vorgang positiv abgeschlossen. Der Abschluss des Matching Vorgangs muss vom Brillenbediener bestätigt werden, beispielsweise mittels Geste, Handbewegung etc.
-
Zur aktuellen Achsenposition des Roboters:
- Für die Positionierung des Roboterursprungs (Bezugskoordinatensystem) und Position seines Endeffektors sowie dessen Tool Center Points oder
- Flanschmittelpunkt des Roboters, werden die aktuellen Positionen (rotatorisch wie auch linear) der Einzelachsen des jeweiligen Roboters benötigt.
- Diese werden entweder aus dem Roboterbackup automatisch entnommen oder mit der Brille vom Display des Bedienhandgerätes des realen Roboters ausgelesen.
-
Nach dem die Istposition des realen Roboters durch den vorangegangenen Matching Vorgang ermittelt wurde, wird das Bezugskoordinatensystem zur weiteren visuellen Darstellung der in der Sicherheitskonfiguration projektierten geometrischen Objekte im Roboterfuß, basierend auf die aktuellen Achspositionen des Realroboters, positioniert. Durch Vorwärtstransformation des Koordinatensystems des Roboterfußes nach Denavit-Hartenberg, wird die Position des Bezugskoordinatensystems des Endeffektors nachfolgend ermittelt. Dadurch wird die Referenzposition, vorzugsweise ein Flanschmittelpunkt, zur weiteren Positionierung der in der Sicherheitsprojektierung des Roboters definierten geometrischen Objekte zur Abbildung des „Sicheren Endeffektors“ respektive Safe Tools bzw. sicheren Werkzeuge, festgelegt.
-
Somit kann der optische Matching-Vorgang alleine ausreichend sein, um die Roboterposition zu bestimmen. Das Matching kann sich beispielsweise nicht auf einen beweglichen Teil des Roboters, sondern auf einen feststehenden Teil des Roboters beziehen, beispielsweise auf den Roboterfuß, sodass das Bezugskoordinatensystem des Roboterfußes bzw. die Istposition des Roboterfußes bereits mit dem Matching festgelegt sind bzw. zu dessen Positionierung keine Vorwärts- bzw. Rückwärtstransformation mehr erforderlich ist. Daraufhin können der virtuelle erste und zweite sichere Zellenbereich, sowie Arbeitsräume und Schutzräume, dargestellt werden. Hierzu können die Vorwärtstransformation und das Auslesen von Achspositionen, insbesondere aller Achspositionen, angewendet werden, um das Bezugskoordinatensystem des Endeffektors zu ermitteln.
-
Zusätzlich zum optischen Matching kann vorgesehen sein, dass das Bezugskoordinatensystem im Roboterfuß positioniert wird, wie zuvor beschrieben, wobei zusätzlich das Auslesen der aktuellen Position der Achse 1 des Roboters B2, C1 zur Positionsbestimmung angewendet wird. Insbesondere wenn beim Matching-Vorgang ein bewegliches Teil des Roboters gematched wird, können die sicheren Zellenbereiche noch nicht dargestellt werden, weil man beim Matching eines im Roboterbetrieb beweglichen Teiles des Roboters, beispielsweise des Bereichs von der Roboterbase bis zur Achse 2, dann zwar die Istposition dieses beweglichen Teils des Robotes ermittelt hat, aber nicht die Istposition bzw. die Koordinaten des Roboterursprungs bzw. den Bezugspunkt im Roboterfuß. Der Roboter kann beispielsweise um die Achse 1 verdreht sein. Um nun also den Roboterursprung bzw. die Basis zu definieren bzw. das Bezugskoordinatensystem des Roboterfußes zur Darstellung der in der Sicherheitsprojektierung hinterlegten geometrischen Objekte - wie erster u. zweiter sicherer Zellenbereich, Arbeitsräume, Schutzräume - zu positionieren, sind diejenigen Achspositionen - bevorzugt rotatorisch wie auch linear - auszulesen, die zwischen dem gematchten Roboterteil und dem Roboterursprung, bzw. Bezugspunkt im Roboterfuß, liegen, beispielsweise der Bereich von Roboterbase bis Achse 2.
-
Um von der mittels optischem Matching „erkannten“ Istposition des realen Roboters auf das Bezugskoordinatensystem des Endeffektors zu schließen, werden daher vorzugsweise die Positionen, und besonders bevorzugt die Geometrien, von Achsen, bevorzugt aller Achsen, ausgelesen bzw. wird die geometrische Kette bis zum Flanschmittelpunkt ermittelt.
-
Für die Darstellung der sicheren Werkzeuge ist die Position des Bezugskoordiantensystems des Endeffektors erforderlich. Um diese Referenzposition zu bestimmen, müssen die Positionen einer oder mehrere, vorzgusweise aller, Achsen des Roboters ausgelesen werden, B2, C1. Dann kann eine Darstellung der sicheren Werkzeuge bzw. Räume der sicheren Werkzeuge (Kugeln) erfolgen.
-
Zur Roboter Sicherheitskonfiguration:
- Nach Festlegung und Bestimmung der Referenzpositionen zur Positionierung und Ausrichtung der in der Sicherheitsprojektierung definierten geometrischen Objekte, müssen die relevanten Werte zur Bestimmung der benötigten geometrischen Objekte aus der Sicherheitskonfiguration des Roboters ausgelesen werden.
-
Diese beinhaltet alle erforderlichen Parameter und numerischen Werte zur grafischen Darstellung und Projektion der virtuellen 3D-Objekte mittels Brille.
-
Für die Projektion des sicheren Zellenbereichs, Sicherheitsräume und Arbeitsräume dient das Bezugskoordinatensystem des Roboterfußes zur Bestimmung der Roboterbasis.
-
Für die Darstellung der „Sicheren Werkzeuge“, wird zusätzlich das Bezugskoordinatensystem zur Definition des Tool Center Points bzw. Flanschmittelpunktes des Endeffektors benötigt bzw. benutzt.
-
Verifikation und Validierung mittels Brille:
- Dem Matching-, Positionierungs- und Projektionsprozess folgt die Verifikation und Validierung der vorherrschenden Sicherheitssituation in der realen Roboterzelle. Dafür wird der sichere Zellenbereich des Roboters in grüner Farbe dargestellt und in die reale Zelle projiziert. Zur besseren und eindeutigen Darstellung des minimal erforderlichen Sicherheitsabstandes zwischen virtuellen Zellenraum des Roboters und real existierender physischen Einhausung, wird zusätzlich dieser Grenzbereich in roter Farbe dargestellt. Der Abstand dieser beiden Zellenbereiche ist frei konfigurierbar. Durch die gleichzeitige Darstellung der beiden virtuellen Zellenräume,
- wird die Sicherheitsvalidierung vereinfacht und erleichtert. Die projizierten Zellenbereiche können im Auswahlmenü der Brille jederzeit ein- und ausgeblendet werden. Des Weiteren befindet sich im Auswahlmenü der Brille die Auswahlmöglichkeit zur Darstellung der sicheren Werkzeuge mittels Brille. Nach Auswahl des entsprechenden sicheren Werkzeugs, wird dieses in der in der Sicherheitsprojektierung des Roboters festgelegten geometrischen Form über das real existierende Werkzeug überlagert. Die geometrischen Objekte zur Darstellung des sicheren Werkzeugs werden transparent in weißer Farbe dargestellt. Damit kann der Brillenbediener prüfen,
- ob die geometrischen Objekte alle vorgegeben und relevanten Sicherheitsvorgaben erfüllen. Ein weiteres Menü dient zur Auswahl projektierter Arbeits- wie auch Sicherheitsräume (zB. sicherer Zellenbereich, Schutzraum). Diese werden dann in der vorgegebenen dreidimensionalen geometrischen Form entsprechend ein- bzw. ausgeblendet. Der Brillenträger/Brillenbediener kann bevorzugt frei wählen, ob er gerade die virtuellen sicheren Zellenbereiche 2, 4, den virtuellen Raum der sicheren Werkzeuge 3, virtuellen Arbeitsraum und/oder virtuellen Schutzraum 5 einblenden will.
-
Alle Farben zur Darstellung der unterschiedlichen Geometrieelemente sind frei konfigurierbar.
-
Zusatzoptionen:
- Es besteht des Weiteren die Option, die Sicherheitskonfiguration mehrere Roboter gleichzeitig mittels der Brille zu projizieren und mit der jeweiligen Realumgebung zu überlagern.
-
Als weitere Option besteht die Möglichkeit, die Brille direkt mit dem Roboter zu verbinden. Die aktuellen Istwerte seiner Achsstellungen werden danach zyklisch ausgelesen und auf die Brille übertragen. Dies ermöglicht in weiterer Folge die dynamische Darstellung des benötigten Raumvolumens des am Roboter projektierten sicheren Endeffektors respektive sicheren Tools mittels Brille. Das dadurch erzeugte virtuelle Raumvolumen des sicheren Endeffektors inklusive Roboter kann in weiterer Folge mit dem am Roboter projektierten sicheren Zellenraum wie auch mit der realen Roboterzelle gegengeprüft werden. Abschließend besteht die Möglichkeit, Messung zwischen virtuellen und/oder realen Objekten durchzuführen und zu visualisieren.
-
Bezugszeichenliste
-
- 1
- Roboter
- 2
- virtueller erster Sicherheitszellenbereich
- 3
- virtueller sicherer Werkzeugraum
- 4
- virtueller zweiter Sicherheitszellenbereich
- 5
- Schutzraum
- I
- Start
- A
- Auswahl eines Roboters
- A1
- Daten erfassen für AR-HMI
- S
- Scannen / Ablesen
- L
- Load / Übertragen
- B1
- Erfassen (Ablesen) des Robotertyps des Roboters am AR-HMI
- B2
- Erfassen (Ablesen) aktueller Achspositionen des Roboters am AR-HMI
- B3
- Erfassen (Ablesen) Sicherheitskonfiguration
- C1
- Laden des Roboterarchivs
- C2
- Laden der Sicherheitskonfiguration
- E
- Das virtuelle Roboterbild mit dem realen Roboterbild in Positionsübereinstimmung bringen, Matching
- F
- Darstellen von Sicherheitsbereichen, insbesondere eines virtuellen ersten Sicherheitszellenbereichs und/oder eines virtuellen sicheren Werkzeugraums
- II
- Ende