DE102020201375B3 - Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters - Google Patents

Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters Download PDF

Info

Publication number
DE102020201375B3
DE102020201375B3 DE102020201375.6A DE102020201375A DE102020201375B3 DE 102020201375 B3 DE102020201375 B3 DE 102020201375B3 DE 102020201375 A DE102020201375 A DE 102020201375A DE 102020201375 B3 DE102020201375 B3 DE 102020201375B3
Authority
DE
Germany
Prior art keywords
robot
hmi
virtual
image
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102020201375.6A
Other languages
English (en)
Inventor
Andreas Huber
Tomaz Kukovec
Christoph Monschein
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magna Steyr Fahrzeugtechnik GmbH and Co KG
Original Assignee
Steyr Daimler Puch Fahrzeugtechnik AG and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Steyr Daimler Puch Fahrzeugtechnik AG and Co KG filed Critical Steyr Daimler Puch Fahrzeugtechnik AG and Co KG
Priority to DE102020201375.6A priority Critical patent/DE102020201375B3/de
Priority to US17/151,259 priority patent/US11731283B2/en
Priority to CN202110116272.8A priority patent/CN113211494A/zh
Application granted granted Critical
Publication of DE102020201375B3 publication Critical patent/DE102020201375B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/0095Means or methods for testing manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Ein Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters (1) mit einem Augmented Reality Human-Machine-Interface (AR-HMI) durch einen Benutzer des AR-HMI, wobei das AR-HMI eine Anzeige und eine Videokamera umfasst, wobei das Verfahren die Schritte umfasst:
- Erfassen des Robotertyps des Roboters (1) am AR-HMI (B1, D),
- Darstellen eines virtuellen Roboterbildes zumindest eines Teils eines Roboters des Robotertyps in der Anzeige der AR-HMI,
- wobei die Darstellung des virtuellen Roboterbildes ein reales Bild der Videokamera des AR-HMI in der Anzeige der AR-HMI überlagert,
- wobei das reale Bild ein reales Roboterbild des Roboters (1) des Robotertyps umfasst,
- wobei der Benutzer durch Bewegung des AR-HMI im Raum, das virtuelle Roboterbild mit dem realen Roboterbild in Positionsübereinstimmung bringt (E),
- wobei der Benutzer die Positionsübereinstimmung zwischen virtuellem Roboterbild und realem Roboterbild dem AR-HMI bestätigt,
- Darstellen eines virtuellen ersten Sicherheitszellenbereichs (2) (F) um das virtuelle Roboterbild in der bestätigten Position als Überlagerung des realen Bildes in der Anzeige des AR-HMI.

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters.
  • Stand der Technik
  • Ein- und/oder Ausgabeschnittstellen von Computern sind unter dem Namen „Human Maschine Interface“ (HMI) bekannt. Zusätzlich zu klassischen Geräten wie Bildschirm, Tastatur und Maus sind in jüngerer Zeit auch mobile Geräte und in der Art von Brillen auf dem Kopf aufsetzbare Ausgabegeräte bekannt, insbesondere zur Darstellung und/oder zur Interaktion mit virtuellen Welten bzw. Virtual Reality (VR) oder erweiterten Realitäten, Augmented Reality (AR).
  • Moderne Industrieroboter können eine projektierte Sicherheitskonfiguration aufweisen, die sich auf einen jeweiligen Roboter bezieht und bei diesem abgelegt sein kann. Die Sicherheitskonfiguration kann Teilobjekte umfassen, die durch unterschiedliche dreidimensionale geometrische Formen sicherheitsrelevante Räume bzw. Zellen um den Roboter oder um bestimmte Punkte des Roboters beschreiben. Weder für einen Inbetriebnehmer, noch für Roboterprogrammierer, Anlagen- oder Bedienpersonal ist die festgelegte Sicherheitprojektierung zur Einschränkung des maximalen Arbeitsraums des Roboters mit freien Augen sichtbar.
  • Hierbei kann zwischen den folgenden Arten von Teilobjekten der Sicherheitskonfiguration bzw. der geometrischen Formen unterschieden werden:
    • Erstens, geometrische Objekte, deren Bezugspunkt zur weiteren Formgebung und Positionierung im Roboterfuß liegt, nämlich der sichere Zellenraum bzw. Sicherheitszellenbereich, und darauf basierend der Arbeitsraum und Schutzraum, und zweitens, geometrische Objekte, deren Bezugspunkt zur weiteren Formgebung und Positionierung am Flanschmittelpunkt des Roboters liegt, also am Endpunkt des Roboters an dem ein Werkzeug montiert wird, nämlich der sichere Werkzeugraum bzw. „sicheres Werkzeug“.
  • Derzeit können die jeweiligen Sicherheitsprojektierungen eines Industrieroboters entweder an einem Bedienhandgerät des Roboters grafisch dargestellt werden oder mittels einer geeigneten Simulationssoftware an einem Computer. Zweiteres hat den Vorteil, dass nicht nur der Roboter selbst, sondern die gesamte Roboterzelle einer grafischen Darstellung zugeführt werden kann.
  • Nachteil beider derzeit existierender Möglichkeiten zur Darstellung der am Roboter projektierten Sicherheitskonfiguration ist, dass diese keinen direkten Kontext zur realen Roboterzelle ermöglichen.
  • Dadurch ist die Bewertung der am Industrieroboter getroffenen Sicherheitsprojektierung gegenwärtig ein sehr aufwändiger Prozess, da alle relevanten Einflussgrößen wie Roboter und dessen Sicherheitsprojektierung, trennende Schutzeinrichtungen wie Schutzzäune und Schutztore und weitere Objekte der Roboterzelle in ein virtuelles Anlagenmodell übergeführt werden müssen. Auch der Umstand, dass das virtuelle Anlagenmodell nicht exakt der real existierenden Roboterzelle entsprechen könnte, hinterlässt einen Restgrad an Unschärfe und Unsicherheit hinsichtlich Verifikation und Validierung der projektierten Sicherheitskonfiguration.
  • Die DE 101 28 015 A1 offenbart ein Verfahren zum Planen einer veränderten Produktionsumgebung, insbesondere einer Fertigungsumgebung für Automobilkomponenten, ausgehend von einer real existierenden Fertigungsumgebung, wobei virtuelle Planungsergebnisse erzeugt werden, wobei die virtuellen Planungsergebnisse mit Hilfe eines Augmented Reality AR-Systems mit der realen Fertigungsumgebung überlagert werden.
  • Aus der DE 10 2004 016 331 A1 ist eine Vorrichtung zur Darstellung von Informationen, insbesondere Augmented-Reality Informationen, für mindestens einen Anwender bekannt, mit mindestens einer Raumerfassungseinheit zur Erfassung einer aktuellen Realität und zur Generierung entsprechender Rauminformationen, mindestens einer Umgebungserfassungseinheit zur Erfassung einer Umgebung und zur Generierung entsprechender Umgebungsinformationen, die eine Position und/oder eine Ausrichtung der Vorrichtung in Bezug auf die Umgebung kennzeichnen, mindestens einer Verarbeitungseinheit zur Verknüpfung der Umgebungsinformationen, der Rauminformationen und von in einem ersten Speichermedium abgelegten Informationen, die zur Beschreibung mindestens eines Objektes dienen, zu einer Menge von Bildinformationen derart, dass wechselseitige Verdeckungen der aktuellen Realität und des durch die abgelegten Informationen beschriebenen Objektes durch mindestens eine Wiedergabeeinheit erkennbar gemacht werden.
  • Die DE 10 2005 011 126 A1 offenbart ein System zur Modellierung einer realen Umgebung mit Mitteln zur Positionserfassung eines realen Objektes, mindestens einem ersten Speicherbereich für ein Objektmodell des realen Objektes, mindestens einem zweiten Speicherbereich für ein Umgebungsmodell der realen Umgebung und mindestens einer Verarbeitungseinheit zur positionsgenauen Integration des Objektmodells in das Umgebungsmodell.
  • Aus der DE 10 2004 046 144 A1 ist ein System, insbesondere Augmented Reality System zum Planen einer Produktionsumgebung, bekannt, wobei das System eine Bildwiedergabeeinheit mit einem Eingang für ein Bildsignal aufweist, und das System eine mit der Bildwiedergabeeinheit wirkverbundene Überlagerungseinheit aufweist, welche ausgebildet ist, einen Objekt-Datensatz, welcher ein zu positionierendes, insbesondere dreidimensionales Objekt repräsentiert, mit einem eine zweidimensionale Abbildung, insbesondere eine zweidimensionale Abbildung eines Raumes, repräsentierenden Bild-Datensatz zu einer perspektivischen zweidimensionalen Darstellung zu überlagern, und ein die perspektivische zweidimensionale Darstellung repräsentierendes Bildsignal zu erzeugen und dieses an die Bildwiedergabeeinheit zu senden, wobei das System eine mit der Überlagerungseinheit wirkverbundene Ermittlungseinheit aufweist, welche ausgebildet ist, zum perspektivischen Überlagern des Objekt-Datensatzes aus dem Bild-Datensatz eine Erfassungsrichtung und -position zu ermitteln, aus der die durch den Bild-Datensatz repräsentierte Abbildung erfasst worden ist.
  • Zusammenfassung der Erfindung
  • Es ist eine Aufgabe der Erfindung, ein Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters anzugeben, dass den Ablauf einer Kontrolle und/oder Abnahme von Sicherheitsprojektierungen von Industrierobotern optimiert.
  • Die Lösung der Aufgabe erfolgt durch ein Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters mit einem Augmented Reality Human-Machine-Interface (AR-HMI) durch einen Benutzer des AR-HMI, wobei das AR-HMI eine Anzeige und eine Videokamera umfasst, wobei das Verfahren die Schritte umfasst:
    • - Erfassen des Robotertyps des Roboters am AR-HMI,
    • - Darstellen eines virtuellen Roboterbildes zumindest eines Teils eines Roboters des Robotertyps in der Anzeige des AR-HMI, bevorzugt eines Bereiches von einer Roboterbase bis zur Achse 2 des Roboters,
    • - wobei die Darstellung des virtuellen Roboterbildes ein reales Bild der Videokamera des AR-HMI in der Anzeige der AR-HMI überlagert,
    • - wobei das reale Bild ein reales Roboterbild eines Roboters des Robotertyps umfasst,
    • - wobei der Benutzer durch Bewegung des AR-HMI, insbesondere der Kamera des AR-HMI, im Raum, das virtuelle Roboterbild mit dem realen Roboterbild in Positionsübereinstimmung bringt,
    • - wobei der Benutzer die Positionsübereinstimmung zwischen virtuellem Roboterbild und realem Roboterbild dem AR-HMI bestätigt und/oder das AR-HMI die Positionsübereinstimmung erkennt/bestätigt,
    • - Darstellen eines virtuellen ersten Sicherheitszellenbereichs um das virtuelle Roboterbild in der bestätigten Position als Überlagerung des realen Bildes in der Anzeige des AR-HMI.
  • Erfindungsgemäß wird eine Augmented Reality bzw. Mixed Reality Vorrichtung und Software genutzt. Durch Verwendung der AR-HMI, bevorzugt umfassend eine Datenbrille, besonders bevorzugt ein Hololense System der Firma Microsoft, werden virtuelle, softwaretechnisch existierende Sicherheitszellenbereiche, insbesondere Sicherheitsprojektierungen bzw. projektierten Sicherheitkonfigurationen, von Industrierobotern in eine real existierende Roboterzelle projiziert bzw. mit dieser überlagert, in welcher der entsprechende Roboter verbaut ist. Zur optimalen Überlagerung und somit zur korrekten Darstellung des Sicherheitszellenbereiches kann der Benutzer des AR-HMI ein ihm angezeigtes virtuelles Roboterbild durch Verändern des realen Kamerabildes und somit des realen Roboterbildes übereinstimmen bzw. abgleichen, bis Positionsübereinstimmung zwischen den beiden Bildern besteht, und diese Übereinstimmung dem AR-HMI bestätigen. Das AR-HMI kann die Positionsübereinstimmung alternativ auch selbständig erkennen oder diese bestätigen. Es kann somit eine automatische, insbesondere bildliche und/oder konturelle, Erkennung und/oder Bestätigung der Übereinstimmung der Objekte erfolgen. Hierdurch werden die virtuellen Daten über den Roboter und dessen Sicherheitsbereiche mit der realen Verbauung des Roboters abgeglichen, so dass die exakte tatsächliche Lage eines Sicherheitszellenbereichs angezeigt werden kann. Ein virtueller erster Sicherheitszellenbereich wird dem Benutzer um das virtuelle Roboterbild in der bestätigten Position als Überlagerung des realen Bildes in der Anzeige des AR-HMI angezeigt. Der Benutzer kann sich danach bevorzugt beliebig mit dem AR-HMI um den Roboter im Raum bewegen und die tatsächlich vorhandenen Gegenstände in Bezug auf den angezeigten virtuellen Sicherheitszellenbereich bewerten. Hierdurch können durch den Benutzer bestehende reale Abstände bzw. bestehende Probleme durch fehlende oder zu geringe Abstände zu den Sicherheitszonen festgestellt werden.
  • Auch kann dieses Verfahre dazu beitragen, sicherheitstechnische Eingrenzungen des maximal möglichen Arbeitsraums eines Industrieroboters mittels softwaretechnischer Maßnahmen auf Seiten der Robotersteuerung zu vollziehen, anstatt wie heute üblich, den maximal möglichen Arbeitsraum durch mechanische Festanschläge an Achsen des Roboters einzuschränken.
  • Durch die erfindungsgemäße Lösung kann somit ein Sicherheitsraum, insbesondere eine Sicherheitsprojektierung von Industrierobotern mittels AR-HMI, beispielsweise mittels einer Hololense der Firma Microsoft, visualisiert werden. Die Zusammenführung der am Industrieroboter erzeugten und meist ausschließlich dort abgelegten dreidimensionalen geometrischen Objekte der Projektierung der Sicherheitskonfiguration mit der realen Roboterzelle mittels AR-GUI, insbesondere mittels Microsoft Hololense, wird möglich.
  • Durch das Zusammenführen der mittels Software am Roboter projektierten Sicherheitskonfiguration mit der real existierenden Roboterzelle, in der dieser verbaut ist, lassen sich die zuvor beschriebenen Nachteile in Bezug auf Aufwand und Unschärfe der Sicherheitszelle beheben.
  • Die Bezeichnungen „Roboter“ und „Roboterbild“ können sich hierbei ausschließlich auf einen ortsfesten Teil eines vollständigen Roboters beziehen, insbesondere auf einen Sockel des Roboters.
  • Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen, der Beschreibung sowie den beigefügten Zeichnungen angegeben.
  • Um die exakte tatsächliche Lage eines Sicherheitszellenbereichs anzeigen zu können, werden, wie zuvor beschrieben, virtuellen Daten über den Roboter und dessen Sicherheitsbereiche mit der realen Verbauung des Roboters abgeglichen. Diese Abgleichung - Positions-Matching - kann ausreichend sein zur Darstellung der Sicherheitszellenbereiche/-räume, insbesondere des ersten und zweiten Sicherheitszellenbereiches, eines Arbeitsraumes und/oder eines Schutzraumes.
  • Optional kann bei der Darstellung des virtuellen ersten und/oder zweiten Sicherheitszellenbereiches und/oder des Arbeitsraumes und/oder des Schutzraumes zumindest eine aktuelle Achsposition des realen Roboters berücksichtigt werden, insbesondere nach einem Auslesen der Achsposition, vorzugsweise die Achsposition der Achse 1 des Roboters.
  • Vorzugsweise ist der virtuelle erste Sicherheitszellenbereich im Wesentlichen würfel- oder quader- oder prismenförmig. Die Grundfläche des Sicherheitszellenbereichs kann mehr als vier Eckpunkte aufweisen.
  • Bevorzugt erfolgt das Erfassen des Robotertyps des Roboters am AR-HMI dadurch, dass eine reale Bezeichnung des Robotertyps mit der Videokamera des AR-HMI erfasst wird oder dass der Benutzer den Robotertyp am AR-HMI auswählt. Die reale Bezeichnung des Robotertyps kann eine alphanumerische Schrift des Robotertyps sein oder beispielsweise ein QR-Code.
  • Bevorzugt wird zusätzlich zum virtuellen ersten Sicherheitszellenbereich ein virtueller zweiter Sicherheitszellenbereich um das virtuelle Roboterbild in der bestätigten Position als Überlagerung des realen Bildes in der Anzeige des AR-HMI dargestellt, wobei der zweite Sicherheitszellenbereich einen definierten Abstand, der vom Benutzer frei konfigurierbar sein kann, zum ersten Sicherheitszellenbereich aufweist. Der virtuelle zweite Sicherheitszellenbereich hat bevorzugt die selbe Form wie der virtuelle erste Sicherheitszellenbereich. Der virtuelle zweite Sicherheitszellenbereich kann eine Zone mit weiter erhöhter Sicherheit betreffen, beispielsweise um eine Abschaltverzögerung oder Trägheit des Systems berücksichtigen zu können. Sowohl der erste als auch der zweite Sicherheitszellenbereich können bevorzugt beliebig aus- und eingeblendet werden.
  • Vorzugsweise wird eine projektierte Sicherheitskonfiguration vom AR-HMI aus einem Datenspeicher ausgelesen oder an das AR-HMI übertragen, so dass der virtuelle erste Sicherheitszellenbereich auf Basis der projektierten Sicherheitskonfiguration erstellt werden kann.
  • Bevorzugt umfasst das AR-HMI zumindest einen stationären Computer und zumindest einen mobilen Computer, wobei der mobile Computer die Anzeige und die Videokamera umfasst und bevorzugt als AR-Brille ausgebildet ist, besonders bevorzugt als Hololense der Firma Microsoft. Umfangreichere Berechnungen werden bevorzugt auf dem stationären Computer durchgeführt.
  • Vorzugsweise werden aktuelle Achspositionen des Roboters am AR-HMI erfasst, bevorzugt dadurch, dass die aktuellen Achspositionen vom Roboter an das AR-HMI übertragen werden oder dass eine Anzeige der aktuellen Achspositionen mit der Videokamera des AR-HMI erfasst wird.
  • Aus den aktuellen Achspositionen wird bevorzugt ein Flanschmittelpunkt des Roboters bestimmt, bevorzugt mittels Vorwärtstransformation, insbesondere mittels Vorwärtstransformation nach Denavit-Hartenberg.
  • Vorzugsweise wird zumindest ein virtueller sicherer Werkzeugraum um den Flanschmittelpunkt als Überlagerung des realen Bildes in der Anzeige des AR-HMI angezeigt, wobei der sichere Werkzeugraum bevorzugt im Wesentlichen eine Kugel bildet.
  • Figurenliste
  • Die Erfindung wird im Folgenden beispielhaft unter Bezugnahme auf die Zeichnungen beschrieben.
    • 1 ist ein schematisches Flussdiagramm von Schritten eines erfindungsgemäßen Verfahrens.
    • 2 ist eine schematische dreidimensionale Darstellung eines Roboters und seiner Umgebung, nämlich einer Roboterzelle, mit virtuellen Sicherheitszellenbereichen, die nach einem erfindungsgemäßen Verfahren bestimmt wurden.
    • 3 ist eine schematische Darstellung des Positions-Matchings in einem erfindungsgemäßen Verfahren.
  • Detaillierte Beschreibung der Erfindung
  • In der 1 ist ein erfindungsgemäßes Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters 1 mit einem Augmented Reality Human-Machine-Interface (AR-HMI) durch einen Benutzer des AR-HMI dargestellt.
  • Der Roboter 1 und seine Umgebung, insbesondere eine Roboterzelle und ein virtueller erster Sicherheitszellenbereich 2, sowie ein virtueller zweiter Sicherheitszellenbereich 4, ist in 2 dargestellt.
  • 3 zeigt schließlich schematisch, wie das optische Matching, die Positionsbestimmung, in einem erfindungsgemäßen Verfahren erfolgt. Der virtuelle Robotersockel - vorzugsweise ein Bereich von einer Roboterbase bis zu einer Achse 2 - in 3 links dargestellt, wird mit dem real in der Zelle verbauten Robotersockel, in 3 rechts dargestellt, mittels Hololense überlagert.
  • Das Verfahren - siehe 1 - umfasst insgesamt grob die Schritte, dass die Sicherheitskonfiguration eines Roboter auf ein AR-HMI, insbesondere eine Holo-Lens, entweder durch Herunterladen oder durch Scannen eines Roboterdisplays oder einer Roboteranzeige übertragen werden, A, B, C. Anschließendes, insbesondere optisches, Matching des virtuellen Roberfußes/-sockels mit dem tatsächlich in der Bearbeitungs-/Roboterzelle befindlichen/positionierten Roboters, E. Anschließend Darstellung der sicheren Zellenräume/-bereiche auf der Hololense bzw. für das Auge sichtbar rund um den realen Roboter, F.
  • Im einzelnen umfasst das Verfahren die in 1 dargestellten Schritte:
  • I
    Start
    A
    Auswahl eines Roboters
    A1
    Daten erfassen für AR-HMI
    S
    Scannen / Ablesen
    L
    Load / Übertragen
    B1
    Erfassen (Ablesen) des Robotertyps des Roboters am AR-HMI
    B2
    Erfassen (Ablesen) aktueller Achspositionen des Roboters am AR-HMI
    B3
    Erfassen (Ablesen) Sicherheitskonfiguration
    C1
    Laden des Roboterarchivs
    C2
    Laden der Sicherheitskonfiguration
    E
    Das virtuelle Roboterbild mit dem realen Roboterbild in Positionsübereinstimmung bringen, Matching
    F
    Darstellen von Sicherheitsbereichen, insbesondere eines virtuellen ersten Sicherheitszellenbereichs und/oder eines virtuellen sicheren Werkzeugraums
    II
    Ende
  • Das Verfahren umfasst somit:
    • - Erfassen des Robotertyps des Roboters 1 am AR-HMI, A, B, C, wobei das Erfassen des Robotertyps umfassen kann ein Erfassen, insbesondere Ablesen, des Robotertyps des Roboters am AR-HMI, B1, oder ein Laden des Robotertyps aus einem Roboterarchiev C1,
    • - Darstellen eines virtuellen Roboterbildes zumindest eines Teils eines Roboters des Robotertyps in der Anzeige der AR-HMI,
    • - wobei die Darstellung des virtuellen Roboterbildes ein reales Bild der Videokamera des AR-HMI in der Anzeige der AR-HMI überlagert,
    • - wobei das reale Bild ein reales Roboterbild des Roboters 1 des Robotertyps umfasst,
    • - wobei der Benutzer durch Bewegung des AR-HMI im Raum, das virtuelle Roboterbild mit dem realen Roboterbild in Positionsübereinstimmung bringt, E, also ein „Positions-Matching“ durchführt,
    • - wobei der Benutzer die Positionsübereinstimmung zwischen virtuellem Roboterbild und realem Roboterbild dem AR-HMI bestätigt, und/oder das AR-HMI die Positionsübereinstimmung erkennt oder bestätigt,
    • - Darstellen eines virtuellen ersten Sicherheitszellenbereichs 2, F, um das virtuelle Roboterbild in der bestätigten Position als Überlagerung des realen Bildes in der Anzeige des AR-HMI.
  • Eine projektierte Sicherheitskonfiguration kann hierzu vom AR-HMI aus einem Datenspeicher ausgelesen oder an das AR-HMI übertragen werden, B3, C2, so dass der virtuelle erste Sicherheitszellenbereich 1 auf Basis der projektierten Sicherheitskonfiguration erstellt werden kann.
  • Zusätzlich können aktuelle Achspositionen des Roboters 1 am AR-HMI erfasst werden, B2, bevorzugt dadurch, dass die aktuellen Achspositionen vom Roboter 1 an das AR-HMI übertragen werden oder dass eine Anzeige der aktuellen Achspositionen mit der Videokamera des AR-HMI erfasst wird.
  • Die aktuellen Achspositionen können ergänzend zur Positionsbestimmung, zum Positions-Matching, des Roboters verwendet werden. Die aktuellen Achspositionen können bei der Darstellung des virtuellen ersten Sicherheitszellenbereiches 2 und / oder eines zweiten Sicherheitszellenbereiches 4 und / oder eines Arbeitsraumes und / oder eines Schutzraumes 5 berücksichtigt werden, vorzugsweise zumindest die Achsposition der Achse 1 des Roboters, insbesondere zur Positionierung eines Bezugskoordiantensystems im Roboterfuß und/oder zur Bestimmung der Roboterbasis. Die geometrischen Objekte der projektierten Sicherheitskonfiguration wie beispielsweise erster und zweiter Sicherheitszellenbereich 2, 4 oder Arbeitsraum des jeweiligen Roboters können für diesen Bezugspunkt hinterlegt sein.
  • Für den Matching-Vorgang selbst ist es nicht erforderlich eine aktuelle Achsposition aus dem Roboter auszulesen. Es kann aber die mittels Matching bestimmte Position des Roboters um aktuelle Achspositionen, bei Berücksichtigung der Achsgeometrien wie Winkel, Länge, Verdrehung etc., ergänzt werden, um Positionen für Bezugskoordinatensysteme - für den Roboterfuß oder für den Endeffektor - festzulegen. Aus den aktuellen Achspositionen kann insbesondere ein Flanschmittelpunkt bestimmt werden.
  • Zumindest ein virtueller sicherer Werkzeugraum 3 kann um den Flanschmittelpunkt als Überlagerung des realen Bildes in der Anzeige des AR-HMI dargestellt werden, F, wobei der sichere Werkzeugraum 3 bevorzugt im Wesentlichen eine Kugel bildet.
  • Als Überlagerung des realen Bildes in der Anzeige des AR-HMI können insgesamt beispielsweise folgende virtuelle Sicherheitsbereiche dargestellt werden: sicheren Zellenraum, also Sicherheitszellenbereich, sicherer Arbeitsraum, sicherer Schutzraum, sicherer Werkzeugraum, sichere TCP Messungen. Ein „Arbeitsraum“ kann beispielsweise ein mittels Brille/Hololense sichtbarer Raum um die sicheren Werkzeugräume 3 bzw. Räume der sicheren Werkzeuge 3 sein, beispielsweise ein Quader über die vier im Zellenraum dargestellten Kugeln 3, um einen Raum zu definieren aus dem sich der Roboter nicht herausbewegt. Dies ist beispielsweise notwendig, damit eine Bedienperson Werkzeuge am Roboterflansch wechseln kann und dabei Kenntnis erlangt, wie weit Sie sich dem Roboter bzw. Roboterflansch nähern kann. Demgegenüber ist ein „Schutzraum“ ein Raum, in dem eine Bedienperson jedenfalls sicher ist, da Schutzraum einen Raum im Zellenbereich definiert, in den sich der Roboter gemäß seiner projektierten Sicherheitskonfiguration nicht hineinbewegen kann. Siehe beispielhaft den in 2 im Zellenbereich rechts neben dem Roboter dargestellten Quader, der einen Schutzraum 5 darstellt.
  • Als AR-HMI kann beispielsweise eine Hololense der Firma Microsoft verwendet werden. Das AR-HMI wird nachfolgend auch als „Brille“ bezeichnet.
  • Eine mögliche Umsetzung eines erfindungsgemäßen Verfahrens wird im Folgenden beschrieben.
  • Für die Darstellung von vollständigen Sicherheitskonfigurationen können drei Informationen benötigt werden:
    • -Robotertyp
    • -Aktuelle Achsenposition des Roboters
    • -Roboter Sicherheitskonfiguration
  • Zum Robotertyp:
    • In einer Programmierungsphase kann eine Datenbank mit virtuellen Robotertypen erstellt werden. Diese kann zum Beispiel CAD Modelle von unterschiedlichen Roboterherstellern, wie solche der Firmen KUKA, ABB oder FANUC, umfassen.
  • Um die Brille auf den real existierenden Roboter kalibrieren zu können, wird das virtuelle Äquivalent jener Robotergeometrie benötigt, welches überlagert werden soll. Die Information des abzubildenden Roboters wird an die Brille entweder mittels auslesen des Roboterbackups übergeben, oder bestimmt durch direktes ablesen eines QR-Codes oder des Typenschilds am real existierenden Roboter selbst. Durch Auswählen des durch ein Auswahlmenü in der Brille zur Verfügung gestellten Robotermodells durch den Bediener der Brille, wird ein Matching Vorgang zwischen virtuellem Robotermodell und Realroboter gestartet. Dies erfolgt durch Projektion/Überlagerung des virtuellen Robotersockels (vorzugsweise Bereich von Roboterbase bis Achse 2) mit seinem realen Gegenüber. Damit versucht die Brille, die virtuelle Geometrie des Robotersockels in der Realumgebung zu finden. Um das zu erreichen, muss der Brillenbediener den mittels Brille projizierten Robotersockel bestmöglich mit dem realen überlagern. Sobald die erforderlichen Übereinstimmungen zwischen virtueller und realer Sockelgeometrie gegeben sind, wird der Matching Vorgang positiv abgeschlossen. Der Abschluss des Matching Vorgangs muss vom Brillenbediener bestätigt werden, beispielsweise mittels Geste, Handbewegung etc.
  • Zur aktuellen Achsenposition des Roboters:
    • Für die Positionierung des Roboterursprungs (Bezugskoordinatensystem) und Position seines Endeffektors sowie dessen Tool Center Points oder
    • Flanschmittelpunkt des Roboters, werden die aktuellen Positionen (rotatorisch wie auch linear) der Einzelachsen des jeweiligen Roboters benötigt.
    • Diese werden entweder aus dem Roboterbackup automatisch entnommen oder mit der Brille vom Display des Bedienhandgerätes des realen Roboters ausgelesen.
  • Nach dem die Istposition des realen Roboters durch den vorangegangenen Matching Vorgang ermittelt wurde, wird das Bezugskoordinatensystem zur weiteren visuellen Darstellung der in der Sicherheitskonfiguration projektierten geometrischen Objekte im Roboterfuß, basierend auf die aktuellen Achspositionen des Realroboters, positioniert. Durch Vorwärtstransformation des Koordinatensystems des Roboterfußes nach Denavit-Hartenberg, wird die Position des Bezugskoordinatensystems des Endeffektors nachfolgend ermittelt. Dadurch wird die Referenzposition, vorzugsweise ein Flanschmittelpunkt, zur weiteren Positionierung der in der Sicherheitsprojektierung des Roboters definierten geometrischen Objekte zur Abbildung des „Sicheren Endeffektors“ respektive Safe Tools bzw. sicheren Werkzeuge, festgelegt.
  • Somit kann der optische Matching-Vorgang alleine ausreichend sein, um die Roboterposition zu bestimmen. Das Matching kann sich beispielsweise nicht auf einen beweglichen Teil des Roboters, sondern auf einen feststehenden Teil des Roboters beziehen, beispielsweise auf den Roboterfuß, sodass das Bezugskoordinatensystem des Roboterfußes bzw. die Istposition des Roboterfußes bereits mit dem Matching festgelegt sind bzw. zu dessen Positionierung keine Vorwärts- bzw. Rückwärtstransformation mehr erforderlich ist. Daraufhin können der virtuelle erste und zweite sichere Zellenbereich, sowie Arbeitsräume und Schutzräume, dargestellt werden. Hierzu können die Vorwärtstransformation und das Auslesen von Achspositionen, insbesondere aller Achspositionen, angewendet werden, um das Bezugskoordinatensystem des Endeffektors zu ermitteln.
  • Zusätzlich zum optischen Matching kann vorgesehen sein, dass das Bezugskoordinatensystem im Roboterfuß positioniert wird, wie zuvor beschrieben, wobei zusätzlich das Auslesen der aktuellen Position der Achse 1 des Roboters B2, C1 zur Positionsbestimmung angewendet wird. Insbesondere wenn beim Matching-Vorgang ein bewegliches Teil des Roboters gematched wird, können die sicheren Zellenbereiche noch nicht dargestellt werden, weil man beim Matching eines im Roboterbetrieb beweglichen Teiles des Roboters, beispielsweise des Bereichs von der Roboterbase bis zur Achse 2, dann zwar die Istposition dieses beweglichen Teils des Robotes ermittelt hat, aber nicht die Istposition bzw. die Koordinaten des Roboterursprungs bzw. den Bezugspunkt im Roboterfuß. Der Roboter kann beispielsweise um die Achse 1 verdreht sein. Um nun also den Roboterursprung bzw. die Basis zu definieren bzw. das Bezugskoordinatensystem des Roboterfußes zur Darstellung der in der Sicherheitsprojektierung hinterlegten geometrischen Objekte - wie erster u. zweiter sicherer Zellenbereich, Arbeitsräume, Schutzräume - zu positionieren, sind diejenigen Achspositionen - bevorzugt rotatorisch wie auch linear - auszulesen, die zwischen dem gematchten Roboterteil und dem Roboterursprung, bzw. Bezugspunkt im Roboterfuß, liegen, beispielsweise der Bereich von Roboterbase bis Achse 2.
  • Um von der mittels optischem Matching „erkannten“ Istposition des realen Roboters auf das Bezugskoordinatensystem des Endeffektors zu schließen, werden daher vorzugsweise die Positionen, und besonders bevorzugt die Geometrien, von Achsen, bevorzugt aller Achsen, ausgelesen bzw. wird die geometrische Kette bis zum Flanschmittelpunkt ermittelt.
  • Für die Darstellung der sicheren Werkzeuge ist die Position des Bezugskoordiantensystems des Endeffektors erforderlich. Um diese Referenzposition zu bestimmen, müssen die Positionen einer oder mehrere, vorzgusweise aller, Achsen des Roboters ausgelesen werden, B2, C1. Dann kann eine Darstellung der sicheren Werkzeuge bzw. Räume der sicheren Werkzeuge (Kugeln) erfolgen.
  • Zur Roboter Sicherheitskonfiguration:
    • Nach Festlegung und Bestimmung der Referenzpositionen zur Positionierung und Ausrichtung der in der Sicherheitsprojektierung definierten geometrischen Objekte, müssen die relevanten Werte zur Bestimmung der benötigten geometrischen Objekte aus der Sicherheitskonfiguration des Roboters ausgelesen werden.
  • Diese beinhaltet alle erforderlichen Parameter und numerischen Werte zur grafischen Darstellung und Projektion der virtuellen 3D-Objekte mittels Brille.
  • Für die Projektion des sicheren Zellenbereichs, Sicherheitsräume und Arbeitsräume dient das Bezugskoordinatensystem des Roboterfußes zur Bestimmung der Roboterbasis.
  • Für die Darstellung der „Sicheren Werkzeuge“, wird zusätzlich das Bezugskoordinatensystem zur Definition des Tool Center Points bzw. Flanschmittelpunktes des Endeffektors benötigt bzw. benutzt.
  • Verifikation und Validierung mittels Brille:
    • Dem Matching-, Positionierungs- und Projektionsprozess folgt die Verifikation und Validierung der vorherrschenden Sicherheitssituation in der realen Roboterzelle. Dafür wird der sichere Zellenbereich des Roboters in grüner Farbe dargestellt und in die reale Zelle projiziert. Zur besseren und eindeutigen Darstellung des minimal erforderlichen Sicherheitsabstandes zwischen virtuellen Zellenraum des Roboters und real existierender physischen Einhausung, wird zusätzlich dieser Grenzbereich in roter Farbe dargestellt. Der Abstand dieser beiden Zellenbereiche ist frei konfigurierbar. Durch die gleichzeitige Darstellung der beiden virtuellen Zellenräume,
    • wird die Sicherheitsvalidierung vereinfacht und erleichtert. Die projizierten Zellenbereiche können im Auswahlmenü der Brille jederzeit ein- und ausgeblendet werden. Des Weiteren befindet sich im Auswahlmenü der Brille die Auswahlmöglichkeit zur Darstellung der sicheren Werkzeuge mittels Brille. Nach Auswahl des entsprechenden sicheren Werkzeugs, wird dieses in der in der Sicherheitsprojektierung des Roboters festgelegten geometrischen Form über das real existierende Werkzeug überlagert. Die geometrischen Objekte zur Darstellung des sicheren Werkzeugs werden transparent in weißer Farbe dargestellt. Damit kann der Brillenbediener prüfen,
    • ob die geometrischen Objekte alle vorgegeben und relevanten Sicherheitsvorgaben erfüllen. Ein weiteres Menü dient zur Auswahl projektierter Arbeits- wie auch Sicherheitsräume (zB. sicherer Zellenbereich, Schutzraum). Diese werden dann in der vorgegebenen dreidimensionalen geometrischen Form entsprechend ein- bzw. ausgeblendet. Der Brillenträger/Brillenbediener kann bevorzugt frei wählen, ob er gerade die virtuellen sicheren Zellenbereiche 2, 4, den virtuellen Raum der sicheren Werkzeuge 3, virtuellen Arbeitsraum und/oder virtuellen Schutzraum 5 einblenden will.
  • Alle Farben zur Darstellung der unterschiedlichen Geometrieelemente sind frei konfigurierbar.
  • Zusatzoptionen:
    • Es besteht des Weiteren die Option, die Sicherheitskonfiguration mehrere Roboter gleichzeitig mittels der Brille zu projizieren und mit der jeweiligen Realumgebung zu überlagern.
  • Als weitere Option besteht die Möglichkeit, die Brille direkt mit dem Roboter zu verbinden. Die aktuellen Istwerte seiner Achsstellungen werden danach zyklisch ausgelesen und auf die Brille übertragen. Dies ermöglicht in weiterer Folge die dynamische Darstellung des benötigten Raumvolumens des am Roboter projektierten sicheren Endeffektors respektive sicheren Tools mittels Brille. Das dadurch erzeugte virtuelle Raumvolumen des sicheren Endeffektors inklusive Roboter kann in weiterer Folge mit dem am Roboter projektierten sicheren Zellenraum wie auch mit der realen Roboterzelle gegengeprüft werden. Abschließend besteht die Möglichkeit, Messung zwischen virtuellen und/oder realen Objekten durchzuführen und zu visualisieren.
  • Bezugszeichenliste
  • 1
    Roboter
    2
    virtueller erster Sicherheitszellenbereich
    3
    virtueller sicherer Werkzeugraum
    4
    virtueller zweiter Sicherheitszellenbereich
    5
    Schutzraum
    I
    Start
    A
    Auswahl eines Roboters
    A1
    Daten erfassen für AR-HMI
    S
    Scannen / Ablesen
    L
    Load / Übertragen
    B1
    Erfassen (Ablesen) des Robotertyps des Roboters am AR-HMI
    B2
    Erfassen (Ablesen) aktueller Achspositionen des Roboters am AR-HMI
    B3
    Erfassen (Ablesen) Sicherheitskonfiguration
    C1
    Laden des Roboterarchivs
    C2
    Laden der Sicherheitskonfiguration
    E
    Das virtuelle Roboterbild mit dem realen Roboterbild in Positionsübereinstimmung bringen, Matching
    F
    Darstellen von Sicherheitsbereichen, insbesondere eines virtuellen ersten Sicherheitszellenbereichs und/oder eines virtuellen sicheren Werkzeugraums
    II
    Ende

Claims (12)

  1. Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters (1) mit einem Augmented Reality Human-Machine-Interface (AR-HMI) durch einen Benutzer des AR-HMI, wobei das AR-HMI eine Anzeige und eine Videokamera umfasst, wobei das Verfahren die Schritte umfasst: - Erfassen des Robotertyps des Roboters (1) am AR-HMI (B1, D), - Darstellen eines virtuellen Roboterbildes zumindest eines Teils eines Roboters des Robotertyps in der Anzeige der AR-HMI, - wobei die Darstellung des virtuellen Roboterbildes ein reales Bild der Videokamera des AR-HMI in der Anzeige der AR-HMI überlagert, - wobei das reale Bild ein reales Roboterbild des Roboters (1) des Robotertyps umfasst, - wobei der Benutzer durch Bewegung des AR-HMI im Raum, das virtuelle Roboterbild mit dem realen Roboterbild in Positionsübereinstimmung bringt (E), - wobei der Benutzer die Positionsübereinstimmung zwischen virtuellem Roboterbild und realem Roboterbild dem AR-HMI bestätigt und/oder das AR-HMI die Positionsübereinstimmung erkennt/ bestätigt, - Darstellen eines virtuellen ersten Sicherheitszellenbereichs (2) (F) um das virtuelle Roboterbild in der bestätigten Position als Überlagerung des realen Bildes in der Anzeige des AR-HMI.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass bei der Darstellung des virtuellen ersten Sicherheitszellenbereiches (2) und / oder eines zweiten Sicherheitszellenbereiches und / oder eines Arbeitsraumes und / oder eines Schutzraumes zumindest eine aktuelle Achsposition des realen Roboters berücksichtigt wird, vorzugsweise die Achsposition der Achse 1 des Roboters, insbesondere zur Positionierung eines Bezugskoordiantensystems im Roboterfuß.
  3. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der virtuelle erste Sicherheitszellenbereich (2) im Wesentlichen würfel- oder quader- oder prismenförmig ist.
  4. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Erfassen des Robotertyps des Roboters (1) am AR-HMI (B1) dadurch erfolgt, dass eine reale Bezeichnung des Robotertyps mit der Videokamera des AR-HMI erfasst wird oder dass der Benutzer den Robotertyp am AR-HMI auswählt.
  5. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zusätzlich zum virtuellen ersten Sicherheitszellenbereich (1) ein virtueller zweiter Sicherheitszellenbereich um das virtuelle Roboterbild in der bestätigten Position als Überlagerung des realen Bildes in der Anzeige des AR-HMI dargestellt wird, wobei der zweite Sicherheitszellenbereich einen definierten Abstand zum ersten Sicherheitszellenbereich (1) aufweist.
  6. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine projektierte Sicherheitskonfiguration vom AR-HMI aus einem Datenspeicher ausgelesen oder an das AR-HMI übertragen wird (A), so dass der virtuelle erste und / oder ein zweiter Sicherheitszellenbereich (1) auf Basis der projektierten Sicherheitskonfiguration erstellt werden kann.
  7. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das AR-HMI zumindest einen stationären Computer umfasst und zumindest einen mobilen Computer umfasst, wobei der mobile Computer die Anzeige und die Videokamera umfasst und bevorzugt als AR-Brille ausgebildet ist.
  8. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass aktuelle Achspositionen des Roboters (1) am AR-HMI erfasst werden (B2), bevorzugt dadurch, dass die aktuellen Achspositionen vom Roboter (1) an das AR-HMI übertragen werden oder dass eine Anzeige der aktuellen Achspositionen mit der Videokamera des AR-HMI erfasst wird.
  9. Verfahren nach einem der Ansprüche 2 oder 8, dadurch gekennzeichnet, dass aus den aktuellen Achspositionen ein Flanschmittelpunkt bestimmt wird, bevorzugt mittels Vorwärtstransformation.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass zumindest ein virtueller sicherer Werkzeugraum (3) um den Flanschmittelpunkt als Überlagerung des realen Bildes in der Anzeige des AR-HMI dargestellt wird (F), wobei der sichere Werkzeugraum (3) bevorzugt im Wesentlichen eine Kugel bildet.
  11. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zumindest ein Arbeitsraum in der Anzeige des AR-HMI dargestellt wird (F).
  12. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zumindest ein Schutzraum in der Anzeige des AR-HMI dargestellt wird (F).
DE102020201375.6A 2020-02-05 2020-02-05 Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters Active DE102020201375B3 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102020201375.6A DE102020201375B3 (de) 2020-02-05 2020-02-05 Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters
US17/151,259 US11731283B2 (en) 2020-02-05 2021-01-18 Method for checking a safety area of a robot
CN202110116272.8A CN113211494A (zh) 2020-02-05 2021-01-28 用于检查机器人的安全区域的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020201375.6A DE102020201375B3 (de) 2020-02-05 2020-02-05 Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters

Publications (1)

Publication Number Publication Date
DE102020201375B3 true DE102020201375B3 (de) 2021-06-24

Family

ID=76206088

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020201375.6A Active DE102020201375B3 (de) 2020-02-05 2020-02-05 Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters

Country Status (3)

Country Link
US (1) US11731283B2 (de)
CN (1) CN113211494A (de)
DE (1) DE102020201375B3 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022202569B3 (de) 2022-03-15 2023-06-29 Kuka Deutschland Gmbh Prüfen einer vorgegebenen Bahn eines Roboters
DE102022202563B3 (de) 2022-03-15 2023-07-06 Kuka Deutschland Gmbh Planen einer Bahn eines Roboters
DE102022202571B3 (de) 2022-03-15 2023-07-06 Kuka Deutschland Gmbh Prüfen einer vorgegebenen Bahn eines Roboters
DE102022202562A1 (de) 2022-03-15 2023-09-21 Kuka Deutschland Gmbh Ermitteln wenigstens einer Grenze für ein Betreiben eines Roboters
DE102022202564A1 (de) 2022-03-15 2023-09-21 Kuka Deutschland Gmbh Prüfen einer Sicherheitskonfiguration eines Roboters

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023131385A1 (en) 2022-01-10 2023-07-13 Universal Robots A/S Augmented reality supported safety plane adjustment

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10128015A1 (de) * 2000-06-13 2001-12-20 Volkswagen Ag Verfahren und System zum Planen einer veränderten Produktionsumgebung, insbesondere einer Fertigungsumgebung für Fahrzeugkomponenten
DE102004016331A1 (de) * 2004-04-02 2005-11-03 Siemens Ag Vorrichtung und Verfahren zur gleichzeitigen Darstellung virtueller und realer Umgebungsinformationen
DE102004046144A1 (de) * 2004-09-23 2006-03-30 Volkswagen Ag Verfahren und System zum Planen einer Produktionsumgebung
DE102005009437A1 (de) * 2005-03-02 2006-09-07 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Einblenden von AR-Objekten
DE102005011126A1 (de) * 2005-03-10 2006-09-14 Siemens Ag Generierung virtueller Welten auf Basis einer realen Umgebung
DE102016000105A1 (de) * 2015-01-14 2016-07-14 Fanuc Corporation Simulationsvorrichtung für robotersystem
DE102017207995A1 (de) * 2017-05-11 2018-11-15 Homag Gmbh Verfahren zum Anpassen eines virtuellen Objekts
DE102017207894A1 (de) * 2017-05-10 2018-11-15 Krones Aktiengesellschaft Verfahren und Computersystem zur Planung einer Anlage im Bereich der Getränkeverarbeitungsindustrie

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040243147A1 (en) * 2001-07-03 2004-12-02 Lipow Kenneth I. Surgical robot and robotic controller
DE502006009264D1 (de) * 2006-09-30 2011-05-19 Abb Technology Ag Verfahren und System zur Auslegung und Überprüfung von Sicherheitsbereichen eines Roboters
DE102010037195A1 (de) * 2010-08-27 2012-03-01 Benedikt Hieronimi System zur Erfassung von Hochfrequenz-Transceivern und dessen Verwendungen
JP6476662B2 (ja) * 2013-09-20 2019-03-06 株式会社デンソーウェーブ ロボット操作装置、ロボットシステム、及びロボット操作プログラム
US9283678B2 (en) * 2014-07-16 2016-03-15 Google Inc. Virtual safety cages for robotic devices
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
US9643314B2 (en) * 2015-03-04 2017-05-09 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
EP3128446A1 (de) * 2015-08-07 2017-02-08 Ralf Scheid Verfahren zum erzeugen des eindrucks von erweiterter realität
US9855664B2 (en) * 2015-11-25 2018-01-02 Denso Wave Incorporated Robot safety system
JP6576255B2 (ja) * 2016-01-25 2019-09-18 キヤノン株式会社 ロボット軌道生成方法、ロボット軌道生成装置、および製造方法
US10956739B2 (en) * 2016-06-27 2021-03-23 Autodesk, Inc. Augmented reality robotic system visualization
JP7071070B2 (ja) * 2017-08-02 2022-05-18 川崎重工業株式会社 ロボットシステム及びその運転方法
US10378889B2 (en) * 2017-08-22 2019-08-13 Faro Technologies, Inc. Measurement system having a cooperative robot and three-dimensional imager
JP7066357B2 (ja) * 2017-08-31 2022-05-13 川崎重工業株式会社 ロボットシステム及びその運転方法
US10575699B2 (en) * 2018-01-05 2020-03-03 Irobot Corporation System for spot cleaning by a mobile robot
DE102018109463C5 (de) * 2018-04-19 2023-10-05 Voraus Robotik Gmbh Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung
JP6810093B2 (ja) * 2018-04-25 2021-01-06 ファナック株式会社 ロボットのシミュレーション装置
CN112313046A (zh) * 2018-06-26 2021-02-02 发纳科美国公司 使用增强现实可视化和修改操作界定区域
JP7262847B2 (ja) * 2018-08-30 2023-04-24 ヴェオ ロボティクス, インコーポレイテッド 安全重視用途に関する産業ロボット動力学のシステム識別
CN109732606A (zh) * 2019-02-13 2019-05-10 深圳大学 机械臂的远程控制方法、装置、系统及存储介质
CN110047148B (zh) * 2019-04-10 2024-01-26 珠海惠中智能技术有限公司 一种虚拟机器人工作站的仿真互动可视化系统及实现方法
JP7396872B2 (ja) * 2019-11-22 2023-12-12 ファナック株式会社 拡張現実を用いたシミュレーション装置及びロボットシステム
CN113001535B (zh) * 2019-12-18 2022-11-15 财团法人工业技术研究院 机器人工件坐标系自动校正系统与方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10128015A1 (de) * 2000-06-13 2001-12-20 Volkswagen Ag Verfahren und System zum Planen einer veränderten Produktionsumgebung, insbesondere einer Fertigungsumgebung für Fahrzeugkomponenten
DE102004016331A1 (de) * 2004-04-02 2005-11-03 Siemens Ag Vorrichtung und Verfahren zur gleichzeitigen Darstellung virtueller und realer Umgebungsinformationen
DE102004046144A1 (de) * 2004-09-23 2006-03-30 Volkswagen Ag Verfahren und System zum Planen einer Produktionsumgebung
DE102005009437A1 (de) * 2005-03-02 2006-09-07 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Einblenden von AR-Objekten
DE102005011126A1 (de) * 2005-03-10 2006-09-14 Siemens Ag Generierung virtueller Welten auf Basis einer realen Umgebung
DE102016000105A1 (de) * 2015-01-14 2016-07-14 Fanuc Corporation Simulationsvorrichtung für robotersystem
DE102017207894A1 (de) * 2017-05-10 2018-11-15 Krones Aktiengesellschaft Verfahren und Computersystem zur Planung einer Anlage im Bereich der Getränkeverarbeitungsindustrie
DE102017207995A1 (de) * 2017-05-11 2018-11-15 Homag Gmbh Verfahren zum Anpassen eines virtuellen Objekts

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022202569B3 (de) 2022-03-15 2023-06-29 Kuka Deutschland Gmbh Prüfen einer vorgegebenen Bahn eines Roboters
DE102022202563B3 (de) 2022-03-15 2023-07-06 Kuka Deutschland Gmbh Planen einer Bahn eines Roboters
DE102022202571B3 (de) 2022-03-15 2023-07-06 Kuka Deutschland Gmbh Prüfen einer vorgegebenen Bahn eines Roboters
DE102022202562A1 (de) 2022-03-15 2023-09-21 Kuka Deutschland Gmbh Ermitteln wenigstens einer Grenze für ein Betreiben eines Roboters
DE102022202564A1 (de) 2022-03-15 2023-09-21 Kuka Deutschland Gmbh Prüfen einer Sicherheitskonfiguration eines Roboters

Also Published As

Publication number Publication date
US20210237278A1 (en) 2021-08-05
US11731283B2 (en) 2023-08-22
CN113211494A (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
DE102020201375B3 (de) Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters
DE102018109463C5 (de) Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung
DE102019006800B4 (de) Robotersteuerung und Anzeigevorrichtung unter Verwendung von erweiterter Realität und gemischter Realität
DE102017002603B4 (de) Robotersystem, das Roboter umfassend mehrere mechanische Einheiten steuert, mechanische Einheiten und Robotersteuervorrichtung
EP1447770B1 (de) Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
DE112019003204T5 (de) Visualisierung und modifizierung von arbeitsrandbereichen unter verwendung von erweiterter realität
DE60025683T2 (de) Graphische Anzeigevorrichtung für ein Robotersystem
DE102018009023B4 (de) Einlernvorrichtung zum Ausführen von Robotereinlernvorgängen und Einlernverfahren
EP2048557B1 (de) Optoelektronischer Sensor und mobile Vorrichtung sowie Verfahren zur Konfiguration
DE112017002498B4 (de) Robotervorgang-auswertungseinrichtung, robotervorgang-auswertungsverfahren und robotersystem
DE10144932B4 (de) Visualisierung von Werkstücken bei der Simulation von Fräsprozessen
EP3324362B1 (de) Verfahren und vorrichtung zur inbetriebnahme eines mehrachssystems
EP3578321B1 (de) Verfahren zum verwenden mit einer maschine zum erstellen einer erweiterte-realität-anzeigeumgebung
DE102006007623B4 (de) Roboter mit einer Steuereinheit zum Steuern einer Bewegung zwischen einer Anfangspose und einer Endpose
DE10215885A1 (de) Automatische Prozesskontrolle
EP3323565B1 (de) Verfahren und vorrichtung zur inbetriebnahme eines mehrachssystems
EP3974936B1 (de) Konfigurieren einer visualisierungsvorrichtung für einen maschinenbereich
WO2020126240A1 (de) Verfahren zum betreiben eines feldgeräts der automatisierungstechnik in einer augmented-reality/mixed-reality-umgebung
DE102007009851B3 (de) Industrieroboter und Verfahren zum Bestimmen der Lage eines Industrieroboters relativ zu einem Objekt
DE102022202563B3 (de) Planen einer Bahn eines Roboters
DE102018212944A1 (de) Verfahren zur Unterstützung der Kollaboration zwischen Mensch und Roboter mittels einer Datenbrille
DE102020104359B4 (de) Arbeitsraumbegrenzung für einen Robotermanipulator
DE102022202569B3 (de) Prüfen einer vorgegebenen Bahn eines Roboters
DE102022202571B3 (de) Prüfen einer vorgegebenen Bahn eines Roboters
EP4186651B1 (de) System und verfahren mit einem system

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: MAGNA STEYR FAHRZEUGTECHNIK GMBH & CO KG, AT

Free format text: FORMER OWNER: MAGNA STEYR FAHRZEUGTECHNIK AG & CO KG, GRAZ, AT