DE102020135011B3 - Bilderkennung zum angepassten Ausführen eines Steuerprogramms eines Robotermanipulators - Google Patents

Bilderkennung zum angepassten Ausführen eines Steuerprogramms eines Robotermanipulators Download PDF

Info

Publication number
DE102020135011B3
DE102020135011B3 DE102020135011.2A DE102020135011A DE102020135011B3 DE 102020135011 B3 DE102020135011 B3 DE 102020135011B3 DE 102020135011 A DE102020135011 A DE 102020135011A DE 102020135011 B3 DE102020135011 B3 DE 102020135011B3
Authority
DE
Germany
Prior art keywords
known objects
task
image
control unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102020135011.2A
Other languages
English (en)
Inventor
Andreas Spenninger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Franka Emika GmbH
Original Assignee
Franka Emika GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Franka Emika GmbH filed Critical Franka Emika GmbH
Priority to DE102020135011.2A priority Critical patent/DE102020135011B3/de
Application granted granted Critical
Publication of DE102020135011B3 publication Critical patent/DE102020135011B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40584Camera, non-contact sensor mounted on wrist, indep from gripper

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Ausführen einer Aufgabe eines Robotermanipulators (1), aufweisend die Schritte:- Vorgeben (S1) einer Aufgabe für den Robotermanipulator (1),- Aufnehmen (S2) eines Bildes eines Gegenstands (3) durch eine Kameraeinheit (5),- Analysieren (S3) der Bilddaten und Zuordnen des erfassten Gegenstands (3) zu einem bekannten Objekt durch eine Recheneinheit (7), wobei Daten über die bekannten Objekte in einer Datenbank (9) abgelegt sind mit Informationen über Eigenschaften der jeweiligen bekannten Objekte,- Automatisches Anpassen (S4) von Parametern einer Steuereinheit (11) oder des Steuerprogramms abhängig von den Eigenschaften des zugeordneten Objekts, und- Ausführen (S5) der Aufgabe durch Ausführen des Steuerprogramms am Robotermanipulator (1) mit den angepassten Parametern durch die Steuereinheit (11).

Description

  • Die Erfindung betrifft ein Verfahren zum angepassten Ausführen einer Aufgabe eines Robotermanipulators, sowie ein System zum angepassten Ausführen einer Aufgabe eines Robotermanipulators.
  • Im Stand der Technik sind diverse Steuerungseinrichtungen und -verfahren für Roboter bekannt
  • Die DE 10 2020 104 468 A1 betrifft hierzu ein Robotersystem, aufweisend: eine Steuereinheit, konfiguriert zum: Empfangen eines Objektsatzes mit einem oder mehreren Objekteinträgen, wobei: die Objekteinträge Quellobjekten einer Objektquelle entsprechen, wobei jeder der Objekteinträge durch eine oder mehrere Objekteintragseigenschaften beschrieben ist; Empfangen von Sensorinformationen, die eine oder mehrere erfassbare Objekteigenschaften für erfassbare Quellobjekte einer Objektquelle wiedergeben; Berechnen einer Objektübereinstimmungswahrscheinlichkeit zwischen den erfassbaren Quellobjekten und den Objekteinträgen auf Grundlage einer Eigenschaftskorrelation zwischen den erfassbaren Objekteigenschaften der erfassbaren Quellobjekte und den Objekteintragseigenschaften der Objekteinträge; Erzeugen einer Objektidentitätsschätzung für jedes der erfassbaren Quellobjekte auf Grundlage eines Vergleichs der Objektübereinstimmungswahrscheinlichkeit für jedes der erfassbaren Quellobjekte, die zu einer bestimmten Instanz der Objekteinträge gehört; Auswählen eines Zielobjekts aus den erfassbaren Quellobjekten; Erzeugen einer Objekthandhabungsstrategie zur Implementierung durch eine Objekthandhabungseinheit, um das Zielobjekt von der Objektquelle zu überführen, auf Grundlage der Objekteintragseigenschaften der Objekteinträge, die zu der Objektidentitätsschätzung gehören; Aktualisieren des Objektsatzes, um anzuzeigen, dass das Zielobjekt, das einer bestimmten Instanz der Objekteinträge entspricht, aus der Objektquelle entfernt wurde; und eine Speichereinheit, die mit der Steuereinheit verbunden ist und zum Speichern des Objektsatzes konfiguriert ist.
  • Die DE 10 2019 101 595 B3 betrifft ferner ein Verfahren zum Ermitteln einer Gewichtskraft und eines Schwerpunktes einer Last für einen Robotermanipulator, wobei der Robotermanipulator an einer Basis angeordnet ist und eine Vielzahl von Gliedern aufweist und die Glieder durch Gelenke miteinander verbunden und durch Aktuatoren an den Gelenken gegeneinander verschiebbar oder rotierbar sind, und wobei der Robotermanipulator einen Endeffektor zum Greifen der Last aufweist, aufweisend die Schritte: Greifen der Last mit dem Endeffektor, Verfahren der Last in eine Zahl n paarweise verschiedene statische Posen, Ermitteln eines jeweiligen externen Kraftwinders Fext für jede der n statischen Posen, wobei der jeweilige externe Kraftwinder Fext externe auf den Robotermanipulator wirkende Kräfte und Momente angibt, Ermitteln zumindest der die externen Kräfte angebenden Komponenten des jeweiligen externen Kraftwinders Fext in einem Basiskoordinatensystem, wobei das Basiskoordinatensystem ein kartesisches Koordinatensystem ist und körperfest an der Basis des Robotermanipulators angeordnet ist und eine Achse des Basiskoordinatensystems parallel zu einem Schwerkraftvektor ist, Ermitteln einer jeweiligen Schätzung für die Gewichtskraft der Last aus der jeweiligen in Richtung des Schwerkraftvektors zeigenden Komponente der in dem Basiskoordinatensystem die externen Kräfte angebenden Komponenten des jeweiligen externen Kraftwinders Fext, Ermitteln der Gewichtskraft der Last durch Mitteln der jeweiligen Schätzungen für die Gewichtskraft der Last, Ermitteln von Schätzungen von Koordinaten des Schwerpunktes der Last für jede der n statischen Posen auf Basis der Gewichtskraft der Last oder der für die jeweilige statische Pose ermittelte jeweilige Schätzung der Gewichtskraft der Last und auf Basis der die extern wirkenden Momente angebenden Komponenten des externen Kraftwinders Fext, und Ermitteln des Schwerpunktes der Last durch Mitteln der jeweiligen Schätzungen von Koordinaten des Schwerpunktes.
  • Die DE 10 2019 003 868 B4 betrifft außerdem eine Informationsverarbeitungsvorrichtung zum Ausgeben von Steuerinformation zum Steuern einer Ansaugeinrichtung, die konfiguriert ist zum Ansaugen eines verpackten Objekts, wobei die Informationsverarbeitungsvorrichtung umfasst: eine Eingabeeinheit, die konfiguriert ist zum Eingeben eines durch Durchführen einer Bildaufnahme einer Oberfläche des verpackten Objekts erhaltenen Bilds; und eine Ausgabeeinheit, die konfiguriert ist zum Ausgeben von Steuerinformation, um einen Zeitpunkt zu steuern, zu dem das Ansaugen durch die Ansaugeinrichtung gestartet wird, und zwar basierend auf einem aus dem Bild bestimmten Zustand der Oberfläche des verpackten Objekts; wobei der Zustand der Oberfläche des verpackten Objekts eine Menge an Knitterfalten auf der Oberfläche des verpackten Objekts enthält, und in einem Fall, in dem die Menge an Knitterfalten auf der Oberfläche des verpackten Objekts, die von einem jeweiligen Bild bestimmt wird, variiert, die Ausgabeeinheit die Steuerinformation ausgibt, um den Zeitpunkt zu ändern, zu dem das Ansaugen durch die Ansaugeinrichtung gestartet wird, und zwar entsprechend der Menge an Knitterfalten auf der Oberfläche des verpackten Objekts.
  • Die DE 10 2016 014 658 B4 betrifft eine Modellerzeugungsvorrichtung zum Erzeugen eines dreidimensionalen Modells eines Objekts, umfassend: Eine dreidimensionale Messmaschine, die mehrere Objekte, die jeweils in einer gegebenen Orientierung in einem dreidimensionalen Raum angeordnet sind, dreidimensional misst, um Messdaten zu erhalten; eine Modellmessdaten-Extraktionseinheit, die die Messdaten der mehreren durch die dreidimensionale Messmaschine gemessenen Objekte als einen Modellmessdatensatz behandelt, der durch Messen eines Objekts von mehreren virtuellen Messpositionen aus erhalten wird, um die den mehreren virtuellen Messpositionen entsprechenden Modellmessdaten zu extrahieren; und eine Modelmessdaten-Integrationseinheit, die die durch die Modellmessdaten-Extraktionseinheit extrahierten Modellmessdaten integriert, um ein dreidimensionales Modell eines jeden Objekts zu erzeugen.
  • Die DE 10 2014 005 758 B4 betrifft ein Robotersystem zum Auswählen und Befördern eines in einem dreidimensionalen Raum platzierten Werkstücks, wobei das Robotersystem Folgendes umfasst: eine dreidimensionale Messeinrichtung zum Messen einer Oberflächenlage auf dem Werkstück, um Informationen zur Lage einer Vielzahl von Punkten auf einer Oberfläche des Werkstücks in einem dreidimensionalen Raum zu ermitteln; einen Roboter, der gemäß einer spezifizierten Lage und Stellung beweglich ist; ein Werkzeug, das an einem Spitzenabschnitt des Roboters angebracht ist und dazu geeignet ist, das Werkstück zu halten; einen Kraftmessungsteil zum Messen einer Kraft mit einer Vielzahl von Stellungen des Roboters, die vom Werkstück auf das Werkzeug einwirkt, wenn das Werkstück vom Werkzeug gehalten wird; und eine Steuerungseinrichtung zur Steuerung des Roboters, wobei die Steuerungseinrichtung Folgendes umfasst: einen Werkstückidentifizierungsteil zum Identifizieren eines auszuwählenden Werkstücks und einer Lage und Stellung des Werkstücks, basierend auf den von der dreidimensionalen Messeinrichtung ermittelten Informationen zur Lage einer Vielzahl von Punkten; einen Auswähllage-und-Stellungsbestimmungsteil zum Bestimmen einer Haltelage des Werkstücks, einer Auswählrichtung des Werkstücks und einer Lage und Stellung des Werkzeugs, sodass das vom Werkstückidentifizierungsteil identifizierte Werkstück ausgewählt wird; einen Schwerpunktlageberechnungsteil zum Berechnen einer Schwerpunktlage des vom Werkzeug gehaltenen Werkstücks, basierend auf Kraftdaten, die vom Kraftmessungsteil mit einer Vielzahl von Stellungen des das Werkstück haltenden Roboters gemessen werden; einen Assoziierungsteil zum Assoziieren der von der dreidimensionalen Messeinrichtung ermittelten Informationen zur Lage des vom Werkzeug gehaltenen Werkstücks mit der vom Schwerpunktlageberechnungsteil berechneten Schwerpunktlage des Werkstücks; einen Assoziationsspeicherteil zum Speichern eines Ergebnisses der vom Assoziierungsteil vorgenommenen Assoziation; und einen Schwerpunktlageschätzteil zum Schätzen einer Schwerpunktlage des vom Werkstückidentifizierungsteil identifizierten Werkstücks, basierend auf dem Ergebnis der vom Assoziationsspeicherteil gespeicherten Assoziation, wobei der Auswähllage-und-Stellungsbestimmungsteil zum Bestimmen von mindestens einer der Haltelage des Werkstücks, die vom Werkstückidentifizierungsteil zum Zeitpunkt des Auswählens des Werkstücks identifiziert wurde, der Auswählrichtung des Werkstücks, der Lage und Stellung des Werkzeugs, basierend auf der vom Schwerpunktlageschätzteil geschätzten Schwerpunktlage des Werkstücks, geeignet ist, sodass das identifizierte Werkstück stabil auswählbar und beförderbar ist.
  • Die DE 10 2014 005 434 B4 betrifft schließlich eine Steuerungseinrichtung für einen Roboter, wobei der Roboter ein Werkzeug zum Halten eines Werkstücks und einen Kraftmessungsteil zur Messung einer Kraft umfasst, die vom Werkstück auf das Werkzeug einwirkt, wenn das Werkstück vom Werkzeug gehalten wird, wobei der Roboter dazu geeignet ist, das in einem dreidimensionalen Raum platzierte Werkstück zu halten und zu befördern, wobei die Steuerungseinrichtung Folgendes umfasst: einen Schwerpunktlageberechnungsteil zur Berechnung der Schwerpunktlage des vom Werkzeug gehaltenen Werkstücks, wenn der Roboter das Werkstück hält und befördert, basierend auf Kraftdaten, die vom Kraftmessungsteil mit einer Vielzahl von Stellungen des das Werkstück haltenden Roboters gemessen werden; einen Prozessierungsteil zur Durchführung von mindestens einem eines Schätzprozesses zur Schätzung eines Haltezustands des vom Werkzeug gehaltenen Werkstücks, eines Bestimmungsprozesses zur Bestimmung eines Typs des vom Werkzeug gehaltenen Werkstücks und eines Prüfprozesses zur Prüfung einer Qualität des vom Werkzeug gehaltenen Werkstücks, basierend auf einem Lageverhältnis zwischen der Lage des Werkzeugs und der Schwerpunktlage des Werkstücks; und einen Tätigkeitsbefehlmodifizierungsteil zur Modifizierung eines an den Roboter gerichteten Tätigkeitsbefehls, basierend auf einem vom Prozessierungsteil durchgeführten Prozessergebnis oder basierend auf einem Ergebnis des Prüfprozesses der Qualität des Werkstücks.
  • Die folgenden Informationen dagegen ergeben sich nicht notwendigerweise aus einem bestimmten Dokument aus dem Stand der Technik, sondern vielmehr aus fachmännischen Überlegungen für den Betrieb eines Robotermanipulators:
  • Ein Anwender des Robotermanipulators, insbesondere ein Laie, steht grundsätzlich beim Betrieb des Robotermanipulators mit einem neuen vom Robotermanipulator aufzunehmenden Gegenstand vor dem Problem, dass Regler und andere Algorithmen des Robotermanipulators auf eine bestimmte angenommene Dynamik des Robotermanipulators ausgelegt worden sind und für einen optimalen Betrieb des Robotermanipulators die Auslegung anzupassen wäre. Standard-Regelungsparameter können kein optimales Verhalten mehr gewährleisten, wenn von dem Auslegungsfall abgewichen wird, das heißt, wenn beispielsweise am distalen Ende des Robotermanipulators ein neuer Gegenstand mit einer unbekannten Masse aufgenommen wird. Darüber hinaus steht der Anwender beispielsweise beim Zusammenfügen von neuen Werkstücken vor der Aufgabe, die Positionen der Schnittstellen, an denen zu fügen ist, zu kennen und das Steuerprogramm darauf auszurichten.
  • Es ist Aufgabe der Erfindung, den Betrieb eines Robotermanipulators für einen Anwender für eine Vielzahl von vom Robotermanipulator nacheinander zu manipulierenden, insbesondere zu bewegenden, Gegenständen zu vereinfachen.
  • Die Erfindung ergibt sich aus den Merkmalen der unabhängigen Ansprüche. Vorteilhafte Weiterbildungen und Ausgestaltungen sind Gegenstand der abhängigen Ansprüche.
  • Ein erster Aspekt der Erfindung betrifft ein Verfahren zum Ausführen einer Aufgabe eines Robotermanipulators, aufweisend die Schritte:
    • - Vorgeben einer Aufgabe für den Robotermanipulator, wobei die Aufgabe das Manipulieren eines Gegenstands, insbesondere das Bewegen eines Gegenstands umfasst,
    • - Aufnehmen eines Bildes des Gegenstands durch eine Kameraeinheit,
    • - Analysieren der Bilddaten des Bildes und Zuordnen des erfassten Gegenstands zu einem bestimmten aus einer Vielzahl vorgegebener bekannter Objekte durch eine Recheneinheit, wobei Daten über die bekannten Objekte mit Informationen über Eigenschaften der jeweiligen bekannten Objekte in einer Datenbank abgelegt sind,
    • - Automatisches Anpassen von Parametern einer Steuereinheit des Robotermanipulators abhängig von den Eigenschaften des zugeordneten bekannten Objekts, wobei die angepassten Parameter der Steuereinheit eine Reglerverstärkung und/oder eine Bandbreite eines dynamischen Filters eines Reglers der Steuereinheit umfassen, und
    • - Ausführen der Aufgabe durch Ausführen des Steuerprogramms am Robotermanipulator mit den angepassten Parametern.
  • Der Robotermanipulator ist insbesondere ein Industrieroboter mit einer Vielzahl von Gliedern, die durch Gelenke miteinander verbunden sind. Bevorzugt sind an den Gelenken Motoren angeordnet, die gemäß einem auszuführenden Steuerprogramm durch eine Steuereinheit des Robotermanipulators angesteuert werden. Die Aufgabe des Robotermanipulators wird durch das Ausführen des Steuerprogramms gelöst. Teil der Aufgabe ist es insbesondere, dass der Gegenstand durch den Robotermanipulator aufgenommen wird, bevorzugt an einem distalen Ende des Robotermanipulators, beispielsweise durch einen Endeffektor wie einen Greifer, gefasst wird und angehoben wird.
  • Das Bewegen des Gegenstands umfasst insbesondere das Anheben des Gegenstands und das Transportieren an einen vom Aufnahmeort verschiedenen Ort. Diese Aktion umfasst daher zwangsläufig eine Beschleunigung des Gegenstands zu mehreren Zeitpunkten. Noch bevor das Manipulieren des Gegenstands durch den Robotermanipulator erfolgt, wird ein Bild des Gegenstands durch eine Kameraeinheit aufgenommen.
  • Die Kameraeinheit kann dabei am Robotermanipulator selbst angeordnet sein, es kann sich jedoch auch um eine Kameraeinheit eines portablen Anwendergeräts, wie ein Smartphone, handeln. Bevorzugt wird als Kameraeinheit eine Kameraeinheit mit einer 3D-Kamera wie einer Stereokamera oder einer RGB-D Kamera verwendet, um in den Bilddaten des aufgenommenen Bildes originär räumliche Informationen über den Gegenstand zu erhalten.
  • Die Bilddaten des aufgenommenen Bildes werden im weiteren Schritt durch eine Recheneinheit analysiert. Dies umfasst das Extrahieren von gewissen Merkmalen oder zumindest das Übermitteln der Bilddaten des Bildes an ein künstliches neuronales Netz. Für weitere Details dieser Analyse siehe weiter unten.
  • Das Zuordnen des erfassten Gegenstands zu einem bestimmten aus einer Vielzahl vorgegebener bekannter Objekte kommt einer Einordnung gleich, welches bekannte Objekt aus einer Datenbank für den Gegenstand gehalten wird. In anderen Worten heißt dies, dass durch die Analyse der Bilddaten, die Informationen über den Gegenstand enthalten, aus einer Datenbank ein Objekt herausgesucht wird, das einer virtuellen Abbildung bzw. einem Modell des realen Gegenstands entspricht. In der Datenbank sind eine Vielzahl von Objekten vorab eingespeichert und diesen zugeordnete entsprechende Informationen über Eigenschaften dieser Objekte abgespeichert.
  • Wird mit ausreichend hoher Wahrscheinlichkeit der Gegenstand einem der bekannten Objekte der Datenbank zugeordnet, so sind damit automatisch Informationen über Eigenschaften auch des Gegenstands bekannt. Nur dann, wenn eine Übereinstimmung nicht mit ausreichender Wahrscheinlichkeit ermittelt werden kann, wird bevorzugt eine Fehlermeldung ausgegeben und der Anwender des Robotermanipulators zu einer manuellen Eingabe von Parametern für die Steuereinheit aufgefordert.
  • Abhängig von den Eigenschaften, die dem Gegenstand beigemessen werden, wird im weiteren Schritt bevorzugt zumindest ein Parameter der oben beschriebenen Steuereinheit des Robotermanipulators angepasst. Dies entspricht einer Anpassung von Algorithmen der Steuereinheit, insbesondere von Parametern eines Reglers der Steuereinheit. Solche Algorithmen bzw. Regler werden typischerweise auf einen Auslegungsfall einer nominalen Dynamik des Robotermanipulators parametriert. Je nachdem, welche Eigenschaften der Gegenstand jedoch im Unterschied zum Auslegungsfall aufweist, passen die Algorithmen und Parameter der Regler nicht mehr optimal für die Ausführung der Aufgabe. Durch die bekannten Eigenschaften des Gegenstands bei Übereinstimmung können somit Regler und Steuerprogramme entsprechend angepasst werden, sodass die Ausführung der Aufgabe optimal (beispielsweise schnellstmöglich oder möglichst energieeffizient) und insbesondere möglichst sicher erfolgt, denn ein instabiler Regler würde zu einem gefährlichen Verhalten bezüglich der Bewegungen des Robotermanipulators führen.
  • Es ist daher eine vorteilhafte Wirkung der Erfindung, dass der Betrieb eines Robotermanipulators sicherer und mit höherer Güte erfolgen kann, da durch die Bilderkennung des Gegenstands und dem entsprechenden Abgleich mit Objekten aus einer Datenbank Eigenschaften des Gegenstands bekannt werden, mit der ein Steuerprogramm und Parameter der Steuereinheit allgemein angepasst werden können.
  • Gemäß einer vorteilhaften Ausführungsform erfolgt das Analysieren der Bilddaten des Bildes zum Zuordnen des erfassten Gegenstands zu einem bestimmten aus einer Vielzahl vorgegebener bekannter Objekte durch Anwenden eines künstlichen neuronalen Netzes mit den Bilddaten als Eingangsgröße, wobei die Ausgangsgröße des künstlichen neuronalen Netzes eine Zuordnung zu einem der bekannten Objekte ist, wobei das künstliche neuronale Netz mit Daten der bekannten Objekte trainiert worden ist.
  • Ein solches künstliches neuronales Netz, bevorzugt ein sogenanntes „Convolutional Neural Network“ bietet den Vorteil, dass die Bilddaten des aufgenommenen Bildes typischerweise ohne größere Modifikationen als Eingangsgröße des künstlichen neuronalen Netzes verwendet werden können. Insbesondere wird dabei ein Vektor bestehend aus den Pixeln des aufgenommenen Bildes als Eingangsvektor des neuronalen Netzes verwendet, wobei die Daten über die Vielzahl der Ebenen des neuronalen Netzes und entsprechenden Gewichtungen auf einen Ausgang des neuronalen Netzes zusammengeführt werden, der die Zuordnung zu dem bekannten Objekt beschreibt.
  • Das künstliche neuronale Netz muss vor seiner Anwendung naturgemäß zuerst mit entsprechenden Daten trainiert worden sein, das heißt, dass eine Vielzahl von Bilddaten von verschiedenen Gegenständen zusammen mit vorgegebenen Ausgängen des künstlichen neuronalen Netzes verwendet werden, um die Parameter des künstlichen neuronalen Netzes beispielsweise durch nichtlineare Optimierung so anzupassen, dass auch bei lediglicher Eingabe der Bilddaten die Zuordnung zum entsprechenden der bekannten Objekte als Ergebnis der Berechnungen des künstlichen neuronalen Netzes erhalten wird.
  • Gemäß einer weiteren vorteilhaften Ausführungsform erfolgt das Analysieren der Bilddaten des Bildes zum Zuordnen des erfassten Gegenstands zu einem bestimmten aus einer Vielzahl vorgegebener bekannter Objekte durch Vergleichen der Bilddaten des Bildes des Gegenstands mit einer Vielzahl von in der Datenbank vorab abgespeicherten Objektdaten über die bekannten Objekte und durch Zuordnen der Bilddaten des Bildes zu den Objektdaten mit der besten Übereinstimmung zu den Bilddaten, wobei die Objektdaten Daten über eine jeweilige Oberflächengestalt der bekannten Objekte umfassen, wobei den Objektdaten die jeweiligen Informationen über Eigenschaften der jeweiligen bekannten Objekte in der Datenbank zugeordnet sind.
  • Im Gegensatz zur vorhergehenden Ausführungsform wird dabei keine Rechenvorschrift in Form beispielsweise eines künstlichen neuronalen Netzes verwendet, sondern es wird beispielsweise durch Extraktion von Merkmalen aus den Bilddaten und dem Vergleich von entsprechenden Merkmalen, die in den Objektdaten abgespeichert sind, eine Wahrscheinlichkeit einer Übereinstimmung berechnet. Dabei können typische Bildanalyse und Bildbearbeitungsalgorithmen zum Einsatz kommen, beispielsweise das Extrahieren von Konturen und das Transformieren der Bilddaten in verzerrte oder perspektivische Ansichten. Diese Ausführungsform bietet den Vorteil, dass keine künstlichen neuronalen Netze trainiert werden müssen, kann jedoch im Vergleich zur Methode der Anwendung der künstlichen neuronalen Netze ungenauer sein.
  • Gemäß einer weiteren vorteilhaften Ausführungsform ist die Kameraeinheit am distalen Ende des Robotermanipulators angeordnet.
  • Gemäß einer weiteren vorteilhaften Ausführungsform wird durch eine Bewegung des Robotermanipulators die am Robotermanipulator angeordnete Kameraeinheit, insbesondere die am distalen Ende des Robotermanipulators angeordnete Kameraeinheit, zumindest teilweise um den Gegenstand herum verfahren, wobei durch die Kameraeinheit während der Bewegung wiederholt ein Bild des Gegenstands aufgenommen wird.
  • Durch eine Bewegung der Kameraeinheit radial näher zum Gegenstand hin und von diesem weg kann ein optischer Fluss des Gegenstands analysiert werden, um räumliche Informationen zu gewinnen. Bei einer Bewegung der Kameraeinheit tangential zum Gegenstand (insbesondere mit konstantem Abstand zum Gegenstand) kann eine Rundumsicht des Gegenstands erzeugt werden, um auch verdeckte Seiten des Gegenstands zu erfassen und ein besseres dreidimensionales Abbild des Gegenstands zu ermitteln.
  • Gemäß einer weiteren vorteilhaften Ausführungsform wird durch die Recheneinheit ein dreidimensionales Modell des Gegenstands ermittelt, wobei das Zuordnen des erfassten Gegenstands zu einem bestimmten aus einer Vielzahl vorgegebener bekannter Objekte durch Abgleichen des dreidimensionalen Modells des Gegenstands mit in der Datenbank gespeicherten dreidimensionalen Abbildern der bekannten Objekte erfolgt.
  • Bevorzugt wird von der Recheneinheit ein Formabgleich vorgenommen, wobei insbesondere räumliche Merkmale der bekannten Objekte mit räumlichen Merkmalen des dreidimensionalen Modells des Gegenstands verglichen werden.
  • Gemäß einer weiteren vorteilhaften Ausführungsform ist die Kameraeinheit eine Kameraeinheit eines portablen Anwendergeräts.
  • Das portable Anwendergerät ist bevorzugt ein Smartphone, oder ein Tablet, oder eine Smartwatch oder ein ähnliches Gerät. Eine entsprechende Datenübermittlung von dem portablen Anwendergerät an die Recheneinheit zur Übermittlung der Bilddaten ist vorzusehen. Dies erfolgt vorteilhaft via WLAN oder Bluetooth oder weitere gängige Telekommunikationsnetze wie 4G oder 5G. Vorteilhaft kann mit Hilfe des portablen Anwendergeräts der Anwender auch den Gegenstand bildlich erfassen, noch bevor sich dieser in der Nähe des Robotermanipulators befindet.
  • Gemäß einer weiteren vorteilhaften Ausführungsform weisen die Informationen über Eigenschaften der jeweiligen bekannten Objekte zumindest eine der folgenden je Objekt auf: Masse, Trägheitsmoment, Volumen, Maß für eine Zerbrechlichkeit oder andere bei der Ausführung der Aufgabe zu berücksichtigenden Eigenschaften, Positionen und/oder Orientierungen von mechanischen und/oder elektromechanischen Schnittstellen.
  • Ein weiterer Aspekt der Erfindung betrifft ein System zum Anpassen und Ausführen einer Aufgabe eines Robotermanipulators, aufweisend:
    • - eine Vorgabeeinheit, die zum Vorgeben einer Aufgabe für den Robotermanipulator dient, wobei die Aufgabe insbesondere das Bewegen eines Gegenstands umfasst,
    • - eine Kameraeinheit zum Aufnehmen eines Bildes des Gegenstands,
    • - eine Recheneinheit, die zum Analysieren der Bilddaten des Bildes und Zuordnen des erfassten Gegenstands zu einem bestimmten aus einer Vielzahl vorgegebener bekannter Objekte ausgeführt ist, wobei Daten über die bekannten Objekte mit Informationen über Eigenschaften der jeweiligen bekannten Objekte in einer Datenbank abgelegt sind,
    • - eine Steuereinheit für den Robotermanipulator, wobei die Steuereinheit zum Ermitteln eines Steuerprogramms zum Ausführen der Aufgabe und zum automatischen Anpassen von Parametern der Steuereinheit abhängig von den Eigenschaften des zugeordneten bekannten Objekts ausgeführt ist, wobei die angepassten Parameter der Steuereinheit eine Reglerverstärkung und/oder eine Bandbreite eines dynamischen Filters eines Reglers der Steuereinheit umfassen, und wobei die Steuereinheit zum Ausführen der Aufgabe durch Ausführen des Steuerprogramms am Robotermanipulator mit den angepassten Parametern ausgeführt ist.
  • Vorteile und bevorzugte Weiterbildungen des vorgeschlagenen Systems ergeben sich durch eine analoge und sinngemäße Übertragung der im Zusammenhang mit dem vorgeschlagenen Verfahren vorstehend gemachten Ausführungen.
  • Weitere Vorteile, Merkmale und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung, in der - gegebenenfalls unter Bezug auf die Zeichnung - zumindest ein Ausführungsbeispiel im Einzelnen beschrieben ist. Gleiche, ähnliche und/oder funktionsgleiche Teile sind mit gleichen Bezugszeichen versehen.
  • Es zeigen:
    • 1: Ein Verfahren zum Ausführen einer Aufgabe eines Robotermanipulators gemäß einem Ausführungsbeispiel der Erfindung.
    • 2: Ein System, das sich zum Ausführen des Verfahrens gemäß dem Ausführungsbeispiel nach 1 eignet.
  • Die Darstellungen in den Figuren sind schematisch und nicht maßstäblich.
  • 1 zeigt ein Verfahren zum angepassten Ausführen einer Aufgabe eines Robotermanipulators 1. Der Robotermanipulator 1 mit seinen jeweiligen Komponenten ist als System zum angepassten Ausführen der Aufgabe in 2 dargestellt. Die 2 kann daher ebenfalls zum Verständnis der folgenden Ausführungen bzgl. der 1 herangezogen werden. In einem ersten Schritt des Verfahrens erfolgt das Vorgeben S1 einer Aufgabe für den Robotermanipulator 1, wobei die Aufgabe das Anheben und Transportieren eines Gegenstands 3 umfasst. Die Art der Aufgabe selbst ist durch eine frühere Vorgabe des Anwenders eingestellt und wird von der Vorgabeeinheit 13 als logische Subkomponente der Steuereinheit 11 des Robotermanipulators 1 vorgegeben; jedoch ändert sich der Gegenstand, der vom Robotermanipulator 1 aufgenommen werden soll gegenüber der ursprünglich vorgegeben Aufgabe mit einem anderen Gegenstand, dessen Eigenschaften einem nominalen Fall entsprachen. Das heißt, die früheren Regelungsparameter eines Auslegungsfalls sollten für größtmögliche Sicherheit und Güte bei der Ausführung des Steuerprogramms in einen aktualisierten Satz von Regelungsparameter der Steuereinheit 11 des Robotermanipulators 1 überführt werden. Um diese Regelungsparameter der Steuereinheit 11 des Robotermanipulators 1 vereinfacht anzupassen, ohne dass der Anwender eine Neuauslegung des Reglers vornehmen muss, wird eine Datenbank 9 bereitgestellt mit einer Liste bekannter Objekte mit bekannten Eigenschaften, nach denen eine Neuauslegung des Reglers automatisch vorgenommen werden kann. Dazu erfolgt im zweiten Schritt das Aufnehmen S2 mehrerer Bilder des Gegenstands 3 durch eine Kameraeinheit 5, die am distalen Ende des Robotermanipulators 1 angeordnet ist. Die Steuereinheit 11 des Robotermanipulators steuert die Motoren des Robotermanipulators 1 an seinen Gelenken bereits in diesem Schritt so an, dass die Kameraeinheit 5 um den Gegenstand 3 zumindest um einen Teilumfang herum verfahren wird und daher Bilder des Gegenstands von mehreren Seiten und von oben aufgenommen werden. Im folgenden Schritt erfolgt das Analysieren S3 der Bilddaten der Bilder zum Erzeugen eines dreidimensionalen Modells des Gegenstands 3. Dieses dreidimensionale Modell wird zum Zuordnen des erfassten Gegenstands 3 zu einem bestimmten aus einer Vielzahl vorgegebener bekannter Objekte durch eine Recheneinheit 7 verwendet. Die Recheneinheit 7 ist ebenfalls eine logische Subkomponente der Steuereinheit 11 des Robotermanipulators 1, wobei die verfügbare Rechenleistung über jeweilige Phasen (Bilderkennung, Ansteuerung) sequentiell genutzt wird. Die Daten aus dem dreidimensionalen Modell werden mit Daten über die bekannten Objekte aus der Datenbank 9 verglichen. Die Datenbank 9 ist auf einer Speichereinheit der Steuereinheit 11 des Robotermanipulators 1 implementiert. In der Datenbank sind den Daten über die bekannten Objekte Informationen über Eigenschaften der jeweiligen bekannten Objekte zugeordnet. Diese Informationen über die Eigenschaften der jeweiligen bekannten Objekte weisen die folgenden Werte für jedes einzelne der bekannte Objekte auf: Masse, Trägheitsmoment, Position des Schwerpunkts in einem zum Objekt körperfesten Koordinatensystem, und räumliche Ausdehnung des Objekts. Die Suche nach einem der bekannten Objekte, das gemäß den Bilddaten der Bilder des erfassten Gegenstands 3 den Gegenstand 3 abbildet, erfolgt durch Anwenden eines künstlichen neuronalen Netzes mit den fusionierten Bilddaten als Eingangsgröße. Durch die Recheneinheit 7 wird dabei aus dem dreidimensionalen Modell des Gegenstands 3 ein Eingangsvektor für das künstliche neuronale Netz ermittelt. Der Eingangsvektor durchläuft mehrere versteckte Ebenen und wird schließlich auf einen skalaren Wert im Ausgang des künstlichen neuronalen Netz abgebildet. Diese Ausgangsgröße des künstlichen neuronalen Netzes ist bevorzugt selbst ein numerischer Wert als Ergebnis der in den vorausgehenden Ebenen durchgeführten Berechnungen und gibt dabei direkt eine Zuordnung zu einem der bekannten Objekte an. Für eine korrekte Übereinstimmung wird vorausgesetzt, dass das künstliche neuronale Netz mit Daten der bekannten Objekte basierend auf Daten echter in Frage kommender Gegenstände trainiert worden ist. Wird keine ausreichende Übereinstimmung ermittelt, beispielsweise weil der Gegenstand 3 nicht zum Trainieren des künstlichen neuronalen Netzes verwendet worden ist, wird eine Warnmeldung an den Anwender ausgegeben, dass der Gegenstand 3 nicht zugeordnet werden kann. Eine Konfidenz, das heißt ein Maß für die Zuverlässigkeit der Zuordnung zu einem der bekannten Objekte, wird dabei durch Merkmalsvergleich zwischen dem dreidimensionalen Modell des Gegenstands 3 und den abgespeicherten Merkmalen des zugeordneten Objekts ermittelt. Danach folgt das automatische Anpassen S4 von Parametern der Steuereinheit 11 des Robotermanipulators 1, das heißt der oben genannten Regelungsparameter durch eine vorgegebene Funktion abhängig von den Eigenschaften des zugeordneten bekannten Objekts. Diese Funktion ist in Tabellenform in der Datenbank 9 abgelegt, so dass für jedes zugeordnete Objekt ein entsprechender Satz von Regelungsparametern erzeugt werden kann. Die Regelungsparameter umfassen Reglerverstärkungen in einer Rückführschleife und in einem Vorwärtszweig für stationäre Genauigkeit eines Zweifreiheitsgrad-PID-Reglers, sowie eine Steifigkeit einer Impedanzregelung. Schließlich erfolgt das Ausführen S5 der Aufgabe durch Ausführen des Steuerprogramms am Robotermanipulator 1 mit den angepassten Parametern der Steuereinheit 11.
  • 2 zeigt ein System zum angepassten Ausführen der Aufgabe durch den Robotermanipulator 1 mit einem Verfahren nach 1. Es sei daher auf die obigen Ausführungen der 1 verwiesen.
  • Bezugszeichenliste
  • 1
    Robotermanipulator
    3
    Gegenstand
    5
    Kameraeinheit
    7
    Recheneinheit
    9
    Datenbank
    11
    Steuereinheit
    13
    Vorgabeeinheit
    S1
    Vorgeben
    S2
    Aufnehmen
    S3
    Analysieren
    S4
    Anpassen
    S5
    Ausführen

Claims (9)

  1. Verfahren zum Ausführen einer Aufgabe eines Robotermanipulators (1), aufweisend die Schritte: - Vorgeben (S1) einer Aufgabe für den Robotermanipulator (1), wobei die Aufgabe das Manipulieren eines Gegenstands (3), insbesondere das Bewegen eines Gegenstands (3) durch den Robotermanipulator (1), umfasst, - Aufnehmen (S2) eines Bildes des Gegenstands (3) durch eine Kameraeinheit (5), - Analysieren (S3) der Bilddaten des Bildes und Zuordnen des erfassten Gegenstands (3) zu einem bestimmten aus einer Vielzahl vorgegebener bekannter Objekte durch eine Recheneinheit (7), wobei Daten über die bekannten Objekte mit Informationen über Eigenschaften der jeweiligen bekannten Objekte in einer Datenbank (9) abgelegt sind, - Automatisches Anpassen (S4) von Parametern einer Steuereinheit (11) des Robotermanipulators (1) abhängig von den Eigenschaften des zugeordneten bekannten Objekts, wobei die angepassten Parameter der Steuereinheit (11) eine Reglerverstärkung und/oder eine Bandbreite eines dynamischen Filters eines Reglers der Steuereinheit (11) umfassen, und - Ausführen (S5) der Aufgabe durch Ausführen des Steuerprogramms am Robotermanipulator (1) mit den angepassten Parametern durch die Steuereinheit (11).
  2. Verfahren nach Anspruch 1, wobei das Analysieren der Bilddaten des Bildes zum Zuordnen des erfassten Gegenstands (3) zu einem bestimmten aus einer Vielzahl vorgegebener bekannter Objekte durch Anwenden eines künstlichen neuronalen Netzes mit den Bilddaten als Eingangsgröße erfolgt, wobei die Ausgangsgröße des künstlichen neuronalen Netzes eine Zuordnung zu einem der bekannten Objekte ist, wobei das künstliche neuronale Netz mit Daten der bekannten Objekte trainiert worden ist.
  3. Verfahren nach Anspruch 1, wobei das Analysieren der Bilddaten des Bildes zum Zuordnen des erfassten Gegenstands (3) zu einem bestimmten aus einer Vielzahl vorgegebener bekannter Objekte durch Vergleichen der Bilddaten des Bildes des Gegenstands (3) mit einer Vielzahl von in der Datenbank (9) vorab abgespeicherten Objektdaten über die bekannten Objekte und durch Zuordnen der Bilddaten des Bildes zu den Objektdaten mit der besten Übereinstimmung zu den Bilddaten erfolgt, wobei die Objektdaten Daten über eine jeweilige Oberflächengestalt der bekannten Objekte umfassen, wobei den Objektdaten die jeweiligen Informationen über Eigenschaften der jeweiligen bekannten Objekte in der Datenbank (9) zugeordnet sind.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei die Kameraeinheit (5) am distalen Ende des Robotermanipulators (1) angeordnet ist.
  5. Verfahren nach Anspruch 4, wobei durch eine Bewegung des Robotermanipulators (1) die am Robotermanipulator (1) angeordnete Kameraeinheit (5) zumindest teilweise um den Gegenstand (3) herum verfahren wird, wobei durch die Kameraeinheit (5) während der Bewegung wiederholt ein Bild des Gegenstands (3) aufgenommen wird.
  6. Verfahren nach Anspruch 5, wobei durch die Recheneinheit (7) ein dreidimensionales Modell des Gegenstands (3) ermittelt wird, wobei das Zuordnen des erfassten Gegenstands (3) zu einem bestimmten aus einer Vielzahl vorgegebener bekannter Objekte durch Abgleichen des dreidimensionalen Modells des Gegenstands (3) mit in der Datenbank (9) gespeicherten dreidimensionalen Abbildern der bekannten Objekte erfolgt.
  7. Verfahren nach einem der Ansprüche 1 bis 3, wobei die Kameraeinheit (5) eine Kamera eines portablen Anwendergeräts umfasst.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Informationen über Eigenschaften der jeweiligen bekannten Objekte zumindest eine der folgenden je Objekt aufweisen: Masse, Trägheitsmoment, Volumen, Maß für eine Zerbrechlichkeit oder andere bei der Ausführung der Aufgabe zu berücksichtigenden Eigenschaften, Positionen und/oder Orientierungen von mechanischen und/oder elektromechanischen Schnittstellen.
  9. System zum Ausführen einer Aufgabe eines Robotermanipulators (1), aufweisend: - eine Vorgabeeinheit (13), die zum Vorgeben einer Aufgabe für den Robotermanipulator (1) dient, wobei die Aufgabe das Manipulieren eines Gegenstands (3), insbesondere das Bewegen eines Gegenstands (3) durch den Robotermanipulator (1) umfasst, - eine Kameraeinheit (5) zum Aufnehmen eines Bildes des Gegenstands (3), - eine Recheneinheit (7), die zum Analysieren der Bilddaten des Bildes und Zuordnen des erfassten Gegenstands (3) zu einem bestimmten aus einer Vielzahl vorgegebener bekannter Objekte ausgeführt ist, wobei Daten über die bekannten Objekte mit Informationen über Eigenschaften der jeweiligen bekannten Objekte in einer Datenbank (9) abgelegt sind, - eine Steuereinheit (11) für den Robotermanipulator (1), wobei die Steuereinheit (11) zum Ermitteln eines Steuerprogramms zum Ausführen der Aufgabe und zum automatischen Anpassen von Parametern der Steuereinheit (11) abhängig von den Eigenschaften des zugeordneten bekannten Objekts ausgeführt ist, wobei die angepassten Parameter der Steuereinheit (11) eine Reglerverstärkung und/oder eine Bandbreite eines dynamischen Filters eines Reglers der Steuereinheit (11) umfassen, und wobei die Steuereinheit (11) zum Ausführen der Aufgabe durch Ausführen des Steuerprogramms am Robotermanipulator (1) mit den angepassten Parametern ausgeführt ist.
DE102020135011.2A 2020-12-29 2020-12-29 Bilderkennung zum angepassten Ausführen eines Steuerprogramms eines Robotermanipulators Active DE102020135011B3 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020135011.2A DE102020135011B3 (de) 2020-12-29 2020-12-29 Bilderkennung zum angepassten Ausführen eines Steuerprogramms eines Robotermanipulators

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020135011.2A DE102020135011B3 (de) 2020-12-29 2020-12-29 Bilderkennung zum angepassten Ausführen eines Steuerprogramms eines Robotermanipulators

Publications (1)

Publication Number Publication Date
DE102020135011B3 true DE102020135011B3 (de) 2022-03-03

Family

ID=80221885

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020135011.2A Active DE102020135011B3 (de) 2020-12-29 2020-12-29 Bilderkennung zum angepassten Ausführen eines Steuerprogramms eines Robotermanipulators

Country Status (1)

Country Link
DE (1) DE102020135011B3 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014005758B4 (de) 2013-04-18 2015-06-18 Fanuc Corporation Robotersystem, aufweisend einen Roboter zur Beförderung eines Werkstücks
DE102014005434B4 (de) 2013-04-18 2016-03-17 Fanuc Corporation Steuerungseinrichtung für einen Roboter zur Beförderung eines Werkstücks
DE102019101595B3 (de) 2019-01-23 2020-03-12 Franka Emika Gmbh Verfahren zum Ermitteln einer Gewichtskraft und eines Schwerpunktes einer Robotermanipulatorlast
DE102016014658B4 (de) 2015-12-17 2020-04-16 Fanuc Corporation 1, 2Modellerzeugungsvorrichtung, Positions- und Orientierungsberechnungsvorrichtung und Handling Robotervorrichtung
DE102020104468A1 (de) 2019-04-03 2020-10-08 Mujin, Inc. Robotersystem mit objektidentifizierungs- und handhabungsmechanismus und verfahren zu seinem betrieb
DE102019003868B4 (de) 2018-06-21 2020-11-19 Canon Kabushiki Kaisha Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und speichermedium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014005758B4 (de) 2013-04-18 2015-06-18 Fanuc Corporation Robotersystem, aufweisend einen Roboter zur Beförderung eines Werkstücks
DE102014005434B4 (de) 2013-04-18 2016-03-17 Fanuc Corporation Steuerungseinrichtung für einen Roboter zur Beförderung eines Werkstücks
DE102016014658B4 (de) 2015-12-17 2020-04-16 Fanuc Corporation 1, 2Modellerzeugungsvorrichtung, Positions- und Orientierungsberechnungsvorrichtung und Handling Robotervorrichtung
DE102019003868B4 (de) 2018-06-21 2020-11-19 Canon Kabushiki Kaisha Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und speichermedium
DE102019101595B3 (de) 2019-01-23 2020-03-12 Franka Emika Gmbh Verfahren zum Ermitteln einer Gewichtskraft und eines Schwerpunktes einer Robotermanipulatorlast
DE102020104468A1 (de) 2019-04-03 2020-10-08 Mujin, Inc. Robotersystem mit objektidentifizierungs- und handhabungsmechanismus und verfahren zu seinem betrieb

Similar Documents

Publication Publication Date Title
DE112011103794B4 (de) Aufnehmervorrichtung für Werkstücke
DE102015208584B4 (de) Greifvorrichtung und Greifverfahren
DE102017128652B4 (de) Robotersystem mit einer mehrzahl von robotern, robotersteuerung und robotersteuerverfahren
DE102010053002B4 (de) Systeme und Verfahren, die der Handhabung eines Ojekts mit einem Greifer zugeordnet sind
DE102018112360B3 (de) Bereichsabhängige Kollisionsdetektion für einen Robotermanipulator
EP3020516B1 (de) Bestimmen von objektbezogenen greifräumen mittels eines roboters
DE112019000097B4 (de) Steuervorrichtung, Arbeitsroboter, Programm und Steuerverfahren
DE102016122678B4 (de) Werkstückpositions-/-Stellungsberechnungssystem und Handhabungssystem
DE202017106506U1 (de) Einrichtung für tiefes Maschinenlernen zum Robotergreifen
DE102015002348B4 (de) Robotersteuerung mit der Funktion, den Lehrvorgang zu vereinfachen und die Bewegungsfähigkeit des Roboters zu verbessern
DE112018005832B4 (de) Bewegungseinstellungsvorrichtung für roboter, bewegungssteuerungssystem und robotersystem
DE102014202145A1 (de) Verfahren zum Programmieren eines Industrieroboters und zugehörigerIndustrieroboter
DE102016108077B4 (de) Verfahren zur Lastparameterfestlegung und Vorrichtung zur Lastparameterfestlegung
WO2020225229A1 (de) Maschinelles lernen einer objekterkennung mithilfe einer robotergeführten kamera
DE102015111080A1 (de) Robotervorrichtung mit maschinellem Sehen
DE112018007727B4 (de) Robotersystem
DE102018007842A1 (de) Steuergerät zum Überwachen der Bewegungsrichtung eines Betätigungswerkzeugs
EP4326500A1 (de) Ansteuerung eines industrieroboters für eine greifaufgabe
DE102018112370B4 (de) Richtungsabhängige Kollisionsdetektion für einen Robotermanipulator
DE112018007729B4 (de) Maschinelle Lernvorrichtung und mit dieser ausgestattetes Robotersystem
DE102020135011B3 (de) Bilderkennung zum angepassten Ausführen eines Steuerprogramms eines Robotermanipulators
EP3710900B1 (de) Verfahren und system zum vorgeben bzw. lernen eines roboterbefehls
DE102018124671B4 (de) Verfahren und Vorrichtung zur Erstellung eines Robotersteuerprogramms
DE102021201880A1 (de) Vorrichtung und Verfahren zum Ermitteln der Pose eines Objekts
DE112021004779T5 (de) Vorrichtung zum Einstellen eines Parameters, Robotersystem, Verfahren und Computerprogramm

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final