DE102019001969B4 - Robotersystem zum Korrigieren des Anlernens eines Roboters durch Bildverarbeitung - Google Patents

Robotersystem zum Korrigieren des Anlernens eines Roboters durch Bildverarbeitung Download PDF

Info

Publication number
DE102019001969B4
DE102019001969B4 DE102019001969.5A DE102019001969A DE102019001969B4 DE 102019001969 B4 DE102019001969 B4 DE 102019001969B4 DE 102019001969 A DE102019001969 A DE 102019001969A DE 102019001969 B4 DE102019001969 B4 DE 102019001969B4
Authority
DE
Germany
Prior art keywords
feature
robot
pose
detected
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019001969.5A
Other languages
English (en)
Other versions
DE102019001969A1 (de
Inventor
Kyouhei Kokubo
Fumikazu Warashina
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102019001969A1 publication Critical patent/DE102019001969A1/de
Application granted granted Critical
Publication of DE102019001969B4 publication Critical patent/DE102019001969B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/06Gripping heads and other end effectors with vacuum or magnetic holding means
    • B25J15/0616Gripping heads and other end effectors with vacuum or magnetic holding means with vacuum
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • B25J15/10Gripping heads and other end effectors having finger members with three or more finger members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

Robotersystem (1) umfassend einen Roboter (11), der einen Vorgang an einem Werkstück durchführt, ein Robotersteuergerät (12), das den Roboter steuert, und eine Bildgebungsvorrichtung (13), die eine Bildgebung des Werkstücks 10) durchführt, wobei das Robotersystem Merkmale des Werkstücks von einem erfassten Bild erfasst und ein Anlernen des Roboters auf der Basis von Erfassungsergebnissen korrigiert, wobei das Robotersystem ferner umfasst:
eine Speichereinheit (31, 32, 33), die vorab ein erstes Merkmal (16) und ein zweites Merkmal (17) des Werkstücks und eine erste Positionsbeziehung einer Position des ersten Merkmals und/oder einer Position des zweiten Merkmals mit einer Zielposition (15) des Roboters sowie eine zweite Positionsbeziehung zwischen der Position des ersten Merkmals und der Position des zweiten Merkmals speichert,
einen Merkmalserfassungsabschnitt (40), der das erste Merkmal und/oder das zweite Merkmal vom erfassten Bild auf der Basis des gespeicherten ersten Merkmals oder zweiten Merkmals erfasst,
einen Merkmalsposition-Berechnungsabschnitt (41), der die Position des erfassten ersten Merkmals und/oder zweiten Merkmals berechnet, und
einen Zielposition-Berechnungsabschnitt (42), der, wenn das erste Merkmal vom Bild erfasst werden kann, die Zielposition des Roboters auf der Basis der berechneten Position des ersten Merkmals und der gespeicherten ersten Positionsbeziehung berechnet, und, wenn das erste Merkmal nicht vom Bild erfasst werden kann und das zweite Merkmal vom Bild erfasst werden kann, die Position des ersten Merkmals auf der Basis der berechneten Position des zweiten Merkmals und der gespeicherten zweiten Positionsbeziehung berechnet sowie die Zielposition des Roboters auf der Basis der berechneten Position des ersten Merkmals und der gespeicherten ersten Positionsbeziehung berechnet.

Description

  • Die vorliegende Erfindung betrifft ein Robotersystem und betrifft insbesondere ein Robotersystem zum Korrigieren des Anlernens eines Roboters durch Bildverarbeitung.
  • Der Stand der Technik kennt ein Verfahren, bei dem ein Werkstück einer Bildgebung durch eine Bildgebungsvorrichtung unterzogen wird, Merkmale des Werkstücks vom erfassten Bild erfasst werden, eine Position (das heißt eine Zielposition eines Roboters), an der ein Roboter das Werkstück herauszieht, aus den Erfassungsergebnissen berechnet wird, eine Anlernposition des Roboters korrigiert wird und der Roboter das Werkstück herauszieht.
  • Das folgende Dokument ist als Stand der Technik in Bezug auf die vorliegende Anmeldung bekannt. JP 2015 - 112 654 A offenbart ein Robotersystem umfassend eine Bilderkennungseinheit, die ein erfasstes Bild eines Werkstücks und einer Markierung empfängt, und eine Betriebseinheit, die Anlerndaten eines Roboters erzeugt, wobei die Betriebseinheit erste Anlerndaten des Roboters aus dem von der Bilderkennungseinheit empfangenen erfassten Bild erzeugt und zweite Anlerndaten des Roboters durch Greifen des Werkstücks mit einem Greifabschnitt des Roboters erzeugt.
  • Weiterer Stand der Technik ist in den Druckschriften DE 10 2015 015 094 A1 , DE 11 2011 101 730 B4 , EP 2 993 002 A1 , EP 2 227 356 A1 , US 2017 / 0 109 856 A1 und US 6 771 808 B1 offenbart.
  • Im Verfahren zum Korrigieren des Anlernens eines Roboters durch Bildverarbeitung können in einigen Fällen aufgrund von einzelnen Unterschieden in Merkmalen des Werkstücks oder Verbergen der Merkmale des Werkstücks die Merkmale eines Werkstücks nicht von einem Bild erfasst werden. Wenn hingen solch ein Verfahren nicht verwendet wird, muss das Anlernen des Roboters manuell korrigiert werden, wodurch die Effizienz des Anlernvorgangs verringert wird. Ferner besteht insofern ein Problem, als im Lernvorgang für solch ein Verfahren, da ein Vorlagebild o. Ä. der Merkmale vorab gespeichert werden muss, der Lernvorgang zeitaufwändig ist.
  • Die Aufgabe besteht somit darin, das Anlernen eines Roboters zu vereinfachen und gleichzeitig die Erfassungsgeschwindigkeit von Merkmalen eines Werkstücks zu verbessern. Zur Lösung dieser Aufgabe wird ein Robotersystem mit den Merkmalen des Patentanspruchs 1 bereitgestellt.
    • 1 zeigt eine schematische Ansicht zur Darstellung eines Robotersystems gemäß einer ersten Ausführungsform.
    • 2 zeigt eine Ansicht zur Darstellung eines erfassten Bildes umfassend eine Zielposition eines Roboters und ein erstes Merkmal und zweites Merkmal eines Werkstücks gemäß der ersten Ausführungsform.
    • 3 zeigt eine Ansicht zur Darstellung eines erfassten Bildes umfassend eine Zielposition und Zielhaltung eines Roboters und ein erstes Merkmal und zweites Merkmal eines Werkstücks gemäß einer weiteren Ausführungsform.
    • 4 zeigt ein Fließbild zur Darstellung eines Anlernvorgangs des Robotersystems gemäß der ersten Ausführungsform.
    • 5 zeigt ein Fließbild zur Darstellung eines Korrekturvorgangs des Robotersystems gemäß der ersten Ausführungsform.
    • 6 zeigt ein Fließbild zur Darstellung eines Anlernvorgangs des Robotersystems gemäß einer zweiten Ausführungsform.
    • 7 zeigt ein Fließbild zur Darstellung eines Korrekturvorgangs des Robotersystems gemäß der zweiten Ausführungsform.
    • 8 zeigt ein Blockdiagramm zur Darstellung der Konfiguration des Robotersystems gemäß der zweiten Ausführungsform.
    • 9 zeigt ein Blockdiagramm zur Darstellung der Konfiguration des Robotersystems gemäß einer weiteren Ausführungsform.
  • Nachfolgend sind die Ausführungsformen der vorliegenden Offenbarung in Bezug auf die beigefügten Zeichnungen beschrieben. In den Zeichnungen sind gleiche oder äquivalente Bestandteile mit den gleichen oder äquivalenten Bezugszeichen bezeichnet. Ferner schränken die nachfolgend beschriebenen Ausführungsformen den technischen Umfang der in den Ansprüchen beschriebenen Erfindungen oder die Bedeutungen der darin beschriebenen Begriffe nicht ein.
  • 1 zeigt eine schematische Ansicht zur Darstellung eines Robotersystems 1 gemäß einer ersten Ausführungsform. Das Robotersystem 1 umfasst einen Roboter 11, der einen Vorgang an einem Werkstück 10 durchführt, ein Robotersteuergerät 12, das den Roboter 11 steuert, und eine Bildgebungsvorrichtung 13, die eine Bildgebung des Werkstücks 10 durchführt.
  • Der Roboter 11 ist ein 6-Achsen-Robotermanipulator, angetrieben beispielsweise von einem Servomotor o. Ä., und umfasst eine Hand 14, die das Werkstück 10 herauszieht. Die Hand 14 umfasst einen eine Vakuumpumpe verwendenden Vakuumgreifer oder einen Magnete verwendenden Magnetkraftgreifer. In einer weiteren Ausführungsform kann die Hand 14 Fingerglieder umfassen.
  • Das Robotersteuergerät 12 ist drahtgebunden oder drahtlos kommunizierend mit dem Roboter 11 verbunden, erzeugt Bewegungsbefehle für den Roboter 11 gemäß einem vom Anlernvorgang erzeugten Betriebsprogramm, bewegt den Roboter 11 und führt die Regelung von Drehzahl, Position usw. durch. Ferner ist das Robotersteuergerät 12 drahtgebunden oder drahtlos kommunizierend mit der Bildgebungsvorrichtung 13 verbunden, erfasst die Merkmale des Werkstücks 10 von einem erfassten Bild, ermittelt die Position (und Haltung), bei der das Werkstück 10 vom Roboter 11 herausgezogen wird (das heißt die Zielposition (und Zielhaltung) des Roboters 11) auf der Basis der erfassten Merkmale und korrigiert die Anlernposition (und Anlernhaltung) des Roboters 11.
  • Die Bildgebungsvorrichtung 13 ist auf einer Struktursäule (nicht dargestellt) angeordnet und führt eine Bildgebung des Werkstücks 10 von oben durch. In einer weiteren Ausführungsform kann die Bildgebungsvorrichtung 13 an einem Endeffektor des Roboters 11 angeordnet sein.
  • 2 zeigt eine Ansicht zur Darstellung eines erfassten Bildes 18 umfassend die Zielposition 15 des Roboters und das erste Merkmal 16 und das zweite Merkmal 17 des Werkstücks 10 gemäß der ersten Ausführungsform. Obgleich die Zielposition 15 des Roboters vom Lehrer an einem erfassten Bild eines Masterwerkstücks angelernt und vorab als Koordinatenwerte gespeichert wird, müssen, da sich die Position des tatsächlich herausgezogenen Werkstücks 10 ändert, die Merkmale des Werkstücks 10 vom erfassten Bild 18 durch Bildverarbeitung erfasst werden, die Zielposition 15 des Roboters von den Erfassungsergebnissen ermittelt und die Anlernposition korrigiert werden.
  • In einigen Fällen können aber die Merkmale des Werkstücks 10 nicht vom erfassten Bild 18 aufgrund von einzelnen Unterschieden in den Merkmalen des Werkstücks 10 oder Verbergen der Merkmale des Werkstücks 10 erfasst werden. Somit bereitet das Robotersystem 1 zwei Arten von Merkmalen des Werkstücks 10 (das heißt das erste Merkmal 16 und das zweite Merkmal 17) vor, und wenn das erste Merkmal 16 nicht erfasst werden kann, wird das zweite Merkmal 17 erfasst, wodurch die Wahrscheinlichkeit von Erfassungsfehlern verringert wird.
  • Ferner kann im Robotersystem 1 gemäß der ersten Ausführungsform, da die Hand 14 einen Vakuumgreifer oder einen Magnetkraftgreifer umfasst, wenn die Zielhaltung des Roboters gleichmäßig ist, nur die Zielposition 15 des Roboters ermittelt werden. In einer weiteren Ausführungsform, in der die Hand 14 Fingerglieder umfasst, muss aber, da sich die Haltung, bei der die Fingerglieder der Hand 14 das Werkstück 10 greifen, entsprechend Änderungen in der Haltung des tatsächlich herausgezogenen Werkstücks 10 ändert, ebenfalls die Zielhaltung des Roboters ermittelt werden.
  • 3 zeigt eine Ansicht zur Darstellung eines erfassten Bildes 18 umfassend die Zielposition 15 und Zielhaltung 19 des Roboters und das erste Merkmal 16 und zweite Merkmal 17 des Werkstücks 10 gemäß einer weiteren Ausführungsform. Obgleich die Zielhaltung 19 des Roboters vom Lehrer an einem erfassten Bild eines Masterwerkstücks angelernt und vorab als Drehwinkel um Koordinatenachsen gespeichert wird, müssen, da sich die Haltung des tatsächlich herausgezogenen Werkstücks 10 ändert, die Merkmale des Werkstücks 10 vom erfassten Bild 18 durch Bildverarbeitung erfasst, die Zielhaltung 19 des Roboters auf der Basis der Erfassungsergebnisse ermittelt und die Anlernhaltung korrigiert werden.
  • 4 zeigt ein Fließbild zur Darstellung des Anlernvorgangs des Robotersystems 1 gemäß der ersten Ausführungsform. Das Robotersystem 1 führt allgemein den Anlernvorgang durch die folgenden Prozeduren durch.
  • <Anlernvorgang>
    • (Schritt S10) Bildgebung eines Masterwerkstücks durchführen.
    • (Schritt S11) Vorab das erste Merkmal und zweite Merkmal am erfassten Bild anlernen und speichern.
    • (Schritt S12) Vorab eine erste Positionsbeziehung zwischen der Position des ersten Merkmals und der Zielposition des Roboters anlernen und speichern.
    • (Schritt S13) Vorab die erste Positionsbeziehung zwischen der Position des zweiten Merkmals und der Zielposition des Roboters anlernen und speichern.
  • „Erste Positionsbeziehung“ bedeutet beispielsweise die Koordinatenwerte (150, 100, 0) der Zielposition des Roboters, wenn die Position des Merkmals als Ursprung (0, 0, 0) der Koordinaten verwendet wird.
  • In einer weiteren Ausführungsform, in der die Hand Fingerglieder umfasst, werden die folgenden Anlernvorgänge nacheinander durchgeführt.
  • (Schritt S14) Vorab die erste Haltungsbeziehung zwischen der Haltung des ersten Merkmals und der Zielhaltung des Roboters anlernen und speichern.
  • (Schritt S15) Vorab die erste Haltungsbeziehung zwischen der Haltung des zweiten Merkmals und der Zielhaltung des Roboters anlernen und speichern.
  • „Erste Haltungsbeziehung“ bedeutet beispielsweise die Drehwinkel (0°, 0°, 90°) der Zielhaltung des Roboters, wenn die Haltung des Merkmals als Drehwinkel (0°, 0°, 0°) um die Koordinatenachsen verwendet wird.
  • 5 zeigt ein Fließbild zur Darstellung des Korrekturvorgangs des Robotersystems 1 gemäß der ersten Ausführungsform. Das Robotersystem 1 führt den Korrekturvorgang durch im Wesentlichen die folgenden Prozeduren durch. In einer weiteren Ausführungsform, in der die Hand Fingerglieder umfasst, wird der Vorgang unter Berücksichtigung nicht nur von „Position“, sondern auch von „Haltung“ durchgeführt.
  • < Korrekturvorgänge>
    • (Schritt S20) Bildgebung des aktuell herauszuziehenden Werkstücks durchführen.
    • (Schritt S21) Erstes Merkmal vom erfassten Bild erfassen.
    • (Schritt S22) Bestimmen, ob das erste Merkmal vom erfassten Bild erfasst werden kann oder nicht.
    • (Schritt S23) Wenn das erste Merkmal vom erfassten Bild erfasst werden kann, die Position (und Haltung) des ersten Merkmals aus den Erfassungsergebnissen berechnen.
    • (Schritt S24) Zielposition (und Zielhaltung) des Roboters aus der berechneten Position (und Haltung) des ersten Merkmals und der vorab gespeicherten ersten Positionsbeziehung (und ersten Haltungsbeziehung) berechnen.
    • (Schritt S25) Anlernposition (und Anlernhaltung) des Roboters korrigieren.
    • (Schritt S26) Wenn das erste Merkmal vom erfassten Bild nicht erfasst werden kann, zweites Merkmal vom erfassten Bild erfassen.
    • (Schritt S27) Bestimmen, ob das zweite Merkmal vom erfassten Bild erfasst werden kann oder nicht.
    • (Schritt S28) Wenn das zweite Merkmal vom erfassten Bild erfasst werden kann, die Position (und Haltung) des zweiten Merkmals aus den Erfassungsergebnissen berechnen.
    • (Schritt S29) Zielposition (und Zielhaltung) des Roboters auf der Basis der berechneten Position (und Haltung) des zweiten Merkmals und der vorab gespeicherten ersten Positionsbeziehung (und ersten Haltungsbeziehung) berechnen.
    • (Schritt S25) Anlernposition (und Anlernhaltung) des Roboters korrigieren.
  • Im <Korrekturvorgang> gemäß der ersten Ausführungsform, in dem eine Vielzahl von Werkstückmerkmalen vorbereitet wird, wenn ein Merkmal nicht vom erfassten Bild erfasst werden kann, kann, da das andere Merkmal erfasst wird, die Werkstückmerkmal-Erfassungsgeschwindigkeit erhöht werden. Da das Roboteranlernen nicht durch einen manuellen Vorgang korrigiert werden muss, kann das Anlernen des Roboters vereinfacht werden. Wenn aber die Zahl von Arten von Werkstücken zunimmt, wird, da vorab eine Vielzahl von Bildvorlagen für die Merkmale und die erste Positionsbeziehung (und erste Haltungsbeziehung) zwischen der Position (und Haltung) der Merkmale und der Zielposition (und Zielhaltung) des Roboters für jedes Werkstück angelernt und gespeichert werden müssen, der <Anlernvorgang> zeitaufwändiger. In einer zweiten Ausführungsform, die nachfolgend beschrieben ist, wird der <Anlernvorgang> weiter verringert, wodurch das Anlernen des Roboters vereinfacht wird.
  • 6 zeigt ein Fließbild zur Darstellung des Anlernvorgangs des Robotersystems 1 gemäß der zweiten Ausführungsform. Das Robotersystem 1 führt den Anlernvorgang durch im Wesentlichen die folgenden Prozeduren durch.
  • <Anlernvorgang>
    • (Schritt S30) Bildgebung des Masterwerkstücks durchführen.
    • (Schritt S31) Vorab das erste Merkmal und zweite Merkmal am erfassten Bild anlernen und speichern.
    • (Schritt S32) Vorab die erste Positionsbeziehung zwischen der Position des ersten Merkmals und der Zielposition des Roboters anlernen und speichern.
    • (Schritt S33) Vorab die zweite Positionsbeziehung zwischen der Position des ersten Merkmals und der Zielposition des zweiten Merkmals berechnen und speichern.
  • „Zweite Positionsbeziehung“ bedeutet beispielsweise die Koordinaten (150, 100, 0) der Position des zweiten Merkmals, wenn die Position des ersten Merkmals als Ursprung (0, 0, 0) der Koordinaten verwendet wird.
  • In einer weiteren Ausführungsform, in der die Hand Fingerglieder umfasst, werden die folgenden Anlernvorgänge nacheinander durchgeführt.
  • (Schritt S34) Vorab die erste Haltungsbeziehung zwischen der Haltung des ersten Merkmals und der Zielhaltung des Roboters anlernen und speichern.
  • (Schritt S35) Vorab die zweite Haltungsbeziehung zwischen der Haltung des ersten Merkmals und der Haltung des zweiten Merkmals berechnen und speichern.
  • „Zweite Haltungsbeziehung“ bedeutet beispielsweise die Drehwinkel (0°, 0°, 90°) der Haltung des zweiten Merkmals, wenn die Haltung des ersten Merkmals als Drehwinkel (0°, 0°, 0°) um die Koordinatenachsen verwendet wird.
  • 7 zeigt ein Fließbild zur Darstellung des Korrekturvorgangs des Robotersystems 1 gemäß der zweiten Ausführungsform. Das Robotersystem 1 führt den Korrekturvorgang durch im Wesentlichen die folgenden Prozeduren durch. In einer weiteren Ausführungsform, in der die Hand Fingerglieder umfasst, wird der Vorgang unter Berücksichtigung nicht nur von „Position“, sondern auch von „Haltung“ durchgeführt.
  • <Korrekturvorgang>
    • (Schritt S40) Bildgebung des aktuell herauszuziehenden Werkstücks durchführen.
    • (Schritt S41) Erstes Merkmal vom erfassten Bild erfassen.
    • (Schritt S42) Bestimmen, ob das erste Merkmal vom erfassten Bild erfasst werden kann oder nicht.
    • (Schritt S43) Wenn das erste Merkmal vom erfassten Bild erfasst werden kann, die Position (und Haltung) des ersten Merkmals aus den Erfassungsergebnissen berechnen.
    • (Schritt S44) Zielposition (und Zielhaltung) des Roboters aus der berechneten Position (und Haltung) des ersten Merkmals und der vorab gespeicherten ersten Positionsbeziehung (und ersten Haltungsbeziehung) berechnen.
    • (Schritt S45) Anlernposition (und Anlernhaltung) des Roboters korrigieren.
    • (Schritt S46) Wenn das erste Merkmal vom erfassten Bild nicht erfasst werden kann, zweites Merkmal vom erfassten Bild erfassen.
    • (Schritt S47) Bestimmen, ob das zweite Merkmal vom erfassten Bild erfasst werden kann oder nicht.
    • (Schritt S48) Wenn das zweite Merkmal vom erfassten Bild erfasst werden kann, die Position (und Haltung) des zweiten Merkmals aus den Erfassungsergebnissen berechnen.
    • (Schritt S49) Position (und Haltung) des ersten Merkmals auf der Basis der berechneten Position (und Haltung) des zweiten Merkmals und der vorab gespeicherten zweiten Positionsbeziehung (und zweiten Haltungsbeziehung) berechnen.
    • (Schritt S44) Zielposition (und Zielhaltung) des Roboters aus der berechneten Position (und Haltung) des ersten Merkmals und der vorab gespeicherten ersten Positionsbeziehung (und ersten Haltungsbeziehung) berechnen.
    • (Schritt S45) Anlernposition (und Anlernhaltung) des Roboters korrigieren.
  • Im <Anlernvorgang> der zweiten Ausführungsform müssen die erste Positionsbeziehung (und erste Haltungsbeziehung) zwischen der Position (und Haltung) des zweiten Merkmals und der Zielhaltung (und Zielposition) des Roboters nicht angelernt werden und die zweite Positionsbeziehung (und zweite Haltungsbeziehung) zwischen der Position (und Haltung) des ersten Merkmals und die Position (und Haltung) des zweiten Merkmals werden automatisch vorab berechnet und gespeichert. Somit wird der Zeitaufwand für den <Anlernvorgang> weiter verringert, wodurch das Anlernen des Roboters vereinfacht wird.
  • 8 zeigt ein Blockdiagramm zur Darstellung der Konfiguration des Robotersystems 1 gemäß der zweiten Ausführungsform. Das Robotersystem 1 gemäß der zweiten Ausführungsform umfasst ein Robotersteuergerät 12, das den Roboter 11 steuert. Das Robotersteuergerät 12 korrigiert das Anlernen des Roboters 11 durch Bildverarbeitung. In 8 ist, obwohl das Robotersteuergerät 12 eine Konfiguration umfasst, die Vorgänge unter Berücksichtigung nicht nur der „Position““, sondern auch der „Haltung“ durchführt, um die andere Ausführungsform einzuschließen, in der die Hand 14 Fingerglieder umfasst, die Konfiguration zum Durchführen von Vorgängen unter Berücksichtigung der „Haltung“ nicht unverzichtbar.
  • Das Robotersteuergerät 12 umfasst einen Bildprozessor 20, der die Zielposition und Zielhaltung des Roboters 11 auf der Basis von Erfassungsergebnissen der vom erfassten Bild erfassten Merkmale des Werkstücks berechnet, und eine Bewegungsbefehl-Erzeugungseinheit 21, die Bewegungsbefehle für den Roboter 11 zum Korrigieren der Anlernposition und der Anlernhaltung im Betriebsprogramm auf der Basis der berechneten Zielposition und Zielhaltung erzeugt.
  • Der Bildprozessor 20 umfasst eine CPU, einen ASIC, einen FPGA usw. nach dem Stand der Technik. Der Bildprozessor 20 umfasst einen ersten Speicher 30, der ein von der Bildgebungsvorrichtung 13 erfasstes Werkstückbild speichert, einen zweiten Speicher 31, der vorab das erste Merkmal und zweite Merkmal des Werkstücks speichert, einen dritten Speicher 32, der vorab die erste Positionsbeziehung und zweite Positionsbeziehung speichert, einen vierten Speicher 33, der vorab die erste Haltungsbeziehung und zweite Haltungsbeziehung speichert, und einen fünften Speicher 34, der die berechnete Zielposition und Zielhaltung speichert. Im Robotersystem 1 gemäß der ersten Ausführungsform müssen die zweite Positionsbeziehung und die zweite Haltungsbeziehung nicht vorab gespeichert werden.
  • Der Bildprozessor 20 umfasst ferner einen Merkmalserfassungsabschnitt 40, der das erste Merkmal und/oder das zweite Merkmal vom erfassten Werkstückbild auf der Basis des gespeicherten ersten Merkmals und zweiten Merkmals erfasst, einen Merkmalsposition-Berechnungsabschnitt 41, der die Position des erfassten ersten Merkmals und/oder zweiten Merkmals berechnet, und einen Zielposition-Berechnungsabschnitt 42, der, wenn das erste Merkmal vom Werkstückbild erfasst werden kann, die Zielposition des Roboters 11 auf der Basis der erfassten Position des ersten Merkmals und der gespeicherten ersten Positionsbeziehung berechnet, wenn das erste Merkmal nicht vom Werkstückbild erfasst werden kann und das zweite Merkmal vom Werkstückbild erfasst werden kann, die Position des ersten Merkmals auf der Basis der berechneten Position des zweiten Merkmals und der gespeicherten zweiten Positionsbeziehung berechnet, und die Zielposition des Roboters 11 auf der Basis der berechneten Position des ersten Merkmals und der gespeicherten ersten Positionsbeziehung berechnet. Im Robotersystem 1 gemäß der ersten Ausführungsform berechnet, wenn das erste Merkmal nicht vom Werkstückbild erfasst werden kann und das zweite Merkmal vom Werkstückbild erfasst werden kann, der Zielposition-Berechnungsabschnitt 42 die Zielposition des Roboters 11 auf der Basis der berechneten Position des zweiten Merkmals und der gespeicherten ersten Positionsbeziehung.
  • Der Bildprozessor 20 umfasst ferner einen Merkmalshaltung-Berechnungsabschnitt 43, der die Haltung des erfassten ersten Merkmals und/oder zweiten Merkmals berechnet, und einen Zielhaltung-Berechnungsabschnitt 44, der, wenn das erste Merkmal vom Werkstückbild erfasst werden kann, eine Zielhaltung des Roboters 11 auf der Basis der berechneten Haltung des ersten Merkmals und der gespeicherten ersten Haltungsbeziehung berechnet, wenn das erste Merkmal nicht vom Werkstückbild erfasst werden kann und das zweite Merkmal vom Werkstückbild erfasst werden kann, die Haltung des ersten Merkmals auf der Basis der berechneten Haltung des zweiten Merkmals und der gespeicherten zweiten Haltungsbeziehung berechnet, und die Zielhaltung des Roboters 11 auf der Basis der berechneten Haltung des ersten Merkmals und der gespeicherten ersten Haltungsbeziehung berechnet. Im Robotersystem 1 gemäß der ersten Ausführungsform berechnet, wenn das erste Merkmal nicht vom Werkstückbild erfasst werden kann und das zweite Merkmal vom Werkstückbild erfasst werden kann, der Zielhaltung-Berechnungsabschnitt 44 die Zielhaltung des Roboters 11 auf der Basis der berechneten Haltung des zweiten Merkmals und der gespeicherten ersten Haltungsbeziehung.
  • Der Bildprozessor 20 umfasst ferner einen zweiten Positionsbeziehung-Berechnungsabschnitt 45, der die zweite Positionsbeziehung berechnet und die zweite Positionsbeziehung im dritten Speicher 32 vorab speichert, und einen zweiten Haltungsbeziehung-Berechnungsabschnitt 46, der die zweite Positionsbeziehung berechnet und die zweite Positionsbeziehung im vierten Speicher 33 vorab speichert. Im Robotersystem 1 gemäß der ersten Ausführungsform sind der zweite Positionsbeziehung-Berechnungsabschnitt 45 und der zweite Haltungsbeziehung-Berechnungsabschnitt 46 gegebenenfalls nicht enthalten.
  • 9 zeigt ein Blockdiagramm zur Darstellung der Konfiguration des Robotersystems 1 gemäß einer weiteren Ausführungsform. Das Robotersystem 1 gemäß der weiteren Ausführungsform umfasst eine Bildverarbeitungsvorrichtung 50, die kommunizierend mit dem Robotersteuergerät 12 über ein verdrahtetes oder drahtloses Netzwerk 51 verbunden ist. Die Bildverarbeitungsvorrichtung 50 korrigiert das Anlernen des Roboters durch Bildverarbeitung. Sowohl das Robotersteuergerät 12 als auch die Bildverarbeitungsvorrichtung 50 umfassen eine Kommunikationssteuereinheit 52, welche die Kommunikation steuert. Die Bildverarbeitungsvorrichtung 50 kann ein Computer, etwa ein PC, sein. Die anderen Strukturen der Bildverarbeitungsvorrichtung 50 sind die gleichen wie die des in 8 dargestellten Bildprozessors 20 und daher wird auf eine Erläuterung dieser verzichtet.
  • Gemäß den vorhergehenden Ausführungsformen kann, wenn eine Vielzahl von Werkstückmerkmalen vorbereitet wurde und eines der Merkmale nicht von einem erfassten Bild erfasst werden kann, da ein weiteres Merkmal erfasst werden kann, das Anlernen des Roboters vereinfacht werden, während die Werkstückmerkmal-Erfassungsgeschwindigkeit erhöht werden kann.
  • Die Programme, welche die zuvor beschriebenen Fließbilder ausführen, können auf einem nichtflüchtigen computerlesbaren Aufzeichnungsmedium, etwa einer CD-ROM, aufgezeichnet werden.

Claims (9)

  1. Robotersystem (1) umfassend einen Roboter (11), der einen Vorgang an einem Werkstück durchführt, ein Robotersteuergerät (12), das den Roboter steuert, und eine Bildgebungsvorrichtung (13), die eine Bildgebung des Werkstücks 10) durchführt, wobei das Robotersystem Merkmale des Werkstücks von einem erfassten Bild erfasst und ein Anlernen des Roboters auf der Basis von Erfassungsergebnissen korrigiert, wobei das Robotersystem ferner umfasst: eine Speichereinheit (31, 32, 33), die vorab ein erstes Merkmal (16) und ein zweites Merkmal (17) des Werkstücks und eine erste Positionsbeziehung einer Position des ersten Merkmals und/oder einer Position des zweiten Merkmals mit einer Zielposition (15) des Roboters sowie eine zweite Positionsbeziehung zwischen der Position des ersten Merkmals und der Position des zweiten Merkmals speichert, einen Merkmalserfassungsabschnitt (40), der das erste Merkmal und/oder das zweite Merkmal vom erfassten Bild auf der Basis des gespeicherten ersten Merkmals oder zweiten Merkmals erfasst, einen Merkmalsposition-Berechnungsabschnitt (41), der die Position des erfassten ersten Merkmals und/oder zweiten Merkmals berechnet, und einen Zielposition-Berechnungsabschnitt (42), der, wenn das erste Merkmal vom Bild erfasst werden kann, die Zielposition des Roboters auf der Basis der berechneten Position des ersten Merkmals und der gespeicherten ersten Positionsbeziehung berechnet, und, wenn das erste Merkmal nicht vom Bild erfasst werden kann und das zweite Merkmal vom Bild erfasst werden kann, die Position des ersten Merkmals auf der Basis der berechneten Position des zweiten Merkmals und der gespeicherten zweiten Positionsbeziehung berechnet sowie die Zielposition des Roboters auf der Basis der berechneten Position des ersten Merkmals und der gespeicherten ersten Positionsbeziehung berechnet.
  2. Robotersystem nach Anspruch 1, wobei die Speichereinheit (33) ferner eine erste Haltungsbeziehung einer Haltung des ersten Merkmals und/oder einer Haltung des zweiten Merkmals mit einer Zielhaltung (19) des Roboters speichert, wobei das Robotersystem ferner umfasst: einen Merkmalshaltung-Berechnungsabschnitt (43), der eine Haltung des erfassten ersten Merkmals und/oder des erfassten zweiten Merkmals berechnet, und einen Zielhaltung-Berechnungsabschnitt (44), der, wenn das erste Merkmal vom Bild erfasst werden kann, eine Zielhaltung des Roboters auf der Basis der berechneten Haltung des ersten Merkmals und der gespeicherten ersten Haltungsbeziehung berechnet, und, wenn das erste Merkmal nicht vom Bild erfasst werden kann und das zweite Merkmal vom Bild erfasst werden kann, eine Zielhaltung des Roboters auf der Basis der berechneten Haltung des zweiten Merkmals und der gespeicherten ersten Haltungsbeziehung berechnet.
  3. Robotersystem nach Anspruch 2, wobei die Speichereinheit (33) ferner eine zweite Haltungsbeziehung zwischen der Haltung des ersten Merkmals und der Haltung des zweiten Merkmals speichert, und der Zielhaltung-Berechnungsabschnitt (44), wenn das erste Merkmal nicht vom Bild erfasst werden kann und das zweite Merkmal vom Bild erfasst werden kann, die Haltung des ersten Merkmals auf der Basis der berechneten Haltung des zweiten Merkmals und der gespeicherten zweiten Haltungsbeziehung berechnet, und eine Zielhaltung des Roboters auf der Basis der berechneten Haltung des ersten Merkmals und der gespeicherten ersten Haltungsbeziehung berechnet.
  4. Robotersystem nach Anspruch 1, ferner umfassend einen zweiten Positionsbeziehung-Berechnungsabschnitt (45), der die zweite Haltungsbeziehung berechnet und die zweite Haltungsbeziehung in der Speichereinheit (32) vorab speichert.
  5. Robotersystem nach Anspruch 3, ferner umfassend einen zweiten Haltungsbeziehung-Berechnungsabschnitt (46), der die zweite Haltungsbeziehung berechnet und die zweite Haltungsbeziehung in der Speichereinheit (33) vorab speichert.
  6. Robotersystem nach einem der Ansprüche 1 bis 5, wobei der Roboter eine Hand (14) umfassend einen Vakuumgreifer oder einen Magnetkraftgreifer umfasst.
  7. Robotersystem nach einem der Ansprüche 1 bis 6, wobei der Roboter eine Hand (14) umfassend Fingerglieder umfasst.
  8. Robotersystem nach einem der Ansprüche 1 bis 7, wobei das Robotersteuergerät (12) das Anlernen des Roboters durch Bildverarbeitung korrigiert.
  9. Robotersystem nach einem der Ansprüche 1 bis 8, ferner umfassend eine Bildverarbeitungsvorrichtung (50), die drahtgebunden oder drahtlos mit dem Robotersteuergerät kommunizierend verbunden ist, wobei die Bildverarbeitungsvorrichtung das Anlernen des Roboters durch Bildverarbeitung korrigiert.
DE102019001969.5A 2018-03-27 2019-03-20 Robotersystem zum Korrigieren des Anlernens eines Roboters durch Bildverarbeitung Active DE102019001969B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-060088 2018-03-27
JP2018060088A JP6777670B2 (ja) 2018-03-27 2018-03-27 画像処理を利用してロボットの教示を補正するロボットシステム

Publications (2)

Publication Number Publication Date
DE102019001969A1 DE102019001969A1 (de) 2019-10-02
DE102019001969B4 true DE102019001969B4 (de) 2022-07-28

Family

ID=67910126

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019001969.5A Active DE102019001969B4 (de) 2018-03-27 2019-03-20 Robotersystem zum Korrigieren des Anlernens eines Roboters durch Bildverarbeitung

Country Status (4)

Country Link
US (1) US11376732B2 (de)
JP (1) JP6777670B2 (de)
CN (1) CN110303474B (de)
DE (1) DE102019001969B4 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4094135A4 (de) * 2020-01-22 2023-09-20 Abb Schweiz Ag System und verfahren zur steuerung eines roboters, elektronisches gerät und computerlesbares medium
US20220288782A1 (en) * 2021-03-10 2022-09-15 X Development Llc Controlling multiple simulated robots with a single robot controller
JP7054036B1 (ja) * 2021-07-09 2022-04-13 株式会社不二越 ロボットビジョンシステム
DE102022200461A1 (de) 2022-01-17 2023-07-20 Volkswagen Aktiengesellschaft Verfahren und Robotersystem zum Bearbeiten eines Werkstücks sowie Koordinatensystemmarker für ein Robotersystem

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771808B1 (en) 2000-12-15 2004-08-03 Cognex Corporation System and method for registering patterns transformed in six degrees of freedom using machine vision
EP2227356A1 (de) 2007-12-27 2010-09-15 Leica Geosystems AG Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
JP2015112654A (ja) 2013-12-10 2015-06-22 セイコーエプソン株式会社 制御装置、ロボット、教示データ生成方法及びロボットシステム
EP2993002A1 (de) 2014-09-03 2016-03-09 Canon Kabushiki Kaisha Robotervorrichtung und verfahren für eine robotersteuerungsvorrichtung
DE112011101730B4 (de) 2010-05-14 2016-03-17 Cognex Corporation System und Verfahren zur robusten Kalibrierung zwischen einem Bildverarbeitungssystem und einem Roboter
DE102015015094A1 (de) 2014-11-28 2016-06-02 Fanuc Corporation Kooperationssystem mit Werkzeugmaschine und Roboter
US20170109856A1 (en) 2015-10-16 2017-04-20 Seiko Epson Corporation Image Processing Device, Robot, Robot System, and Marker

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0716900B2 (ja) * 1986-10-23 1995-03-01 株式会社日立製作所 ロボットへの動作自動教示方法
JPH02276725A (ja) * 1989-04-13 1990-11-13 Toshiba Corp ロボットの教示方法
JP2765181B2 (ja) * 1990-04-24 1998-06-11 神鋼電機株式会社 移動ワーク用視覚装置およびワーク姿勢判別装置
JPH1076489A (ja) * 1996-09-02 1998-03-24 Nippon Telegr & Teleph Corp <Ntt> ロボットアーム教示方法及び装置
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
JP2006224291A (ja) * 2005-01-19 2006-08-31 Yaskawa Electric Corp ロボットシステム
JP6052871B2 (ja) * 2012-11-30 2016-12-27 国立大学法人横浜国立大学 対象物移動装置、方法、プログラム、及び記録媒体
JP6126183B2 (ja) * 2015-10-05 2017-05-10 ファナック株式会社 ターゲットマークを撮像するカメラを備えたロボットシステム
JP2018017610A (ja) * 2016-07-28 2018-02-01 セイコーエプソン株式会社 三次元計測装置、ロボット、ロボット制御装置、及びロボットシステム
JP6514156B2 (ja) * 2016-08-17 2019-05-15 ファナック株式会社 ロボット制御装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771808B1 (en) 2000-12-15 2004-08-03 Cognex Corporation System and method for registering patterns transformed in six degrees of freedom using machine vision
EP2227356A1 (de) 2007-12-27 2010-09-15 Leica Geosystems AG Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
DE112011101730B4 (de) 2010-05-14 2016-03-17 Cognex Corporation System und Verfahren zur robusten Kalibrierung zwischen einem Bildverarbeitungssystem und einem Roboter
JP2015112654A (ja) 2013-12-10 2015-06-22 セイコーエプソン株式会社 制御装置、ロボット、教示データ生成方法及びロボットシステム
EP2993002A1 (de) 2014-09-03 2016-03-09 Canon Kabushiki Kaisha Robotervorrichtung und verfahren für eine robotersteuerungsvorrichtung
DE102015015094A1 (de) 2014-11-28 2016-06-02 Fanuc Corporation Kooperationssystem mit Werkzeugmaschine und Roboter
US20170109856A1 (en) 2015-10-16 2017-04-20 Seiko Epson Corporation Image Processing Device, Robot, Robot System, and Marker

Also Published As

Publication number Publication date
US11376732B2 (en) 2022-07-05
US20190299403A1 (en) 2019-10-03
JP6777670B2 (ja) 2020-10-28
CN110303474B (zh) 2023-05-23
JP2019171497A (ja) 2019-10-10
CN110303474A (zh) 2019-10-08
DE102019001969A1 (de) 2019-10-02

Similar Documents

Publication Publication Date Title
DE102019001969B4 (de) Robotersystem zum Korrigieren des Anlernens eines Roboters durch Bildverarbeitung
DE102017128652B4 (de) Robotersystem mit einer mehrzahl von robotern, robotersteuerung und robotersteuerverfahren
DE102017003000B4 (de) Mit Menschen kooperierendes Robotersystem
DE102015001527B4 (de) Robotersystem, das visuelle Rückmeldung verwendet
DE102017117928B4 (de) Robotersteuereinheit für einen Montageroboter
DE102019108787B4 (de) Handsteuerungsvorrichtung und Handsteuerungssystem
DE102018116053B4 (de) Robotersystem und Roboterlernverfahren
DE102015000587B4 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
DE102016009438A1 (de) Robotersystem mit Sichtsensor und einer Vielzahl von Robotern
DE102017000063B4 (de) Robotereinrichtung mit Lernfunktion
EP3020516B1 (de) Bestimmen von objektbezogenen greifräumen mittels eines roboters
DE102016122678B4 (de) Werkstückpositions-/-Stellungsberechnungssystem und Handhabungssystem
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE102015000589A1 (de) Datenerzeugungsvorrichtung für einen visuellen Sensor und ein Erfassungssimulationssystem
DE102016013731A1 (de) Robotersystem mit Funktionen zum Vereinfachen von Lehrvorgängen und Verbessern der Betriebsleistung durch Lernen
DE102016002340A1 (de) Robotersystem mit einem Roboter, der synchron mit einer Biegemaschine betrieben wird
DE102018111370B4 (de) Werkstückaufnahmesystem
DE102018001026A1 (de) Robotersystem mit einer lernenden steuerungsfunktion und lernendes steuerungsverfahren
WO2020225229A1 (de) Maschinelles lernen einer objekterkennung mithilfe einer robotergeführten kamera
DE102021103726B4 (de) Messparameter-Optimierungsverfahren und -vorrichtung sowie Computersteuerprogramm
DE102020124356A1 (de) Steuerung einer Robotervorrichtung zum Einstellen der Position eines vom Roboter gestützten Gegenstandes
DE102021205324A1 (de) Greifverfahren und Greifvorrichtung eines Industrieroboters, Computerspeichermedium und Industrieroboter
DE102020210240A1 (de) Robotersteuerung
DE102022213568B3 (de) Kalibrieren einer Steuerung
DE112020006594B4 (de) Maschinenlernverfahren und Robotersystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final