DE112019005484T5 - Automatische Kalibrierung für ein Kamera-Robotersystem mit Werkzeugoffsets - Google Patents

Automatische Kalibrierung für ein Kamera-Robotersystem mit Werkzeugoffsets Download PDF

Info

Publication number
DE112019005484T5
DE112019005484T5 DE112019005484.8T DE112019005484T DE112019005484T5 DE 112019005484 T5 DE112019005484 T5 DE 112019005484T5 DE 112019005484 T DE112019005484 T DE 112019005484T DE 112019005484 T5 DE112019005484 T5 DE 112019005484T5
Authority
DE
Germany
Prior art keywords
robot
camera
equation
calibration
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019005484.8T
Other languages
English (en)
Inventor
Parag Patre
Solanki Swapnilsinh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TE Connectivity Services GmbH
Original Assignee
TE Connectivity Services GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TE Connectivity Services GmbH filed Critical TE Connectivity Services GmbH
Publication of DE112019005484T5 publication Critical patent/DE112019005484T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39016Simultaneous calibration of manipulator and camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)

Abstract

Es wird ein Verfahren zur automatischen Kalibrierung eines Kamera-Robotersystems mit Werkzeugoffsets bereitgestellt.

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft Kamera-Robotersysteme. Insbesondere ist die Erfindung auf das Kalibrieren von Vision-basierten Leitsystemen gerichtet.
  • Hintergrund der Erfindung
  • Vision-basierte Leitsysteme oder Kamera-Robotersysteme werden häufig in der Industrie verwendet. Die Kamera fungiert als Sensor für den Roboter und „sieht“ die Objekte von Interesse. Allerdings sind diese vom Vision-System detektierten Objektpositionen in Kamera-Pixel-Koordinaten, die den Roboterkoordinaten zugeordnet werden müssen, sodass er Befehle wie das Bestücken ausführen kann. Dieser Prozess des Zuordnens der Kamera-Pixel-Koordinaten zu Roboterkoordinaten (in Wirklichkeit Millimeter) wird häufig als Hand-Auge Kalibration oder Kamera-Roboter Kalibration bezeichnet.
  • Darüberhinaus, wie in 1 gezeigt, gibt es für einen Roboter vom Typ SCARA (Selective Compliance Assembly Roboter Arm oder Selective Compliance Articulated Roboter Arm; „SCARA“) oder Menschenarm-Roboter 10, der ein am Roboter befestigtes Greifwerkzeug 12 aufweist, gewöhnlich einen X, Y Offset 14 (der Offset ist zu Veranschaulichungszwecken übertrieben) zwischen einem Werkzeugzentrum 16 des Werkzeugs 12 und der Mittellinie der Z-Achse 18 des Roboters. Um den Roboter präzise zu positionieren, muss dieser Werkzeugoffset auch gemessen und durch den Robotercontroller in die inverse Kinematik des Roboters aufgenommen werden. Beide dieser Prozesse (Kalibration und Werkzeugoffsetmessung) werden für gewöhnlich unter Verwendung manueller Beobachtung durchgeführt, was das Vorrücken oder Bewegen des Roboters zu bekannten Referenzpunkten und das mit den Augen so präzise wie mögliche Justieren umfasst. In Abhängigkeit von der Anzahl von Messungen, die durchgeführt werden müssen, kann dieser manuelle Prozess bei einem geschulten Bediener etwa 60 bis 100 Minuten dauern. Die manuellen Beobachtungen können Fehler in die Kalibrierung einführen und bestenfalls wird eine Lagegenauigkeit von +/- 0.2 mm erreicht, und es gibt keine Kenntnis über die Verteilung von Kalibrierungsfehlern über die Arbeitsfläche des Roboters. Andere Fehlerquellen sind unbekannte Offsets im Werkzeugmittelpunkt, d.h. dem Punkt, in Bezug auf welchen jegliche Roboter-Positionierung definiert ist, die aufgrund mechanischer Toleranzen im Design der Roboter-Greifelemente bestehen.
  • Im Stand der Technik besteht Bedarf an Verbesserungen von Kamera-Robotersystemen, welche diese Nachteile minimieren.
  • Zusammenfassung der Erfindung
  • Eine Aufgabe ist es einen automatischen Kalibrierungsprozess bereitzustellen, um die Kamerapixel den Roboterkoordinaten zuzuordnen, als auch die unbekannten Werkzeugoffsets zu berechnen.
  • Andere Merkmale und Vorteile der vorliegenden Erfindung werden von der folgenden, detaillierteren Beschreibung bevorzugter Ausgestaltungen in Verbindung mit den beigefügten Zeichnungen, die rein beispielhaft die Prinzipien der Erfindung illustrieren, ersichtlich.
  • Figurenliste
    • 1 zeigt eine Ansicht eines Roboterarms des Standes der Technik, der ein angebrachtes Werkzeug umfasst.
    • 2 zeigt eine obere perspektivische Ansicht eines beispielhaften Werkzeugs, welches sich vorbereitet ein beispielhaftes Kalibriertarget zu greifen.
    • 3 zeigt einen Querschnitt des Werkzeugs/Kalibriertargets entlang der Linie 3-3 der 2.
    • 4 s zeigt eine Draufsicht eines beispielhaften Werkzeugs, welches sich vorbereitet ein beispielhaftes Kalibriertarget zu greifen.
    • 5 zeigt eine beispielhafte Anordnung von Kalibriertarget-Messpunkten für den Kalibrierungsvorgang.
    • 6-8 zeigen sequenzielle Schritte im Vorgang der Kalibrierung eines Kamera-Robotersystems mit Werkzeugoffsets.
    • 9 zeigt ein beispielhaftes mit einer Kamera aufgenommenes Bild eines Kalibrierungs-Targets.
    • 10 zeigt einen sequenziellen Schritt im Vorgang der Kalibrierung eines Kamera-Robotersystems mit Werkzeugoffsets.
    • 11 zeigt ein Diagramm eines beispielhaften Prozesses der Kalibrierung eines Kamera-Robotersystems mit Werkzeugoffsets.
    • 12 zeigt eine grafische Darstellung von Unterschieden zwischen tatsächlichen und berechneten Roboterkoordinatenwerten. Diese Grafik zeigt X und Y Koordinaten, Einheiten sind in mm.
    • 13 zeigt eine grafische Darstellung von Unterschieden zwischen tatsächlichen und berechneten Roboterkoordinatenwerten zur Bestimmung der Linearität der Werte. Diese Grafik zeigt X und Y Koordinaten, Einheiten sind in mm.
    • 14 zeigt eine Abbildung eines beispielhaften Prozesses der Kalibrierung eines Kamera-Robotersystems mit Werkzeugoffsets.
  • Detaillierte Beschreibung der Erfindung
  • Die Beschreibung der veranschaulichenden Ausgestaltungen gemäß den Prinzipien der vorliegenden Erfindung ist angedacht, in Verbindung mit den beigefügten Zeichnungen, die als Teil der gesamten geschriebenen Beschreibung angesehen werden sollen, gelesen zu werden. In der Beschreibung von Ausgestaltungen der hierin offenbarten Erfindung ist jeglicher Bezug zur Richtung oder Orientierung lediglich der Zweckmäßigkeit halber vorgesehen, und ist nicht dazu vorgesehen, den Schutzumfang der vorliegenden Erfindung in irgendeiner Weise zu limitieren. Relative Begriffe wie „unterer“, „oberer“, „horizontal“, „vertikal“, „über“, „unter“, „hoch“, „runter“, „oberster“ und „unterster“, als auch davon abgeleitete Begriffe (z.B., „horizontal“, „nach unten“, „nach oben“, etc.) sollten derart ausgelegt werden, dass sich diese auf die beschriebene oder in der diskutierten Zeichnung gezeigte Orientierung bezieht. Diese relativen Begriffe sind lediglich zur Vereinfachung der Beschreibung und erfordert nicht, dass die Vorrichtung in einer bestimmten Orientierung konstruiert oder betrieben wird, es sei denn, auf dies wird explizit hingewiesen. Begriffe wie „angebracht“, „angeheftet“, „verbunden“, „gekoppelt“, „verschaltet“ und ähnliche beziehen sich auf eine Beziehung, in welcher Strukturen entweder direkt oder indirekt durch dazwischengeschaltete Strukturen aneinander gesichert oder angebracht sind, ebenso wie auf beide, bewegliche oder feste Befestigungen oder Beziehungen, sofern nicht ausdrücklich anders beschrieben. Darüber hinaus sind die Merkmale und Vorteile der Erfindung mit Bezug zu den bevorzugten Ausgestaltungen veranschaulicht. Entsprechend soll die Erfindung ausdrücklich nicht auf solche bevorzugten Ausgestaltungen beschränkt werden, die einige mögliche nicht limitierende Kombinationen von Merkmalen, die allein oder in anderen Kombination von Merkmalen existieren können, darstellen; der Schutzbereich der Erfindung ist durch die hier beigefügten Ansprüche definiert.
  • Die vorliegende Erfindung umfasst ein Verfahren, bezogen auf 5-11, zur automatischen Kalibrierung von Kamera-Robotersystemen mit Offsets der Werkzeugausstattung am Ende des Roboterarms oder Werkzeugoffsets. Zum Beispiel kalibriert der automatische Kalibrierungs-Prozess für ein Kamera-Robotersystem mit 3 Freiheitsgraden, X und Y Achse und Gieren (Englisch: yaw; Rotationskomponente in der XY Ebene; Rotation um die Z Achse), der automatische Kalibrierungs-Prozess kalibriert die Definition der Roboterwerkzeugspitze X, Y Offsets, und gleicht auch Kamerakoordinaten mit Roboterkoordinaten X, Y und Gieren ab. Für diesen automatischen Kalibrierungs-Prozess ist keine Kenntnis des Werkzeugmittelpunkts („TCP“) notwendig. D.h., dass der TCP einem gewissen X und Y Offset entspricht, und dieser Offset muss nicht bekannt sein. Während das mechanische Design das Werkzeug X, Y dimensioniert, können Offsets aufgrund mechanischer Toleranzen auftreten, diese X, Y Offsets unterscheiden sich von den „Design“-Offsets. Dieser Kalibrierungs-Prozess berechnet automatisch die aktuellen X, Y Offsets.
  • Für die gebräuchlichsten Roboter-Kamera Kalibrierungen wird ein Punkt präzise durch den Bediener angelernt, d.h., dass eine spezielle Passermarke genutzt wird, um einen Werkzeugmittelpunkt mit einer bekannten Position auszurichten, die vom Vision-System gesehen wird. Darauffolgend sind zwei zusätzliche Bedingungen für die konventionelle Kalibrierung notwendig, damit diese funktioniert: 1) der Wert der Pixel pro mm (basierend auf der Auflösung der Kamera), und 2) der Pixel pro mm Wert ist überall im interessierende Bereich konstant. In Wirklichkeit kann selbst nach Kamera-Kalibrierung Objektivverzeichnung vorhanden sein, und/oder der Roboter selbst kann keine linearen Bewegungen aufweisen. Als Ergebnis wird der Wert der Pixel pro Millimeter nicht überall im interessierenden Gebiet eine Konstante Zahl sein und können nicht korrekt funktionieren. Der automatische Kalibrierungs-Prozess der vorliegenden Erfindung muss keine dieser Bedingungen erfüllen.
  • Zusammengefasst ist der vorgeschlagene automatische Kalibrierungs-Prozess am besten für Anwendungen geeignet, die eine präzise Kalibrierung benötigen.
  • Die Ausdrücke „Werkzeugausstattung am Ende des Roboterarms,“ „Werkzeug“, „Greifer“ und ähnliche können austauschbar verwendet werden.
  • Der Ausdruck „Kalibriertarget“ bezieht sich auf ein Teil, welches vom Roboterwerkzeug aufgenommen und an verschiedenen Stellen auf einem Gitter positioniert und dann vom Vision-System detektiert wird. Das Kalibriertarget ist typischerweise kein speziell entworfenes Teil, obwohl es dies auch sein kann. Die einzige Bedingung ist, dass dieses „Kalibriertarget“ eine einzigartige und eindeutige Orientierung haben sollte, wenn es aus einem vorbestimmten Blickwinkel betrachtet wird, wie aus einer Position vertikal über dem Teil. D.h., wenn das Vision-System dieses Teil detektiert, sollte dieses eine gut definierte Orientierung haben. Ein Beispiel ist ein rechteckiges Objekt mit einer abgeschrägten Ecke. Typischerweise ist das Kalibriertarget irgendeines der Teile, für welches das Roboter-Aufnahme- und Platzierungssystem eingesetzt wird. Häufig ist die Werkzeugausstattung am Ende des Roboterarms oder das Werkzeug speziell für dieses Teil entworfen.
  • Der Ausdruck „Kalibriertarget,“ „Kalibrierungsteil,“ „Teil“ und ähnliche können austauschbar verwendet werden.
  • Der Ausdruck „Datenpunkt,“ „Messpunkt,“ „Beobachtungspunkt“ und ähnliche können austauschbar verwendet werden.
  • Der Kalibrierungs-Prozess „nimmt an“, dass das Kalibrierobjekt einwandfrei vom Werkzeug freigegeben wird. Das heißt, wenn sich der Roboter zu einem Punkt oder zu einer Position bewegt und sich der Greifer öffnet, dann, während sich der Greifer öffnet, bewegt sich das Teil nicht und wird am exakten Punkt oder der exakten Position abgelegt. In der Praxis kann dieses „einwandfreie Freigegeben“ durch herabsetzen der Werkzeugklemmkraft, wie durch ein Nachregeln des Luftdrucks (bei pneumatischen Systemen) erreicht werden. Darüber hinaus kann das „einwandfreie Freigegeben“ durch einen gut konzipierten Greifer erreicht werden, der mechanische Zentrierung während des Ergreifens des Teils ermöglicht. Beispielsweise, wie in 2 und 3 gezeigt, umfasst ein Greifer 20 Greiferabschnitte 22, 24 die speziell für Teil 26 konstruiert sind, welches Teil 26 das gleiche ist wie die anderen Teile, die vom Roboter aufgenommen und platziert werden sollen. Wenn es einen vorbestimmten relativen Offset in X, Y und beim Gieren (im Folgenden mit „u“ bezeichnet) gibt, wird das Teil, wenn sich der Greifer in eine geschlossene Position bewegt, zwischen den Spannbacken des Greifers sowohl abgeglichen, als auch zentriert. Daher wird, unabhängig von der Orientierung des Teils bevor es gegriffen wird, die Stellung des Teils immer fixiert, wenn das Teil gegriffen wird. Der Ausdruck „Stellung“ ist als die Position und Orientierung des Teils relativ zu einem Koordinatensystem definiert. In diesem Fall werden die Fixierstifte der Greiferabschnitte 24 mit entsprechenden Merkmalen 28 des Teils 26 in Berührung gebracht, wobei der gegenüberliegende Finger des Greiferabschnitts 22 mit dem ebenen Merkmal 30 des Teils 26 in Berührung gebracht wird, um Stütze bereitzustellen. 2 und 3 stellen einen Fall dar, in welchem der Greifer speziell für Teile konzipiert ist, um Zentrierung bereitzustellen. Allerdings, wenn ein generischer Greifer 32 mit parallelen Spannbacken verwendet werden soll, wie in 4 gezeigt, kann ein spezielles Kalibriertarget 34 entworfen werden. In diesem Fall wird, wenn sich der Greifer in eine geschlossene Position bewegt, das Kalibriertarget immer die gleiche Stellung aufweisen. Das Vision-System wird den Punkt, der einem Werkzeugmittelpunkt („TCP“) entspricht, identifizieren, wie TCP 36 für das entsprechende Teil 26 in 3 und Kalibriertarget 24 in 4.
  • Zur Klarstellung, wie des Weiteren in 1 gezeigt, entspricht die Mittellinien-Z-Achse 18 des Roboters einem „Werkzeug 0“ oder „Standardwerkzeug‟ D.h., dass, wenn Roboterkoordinaten im Standardwerkzeug referenziert sind, diese Koordinaten diesem Punkt entsprechen, und diese Roboterkoordinaten sind immer bekannt, um sie an jedem Raumpunkt durch die Robotersoftware zu nutzen. Dies ist, wo der Roboter denkt zu sein. Das tatsächlich nützliche Werkzeug kann mit einem Offset Tx, Ty (der als unbekannt oder nicht präzise bekannt angenommen wird) befestigt sein und wird als „Werkzeug 1“ bezeichnet. Zusätzlich zu Kalibrierungs-Parametern werden diese unbekannten Werkzeugoffsets auch von diesem Auto-Kalibrierungs-Verfahren oder -Prozess berechnet. Wenn irgendwelche Teile vom Vision-System detektiert werden, dann ist es notwendig, diese Teile unter Nutzung des Werkzeugs 1 aufzugreifen.
  • Zugrundeliegende Mathematik der Auto-Kalibrierung
  • Der Zusammenhang zwischen den Vision-Koordinaten, Roboterkoordinaten und den Werkzeugoffsets ist wie nachfolgend in Gleichung 1 beschrieben Poly ( Cx ,Cy ) = [ Rx ,Ry ] + Rot ( Ru ) [ Tx;Ty ]
    Figure DE112019005484T5_0001
  • Die folgenden Größen sind bekannt:
    • Cx, Cy = Kamera-Pixel-Position entlang der Kamera x, und y Achsen
    • Rx, Ry = Roboter X und Y Koordinaten im Werkzeug (die Mittellinien des Werkzeugflansches oder des Standardwerkzeugs)
    • Ru = Gieren des Roboters (u) in Grad (Werkzeug 0)
  • Die folgenden Größen sind unbekannt:
    • Tx, Ty = unbekannter Werkzeugpunkt-Offset bezogen auf die Mittellinie der Z-Achse.
    • Poly = ist der polynomielle Fit gewünschter Ordnung.
    • Rot(Ru) repräsentiert die Rotationsmatrix um die Z Achse für einen gegebenen Winkel Ru.
  • Der polynomielle Fit ‚Poly‘ kann abhängig von der Natur der Anwendung und den Nichtlinearitäten, die im Manipulator und Sensor vorherrschen, jeder gewünschten Ordnung sein. Typischerweise können Modellordnungen von 1 bis 5 für einen passenden Fit untersucht werden. Ein Polynom der Ordnung 1 in Cx und Cy hat die Form (mx1 * Cx + ny1 * Cy + oo), wo die Koeffizienten m, n, o die zu bestimmenden Unbekannten sind. Die Anzahl an Messungen, die notwendig sind, um die obige Gleichung unter Nutzung der kleinsten Quadrate zu lösen, kann basierend auf der Modellordnung des in Betracht gezogenen polynomiellen Fits berechnet werden. Beispielsweise gibt es für Modellordnung 1 insgesamt 8 Unbekannte, einschließlich der zwei Werkzeugoffset-Parameter. Da jede Messung zwei Gleichungen bereitstellt (eine für X und eine für Y), werden mindestens vier Messungen benötigt.
  • Die obige Gleichung ordnet die X, Y Pixel-Positionen ihren entsprechenden Positionen in den Roboterkoordinaten zu. In vergleichbarer Weise kann die Orientierung des Objektes in den Kamerakoordinaten auf die entsprechende Orientierung in den Roboterkoordinaten bezogen werden.
  • Kalibrierung: Linearer Fall (n=1)
  • Für den ersten Beobachtungs- oder Messpunkt, ( C x 1 C y 1 ) ( R x 1 R y 1 )
    Figure DE112019005484T5_0002
  • Cx1 und Cy1 entsprechen einer Vision-Koordinate im Kameraraum, und Rx1 und Ry1 entsprechen einer Roboterkoordinate an derselben physikalischen Stelle im Werkzeug 0 oder Standardwerkzeug des Roboters, welche bekannte Werte sind. Die Anwendung der Gleichung 1 resultiert in „linearer Fit“ Gleichung 2: [ m 1 C x 1 + n 1 C y 1 + o 1 m 2 C x 1 + n 2 C y 2 + o 2 ] = [ R x 1 R y 1 ] + [ cos u 1     - sin  u 1 sin u 1     cos  u 1 ] [ T x T y ]
    Figure DE112019005484T5_0003
    in welcher die rechte Seite der Gleichung der physikalischen Position des TCP des Roboters entspricht. In Gleichung 2 gibt es acht unbekannte Größen: m1, n1, o1, m2, n2, o2, Tx, Ty. Daher sind für den linearen Fall mindestens vier Beobachtungspunkte nötig, da jede Beobachtung zwei Gleichungen liefert. Die linear gefittete Gleichung 2 wird jetzt als Gleichung 3 wie folgt umgestellt: [ m 1 C x 1 + n 1 C y 1 + o 1 T x cos  u 1 + T y sin  u 1 m 2 C x 1 + n 2 C y 1 + o 2 T y sin  u 1 T x cos  u 1 ] = [ R x 1 R y 1 ]
    Figure DE112019005484T5_0004
  • Die Aufnahme zusätzlicher Beobachtungspunkte und die Trennung derselben in ein Produkt von Matrizen liefert Gleichung 4 C x 1 C y 1 1   0   0 0 cos  u 1 sin  u 1   0   0 0 C x 1 C y 1 1 sin  u 1 cos  u 1 C x n C y n 1   0   0 0 cos  u n sin  u n   0   0 0 C x n C y n 1 sin  u n cos  u n m 1 n 1 0 1 m 2 n 2 0 2 T x t y = R x 1 R y 1 R x 2 R y 2       R x n R y n
    Figure DE112019005484T5_0005
    welche unter Nutzung von Standardalgorithmen der kleinsten Quadrate gelöst werden kann. Wie zuvor dargelegt ist dies lediglich ein linear gefittetes Beispiel. Fit-Gleichungen höherer Ordnung sind in ähnlicher Weise formuliert.
  • Beispielsweise gibt es für den Fit jeder Ordnung bestimmte unbekannte Koeffizienten, sowie die unbekannten Werkzeugoffsets Tx, Ty. Für einen Fit zweiter Ordnung (n = 2) gibt es 14 Unbekannte, einschließlich Tx, Ty. Für die Ordnung n = 3, gibt es 22 unbekannte Variablen. Die Anzahl unbekannter Variablen, die für jede entsprechende Gleichung der Ordnungsnummer („N“) gelöst werden müssen, ist wie folgt: Anzahl der Punkte  = ( N ) 2 + ( 3 N ) + 4
    Figure DE112019005484T5_0006
  • Wobei die Anzahl von Beobachtungs- oder Messpunkten der Anzahl von Variablen dividiert durch 2 gleicht.
  • Ein beispielhaftes Setup für den Kalibrierungs-Prozess
  • 5-10 sind auf einen beispielhaften Aufbau zum Ausüben des Kalibrierungs-Prozessen der vorliegenden Erfindung gerichtet, mit 5-8 und 10, welche Ablaufschritte im Vorgang der Kalibrierung eines Kamera-Robotersystems mit Werkzeugoffsets zeigen. 11 zeigt ein Ablaufdiagramm, welches mit dem Vorgang des Kalibrierungs-Prozesses der vorliegenden Erfindung korrespondiert. Wie in 5 (und Schritt 60 der 11) gezeigt, umfasst ein Aufbau für den Kalibrierungs-Prozess das Aufstellen oder Erzeugen eines Rasters oder eines Arrays 45 von Kalibriertargets 44 an einer Vielzahl von Beobachtungs-, oder Daten-, oder Messpunkten, wie die Messpunkte 48, 52, 54, 56, 58, 60, 62, 64, 66, 68, 70, 72, 74, 76 78. Die Anzahl an zu erfassenden Messpunkten, der Abstand zwischen ihnen (gleichmäßiger Abstand oder ungleichmäßiger Abstand), und auch Bereiche, wo die Messpunkte, wie auf einer Arbeitsoberfläche 42, werden durch einen Bediener während eines „Setup“ Modus' des Roboters definiert oder initial bestimmt. Arbeitsoberfläche 42 ist in 5 als eine im Allgemeinen plane Oberfläche gezeigt, wie in zweidimensionalen, beispielsweise X, Y Koordinaten. D.h., dass Meßpositionen in derselben Ebene sein müssen (feste Z Ebene), gleichwohl sie relativ zueinander ungleichmäßig beabstandet sein können, und sie sich innerhalb des Sichtfeldes der Kamera („FOV“) befinden sollten. Kleinere Abweichungen in Z Koordinaten aufgrund von Oberflächennivellierung, Oberflächengüte, etc. sind zulässig. Wenn dieses Kalibrierung-Verfahren dahingehend erweitert wird, dass eine dreidimensionale („3D“) Kamera verwendet wird, dann können sich die Messpunkte irgendwo im 3D Raum befinden. D.h., wenn 3D Kameras verwendet werden ist die einzige Bedingung für die Messpunkte, dass sich diese innerhalb eines vorbestimmten Bereiches oder Blickfeldes der Kamera 40 (6) befinden müssen
  • Da die Positionierung der Messpunkte lediglich während des Setup Modus' durchgeführt wird, ist es nicht notwendig, dass der Anwender diese im regulären Betrieb erneut definiert, wenn diese Beobachtungs- oder Messpunkte definiert wurden. Die Daten- oder Messpunkte müssen nicht in einem rechteckigen Raster erfasst werden. Wenn ein interessantes Gebiet beispielsweise ein Kreisausschnitt (Kuchen) ist, dann werden Beobachtungen entsprechend erfasst. Die Art, wie Beobachtungen erfasst werden (wo und wie viele) hängt im Allgemeinen ab von: 1) der Form des interessierenden Bereiches, und 2) dem mittleren quadratischen Fehler („RMS“) zwischen den „echten Daten“, welche die tatsächliche Position der Messpunkte in Roboterkoordinaten darstellen, und den Daten, welche vom Fit geschätzt wurden oder durch Berechnung von Werten von der Kalibrierungs-Gleichung, wie untenstehend zusätzlich detailliert beschrieben wird.
  • Wie in 6 gezeigt, umfasst ein Aufbau für den Kalibrierungs-Prozess Roboter 10, der eine Werkzeugausstattung am Ende des Roboterarms oder Werkzeug 12, eine Lichtquelle 38, eine Kamera 40 und eine Arbeitsoberfläche 42 aufweist. 6 zeigt ferner Werkzeug 12, welches das Kalibriertarget 44 von einem Nest 46 aufnimmt. Die Position des Nests 46 ist eine definierte, dem Roboter bekannten Position und muss manuell angelernt werden, um Kalibriertarget 44 an der definierten Position (Schritt 62 der 11) zu positionieren. In einer Ausgestaltung ist das Nest eine definierte Position einer Standard-Werkzeugposition. Der Roboter wird vorgerückt oder bewegt sich zum Nest 46, während der Roboter sich in einem „Anlern“-Modus befindet und der Punkt wird durch den Bediener im Speicher des Kamera-Robotersystems gespeichert. Allerdings ist dieser manuell angelernte Punkt nur approximiert - aber präzise genug, dass, wenn sich der Roboter dahin bewegt, der Gegenstand ordnungsgemäß vom Werkzeug ergriffen wird. An diesem Punkt greift die mechanische Zentrierungseigenschaft des Greifers oder Werkzeugs, wie zuvor erörtert. Obwohl die anfängliche Greifposition des Werkzeugs am Nest approximiert ist, stellt der Greifer oder das Werkzeug sicher, dass sich das Teil beim Greifen relativ zum Werkzeug selbst zentriert. Obwohl das exakte Zentrum des Werkzeugs unbekannt ist, kann der Bediener das Werkzeug mit ausreichender Nähe oder Exaktheit sehen und Positionieren um das Objekt zu greifen, weil das Werkzeug am Roboter angebracht ist. Da der Roboter-Anlern-Modus und selbst-Zentrierung eines Kalibriertargets relativ zum Werkzeug beide denjenigen mit normalen Kenntnissen wohlbekannt sind, wird keine zusätzliche Diskussion bereitgestellt.
  • Wie in 7 (und Schritt 64 der 11) gezeigt ist, bewegt das Werkzeug 12 des Roboters 10 das Kalibriertarget 44 von der definierten Position des Nests 46 zum Messpunkt 48. Messpunkt 48 entspricht Roboterkoordinaten eines Standard-TCP in einem Roboter-Basiskoordinatensystem, welches eine bekannte Position ist.
  • Wenn, wie in 8 gezeigt, das Kalibriertarget 44 am Messpunkt 48 platziert wurde, bewegt sich der Roboter 10 weg vom Kalibriertarget 44. Genauer gesagt bewegt sich der Roboter 10 ausreichend weit weg vom Kalibriertarget 44, sodass Kamera 40, die Teil des Vision-Systems ist, mit von der Lichtquelle 38 bereitgestellter Beleuchtung, ein Bild des Kalibriertargets 44 aufnimmt (Schritt 66 der 11). 9 zeigt ein exemplarisches von der Kamera-aufgenommenes Bild 50 des Kalibriertargets 44. Darüber hinaus detektiert oder identifiziert das Vision-System eine Position des Kalibriertargets 44 in Kamerakoordinaten (auch ein Anteil von Schritt 66 der 11). Die Position identifiziert nicht nur die des Kalibriertargets, aber auch einen Orientierungs-Parameter relativ zur definierten Position, wie zum Beispiel die Winkel-Orientierung, wie Gieren (Rotation um eine Z Achse) wie zuvor erörtert. Es soll verstanden werden, dass in einem 3-D Raum zusätzliche rotatorische Orientierungen wie Rollen und/oder Nicken gemessen werden müssen, welches zusätzliche Messeinrichtung benötigen würde. In diesem Szenario kann ein Robotermanipulator mit 6 oder mehr Freiheitsgraden verwendet werden. Das Betreiben von Vision-Systemen für Roboter ist bekannt und wird hierin nicht weiter erörtert.
  • Sofern die Kamera 40 das Bild aufgenommen hat und die Position des Kalibriertargets 44 identifiziert hat, wie bei 9 erörtert (und Schritt 66 der 11), werden die Roboterkoordinaten und Kamerakoordinaten in einer bekannten Art und Weise in einen Speicher im Kamera-Robotersystem gespeichert (Schritt 68 der 11). Sofern die Koordinaten im Speicher gespeichert sind, wie in 10 gezeigt, bewegt das Werkzeug 12 des Roboters 10 das Kalibriertarget 44 vom Messpunkt 48 zu einem Messpunkt 52. Sofern das Kalibriertarget 44 am Messpunkt 52 platziert wurde, wie in 10 gezeigt, bewegt sich der Roboter 10 vom Kalibriertarget 44 hinweg, das Bild wird aufgenommen und die Position für das Kalibriertarget identifiziert, wie zuvor beschrieben. Somit ist klar, dass das Kalibriertarget 44 dann an jedem verbleibenden Messpunkt des Rasters oder des Arrays, wie in 5 gezeigt, platziert wird, wobei das Vision-System für diese Messpunkte die Bilder aufnimmt und die Position des Kalibriertargets 44 identifiziert. Anders ausgedrückt, nachdem Schritt 68 der 11 durchgeführt wurde, hat das Durchführen von Schritt 70 der 11 zur Folge, dass die Schritte 64, 66 und 68 für jeden verbleibenden Messpunkt wiederholt werden.
  • Sofern alle Roboterkoordinaten und Kamerakoordinaten in einen Speicher gespeichert wurden, wie in Schritt 72 der 11 gezeigt, werden Kalibrierungswerte des Kamera-Roboters und die Werkzeugoffsets gemäß der folgenden Gleichung berechnet: Poly ( Cx ,Cy ) = [ Rx ,Ry ] + Rot ( Ru ) [ Tx;Ty ]
    Figure DE112019005484T5_0007
    wie für die Gleichung erster Ordnung, wie zuvor erörtert.
  • Sofern die Kalibrierungswerte des Kamera-Roboters und die Werkzeugoffsets errechnet wurden, in Schritt 74 der 11, werden die errechneten Werte für die Werkzeugoffsets eingestellt oder in den Roboter eingegeben, und in Schritt 76 der 11, werden die Kalibrierungswerte des Kamera-Roboters im Speicher gespeichert.
  • Der automatische Kalibrierungs-Prozess der vorliegenden Erfindung liefert einige nennenswerte Vorteile über manueller Kalibrierung. Beispielsweise kann ein erfahrener Bediener 180-300 Sekunden benötigen, um das Roboterwerkzeug manuell zu positionieren, verglichen mit 2-3 Sekunden mit dem automatischen Kalibrierungs-Prozess. Dies entspricht einer Verbesserung im Zeitfaktor von 100-mal. Auf ähnliche Weise ist die Präzision manueller Arbeitsschritte eines erfahrenen Bedieners auf +/-0.2 mm beschränkt, im Gegensatz zu +/-0.05 mm mit dem automatischen Kalibrierungs-Verfahren. Dies entspricht einer Verbesserung der Präzision um den Faktor von etwa 4. Der Kalibrierungsfehler von +/- 0.05mm wird erreicht, wenn die Reproduzierbarkeit des Roboters +/-0.01 mm beträgt und eine 5 Megapixel („MP“) Kamera verwendet wird. Zusätzlich werden erfahrene Bediener für manuelle Kalibrierung benötigt, während nur Tastenbedienung im automatischen Kalibrierungs-Prozess benötigt wird.
  • Um sicherzustellen, dass die verbesserte Präzision des automatischen Kalibrierungs-Prozesses erreicht wird, werden, wie in 12 gezeigt, aktuelle Daten, d.h. die Roboterkoordinaten mit berechneten Daten, d.h. berechneten Koordinaten, die, wie zuvor erörtert, aus der Kalibrierungsgleichung erhalten wurden, verglichen. Darüber hinaus ist es bevorzugt, dass die Linearität der aktuellen Daten mit den berechneten Daten verglichen wird. Tritt eine Nichtlinearität auf, so ist es notwendig, mehr Daten oder Messpunkte aufzunehmen und die Kalibrierungsgleichung zu lösen, um die zusätzlichen Messpunkte zu integrieren. Eine Fehlerverteilung zwischen berechneten Daten und aktuellen Daten ist in 13 für ein beispielhafter XY-Graph für einen nichtlinearen Fit gezeigt.
  • Linearität, Nichtlinearität oder der Bedarf an zusätzlichen Messpunkten kann wie folgt festgestellt werden:
    • Für den X,Y Graphen, der Kalibrierungsfehler für einen linearen Fit aufweist (zum Beispiel, 12), kann geschlussfolgert werden, dass, wenn alle dargestellten Punkte der aktuellen Daten und der berechneten Daten im Allgemeinen gleich nah aneinander liegen, und sich auch der RMS Kalibrierungsfehler innerhalb des „akzeptablen“ Bereiches befindet, ein linearer Fit ausreichend für die Anwendung ist. „Akzeptabler“ Fehlerbereich hängt von der Anwendung ab, wie zum Beispiel, typischerweise unter 0,2 mm. Allerdings, sollte festgestellt werden, dass eine oder mehrere der Beobachtungspunkte verglichen mit dem Rest der Punkte des Graphen eine größere Abweichung zwischen aktuellen Daten und berechneten Daten aufweist, wobei auch der Kalibrierungsfehler über einem akzeptablen Bereich liegt, so deutet dies auf Nichtlinearität entweder im Roboter oder in der Kamera hin. Sofern eine Abweichung, die größer als die anderen ist, in wenigen der Punkte beobachtet wird, aber sich der Kalibrierungs-RMS- Fehler noch innerhalb des akzeptablen Bereiches befindet, so kann noch immer ein linearer Fit verwendet werden.
  • Von obigem, sollte festgestellt werden, dass ein Fit höherer Ordnung notwendig ist (Modellordnung 2 oder höher), dann können Graphen ähnlich jenem in 12 für Fits höherer Ordnungen beobachtet werden. Erneut können alle Datenpunkte dahingehend überprüft werden, ob diese relativ gleich nah beieinanderliegen, wenn aktuelle und berechtigte Daten verglichen werden. Ist dies nicht der Fall, so können sogar Fit-Gleichungen höherer Ordnungen gewählt werden, bis die aktuellen und berechneten Daten zueinander „passen“.
  • Wie in 14, die ähnlich zu 12 ist, gezeigt ist, umfasst Schritt 72A das Berechnen von Kamera-Roboter-Kalibrierungswerten in Werkzeugoffsets für zahlreiche Ordnungen N der Gleichung, wie zum Beispiel 1-5, oder bis hin zur N-ten Ordnung, für welche eine ausreichende Anzahl an Beobachtungs- oder Messpunkten aufgenommen wurde. Beispielsweise, wie oben erwähnt, werden für eine erste Ordnung der Gleichung mindestens 4 Daten- oder Messpunkte benötigt, bevorzugt mehr. In Schritt 74 der 14 werden die Unterschiede zwischen aktuellen und berechneten Werten für jede Ordnung der Gleichung verglichen, und in Schritt 76 der 14, die Lösungsgleichung der Gleichung jener Ordnung, welche die geringsten Unterschiede zwischen den aktuellen Werten und den berechneten Werten in Roboterkoordinaten aufweist, wird ausgewählt. In Schritt 78 der 14 werden die Werte der Lösungsgleichung der ausgewählten Gleichungsordnung im Speicher gespeichert. In einer Ausgestaltung werden in Schritt 74 lediglich die Unterschiede zwischen den aktuellen und berechneten Werten für die Gleichung erster Ordnung verglichen, und wenn die Unterschiede geringer sind als eine vorbestimmte Zahl, so wird die Lösungsgleichung der Gleichung erster Ordnung verwendet und im Speicher gespeichert, ohne weitere Berechnung anderer Ordnungen der Gleichung. In einer Ausgestaltung werden in Schritt 74 lediglich die Unterschiede zwischen den aktuellen und berechneten Werten für die Gleichung ersten und zweiten Grades verglichen, und in Schritt 76 die Lösungsgleichung der Gleichung erster Ordnung oder der Gleichung zweiter Ordnung, je nachdem, welche von beiden die geringeren Unterschiede aufweist, und in Schritt 78 die Werte der Lösungsgleichung der Gleichung ausgewählter Ordnung im Speicher gespeichert. In einer Ausgestaltung, wenn die Lösung von mehr als einer Ordnung der Gleichung Unterschiede zwischen den aktuellen und errechneten Werten liefern, die geringer sind als ein vorbestimmter Wert, so ist die ausgewählte Gleichungsordnung diejenige, welche die geringste Zahl aufweist
  • Obwohl die Erfindung mit Bezug zu einer bevorzugten Ausgestaltung beschrieben wurde, so ist dem Fachmann ersichtlich, dass verschiedene Änderungen durchgeführt werden können und Äquivalente können durch Elemente davon substituiert werden, ohne vom Geist und Umfang der Erfindung, wie in den beigefügten Ansprüchen definiert, abzuweichen.
  • Insbesondere wird es für den Fachmann klar sein, dass die vorliegende Erfindung in anderen spezifischen Formen, Strukturen, Anordnungen, Proportionen, Größen und mit anderen Elementen, Materialien und Komponenten ausgestaltet sein kann, ohne vom Geist oder essenziellen Eigenschaften davon abzuweichen. Ein Fachmann wird erkennen, dass die Erfindung mit vielen Modifikationen der Struktur, der Anordnung, der Proportionen, der Größen, des Materials und Komponenten und andere verwendet werden kann, die in der Praxis der Erfindung verwendet werden, die insbesondere an spezifische Umgebungen und Betriebsbedingungen angepasst sind, ohne vom Prinzip der vorliegenden Erfindung abzuweichen. Die derzeitig offenbarten Ausgestaltungen sind daher in jeder Hinsicht als illustrativ und nicht restriktiv anzusehen, der Umfang der Erfindung wird durch die beigefügten Ansprüche definiert und ist nicht auf die vorangestellte Beschreibung oder Ausgestaltungen reduziert.

Claims (9)

  1. Verfahren zur automatischen Kalibrierung eines Kamera-Robotersystems mit Werkzeugoffsets, umfassend: Erzeugen eines Arrays mit einer Vielzahl von Messpunkten zum Sammeln von Beobachtungen in einem Arbeitsbereich des Roboters und in einem vorbestimmten Bereich einer Kamera; Positionieren eines Kalibriertargets an einer definierten Position; Bewegen des Kalibriertargets durch einen Roboter von der definierten Position zu einem ersten Messpunkt, der erste Messpunkt entspricht ersten Roboterkoordinaten eines Standard-Werkzeugmittelpunktes in einem Basiskoordinatensystem des Roboters; Aufnehmen eines Bildes des Kalibriertargets durch eine Kamera und Identifizieren einer Position des Kalibriertargets am ersten Messpunkt, die Position am ersten Messpunkt entspricht ersten Kamerakoordinaten; Speichern der ersten Roboterkoordinaten und der ersten Kamerakoordinaten des Kalibriertargets in einem Speicher; Bewegen des Kalibriertargets durch den Roboter vom ersten Messpunkt zum zweiten Messpunkt, der zweite Messpunkt entspricht zweiten Roboterkoordinaten des Standard-Werkzeugmittelpunkts im Basiskoordinatensystem des Roboters; Aufnehmen eines Bilds des Kalibriertargets durch die Kamera und Identifizieren einer Position des Kalibriertargets am zweiten Messpunkt, die Position am zweiten Messpunkt entspricht zweiten Kamerakoordinaten; Speichern der zweiten Roboterkoordinaten und der zweiten Kamerakoordinaten des Kalibriertargets im Speicher; Wiederholen des Bewegens des Kalibriertargets durch den Roboter zu jedem der verbleibenden Messpunkte der Vielzahl von Messpunkten, Aufnehmen des Bildes des Kalibriertargets an jedem verbleibenden Messpunkt und Identifizieren einer Position des Kalibriertargets, die jedem verbleibenden Messpunkt entspricht, und Speichern der entsprechenden Roboterkoordinaten und Kamerakoordinaten im Speicher; Berechnen von Kamera-Roboter-Kalibrierungswerten und den Werkzeugoffsets gemäß der folgenden Gleichung: Poly ( Cx ,Cy ) = [ Rx;Ry ] + Rot ( Ru ) * [ Tx ,Ty ] ;
    Figure DE112019005484T5_0008
    Einstellen der berechneten Werkzeugoffsets; und Speichern der Kamera-Roboter-Kalibrierungswerte im Speicher.
  2. Das Verfahren nach Anspruch 1, wobei das Positionieren eines Kalibriertargets an einer definierten Position das Bewegen des Kalibriertargets durch den Roboter von einer definierten Position in eine Standard-Werkzeugposition umfasst.
  3. Das Verfahren nach Anspruch 1, wobei das Erzeugen eines Arrays das Erzeugen eines gleichmäßigen Arrays umfasst.
  4. Das Verfahren nach Anspruch 1, wobei das Erzeugen eines Arrays das Erzeugen eines ungleichmäßigen Arrays umfasst.
  5. Das Verfahren nach Anspruch 1, wobei das Identifizieren einer Position des Kalibriertargets an jedem Messpunkt das Identifizieren eines Orientierungsparameters relativ zur definierten Position umfasst.
  6. Das Verfahren nach Anspruch 1, wobei nachfolgend an das Berechnen der Werkzeugoffsets, das Verfahren ferner umfasst: Vergleichen von Unterschieden zwischen aktuellen Werten und berechneten Werten der Roboterkoordinaten für die wenigstens zwei unterschiedlichen Ordnungen der Gleichung; und Auswählen einer Lösungsgleichung der Gleichungsordnung, welche die geringeren Unterschiede zwischen den aktuellen Werten und den berechneten Werten der Roboterkoordinaten aufweist.
  7. Das Verfahren nach Anspruch 1, wobei das Berechnen der Werkzeugoffsets das Berechnen der Werkzeugoffsets und der Kamera-Roboter-Kalibrierungswerte einer ersten Ordnung der Gleichung umfasst und ferner umfasst: Vergleichen von Unterschieden zwischen aktuellen Werten und berechneten Werten der Roboterkoordinaten für die erste Ordnung der Gleichung; und Speichern der Kamera-Roboter-Kalibrierungswerte der ersten Ordnung der Gleichung im Speicher, sofern die Unterschiede innerhalb eines vorausgewählten Bereiches liegen.
  8. Das Verfahren nach Anspruch 1, wobei nachfolgend an das Berechnen der Werkzeugoffsets, das Verfahren ferner umfasst: Vergleichen von Unterschieden zwischen aktuellen Werten und berechneten Werten der Roboterkoordinaten für die erste Ordnung der Gleichung mit einem vorausgewählten Bereich; Berechnen der Werkzeugoffsets und der Kamera-Roboter-Kalibrierungswerte einer zweiten Ordnung der Gleichung, sofern die Unterschiede für die erste Ordnung der Gleichung nicht innerhalb des vorausgewählten Bereichs liegen; Vergleichen von Unterschieden zwischen aktuellen Werten und berechneten Werten der Roboterkoordinaten für die zweite Ordnung der Gleichung mit dem vorausgewählten Bereich; Speichern der Kamera-Roboter-Kalibrierungswerte der zweiten Ordnung der Gleichung im Speicher, sofern die Unterschiede innerhalb des vorausgewählten Bereiches liegen.
  9. Das Verfahren nach Anspruch 8, nach dem Speichern im Speicher ferner umfassend: Wiederholen der Schritte des Berechnens/Vergleichens für schrittweise größere Ordnungen der Gleichung bis Unterschiede zwischen den aktuellen Werten und den berechneten Werten der Roboterkoordinaten für die schrittweise größere Ordnung innerhalb des vorausgewählten Bereiches liegen; und Speichern der Kamera-Roboter-Kalibrierungswerte der schrittweisen größeren Ordnung der Gleichung im Speicher.
DE112019005484.8T 2018-11-01 2019-10-31 Automatische Kalibrierung für ein Kamera-Robotersystem mit Werkzeugoffsets Pending DE112019005484T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/178,420 US11065768B2 (en) 2018-11-01 2018-11-01 Automatic calibration for camera-robot system with tool offsets
US16/178,420 2018-11-01
PCT/IB2019/059376 WO2020089839A1 (en) 2018-11-01 2019-10-31 Automatic calibration for camera-robot system with tool offsets

Publications (1)

Publication Number Publication Date
DE112019005484T5 true DE112019005484T5 (de) 2021-08-19

Family

ID=68542673

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019005484.8T Pending DE112019005484T5 (de) 2018-11-01 2019-10-31 Automatische Kalibrierung für ein Kamera-Robotersystem mit Werkzeugoffsets

Country Status (5)

Country Link
US (1) US11065768B2 (de)
JP (1) JP7214861B2 (de)
CN (1) CN113195171B (de)
DE (1) DE112019005484T5 (de)
WO (1) WO2020089839A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11630433B1 (en) * 2017-12-04 2023-04-18 Omax Corporation Calibration for numerically controlled machining
DE102022213568B3 (de) 2022-12-13 2024-02-29 Kuka Deutschland Gmbh Kalibrieren einer Steuerung

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11072074B2 (en) * 2017-12-13 2021-07-27 Cognex Corporation Calibration and operation of vision-based manipulation systems
CN114147727B (zh) * 2022-02-07 2022-05-20 杭州灵西机器人智能科技有限公司 一种机器人位姿校正的方法、装置和系统
CN115194773B (zh) * 2022-08-22 2024-01-05 苏州佳祺仕科技股份有限公司 一种视觉引导组装方法及装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002307346A (ja) * 2001-04-18 2002-10-23 Mitsubishi Electric Corp ロボットの視覚座標校正方法および装置
US9188973B2 (en) * 2011-07-08 2015-11-17 Restoration Robotics, Inc. Calibration and transformation of a camera system's coordinate system
US20140100694A1 (en) * 2012-10-05 2014-04-10 Beckman Coulter, Inc. System and method for camera-based auto-alignment
EP2981397B1 (de) * 2013-04-05 2017-06-14 ABB Schweiz AG Robotersystem und verfahren zur kalibrierung
CN107073719B (zh) * 2014-11-21 2020-07-28 精工爱普生株式会社 机器人和机器人系统
JP2016221645A (ja) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
US10551821B2 (en) * 2016-06-30 2020-02-04 Seiko Epson Corporation Robot, robot control apparatus and robot system
CN108122257B (zh) 2016-11-28 2021-11-30 沈阳新松机器人自动化股份有限公司 一种机器人手眼标定方法及装置
KR102576842B1 (ko) 2017-01-04 2023-09-12 삼성전자주식회사 핸드-아이 캘리브레이션을 수행하는 로봇 및 전자 장치
JP6527178B2 (ja) * 2017-01-12 2019-06-05 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
WO2018176188A1 (en) * 2017-03-27 2018-10-04 Abb Schweiz Ag Method and apparatus for estimating system error of commissioning tool of industrial robot
CN107053216A (zh) * 2017-04-25 2017-08-18 苏州蓝斯视觉系统股份有限公司 机器人和末端执行器的自动标定方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11630433B1 (en) * 2017-12-04 2023-04-18 Omax Corporation Calibration for numerically controlled machining
DE102022213568B3 (de) 2022-12-13 2024-02-29 Kuka Deutschland Gmbh Kalibrieren einer Steuerung

Also Published As

Publication number Publication date
CN113195171B (zh) 2024-03-08
CN113195171A (zh) 2021-07-30
US20200139550A1 (en) 2020-05-07
JP2022506099A (ja) 2022-01-17
US11065768B2 (en) 2021-07-20
JP7214861B2 (ja) 2023-01-30
WO2020089839A1 (en) 2020-05-07

Similar Documents

Publication Publication Date Title
DE112019005484T5 (de) Automatische Kalibrierung für ein Kamera-Robotersystem mit Werkzeugoffsets
DE102009034529B4 (de) Automatisches Führungs- und Erkennungssystem sowie Verfahren für dieses
DE102015001527B4 (de) Robotersystem, das visuelle Rückmeldung verwendet
DE102010032840B4 (de) Vorrichtung und Verfahren zum Messen der Position eines Werkzeugmittelpunktes eines Roboters
DE102018009815B4 (de) Bildgebungsvorrichtung umfassend einen Sichtsensor zum Erfassen des Bildes eines Werkstücks
DE102016114337B4 (de) System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus
DE102018112820B4 (de) Teach-Positionskorrekturvorrichtung und Teach-Positionskorrekturverfahren
EP2227356B1 (de) Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
DE602005003147T2 (de) Messsystem
DE102013021917B4 (de) Robotersystemanzeigevorrichtung
DE112011101730B4 (de) System und Verfahren zur robusten Kalibrierung zwischen einem Bildverarbeitungssystem und einem Roboter
DE102013018222A1 (de) Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts
DE102018007287B4 (de) Roboter-Controller zum Durchführen einer Kalibrierung, Messsystem und Kalibrierverfahren
DE102018202322A1 (de) Robotersystem, Robotersteuervorrichtung und Robotersteuerverfahren
DE10351669B4 (de) Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt
DE102015104582A1 (de) Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
DE69933947T2 (de) Verfahren zur zellausrichtung und identifizierung und kalibrierung eines roboterwerkzeugs
DE102021209178A1 (de) Verfahren und Vorrichtung zum Bestimmen von Relativposen und zur Kalibrierung bei einem Koordinatenmessgerät oder Roboter
EP3441200A1 (de) Referenzierverfahren und vorrichtung für industrieroboter
DE102006005990B4 (de) Werkstückvermessung für 3-D Lageerkennung in mehreren Multi-Roboter-Stationen
DE102015104587B4 (de) Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
DE102007058293A1 (de) Kalibriervorrichtung und Verfahren zum Abgleichen eines Roboterkoordinatensystems
EP1471401B1 (de) Verfahren zur Einmessung des Koordinatensystems einer Kamera eines Roboters gegenüber dem Koordinatensystem des Roboters oder umgekehrt
DE102014100538B4 (de) Verfahren zum Kalibrieren eines Roboters und einer Kamera und System zum Durchführen des Verfahrens
DE102017107593B4 (de) Verfahren zum Bestimmen unbekannter Transformationen