DE102016114337B4 - System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus - Google Patents

System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus Download PDF

Info

Publication number
DE102016114337B4
DE102016114337B4 DE102016114337.5A DE102016114337A DE102016114337B4 DE 102016114337 B4 DE102016114337 B4 DE 102016114337B4 DE 102016114337 A DE102016114337 A DE 102016114337A DE 102016114337 B4 DE102016114337 B4 DE 102016114337B4
Authority
DE
Germany
Prior art keywords
workpiece
image
features
coordinate space
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016114337.5A
Other languages
English (en)
Other versions
DE102016114337A1 (de
Inventor
Guruprasad Shivaram
Cyril C. Marrion Jr.
Lifeng LIU
Tuotuo LI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cognex Corp
Original Assignee
Cognex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cognex Corp filed Critical Cognex Corp
Publication of DE102016114337A1 publication Critical patent/DE102016114337A1/de
Application granted granted Critical
Publication of DE102016114337B4 publication Critical patent/DE102016114337B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39039Two cameras detect same reference on workpiece to define its position in space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Control Of Position Or Direction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Verfahren zum Kalibrieren eines Sehsystems in einer Umgebung, in welcher ein erstes Werkstück (124) auf einer ersten Position (122) durch einen Manipulator (120) auf eine zweite Position (110) überführt wird, wobei eine an dem ersten Werkstück (124) durchgeführte Operation auf dem Verknüpfen von Koordinatenräumen (135, 137) der ersten Position (122) und der zweiten Position (110) beruht, wobei das Verfahren die folgenden Schritte umfasst:
- Anordnen mindestens einer Sehsystemkamera (140, 142, 144) zum Abbilden des ersten Werkstückes (124), wenn es auf der ersten Position (122) positioniert wird, und zum Abbilden des ersten Werkstücks (124), wenn es auf der zweiten Position (110) positioniert wird;
- Kalibrieren mindestens einer Sehsystemkamera (140, 142, 144) in Bezug auf die erste Position (122), um erste Kalibrierdaten abzuleiten, welche einen ersten Koordinatenraum (135) definieren, und mindestens einer Sehsystemkamera (140, 142, 144) in Bezug auf die zweite Position (110), um zweite Kalibrierdaten abzuleiten, welche einen zweiten Koordinatenraum (137) definieren;
- Identifizieren von Merkmalen von mindestens dem ersten Werkstück (124) an der ersten Position (122) ausgehend von einem ersten Bild des ersten Werkstückes (124);
- Verorten des ersten Werkstückes (124) in Bezug auf den ersten Koordinatenraum (135) relativ zu der ersten Position (122) auf Grundlage der identifizierten Merkmale auf dem ersten Bild;
- Aufgreifen und Bewegen mit dem Manipulator (120), mindestens einmal, des ersten Werkstückes (124) auf eine zuvor bestimmte Manipulatorposition auf der zweiten Position (110);
- Erfassen eines zweiten Bildes des ersten Werkstückes (124) auf der zweiten Position (110); und
- Verorten des ersten Werkstückes (124) in Bezug auf den zweiten Koordinatenraum (137) relativ zu der zweiten Position (110) auf Grundlage der identifizierten Merkmale auf dem zweiten Bild, und Verknüpfen des ersten Koordinatenraums (135) und des zweiten Koordinatenraums (137) miteinander.

Description

  • Die Anmeldung beansprucht den Nutzen der parallel anhängigen vorläufigen US-Anmeldung mit der Seriennummer 62/201,723 mit dem Titel SYSTEM AND METHOD FOR TYING TOGETHER MACHINE VISION COORDINATE SPACES IN A GUIDED ASSEMBLY ENVIRONMENT, eingereicht am 06.08.2015, deren Lehren durch Bezugnahme ausdrücklich aufgenommen werden.
  • Die Erfindung betrifft Systeme maschinellen Sehens und insbesondere Sehsysteme, die zum Anleiten des Zusammenbaus von Werkstücken und anderen Gegenständen in einer Umgebung der Fertigung und des angeleiteten Zusammenbaus verwendet werden.
  • In Systemen maschinellen Sehens (hier auch als „Sehsysteme“ bezeichnet) werden eine oder mehrere Kameras verwendet, um Sehsystem-gestützte Prozesse an einem Gegenstand oder einer Oberfläche innerhalb einer abgebildeten Szene durchzuführen. Diese Prozesse können die Inspektion, das Entziffern von Symbolen, das Ausrichten und eine Vielzahl anderer automatisierter Aufgaben umfassen. Insbesondere kann ein Sehsystem zum Inspizieren eines flachen Gegenstandes, welcher eine abgebildete Szene passiert, verwendet werden. Die Szene wird typischerweise durch eine oder mehrere Sehsystemkameras abgebildet, welche innere oder äußere Sehsystemprozessoren enthalten können, die zum Generieren von Ergebnissen assoziierte Sehsystemprozesse betreiben. Eine oder mehrere der Kameras werden kalibriert, damit sie in der Lage ist/sind, die Sehaufgabe(n) mit hinreichender Genauigkeit und Zuverlässigkeit durchzuführen. Es kann eine Kalibrierplatte verwendet werden, um die Kamera(s) zu kalibrieren und einen gemeinsamen (globalen) Koordinatenraum (auch als ein Koordinaten-„System“ bezeichnet) zu erstellen, in welchem die Pixelpositionen aller Kameras assoziieren Punkten in dem Koordinatenraum zugeordnet werden, wodurch ein abgebildetes Merkmal in jeder beliebigen Kamera innerhalb des Koordinatenraums verortet werden kann. Bei Anwendungen, die zum Anleiten des Zusammenbaus von Gegenständen eine Hebebühne verwenden, kann der Kalibrierprozess das Etablieren eines Verhältnisses zwischen der Hebebühne (auch als ein „Bewegungskoordinatenraum“ bezeichnet) und dem allgemeinen Koordinatenraum beinhalten. Eine solche Kalibrierung lässt sich unter Verwendung bekannter „Hand-Auge“-Kalibrierverfahren bewerkstelligen. Beispielhaft wird auf die folgenden bekannten Kalibibrierfahren hingewiesen. DE 11 2011 101 730 B4 offenbart ein Sehsystem und ein Verfahren zum Kalibrieren des Sehsystems relativ zu einem Roboter. Bei dem Verfahren bewegt der Roboter ein Kalibrierobjekt mit definierten Zielmerkmalen relativ zu Kameras des Sehsystems und berechnet das Sehsystem eine Kamera-Roboter-Transformation aus bekannten Positionen und/oder Orientierungen des Kalibrierobjekts und von Kameras des Sehsystems erfassten Bildern des an den Positionen angeordneten Kalibrierobjekts.
  • DE 11 2010 005 008 T5 offenbart ein Sehsystem für eine Produktionslinie mit mehreren Kameras und ein Verfahren zur Laufzeitkalibrierung des Sehsystems, das auf einer statistischen Auswertung von während der Laufzeit erfassten Objektmerkmalen im Wesentlichen gleicher in der Produktionslinie bewegter Objekte beruht.
  • US 2014/0240520 A1 offenbart ein Sehsystem und ein Verfahren zum Kalibrieren des Sehsystems, das auf drei parallelen Ebenen beruht, die in verschiedenen Abständen von einer Kamera des Sehsystems senkrecht zu einer optischen Achse der Kamera.
  • US 5,960,125 A offenbart ein Verfahren zum Ermitteln einer Kalibrierbeziehung zwischen einer Kamera eines Sehsystems und einem beweglichen Objekt. Bei dem Verfahren wird ein Objekt mit einer daran angebrachten Zielmarkierung relativ zu der Kamera bewegt, wobei die Kamera die Zielmarkierung erfasst.
  • JP H08 201 021 A offenbart ein Verfahren zum Kalibrieren einer Kamera, bei dem eine Kalibrierplatte mit einer Mehrzahl definierter Zielmarkierungen von der Kamera erfasst wird, um aus einer ermittelten durch von einer Linse der Kamera verursachten Verzerrung eine Kompensation abzuleiten.
  • Eine wichtige Aufgabe für Sehsysteme besteht darin, das Anleiten und Überprüfen des Zusammenbaus von Gegenständen (auch als „Werkstücke“ bezeichnet) durch einen automatisierten Zusammenbaumechanismus zu unterstützen, welcher Hebeplattformen (Hebebühnen) zum genauen Tragen eines Werkstückes an einer Zusammenbauposition und einen Manipulator (z. B. eine Roboterhand oder einen Roboterarm, die/der „Pick-and-Place“-Operationen durchführt, oder eine andere Art der Hebevorrichtung/Hebebühne) zum Bewegen eines anderen Werkstückes in einer „Zusammenbaubewegung“ auf eine darüberliegende Ausrichtungsposition, an welcher es mit dem Werkstück zusammengebaut wird, umfassen kann. Eine besondere Pick-and-Place-Operation beinhaltet das Ausrichten eines Werkstückes mit einem anderen Werkstück. Zum Beispiel kann ein berührungsempfindlicher Bildschirm in der Pick-and-Place-Operation von dem Manipulator über und in eine Vertiefung in einem Mobiltelefon, das auf der Hebebühne lagert, bewegt werden, wobei jeder berührungsempfindliche Bildschirm von der Aufleseposition wegbewegt und an der Ablegeposition (zuweilen als „Station“ bezeichnet) auf einem wartenden Mobiltelefongehäuse abgelegt wird. Die ordnungsgemäße und genaue Ausrichtung des berührungsempfindlichen Bildschirms mit dem Mobiltelefongehäuse ist überaus wünschenswert.
  • Einige beispielhafte Systeme werden anfänglich trainiert, sodass sich jedes Werkstück während des Laufzeitbetriebes des Systems in einer korrekten Ausrichtung mit dem anderen Werkstück befindet. Während der Trainierzeit werden die Werkstücke auf ihre jeweiligen Positionen/Stationen positioniert, sodass, wenn sie zusammengebaut sind, die zusammengebauten Werkstücke ein gewünschtes gegenseitiges Positionsverhältnis aufweisen. Nach dem Trainieren, während der Laufzeit, werden eines der oder beide Werkstücke durch Verwendung des Sehsystems, welches die assoziierte Hebebühne auf der Position kontrolliert, auf ihren jeweiligen Positionen repositioniert, um jeglicher Platzierungs- oder dimensionalen Abweichung Rechnung zu tragen, und anschließend zusammengebaut. Durch das Justieren der Bühne werden die Werkstücke dadurch in dem gleichen gegenseitigen (erwarteten) Positionsverhältnis platziert, wie es bei der Trainierzeit der Fall war. In anderen beispielhaften Systemen kann das Trainieren weggelassen werden - zum Beispiel in Systemen, in denen die Geometrie der zusammengebauten Teile während der Laufzeit angewendet werden kann, wie etwa, wenn ein erster rechteckiger Gegenstand auf einem zweiten rechteckigen Gegenstand zentriert wird.
  • Nach dem Abbilden der Szene mit Werkstücken werden jedem Werkstück zugehörige Merkmale extrahiert und als Teil eines Prozesses, weleher schließlich die Hebebühnenparameter berechnet, die zu dem gewünschten Zusammenbau führen würden, dem gemeinsamen Koordinatenraum zugeordnet. Das Zuordnen zu dem gemeinsamen Koordinatenraum erfolgt aufgrund eines Kalibrierungsprozesses. In vielen Zusammenbausystemen umfasst der Kalibrierungsprozess das Überführen eines speziellen Kalibrierziels zwischen Positionen unter Verwendung des wiederholbaren Manipulators, der das Teil überführt, und das Abbilden eines Kalibrierziels an beiden Positionen. Dieses Verfahren geht mit mehreren Nachteilen einher. Zum Beispiel ist der Pick-and-Place-Greifer, der das Teil überführt, aufgrund von Unterschieden in Form, Gewicht oder anderen Eigenschaften des Werkstückes versus des Kalibrierziels eventuell nicht in der Lage, ein Kalibrierziel zu überführen. Sprich, ein Kalibrierziel, das nicht mit den Parametern des Greifers übereinstimmt. In derlei Systemen muss das Zuordnen von Parametern zu dem gemeinsamen Koordinatenraum über Anwendereingaben manuell spezifiziert werden, was oftmals zu einer suboptimalen Kalibrierung führt. Außerdem unterscheidet sich der Bewegungspfad, dem der Pick-and-Place-Manipulator während der Kalibrierung folgt, aufgrund von Unterschieden in den Eigenschaften des Teils und des Kalibrierziels, wie etwa Unterschieden in der Dicke oder anderen Eigenschaften, eventuell von jenem während der Laufzeit. Dies kann Kalibrierfehler nach sich ziehen, da es eine Abänderung von den Laufzeit-Bewegungsschritten, die der Manipulator ausführt, versus den Trainierzeit-Bewegungsschritten erfordert. Allgemeiner stellt es eine weitere Unannehmlichkeit für einen Anwender dar, aufgrund zusätzlicher Einstellungsschritte usw. während der Kalibrierzeit ein separates Kalibrierziel anzuwenden.
  • Ein weiterer Nachteil besteht darin, dass vorbekannte Kalibrierverfahren auf bestimmten mechanischen oder/oder iterativen Trial-and-Error-Prinzipien beruhten, die Beschränkungen haben und/oder unpraktisch und zeitaufwändig zu implementieren sind. Zum Beispiel kann das mechanische System in einem Verfahren derart konstruiert sein, dass das Verhältnis zwischen dem Koordinatenraum auf der ersten Position und dem Koordinatenraum auf der zweiten Position bekannt und etabliert ist. Dieses Verfahren schränkt die Flexibilität ein und trägt möglichen Bewegungen oder Positionsveränderungen im Zeitverlauf nicht Rechnung. Bei einem weiteren Verfahren erfolgt eine Anfangsschätzung über das Verhältnis zwischen den beiden Positionen, und wird durch Verwenden der Qualität der zusammengebauten Teile wiederholt nachgearbeitet. Dieses Verfahren ist zeitaufwändig und beruht auf mehrfachen Wiederholungen zum Erreichen der gewünschten Genauigkeit.
  • Es ist daher eine Aufgabe der Erfindung, ein System und Verfahren zum Kalibrieren eines Sehsystems vorzuschlagen, die ein einfaches, in kurzer Zeit durchführbares und genaues Kalibrieren des Sehsystems ermöglichen. Eigenständige Lösungen der Aufgabe finden sich in den unabhängigen Ansprüchen. Die abhängigen Ansprüche sind jeweils auf vorteilhafte Weiterentwicklungen gerichtet.
  • Die Erfindung überwindet Nachteile der mit dem Stand der Technik verbundenen Probleme, welche aus dem Überführen eines Kalibrierziels durch den Manipulator (und assoziierten Greifer) zwischen Auflese- und Ablegepositionen entstehen, indem ein System und Verfahren zur Kalibrierung bereitgestellt wird, welches die Koordinatenräume an den beiden Positionen während der Kalibrierzeit unter Verwendung von Merkmalen an einem Laufzeit-Werkstück verknüpft. Das System und Verfahren umfasst mindestens drei verschiedene Szenarios/Verfahren, eines, in dem die gleichen Merkmale auf beiden Positionen abgebildet und identifiziert werden können; eines, in dem die abgebildeten Merkmale des Laufzeit-Werkstückes an jeder Position (wobei ein CAD oder eine gemessene Wiedergabe des Werkstückes verfügbar ist) verschieden sind; und eines, in dem die erste Position, die eine Hebebühne umfasst, unter Verwendung von Hand-Auge-Kalibrierung zu der Hebebühne kalibriert wurde, und die zweite Position durch Hin- und Her-Überführen des Laufzeit-Teils zwischen den Positionen per Hand-Auge-Kalibrierung zu derselben Hebebühne kalibriert wird. Veranschaulichend lässt sich die Qualität der ersten beiden Verfahren verbessern, indem mehrere Laufzeit-Werkstücke, jedes mit einer anderen Lage, durchlaufen gelassen werden, wobei die Merkmale extrahiert und derlei Merkmale an jeder Position akkumuliert werden; und die akkumulierten Merkmale anschließend verwendet werden, um die beiden Koordinatenräume zu verknüpfen. Allgemeiner kalibriert das System und Verfahren die beiden Positionen unabhängig und verknüpft die Koordinatenräume für die beiden Positionen, indem es ein Werkstück überführt, für dessen Überführung während des Zusammenbaus der Manipulator konstruiert und angeordnet/ausgelegt ist, und die Merkmale des Werkstückes verwendet, statt die Merkmale einer Kalibrierplatte zu verwenden.
  • In einer veranschaulichenden Ausführungsform ist ein System und Verfahren zum Kalibrieren eines Sehsystems in einer Umgebung, in der ein erstes Werkstück auf einer ersten Position durch einen Manipulator auf eine zweite Position überführt wird, bereitgestellt. An dem ersten Werkstück wird eine Operation durchgeführt, welche auf dem Verknüpfen von Koordinatenräumen der ersten Position und der zweiten Position beruht. Mindestens eine Sehsystemkamera ist angeordnet, um das erste Werkstück abzubilden, wenn es auf der ersten Position positioniert wird, und das erste Werkstück abzubilden, wenn es auf der zweiten Position positioniert wird. Mindestens eine Sehsystemkamera wird in Bezug auf die erste Position kalibriert, um erste Kalibrierdaten abzuleiten, welche einen ersten Koordinatenraum definieren, und mindestens eine Sehsystemkamera (möglicherweise dieselbe(n) Kamera(s)) wird in Bezug auf die zweite Position kalibriert, um zweite Kalibrierdaten abzuleiten, welche einen zweiten Koordinatenraum definieren. Die Merkmale von mindestens dem ersten Werkstück werden an der ersten Position ausgehend von einem ersten Bild des ersten Werkstückes identifiziert. Auf Grundlage der identifizierten Merkmale auf dem ersten Bild wird das erste Werkstück in Bezug auf den ersten Koordinatenraum relativ zu der ersten Position verortet. Das erste Werkstück wird mit dem Manipulator mindestens einmal aufgegriffen und auf eine zuvor festgelegte Manipulatorposition an der zweiten Position bewegt, und ein zweites Bild des ersten Werkstückes wird an der zweiten Position erfasst. Auf Grundlage der identifizierten Merkmale auf dem zweiten Bild wird das erste Werkstück in Bezug auf den zweiten Koordinatenraum relativ zu der zweiten Position verortet. Der erste Koordinatenraum und der zweite Koordinatenraum werden dadurch miteinander verknüpft. Wenn die identifizierten Merkmale auf dem ersten Bild die gleichen wie die identifizierten Merkmale auf dem zweiten Bild sind, so umfasst das System und Verfahren veranschaulichend: (a) Zuordnen von Positionen der identifizierten Merkmale auf dem ersten Bild in Bezug auf die ersten Kalibrierdaten, (b) Zuordnen von Positionen der identifizierten Merkmale auf dem zweiten Bild in Bezug auf die zweiten Kalibrierdaten, und (c) Berechnen einer Transformation, welche die zugeordneten Merkmale auf der zweiten Position den zugeordneten Merkmalen auf der ersten Position zuordnet. Wenn sich einige der identifizierten Merkmale auf dem ersten Bild von den identifizierten Merkmalen auf dem zweiten Bild unterscheiden, so umfasst das System und Verfahren alternativ: (a) Zuordnen von Positionen der identifizierten Merkmale auf dem ersten Bild in Bezug auf die ersten Kalibrierdaten, (b) Berechnen einer Transformation relativ zu einer gespeicherten Spezifizierung von Merkmalspositionen des ersten Werkstückes, (c) Zuordnen von Positionen der identifizierten Merkmale auf dem zweiten Bild in Bezug auf die zweiten Kalibrierdaten, (d) Verwenden der bei Schritt (b) berechneten Transformation zum Ableiten von Positionen der identifizierten Merkmale aus dem zweiten Bild in dem ersten Koordinatenraum, wenn sich das Werkstück auf der ersten Position befindet, und (e) Berechnen einer Transformation, welche die zugeordneten Merkmale auf der zweiten Position den entsprechenden transformierten Merkmalen auf der ersten Position zuordnet. Die Spezifizierung des ersten Werkstückes kann auf einem CAD-Modell des ersten Werkstückes oder einem gemessenen Modell (z. B. CMM-generierte Messungen) des ersten Werkstückes beruhen. Veranschaulichend kann das System und Verfahren umfassen: (a) iteratives Bewegen des ersten Werkstückes mit einer Bewegungswiedergabevorrichtung entweder auf der ersten Position oder der zweiten Position zu einer Mehrzahl an verschiedenen Lagen, (b) Identifizieren von Merkmalen an jeder der Lagen auf jeder von der ersten Position und der zweiten Position, und (c) Akkumulieren der identifizierten Merkmalsinformationen zum Steigern der Genauigkeit, wobei das erste Werkstück entweder dasselbe Werkstück ist oder eines von einer Mehrzahl an unabhängigen Werkstücken ist. In unterschiedlichen Ausführungsformen umfasst das System und Verfahren eine Zuordnung von einem Bildkoordinatensystem zu einem Kalibrierungskoordinatensystem auf der ersten Position, und wobei die Zuordnung eine Einheit ist. In Ausführungsformen umfasst die zweite Position ein zweites Werkstück, in welches das erste Werkstück in einer gewünschten Ausrichtung mit dem zweiten Werkstück in Eingriff platziert wird, und/oder bei dem zweiten Werkstück kann es sich um ein Teil, einen Behälter oder ein Rahmengestell für die Weiterverarbeitung des ersten Werkstückes handeln. Außerdem kann die Operation in unterschiedlichen Ausführungsformen mindestens eine von einer Ausrichtungsoperation in Bezug auf einen anderen Gegenstand, einer Bedruckoperation auf dem ersten Werkstück und einer Auftragungsoperation auf dem ersten Werkstück sein, und die Operation kann zumindest teilweise an einer von der ersten Position und der zweiten Position entfernten Position durchgeführt werden.
  • In einer anderen veranschaulichenden Ausführungsform ist ein System und Verfahren zum Kalibrieren eines Sehsystems in einer Umgebung, in welcher ein erstes Werkstück auf einer ersten Position durch einen Manipulator auf eine zweite Position überführt wird, bereitgestellt, wobei eine an dem ersten Werkstück durchgeführte Operation auf dem Verknüpfen von Koordinatenräumen der ersten Position und der zweiten Position beruht, und in welchem mindestens eine der Positionen einer Hand-Auge-Kalibrierung unterzogen wird. Mindestens eine Sehsystemkamera ist angeordnet, um das erste Werkstück an der ersten Position abzubilden und um das zweite Werkstück abzubilden. Die Sehsystemkamera wird in Bezug auf die erste Position kalibriert, um erste Kalibrierdaten abzuleiten, und das erste Werkstück wird auf der zweiten Position positioniert. Veranschaulichend wird das erste Werkstück durch den Manipulator von der ersten Position auf die zweite Position bewegt, und ein Bild wird erfasst, von dem ausgehend Merkmale an dem ersten Werkstück verortet werden. Das erste Werkstück wird anschließend durch den Manipulator von der zweiten Position auf die erste Position bewegt, und eine Lage des ersten Werkstückes wird auf der ersten Position durch Bewegen der Bewegungswiedergabevorrichtung zu einer neuen Lage verändert. Die Bewegungswiedergabevorrichtung kann sich an jeder Position befinden, und die Lageveränderung über die Bewegungswiedergabevorrichtung kann entweder vor oder nach der Bewegung durch den Manipulator von der zweiten auf die erste Position erfolgen.
  • Die oben aufgeführten Schritte werden wiederholt, bis die Merkmalsposition und andere für die Hand-Auge-Kalibrierung relevante Daten akkumuliert und gespeichert sind, woraufhin die akkumulierten Daten verwendet werden, um mindestens eine Sehsystemkamera in Bezug auf die zweite Position per Hand-Auge-Kalibrierung zu kalibrieren. Dies erlaubt das Verknüpfen des ersten Koordinatenraums mit dem zweiten Koordinatenraum durch den gemeinsamen Koordinatenraum relativ zu der Bewegungswiedergabevorrichtung, erhalten von der Hand-Auge-Kalibrierung. Veranschaulichend umfasst die zweite Position ein zweites Werkstück an der Bewegungswiedergabevorrichtung, in welches das erste Werkstück in einer gewünschten Ausrichtung mit dem zweiten Werkstück in Eingriff platziert wird. Bei dem zweiten Werkstück kann es sich um ein Teil, einen Behälter oder ein Rahmengestell für die Weiterverarbeitung des ersten Werkstückes handeln, und die Operation kann mindestens eine von einer Ausrichtungsoperation in Bezug auf einen anderen Gegenstand, eine Bedruckoperation auf dem ersten Werkstück und einer Auftragungsoperation auf dem ersten Werkstück sein.
  • Die untenstehende Erfindungsbeschreibung nimmt Bezug auf die beigefügten Zeichnungen, von denen:
    • 1 ein Diagramm eines Mehrfach-Kamera-Sehsystems ist, angeordnet in Bezug auf eine beispielhafte Umgebung eines Pick-and-Place-Zusammenbaus, das einen an der Aufleseposition angeordneten Pick-and-Place-Manipulator zum Extrahieren eines Werkstückes zum Transport zu einer Ablegeposition zeigt, wobei eine der Positionen eine beispielhafte Hebebühne, die zusammen mit einem Werkstückzusammenbausystem verwendet wird, und einen Sehprozessor mit assoziierten Werkzeugen und Prozessen für die Kalibrierungs-, Trainier- und Laufzeit-Operation umfasst;
    • 2 ein Diagramm eines Zwei-Kamera-Sehsystems ist, angeordnet in Bezug auf eine beispielhafte Pick-and-Place-Zusammenbau-Anordnung, in der ein Werkstück mit einem anderen Werkstück ausgerichtet wird, das den auf der Ablegeposition befindlichen Pick-and-Place-Manipulator zeigt, wobei das erste, aufgelesene Werkstück auf das zweite Werkstück platziert wird;
    • 3 ein Ablaufdiagramm ist, das eine verallgemeinerte Übersicht eines Verfahrens zum Verknüpfen eines ersten Koordinatenraums an einer ersten Position mit einem zweiten Koordinatenraum an einer zweiten Position auf Grundlage der Abbildung eines Laufzeit-Werkstückes zeigt, das an jeder Position von dem Manipulator aufgegriffen wird, wobei das Kamerasystem in Bezug auf eine der Positionen kalibriert wird;
    • 4 ein detailreicheres Ablaufdiagramm des in 3 allgemein beschriebenen Verfahrens zum Verknüpfen des Koordinatenraums einer ersten Position mit einem Koordinatenraum einer zweiten Position unter Verwendung von Merkmalen von einem oder mehreren Bildern von Laufzeit-Werkstücken an jeder Position ist, wobei die Merkmale an jeder Position die gleichen sind;
    • 5 ein detailreicheres Ablaufdiagramm des in 3 allgemein beschriebenen Verfahrens zum Verknüpfen des Koordinatenraums einer ersten Position mit einem Koordinatenraum einer zweiten Position unter Verwendung von Merkmalen von einem oder mehreren Bildern von Laufzeit-Werkstücken an jeder Position ist, wobei mindestens einige der Merkmale an jeder Position aufgrund von Sichtbarkeitsunterschieden in jedem jeweiligen Sichtfeld unterschiedlich sind;
    • 6 ein Ablaufdiagramm eines Verfahrens zum Verknüpfen des Koordinatenraums einer ersten Position mit einem Koordinatenraum einer zweiten Position durch Durchführung separater Hand-Auge-Kalibrierungen an der ersten Position und der zweiten Position ist; und
    • 7 ein Ablaufdiagramm eines zusätzlichen Prozesses relativ zu den Verfahren der 4 und 5 ist, worin Merkmale an mehreren unbekannten Lagen extrahiert und die akkumulierten Merkmale verwendet werden, um Koordinatenräume an jeder Position zu verknüpfen.
  • 1 veranschaulicht ein Zusammenbausystem 100 mit einem beispielhaften Pick-and-Place(Manipulator)-Mechanismus 120, der das System und Verfahren zum Kalibrieren unter Verwendung eines Gegenstandes (erstes Werkstück) einsetzen kann, welches in der Laufzeit-Operation für den Zusammenbau mit einem zweiten Werkstück auf einer zweiten Position, einer Ausführungsform gemäß, durch den Manipulator manipuliert (zwischen Positionen/Stationen überführt) wird. Die Positionen umfassen insbesondere eine Aufleseposition 122, auf welcher sich das zu überführende Laufzeit-Werkstück 124 anfänglich befindet, und eine Platzierungsposition 110, auf der sich ein zweites Werkstück 112, mit dem das erste Werkstück 124 zusammengebaut wird, befindet. Der Manipulator kann einen Greifer umfassen, der (z. B.) einen Saugteller 125 zum selektiven Ineingriffnehmen des ersten Werkstückes 124 umfasst. Selektiv liest der Manipulator 120 das erste Werkstück 124 auf (Pfeil 130) und überführt es (Pfeil 132) auf eine Ausrichtungsposition 126 an dem zweiten Werkstück 112. In diesem Beispiel ist eine Schiene 128 zum Führen des Manipulators 120 entlang eines wiederholbaren Pfades bereitgestellt. Diese Schiene ist optional, und jede Ausführungsart, welche eine wiederholbare Bewegung des Manipulators 120 zwischen Auflese- und Platzierungspositionen ermöglicht, ist ausdrücklich vorgesehen. Zur Veranschaulichung definiert der Manipulator einen Koordinatenraum 134, der sich durch die Achsen Xm, Ym und Zm kennzeichnet, worin sich der Manipulator 120 mindestens entlang der Achse Ym und entlang einer Auflese-/Platzierungsrichtung auf der Achse Zm bewegt. Die Drehung Θzm um die Achse Zm ist ebenfalls dargestellt, kann jedoch von dem Manipulator ausgeführt werden oder nicht. Die von dem Manipulator ausgeführten Bewegungen sind beliebig, und das Sehsystem arbeitet im Allgemeinen unabhängig von derlei Bewegungen, die zur Veranschaulichung gezeigt werden.
  • Die Aufleseposition 122 und/oder Platzierungsposition 110 definieren jeweils eine Plattform, auf welche jeweilige Werkstücke 124 und 112 im Vorfeld einer Pick-/Place-Operation positioniert werden. Die Werkstücke 124, 112 können durch jedes akzeptierbare Verfahren auf den Positionen/Plattformen (112 bzw. 110) abgelegt werden - z. B. ein Band von einer Werkstücksquelle, einen Robotermanipulator, manuelles Platzieren durch einen Anwender usw. In anderen Ausführungsformen kann das Werkstück 124 durch den Manipulator auf der ersten Position 110 gehalten werden und wird nicht auf der Position/Plattform 122 abgelegt. In dem beispielhaften System kann jede der Positionen/Plattformen 122, 110 eine Hebebühne umfassen, welche sich in einem oder mehreren Freiheitsgraden mit gewünschter Genauigkeit bewegt. Eine solche Hebebühne wird bereitgestellt, um eine Ausrichtung zwischen Werkstücken vor oder nach der wiederholbaren Pick-and-Place-Bewegung zu etablieren. Sprich, eines der Werkstücke wird durch die Hebebühne vor-ausgerichtet, und anschließend behält die Pick-/Place-Operation die zuvor festgelegte Ausrichtung bei, während sie sich durch den definierten Pfad bewegt. Alternativ kann die Endausrichtung des Werkstückes direkt vor der Zusammenbau-/Platzierungsbewegung erfolgen, nachdem die Pick-/Place-Operation das Werkstück bewegt. Jede Plattform (von denen jede eine Hebebühne umfassen kann) definiert ihren eigenen Koordinatenraum, der als der lokale, kalibrierte Koordinatenraum der Position betrachtet werden kann. Sprich, die Aufleseplattform 122 definiert einen ersten Koordinatenraum Xs1, Ys1, Zs1 (orthogonale Achsen 135), und die Platzierungsplattform 110 definiert einen zweiten Koordinatenraum Xs2, Ys2, Zs2 (orthogonale Achsen 137). Umfasst jede Plattform eine Hebebühne, so kann die Bewegung entlang einer oder mehrerer der dargestellten Koordinatenachsen und gegebenenfalls in mindestens einem Rotations-Freiheitsgrad (d. h. entlang Θzs1 oder Θzs2, wie dargestellt) erfolgen.
  • In dieser beispielhaften Systemumgebung/-anordnung 100 bildet mindestens eine Kamera 142, 140 jeweils eine Position (122, 110) ab. Alternativ können eine einzelne Kamera oder mehrere Kameras beide Positionen in einem einzelnen Sichtfeld (FOV) abbilden. Im Allgemeinen, und wie hier beschrieben, ist vorgesehen, dass die gleichen oder verschiedenen Merkmale des Werkstückes an jeder Position für eine oder mehrere Kameras sichtbar sind, wenn das Werkstück an der Position positioniert wird. Die Kameras 140, 142 sind mit einem Sehprozess(or) 160 vernetzt. Eine oder beide Positionen 122, 110 können gegebenenfalls zusätzliche Kameras 144 (mit Strichlinien dargestellt) umfassen. Der Sehprozess(or) 160 ist zudem mit einer Hebebühnensteuerung 170 auf der assoziierten Position wirkvernetzt, welche dem Prozessor 160 Bewegungsinformationen (z. B. Encoder- oder Stepperdistanz/Impulsinformationen) 172 zur Verwendung beim Bestimmen der physischen Position der Bühne und des assoziieren Werkstückes bereitstellt. Da die Hebebühne gegebenenfalls sowohl an Position 122 als auch 110 positioniert werden kann, sind die Steuerung 170 und assoziierten Bewegungsinformationen 172 im Falle beider Positionen ähnlich dargestellt. Während einer Hand-Auge-Kalibrierung (weiter unten beschrieben) wird die Bühne bewegt, während Bewegungsinformationen aufgezeichnet und mit dem erfassten Bild/den erfassten Bildern korreliert werden.
  • Die Kameras 140, 142, 144 sind jeweils mit dem Sehsystemprozessor und assoziierten Sehsystemprozess 160 wirkverbunden, der als ein benutzerdefinierter Sehprozessorkreis innerhalb eines oder mehrerer Kameragehäuse, in seiner Gesamtheit oder teilweise, integriert sein kann oder innerhalb einer vernetzten Rechnervorrichtung 180 bereitgestellt sein kann, einschließlich eines PC, Laptops, Tablets, Smartphones oder dergleichen mit einer geeigneten graphischen Benutzeroberfläche (GUI - z. B. Anzeige und/oder berührungsempfindlicher Bildschirm 182, Tastatur 184 und/oder Maus 186), ohne darauf beschränkt zu sein, um den Einstellung- (Kalibrierungs- ), Trainier- und/oder Laufzeit-Betrieb zu unterstützen. Hinweis: in Zusammenbau-Systemen, bei denen mehr als eine Kamera eingesetzt wird, ist jede Kamera derart angepasst, dass sie entweder ihr erfasstes Bild oder aus dem Bild extrahierte Informationen an einen zentralen Prozessor sendet. Der zentrale Prozessor integriert anschließend die Information von den unterschiedlichen Kameras während des Zusammenbaus. Der Sehprozess(or) 160 führt eine Vielzahl von Sehsystemprozessen (oder -elementen/-modulen) durch, einschließlich unterschiedlicher Hilfsmittel 162 wie etwa Kantentaster, Blobanalysevorrichtungen, Suchhilfsmittel, Tastvorrichtungen usw. Veranschaulichend umfasst der Sehprozess(or) 160 einen Ausrichtungsprozess(or) 164, der die Ausrichtung von Bilddaten von den beiden Werkstücken in einer weiter unten beschriebenen Weise ausführt. Ein Kalibrierungsprozess(or) 166 vereinfacht das Durchführen von Kamerakalibrierungen und Hand-Auge-Kalibrierungen, die weiter unten beschrieben werden. Veranschaulichend führt ein Trainierprozess(or) 168 die unterschiedlichen, hier vorgesehenen Trainierprozeduren aus, um die Werkstücke derart zu repositionieren, dass das zweite Werkstück relativ zu dem ersten Werkstück genau zusammengebaut wird. Hinweis: der Sehprozessor 160 kann als eine Mehrzahl an vernetzten Kameraprozessoren (oder anderen Vorrichtungen) oder ein zentraler Prozessor in einem einzelnen Kamerazusammenbau (oder einer Fernverarbeitungsvorrichtung) aufgestellt sein.
  • Weiterer Hinweis: die hier in unterschiedlichen Ausführungsformen dargestellte physische Werkstückzusammenbauanordnung enthält eine beliebige Anzahl an Kameras, die unterschiedliche Regionen der Plattform/Hebebühne abbilden. Die Anzahl der Kameras, die beim Abbilden jeder Position (und/oder der Zusammenbaugesamtumgebung) verwendet werden, ist in wechselnden Anordnungen stark variabel. Gleichermaßen ist die Anzahl der Positionen innerhalb des Gesamtsystems, an denen der Manipulator eine Aufgabe durchführt, stark variabel.
  • Zudem versteht sich, dass die dargestellte Zusammenbauumgebung für eine Vielzahl an Anordnungen beispielhaft ist, in welchen ein erstes Werkstück durch einen (z. B.) wiederholbaren Manipulator von einer ersten Position auf eine andere Position, auf der eine Operation an dem ersten Werkstück durchgeführt wird, überführt wird. Die Operation kann ein Ineingriffnehmen mit einem zweiten Werkstück in einer gewünschten Ausrichtung beinhalten, oder sie kann unter Verwendung eines geeigneten Mechanismus direkt an dem ersten Werkstück durchgeführt werden. Zum Beispiel kann es sich bei dem zweiten Werkstück um ein Teil, mit dem das erste Werkstück zusammengebaut wird, einen Behälter/eine Box, in den/die das erste Werkstück platziert wird, und/oder ein Rahmengestell, in welches das erste Werkstück platziert wird - zum Beispiel als Teil einer Kittanordnung   handeln. Über ein solches Platzieren hinaus kann die Operation zudem das Bedrucken oder Auftragen von Haftetiketten auf das erste Werkstück beinhalten, wobei es einem Laser-, Schneid-, Werkzeugträger oder einer anderen Vorrichtung und/oder jedem beliebigen anderen Prozess, der das Werkstück modifiziert, ausgesetzt wird. Weitere Definitionen für die Operation und das zweite Werkstück sind unten bereitgestellt. Im Allgemeinen ist hauptsächlich vorgesehen, dass das System und Verfahren das Verknüpfen der Koordinatenräume der Kamera(s), welche die erste Position und die zweite Position abbilden, ermöglicht, damit eine Operation in einer wünschenswerten Art und Weise erfolgen kann.
  • Bevor die Einzelheiten des veranschaulichenden Systems und Verfahrens weiter beschrieben werden, wird auf die folgenden Begriffsbestimmungen verwiesen, die dem Leser beim Verstehen der hier präsentierten Konzepte helfen sollten:
  • Begriffsbestimmungen
  • „Kalibrierter Koordinatenraum“ Ein Koordinatenraum, der durch das während einer Kamerakalibrierung, Hand-Auge-Kalibrierung oder einem anderen Kalibrierungsprozess verwendete Kalibrierziel definiert wird.
    „Gemeinsamer Koordinatenraum“ Während der Laufzeit werden durch die Kameras in dem System erfasste Merkmale diesem Raum zugeordnet. Der gemeinsame Koordinatenraum ist den Positionen gemeinsam.
    „Bildkoordinatenraum“ Der Koordinatenraum eines erfassten Bildes oder der Koordinatenraum eines transformierten Bildes.
    „Bewegungskoordinatenraum“ Der native Koordinatenraum, der mit der Bewegungswiedergabevorrichtung (z. B. Hebebühne) assoziiert ist.
    „Werkstückskoordinatenraum“ Der mit einem Werkstück assoziierte Koordinatenraum. Mögliche Quellen für diesen Koordinatenraum sind eine CAD-Spezifizierung oder CMM-Wiedergabe des Werkstückes.
    „KalibriertVonBildtransformation“ Die Transformation, welche dem kalibrierten Koordinatenraum Punkte von dem Bildkoordinatenraum zuordnet.
    „Kamerakalibrierung“ Ein Prozess zum Etablieren der Transformation zwischen dem Bild- und dem kalibrierten Koordinatenraum.
    „Hand-Auge-Kalibrierung“ Ein dem Fachmann bekannter Prozess zum Etablieren von Transformationen zwischen dem Bild-, dem kalibrierten und dem Bewegungskoordinatenraum.
    „Alle“ Kameras Bezieht sich auf sämtliche Kameras, die von dem System in der Zusammenbauaufgabe hier verwendet werden. Es ist aus-
    drücklich vorgesehen, dass einige Kameras, die von dem Sehsystem (oder anderen Prozessen) verwendet werden, die ansonsten die Szene abbilden würden, bei der Zusammenbauaufgabe ausgelassen werden können. Es ist hauptsächlich vorgesehen, dass eine oder mehrere (mindestens eine) Kamera(s) (welche dieselbe Kamera sein kann) jede Position in dem Zusammenbau abbildet und zu dem gemeinsamen Koordinatensystemraum kalibriert wird/werden.
    „Operation“ Bezeichnet einen Prozess, der auf der ersten Position, der zweiten Position oder einer Position, die von der ersten Position und der zweiten Position zumindest teilweise entfernt ist, an dem oder in Bezug auf das erste Werkstück durchgeführt wird. Bei der Operation kann es sich (z. B.) um eine Zusammenbauoperation in Bezug auf ein zweites Werkstück, das Platzieren des ersten Werkstückes in eine Box oder ein Rahmengestell (d. h. Kitting) oder eine Modifikation des ersten Werkstückes wie
    etwa Bedrucken, Etikettenauftragung, Klebstoffauftragung usw. unter Verwendung geeigneter Mechanismen handeln.
    „Erstes Werkstück“ Bezeichnet ein Teil oder einen anderen Gegenstand, das/der in einer tatsächlichen Laufzeitoperation des Manipulatorsystems (z. B. eines Zusammenbausystems) verwendet wird - auch als „Laufzeit-Werkstück“ bezeichnet. Das erste Werkstück schließt ausdrücklich ein Kalibrierziel/eine Kalibrierplatte oder einen anderen Gegenstand aus, der für die Systemeinstellung/das Systemtrainieren, die/das keinen Bestandteil eines Fertigungs- oder anderen Laufzeitprozesses bildet, die Post-Kalibrierung und das -Trainieren verwendet wird.
    „Zweites Werkstück“ Bezeichnet ein sich auf einer zweiten Position befindliches Werkstück, mit dem das erste Werkstück auf Grundlage einer Ausrichtung zusammengebaut wird, welche (z. B.) unter Verwendung einer Bewegungswiedergabevorrichtung (Hebebühne) entweder auf der ersten Position oder der zweiten Position
    bewerkstelligt werden kann. Ein zweites Werkstück kann zudem einen Behälter (eine Box) oder ein Rahmengestell bezeichnen, worin das erste Werkstück platziert wird.
  • Mit kurzem Verweis auf 2 ist der Manipulator 120 derart gezeigt, dass er sich entlang der Schiene 180 von der ersten Position 122 auf die zweite Position 110 bewegt hat, wobei sich das erste Werkstück 124 in seinem Greifer 150 befindet. Der Manipulator 120 ist derart gezeigt, dass er das erste Werkstück 126 genau in die ausgerichtete Empfangsposition 126 an dem zweiten Werkstück 112 platziert. Diese Ausrichtung wird durch die Kameras 140, 142 und den assoziierten Sehsystemprozess(or) 160 etabliert, indem die Hebebühne auf Grundlage des gemeinsamen Koordinatenraums bewegt wird. Dieser gemeinsame Koordinatenraum wird während der Kalibrierung etabliert, indem die kalibrierten Koordinatenräume von jeder der beiden Positionen 122, 110 miteinander verknüpft werden, wie nun unten beschrieben wird.
  • Für ein allgemeines Verständnis bestimmter Kalibrierungsprinzipien kann eine Bewegung für einen festen Körper wie etwa ein Kalibrierziel durch ein Paar von Lagen gekennzeichnet sein: eine Startlage, die einer Bewegung unmittelbar vorausgeht, und eine Endlage, die der Bewegung unmittelbar folgt - wobei eine „Lage“ hier als ein Satz numerischer Werte zum Beschreiben der Position und Orientierung eines Körpers zu jedem beliebigen bestimmten Zeitpunkt in einem darunterliegenden Koordinatenraum - eine virtuelle Charakterisierung des Körpers - definiert ist. Zum Beispiel kann eine Lage bei zwei Dimensionen durch drei Zahlen gekennzeichnet sein: eine Übersetzung bei X, eine Übersetzung bei Y und eine Drehung R (oder Θ). Eine Lage im Kontext eines Kalibrierziels beschreibt, wie sich das Kalibrierziel der/den Kamera(s) präsentiert. Typischerweise wird ein Kalibrierziel in einer sogenannten Standard-„Hand-Auge-Kalibrierung“ durch eine Bewegungswiedergabevorrichtung an einige verschiedene Lagen in Bezug auf die Kamera(s) bewegt, und jede Kamera erfasst ein Bild des Kalibrierziels an jeder solchen Lage. Das Ziel einer solchen Hand-Auge-Kalibrierung besteht darin, die Lagen der Kamera (s), die Lagen des Kalibrierziels und die Lagen der Bewegungswiedergabevorrichtung in einem einzelnen Koordinatenraum, der als der „kalibrierte Koordinatenraum“ bezeichnet werden kann, zu bestimmen. Typischerweise wird eine „Bewegung“ durch eine physikalische Vorrichtung bereitgestellt, welche physikalische Bewegung wiedergeben kann, wie etwa ein Roboterarm oder eine Hebebühne oder ein Portal. Hinweis: entweder kann sich das Ziel relativ zu einer oder mehreren stationären Kamera(s) bewegen, oder die Kamera(s) können sich relativ zu einem stationären Ziel bewegen, wie etwa, wenn die Kameras an der physischen Vorrichtung, die Bewegung bereitstellt, befestigt sind. Die Steuerung einer solchen Bewegungswiedergabevorrichtung gebraucht numerische Werte (d. h. Lagen), um Befehle an die Vorrichtung auszugeben, jedwede gewünschte Bewegung wiederzugeben, und diese Werte werden in einem nativen Koordinatenraum für diese Vorrichtung, hier als der „Bewegungskoordinatenraum“ bezeichnet, interpretiert. Nun wird mit Verweis auf 3 ein Kalibrierungsgesamtprozess 300 zum Verknüpfen der Koordinatenräume zweier unabhängiger Positionen (z. B. eine Auflese- und eine Ablegeposition) unter Verwendung eines Laufzeit-Werkstückes, das durch den Manipulator zwischen den Positionen bewegt wird, beschrieben. Beachtenswerterweise umgeht die Verwendung eines Laufzeit-Werkstückes die Nachteile, die mit der Verwendung eines Kalibrierziels verbunden sind, und erlaubt es dem Anwender, auf praktische Weise die gleiche Struktur zu gebrauchen, die der Manipulator erwartungsgemäß in einer Laufzeitoperation handhaben wird. Der Prozess 300 beginnt bei Schritt 310 durch Anordnen von einer oder mehreren Kameras zum Abbilden/Erfassen eines oder mehrerer Bilder einer ersten Position und einer zweiten Position. Die Kamera(s) sehen Merkmal(e) eines Laufzeit-Werkstückes an jeder Position ein - wobei die Merkmale in ihrer Gesamtheit oder teilweise auf jeder Position dieselben oder auf jeder Position verschieden sein können. Bei Schritt 320 werden die Kamera(s), die Merkmale auf der ersten Position oder der zweiten Position einsehen, zu einem jeweiligen kalibrierten Koordinatenraum kalibriert. Dies kann eine Hand-Auge-Kalibrierung umfassen, indem ein Kalibrierziel durch die Bühne bewegt wird und der Koordinatenraum auf Grundlage einer solchen Bewegung in Verbindung mit durch die Bühne bereitgestellten Bewegungsinformationen etabliert wird. Alternativ kann dies einen Kalibrierungsprozess umfassen, der sich unter Verwendung eines oder mehrerer Bilder eines speziellen Kalibrierziels wie etwa der Riffelgitterkalibrierplatte bewerkstelligen lässt, wodurch alle Kameras auf der Position mit dem entsprechenden Koordinatenraum verknüpft werden. Bei Schritt 330 werden Bilder des Laufzeit-Werkstückes durch eine oder mehrere Kamera(s) erfasst, die das Werkstück auf der ersten Position einsehen, und die Positionen von Merkmalen an dem Laufzeit-Werkstück werden auf der ersten Position identifiziert/extrahiert. Die identifizierten/extrahierten Merkmale werden anschließend zum Assoziieren des Werkstückes in Bezug auf einen ersten kalibrierten Koordinatenraum - typischerweise mit der ersten Position bei Schritt 340 verbunden - verwendet. Die Merkmale können jede beliebigen identifizierbaren visuellen Elemente an dem Werkstück sein, und insbesondere jene, die allein oder in Kombination die Orientierung und Position des Werkstückes einzigartig definieren. Demnach können, wenn Kanten und Ecken als identifizierte Merkmale eingesetzt werden, derlei Kanten und Ecken für eine bestimmte Position an dem Gesamtwerkstück (z. B. eine Einkerbung auf einer Seite des Werkstückes) einzigartig sein. Die Merkmalsextraktion lässt sich unter Verwendung unterschiedlicher Sehsystemhilfsmittel (z. B. Kantendetektoren, Blobanalysevorrichtungen usw.) 162 (1) dem Fachwissen entsprechend bewerkstelligen.
  • Bei Schritt 350 wird das Laufzeit-Werkstück von dem Manipulator (z. B. durch Anwendung eines Saugtellers 125 auf das Laufzeit-Werkstück 124 in 1) aufgegriffen, und das Werkstück wird auf die zweite Position bewegt. Diese Bewegung erfolgt mindestens einmal (und kann unter Verwendung verschiedener Lagen, wie unten mit Verweis auf 7 beschrieben, mehrere Male erfolgen). Anschließend, bei Schritt 360, erfasst/erfassen die Kamera(s) auf der zweiten Position (dort Werkstücksmerkmale einsehend) ein oder mehrere Bilder des Werkstückes (in dem Bildkoordinatenraum davon). Merkmale, die die gleichen wie jene sind, welche auf der ersten Position eingesehen wurden, oder die verschieden sind, werden auf der zweiten Position verwendet, um Positionen an dem Werkstück auf der zweiten Position zu finden. Dort, wo die Merkmale die gleichen sind, können die Koordinatenräume direkt verknüpft werden. Dort, wo die Merkmale verschieden sind, erlaubt es eine Spezifizierung des Werkstückes, wie etwa eine CAD-Zeichnung oder gemessene Repräsentation/Wiedergabe (d. h. unter Verwendung eines Koordinatenmessgerätes CMM zum Messen des Werkstückes und Speichern der Abmessungen), dass die Merkmale an jeder Position durch den Kalibrierprozess des Sehsystems in Übereinstimmung gebracht werden. Dank der in Übereinstimmung gebrachten Merkmale kann daraufhin jeder Koordinatenraum verknüpft werden. Hinweis: dort, wo eine der Positionen über Schritt 320 per Hand-Auge-Kalibrierung kalibriert wird, kann der berechnete gemeinsame Koordinatenraum der gleiche wie der Bewegungskoordinatenraum der Hebebühne sein.
  • Bei den 4 und 5 handelt es sich um ausführlichere Beschreibungen von zwei unabhängigen Verfahren/Prozessen 400 bzw. 500 zum Verknüpfen von Koordinatenräumen auf der ersten Position und der zweiten Position gemäß dem verallgemeinerten Prozess von 3. In 4 umfasst der Prozess 400 den Schritt 410, bei dem eine oder mehrere Kameras zum Abbilden von zwei Positionen, von denen eine eine Hebebühne umfassen kann, angeordnet sind. Wie oben beschrieben, kann eine optionale Hand-Auge-Kalibrierung mit den Kamera(s), welche die Position mit einer Hebebühne einsehen, zum Etablieren des kalibrierten Koordinatenraums durchgeführt werden. Allgemeiner können die Kamera(s), welche die erste und die zweite Position abbilden, bei Schritt 420 unter Verwendung eines geeigneten Kalibrierziels kalibriert werden. Bei Schritt 440 erfassen die Kamera(s) ein oder mehrere Bilder des Werkstückes auf der ersten Position, und die Bilder werden zum Verorten von Merkmalen, MerkmaleBildl, an dem Werkstück unter Verwendung geeigneter Sehsystemhilfsmittel (Schritt 450) verwendet. Diese Merkmale können dem kalibrierten Koordinatenraum an der ersten Position zugeordnet werden (MerkmaleKalibriert1=Kalibriert1VonBild1 * MerkmaleBildl). Das Laufzeit-Werkstück wird anschließend von dem Manipulator aufgegriffen und auf die zweite Position bewegt. Wo die Kamera(s) ein oder mehrere Bilder des Laufzeit-Gegenstandes (Schritt 460) erfassen. Bei diesem Verfahren sind die gleichen Merkmale, MerkmaleBild1, ebenfalls durch die Kamera(s) an der zweiten Position, MerkmaleBild2, sichtbar. Bei Schritt 470 verortet die Kamera(s) auf der zweiten Position demnach die gleichen Merkmale an dem Laufzeit-Werkstück, und der Prozess 400 ordnet die Positionen auf Grundlage der Kalibrierdaten auf der zweiten Position zu (MerkmaleKalibriert2=Kalibriert2VonBild2 * MerkmaleBild2). Anschließend berechnet der Prozess 400 bei Schritt 480 eine Transformation, Kalibriert1VonKalibriert2, welche MerkmaleKalibriert2 zu den MerkmalenKalibriert1 (aus Schritt 450) zuordnet. Diese Transformation wird verwendet, um die Koordinatenräume an den beiden Positionen gemäß dem folgenden Verhältnis miteinander zu verknüpfen: M e r k m a l e K a l i b r i e r t 1 = K a l i b r i e r t 1 V o n K a l i b r i e r t 2 * M e r k m a l e K a l i b r i e r t 2
    Figure DE102016114337B4_0001
  • Wurde die Position, welche die Bühne enthält, gegebenenfalls per Hand-Auge-Kalibrierung kalibriert, so kann die Transformation Kalibriert1VonKalibriert2 in Kombination mit den Hand-Auge-Kalibrierungsergebnissen zum Anleiten des Zusammenbaus des Teils während der Laufzeit verwendet werden.
  • In 5 umfasst der Prozess 500 den Schritt 510, bei dem eine oder mehrere Kameras zum Abbilden von zwei Positionen, von denen eine Hebebühne umfassen kann, angeordnet sind. Wie oben beschrieben, kann eine optionale Hand-Auge-Kalibrierung mit den Kamera(s), welche die Position mit einer Hebebühne einsehen, zum Etablieren des kalibrierten Koordinatenraums durchgeführt werden. Bei den Schritten 520 und 530 können die erste und die zweite Position unter Verwendung eines geeigneten Kalibrierziels kalibriert werden. Bei Schritt 540 erfassen die Kamera(s) ein oder mehrere Bilder des Werkstückes an der ersten Position, und die Bilder werden zum Verorten von Merkmalen an dem Werkstück, MerkmaleBild1, unter Verwendung geeigneter Sehsystemhilfsmittel verwendet. Bei Schritt 550 können diese Merkmale dem kalibrierten Koordinatenraum an der ersten Position zugeordnet werden, MerkmaleKalibriert1. Bei Schritt 560 berechnet der Prozess 500 eine Transformation, WerkstückVonKalibriert1, welche Werkstückmerkmale in einem ersten kalibrierten Koordinatenraum, MerkmaleKalibriert1, (aus Schritt 550) an der ersten Position dem folgenden Verhältnis gemäß dem gespeicherten Werkstückskoordinatenraum zuordnet: M e r k m a l e W e r k s t ü c k = W e r k s t ü c k V o n K a l i b r i e r t 1 * M e r k m a l e K a l i b r i e r t 1
    Figure DE102016114337B4_0002
  • Der Werkstückskoordinatenraum wird auf Grundlage eines Computer-Aided-Design(CAD)-Modells von dem Werkstück erstellt, welches eine Repräsentation der Merkmalsparameter beinhaltet. Alternativ lässt sich die Spezifizierung des Laufzeit-Werkstück-Koordinatenraums durch physikalisches Messen des Werkstückes - zum Beispiel unter Verwendung eines Koordinatenmessgerätes (CMM) dem Durchschnittsfachwissen gemäß etablieren. Die Parameter werden zur Verwendung durch den Zuordnungsprozess gespeichert.
  • Das Laufzeit-Werkstück wird anschließend von dem Manipulator aufgegriffen und auf die zweite Position bewegt. Wo die Kamera(s) ein oder mehrere Bilder des Laufzeit-Gegenstandes (Schritt 570) erfassen. Bei diesem Verfahren könnten eines oder mehrere der an der zweiten Position eingesehenen Merkmale von denjenigen Merkmalen abweichen, die auf der ersten Position eingesehen/abgebildet wurden. Dies kann sich daraus ergeben, dass die gleichen Merkmale wegen Hindernissen, dem Sichtfeld (FOV) der Kamera(s) usw. für die Kamera(s) nicht auf beiden Positionen sichtbar sind. Bei Schritt 580 verorten die Kamera(s) auf der zweiten Position die sichtbaren Merkmale, MerkSichtAuf2Bild2, an dem Laufzeit-Werkstück, und die Positionen werden auf Grundlage der Kalibrierdaten auf der zweiten Position zugeordnet (MerkSichtAuf2Kalibriert2 = Kalibriert2VonBild2 * MerkSichtAufBild2) . Die entsprechenden Punkte in dem Werkstückskoordinatenraum werden aufgefunden, MerkSicht-Auf2Werkstück. Anschließend verwendet der Prozess 500 bei Schritt 590 die Rücktransformation WerkstückVonKalibriert1 aus Schritt 560 zum Berechnen der Position von Merkmalen, die auf der zweiten Position in dem ersten kalibrierten Raum sichtbar sind, wenn sich derlei Merkmale auf der ersten Position befanden: M e r k S i c h t A u f 2 K a l i b r i e r t 1 = K a l i b r i e r t 1 V o n W e r k s t r ü c k * M e r k S i c h A u f 2 W e r k s t ü c k
    Figure DE102016114337B4_0003
  • Bei Schritt 592 werden die berechneten Merkmalspositionen von der ersten Position und die entsprechenden detektierten Merkmalspositionen auf der zweiten Position verwendet, um die Koordinatenräume an jeder dieser Positionen gemäß dem folgenden Verhältnis miteinander zu verknüpfen: M e r k S i c h t A u f 2 K a l i b r i e r t 1 = K a l i b r i e r t 1 V o n K a l i b r i e r t 2 * M e r k S i c h t A u f 2 K a l i b r i e r t 2
    Figure DE102016114337B4_0004
  • Wurde die Position, welche die Bühne enthält, per Hand-Auge-Kalibrierung kalibriert, so kann die Transformation Kalibriert1VonKalibriert2 in Kombination mit den Hand-Auge-Kalibrierungsergebnissen zum Anleiten des Zusammenbaus des Teils während der Laufzeit verwendet werden.
  • Hinweis: in unterschiedlichen Ausführungsformen ist es ausdrücklich vorgesehen, dass die Zuordnung von dem Bildkoordinatenraum zu dem Kalibrierungskoordinatenraum auf der ersten Position gleich Einheit sein kann. Dieses Verfahren nimmt Anordnungen auf, in denen die zweite Position kalibriert wird, und die Bildmerkmale auf der ersten Position werden dem Kalibrierungskoordinatenraum auf der zweiten Position zugeordnet, wie in den 3-5 beschrieben.
  • 6 detailliert ein Verfahren/einen Prozess 600 gemäß einem anderen vorgesehenen Verfahren zum Verknüpfen der Koordinatenräume zweier unabhängiger Positionen, worin sowohl die Kamera(s) der ersten Position als auch die Kamera(s) der zweiten Position kalibrierungsfrei sind. In dieser Anordnung ist vorgesehen, dass jede Position separat per Hand-Auge-Kalibrierung kalibriert werden kann, wobei beide Positionen mit demselben gemeinsamen Koordinatenraum relativ zu der Hebebühne verknüpft werden. Bei Schritt 610 werden die Kamera(s) zum Abbilden jeder Position angeordnet. Die Position (d. h. erste Position), welche die Hebebühne enthält, wird bei Schritt 620 per Hand-Auge-Kalibrierung kalibriert. Das Laufzeit-Werkstück wird anschließend auf der Bühne-enthaltenden ersten Position bei Schritt 630 platziert. Das Laufzeit-Werkstück wird danach bei Schritt 640 aufgegriffen und auf die zweite Position bewegt, wo ein oder mehrere Bilder mit der/den Kamera(s) erfasst werden. Merkmale an dem Werkstück werden bei Schritt 650 verortet. Gegebenenfalls können derlei Merkmale, wenn die CAD- oder CMM-Spezifizierung des Werkstückes verfügbar ist, in Bezug auf eine CAD- oder CMM-Repräsentation des Werkstückskoordinatenraums in Übereinstimmung gebracht werden. Die aus den Merkmalen abgeleitete Lage wird in einer Liste Xl1 gespeichert. Das Werkstück wird bei Schritt 660 erneut aufgegriffen und zurück auf die erste/Bühnenposition bewegt. Die Schritte 640, 650 und 660 werden wiederholt, während die Bühne bewegt wird, um neue Lagen mit jeder Wiederholung (Schritt 680) zu etablieren, bis genügend Daten erfasst und in der Liste Xl1 gespeichert sind. Der Prozess 600 wird dann (über den Entscheidungsschritt 670) bei Schritt 690 fortgesetzt, um die akkumulierten Daten aus Schritt 650 (Liste Xl1) zu verwenden, um die Kamera(s) an der zweiten Position per Hand-Auge-Kalibrierung zu kalibrieren. Die kalibrierten Kamerakoordinatenräume auf beiden Positionen werden demnach durch den gemeinsamen Koordinatenraum relativ zu der Hebebühne miteinander verknüpft.
  • Die Verfahren/Prozesse 400 und 500 (Schritte 450, 470 in 4 und Schritte 550 und 580 in 5) können verbessert werden, indem iterativ eine Merkmalsextraktion aus dem Laufzeit-Werkstück durchgeführt wird. Ein Überblick über diesen verbesserten Prozess 700 ist in 7 beschrieben. Bei Schritt 710 werden ein oder mehrere Bilder von dem Laufzeit-Werkstück an der ersten Position erfasst, und Merkmale werden extrahiert/identifiziert. Das Werkstück wird anschließend bei Schritt 720 von dem Manipulator aufgegriffen und bewegt, und Merkmale werden extrahiert/identifiziert (entweder die gleichen oder verschiedene Merkmale, wie oben beschrieben). Der Manipulator bewegt das Werkstück entweder iterativ auf die erste Position zurück, wobei er die Lage bei jedem Mal ungefähr verändert (Schritt 730), oder er überführt mehrfache Instanzen des Werkstückes mit einer ungefähr verschiedenen Lage. Das heißt, die Genauigkeit und Robustheit der Kalibrierung kann durch mehrfache Iterationen der Merkmalsextraktion und Akkumulation an entweder dem gleichen Werkstück einer Reihe verschiedener Werkstücke, die jeweils durch einen Bewegungszyklus zwischen verschiedenen Positionen bewegt werden, verbessert werden. Während jeder Wiederholung werden Merkmale aus Bildern auf der ersten Position und der zweiten Position über die Schritte 710 und 720 extrahiert, bis genügend Merkmalsdaten erhalten sind. Der Grenzwert kann auf einer festgesetzten Anzahl an Wiederholungen oder einer anderen Metrik beruhen. Der Prozess 700 wird anschließend (über den Entscheidungsschritt 740) mit Schritt 750 fortgesetzt, wo die akkumulierten Merkmalsdaten von mehreren Lagen verwendet werden, um die Koordinatenräume an jeder Position miteinander zu verknüpfen, wie oben allgemein beschrieben.
  • Es versteht sich, dass die oben beschriebenen Verfahren zum Verknüpfen der Koordinatenräume an zwei unabhängigen Positionen in einem Zusammenbauprozess unter Verwendung eines Laufzeit-Werkstückes Nachteile umgehen, welche mit der Verwendung eines Kalibrierziels verbunden sind. Diese Verfahren ermöglichen eine Flexibilität in der Art und Weise, auf die Kameras in Bezug auf jede Position angeordnet werden. Diese Verfahren ermöglichen zudem eine verbesserte/gesteigerte Genauigkeit durch die Wiederholung unterschiedlicher Schritte wie etwa der Merkmalsextraktion. Diese Verfahren umgehen zudem die Nachteile der oben beschriebenen vorbekannten Verfahren, welche entweder auf einer bekannten mechanischen Anordnung oder einem iterativen Trial-and-Error-Ansatz beruhen.

Claims (20)

  1. Verfahren zum Kalibrieren eines Sehsystems in einer Umgebung, in welcher ein erstes Werkstück (124) auf einer ersten Position (122) durch einen Manipulator (120) auf eine zweite Position (110) überführt wird, wobei eine an dem ersten Werkstück (124) durchgeführte Operation auf dem Verknüpfen von Koordinatenräumen (135, 137) der ersten Position (122) und der zweiten Position (110) beruht, wobei das Verfahren die folgenden Schritte umfasst: - Anordnen mindestens einer Sehsystemkamera (140, 142, 144) zum Abbilden des ersten Werkstückes (124), wenn es auf der ersten Position (122) positioniert wird, und zum Abbilden des ersten Werkstücks (124), wenn es auf der zweiten Position (110) positioniert wird; - Kalibrieren mindestens einer Sehsystemkamera (140, 142, 144) in Bezug auf die erste Position (122), um erste Kalibrierdaten abzuleiten, welche einen ersten Koordinatenraum (135) definieren, und mindestens einer Sehsystemkamera (140, 142, 144) in Bezug auf die zweite Position (110), um zweite Kalibrierdaten abzuleiten, welche einen zweiten Koordinatenraum (137) definieren; - Identifizieren von Merkmalen von mindestens dem ersten Werkstück (124) an der ersten Position (122) ausgehend von einem ersten Bild des ersten Werkstückes (124); - Verorten des ersten Werkstückes (124) in Bezug auf den ersten Koordinatenraum (135) relativ zu der ersten Position (122) auf Grundlage der identifizierten Merkmale auf dem ersten Bild; - Aufgreifen und Bewegen mit dem Manipulator (120), mindestens einmal, des ersten Werkstückes (124) auf eine zuvor bestimmte Manipulatorposition auf der zweiten Position (110); - Erfassen eines zweiten Bildes des ersten Werkstückes (124) auf der zweiten Position (110); und - Verorten des ersten Werkstückes (124) in Bezug auf den zweiten Koordinatenraum (137) relativ zu der zweiten Position (110) auf Grundlage der identifizierten Merkmale auf dem zweiten Bild, und Verknüpfen des ersten Koordinatenraums (135) und des zweiten Koordinatenraums (137) miteinander.
  2. Verfahren nach Anspruch 1, wobei die identifizierten Merkmale auf dem ersten Bild die gleichen wie die identifizierten Merkmale auf dem zweiten Bild sind, und ferner umfassend (a) Zuordnen von Positionen der identifizierten Merkmale auf dem ersten Bild in Bezug auf die ersten Kalibrierdaten, (b) Zuordnen von Positionen der identifizierten Merkmale auf dem zweiten Bild in Bezug auf die zweiten Kalibrierdaten, und (c) Berechnen einer Transformation, welche die zugeordneten Merkmale auf der zweiten Position (110) den zugeordneten Merkmalen auf der ersten Position (122) zuordnet.
  3. Verfahren nach Anspruch 1, wobei sich einige der identifizierten Merkmale auf dem ersten Bild von den identifizierten Merkmalen auf dem zweiten Bild unterscheiden, und ferner umfassend (a) Zuordnen von Positionen der identifizierten Merkmale auf dem ersten Bild in Bezug auf die ersten Kalibrierdaten, (b) Berechnen einer Transformation relativ zu einer gespeicherten Spezifizierung von Merkmalspositionen des ersten Werkstückes (124), (c) Zuordnen von Positionen der identifizierten Merkmale auf dem zweiten Bild in Bezug auf die zweiten Kalibrierdaten, (d) Verwenden der bei Schritt (b) berechneten Transformation zum Ableiten von Positionen der identifizierten Merkmale aus dem zweiten Bild in dem ersten Koordinatenraum (135), wenn sich das Werkstück (124) auf der ersten Position (122) befindet, und (e) Berechnen einer Transformation, welche die zugeordneten Merkmale auf der zweiten Position (110) den entsprechenden transformierten Merkmalen auf der ersten Position (122) zuordnet.
  4. Verfahren nach Anspruch 3, wobei die Spezifizierung auf einem CAD-Modell des ersten Werkstückes (124) beruht.
  5. Verfahren nach Anspruch 3, wobei die Spezifizierung auf einem gemessenen Modell des ersten Werkstückes (124) beruht.
  6. Verfahren nach Anspruch 1, ferner umfassend (a) iteratives Bewegen des ersten Werkstückes (124) mit einer Bewegungswiedergabevorrichtung entweder auf der ersten Position (122) oder der zweiten Position (110) zu einer Mehrzahl an verschiedenen Lagen, (b) Identifizieren von Merkmalen an jeder der Lagen auf jeder von der ersten Position (122) und der zweiten Position (110), und (c) Akkumulieren der identifizierten Merkmalsinformationen zum Steigern der Genauigkeit, wobei das erste Werkstück (124) entweder dasselbe Werkstück (124) ist oder eines von einer Mehrzahl an unabhängigen Werkstücken ist.
  7. Verfahren nach Anspruch 1, ferner umfassend das Bereitstellen einer Zuordnung von einem Bildkoordinatensystem zu einem Kalibrierungskoordinatensystem auf der ersten Position (122), und wobei die Zuordnung eine Einheit ist.
  8. Verfahren nach Anspruch 1, wobei die zweite Position (110) ein zweites Werkstück (112) umfasst, in welches das erste Werkstück (124) in einer gewünschten Ausrichtung mit dem zweiten Werkstück (112) in Eingriff platziert wird.
  9. Verfahren nach Anspruch 8, wobei das zweite Werkstück (112) ein Teil, ein Behälter oder ein Rahmengestell für die Weiterverarbeitung des ersten Werkstückes (124) ist.
  10. Verfahren nach Anspruch 1, wobei die Operation mindestens eine von einer Ausrichtungsoperation in Bezug auf einen anderen Gegenstand, einer Bedruckoperation auf dem ersten Werkstück (124) und einer Auftragungsoperation auf dem ersten Werkstück (124) ist.
  11. Verfahren nach Anspruch 10, wobei die Operation zumindest teilweise auf einer von der ersten Position (122) und der zweiten Position (110) entfernten Position durchgeführt wird.
  12. Verfahren zum Kalibrieren eines Sehsystems in einer Umgebung, in welcher ein erstes Werkstück (124) auf einer ersten Position (122) durch einen Manipulator (120) auf eine zweite Position (110) überführt wird, wobei eine an dem ersten Werkstück (124) durchgeführte Operation auf dem Verknüpfen von Koordinatenräumen (135, 137) der ersten Position (122) und der zweiten Position (110) beruht, wobei das Verfahren die folgenden Schritte umfasst: (a) Anordnen mindestens einer Sehsystemkamera (140, 142, 144) zum Abbilden des ersten Werkstückes (124) auf der ersten Position (122) und zum Abbilden der zweiten Position (110); (b) Hand-Auge-Kalibrieren von mindestens einer Sehsystemkamera (140, 142, 144) in Bezug auf die erste Position (122) zum Ableiten von ersten Kalibrierdaten; (c) Positionieren des ersten Werkstückes (124) an der ersten Position (122); (d) Bewegen des ersten Werkstückes (124) von der ersten Position (122) auf die zweite Position (110); (e) Erfassen eines Bildes und Verorten von Merkmalen an dem ersten Werkstück (124); (f) Bewegen des ersten Werkstückes (124) auf die erste Position (122) von der zweiten (110) Position und Verändern einer Lage des ersten Werkstückes (124) auf der ersten Position (122) durch Bewegen der Bewegungswiedergabevorrichtung zu einer neuen unbekannten Lage; (g) Wiederholen der Schritte (d-f), bis die Merkmalsposition und andere Daten, welche für die Hand-Auge-Kalibrierung relevant sind, akkumuliert sind; und (h) Verwenden der akkumulierten Daten zum Kalibrieren mindestens einer Sehsystemkamera (140, 142, 144) in Bezug auf die zweite Position (110) per Hand-Auge-Kalibrierung, und Verknüpfen des ersten Koordinatenraums (135) mit dem zweiten Koordinatenraum (137) durch den gemeinsamen Koordinatenraum relativ zu der Bewegungswiedergabevorrichtung, von der Hand-Auge-Kalibrierung erhalten.
  13. Verfahren nach Anspruch 12, wobei die zweite Position (110) ein zweites Werkstück (112) an der Bewegungswiedergabevorrichtung umfasst, in welches das erste Werkstück (124) in einer gewünschten Ausrichtung mit dem zweiten Werkstück (112) in Eingriff platziert wird.
  14. Verfahren nach Anspruch 13, wobei das zweite Werkstück (112) ein Teil, ein Behälter oder ein Rahmengestell für die Weiterverarbeitung des ersten Werkstückes (124) ist.
  15. Verfahren nach Anspruch 12, wobei die Operation mindestens eine von einer Ausrichtungsoperation in Bezug auf einen anderen Gegenstand, einer Bedruckoperation auf dem ersten Werkstück (124) und einer Auftragungsoperation auf dem ersten Werkstück (124) ist.
  16. System zum Kalibrieren eines Sehsystems in einer Umgebung, in welcher ein erstes Werkstück (124) auf einer ersten Position (122) durch einen Manipulator (120) auf eine zweite Position (110) überführt wird, wobei eine an dem ersten Werkstück (124) durchgeführte Operation auf dem Verknüpfen von Koordinatenräumen (135, 137) der ersten Position (122 und der zweiten Position (110) beruht, umfassend: - mindestens eine Sehsystemkamera (140, 142, 144), die zum Abbilden des ersten Werkstückes (124), wenn es auf der ersten Position (122) positioniert wird, und zum Abbilden des ersten Werkstückes (124), wenn es auf der zweiten Position (110) positioniert wird, angeordnet ist; - einen Kalibrierprozess, welcher mindestens eine Sehsystemkamera (140, 142, 144) in Bezug auf die erste Position (122), um erste Kalibrierdaten abzuleiten, und die mindestens eine Sehsystemkamera (140, 142, 144) in Bezug auf die zweite Position (110), um zweite Kalibrierdaten abzuleiten, kalibriert; - einen Merkmalsextraktionsprozess, der Merkmale von mindestens dem ersten Werkstück (124) auf der ersten Position (122) ausgehend von einem ersten Bild des ersten Werkstückes (124) identifiziert, und der auf Grundlage der identifizierten Merkmale auf dem ersten Bild das erste Werkstück (124) in Bezug auf einen ersten Koordinatenraum (135) relativ zu der ersten Position (122) verortet, und der auf Grundlage der identifizierten Merkmale auf einem zweiten Bild auf einer zweiten Position (110) das erste Werkstück (124) in Bezug auf einen zweiten Koordinatenraum (137) relativ zu der zweiten Position (110) verortet; und - einen Kalibrierungsprozess, welcher den ersten Koordinatenraum (135) und den zweiten Koordinatenraum (137) miteinander verknüpft.
  17. System nach Anspruch 16, wobei die zweite Position (110) ein zweites Werkstück (112) umfasst, in welches das erste Werkstück (124) in einer gewünschten Ausrichtung mit dem zweiten Werkstück (112) in Eingriff platziert wird.
  18. System nach Anspruch 16, wobei sich einige der identifizierten Merkmale auf dem ersten Bild von den identifizierten Merkmalen auf dem zweiten Bild unterscheiden, und wobei der Kalibrierungsprozess zu Folgendem konstruiert und angeordnet ist: (a) Zuordnen von Positionen der identifizierten Merkmale auf dem ersten Bild in Bezug auf die ersten Kalibrierdaten, (b) Berechnen einer Transformation relativ zu einer gespeicherten Spezifizierung von Merkmalspositionen des ersten Werkstückes (124), (c) Zuordnen von Positionen der identifizierten Merkmale auf dem zweiten Bild in Bezug auf die zweiten Kalibrierdaten, (d) Verwenden der bei Schritt (b) berechneten Transformation zum Ableiten von Positionen der identifizierten Merkmale aus dem zweiten Bild in dem ersten Koordinatenraum (135), wenn sich das Werkstück (124) auf der ersten Position (122) befindet, und (e) Berechnen einer Transformation, welche die zugeordneten Merkmale auf der zweiten Position (110) den entsprechenden transformierten Merkmalen auf der ersten Position (122) zuordnet.
  19. System nach Anspruch 18, wobei die Spezifizierung entweder auf einem CAD-Modell des ersten Werkstückes (124) oder einem gemessenen Modell des ersten Werkstückes (124) beruht.
  20. System nach Anspruch 16, wobei die zweite Position (110) ein zweites Werkstück (112) umfasst, in welches das erste Werkstück (124) in einer gewünschten Ausrichtung mit dem zweiten Werkstück (112) in Eingriff platziert wird.
DE102016114337.5A 2015-08-06 2016-08-03 System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus Active DE102016114337B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562201723P 2015-08-06 2015-08-06
US62/201,723 2015-08-06
US15/223,436 US10290118B2 (en) 2015-08-06 2016-07-29 System and method for tying together machine vision coordinate spaces in a guided assembly environment
US15/223,436 2016-07-29

Publications (2)

Publication Number Publication Date
DE102016114337A1 DE102016114337A1 (de) 2017-02-09
DE102016114337B4 true DE102016114337B4 (de) 2019-08-14

Family

ID=57853991

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016114337.5A Active DE102016114337B4 (de) 2015-08-06 2016-08-03 System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus

Country Status (6)

Country Link
US (2) US10290118B2 (de)
JP (3) JP6685199B2 (de)
KR (2) KR20170017786A (de)
CN (2) CN111452040B (de)
DE (1) DE102016114337B4 (de)
TW (3) TWI708216B (de)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10290118B2 (en) * 2015-08-06 2019-05-14 Cognex Corporation System and method for tying together machine vision coordinate spaces in a guided assembly environment
JP2018094648A (ja) * 2016-12-09 2018-06-21 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
CN107543497B (zh) * 2017-03-23 2019-10-01 四川精视科技有限公司 一种非重叠视域双目视觉测量站坐标关联方法
FI127555B (en) 2017-04-05 2018-08-31 Oy Mapvision Ltd Computer vision systems that include coordinate correction
JP6777604B2 (ja) * 2017-08-28 2020-10-28 ファナック株式会社 検査システムおよび検査方法
US11072074B2 (en) * 2017-12-13 2021-07-27 Cognex Corporation Calibration and operation of vision-based manipulation systems
US11830131B2 (en) * 2018-02-06 2023-11-28 Veo Robotics, Inc. Workpiece sensing for process management and orchestration
CN108436909A (zh) * 2018-03-13 2018-08-24 南京理工大学 一种基于ros的相机和机器人的手眼标定方法
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
DE102018003434A1 (de) 2018-04-27 2019-10-31 Sms Group Gmbh Schrägwalzwerk mit hydraulischer Walzenanstellung
WO2019212985A1 (en) 2018-04-30 2019-11-07 Path Robotics, Inc. Reflection refuting laser scanner
CN110539299B (zh) * 2018-05-29 2021-08-17 北京京东尚科信息技术有限公司 机器手作业方法、控制器以及机器手系统
US11040452B2 (en) * 2018-05-29 2021-06-22 Abb Schweiz Ag Depth sensing robotic hand-eye camera using structured light
CN109079777B (zh) * 2018-08-01 2021-09-10 北京科技大学 一种机械臂手眼协调作业系统
US11263780B2 (en) * 2019-01-14 2022-03-01 Sony Group Corporation Apparatus, method, and program with verification of detected position information using additional physical characteristic points
CN109993800B (zh) * 2019-03-18 2023-01-03 五邑大学 一种工件尺寸的检测方法、装置及存储介质
DE102019107417A1 (de) 2019-03-22 2020-09-24 Günther Battenberg Verfahren zur Durchführung von zumindest einem Tätigkeitsprozess mittels eines Roboters
CN110335310B (zh) * 2019-07-09 2021-07-02 中国大恒(集团)有限公司北京图像视觉技术分公司 一种非共同视野下的标定方法
CN111791226B (zh) * 2019-12-31 2021-12-03 深圳市豪恩声学股份有限公司 通过机器人实现组装的方法、装置及机器人
TWI731548B (zh) * 2020-01-10 2021-06-21 廣達國際機械有限公司 鋼構之截角加工規劃方法
TWI727628B (zh) * 2020-01-22 2021-05-11 台達電子工業股份有限公司 具有位姿補償功能的動態追蹤系統及其位姿補償方法
CN113155097B (zh) * 2020-01-22 2024-01-26 台达电子工业股份有限公司 具有位姿补偿功能的动态追踪系统及其位姿补偿方法
CN111152229B (zh) * 2020-02-24 2023-08-25 群滨智造科技(苏州)有限公司 3d机械视觉的机械手引导方法和装置
CN111331604A (zh) * 2020-03-23 2020-06-26 北京邮电大学 一种基于机器视觉的阀门旋拧柔顺作业方法
CN111625001B (zh) * 2020-05-28 2024-02-02 珠海格力智能装备有限公司 机器人的控制方法及装置、工业机器人
WO2022016152A1 (en) 2020-07-17 2022-01-20 Path Robotics, Inc. Real time feedback and dynamic adjustment for welding robots
JP2022047442A (ja) * 2020-09-11 2022-03-24 パナソニックIpマネジメント株式会社 情報処理方法及び情報処理装置
CN112577423B (zh) * 2020-10-13 2022-09-09 武汉凌云光电科技有限责任公司 包含在运动中进行机器视觉位置定位的方法及其应用
KR20220087623A (ko) * 2020-12-17 2022-06-27 삼성전자주식회사 기판 처리 장치
CN112879401A (zh) * 2020-12-30 2021-06-01 富泰华精密电子(成都)有限公司 工件加工方法
CN112853835B (zh) * 2021-01-04 2022-04-19 中铁四局集团有限公司 一种用于钢轨铺设的自动控制方法与系统
JP2024508563A (ja) 2021-02-24 2024-02-27 パス ロボティクス, インコーポレイテッド 自律型溶接ロボット
US11912513B1 (en) * 2021-04-14 2024-02-27 Amazon Technologies, Inc. Robotic system camera calibration and localization using robot-mounted registered patterns
CN114378825B (zh) * 2022-01-21 2023-05-12 四川长虹智能制造技术有限公司 一种多相机视觉定位方法、系统及电子设备
CN115599092A (zh) * 2022-09-07 2023-01-13 格力电器(武汉)有限公司(Cn) 一种工件搬运控制方法、装置、设备及存储介质
CN115383749B (zh) * 2022-10-25 2023-03-24 国网瑞嘉(天津)智能机器人有限公司 带电作业设备的标定方法、装置、控制器及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08201021A (ja) 1995-01-23 1996-08-09 Mazda Motor Corp キャリブレーション方法
US5960125A (en) 1996-11-21 1999-09-28 Cognex Corporation Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object
DE112010005008T5 (de) 2009-12-24 2012-11-15 Cognex Corporation System und Verfahren zur Laufzeitbestimmung von Kamerafehlkalibrierung
US20140240520A1 (en) 2013-02-25 2014-08-28 Cognex Corporation System and method for calibration of machine vision cameras along at least three discrete planes
DE112011101730B4 (de) 2010-05-14 2016-03-17 Cognex Corporation System und Verfahren zur robusten Kalibrierung zwischen einem Bildverarbeitungssystem und einem Roboter

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4380696A (en) * 1980-11-12 1983-04-19 Unimation, Inc. Method and apparatus for manipulator welding apparatus with vision correction for workpiece sensing
US4568816A (en) * 1983-04-19 1986-02-04 Unimation, Inc. Method and apparatus for manipulator welding apparatus with improved weld path definition
US4655596A (en) * 1983-10-28 1987-04-07 Levi Strauss & Co. Workpiece centering apparatus and method
EP0205628B1 (de) 1985-06-19 1990-06-13 International Business Machines Corporation Verfahren zum Identifizieren dreidimensionaler Objekte mittels zweidimensionaler Bilder
US4841460A (en) 1987-09-08 1989-06-20 Perceptron, Inc. Method and apparatus for calibrating a non-contact gauging sensor with respect to an external coordinate system
US4845639A (en) 1987-12-11 1989-07-04 Robotic Vision Systems, Inc. Robotic sealant calibration
US4959898A (en) 1990-05-22 1990-10-02 Emhart Industries, Inc. Surface mount machine with lead coplanarity verifier
US5547537A (en) 1992-05-20 1996-08-20 Kulicke & Soffa, Investments, Inc. Ceramic carrier transport for die attach equipment
US6419680B1 (en) 1993-06-10 2002-07-16 Sherwood Services Ag CT and MRI visible index markers for stereotactic localization
US6078846A (en) 1996-02-06 2000-06-20 Perceptron, Inc. Calibration and compensation of robot-based gauging system
US6858826B2 (en) 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
US5933523A (en) 1997-03-18 1999-08-03 Cognex Corporation Machine vision method and apparatus for determining the position of generally rectangular devices using boundary extracting features
NL1007068C2 (nl) * 1997-09-18 1999-03-22 Nl Laser Res Laserbewerkingsapparaat.
JP4387476B2 (ja) * 1998-07-13 2009-12-16 株式会社明電舎 ビンピッキング位置データ較正装置
JP2001284899A (ja) 2000-04-03 2001-10-12 Yamagata Casio Co Ltd 部品搭載座標補正方法
US6950548B1 (en) 2000-05-17 2005-09-27 Cognex Corporation Creating geometric model descriptions for use in machine vision inspection systems
US6493574B1 (en) 2000-09-28 2002-12-10 Koninklijke Philips Electronics, N.V. Calibration phantom and recognition algorithm for automatic coordinate transformation in diagnostic imaging
US6819789B1 (en) 2000-11-08 2004-11-16 Orbotech Ltd. Scaling and registration calibration especially in printed circuit board fabrication
US6466841B2 (en) * 2001-02-14 2002-10-15 Xerox Corporation Apparatus and method for determining a reference position for an industrial robot
CH696103A5 (de) * 2003-06-06 2006-12-15 Esec Trading Sa Halbleiter-Montageeinrichtung.
US7324682B2 (en) * 2004-03-25 2008-01-29 Mitutoyo Corporation System and method for excluding extraneous features from inspection operations performed by a machine vision inspection system
JP4515814B2 (ja) * 2004-04-28 2010-08-04 パナソニック株式会社 装着精度測定方法
US6901673B1 (en) 2004-05-20 2005-06-07 The Boeing Company Tie-in device for the correlation of coordinate systems
EP1612843A1 (de) * 2004-07-02 2006-01-04 Unaxis International Trading Ltd Verfahren und Einrichtung fuer die Montage von Halbleiterchips
US7583852B2 (en) * 2004-10-26 2009-09-01 Mitutoyo Corporation Method of filtering an image for high precision machine vision metrology
US20060241432A1 (en) 2005-02-15 2006-10-26 Vanderbilt University Method and apparatus for calibration, tracking and volume construction data for use in image-guided procedures
US8482732B2 (en) * 2007-10-01 2013-07-09 Maskless Lithography, Inc. Alignment system for various materials and material flows
WO2009047214A2 (en) 2007-10-09 2009-04-16 Oerlikon Assembly Equipment Ag, Steinhausen Method for picking up semiconductor chips from a wafer table and mounting the removed semiconductor chips on a substrate
CH698334B1 (de) 2007-10-09 2011-07-29 Esec Ag Verfahren für die Entnahme und Montage von auf einem Wafertisch bereitgestellten Halbleiterchips auf einem Substrat.
CN101149836B (zh) 2007-11-05 2010-05-19 中山大学 一种三维重构的双摄像机标定方法
US8264697B2 (en) 2007-11-27 2012-09-11 Intelligrated Headquarters, Llc Object detection device
AU2009226028B2 (en) 2008-03-21 2013-11-14 Variation Reduction Solutions, Inc. External system for robotic accuracy enhancement
US8106349B2 (en) * 2008-07-16 2012-01-31 Delta Design, Inc. Vision alignment with multiple cameras and common coordinate at contactor for IC device testing handlers
US7686631B1 (en) * 2008-12-12 2010-03-30 J.S.T. Corporation Electrical connector with a latch mechanism
JP5455123B2 (ja) * 2010-03-03 2014-03-26 富士機械製造株式会社 部品実装機の撮像画像処理装置
US8368762B1 (en) 2010-04-12 2013-02-05 Adobe Systems Incorporated Methods and apparatus for camera calibration based on multiview image geometry
US9508148B2 (en) * 2010-08-27 2016-11-29 Abb Research Ltd. Vision-guided alignment system and method
US9021344B2 (en) 2010-08-31 2015-04-28 New River Kinematics, Inc. Off-line graphical user interface system and method for three-dimensional measurement
JP5744587B2 (ja) 2011-03-24 2015-07-08 キヤノン株式会社 ロボット制御装置、ロボット制御方法、プログラム及び記録媒体
KR20160084502A (ko) * 2011-03-29 2016-07-13 퀄컴 인코포레이티드 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들
US9188973B2 (en) 2011-07-08 2015-11-17 Restoration Robotics, Inc. Calibration and transformation of a camera system's coordinate system
EP2729850A4 (de) 2011-08-11 2015-07-08 Siemens Healthcare Diagnostics Verfahren und vorrichtung zum kalibrieren einer ausrichtung eines robotergreifers und einer kamera
JP5924134B2 (ja) * 2012-05-30 2016-05-25 セイコーエプソン株式会社 侵入検出装置,ロボットシステム,侵入検出方法および侵入検出プログラム
CN102922521B (zh) 2012-08-07 2015-09-09 中国科学技术大学 一种基于立体视觉伺服的机械臂系统及其实时校准方法
US10477154B2 (en) * 2013-03-07 2019-11-12 Cognex Corporation System and method for aligning two work pieces with a vision system in the presence of occlusion
US10032273B2 (en) 2013-03-15 2018-07-24 Cognex Corporation Machine vision system calibration using inaccurate calibration targets
US9958854B2 (en) 2013-06-10 2018-05-01 The Boeing Company Systems and methods for robotic measurement of parts
US9305231B2 (en) 2013-08-01 2016-04-05 Cognex Corporation Associating a code with an object
US9211643B1 (en) 2014-06-25 2015-12-15 Microsoft Technology Licensing, Llc Automatic in-situ registration and calibration of robotic arm/sensor/workspace system
JP5911934B2 (ja) * 2014-09-18 2016-04-27 ファナック株式会社 輪郭線計測装置およびロボットシステム
CN104268876B (zh) 2014-09-26 2017-05-03 大连理工大学 基于分块的摄像机标定方法
CN104625268A (zh) 2015-01-16 2015-05-20 哈尔滨飞机工业集团有限责任公司 一种线切割薄板装夹装置
US10223589B2 (en) * 2015-03-03 2019-03-05 Cognex Corporation Vision system for training an assembly system through virtual assembly of objects
CN104819690B (zh) 2015-04-21 2017-05-31 上海瑞伯德智能系统股份有限公司 一种表面贴装元件的双相机机器视觉定位方法
US10290118B2 (en) * 2015-08-06 2019-05-14 Cognex Corporation System and method for tying together machine vision coordinate spaces in a guided assembly environment
JP6540472B2 (ja) * 2015-11-18 2019-07-10 オムロン株式会社 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP6514156B2 (ja) * 2016-08-17 2019-05-15 ファナック株式会社 ロボット制御装置
US11072074B2 (en) * 2017-12-13 2021-07-27 Cognex Corporation Calibration and operation of vision-based manipulation systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08201021A (ja) 1995-01-23 1996-08-09 Mazda Motor Corp キャリブレーション方法
US5960125A (en) 1996-11-21 1999-09-28 Cognex Corporation Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object
DE112010005008T5 (de) 2009-12-24 2012-11-15 Cognex Corporation System und Verfahren zur Laufzeitbestimmung von Kamerafehlkalibrierung
DE112011101730B4 (de) 2010-05-14 2016-03-17 Cognex Corporation System und Verfahren zur robusten Kalibrierung zwischen einem Bildverarbeitungssystem und einem Roboter
US20140240520A1 (en) 2013-02-25 2014-08-28 Cognex Corporation System and method for calibration of machine vision cameras along at least three discrete planes

Also Published As

Publication number Publication date
TW201923706A (zh) 2019-06-16
CN106426161A (zh) 2017-02-22
US20200065995A1 (en) 2020-02-27
TW201706091A (zh) 2017-02-16
JP2018169403A (ja) 2018-11-01
KR20170017786A (ko) 2017-02-15
US11049280B2 (en) 2021-06-29
KR20180120647A (ko) 2018-11-06
TWI816056B (zh) 2023-09-21
TWI708216B (zh) 2020-10-21
KR102661635B1 (ko) 2024-04-26
CN111452040A (zh) 2020-07-28
CN106426161B (zh) 2020-04-07
CN111452040B (zh) 2024-02-20
JP6685199B2 (ja) 2020-04-22
TW202119356A (zh) 2021-05-16
TWI708215B (zh) 2020-10-21
DE102016114337A1 (de) 2017-02-09
US10290118B2 (en) 2019-05-14
US20170132807A1 (en) 2017-05-11
JP2017037642A (ja) 2017-02-16
JP7292829B2 (ja) 2023-06-19
JP2023052266A (ja) 2023-04-11

Similar Documents

Publication Publication Date Title
DE102016114337B4 (de) System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus
EP2227356B1 (de) Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
EP2435217B1 (de) Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
DE102015101710B4 (de) Verfahren zum Kalibrieren eines beweglichen Greiforgans unter Verwendung einer entfernten Digitalkamera
DE102009034529B4 (de) Automatisches Führungs- und Erkennungssystem sowie Verfahren für dieses
EP3056923B1 (de) Scananordnung und verfahren zum scannen eines objektes
DE102016115987B4 (de) Koordinatensystemeinstellungsverfahren, Koordinatensystemeinstellungsvorrichtung und Robotersystem mit Koordinatensystemeinstellungsvorrichtung
DE102016103799B4 (de) Bildverarbeitungssystem zum Trainieren eines Montagesystems durch virtuelle Montage von Objekten
DE102018109774B4 (de) Bildverarbeitungssystem, Bildverarbeitungsvorrichtung und Bildverarbeitungsprogramm
EP2448722B1 (de) Kalibrierungsverfahren für ein Messsystem
DE102015015194A1 (de) Bildverarbeitungsvorrichtung und -verfahren und Programm
DE102013018222A1 (de) Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts
DE102005037841B4 (de) Verfahren und Anordnung zur Bestimmung der relativen Lage eines ersten Objektes bezüglich eines zweiten Objektes, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
DE202019105838U1 (de) Anordnung mit einem Koordinatenmessgerät oder Mikroskop
DE102012112025A1 (de) Verfahren und Vorrichtungen zur Positionsbestimmung einer Kinematik
DE102021209178A1 (de) Verfahren und Vorrichtung zum Bestimmen von Relativposen und zur Kalibrierung bei einem Koordinatenmessgerät oder Roboter
DE102021103726A1 (de) Messparameter-Optimierungsverfahren und -Vorrichtung sowie Computersteuerprogramm
DE102016102579A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Vielzahl von Raumkoordinaten an einem Gegenstand
DE102019102927B4 (de) Verfahren und Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
DE102012103980A1 (de) Verfahren und Vorrichtung zur Ausrichtung einer Komponente
EP2461433A1 (de) Verfahren und Vorrichtung zum Bestücken eines Steckergehäuses
DE102007058293A1 (de) Kalibriervorrichtung und Verfahren zum Abgleichen eines Roboterkoordinatensystems
WO2009018894A1 (de) Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts
EP1471401A2 (de) Verfahren zur Einmessung des Koordinatensystems einer Kamera eines Roboters gegenüber dem Koordinatensystem des Roboters oder umgekehrt
DE102021203779B4 (de) Verfahren und Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R082 Change of representative

Representative=s name: PATENTANWAELTE OLBRICHT, BUCHHOLD, KEULERTZ PA, DE

R020 Patent grant now final
R082 Change of representative

Representative=s name: PATENTANWAELTE OLBRICHT, BUCHHOLD, KEULERTZ PA, DE