DE102016114337A1 - System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus - Google Patents

System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus Download PDF

Info

Publication number
DE102016114337A1
DE102016114337A1 DE102016114337.5A DE102016114337A DE102016114337A1 DE 102016114337 A1 DE102016114337 A1 DE 102016114337A1 DE 102016114337 A DE102016114337 A DE 102016114337A DE 102016114337 A1 DE102016114337 A1 DE 102016114337A1
Authority
DE
Germany
Prior art keywords
workpiece
image
features
coordinate space
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102016114337.5A
Other languages
English (en)
Other versions
DE102016114337B4 (de
Inventor
Guruprasad Shivaram
Cyril C. Marrion Jr.
Lifeng LIU
Tuotuo LI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cognex Corp
Original Assignee
Cognex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cognex Corp filed Critical Cognex Corp
Publication of DE102016114337A1 publication Critical patent/DE102016114337A1/de
Application granted granted Critical
Publication of DE102016114337B4 publication Critical patent/DE102016114337B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39039Two cameras detect same reference on workpiece to define its position in space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Die Erfindung stellt ein System und Verfahren bereit, welches die Koordinatenräume an den beiden Positionen während der Kalibrierzeit unter Verwendung von Merkmalen an einem Laufzeit-Werkstück anstelle von einem Kalibrierziel miteinander verknüpft. Es sind drei mögliche Szenarios vorgesehen: wobei die gleichen Werkstücksmerkmale an beiden Positionen abgebildet und identifiziert werden; wobei sich die abgebildeten Merkmale des Laufzeit-Werkstückes an jeder Position (mit einer verfügbaren CAD- oder gemessenen Werkstückswiedergabe) unterscheiden; und wobei die erste Position, die eine Hebebühne umfasst, unter Verwendung von Hand-Auge-Kalibrierung zu der Hebebühne kalibriert wurde, und die zweite Position durch Hin- und Her-Überführen des Laufzeit-Teils zwischen den Positionen per Hand-Auge-Kalibrierung zu derselben Hebebühne kalibriert wurde. Veranschaulichend lässt sich die Qualität der ersten beiden Verfahren verbessern, indem mehrere Laufzeit-Werkstücke, jedes mit einer anderen Lage, durchlaufen gelassen werden, wobei derlei Merkmale an jeder Position extrahiert und akkumuliert werden; und die akkumulierten Merkmale anschließend verwendet werden, um die beiden Koordinatenräume zu verknüpfen.

Description

  • VERWANDTE ANMELDUNG
  • Die Anmeldung beansprucht den Nutzen der parallel anhängigen vorläufigen US-Anmeldung mit der Seriennummer 62/201,723 mit dem Titel SYSTEM AND METHOD FOR TYING TOGETHER MACHINE VISION COORDINATE SPACES IN A GUIDED ASSEMBLY ENVIRONMENT, eingereicht am 06.08.2015, deren Lehren durch Bezugnahme ausdrücklich aufgenommen werden.
  • GEBIET DER ERFINDUNG
  • Die Erfindung betrifft Systeme maschinellen Sehens und insbesondere Sehsysteme, die zum Anleiten des Zusammenbaus von Werkstücken und anderen Gegenständen in einer Umgebung der Fertigung und des angeleiteten Zusammenbaus verwendet werden.
  • ALLGEMEINER STAND DER TECHNIK
  • In Systemen maschinellen Sehens (hier auch als „Sehsysteme” bezeichnet) werden eine oder mehrere Kameras verwendet, um Sehsystem-gestützte Prozesse an einem Gegenstand oder einer Oberfläche innerhalb einer abgebildeten Szene durchzuführen. Diese Prozesse können die Inspektion, das Entziffern von Symbolen, das Ausrichten und eine Vielzahl anderer automatisierter Aufgaben umfassen. Insbesondere kann ein Sehsystem zum Inspizieren eines flachen Gegenstandes, welcher eine abgebildete Szene passiert, verwendet werden. Die Szene wird typischerweise durch eine oder mehrere Sehsystemkameras abgebildet, welche innere oder äußere Sehsystemprozessoren enthalten können, die zum Generieren von Ergebnissen assoziierte Sehsystemprozesse betreiben. Eine oder mehrere der Kameras werden kalibriert, damit sie in der Lage ist/sind, die Sehaufgabe(n) mit hinreichender Genauigkeit und Zuverlässigkeit durchzuführen. Es kann eine Kalibrierplatte verwendet werden, um die Kamera(s) zu kalibrieren und einen gemeinsamen (globalen) Koordinatenraum (auch als ein Koordinaten-„System” bezeichnet) zu erstellen, in welchem die Pixelpositionen aller Kameras assoziieren Punkten in dem Koordinatenraum zugeordnet werden, wodurch ein abgebildetes Merkmal in jeder beliebigen Kamera innerhalb des Koordinatenraums verortet werden kann. Bei Anwendungen, die zum Anleiten des Zusammenbaus von Gegenständen eine Hebebühne verwenden, kann der Kalibrierprozess das Etablieren eines Verhältnisses zwischen der Hebebühne (auch als ein „Bewegungskoordinatenraum” bezeichnet) und dem allgemeinen Koordinatenraum beinhalten. Eine solche Kalibrierung lässt sich unter Verwendung bekannter „Hand-Auge”-Kalibrierverfahren bewerkstelligen.
  • Eine wichtige Aufgabe für Sehsysteme besteht darin, das Anleiten und Überprüfen des Zusammenbaus von Gegenständen (auch als „Werkstücke” bezeichnet) durch einen automatisierten Zusammenbaumechanismus zu unterstützen, welcher Hebeplattformen (Hebebühnen) zum genauen Tragen eines Werkstückes an einer Zusammenbauposition und einen Manipulator (z. B. eine Roboterhand oder einen Roboterarm, die/der „Pick-and-Place”-Operationen durchführt, oder eine andere Art der Hebevorrichtung/Hebebühne) zum Bewegen eines anderen Werkstückes in einer „Zusammenbaubewegung” auf eine darüberliegende Ausrichtungsposition, an welcher es mit dem Werkstück zusammengebaut wird, umfassen kann. Eine besondere Pick-and-Place-Operation beinhaltet das Ausrichten eines Werkstückes mit einem anderen Werkstück. Zum Beispiel kann ein berührungsempfindlicher Bildschirm in der Pick-and-Place-Operation von dem Manipulator über und in eine Vertiefung in einem Mobiltelefon, das auf der Hebebühne lagert, bewegt werden, wobei jeder berührungsempfindliche Bildschirm von der Aufleseposition wegbewegt und an der Ablegeposition (zuweilen als „Station” bezeichnet) auf einem wartenden Mobiltelefongehäuse abgelegt wird. Die ordnungsgemäße und genaue Ausrichtung des berührungsempfindlichen Bildschirms mit dem Mobiltelefongehäuse ist überaus wünschenswert.
  • Einige beispielhafte Systeme werden anfänglich trainiert, sodass sich jedes Werkstück während des Laufzeitbetriebes des Systems in einer korrekten Ausrichtung mit dem anderen Werkstück befindet. Während der Trainierzeit werden die Werkstücke auf ihre jeweiligen Positionen/Stationen positioniert, sodass, wenn sie zusammengebaut sind, die zusammengebauten Werkstücke ein gewünschtes gegenseitiges Positionsverhältnis aufweisen. Nach dem Trainieren, während der Laufzeit, werden eines der oder beide Werkstücke durch Verwendung des Sehsystems, welches die assoziierte Hebebühne auf der Position kontrolliert, auf ihren jeweiligen Positionen repositioniert, um jeglicher Platzierungs- oder dimensionalen Abweichung Rechnung zu tragen, und anschließend zusammengebaut. Durch das Justieren der Bühne werden die Werkstücke dadurch in dem gleichen gegenseitigen (erwarteten) Positionsverhältnis platziert, wie es bei der Trainierzeit der Fall war. In anderen beispielhaften Systemen kann das Trainieren weggelassen werden – zum Beispiel in Systemen, in denen die Geometrie der zusammengebauten Teile während der Laufzeit angewendet werden kann, wie etwa, wenn ein erster rechteckiger Gegenstand auf einem zweiten rechteckigen Gegenstand zentriert wird.
  • Nach dem Abbilden der Szene mit Werkstücken werden jedem Werkstück zugehörige Merkmale extrahiert und als Teil eines Prozesses, welcher schließlich die Hebebühnenparameter berechnet, die zu dem gewünschten Zusammenbau führen würden, dem gemeinsamen Koordinatenraum zugeordnet. Das Zuordnen zu dem gemeinsamen Koordinatenraum erfolgt aufgrund eines Kalibrierungsprozesses. In vielen Zusammenbausystemen umfasst der Kalibrierungsprozess das Überführen eines speziellen Kalibrierziels zwischen Positionen unter Verwendung des wiederholbaren Manipulators, der das Teil überführt, und das Abbilden eines Kalibrierziels an beiden Positionen. Dieses Verfahren geht mit mehreren Nachteilen einher. Zum Beispiel ist der Pick-and-Place-Greifer, der das Teil überführt, aufgrund von Unterschieden in Form, Gewicht oder anderen Eigenschaften des Werkstückes versus des Kalibrierziels eventuell nicht in der Lage, ein Kalibrierziel zu überführen. Sprich, ein Kalibrierziel, das nicht mit den Parametern des Greifers übereinstimmt. In derlei Systemen muss das Zuordnen von Parametern zu dem gemeinsamen Koordinatenraum über Anwendereingaben manuell spezifiziert werden, was oftmals zu einer suboptimalen Kalibrierung führt. Außerdem unterscheidet sich der Bewegungspfad, dem der Pick-and-Place-Manipulator während der Kalibrierung folgt, aufgrund von Unterschieden in den Eigenschaften des Teils und des Kalibrierziels, wie etwa Unterschieden in der Dicke oder anderen Eigenschaften, eventuell von jenem während der Laufzeit. Dies kann Kalibrierfehler nach sich ziehen, da es eine Abänderung von den Laufzeit-Bewegungsschritten, die der Manipulator ausführt, versus den Trainierzeit-Bewegungsschritten erfordert. Allgemeiner stellt es eine weitere Unannehmlichkeit für einen Anwender dar, aufgrund zusätzlicher Einstellungsschritte usw. während der Kalibrierzeit ein separates Kalibrierziel anzuwenden.
  • Ein weiterer Nachteil besteht darin, dass vorbekannte Kalibrierverfahren auf bestimmten mechanischen oder/oder iterativen Trial-and-Error-Prinzipien beruhten, die Beschränkungen haben und/oder unpraktisch und zeitaufwändig zu implementieren sind. Zum Beispiel kann das mechanische System in einem Verfahren derart konstruiert sein, dass das Verhältnis zwischen dem Koordinatenraum auf der ersten Position und dem Koordinatenraum auf der zweiten Position bekannt und etabliert ist. Dieses Verfahren schränkt die Flexibilität ein und trägt möglichen Bewegungen oder Positionsveränderungen im Zeitverlauf nicht Rechnung. Bei einem weiteren Verfahren erfolgt eine Anfangsschätzung über das Verhältnis zwischen den beiden Positionen, und wird durch Verwenden der Qualität der zusammengebauten Teile wiederholt nachgearbeitet. Dieses Verfahren ist zeitaufwändig und beruht auf mehrfachen Wiederholungen zum Erreichen der gewünschten Genauigkeit.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Diese Erfindung überwindet Nachteile der mit dem Stand der Technik verbundenen Probleme, welche aus dem Überführen eines Kalibrierziels durch den Manipulator (und assoziierten Greifer) zwischen Auflese- und Ablegepositionen entstehen, indem ein System und Verfahren zur Kalibrierung bereitgestellt wird, welches die Koordinatenräume an den beiden Positionen während der Kalibrierzeit unter Verwendung von Merkmalen an einem Laufzeit-Werkstück verknüpft. Das System und Verfahren umfasst mindestens drei verschiedene Szenarios/Verfahren, eines, in dem die gleichen Merkmale auf beiden Positionen abgebildet und identifiziert werden können; eines, in dem die abgebildeten Merkmale des Laufzeit-Werkstückes an jeder Position (wobei ein CAD oder eine gemessene Wiedergabe des Werkstückes verfügbar ist) verschieden sind; und eines, in dem die erste Position, die eine Hebebühne umfasst, unter Verwendung von Hand-Auge-Kalibrierung zu der Hebebühne kalibriert wurde, und die zweite Position durch Hin- und Her-Überführen des Laufzeit-Teils zwischen den Positionen per Hand-Auge-Kalibrierung zu derselben Hebebühne kalibriert wird. Veranschaulichend lässt sich die Qualität der ersten beiden Verfahren verbessern, indem mehrere Laufzeit-Werkstücke, jedes mit einer anderen Lage, durchlaufen gelassen werden, wobei die Merkmale extrahiert und derlei Merkmale an jeder Position akkumuliert werden; und die akkumulierten Merkmale anschließend verwendet werden, um die beiden Koordinatenräume zu verknüpfen. Allgemeiner kalibriert das System und Verfahren die beiden Positionen unabhängig und verknüpft die Koordinatenräume für die beiden Positionen, indem es ein Werkstück überführt, für dessen Überführung während des Zusammenbaus der Manipulator konstruiert und angeordnet/ausgelegt ist, und die Merkmale des Werkstückes verwendet, statt die Merkmale einer Kalibrierplatte zu verwenden.
  • In einer veranschaulichenden Ausführungsform ist ein System und Verfahren zum Kalibrieren eines Sehsystems in einer Umgebung, in der ein erstes Werkstück auf einer ersten Position durch einen Manipulator auf eine zweite Position überführt wird, bereitgestellt. An dem ersten Werkstück wird eine Operation durchgeführt, welche auf dem Verknüpfen von Koordinatenräumen der ersten Position und der zweiten Position beruht. Mindestens eine Sehsystemkamera ist angeordnet, um das erste Werkstück abzubilden, wenn es auf der ersten Position positioniert wird, und das erste Werkstück abzubilden, wenn es auf der zweiten Position positioniert wird. Mindestens eine Sehsystemkamera wird in Bezug auf die erste Position kalibriert, um erste Kalibrierdaten abzuleiten, welche einen ersten Koordinatenraum definieren, und mindestens eine Sehsystemkamera (möglicherweise dieselbe(n) Kamera(s)) wird in Bezug auf die zweite Position kalibriert, um zweite Kalibrierdaten abzuleiten, welche einen zweiten Koordinatenraum definieren. Die Merkmale von mindestens dem ersten Werkstück werden an der ersten Position ausgehend von einem ersten Bild des ersten Werkstückes identifiziert. Auf Grundlage der identifizierten Merkmale auf dem ersten Bild wird das erste Werkstück in Bezug auf den ersten Koordinatenraum relativ zu der ersten Position verortet. Das erste Werkstück wird mit dem Manipulator mindestens einmal aufgegriffen und auf eine zuvor festgelegte Manipulatorposition an der zweiten Position bewegt, und ein zweites Bild des ersten Werkstückes wird an der zweiten Position erfasst. Auf Grundlage der identifizierten Merkmale auf dem zweiten Bild wird das erste Werkstück in Bezug auf den zweiten Koordinatenraum relativ zu der zweiten Position verortet. Der erste Koordinatenraum und der zweite Koordinatenraum werden dadurch miteinander verknüpft. Wenn die identifizierten Merkmale auf dem ersten Bild die gleichen wie die identifizierten Merkmale auf dem zweiten Bild sind, so umfasst das System und Verfahren veranschaulichend: (a) Zuordnen von Positionen der identifizierten Merkmale auf dem ersten Bild in Bezug auf die ersten Kalibrierdaten, (b) Zuordnen von Positionen der identifizierten Merkmale auf dem zweiten Bild in Bezug auf die zweiten Kalibrierdaten, und (c) Berechnen einer Transformation, welche die zugeordneten Merkmale auf der zweiten Position den zugeordneten Merkmalen auf der ersten Position zuordnet. Wenn sich einige der identifizierten Merkmale auf dem ersten Bild von den identifizierten Merkmalen auf dem zweiten Bild unterscheiden, so umfasst das System und Verfahren alternativ: (a) Zuordnen von Positionen der identifizierten Merkmale auf dem ersten Bild in Bezug auf die ersten Kalibrierdaten, (b) Berechnen einer Transformation relativ zu einer gespeicherten Spezifizierung von Merkmalspositionen des ersten Werkstückes, (c) Zuordnen von Positionen der identifizierten Merkmale auf dem zweiten Bild in Bezug auf die zweiten Kalibrierdaten, (d) Verwenden der bei Schritt (b) berechneten Transformation zum Ableiten von Positionen der identifizierten Merkmale aus dem zweiten Bild in dem ersten Koordinatenraum, wenn sich das Werkstück auf der ersten Position befindet, und (e) Berechnen einer Transformation, welche die zugeordneten Merkmale auf der zweiten Position den entsprechenden transformierten Merkmalen auf der ersten Position zuordnet. Die Spezifizierung des ersten Werkstückes kann auf einem CAD-Modell des ersten Werkstückes oder einem gemessenen Modell (z. B. CMM-generierte Messungen) des ersten Werkstückes beruhen. Veranschaulichend kann das System und Verfahren umfassen: (a) iteratives Bewegen des ersten Werkstückes mit einer Bewegungswiedergabevorrichtung entweder auf der ersten Position oder der zweiten Position zu einer Mehrzahl an verschiedenen Lagen, (b) Identifizieren von Merkmalen an jeder der Lagen auf jeder von der ersten Position und der zweiten Position, und (c) Akkumulieren der identifizierten Merkmalsinformationen zum Steigern der Genauigkeit, wobei das erste Werkstück entweder dasselbe Werkstück ist oder eines von einer Mehrzahl an unabhängigen Werkstücken ist. In unterschiedlichen Ausführungsformen umfasst das System und Verfahren eine Zuordnung von einem Bildkoordinatensystem zu einem Kalibrierungskoordinatensystem auf der ersten Position, und wobei die Zuordnung eine Einheit ist. In Ausführungsformen umfasst die zweite Position ein zweites Werkstück, in welches das erste Werkstück in einer gewünschten Ausrichtung mit dem zweiten Werkstück in Eingriff platziert wird, und/oder bei dem zweiten Werkstück kann es sich um ein Teil, einen Behälter oder ein Rahmengestell für die Weiterverarbeitung des ersten Werkstückes handeln. Außerdem kann die Operation in unterschiedlichen Ausführungsformen mindestens eine von einer Ausrichtungsoperation in Bezug auf einen anderen Gegenstand, einer Bedruckoperation auf dem ersten Werkstück und einer Auftragungsoperation auf dem ersten Werkstück sein, und die Operation kann zumindest teilweise an einer von der ersten Position und der zweiten Position entfernten Position durchgeführt werden.
  • In einer anderen veranschaulichenden Ausführungsform ist ein System und Verfahren zum Kalibrieren eines Sehsystems in einer Umgebung, in welcher ein erstes Werkstück auf einer ersten Position durch einen Manipulator auf eine zweite Position überführt wird, bereitgestellt, wobei eine an dem ersten Werkstück durchgeführte Operation auf dem Verknüpfen von Koordinatenräumen der ersten Position und der zweiten Position beruht, und in welchem mindestens eine der Positionen einer Hand-Auge-Kalibrierung unterzogen wird. Mindestens eine Sehsystemkamera ist angeordnet, um das erste Werkstück an der ersten Position abzubilden und um das zweite Werkstück abzubilden. Die Sehsystemkamera wird in Bezug auf die erste Position kalibriert, um erste Kalibrierdaten abzuleiten, und das erste Werkstück wird auf der zweiten Position positioniert. Veranschaulichend wird das erste Werkstück durch den Manipulator von der ersten Position auf die zweite Position bewegt, und ein Bild wird erfasst, von dem ausgehend Merkmale an dem ersten Werkstück verortet werden. Das erste Werkstück wird anschließend durch den Manipulator von der zweiten Position auf die erste Position bewegt, und eine Lage des ersten Werkstückes wird auf der ersten Position durch Bewegen der Bewegungswiedergabevorrichtung zu einer neuen Lage verändert. Die Bewegungswiedergabevorrichtung kann sich an jeder Position befinden, und die Lageveränderung über die Bewegungswiedergabevorrichtung kann entweder vor oder nach der Bewegung durch den Manipulator von der zweiten auf die erste Position erfolgen.
  • Die oben aufgeführten Schritte werden wiederholt, bis die Merkmalsposition und andere für die Hand-Auge-Kalibrierung relevante Daten akkumuliert und gespeichert sind, woraufhin die akkumulierten Daten verwendet werden, um mindestens eine Sehsystemkamera in Bezug auf die zweite Position per Hand-Auge-Kalibrierung zu kalibrieren. Dies erlaubt das Verknüpfen des ersten Koordinatenraums mit dem zweiten Koordinatenraum durch den gemeinsamen Koordinatenraum relativ zu der Bewegungswiedergabevorrichtung, erhalten von der Hand-Auge-Kalibrierung. Veranschaulichend umfasst die zweite Position ein zweites Werkstück an der Bewegungswiedergabevorrichtung, in welches das erste Werkstück in einer gewünschten Ausrichtung mit dem zweiten Werkstück in Eingriff platziert wird. Bei dem zweiten Werkstück kann es sich um ein Teil, einen Behälter oder ein Rahmengestell für die Weiterverarbeitung des ersten Werkstückes handeln, und die Operation kann mindestens eine von einer Ausrichtungsoperation in Bezug auf einen anderen Gegenstand, eine Bedruckoperation auf dem ersten Werkstück und einer Auftragungsoperation auf dem ersten Werkstück sein.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die untenstehende Erfindungsbeschreibung nimmt Bezug auf die beigefügten Zeichnungen, von denen:
  • 1 ein Diagramm eines Mehrfach-Kamera-Sehsystems ist, angeordnet in Bezug auf eine beispielhafte Umgebung eines Pick-and-Place-Zusammenbaus, das einen an der Aufleseposition angeordneten Pick-and-Place-Manipulator zum Extrahieren eines Werkstückes zum Transport zu einer Ablegeposition zeigt, wobei eine der Positionen eine beispielhafte Hebebühne, die zusammen mit einem Werkstückzusammenbausystem verwendet wird, und einen Sehprozessor mit assoziierten Werkzeugen und Prozessen für die Kalibrierungs-, Trainier- und Laufzeit-Operation umfasst;
  • 2 ein Diagramm eines Zwei-Kamera-Sehsystems ist, angeordnet in Bezug auf eine beispielhafte Pick-and-Place-Zusammenbau-Anordnung, in der ein Werkstück mit einem anderen Werkstück ausgerichtet wird, das den auf der Ablegeposition befindlichen Pick-and-Place-Manipulator zeigt, wobei das erste, aufgelesene Werkstück auf das zweite Werkstück platziert wird;
  • 3 ein Ablaufdiagramm ist, das eine verallgemeinerte Übersicht eines Verfahrens zum Verknüpfen eines ersten Koordinatenraums an einer ersten Position mit einem zweiten Koordinatenraum an einer zweiten Position auf Grundlage der Abbildung eines Laufzeit-Werkstückes zeigt, das an jeder Position von dem Manipulator aufgegriffen wird, wobei das Kamerasystem in Bezug auf eine der Positionen kalibriert wird;
  • 4 ein detailreicheres Ablaufdiagramm des in 3 allgemein beschriebenen Verfahrens zum Verknüpfen des Koordinatenraums einer ersten Position mit einem Koordinatenraum einer zweiten Position unter Verwendung von Merkmalen von einem oder mehreren Bildern von Laufzeit-Werkstücken an jeder Position ist, wobei die Merkmale an jeder Position die gleichen sind;
  • 5 ein detailreicheres Ablaufdiagramm des in 3 allgemein beschriebenen Verfahrens zum Verknüpfen des Koordinatenraums einer ersten Position mit einem Koordinatenraum einer zweiten Position unter Verwendung von Merkmalen von einem oder mehreren Bildern von Laufzeit-Werkstücken an jeder Position ist, wobei mindestens einige der Merkmale an jeder Position aufgrund von Sichtbarkeitsunterschieden in jedem jeweiligen Sichtfeld unterschiedlich sind;
  • 6 ein Ablaufdiagramm eines Verfahrens zum Verknüpfen des Koordinatenraums einer ersten Position mit einem Koordinatenraum einer zweiten Position durch Durchfürung separater Hand-Auge-Kalibrierungen an der ersten Position und der zweiten Position ist; und
  • 7 ein Ablaufdiagramm eines zusätzlichen Prozesses relativ zu den Verfahren der 4 und 5 ist, worin Merkmale an mehreren unbekannten Lagen extrahiert und die akkumulierten Merkmale verwendet werden, um Koordinatenräume an jeder Position zu verknüpfen.
  • DETAILLIERTE BESCHREIBUNG
  • 1 veranschaulicht ein Zusammenbausystem 100 mit einem beispielhaften Pick-and-Place(Manipulator)-Mechanismus 120, der das System und Verfahren zum Kalibrieren unter Verwendung eines Gegenstandes (erstes Werkstück) einsetzen kann, welches in der Laufzeit-Operation für den Zusammenbau mit einem zweiten Werkstück auf einer zweiten Position, einer Ausführungsform gemäß, durch den Manipulator manipuliert (zwischen Positionen/Stationen überführt) wird. Die Positionen umfassen insbesondere eine Aufleseposition 122, auf welcher sich das zu überführende Laufzeit-Werkstück 124 anfänglich befindet, und eine Platzierungsposition 110, auf der sich ein zweites Werkstück 112, mit dem das erste Werkstück 124 zusammengebaut wird, befindet. Der Manipulator kann einen Greifer umfassen, der (z. B.) einen Saugteller 125 zum selektiven Ineingriffnehmen des ersten Werkstückes 124 umfasst. Selektiv liest der Manipulator 120 das erste Werkstück 124 auf (Pfeil 130) und überführt es (Pfeil 132) auf eine Ausrichtungsposition 126 an dem zweiten Werkstück 112. In diesem Beispiel ist eine Schiene 128 zum Führen des Manipulators 120 entlang eines wiederholbaren Pfades bereitgestellt. Diese Schiene ist optional, und jede Ausführungsart, welche eine wiederholbare Bewegung des Manipulators 120 zwischen Auflese- und Platzierungspositionen ermöglicht, ist ausdrücklich vorgesehen. Zur Veranschaulichung definiert der Manipulator einen Koordinatenraum 134, der sich durch die Achsen Xm, Ym und Zm kennzeichnet, worin sich der Manipulator 120 mindestens entlang der Achse Ym und entlang einer Auflese-/Platzierungsrichtung auf der Achse Zm bewegt. Die Drehung θzm um die Achse Zm ist ebenfalls dargestellt, kann jedoch von dem Manipulator ausgeführt werden oder nicht. Die von dem Manipulator ausgeführten Bewegungen sind beliebig, und das Sehsystem arbeitet im Allgemeinen unabhängig von derlei Bewegungen, die zur Veranschaulichung gezeigt werden.
  • Die Aufleseposition 122 und/oder Platzierungsposition 110 definieren jeweils eine Plattform, auf welche jeweilige Werkstücke 124 und 112 im Vorfeld einer Pick-/Place-Operation positioniert werden. Die Werkstücke 124, 112 können durch jedes akzeptierbare Verfahren auf den Positionen/Plattformen (112 bzw. 110) abgelegt werden – z. B. ein Band von einer Werkstücksquelle, einen Robotermanipulator, manuelles Platzieren durch einen Anwender usw. In anderen Ausführungsformen kann das Werkstück 124 durch den Manipulator auf der ersten Position 110 gehalten werden und wird nicht auf der Position/Plattform 122 abgelegt. In dem beispielhaften System kann jede der Positionen/Plattformen 122, 110 eine Hebebühne umfassen, welche sich in einem oder mehreren Freiheitsgraden mit gewünschter Genauigkeit bewegt. Eine solche Hebebühne wird bereitgestellt, um eine Ausrichtung zwischen Werkstücken vor oder nach der wiederholbaren Pick-and-Place-Bewegung zu etablieren. Sprich, eines der Werkstücke wird durch die Hebebühne vor-ausgerichtet, und anschließend behält die Pick-/Place-Operation die zuvor festgelegte Ausrichtung bei, während sie sich durch den definierten Pfad bewegt. Alternativ kann die Endausrichtung des Werkstückes direkt vor der Zusammenbau-/Platzierungsbewegung erfolgen, nachdem die Pick-/Place-Operation das Werkstück bewegt. Jede Plattform (von denen jede eine Hebebühne umfassen kann) definiert ihren eigenen Koordinatenraum, der als der lokale, kalibrierte Koordinatenraum der Position betrachtet werden kann. Sprich, die Aufleseplattform 122 definiert einen ersten Koordinatenraum Xs1, Ys1, Zs1 (orthogonale Achsen 135), und die Platzierungsplattform 110 definiert einen zweiten Koordinatenraum Xs2, Ys2, Zs2 (orthogonale Achsen 137). Umfasst jede Plattform eine Hebebühne, so kann die Bewegung entlang einer oder mehrerer der dargestellten Koordinatenachsen und gegebenenfalls in mindestens einem Rotations-Freiheitsgrad (d. h. entlang θzs1 oder θzs2, wie dargestellt) erfolgen.
  • In dieser beispielhaften Systemumgebung/-anordnung 100 bildet mindestens eine Kamera 142, 140 jeweils eine Position (122, 110) ab. Alternativ können eine einzelne Kamera oder mehrere Kameras beide Positionen in einem einzelnen Sichtfeld (FOV) abbilden. Im Allgemeinen, und wie hier beschrieben, ist vorgesehen, dass die gleichen oder verschiedenen Merkmale des Werkstückes an jeder Position für eine oder mehrere Kameras sichtbar sind, wenn das Werkstück an der Position positioniert wird. Die Kameras 140, 142 sind mit einem Sehprozess(or) 160 vernetzt. Eine oder beide Positionen 122, 110 können gegebenenfalls zusätzliche Kameras 144 (mit Strichlinien dargestellt) umfassen. Der Sehprozess(or) 160 ist zudem mit einer Hebebühnensteuerung 170 auf der assoziierten Position wirkvernetzt, welche dem Prozessor 160 Bewegungsinformationen (z. B. Encoder- oder Stepperdistanz/Impulsinformationen) 172 zur Verwendung beim Bestimmen der physischen Position der Bühne und des assoziieren Werkstückes bereitstellt. Da die Hebebühne gegebenenfalls sowohl an Position 122 als auch 110 positioniert werden kann, sind die Steuerung 170 und assoziierten Bewegungsinformationen 172 im Falle beider Positionen ähnlich dargestellt. Während einer Hand-Auge-Kalibrierung (weiter unten beschrieben) wird die Bühne bewegt, während Bewegungsinformationen aufgezeichnet und mit dem erfassten Bild/den erfassten Bildern korreliert werden.
  • Die Kameras 140, 142, 144 sind jeweils mit dem Sehsystemprozessor und assoziierten Sehsystemprozess 160 wirkverbunden, der als ein benutzerdefinierter Sehprozessorkreis innerhalb eines oder mehrerer Kameragehäuse, in seiner Gesamtheit oder teilweise, integriert sein kann oder innerhalb einer vernetzten Rechnervorrichtung 180 bereitgestellt sein kann, einschließlich eines PC, Laptops, Tablets, Smartphones oder dergleichen mit einer geeigneten graphischen Benutzeroberfläche (GUI – z. B. Anzeige und/oder berührungsempfindlicher Bildschirm 182, Tastatur 184 und/oder Maus 186), ohne darauf beschränkt zu sein, um den Einstellung-(Kalibrierungs-), Trainier- und/oder Laufzeit-Betrieb zu unterstützen. Hinweis: in Zusammenbau-Systemen, bei denen mehr als eine Kamera eingesetzt wird, ist jede Kamera derart angepasst, dass sie entweder ihr erfasstes Bild oder aus dem Bild extrahierte Informationen an einen zentralen Prozessor sendet. Der zentrale Prozessor integriert anschließend die Information von den unterschiedlichen Kameras während des Zusammenbaus. Der Sehprozess(or) 160 führt eine Vielzahl von Sehsystemprozessen (oder -elementen/-modulen) durch, einschließlich unterschiedlicher Hilfsmittel 162 wie etwa Kantentaster, Blobanalysevorrichtungen, Suchhilfsmittel, Tastvorrichtungen usw. Veranschaulichend umfasst der Sehprozess(or) 160 einen Ausrichtungsprozess(or) 164, der die Ausrichtung von Bilddaten von den beiden Werkstücken in einer weiter unten beschriebenen Weise ausführt. Ein Kalibrierungsprozess(or) 166 vereinfacht das Durchführen von Kamerakalibrierungen und Hand-Auge-Kalibrierungen, die weiter unten beschrieben werden. Veranschaulichend führt ein Trainierprozess(or) 168 die unterschiedlichen, hier vorgesehenen Trainierprozeduren aus, um die Werkstücke derart zu repositionieren, dass das zweite Werkstück relativ zu dem ersten Werkstück genau zusammengebaut wird. Hinweis: der Sehprozessor 160 kann als eine Mehrzahl an vernetzten Kameraprozessoren (oder anderen Vorrichtungen) oder ein zentraler Prozessor in einem einzelnen Kamerazusammenbau (oder einer Fernverarbeitungsvorrichtung) aufgestellt sein.
  • Weiterer Hinweis: die hier in unterschiedlichen Ausführungsformen dargestellte physische Werkstückzusammenbauanordnung enthält eine beliebige Anzahl an Kameras, die unterschiedliche Regionen der Plattform/Hebebühne abbilden. Die Anzahl der Kameras, die beim Abbilden jeder Position (und/oder der Zusammenbaugesamtumgebung) verwendet werden, ist in wechselnden Anordnungen stark variabel. Gleichermaßen ist die Anzahl der Positionen innerhalb des Gesamtsystems, an denen der Manipulator eine Aufgabe durchführt, stark variabel.
  • Zudem versteht sich, dass die dargestellte Zusammenbauumgebung für eine Vielzahl an Anordnungen beispielhaft ist, in welchen ein erstes Werkstück durch einen (z. B.) wiederholbaren Manipulator von einer ersten Position auf eine andere Position, auf der eine Operation an dem ersten Werkstück durchgeführt wird, überführt wird. Die Operation kann ein Ineingriffnehmen mit einem zweiten Werkstück in einer gewünschten Ausrichtung beinhalten, oder sie kann unter Verwendung eines geeigneten Mechanismus direkt an dem ersten Werkstück durchgeführt werden. Zum Beispiel kann es sich bei dem zweiten Werkstück um ein Teil, mit dem das erste Werkstück zusammengebaut wird, einen Behälter/eine Box, in den/die das erste Werkstück platziert wird, und/oder ein Rahmengestell, in welches das erste Werkstück platziert wird – zum Beispiel als Teil einer Kittanordnung – handeln. Über ein solches Platzieren hinaus kann die Operation zudem das Bedrucken oder Auftragen von Haftetiketten auf das erste Werkstück beinhalten, wobei es einem Laser-, Schneid-, Werkzeugträger oder einer anderen Vorrichtung und/oder jedem beliebigen anderen Prozess, der das Werkstück modifiziert, ausgesetzt wird. Weitere Definitionen für die Operation und das zweite Werkstück sind unten bereitgestellt. Im Allgemeinen ist hauptsächlich vorgesehen, dass das System und Verfahren das Verknüpfen der Koordinatenräume der Kamera(s), welche die erste Position und die zweite Position abbilden, ermöglicht, damit eine Operation in einer wünschenswerten Art und Weise erfolgen kann.
  • Bevor die Einzelheiten des veranschaulichenden Systems und Verfahrens weiter beschrieben werden, wird auf die folgenden Begriffsbestimmungen verwiesen, die dem Leser beim Verstehen der hier präsentierten Konzepte helfen sollten: Begriffsbestimmungen
    „Kalibrierter Koordinatenraum” Ein Koordinatenraum, der durch das während einer Kamerakalibrierung, Hand-Auge-Kalibrierung oder einem anderen Kalibrierungsprozess verwendete Kalibrierziel definiert wird.
    „Gemeinsamer Koordinatenraum” Während der Laufzeit werden durch die Kameras in dem System erfasste Merkmale diesem Raum zugeordnet. Der gemeinsame Koordinatenraum ist den Positionen gemeinsam.
    „Bildkoordinatenraum” Der Koordinatenraum eines erfassten Bildes oder der Koordinatenraum eines transformierten Bildes.
    „Bewegungskoordinatenraum” Der native Koordinatenraum, der mit der Bewegungswiedergabevorrichtung (z. B. Hebebühne) assoziiert ist.
    „Werkstückskoordinatenraum” Der mit einem Werkstück assoziierte Koordinatenraum. Mögliche Quellen für diesen Koordinatenraum sind eine CAD-Spezifizierung oder CMM-Wiedergabe des Werkstückes.
    „KalibriertVonBildtransformation” Die Transformation, welche dem kalibrierten Koordinatenraum Punkte von dem Bildkoordinatenraum zuordnet.
    „Kamerakalibrierung” Ein Prozess zum Etablieren der Transformation zwischen dem Bild- und dem kalibrierten Koordinatenraum.
    „Hand-Auge-Kalibrierung” Ein dem Fachmann bekannter Prozess zum Etablieren von Transformationen zwischen dem Bild-, dem kalibrierten und dem Bewegungskoordinatenraum.
    „Alle” Kameras Bezieht sich auf sämtliche Kameras, die von dem System in der Zusammenbauaufgabe hier verwendet werden. Es ist ausdrücklich vorgesehen, dass einige Kameras, die von dem Sehsystem (oder anderen Prozessen) verwendet werden, die ansonsten die Szene abbilden würden, bei der Zusammenbauaufgabe ausgelassen werden können. Es ist hauptsächlich vorgesehen, dass eine oder mehrere (mindestens eine) Kamera(s) (welche dieselbe Kamera sein kann) jede Position in dem Zusammenbau abbildet und zu dem gemeinsamen Koordinatensystemraum kalibriert wird/werden.
    „Operation” Bezeichnet einen Prozess, der auf der ersten Position, der zweiten Position oder einer Position, die von der ersten Position und der zweiten Position zumindest teilweise entfernt ist, an dem oder in Bezug auf das erste Werkstück durchgeführt wird. Bei der Operation kann es sich (z. B.) um eine Zusammenbauoperation in Bezug auf ein zweites Werkstück, das Platzieren des ersten Werkstückes in eine Box oder ein Rahmengestell (d. h. Kitting) oder eine Modifikation des ersten Werkstückes wie etwa Bedrucken, Etikettenauftragung, Klebstoffauftragung usw. unter Verwendung geeigneter Mechanismen handeln.
    „Erstes Werkstück” Bezeichnet ein Teil oder einen anderen Gegenstand, das/der in einer tatsächlichen Laufzeitoperation des Manipulatorsystems (z. B. eines Zusammenbausystems) verwendet wird – auch als „Laufzeit-Werkstück” bezeichnet. Das erste Werkstück schließt ausdrücklich ein Kalibrierziel/eine Kalibrierplatte oder einen anderen Gegenstand aus, der für die Systemeinstellung/das Systemtrainieren, die/das keinen Bestandteil eines Fertigungs- oder anderen Laufzeitprozesses bildet, die Post-Kalibrierung und das -Trainieren verwendet wird.
    „Zweites Werkstück” Bezeichnet ein sich auf einer zweiten Position befindliches Werkstück, mit dem das erste Werkstück auf Grundlage einer Ausrichtung zusammengebaut wird, welche (z. B.) unter Verwendung einer Bewegungswiedergabevorrichtung (Hebebühne) entweder auf der ersten Position oder der zweiten Position bewerkstelligt werden kann. Ein zweites Werkstück kann zudem einen Behälter (eine Box) oder ein Rahmengestell bezeichnen, worin das erste Werkstück platziert wird.
  • Mit kurzem Verweis auf 2 ist der Manipulator 120 derart gezeigt, dass er sich entlang der Schiene 180 von der ersten Position 122 auf die zweite Position 110 bewegt hat, wobei sich das erste Werkstück 124 in seinem Greifer 150 befindet. Der Manipulator 120 ist derart gezeigt, dass er das erste Werkstück 126 genau in die ausgerichtete Empfangsposition 126 an dem zweiten Werkstück 112 platziert. Diese Ausrichtung wird durch die Kameras 140, 142 und den assoziierten Sehsystemprozess(or) 160 etabliert, indem die Hebebühne auf Grundlage des gemeinsamen Koordinatenraums bewegt wird. Dieser gemeinsame Koordinatenraum wird während der Kalibrierung etabliert, indem die kalibrierten Koordinatenräume von jeder der beiden Positionen 122, 110 miteinander verknüpft werden, wie nun unten beschrieben wird.
  • Für ein allgemeines Verständnis bestimmter Kalibrierungsprinzipien kann eine Bewegung für einen festen Körper wie etwa ein Kalibrierziel durch ein Paar von Lagen gekennzeichnet sein: eine Startlage, die einer Bewegung unmittelbar vorausgeht, und eine Endlage, die der Bewegung unmittelbar folgt – wobei eine „Lage” hier als ein Satz numerischer Werte zum Beschreiben der Position und Orientierung eines Körpers zu jedem beliebigen bestimmten Zeitpunkt in einem darunterliegenden Koordinatenraum – eine virtuelle Charakterisierung des Körpers – definiert ist. Zum Beispiel kann eine Lage bei zwei Dimensionen durch drei Zahlen gekennzeichnet sein: eine Übersetzung bei X, eine Übersetzung bei Y und eine Drehung R (oder θ). Eine Lage im Kontext eines Kalibrierziels beschreibt, wie sich das Kalibrierziel der/den Kamera(s) präsentiert. Typischerweise wird ein Kalibrierziel in einer sogenannten Standard-„Hand-Auge-Kalibrierung” durch eine Bewegungswiedergabevorrichtung an einige verschiedene Lagen in Bezug auf die Kamera(s) bewegt, und jede Kamera erfasst ein Bild des Kalibrierziels an jeder solchen Lage. Das Ziel einer solchen Hand-Auge-Kalibrierung besteht darin, die Lagen der Kamera(s), die Lagen des Kalibrierziels und die Lagen der Bewegungswiedergabevorrichtung in einem einzelnen Koordinatenraum, der als der „kalibrierte Koordinatenraum” bezeichnet werden kann, zu bestimmen. Typischerweise wird eine „Bewegung” durch eine physikalische Vorrichtung bereitgestellt, welche physikalische Bewegung wiedergeben kann, wie etwa ein Roboterarm oder eine Hebebühne oder ein Portal. Hinweis: entweder kann sich das Ziel relativ zu einer oder mehreren stationären Kamera(s) bewegen, oder die Kamera(s) können sich relativ zu einem stationären Ziel bewegen, wie etwa, wenn die Kameras an der physischen Vorrichtung, die Bewegung bereitstellt, befestigt sind. Die Steuerung einer solchen Bewegungswiedergabevorrichtung gebraucht numerische Werte (d. h. Lagen), um Befehle an die Vorrichtung auszugeben, jedwede gewünschte Bewegung wiederzugeben, und diese Werte werden in einem nativen Koordinatenraum für diese Vorrichtung, hier als der „Bewegungskoordinatenraum” bezeichnet, interpretiert. Nun wird mit Verweis auf 3 ein Kalibrierungsgesamtprozess 300 zum Verknüpfen der Koordinatenräume zweier unabhängiger Postionen (z. B. eine Auflese- und eine Ablegeposition) unter Verwendung eines Laufzeit-Werkstückes, das durch den Manipulator zwischen den Positionen bewegt wird, beschrieben. Beachtenswerterweise umgeht die Verwendung eines Laufzeit-Werkstückes die Nachteile, die mit der Verwendung eines Kalibrierziels verbunden sind, und erlaubt es dem Anwender, auf praktische Weise die gleiche Struktur zu gebrauchen, die der Manipulator erwartungsgemäß in einer Laufzeitoperation handhaben wird. Der Prozess 300 beginnt bei Schritt 310 durch Anordnen von einer oder mehreren Kameras zum Abbilden/Erfassen eines oder mehrerer Bilder einer ersten Position und einer zweiten Position. Die Kamera(s) sehen Merkmal(e) eines Laufzeit-Werkstückes an jeder Position ein – wobei die Merkmale in ihrer Gesamtheit oder teilweise auf jeder Position dieselben oder auf jeder Position verschieden sein können. Bei Schritt 320 werden die Kamera(s), die Merkmale auf der ersten Position oder der zweiten Position einsehen, zu einem jeweiligen kalibrierten Koordinatenraum kalibriert. Dies kann eine Hand-Auge-Kalibrierung umfassen, indem ein Kalibrierziel durch die Bühne bewegt wird und der Koordinatenraum auf Grundlage einer solchen Bewegung in Verbindung mit durch die Bühne bereitgestellten Bewegungsinformationen etabliert wird. Alternativ kann dies einen Kalibrierungsprozess umfassen, der sich unter Verwendung eines oder mehrerer Bilder eines speziellen Kalibrierziels wie etwa der Riffelgitterkalibrierplatte bewerkstelligen lässt, wodurch alle Kameras auf der Position mit dem entsprechenden Koordinatenraum verknüpft werden. Bei Schritt 330 werden Bilder des Laufzeit-Werkstückes durch eine oder mehrere Kamera(s) erfasst, die das Werkstück auf der ersten Position einsehen, und die Positionen von Merkmalen an dem Laufzeit-Werkstück werden auf der ersten Position identifiziert/extrahiert. Die identifizierten/extrahierten Merkmale werden anschließend zum Assoziieren des Werkstückes in Bezug auf einen ersten kalibrierten Koordinatenraum – typischerweise mit der ersten Position bei Schritt 340 verbunden – verwendet. Die Merkmale können jede beliebigen identifizierbaren visuellen Elemente an dem Werkstück sein, und insbesondere jene, die allein oder in Kombination die Orientierung und Position des Werkstückes einzigartig definieren. Demnach können, wenn Kanten und Ecken als identifizierte Merkmale eingesetzt werden, derlei Kanten und Ecken für eine bestimmte Position an dem Gesamtwerkstück (z. B. eine Einkerbung auf einer Seite des Werkstückes) einzigartig sein. Die Merkmalsextraktion lässt sich unter Verwendung unterschiedlicher Sehsystemhilfsmittel (z. B. Kantendetektoren, Blobanalysevorrichtungen usw.) 162 (1) dem Fachwissen entsprechend bewerkstelligen.
  • Bei Schritt 350 wird das Laufzeit-Werkstück von dem Manipulator (z. B. durch Anwendung eines Saugtellers 125 auf das Laufzeit-Werkstück 124 in 1) aufgegriffen, und das Werkstück wird auf die zweite Position bewegt. Diese Bewegung erfolgt mindestens einmal (und kann unter Verwendung verschiedener Lagen, wie unten mit Verweis auf 7 beschrieben, mehrere Male erfolgen). Anschließend, bei Schritt 360, erfasst/erfassen die Kamera(s) auf der zweiten Position (dort Werkstücksmerkmale einsehend) ein oder mehrere Bilder des Werkstückes (in dem Bildkoordinatenraum davon). Merkmale, die die gleichen wie jene sind, welche auf der ersten Position eingesehen wurden, oder die verschieden sind, werden auf der zweiten Position verwendet, um Positionen an dem Werkstück auf der zweiten Position zu finden. Dort, wo die Merkmale die gleichen sind, können die Koordinatenräume direkt verknüpft werden. Dort, wo die Merkmale verschieden sind, erlaubt es eine Spezifizierung des Werkstückes, wie etwa eine CAD-Zeichnung oder gemessene Repräsentation/Wiedergabe (d. h. unter Verwendung eines Koordinatenmessgerätes CMM zum Messen des Werkstückes und Speichern der Abmessungen), dass die Merkmale an jeder Position durch den Kalibrierprozess des Sehsystems in Übereinstimmung gebracht werden. Dank der in Übereinstimmung gebrachten Merkmale kann daraufhin jeder Koordinatenraum verknüpft werden. Hinweis: dort, wo eine der Positionen über Schritt 320 per Hand-Auge-Kalibrierung kalibriert wird, kann der berechnete gemeinsame Koordinatenraum der gleiche wie der Bewegungskoordinatenraum der Hebebühne sein.
  • Bei den 4 und 5 handelt es sich um ausführlichere Beschreibungen von zwei unabhängigen Verfahren/Prozessen 400 bzw. 500 zum Verknüpfen von Koordinatenräumen auf der ersten Position und der zweiten Position gemäß dem verallgemeinerten Prozess von 3. In 4 umfasst der Prozess 400 den Schritt 410, bei dem eine oder mehrere Kameras zum Abbilden von zwei Positionen, von denen eine eine Hebebühne umfassen kann, angeordnet sind. Wie oben beschrieben, kann eine optionale Hand-Auge-Kalibrierung mit den Kamera(s), welche die Position mit einer Hebebühne einsehen, zum Etablieren des kalibrierten Koordinatenraums durchgeführt werden. Allgemeiner können die Kamera(s), welche die erste und die zweite Position abbilden, bei Schritt 420 unter Verwendung eines geeigneten Kalibrierziels kalibriert werden. Bei Schritt 440 erfassen die Kamera(s) ein oder mehrere Bilder des Werkstückes auf der ersten Position, und die Bilder werden zum Verorten von Merkmalen, MerkmaleBild1, an dem Werkstück unter Verwendung geeigneter Sehsystemhilfsmittel (Schritt 450) verwendet. Diese Merkmale können dem kalibrierten Koordinatenraum an der ersten Position zugeordnet werden (MerkmaleKalibriert1 = Kalibriert1VonBild1·MerkmaleBild1). Das Laufzeit-Werkstück wird anschließend von dem Manipulator aufgegriffen und auf die zweite Position bewegt. Wo die Kamera(s) ein oder mehrere Bilder des Laufzeit-Gegenstandes (Schritt 460) erfassen. Bei diesem Verfahren sind die gleichen Merkmale, MerkmaleBild1, ebenfalls durch die Kamera(s) an der zweiten Position, MerkmaleBild2, sichtbar. Bei Schritt 470 verortet die Kamera(s) auf der zweiten Position demnach die gleichen Merkmale an dem Laufzeit-Werkstück, und der Prozess 400 ordnet die Positionen auf Grundlage der Kalibrierdaten auf der zweiten Position zu (MerkmaleKalibriert2 = Kalibriert2VonBild2·MerkmaleBild2). Anschließend berechnet der Prozess 400 bei Schritt 480 eine Transformation, Kalibriert1VonKalibriert2, welche MerkmaleKalibriert2 zu den MerkmalenKalibriert1 (aus Schritt 450) zuordnet. Diese Transformation wird verwendet, um die Koordinatenräume an den beiden Positionen gemäß dem folgenden Verhältnis miteinander zu verknüpfen: MerkmaleKalibriert1 = Kalibriert1VonKalibriert2·MerkmaleKalibriert2
  • Wurde die Position, welche die Bühne enthält, gegebenenfalls per Hand-Auge-Kalibrierung kalibriert, so kann die Transformation Kalibriert1VonKalibriert2 in Kombination mit den Hand-Auge-Kalibrierungsergebnissen zum Anleiten des Zusammenbaus des Teils während der Laufzeit verwendet werden.
  • In 5 umfasst der Prozess 500 den Schritt 510, bei dem eine oder mehrere Kameras zum Abbilden von zwei Positionen, von denen eine eine Hebebühne umfassen kann, angeordnet sind. Wie oben beschrieben, kann eine optionale Hand-Auge-Kalibrierung mit den Kamera(s), welche die Position mit einer Hebebühne einsehen, zum Etablieren des kalibrierten Koordinatenraums durchgeführt werden. Bei den Schritten 520 und 530 können die erste und die zweite Position unter Verwendung eines geeigneten Kalibrierziels kalibriert werden. Bei Schritt 540 erfassen die Kamera(s) ein oder mehrere Bilder des Werkstückes an der ersten Position, und die Bilder werden zum Verorten von Merkmalen an dem Werkstück, MerkmaleBild1, unter Verwendung geeigneter Sehsystemhilfsmittel verwendet. Bei Schritt 550 können diese Merkmale dem kalibrierten Koordinatenraum an der ersten Position zugeordnet werden, MerkmaleKalibriert1. Bei Schritt 560 berechnet der Prozess 500 eine Transformation, WerkstückVonKalibriert1, welche Werkstückmerkmale in einem ersten kalibrierten Koordinatenraum, MerkmaleKalibriert1, (aus Schritt 550) an der ersten Position dem folgenden Verhältnis gemäß dem gespeicherten Werkstückskoordinatenraum zuordnet: MerkmaleWerkstück = WerkstückVonKalibriert1·MerkmaleKalibriert1
  • Der Werkstückskoordinatenraum wird auf Grundlage eines Computer-Aided-Design(CAD)-Modells von dem Werkstück erstellt, welches eine Repräsentation der Merkmalsparameter beinhaltet. Alternativ lässt sich die Spezifizierung des Laufzeit-Werkstück-Koordinatenraums durch physikalisches Messen des Werkstückes – zum Beispiel unter Verwendung eines Koordinatenmessgerätes (CMM) dem Durchschnittsfachwissen gemäß etablieren. Die Parameter werden zur Verwendung durch den Zuordnungsprozess gespeichert.
  • Das Laufzeit-Werkstück wird anschließend von dem Manipulator aufgegriffen und auf die zweite Position bewegt. Wo die Kamera(s) ein oder mehrere Bilder des Laufzeit-Gegenstandes (Schritt 570) erfassen. Bei diesem Verfahren könnten eines oder mehrere der an der zweiten Position eingesehenen Merkmale von denjenigen Merkmalen abweichen, die auf der ersten Position eingesehen/abgebildet wurden. Dies kann sich daraus ergeben, dass die gleichen Merkmale wegen Hindernissen, dem Sichtfeld (FOV) der Kamera(s) usw. für die Kamera(s) nicht auf beiden Positionen sichtbar sind. Bei Schritt 580 verorten die Kamera(s) auf der zweiten Position die sichtbaren Merkmale, MerkSichtAuf2Bild2, an dem Laufzeit-Werkstück, und die Positionen werden auf Grundlage der Kalibrierdaten auf der zweiten Position zugeordnet (MerkSichtAuf2Kalibriert2 = Kalibriert2VonBild2·MerkSichtAufBild2). Die entsprechenden Punkte in dem Werkstückskoordinatenraum werden aufgefunden, MerkSichtAuf2Werkstück. Anschließend verwendet der Prozess 500 bei Schritt 590 die Rücktransformation WerkstückVonKalibriert1 aus Schritt 560 zum Berechnen der Position von Merkmalen, die auf der zweiten Position in dem ersten kalibrierten Raum sichtbar sind, wenn sich derlei Merkmale auf der ersten Position befanden: MerkSichtAuf2Kalibriert1 = Kalibriert1VonWerkstück·MerkSichtAuf2Werkstück.
  • Bei Schritt 592 werden die berechneten Merkmalspositionen von der ersten Position und die entsprechenden detektierten Merkmalspositionen auf der zweiten Position verwendet, um die Koordinatenräume an jeder dieser Positionen gemäß dem folgenden Verhältnis miteinander zu verknüpfen: MerkSichtAuf2Kalibriert1 = Kalibriert1VonKalibriert2·MerkSichtAuf2Kalibriert2
  • Wurde die Position, welche die Bühne enthält, per Hand-Auge-Kalibrierung kalibriert, so kann die Transformation Kalibriert1VonKalibriert2 in Kombination mit den Hand-Auge-Kalibrierungsergebnissen zum Anleiten des Zusammenbaus des Teils während der Laufzeit verwendet werden.
  • Hinweis: in unterschiedlichen Ausführungsformen ist es ausdrücklich vorgesehen, dass die Zuordnung von dem Bildkoordinatenraum zu dem Kalibrierungskoordinatenraum auf der ersten Position gleich Einheit sein kann. Dieses Verfahren nimmt Anordnungen auf, in denen die zweite Position kalibriert wird, und die Bildmerkmale auf der ersten Position werden dem Kalibrierungskoordinatenraum auf der zweiten Position zugeordnet, wie in den 35 beschrieben.
  • 6 detailliert ein Verfahren/einen Prozess 600 gemäß einem anderen vorgesehenen Verfahren zum Verknüpfen der Koordinatenräume zweier unabhängiger Positionen, worin sowohl die Kamera(s) der ersten Position als auch die Kamera(s) der zweiten Position kalibrierungsfrei sind. In dieser Anordnung ist vorgesehen, dass jede Position separat per Hand-Auge-Kalibrierung kalibriert werden kann, wobei beide Positionen mit demselben gemeinsamen Koordinatenraum relativ zu der Hebebühne verknüpft werden. Bei Schritt 610 werden die Kamera(s) zum Abbilden jeder Position angeordnet. Die Position (d. h. erste Position), welche die Hebebühne enthält, wird bei Schritt 620 per Hand-Auge-Kalibrierung kalibriert. Das Laufzeit-Werkstück wird anschließend auf der Bühne-enthaltenden ersten Position bei Schritt 630 platziert. Das Laufzeit-Werkstück wird danach bei Schritt 640 aufgegriffen und auf die zweite Position bewegt, wo ein oder mehrere Bilder mit der/den Kamera(s) erfasst werden. Merkmale an dem Werkstück werden bei Schritt 650 verortet. Gegebenenfalls können derlei Merkmale, wenn die CAD- oder CMM-Spezifizierung des Werkstückes verfügbar ist, in Bezug auf eine CAD- oder CMM-Repräsentation des Werkstückskoordinatenraums in Übereinstimmung gebracht werden. Die aus den Merkmalen abgeleitete Lage wird in einer Liste Xl1 gespeichert. Das Werkstück wird bei Schritt 660 erneut aufgegriffen und zurück auf die erste/Bühnenposition bewegt. Die Schritte 640, 650 und 660 werden wiederholt, während die Bühne bewegt wird, um neue Lagen mit jeder Wiederholung (Schritt 680) zu etablieren, bis genügend Daten erfasst und in der Liste Xl1 gespeichert sind. Der Prozess 600 wird dann (über den Entscheidungsschritt 670) bei Schritt 690 fortgesetzt, um die akkumulierten Daten aus Schritt 650 (Liste Xl1) zu verwenden, um die Kamera(s) an der zweiten Position per Hand-Auge-Kalibrierung zu kalibrieren. Die kalibrierten Kamerakoordinatenräume auf beiden Positionen werden demnach durch den gemeinsamen Koordinatenraum relativ zu der Hebebühne miteinander verknüpft.
  • Die Verfahren/Prozesse 400 und 500 (Schritte 450, 470 in 4 und Schritte 550 und 580 in 5) können verbessert werden, indem iterativ eine Merkmalsextraktion aus dem Laufzeit-Werkstück durchgeführt wird. Ein Überblick über diesen verbesserten Prozess 700 ist in 7 beschrieben. Bei Schritt 710 werden ein oder mehrere Bilder von dem Laufzeit-Werkstück an der ersten Position erfasst, und Merkmale werden extrahiert/identifiziert. Das Werkstück wird anschließend bei Schritt 720 von dem Manipulator aufgegriffen und bewegt, und Merkmale werden extrahiert/identifiziert (entweder die gleichen oder verschiedene Merkmale, wie oben beschrieben). Der Manipulator bewegt das Werkstück entweder iterativ auf die erste Position zurück, wobei er die Lage bei jedem Mal ungefähr verändert (Schritt 730), oder er überführt mehrfache Instanzen des Werkstückes mit einer ungefähr verschiedenen Lage. Das heißt, die Genauigkeit und Robustheit der Kalibrierung kann durch mehrfache Iterationen der Merkmalsextraktion und Akkumulation an entweder dem gleichen Werkstück einer Reihe verschiedener Werkstücke, die jeweils durch einen Bewegungszyklus zwischen verschiedenen Positionen bewegt werden, verbessert werden. Während jeder Wiederholung werden Merkmale aus Bildern auf der ersten Position und der zweiten Position über die Schritte 710 und 720 extrahiert, bis genügend Merkmalsdaten erhalten sind. Der Grenzwert kann auf einer festgesetzten Anzahl an Wiederholungen oder einer anderen Metrik beruhen. Der Prozess 700 wird anschließend (über den Entscheidungsschritt 740) mit Schritt 750 fortgesetzt, wo die akkumulierten Merkmalsdaten von mehreren Lagen verwendet werden, um die Koordinatenräume an jeder Position miteinander zu verknüpfen, wie oben allgemein beschrieben.
  • Es versteht sich, dass die oben beschriebenen Verfahren zum Verknüpfen der Koordinatenräume an zwei unabhängigen Positionen in einem Zusammenbauprozess unter Verwendung eines Laufzeit-Werkstückes Nachteile umgehen, welche mit der Verwendung eines Kalibrierziels verbunden sind. Diese Verfahren ermöglichen eine Flexibilität in der Art und Weise, auf die Kameras in Bezug auf jede Position angeordnet werden. Diese Verfahren ermöglichen zudem eine verbesserte/gesteigerte Genauigkeit durch die Wiederholung unterschiedlicher Schritte wie etwa der Merkmalsextraktion. Diese Verfahren umgehen zudem die Nachteile der oben beschriebenen vorbekannten Verfahren, welche entweder auf einer bekannten mechanischen Anordnung oder einem iterativen Trial-and-Error-Ansatz beruhen.
  • Bei dem Vorangehenden handelt es sich um eine ausführliche Beschreibung von veranschaulichenden Ausführungsformen der Erfindung. Es können unterschiedliche Modifikationen und Zusätze vorgenommen werden, ohne von Geist und Umfang dieser Erfindung abzuweichen. Merkmale von jeder der unterschiedlichen Ausführungsformen, die oben beschrieben wurden, können gegebenenfalls mit Merkmalen anderer beschriebener Ausführungsformen kombiniert werden, um eine Vielfalt von Merkmalskombinationen in assoziierten neuen Ausführungsformen bereitzustellen. Ferner beschreibt das Vorgehende zwar einige separate Ausführungsformen der Vorrichtung und des Verfahrens der vorliegenden Erfindung, jedoch ist, was hier beschrieben wurde, für die Anwendung der Prinzipien der vorliegenden Erfindung lediglich veranschaulichend. Zum Beispiel sollten die wie hier verwendeten Ausdrücke „Prozess” und/oder „Prozessor” breit gefasst werden, sodass sie eine Vielzahl an Funktionen und Komponenten, die auf elektronischer Hardware und/oder Software basieren (und alternativ als funktionelle „Module” oder „Elemente” bezeichnet werden können), umfassen. Außerdem kann ein dargestellter Prozess oder Prozessor mit anderen Prozessen und/oder Prozessoren kombiniert oder in unterschiedliche Teilprozesse oder -prozessoren aufgeteilt werden. Derlei Teilprozesse und/oder Teilprozessoren lassen sich gemäß den Ausführungsformen in dieser Schrift unterschiedlich kombinieren. Gleichermaßen ist es ausdrücklich vorgesehen, dass sich jede beliebige Funktion, jeder beliebige Prozess und/oder Prozessor in dieser Schrift unter Verwendung elektronischer Hardware, Software, die aus einem nichttransitorischen rechnerlesbaren Medium von Programmanweisungen besteht, oder einer Kombination aus Hardware und Software implementieren lässt. Außerdem werden unterschiedliche, hier verwendete richtungs- und orientierungsangebende Ausdrücke wie etwa „vertikal”, „horizontal”, „nach oben”, „nach unten”, „oben”, „unten”, „seitlich”, „vorn”, „hinten”, „links”, „rechts” und dergleichen ausschließlich als relative Konventionen und nicht als absolute Orientierungen in Bezug auf einen festen Koordinatenraum oder ein festes – system wie etwa die Wirkungsrichtung der Schwerkraft verwendet. Veranschaulichend umfasst eine Position eine Positionsbühne, jedoch ist es vorgesehen, dass mehrere Positionen Bühnen umfassen können – zum Beispiel, wobei eine erste Hebebühne das Werkstück entlang einer Achse bewegt, und die zweite Bühne das Werkstück entlang einer anderen orthogonalen Achse (oder einer Drehung, die von der ersten Bühne nicht bereitgestellt wird) bewegt. Dementsprechend soll diese Beschreibung ausschließlich beispielhaft aufgefasst werden und nicht, um gegenteilig den Umfang dieser Erfindung einzuschränken.

Claims (20)

  1. Verfahren zum Kalibrieren eines Sehsystems in einer Umgebung, in welcher ein erstes Werkstück auf einer ersten Position durch einen Manipulator auf eine zweite Position überführt wird, wobei eine an dem ersten Werkstück durchgeführte Operation auf dem Verknüpfen von Koordinatenräumen der ersten Position und der zweiten Position beruht, wobei das Verfahren die folgenden Schritte umfasst: Anordnen mindestens einer Sehsystemkamera zum Abbilden des ersten Werkstückes, wenn es auf der ersten Position positioniert wird, und zum Abbilden des ersten Werkstücks, wenn es auf der zweiten Position positioniert wird; Kalibrieren mindestens einer Sehsystemkamera in Bezug auf die erste Position, um erste Kalibrierdaten abzuleiten, welche einen ersten Koordinatenraum definieren, und mindestens einer Sehsystemkamera in Bezug auf die zweite Position, um zweite Kalibrierdaten abzuleiten, welche einen zweiten Koordinatenraum definieren; Identifizieren von Merkmalen von mindestens dem ersten Werkstück an der ersten Position ausgehend von einem ersten Bild des ersten Werkstückes; Verorten des ersten Werkstückes in Bezug auf den ersten Koordinatenraum relativ zu der ersten Position auf Grundlage der identifizierten Merkmale auf dem ersten Bild; Aufgreifen und Bewegen mit dem Manipulator, mindestens einmal, des ersten Werkstückes auf eine zuvor bestimmte Manipulatorposition auf der zweiten Position; Erfassen eines zweiten Bildes des ersten Werkstückes auf der zweiten Position; und Verorten des ersten Werkstückes in Bezug auf den zweiten Koordinatenraum relativ zu der zweiten Position auf Grundlage der identifizierten Merkmale auf dem zweiten Bild, und Verknüpfen des ersten Koordinatenraums und des zweiten Koordinatenraums miteinander.
  2. Verfahren nach Anspruch 1, wobei die identifizierten Merkmale auf dem ersten Bild die gleichen wie die identifizierten Merkmale auf dem zweiten Bild sind, und ferner umfassend (a) Zuordnen von Positionen der identifizierten Merkmale auf dem ersten Bild in Bezug auf die ersten Kalibrierdaten, (b) Zuordnen von Positionen der identifizierten Merkmale auf dem zweiten Bild in Bezug auf die zweiten Kalibrierdaten, und (c) Berechnen einer Transformation, welche die zugeordneten Merkmale auf der zweiten Position den zugeordneten Merkmalen auf der ersten Position zuordnet.
  3. Verfahren nach Anspruch 1, wobei sich einige der identifizierten Merkmale auf dem ersten Bild von den identifizierten Merkmalen auf dem zweiten Bild unterscheiden, und ferner umfassend (a) Zuordnen von Positionen der identifizierten Merkmale auf dem ersten Bild in Bezug auf die ersten Kalibrierdaten, (b) Berechnen einer Transformation relativ zu einer gespeicherten Spezifizierung von Merkmalspositionen des ersten Werkstückes, (c) Zuordnen von Positionen der identifizierten Merkmale auf dem zweiten Bild in Bezug auf die zweiten Kalibrierdaten, (d) Verwenden der bei Schritt (b) berechneten Transformation zum Ableiten von Positionen der identifizierten Merkmale aus dem zweiten Bild in dem ersten Koordinatenraum, wenn sich das Werkstück auf der ersten Position befindet, und (e) Berechnen einer Transformation, welche die zugeordneten Merkmale auf der zweiten Position den entsprechenden transformierten Merkmalen auf der ersten Position zuordnet.
  4. Verfahren nach Anspruch 3, wobei die Spezifizierung auf einem CAD-Modell des ersten Werkstückes beruht.
  5. Verfahren nach Anspruch 3, wobei die Spezifizierung auf einem gemessenen Modell des ersten Werkstückes beruht.
  6. Verfahren nach Anspruch 1, ferner umfassend (a) iteratives Bewegen des ersten Werkstückes mit einer Bewegungswiedergabevorrichtung entweder auf der ersten Position oder der zweiten Position zu einer Mehrzahl an verschiedenen Lagen, (b) Identifizieren von Merkmalen an jeder der Lagen auf jeder von der ersten Position und der zweiten Position, und (c) Akkumulieren der identifizierten Merkmalsinformationen zum Steigern der Genauigkeit, wobei das erste Werkstück entweder dasselbe Werkstück ist oder eines von einer Mehrzahl an unabhängigen Werkstücken ist.
  7. Verfahren nach Anspruch 1, ferner umfassend das Bereitstellen einer Zuordnung von einem Bildkoordinatensystem zu einem Kalibrierungskoordinatensystem auf der ersten Position, und wobei die Zuordnung eine Einheit ist.
  8. Verfahren nach Anspruch 1, wobei die zweite Position ein zweites Werkstück umfasst, in welches das erste Werkstück in einer gewünschten Ausrichtung mit dem zweiten Werkstück in Eingriff platziert wird.
  9. Verfahren nach Anspruch 8, wobei das zweite Werkstück ein Teil, ein Behälter oder ein Rahmengestell für die Weiterverarbeitung des ersten Werkstückes ist.
  10. Verfahren nach Anspruch 1, wobei die Operation mindestens eine von einer Ausrichtungsoperation in Bezug auf einen anderen Gegenstand, einer Bedruckoperation auf dem ersten Werkstück und einer Auftragungsoperation auf dem ersten Werkstück ist.
  11. Verfahren nach Anspruch 10, wobei die Operation zumindest teilweise auf einer von der ersten Position und der zweiten Position entfernten Position durchgeführt wird.
  12. Verfahren zum Kalibrieren eines Sehsystems in einer Umgebung, in welcher ein erstes Werkstück auf einer ersten Position durch einen Manipulator auf eine zweite Position überführt wird, wobei eine an dem ersten Werkstück durchgeführte Operation auf dem Verknüpfen von Koordinatenräumen der ersten Position und der zweiten Position beruht, wobei das Verfahren die folgenden Schritte umfasst: (a) Anordnen mindestens einer Sehsystemkamera zum Abbilden des ersten Werkstückes auf der ersten Position und zum Abbilden der zweiten Position; (b) Hand-Auge-Kalibrieren von mindestens einer Sehsystemkamera in Bezug auf die erste Position zum Ableiten von ersten Kalibrierdaten; (c) Positionieren des ersten Werkstückes an der ersten Position; (d) Bewegen des ersten Werkstückes von der ersten Position auf die zweite Position; (e) Erfassen eines Bildes und Verorten von Merkmalen an dem ersten Werkstück; (f) Bewegen des ersten Werkstückes auf die erste Position von der zweiten Position und Verändern einer Lage des ersten Werkstückes auf der ersten Position durch Bewegen der Bewegungswiedergabevorrichtung zu einer neuen unbekannten Lage; (g) Wiederholen der Schritte (d–f), bis die Merkmalsposition und andere Daten, welche für die Hand-Auge-Kalibrierung relevant sind, akkumuliert sind; und (h) Verwenden der akkumulierten Daten zum Kalibrieren mindestens einer Sehsystemkamera in Bezug auf die zweite Position per Hand-Auge-Kalibrierung, und Verknüpfen des ersten Koordinatenraums mit dem zweiten Koordinatenraum durch den gemeinsamen Koordinatenraum relativ zu der Bewegungswiedergabevorrichtung, von der Hand-Auge-Kalibrierung erhalten.
  13. Verfahren nach Anspruch 12, wobei die zweite Position ein zweites Werkstück an der Bewegungswiedergabevorrichtung umfasst, in welches das erste Werkstück in einer gewünschten Ausrichtung mit dem zweiten Werkstück in Eingriff platziert wird.
  14. Verfahren nach Anspruch 13, wobei das zweite Werkstück ein Teil, ein Behälter oder ein Rahmengestell für die Weiterverarbeitung des ersten Werkstückes ist.
  15. Verfahren nach Anspruch 12, wobei die Operation mindestens eine von einer Ausrichtungsoperation in Bezug auf einen anderen Gegenstand, einer Bedruckoperation auf dem ersten Werkstück und einer Auftragungsoperation auf dem ersten Werkstück ist.
  16. System zum Kalibrieren eines Sehsystems in einer Umgebung, in welcher ein erstes Werkstück auf einer ersten Position durch einen Manipulator auf eine zweite Position überführt wird, wobei eine an dem ersten Werkstück durchgeführte Operation auf dem Verknüpfen von Koordinatenräumen der ersten Position und der zweiten Position beruht, umfassend: mindestens eine Sehsystemkamera, die zum Abbilden des ersten Werkstückes, wenn es auf der ersten Position positioniert wird, und zum Abbilden des ersten Werkstückes, wenn es auf der zweiten Position positioniert wird, angeordnet ist; einen Kalibrierprozess, welcher mindestens eine Sehsystemkamera in Bezug auf die erste Position, um erste Kalibrierdaten abzuleiten, und die mindestens eine Sehsystemkamera in Bezug auf die zweite Position, um zweite Kalibrierdaten abzuleiten, kalibriert; einen Merkmalsextraktionsprozess, der Merkmale von mindestens dem ersten Werkstück auf der ersten Position ausgehend von einem ersten Bild des ersten Werkstückes identifiziert, und der auf Grundlage der identifizierten Merkmale auf dem ersten Bild das erste Werkstück in Bezug auf einen ersten Koordinatenraum relativ zu der ersten Position verortet, und der auf Grundlage der identifizierten Merkmale auf einem zweiten Bild auf einer zweiten Position das erste Werkstück in Bezug auf einen zweiten Koordinatenraum relativ zu der zweiten Position verortet; und einen Kalibrierungsprozess, welcher den ersten Koordinatenraum und den zweiten Koordinatenraum miteinander verknüpft.
  17. System nach Anspruch 16, wobei die zweite Position ein zweites Werkstück umfasst, in welches das erste Werkstück in einer gewünschten Ausrichtung mit dem zweiten Werkstück in Eingriff platziert wird.
  18. System nach Anspruch 16, wobei sich einige der identifizierten Merkmale auf dem ersten Bild von den identifizierten Merkmalen auf dem zweiten Bild unterscheiden, und wobei der Kalibrierungsprozess zu Folgendem konstruiert und angeordnet ist: (a) Zuordnen von Positionen der identifizierten Merkmale auf dem ersten Bild in Bezug auf die ersten Kalibrierdaten, (b) Berechnen einer Transformation relativ zu einer gespeicherten Spezifizierung von Merkmalspositionen des ersten Werkstückes, (c) Zuordnen von Positionen der identifizierten Merkmale auf dem zweiten Bild in Bezug auf die zweiten Kalibrierdaten, (d) Verwenden der bei Schritt (b) berechneten Transformation zum Ableiten von Positionen der identifizierten Merkmale aus dem zweiten Bild in dem ersten Koordinatenraum, wenn sich das Werkstück auf der ersten Position befindet, und (e) Berechnen einer Transformation, welche die zugeordneten Merkmale auf der zweiten Position den entsprechenden transformierten Merkmalen auf der ersten Position zuordnet.
  19. System nach Anspruch 18, wobei die Spezifizierung entweder auf einem CAD-Modell des ersten Werkstückes oder einem gemessenen Modell des ersten Werkstückes beruht.
  20. System nach Anspruch 16, wobei die zweite Position ein zweites Werkstück umfasst, in welches das erste Werkstück in einer gewünschten Ausrichtung mit dem zweiten Werkstück in Eingriff platziert wird.
DE102016114337.5A 2015-08-06 2016-08-03 System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus Active DE102016114337B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562201723P 2015-08-06 2015-08-06
US62/201,723 2015-08-06
US15/223,436 2016-07-29
US15/223,436 US10290118B2 (en) 2015-08-06 2016-07-29 System and method for tying together machine vision coordinate spaces in a guided assembly environment

Publications (2)

Publication Number Publication Date
DE102016114337A1 true DE102016114337A1 (de) 2017-02-09
DE102016114337B4 DE102016114337B4 (de) 2019-08-14

Family

ID=57853991

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016114337.5A Active DE102016114337B4 (de) 2015-08-06 2016-08-03 System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus

Country Status (6)

Country Link
US (2) US10290118B2 (de)
JP (3) JP6685199B2 (de)
KR (2) KR20170017786A (de)
CN (2) CN106426161B (de)
DE (1) DE102016114337B4 (de)
TW (3) TWI816056B (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108436909A (zh) * 2018-03-13 2018-08-24 南京理工大学 一种基于ros的相机和机器人的手眼标定方法
CN109079777A (zh) * 2018-08-01 2018-12-25 北京科技大学 一种机械臂手眼协调作业系统
CN109993800A (zh) * 2019-03-18 2019-07-09 五邑大学 一种工件尺寸的检测方法、装置及存储介质
CN110335310A (zh) * 2019-07-09 2019-10-15 中国大恒(集团)有限公司北京图像视觉技术分公司 一种非共同视野下的标定方法
CN111683798A (zh) * 2018-03-13 2020-09-18 欧姆龙株式会社 工件拾取装置以及工件拾取方法
EP3711909A2 (de) 2019-03-22 2020-09-23 Günther Battenberg Verfahren zur durchführung zumindest eines tätigkeitsprozesses mittels eines roboters
CN112879401A (zh) * 2020-12-30 2021-06-01 富泰华精密电子(成都)有限公司 工件加工方法
US11087455B2 (en) 2017-04-05 2021-08-10 Oy Mapvision Ltd Machine vision system
CN114378825A (zh) * 2022-01-21 2022-04-22 四川长虹智能制造技术有限公司 一种多相机视觉定位方法、系统及电子设备
CN115383749A (zh) * 2022-10-25 2022-11-25 国网瑞嘉(天津)智能机器人有限公司 带电作业设备的标定方法、装置、控制器及存储介质
US11511327B2 (en) 2018-04-27 2022-11-29 Sms Group Gmbh Cross-rolling mill with hydraulic roller actuator

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10290118B2 (en) * 2015-08-06 2019-05-14 Cognex Corporation System and method for tying together machine vision coordinate spaces in a guided assembly environment
JP2018094648A (ja) * 2016-12-09 2018-06-21 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
CN107543497B (zh) * 2017-03-23 2019-10-01 四川精视科技有限公司 一种非重叠视域双目视觉测量站坐标关联方法
JP6777604B2 (ja) * 2017-08-28 2020-10-28 ファナック株式会社 検査システムおよび検査方法
US11072074B2 (en) * 2017-12-13 2021-07-27 Cognex Corporation Calibration and operation of vision-based manipulation systems
US11830131B2 (en) * 2018-02-06 2023-11-28 Veo Robotics, Inc. Workpiece sensing for process management and orchestration
MX2020011540A (es) 2018-04-30 2021-10-04 Path Robotics Inc Escaner láser que rechaza la reflexión.
US11040452B2 (en) * 2018-05-29 2021-06-22 Abb Schweiz Ag Depth sensing robotic hand-eye camera using structured light
CN110539299B (zh) * 2018-05-29 2021-08-17 北京京东尚科信息技术有限公司 机器手作业方法、控制器以及机器手系统
US11263780B2 (en) * 2019-01-14 2022-03-01 Sony Group Corporation Apparatus, method, and program with verification of detected position information using additional physical characteristic points
CN111791226B (zh) * 2019-12-31 2021-12-03 深圳市豪恩声学股份有限公司 通过机器人实现组装的方法、装置及机器人
TWI731548B (zh) * 2020-01-10 2021-06-21 廣達國際機械有限公司 鋼構之截角加工規劃方法
CN113155097B (zh) * 2020-01-22 2024-01-26 台达电子工业股份有限公司 具有位姿补偿功能的动态追踪系统及其位姿补偿方法
TWI727628B (zh) * 2020-01-22 2021-05-11 台達電子工業股份有限公司 具有位姿補償功能的動態追蹤系統及其位姿補償方法
CN111152229B (zh) * 2020-02-24 2023-08-25 群滨智造科技(苏州)有限公司 3d机械视觉的机械手引导方法和装置
CN111331604A (zh) * 2020-03-23 2020-06-26 北京邮电大学 一种基于机器视觉的阀门旋拧柔顺作业方法
CN111625001B (zh) * 2020-05-28 2024-02-02 珠海格力智能装备有限公司 机器人的控制方法及装置、工业机器人
US11407110B2 (en) 2020-07-17 2022-08-09 Path Robotics, Inc. Real time feedback and dynamic adjustment for welding robots
JP2022047442A (ja) * 2020-09-11 2022-03-24 パナソニックIpマネジメント株式会社 情報処理方法及び情報処理装置
CN112577423B (zh) * 2020-10-13 2022-09-09 武汉凌云光电科技有限责任公司 包含在运动中进行机器视觉位置定位的方法及其应用
KR20220087623A (ko) * 2020-12-17 2022-06-27 삼성전자주식회사 기판 처리 장치
CN112853835B (zh) * 2021-01-04 2022-04-19 中铁四局集团有限公司 一种用于钢轨铺设的自动控制方法与系统
WO2022182894A1 (en) 2021-02-24 2022-09-01 Path Robotics Inc. Autonomous welding robots
US11912513B1 (en) * 2021-04-14 2024-02-27 Amazon Technologies, Inc. Robotic system camera calibration and localization using robot-mounted registered patterns

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4380696A (en) * 1980-11-12 1983-04-19 Unimation, Inc. Method and apparatus for manipulator welding apparatus with vision correction for workpiece sensing
US4568816A (en) * 1983-04-19 1986-02-04 Unimation, Inc. Method and apparatus for manipulator welding apparatus with improved weld path definition
US4655596A (en) * 1983-10-28 1987-04-07 Levi Strauss & Co. Workpiece centering apparatus and method
DE3578241D1 (de) 1985-06-19 1990-07-19 Ibm Verfahren zum identifizieren dreidimensionaler objekte mittels zweidimensionaler bilder.
US4841460A (en) 1987-09-08 1989-06-20 Perceptron, Inc. Method and apparatus for calibrating a non-contact gauging sensor with respect to an external coordinate system
US4845639A (en) 1987-12-11 1989-07-04 Robotic Vision Systems, Inc. Robotic sealant calibration
US4959898A (en) 1990-05-22 1990-10-02 Emhart Industries, Inc. Surface mount machine with lead coplanarity verifier
US5547537A (en) 1992-05-20 1996-08-20 Kulicke & Soffa, Investments, Inc. Ceramic carrier transport for die attach equipment
US6419680B1 (en) 1993-06-10 2002-07-16 Sherwood Services Ag CT and MRI visible index markers for stereotactic localization
JPH08201021A (ja) 1995-01-23 1996-08-09 Mazda Motor Corp キャリブレーション方法
US6078846A (en) 1996-02-06 2000-06-20 Perceptron, Inc. Calibration and compensation of robot-based gauging system
US6858826B2 (en) 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
US5960125A (en) 1996-11-21 1999-09-28 Cognex Corporation Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object
US5933523A (en) 1997-03-18 1999-08-03 Cognex Corporation Machine vision method and apparatus for determining the position of generally rectangular devices using boundary extracting features
NL1007068C2 (nl) * 1997-09-18 1999-03-22 Nl Laser Res Laserbewerkingsapparaat.
JP4387476B2 (ja) * 1998-07-13 2009-12-16 株式会社明電舎 ビンピッキング位置データ較正装置
JP2001284899A (ja) 2000-04-03 2001-10-12 Yamagata Casio Co Ltd 部品搭載座標補正方法
US6950548B1 (en) 2000-05-17 2005-09-27 Cognex Corporation Creating geometric model descriptions for use in machine vision inspection systems
US6493574B1 (en) 2000-09-28 2002-12-10 Koninklijke Philips Electronics, N.V. Calibration phantom and recognition algorithm for automatic coordinate transformation in diagnostic imaging
US6819789B1 (en) 2000-11-08 2004-11-16 Orbotech Ltd. Scaling and registration calibration especially in printed circuit board fabrication
US6466841B2 (en) * 2001-02-14 2002-10-15 Xerox Corporation Apparatus and method for determining a reference position for an industrial robot
CH696103A5 (de) * 2003-06-06 2006-12-15 Esec Trading Sa Halbleiter-Montageeinrichtung.
US7324682B2 (en) * 2004-03-25 2008-01-29 Mitutoyo Corporation System and method for excluding extraneous features from inspection operations performed by a machine vision inspection system
JP4515814B2 (ja) * 2004-04-28 2010-08-04 パナソニック株式会社 装着精度測定方法
US6901673B1 (en) 2004-05-20 2005-06-07 The Boeing Company Tie-in device for the correlation of coordinate systems
EP1612843A1 (de) * 2004-07-02 2006-01-04 Unaxis International Trading Ltd Verfahren und Einrichtung fuer die Montage von Halbleiterchips
US7583852B2 (en) * 2004-10-26 2009-09-01 Mitutoyo Corporation Method of filtering an image for high precision machine vision metrology
US20060241432A1 (en) 2005-02-15 2006-10-26 Vanderbilt University Method and apparatus for calibration, tracking and volume construction data for use in image-guided procedures
US8482732B2 (en) * 2007-10-01 2013-07-09 Maskless Lithography, Inc. Alignment system for various materials and material flows
CH698334B1 (de) 2007-10-09 2011-07-29 Esec Ag Verfahren für die Entnahme und Montage von auf einem Wafertisch bereitgestellten Halbleiterchips auf einem Substrat.
WO2009047214A2 (en) 2007-10-09 2009-04-16 Oerlikon Assembly Equipment Ag, Steinhausen Method for picking up semiconductor chips from a wafer table and mounting the removed semiconductor chips on a substrate
CN101149836B (zh) 2007-11-05 2010-05-19 中山大学 一种三维重构的双摄像机标定方法
US8264697B2 (en) 2007-11-27 2012-09-11 Intelligrated Headquarters, Llc Object detection device
CA2732917C (en) 2008-03-21 2017-03-14 Variation Reduction Solutions, Inc. External system for robotic accuracy enhancement
US8106349B2 (en) * 2008-07-16 2012-01-31 Delta Design, Inc. Vision alignment with multiple cameras and common coordinate at contactor for IC device testing handlers
US7686631B1 (en) * 2008-12-12 2010-03-30 J.S.T. Corporation Electrical connector with a latch mechanism
US11699247B2 (en) 2009-12-24 2023-07-11 Cognex Corporation System and method for runtime determination of camera miscalibration
JP5455123B2 (ja) 2010-03-03 2014-03-26 富士機械製造株式会社 部品実装機の撮像画像処理装置
US8368762B1 (en) 2010-04-12 2013-02-05 Adobe Systems Incorporated Methods and apparatus for camera calibration based on multiview image geometry
US9393694B2 (en) 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
EP2608938B1 (de) * 2010-08-27 2014-07-02 ABB Research LTD Sichtgeführtes ausrichtungssystem und verfahren
US9021344B2 (en) 2010-08-31 2015-04-28 New River Kinematics, Inc. Off-line graphical user interface system and method for three-dimensional measurement
JP5744587B2 (ja) 2011-03-24 2015-07-08 キヤノン株式会社 ロボット制御装置、ロボット制御方法、プログラム及び記録媒体
US20120249416A1 (en) * 2011-03-29 2012-10-04 Giuliano Maciocci Modular mobile connected pico projectors for a local multi-user collaboration
US9188973B2 (en) 2011-07-08 2015-11-17 Restoration Robotics, Inc. Calibration and transformation of a camera system's coordinate system
US20150142171A1 (en) 2011-08-11 2015-05-21 Siemens Healthcare Diagnostics Inc. Methods and apparatus to calibrate an orientation between a robot gripper and a camera
JP5924134B2 (ja) * 2012-05-30 2016-05-25 セイコーエプソン株式会社 侵入検出装置,ロボットシステム,侵入検出方法および侵入検出プログラム
CN102922521B (zh) 2012-08-07 2015-09-09 中国科学技术大学 一种基于立体视觉伺服的机械臂系统及其实时校准方法
US10664994B2 (en) 2013-02-25 2020-05-26 Cognex Corporation System and method for calibration of machine vision cameras along at least three discrete planes
US10477154B2 (en) * 2013-03-07 2019-11-12 Cognex Corporation System and method for aligning two work pieces with a vision system in the presence of occlusion
US10032273B2 (en) 2013-03-15 2018-07-24 Cognex Corporation Machine vision system calibration using inaccurate calibration targets
US9958854B2 (en) 2013-06-10 2018-05-01 The Boeing Company Systems and methods for robotic measurement of parts
US9305231B2 (en) 2013-08-01 2016-04-05 Cognex Corporation Associating a code with an object
US9211643B1 (en) 2014-06-25 2015-12-15 Microsoft Technology Licensing, Llc Automatic in-situ registration and calibration of robotic arm/sensor/workspace system
JP5911934B2 (ja) * 2014-09-18 2016-04-27 ファナック株式会社 輪郭線計測装置およびロボットシステム
CN104268876B (zh) 2014-09-26 2017-05-03 大连理工大学 基于分块的摄像机标定方法
CN104625268A (zh) 2015-01-16 2015-05-20 哈尔滨飞机工业集团有限责任公司 一种线切割薄板装夹装置
US10223589B2 (en) * 2015-03-03 2019-03-05 Cognex Corporation Vision system for training an assembly system through virtual assembly of objects
CN104819690B (zh) 2015-04-21 2017-05-31 上海瑞伯德智能系统股份有限公司 一种表面贴装元件的双相机机器视觉定位方法
US10290118B2 (en) * 2015-08-06 2019-05-14 Cognex Corporation System and method for tying together machine vision coordinate spaces in a guided assembly environment
JP6540472B2 (ja) * 2015-11-18 2019-07-10 オムロン株式会社 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP6514156B2 (ja) * 2016-08-17 2019-05-15 ファナック株式会社 ロボット制御装置
US11072074B2 (en) * 2017-12-13 2021-07-27 Cognex Corporation Calibration and operation of vision-based manipulation systems

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11087455B2 (en) 2017-04-05 2021-08-10 Oy Mapvision Ltd Machine vision system
CN111683798B (zh) * 2018-03-13 2023-04-14 欧姆龙株式会社 工件拾取装置以及工件拾取方法
CN111683798A (zh) * 2018-03-13 2020-09-18 欧姆龙株式会社 工件拾取装置以及工件拾取方法
CN108436909A (zh) * 2018-03-13 2018-08-24 南京理工大学 一种基于ros的相机和机器人的手眼标定方法
US11511327B2 (en) 2018-04-27 2022-11-29 Sms Group Gmbh Cross-rolling mill with hydraulic roller actuator
CN109079777A (zh) * 2018-08-01 2018-12-25 北京科技大学 一种机械臂手眼协调作业系统
CN109079777B (zh) * 2018-08-01 2021-09-10 北京科技大学 一种机械臂手眼协调作业系统
CN109993800A (zh) * 2019-03-18 2019-07-09 五邑大学 一种工件尺寸的检测方法、装置及存储介质
CN109993800B (zh) * 2019-03-18 2023-01-03 五邑大学 一种工件尺寸的检测方法、装置及存储介质
EP3711909A2 (de) 2019-03-22 2020-09-23 Günther Battenberg Verfahren zur durchführung zumindest eines tätigkeitsprozesses mittels eines roboters
DE102019107417A1 (de) * 2019-03-22 2020-09-24 Günther Battenberg Verfahren zur Durchführung von zumindest einem Tätigkeitsprozess mittels eines Roboters
CN110335310B (zh) * 2019-07-09 2021-07-02 中国大恒(集团)有限公司北京图像视觉技术分公司 一种非共同视野下的标定方法
CN110335310A (zh) * 2019-07-09 2019-10-15 中国大恒(集团)有限公司北京图像视觉技术分公司 一种非共同视野下的标定方法
CN112879401A (zh) * 2020-12-30 2021-06-01 富泰华精密电子(成都)有限公司 工件加工方法
CN114378825A (zh) * 2022-01-21 2022-04-22 四川长虹智能制造技术有限公司 一种多相机视觉定位方法、系统及电子设备
CN114378825B (zh) * 2022-01-21 2023-05-12 四川长虹智能制造技术有限公司 一种多相机视觉定位方法、系统及电子设备
CN115383749A (zh) * 2022-10-25 2022-11-25 国网瑞嘉(天津)智能机器人有限公司 带电作业设备的标定方法、装置、控制器及存储介质

Also Published As

Publication number Publication date
US10290118B2 (en) 2019-05-14
KR20180120647A (ko) 2018-11-06
JP6685199B2 (ja) 2020-04-22
TW202119356A (zh) 2021-05-16
TWI708215B (zh) 2020-10-21
TW201706091A (zh) 2017-02-16
JP2018169403A (ja) 2018-11-01
JP2023052266A (ja) 2023-04-11
KR102661635B1 (ko) 2024-04-26
JP2017037642A (ja) 2017-02-16
US11049280B2 (en) 2021-06-29
KR20170017786A (ko) 2017-02-15
CN106426161B (zh) 2020-04-07
US20200065995A1 (en) 2020-02-27
CN111452040B (zh) 2024-02-20
TWI708216B (zh) 2020-10-21
CN111452040A (zh) 2020-07-28
CN106426161A (zh) 2017-02-22
US20170132807A1 (en) 2017-05-11
DE102016114337B4 (de) 2019-08-14
TW201923706A (zh) 2019-06-16
JP7292829B2 (ja) 2023-06-19
TWI816056B (zh) 2023-09-21

Similar Documents

Publication Publication Date Title
DE102016114337B4 (de) System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus
DE102015101710B4 (de) Verfahren zum Kalibrieren eines beweglichen Greiforgans unter Verwendung einer entfernten Digitalkamera
DE102016103799B4 (de) Bildverarbeitungssystem zum Trainieren eines Montagesystems durch virtuelle Montage von Objekten
EP2227356B1 (de) Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
EP2435217B1 (de) Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
DE102017125190B4 (de) Vorrichtung, Verfahren, Programm und Aufzeichnungsmedium zur Simulation des durch Roboter durchgeführten Vorgangs zum Anordnen von Artikeln
DE102009034529B4 (de) Automatisches Führungs- und Erkennungssystem sowie Verfahren für dieses
DE102015102740B4 (de) Vorrichtung und Verfahren zum Anordnen von Gegenständen mittels Roboter und Gegenstandübertragungssystem
DE102018213985B4 (de) Robotersystem
DE112011101730B4 (de) System und Verfahren zur robusten Kalibrierung zwischen einem Bildverarbeitungssystem und einem Roboter
DE102018109774B4 (de) Bildverarbeitungssystem, Bildverarbeitungsvorrichtung und Bildverarbeitungsprogramm
DE102018129143B4 (de) Variabler messobjektabhängiger Kameraaufbau und Kalibrierung davon
DE102015000587B4 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
EP2448722B1 (de) Kalibrierungsverfahren für ein Messsystem
WO2017207436A1 (de) Industrieroboter
EP1910999B1 (de) Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE102012112025A1 (de) Verfahren und Vorrichtungen zur Positionsbestimmung einer Kinematik
DE102021209178A1 (de) Verfahren und Vorrichtung zum Bestimmen von Relativposen und zur Kalibrierung bei einem Koordinatenmessgerät oder Roboter
DE102021103726A1 (de) Messparameter-Optimierungsverfahren und -Vorrichtung sowie Computersteuerprogramm
DE102016102579A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Vielzahl von Raumkoordinaten an einem Gegenstand
DE102015104587B4 (de) Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
EP1915239B1 (de) Verfahren zum erzeugen eines umgebungsbildes
DE102016109919A1 (de) Vorrichtung zur Vermessung von Objekten
DE102017107593B4 (de) Verfahren zum Bestimmen unbekannter Transformationen
DE102011084353B4 (de) Verfahren und Computerprogramm zum Einrichten eines Greifroboters, sowie Greifroboter

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R082 Change of representative

Representative=s name: PATENTANWAELTE OLBRICHT, BUCHHOLD, KEULERTZ PA, DE

R020 Patent grant now final
R082 Change of representative

Representative=s name: PATENTANWAELTE OLBRICHT, BUCHHOLD, KEULERTZ PA, DE