DE69913106T2 - Verfahren und gerät zur roboterausrichtung - Google Patents

Verfahren und gerät zur roboterausrichtung Download PDF

Info

Publication number
DE69913106T2
DE69913106T2 DE69913106T DE69913106T DE69913106T2 DE 69913106 T2 DE69913106 T2 DE 69913106T2 DE 69913106 T DE69913106 T DE 69913106T DE 69913106 T DE69913106 T DE 69913106T DE 69913106 T2 DE69913106 T2 DE 69913106T2
Authority
DE
Germany
Prior art keywords
robot
workpiece
image
images
tool
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69913106T
Other languages
English (en)
Other versions
DE69913106D1 (de
Inventor
Armstrong Patrick Beaconsfield FINLAY
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Prosurgics Ltd
Original Assignee
Armstrong Healthcare Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Armstrong Healthcare Ltd filed Critical Armstrong Healthcare Ltd
Application granted granted Critical
Publication of DE69913106D1 publication Critical patent/DE69913106D1/de
Publication of DE69913106T2 publication Critical patent/DE69913106T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37097Marker on workpiece to detect reference position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37572Camera, tv, vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39393Camera detects projected image, compare with reference image, position end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40584Camera, non-contact sensor mounted on wrist, indep from gripper
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40609Camera to monitor end effector as well as object to be handled

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Description

  • Die Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zum Ausrichten eines Roboters.
  • Insbesondere bezieht sich die Erfindung nach einem Aspekt auf eine Vorrichtung und ein Verfahren zum Ausrichten eines Roboters zu einem Werkstück, um es dem Roboter oder einem Teil des Roboters zu ermöglichen, in einer exakt bestimmten Position relativ zu dem Werkstück angeordnet zu werden, so daß der Roboter das Werkstück exakt bearbeiten kann, wobei die gewünschten Bearbeitungen in genau bestimmten Punkten des Werkstücks ausgeführt werden.
  • Ein alternativer Aspekt der Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zum Ausrichten eines Roboters, bei denen die exakte Position und Orientierung eines Werkzeugs, das von einem Teil des Roboters getragen wird, relativ zu dem Teil des Roboters bestimmt wird, so daß der Roboter nachfolgend das Werkzeug oder ein Teil des Werkzeugs in einer vorbestimmten Position positionieren kann.
  • In vielen Situationen, in denen Roboter genutzt werden, ist der Roboter zur Bearbeitung eines Werkstücks auf eine exakt bekannte Größe und Form programmiert. Ein Beispiel für eine solche Situation ist, wenn ein Roboter in einer Fahrzeugmontagelinie arbeitet, in welcher jedes Werkstück, d. h. jedes Fahrzeug, welches der Roboter zu bearbeiten hat, eine exakt bekannte Größe und Form aufweist. In einer solchen Situation kann der Roboter vorprogrammiert werden, um eine Folge von Bewegungen auszuführen, welche für die vom Roboter auszuführende Aufgabe geeignet sind.
  • Es gibt jedoch Situationen, in welchen der Roboter Aufgaben an einem Werkstück auszuführen hat, bei denen die Größe und die Form und andere Eigenschaften des Werkstücks näherungsweise bekannt sind, die exakten Details jedoch von Probe zu Probe variieren. Beispiele umfassen per Hand hergestellte Gegenstände, Gegenstände, die aus einem halbstarren oder verformbaren Material sind, und insbesondere lebendes Gewebe, beispielsweise in einer Situation, in der der Roboter auf einer Arbeitsbühne genutzt wird. In einer solchen Situation ist es nicht ungewöhnlich, daß die Aufgabe des Roboters Schritte zum Durchdringen des „Werkstücks" umfaßt, um auf ein spezielles inneres Ziel oder einen speziellen inneren Durchgang bzw. Weg zuzugreifen. Typischerweise sind das innere Ziel oder der innere Durchgang von der Oberfläche des Werkstücks nicht sichtbar, und insbesondere in der Situation, in der ein Roboter an einem menschlichen Patienten bei einer Operation arbeitet, ist es von Bedeutung, daß der Roboter das innere Ziel oder den inneren Durchgang exakt erreicht.
  • Ein geeignetes Verfahren, welches zum Spezifizieren geeigneter Koordinaten und Instruktionen für den Roboter bei dieser Art von Aufgaben genutzt wurde, umfaßt die Nutzung einer bildgeführten Technik. Bei der Nutzung dieser Technik wird ein Bild des Werkstücks erfaßt, beispielsweise mit Hilfe von Röntgenstrahlen, magnetischer Resonanzaufzeichnung, Ultraschall-Aufzeichnung oder einer anderen entsprechenden Technik. Die genutzte Aufzeichnungstechnik wird so gewählt, daß das innere Ziel oder der innere Durchgang aufgedeckt oder bestimmt werden kann.
  • Das Bild wird mit einem Computer verarbeitet und in einer Form angezeigt, die für einen menschlichen Betreiber geeignet ist. In Abhängigkeit von der Bevorzugung des Betreibers und der Natur des inneren Ziels oder des inneren Wegs kann die Anzeige als eine Folge von „Schnitten" durch das Werkstück, in Form drei orthogonaler Darstellungen durch einen bezeichneten Punkt oder alternativ als eine dreidimensionale Rekonstruktion dargestellt werden. Es gibt viele Arten von Bildverarbeitungsalgorithmen, die für diesen Zweck verfügbar sind.
  • Mit Hilfe einer Zeigeeinrichtung, beispielsweise einer Maus, kann der menschliche Betreiber nun auf der Computerdarstellung des Werkstücks spezifizieren, wo das Ziel oder der Weg lokalisiert sind. Der Betreiber kann auch den gewünschten Annäherungsweg des Roboters zum Erreichen des Ziels oder des Wegs von der Oberfläche des Werkstücks aufzeigen. Die Koordinaten der Schlüsselpunkte des gewünschten Annäherungswegs und auch das Ziel oder der Weg sind ohne weiteres aus den Bildpunkten (Pixel) oder Volumenelementen (Voxel) bestimmbar, die der Betreiber mit der Zeigeeinrichtung spezifiziert hat. Die Koordinaten können leicht in eine Folge von Instruktionen umgewandelt werden, die an eine Steueranordnung des Roboters übergegeben werden kann, so daß der Roboter die entsprechenden Bewegungen bewirkt, um zu veranlassen, daß die von dem Roboter getragene End-Bearbeitungseinrichtung dem gewünschten Annäherungsweg zu dem Ziel oder dem Weg folgt.
  • Der Roboter kann über oder benachbart zu dem tatsächlichen Werkstück angeordnet werden. Bevor er jedoch die von der Robotersteuerung gelieferten Instruktionen ausführen kann, muß ein Ausrichtungsprozeß ausgeführt werden, um die Referenzrahmen des Roboters, das Werkstück und die Computerdarstellung auszurichten. Mit anderen Worten, der Roboter muß anfänglich in einer Art und Weise positioniert werden, daß die End-Bearbeitungseinrichtung, welche von dem Roboter bewegt wird, den geeigneten Weg relativ zu dem Werkstück folgt, wenn der Roboter die Instruktionen ausführt, welche von der Robotersteuerungsanordnung übertragen wurden.
  • Es wurde vorgeschlagen (vgl. EP-A-0,755,660, aus welcher sich der nächstliegende Stand der Technik ergibt), die Referenzrahmen eines Roboters, eines Werkstücks und einer Computersteueranordnung auszurichten, indem Markierungen genutzt werden, die sowohl für das Auge als auch die genutzte Bildaufzeichnungstechnik sichtbar sind, wobei die Markierungen vor dem Ausführen der Bildaufzeichnung zeitweise an dem Werkstück angebracht sind. Zum Ausrichten zwischen dem Roboter und dem Werkstück wird die Computermaus genutzt, um eine erste Markierung auf dem computerdargestellten Bild anzuzeigen, und der Roboter wird dann so bewegt, daß das geeignete Teil der End-Bearbeitungseinrichtung, die von dem Computer getragen wird, die entsprechende Markierung auf dem tatsächlichen Werkstück berührt. Die End-Bearbeitungseinrichtung des Werkstücks wird so in eine vorbestimmte Position bewegt, welche eine bekannte Position in dem mittels Computer erzeugten Bild ist. Dieser Prozeß wird mit anderen Markierungen wiederholt. Danach können eine Drehung und eine Verschiebung festgelegt werden, welche den Koordinatenrahmen, der von dem Roboter genutzt wird, zur Ausrichtung mit dem Koordinatenrahmen des Werkstücks gemäß der Darstellung in dem mittels Computer erzeugten Bild bringen. Wenigstens drei Markierungen sind notwendig, in der Praxis werden jedoch bessere Ergebnisse erhalten, indem zwischen fünf und zehn Markierungen genutzt werden. Dieses wird auch dadurch erreicht, daß zwei oder drei Mal jede Markierung gelesen wird. Eine Fehlerquadratnäherung kann dann genutzt werden, um zum Erhalt einer besseren Anpassung die Daten zu manipulieren.
  • Diese Technik ist wirkungsvoll, für den Betreiber jedoch ermüdend und tendiert infolge von Fehlern beim Positionieren des Roboters oder der Maus zur Ungenauigkeit.
  • Nach einem Aspekt der Erfindung soll deshalb ein Verfahren zum Ausrichten eines Werkstücks mit einem Computermodell angegeben werden, welches die Nachteile des Standes der Technik nicht aufweist.
  • Bei einigen Arten von Roboteraufgaben wird verlangt, daß der Roboter mehr als ein Werkzeug oder ein Werkzeug mit verformbarer Form oder variabler Länge handhabt. Beispielsweise kann bei der Nutzung des Werkzeugs ein Teil des Werkzeugs abgenutzt sein. In vielen Situationen wird eine exakte Positionierung der Spitze des Werkzeugs verlangt, und folglich ist es notwendig, den Roboter auszurichten oder „zu kalibrieren", so daß die Position der Spitze des Werkzeugs relativ zu einem festen Punkt an dem Roboter exakt bekannt ist. Dieses versetzt den Roboter in die Lage, die Spitze des Werkzeugs in die verlangte Position zu bringen, unabhängig von der Ausbildung des Werkzeugs, welches genutzt wird, oder unabhängig von irgendeiner Verformung, die an dem Werkzeug auftreten kann. Nach einem anderen Aspekt der Erfindung soll deshalb ein Verfahren angegeben werden, bei dem eine solche Ausrichtung oder „Kalibrierung" ohne die Notwendigkeit einer Berührung der Spitze des Werkzeugs erreicht wird. Dieses ist beispielsweise bei Anwendungen von Bedeutung, in denen die Spitze des Werkzeugs leicht zerstört werden kann oder bei denen es wesentlich ist, die Spitze des Werkzeugs steril zu halten.
  • US-A-5,083,073 offenbart ein Verfahren einer Vorrichtung zum Kalibrieren eines bildgeführten Roboters mit einem Typ, der eine Schlitz- bzw. Spalt-Lichteinheit zum Beleuchten eines Werkstücks mit einem Zielbild aufweist. Eine Kamera ist zum Detektieren des Zielbildes vorgesehen, und eine Steuereinrichtung positioniert ein Werkzeug relativ zu einem Werkstück als Reaktion auf Bildsignale von der Kamera. In der beschriebenen Anordnung wird die Kamera in eine spezielle „Kalibrierungsposition" gebracht, in der die Kamera auf ein Ziel gerichtet ist, und ein Kamera-Korrekturwert wird mit Hilfe eines Vergleichs des mit Hilfe der Kamera empfangenen Zielbildes mit einem gespeicherten Zielbild erzeugt. Ein Kamera-Korrekturwert wird bestimmt, welcher in nachfolgenden Prozeduren benutzt wird.
  • Erfindungsgemäß wird ein Verfahren zum Ausrichten eines Roboters relativ zu einem Werkstück vorgeschlagen, welches mehrere sichtbare Markierungen aufweist, wobei der Roboter eine optische Bilderfassungsanordnung trägt, und wobei das Verfahren die folgenden Schritte umfaßt: einen anfänglichen Schritt zum Erfassen von Bildern des Werkstücks und der Markierungen, zum Speichern der Bilder und zum Vorbereiten von Befehlen für den Roboter bezüglich Koordinaten der gespeicherten Bilder, und nachfolgende Schritte zum Bestimmen von Daten mittels des Anordnen von Arbeitsteilen des Roboters in einer ersten Beziehung mit der optischen Bilderfassungsanordnung, wobei die Bilderfassungsanordnung in Richtung des Werkstücks gerichtet ist, zum Erfassen und zum Speichern eines Bildes des Werkstücks und der Markierungen und zum nachfolgenden Bewegen von Komponententeilen des Roboters, so daß die Bilderfassungsanordnung ein zweites anderes Bild des Werkstücks und der Markierungen erfaßt, und zum Wiederholen des Prozesses zum Erfassen von Daten, einschließlich mehrerer Abbildungen und Daten für jedes Bild, die die Position der Komponententeile des Roboters betreffen, wenn das Bild erfaßt wird, wobei die Daten gespeichert werden, und wo bei das Verfahren einen Schritt zum Vergleichen der anfänglich erfaßten Bilder des Werkstücks mit Bildern, die mit Hilfe der optischen Bilderfassungsanordnung in den nachfolgenden Schritten erfaßt wurden, und zum Bewirken einer Ausrichtung des Roboters umfaßt, um den Roboter in die Lage zu versetzen, eine oder mehrere Operationen bezüglich des Werkstücks auf Basis der Befehle auszuführen, die für den Roboter bezüglich der Koordinaten der gespeicherten, in dem Bild oder dem Schritt erfaßten Bilder vorbereitet wurden.
  • Zweckmäßig sind vier oder mehr sichtbare Markierungen auf dem Werkstück vorgesehen.
  • Eine Ausführungsform des Verfahrens kann nachfolgende Schritte zum Kalibrieren eines Werkzeugs umfassen, das von dem Roboter gehalten wird, wobei die nachfolgenden Schritte Schritte zum Nutzen der Bilderfassungsanordnung zum aufeinanderfolgenden Erfassen von Bildern eines mit Hilfe eines Teils des Roboters getragenen Werkzeugs, wenn das Teil des Roboters in unterschiedlichen Positionen ist, und zum nachfolgenden Bestimmen der exakten Position einer Spitze des Werkzeugs relativ zu dem Teil des Roboters umfassen.
  • Die Erfindung wird im folgenden anhand von Ausführungsbeispielen unter Bezugnahme auf eine Zeichnung näher erläutert. Hierbei zeigen:
  • 1 eine grafische Darstellung der Erfassung eines Bildes eines Werkstücks und des nachfolgenden Verarbeitens des Bildes;
  • 2 eine grafische Darstellung eines Roboters und des Werkstücks;
  • 3 ein Blockdiagramm der Steueranordnung für den Roboter nach 3;
  • 4 ein Teil eines Roboters, welches eine End-Bearbeitungseinrichtung in Form eines Werkzeugs trägt; und
  • 5 ein Blockdiagramm.
  • Gemäß 1 der Zeichnung weist ein Werkstück, welches ein lebloses Objekt oder eine lebende Form 1, beispielsweise für eine Operation, umfassen kann, mehrere sichtbare Markierungen 2 auf. Es wird bevorzugt, daß wenigstens drei Markierungen vorgesehen sind, wobei vorzugsweise eine größere Anzahl von Markierungen vorhanden ist. Wenn drei oder eine größere Anzahl von Markierungen vorgesehen sind, sollten die Markierungen nicht in Positionen angeordnet sein, die äquivalent zu den Ecken einer regulären geometrischen Figur sind, beispielsweise ein gleichseitiges Dreieck oder ein Quadrat, vielmehr sollten sie unregelmäßig verteilt sein.
  • Gemäß 1 wird eine Bilderfassungsanordnung 3 genutzt, um ein geeignetes Bild des Werkstücks und der Markierungen zu erfassen. Die Markierungen werden als „sichtbar" für die Bilderfassungsanordnung 3 ausgewählt. Die Bilderfassungsanordnung 3 kann jegliche geeignete Form aufweisen und deshalb eine Röntgenstrahl-Anordnung, eine Ultraschall-Abtastanordnung, eine magnetische Resonanzbild-Anordnung oder eine andere äquivalente Anordnung sein, die zum Erfassen eines geeigneten Bildes in der Lage ist. Das Bild wird verarbeitet 4 und gespeichert 5. Das gespeicherte Bild kann von einem Betreiber genutzt werden, um Befehle vorzubereiten, die nachfolgend von einem Roboter zu befolgen sind. Die Befehle können einen Weg spezifizieren, dem ein von dem Computer getragenes Werkzeug relativ zu dem Werkstück zu folgen hat, oder ein inneres Ziel spezifizieren, das von dem Roboter zu bearbeiten ist, beispielsweise wenn der Roboter das Schießen eines Teilchenstrahls oder eines schmalen Strahlungsstrahls auf einen speziellen Ort innerhalb des Werkstücks steuert.
  • Die Befehle 6 und das gespeicherte Bild werden in einem geeigneten Format vorgehalten.
  • 2 zeigt schematisch einen Roboter 7, welcher benachbart zu dem Werkstück 1 mit den Markierungen 2 in Position gebracht ist.
  • Der Roboter 7 umfaßt ein Gehäuse 8, welches eine Stützsäule 9 trägt, an welcher ein Stützarm 10 schwenkbar angebracht ist, der einen End-Bearbeitungseinrichtung-Tragearm 11 trägt. Der End-Bearbeitungseinrichtung-Tragearm 11 trägt an seinem freien Ende ein Werkzeug oder eine andere End-Bearbeitungseinrichtung 12. Die verschiedenen Arme sind mit Hilfe von Drehverbindungen miteinander verbunden.
  • Auf dem End-Bearbeitungseinrichtung-Tragearm 11 ist eine Kamera oder eine Bilderfassungsvorrichtung 13 in Form einer Fernsehkamera, einer digitalen Kamera, einer CCD-Einrichtung oder dergleichen montiert. Die Kamera 13 ist zum Erfassen eines sichtbaren Bildes des Werkstücks 1 und der Markierungen 2 angepaßt.
  • Gemäß 3 erfaßt die Kamera 13 ein Bild des Werkstücks zusammen mit den sichtbaren Markierungen, und das Bild wird digitalisiert und in einen Speicher 14 gegeben. Der Speicher 14 speichert auch Daten, die sich auf die Position der Komponenten des Roboters beziehen.
  • Alle verschiedenen bewegbaren Teile des Roboters werden unter der Kontrolle einer anspruchsvollen Steueranordnung bewegt, und folglich können Daten leicht erzeugt werden 15, die die exakte Position aller Komponententeile des Roboters anzeigen.
  • Wenn ein erstes Bild gespeichert ist, wird der Roboter bewegt und ein zweites Bild aufgenommen. Dieser Prozeß wird mehrmals wiederholt.
  • Die in dem Speicher 14 gespeicherten Bilder werden in einem Komparator 16 mit gespeicherten Bildern aus dem Speicher 5 gemäß 1 verglichen. Auf das Vergleichen der gespeicherten Bilder wird eine Ausrichtungsprozedur 17 ausgeführt, in welcher die Position der Kamera 13, die von dem Roboter getragen wird, bezüglich des Referenzrahmens bestimmt wird, der durch die gespeicherten Bilder des Werkstücks identifiziert wird.
  • Folglich kann die Steueranordnung 18 des Roboters bezüglich der Koordinate des Referenzrahmens des Roboters die exakte Position und Orientierung des Werkstücks relativ zu dem Roboter bestimmen, was den Roboter dazu in die Lage versetzt, exakt den Befehlen 19 zu folgen, welche unter Referenz auf die ursprünglichen Bilder des Werkstücks abgeleitet sind.
  • Es wird deshalb darauf hingewiesen, daß der Roboter vorbestimmte Bearbeitungen an dem Werkstück exakt bewirkten kann, ohne daß irgendwelche Zeit für eine Vorausrichtung relativ zu dem Werkstück verbraucht wird, indem eine automatisierte Anordnung genutzt wird, die das Risiko von auftretenden Fehlern minimiert.
  • Es wird Bezug genommen auf die 4 und 5. 4 zeigt schematisch einen End-Bearbeitungseinrichtung-Tragarm 20 eines Roboters, auf dem eine Kamera-Bilderfassungsvorrichtung 21 montiert ist, beispielsweise eine Fernsehkamera, eine digitale Kamera oder eine CCD-Einrichtung. Die Kamera 21 ist so angeordnet, daß im Sichtbereich der Kamera ein Werkzeug 22 ist, welches von dem End-Bearbeitungseinrichtung-Tragarm 20 getragen wird.
  • Für die Steueranordnung in dem Roboter ist es zweckmäßig, Daten zu haben, die die exakte Position der Spitze des Werkzeugs 22 bezüglich des End-Bearbeitungseinrichtung-Arms 20 oder eines anderen Teils des Roboters anzeigen. Um diese Daten zu erfassen, wird die Spitze des Werkzeugs 22 mit der Kamera 21 dargestellt. Der Ort der Bildpunkte der Spitze des Werkzeugs wird beeinflußt, indem eine geeignete Schwellwert-Technik und Computeranalyse des gemessenen Bildes genutzt werden. Beim Darstellen der Spitze des Werkzeugs kann es für einen „Hintergrund" einer Kontrasthelligkeit oder -farbe angebracht sein, unmittelbar hinter dem mit der Kamera dargestellten Werkzeug angeordnet zu sein. Dieses erleichtert die Nutzung des Schwellwert-Verfahrens durch den Computer, um die Pixel zu identifizieren, in denen die Spitze angeordnet ist.
  • Es werden Daten gespeichert, die sich auf die Position des End-Bearbeitungseinrichtung-Trägers und den Bildpunktort der Spitze des Werkzeugs beziehen.
  • Anschließend wird der End-Bearbeitungseinrichtung-Träger bewegt, und der Prozeß der Darstellung der Spitze des Werkzeugs, der Bestimmung des Bildpunktorts der Spitze des Werkzeugs und der Speicherung der Daten betreffend die Position des End-Bearbeitungseinrichtung-Trägers und des Bildpunktorts der Spitze des Werkzeugs wird wiederholt. Dieser Prozeß kann oft wiederholt werden, bis für eine exakte Berechnung, die zur Bestimmung der Position der Spitze des Werkzeugs relativ zu dem End-Bearbeitungseinrichtung-Träger ausgeführt wird, ausreichend Daten akkumuliert wurden. Theoretisch ist es möglich, die Berechnung auszuführen, wenn drei Datenfolgen erfaßt wurden. Eine größere Genauigkeit wird jedoch erreicht, wenn eine größere Anzahl von Datenfolgen aufgenommen und gespeichert wird.

Claims (3)

  1. Verfahren zum Ausrichten eines Roboters relativ zu einem Werkstück (1), welches mehrere sichtbare Markierungen (2) aufweist, wobei der Roboter (7) eine optische Bilderfassungsanordnung (13) trägt, wobei das Verfahren die folgenden Schritte umfaßt: einen anfänglichen Schritt zum Erfassen von Bildern des Werkstücks und der Markierungen, zum Speichern der Bilder (5) und zum Vorbereiten von Befehlen für den Roboter bezüglich Koordinaten der gespeicherten Bilder, und nachfolgende Schritte zum Bestimmen von Daten mittels des Anordnen von Arbeitsteilen des Roboters (7) in einer ersten Beziehung mit der optischen Bilderfassungsanordnung (13), wobei die Bilderfassungsanordnung (13) in Richtung des Werkstücks gerichtet ist, zum Erfassen und zum Speichern (14) eines Bildes des Werkstücks und der Markierungen und zum nachfolgenden Bewegen von Komponententeilen des Roboters, so daß die Bilderfassungsanordnung ein zweites anderes Bild des Werkstücks und der Markierungen erfaßt, und zum Wiederholen des Prozesses zum Erfassen von Daten, einschließlich mehrerer Abbildungen und Daten für jedes Bild, die die Position der Komponententeile des Roboters betreffen, wenn das Bild erfaßt wird, wobei die Daten gespeichert werden, und wobei das Verfahren einen Schritt zum Vergleichen (16) der anfänglich erfaßten Bilder des Werkstücks mit Bildern, die mit Hilfe der optischen Bilderfassungsanordnuug (13) in den nachfolgenden Schritten erfaßt wurden, und zum Bewirken einer Ausrichtung des Roboters umfaßt, um den Roboter (7) in die Lage zu versetzen, eine oder mehrere Operationen bezüglich des Werkstücks auf Basis der Befehle auszuführen, die für den Roboter bezüglich der Koordinaten der gespeicherten, in dem Bild oder dem Schritt erfaßten Bilder vorbereitet wurden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß vier oder mehr sichtbare Markierungen (2) an dem Werkstück vorgesehen sind.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß das Verfahren nachfolgende Schritte zum Kalibrieren eines Werkzeugs (22) umfassen, das von dem Roboter (7) gehalten wird, wobei die nachfolgenden Schritte Schritte zum Nutzen der Bilderfassungsanordnung (13) zum aufeinanderfolgenden Erfassen von Bildern eines mit Hilfe eines Teils des Roboters getragenen Werkzeugs, wenn das Teil des Roboters in unterschiedlichen Positionen ist, und zum nachfolgenden Bestimmen der exakten relativen Position einer Spitze des Werkzeugs relativ zu dem Teil des Roboters umfassen.
DE69913106T 1998-02-18 1999-02-11 Verfahren und gerät zur roboterausrichtung Expired - Lifetime DE69913106T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB9803364 1998-02-18
GBGB9803364.0A GB9803364D0 (en) 1998-02-18 1998-02-18 Improvements in or relating to a method of an apparatus for registering a robot
PCT/GB1999/000433 WO1999042257A1 (en) 1998-02-18 1999-02-11 A method of and apparatus for registration of a robot

Publications (2)

Publication Number Publication Date
DE69913106D1 DE69913106D1 (de) 2004-01-08
DE69913106T2 true DE69913106T2 (de) 2004-08-26

Family

ID=10827151

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69913106T Expired - Lifetime DE69913106T2 (de) 1998-02-18 1999-02-11 Verfahren und gerät zur roboterausrichtung

Country Status (5)

Country Link
US (1) US6349245B1 (de)
EP (1) EP1056572B1 (de)
DE (1) DE69913106T2 (de)
GB (1) GB9803364D0 (de)
WO (1) WO1999042257A1 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005043776A1 (de) * 2005-09-14 2007-03-22 Bayerische Motoren Werke Ag Verfahren zur Positionierung eines Ultraschallprüfkopfes
DE112006000360B4 (de) * 2005-02-14 2012-12-13 Exedy Corp. Automatische Ultraschallprüfvorrichtung, automatisches Ultraschallprüfverfahren und Herstellverfahren unter Anwendung des Prüfverfahrens
WO2017153180A1 (de) * 2016-03-07 2017-09-14 Kuka Roboter Gmbh Industrieroboter mit mindestens zwei bilderfassungseinrichtungen
US9766613B2 (en) 2012-01-26 2017-09-19 Doosan Machine Tools Co., Ltd. Method for setting up work piece based on vision
DE102021128088A1 (de) 2021-10-28 2023-05-04 Bayerische Motoren Werke Aktiengesellschaft Robotervorrichtung und Verfahren zum Betreiben einer Robotervorrichtung
DE102022202143A1 (de) 2022-03-02 2023-09-07 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zur Steuerung eines Roboters zur Durchführung einer Aufgabe
DE102022202144A1 (de) 2022-03-02 2023-09-07 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zur Steuerung eines Roboters zur Durchführung einer Aufgabe
DE102022202145A1 (de) 2022-03-02 2023-09-07 Robert Bosch Gesellschaft mit beschränkter Haftung Roboter und Verfahren zum Steuern eines Roboters

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2770317B1 (fr) * 1997-10-24 2000-12-08 Commissariat Energie Atomique Procede d'etalonnage de la position et de l'orientation d'origine d'une ou plusieurs cameras mobiles et son application a la mesure de position tridimentionnelle d'objets fixes
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP3421608B2 (ja) * 1999-04-08 2003-06-30 ファナック株式会社 教示モデル生成装置
SE515374C2 (sv) * 1999-10-29 2001-07-23 Abb Flexible Automation As Förfarande och anordning för bestämning av ett objekts koordinater och orientering i ett referenskoordinatsystem
US6535291B1 (en) * 2000-06-07 2003-03-18 Cyberoptics Corporation Calibration methods for placement machines incorporating on-head linescan sensing
US20020120728A1 (en) * 2000-12-22 2002-08-29 Jason Braatz Method and apparatus for network-enablement of devices using device intelligence and network architecture
WO2004014244A2 (en) * 2002-08-13 2004-02-19 Microbotics Corporation Microsurgical robot system
JP4021413B2 (ja) * 2004-01-16 2007-12-12 ファナック株式会社 計測装置
DE102004026185A1 (de) * 2004-05-28 2005-12-22 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Betreiben einer Maschine, wie eines Mehrachs- Industrieroboters
US9027218B2 (en) * 2005-09-13 2015-05-12 Gudmunn Slettemoen Opto-mechanical postion finder
EP1854425A1 (de) 2006-05-11 2007-11-14 BrainLAB AG Medizintechnische Positionsbestimmung mit redundanten Positionserfassungseinrichtungen und Prioritätsgewichtung für die Positionserfassungseinrichtungen
EP2040635A1 (de) * 2006-06-14 2009-04-01 MacDonald Dettwiler & Associates Inc. Chirurgischer manipulator mit rechtwinkligem seilrollenantriebsmechanismus
GB2444738A (en) * 2006-12-12 2008-06-18 Prosurgics Ltd Registration of the location of a workpiece within the frame of reference of a device
DE102007009851B3 (de) 2007-02-28 2008-05-29 Kuka Roboter Gmbh Industrieroboter und Verfahren zum Bestimmen der Lage eines Industrieroboters relativ zu einem Objekt
EP2146821B1 (de) * 2007-04-26 2012-03-14 Adept Technology Inc. Vakuumgreifvorrichtung
US8444631B2 (en) 2007-06-14 2013-05-21 Macdonald Dettwiler & Associates Inc Surgical manipulator
GB2451498A (en) * 2007-07-31 2009-02-04 Prosurgics Ltd A motorised manipulator that accommodates manual movement of a surgical instrument
ATE452005T1 (de) * 2008-02-13 2010-01-15 Abb As System und verfahren zur visualisierung von verfahrensfehlern
CN102216860B (zh) * 2008-11-25 2013-07-24 Abb技术有限公司 用于标定工业机器人系统的方法和设备
JP2010152550A (ja) * 2008-12-24 2010-07-08 Canon Inc 作業装置及びその校正方法
JP4741691B2 (ja) * 2009-06-15 2011-08-03 ファナック株式会社 ロボットの異常監視機能を備えたロボットシステム
ITTV20100133A1 (it) 2010-10-08 2012-04-09 Teleios Srl Apparato e metodo per effettuare la mappatura di uno spazio tridimensionale in applicazioni medicali a scopo interventistico o diagnostico
EP2468207A1 (de) 2010-12-21 2012-06-27 Renishaw (Ireland) Limited Verfahren und Vorrichtung zur Bildanalyse
JP6108860B2 (ja) * 2013-02-14 2017-04-05 キヤノン株式会社 ロボットシステム及びロボットシステムの制御方法
CN104777234A (zh) * 2015-04-03 2015-07-15 上海和伍新材料科技有限公司 利用摄像头进行超声探头定位的装置和方法
US9751211B1 (en) 2015-10-08 2017-09-05 Google Inc. Smart robot part
US10551821B2 (en) * 2016-06-30 2020-02-04 Seiko Epson Corporation Robot, robot control apparatus and robot system
US10625419B2 (en) 2018-03-21 2020-04-21 The Boeing Company Robotic system and method for operating on a workpiece
US20220000565A1 (en) * 2018-11-15 2022-01-06 Comofi Medtech Private Limited System for renal puncturing assistance
CN110065072B (zh) * 2019-05-21 2021-04-20 西南交通大学 机器人重复定位精度的验证方法
JP7186349B2 (ja) * 2019-06-27 2022-12-09 パナソニックIpマネジメント株式会社 エンドエフェクタの制御システムおよびエンドエフェクタの制御方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3576997A (en) * 1968-09-24 1971-05-04 Intelligent Instr Inc Particle accelerator employing a revolving electric field for generating x-rays
US4326155A (en) * 1980-06-03 1982-04-20 Griebeler Elmer L Shockwave probe
DE3405909A1 (de) * 1984-02-18 1985-08-22 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt Vorrichtung zur erfassung, messtechnischen analyse und/oder regelung von technischen verfahrensablaeufen
US4843561A (en) * 1985-05-01 1989-06-27 Sun Controls Design, Inc. Apparatus for locating and manipulating agricultural products
EP0205628B1 (de) * 1985-06-19 1990-06-13 International Business Machines Corporation Verfahren zum Identifizieren dreidimensionaler Objekte mittels zweidimensionaler Bilder
US4707647A (en) * 1986-05-19 1987-11-17 Gmf Robotics Corporation Gray scale vision method and system utilizing same
US4725965A (en) * 1986-07-23 1988-02-16 American Telephone And Telegraph Company Method for calibrating a SCARA robot
US4831549A (en) * 1987-07-28 1989-05-16 Brigham Young University Device and method for correction of robot inaccuracy
US4985846A (en) 1989-05-11 1991-01-15 Fallon Patrick J Acoustical/optical bin picking system
US5083073A (en) * 1990-09-20 1992-01-21 Mazada Motor Manufacturing U.S.A. Corp. Method and apparatus for calibrating a vision guided robot
FR2669257A1 (fr) * 1990-11-21 1992-05-22 Renault Automatique Procede d'etalonnage d'un robot.
US5297238A (en) * 1991-08-30 1994-03-22 Cimetrix Incorporated Robot end-effector terminal control frame (TCF) calibration method and device
GB2261069B (en) * 1991-10-30 1995-11-01 Nippon Denso Co High speed picking system for stacked parts
JP2769947B2 (ja) * 1992-05-15 1998-06-25 株式会社椿本チエイン マニピュレータの位置・姿勢制御方法
JP2768210B2 (ja) * 1992-05-29 1998-06-25 株式会社デンソー ワークの嵌合方法及び嵌合装置
US5509191A (en) * 1994-01-26 1996-04-23 Best; Norman D. Apparatus for assembling and processing small parts using a robot
US5552575A (en) * 1994-07-15 1996-09-03 Tufts University Scan welding method and apparatus
US5903663A (en) * 1995-02-15 1999-05-11 Tiede GmbH & Co.Risprufanlagen Automatic error recognition apparatus
US5807449A (en) * 1997-01-08 1998-09-15 Hooker; Jeffrey A. Workpiece treating apparatus and method of treating same

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112006000360B4 (de) * 2005-02-14 2012-12-13 Exedy Corp. Automatische Ultraschallprüfvorrichtung, automatisches Ultraschallprüfverfahren und Herstellverfahren unter Anwendung des Prüfverfahrens
DE102005043776A1 (de) * 2005-09-14 2007-03-22 Bayerische Motoren Werke Ag Verfahren zur Positionierung eines Ultraschallprüfkopfes
US9766613B2 (en) 2012-01-26 2017-09-19 Doosan Machine Tools Co., Ltd. Method for setting up work piece based on vision
WO2017153180A1 (de) * 2016-03-07 2017-09-14 Kuka Roboter Gmbh Industrieroboter mit mindestens zwei bilderfassungseinrichtungen
DE102021128088A1 (de) 2021-10-28 2023-05-04 Bayerische Motoren Werke Aktiengesellschaft Robotervorrichtung und Verfahren zum Betreiben einer Robotervorrichtung
DE102022202143A1 (de) 2022-03-02 2023-09-07 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zur Steuerung eines Roboters zur Durchführung einer Aufgabe
DE102022202144A1 (de) 2022-03-02 2023-09-07 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zur Steuerung eines Roboters zur Durchführung einer Aufgabe
DE102022202145A1 (de) 2022-03-02 2023-09-07 Robert Bosch Gesellschaft mit beschränkter Haftung Roboter und Verfahren zum Steuern eines Roboters
DE102022202143B4 (de) 2022-03-02 2024-05-16 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zur Steuerung eines Roboters zur Durchführung einer Aufgabe

Also Published As

Publication number Publication date
WO1999042257A1 (en) 1999-08-26
US6349245B1 (en) 2002-02-19
GB9803364D0 (en) 1998-04-15
EP1056572B1 (de) 2003-11-26
DE69913106D1 (de) 2004-01-08
EP1056572A1 (de) 2000-12-06

Similar Documents

Publication Publication Date Title
DE69913106T2 (de) Verfahren und gerät zur roboterausrichtung
EP3076369B1 (de) Verfahren und vorrichtung zum darstellen eines objektes
DE60127644T2 (de) Lehrvorrichtung für einen Roboter
DE69922980T2 (de) Verfahren und vorrichtung zur positionierung eines geräts in einem körper
EP2082687B1 (de) Überlagerte Darstellung von Aufnahmen
DE3717871C3 (de) Verfahren und Vorrichtung zum reproduzierbaren optischen Darstellen eines chirururgischen Eingriffes
DE10100335B4 (de) Vorrichtung zur Anzeige einer Größe im Blickfeld eines Benutzers und Verwendung der Vorrichtung
DE4417944A1 (de) Verfahren zum Korrelieren verschiedener Koordinatensysteme in der rechnergestützten, stereotaktischen Chirurgie
DE112010002174T5 (de) Verfahren und vorrichtung für ein praktisches 3d-sehsystem
WO2007031314A2 (de) Positionierungssystem für perkutane interventionen
EP1719472B1 (de) Vorrichtungen und Verfahren zur automatischen Verifikation, Kalibrierung und Vermessung von Instrumenten für computer-assistierte Chirurgie
DE102006024242A1 (de) Verfahren zur Detektierung einer Abweichung eines Röntgensystems in Bezug auf eine Soll-Position
DE102016207501A1 (de) Verfahren zum Betrieb einer Magnetresonanzeinrichtung und Magnetresonanzeinrichtung
DE19807884C2 (de) Verfahren zur Kalibrierung einer Aufnahmevorrichtung zur Bestimmung von räumlichen Koordinaten anatomischer Zielobjekte und Vorrichtung zur Durchführung des Verfahrens
WO2014005866A1 (de) Verfahren zur vorbereitung und durchführung der aufnahme von bildstapeln einer probe aus verschiedenen orientierungswinkeln
DE202019105838U1 (de) Anordnung mit einem Koordinatenmessgerät oder Mikroskop
DE10160530B4 (de) Verfahren und Anlage zur Magnetresonanz-Bildgebung
EP3794311A1 (de) Verfahren und vorrichtung zum erzeugen eines prüfplans für die prüfung eines messobjekts, verfahren und vorrichtung zum prüfen eines messobjekts und sowie computerprogrammprodukt
EP1098268A2 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
WO2009018894A1 (de) Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts
DE19629616C2 (de) Vorrichtung und Verfahren zum manuellen Einstellen, Messen, ggf. Prüfen von Werkzeugen für Bearbeitungsmaschinen
DE102006051782B4 (de) Verfahren zur Kalibrierung einer Röntgendiagnostikeinrichtung mit einem C-Bogen
DE102017122627B4 (de) Optisches Messsystem und Messverfahren
EP3499461B1 (de) Darstellung von markern in der medizinischen bildgebung
DE102011053922A1 (de) Registriervorrichtung, Verfahren und Vorrichtung zum Registrieren einer Oberfläche eines Objekts

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: PROSURGICS LTD., HIGH WYCOMBE, GB