DE102015109557A1 - Verfahren zur Einstellung einer Prüf- oder Messposition eines berührungslos wirkenden Sensors oder Aktors - Google Patents

Verfahren zur Einstellung einer Prüf- oder Messposition eines berührungslos wirkenden Sensors oder Aktors Download PDF

Info

Publication number
DE102015109557A1
DE102015109557A1 DE102015109557.2A DE102015109557A DE102015109557A1 DE 102015109557 A1 DE102015109557 A1 DE 102015109557A1 DE 102015109557 A DE102015109557 A DE 102015109557A DE 102015109557 A1 DE102015109557 A1 DE 102015109557A1
Authority
DE
Germany
Prior art keywords
laser beam
laser
sensor
measuring
test
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102015109557.2A
Other languages
English (en)
Other versions
DE102015109557B4 (de
Inventor
Anmelder Gleich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102015109557.2A priority Critical patent/DE102015109557B4/de
Publication of DE102015109557A1 publication Critical patent/DE102015109557A1/de
Application granted granted Critical
Publication of DE102015109557B4 publication Critical patent/DE102015109557B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/401Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for measuring, e.g. calibration and initialisation, measuring workpiece for machining purposes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37275Laser, interferometer

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Acoustics & Sound (AREA)
  • Optics & Photonics (AREA)
  • Manipulator (AREA)

Abstract

Die Erfindung bezieht sich auf ein Verfahren zur Einstellung einer Prüf- oder Messposition eines optischen oder akustischen Sensors (26) oder Aktors mittels einer Prüfvorrichtung (16) anhand zumindest einer definierten Prüf- und Messaufgabe zur Kontrolle zumindest eines optischen, akustischen und/oder geometrischen Merkmals (12) eines Objektes (14), wobei die Prüf- oder Messposition durch einen Messpunkt (MP) und einen Messvektor (MV) bezogen auf eine Oberfläche des Objektes (14) definiert ist. Um die Einstellung der Prüf- oder Messposition des Sensors oder Aktors zum schnellen und genauer Messen unzugänglicher Merkmale zu vereinfachen, ist vorgesehen, dass das Objekt (14) durch Anvisieren von Objektpunkten (OP1...OP5) mittels eines von einem Laser-Abstandssensor (24) ausgehenden und auf ein gemeinsames Bezugs-Koordinatensystem kalibrierten Laserstrahls (28) eingemessen und eine den Messpunkt (MP) aufweisende Gerade oder Fläche zum Ausrichten des Laserstrahls (28) bestimmt wird, dass der kalibrierte Laserstrahl (28) auf den Messpunkt (MP) gerichtet und anhand der definierten Prüf- und Messaufgaben mittels der Prüfvorrichtung (16) bezogen auf die Gerade oder Fläche zur Definition des Messvektos (MV) ausgerichtet wird und dass eine auf das gemeinsame Bezugs-Koordinatensystem kalibrierte optische oder akustische Wirkachse (30) des Sensors (26) oder Aktors in den durch den Laserstrahl (28) definierten Messvektor (MV) zur Einstellung der Prüf- oder Messposition verfahren wird.

Description

  • Die Erfindung bezieht sich auf ein Verfahren zur Einstellung einer Prüf- oder Messposition eines optischen oder akustischen Sensors oder Aktors mittels einer Prüfvorrichtung anhand zumindest einer definierten Prüf- und Messaufgabe zur Kontrolle zumindest eines optischen, akustischen und/oder geometrischen Merkmals eines Objektes, wobei die Prüf- oder Messposition durch einen Messpunkt und einen Messvektor bezogen auf einen Oberflächenabschnitt des Objektes definiert ist.
  • Ein Verfahren und eine Vorrichtung der eingangs genannten Art ist beispielsweise aus der EP 2 216 144 A bekannt. Beschrieben ist ein Verfahren zur Kontrolle von Bauteilen und/oder Funktionseinheiten mit einer Prüfvorrichtung anhand definierter Prüfaufgaben, wobei jedes Bauteil und/oder jede Funktionseinheit mittels eines CAD-Systems erstellt wird und wobei beim Erstellen eines Bauteils und/oder einer Funktionseinheit im CAD-System eine dem Bauteil und/oder der Funktionseinheit zugeordnete Prüfaufgabe definiert wird, wobei jeder Prüfaufgabe Qualitätsmerkmale zugeordnet sind. Die Prüfaufgabe wird in einem virtuellen Raum definiert und aufgrund der Prüfaufgabe wird ein Bewegungsprogramm für die Prüfvorrichtung erstellt. Die Bewegung der Prüfvorrichtung wird in dem der Prüfaufgabe zugeordneten virtuellen Prüffunktionsraum simuliert und anschließend die jedem Bauteil und/oder jeder Funktionseinheit zugeordnete Prüfaufgabe von der Prüfvorrichtung in einem realen Funktionsraum automatisiert durchgeführt. Dabei wird ein Referenzobjekt definiert, wobei Punkte oder Pfade für eine Wiedererkennung des Funktionsraums und damit des zu prüfenden Bauteils in der realen Welt festgelegt werden. Das Referenzobjekt kann z. B. ein Taster oder ein Drehregler eines Bediengerätes eines Fahrzeugs sein. Die Messposition für die Prüfvorrichtung, d. h. einen Roboter, setzt sich aus einem Messpunkt im Koordinatensystem des Funktionsraumes und einem Messvektor zusammen, wobei z. B. der Messvektor die Betätigungsrichtung einer Taste bzw. eines Drehreglers vorgibt.
  • Bei dem bekannten Verfahren ist ein taktiles Antasten erforderlich, so dass die Prüfung taktil unzugänglicher Messpunkte hinsichtlich Geschwindigkeit und Genauigkeit beeinträchtigt ist. Ferner ist zwingend ein CAD-Datenmodell des Objektes erforderlich.
  • Davon ausgehend liegt der vorliegenden Erfindung die Aufgabe zu Grunde, ein Verfahren der eingangs genannten Art derart weiterzubilden, dass die Einstellung der Prüf- oder Messposition vereinfacht wird, so dass insbesondere unzugängliche Merkmale schnell und mit hoher Genauigkeit kontrolliert werden können.
  • Die Aufgabe wird erfindungsgemäß u. a. dadurch gelöst, dass das Objekt durch Anvisieren von Objektpunkten mittels eines von einem Laser-Abstandssensor ausgehenden und auf ein gemeinsames Bezugs-Koordinatensystem kalibrierten Laserstrahls eingemessen und eine den Messpunkt aufweisende Gerade oder Fläche zum Ausrichten des Laserstrahls bestimmt wird, dass der kalibrierte Laserstrahl auf den Messpunkt gerichtet und anhand der definierten Prüf- und Messaufgaben mittels der Prüfvorrichtung bezogen auf die Gerade oder Fläche in Abstand und/oder Richtung zur Definition des Messvektors ausgerichtet wird und dass eine auf das gemeinsame Bezugs-Koordinatensystem kalibrierte optische oder akustische Wirkachse des Sensors oder Aktors in den durch den Laserstrahl (28) definierten Messvektor zur Einstellung der Prüf- oder Messposition verfahren wird.
  • Gegenüber dem Stand der Technik wird der Vorteil erreicht, dass das Objekt optisch mittels des Laser-Abstandssensors angetastet werden kann. Durch Ausrichtung des Laserstrahls betreffend Lage und Orientierung kann gleichzeitig ein Messvektor zur Einstellung der Prüf- und/oder Messposition für die optische oder akustische Wirksachse des Sensors definiert werden. Es wird ein Verfahren zur Einstellung einer Prüf- oder Messposition von berühungslos wirkenden Sensoren oder Aktoren bereitgestellt, welches sich gegenüber dem Stand der Technik durch hohe Genauigkeit und hohe Geschwindigkeit auszeichnet. Auch können unzugängliche Merkmale besonders einfach erfasst werden.
  • Gemäß einer bevorzugten Verfahrensweise ist vorgesehen, dass eine Ebene zur Definition des Flächenabschnittes des Objektes durch Einmessen und Bestimmen von Koordinaten von zumindest deren Objektpunkten bestimmt wird. Bezogen auf diese Ebene kann der Laserstrahl zur Definition des Messvektors ausgerichtet werden. Dabei werden die Objektpunkte so bestimmt, dass das zu prüfende optische, akustische und/oder geometrische Merkmal in der Ebene liegt.
  • Gemäß einer weiteren bevorzugten Verfahrensweise ist vorgesehen, dass die Oberfläche des Objekts zur Definition des Flächenabschnitts mittels des Laserstrahls gescannt wird. Dadurch können optische, akustische und/oder geometrische Merkmale beliebiger Oberflächengeometrien vermessen werden.
  • Alternativ kann der zumindest eine Objektpunkt durch automatisches Verfahren des Laserstrahls eingemessen werden, wobei das zu prüfende Objekt sowie ein durch den Laserstrahl auf dem Objekt projizierter Laserfleck durch den optischen Sensor als Bild erfasst und mit einem Referenzbild, zumindest einem charakteristischen Punkt und/oder einer Abbildungsvorschrift verglichen wird, um den Laserfleck automatisch auf den zumindest einen Objektpunkt zu positionieren. Dabei wird die Position des Laserflecks durch die Prüfvorrichtung so lange ausgeregelt, bis der Laserfleck bzw. das Bild mit dem Referenzbild zur Deckung gebracht wird.
  • Dieses Verfahren zeichnet sich insbesondere dadurch aus, dass Messvorgänge automatisiert werden können.
  • Ein alternatives Verfahren zeichnet sich dadurch aus, dass der zumindest eine Objektpunkt mittels des Laserstrahls durch haptisches Teachen eingemessen wird.
  • In bevorzugter Verfahrensweise wird der Laserstrahl bezogen auf die Gerade oder den Flächenabschnitt in einem definierten Abstand und/oder definierten Winkel vorzugsweise senkrecht ausgerichtet.
  • Der Laserstrahl des Laser-Abstandssensors sowie die Wirkachse insbesondere optische Achse vorzugsweise Mittenachse des als CCD-Kamera ausgebildeten optischen Sensors wird bezogen auf ein Roboter-Koordinatensystem als gemeinsames Bezugskoordinatensystem, insbesondere den Tool-Center-Point einer Roboterhand der als Roboter ausgebildeten Prüfvorrichtung betreffend Richtung und Orientierung kalibriert.
  • Bei Verwendung einer CCD-Kamera als optischer Sensor wird der optische Mittenstrahl als optische Wirkachse in den durch den Laserstrahl definierten Messvektor verfahren.
  • Vorzugsweise wird der optische Mittenstrahl durch Drehen oder Verschwenken des optischen Sensors mittels der Roboterhand in den durch den Laserstrahl definierten Messvektor verfahren.
  • Weitere Einzelheiten, Vorteile und Merkmale der Erfindung ergeben sich nicht nur aus den Ansprüchen, den diesen zu entnehmenden Merkmalen – für sich und/oder in Kombination –, sondern auch aus der nachfolgenden Beschreibung eines der Zeichnung zu entnehmenden bevorzugten Ausführungsbeispiels.
  • Es zeigen:
  • 1 eine schematische Darstellung einer Prüfvorrichtung in Form eines Roboters mit Laser-Abstandssensor und optischem Sensor in Form einer CCD-Kamera zur optischen Qualitätskontrolle von Merkmalen eines Objektes,
  • 2 eine schematische Darstellung einer Roboterhand des Roboters gemäß 1, wobei ein Laserstrahl des Laser-Abstandssensors auf einen Messpunkt gerichtet ist,
  • 3 eine schematische Darstellung der Roboterhand gemäß 3, wobei ein Mittenstrahl der CCD-Kamera auf den Messpunkt ausgerichtet ist,
  • 4 eine schematische Darstellung einer Kontur eines optischen Merkmals eines Objektes sowie Darstellungen des Merkmalsbei denen verschiedene Messpunkte durch einen Laserfleck anvisiert werden,
  • 5 eine schematische Darstellung eines senkrecht auf einer Freiformfläche ausgerichteten Laserstrahls,
  • 6 eine schematische Darstellung einer Anordnung zum Kalibrieren des Laser-Abstandssensors und
  • 7 eine schematische Darstellung einer Anordnung zum Kalibrieren der CCD-Kamera.
  • 1 zeigt in schematischer Darstellung eine Prüfvorrichtung 10 zur optischen Qualitätskontrolle von Merkmalen 12 eines Objekten 14. Die Merkmale 12 umfassen im Wesentlichen Symbole, Oberflächen, Kanten sowie Farben, deren optische und geometrische Qualität gemessen, analysiert und bewertet werden. Die optische Qualitätskontrolle umfasst beispielsweise das Prüfen der Qualität, der Platzierung und/oder Beleuchtung eines Symbols, das Prüfen von Schalterstellungen vor oder nach Betätigung, das Prüfen der Vollständigkeit von Komponenten, das Messen von Spaltbreiten in einer Ebene sowie die Farbmessung von Such- bzw. Funktionsbeleuchtungen, von Aufdrucken und Markierungen. Im dargestellten Ausführungsbeispiel ist das Merkmal 12 ein auf dem Objekt 14 wie Taster aufgedrucktes Symbol, dessen Qualität, Platzierung und Verdrehung zu überprüfen ist.
  • Die Prüfvorrichtung 10 umfasst einen Roboter 16, der mittels einer Robotersteuerung 18 um 6 Achsen A1, A2, A3, A4, A5, A6 steuerbar ist. Der Roboter 16 umfasst einen Roboterarm 20 mit einer Roboterhand 22, an der ein Laser-Abstandssensor 24 sowie ein optischer Sensor 26 in Form einer CCD-Kamera angeordnet sind.
  • Die 2 und 3 zeigen das Grundprinzip des erfindungsgemäßen Verfahrens, dem die Idee zu Grunde liegt, einen Messpunkt OP1 durch einen von dem Laser-Abstandssensor 24 ausgehenden und auf einen Tool-Center-Point TCP kalibrierten Laserstrahl 28 anzuvisieren und sodann den Laserstrahl 28 durch Verfahren der Roboterhand 22 unter Berücksichtigung von zuvor definierten Prüf- und Messbedingungen betreffend Abstand und Orientierung in eine Prüf- oder Messposition auszurichten, die durch den Messpunkt MP und einen Messvektor MV definiert ist, wobei die Lage des Messvektors durch die Lage des Laserstrahls 28 definiert ist. Anschließend wird die CCD-Kamera 26 durch Verfahren der Roboterhand 22 derart ausgerichtet, dass eine Orientierung eines auf dem Tool-Center-Point TCP der Roboterhand 22 kalibrierten Mittenstrahls 32 der durch den Laserstrahl 28 definierten Orientierung des Messvektors MV entspricht.
  • Bestimmte Prüf- und Messbedingungen verlangen die Senkrechtstellung der optischen Mittenachse bezogen auf das zu prüfende Objekt 12.
  • Hierzu ist es erforderlich, dass mittels des Laserstrahls 28 zumindest drei Objektpunkte OP1, OP2, OP3 des Objektes 12 anvisiert werden. Beispiele für mögliche Objektpunkte OP1...OP3 sind in 4 dargestellt. Durch Anvisieren der Objektpunkte OP1...OP5 durch einen Laserfleck LF des Laserstrahls 28 kann die Position der Objektpunkte OP1...OP5 bezogen auf das Roboter-Koordinatensystem R-KS über die Strahlrichtung und den gemessenen Abstand zwischen Laser-Abstandssensor und Objektpunkt OP1...OP5 bestimmt werden. Durch Bestimmung der Koordinaten von zumindest drei Objektpunkten OP1, OP2, OP3 kann durch die Robotersteuerung 18 eine Ebene berechnet werden, zu der der Laserstrahl 28 senkrecht gestellt werden kann, um den Messvektor zu definieren. Durch Ausrichten der optischen Mittenachse 30 in den durch den Laserstrahl 28 vorgegebenen Messvektor können die Prüf- und Messbedingungen für den optischen Sensor 26 mit hoher Geschwindigkeit und hoher Genauigkeit eingestellt werden.
  • Das Anvisieren der Objektpunkte OP1...OP3 durch den Laserstrahl 28 kann durch Handführung des Roboters 16, d. h. durch haptisches Teachen mittels eines Kraft-Drehmoment-Sensors oder durch automatische Steuerung des Laserstrahls 28 durch den Roboter 16 erfolgen.
  • Beim haptischen Teachen wird der Roboter 16 mittels Betätigen eines Kraft-Drehmoment-Sensors durch einen Benutzer derart verfahren, dass der Laserfleck LF auf einen zuvor definierten Objektpunkt OP1...OP5 ausgerichtet wird. Die Position des Objektpunktes, an der der Laserfleck LF auftrifft, kann in x-, y-, z-Koordinaten des Roboter-Koordinatensystems R-KS berechnet werden.
  • Bei der automatischen Platzierung des Laserflecks LF auf einen der Objektpunkte OP1...OP5 des Merkmals 12 wird die Position des Laserflecks LF sowie des Merkmals 12 mittels der CCD-Kamera 26 erfasst und als Bild einer Bildverarbeitungseinheit der Robotersteuerung 18 verarbeitet. In der Bildverarbeitungseinheit sind Referenzbilder oder charakteristische Eigenschaften wie Punkte, Linien und Abbildungsvorschriften gespeichert. Zum Anvisieren der definierten charakteristischen Objektpunkte OP1...OP5 wird die Position des Laser-Abstandssensors 24 durch Verfahren Messkopfes 22 derart geregelt, bis der Laserfleck LF auf den charakteristischen Objektpunkt OP1...OP5 fällt. Während der Regelung erfolgt ein Vergleich des durch die CCD-Kamera aufgenommenen Bildes mit dem in der Bildverarbeitungseinheit gespeicherten Referenzbildern bzw. Vorschriften. Die Positionierung des Laserstrahls 28 kann durch Translation der Roboterhand 22 erfolgen, d. h. durch Bewegen in einer Ebene senkrecht zum Laserstrahl 28 oder durch Rotation der Roboterhand 22, d. h., durch Drehen des Laserstrahls 28 um einen Sensorursprung. Der Sensorursprung ist durch ein Sensor-Koordinatensystem LS-KS definiert, dessen Versatz auf den Tool-Center-Point der Roboterhand 22 bekannt ist.
  • Ein weiteres Verfahren zum Einmessen des Objektes 14 ist in 5 dargestellt. Dabei wird eine Oberfläche 32 des Objektes 14 mittels des durch den Roboter 16 gesteuerten Laserstrahls 28 gescannt, so dass dessen Koordinaten im Roboter-Koordinatensystem R-KS bekannt sind. Auf die derart bestimmte Freiformfläche 32 kann der Laserstrahl 28 entsprechend zuvor definierter Prüf- und Messbedingungen ausgerichtet werden. In 5 ist eine Senkrechtstellung des Laserstrahls 28 dargestellt. In dem durch den Laserstrahl 28 definierten Messvektor kann sodann der Mittenstrahl 30 des optischen Sensors 26 zur optischen Qualitätskontrolle der Oberfläche 32 ausgerichtet werden.
  • Voraussetzung für die Durchführung des erfindungsgemäßen Verfahrens ist, dass der Laserstrahl 28 des Laser-Abstandssensors 24 bezogen auf den Tool-Center-Point TCP des Roboterhand-Koordinatensystems RH-KS der Roboterhand 22 kalibriert wird. Die Kalibrierung des Laser-Abstandssensors ist in 6 dargestellt. Zur Kalibrierung des Laser-Abstandssensors 24 wird eine Kalibriervorrichtung 34 verwendet. Diese umfasst eine Mattscheibe 36, die entlang einer optischen Achse gegenüber einer Kalibrierkamera 38 angeordnet ist, so dass die Kalibrierkamera einen durch den Laserstrahl auf der Mattscheibe 36 erzeugten Laserfleck LF optisch erfassen kann. In einem ersten Verfahrensschritt wird der Laserstrahl 28 auf die Mattscheibe 36 projiziert, so dass der Laserfleck LF durch die Kalibrierkamera 38 erfasst werden kann. In einer ersten Abstandsposition wird der Laser-Abstandssensor 24 in einer senkrecht zu dem Laserstrahl 28 liegenden Ebene translatorisch verfahren, bis der Laserfleck mit einem Zielpunkt ZP zur Deckung gelangt. Die Zielposition des Roboters in der ersten Abstandsposition wird in der Robotersteuerung gespeichert.
  • In einem zweiten Schritt wird der Laser-Abstandssensor 24 entlang einer Achse 40 in eine zweite Abstandsposition vor- oder zurückgefahren. In dieser zweiten Abstandsposition erfolgt ebenfalls eine translatorische Ausgleichsbewegung des Laser-Abstandssensors in einer senkrecht zu dem Laserstrahl 28 liegenden Ebene, bis der Laserfleck mit einem Zielpunkt ZP zur Deckung gelangt. Die Zielposition des Roboters in dieser Abstandsposition wird ebenfalls gespeichert.
  • Dieser Vorgang wird solange wiederholt, bis der Laserfleck LF beim Verfahren des Laser-Abstandssensors 24 entlang der Achse 40 immer durch denselben Zielpunkt MP verläuft.
  • Die gespeicherten Zielpositionen definieren eine Gerade, durch die Richtung des Laserstrahls 28 bezogen auf das Roboter-Koordinatensystem R-KS bestimmt ist. Sodann erfolgt eine Transformation auf das Roboterhand-Koordinatensystem RK-KS, durch den der Tool-Center-Point TCP bestimmt ist.
  • Zur Kalibrierung der Strahllage des Laserstrahls 28 ist vorgesehen, dass die Roboterhand 20 entlang einer Drehbewegung gemäß Pfeil 42 in Winkelschritten um eine Achse ausgeführt wird. In jeder Winkelposition wird überprüft, ob der Laserfleck LF im Zielpunkt ZP liegt.
  • Fällt der Laserfleck LF nicht mit dem Zielpunkt ZP zusammen, werden Ausgleichsbewegungen in einer senkrecht zum Laserstrahl 28 verlaufenden Ebene ausgeführt, bis der Laserfleck LF in dem Zielpunkt ZP liegt. Die Zielposition wird gespeichert.
  • Sodann wird der Laser-Abstandssensor 24 um einen Winkelschritt weitergedreht und überprüft, ob der Laserfleck LF in den Zielpunkt ZP fällt. Der Vorgang wird sukzessiv weitergeführt, bis der Laserfleck LF trotz Drehung der Roboterhand auf den Zielpunkt ZP fällt. Durch die berechneten und gespeicherten Zielpositionen wird ein Kris gelegt, dessen Orientierung bzw. Lage im Roboter-Koordinatensystem R-KS bestimmt wird. Sodann erfolgt eine 6D-Tansformation in das Roboterhand-Koordinatensystem RM-KS.
  • Nach der Kalibrierung ist eine geometrische 6D-Strahllage des Laserstrahls 28 bezogen auf den Tool-Center-Point TCP bestimmt.
  • 4 zeigt rein schematisch ein Verfahren zur Kalibrierung des optischen Sensors 26. Die Kalibrierung des optischen Sensors 26 umfasst die Bestimmung einer Richtung sowie einer geometrischen 6D-Lage des optischen Mittenstrahls 30 des optischen Sensors 26 bezogen auf das Roboterhand-Koordinatensystem RH-KS bzw. den Tool-Center-Point TCP. Bei dem Verfahren wird davon ausgegangen, dass der Mittenstrahl 30 senkrecht auf einer von einer optisch aktiven Fläche des optischen Sensors 26 aufgespannten Ebene steht und diese mittig durchsetzt. Die Ebene ist durch das Sensor-Koordinatensystem OS-KS des optischen Sensors 26 definiert ist.
  • Zur Kalibrierung des optischen Sensors 26 wird ein – bezogen auf das Roboter-Koordinatensystem R-KS – festes Muster 44, beispielsweise eine auf einem Messtisch fixierte Punktmatrix betrachtet. Ein Referenzbild der Punktmatrix ist in der Bildverarbeitungseinheit der Robotersteuerung 18 gespeichert.
  • Der optische Sensor 26 wird – wie in 7 dargestellt – über dem Muster 44 positioniert, so dass durch den optischen Sensor 26 ein Bild des Musters 44 aufgenommen werden kann. Das aufgenommene Bild wird mit dem in der Bildverarbeitungseinheit gespeicherten Referenzbild verglichen. Sodann wird die Roboterhand in einer ersten Abstandsposition zu dem Muster 44 derart angesteuert, dass der optische Sensor 26 in einer senkrecht zu dem Mittenstrahl 30 verlaufenden Ebene translatorisch so verfahren wird, dass das aufgenommene Bild mit dem abgespeicherten Referenzbild zur Deckung gebracht wird. Die Zielposition der Roboterhand 22 wird gespeichert.
  • Anschließend wir der optische Sensor 26 entlang einer Achse gemäß Pfeil 46 verfahren, beispielsweise auf das Muster 44 zu- bzw. von diesem wegbewegt. In einer zweiten Abstandsposition erfolgt wiederum eine translatorische Bewegung des optischen Sensors in einer senkrecht zu dem Mittenstrahl 30 verlaufenden Ebene, bis das aufgenommene Bild mit dem abgespeicherten Bild zur Deckung gebracht wird.
  • Der Vorgang wird wiederholt, wobei eine Vielzahl von Abstandspositionen entlang der Achse 46 angefahren und die Zielpositionen gespeichert werden, in denen das Referenzbild mit dem aufgenommenen Bild zur Deckung gelangt.
  • Durch die bei dem Verfahren berechneten und gespeicherten Zielpunkte wird eine Gerade gelegt, die der Strahlrichtung bzw. dem optischen Mittenstrahl 30 des optischen Sensors 26 – bezogen auf das Roboter-Koordinatensystem BS-KS – entspricht. Mittels einer 6D-Transformation kann dann der Mittenstrahl 30 in das Roboterhand-Koordinatensystem RM-KS transformiert werden.
  • Anschließend kann die Lage bzw. Orientierung der Mittenachse 30 des optischen Sensors 26 kalibriert werden. Bei diesem Verfahren wird das Muster 44 durch den optischen Sensor 26 erfasst und mit einem in der Bildverarbeitungseinheit gespeicherten Referenzbild verglichen. Die Roboterhand wird in einer ersten Winkelposition in einer senkrecht zu dem Mittenstrahl 30 verlaufenden Ebene solange verfahren, bis das aufgenommene Bild mit dem Referenzbild zur Deckung gelangt. Die Zielposition der Roboterhand wird gespeichert.
  • Anschließend wird der optische Sensor 26 in Richtung des Pfeils 48 um die z-Achse der Roboterhand 22 gedreht, beispielsweise um einen Winkelabschnitt von α = 3°. In der zweiten Winkelposition wird eine translatorische Ausgleichsbewegung des optischen Sensors 26 in einer zu dem Mittenstrahl 30 senkrechten Ebene ausgeführt, bis das aufgenommene Bild mit dem Referenzbild zur Deckung gelangt, d. h., das Muster 44 in Bildmitte angeordnet ist.
  • Der Vorgang wird mehrfach durchgeführt, wobei eine Vielzahl von Zielpositionen berechnet und abgespeichert werden.
  • Durch die berechneten Zielpositionen wird ein Kreis definiert, dessen Position in Bezug auf das Roboter-Koordinatensystem R-KS bestimmt und in das Roboterhand-Koordinatensystem RM-KS transformiert wird. Dadurch ist die Orientierung des Mittenstrahls 30 bezogen auf das Roboterhand-Koordinatensystem RM-KS kalibriert.
  • Das erfindungsgemäße Verfahren kann insbesondere zur Messung einer Spaltbreite in einer Ebene eingesetzt werden. Bei diesem Verfahren muss der Mittenstrahl 30 des optischen Sensors 26 parallel zu einer Seitenfläche des Spaltes ausgerichtet werden, um Abschattungen zu vermeiden. Hierzu wird der Laserstrahl 28 durch die Robotersteuerung derart ausgerichtet, dass dieser parallel zu der Seitenfläche des Spaltes verläuft. Anschließend wird der Mittenstrahl 30 des optischen Sensors 26 in den durch den Laserstrahl 28 definierten Messvektor verfahren.
  • Ein weiteres Anwendungsbeispiel ist die Glanzmessung einer Oberfläche eines Objektes, die durch z. B. drei Messungen aus jeweils verschiedenen, z. B. um 120° versetzten Blickrichtungen bestimmt wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 2216144 A [0002]

Claims (13)

  1. Verfahren zur Einstellung einer Prüf- oder Messposition eines optischen oder akustischen Sensors (26) oder Aktors mittels einer Prüfvorrichtung (16) anhand zumindest einer definierten Prüf- und Messaufgabe zur Kontrolle zumindest eines optischen, akustischen und/oder geometrischen Merkmals (12) eines Objektes (14), wobei die Prüf- oder Messposition durch einen Messpunkt (MP) und einen Messvektor (MV) bezogen auf eine Oberfläche des Objektes (14) definiert ist, dadurch gekennzeichnet, dass das Objekt (14) durch Anvisieren von Objektpunkten (OP1...OP5) mittels eines von einem Laser-Abstandssensor (24) ausgehenden und auf ein gemeinsames Bezugs-Koordinatensystem kalibrierten Laserstrahls (28) eingemessen und eine den Messpunkt (MP) aufweisende Gerade oder Fläche zum Ausrichten des Laserstrahls (28) bestimmt wird, dass der kalibrierte Laserstrahl (28) auf den Messpunkt (MP) gerichtet und anhand der definierten Prüf- und Messaufgaben mittels der Prüfvorrichtung (16) bezogen auf die Gerade oder Fläche zur Definition des Messvektos (MV) ausgerichtet wird und dass eine auf das gemeinsame Bezugs-Koordinatensystem kalibrierte optische oder akustische Wirkachse (30) des Sensors (26) oder Aktors in den durch den Laserstrahl (28) definierten Messvektor (MV) zur Einstellung der Prüf- oder Messposition verfahren wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine Ebene zur Definition des Flächenabschnittes des Objektes (14) durch Einmessen und Bestimmung von Koordinaten von zumindest drei Objektpunkten (OP1...OP5) bestimmt wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Oberfläche des Objekts (14) zur Definition des Flächenabschnitts mittels des Laserstrahls gescannt wird.
  4. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der zumindest eine Objektpunkt (OP1...OP5) durch automatisches Verfahren des Laserstrahls (28) eingemessen wird, wobei das zu prüfende Objekt (14) sowie ein durch den Laserstrahl (28) auf dem Objekt projizierter Laserfleck (LF) durch den optischen Sensor (26) als Bild erfasst und mit einem Referenzbild, zumindest einem charakteristischen Punkt und/oder einer Abbildungsvorschrift verglichen wird, um den Laserfleck (LF) automatisch auf den zumindest einen Objektpunkt (OP1...OP5) zu positionieren.
  5. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der zumindest eine Objektpunkt (OP1...OP5) mittels des Laserstrahls (28) durch haptisches Teachen eingemessen wird.
  6. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Laserstrahl (28) bezogen auf die Gerade oder den Flächenabschnitt in einem definierten Abstand und/oder definierten Winkel, vorzugsweise senkrecht ausgerichtet wird.
  7. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Laserstrahl (28) des Laser-Abstandssensors (26) sowie die Wirkachse (30) des Sensors (28) oder Aktors bezogen auf eine Roboterhand-Koordinatensystem (RM-KS) als gemeinsames Bezugs-Koordinatensystem, insbesondere auf einen Tool-Center-Point einer Roboterhand (22) der als Roboter (16) ausgebildeten Prüfvorrichtung betreffend Richtung und Orientierung kalibriert wird.
  8. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein optischer Mittenstrahl (30) einer CCD-Kamera (26) als optische Weichachse in den durch den Laserstahl (28) definierten Messvektor (MV) verfahren wird.
  9. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der optische Mittenstrahl (30) durch Drehen oder Verschwenken des optischen Sensors mittels der Roboterhand in den durch den Laserstrahl (28) definierten Messvektor (MV) verfahren wird.
  10. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kalibrierung der Strahlrichtung des Laserstrahls folgende Schritte umfasst: a) Erzeugung eines Laserflecks LF auf einer Mattscheibe (36) durch Aussenden des Laserstrahls (28) gegen diese; b) Erfassen des Laserflecks LF mittels einer Kalibrierungskamera; c) Verfahren des Laser-Abstandssensors (28) in einer ersten Abstandsposition zu der Mattscheibe (36) mittels des Roboters (26) in einer senkrecht zu dem Laserstrahl (28) verlaufenden Ebene in eine Zielposition, in der der Laserfleck LFin einem definierten Zielpunkt ZP der Mattscheibe liegt; d) Bestimmen und Speichern der ersten Zielposition; e) Wiederholen der Schritte a) bis d) in verschiedenen Abstandspositionen, wobei die Abstandspositionen durch Verfahren des Laser-Abstandssensors (24) entlang einer Achse (40) eingestellt werden und f) Berechnen einer Geraden durch die ermittelten Zielpositionen, wodurch die Strahlrichtung im Roboter-Koordinatensystem R-KS kalibriert ist.
  11. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kalibrierung der Strahllage folgende Schritte umfasst: a) Erzeugen eines Laserflecks LF auf der Mattscheibe (35) durch Aussenden des Laserstrahls (28) gegen diese; b) Erfassen des Laserflecks LF mittels der Kalibrierungskamera; c) Drehen des Laser-Abstandssensors (28) um einen definierten Winkel, vorzugsweise α = 3° um eine Achse (42); d) Verfahren des Laser-Abstandssensors (28) in einer senkrecht zu dem Laserstrahl (28) liegenden Ebene in eine Zielposition, in der der Laserfleck LF in dem definierten Zielpunkt der Mattscheibe liegt; e) Bestimmen und Speichern der Zielposition; f) Wiederholen der Schritte a) bis e) in verschiedenen Winkelpositionen und g) Berechnen eines Kreises durch die ermittelten Zielpositionen, wobei durch die Lages des Kreises die Strahlorientierung im Roboter-Koordinatensystem R-KS definiert ist.
  12. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kalibrierung der Richtung des optischen Mittenstrahls (30) des optischen Sensors (26) folgende Schritte umfasst: a) Erfassen eines grafischen Musters (44) wie Punktmatrix durch den optischen Sensor (26); b) Verfahren des optischen Sensors (26) in seiner Bildebene in eine Zielposition, in der das grafische Muster (44) mit einem in einer Bildverarbeitungseinheit der Robotersteuerung abgespeicherten Referenzmuster zur Deckung kommt; c) Bestimmen und Speichern der Zielposition; d) Wiederholen der Schritte a) bis c) in verschiedenen Abstandspositionen des optischen Sensors zu dem grafischen Muster, wobei der grafische Sensor (26) entlang einer Achse (46) bezogen auf das grafische Muster (44) verfahren wird; e) Berechnen einer Geraden durch die ermittelten Zielpunkte zur Kalibrierung der Richtung des Mittenstrahls (30) des optischen Sensors (26).
  13. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kalibrierung der Orientierung des Mittenstrahls (30) des optischen Sensors (26) folgende Schritte umfasst: a) Erfassen des grafischen Musters (44) wie Punktmatrix durch den optischen Sensor (26); b) Verfahren des optischen Sensors (26) in der von der Bildebene des Sensors aufgespannten Ebene in eine Zielposition, in der das grafische Muster (44) mit dem abgespeicherten Referenzmuster zur Deckung kommt; c) Bestimmen und Speichern der Zielposition; d) Verdrehen des optischen Sensors (26) bezogen auf eine Achse (48) mittels der Roboterhand (22) um einen Winkelabschnitt, vorzugsweise α = 3°; e) Wiederholen der Verfahrensschritte a) bis c) in verschiedenen Winkelpositionen; f) Anpassen eines Kreises an die ermittelten Zielpunkte und Bestimmen der Position des Kreises bezogen auf das Roboter-Koordinatensystem R-KS, wobei durch die Lage des Kreises die Orientierung des Mittenstrahls (30) bestimmt ist.
DE102015109557.2A 2015-06-15 2015-06-15 Verfahren zur Einstellung einer Prüf- oder Messposition eines berührungslos wirkenden Sensors Active DE102015109557B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015109557.2A DE102015109557B4 (de) 2015-06-15 2015-06-15 Verfahren zur Einstellung einer Prüf- oder Messposition eines berührungslos wirkenden Sensors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015109557.2A DE102015109557B4 (de) 2015-06-15 2015-06-15 Verfahren zur Einstellung einer Prüf- oder Messposition eines berührungslos wirkenden Sensors

Publications (2)

Publication Number Publication Date
DE102015109557A1 true DE102015109557A1 (de) 2016-12-15
DE102015109557B4 DE102015109557B4 (de) 2017-09-14

Family

ID=57395038

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015109557.2A Active DE102015109557B4 (de) 2015-06-15 2015-06-15 Verfahren zur Einstellung einer Prüf- oder Messposition eines berührungslos wirkenden Sensors

Country Status (1)

Country Link
DE (1) DE102015109557B4 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110487177A (zh) * 2019-07-12 2019-11-22 南京三航信息工程有限公司 适用于射频仿真的可调光学校准装置
CN110530266A (zh) * 2018-05-25 2019-12-03 镱钛科技股份有限公司 动态参考偏移侦测方法及其系统
CN112393688A (zh) * 2020-11-12 2021-02-23 邵阳学院 一种三激光组合测头及光束同面共点调校方法
CN115781270A (zh) * 2022-11-03 2023-03-14 中国工程物理研究院激光聚变研究中心 一种光学元件位姿校正系统及装配校正方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108917604B (zh) * 2018-07-12 2020-07-17 上海航天设备制造总厂有限公司 一种法向测量装置及其标定方法
CN111380467B (zh) * 2019-12-30 2021-09-03 宁波大正工业机器人技术有限公司 一种激光位移传感器自校准方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004043075A1 (de) * 2003-09-17 2005-04-21 Daimler Chrysler Ag Verfahren zum Vorausbestimmen der Bearbeitungspositionen eines Laserstrahls
DE102004023033A1 (de) * 2004-05-06 2005-11-24 Claas Fertigungstechnik Gmbh Vorrichtung und Verfahren zur Vermessung von Bauteilen
EP2216144A2 (de) 2009-02-06 2010-08-11 Günther Battenberg Verfahren und System zur Kontrolle von Bauteilen und/oder Funktionseinheiten mit einer Prüfvorrichtung

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004043075A1 (de) * 2003-09-17 2005-04-21 Daimler Chrysler Ag Verfahren zum Vorausbestimmen der Bearbeitungspositionen eines Laserstrahls
DE102004023033A1 (de) * 2004-05-06 2005-11-24 Claas Fertigungstechnik Gmbh Vorrichtung und Verfahren zur Vermessung von Bauteilen
EP2216144A2 (de) 2009-02-06 2010-08-11 Günther Battenberg Verfahren und System zur Kontrolle von Bauteilen und/oder Funktionseinheiten mit einer Prüfvorrichtung

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110530266A (zh) * 2018-05-25 2019-12-03 镱钛科技股份有限公司 动态参考偏移侦测方法及其系统
CN110487177A (zh) * 2019-07-12 2019-11-22 南京三航信息工程有限公司 适用于射频仿真的可调光学校准装置
CN112393688A (zh) * 2020-11-12 2021-02-23 邵阳学院 一种三激光组合测头及光束同面共点调校方法
CN115781270A (zh) * 2022-11-03 2023-03-14 中国工程物理研究院激光聚变研究中心 一种光学元件位姿校正系统及装配校正方法
CN115781270B (zh) * 2022-11-03 2024-05-07 中国工程物理研究院激光聚变研究中心 一种光学元件位姿校正系统的装配校正方法

Also Published As

Publication number Publication date
DE102015109557B4 (de) 2017-09-14

Similar Documents

Publication Publication Date Title
DE102015109557B4 (de) Verfahren zur Einstellung einer Prüf- oder Messposition eines berührungslos wirkenden Sensors
DE102015119240B3 (de) Automatisches detektieren und robotergestütztes bearbeiten von oberflächendefekten
DE102004021892B4 (de) Robotergeführte optische Messanordnung sowie Verfahren und Hilfsvorrichtung zum Einmessen dieser Messanordnung
DE102018112820B4 (de) Teach-Positionskorrekturvorrichtung und Teach-Positionskorrekturverfahren
DE102018109774B4 (de) Bildverarbeitungssystem, Bildverarbeitungsvorrichtung und Bildverarbeitungsprogramm
DE102013021917B4 (de) Robotersystemanzeigevorrichtung
DE102007016056B4 (de) Verfahren und Vorrichtung zur Werkstückeinmessung und Werkstückbearbeitung
EP1681111B1 (de) Verfahren zum Betrieb einer Fertigungseinrichtung
EP1750909B1 (de) Verfahren zur robotergestützten vermessung von messobjekten
DE102016110453A1 (de) Messgerät und Verfahren zur Justage der Lage eines rotationssymmetrischen Werkstücks
DE102008019435B4 (de) Verfahren zum berührungslosen Vermessen dreidimensionaler, komplex geformter Bauteile
DE102021209178A1 (de) Verfahren und Vorrichtung zum Bestimmen von Relativposen und zur Kalibrierung bei einem Koordinatenmessgerät oder Roboter
EP1665162A1 (de) Verfahren und vorrichtung zur berührungslosen optischen 3d-l agebestimmung eines objekts
DE102019102927B4 (de) Verfahren und Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
DE102012100281A1 (de) Verfahren und eine Vorrichtung zum Entfernen von Fehlern
DE102015109960B4 (de) Vorrichtung und Verfahren zum optischen Bestimmen einer Position und/oder Orientierung eines Manipulators
DE10016963A1 (de) Verfahren zur Bestimmung der Position eines Werkstücks im 3D-Raum
DE102017003641B4 (de) Verfahren zur Messung von Koordinaten oder Eigenschaften einer Werkstückoberfläche
EP2726858A1 (de) Dynamische ergebnisprojektion bei bewegtem prüfobjekt
WO2021190851A1 (de) Hyperspektrale oberflächenabtastung eines körpers
DE102019131401B3 (de) Kalibrierung einer Impedanzregelung eines Robotermanipulators
DE10233372B4 (de) Messsystem und Verfahren zur Erfassung geometrischer Größen
EP4145233A1 (de) Konturtreuebestimmung für eine laserschneidmaschine
DE102017122627B4 (de) Optisches Messsystem und Messverfahren
DE102017107593B4 (de) Verfahren zum Bestimmen unbekannter Transformationen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final