DE10016963A1 - Verfahren zur Bestimmung der Position eines Werkstücks im 3D-Raum - Google Patents

Verfahren zur Bestimmung der Position eines Werkstücks im 3D-Raum

Info

Publication number
DE10016963A1
DE10016963A1 DE10016963A DE10016963A DE10016963A1 DE 10016963 A1 DE10016963 A1 DE 10016963A1 DE 10016963 A DE10016963 A DE 10016963A DE 10016963 A DE10016963 A DE 10016963A DE 10016963 A1 DE10016963 A1 DE 10016963A1
Authority
DE
Germany
Prior art keywords
cameras
workpiece
coordinate system
entry opening
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10016963A
Other languages
English (en)
Other versions
DE10016963C2 (de
Inventor
Werner Neddermeyer
Angela Lilienthal
Michael Schnell
Frank Gruenewald
Dirk Gruenewald
Harald Manfred Guenter Mikeska
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
VMT Vision Machine Technic Bildverarbeitungssysteme GmbH
Original Assignee
TECMEDIC GmbH
VMT Vision Machine Technic Bildverarbeitungssysteme GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TECMEDIC GmbH, VMT Vision Machine Technic Bildverarbeitungssysteme GmbH filed Critical TECMEDIC GmbH
Priority to DE10016963A priority Critical patent/DE10016963C2/de
Priority to ES01104224T priority patent/ES2267612T3/es
Priority to EP01104224A priority patent/EP1143221B1/de
Priority to AT01104224T priority patent/ATE331939T1/de
Priority to DE50110301T priority patent/DE50110301D1/de
Publication of DE10016963A1 publication Critical patent/DE10016963A1/de
Application granted granted Critical
Publication of DE10016963C2 publication Critical patent/DE10016963C2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Machine Tool Sensing Apparatuses (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Bestimmung der Position eines Koordinatensystems eines Werkstücks (d) im 3D-Raum, um dessen Lage zur Durchführung von Manipulationen berührungslos zu vermessen, unter Verwendung von mindestens zwei elektronischen Kameras (c) und digitaler Bildverarbeitung, wobei die Kameras (c) auf ein gemeinsames Weltkoordinatensystem (1) kalibriert werden und anschließend nach der 3D-Vermessung derselben das Werkstück (d) in den Raum zwischen den Kameras (c) verbracht wird. DOLLAR A Zur Erstellung des gemeinsamen Weltkoordinatensystems werden die Kameras (c) einzeln als Lochkameramodelle behandelt, wobei die direkte Vermessung der Position der Lichteintrittsöffnung einer jeden Kamera (c) erfolgt. Hierzu wird die Position der Lichteintrittsöffnung einer jeden Kamera (c) in ihrem passiven Zustand mit einem separaten Meßsystem (a) vermessen, welches zur direkten Antastung der Lichteintrittsöffnung imstande ist, beispielsweise ein 3D-Lasermeßsystem oder ein Theodolit. Das separate Meßsystem (a) ermittelt die Position und die Orientierung der Lichteintrittsöffnung der passiven Kameras (c); anschließend wird das in den Raum zwischen den Kameras verbrachte Werkstück durch die nunmehr aktiven Kameras (c) optisch abgebildet und die Videobilder mit einem Rechner zum Auffinden von Merkmalen (e) des Werkstücks (d) ausgewertet. Aus der Kenntnis der Position der Kameras (10) bezüglich des Meßsystems (a), der Videobilder (9) und der Koordinaten (8) des Werkstücks ...

Description

Die Erfindung betrifft ein Verfahren zur Bestimmung der Position eines Ko­ ordinatensystems eines Werkstücks im 3D-Raum, um dessen Lage zur Durch­ führung von Manipulationen berührungslos zu vermessen, unter Verwendung von mindestens zwei elektronischen Kameras und digitaler Bildverarbeitung, wobei die Kameras auf ein gemeinsames Weltkoordinatensystem kalibriert werden und anschließend nach der 3D-Vermessung derselben das Werkstück in den Raum zwischen den Kameras (c) verbracht wird, gemäß dem Oberbe­ griff des Anspruchs 1.
Die schnelle und berührungslose 3D-Vermessung eines dreidimensionalen Körpers besitzt eine Schlüsselfunktion auf dem Weg zu höhere Automatisie­ rung und zur vollständigen Qualitätsüberwachung in vielen Fertigungspro­ zessen. Nach der erfolgreichen Einführung der 2D-Bilderfassung und -verarbeitung in praktisch allen industriellen und gesellschaftlichen Berei­ chen, steht die 3D-Bilderfassung und -verarbeitung am Beginn einer offen­ sichtlich vergleichbar bedeutenden Entwicklung. Besonders in der industriel­ len Produktion kommt der schnellen und berührungslosen 3D-Positions- und 3D-Formerfassung eine große Bedeutung zu, so z. B. für die Maßhaltigkeits­ kontrolle, die Vollständigkeitsprüfung, Robotervision in der automatischen Montage, Prüfung von Oberflächenstrukturen, Reserve-Engineering, Überwa­ chung von Sicherheitszonen, 3D-Objekterkennung und Navigation im Raum. Die 3D-Formerfassung liefert die absoluten Geometriemaße von Objekten, die unabhängig vom Oberflächenzustand, von der Entfernung, Drehung und Be­ leuchtung sind, d. h. sie sind rotations-, verschiebungs- und beleuchtungsin­ variant. Allerdings ist der Aufwand unvergleichlich höher als bei der 2D- Projektion, bei der die Tiefeninformation der 3D-Szenen verloren geht. Die 3D-Positionserfassung liefert die genaue Kenntnis der Position von Objekten im Raum und deren Lage relativ zueinander. Damit ist sie für eine Vielzahl von technischen Verfahren von elementarer Bedeutung.
Die Kalibrierung von elektronischen Kameras ist ein vielfach untersuchtes Thema. Führend auf diesem Gebiet sind Verfahren, die sich mit der Auswertung von bekannten Mustern im Videobild befassen, wobei alle bekannten Verfahren auf dem Modell der Lochkamera aufsetzen. Die Parameter sind die optimale Brennweite, die Position der Lichteintrittsöffnung im Raum und Linsenverzeichnungsparameter sowie Parameter, die sich mit der Position des CCD-Chips im Bezug zum Lochkoordinatensystem befassen. Alle bekannten Verfahren zur Bestimmung dieser Parameter basieren auf der Auswertung von Videobildern. In diesen Videobildern versucht man, über die Betrachtung von Kalibrierkörpern oder Kalibrierplatten die Parameter der Kameramodelle zu ermitteln.
Speziell die berührungslose Messung von 3D-Koordinaten mittels CCD- Kameras birgt systembedingt das größte Potential an Möglichkeiten, stellt aber gleichzeitig die höchsten Anforderungen an Methodik und Technik. Zur Analyse komplexer 3D-Szenen müssen Methoden und Verfahren der Mu­ stererkennung, der klassische Bildverarbeitung und der Photogrammetrie eingesetzt werden, mit dem Ziel, die Positionen bestimmter Objekte und deren Lage zueinander zu erfassen. Mit der Komplexität der Szene steigt die Menge der zu verarbeitenden Informationen und damit die Notwendigkeit, effiziente Methoden und Verfahren einzusetzen. Andernfalls steigt der Leistungsan­ spruch an die zum Einsatz kommende Rechnerhardware überproportional.
Der Einsatz von Handhabungsgeräten und Robotern ist in der Regel daran gebunden, daß die Position des zu handhabenden Objektes in engen Grenzen definiert ist. In vielen Produktionsprozessen kann dies entweder nicht sicher­ gestellt werden oder muß durch eine aufwendige, teure und gleichzeitig unfle­ xible Positioniereinheit erreicht werden. Letzteres steht dem Wunsch nach flexiblen Produktionsstraßen entgegen.
So werden z. B. Automobilkarossen in bestimmten Abschnitten der Produkti­ on hängend an einem Transportsystem bewegt, das eine Karosse lediglich mit einer Genauigkeit von +/-30 mm positionieren kann. Eine Bearbeitung durch einen Roboter wird damit unmöglich, wenn für den Arbeitsvorgang selbst eine höhere Genauigkeit gefordert wird.
In der Massenfertigung von Stanz- oder Biegeteilen werden diese häufig un­ geordnet in Kisten den weiteren Arbeitsstationen zugeführt. Eine Vereinze­ lung der Teile ist im Allgemeinen einfach möglich. Die genaue Positionierung relativ zu einem Robotersystem muß jedoch oft mit aufwendigen mechani­ schen Anordnungen, die genau auf das Produkt abgestimmt sind, erfolgen.
Durch die EP 0 763 406 A1 ist ein Verfahren zum Bestimmen der Lage eines Körpers im Raum bekannt geworden, um Manipulationen an diesem durchzu­ führen, mit mehreren mit diesem zusammenwirkenden räumlich getrennten elektronischen Kameras mit Bildverarbeitung. Jede von mindestens drei räumlich getrennten elektronischen Kameras mit Bildverarbeitung nimmt bei deren Einmessung eine ihr zugeordnete Kalibriertafel mit Punktmuster auf, deren Bilder sowie das Punktmuster zur Bestimmung der Lage der einzelnen Kamera im Raum verarbeitet und deren Lage speichert. Eine Vermessung der Kalibriertafeln zueinander erfolgt hiervon getrennt, wobei diese Werte eben­ falls gespeichert werden. Anschließend wird der zu vermessende Körper in den Raum zwischen den elektronischen Kameras verbracht. Je ein charakte­ ristischer Punkt auf dem in den Raum verbrachten Körper wird in je einer diesem zugeordneten elektronischen Kamera abgebildet, so dass dessen Lage in Bild mit seiner konstruktiven vorgegebenen Position des charakteristischen Punktes auf den in den Raum verbrachten Körper zusammen mit den gespei­ cherten Werten verarbeitet wird; alle derart verarbeiteten Werte charakteri­ sieren die Lage des in dem Raum verbrachten Körpers in den sechs räumli­ chen Freiheitsgraden. Nachteilig an diesem Verfahren ist prinzipiell, dass zum Bestimmen der Lage eines Körpers im Raum Kalibriertafeln verwendet werden, welche sorgfältig gehandhabt werden müssen und nicht beschädigt werden dürfen wie sie auch Lagerplatz benötigen. Der wesentliche Nachteil ist, dass die Kalibriertafeln mit einem großen Aufwand mechanisch im Sicht­ feld der Kameras positioniert werden müssen und die Positionierbarkeit äu­ ßerst wiederholgenau sein muß. Diese Reproduzierbarkeit der Positionierung zu gewährleisten ist oft mit erheblichen Kosten verbunden, da die räumlichen Verhältnisse zum Beispiel in der Fördertechnik häufig schwierig sind.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren der eingangs ge­ nannten Gattung zu schaffen, welches zum Bestimmen der Lage eines Kör­ pers im Raum ohne Kalibriertafeln und hoher Reproduzierbarkeit auskommt.
Die Lösung der Aufgabe ist durch die folgenden Merkmale gekennzeichnet: a) zur Erstellung des gemeinsames Weltkoordinatensystems werden die Kame­ ras einzeln als Lochkameramodelle behandelt, wobei die direkte Vermessung der Position der Lichteintrittsöffnung einer jeden Kamera erfolgt; b) hierzu wird die Position der Lichteintrittsöffnung einer jeden Kamera in ihrem pas­ siven Zustand mit einem separaten Meßsystem vermessen, welches zur direk­ ten Antastung der Lichteintrittsöffnung imstande ist, beispielsweise ein 3D- Lasermeßsystem oder ein Theodolit; c) das separate Meßsystem ermittelt die Position und die Orientierung der Lichteintrittsöffnung der passiven Kameras im Weltkoordinatensystem; d) anschließend wird das in den Raum zwischen den Kameras verbrachte Werkstück durch die nunmehr aktiven Kameras op­ tisch abgebildet und die Videobilder mit einem Rechner zum Auffinden von Merkmalen des Werkstücks ausgewertet; e) aus der Kenntnis der Position der Kameras bezüglich des Weltkoordinatensystems, der Videobilder und der Ko­ ordinaten des Werkstücks errechnet der Rechner nach der Methode des Bün­ delausgleichs zusammen mit den Werkstückkoordinaten die Position des Werkstücks in Weltkoordinaten und damit auch die Position der Merkmale des Werkstücks in Weltkoordinaten.
Zur Vermessung kann die Lichteintrittsöffnung einer jeden Kamera zum Bei­ spiel mit einem optisch anvisierbaren Kreuz versehen werden, durch dessen Kreuzungspunkt die optische Achse verläuft, die ebenfalls durch das licht­ empfindliche Element, beispielsweise CCD-Chip bzw. dessen aktive Fläche, der Kamera verläuft.
Das erfindungsgemäße Verfahren besitzt den Vorteil, dass es zum Bestimmen der Lage eines Körpers im Raum keine Kalibriertafeln benötigt und die Ka­ meras insoweit nur als passive Objekte oder passive Träger der Meßkörper dienen. In weiterer vorteilhafter Ausgestaltung des Verfahrens wird zur Ver­ messung der Lichteintrittsöffnung einer jeden Kamera im passiven Zustand die Lichteintrittsöffnung mit einem Meßkörper versehen, der eine feste gege­ bene Beziehung zur Lichteintrittsöffnung einer jeden Kamera und zum licht­ empfindlichen Element, beispielsweise CCD-Chip, der Kamera aufweist und sodann die Position und die Orientierung des Meßkörpers mittels des separa­ ten Meßsystems ermittelt wird. Die passiven Kameras dienen während des Vermessungsvorgangs nur als Träger der Meßkörper.
Das Einmessen der Anlage bzw. der Kameras kann schon dann erfolgen, wenn die Kameras nur montiert sind, ohne dass das eigentliche Bildverarbeitungs­ system, wie PC, Verschaltung, Anschlüsse, in Betrieb genommen bzw. funkti­ onsfähig ist.
Die Positionsbestimmung der Merkmale im Videobild erfolgt mit Algorithmen der Bildverarbeitung, zum Beispiel mittels skalierter Grauwertkorrelation oder Schwerpunktberechnung von Löchern oder Kantenantastung oder deren Kombination.
Vorteilhaft werden CCD-Kameras mit Objektiv-Schraubgewinde verwendet, wobei die Meßkörper ein entsprechendes, auf die Schraubgewinde der Kame­ ras passendes Gewinde aufweisen und auf die CCD-Kameras aufgeschraubt werden. Statt der Schraubgewinde können auch Bajonett- oder Steckver­ schlüsse an den Kameras und den Meßkörpern verwendet werden.
In der Zeichnung ist ein Beispiel zur Durchführung des erfindungsgemäßen Verfahrensablaufes gezeigt.
Zur Bestimmung der Position von Kameras c im gemeinsames Weltkoordina­ tensystems werden die Kameras c, von denen wenigstens zwei Stück zum Einsatz gelangen, einzeln als Lochkameramodelle behandelt, wobei die direk­ te Vermessung der Position der Lichteintrittsöffnung einer jeden Kamera c erfolgt. Hierzu wird die Position der Lichteintrittsöffnung einer jeden Kamera c in ihrem passiven Zustand mit einem separaten Meßsystem a vermessen, welches zur direkten Antastung der Lichteintrittsöffnung imstande ist, wobei das Meßsystem a beispielsweise ein 3D-Lasermeßsystem oder ein Theodolit ist. Das separate Meßsystem a ermittelt die Position und die Orientierung der Lichteintrittsöffnung der passiven Kameras c. Anschließend wird ein Werk­ stück d in den Raum zwischen den Kameras c verbracht und durch die nun­ mehr aktiven Kameras c optisch abgebildet. Anschließend werden die Video­ bilder der Kameras c mit einem Rechner zum Auffinden von Merkmalen e des Werkstücks d ausgewertet. Aus der Kenntnis der Position der Kameras bzw. des Kamerakoordinatensystems 2 bezüglich des Meßsystems a bzw. des Koor­ dinatensystems 5 des Meßsystems a, der Videobilder 9 und der Koordinaten 4 des Werkstücks d bzw. der Koordinaten 8 von Merkmalen e des Werkstücks d errechnet der Rechner nach der Methode des Bündelausgleichs die Position 11 des Werkstücks d in Weltkoordinaten 1 und damit auch die Position der Merkmale e des Werkstücks d in Weltkoordinaten 1.
Der Ablauf einer Messung erfolgt durch die Betrachtung von Merkmalen e des Werkstücks d mit mindestens zwei Kameras c, wobei in jedem Kamerabild andere Merkmale e abgebildet werden. Die Kamerabilder werden digitalisiert und in einem Rechner verarbeitet. Der Rechner kennt die Position 2 der Ka­ meras im Raum 10, also im Weltkoordinatensystem 1 ebenso wie er die Koor­ dinaten 8 der Merkmale e im Koordinatensystem 4 des Werkstücks d kennt. Der Rechner bestimmt aus diesen Informationen die Lage 11 des Werkstücks d in dem festen Weltkoordinatensystem 1.
Die berührungslose Positionsbestimmung von Werkstücken kann somit im Wesentlichen in drei Schritte aufgeteilt werden.
  • 1. Die Kalibrierung der verwendeten Kameras oder Kamerasysteme auf ein gemeinsames Weltkoordinatensystem 1.
  • 2. Die Auswertung von Videobildern der Kameras mit einem Rechner zur Auffindung von Merkmalen e eines Werkstücks d.
  • 3. Die Berechnung von Werkstückposition 11 aus der Kenntnis der Kamera­ position 10, der Videobilder 9 und der Koordinaten 8 des Werkstücks.
Das erfindungsgemäße Verfahren betrifft die direkte Messung der Position der Lichteintrittsöffnung der Kamera und aller weiteren geometrischen Pa­ rameter eines Lochkameramodells durch direkte Antastung der Lichtein­ trittsöffnung mit einem separaten Meßsystem a, zum Beispiel 3D-Lasermeß­ system oder Theodolit, ohne daß die Kameras c dabei aktiv sind. Dazu werden die Kameras c mit einem Meßkörper b versehen. Dieser Meßkörper hat eine feste Beziehung 7 zur Lichteintrittsöffnung des Kameramodells und zum CCD-Chip. Die Position und die Orientierung 6 des Meßkörpers wird über ein separates 3D-Meßsystem a ermittelt. Es ist keine weitere Kalibrierung an Hand von Videobildern unter Verwendung von Kalibrierplatten oder Ähnli­ ches notwendig.
Die Erfassung der Merkmale e des, vorzugsweise dreidimensionalen, Werk­ stücks d erfolgt mittels elektronischen Kameras c. Die Positionsbestimmung 9 der Merkmale im Videobild erfolgt zum Beispiel mittels skalierter Grauwert­ korrelation oder Schwerpunktsberechnung von Löchern oder Kantenanta­ stung oder deren Kombinationen.
Aus den so gewonnenen Daten wird zusammen mit den Koordinaten 8 des Werkstücks d die Position 11 des Körpers d in Weltkoordinaten 1 mit der Me­ thode des Bündelausgleichs berechnet.
Die Kameras c können mit der beschriebenen Methode an einem festen Ort eingemessen werden. Genauso kann eine oder mehrere der Kameras c an ei­ ner numerisch gesteuerten Maschine oder einem Roboter angebracht werden.
Bezugszeichenliste
a separates Meßsystem
b Meßkörper
c Kamera
d Körper
e Körpermerkmale
1
Weltkoordinatensystem
2
Kamerakoordinatensystem
3
Meßkörperkoordinatensystem
4
Körperkoordinatensystem
5
Koordinatensystem separates Meßsystem
6
Lage des (
3
) in (
5
)
7
Lage (
3
) in (
2
)
8
Lage (e) in (
4
)
9
Lage (e) in Bildkoordinaten von (c)
10
Lage (
2
) in (
1
)
11
Lage (
4
) in (
1
)
3D-Vektor (x, y, z, A, B, C)
3D-Koordinate (x, y, z)
2D-Koordinate (x, y)

Claims (4)

1. Verfahren zur Bestimmung der Position eines Koordinatensystems eines Werkstücks (d) im 3D-Raum, um dessen Lage zur Durchführung von Mani­ pulationen berührungslos zu vermessen, unter Verwendung von mindestens zwei elektronischen Kameras (c) und digitaler Bildverarbeitung, wobei die Kameras (c) auf ein gemeinsames Weltkoordinatensystem (1) kalibriert wer­ den und anschließend nach der 3D-Vermessung derselben das Werkstück (d) in den Raum zwischen den Kameras (c) verbracht wird, gekennzeichnet durch die folgenden Merkmale:
  • a) Zur Erstellung des gemeinsames Weltkoordinatensystems werden die Ka­ meras (c) einzeln als Lochkameramodelle behandelt, wobei die direkte Ver­ messung der Position der Lichteintrittsöffnung einer jeden Kamera (c) erfolgt.
  • b) Hierzu wird die Position der Lichteintrittsöffnung einer jeden Kamera (c) in ihrem passiven Zustand mit einem separaten Meßsystem (a) vermessen, wel­ ches zur direkten Antastung der Lichteintrittsöffnung imstande ist, bei­ spielsweise ein 3D-Lasermeßsystem oder ein Theodolit.
  • c) Das separate Meßsystem (a) ermittelt die Position (10) und die Orientierung der Lichteintrittsöffnung der passiven Kameras (c) im Weltkoordinatensystem (1).
  • d) Anschließend wird das in den Raum zwischen den Kameras verbrachte Werkstück durch die nunmehr aktiven Kameras (c) optisch abgebildet und die Videobilder mit einem Rechner zum Auffinden von Merkmalen (e) des Werk­ stücks (d) ausgewertet.
  • e) Aus der Kenntnis der Position der Kameras (10) bezüglich des Weltkoordi­ natensystems (1), der Videobilder (9) und der Koordinaten (8) des Werkstücks (d) errechnet der Rechner nach der Methode des Bündelausgleichs zusammen mit den Werkstückkoordinaten (8) die Position (11) des Werkstücks (d) in Weltkoordinaten (1) und damit auch die Position der Merkmale (e) des Werk­ stücks (d) in Weltkoordinaten (1).
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Vermessung der Lichteintrittsöffnung einer jeden Kamera im passi­ ven Zustand die Lichteintrittsöffnung mit einem Meßkörper (b) versehen wird, der eine feste, gegebene Beziehung (7) zur Lichteintrittsöffnung einer jeden Kamera (c) und zum lichtempfindlichen Element, beispielsweise CCD- Chip, der Kamera aufweist und die Position und die Orientierung (6) des Meßkörpers (b) mittels des separaten Meßsystems (a) ermittelt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Positionsbestimmung (9) der Merkmale im Videobild mit Algorith­ men der Bildverarbeitung, zum Beispiel mittels skalierter Grauwertkorrelati­ on oder Schwerpunktberechnung von Löchern oder Kantenantastung oder de­ ren Kombination, erfolgt.
4. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass CCD-Kameras (c) mit Objektiv-Schraubgewinde verwendet werden und die Meßkörper (b) ein entsprechendes Schraubgewinde aufweisen und auf die CCD-Kameras aufgeschraubt werden.
DE10016963A 2000-04-06 2000-04-06 Verfahren zur Bestimmung der Position eines Werkstücks im 3D-Raum Expired - Lifetime DE10016963C2 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE10016963A DE10016963C2 (de) 2000-04-06 2000-04-06 Verfahren zur Bestimmung der Position eines Werkstücks im 3D-Raum
ES01104224T ES2267612T3 (es) 2000-04-06 2001-02-22 Procedimiento para determinar la posicion de un sistema de coordenadas de una pieza de trabajo en el espacio 3d.
EP01104224A EP1143221B1 (de) 2000-04-06 2001-02-22 Verfahren zur Bestimmung der Position eines Koordinatensystems eines Werkstücks im 3D-Raum
AT01104224T ATE331939T1 (de) 2000-04-06 2001-02-22 Verfahren zur bestimmung der position eines koordinatensystems eines werkstücks im 3d-raum
DE50110301T DE50110301D1 (de) 2000-04-06 2001-02-22 Verfahren zur Bestimmung der Position eines Koordinatensystems eines Werkstücks im 3D-Raum

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10016963A DE10016963C2 (de) 2000-04-06 2000-04-06 Verfahren zur Bestimmung der Position eines Werkstücks im 3D-Raum

Publications (2)

Publication Number Publication Date
DE10016963A1 true DE10016963A1 (de) 2001-10-25
DE10016963C2 DE10016963C2 (de) 2002-02-14

Family

ID=7637694

Family Applications (2)

Application Number Title Priority Date Filing Date
DE10016963A Expired - Lifetime DE10016963C2 (de) 2000-04-06 2000-04-06 Verfahren zur Bestimmung der Position eines Werkstücks im 3D-Raum
DE50110301T Expired - Lifetime DE50110301D1 (de) 2000-04-06 2001-02-22 Verfahren zur Bestimmung der Position eines Koordinatensystems eines Werkstücks im 3D-Raum

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE50110301T Expired - Lifetime DE50110301D1 (de) 2000-04-06 2001-02-22 Verfahren zur Bestimmung der Position eines Koordinatensystems eines Werkstücks im 3D-Raum

Country Status (4)

Country Link
EP (1) EP1143221B1 (de)
AT (1) ATE331939T1 (de)
DE (2) DE10016963C2 (de)
ES (1) ES2267612T3 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1245344A2 (de) 2001-03-27 2002-10-02 VMT Bildverarbeitungssysteme GmbH Reintegration einer digitalen Kamera in ein Bildverarbeitungssystem, welche aus einer kalibrierten Position in eine unkalibrierte Position versetzt worden ist
EP1251329A2 (de) 2001-04-16 2002-10-23 VMT Bildverarbeitungssysteme GmbH Verfahren zur Arbeitspunktstabilisierung bei berührungsloser 3D-Positionserkennung eines Objektes mittels Digitalkameras
DE10305896B3 (de) * 2003-01-12 2004-01-22 Pepperl + Fuchs Gmbh Verfahren zum Bestimmen der Position eines Objektes im Raum mittels eines vom Objekt ausgesendeten und von Empfängern empfangenen Signals
US10757394B1 (en) 2015-11-09 2020-08-25 Cognex Corporation System and method for calibrating a plurality of 3D sensors with respect to a motion conveyance
US10812778B1 (en) 2015-11-09 2020-10-20 Cognex Corporation System and method for calibrating one or more 3D sensors mounted on a moving manipulator
DE102021105176A1 (de) 2021-03-04 2022-09-08 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Vorrichtung und Verfahren zur Ermittlung und Darstellung einer Relativorientierung eines Gegenstandes
US11562502B2 (en) 2015-11-09 2023-01-24 Cognex Corporation System and method for calibrating a plurality of 3D sensors with respect to a motion conveyance

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10242769C1 (de) * 2002-09-14 2003-12-18 Thomas Pagel Verfahren zur Vermessung der Lage von robotergeführten Werkstücken und Messeinrichtung hierzu
DE10249786A1 (de) * 2002-10-24 2004-05-13 Medical Intelligence Medizintechnik Gmbh Referenzierung eines Roboters zu einem Werkstück und Vorrichtung hierfür
DE102005007536A1 (de) * 2005-02-17 2007-01-04 Isra Vision Systems Ag Verfahren zur Kalibrierung eines Messsystems
DE102007047424A1 (de) * 2007-10-04 2009-04-09 Robert Bosch Gmbh Kraftfahrzeugbauteil-Vermessungssystem, Verwendung sowie Verfahren
GB2502149B (en) 2012-05-18 2017-01-18 Acergy France SAS Improvements relating to pipe measurement
DE102017118717B4 (de) * 2017-08-16 2019-10-31 Carl Zeiss Industrielle Messtechnik Gmbh Vorrichtung zum Bestimmen einer 3D-Position eines Objekts in einem Messvolumen

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0473010A2 (de) * 1990-08-25 1992-03-04 Firma Carl Zeiss Verfahren zur berührungslosen Vermessung von Objektoberflächen
EP0763406A1 (de) * 1995-09-15 1997-03-19 ISRA Systemtechnik GmbH Verfahren zum Bestimmen der Lage eines Körpers im Raum

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4639878A (en) * 1985-06-04 1987-01-27 Gmf Robotics Corporation Method and system for automatically determining the position and attitude of an object
FI74556C (fi) * 1986-04-11 1988-02-08 Valtion Teknillinen Foerfarande foer tredimensionell oevervakning av ett maolutrymme.
DE3941144C2 (de) * 1989-12-13 1994-01-13 Zeiss Carl Fa Koordinatenmeßgerät zur berührungslosen Vermessung eines Objekts

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0473010A2 (de) * 1990-08-25 1992-03-04 Firma Carl Zeiss Verfahren zur berührungslosen Vermessung von Objektoberflächen
EP0763406A1 (de) * 1995-09-15 1997-03-19 ISRA Systemtechnik GmbH Verfahren zum Bestimmen der Lage eines Körpers im Raum

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
R. Gerdes, R. Otterbach, R. Kammüller: Kalibrie- rung eines digitalen Bildverarbeitungssystems mit CCD-Kamera - Teil I u. Teil II, in: tm-Tech- nisches Messen 60 (1993)6, S. 255-261 (Teil I) und 60 (1993)7/8, S. 283-288 (Teil II) *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1245344A2 (de) 2001-03-27 2002-10-02 VMT Bildverarbeitungssysteme GmbH Reintegration einer digitalen Kamera in ein Bildverarbeitungssystem, welche aus einer kalibrierten Position in eine unkalibrierte Position versetzt worden ist
EP1251329A2 (de) 2001-04-16 2002-10-23 VMT Bildverarbeitungssysteme GmbH Verfahren zur Arbeitspunktstabilisierung bei berührungsloser 3D-Positionserkennung eines Objektes mittels Digitalkameras
DE10118514B4 (de) * 2001-04-16 2005-08-18 Vmt Bildverarbeitungssysteme Gmbh Verfahren zur Arbeitspunktstabilisierung bei berührungsloser 3D- Positionserkennung eines zu vermessenden Objektes mittels Digitalkameras
DE10305896B3 (de) * 2003-01-12 2004-01-22 Pepperl + Fuchs Gmbh Verfahren zum Bestimmen der Position eines Objektes im Raum mittels eines vom Objekt ausgesendeten und von Empfängern empfangenen Signals
US10757394B1 (en) 2015-11-09 2020-08-25 Cognex Corporation System and method for calibrating a plurality of 3D sensors with respect to a motion conveyance
US10812778B1 (en) 2015-11-09 2020-10-20 Cognex Corporation System and method for calibrating one or more 3D sensors mounted on a moving manipulator
US11562502B2 (en) 2015-11-09 2023-01-24 Cognex Corporation System and method for calibrating a plurality of 3D sensors with respect to a motion conveyance
DE102021105176A1 (de) 2021-03-04 2022-09-08 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Vorrichtung und Verfahren zur Ermittlung und Darstellung einer Relativorientierung eines Gegenstandes

Also Published As

Publication number Publication date
EP1143221A3 (de) 2003-11-26
ES2267612T3 (es) 2007-03-16
DE50110301D1 (de) 2006-08-10
ATE331939T1 (de) 2006-07-15
DE10016963C2 (de) 2002-02-14
EP1143221B1 (de) 2006-06-28
EP1143221A2 (de) 2001-10-10

Similar Documents

Publication Publication Date Title
DE102015101710B4 (de) Verfahren zum Kalibrieren eines beweglichen Greiforgans unter Verwendung einer entfernten Digitalkamera
DE102015002760B4 (de) Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert
DE102020101191B4 (de) Mikroskop und Verfahren zum Ermitteln eines Messortes eines Mikroskops
DE102008041523B4 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
EP1711777B1 (de) Verfahren zur bestimmung der lage und der relativverschiebung eines objekts im raum
DE10016963C2 (de) Verfahren zur Bestimmung der Position eines Werkstücks im 3D-Raum
DE112010002174T5 (de) Verfahren und vorrichtung für ein praktisches 3d-sehsystem
DE102016001337A1 (de) Werkstückpositionierungsvorrichtung, die eine Bildgabeeinheit verwendet
DE112006002674T5 (de) Verfahren und Vorrichtungen für praktisches 3D-Sichtigkeitssystem
DE102017011589B4 (de) Bildanzeigevorrichtung zum Anzeigen einer Temperaturverteilung einer Maschine
DE102015109557B4 (de) Verfahren zur Einstellung einer Prüf- oder Messposition eines berührungslos wirkenden Sensors
DE102006004153B4 (de) Automatisches Einmessen kooperierender Roboter
DE102018121481A1 (de) Entfernungsmesssystem und Entfernungsmessverfahren
WO2005031647A1 (de) Verfahren und vorrichtung zur berührungslosen optischen 3d-lagebestimmung eines objekts
EP1468792A2 (de) Verfahren zum Kalibrieren eines Roboters
DE102019102927A1 (de) Verfahren und Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
DE10048096A1 (de) Verfahren zur Kalibrierung eines messenden Sensors auf einem Koordinatenmeßgerät
DE102006005990B4 (de) Werkstückvermessung für 3-D Lageerkennung in mehreren Multi-Roboter-Stationen
EP1098268A2 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE102017207063A1 (de) Steuereinrichtung für eine Prüfvorrichtung, Prüfanordnung mit der Steuereinrichtung, Verfahren zur Ansteuerung der Prüfanordnung und Computerprogramm
DE102016212651B4 (de) Verfahren zum Vermessen eines Werkstücks unter Verwendung von zumindest einem Referenzkörper
DE102005043070B4 (de) Verfahren zur hochgenauen dreidimensionalen Vermessung und/oder Rekonstruktion von Objekten mit Hilfe digitaler Bildaufnahmen, beispielsweise zur Bildauswertung von Verkehrsstrecken
DE102008062043A1 (de) Verfahren und System zur Prüfung der Genauigkeit eines Sensors
DE102014100538A1 (de) Verfahren zum Kalibrieren eines Roboters und einer Kamera und System zum Durchführen des Verfahrens
EP3875892B1 (de) Optische messvorrichtung, verfahren zum erstellen eines messprogramms zur optischen vermessung eines messobjektes und prüfverfahren zur optischen vermessung eines messobjektes

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: VMT VISION MACHINE TECHNIC BILDVERARBEITUNGSSY, DE

R081 Change of applicant/patentee

Owner name: VMT VISION MACHINE TECHNIC BILDVERARBEITUNGSSY, DE

Free format text: FORMER OWNER: VMT VISION MACHINE TECHNIC GMBH, TECMEDIC GMBH, , DE

Effective date: 20110224

Owner name: VMT VISION MACHINE TECHNIC BILDVERARBEITUNGSSY, DE

Free format text: FORMER OWNERS: VMT VISION MACHINE TECHNIC GMBH, 69469 WEINHEIM, DE; TECMEDIC GMBH, 45897 GELSENKIRCHEN, DE

Effective date: 20110224

R071 Expiry of right