DE10102943A1 - Messsystem und Verfahren zur Bestimmung von Geometrieinformationen eines Objekts - Google Patents

Messsystem und Verfahren zur Bestimmung von Geometrieinformationen eines Objekts

Info

Publication number
DE10102943A1
DE10102943A1 DE2001102943 DE10102943A DE10102943A1 DE 10102943 A1 DE10102943 A1 DE 10102943A1 DE 2001102943 DE2001102943 DE 2001102943 DE 10102943 A DE10102943 A DE 10102943A DE 10102943 A1 DE10102943 A1 DE 10102943A1
Authority
DE
Germany
Prior art keywords
data
camera
determining
cameras
reference system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE2001102943
Other languages
English (en)
Inventor
Klaus Schroeer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE2001102943 priority Critical patent/DE10102943A1/de
Publication of DE10102943A1 publication Critical patent/DE10102943A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers

Abstract

In einem Messsystem zur Bestimmung von Geometriedaten eines Objekts beispielsweise in einer Fertigungsanlage, werden zumindest zwei Kameras 1, 2 zur Erfassung von Bilddaten des Objekts verwendet. Den Kameras ist jeweils eine lokale Bilddatenvorverarbeitung 3, 4 zugeordnet, die aus den jeweils gewonnenen Bilddaten jeweils Geometriedaten in dem jeweiligen Kamera-Bezugssystem ermittelt. Diese Geometriedaten werden über einen Datenbus 8 an einen Server-Computer 9 übertragen und dort zur Ermittlung der Geometriedaten in einem dreidimensionalen Bezugssystem ausgewertet.

Description

Die Erfindung betrifft ein Messsystem und ein Verfahren zur Bestimmung von Geometrieinformationen eines Objekts mit mindestens einer ersten und einer zweiten Kamera.
Aus dem Stand der Technik sind verschiedene Systeme zur geometrischen Vermessung und/oder Lagebestimmung eines Objekts bekannt. Aus der EP 0 671 679 A1 ist eine Vorrichtung und ein Verfahren zum berührungslosen Messen dreidimensionaler Objekte auf der Basis optischer Triangulation bekannt. Dort sendet eine Strahlungsquelle gebündelte Strahlung auf die Oberfläche eines zu messenden Objektes aus. Diese Strahlung wird streuend reflektiert und die Remission mittels Strahlungsdetektoren erfasst. Durch Antriebsvorrichtungen wird nahezu die gesamte Oberfläche des zu messenden Objektes kontinuierlich abgetastet.
Verfahren zum berührungslosen Messen der Außenkonturen von dreidimensionalen Objekten mittels elektromagnetischer Strahlung auf der Basis optischer Triangulation sind ebenfalls bekannt.
Hierbei befindet sich das Objekt auf einer Befestigungsvorrichtung und wird mittels einer Abtasteinheit, welche bewegbar ist, abgetastet. Das Sensorausgangsignal bei bekannten Verfahren wird mit einer entsprechenden Auswerteeinheit rechnergestützt weiterverarbeitet, um entsprechende Informationen über die Objektoberflächenentfernung zu erhalten, sodass hieraus dreidimensionale, digitale Daten gewonnen werden können. Diese Daten werden dann abgespeichert, um anschließend für 3D-Bildbearbeitungssysteme, z. B. zur Steuerung einer numerischen Werkzeugmaschine, zur Verfügung zu stehen. Aus der DE 198 39 830 A1 ist ein entsprechendes Verfahren zur optischen Distanzmessung mittels einer regelbaren Punktlichtquelle und mehrkanaligen CCD-Sensoranordnungen auf der Basis optischer Triangulation und punktweise Abtastung bekannt.
Aus der DE 39 41 144 A1 ist ein Koordinatenmessgerät zur berührungslosen Vermessung von Objekten bekannt, bei dem das Objekt mittels mehrerer dreh- und schwenkbarer Kameras vermessen wird. Die Videosignale der Kameras werden zusammen mit den Winkeldaten der Geber des für die Führung der Kameras benutzten Dreh-Schwenkgelenks dem Rechner des Koordinatengerätes zugeführt.
Aus der EP 0 829 701 A1 ist ein Kamera basiertes System zur geometrischen Messung von Objekten bekannt. Hierbei werden Referenzpunkte in Form von Leuchtmarken verwendet. Die Selbstkalibrierung des Systems basiert auf der Methode der kleinsten Fehlerquadrate. Ein ähnliches System ist auch aus der EP 0 700 506 B1 bekannt.
Weitere Kamera basierte Messsysteme sind beispielsweise aus der US 5,216,476, WO 89/09922, DE 43 26 704 A1 und DE 195 34 415 A1 bekannt. Den aus dem Stand der Technik bekannten Kamera basierten Messsystemen ist gemeinsam, dass die von den Kameras gelieferten Videosignale in eine zentrale Auswertungseinheit gespeist werden.
Der Erfindung liegt die Aufgabe zu Grunde, ein verbessertes Meßsystem und Verfahren zur Bestimmung der Koordinaten eines Objektes zu schaffen. Diese Aufgabe wird durch die Merkmale der unabhängigen Patentansprüche gelöst. Bevorzugte Ausführungsformen sind in den abhängigen Ansprüchen angegeben.
Nach der Erfindung wird zunächst eine Vorverarbeitung der von den einzelnen Kameras aufgenommenen Bilder durchgeführt. Vorzugsweise ist jede der Kameras an eine eigene 2D-Bildverarbeitungseinrichtung angeschlossen. Die Bildverarbeitungs­ einrichtung kann dabei als Einsschubkarte ausgebildet sein und/oder eine bauliche Einheit mit der Kamera bilden.
Die Bildverarbeitungseinrichtung jeder Kamera bestimmt nach der Aufnahme eines Bildes die räumliche Lage des zu messenden Objekts in dem jeweiligen Kamera- Bezugssystem.
Die so durch die Vorverarbeitung jeweils lokal gewonnen zweidimensionalen Koordinaten-Daten des zu messenden Objekts werden dann über Kommunikationsmittel, beispielsweise ein Datenbussystem, zu einer Auswertungseinheit, beispielsweise einem entsprechend programmierten Server- Computer, zugeführt. Die verteilte Vorauswertung der von den einzelnen Kameras aufgenommenen Bilddaten hat den Vorteil, dass lediglich die zweidimensionalen Koordinaten-Daten bzw. Geometriedaten des jeweiligen Kamera-Bezugssystems über den Datenbus zu dem Server-Computer übertragen werden. Aufgrund dessen ist eine Realisierung des Messsystems ohne aufwendige Spezialhardware möglich. Insbesondere können für die lokale Vorauswertung handelsübliche 2D- Bildverarbeitungskarten und entsprechende Software verwendet werden.
Ein weiterer wichtiger Vorteil ist, dass eine nahezu beliebige Anzahl weiterer Kameras mit entsprechender Vorauswertung je nach Bedarf zu dem System hinzugefügt werden können, etwa zur Vergrößerung der Messgenauigkeit. Das erfindungsgemäße Messsystem erlaubt es also, z. B. etwa 5 bis 10 oder 30 bis 40 oder auch mehr Kameras mit Vorauswertung zu integrieren. Im Vergleich zu aus dem Stand der Technik bekannten Systemen lässt sich das Messsystem in besonders kostengünstiger Art und Weise realisieren und ist dabei doch hinsichtlich seiner Präzision und Flexibilität vorbekannten Systemen überlegen.
Nach einer bevorzugten Ausführungsform sind die einzelnen Kameras an einem Roboter-Arm montiert, so dass sie räumlich schwenkbar sind. Die einzelnen Roboter sind ebenfalls an einen Datenbus angeschlossen, um mit dem Server-Computer zu kommunizieren. Erfolgt ein Schwenk einer Kamera, so wird die neue absolute oder relative Position der Kamera von dem Roboter über den Datenbus zu dem Server- Computer kommuniziert und dort verarbeitet. Das Messsystem erlaubt es dann, ohne erneute Kalibrierung weiter zu arbeiten.
Nach einer weiteren bevorzugten Ausführungsform werden die ermittelten dreidimensionalen Koordinaten-Daten des Objekts bzw. Geometrieinformationen des Objekts in einem dreidimensionalen Bezugssystem mit beispielsweise CAD-Daten verglichen. Bei den CAD-Daten handelt es sich um Konstruktions-Daten, die die gewünschte Form des Objekts beschreiben, oder um Fertigungsplanungsdaten, die die gewünschte räumliche Position des Objekts zu einem bestimmten Zeitpunkt beschreiben. Die ermittelten dreidimensionalen Koordinaten-Daten werden als Ist-Größe mit den CAD-Daten oder Fertigungsablaufdaten als Soll-Größen verglichen. Sofern sich bei diesem Vergleich ein Unterschied von Soll- und Ist-Größen ergibt, der jenseits einer Toleranzgrenze liegt, können auf Grund dessen Steuerungsbefehle generiert werden, um etwa - entsprechend der Abweichung - in den Fertigungsvorgang einzugreifen.
Ferner erlaubt es die Erfindung, auch weitere nicht Kamera basierte Messvorrichtungen mitzuintegrieren. Beispielsweise können die von einem taktilen Messgeber ermittelten Koordinaten-Daten in dem Bezugssystem des taktilen Messgebers über den Datenbus in den Server-Computer eingespeist werden, um dort für die Berechnung der dreidimensionalen Koordinaten-Daten des zu vermessenden Objekts mit einzugehen. Dies erlaubt es bereits bestehende Messvorrichtungen beispielsweise einer Fertigungsanlage zu integrieren.
Ein weiterer Vorteil der Erfindung besteht darin, dass eine Bestimmung der Messgenauigkeit auf Grund der den erfassten Messdaten inhärenten Redundanz durch den Server-Computer bzw. dessen Auswertungssoftware möglich ist. Stellt sich dabei heraus, dass die erreichte Messgenauigkeit nicht zufriedenstellend ist, so kann eine weitere Kamera mit Vorverarbeitung oder eine weitere nicht Kamera basierte Messvorrichtung zu dem Messsystem hinzugefügt werden. Dazu wird die Kamera bzw. das weitere Messsystem mit dem jeweiligen Datenausgang für die zweidimensionalen bzw. eindimensionalen Koordinaten über den Daten-Bus an den Server-Computer angeschlossen.
Die Erfindung erlaubt es über die drei räumlichen Positionskoordinaten eines Objekts hinaus dessen räumliche Lage sowie die räumliche Lage von Prüfmerkmalen zu bestimmen. Die räumliche Lage eines Objekts im 3D-Raum ist z. B. durch sechs unabhängige Parameter/Koordinaten bestimmt: Drei Koordinaten für die Position, und drei Winkel-Koordinaten für die Orientierung des Objekts.
Bei der räumlichen Positionsbestimmung von Prüfmerkmalen kann es sich z. B. um 3D- Informationen für eine Bohrung handeln, d. h. um die 3D-Position des Mittelpunktes (der sich als Schnitt mit einer Oberfläche ergibt) und einer Schnittebene (z. B. als 3D- Normalenvektor) sowie einer maximalen Radienabweichung.
Die Erfindung erlaub ferner die Bestimmung von Geometrieinformationen von Objekten und Prüfmerkmalen im dreidimensionalen Raum basierend auf von den einzelnen Kameras bzw. der jeweiligen 2D-Vorverarbeitung gelieferten und auf das jeweilige Kamera-Bezugssystem bezogenen 2D-Daten. Die durch die Erfindung bestimmbaren Geometrieinformationen können höher-dimensional sein, d. h. es sind u. U. viele Parameter pro Prüfmerkmal bestimmbar, z. B. die 6-dimensionale Lage eines Körper sowie ggf. zusätzliche Informationen über Radien, Bolzenlängen, Durchmesser, oder z. B. auch eine Folge von 3D-Punkten, die eine Kontur (z. B. die Kante einer Fahrzeug- Tür) beschreiben.
Die Erfindung soll nachstehend anhand von Ausführungsbeispielen sowie unter Zuhilfenahme von Figuren näher erläutert werden. Hierbei zeigen:
Fig. 1 ein Blockschaltbild einer Ausführungsform des Messsystems;
Fig. 2 ein Blockdiagramm des Server-Computers der Fig. 1;
Fig. 3 ein Flussdiagramm einer Ausführungsform des Messverfahrens;
Fig. 4 eine Möglichkeit der räumlichen Anordnung der Kameras in dem Messsystem; und
Fig. 5 eine Anordnung zur Kalibrierung des Messsystems.
Zu dem Meßsystem der Fig. 1 gehören eine Kamera 1 und eine Kamera 2 sowie weitere, in der Fig. 1 nicht gezeigte Kameras. Bei den Kameras 1 und 2 handelt es sich um handelsübliche CCD-Kameras. Jede der Kameras 1 und 2 ist an eine 2D- Bildverarbeitung 3 bzw. 4 angeschlossen. Bei der 2D-Verarbeitung kann es sich um eine handelsübliche Einschubkarte für die Kamera bzw. einen in unmittelbarer Nähe der Kamera aufgestellten Personal-Computer handeln. Ebenso kann die 2D- Bildverarbeitung mit der Kamera eine bauliche Einheit bilden.
Die 2D-Bildverarbeitung 3 beinhaltet ein Computerprogramm 5 zur Mustererkennung sowie einen Pufferspeicher 6 zur Zwischenspeicherung von dem Computerprogramm 5 ausgegebener Koordinaten-Daten. Der Pufferspeicher 6 ist mit einem Bus-Interface 7 verbunden. Das Bus-Interface 7 ist seinerseits mit dem Datenbus 8 sowie mit dem Computerprogramm 5 verknüpft. Entsprechendes gilt für die 2D-Bildverarbeitung 4.
Der Datenbus 8 ist mit einem Server-Computer 9 verbunden, an den eine Bedienungskonsole 10 angeschlossen sein kann. Für den vollautomatischen Fertigungsbetrieb kann auf die Bedienungskonsole 10 verzichtet werden. Ferner sind an den Datenbus 8 Roboter 11 und 12 über deren jeweiliges Bus-Interface 13 angeschlossen. Jeder der Roboter 11 und 12 verfügt über einen Roboterarm, an dem die Kamera 1 bzw. die Kamera 2 angeordnet ist. Mittels der Roboterarme der Roboter 11 bzw. 12 lässt sich also die jeweilige räumliche Position der Kamera 1 und der Kamera 2 verändern.
Die Kamera 1 und die Kamera 2 sind auf eine Fertigungsanlage 14 gerichtet, wobei sich die Erfassungsbereiche der Kamera 1 und der Kamera 2 zumindest teilweise überlappen. Bei der Fertigungsanlage 14 kann es sich z. B. um eine Fertigungsstraße für Fahrzeuge oder eine Fertigungszelle für eine Fahrzeugbaugruppe handeln. Die Fertigungsanlage 14 beinhaltet verschiedene in der Fig. 1 nicht dargestellte Fertigungsautomaten, an die über einen Bus 15 von dem Server-Computer 9 Steuerungsbefehle ausgegeben werden können. Ebenso erhält der Server-Computer 9 über den Bus 15 Daten von den Fertigungsautomaten hinsichtlich des aktuellen Status der Fertigung bzw. der Fertigungsanlage.
Zur Bestimmung der Koordinaten eines in der Fertigungsanlage 14 befindlichen Objekts wird zunächst von dem Server-Computer 9 ein Sample-Befehl auf den Datenbus 8 ausgegeben. Der Sample-Befehl wird von dem Bus-Interface 7 der 2D-Bildverarbeitung 3 und 4 empfangen. Durch den Empfang des Sample-Befehl s wird das Computerprogramm 5 gestartet. Zunächst werden die aktuellen von der Kamera 1 und der Kamera 2 gelieferten Bilddaten registriert. Dies kann beispielsweise durch einen sogenannten Frame Grabber erfolgen, der aus dem von einer Kamera gelieferten Videosignal einen digitalen Pixel-Strom p (x, y) erzeugt. Alternativ ist auch die Verwendung von Kameras mit digitalem Ausgang möglich.
Das auf den Empfang des Sample-Befehls nachfolgende vollständige Bild der Kameras 1 und 2 wird als Pixel-Daten p (x, y) dem Computerprogramm 5 zugeführt, um die Muster-Erkennung zu starten.
Die Muster-Erkennung des Computerprogramms 5 erkennt dabei das Objekt in den Bilddaten; bei dem Objekt kann es sich z. B. um ein bestimmtes Maschinen- oder Baugruppenteil, ein Prüfmerkmal, eine Kante, Ebene, Loch, Bohrung, einen Bolzen, eine Markierung oder um projezierte Lichtpunkte oder -linien handeln. Die Muster-Erkennung wertet die von der Kamera 1 bzw. der Kamera 2 gelieferten Bilddaten in an sich bekannter Weise aus, um die zweidimensionalen Koordinaten des Objekts zu ermitteln.
Die Muster-Erkennung erlaubt es Geometrieinformationen Oi(p(x, y)) des Objekts im zweidimensionalen Kameraraum zu ermitteln. Bei der Geometrieinformationen Oi(p(x, y)) handelt es sich um Daten in einem zweidimensionalen Kamera-Bezugssystem, beispielsweise Geometrieinformationen im zweidimensionalen Raum wie etwa 2D- Punkte, 2D-Richtungen, 3D-Lage eines Körper im 2D-Raum, Durchmesser, Längen von Halbachsen, Längen von Objekten, Folgen von Punkten und alle ggf. für die Auswertung benötigte Kombinationen dieser Daten.
Diese Daten werden in den Puffer-Speicher 6 ausgegeben. Von dort werden die zweidimensionalen Koordinaten-Daten über das Bus-Interface 7 auf den Datenbus 8 ausgegeben. Jede der 2D-Bildverarbeitungen 3 und 4 gibt dann also jeweils Geometrieinformationen des Objekts Oi(p(x, y)) aus dem zweidimensionalen Raum auf den Datenbus 8 aus, wobei sich diese Geometrieinformationen jeweils auf das Bezugssystem der jeweiligen Kamera i beziehen.
Die Geometrieinformationen Oi(p(x, y)) aus dem zweidimensionalen Kameraraum werden von dem Server-Computer 9 empfangen und dort durch eine Auswertungssoftware verarbeitet. Die Auswertungssoftware ermittelt aus den auf Grund des Sample-Befehls erhaltenen Geometrieinformationen aus dem zweidimensionalen Kameraraum, die entsprechenden Geometrieinformationen im dreidimensionalen Raum und in Bezug auf die Fertigungsanlage 14.
Für einen nachfolgenden Samplebefehl können die Kameras 1 und 2 mittels der Roboter 11 bzw. 12 bewegt werden. Eine entsprechende Änderung der räumlichen Lage einer der Kameras 1 oder 2 wird über das Bus-Interface 13 als absolute oder relative Lageinformation der Kamera Ki(x, y z, α, β, γ) auf den Datenbus 8 ausgegeben und von dem Server-Computer 9 empfangen. Die Positionsinformation Ki wird bei einer nachfolgenden Auswertung von Geometrieinformationen im zweidimensionalen Kameraraum mit berücksichtigt, um zu korrekten Geometrieinformationen des Objekts im dreidimensionalen Raum zu gelangen. Hierzu ist keine erneute Kalibrierung des Messsystems erforderlich.
Die von der Auswertungseinheit des Server-Computers ermittelten aktuellen dreidimensionalen Koordinaten-Daten des Objekts können als Ist-Daten mit in dem Server-Computer 9 gespeicherten Daten verglichen werden. Bei einer das Toleranzmaß überschreitenden Abweichung der Ist- und der Soll-Daten wird ein entsprechender Steuerungsbefehl von dem Server-Computer 9 generiert. Dieser Steuerungsbefehl wird über den Bus 15 an den oder die entsprechenden Fertigungsautomaten der Fertigungsanlage 14 ausgegeben.
Die Komponenten des Server-Computers 9 werden mit Bezug auf die Fig. 2 näher erläutert. Der Server-Computer 9 hat ein Bus-Interface 16 zum Anschluss an den Datenbus 8. Über das Bus-Interface 16 erfolgt beispielsweise die Ausgabe eines Sample-Befehls und die Eingabe von zweidimensionalen Koordinaten-Daten Oi sowie von Positionsdaten der Kameras Ki. Diese Informationen werden von dem Computerprogramm 17 des Server-Computer 9 als Eingabeparameter empfangen. Das Computerprogramm 17 kann auf eine Datenbank 18 zugreifen. In der Datenbank 18 sind Kalibrierungsdaten des Messsystems gespeichert. Die Kalibrierungsdaten werden für jede der Kameras für eine bestimmte Stellung der betreffenden Kamera im Raum ermittelt. Für diese Stellung der Kamera im Raum ergibt sich daraus die räumliche Lage des Kamera-Bezugssystem in der Fertigungsanlage 14.
Das Computerprogramm 17 kann ferner auf eine Datenbank 19 zugreifen. Die Datenbank 19 beinhaltet aus den Kalibrierungsdaten der Datenbank 18 abgeleitete Daten, die die aktuelle Stellung der Kameras im Raum betreffen. Daraus ergibt sich die aktuelle Lage jedes der Kamera-Bezugssysteme in dem Bezugssystem der Fertigungsanlage 14. Das Programm 17 ist ferner mit einem Programm-Modul 20 zur Berechnung eines dreidimensionalen Modells des Objekts verknüpft.
Ferner hat der Server-Computer 9 eine Datenbank 21 zur Speicherung von CAD-Daten, die die Soll-Form oder die Soll-Position des Objekts beschreiben. Ein Programm-Modul 22 ist mit dem Programm-Modul 20 und der Datenbank 21 zum Vergleich der sich aus der 3D-Modellberechnung ergebenden Ist-Daten mit den sich aus den CAD-Daten ergebenden Soll-Daten verknüpft. Aufgrund des Ergebnisses des Vergleichs der Soll- und der Ist-Daten wird von dem Programm-Modul 22 ggf. ein Steuerungsbefehl 23 erzeugt, der über das Bus-Interface 16 auf den Datenbus 8 ausgegeben wird.
Zum Start der Mess-Prozedur wird zunächst von dem Computerprogramm 17 über das Bus-Interface 16 ein Sample-Befehl auf den Datenbus ausgegeben. Dies bewirkt - wie mit Bezugnahme auf die Fig. 1 oben im Detail beschrieben - die jeweils zeitgleiche Aufnahme der Bilddaten pi(x, y) eines von den jeweiligen Kameras gelieferten Bildes und dessen Vorverarbeitung in der 2D-Bildverarbeitung 3 bzw. 4.
Die aus der Vorverarbeitung resultierenden zweidimensionalen Koordinaten-Daten Oi (x, y) bzw. Geometrieinformationen werden von der 2D-Bildverarbeitung 3 bzw. 4 auf den Datenbus 8 ausgeben und von dem Businterface 16 des Server-Computers 9 empfangen. Entsprechendes gilt für die Positionsinformation Ki der Kameras.
Die zweidimensionalen Koordinaten-Daten Oi und die Positionsinformation Ki dienen als Eingabeparameter für das Computerprogramm 17. Falls sich die räumliche Position einer der Kameras i im Raum verändert hat, wird der entsprechende Parameter Ki für eine Aktualisierung der Datenbank 19 verwendet.
Die Berechnung der Geometrieinformationen O(O1(p(x, y)), . . ., On(p(x, y)) im dreidimensionalen Bezugssystem der Fertigungsanlage aus den n Geometrieinformationen der zweidimensionalen Kamerabezugssysteme erfolgt dann auf Grund einer Abfrage der Datenbank 19, die die Information über die räumliche Lage aller n Kameras enthält. Dazu werden die Daten Oi(p(x, y)) von dem Computerprogramm 17 zusammen mit den Kamera-Lageinformation aus Datenbank 19 in das Programm- Modul 20 ausgegeben.
In dem Programm-Modul 20 erfolgt die Berechnung des 3D-Modells O(O1(p(x, y)), . . ., On(p(x, y)) des Objekts anhand der Eingabedaten Oi(p(x, y)) und der Kamera- Lageinformationen Ki(x, y, z, α, β, γ). Die Berechnung des 3D-Modells erfolgt durch die näherungsweise Auflösung eines Gleichungssystems unter Verwendung nicht-linearer Ausgleichsrechnung in an sich bekannter Weise. Dieses Gleichungssystem beschreibt formal die Aussage, dass bei Beobachtung der Geometrieinformationen O(O1(p(x, y)), . . ., On(p(x, y)) des Objekts (in zunächst unbekannter Lage) im dreidimensionalen Bezugssystem durch die n Kameras (mit den räumlichen Lagen Ki(x, y, z, α, β, γ) im Bezugssystem der Fertigungsanlage) sich gerade die ermittelten Geometrieinformationen Oi(p(x, y)) in den zweidimensionalen Kameraräumen ergeben.
Der Server-Computer 9 verfügt ferner über ein Programm-Modul 24 für die Kalibrierung des Messsystems. Zur Kalibrierung des Messsystems startet das Computerprogramm 17 das Programm-Modul 24. In an sich bekannter Art und Weise wird für die Kalibrierung ein Referenzobjekt benutzt. Vergleiche hierzu zum Beispiel die aus der DE 197 46 942 A1 und der EP 1 031 812 A2 bekannten Verfahren. Die so gewonnen Kalibrierungsdaten werden dann in der Datenbank 18 abgelegt.
Neben den dreidimensionalen Koordinaten des Objekts mit Bezug auf die Fertigungsanlage liefert das Programm-Modul 20 auch eine Aussage über die Genauigkeit des Messergebnisses; diese Aussage wird auf Grund einer Singulärwert- Zerlegung lokaler Matrizen des Gleichungssystems in an sich bekannter Art und Weise getroffen. Sofern die erhaltene Genauigkeit nicht ausreicht, wird das System um eine oder mehrere Kameras oder andere Messvorrichtungen erweitert.
Die Fig. 3 zeigt ein Flussdiagramm einer Ausführungsform des Messverfahrens. Zunächst werden in den Schritten 30 und 31 die Veränderungen der absoluten oder relativen Positionen der Kameras i und i + 1 erfasst. Im Schritt 32 wird jeweils ein Bild von der Kamera i und Kamera i + 1 zum selben Zeitpunkt erfasst. Die entsprechenden digitalen Bilddaten werden im Schritt 33 jeweils von einer Mustererkennung verarbeitet. Das Ergebnis der Mustererkennung sind jeweils zweidimensionale Koordinaten-Daten des Objekts in dem Bezugssystem der jeweiligen Kamera i bzw. i + 1. Diese zweidimensionalen Koordinaten-Daten Oi bzw. Oi+1 werden in dem Schritt 34 in eine zentrale Auswerteeinheit eingegeben. In der zentralen Auswerteeinheit, beispielsweise einem Server-Computer, erfolgt die Berechnung von dreidimensionalen Koordinaten- Daten in einem Bezugssystem der Fertigungsanlage; dabei gehen Kalibrierungsdaten 35 des Messsystems sowie die in den Schritten 30 und 31 ermittelten Positionsinformationen ein. In dem Schritt 36 werden diese Daten in einem entsprechenden parametrisierten Gleichungssystem miteinander verknüpft, welches durch eine nicht-lineare Ausgleichsrechnung näherungsweise gelöst wird.
In dem Schritt 37 erfolgt ein Vergleich der so gewonnenen dreidimensionalen Koordinaten-Daten mit einsprechenden CAD-Daten 38, woraus sich ggf. ein entsprechender Steuerungsbefehl 39 ergibt.
Die Fig. 4 zeigt beispielhaft eine Anordnung mehrerer Kameras 40, 41, 42, 43, 44 und 45 zur Vermessung eines in einer Fertigungszelle einer Fahrzeugfertigungt befindlichen Objekts. Die Kameras 40 bis 45 entsprechen in ihrem Aufbau jeweils der mit in Bezug auf die Fig. 1 erläuterte Kamera 1 und deren 2D-Bildverarbeitung 3. Die Kameras 40 bis 45 sind über einen Datenbus 46 mit einem in der Fig. 4 nicht dargestellten Server- Computer verknüpft, entsprechend dem Server-Computer 9, der in der Fig. 1 dargestellten Ausführungsform. Ein besonderer Vorteil hierbei ist, dass die über den Datenbus 46 zu übertragende Datenmenge relativ gering ist, sich nämlich auf die auf Grund der in den Kameras 40 bis 45 erfolgte Vorauswertung erhaltenen zweidimensionalen Koordinaten-Daten beschränkt. Dies erlaubt es auch, ein handelsübliches Datenbussystem, beispielsweise ein Ethernet, zu verwenden. Ferner ist es dadurch möglich, Messungen in engen zeitlichen Abständen durchzuführen, da die für die Übertragung der entsprechenden Datenmenge über den Datenbus 46 erforderliche Zeit gering ist.
Die Fig. 5 verdeutlicht die Kalibrierung des Messsystems. Dazu wird in den Überlappungsbereich der Kameras 1 und 2 ein Kalibrierungsstab 50 eingebracht, der beispielsweise verschiedene Leuchtdioden aufweist. Der Kalibrierungsstab 50 wird dann von den Kameras 1 und 2 unter Kontrolle des Programm-Moduls 24 (vgl. Fig. 2) aufgenommen und die entsprechenden Daten zur Kalibrierung des Systems verarbeitet und in der Datenbank 18 gespeichert.
BEZUGSZEICHENLISTE
1
Kamera
2
Kamera
3
2D-Bildverarbeitung
4
2D-Bildverarbeitung
5
Computerprogramm
6
Puffer-Speicher
7
Bus-Interface
8
Datenbus
9
Server-Computer
10
Bedienungskonsole
11
Roboter
12
Roboter
13
Bus-Interface
14
Fertigungsanlage
15
Bus
16
Bus-Interface
17
Computerprogramm
18
Datenbank
19
Datenbank
20
Programm-Modul
21
Datenbank
22
Programm-Modul
23
Steuerungsbefehl
24
Programm-Modul
38
CAD-Daten
39
Steuerungsbefehl
40
Kamera
41
Kamera
42
Kamera
43
Kamera
44
Kamera
45
Kamera
46
Datenbus
50
Kalibrierungsstab

Claims (15)

1. Messsystem zur Bestimmung von Geometriedaten eines Objekts mit mindestens einer ersten und einer zweiten Kamera (1, 2), jeweils einer Einrichtung (3, 4) zur Bestimmung von Geometriedaten des Objekts in einem zweidimensionalen Kamera- Bezugssystem und Kommunikationsmitteln (8) für jede der Kameras zur Übertragung der Geometriedaten zu einer Auswertungseinheit (9) zur Berechung von Geometriedaten des Objekts in einem dreidimensionalen Bezugssystem.
2. Messsystem nach Anspruch 1 bei dem die Einrichtung zur Bestimmung der Geometriedaten Mustererkennungsmittel (5) zur Erkennung des Objekts aufweist.
3. Messsystem nach Anspruch 1 oder 2 bei dem jeweils eine Kamera und eine Einrichtung zur Bestimmung der Geometriedaten als bauliche Einheit ausgebildet sind.
4. Messsystem nach Anspruch 1, 2 oder 3 bei dem die Kommunikationsmittel einen Datenbus (8) zur Verbindung jeweils der Einrichtungen zur Bestimmung der Geometriedaten mit der Auswertungseinheit aufweisen.
5. Messsystem nach einem der vorhergehenden Ansprüche bei dem die Auswertungseinheit zur Bestimmung der zu den Geometriedaten des jeweiligen Kamera-Bezugssystem gehörenden Geometriedaten des dreidimensionalen Bezugssystems auf Kalibrierungsdaten (18) zugreift.
6. Messsystem nach einem der vorhergehenden Ansprüche mit Mitteln (11, 12) zur Bewegung von zumindest einer der Kameras, wobei die Mittel zur Bewegung mit den Kommunikationsmitteln zur Übertragung von absoluter oder relativer Positionsinformation zu der Auswertungseinheit gekoppelt sind.
7. Messsystem nach einem der vorhergehenden Ansprüche mit Mitteln zum Zugriff auf das Objekt beschreibende Daten (21) und Mitteln (22) zum Vergleich der das Objekt beschreibende Daten mit den ermittelten Geometriedaten in dem dreidimensionalen Bezugssystem.
8. Messsystem nach Anspruch 7 bei dem aufgrund des Vergleichs ein Steuerungsbefehl für einen das Objekt betreffenden Fertigungsvorgang generiert wird.
9. Messsystem nach einem der vorhergehenden Ansprüche mit zumindest einem weiteren Messgeber zur Ermittlung einer Koordinate des Objekts, wobei der weitere Messgeber mit den Kommunikationsmitteln verbunden ist.
10. Verfahren zur Bestimmung von Geometriedaten eines Objekts mit folgenden Schritten:
  • a) Aufnahme eines ersten und eines zweiten zweidimensionalen Bildes von dem Objekt aus unterschiedlichen räumlichen Positionen;
  • b) jeweils Bestimmung der Geometriedaten des Objekts in einem Kamera- Bezugssystem;
  • c) jeweils Übertragung der Geometriedaten zu einer Auswertungseinheit; und
  • d) Berechung von Geometriedaten des Objekts in einem dreidimensionalen Bezugssystem.
11. Verfahren nach Anspruch 10 wobei zur Bestimmung der zu den Geometriedaten des jeweiligen Kamera-Bezugssystem gehörenden Geometriedaten des dreidimensionalen Bezugssystems auf Kalibrierungsdaten (18) zugegriffen wird.
12. Verfahren nach Anspruch 10 oder 11 mit folgenden weiteren Schritten:
  • a) räumliche Bewegung von zumindest einer der Kameras;
  • b) Übertragung von die Änderung der räumlichen Position der Kamera beschreibenden Daten zur der Auswertungseinheit;
  • c) Berechung der Geometriedaten in einem dreidimensionalen Bezugssystem unter Berücksichtigung der die Änderung der räumlichen Position der Kamera beschreibenden Daten.
13. Verfahren nach Anspruch 10, 11 oder 12 mit folgenden weiteren Schritten:
  • a) Zugriff auf das Objekt beschreibende Daten;
  • b) Vergleich der das Objekt beschreibende Daten mit den ermittelten Geometriedaten; und
  • c) Generierung eines Steuerungsbefehl für einen das Objekt betreffenden Fertigungsvorgang basierend auf dem Vergleich.
14. Verfahren nach einem der Ansprüche 10 bis 13, wobei zumindest ein weiterer Messgeber zur Ermittlung einer Koordinate des Objekts benutzt wird und die Koordinate über die Kommunikationsmittel übertragen wird.
15. Verfahren nach einem der Ansprüche 10 bis 14 mit folgenden weiteren Schritten:
  • a) Ermittlung der Genauigkeit der Bestimmung der Geometriedaten des Objekts;
  • b) erforderlichenfalls Aufnahme eines weiteren Bildes aus einer weiteren räumlichen Position zur Erhöhung der Genauigkeit.
DE2001102943 2001-01-23 2001-01-23 Messsystem und Verfahren zur Bestimmung von Geometrieinformationen eines Objekts Withdrawn DE10102943A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2001102943 DE10102943A1 (de) 2001-01-23 2001-01-23 Messsystem und Verfahren zur Bestimmung von Geometrieinformationen eines Objekts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2001102943 DE10102943A1 (de) 2001-01-23 2001-01-23 Messsystem und Verfahren zur Bestimmung von Geometrieinformationen eines Objekts

Publications (1)

Publication Number Publication Date
DE10102943A1 true DE10102943A1 (de) 2002-07-25

Family

ID=7671480

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2001102943 Withdrawn DE10102943A1 (de) 2001-01-23 2001-01-23 Messsystem und Verfahren zur Bestimmung von Geometrieinformationen eines Objekts

Country Status (1)

Country Link
DE (1) DE10102943A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006094637A1 (de) * 2005-03-05 2006-09-14 Daimlerchrysler Ag Verfahren zum vergleich eines realen gegenstandes mit einem digitalen modell
WO2007087922A1 (de) * 2006-01-11 2007-08-09 Siemens Aktiengesellschaft System und verfahren zur erfassung einer geometrie eines werkstücks
US11538183B2 (en) 2018-03-29 2022-12-27 Twinner Gmbh 3D object sensing system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006094637A1 (de) * 2005-03-05 2006-09-14 Daimlerchrysler Ag Verfahren zum vergleich eines realen gegenstandes mit einem digitalen modell
WO2007087922A1 (de) * 2006-01-11 2007-08-09 Siemens Aktiengesellschaft System und verfahren zur erfassung einer geometrie eines werkstücks
CN101356417B (zh) * 2006-01-11 2011-07-06 西门子公司 用于检测工件几何形状的系统和方法
DE102006001496B4 (de) 2006-01-11 2019-02-21 Siemens Aktiengesellschaft System und Verfahren zur Bestimmung geometrischer Veränderungen eines Werkstücks
US11538183B2 (en) 2018-03-29 2022-12-27 Twinner Gmbh 3D object sensing system

Similar Documents

Publication Publication Date Title
DE112010005008B4 (de) System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb
DE69637413T2 (de) Kompositdetektionssystem für roboter
DE102018109774B4 (de) Bildverarbeitungssystem, Bildverarbeitungsvorrichtung und Bildverarbeitungsprogramm
EP1681111B1 (de) Verfahren zum Betrieb einer Fertigungseinrichtung
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
WO2001088471A1 (de) Verfahren und vorrichtung zum bestimmen der 3d-form eines objektes
WO2007107242A1 (de) Verfahren zur ermittlung der position und orientierung einer mess- oder reparatureinrichtung und eine nach dem verfahren arbeitende vorrichtung
EP1173749A2 (de) Bildbearbeitung zur vorbereitung einer texturnalyse
EP2423639B1 (de) Verfahren zur Ermittlung von Spaltmaß und/oder Bündigkeit von Karosserieteilen eines Kraftfahrzeugs und Steuerungsprogramm
EP0631154B1 (de) Verfahren zur Objektvermessung mittels intelligenter Entfernungsbildkamera
DE102019131284B4 (de) Robotersystem und Koordinatenumwandlungsverfahren
DE3624959C2 (de)
DE102005037094B3 (de) Kalibrierverfahren für einen Sensor zur Abstandsmessung
DE102021209178A1 (de) Verfahren und Vorrichtung zum Bestimmen von Relativposen und zur Kalibrierung bei einem Koordinatenmessgerät oder Roboter
DE102019103519B4 (de) Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
DE102015109612B4 (de) Koordinatenmessgerät und Verfahren zum Kalibrieren desselben mit einer Time-of-Flight-Kamera
DE102017100885B4 (de) Verfahren und vorrichtung zum erzeugen und projizieren eines 3d-thermogramms samt daten zu den aufnahmebedingungen
WO2021204960A1 (de) Verfahren, bearbeitungsmaschine und computerprogramm zur werkstücklageerfassung mittels oct
DE102006005990B4 (de) Werkstückvermessung für 3-D Lageerkennung in mehreren Multi-Roboter-Stationen
DE10102943A1 (de) Messsystem und Verfahren zur Bestimmung von Geometrieinformationen eines Objekts
DE102022202563B3 (de) Planen einer Bahn eines Roboters
EP1471401B1 (de) Verfahren zur Einmessung des Koordinatensystems einer Kamera eines Roboters gegenüber dem Koordinatensystem des Roboters oder umgekehrt
AT522028B1 (de) Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts
DE112021004660T5 (de) Robotersystem
EP1915239A2 (de) Verfahren zum erzeugen eines umgebungsbildes

Legal Events

Date Code Title Description
8141 Disposal/no request for examination