DE10102943A1 - Messsystem und Verfahren zur Bestimmung von Geometrieinformationen eines Objekts - Google Patents
Messsystem und Verfahren zur Bestimmung von Geometrieinformationen eines ObjektsInfo
- Publication number
- DE10102943A1 DE10102943A1 DE2001102943 DE10102943A DE10102943A1 DE 10102943 A1 DE10102943 A1 DE 10102943A1 DE 2001102943 DE2001102943 DE 2001102943 DE 10102943 A DE10102943 A DE 10102943A DE 10102943 A1 DE10102943 A1 DE 10102943A1
- Authority
- DE
- Germany
- Prior art keywords
- data
- camera
- determining
- cameras
- reference system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/245—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
Abstract
In einem Messsystem zur Bestimmung von Geometriedaten eines Objekts beispielsweise in einer Fertigungsanlage, werden zumindest zwei Kameras 1, 2 zur Erfassung von Bilddaten des Objekts verwendet. Den Kameras ist jeweils eine lokale Bilddatenvorverarbeitung 3, 4 zugeordnet, die aus den jeweils gewonnenen Bilddaten jeweils Geometriedaten in dem jeweiligen Kamera-Bezugssystem ermittelt. Diese Geometriedaten werden über einen Datenbus 8 an einen Server-Computer 9 übertragen und dort zur Ermittlung der Geometriedaten in einem dreidimensionalen Bezugssystem ausgewertet.
Description
Die Erfindung betrifft ein Messsystem und ein Verfahren zur Bestimmung von
Geometrieinformationen eines Objekts mit mindestens einer ersten und einer zweiten
Kamera.
Aus dem Stand der Technik sind verschiedene Systeme zur geometrischen Vermessung
und/oder Lagebestimmung eines Objekts bekannt. Aus der EP 0 671 679 A1 ist eine
Vorrichtung und ein Verfahren zum berührungslosen Messen dreidimensionaler Objekte
auf der Basis optischer Triangulation bekannt. Dort sendet eine Strahlungsquelle
gebündelte Strahlung auf die Oberfläche eines zu messenden Objektes aus. Diese
Strahlung wird streuend reflektiert und die Remission mittels Strahlungsdetektoren
erfasst. Durch Antriebsvorrichtungen wird nahezu die gesamte Oberfläche des zu
messenden Objektes kontinuierlich abgetastet.
Verfahren zum berührungslosen Messen der Außenkonturen von dreidimensionalen
Objekten mittels elektromagnetischer Strahlung auf der Basis optischer Triangulation
sind ebenfalls bekannt.
Hierbei befindet sich das Objekt auf einer Befestigungsvorrichtung und wird mittels einer
Abtasteinheit, welche bewegbar ist, abgetastet. Das Sensorausgangsignal bei
bekannten Verfahren wird mit einer entsprechenden Auswerteeinheit rechnergestützt
weiterverarbeitet, um entsprechende Informationen über die
Objektoberflächenentfernung zu erhalten, sodass hieraus dreidimensionale, digitale
Daten gewonnen werden können. Diese Daten werden dann abgespeichert, um
anschließend für 3D-Bildbearbeitungssysteme, z. B. zur Steuerung einer numerischen
Werkzeugmaschine, zur Verfügung zu stehen. Aus der DE 198 39 830 A1 ist ein
entsprechendes Verfahren zur optischen Distanzmessung mittels einer regelbaren
Punktlichtquelle und mehrkanaligen CCD-Sensoranordnungen auf der Basis optischer
Triangulation und punktweise Abtastung bekannt.
Aus der DE 39 41 144 A1 ist ein Koordinatenmessgerät zur berührungslosen
Vermessung von Objekten bekannt, bei dem das Objekt mittels mehrerer dreh- und
schwenkbarer Kameras vermessen wird. Die Videosignale der Kameras werden
zusammen mit den Winkeldaten der Geber des für die Führung der Kameras benutzten
Dreh-Schwenkgelenks dem Rechner des Koordinatengerätes zugeführt.
Aus der EP 0 829 701 A1 ist ein Kamera basiertes System zur geometrischen Messung
von Objekten bekannt. Hierbei werden Referenzpunkte in Form von Leuchtmarken
verwendet. Die Selbstkalibrierung des Systems basiert auf der Methode der kleinsten
Fehlerquadrate. Ein ähnliches System ist auch aus der EP 0 700 506 B1 bekannt.
Weitere Kamera basierte Messsysteme sind beispielsweise aus der US 5,216,476,
WO 89/09922, DE 43 26 704 A1 und DE 195 34 415 A1 bekannt. Den aus dem Stand
der Technik bekannten Kamera basierten Messsystemen ist gemeinsam, dass die von
den Kameras gelieferten Videosignale in eine zentrale Auswertungseinheit gespeist
werden.
Der Erfindung liegt die Aufgabe zu Grunde, ein verbessertes Meßsystem und Verfahren
zur Bestimmung der Koordinaten eines Objektes zu schaffen. Diese Aufgabe wird durch
die Merkmale der unabhängigen Patentansprüche gelöst. Bevorzugte
Ausführungsformen sind in den abhängigen Ansprüchen angegeben.
Nach der Erfindung wird zunächst eine Vorverarbeitung der von den einzelnen Kameras
aufgenommenen Bilder durchgeführt. Vorzugsweise ist jede der Kameras an eine
eigene 2D-Bildverarbeitungseinrichtung angeschlossen. Die Bildverarbeitungs
einrichtung kann dabei als Einsschubkarte ausgebildet sein und/oder eine bauliche
Einheit mit der Kamera bilden.
Die Bildverarbeitungseinrichtung jeder Kamera bestimmt nach der Aufnahme eines
Bildes die räumliche Lage des zu messenden Objekts in dem jeweiligen Kamera-
Bezugssystem.
Die so durch die Vorverarbeitung jeweils lokal gewonnen zweidimensionalen
Koordinaten-Daten des zu messenden Objekts werden dann über
Kommunikationsmittel, beispielsweise ein Datenbussystem, zu einer
Auswertungseinheit, beispielsweise einem entsprechend programmierten Server-
Computer, zugeführt. Die verteilte Vorauswertung der von den einzelnen Kameras
aufgenommenen Bilddaten hat den Vorteil, dass lediglich die zweidimensionalen
Koordinaten-Daten bzw. Geometriedaten des jeweiligen Kamera-Bezugssystems über
den Datenbus zu dem Server-Computer übertragen werden. Aufgrund dessen ist eine
Realisierung des Messsystems ohne aufwendige Spezialhardware möglich.
Insbesondere können für die lokale Vorauswertung handelsübliche 2D-
Bildverarbeitungskarten und entsprechende Software verwendet werden.
Ein weiterer wichtiger Vorteil ist, dass eine nahezu beliebige Anzahl weiterer Kameras
mit entsprechender Vorauswertung je nach Bedarf zu dem System hinzugefügt werden
können, etwa zur Vergrößerung der Messgenauigkeit. Das erfindungsgemäße
Messsystem erlaubt es also, z. B. etwa 5 bis 10 oder 30 bis 40 oder auch mehr Kameras
mit Vorauswertung zu integrieren. Im Vergleich zu aus dem Stand der Technik
bekannten Systemen lässt sich das Messsystem in besonders kostengünstiger Art und
Weise realisieren und ist dabei doch hinsichtlich seiner Präzision und Flexibilität
vorbekannten Systemen überlegen.
Nach einer bevorzugten Ausführungsform sind die einzelnen Kameras an einem
Roboter-Arm montiert, so dass sie räumlich schwenkbar sind. Die einzelnen Roboter
sind ebenfalls an einen Datenbus angeschlossen, um mit dem Server-Computer zu
kommunizieren. Erfolgt ein Schwenk einer Kamera, so wird die neue absolute oder
relative Position der Kamera von dem Roboter über den Datenbus zu dem Server-
Computer kommuniziert und dort verarbeitet. Das Messsystem erlaubt es dann, ohne
erneute Kalibrierung weiter zu arbeiten.
Nach einer weiteren bevorzugten Ausführungsform werden die ermittelten
dreidimensionalen Koordinaten-Daten des Objekts bzw. Geometrieinformationen des
Objekts in einem dreidimensionalen Bezugssystem mit beispielsweise CAD-Daten
verglichen. Bei den CAD-Daten handelt es sich um Konstruktions-Daten, die die
gewünschte Form des Objekts beschreiben, oder um Fertigungsplanungsdaten, die die
gewünschte räumliche Position des Objekts zu einem bestimmten Zeitpunkt
beschreiben. Die ermittelten dreidimensionalen Koordinaten-Daten werden als Ist-Größe
mit den CAD-Daten oder Fertigungsablaufdaten als Soll-Größen verglichen. Sofern sich
bei diesem Vergleich ein Unterschied von Soll- und Ist-Größen ergibt, der jenseits einer
Toleranzgrenze liegt, können auf Grund dessen Steuerungsbefehle generiert werden,
um etwa - entsprechend der Abweichung - in den Fertigungsvorgang einzugreifen.
Ferner erlaubt es die Erfindung, auch weitere nicht Kamera basierte Messvorrichtungen
mitzuintegrieren. Beispielsweise können die von einem taktilen Messgeber ermittelten
Koordinaten-Daten in dem Bezugssystem des taktilen Messgebers über den Datenbus
in den Server-Computer eingespeist werden, um dort für die Berechnung der
dreidimensionalen Koordinaten-Daten des zu vermessenden Objekts mit einzugehen.
Dies erlaubt es bereits bestehende Messvorrichtungen beispielsweise einer
Fertigungsanlage zu integrieren.
Ein weiterer Vorteil der Erfindung besteht darin, dass eine Bestimmung der
Messgenauigkeit auf Grund der den erfassten Messdaten inhärenten Redundanz durch
den Server-Computer bzw. dessen Auswertungssoftware möglich ist. Stellt sich dabei
heraus, dass die erreichte Messgenauigkeit nicht zufriedenstellend ist, so kann eine
weitere Kamera mit Vorverarbeitung oder eine weitere nicht Kamera basierte
Messvorrichtung zu dem Messsystem hinzugefügt werden. Dazu wird die Kamera bzw.
das weitere Messsystem mit dem jeweiligen Datenausgang für die zweidimensionalen
bzw. eindimensionalen Koordinaten über den Daten-Bus an den Server-Computer
angeschlossen.
Die Erfindung erlaubt es über die drei räumlichen Positionskoordinaten eines Objekts
hinaus dessen räumliche Lage sowie die räumliche Lage von Prüfmerkmalen zu
bestimmen. Die räumliche Lage eines Objekts im 3D-Raum ist z. B. durch sechs
unabhängige Parameter/Koordinaten bestimmt: Drei Koordinaten für die Position, und
drei Winkel-Koordinaten für die Orientierung des Objekts.
Bei der räumlichen Positionsbestimmung von Prüfmerkmalen kann es sich z. B. um 3D-
Informationen für eine Bohrung handeln, d. h. um die 3D-Position des Mittelpunktes (der
sich als Schnitt mit einer Oberfläche ergibt) und einer Schnittebene (z. B. als 3D-
Normalenvektor) sowie einer maximalen Radienabweichung.
Die Erfindung erlaub ferner die Bestimmung von Geometrieinformationen von Objekten
und Prüfmerkmalen im dreidimensionalen Raum basierend auf von den einzelnen
Kameras bzw. der jeweiligen 2D-Vorverarbeitung gelieferten und auf das jeweilige
Kamera-Bezugssystem bezogenen 2D-Daten. Die durch die Erfindung bestimmbaren
Geometrieinformationen können höher-dimensional sein, d. h. es sind u. U. viele
Parameter pro Prüfmerkmal bestimmbar, z. B. die 6-dimensionale Lage eines Körper
sowie ggf. zusätzliche Informationen über Radien, Bolzenlängen, Durchmesser, oder
z. B. auch eine Folge von 3D-Punkten, die eine Kontur (z. B. die Kante einer Fahrzeug-
Tür) beschreiben.
Die Erfindung soll nachstehend anhand von Ausführungsbeispielen sowie unter
Zuhilfenahme von Figuren näher erläutert werden. Hierbei zeigen:
Fig. 1 ein Blockschaltbild einer Ausführungsform des Messsystems;
Fig. 2 ein Blockdiagramm des Server-Computers der Fig. 1;
Fig. 3 ein Flussdiagramm einer Ausführungsform des Messverfahrens;
Fig. 4 eine Möglichkeit der räumlichen Anordnung der Kameras in dem Messsystem;
und
Fig. 5 eine Anordnung zur Kalibrierung des Messsystems.
Zu dem Meßsystem der Fig. 1 gehören eine Kamera 1 und eine Kamera 2 sowie
weitere, in der Fig. 1 nicht gezeigte Kameras. Bei den Kameras 1 und 2 handelt es sich
um handelsübliche CCD-Kameras. Jede der Kameras 1 und 2 ist an eine 2D-
Bildverarbeitung 3 bzw. 4 angeschlossen. Bei der 2D-Verarbeitung kann es sich um eine
handelsübliche Einschubkarte für die Kamera bzw. einen in unmittelbarer Nähe der
Kamera aufgestellten Personal-Computer handeln. Ebenso kann die 2D-
Bildverarbeitung mit der Kamera eine bauliche Einheit bilden.
Die 2D-Bildverarbeitung 3 beinhaltet ein Computerprogramm 5 zur Mustererkennung
sowie einen Pufferspeicher 6 zur Zwischenspeicherung von dem Computerprogramm 5
ausgegebener Koordinaten-Daten. Der Pufferspeicher 6 ist mit einem Bus-Interface 7
verbunden. Das Bus-Interface 7 ist seinerseits mit dem Datenbus 8 sowie mit dem
Computerprogramm 5 verknüpft. Entsprechendes gilt für die 2D-Bildverarbeitung 4.
Der Datenbus 8 ist mit einem Server-Computer 9 verbunden, an den eine
Bedienungskonsole 10 angeschlossen sein kann. Für den vollautomatischen
Fertigungsbetrieb kann auf die Bedienungskonsole 10 verzichtet werden. Ferner sind an
den Datenbus 8 Roboter 11 und 12 über deren jeweiliges Bus-Interface 13
angeschlossen. Jeder der Roboter 11 und 12 verfügt über einen Roboterarm, an dem
die Kamera 1 bzw. die Kamera 2 angeordnet ist. Mittels der Roboterarme der Roboter
11 bzw. 12 lässt sich also die jeweilige räumliche Position der Kamera 1 und der
Kamera 2 verändern.
Die Kamera 1 und die Kamera 2 sind auf eine Fertigungsanlage 14 gerichtet, wobei sich
die Erfassungsbereiche der Kamera 1 und der Kamera 2 zumindest teilweise
überlappen. Bei der Fertigungsanlage 14 kann es sich z. B. um eine Fertigungsstraße für
Fahrzeuge oder eine Fertigungszelle für eine Fahrzeugbaugruppe handeln. Die
Fertigungsanlage 14 beinhaltet verschiedene in der Fig. 1 nicht dargestellte
Fertigungsautomaten, an die über einen Bus 15 von dem Server-Computer 9
Steuerungsbefehle ausgegeben werden können. Ebenso erhält der Server-Computer 9
über den Bus 15 Daten von den Fertigungsautomaten hinsichtlich des aktuellen Status
der Fertigung bzw. der Fertigungsanlage.
Zur Bestimmung der Koordinaten eines in der Fertigungsanlage 14 befindlichen Objekts
wird zunächst von dem Server-Computer 9 ein Sample-Befehl auf den Datenbus 8
ausgegeben. Der Sample-Befehl wird von dem Bus-Interface 7 der 2D-Bildverarbeitung
3 und 4 empfangen. Durch den Empfang des Sample-Befehl s wird das
Computerprogramm 5 gestartet. Zunächst werden die aktuellen von der Kamera 1 und
der Kamera 2 gelieferten Bilddaten registriert. Dies kann beispielsweise durch einen
sogenannten Frame Grabber erfolgen, der aus dem von einer Kamera gelieferten
Videosignal einen digitalen Pixel-Strom p (x, y) erzeugt. Alternativ ist auch die
Verwendung von Kameras mit digitalem Ausgang möglich.
Das auf den Empfang des Sample-Befehls nachfolgende vollständige Bild der
Kameras 1 und 2 wird als Pixel-Daten p (x, y) dem Computerprogramm 5 zugeführt, um
die Muster-Erkennung zu starten.
Die Muster-Erkennung des Computerprogramms 5 erkennt dabei das Objekt in den
Bilddaten; bei dem Objekt kann es sich z. B. um ein bestimmtes Maschinen- oder
Baugruppenteil, ein Prüfmerkmal, eine Kante, Ebene, Loch, Bohrung, einen Bolzen, eine
Markierung oder um projezierte Lichtpunkte oder -linien handeln. Die Muster-Erkennung
wertet die von der Kamera 1 bzw. der Kamera 2 gelieferten Bilddaten in an sich
bekannter Weise aus, um die zweidimensionalen Koordinaten des Objekts zu ermitteln.
Die Muster-Erkennung erlaubt es Geometrieinformationen Oi(p(x, y)) des Objekts im
zweidimensionalen Kameraraum zu ermitteln. Bei der Geometrieinformationen Oi(p(x, y))
handelt es sich um Daten in einem zweidimensionalen Kamera-Bezugssystem,
beispielsweise Geometrieinformationen im zweidimensionalen Raum wie etwa 2D-
Punkte, 2D-Richtungen, 3D-Lage eines Körper im 2D-Raum, Durchmesser, Längen von
Halbachsen, Längen von Objekten, Folgen von Punkten und alle ggf. für die Auswertung
benötigte Kombinationen dieser Daten.
Diese Daten werden in den Puffer-Speicher 6 ausgegeben. Von dort werden die
zweidimensionalen Koordinaten-Daten über das Bus-Interface 7 auf den Datenbus 8
ausgegeben. Jede der 2D-Bildverarbeitungen 3 und 4 gibt dann also jeweils
Geometrieinformationen des Objekts Oi(p(x, y)) aus dem zweidimensionalen Raum auf
den Datenbus 8 aus, wobei sich diese Geometrieinformationen jeweils auf das
Bezugssystem der jeweiligen Kamera i beziehen.
Die Geometrieinformationen Oi(p(x, y)) aus dem zweidimensionalen Kameraraum werden
von dem Server-Computer 9 empfangen und dort durch eine Auswertungssoftware
verarbeitet. Die Auswertungssoftware ermittelt aus den auf Grund des Sample-Befehls
erhaltenen Geometrieinformationen aus dem zweidimensionalen Kameraraum, die
entsprechenden Geometrieinformationen im dreidimensionalen Raum und in Bezug auf
die Fertigungsanlage 14.
Für einen nachfolgenden Samplebefehl können die Kameras 1 und 2 mittels der Roboter
11 bzw. 12 bewegt werden. Eine entsprechende Änderung der räumlichen Lage einer
der Kameras 1 oder 2 wird über das Bus-Interface 13 als absolute oder relative
Lageinformation der Kamera Ki(x, y z, α, β, γ) auf den Datenbus 8 ausgegeben und von
dem Server-Computer 9 empfangen. Die Positionsinformation Ki wird bei einer
nachfolgenden Auswertung von Geometrieinformationen im zweidimensionalen
Kameraraum mit berücksichtigt, um zu korrekten Geometrieinformationen des Objekts
im dreidimensionalen Raum zu gelangen. Hierzu ist keine erneute Kalibrierung des
Messsystems erforderlich.
Die von der Auswertungseinheit des Server-Computers ermittelten aktuellen
dreidimensionalen Koordinaten-Daten des Objekts können als Ist-Daten mit in dem
Server-Computer 9 gespeicherten Daten verglichen werden. Bei einer das Toleranzmaß
überschreitenden Abweichung der Ist- und der Soll-Daten wird ein entsprechender
Steuerungsbefehl von dem Server-Computer 9 generiert. Dieser Steuerungsbefehl wird
über den Bus 15 an den oder die entsprechenden Fertigungsautomaten der
Fertigungsanlage 14 ausgegeben.
Die Komponenten des Server-Computers 9 werden mit Bezug auf die Fig. 2 näher
erläutert. Der Server-Computer 9 hat ein Bus-Interface 16 zum Anschluss an den
Datenbus 8. Über das Bus-Interface 16 erfolgt beispielsweise die Ausgabe eines
Sample-Befehls und die Eingabe von zweidimensionalen Koordinaten-Daten Oi sowie
von Positionsdaten der Kameras Ki. Diese Informationen werden von dem
Computerprogramm 17 des Server-Computer 9 als Eingabeparameter empfangen. Das
Computerprogramm 17 kann auf eine Datenbank 18 zugreifen. In der Datenbank 18
sind Kalibrierungsdaten des Messsystems gespeichert. Die Kalibrierungsdaten werden
für jede der Kameras für eine bestimmte Stellung der betreffenden Kamera im Raum
ermittelt. Für diese Stellung der Kamera im Raum ergibt sich daraus die räumliche Lage
des Kamera-Bezugssystem in der Fertigungsanlage 14.
Das Computerprogramm 17 kann ferner auf eine Datenbank 19 zugreifen. Die
Datenbank 19 beinhaltet aus den Kalibrierungsdaten der Datenbank 18 abgeleitete
Daten, die die aktuelle Stellung der Kameras im Raum betreffen. Daraus ergibt sich die
aktuelle Lage jedes der Kamera-Bezugssysteme in dem Bezugssystem der
Fertigungsanlage 14. Das Programm 17 ist ferner mit einem Programm-Modul 20 zur
Berechnung eines dreidimensionalen Modells des Objekts verknüpft.
Ferner hat der Server-Computer 9 eine Datenbank 21 zur Speicherung von CAD-Daten,
die die Soll-Form oder die Soll-Position des Objekts beschreiben. Ein Programm-Modul
22 ist mit dem Programm-Modul 20 und der Datenbank 21 zum Vergleich der sich aus
der 3D-Modellberechnung ergebenden Ist-Daten mit den sich aus den CAD-Daten
ergebenden Soll-Daten verknüpft. Aufgrund des Ergebnisses des Vergleichs der Soll-
und der Ist-Daten wird von dem Programm-Modul 22 ggf. ein Steuerungsbefehl 23
erzeugt, der über das Bus-Interface 16 auf den Datenbus 8 ausgegeben wird.
Zum Start der Mess-Prozedur wird zunächst von dem Computerprogramm 17 über das
Bus-Interface 16 ein Sample-Befehl auf den Datenbus ausgegeben. Dies bewirkt - wie
mit Bezugnahme auf die Fig. 1 oben im Detail beschrieben - die jeweils zeitgleiche
Aufnahme der Bilddaten pi(x, y) eines von den jeweiligen Kameras gelieferten Bildes und
dessen Vorverarbeitung in der 2D-Bildverarbeitung 3 bzw. 4.
Die aus der Vorverarbeitung resultierenden zweidimensionalen Koordinaten-Daten Oi
(x, y) bzw. Geometrieinformationen werden von der 2D-Bildverarbeitung 3 bzw. 4 auf den
Datenbus 8 ausgeben und von dem Businterface 16 des Server-Computers 9
empfangen. Entsprechendes gilt für die Positionsinformation Ki der Kameras.
Die zweidimensionalen Koordinaten-Daten Oi und die Positionsinformation Ki dienen als
Eingabeparameter für das Computerprogramm 17. Falls sich die räumliche Position
einer der Kameras i im Raum verändert hat, wird der entsprechende Parameter Ki für
eine Aktualisierung der Datenbank 19 verwendet.
Die Berechnung der Geometrieinformationen O(O1(p(x, y)), . . ., On(p(x, y)) im
dreidimensionalen Bezugssystem der Fertigungsanlage aus den n
Geometrieinformationen der zweidimensionalen Kamerabezugssysteme erfolgt dann auf
Grund einer Abfrage der Datenbank 19, die die Information über die räumliche Lage
aller n Kameras enthält. Dazu werden die Daten Oi(p(x, y)) von dem Computerprogramm
17 zusammen mit den Kamera-Lageinformation aus Datenbank 19 in das Programm-
Modul 20 ausgegeben.
In dem Programm-Modul 20 erfolgt die Berechnung des 3D-Modells O(O1(p(x, y)), . . .,
On(p(x, y)) des Objekts anhand der Eingabedaten Oi(p(x, y)) und der Kamera-
Lageinformationen Ki(x, y, z, α, β, γ). Die Berechnung des 3D-Modells erfolgt durch die
näherungsweise Auflösung eines Gleichungssystems unter Verwendung nicht-linearer
Ausgleichsrechnung in an sich bekannter Weise. Dieses Gleichungssystem beschreibt
formal die Aussage, dass bei Beobachtung der Geometrieinformationen O(O1(p(x, y)), . . .,
On(p(x, y)) des Objekts (in zunächst unbekannter Lage) im dreidimensionalen
Bezugssystem durch die n Kameras (mit den räumlichen Lagen Ki(x, y, z, α, β, γ) im
Bezugssystem der Fertigungsanlage) sich gerade die ermittelten
Geometrieinformationen Oi(p(x, y)) in den zweidimensionalen Kameraräumen ergeben.
Der Server-Computer 9 verfügt ferner über ein Programm-Modul 24 für die Kalibrierung
des Messsystems. Zur Kalibrierung des Messsystems startet das Computerprogramm
17 das Programm-Modul 24. In an sich bekannter Art und Weise wird für die
Kalibrierung ein Referenzobjekt benutzt. Vergleiche hierzu zum Beispiel die aus der
DE 197 46 942 A1 und der EP 1 031 812 A2 bekannten Verfahren. Die so gewonnen
Kalibrierungsdaten werden dann in der Datenbank 18 abgelegt.
Neben den dreidimensionalen Koordinaten des Objekts mit Bezug auf die
Fertigungsanlage liefert das Programm-Modul 20 auch eine Aussage über die
Genauigkeit des Messergebnisses; diese Aussage wird auf Grund einer Singulärwert-
Zerlegung lokaler Matrizen des Gleichungssystems in an sich bekannter Art und Weise
getroffen. Sofern die erhaltene Genauigkeit nicht ausreicht, wird das System um eine
oder mehrere Kameras oder andere Messvorrichtungen erweitert.
Die Fig. 3 zeigt ein Flussdiagramm einer Ausführungsform des Messverfahrens.
Zunächst werden in den Schritten 30 und 31 die Veränderungen der absoluten oder
relativen Positionen der Kameras i und i + 1 erfasst. Im Schritt 32 wird jeweils ein Bild
von der Kamera i und Kamera i + 1 zum selben Zeitpunkt erfasst. Die entsprechenden
digitalen Bilddaten werden im Schritt 33 jeweils von einer Mustererkennung verarbeitet.
Das Ergebnis der Mustererkennung sind jeweils zweidimensionale Koordinaten-Daten
des Objekts in dem Bezugssystem der jeweiligen Kamera i bzw. i + 1. Diese
zweidimensionalen Koordinaten-Daten Oi bzw. Oi+1 werden in dem Schritt 34 in eine
zentrale Auswerteeinheit eingegeben. In der zentralen Auswerteeinheit, beispielsweise
einem Server-Computer, erfolgt die Berechnung von dreidimensionalen Koordinaten-
Daten in einem Bezugssystem der Fertigungsanlage; dabei gehen Kalibrierungsdaten
35 des Messsystems sowie die in den Schritten 30 und 31 ermittelten
Positionsinformationen ein. In dem Schritt 36 werden diese Daten in einem
entsprechenden parametrisierten Gleichungssystem miteinander verknüpft, welches
durch eine nicht-lineare Ausgleichsrechnung näherungsweise gelöst wird.
In dem Schritt 37 erfolgt ein Vergleich der so gewonnenen dreidimensionalen
Koordinaten-Daten mit einsprechenden CAD-Daten 38, woraus sich ggf. ein
entsprechender Steuerungsbefehl 39 ergibt.
Die Fig. 4 zeigt beispielhaft eine Anordnung mehrerer Kameras 40, 41, 42, 43, 44 und
45 zur Vermessung eines in einer Fertigungszelle einer Fahrzeugfertigungt befindlichen
Objekts. Die Kameras 40 bis 45 entsprechen in ihrem Aufbau jeweils der mit in Bezug
auf die Fig. 1 erläuterte Kamera 1 und deren 2D-Bildverarbeitung 3. Die Kameras 40 bis
45 sind über einen Datenbus 46 mit einem in der Fig. 4 nicht dargestellten Server-
Computer verknüpft, entsprechend dem Server-Computer 9, der in der Fig. 1
dargestellten Ausführungsform. Ein besonderer Vorteil hierbei ist, dass die über den
Datenbus 46 zu übertragende Datenmenge relativ gering ist, sich nämlich auf die auf
Grund der in den Kameras 40 bis 45 erfolgte Vorauswertung erhaltenen
zweidimensionalen Koordinaten-Daten beschränkt. Dies erlaubt es auch, ein
handelsübliches Datenbussystem, beispielsweise ein Ethernet, zu verwenden. Ferner ist
es dadurch möglich, Messungen in engen zeitlichen Abständen durchzuführen, da die
für die Übertragung der entsprechenden Datenmenge über den Datenbus 46
erforderliche Zeit gering ist.
Die Fig. 5 verdeutlicht die Kalibrierung des Messsystems. Dazu wird in den
Überlappungsbereich der Kameras 1 und 2 ein Kalibrierungsstab 50 eingebracht, der
beispielsweise verschiedene Leuchtdioden aufweist. Der Kalibrierungsstab 50 wird dann
von den Kameras 1 und 2 unter Kontrolle des Programm-Moduls 24 (vgl. Fig. 2)
aufgenommen und die entsprechenden Daten zur Kalibrierung des Systems verarbeitet
und in der Datenbank 18 gespeichert.
1
Kamera
2
Kamera
3
2D-Bildverarbeitung
4
2D-Bildverarbeitung
5
Computerprogramm
6
Puffer-Speicher
7
Bus-Interface
8
Datenbus
9
Server-Computer
10
Bedienungskonsole
11
Roboter
12
Roboter
13
Bus-Interface
14
Fertigungsanlage
15
Bus
16
Bus-Interface
17
Computerprogramm
18
Datenbank
19
Datenbank
20
Programm-Modul
21
Datenbank
22
Programm-Modul
23
Steuerungsbefehl
24
Programm-Modul
38
CAD-Daten
39
Steuerungsbefehl
40
Kamera
41
Kamera
42
Kamera
43
Kamera
44
Kamera
45
Kamera
46
Datenbus
50
Kalibrierungsstab
Claims (15)
1. Messsystem zur Bestimmung von Geometriedaten eines Objekts mit mindestens
einer ersten und einer zweiten Kamera (1, 2), jeweils einer Einrichtung (3, 4) zur
Bestimmung von Geometriedaten des Objekts in einem zweidimensionalen Kamera-
Bezugssystem und Kommunikationsmitteln (8) für jede der Kameras zur
Übertragung der Geometriedaten zu einer Auswertungseinheit (9) zur Berechung
von Geometriedaten des Objekts in einem dreidimensionalen Bezugssystem.
2. Messsystem nach Anspruch 1 bei dem die Einrichtung zur Bestimmung der
Geometriedaten Mustererkennungsmittel (5) zur Erkennung des Objekts aufweist.
3. Messsystem nach Anspruch 1 oder 2 bei dem jeweils eine Kamera und eine
Einrichtung zur Bestimmung der Geometriedaten als bauliche Einheit ausgebildet
sind.
4. Messsystem nach Anspruch 1, 2 oder 3 bei dem die Kommunikationsmittel einen
Datenbus (8) zur Verbindung jeweils der Einrichtungen zur Bestimmung der
Geometriedaten mit der Auswertungseinheit aufweisen.
5. Messsystem nach einem der vorhergehenden Ansprüche bei dem die
Auswertungseinheit zur Bestimmung der zu den Geometriedaten des jeweiligen
Kamera-Bezugssystem gehörenden Geometriedaten des dreidimensionalen
Bezugssystems auf Kalibrierungsdaten (18) zugreift.
6. Messsystem nach einem der vorhergehenden Ansprüche mit Mitteln (11, 12) zur
Bewegung von zumindest einer der Kameras, wobei die Mittel zur Bewegung mit
den Kommunikationsmitteln zur Übertragung von absoluter oder relativer
Positionsinformation zu der Auswertungseinheit gekoppelt sind.
7. Messsystem nach einem der vorhergehenden Ansprüche mit Mitteln zum Zugriff auf
das Objekt beschreibende Daten (21) und Mitteln (22) zum Vergleich der das Objekt
beschreibende Daten mit den ermittelten Geometriedaten in dem dreidimensionalen
Bezugssystem.
8. Messsystem nach Anspruch 7 bei dem aufgrund des Vergleichs ein
Steuerungsbefehl für einen das Objekt betreffenden Fertigungsvorgang generiert
wird.
9. Messsystem nach einem der vorhergehenden Ansprüche mit zumindest einem
weiteren Messgeber zur Ermittlung einer Koordinate des Objekts, wobei der weitere
Messgeber mit den Kommunikationsmitteln verbunden ist.
10. Verfahren zur Bestimmung von Geometriedaten eines Objekts mit folgenden
Schritten:
- a) Aufnahme eines ersten und eines zweiten zweidimensionalen Bildes von dem Objekt aus unterschiedlichen räumlichen Positionen;
- b) jeweils Bestimmung der Geometriedaten des Objekts in einem Kamera- Bezugssystem;
- c) jeweils Übertragung der Geometriedaten zu einer Auswertungseinheit; und
- d) Berechung von Geometriedaten des Objekts in einem dreidimensionalen Bezugssystem.
11. Verfahren nach Anspruch 10 wobei zur Bestimmung der zu den Geometriedaten
des jeweiligen Kamera-Bezugssystem gehörenden Geometriedaten des
dreidimensionalen Bezugssystems auf Kalibrierungsdaten (18) zugegriffen wird.
12. Verfahren nach Anspruch 10 oder 11 mit folgenden weiteren Schritten:
- a) räumliche Bewegung von zumindest einer der Kameras;
- b) Übertragung von die Änderung der räumlichen Position der Kamera beschreibenden Daten zur der Auswertungseinheit;
- c) Berechung der Geometriedaten in einem dreidimensionalen Bezugssystem unter Berücksichtigung der die Änderung der räumlichen Position der Kamera beschreibenden Daten.
13. Verfahren nach Anspruch 10, 11 oder 12 mit folgenden weiteren Schritten:
- a) Zugriff auf das Objekt beschreibende Daten;
- b) Vergleich der das Objekt beschreibende Daten mit den ermittelten Geometriedaten; und
- c) Generierung eines Steuerungsbefehl für einen das Objekt betreffenden Fertigungsvorgang basierend auf dem Vergleich.
14. Verfahren nach einem der Ansprüche 10 bis 13, wobei zumindest ein weiterer
Messgeber zur Ermittlung einer Koordinate des Objekts benutzt wird und die
Koordinate über die Kommunikationsmittel übertragen wird.
15. Verfahren nach einem der Ansprüche 10 bis 14 mit folgenden weiteren Schritten:
- a) Ermittlung der Genauigkeit der Bestimmung der Geometriedaten des Objekts;
- b) erforderlichenfalls Aufnahme eines weiteren Bildes aus einer weiteren räumlichen Position zur Erhöhung der Genauigkeit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2001102943 DE10102943A1 (de) | 2001-01-23 | 2001-01-23 | Messsystem und Verfahren zur Bestimmung von Geometrieinformationen eines Objekts |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2001102943 DE10102943A1 (de) | 2001-01-23 | 2001-01-23 | Messsystem und Verfahren zur Bestimmung von Geometrieinformationen eines Objekts |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10102943A1 true DE10102943A1 (de) | 2002-07-25 |
Family
ID=7671480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE2001102943 Withdrawn DE10102943A1 (de) | 2001-01-23 | 2001-01-23 | Messsystem und Verfahren zur Bestimmung von Geometrieinformationen eines Objekts |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE10102943A1 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006094637A1 (de) * | 2005-03-05 | 2006-09-14 | Daimlerchrysler Ag | Verfahren zum vergleich eines realen gegenstandes mit einem digitalen modell |
WO2007087922A1 (de) * | 2006-01-11 | 2007-08-09 | Siemens Aktiengesellschaft | System und verfahren zur erfassung einer geometrie eines werkstücks |
US11538183B2 (en) | 2018-03-29 | 2022-12-27 | Twinner Gmbh | 3D object sensing system |
-
2001
- 2001-01-23 DE DE2001102943 patent/DE10102943A1/de not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006094637A1 (de) * | 2005-03-05 | 2006-09-14 | Daimlerchrysler Ag | Verfahren zum vergleich eines realen gegenstandes mit einem digitalen modell |
WO2007087922A1 (de) * | 2006-01-11 | 2007-08-09 | Siemens Aktiengesellschaft | System und verfahren zur erfassung einer geometrie eines werkstücks |
CN101356417B (zh) * | 2006-01-11 | 2011-07-06 | 西门子公司 | 用于检测工件几何形状的系统和方法 |
DE102006001496B4 (de) | 2006-01-11 | 2019-02-21 | Siemens Aktiengesellschaft | System und Verfahren zur Bestimmung geometrischer Veränderungen eines Werkstücks |
US11538183B2 (en) | 2018-03-29 | 2022-12-27 | Twinner Gmbh | 3D object sensing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112010005008B4 (de) | System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb | |
DE69637413T2 (de) | Kompositdetektionssystem für roboter | |
DE102018109774B4 (de) | Bildverarbeitungssystem, Bildverarbeitungsvorrichtung und Bildverarbeitungsprogramm | |
EP1681111B1 (de) | Verfahren zum Betrieb einer Fertigungseinrichtung | |
DE102017128543B4 (de) | Störbereich-einstellvorrichtung für einen mobilen roboter | |
WO2001088471A1 (de) | Verfahren und vorrichtung zum bestimmen der 3d-form eines objektes | |
WO2007107242A1 (de) | Verfahren zur ermittlung der position und orientierung einer mess- oder reparatureinrichtung und eine nach dem verfahren arbeitende vorrichtung | |
EP1173749A2 (de) | Bildbearbeitung zur vorbereitung einer texturnalyse | |
EP2423639B1 (de) | Verfahren zur Ermittlung von Spaltmaß und/oder Bündigkeit von Karosserieteilen eines Kraftfahrzeugs und Steuerungsprogramm | |
EP0631154B1 (de) | Verfahren zur Objektvermessung mittels intelligenter Entfernungsbildkamera | |
DE102019131284B4 (de) | Robotersystem und Koordinatenumwandlungsverfahren | |
DE3624959C2 (de) | ||
DE102005037094B3 (de) | Kalibrierverfahren für einen Sensor zur Abstandsmessung | |
DE102021209178A1 (de) | Verfahren und Vorrichtung zum Bestimmen von Relativposen und zur Kalibrierung bei einem Koordinatenmessgerät oder Roboter | |
DE102019103519B4 (de) | Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts | |
DE102015109612B4 (de) | Koordinatenmessgerät und Verfahren zum Kalibrieren desselben mit einer Time-of-Flight-Kamera | |
DE102017100885B4 (de) | Verfahren und vorrichtung zum erzeugen und projizieren eines 3d-thermogramms samt daten zu den aufnahmebedingungen | |
WO2021204960A1 (de) | Verfahren, bearbeitungsmaschine und computerprogramm zur werkstücklageerfassung mittels oct | |
DE102006005990B4 (de) | Werkstückvermessung für 3-D Lageerkennung in mehreren Multi-Roboter-Stationen | |
DE10102943A1 (de) | Messsystem und Verfahren zur Bestimmung von Geometrieinformationen eines Objekts | |
DE102022202563B3 (de) | Planen einer Bahn eines Roboters | |
EP1471401B1 (de) | Verfahren zur Einmessung des Koordinatensystems einer Kamera eines Roboters gegenüber dem Koordinatensystem des Roboters oder umgekehrt | |
AT522028B1 (de) | Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts | |
DE112021004660T5 (de) | Robotersystem | |
EP1915239A2 (de) | Verfahren zum erzeugen eines umgebungsbildes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8141 | Disposal/no request for examination |