DE4434233A1 - Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere von ungleichförmig bewegten Meßobjekten - Google Patents

Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere von ungleichförmig bewegten Meßobjekten

Info

Publication number
DE4434233A1
DE4434233A1 DE4434233A DE4434233A DE4434233A1 DE 4434233 A1 DE4434233 A1 DE 4434233A1 DE 4434233 A DE4434233 A DE 4434233A DE 4434233 A DE4434233 A DE 4434233A DE 4434233 A1 DE4434233 A1 DE 4434233A1
Authority
DE
Germany
Prior art keywords
light
measuring
line
calibration
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE4434233A
Other languages
English (en)
Inventor
Peter Dr Ing Brueckner
Christian Dipl Ing Usbeck
Gerhard Prof Dr Ing Lins
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Usbeck Christian Dipl-Ing 98587 Kurort Steinbach-Hallenberg De
Original Assignee
Usbeck Christian Dipl-Ing 98587 Kurort Steinbach-Hallenberg De
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Usbeck Christian Dipl-Ing 98587 Kurort Steinbach-Hallenberg De filed Critical Usbeck Christian Dipl-Ing 98587 Kurort Steinbach-Hallenberg De
Priority to DE4434233A priority Critical patent/DE4434233A1/de
Publication of DE4434233A1 publication Critical patent/DE4434233A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2522Projection by scanning of the object the position of the object changing and being recorded
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/024Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of diode-array scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2504Calibration devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light

Description

Die Erfindung betrifft ein Verfahren zur berührungslosen dreidimensionalen Messung ungleichförmig bewegter Meßobjekte und eine Anordnung zur Durchführung dieses Verfah­ rens.
Es ist bekannt, daß zur dreidimensionalen berührungslosen Messung ein Lichtstreifen auf das Meßgut projiziert wird und dieser Lichtstreifen unter einem Winkel durch eine CCD-Matrix­ kamera beobachtet wird. Durch Auswertung des seitlichen Versatzes wird eine Meßinforma­ tion erhalten. Dabei entsteht durch die Streifenlichtquelle und die Beobachtungskamera eine Meßfläche, welche in Richtung der optischen Achse der Lichtquelle und in einer dazu senkrechten Richtung aufgespannt wird. Die dritte Dimension entsteht durch eine lineare oder rotatorische Relativbewegung, die vorzugsweise senkrecht zur vorgenannten Meßfläche erfolgt. Dadurch entsteht ein dreidimensionales Meßvolumen. Ein solches Lichtschnittverfah­ ren wird z. B. in der Patentschrift US-PS 4 961 155 beschrieben. Nachteilig ist, daß bei diesem Verfahren das Meßgut nur durch eine Meßfläche erfaßt wird. Varianten, wie die Ver­ wendung eines zweiten Linienprojektors zur Erzielung einer gekreuzten Meßfläche, wie in US-PS 4 961155, erweitern die Einsatzmöglichkeiten. Da hier nur eine Kamera Verwendung findet ist es z. B. nicht möglich die Scheimpflugbedingung einzuhalten. Der gleiche Mangel haftet der Lösung nach DE 40 27 328A an. Hier wird ein zweiter Linienprojektor zur Erzie­ lung unterschiedlich geneigter Meßflächen beschrieben. Damit ist es bereits möglich, kom­ pliziertere Strukturen zu erfassen. Durch die unterschiedliche Neigung der Meßflächen bei einem gemeinsamen Sensor ist es jedoch nicht möglich die Scheimpflugbedingung zu erfüllen. Eine Beschränkung der Genauigkeit ist die Folge. Durch die feste Lage von einer, ggf. von zwei Meßflächen sind den beschriebenen Verfahren bezüglich Genauigkeit, Meßbereich und Erfaßbarkeit von komplizierten Oberflächenformen enge Grenzen gesetzt. Weiterhin ist aus EP 0 462 289 A1 bekannt, daß zur berührungslosen dreidimensionalen Messung bewegter Meßobjekte ein Lichtstreifengenerator (slit light source) mit Impulsen angesteuert wird. Dadurch wird eine kurzzeitige Belichtung erreicht, so daß sich die Dynamik des Meßablaufes verbessert. Ein wesentlicher Nachteil der in EP 0 462 289 A1 beschriebenen Lösung liegt jedoch in der Art der Gewinnung der zu messenden Ortskoordinaten. Dies geschieht mit Hilfe einer Look-Up-Tabelle. Die Verwendung einer Look-Up-Tabelle erfordert einen Einlern­ prozeß. Nach dem Einschreiben der Look-UP-Tabelle wäre eine Bestimmung von drei Ortskoordinaten, wie in der Beschreibung EP 0 462 289 A1 dargelegt, nur dann möglich wenn der Sensor beim Meßvorgang die exakte gleiche Position bzw. die exakt gleichen Positionen einnimmt wie beim Einlernprozeß. Dies trifft insbesondere auf die Bestimmung einer dritten Koordinate zu, da diese prinzipiell genau dann nicht bestimmbar ist, wenn eine einzige Lichtlinie wie in Fig. 6 der Erfindungsbeschreibung EP 0 462 289 A1 dargelegt zur dreidimensionalen berührungslosen Messung benutzt wird. Da bei Verwendung einer einzigen Lichtlinie, dem sogenannten Lichtschnittverfahren, nur zwei Koordinaten aus dem Bild eines flächenhaften optoelektronischen Sensors unmittelbar bestimmbar sind, ist eine Relativbewe­ gung zwischen Sensor und Meßobjekt erforderlich. Damit sind den bisher bekannten Verfah­ ren, insbesondere zur Erfassung der Geometrie von kompliziert geformten Teilen enge Grenzen gesetzt.
Die Erfindung geht von einem anderen Lösungsansatz aus. Zur dreidimensionalen berührungs­ losen Messung wird eine schmale Lichtlinie auf zu messenden Gegenstand projiziert. Das vom Gegenstand ausgehende Streulicht wird durch einen flächenhaften optoelektronischen Sensors, insbesondere durch eine CCD-Matrix, unter einem bestimmten Winkel, dem Triangulations­ winkel erfaßt. Damit lassen sich zwei Koordinaten unmittelbar aus dem Bild dieses flächenhaf­ ten optoelektronischen Sensors bestimmen. Zur Erfassung der dritten Koordinate ist eine Relativpositionierung des Meßgutes gegenüber dem Sensor erforderlich.
Erfindungsgemäß erfolgt die Projektion der Lichtlinie als Lichtblitz. Während bei Dauerbe­ leuchtung die Relativbewegung des Meßgutes gegenüber dem Sensor zur Durchführung der Messung unterbrochen oder wesentlich verlangsamt werden muß, ist es bei kurzer Ein­ schaltdauer des Blitzes nicht mehr notwendig die Positioniergeschwindigkeit zur Messung herabzusetzen oder den Positioniervorgang ganz zu stoppen. Damit erhöht sich die Dynamik des Meßprozesses sehr stark.
Gleichzeitig mit dem Auslösen des Blitzes wird ein Impuls erzeugt, für die Übernahme der in diesem Augenblick eingenommen Position, des zur Ausführung der Relativbewegung Sen­ sor/Meßgut, bewegten Achssystems. Dieses System kann im einfachsten Fall aus einem Lineartisch oder einem Drehtisch bestehen. Erfindungsgemäß ist die Anzahl der erfaßbaren Achsen jedoch in keiner Weise eingeschränkt, so daß neben der eigentlichen dritten Orts­ koordinate auch die Positionen weiterer Achsen mit gespeichert werden können. Diese Achsen dienen der Veränderung der Lage des Sensors gegenüber dem Meßgut. Durch diese zusätzli­ chen Positioniersysteme eröffnet sich die Möglichkeit der dreidimensionalen Aufnahme von Teilen aus mehreren Ansichten. Dies ist z. B. zur vollständigen Erfassung von Gebißmodellen erforderlich. Selbstverständlich ist dieses Verfahren nicht auf einen einzigen Sensor be­ schränkt. Es ist ebenso bei gleichzeitigem Einsatz von zwei, drei oder mehr Sensoren ein­ zusetzen. Dabei kann sogar ohne Störung in gleichen Oberflächengebieten gemessen werden, wenn die Blitzauslösung/Bildaufnahme für die einzelne Systeme zeitlich gestaffelt werden. Zu diesem Zweck wird die Möglichkeit der Integrationszeitverkürzung der CCD-Matrix-Kameras (shutter) ausgenutzt. Darüber hinaus läßt sich die Integrationszeitverkürzung (shutter) prinzi­ piell zur Unterdrückung von Fremdlicht einsetzen.
Die Positionierung der Achsen erfolgt durch eine Schrittmotorsteuerung, durch eine Servo­ motorsteuerung oder durch weitere geeignete, vom Antriebskonzept bestimmte Steuerungs­ prinzipien. Bei der Auswertung ist zwischen Antriebsachsen mit Meßsystemrückmeldung, vorzugsweise inkrementale lineare oder inkrementale rotatorische Geber, und Antriebsachsen ohne Meßsystemrückmeldung zu unterscheiden. Beide sind jedoch erfindungsgemäß einsetz­ bar. Bei Antriebsachsen, die mit einem Meßsystem ausgestattet sind, kann die Position direkt durch die Übernahme der Ausgangssignale des Meßsystems bestimmt werden. Dazu werden ständig die Positionssignale in den Achsenpositionszählern aktualisiert. Diese Positionssignale werden intern in Absolutpositionen umgerechnet. Werden zur Positionierung Achsen mit Schrittmotorantrieb eingesetzt, wird häufig auf ein Achsmeßsystem verzichtet. Um dennoch die aktuelle Position ermitteln zu können, werden erfindungsgemäß die Schritt- und Rich­ tungsimpulse aufgenommen und an die Zähleinheiten weitergeleitet.
Aus dem Kameramodul, insbesondere aus dem Taktschema der CCD-Matrix wird ein Synchronsignal abgeleitet, mit dem die aktuellen Achsenpositionen ausgelesen werden. Gleichzeitig wird mit dem Synchronsignal der Impuls zur Erzeugung des Lichtblitzes ausge­ löst und damit der Kamerameßvorgang eingeleitet. Da die Lichtintensität des Lichtblitzes im Vergleich zum Umgebungslicht wesentlich stärker ist, heben sich die durch das Lichtband beleuchteten Pixel deutlich von den übrigen Kamerapixel ab. Wird dafür gesorgt, daß nur ein Lichtblitz während der Integrationszeit der Kamera auftritt, ist die Bildposition des Meß­ objektes im Kamerabild festgehalten. Die Positionsermittlung, der durch den Lichtschnitt bestimmbaren Objektkoordinaten, wird durch spezielle Auswerteverfahren mit hoher Genau­ igkeit berechnet. Sind die Koordinaten ermittelt, kann der nächste Vorgang gestartet werden.
Erfolgt die Bildauswertung innerhalb eines Bildzyklus, so kann jedes Bild zur Messung herangezogen werden. Die Daten können als Positionen im Bild in den Speicher übernommen werden. Eine Kanten- oder auch Liniendetektion genannt, sorgt für die Bestimmung der Lage der Laserlinie auf dem Bildsensor. Als Ergebnis stehen ein Adresssignal pro Bildzeile als erste Ortsinformation und die Bildzeilennummer als zweite Ortsinformation zur Verfügung. Um die Auswertung noch weiter zu beschleunigen, können die ermittelten Ortsinformationen aber auch bereits in Objektkoordinaten transformiert und anschließend in den Speicher über­ nommen werden. Da letztendlich die Objektkoordinaten von Interesse sind, wird durch diesen Schritt ein nochmaliges Aufrufen, transformieren und Abspeichern der durch den optoelektro­ nischen Sensor ermittelten Ortskoordinaten vermieden.
Für die Lagebestimmung des hellsten Pixel in einer Zeile wurden zwei Verfahren gewählt, ein Schwellwert- und ein Tangentenverfahren, welches den Mittelwert der beiden betragsgrößten Anstiege im Grauwertverlauf einer Bildzeile bildet. Einen typischen Grauwertverlauf entlang einer Matrixzeile zeigt Fig. 8. Mit dem Tangentenverfahren ist es möglich eine Kante im Subpixelbereich zu ermitteln. Für Schwellwertverfahren ist es notwen­ dig einen Grundwert B vorzugeben, der den Grauwerteverlauf Gxy in zwei Punkten schneidet.
Gxy = B (1).
Der Mittelwert der beiden resultierenden Nullstellen wird dann als Kante gewertet und bestimmt die Lage Pxy des Schwerpunktes der Linie in einer Bildzeile mit halber Pixelgenau­ igkeit. Für das Tangentenverfahren wird ein numerisches Differentiationsverfahren ange­ wandt. Hier wird die Eigenschaften der Verstärkung großer Änderungen im Funktionsverlauf ausgenutzt. Somit werden die 1. Ableitungen der Grauwertverläufe - Fig. 8 - einen maximalen und minimalen Funktionswert, die die steigende und fallende Kante als Maximum bzw. Minimum widerspiegelt, aufweisen. Mittels einer Betragsbildung kann auf einfache Weise die Position der beiden Maxima bestimmt werden. Durch eine Mittelwertbildung der beiden Pixelpositionen in den beiden Maxima erhält man eine Aussage über die mittlere Position des Laserbandes.
Die Bestimmung des Differenzenquotienten kann zum Beispiel mit den numerischen Rechen­ verfahren der 7-Punkte-Formel bestimmt werden.
Die in der Gleichung (2) angegebenen Funktionswerte stellen den Grauwert eines Pixels im Kamerabild dar. Mittels einer Adresslogik muß nun die bestimmte Pixelposition oder die Objektkoordinaten abgespeichert werden. Bei fehlender Transformationslogik muß ein externer Prozessor oder eine externe Hardware für die Transformation der Positions- und Bilddaten in die Objektkoordinaten sorgen. Die Transformation der Daten wird hierbei mit den durch die Kalibrierung des Meßsystems gewonnenen Parametern ausgeführt.
Die Kalibrierung der Meßsysteme erfolgt durch ein Höhenwertverfahren, welches eine Kalibrierkante über das Meßfeld bewegt, wobei eine Zuordnung der Bildpunkte zu den Objektkoordinaten unter Berücksichtigung der aktuellen Achsenpositionen erfolgt.
Durch eine Bestimmung der Drehpunktparameter der Meßsysteme ist es möglich verschiedene Meßfelder, die durch Drehung, Kippung Verschiebung des Meßkopfes entstehen, zu einem Datensatz zusammenzusetzen. In Fig. 10 ist ein für die Kalibrierung von mehrachsigen Meßmaschinen, die auf dem Prinzip der Lasertriangulation mit einer CCD-Matrixkamera und linienförmigen Lasern arbeiten, geeigneter Kalibrierkörper dargestellt. Für diese Ausführungs­ art ist es notwendig, daß eine Drehachse in der Meßebene vorhanden ist, mit der eine Drehung des Kalibrierkörpers um die mittlere Befestigungsbohrung - in der Darstellung als Drehachse gekennzeichnet - erfolgen kann. Bei der Höhenwertkalibrierung wird das Laser­ band über die Kante des Kalibrierkörpers gelegt. Dies wird durch eine Drehung des Kamera­ systems um 90 Grad mittels einer Drehachse erreicht. Da nicht jede Bildspalte des Sensors angefahren werden kann, wird mittels den zu Verfügung stehenden Informationen eine Gleichung über Regressionsverfahren oder eine Polynomapproximation bestimmt, die jeder Spalte einen Höhenwert im Meßfenster mit hinreichender Genauigkeit zuordnet. Das Meßfen­ ster ist hierbei absolut zu betrachten, wird aber später durch die Einbeziehung der Drehpunkt­ koordinaten und des Koordinatensystems des Sensors zu einem Höhenwert des Meßsystems umgerechnet.
Durch die bekannte Länge der Kalibrierkante ist eine Abbildungsfunktion für die Breite der Kante im Bildfeld bestimmbar. Dies erfolgt durch eine approximierte Gleichung aus der abgebildeten Linienlänge in Pixel und der bekannten Kantenlänge. Über diese Beziehungen ist man in der Lage einem beliebigen Bildpunkt Pxy einen Höhenwert, Nullpunkt und Breite in der Spalte x und der Zeile y zuzuordnen. Eine Polynomapproximation bietet weiterhin die Möglichkeit, Justagefehler der CCD-Matrix und Verzeichnungen des Objektivs über den gesamten Meßbereich auszugleichen. Das Modell der Schätzfunktion variiert hierbei im Polynomgrad für die einzelnen Höhenmeßbereiche und die erforderliche Genauigkeit.
Der Höhenwert, z-Koordinate, läßt sich nach der Kalibrierung anhand des Polynomansatzes aus der Spaltenposition der ermittelten Lage der Laserlinie berechnen. Die x-Koordinate eines Bildpunktes, oft auch Radienwert genannt, errechnet sich aus der Differenz des bei der Kalibrierung gesetzten Nullpunktes der Kalibrierkante und der Zeilenposition in Bezug auf die abgebildeten Breite der Kalibrierkante in der Spalte x.
Die 3. Koordinate wird je nach verwendetem Koordinatensystem - karthesisch oder zylinder - aus der Achsenposition der Meßebene berechnet. Damit verschiedene Teilansichten des Meßobjektes zusammengesetzt werden können, müssen alle Punkte der einzelnen Meßfelder in ein globales Koordinatensystem transformiert werden. Die Parameter hierzu werden von der Drehpunktkalibrierung, Fig. 5 und 6 geliefert.
Wird das Meßsystem um 90 Grad aus der senkrechten Lage (0 Grad) heraus geschwenkt, so gewinnt man aus der Schenkellänge des Kalibrierkörpers einen Höhenwert in Bezug auf die Anfangsposition der Höhenwertkalibrierung. Über das kalibrierte Kamerameßfeld kann man die Höhe des Punktes Pi in Bezug auf den Nullpunkt des Meßfeldes ermitteln. Bei bekannter Schenkellänge l erhält man die Höhe H des Drehpunktes Hdpl.
Als ausgezeichneter Punkt wird hierbei der Mittelpunkt der Kalibrierkörperbohrung her­ angezogen. Dieser wird in der Höhe bestimmt durch die mittlere Spaltenposition aller sichtbaren Punkte. Der Radienwert dieses Punktes wird anhand des Bohrungsmittelpunktes nach oben angegebenem Verfahren bestimmt.
Wird das Meßsystem auf dem gegenüberliegenden Punkt (-90°) geschwenkt, läßt sich wieder­ um die Höhe Hr in Bezug auf den Nullpunkt und somit die Höhe Hdpr bestimmen.
Nachdem beide Meßpunkte aufgenommen wurden, kann nun der Drehpunkt des Meßsystems aus der Schenkellänge, den Radien- und Höhenwerten bestimmt werden.
Aus diesen Werten läßt sich die Korrektur des Meßkoordinatensystems und der aktuellen Achsenposition berechnen, um somit den Nullpunkt des Meßfeldes in den Drehpunkt ab­ zubilden. Damit können die Pixelkoordinaten in ein globales Koordinatensystem der Meß­ maschine umgerechnet werden. Dies erfolgt durch eine Differenz des Höhen- und Verschie­ bungswertes mit dem Drehpunkt des Meßkopfes.
Bei gekippten Meßköpfen besteht die Möglichkeit einer Transformation von Koordinatenpunk­ ten um den Drehpunkt des Meßsystems.
Zum Schluß wird bei mehrachsigen Motorsteuerung die Verschiebung des Radienwertes (entlang dem Lichtschnitt) und des Höhenwertes mit eingerechnet.
Nun muß, je nach bewegter Meßachse, in der Meßebene eine Unterscheidung für zylindrische- oder karthesische Koordinaten getroffen werden.
Die auf diese Art und Weise errechneten Objektkoordinaten können durch geeignete Pro­ gramme zur Fräsdatengenerierung oder zur Erkennung von Formelementen angewandt werden.
Ausführungsbeispiel
Die Erfindung soll nachstehend an einem Ausführungsbeispiel näher erläutert werden. In der zughörigen Zeichnung zeigen:
Fig 1: Ausführungsbeispiel für Verfahren und Anordnung gemäß Anspruch für n-achsige Schrittmotorsteuerungen ohne Meßsystem zur Ermittlung der für die Transformation der Pixel- in Objektkoordinaten wirksamen Achsenpositionen.
Fig 2: Ausführungsbeispiel für Verfahren und Anordnung gemäß Anspruch für n-Achsige Schrittmotorsteuerungen mit Meßsystem zur Ermittlung der für die Transformation der Pixel- in Objektkoordinaten wirksamen Achsenpositionen.
Fig 3: Ausführungsbeispiel für Verfahren und Anordnung gemäß Anspruch für die Posi­ tionserkennung der Laserlinie nach dem Schwert­ verfahren.
Fig 4: Ausführungsbeispiel für Verfahren und Anordnung gemäß Anspruch für die Posi­ tionserkennung der Laserlinie mit einem numerischen Differentiationsverfahren.
Fig 5: Bestimmung der Lage des Drehpunktes der Kamera bei 90° gekipptem Meßsystem.
Fig 6: Bestimmung der Lage des Drehpunktes der Kamera bei -90° gekipptem Meßsystem.
Fig 7: Beispiel einer Grauwertverteilung zur Bestimmung des Schwerpunktes der Laserlinie.
Fig 8: Beispiel für ein resultierendes Bildfeld bei der Höhenwertkalibrierung.
Fig 9: Beispiel zur Bestimmung der Breite bzw. Radienwert.
Fig 10: Ausführungsbeispiel eines Kalibrierkörpers für mehrachsige Meßmaschinen.
Fig. 1: Bei diesem Ausführungsbeispiel werden die Schritt-, Richtungs- und Rücksetz­ impulse der Motorsteuerung (1) einem achszugehörigen Vor- und Rückwärtszähler (9 . . . 11) zugeführt. Über den Richtungsimpuls wird für den Zähler die Zählrichtung des Schritt­ impulses festgelegt. Zur Initialisierung des Zähler wird aus einem Referenzschalter (Nullage) der Achsen ein Rücksetzimpuls abgeleitet.
Das Positionsübernahmesignal dient der Aktualisierung der gespeicherten Zählerstande in den Latches (6 . . . 8) und wird aus den Kamerasignalen abgeleitet. Dieser Mechanismus dient der Speicherung der Achsenpositionen während einer Bildaufnahme.
Die einzelnen Achsenpositionen werden, durch die Positionslesesteuerung (2) gesteuert und über den Daten- (4), Adressbus (3) einem Speichermedium (RAM) zugeführt.
Fig. 2: Bei diesem Ausführungsbeispiel wird die Achslage des Positioniersystems (1) direkt aus dem Meßsystem (2) gewonnen. Die Nullage der Achsen wird bei der Initialisierung des Meßsystems festgelegt.
Mit dem Positionsübernahmesignal (10), abgeleitet aus dem Kamerasignalen, werden die aktuellen Achsenpositionen in die Latches (3 . . . 5) übernommen. Dieser Mechanismus dient der Speicherung der Achsenpositionen während einer Bildaufnahme.
Die einzelnen Achsenpositionen werden, durch die Positionslesesteuerung (6) gesteuert und über den Daten- (7), Adressbus (8) einem Speichermedium (RAM) zugeführt.
Fig. 3: Für die Lagebestimmung des hellsten Pixel in einer Zeile kann ein Schwellwert­ verfahren, welches den maximalen Grauwert - hellster Punkt - einer Bildzeile ermittelt, verwendet werden. Einen typischen Grauwertverlauf entlang einer Matrixzeile zeigt Fig. 7. Mit dem Schwellwertverfahren ist es möglich die Lage des Schwerpunktes der Laserlinie mit halber Pixelgenauigkeit zu ermitteln. Für Schwellwertverfahren ist es notwendig einen Grundwert B (Bias) vorzugeben, der den Grauwerteverlauf Gxy in zwei Punkten schneidet. Über den Mittelwert der Schnittpunkte von Schwellwert und Grauwertkurve wird dann der Schwerpunkt bestimmt. Mittels einer Adreßlogik muß nun die bestimmte Pixelposition oder die Objektkoordinaten abgespeichert werden. Bei fehlender Transformationslogik muß ein externer Prozessor oder eine externe Hardware für die Transformation der Positions- und Bilddaten in die Objektkoordinaten sorgen. Die Transformation der Daten wird hierbei mit den durch die Kalibrierung des Meßsystems gewonnenen Parametern ausgeführt. In diesem Ausführungsbeispiel wird zur Detektion des Schwerpunktes der Laserlinie werden die Videosignale über den Videobus (1) des Kamerasystems einem Komparator (2) zugeführt, der die Aufgabe hat, einen Vergleich des aktuellen Pixelwertes mit dem voreingestellten Schwel­ lenwert durchzuführen. Die Vorgabe des Schwellenwertes (8) kann fest oder über das Bussystem von außen programmiert werden.
Ist der von der Kamera gelieferte Pixelwert größer als der voreingestellte Wert, erzeugt der Komparator (2) ein Signal (II), welches den Steuerautomat (6) veranlaßt ein Signal zur Ausgabe des Pixelwertes an den Addierer zu generieren. Dieser addiert diesen Wert zu der internen Null - bei jedem Zeilenbeginn - auf. Nachfolgend werden alle Werte größer dem Schwellwert direkt in das Latch (5) übernommenen. Die entsprechenden Signale hierfür generiert der Steuerautomat (6). Mit dem ersten Wert kleiner der Schwelle wird der zuletzt im das Latch (5) gespeicherte Wert wiederum dem Addierer zugeführt und aufaddiert. Der berechnete Wert gelangt über den Dividierer (5), welcher als Schieberegister ausgeführt werden kann, in die Transformationslogik (8). Dividiert man den Wert aus dem Adder durch 2 ergibt sich der Mittelpunkt der Laserlinie in dieser Bildzeile, mit halber Subpixelgenau­ igkeit. Der Steuerautomat (6) generiert das Signal zur Übernahme der Werte in die Trans­ formationslogik. Die Speicheradresse für den transformierten Wert wird von der Adress­ logik (9) bereitgestellt, so daß alle Punkte der Laserlinie nacheinander im Speichermedium (10) untergebracht sind.
Fig. 4: Für die Lagebestimmung des Schwerpunktes eines Lichtschnitts in einer Zeile kann ein Tangentenverfahren, welches den Mittelwert der beiden betragsgrößten Anstiege im Grauwertverlauf einer Bildzeile bestimmt Verwendung finden. Einen typischen Grauwertver­ lauf entlang einer Matrixzeile zeigt Fig. 7. Mit dem Tangentenverfahren ist es möglich eine Kante im Subpixelbereich zu ermitteln. Für das Tangentenverfahren wird ein numerisches Differentiationsverfahren angewandt. Hier werden die Eigenschaften der Verstärkung großer Änderungen im Funktionsverlauf ausgenutzt. Somit werden die 1. Ableitungen der Grauwert­ verläufe - Fig. 7 - einen maximalen und minimalen Funktionswert, der die steigende und fallende Kante widerspiegelt, aufweisen. Durch eine Mittelwertbildung über den Beträgen der beiden Pixelpositionen erhält man eine Aussage über die mittlere Position des Laserbandes. Die Bestimmung des Differenzenquotienten kann zum Beispiel mit den numerischen Rechen­ verfahren der 3-, 5- oder 7-Punkte-Formel bestimmt werden, je nach erforderlicher Rechen­ geschwindigkeit und Genauigkeit.
Die in der Gleichung (2) angegebenen Funktionswerte stellen den Grauwert eines Pixels im Kamerabild dar. Mittels einer Adresslogik muß nun die bestimmte Pixelposition oder die Objektkoordinaten abgespeichert werden. Bei fehlender Transformationslogik muß ein externer Prozessor oder eine externe Hardware für die Transformation der Positions- und Bilddaten in die Objektkoordinaten sorgen. Die Transformation der Daten wird hierbei mit den durch die Kalibrierung des Meßsystems gewonnenen Parametern ausgeführt. Bei dieser Ausführung wird die Laserkante mittels einem numerischen Differentiationsverfahren, zum Beispiel der 3-, 5-, 7-Punkte-Formel, ermittelt. Die Videosignale der Kamera werden über den Videobus (1) einem Differenzierer zugeführt. Dieser hat die Aufgabe den Anstieg im Punkte Px zu berechnen. Die Latches (6) und (7) werden zu Beginn einer Zeile auf den Wert 0 vorgeladen. Damit ist es durch Vergleich des Anstieges mit dem Wert der Latches möglich, den größten und kleinsten Tangentenwert zu ermitteln. Der Komparatot (5) generiert im Falle eines größerer Anstiegswerte ein Signal (I2) für den Steuerautomaten (2), welches zur Erzeugung eines Übernahmesignales des Anstiegswertes in das Latch (6) und zur Ausgabe des neuen Wertes an den Komparator (5) genutzt wird. Auf diese Art kann der größte Anstieg eines Punktes im Grauwertverlauf einer Bildzeile ermittelt werden. Der minimale Anstieg, fallende Kurve, ist durch einen negativen Anstiegswert gekennzeichnet. Diesbezüglich wird am Komparator (8) zum Vergleich des Anstiegswertes mit dem gespeicherten Wert im Latch (7) das Signal I1 generiert, welches bei kleineren Anstiegen auftritt, ausgewertet. Am Ende einer Bildzeile steht damit der größte und kleinste Anstiegswert im Grauwertverlauf in den Latches (6) und (7) zur Verfügung. Nach einer Betragsbildung und anschließender Mittelwert­ bildung durch den Adder (9) und den Dividierer (10) steht der Schwerpunkt der Laserlinie fest. Die Adresslogik (4) generiert nach jedem Zeilenimpuls eine neue Speicheradresse. Auf dieser Adresse wird der berechnete Wert abgelegt. Dieser Wert kann mit einer Auflösung der Pixelposition bis in den Subpixelbereich bestimmt werden.
Nach dem Dividierer besteht die Möglichkeit eine Hardwarerealisierung der Koordinatentrans­ formation zwischenzuschalten, die aus den Pixelkoordinaten, den Achsenpositionen und den Kalibrierwerten die Objektkoordinaten bestimmt. Damit stehen im Speicher sofort die dreidimensionalen Koordinaten einzelner Meßpunkte zur Verfügung.
Fig. 5-10: Die Kalibrierung der Meßsysteme erfolgt durch ein Höhenwertverfahren, welches eine Kalibrierkante über das Meßfeld bewegt, wobei eine Zuordnung der Bildpunktes zu den Objektkoordinaten unter Berücksichtigung der aktuellen Achsenpositionen erfolgt.
Durch eine Bestimmung der Drehpunktparameter der Meßsysteme ist es möglich verschiedene Meßfelder, die durch Drehung, Kippung Verschiebung des Meßkopfes entstehen, zusam­ menzusetzen zu einem Datensatz. In Fig. 10 wird ein für die Kalibrierung von mehrachsi­ gen Meßmaschinen, die auf dem Prinzip der Lasertriangulation mit CCD-Matrixkamera und linienförmigen Lasern arbeiten geeigneter Kalibrierkörper mit den wichtigsten Eigenschaften dargestellt. Für diese Ausführungsart ist es notwendig, daß eine Drehachse in der Meßebene vorhanden ist, mit der eine Drehung des Kalibrierkörpers um die mittlere Befestigungs­ bohrung - in der Darstellung als Drehachse gekennzeichnet - erfolgen kann. Bei der Höhen­ wertkalibrierung wird das Laserband über die Kante des Kalibrierkörpers gelegt. Dies wird durch eine Drehung des Kamerasystems um 90 Grad mittels einer Drehachse erreicht. Mittels der Linearachse wird nun das Laserband so positioniert, daß es auf dem Bildschirm am rechten Bildrand erscheint. In dieser Stellung wird die Endposition Pe der Höhenwertkalibrie­ rung festgelegt, durch Abfrage der Linearposition in der Meßebene. Nach nochmaliger Positionierung des Laserbandes am linken Bildrand erhält man die Startposition P₅ und somit den Verfahrweg P = Pe - Ps der Höhenwertkalibrierung. Nach Vorgabe einer Schrittanzahl n ergibt sich der Verfahrweg eines einzelnen Kalibrierschrittes zu:
Die Wahl der Schrittanzahl variiert mit den Höhenmeßbereichen und der geforderten Genau­ igkeit. Bei der Abbildung der Kalibrierkante auf dem Sensor der Kamera ergibt sich das in Fig. 5 dargestellte Bild. Da nicht jede Bildspalte des Sensors angefahren werden kann, wird mittels den zu Verfügung stehenden Informationen eine Gleichung über Regressionsverfahren oder eine Polynomapproximation bestimmt, die jeder Spalte einen Höhenwert im Meßfenster mit hinreichender Genauigkeit zuordnet. Das Meßfenster ist hierbei absolut zu betrachten, wird aber später durch die Einbeziehung der Drehpunktkoordinaten und des Koordinaten­ systems des Sensors zu einem Höhenwert des Meßsystems umgerechnet.
Die abgebildete Kante des Kalibrierkörpers muß so gewählt werden, daß diese im gesamten Meßfeld nicht die Bildhöhe überschreitet. Damit besitzt das abgebildete Laserband einen Start- und Endpunkt. Der Startpunkt wird im Meßfeld als Nullpunkt der Linie in der abgebildeten Spalte des Bildfeldes gewertet. Mittels einer approximierten Gleichung kann somit wiederum jeder Bildspalte ein Nullpunkt zugeordnet werden. Durch die bekannte Länge der Kalibrier­ kante ist man weiterhin in der Lage eine Abbildungsfunktion für die Breite der Kante im Bildfeld zu bestimmen. Dies erfolgt durch eine approximierte Gleichung aus der abgebildeten Linienlänge in Pixel und der bekannten Kantenlänge. Über diese Beziehungen ist man in der Lage einem beliebigen Bildpunkt Pxy einen Höhenwert, Nullpunkt und Breite in der Spalte x und der Zeile y zuzuordnen. Eine Polynomapproximation bietet weiterhin die Möglichkeit Justagefehler der CCD-Matrix und Verzeichnungen des Objektivs, über den gesamten Meßbereich auszugleichen. Das Modell der Schätzfunktion variiert hierbei im Polynomgrad für die einzelnen Höhenmeßbereiche und die erforderliche Genauigkeit. Der Höhenwert, z- Koordinate, läßt sich nach der Kalibrierung anhand des Polynomansatzes aus der Spalten­ position der ermittelten Lage des Schwerpunktes der Laserlinie berechnen. Die x-Koordinate eines Bildpunktes, oft auch Radienwert genannt, errechnet sich aus dem Nullpunkt N(x) und der abgebildeten Breite B(x) der Kalibrierkante.
Aus der Differenz der Zeilenposition y des Bildpunktes und des Lage des Nullpunktes N(x) in der Spalte x auf dem Sensor erhält man eine Länge der Kalibrierkante (Fig. 8). Setzt man nun die Breite der Kalibrierkante in der Bildspalte x als Normal voraus, so kann über diese Beziehung der Abstand vom Nullpunkt und somit die x-Koordinate eines Objektpunktes bestimmt werden.
Die 3. Koordinate wird direkt aus der Achsenposition der Meßebene abgelesen. Damit verschiedene Teilansichten des Meßobjektes zusammengesetzt werden können, müssen alle Punkte der einzelnen Meßfelder in ein globales Koordinatensystem transformiert werden. Die Parameter hierzu werden von der Drehpunktkalibrierung, Fig. 5 und 6 geliefert. Wird das Meßsystem um 90 Grad aus der senkrechten Lage (0 Grad) heraus geschwenkt, so gewinnt man aus der Schenkellänge des Kalibrierkörpers einen Höhenwert in Bezug auf den Nullpunkt (Anfangsposition der Höhenwertkalibrierung). Die Höhe des Drehpunktes über dem Nullpunkt ist mit Hdpl und die Höhe des Meßpunktes (hier das Zentrum der Bohrung) ist mit Hl-Index für linke Seite - gekennzeichnet. Über das kalibrierte Kamerameßfeld ist man somit in der Lage die Höhe des Punkte P in Bezug auf den Nullpunkt des Meßfeldes zu ermitteln.
Wird jedoch das Meßsystem gekippt, so wird das Meßfeld um den Drehpunkt des Meßsystems gedreht. Mit bekannter Schenkellänge l kann man die Höhe Hl des Drehpunktes Hdpl be­ rechnen.
Hdpl = l - Hl (5).
Als ausgezeichneter Punkt wird hierbei der Mittelpunkt der Bohrung herangezogen. Dieser wird bestimmt durch die mittlere Spaltenposition aller sichtbaren Punkte - Höhenwert - der Laserlinie und der halbierten Zeilenposition von letztem Linienpunkt und erstem Linienpunkt oberhalb und unterhalb der Bohrung. Somit ergibt sich ein Höhen- und Radienwert. Wird das Meßsystem auf dem gegenüberliegenden Punkt (-90°) geschwenkt, läßt sich wieder­ um die Höhe Hr in Bezug auf den Nullpunkt und somit die Höhe Hdpr bestimmen.
Die Höhe des Drehpunktes auf der gegenüberliegenden Seite berechnet sich analog zu:
Hdpr = l - Hr (6)
Nachdem beide Meßpunkte aufgenommen wurden, kann nun der Drehpunkt des Meßsystems aus der Schenkellänge und den beiden Höhenwerten bestimmt werden.
Der Radienwert des Drehpunktes kann durch die Gleichung
berechnet werden. Aus diesen Werten läßt sich die Korrektur des Meßkoordinatensystems und der aktuellen Achsenposition berechnen, um somit den Nullpunkt des Meßfeldes in den Drehpunkt abzubilden. Damit können die Pixelkoordinaten in ein globales Koordinatensystem des Meßmaschine umgerechnet werden. Alle Meßpunkte des Kamerameßfeldes können nun in das Koordinatensystem der Meßmaschine transformiert werden. Dies erfolgt durch eine Differenz des Höhen- und Verschiebungswertes mit dem Drehpunkt des Meßkopfes.
H* = H - Hdp (9)
R* = R - Rdp (10)
Somit sind alle Meßpunkte in das Koordinatensystem des Meßkopfes transformiert. Bei gekippten Meßköpfen besteht die Möglichkeit einer Transformation von Koordinatenpunkten um den Drehpunkt des Meßsystems.
H** = R* * sin(Φ) + H* * cos (Φ) (11)
H** = R* * cos(Φ) - H* * sin(Φ) (12)
Zum Schluß werden die mehrachsigen Motorsteuerung die Verschiebung des Radiemwertes und des Höhenwertes miteingerechnet.
R*** = R** - Rlinear (13)
H*** = H** - Vlinear (14)
Der Wert R*** muß nun je nach bewegter Meßachse M in der Meßebene unterschieden werden für zylindrische- oder karthesische Koordinaten. Aus diesem Wert werden bei gedrehter Meßachse (Drehachse) die kathesischen Koordinaten nach den Gleichung
z = H*** (15)
und bei verschobener Meßachse M (Linearachse) nach den Gleichungen
x = R*** * cos (Φ) (16)
y = R*** * sin (Φ) (18)
y = M (17)

Claims (12)

1. Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere von ungleichförmig bewegten Meßobjekten mittels Lichtschnitt bei dem eine Lichtlinie projiziert wird und das Streulicht unter einem bestimmten Winkel durch einen optoelektro­ nischen Flächensensor, insbesondere eine CCD-Matrix, erfaßt wird, gekennzeichnet dadurch, daß das Meßgut (13) mittels eines Positioniersystems (11) translatorisch, rotatorisch oder kombiniert translatorisch und rotatorisch bewegt wird, daß alternativ auch ein- oder mehrere Lichtschnittsensoren translatorische und/oder rotatorische bewegt werden, daß das Meßobjekt sowie die Meßköpfe ihre Position mit gleichförmiger oder ungleichförmiger Ge­ schwindigkeit verändern, daß sich über die Bildwiederholfrequenz und die Geschwindigkeit des Positioniersystems ein relatives Abtastraster für das Meßobjekt bestimmt, daß synchron mit der Bildaufnahme die Lichtlinie durch einen Lichtgenerator erzeugt wird, der eine im Verhältnis zur Dauer der Bildaufnahme sehr kurze Belichtung, einen Lichtblitz erzeugt, daß während einer Integrationszeit nur ein einziger Lichtblitz ausgelöst wird, daß dieser Lichtblitz mit der Bildaufnahme synchronisiert wird, daß gleichzeitig mit dem Ereignis des Lichtblitzes die Position aller wirksamen Achsen des Positioniersystems festgehalten und diese zusammen mit den Bildinformationen abgespeichert, daß aus der Pixelposition und den Achsenpositionen die dreidimensionale Oberflächenform des Objektes bestimmt wird, daß diese Oberflächen­ form anhand von Vergleichswerten bestimmt wird, die in einer vorangehenden Kalibrierphase gewonnen werden.
2. Verfahren gemäß Anspruch 1, gekennzeichnet dadurch, daß die Auswertung der erfaßten Lichtline durch ein Verfahren erfolgt, bei dem die Position der Laserline mit einer Genau­ igkeit bestimmt wird die unterhalb der durch die geometrischen Verhältnisse des Sensors erreichbaren liegt, d. h. unterhalb des Pixelmittenabstandes, ermittelt wird.
3. Anordnung zur Durchführung des Verfahrens gemäß Anspruch 1, gekennzeichnet dadurch, daß nach der CCD-Matrix ein Analog-Digital-Umsetzer angeordnet ist, daß nach diesem Umsetzer unmittelbar ein Prozessor zur Bestimmung der Lage der Lichtlinie angeordnet ist, daß nach diesem Linienprozessor ein Positionsprozessor angeordnet, daß an den Eingängen dieses Prozessors die Lage - Positionswerte der Lichtlinie - und die Positionswerte aller wirksamen Achsen anliegen, daß am Ausgang dieses Prozessors die vollständige dreidimensio­ nale Ortsinformation zu Verfügung steht.
4. Anordnung gemäß Anspruch 3, gekennzeichnet dadurch, daß die einzelnen Baugruppen unterschiedlich örtlich angeordnet sein können, daß insbesondere der Linienprozessor mit dem optoelektronischen Flächensensor und dem Analog-Digital- Umsetzer räumlich vereint, jedoch vom Positionsprozessor räumlich getrennt sein kann.
5. Anordnung gemäß Anspruch 4, gekennzeichnet dadurch, daß die Meßwerte nach geeigneter Auswahl zur Bestimmung von räumlichen Formelementen genutzt werden.
6. Anordnung und Verfahren gemäß Anspruch 4, gekennzeichnet dadurch, daß ein Musterteil in einem bestimmten Raster abgetastet, die einzelnen Lichtschnitte für nachfolgende Messun­ gen an Prüflingen herangezogen und als Vergleichswert zur Entscheidungsfindung verwendet werden können.
7. Anordnung gemäß Anspruch 4, gekennzeichnet dadurch, daß zur Lagebestimmung der Laserlinie auf dem Sensor ein Verfahren Verwendung findet, das durch Mittelwertbildung der Flankenpositionen in der Grauwertverteilung eine subpixelgenaue Schwerpunktbestimmung ermöglicht.
8. Verfahren gemäß Anspruch 7, gekennzeichnet dadurch, daß zur Lagebestimmung der Laserlinie ein Schwellwertverfahren Verwendung findet, das die Schnittpunkte von Schwelle und Grauwertverlauf als Flanken wertet und über eine Mittelwertbildung den Schwerpunkt bestimmt.
9. Verfahren gemäß Anspruch 7, gekennzeichnet dadurch, daß zur Lagebestimmung der Laserlinie ein numerisches Differentiationsverfahren Verwendung findet, das die beiden betragsgrößten Anstiege (steigende und fallende Flanke) im Grauwertverlauf als Kante wertet und über eine Mittelwertbildung den Schwerpunkt bestimmt.
10. Anordnung gemäß Anspruch 2, gekennzeichnet dadurch, daß zur Kalibrierung des Meßsystems ein Verfahren eingesetzt wird, welches anhand der bestimmten Meßwerte ein Gleichungssystem zur Berechnung der Objektkoordinaten aus den Pixelkoordinaten über Regressionsverfahren oder Ausgleichsrechnung bestimmt.
11. Verfahren gemäß Anspruch 10, gekennzeichnet dadurch, daß ein Kalibrierkörper mit bekannter Kalibrierkantenlänge, Schenkellänge und Kalibrierbohrung zur Höhenwert- und Drehpunktbestimmung des Meßsystems eingesetzt wird.
12. Verfahren gemäß Anspruch 11, gekennzeichnet dadurch, daß das Kalibrierverfahren auf den gesamten Fensterbereich sowie auf Teilbereiche des Sensorbildes angewandt werden kann.
DE4434233A 1994-09-24 1994-09-24 Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere von ungleichförmig bewegten Meßobjekten Withdrawn DE4434233A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE4434233A DE4434233A1 (de) 1994-09-24 1994-09-24 Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere von ungleichförmig bewegten Meßobjekten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE4434233A DE4434233A1 (de) 1994-09-24 1994-09-24 Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere von ungleichförmig bewegten Meßobjekten

Publications (1)

Publication Number Publication Date
DE4434233A1 true DE4434233A1 (de) 1995-11-16

Family

ID=6529148

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4434233A Withdrawn DE4434233A1 (de) 1994-09-24 1994-09-24 Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere von ungleichförmig bewegten Meßobjekten

Country Status (1)

Country Link
DE (1) DE4434233A1 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19841365A1 (de) * 1998-09-10 2000-04-20 Ricklefs Ubbo Meßverfahren zur Aufnahme und Auswertung von Streifenbildern bewegter Oberflächen
DE10128954A1 (de) * 2001-06-15 2002-12-19 Ibeo Automobile Sensor Gmbh Korrekturverfahren für Daten mehrerer optoelektronischer Sensoren
EP1286134A1 (de) * 2001-08-18 2003-02-26 Trumpf Werkzeugmaschinen GmbH + Co. KG Vorrichtung und Verfahren zur Erfassung der Geometrie von Werkstücken
DE102005006069A1 (de) * 2005-02-10 2006-08-24 Hubert Kammer Verfahren und Vorrichtung zum dreidimensionalen Scannen von Objekten
DE102006049947A1 (de) * 2006-10-19 2008-04-30 Betriebsforschungsinstitut VDEh - Institut für angewandte Forschung GmbH Meßverfahren zur Bestimmung des Verlaufs einer Kante eines Profils und Richtanlage für Metallprofile und Richtverfahren für Metallprofile
US7570793B2 (en) 2001-06-15 2009-08-04 Ibeo Automobile Sensor Gmbh Correction method for data of a plurality of optoelectronic sensors
EP2264557A1 (de) * 2001-07-16 2010-12-22 Werth Messtechnik GmbH Verfahren zum Messen eines Objektes mit einem Koordinatenmessgerät mit Bildverarbeitungssenor

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19841365A1 (de) * 1998-09-10 2000-04-20 Ricklefs Ubbo Meßverfahren zur Aufnahme und Auswertung von Streifenbildern bewegter Oberflächen
DE19841365C2 (de) * 1998-09-10 2000-11-16 Ubbo Ricklefs Meßverfahren zur Aufnahme und Auswertung von Streifenbildern sich verformender Oberflächen
DE10128954A1 (de) * 2001-06-15 2002-12-19 Ibeo Automobile Sensor Gmbh Korrekturverfahren für Daten mehrerer optoelektronischer Sensoren
US7570793B2 (en) 2001-06-15 2009-08-04 Ibeo Automobile Sensor Gmbh Correction method for data of a plurality of optoelectronic sensors
EP2264557A1 (de) * 2001-07-16 2010-12-22 Werth Messtechnik GmbH Verfahren zum Messen eines Objektes mit einem Koordinatenmessgerät mit Bildverarbeitungssenor
EP1286134A1 (de) * 2001-08-18 2003-02-26 Trumpf Werkzeugmaschinen GmbH + Co. KG Vorrichtung und Verfahren zur Erfassung der Geometrie von Werkstücken
DE102005006069A1 (de) * 2005-02-10 2006-08-24 Hubert Kammer Verfahren und Vorrichtung zum dreidimensionalen Scannen von Objekten
DE102006049947A1 (de) * 2006-10-19 2008-04-30 Betriebsforschungsinstitut VDEh - Institut für angewandte Forschung GmbH Meßverfahren zur Bestimmung des Verlaufs einer Kante eines Profils und Richtanlage für Metallprofile und Richtverfahren für Metallprofile

Similar Documents

Publication Publication Date Title
EP3278302B1 (de) Bewegungsmesssystem einer maschine und verfahren zum betreiben des bewegungsmesssystems
AT506110B1 (de) Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
DE19536294C2 (de) Verfahren zur geometrischen Navigation von optischen 3D-Sensoren zum dreidimensionalen Vermessen von Objekten
DE19841235C5 (de) Positionskalibrierverfahren für eine optische Meßeinrichtung
EP0968687B1 (de) 3D-Kamera zur Erfassung von Oberflächenstrukturen, insbesondere für zahnmedizinische Zwecke
DE102013009288B4 (de) 3D-Aufnahmevorrichtung, Verfahren zur Erstellung eines 3D-Bildes und Verfahren zur Einrichtung einer 3D-Aufnahmevorrichtung
DE4301538A1 (de) Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
EP2284486A2 (de) Koordinatenmessgerät sowie Verfahren zum Messen mit einem Koordinatenmessgerät
EP1957935A1 (de) Vorrichtung und verfahren zur vermessung der oberfläche eines körpers
EP3775767B1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE102006059416A1 (de) Vorrichtung und Verfahren zur Steigerung der Mess-Genauigkeit digitaler 3D-Geometriemesssysteme
DE102015204796A1 (de) Koordinatenmessgerät mit beweglichem Sensorträger und Positionsbestimmungseinrichtung, sowie Verfahren zum Betreiben eines Koordinatenmessgeräts
WO2015036026A1 (de) Verfahren und vorrichtung zur vermessung von innengewinden eines werkstücks mit einem optischen sensor
DE10020842A1 (de) Koordinatenmeßgerät oder Werkzeugmaschine
DE3624959C2 (de)
DE102015109612B4 (de) Koordinatenmessgerät und Verfahren zum Kalibrieren desselben mit einer Time-of-Flight-Kamera
EP3077763B1 (de) Verfahren zur auswertung von koordinatenmessdaten, entsprechende vorrichtung zum vermessen eines messobjektes und entsprechendes computerprogrammprodukt
DE19626889A1 (de) Verfahren und Vorrichtung zur Erfassung von Geometriedaten aus unterschiedlichen Beobachtungspositionen
DE4434233A1 (de) Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere von ungleichförmig bewegten Meßobjekten
DE102016212650A1 (de) Verfahren und Vorrichtung zur Erzeugung von verorteten Sensordaten eines Koordinatenmessgeräts
DE102014202977A1 (de) Bestimmung von Koordinaten eines Werkstücks unter Verwendung eines Koordinatenmessgeräts
DE10030809A1 (de) Verfahren und Vorrichtung zur optischen Messung
WO2009018894A1 (de) Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts
WO2008135530A1 (de) Verfahren für koordinatenmessgeräte mit bildverarbeitunssensor

Legal Events

Date Code Title Description
OAV Applicant agreed to the publication of the unexamined application as to paragraph 31 lit. 2 z1
8122 Nonbinding interest in granting licences declared
8141 Disposal/no request for examination