DE10025741A1 - Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung - Google Patents

Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung

Info

Publication number
DE10025741A1
DE10025741A1 DE10025741A DE10025741A DE10025741A1 DE 10025741 A1 DE10025741 A1 DE 10025741A1 DE 10025741 A DE10025741 A DE 10025741A DE 10025741 A DE10025741 A DE 10025741A DE 10025741 A1 DE10025741 A1 DE 10025741A1
Authority
DE
Germany
Prior art keywords
sensor arrangement
unit
projector
projection
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10025741A
Other languages
English (en)
Other versions
DE10025741C2 (de
Inventor
Matthias Heinze
Gunther Notni
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE10025741A priority Critical patent/DE10025741C2/de
Priority to EP01945128A priority patent/EP1285226A1/de
Priority to PCT/EP2001/005469 priority patent/WO2001090688A1/de
Publication of DE10025741A1 publication Critical patent/DE10025741A1/de
Application granted granted Critical
Publication of DE10025741C2 publication Critical patent/DE10025741C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2527Projection by scanning of the object with phase change by in-plane movement of the patern

Abstract

Es wird ein Verfahren und eine Vorrichtung zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung vorgeschlagen, bei denen der Gegenstand mit einer Projektionsvorrichtung aus mindestens zwei Richtungen mit Lichtmustern beleuchtet wird, die mit einer zweidimensional auflösenden Sensoranordnung punktweise aufgezeichnet werden. Für den jeweiligen aufgezeichneten Punkt der Oberfläche des Gegenstandes werden mindestens vier Phasenmesswerte bestimmt und daraus die räumlichen Koordinaten der Punkte und/oder deren zeitliche Änderung sowie Kenngrößen des Messsystems berechnet. Der Gegenstand wird zur Erfassung aus unterschiedlichen Ansichten bei unterschiedlichen Positionen der Sensoranordnung aufgezeichnet, und bei einer neuen Position der Sensoranordnung wird mindestens eine Projektionsrichtung so gewählt, dass sie mit einer Projektionsrichtung der vorhergehenden Position der Sensoranordnung übereinstimmt. In diesen beiden Projektionsrichtungen sind die Phasenmesswerte völlig identisch und werden nur an anderen Positionen einer innerhalb der zweidimensionalen Sensoranordnung registriert. Daraus wird eine Verknüpfungsvorschrift zwischen den Aufzeichnungspunkten der Sensoranordnung bei der neuen und der vorhergehenden Position bestimmt.

Description

Die Erfindung betrifft ein Verfahren zur berührungs­ losen Bestimmung der räumlichen Koordinaten von Ge­ genständen und/oder deren zeitlicher Änderung nach dem Oberbegriff des Hauptanspruchs.
Zur berührungslosen flächenhaften Erfassung von Ober­ flächenformen, Oberflächengeometrien oder Koordinaten ausgewählter Punkte werden verschiedene optische Prinzipien eingesetzt. Allen Verfahren ist dabei ge­ meinsam, daß die Bestimmung der 3-D-Koordinaten eines Oberflächenmesspunktes nur dann möglich ist, wenn mindestens drei unabhängige Meßwerte für diesen Punkt vorliegen. Zusätzlich gehen Annahmen über die Geome­ trie des Messsystems in das Ergebnis ein.
Ein Verfahren ist die klassische Streifenprojektion­ stechnik, die mit einer oder mehreren CCD-Kameras und einem Projektor realisiert wird. (DE 41 20 115 C2, DE 41 15 445 A1. In derartigen Vorrichtungen werden die Gitterlinien oder Gray-Code-Sequenzen auf die zu ver­ messende Oberfläche projiziert. Eine CCD-Kamera regi­ striert an jedem ihrer Empfänger Elemente die Inten­ sität eines Bildpunktes auf der Oberfläche. Mit be­ kannten mathematischen Algorithmen werden aus den In­ tensitätsmesswerten Phasenmesswerte berechnet. Die gesuchten Objektkoordinaten können nachfolgend aus den Phasenmesswerten und den Bildkoordinaten der Messpunkte in der Bildebene des Aufnahmesystems be­ rechnet werden. Voraussetzung dafür ist allerdings die Kenntnis der Geometrie des Messsystems (Orientie­ rungsparameter von Projektor und Kamera) sowie der Abbildungseigenschaften der Projektions- und Abbil­ dungsoptik.
Die Anzahl der zu bestimmenden Orientierungsparameter lässt sich erheblich einschränken, wenn ausschließ­ lich die Phasenmesswerte zur Koordinatenberechnung verwendet werden. In solchen Systemen bestimmt die Lage eines einzelnen Empfängerelementes im Aufnahme­ system ausschließlich den Messort, wird aber als Messinformation nicht ausgewertet. Durch Beleuchtung der Szene aus mehreren, aber mindestens drei Projek­ tionsrichtungen mit Gitterlinien oder auch Gray-Code- Sequenzen und Beobachtung mit einer oder mehreren in Bezug zum Objekt fest positionierten Kameras, lassen sich beispielsweise Koordinaten bei bekannter Geome­ trie des Beleuchtungssystems berechnen. In allen die­ sen Systemen müssen die Systemparameter (Orientie­ rungsparameter) separat erfasst werden, wobei dies typischerweise durch eine sogenannte Vorabkalibrie­ rung des Systems geschieht. Dabei werden Kalibrier­ körper mit bekannter Geometrie vermessen, mit Hilfe derer die Geometrieparameter des Messaufbaus modelliert werden (DE 195 36 297 A1). Unbrauchbar ist die­ se Vorgehensweise immer dann, wenn Geometrieparameter in weiteren Messungen nicht konstant gehalten werden können, beispielsweise durch Temperatureinflüsse oder in Folge mechanischer Beanspruchung des Systems oder wenn bedingt durch die Komplexität der Messaufgabe eine variable Sensoranordnung gefordert wird und da­ her eine Vermessung mit vorab festgelegten Anordnun­ gen nicht in Frage kommt.
Photogrammetrische Messverfahren überwinden die Schwierigkeit einer separaten Einmessprozedur. Als Messinformationen dienen hier die Bildkoordinaten, also die Lage der Messpunkte im Raster des Aufnahme­ systems. Aus mindestens zwei unterschiedlichen Kame­ rapositionen müssen für einen Objektpunkt die Bildko­ ordinaten bekannt sein. Vorteilhaft bei diesen Mess­ verfahren ist dabei, daß pro Messpunkt ein überzähli­ ger Messwert gewonnen werden kann, d. h. bei zwei Ka­ merapositionen liegt ein Messwert mehr vor, als für die Berechnung der drei Koordinaten eines Punktes er­ forderlich ist. Auf diese Weise ist es bei hinrei­ chend vielen Messpunkten möglich, simultan Koordina­ ten, innere und äußere Orientierungsparameter der Ka­ meras sowie Korrekturparameter für die Verzeichnung zu berechnen. Schwierigkeiten ergeben sich jedoch bei dem Auffinden der dazu notwendigen homologen Punkten, vor allem für sehr viele Messpunkte. Hierzu müssen in aufwendigen Bildverarbeitungsprozeduren Texturen oder Oberflächenstrukturierungen aus verschiedenen Aufnah­ men in Verhältnisse gesetzt werden (DE 195 36 296 A1). Gerade für eine vollständige flächenhafte Erfas­ sung einer Objektoberfläche ist dies nicht mit ver­ tretbarem Aufwand möglich. Auch sind Markierungen als Verknüpfungspunkte für das Zusammenfügen der Teilan­ sichten erforderlich.
In der DE 196 37 682 A1 wird ein System vorgeschla­ gen, welches diese Probleme überwindet. Dabei be­ leuchtet ein Projektionssystem die Szene mit einer Serie von Streifenbildern, bestehend aus zwei zuein­ ander um 90° verdrehten Sequenzen. Solche aus zwei unterschiedlichen Positionen auf das Objekt proji­ zierte Streifenbilder ermöglichen bei gleichzeitiger Beobachtung mit einer fest positionierten Kamera, ei­ ne Auswertung gemäss dem funktionalen Modell der Pho­ togrammetrie. Nachteile dieses Systemkonzeptes erge­ ben sich vor allem bei der vollständigen Vermessung von komplexen Objekten. Mit der Komplexität des Messobjektes steigt auch die Anzahl der notwendigen Ansichten. Es ist aber nicht sinnvoll, die Anzahl der Kameras zu erhöhen, da eine Messinformation nur an einem Objektpunkt vorliegt, der sowohl aus zwei un­ terschiedlichen Richtungen beleuchtet wird, als auch von der Kamera beobachtet wird. Das Justieren des Messsystems, d. h. das Einrichten der erforderlichen Kameras gestaltet sich darüber hinaus umso schwieri­ ger, je mehr Ansichten eingerichtet werden müssen. Für komplexe Messaufgaben ist ein solches voraus­ schauendes Einrichten des Sensorsystems nicht immer befriedigend möglich. Nachteilig bei bekannten Ver­ fahren ist außerdem, daß das Ergebnis der Messung für eine Bewertung immer erst am Ende des kompletten Messprozesses zur Verfügung steht. Eine Zwischenaus­ wertung und darauf aufbauend eine angepasste Positio­ nierung des Projektors und der Kamera(s) ist dabei nicht möglich.
Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung und eine Vorrichtung zur Durchführung des Verfahrens zu schaffen, mit der eine Vermessung von komplexen Gegenständen ohne Markierungen oder Texturen und ohne das Auffinden von homologen Punkten zu schaffen, ohne daß geometrische oder optische Systemgrößen vorab be­ kannt sein oder kalibriert werden müssen.
Diese Aufgabe wird erfindungsgemäß durch die kenn­ zeichnenden Merkmale des Hauptanspruchs gelöst.
Dadurch, daß der Gegenstand bzw. das Objekt jeweils aus mindestens zwei Richtungen mit einer Serie von Lichtmustern beleuchtet wird und der Gegenstand mit Lichtmustern zur Erfassung aus unterschiedlichen An­ sichten bei unterschiedlichen Positionen der Sen­ soranordnung aufgezeichnet wird, wobei bei einer neu­ en Position der Sensoranordnung die Projektionsrich­ tung relativ zum Gegenstand in Bezug auf die vorher­ gehende Position nicht geändert wird, kann aus den gefundenen gleichen Meßinformationen in Form der Lichmuster eine Zuordnungsvorschrift der Messpunkte in der Bildebene der Sensoranordnung gefunden werden. Auf diese Weise ist eine Vermessung von komplexen Ob­ jekten oder auch eine Rundumvermessung möglich. Es werden keine Markierungen oder Texturen oder auch be­ sondere Objekteigenschaften für das Auffinden der ho­ mologen Punkte benötigt. Das Ergebnis der Messung liegt ohne zusätzliche Matchingprozeduren in einem einheitlichen Koordinatensystem vor. Dabei ist das System selbsteinmessend, es müssen vor einer Messung keinerlei geometrische oder optische Systemgrößen be­ kannt sein oder kalibriert werden. Die Anzahl der zu digitalisierenden Objektansichten und damit die Ge­ samtanzahl der Messpunkte ist nicht begrenzt. Das Ob­ jekt kann in einem schrittweisen Prozess erfasst wer­ den, wobei nach dem Abschluss einer Kameraansicht die 3-D-Koordinaten dieser Ansicht vorliegen. Dies ermöglicht insbesondere eine Bewertung des Zwischenergeb­ nisses im 3-D-Raum hinsichtlich Vollständigkeit. Es können darüber hinaus technische sehr einfache auto­ matische Messsysteme aufgebaut werden, wobei diese trotzdem in der Lage sind, komplexe Objekte vollstän­ dig und flächenhaft zu erfassen.
Ausführungsbeispiele der Erfindung sind in der Zeich­ nung dargestellt und werden in der nachfolgenden Be­ schreibung näher erläutert. Es zeigen:
Fig. 1a das erfindungsgemäße Prinzip bei der Vermes­ sung, wobei Kamera, zwei Projektorpositionen und Gegenstand in der Ausgangsposition sind,
Fig. 1b das erfindungsgemäße Prinzip der Vermessung mit Anschlußorientierung bei neuer Position der Kamera und zwei Positionen des Projek­ tors, wobei die letzte Projektorposition entsprechend Fig. 1a beibehalten ist,
Fig. 2 ein erstes Ausführungsbeispiel einer Vor­ richtung zur Durchführung des erfindungsge­ mäßen Verfahrens, bei der Projektor und Ka­ mera im Raum frei beweglich sind,
Fig. 3 ein zweites Ausführungsbeispiel einer Vor­ richtung zur Durchführung des erfindungsge­ mäßen Verfahrens mit zwei planaren Rotati­ onseinheiten, und
Fig. 4 ein drittes Ausführungsbeispiel einer Vor­ richtung zur Durchführung des erfindungsge­ mäßen Verfahrens mit zwei orbitalen Rotati­ onseinheiten.
Das erfindungsgemäße Verfahren wird im Folgenden un­ ter Heranziehung von Fig. 1 und Fig. 2 beschrieben. Der zu vermessende Gegenstand bzw. das Objekt, das beispielsweise auf einem Messtisch befestigt ist, ist mit dem Bezugszeichen 1, ein Projektor auf einem Sta­ tiv mit 3 und eine Sensoreinrichtung, im Ausführungs­ beispiel eine CCD-Kamera auf einem Stativ mit 2 be­ zeichnet. In Fig. 2a sind zwei verschiedene Positio­ nen des Streifenprojektors 3 dargestellt, die Positi­ on 3.1 mit durchgezogenen Linien und die Position 3.2 in gestrichelten Linien. Die Kamera 2 nimmt in Fig. 2a die Position 2.1 ein. Der Projektor 3 projiziert auf das zu vermessende Objekt 1 oder einen Objektbe­ reich ein oder mehrere Liniengitter und/oder Gray- Code-Sequenzen ab. Die Kamera in der Kameraposition 2.1 registriert an jedem ihrer Empfängerelemente die Intensität der auf dem Objekt 1 abgebildeten Strei­ fenbilder als Messwerte. Anschließend wird das Gitter und/oder die Gray-Code-Sequenz um 90° gedreht und er­ neut auf den Gegenstand 1 projiziert, wobei die Dreh­ achse parallel zur Gitternormalen liegt. In Fig. 2a sind nur zwei Projektorpositionen 3.1 und 3.2 darge­ stellt, die die Beleuchtungsrichtung bestimmen, übli­ cherweise werden weitere Projektorpositionen vorgese­ hen, bei denen die Liniengitter bzw. die Gray-Code- Sequenzen mit entsprechender zwischenzeitlicher Dre­ hung um 90° auf das Objekt 1 projiziert werden. Der Standpunkt der Kamera 2 bleibt dabei relativ zum Ob­ jekt unverändert, die Intensitätsmesswerte werden von der Kamera 2 immer am gleichen Element auf der Objek­ toberfläche registriert, wobei die Lage der Empfän­ gerelemente i, j (siehe Fig. 1a) den Ort der Objekto­ berfläche, an dem gemessen wird, bestimmt.
Fig. 1a stellt die Ausgangsposition bei der Vermes­ sung entsprechend Fig. 2a dar, wobei die Kamera 2.1 mit einem Raster aus Empfängerelementen i, j das Ob­ jekt 1 beobachtet. In jeder Projektorposition werden bedingt durch die zwischenzeitliche Drehung des Lini­ engitters bzw. der Gray-Code-Sequenz und mit bekann­ ten Algorithmen grundsätzlich pro Empfängerelement der Kamera zwei Messinformationen ξi, ηi gewonnen in Form von Phasenmeßwerten, die Koordinaten in der Git­ terebene des Projektionssystems entsprechen. ξi ist der Phasenmesswert in der einen Stellung des Linien­ gitters bzw. der Gray-Code-Sequenz (erste Sequenz) und ηi der Phasenmesswert des um 90° verdrehten Git­ ters bzw. Gray-Code-Sequenz (zweite Sequenz) in einer Serie von Projektorpositionen (i = 1. .n). Aus den zwei in Fig. 2a dargestellten unterschiedlichen Projektor­ positionen 3.1, 3.2 stehen im Raster der Kamera nach der Projektion die Phasenmeßwerte ξ1, ξ2 und η1, η2 zur Verfügung.
Für die Auswertung der Phaseninformation hinsichtlich der Berechnung der 3-D-Koordinaten ist es erforder­ lich, die Geometrieparameter des Projektionssystems zu kennen. Die Raumlage der einzelnen Projektorposi­ tionen wird durch sechs äußere Orientierungsparameter (drei Koordinaten der Projektionszentren, drei Eule­ resche Drehwinkel um die mitgedrehten Koordinatenach­ sen) festgelegt. Zur Berechnung dieser Geometriegrö­ ßen wird mit funktionalen Modellen der Photogramme­ trie ein Gleichungssystem aufgestellt. Als Eingangs­ größen dienen die gemessenen bzw. aus den Messwerten berechneten Phasenwerte. Werden in der in Fig. 1a und Fig. 2a dargestellten ersten Kameraposition 2.1 als erste Ansicht mindestens aus den zwei Beleuchtungs­ richtungen 3.1, 3.2 Streifenbilder in beschriebener Weise projiziert, so können 3-D-Koordinaten berechnet werden. Die Auswertung läßt sich in folgenden Schrit­ ten zusammenfassen:
  • 1. Mit bekannten Phasenberechnungs- und Versteti­ gungsalgorithmen gegebenenfalls unter Zuhilfe­ nahme der Gray-Code-Sequenzen werden Phasenbil­ der bzw. Phasenwertdifferenzen für jede Beleuch­ tungsrichtung berechnet.
  • 2. Die so berechneten Phasendifferenzen werden durch 2 Pi dividiert und mit dem Linienabstand des Gitters multipliziert. An die so berechneten Phasenmeßwerte wird ein Offset in der Weise an­ gebracht, daß der Phasennullpunkt des im Durch­ stoßungspunkt der optischen Achse durch die Git­ terebene des Projektors liegt. Die so gewonnene Bildinformation entspricht Koordinaten in der Gitterebene des Projektionssystems wie sie aus der Photogrammetrie bekannt sind.
  • 3. Eine Auswahl von Phasenmeßwerten nach bestimmten Kriterien ist notwendig, wenn die Anzahl der Messpunkte sehr hoch ist. Diese Auswahl kann in einem vordefinierten Raster von Bildelementen der Kamera, anhand von Qualitätskriterien der Phasenbilder, wie z. B. Modulation oder interak­ tiv, d. h. an beliebig über das Messfeld verteil­ ten Punkten vorgenommen werden.
  • 4. Mit den in Schritt 3 gewonnen Phasenmeßwerten werden mit bekannten photogrammetrischen Bündel­ blockausgleichsalgorithmen die Orientierungspa­ rameter des Projektors berechnet. Zusätzlich können auch Korrekturparameter für Abbildungs­ fehler der Projektoroptik bestimmt werden.
  • 5. An jedem Sensorelemente der Kamera kann nun ein Gleichungssystem gelöst werden, wenn mindestens drei Phasenmeßwerte bekannt sind. Die Eingangs­ größen dieses Gleichungssystems sind die in Schritt 2 gewonnenen Phasenmeßwerte, die Orien­ tierungsparameter und gegebenenfalls Korrektur­ parameter der Projektoroptik die aus Schritt 4 bekannt sind.
Als Ergebnis werden die 3-D-Koordinaten für die erste Objektansicht erhalten, die zur Verfügung stehen und mit geeigneten Darstellungsprogrammen angezeigt und bewertet werden können. Alle Koordinaten liegen in einem Koordinatensystem, so daß mit Abschluß der Ko­ ordinatenberechnung keine weitere Nachbearbeitung mehr notwendig ist.
Für eine weitere Objektansicht ist es nun notwendig, eine neue Kameraposition einzustellen. Dies ist in Fig. 1b und Fig. 2b dargestellt. Die Position der letzten Beleuchtungsrichtung bzw. der letzten Projek­ torposition 3.2 wird beibehalten und die Kamera 2 wird von der Position 2.1 in die Position 2.2 ver­ setzt. Da die letzte Projektorposition 3.2 gleich 3.3 (Fig. 1b) beibehalten wird, kann eine Anschlußorien­ tierung erreicht werden. Wenn die Kamera in die neue Position 2.2 verschoben wird, verändert sich die Zu­ ordnung von Pixelindex der Kamera i2 und j2 und Ob­ jekt. Eine durch das Bezugszeichen 4 in Fig. 1b ange­ deutete Rücktransformation wird über die Phasenmeß­ werte des Projektors erreicht, da die Projektorposi­ tion 3.2 in Fig. 1a und 3.3 in Fig. 1b exakt die gleichen Phasenmeßwerte ξ, η liefern.
Um auch 3-D-Koordinaten für diese zweiten Ansicht, d. h. Position 2.2 der Kamera 2 zu erhalten, ist es wieder notwendig, die mindestens benötigten zwei Pro­ jektorpositionen für diese Ansicht einzustellen. Dies wird in Fig. 2c und in Fig. 1b durch die Beleuch­ tungsrichtung 3.4 erhalten werden. Entsprechend Fig. 2c bleibt die Position 2.2 der Kamera 2 unverändert und der Projektor 2 wird aus der Position 3.3 in die Position 3.4 verschoben. Die Verknüpfung der beiden Ansichten entsprechend Fig. 1a und Fig. 1b ist nach folgendem Ablaufschema möglich:
  • 1. Auffinden von gleichen Phasenmeßwerten in den beiden Objektansichten, wobei dies dann gegeben ist, wenn die beiden Ansichten überlappende Be­ reiche aufweisen.
  • 2. Die gefundenen gleichen Phasenmeßwerte in den beiden Objektansichten definieren eine Zuord­ nungsvorschrift, die über die Pixelindizes des Aufnahmesystems an denen gleiche Phasenmesswerte gefunden wurden, womit sich eine Anschlußorien­ tierung der neuen Objektansicht erreichen läßt. In der Projektionsrichtung 3.2 in Fig. 1a wird in der Objektansicht 2.1 an der Pixelposition i1, j1 die Phasenmesswerte ξ2, η2 registriert. Wird nun, wie in Fig. 1b dargestellt, das Auf­ nahmesystem versetzt um eine neue Objektansicht zu erreichen (2.2) aber die Projektionsrichtung beibehalten, so werden nun an einer neuen Pixel­ position i2, j2 die gleichen Phasenmesswerte ξ2, η2 erhalten. Die Zuordnungsvorschrift besagt dann, daß über die gleichen Phasenmesswerte ξ2, η2 die Pixelposition i1, j1 der Pixelposition i2, j2 zugeordnet werden kann.
  • 3. Die nun folgende mindestens eine Beleuchtungspo­ sition (Position 3.4) muß mit den Beleuchtungs­ position der ersten Ansicht in einem einheitli­ chen Koordinatensystem orientiert werden. Das ist die Voraussetzung für ein einheitliches Ko­ ordinatenfeld. Mit der aus Schritt 2 gewonnen Zuordnungsvorschrift können die für die An­ schlussorientierung notwendigen Phasenmeßwerte gewonnen werden.
  • 4. Zusätzlich können aber auch in der neuen Ansicht neue Punkte ausgewählt werden, die als Verknüp­ fungspunkte für eine nachfolgende Ansicht die­ nen, wenn die nächste Ansicht die Verknüpfungs­ punkte beinhaltet.
Die Messvorschrift des wechselseitigen, aber niemals gleichzeitigen Umsetzens von Projektor und Kamera kann nun fortgesetzt werden, bis das Objekt in genü­ gender Weise vollständig vermessen ist. Der Benutzer kann die Vollständigkeit der Messung jederzeit beur­ teilen, da die Zwischenergebnisse jederzeit verfügbar sind. Mit dieser oben beschriebenen Messvorschrift ist es möglich, eine klaffungsfreie Zuordnung zu der jeweils vorhergehenden Ansicht zu schaffen. Weiterhin ist kein interaktives Auffinden von Strukturmerkmalen oder Texturen auf dem Objekt notwendig und das Anein­ anderfügen der Einzelansichten ist völlig unabhängig von den Eigenschaften des Objektes. In Fig. 3 ist ein zweites Ausführungsbeispiel einer Vorrichtung zur Durchführung des oben beschriebenen Verfahrens darge­ stellt. Dabei ist das Objekt 1 auf einem Objekttisch 5 in der Mitte von zwei konzentrischen Dreh- oder Ro­ tationseinheiten 6, 7 angeordnet. Diese Rotationsein­ heiten 6, 7 sind unabhängig voneinander um den Ob­ jekttisch 5 herum verdrehbar. Der Projektor 3 ist an einem mit der Rotationseinheit 6 verbundenen Ständer befestigt, während die Kamera 2 an einem mit der Ro­ tationseinheit 7 verbundenen Ständer 9 befestigt. Projektor 3 und Kamera 2 sind an den jeweiligen Ständern 8, 9 in der Höhe verstellbar, vorzugsweise sind sie auf Schienen befestigt, die eine variable Ein­ stellung der Beobachtungs- bzw. Projektionshöhe er­ möglichen. Durch geeignete Wahl der Befestigung ist eine Justage, d. h. das Einrichten der Projektions- bzw. Abbildungsfelder auf das Messobjekt 1 möglich.
Die notwendigen Schritte für eine Formvermessung nach dem oben beschriebenen Prinzip sind wie folgt. Zur Aufnahme der ersten Objektansicht wird die Kamera 2 durch Drehen der Rotationseinheit 7, durch Höhenver­ schiebung und Ausrichtung positioniert. Für die Pro­ jektion der Streifensequenzen wird der Projektor 3 in entsprechender Weise durch Drehen der Rotationsein­ heit 6 und Verschieben des Projektors 3 an dem Stän­ der 8 positioniert. Es werden, wie beschrieben, Git­ tersequenzen projiziert und die Kamera digitalisiert an den sichtbaren beleuchteten Objektpunkten Intensi­ tätswerte. Ist die letze Projektionsrichtung einer Ansicht erreicht, bewegt sich die Kamera 2 zur Auf­ nahme einer weiteren Objektansicht, wobei die Positi­ on des Projektors 3 unverändert bleibt. Dieser Ablauf wird solange wiederholt, bis die vorgegebene Anzahl von Objektansichten, d. h. Kamerapositionen erreicht wurde oder durch die algorithmische Auswertung der 3- D-Messdaten das Objekt als vollständig vermessen klassifiziert wurde.
Fig. 4 zeigt eine weitere Vorrichtung zur Durchfüh­ rung des erfindungsgemäßen Verfahrens. Entsprechend der Figur sind zwei orbitale Rotationseinheiten 10, 11 vorgesehen, die unabhängig voneinander drehbar ge­ lagert sind und die jeweils halbkreisförmig sind und vorzugsweise als Schienen ausgebildet sind. Der Pro­ jektor 3 und die Kamera 2 sind jeweils an den Schie­ nen verschieblich gelagert, so daß ihre Positionierung innerhalb der Schienen uneingeschränkt möglich ist. Die schienenförmigen Rotationseinheiten 10, 11 sind mindestens um 180°, gegebenenfalls um 360° über Antriebe 12, 13 drehbar. Die Lage des das Messobjekt aufnehmenden Objekttisches ist positionsneutral in Bezug auf die beiden Rotationseinheiten 10, 11. Durch diese Anordnung wird eine vollständige Rundumvermes­ sung des Objektes ermöglicht. Sowohl die Kamera 2 als auch der Projektor 3 können durch Drehen der jeweili­ gen Rotationseinheit 10, 11 und Verschieben innerhalb der jeweiligen Schiene an jeden beliebigen Ort im Or­ bit des Messobjektes positioniert werden. Entschei­ dend ist weiterhin, daß bei einer Neupositionierung von Kamera oder Projektor keine neue Ausrichtung des Bildfeldes auf das Messobjekt notwendig ist. Auch die Nachjustierung der entsprechenden Optik entfällt.

Claims (8)

1. Verfahren zur Bestimmung der räumlichen Koordi­ naten von Gegenständen und/oder deren zeitlicher Änderung, bei dem der Gegenstand mit einer Pro­ jektionsvorrichtung aus mindestens zwei Richtun­ gen mit Lichtmustern beleuchtet wird, die mit einer zweidimensional auflösenden Sensoranord­ nung punktweise aufgezeichnet werden und wobei für den jeweiligen aufgezeichneten Punkt der Oberfläche des Gegenstandes mindestens vier Pha­ senmesswerte bestimmt und daraus die räumlichen Koordinaten der Punkte und/oder deren zeitliche Änderung sowie Kenngrößen des Messsystems be­ rechnet werden, dadurch gekennzeichnet,
daß der Gegenstand zur Erfassung aus unter­ schiedlichen Ansichten bei unterschiedlichen Po­ sitionen der Sensoranordnung aufgezeichnet wird,
daß bei einer neuen Position der Sensoranordnung (2) mindestens eine Projektionsrichtung so ge­ wählt wird, daß sie mit einer Projektionsrich­ tung der vorhergehenden Position der Sen­ soranordnung übereinstimmt, wobei in diesen bei­ den Projektionsrichtungen die Phasenmeßwerte völlig identisch sind und nur an anderen Posi­ tionen einer innerhalb der zweidimensionalen Sensoranordnung registriert werden und daraus eine Verknüpfungsvorschrift zwischen den Auf­ zeichnungspunkten der Sensoranordnung (2) bei der neuen und der vorhergehenden Position be­ stimmt wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeich­ net, daß nach Einstellen einer neuen Position der Sensoranordnung (3) zur Abfassung des Objek­ tes (1) aus einer anderen Ansicht die letzte Po­ sition des Projektors relativ zum Objekt bei der vorhergehenden Position der Sensoranordnung nicht geändert, wird.
3. Verfahren nach Anspruch 1 oder Anspruch 2, da­ durch gekennzeichnet, daß eine Verknüpfungsvor­ schrift oder auch Zuordnungsvorschrift zur Ver­ knüpfung der erhaltenden Ansichten in ein ge­ meinsames Koordinatensystem durch Rücktransfor­ mation über die Lichtmuster oder auch Phasenmeß­ werte des Projektionsssystems bestimmt wird.
4. Verfahren nach einem der Ansprüche 1 bis 3, da­ durch gekennzeichnet, daß der Gegenstand aus je­ der Projektionsrichtung in einem ersten Schritt mit einem Liniengitter und/oder Gray-Code- Sequenzen und in einem zweiten Schritt mit dem um 90° versetzten Liniengitter und/oder um 90° versetzten Gray-Code-Sequenzen beleuchtet wird.
5. Vorrichtung zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 4 mit mindestens einer Sensoreinheit (2), mindestens einer Projek­ toreinheit (3) und einem den zu vermessenden Ge­ genstand aufnehmenden Messtisch (5) sowie eine Auswerteeinrichtung, die abhängig von den Infor­ mationen der Sensoreinheit und der Projektorein­ heit die dreidimensionalen Koordinaten des Ob­ jektes berechnet, wobei die Projektoreinheit (3) und die Sensoreinheit (2) unabhängig frei von­ einander beweglich sind.
6. Vorrichtung nach einem der Ansprüche 1 bis 4 mit einer Sensoreinheit (2), mindestens einer Pro­ jektoreinheit (3) und einem den zu vermessenden Gegenstand aufnehmenden Messtisch (5) sowie eine Auswerteeinrichtung, die abhängig von den Infor­ mationen der Sensoreinheit und der Projektorein­ heit die dreidimensionalen Koordinaten des Ob­ jektes berechnet, wobei die Projektoreinheit (3) und die Sensoreinheit (2) auf jeweils einer Dre­ heinheit (6, 7) angeordnet sind, in deren Mit­ telpunkt sich der Messtisch (5) befindet und die unabhängig voneinander verdrehbar sind.
7. Vorrichtung nach Anspruch 6, dadurch gekenn­ zeichnet, daß die Dreheinheiten (6, 7) planar sind und auf den Dreheinheiten (6, 7) Translati­ onseinheiten (8, 9) befestigt sind, an denen die Sensoreinheit (2) und die Projektoreinheit (3) unabhängig voneinander in der Höhe verschiebbar sind.
8. Vorrichtung nach Anspruch 7, dadurch gekenn­ zeichnet, daß die Dreheinheiten (10, 11) orbita­ le Dreheinheiten sind, die kreisbahnförmig aus­ geführt sind und an denen die Projektionseinheit und die Sensoreinheit unabhängig voneinander kreisbahnförmig verschiebbar sind.
DE10025741A 2000-05-19 2000-05-19 Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung Expired - Fee Related DE10025741C2 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE10025741A DE10025741C2 (de) 2000-05-19 2000-05-19 Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung
EP01945128A EP1285226A1 (de) 2000-05-19 2001-05-14 Verfahren zur bestimmung der räumlichen koordinaten von gegenständen und/oder deren zeitlicher änderung
PCT/EP2001/005469 WO2001090688A1 (de) 2000-05-19 2001-05-14 Verfahren zur bestimmung der räumlichen koordinaten von gegenständen und/oder deren zeitlicher änderung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10025741A DE10025741C2 (de) 2000-05-19 2000-05-19 Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung

Publications (2)

Publication Number Publication Date
DE10025741A1 true DE10025741A1 (de) 2001-11-29
DE10025741C2 DE10025741C2 (de) 2002-06-13

Family

ID=7643416

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10025741A Expired - Fee Related DE10025741C2 (de) 2000-05-19 2000-05-19 Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung

Country Status (3)

Country Link
EP (1) EP1285226A1 (de)
DE (1) DE10025741C2 (de)
WO (1) WO2001090688A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003091660A1 (de) * 2002-04-24 2003-11-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten eines gegenstandes
WO2004097335A1 (en) * 2003-04-25 2004-11-11 Ecole Polytechnique Federale De Lausanne (Epfl) Shape and deformation measurements of large objects by fringe projection
US8473256B2 (en) 2008-11-04 2013-06-25 Airbus Operations Gmbh System and method for providing a digital three-dimensional data model
DE102013221415A1 (de) * 2013-10-22 2015-04-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Erfassung eines Objekts

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008043445A1 (de) * 2008-11-04 2010-05-06 Airbus Deutschland Gmbh System und Verfahren zum Bereitstellen eines digitalen dreidimensionalen Datenmodells
DE102016102360B4 (de) * 2016-02-11 2018-06-07 Kohnle GmbH Messanordnung und Verfahren zum optischen Vermessen von Zerspanungswerken

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19502459A1 (de) * 1995-01-28 1996-08-01 Wolf Henning Verfahren zur dreidimensionalen optischen Vermessung der Oberfläche von Objekten
WO2000026615A1 (de) * 1998-11-04 2000-05-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur bestimmung der räumlichen koordinaten von gegenständen

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4007502A1 (de) * 1990-03-09 1991-09-12 Zeiss Carl Fa Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen
US5506683A (en) * 1990-04-30 1996-04-09 Kumho & Co., Inc. Non-contact measuring apparatus for the section profile of a tire and its method
GB9716240D0 (en) * 1997-07-31 1997-10-08 Tricorder Technology Plc Scanning apparatus and methods

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19502459A1 (de) * 1995-01-28 1996-08-01 Wolf Henning Verfahren zur dreidimensionalen optischen Vermessung der Oberfläche von Objekten
WO2000026615A1 (de) * 1998-11-04 2000-05-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur bestimmung der räumlichen koordinaten von gegenständen

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003091660A1 (de) * 2002-04-24 2003-11-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten eines gegenstandes
DE10219054A1 (de) * 2002-04-24 2003-11-20 Fraunhofer Ges Forschung Verfahren zur Bestimmung der räumlichen Koordinaten eines Gegenstandes
DE10219054B4 (de) * 2002-04-24 2004-08-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Bestimmung der räumlichen Koordinaten eines Gegenstandes
US7136170B2 (en) 2002-04-24 2006-11-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method and device for determining the spatial co-ordinates of an object
WO2004097335A1 (en) * 2003-04-25 2004-11-11 Ecole Polytechnique Federale De Lausanne (Epfl) Shape and deformation measurements of large objects by fringe projection
US8473256B2 (en) 2008-11-04 2013-06-25 Airbus Operations Gmbh System and method for providing a digital three-dimensional data model
DE102013221415A1 (de) * 2013-10-22 2015-04-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Erfassung eines Objekts
EP3060878B1 (de) * 2013-10-22 2020-06-03 Fraunhofer Gesellschaft zur Förderung der Angewand Verfahren und vorrichtung zur erfassung eines objekts mit kreisbogenförmigen trageelementen
US10880538B2 (en) 2013-10-22 2020-12-29 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method and apparatus for detecting an object with circular-arc-shaped supporting elements

Also Published As

Publication number Publication date
WO2001090688A1 (de) 2001-11-29
EP1285226A1 (de) 2003-02-26
DE10025741C2 (de) 2002-06-13

Similar Documents

Publication Publication Date Title
DE10219054B4 (de) Verfahren und Vorrichtung zur Bestimmung der räumlichen Koordinaten eines Gegenstandes
DE102007054906B4 (de) Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten
EP0534284B1 (de) Verfahren und Vorrichtung zur Bestimmung der Absolut-Koordinaten eines Objektes
EP2212646B1 (de) Verfahren zur optischen vermessung von objekten unter verwendung eines triangulationsverfahrens
EP0897524B1 (de) Vorrichtung zum berührungsfreien vermessen einer dreidimensionalen objektoberfläche
DE19637682B4 (de) Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung und Vorrichtung zur Anwendung dieses Verfahrens
DE19502459A1 (de) Verfahren zur dreidimensionalen optischen Vermessung der Oberfläche von Objekten
DE102006049695A1 (de) Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
DE102009032262A1 (de) Verfahren zur Bestimmung der 3D-Koordinaten eines Objekts
DE19623172C1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE112014001391T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
EP2574876A1 (de) Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
EP1485670A2 (de) Verfahren und vorrichtung zur bestimmung der absolut-koordinaten eines objekts
EP3628995A1 (de) Kalibriervorlage und kalibrierverfahren zum geometrischen kalibrieren einer vielzahl von kameras eines kamera-arrays
DE19626889A1 (de) Verfahren und Vorrichtung zur Erfassung von Geometriedaten aus unterschiedlichen Beobachtungspositionen
DE4142676A1 (de) Verfahren und vorrichtung zur vermessung von objekten, insbesondere zahnraedern, mittels projizierter streifenmuster
DE10025741C2 (de) Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung
DE4011407A1 (de) Vorrichtung zur quantitativen absolutvermessung der dreidimensionalen koordinaten eines pruefobjekts
DE102004058655A1 (de) Verfahren und Anordnung zum Messen von Geometrien eines Objektes mittels eines Koordinatenmessgerätes
DE19846145A1 (de) Verfahren und Anordung zur 3D-Aufnahme
DE102007038785A1 (de) Verfahren und Vorrichtung zum Bestimmen von Geometriedaten eines Messobjekts
EP2660560A1 (de) Verfahren zur Ermittlung der Oberflächengeometrie eines Tunnelabschnitts
DE102004046752B4 (de) Verfahren zur dreidimensionalen Erfassung von Messobjekten
DE102022112625A1 (de) Verfahren und Vorrichtung zur Ausrichtung von Kameras

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee