DE10137241A1 - Registrierung von Tiefenbildern mittels optisch projizierter Marken - Google Patents

Registrierung von Tiefenbildern mittels optisch projizierter Marken

Info

Publication number
DE10137241A1
DE10137241A1 DE2001137241 DE10137241A DE10137241A1 DE 10137241 A1 DE10137241 A1 DE 10137241A1 DE 2001137241 DE2001137241 DE 2001137241 DE 10137241 A DE10137241 A DE 10137241A DE 10137241 A1 DE10137241 A1 DE 10137241A1
Authority
DE
Germany
Prior art keywords
marks
location
recording
camera
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE2001137241
Other languages
English (en)
Inventor
Helmut Hamfeld
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HUMAN SOLUTIONS GMBH, 67657 KAISERSLAUTERN, DE
Original Assignee
TECMATH AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to DE10112535 priority Critical
Priority to DE10113298 priority
Application filed by TECMATH AG filed Critical TECMATH AG
Priority to DE2001137241 priority patent/DE10137241A1/de
Publication of DE10137241A1 publication Critical patent/DE10137241A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical means
    • G01B11/24Measuring arrangements characterised by the use of optical means for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical means for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical means for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo

Abstract

Die Erfindung sieht eine Vorrichtung und ein Verfahren zum Erfassen und Vermessen eines Objekts (15) durch Registrierung von Teilansichten des Objektes (15) in einem globalen Koordinatensystem vor, wobei das Aufkleben von Registrierungsmarken zur Registrierung der einzelnen Teilansichten des Objektes (15), die von einer Aufnahmeeinheit (12) aufgenommen werden, vermieden wird, und zwar durch das optische Aufprojizieren von Marken (M¶i¶) auf das Objekt (15) und durch das Erfassen der Marken (M) durch Ortungskameras (10, 11). Eine Recheneinheit (13) registriert die Teilansichten in das globale Koordinatensystem mit Hilfe der Information über die erfassten Marken (M¶i¶).

Description

Die Erfindung bezieht sich auf die Registrierung von Tiefenbildern mittels op­ tisch projizierter Marken.
Die Aufnahme von Tiefenbildern, also zweieinhalbdimensionalen Ansichten eines Objektes ist bereits Stand der Technik und mit hoher Genauigkeit mög­ lich. Als Aufnahmesysteme kommen am häufigsten 3D-Messsysteme nach dem codierten Lichtansatz zum Einsatz. Dazu wird mit einem Projektor eine Sequenz von Linien auf das Objekt projiziert, die in ihrer zeitlichen Folge jeder unterscheidbaren Linie einen eindeutigen Binärcode zuweisen. Die Projekti­ onslinien auf dem Objekt werden im allgemeinen von einer oder zwei Kame­ ras aufgenommen. Durch eine vorab durchgeführte Kalibrierung ordnen die Liniencodes jedem Pixel im Kamerabild einen Tiefenwert zu, der über die be­ kannten Abbildungseigenschaften der Kameras zu einer dreidimensionalen Objektkoordinate auf dem Objekt führt.
Eingeschränkt werden derartige Systeme durch mehrere Aspekte. Vermessen werden können nur Bereiche auf dem Objekt, die sowohl vom Projektor be­ leuchtet, als auch von den Kameras erfasst werden. Bei stark strukturierten Oberflächen kommt es schnell zu Abschattungen. Zudem kann das Objekt nur von einer Seite erfasst werden. Um eine vollständige Erfassung des Objektes zu erreichen, sind im Allgemeinen viele Tiefenbilder aus unterschiedlichen Perspektiven und Richtungen notwendig. Das Problem bei dieser Vorgehens­ weise besteht in der Notwendigkeit, die normalerweise unabhängig voneinan­ der aufgenommenen Tiefenbilder in ein gemeinsames Koordinatensystem zu­ rück zu transformieren (Registrierung).
Wenn keine Information über die Lage der einzelnen Tiefenbilder mehr vor­ liegt, bleibt nur die Registrierung der Tiefenbilder mittels Optimierungsverfah­ ren im Computer. Bei bekannten Verfahren muss die grobe Lage der Tiefen­ bilder zueinander vom Benutzer manuell vorgegeben werden. In einem auf­ wendigen Optimierungsverfahren werden die Tiefenbilder dann vom Computer zusammengefügt. Das Verfahren funktioniert allerdings nur, wenn ausrei­ chend markante Merkmale auf den Überlappungsbereichen der verschiede­ nen Tiefenbilder existieren. Damit sind diese Verfahren prinzipbedingt sehr unsicher und ungenau.
Um bereits während der Messung eine spätere Registrierung zu sichern, sind im Wesentlichen drei Verfahren bekannt. Durch die Koppelung von Positio­ niersystemen mit den Messköpfen kann jedem Tiefenbild direkt eine globale Position zugeordnet werden. Bei sehr großen Objekten ist allerdings ein ent­ sprechend großes Positioniersystem nötig. Zudem wird jeder Positionierfehler vom Messkopf zum eigentlichen Messbereich hin vergrößert, so dass sehr hohe Ansprüche an die Genauigkeit der Hardware bestehen.
Zwei weitere bekannte Verfahren sehen Hilfen zur Registrierung der Tiefen­ bilder auf dem Objekt vor. Dazu werden in beiden Fällen Marken auf das zu vermessende Objekt aufgeklebt, die in den Tiefenbildern wiedergefunden werden können. Im ersten Fall sind jeweils drei Marken in den Überlappungs­ bereichen zweier Tiefenbilder nötig, um die Tiefenbilder einander zuordnen zu können. Offensichtlicher Nachteil dieses Verfahrens ist die hohe Anzahl der Marken, die in jedem Tiefenbild sichtbar sein müssen, zudem müssen breite Überlappungen zwischen den Tiefenbildern existieren.
Besser und genauer ist das zweite, auf Marken basierende Verfahren. Jede auf das Objekt aufgebrachte Marke wird photogrammetrisch vermessen und in ein gemeinsames, globales Koordinatensystem eingeordnet. In jedem aufge­ nommenen Tiefenbild müssen nur drei Marken erkannt werden, um eine Regi­ strierung im globalen Koordinatensystem zu ermöglichen.
Gemeinsamer Nachteil der markenbasierten Verfahren ist die notwendige Vorbereitung des Messobjekts, dem Aufbringen der Marken. Die Messung muss vorab sehr genau geplant werden, da ein nachträgliches Anbringen oder Einmessen weiterer Marken oft nur schwer möglich ist. Gerade bei empfindli­ chen Messobjekten, wie z. B. Denkmälern, ist aber das Anbringen von Marken auf dem Objekt grundsätzlich nicht möglich. Zudem bedeutet das Anbringen und Einmessen von Marken einen nicht zu unterschätzenden Aufwand.
Aufgabe der vorliegenden Erfindung ist es eine Vorrichtung und ein Verfahren zum Erfassen von Objekten durch Registrierung von Teilansichten vorzuse­ hen, bei dem das zeitraubende Anbringen von Marken auf dem zu vermessen­ den Objekt vermieden werden kann.
Die Aufgabe wird durch das erfindungsgemäße Verfahren und Vorrichtung mit den in Anspruch 1 und 37 aufgeführten Merkmalen gelöst, insbesondere da­ durch, dass Marken auf das Objekt optisch projiziert werden, die Marken von zumindest einer Ortungskamera erfasst werden und eine Recheneinheit unter Verwendung der Information über die erfassten Marken die Teilansichten des Aufnahmesystems in das globales Koordinatensystem registriert.
Die mit der Erfindung erzielten Vorteile bestehen insbesondere darin, dass eine notwendige Vorbereitung des Messobjektes entfällt, wodurch Schäden an dem Messobjekt vermieden werden und der Zeitaufwand für den Messvor­ gang verringert wird.
Gemäß einer vorteilhaften Ausführungsform der Erfindung weist das Verfah­ ren und die Vorrichtung ein Aufnahmesystem auf, welches einerseits mittels eines Projektors Lichtmuster auf das Objekt für die Aufnahme von Teilan­ sichten des Objekts projiziert und gleichzeitig mit dem selben Projektor auch die Marken auf das Objekt projiziert. Hierdurch wird die Anzahl der Kompo­ nenten der Vorrichtung reduziert.
Vorteilhafterweise werden bei dem erfindungsgemäßen Verfahren durch Neu­ positionierung des Aufnahmesystems im Weiteren Teilansichten des Objekts aus verschiedenen Sichtwinkeln aufgenommen und Marken projiziert, bis das gesamte Objekt ausreichend erfasst wurde.
Weitere Vorteile liegen darin, dass auf ein Positionierungssystem oder ähnliche mechanische Hilfen verzichtet werden kann. Die Einmessung der projizierten Marken geschieht in einem Arbeitsgang mit der eigentlichen Aufnahme der Teilansicht durch die zusätzlichen Ortungskameras 10, 11, die um das Objekt aufgestellt werden. Durch geschickte Anordnung der Ortungskameras 10, 11 kann der Messraum individuell auf fast jedes beliebige Objekt eingestellt wer­ den.
Vorteilhafterweise kann das erfindungsgemäße System selbstkalibrierend ausgestaltet sein, d. h., dass die Lage der Ortungskameras 10,11 während der Messung selbstständig bestimmt wird. Kalibrierkörper sind hierbei nicht mehr notwendig.
Weitere vorteilhafte Ausgestaltungen sind in den abhängigen Patentansprü­ chen beschrieben.
Anhand der Fig. 1 und Fig. 2 seien Ausführungsbeispiele der Erfindung be­ schrieben.
Fig. 1 zeigt schematisch eine Vorrichtung und ein Verfahren zur Regi­ strierung von Teilansichten eines Objektes;
Fig. 2 zeigt ein Flussdiagramm für das erfindungsgemäße Verfahren und die Vorrichtung zur Registrierung von Teilansichten eines Objektes.
Bezugnehmend auf die Fig. 1 wird ein Objekt 15, das ein dreidimensionaler Körper aber auch eine beliebige Fläche eines Körpers, sein kann, mittels des erfindungsgemässen Verfahrens bzw. einer Vorrichtung 1 erfasst und ver­ messen. Die Vorrichtung weist eine Aufnahmesystem 12, eine Recheneinheit 13, sowie mindestens eine Ortungskamera 10, 11 und einen Monitor 14 auf. Die Recheneinheit 13 ist mit dem Aufnahmesystem 12 und den Ortungskame­ ras 10, 11 verbunden um einen Datenaustausch zu ermöglichen. Über den mit der Recheneinheit 13 verbundenen Monitor werden Zwischen- und Endergeb­ nisse des Messvorgangs visualisiert.
Das Aufnahmesystem 12 umfasst im bevorzugten Ausführungsbeispiel einen 3D-Sensor, der so positioniert ist, dass er eine Teilansicht des Objektes 15 erfasst. Der 3D-Sensor dient zur Generierung eines räumlichen Tiefenbildes T, der Teilansicht des Objektes 15, wobei der Index I ein bestimmtes Tiefen­ bild bezeichnet. Hierzu weist das Aufnahmesystem 12 im bevorzugten Bei­ spielen einen Gray-Code-Projektor mit mindestens einer Kamera (beide nicht dargestellt) in Triangulationsanordnung auf. Der Projektor des Aufnahmesy­ stems 12 durchläuft eine Projektionssequenz von Projektionsbildern, wobei jedes Projektionsbild ein bestimmtes Lichtmuster auf dem Objekt abbildet. Das Lichtmuster wird von der zumindest einen Kamera des Aufnahmesystems 12 aufgenommen. Durch eine vorab durchgeführte Kalibrierung des Aufnah­ mesystems ordnen die Lichtmuster jedem Pixel im Kamerabild der Kamera des Aufnahmesystems 12 einen Tiefenwert zu, der über die bekannten Abbil­ dungseigenschaften der Kamera zu einer dreidimensionalen Objektkoordinate P(aI, bI, cI) für das Tiefenbild führt, wobei aI, bI, cI die Koordinaten des Punktes P im spezifischen Koordinatensystem des Tiefenbildes TI sind. Die einzelnen Objektkoordinaten P(aI, bI, cI) der Pixel eines Kamerabildes einer erfassten Ansicht bilden zusammen das Tiefenbild TI(aI, bI, cI). Die Kamera des Auf­ nahmesystems 12 liefert für jedes Projektionsbild der Projektionssequenz mindestens ein Kamerabild. Im bevorzugten Ausführungsbeispiel wird das Kamerabild in dem Aufnahmesystem 12 zur Gewinnung des Tiefenbildes TI (aI, bI, cI) analysiert, es ist jedoch auch denkbar das alle Bildverarbeitungs­ schritte zentral in der Recheneinheit 13 stattfindet und das Aufnahmesystem 12 das Kamerabild plus den gemessenen Parametern zur Tiefenwertbestim­ mung direkt an die Recheneinheit 13 weitergibt.
Das Aufnahmesystem 12 zur Generierung von Tiefenbildern des Objektes 15 kann jedoch auch alternativ jedes System auf der Basis von codierten Licht­ mustern sein, z. B. das Phasen-Shiftverfahren, das Moirée-Verfahren oder ein selbst kalibrierendes Gray-Code-Verfahren. Weiterhin könnte das Aufnahme­ verfahren der Aufnahmesystems 12 alternativ auf 3D-Scannern, z. B. 3D- Laserscannern, basieren. Schlussendlich könnte das Aufnahmesystem 12 auf aktiver oder passiver Stereoskopie, z. B. einem Stereokamerasystem basie­ ren.
Das Aufnahmesystem 12 ist in seiner relativen Lage zu dem Objekt 15 verän­ derbar angeordnet, d. h. die Position des Aufnahmesystems 12 kann verändert werden, um eine andere Teilansicht des Objektes 15 zu erfassen und damit weitere Tiefenbilder TI(aI, bI, cI) zu erzeugen, um schlussendlich das gesamte Objekt 15 zu erfassen und zu vermessen.
Da die so erzeugten Tiefenbilder TI ein Sensor- bzw. tiefenbildspezifisches Koordinatensystem aI, bI, cI aufweisen, werden für die Registrierung der ein­ zelnen Tiefenbilder TI Marken Mi eingesetzt. Im bevorzugten Beispiel werden die Marken Mi durch den Projektor des Aufnahmesystems 12 optisch auf das Objekt 15 projiziert. Alternativ könnten die Marken Mi von einem unabhängi­ gen separaten Projektor (nicht dargestellt) auf das Objekt 15 aufprojiziert werden.
In dem bevorzugten Ausführungsbeispiel werden zusätzliche Projektionsbilder in die Projektionssequenz des Projektors des Aufnahmesystems 12 eingefügt, in denen die Marken Mi auf das Objekt 15 aufprojiziert werden. Bevorzugter­ weise wird die Projektionssequenz mit Projektionsbildern erweitert, die jeweils eine punktförmige Marke Mi enthalten und wobei wenigstens drei Marken Mi pro Projektionssequenz projiziert werden.
In anderen Ausführungsbeispielen wird die Projektionssequenz um wenig­ stens ein Bild erweitert, das mehrere Marken Mi gleichzeitig enthält, wobei die Marken Mi durch Farbe, Form oder Struktur unterscheidbar sind, z. B. ver­ schiedenfarbige Punkte oder ein diffuses Muster.
Alternativ wird die Projektionssequenz um mehrere Bilder erweitert, die je­ weils unterschiedlich strukturierte Muster projizieren. Die Kombination der se­ quentiellen Muster markiert, aber eine Mehrzahl eindeutiger Marken Mi. Die Muster unterscheiden sich wiederum in Farbe, Form oder Struktur. Ein Bei­ spiel hierfür wären mehrere Bilder, die in die Projektionssequenz eingefügt werden mit jeweils einer horizontalen Linie und mehrere Bilder mit jeweils ei­ ner vertikalen Linie, wobei die Schnittpunkte der Linien in den Bildern die Marken Mi definieren.
In einem weiteren bevorzugten Ausführungsbeispiel wird die Projektionsse­ quenz des Projektors des Aufnahmesystems 12 um eine weitere Sequenz mit codierten Linien erweitert (z. B. Gray-Code Sequenz), die eine andere Orien­ tierung hat als die Sequenz zur Generierung der Tiefenbilder TI (z. B. um 90° verdreht). Die Schnittpunkte der codierten Linien markieren wiederum die ge­ suchten Marken Mi.
Die bevorzugte Realisierung des Messsystems sieht folgendes vor: Zunächst erfolgt die Projektion einer Gray-Code/Phasensequenz zur Generierung des Tiefenbildes und dann die Projektion von sechs horizontalen und sechs verti­ kalen Linien mit dem Projektor auf das Messobjekt 15. Die Kreuzungspunkte dieser Linien markieren demnach 36 Marken Mi . Um zu garantieren, dass möglichst viele dieser Marken in gut einsehbare Bereiche auf das Objekt 15 projiziert werden, wird zwischen Tiefenbildaufnahme und Markenprojektion eine Analyse des gewonnenen Tiefenbildes TI durchgeführt. Die Linien wer­ den anschließend so projiziert, dass vorzugsweise keine Abschattungsberei­ che oder Bereiche mit steilen Gradienten beleuchtet werden.
Durch Auswertung der Daten des Aufnahmesystems 12 werden nicht nur die Tiefenbilder TI(aI, bI, cI) bestimmt, sondern auch die Positionen der Marken Mi(ai,I, bi,I, ci,I) im Tiefenbild TI(aI, bI, cI), wobei mit ai,I, bi,I, ci,I die Koordinaten der Marke Mi im Koordinatensystem des Tiefenbildes TI bezeichnet werden. An den Bildpositionen Mi(ai,I, bi,I, ci,I) der Marken im Tiefenbild TI muss prin­ zipbedingt vorher bereits eine 3D-Koordinate im Tiefenbild TI(aI, bI, cI) aufge­ nommen worden sein. Der Vergleich der Bildposition Mi(ai,I, bi,I, ci,I) einer Mar­ ke Mi mit dem, an gleicher Bildposition aufgenommenen Tiefenwert des Tie­ fenbildes TI(aI, bI, cI) führt direkt zur Markenposition Mi(ai,I, bi,I, ci,I).
Bezüglich des bevorzugten Ausführungsbeispiels, in dem sechs horizontale und sechs vertikale Linien mit dem Projektor auf das Messobjekt 15 projiziert werden, bedeutet dies, dass aus den letzten zwölf Projektionsbildern der Projektionssequenz die 36 Bildprojektionen der Marken mit dem gleichen Sy­ stem, mit dem auch die Tiefenbilder TI(aI, bI, cI) berechnet wurden, extrahiert werden. Da in einem Tiefenbild TI(aI, bI, cI) die 3D-Punkte entsprechend den Pixel/Bildprojektionen im Kamerabild der Aufnahmeeinheit 12 abgespeichert sind, können die Markenpositionen Mi(ai,I, bi,I, ci,I) also unmittelbar dem Tie­ fenbild TI(aI, bI, cI) entnommen werden.
Wenn hingegen für das Aufnahmesystem 12 ein Laserscanner, d. h. einem Sensor, der einen Laserpunkt in zwei Richtungen, R1, R2 ablenkt und bei­ spielsweise nach dem Lichtlaufzeitverfahren arbeitet, verwendet wird, muss um die Markenposition Mi(ai,I, bi,I, ci,I) im Tiefenbild zu bestimmen wie folgt vorgegangen werden: Als erstes würde man ein Scanbild in R1- und R2- Ordnung erzeugen, danach würde man an definierten R1,R2-Positionen einen einzelnen Punkt projizieren und mit den Ortungskameras 10, 11 aufnehmen. Auch hier hat dann die Marke "R1,R2" die Position, die an gleicher Stelle zuvor gemessen wurde.
Durch die Bestimmung der Markenposition Mi(ai,I, bi,I, ci,I) in den Tiefenbildern TI(aI, bI, cI) kann die relative Lage der projizierten Marken Mi zueinander aus der Tiefenbildinformation TI(aI, bI, cI) berechnet werden.
Das Aufnahmesystem (12) gibt die Tiefenbildinformation TI(aI, bI, cI) und die Markenposition Mi(ai,I, bi,I, ci,I) an die Recheneinheit 13 weiter. Alternativ, gibt das Aufnahmesystem 12 lediglich die Tiefenbildinformation TI(aI, bI, cI) an die Recheneinheit 13 weiter und diese bestimmt, wie oben beschrieben, die Mar­ kenposition Mi(ai,I, bi,I, ci,I).
Die zuvor erwähnte mindestens eine Ortungskamera 10, 11 wird auf das zu vermessene Objekt 15 ausgerichtet. Das bevorzugte Ausführungsbeispiels der vorliegenden Erfindung weist zwei Ortungskameras 10, 11 auf (siehe Fig. 1). Vorzugsweise wird jedoch das gesamte Objekt 15 mit Ortungskameras 10, 11 umstellt. Für die Vermessung eines Objektes 15 von der Größe eines Autos wären z. B. etwa 15-20 Kameras nötig. Bevorzugterweise werden die Ortungskameras 10, 11 in einer Messkabine (nicht dargestellt) aufgebaut, um eine feste Montierung der Ortungskameras 10, 11 und damit eine stationäre Lage zu gewährleisten. Die fest konfigurierte Messkabine kann auf das zu vermessende Objekt (15) zugeschnitten sein. Alternativ können die Ortungs­ kameras 10, 11 jedoch auch während des Messvorgangs umgestellt werden, um ein größeres oder kleineres Messvolumen zu realisieren, wobei jedoch eine kontinuierliche Aktualisierung der Kalibrierung der Ortungskameras 10, 11 nötig ist.
Die auf das Objekt 15 aufprojizierten Marken Mi werden von den Ortungska­ meras 10, 11 durch Bildaufnahme erfasst. Wie bereits zuvor festgestellt, proji­ ziert der Projektor des Aufnahmesystems 12 die Sequenzen zur Bestimmung der Tiefenbilder TI(aI, bI, cI) und Sequenzen zur Bildung der Marken Mi auf das Objekt 15. Sinnvollerweise wird die Bildaufnahme der Ortungskameras 10, 11 mit der Projektionssequenz des Projektors abgestimmt, so dass für jede Auf­ nahme aller Ortungskameras klar ist, welches Muster im Bild wiedergefunden wird. Genauer gesagt, wird der Projektor der Aufnahmeeinheit 12 erst dann angewiesen, ein neues Projektionsbild zu erzeugen, wenn alle Ortungskame­ ras 10, 11 das letzte Projektionsbild der Projektionssequenz aufgenommen haben.
Aus der gewonnenen Bildinformation der Ortungskameras 10, 11 kann die Bildpositionen der Marken Mi in den Ortungskameras Mi(u1, v1), Mi(u2, v2) be­ stimmt werden, wobei u1, v1 bzw. u2, v2 die Koordinaten der Marken Mi in der zweidimensionalen Bildinformation der Ortungskamera 10 bzw. 11 be­ zeichnen.
Die durch die Ortungskameras 10, 11 gewonnene Bildinformation wird im be­ vorzugten Ausführungsbeispiel der vorliegenden Erfindung zur Verarbeitung direkt an die Recheneinheit 13 weitergegeben, die angefangen mit der Be­ stimmung der Bildpositionen der Marken Mi in den Ortungskameras Mi(u1, v1), Mi(u2, v2) die restliche Verarbeitung ausführt. Es ist aber auch durchaus denk­ bar, das sogenannte Smart-Kameras für die Ortungskameras 10, 11 eingesetzt werden, wobei ein Teil der Verarbeitung schon bereits in den Ortungskameras stattfindet.
Wenn nun die Lage K1(x1, y1, z1), K2(x2, y2, z2) der Ortungskameras 10, 11 im globalen Koordinatensystem x, y, z bekannt ist, kann die absolute bzw. glo­ bale Lage Mi(xi, yi, zi) der projizierten Marken Mi aus der Lageinformationen K1(x1, y1, z1), K2(x2, y2, z2) der Ortungskameras 10, 11 und aus den Markenpo­ sitionen Mi(u1, v1), Mi(u2, v2) berechnet werden.
Hierbei ist wird mit K1(x1, y1, z1) der Lage der ersten Ortungskamera 10 im globalen Koordinatensystem bezeichnet. Hierbei ist anzumerken, das die La­ ge der Ortungskamera nicht nur durch die drei Raumkoordinaten x1, y1, z1, sondern auch weitere Parameter, wie die Orientierung der Ortungskamera 10, 11 umfaßt. Die Orientierung der Ortungskamera wird durch drei Winkel α, β, γ festgelegt, die im Folgenden nicht explizit aufgelistet werden, aber mit in die Berechnung z. B. der globalen Lage Mi(xi, yi, zi) der projizierten Marken Mi ein­ fließen. Ähnliches gilt für die zu berechnende Lage der Tiefenbilder, die ebenfalls eine durch Winkel bestimmte Orientierung umfaßt.
Zur Berechnung der globalen Markenposition Mi(xi, yi, zi) werden zu einer Marke Mi in allen Ortungskameras 10, 11 (in denen diese Marke zu sehen ist), Sehstrahlen anhand der Bildpositionen der Marken Mi(u1, v1), Mi(u2, v2) be­ rechnet. Der Schnittpunkt aller Sehstrahlen einer Marke Mi wird als die globale Position Mi(xi, yi, zi) dieser Marke Mi definiert (da sich die Sehstrahlen im all­ gemeinen nicht schneiden, wird hier gegebenenfalls eine Ausgleichsrechnung durchgeführt).
Im Weiteren sei noch angemerkt, dass alle Marken Mi in allen Kameras, d. h. Ortungskameras 10, 11 sowie Kameras in dem Aufnahmesystem 12 eindeutig identifiziert werden können, da die Bildsequenzen zwischen den einzelnen Kameras abgestimmt sind. In dem bevorzugten Ausführungsbeispiel, in dem sechs horizontale und sechs vertikale Linien mit dem Projektor auf das Messobjekt projiziert werden, um die Marken Mi zu definieren, wird eine Mar­ ke Mi durch die Aufnahmenummer (1-n, wobei n die Anzahl der Aufnahmen ist), die horizontalen Liniennummern (1-6) und die vertikalen Liniennummern (1-­ 6) identifiziert. Diese Identifizierung kann in allen Ortungskameras 10, 11 und den Kameras des Aufnahmesystems 12 gleicher Weise durchgeführt werden.
Durch die aus den Daten des Aufnahmesystems 12 bestimmte relative Lage der Projektionsmarken Mi(ai,I, bi,I, ci,I) und der absoluten Lage Mi(xi, yi, zi) der Projektionsmarken lässt sich eine Transformation des Tiefenbildes TI(aI, bI, cI) in das globale Koordinationssystem TI(xI, yI, zI) berechnen (Registrierung), wobei xI, yI, zI die Koordinaten der Punkte des Tiefenbildes TI in dem globalen Koordinatensystem x, y, z bezeichnen.
Durch Umpositionieren des Aufnahmesystems 12 werden im Weiteren andere Tiefenbilder TI(aI, bI, cI) aufgenommen und Marken Mi projiziert, bis das ge­ samte Objekt ausreichend erfasst wurde. Über die Ordnungskameras 10, 11 und das beschriebene Verfahren werden alle aufgenommenen Tiefenbilder TI(aI, bI, cI) in das globale gemeinsame Koordinatensystem x, y, z durch eine Koordinatentransformation in globale Koordinaten TI(xI, yI, zI) übertragen.
Im nun Folgenden wird beschrieben, wie die Lage K1(x1, y1, z1), K2(x2, y2, z2) der Ordnungskameras 10, 11 und ggf. des Aufnahmesystems 12 bestimmt werden kann um die zuvor beschriebene Registrierung der Tiefenbilder zu ermöglichen.
Die Bestimmung der Lage K1(x1, y1, z1), K2(x2, y2, z2) der Ortungskameras 10, 11 wird als Kalibrierung bezeichnet und wird im bevorzugten Ausführungsbei­ spiel durch die Recheneinheit 13 realisiert.
Die Kalibrierung kann grundsätzlich auf zweierlei Art und Weise erfolgen: Ei­ nerseits wird die Lage K1(x1, y1, z1), K2(x2, y2, z2) der Ortungskameras 10, 11 mit einem Kalibrierkörper (nicht dargestellt) bestimmt, der eine festgelegte Anzahl von eindeutig identifizierbaren Marken enthält und von den Ortungs­ kameras 10, 11 erfasst wird. Andererseits kann die Lage der Ortungskameras 10, 11 durch ein selbstkalibrierendes Verfahren bestimmt werden.
Das selbstkalibrierende Verfahren wird in dem bevorzugten Ausführungsbei­ spiel der vorliegenden Erfindung verwendet. Die Lage der Ortungskameras 10, 11 wird über Stereokorrespondenzen berechnet, die mit den Projektions­ marken M; gebildet werden. Zunächst wird die relative Lage von Paaren der Ortungskameras 10, 11 berechnet. Gegebenfalls kann hier auch die Lage des Aufnahmesystems 12 und darin enthaltener Kameras mit berechnet werden, wenn dies nicht bereits vorkalibriert ist. Anschließend wird mit einem Optimie­ rungsverfahren die Lage aller Kameras zueinander berechnet. Das selbstkali­ brierende Verfahren wird ausführlich in der nicht vorveröffentlichten Pa­ tentanmeldung 101 12 536.4 mit dem Titel "Handgeführter 3D-Scanner" be­ schrieben, und wird durch Bezugnahme hierin aufgenommen.
Im Gegensatz zu dem in der zitierten Anmeldung beschriebenen System kann aber bei der vorliegenden Erfindung für das Gesamtsystem eine Skalierung berechnet werden, wenn das Aufnahmesystem 12 vorkalibriert ist. Es ist aber auch durchaus denkbar, die Vorrichtung 1 vollständig selbstkalibrierend zu realisieren, wobei der Skalierungsfaktor des Systems in diesem Fall ander­ weitig bestimmt werden muss, zum Beispiel durch zusätzliche Abstandssen­ soren (nicht dargestellt). Wird lediglich die Lage der Ortungskameras 10, 11 selbstkalibrierend bestimmt, kann die Skalierung zum Beispiel aus den durch das Aufnahmesystem 12 gewonnene Tiefenbildern TI(aI, bI, cI) ermittelt wer­ den.
Weiterhin wäre aber auch der umgekehrte Fall denkbar, d. h. die Ortungska­ meras sind vorkalibriert und das Aufnahmesystem 12 ist selbstkalibrierend ausgestaltet. In diesem Fall kann die Skalierung des Aufnahmesystems 12 aus der Kalibrierung der Ortungskameras 10, 11 berechnet werden.
Im selbstkalibrierenden Fall wird mit jeder neuen Einzelaufnahme durch die Ortungskameras 10, 11 das Gesamtsystem, also die Vorrichtung 1, neu be­ rechnet. Mit jeder neuen Aufnahme werden neue Marken Mi gebildet, die zu einer Verbesserung der Aufnahme, d. h. einer erneuten Berechnung und Ver­ besserung der Lage der Ortungskameras 10, 11, beitragen. Dies ist vor allem wichtig, wenn Ortungskameras 10, 11 bisher nur wenig Marken Mi erfasst ha­ ben oder die Marken Mi nur in einem kleinen Bildausschnitt lagen, so dass die Lageberechnung relativ ungenau ist. Erst durch großflächig verteilte Marken Mi ist eine sichere und genaue Selbstkalibrierung möglich. Dies bedeutet al­ lerdings, dass mit jeder neuen Aufnahme auch die Lage bzw. Transformation aller bisher aufgenommenen Tiefenbilder TI(xI, yI, zI) im bzw. ins globalen Ko­ ordinatensystem neu berechnet werden muss. Insofern wird die erhöhte zu­ sätzliche Flexibilität bezüglich der Kalibrierung durch einen erhöhten Rechen­ aufwand erkauft.
In dem bevorzugten Ausführungsbeispiel besteht der einzige Zusammenhang zwischen dem System zweier aufeinanderfolgender Aufnahmen, d. h. der Vor­ richtung 1 mit der aufnahmenspezifischen Kalibrierung, darin, dass das Er­ gebnis des alten Systems als Startwert für die Berechnung des neuen Sy­ stems verwendet wird.
Zu der kontinuierlichen Neukalibrierung der Ortungskameras 10, 11 und der Neuberechnung der Lage aller bisher aufgenommenen Tiefenbilder TI(xI, yI, zI) ist anzumerken, dass die Lage eines Tiefenbildes lediglich durch sechs Para­ meter (drei Translationen, drei Rotationen) beschrieben wird. Das Ausführen dieser Lagetransformation geschieht lediglich zu Visualisierungszwecken mittels des an die Recheneinheit 13 angeschlossenen Monitors 14. Wenn eine neue Lagetransformation aufgrund einer neuen Kalibrierung berechnet wurde, wird jeweils nur die Differenz zwischen der alten und der neuen Lagetrans­ formation ausgeführt, was zwar keine Rechenzeit spart, allerdings datentech­ nisch leichter zu realisieren ist. Es empfiehlt sich hierbei besonders bei gro­ ßen Datensätzen, die aus vielen Tiefenbildern TI(xI, yI, zI) bestehen, zu Visua­ lisierungszwecken die Lagetransformation nur auf ausgedünnten Datensätzen durchzuführen und die Originaldatensätze zusammen mit den gültigen Trans­ formationen auf einem Speichermedium, wie zum Beispiel einer Festplatte, abzulegen.
Wie bereits zuvor erwähnt, kann zur Bestimmung der Lage der Ortungskame­ ras 10, 11 alternativ ein Kalibrierkörper verwendet werden. Die Verwendung eines Kalibrierkörpers sichert zum einen eine höhere Genauigkeit und bietet den Vorteil, dass die Skalierung bekannt ist, allerdings ist das System da­ durch weniger flexibel und ein erhöhter Vorbereitungsaufwand ist notwendig. Im vorkalibrierten Fall, d. h. dem Einsatz eines Kalibrierkörpers vor dem ei­ gentlichen Messvorgang, wird natürlich nur einmal kalibriert. Ein vorkalibrier­ ter Fall tritt auch dann auf, wenn die letzte Kalibrierung einer bereits früher durchgeführten Vermessung übernommen werden kann, wenn sich der Auf­ bau und die Positionierung der Vorrichtung 1 nicht geändert hat.
Bei der Verwendung eines Kalibrierkörpers zur Kalibrierung sind die folgenden Kalibrierungsansätze denkbar:
  • a) Der Kalibrierkörper enthält wenigstens vier eindeutig identifizierbare Mar­ ken Mi, die von den Ortungskameras 10, 11 erfasst werden. Über den Ka­ librierkörper wird dann das globale Koordinatensystem x, y, z festgelegt.
  • b) Der Kalibrierkörper enthält genau eine Marke Mi und wird durch den Mess­ raum geschwenkt. Über korrespondierende Bilder, in denen die Marke Mi detektiert wurde, wird die Lage der Ortungskameras 10, 11 zueinander, bis auf einen Skalierungsfaktor eindeutig, berechnet. Die Skalierung kann über die aufgenommenen Projektionsmarken Mi oder die Tiefenbilder TI berech­ net werden.
  • c) Der Kalibrierkörper enthält mindestens zwei Marken Mi und wird durch den Messraum geschwenkt. Über korrespondierende Bilder, in denen die Mar­ ken Mi detektiert wurden, wird die Lage der Ortungskameras 10, 11 zuein­ ander berechnet. Die relative Lage der Marken Mi zueinander bestimmt die Skalierung des Gesamtsystems.
Im folgenden wird bezugnehmend auf die Fig. 2 der Ablauf des Verfahrens zur Erfassung und Vermessung des Objektes 15 beschrieben.
Im anfänglichen Schritt 20 werden die Ortungskameras 10, 11 auf das Messobjekt 15 ausgerichtet. Im folgenden Schritt 21 wird ein Tiefenbild TI(aI, bI, cI) mit dem 3D-Sensor des Aufnahmesystems 12 vom Objekt 15 aufge­ nommen. Im Schritt 22 wird das aufgenommene Tiefenbild TI(aI, bI, cI) bezüg­ lich des Oberflächengradienten und Fehlstellen analysiert, um wie zuvor be­ schrieben die Projektion der Marken Mi vorteilhafterweise zu beeinflussen. Im folgenden Schritt 23 werden nun die Marken Mi durch den 3D-Sensor auf das Objekt 15 projiziert. Im Schritt 24 werden die Markenpositionen Mi(ai,I, bi,I, ci,I) im Tiefenbild TI(aI, bI, cI) bestimmt. Die Ortungskameras 10, 11 erzeugen im Schritt 25 eine Aufnahme des Objektes 15 und die Bildpositionen Mi(u1, v1) und Mi(u2, v2) der Marken Mi in den Ortungskameras 10, 11 wird in den Auf­ nahmen bestimmt.
Im Schritt 26 erfolgt nun eine Fallunterscheidung: Wenn die Lage der Or­ tungskameras 10, 11 bekannt ist, sei es durch eine Vorkalibrierung oder eine ausreichend genaue Kalibrierung durch vorhergehende Verfahrensschritte, fährt das Verfahren im Schritt 28 fort. Ist die Lage der Ortungskameras 10, 11 nicht bekannt oder noch zu ungenau, wird im Schritt 27 die Kalibrierung der Vorrichtung 1 bestimmt bzw. aktualisiert. Hierzu werden die Bildpositionen Mi(u1, v1), Mi(u2, v2) der Marken Mi dazu eingesetzt die Lage K1(x1, yi, z1), K2(x2, y2, z2) der Ortungskameras 10, 11 im globalen Koordinatensystem x, y, z berechnet. Nach dem Schritt 27 wird mit dem Schritt 28 fortgefahren. Im Schritt 28 wird aus den Bildpositionen Mi(u1, v1), Mi(u2, v2) der Marken Mi in den Ortungskameras 10, 11 die globale Position Mi(xi, yi, zi) der Marken Mi im globalen Koordinatensystem x, y, z zu berechnen. Im folgenden Schritt 29 be­ rechnet die Recheneinheit 13 nun für jedes Tiefenbild TI(aI, bI, cI) eine Lage­ transformation unter Zuhilfenahme der Markenpositionen im Tiefenbild Mi(ai,I, bi,I, ci,I) und der globalen Markenpositionen Mi(xi, yi, zi) in das globale Koordi­ natensystem x, y, z. Im Schritt 30 werden mit Hilfe der Lagetransformation die Koordinaten des Tiefenbildes TI(aI, bI, cI) in Koordinaten TI(xI, yI, zI) des glo­ balen Koordinatensystems transformiert. Im Schritt 31 wird nun überprüft, ob das Objekt 15 ausreichend erfasst ist. Wenn das Objekt 15 ausreichend er­ fasst wurde, d. h. genug Teilansichten des Objekts 15 erfasst und deren Lage im globalen Koordinatensystem bestimmt wurden, wird das Verfahren im Schritt 33 beendet. Ansonsten wird im Schritt 32 der 3D-Sensor des Aufnah­ mesystems 12 oder das Aufnahmesystem 12 an sich neu positioniert, um weitere Teilansichten des Objekts 15 zu erfassen. Das Verfahren schreitet hierfür mit dem Schritt 21 und ihm folgenden Schritten fort, bis die Abbruchbe­ dingung im Schritt 31 erfüllt wird.
Abschließende Bemerkung
Bezüglich der Anzahl der Ortungskameras 10, 11 wird abschließend bemerkt, dass, obwohl das bevorzugte Ausführungsbeispiel zwei Ortungskameras 10, 11 aufweist, mathematisch gesehen eine Ortungskamera ausreicht, um die vorliegende Erfindung zu realisieren. Das mathematische Verfahren zur Be­ rechnung der Lage K1(x1, y1, z1) einer einzigen Ortungskamera unterscheidet sich von den beschriebenen Kalibrierungsvarianten. Ähnlich wie bei einer klassischen Kamerakalibrierung werden bei einer einzigen Ortungskamera die projizierten Marken als Kalibriermarken verstanden. Die Lage der Ortungska­ mera 10, 11 kann relativ zu diesen Marken berechnet werden. Für jede Auf­ nahme wird diese Berechnung separat und unabhängig von den anderen Auf­ nahmen durchgeführt. Hierbei definiert die erste Aufnahme das globale Koor­ dinatensystem x, y, z und die relative Lage der Ortungskamera in diesem Sy­ stem. Bei jeder weiteren Aufnahme wird die zuerst berechnete Lage K1(x1, y1, z1), K2(x2, y2, z2) der Ortungskamera 10, 11 als fest angesehen und die relati­ ve Lage zwischen der Ortungskamera 10, 11 und dem Tiefenbild TI(aI, bI, cI) dient nun zur Berechnung der globalen Lage TI(xI, yI, zI) des Tiefenbildes.
Die Ortungskamera 10, 11 hat im Gegensatz zum 3D-Sensor der Aufnahme­ einheit 12 ein großes Blickfeld. Die von der Aufnahmeeinheit 12 projizierten Marken Mi werden also in der Ortungskamera 10, 11 nur einen kleinen Bild­ ausschnitt belegen. Da alle Aufnahmen zur Berechnung der relativen Lage der Ortungskameras 10, 11 unabhängig voneinander betrachtet werden, findet die Lageberechnung also jeweils nur über einen kleinen Bildausschnitt statt, was zu Ungenauigkeiten in der Lageberechnung K1(x1, y1, z1), K2(x2, y2, z2) der Ortungskameras 10, 11, und damit der Lagetransformation der Tiefenbilder führen kann.
Die Variante mit mehreren Ortungskameras 10, 11 hat demgegenüber den Vorteil, dass alle Marken Mi an der Lageberechnung der Ortungskameras 10, 11 teilnehmen. Mit zunehmender Zahl von Aufnahmen wird also ein zuneh­ mend größerer Bildausschnitt der Ortungskameras 10, 11 mit Marken Mi ab­ gedeckt, so dass die Kalibrierung der Ortungskameras 10, 11 genauer wird.
Bezüglich der Ortungskameras 10, 11 ist weiterhin anzumerken, dass in dem bevorzugten Ausführungsbeispiel es nicht vorgesehen ist, die Ortungskame­ ras 10, 11 umzustellen. Wie bereits zuvor erwähnt, ist es von Vorteil, mit den Ortungskameras 10, 11 eine fest konfigurierte Messkabine aufzubauen, in der die Ortungskameras fest montiert sind. Anstatt die Ortungskameras 10, 11 umzustellen, ist es von Vorteil, das Sichtfeld der Ortungskameras 10, 11 vor­ ab größer auszulegen, um ein größeres Volumen vermessen zu können. Wenn in so einem System mit festen Ortungskameras 10, 11 eine ausrei­ chende Qualität der Kalibrierung erreicht wurde, zum Beispiel durch das obige beschriebene kontinuierlich aktualisierte Selbstkalibrierungsverfahren, wird die Kalibrierung als fest angenommen und im weiteren nicht mehr verfeinert. Dadurch wird die Datenverarbeitung im Rahmen neuer Vermessungen von weiteren Objekten 15 deutlich vereinfacht. Wenn Ortungskameras umgestellt werden, kann nie eine feststehende Kalibrierung angenommen werden, und die Kalibrierung muss kontinuierlich aktualisiert werden.
Das Umstellen einer Ortungskamera 10, 11 kann als Abschalten einer Or­ tungskamera 10, 11 und einem dementsprechenden Anschalten einer neuen Kamera 10, 11 interpretiert werden. Sobald die umgestellte Ortungskamera 10, 11 Marken Mi aufnimmt, erhält sie eine neue Position K3(x1, y1, z1), die alte Position K1(x1, y1, z1) bleibt aber ebenfalls im Gesamtsystem erhalten. Hierdurch bleibt das globale Koordinatensystem x, y, z erhalten.
Oder anders ausgedrückt, an einer Berechnung der Positionen der Ortungs­ kameras 10, 11 nach einer Einzelaufnahme nehmen immer alle Ortungskame­ ras 10, 11 teil, auch die, die physikalisch nicht mehr existieren, da ein Umstel­ len der Ortungskameras 10, 11 stattgefunden hat. Es ist jedoch zu beachten, dass im weiteren nie alle Ortungskameras 10, 11 gleichzeitig bewegt werden. Technisch gesehen muss wenigstens eine Ortungskamera 10, 11 ortsfest bleiben, um ein altes System von Ortungskameras 10, 11 mit einem neuen System von Ortungskameras 10, 11 zu verbinden. Aus Genauigkeitsgründen sollte aber die Zahl der Ortungskameras 10, 11, die bewegt werden, klein sein gegenüber der Zahl der Ortungskameras 10, 11, die ortsfest bleiben.
In Bezug auf die Erfassung der Marken durch die Ortungskameras 10, 11 ist anzumerken, dass nicht die Notwendigkeit besteht, dass alle Ortungskameras 10, 11 immer alle Marken sehen. Es kann durchaus vorkommen, dass eine Ortungskamera erst nach einigen Messungen oder Aufnahmen die ersten Marken erfasst und somit auch erst dann innerhalb des Gesamtsystems kali­ briert werden kann. Genauso kann es sein, dass eine Ortungskamera, mit der am Anfang viele Marken erfasst wurden, später keine Marken Mi erfasst wer­ den. Es sei bemerkt, dass auch bereits kalibrierte Ortungskameras 10, 11, die keine Marken im Rahmen einer Messung aufgenommen haben an der näch­ sten Kalibrierung teilnehmen und ggf. eine Positionskorrektur erfahren.

Claims (37)

1. Vorrichtung (1) zum Erfassen und Vermessen eines Objektes (15) durch Registrierung von Teilansichten des Objektes (15) in einem globalen Koordinatensystem (x, y, z), wobei die Vorrichtung (1) ein Aufnahmesy­ stem (12) zur Aufnahme der Teilansichten des Objektes (15), minde­ stens eine Ortungskamera (10, 11) und eine Recheneinheit (13) auf­ weist,
wobei Marken (Mi) auf das Objekt (15) optisch projiziert und von der Ortungskamera (10, 11) erfasst werden und
wobei das Aufnahmesystem (12) die Teilansichten und die Ortungska­ mera (10, 11) die durch das Erfassen der Marken (Mi) gewonnenen In­ formationen an die Recheneinheit (13) liefern und die Recheneinheit (13) unter Verwendung der Informationen über die erfassten Marken (Mi) die Teilansichten des Objektes (15) in das globales Koordinatensy­ stem (x, y, z) registriert.
2. Vorrichtung nach Anspruch 1 und 2, wobei das Aufnahmesystem (12) einen Projektor aufweist, mit dem die Marken optisch auf das Objekt (15) projiziert werden.
3. Vorrichtung nach einem der vorherigen Ansprüche 1, wobei das Auf­ nahmesystem (12) ein System zur räumlichen Tiefenbildgenerierung ist und Tiefenbilder von den Teilansichten erzeugt.
4. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 3, wobei das Aufnahmesystem (12) einen Gray-Code Pro­ jektor mit zumindest einer Kamera in Triangulationsanordnung aufweist.
5. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 3, wobei das Aufnahmesystem (12) auf der Basis von co­ dierten Lichtmustern, z. B. im Phasen-Shift Verfahren, dem Moirée Ver­ fahren oder einem selbstkalibrierenden Gray-Code Verfahren arbeitet.
6. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 3, wobei das Aufnahmesystem (12) zur Generierung von Tiefenbildern auf der Basis von 3D-Scannern, z. B. 3D-Laserscannern, arbeitet.
7. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 3, wobei das Aufnahmesystem (12) auf der Basis aktiver oder passiver Stereoskopie, z. B. Stereokamerasystem, arbeitet.
8. Vorrichtung nach einem der vorherigen Ansprüche, wobei mehrere Or­ tungskameras (10, 11) auf das zu vermessende Objekt (15) ausgerich­ tet werden, und wobei vorzugsweise das gesamte Objekt (15) mit Or­ tungskameras (10, 11) umstellt ist.
9. Vorrichtung nach einem der vorherigen Ansprüche, wobei das Aufnah­ mesystem (12) eine Projektionssequenz durchläuft.
10. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 9, wobei die Projektionssequenz mit Projektionsbildern er­ weitert wird, die jeweils eine vorzugsweise punktförmige Marke (Mi) enthalten.
11. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 10, wobei pro Projektionssequenz wenigstens drei Marken projiziert werden, die von der Ortungskamera (10, 11) erfasst werden.
12. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 1, wobei die relative Lage der projizierten Marken (Mi) zuein­ ander aus der Tiefenbildinformation der Teilansichten des Aufnahme­ systems (12) berechnet wird.
13. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 1, wobei die absolute Lage der projizierten Marken (Mi) über die Ortungskamera (10, 11) berechnet wird.
14. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 1, wobei aus der relativen und absoluten Lage der Projekti­ onsmarken eine Transformation der Teilansicht in ein definiertes glo­ bales Koordinatensystem berechnet wird (Registrierung).
15. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 1, wobei mit dem Aufnahmesystem (12) durch Neupositionie­ rung des Aufnahmesystems (12) im Weiteren Tiefenbilder aufgenom­ men und Marken projiziert werden, bis das gesamte Objekt ausreichend erfasst wurde.
16. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 1, wobei über die Ortungskameras (10, 11) alle Tiefenbilder in ein gemeinsames Koordinatensystem übertragen werden.
17. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 1, wobei die Lage der Ortungskamera (10, 11) während der Messung über die aufgenommenen Projektionsmarken bzw. projizierte Marken (Mi) berechnet wird (Selbstkalibrierung).
18. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 1, wobei die Vorrichtung mindestens zwei Ortungskameras (10, 11) aufweist und wobei die Lage der Ortungskamera (10, 11) während der Messung über die aufgenommenen Projektionsmarken (Mi) durch Stereokorrespondenzen berechnet wird (Selbstkalibrierung).
19. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 9, wobei bei der Projektion der optischen Marken (Mi) die Projektionssequenz um (wenigstens) ein Bild erweitert ist, das mehrere Marken (Mi) gleichzeitig enthält.
20. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 1, wobei die Marken (Mi) durch Farbe, Form oder Struktur unterscheidbar sind, z. B. verschiedenfarbige Punkte, diffuse Muster.
21. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 9, wobei die Projektionssequenz um mehrere Bilder erweitert wird, die jeweils unterschiedlich strukturierte Muster projizieren.
22. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 21, wobei die Kombination der sequentiellen Muster eine Mehrzahl eindeutiger Marken (Mi) markiert.
23. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 9, wobei die Muster sich in Farbe, Form oder Struktur unter­ scheiden, z. B. mehrere Bilder mit jeweils einer horizontalen Linie und mehrere Bilder mit jeweils einer vertikalen Linie, wobei die Schnitt­ punkte der Linien in den Bildern die Marken definieren.
24. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 9, wobei die Projektionssequenz um eine weitere Sequenz mit codierten Linien, z. B. Gray-Code Sequenz, erweitert wird, die eine andere Orientierung besitzt als die Sequenz zur Generierung der Tie­ fenbilder (z. B. 90° verdreht), wobei dann die Schnittpunkte der codier­ ten Linien die gesuchten Marken (Mi) markieren.
25. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 1, wobei die Marken (Mi) von einem eigenständigen Projekti­ onssystem unabhängig vom Aufnahmesystem (12) projiziert werden.
26. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 1, wobei die Marken (Mi) sowohl vom Aufnahmesystem (12) als auch von der Ortungskamera (10, 11) erfasst werden.
27. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 9, wobei zur Bestimmung der Lage der Ortungskamera (10, 11) ein Kalibrierkörper verwendet wird.
28. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 27, wobei der Kalibrierkörper wenigstens vier eindeutig iden­ tifizierbare Marken (Mi) enthält, die von der Ortungskamera (10, 11) er­ fasst werden.
29. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 22, wobei über den Kalibrierkörper das globale Koordinaten­ system (x, y, z) festgelegt werden kann.
30. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 1, wobei die Lage der Ortungskamera mit einem Kalibrierkör­ per berechnet wird, der genau eine Marke (Mi) enthält und durch den Messraum geschwenkt wird.
31. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 1, wobei über korrespondierende, durch die Ortungskameras (10, 11) und/oder das Aufnahmesystem gewonnene Bilder, in denen die Marke detektiert wurde, die Lage der mindestens einen Ortungskamera zu dem Objekt oder zu anderen Ortungskameras (10, 11) bis auf einen Skalierungsfaktor eindeutig berechnet wird.
32. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 1, wobei die Skalierung über aufgenommene Projektionsmar­ ken oder über die durch das Aufnahmesystem (12) aufgenommene Tiefenbilder berechnet wird.
33. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 1, wobei die Lage der Ortungskamera mit einem Kalibrierkör­ per berechnet wird, der wenigstens zwei Marken (Mi) enthält und durch den Messraum geschwenkt wird.
34. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 1, wobei aus korrespondierenden Bildern, in denen die Mar­ ken detektiert wurden, die Lage der Ortungskamera relativ zu dem Ob­ jekt und/oder relativ zu anderen Ortungskameras (10, 11) berechnet wird und wobei die relative Lage der Marken zueinander durch die Skalie­ rung des Gesamtsystems bestimmt ist.
35. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 1, wobei die Tiefenbilder der Teilansichten bezüglich des Oberflächengradienten und Fehlstellen analysiert wird und basierend auf dieser Analyse die Projektion der Marken (Mi) abgeändert wird, um Marken (Mi) nicht auf Abschattungsbereiche oder Bereiche mit steilen Gradienten zu projizieren.
36. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach Anspruch 1, wobei die Ortungskameras (10, 11) beweglich angeordnet sind und während des Messvorgangs und zwischen Aufnahmen der Ortungskameras (10, 11) bewegt werden können.
37. Verfahren zum Erfassen und Vermessen eine Objektes (15) durch Re­ gistrierung von Teilansichten des Objektes (15) in einem globalen Ko­ ordinatensystem (x, y, z), welches folgende Schritte aufweist:
Aufnehmen von Teilansichten des Objektes (15) mittels eines Aufnah­ mesystems (12);
optisches Aufprojizieren von Marken (Mi) auf das Objekt (15);
Bestimmen der Markenposition in den Teilansichten;
Erfassen der Marken (Mi) durch mindestens eine Ortungskamera (10, 11) und Bestimmen der Positionen der Marken (Mi) in dem globalen Koordinatensystem (x, y, z);
Registrieren der Teilansichten des Objektes (15) in das Globale Koordi­ natensystem (x, y, z) mit Hilfe der Markenpositionen in den Teilansichten und in dem globalen Koordinatensystem (x, y, z) durch die Rechenein­ heit (13).
DE2001137241 2001-03-15 2001-07-30 Registrierung von Tiefenbildern mittels optisch projizierter Marken Withdrawn DE10137241A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE10112535 2001-03-15
DE10113298 2001-03-16
DE2001137241 DE10137241A1 (de) 2001-03-15 2001-07-30 Registrierung von Tiefenbildern mittels optisch projizierter Marken

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2001137241 DE10137241A1 (de) 2001-03-15 2001-07-30 Registrierung von Tiefenbildern mittels optisch projizierter Marken

Publications (1)

Publication Number Publication Date
DE10137241A1 true DE10137241A1 (de) 2002-09-19

Family

ID=26008788

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2001137241 Withdrawn DE10137241A1 (de) 2001-03-15 2001-07-30 Registrierung von Tiefenbildern mittels optisch projizierter Marken

Country Status (1)

Country Link
DE (1) DE10137241A1 (de)

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2869408A1 (fr) * 2004-04-23 2005-10-28 3D Shape Gmbh Procede et dispositif pour determiner la forme et les normales locales de surfaces reflechissantes
DE102007059973A1 (de) * 2007-12-11 2009-06-18 Medical Laserrent E.K. Verfahren und Identifikatorsystem zur Zuordnung von Fotodokumenten zu einem Patienten
WO2010034301A2 (de) 2008-09-25 2010-04-01 Technische Universität Braunschweig Carolo-Wilhelmina 3d-geometrie-erfassungsverfahren und -vorrichtung
DE102008062995A1 (de) * 2008-12-23 2010-06-24 Sick Ag 3D-Kamera zur Raumüberwachung
WO2010094751A2 (en) 2009-02-20 2010-08-26 3G Software & Measurement Gmbh Mobile projection system for scaling and orientation of surfaces surveyed by an optical measuring system
DE102009035336B3 (de) * 2009-07-22 2010-11-18 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US8625106B2 (en) 2009-07-22 2014-01-07 Faro Technologies, Inc. Method for optically scanning and measuring an object
DE102008034198B4 (de) * 2008-07-21 2014-01-23 Zoller & Fröhlich GmbH Target und Verfahren zum Auswerten von Scans
DE102012014330A1 (de) * 2012-07-20 2014-01-23 API - Automotive Process Institute GmbH Verfahren und Vorrichtung zur 3D-Vermessung
US8699036B2 (en) 2010-07-29 2014-04-15 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US8699007B2 (en) 2010-07-26 2014-04-15 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US8705012B2 (en) 2010-07-26 2014-04-22 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US8705016B2 (en) 2009-11-20 2014-04-22 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US8719474B2 (en) 2009-02-13 2014-05-06 Faro Technologies, Inc. Interface for communication between internal and external devices
US8730477B2 (en) 2010-07-26 2014-05-20 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US8830485B2 (en) 2012-08-17 2014-09-09 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US8896819B2 (en) 2009-11-20 2014-11-25 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US8997362B2 (en) 2012-07-17 2015-04-07 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine with optical communications bus
US9009000B2 (en) 2010-01-20 2015-04-14 Faro Technologies, Inc. Method for evaluating mounting stability of articulated arm coordinate measurement machine using inclinometers
US9074883B2 (en) 2009-03-25 2015-07-07 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US9113023B2 (en) 2009-11-20 2015-08-18 Faro Technologies, Inc. Three-dimensional scanner with spectroscopic energy detector
US9163922B2 (en) 2010-01-20 2015-10-20 Faro Technologies, Inc. Coordinate measurement machine with distance meter and camera to determine dimensions within camera images
US9168654B2 (en) 2010-11-16 2015-10-27 Faro Technologies, Inc. Coordinate measuring machines with dual layer arm
US9210288B2 (en) 2009-11-20 2015-12-08 Faro Technologies, Inc. Three-dimensional scanner with dichroic beam splitters to capture a variety of signals
USRE45854E1 (en) 2006-07-03 2016-01-19 Faro Technologies, Inc. Method and an apparatus for capturing three-dimensional data of an area of space
US9329271B2 (en) 2010-05-10 2016-05-03 Faro Technologies, Inc. Method for optically scanning and measuring an environment
US9372265B2 (en) 2012-10-05 2016-06-21 Faro Technologies, Inc. Intermediate two-dimensional scanning with a three-dimensional scanner to speed registration
US9417056B2 (en) 2012-01-25 2016-08-16 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US9417316B2 (en) 2009-11-20 2016-08-16 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US9513107B2 (en) 2012-10-05 2016-12-06 Faro Technologies, Inc. Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner
US9529083B2 (en) 2009-11-20 2016-12-27 Faro Technologies, Inc. Three-dimensional scanner with enhanced spectroscopic energy detector
US9551575B2 (en) 2009-03-25 2017-01-24 Faro Technologies, Inc. Laser scanner having a multi-color light source and real-time color receiver
US9607239B2 (en) 2010-01-20 2017-03-28 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US9628775B2 (en) 2010-01-20 2017-04-18 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
DE102012108567B4 (de) * 2011-10-05 2017-04-27 Electronics And Telecommunications Research Institute Verfahren zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
DE102016120026B4 (de) 2015-10-22 2019-01-03 Canon Kabushiki Kaisha Messvorrichtung und Verfahren, Programm, Produktherstellungsverfahren, Kalibrierungsmarkierungselement, Verarbeitungsvorrichtung und Verarbeitungssystem
US10175037B2 (en) 2015-12-27 2019-01-08 Faro Technologies, Inc. 3-D measuring device with battery pack
DE102017212371A1 (de) * 2017-07-19 2019-01-24 Carl Zeiss Industrielle Messtechnik Gmbh Bestimmung einer Marke in einem Datensatz mit mittels zumindest eines Laserscanners erfassten dreidimensionalen Oberflächen-Koordinaten einer Szene
US10281259B2 (en) 2010-01-20 2019-05-07 Faro Technologies, Inc. Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features
DE102018127221A1 (de) * 2018-10-31 2020-04-30 Carl Zeiss Industrielle Messtechnik Gmbh Koordinatenmesssystem
DE102018129144A1 (de) 2018-11-20 2020-05-20 Carl Zeiss Industrielle Messtechnik Gmbh Dynamische Auswahl einer Kamerakonfiguration zur Objektnavigation- und verfolgung
DE102018129143A1 (de) 2018-11-20 2020-05-20 Carl Zeiss Industrielle Messtechnik Gmbh Variabler messobjektabhängiger Kameraaufbau und Kalibrierung davon
DE102019119908A1 (de) * 2019-07-23 2021-01-28 Carl Zeiss Industrielle Messtechnik Gmbh Sensoranordnung und Verfahren zur Bestimmung von geometrischen Eigenschaften eines Messobjekts

Cited By (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2869408A1 (fr) * 2004-04-23 2005-10-28 3D Shape Gmbh Procede et dispositif pour determiner la forme et les normales locales de surfaces reflechissantes
USRE45854E1 (en) 2006-07-03 2016-01-19 Faro Technologies, Inc. Method and an apparatus for capturing three-dimensional data of an area of space
DE102007059973A1 (de) * 2007-12-11 2009-06-18 Medical Laserrent E.K. Verfahren und Identifikatorsystem zur Zuordnung von Fotodokumenten zu einem Patienten
DE102008034198B4 (de) * 2008-07-21 2014-01-23 Zoller & Fröhlich GmbH Target und Verfahren zum Auswerten von Scans
WO2010034301A2 (de) 2008-09-25 2010-04-01 Technische Universität Braunschweig Carolo-Wilhelmina 3d-geometrie-erfassungsverfahren und -vorrichtung
DE102008048963A1 (de) * 2008-09-25 2010-04-22 Technische Universität Braunschweig Carolo-Wilhelmina 3D-Geometrie-Erfassungsverfahren und -vorrichtung
DE102008048963B4 (de) * 2008-09-25 2011-08-25 Technische Universität Braunschweig Carolo-Wilhelmina, 38106 3D-Geometrie-Erfassungsverfahren und -vorrichtung
DE102008062995A1 (de) * 2008-12-23 2010-06-24 Sick Ag 3D-Kamera zur Raumüberwachung
US8719474B2 (en) 2009-02-13 2014-05-06 Faro Technologies, Inc. Interface for communication between internal and external devices
WO2010094751A2 (en) 2009-02-20 2010-08-26 3G Software & Measurement Gmbh Mobile projection system for scaling and orientation of surfaces surveyed by an optical measuring system
US8526011B2 (en) 2009-02-20 2013-09-03 3Gsm Gmbh Mobile projection system for scaling and orientation of surfaces surveyed by an optical measuring system
US9551575B2 (en) 2009-03-25 2017-01-24 Faro Technologies, Inc. Laser scanner having a multi-color light source and real-time color receiver
US9074883B2 (en) 2009-03-25 2015-07-07 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US8625106B2 (en) 2009-07-22 2014-01-07 Faro Technologies, Inc. Method for optically scanning and measuring an object
DE102009035336B3 (de) * 2009-07-22 2010-11-18 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US8384914B2 (en) 2009-07-22 2013-02-26 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US8896819B2 (en) 2009-11-20 2014-11-25 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US8705016B2 (en) 2009-11-20 2014-04-22 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US9113023B2 (en) 2009-11-20 2015-08-18 Faro Technologies, Inc. Three-dimensional scanner with spectroscopic energy detector
US9529083B2 (en) 2009-11-20 2016-12-27 Faro Technologies, Inc. Three-dimensional scanner with enhanced spectroscopic energy detector
US9210288B2 (en) 2009-11-20 2015-12-08 Faro Technologies, Inc. Three-dimensional scanner with dichroic beam splitters to capture a variety of signals
US9417316B2 (en) 2009-11-20 2016-08-16 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US9009000B2 (en) 2010-01-20 2015-04-14 Faro Technologies, Inc. Method for evaluating mounting stability of articulated arm coordinate measurement machine using inclinometers
US9628775B2 (en) 2010-01-20 2017-04-18 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US10060722B2 (en) 2010-01-20 2018-08-28 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US9163922B2 (en) 2010-01-20 2015-10-20 Faro Technologies, Inc. Coordinate measurement machine with distance meter and camera to determine dimensions within camera images
US9607239B2 (en) 2010-01-20 2017-03-28 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US10281259B2 (en) 2010-01-20 2019-05-07 Faro Technologies, Inc. Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features
US9329271B2 (en) 2010-05-10 2016-05-03 Faro Technologies, Inc. Method for optically scanning and measuring an environment
US9684078B2 (en) 2010-05-10 2017-06-20 Faro Technologies, Inc. Method for optically scanning and measuring an environment
US8705012B2 (en) 2010-07-26 2014-04-22 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US8730477B2 (en) 2010-07-26 2014-05-20 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US8699007B2 (en) 2010-07-26 2014-04-15 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US8699036B2 (en) 2010-07-29 2014-04-15 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US9168654B2 (en) 2010-11-16 2015-10-27 Faro Technologies, Inc. Coordinate measuring machines with dual layer arm
DE102012108567B4 (de) * 2011-10-05 2017-04-27 Electronics And Telecommunications Research Institute Verfahren zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters
US9417056B2 (en) 2012-01-25 2016-08-16 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US8997362B2 (en) 2012-07-17 2015-04-07 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine with optical communications bus
DE102012014330A1 (de) * 2012-07-20 2014-01-23 API - Automotive Process Institute GmbH Verfahren und Vorrichtung zur 3D-Vermessung
US8830485B2 (en) 2012-08-17 2014-09-09 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US9513107B2 (en) 2012-10-05 2016-12-06 Faro Technologies, Inc. Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner
US9739886B2 (en) 2012-10-05 2017-08-22 Faro Technologies, Inc. Using a two-dimensional scanner to speed registration of three-dimensional scan data
US9618620B2 (en) 2012-10-05 2017-04-11 Faro Technologies, Inc. Using depth-camera images to speed registration of three-dimensional scans
US10203413B2 (en) 2012-10-05 2019-02-12 Faro Technologies, Inc. Using a two-dimensional scanner to speed registration of three-dimensional scan data
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
US11035955B2 (en) 2012-10-05 2021-06-15 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
US10739458B2 (en) 2012-10-05 2020-08-11 Faro Technologies, Inc. Using two-dimensional camera images to speed registration of three-dimensional scans
US11112501B2 (en) 2012-10-05 2021-09-07 Faro Technologies, Inc. Using a two-dimensional scanner to speed registration of three-dimensional scan data
US9746559B2 (en) 2012-10-05 2017-08-29 Faro Technologies, Inc. Using two-dimensional camera images to speed registration of three-dimensional scans
US9372265B2 (en) 2012-10-05 2016-06-21 Faro Technologies, Inc. Intermediate two-dimensional scanning with a three-dimensional scanner to speed registration
DE102016120026B4 (de) 2015-10-22 2019-01-03 Canon Kabushiki Kaisha Messvorrichtung und Verfahren, Programm, Produktherstellungsverfahren, Kalibrierungsmarkierungselement, Verarbeitungsvorrichtung und Verarbeitungssystem
US10175037B2 (en) 2015-12-27 2019-01-08 Faro Technologies, Inc. 3-D measuring device with battery pack
US10282845B2 (en) 2017-07-19 2019-05-07 Carl Zeiss Industrielle Messtechnik Gmbh Determining a mark in a data record with three-dimensional surface coordinates of a scene, captured by at least one laser scanner
DE102017212371A1 (de) * 2017-07-19 2019-01-24 Carl Zeiss Industrielle Messtechnik Gmbh Bestimmung einer Marke in einem Datensatz mit mittels zumindest eines Laserscanners erfassten dreidimensionalen Oberflächen-Koordinaten einer Szene
DE102017212371B4 (de) 2017-07-19 2020-06-04 Carl Zeiss Industrielle Messtechnik Gmbh Bestimmung einer Marke in einem Datensatz mit mittels zumindest eines Laserscanners erfassten dreidimensionalen Oberflächen-Koordinaten einer Szene
DE102018127221A1 (de) * 2018-10-31 2020-04-30 Carl Zeiss Industrielle Messtechnik Gmbh Koordinatenmesssystem
DE102018127221B4 (de) * 2018-10-31 2021-05-06 Carl Zeiss Industrielle Messtechnik Gmbh Koordinatenmesssystem
DE102018129143A1 (de) 2018-11-20 2020-05-20 Carl Zeiss Industrielle Messtechnik Gmbh Variabler messobjektabhängiger Kameraaufbau und Kalibrierung davon
DE102018129144A1 (de) 2018-11-20 2020-05-20 Carl Zeiss Industrielle Messtechnik Gmbh Dynamische Auswahl einer Kamerakonfiguration zur Objektnavigation- und verfolgung
DE102018129143B4 (de) * 2018-11-20 2021-06-17 Carl Zeiss Industrielle Messtechnik Gmbh Variabler messobjektabhängiger Kameraaufbau und Kalibrierung davon
DE102019119908A1 (de) * 2019-07-23 2021-01-28 Carl Zeiss Industrielle Messtechnik Gmbh Sensoranordnung und Verfahren zur Bestimmung von geometrischen Eigenschaften eines Messobjekts

Similar Documents

Publication Publication Date Title
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
EP2273229B1 (de) Verfahren zur Bestimmung der 3D-Koordinaten eines Objekts
EP2489977B1 (de) Verfahren zur Bestimmung der 3-D-Koordinaten eines Objekts und zum Kalibrieren eines Industrieroboters
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
EP1181814B1 (de) Verfahren zur erfassung und darstellung eines oder mehrerer objekte, beispielsweise zähne
DE102007054906B4 (de) Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten
EP2040026B1 (de) Verfahren und System zur Kalibrierung einer Vorrichtung zur Formmessung einer spiegelnden Oberfläche
DE102008041523B4 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
EP2574876B1 (de) Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
EP1290408B1 (de) Verfahren und anordnungen zur photogrammetrischen erfassung der raumform eines objekts
DE10020893B4 (de) Verfahren zur optischen Formerfassung von Gegenständen
DE19502459A1 (de) Verfahren zur dreidimensionalen optischen Vermessung der Oberfläche von Objekten
EP0923705B1 (de) Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten von gegenständen
DE102009032771B4 (de) Messeinrichtung und Verfahren zum dreidimensionalen optischen Vermessen von Objekten
EP2133659A1 (de) Verfahren und Vorrichtung zur Ermittlung der Lage eines Sensors
DE10359104B3 (de) Verfahren zur dynamischen, dreidimensionalen Erfassung und Darstellung einer Oberfläche
DE19626889A1 (de) Verfahren und Vorrichtung zur Erfassung von Geometriedaten aus unterschiedlichen Beobachtungspositionen
EP1098268A2 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE10112732C2 (de) Verfahren zur Bestimmung der Lage von Meßbildern eines Objektes relativ zum Objekt
WO2009018894A1 (de) Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts
DE102010029627B4 (de) Vorrichtung und Verfahren zur Bestimmung der Struktur einer spiegelnden Oberfläche eines Objekts
DE102005043753A1 (de) Verfahren zur Bestimmung der Raumkoordinaten von Oberflächenpunkten eines Prüflings und Vorrichtung zur Durchführung des Verfahrens
DE102016205219A1 (de) Mehr-Richtungs-Triangulations-Messsystem mit Verfahren
DE19956646C1 (de) Vorrichtung und Verfahren zur Erfassung der Raumkoordinaten von farblich differenzierten Oberflächenmerkmalen
DE102017208526A1 (de) Marker basierter Kamera-Tracker

Legal Events

Date Code Title Description
8127 New person/name/address of the applicant

Owner name: HUMAN SOLUTIONS GMBH, 67657 KAISERSLAUTERN, DE

8139 Disposal/non-payment of the annual fee