DE10137241A1 - Registrierung von Tiefenbildern mittels optisch projizierter Marken - Google Patents
Registrierung von Tiefenbildern mittels optisch projizierter MarkenInfo
- Publication number
- DE10137241A1 DE10137241A1 DE10137241A DE10137241A DE10137241A1 DE 10137241 A1 DE10137241 A1 DE 10137241A1 DE 10137241 A DE10137241 A DE 10137241A DE 10137241 A DE10137241 A DE 10137241A DE 10137241 A1 DE10137241 A1 DE 10137241A1
- Authority
- DE
- Germany
- Prior art keywords
- marks
- location
- particular according
- camera
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2545—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
Abstract
Die Erfindung sieht eine Vorrichtung und ein Verfahren zum Erfassen und Vermessen eines Objekts (15) durch Registrierung von Teilansichten des Objektes (15) in einem globalen Koordinatensystem vor, wobei das Aufkleben von Registrierungsmarken zur Registrierung der einzelnen Teilansichten des Objektes (15), die von einer Aufnahmeeinheit (12) aufgenommen werden, vermieden wird, und zwar durch das optische Aufprojizieren von Marken (M¶i¶) auf das Objekt (15) und durch das Erfassen der Marken (M) durch Ortungskameras (10, 11). Eine Recheneinheit (13) registriert die Teilansichten in das globale Koordinatensystem mit Hilfe der Information über die erfassten Marken (M¶i¶).
Description
Die Erfindung bezieht sich auf die Registrierung von Tiefenbildern mittels op
tisch projizierter Marken.
Die Aufnahme von Tiefenbildern, also zweieinhalbdimensionalen Ansichten
eines Objektes ist bereits Stand der Technik und mit hoher Genauigkeit mög
lich. Als Aufnahmesysteme kommen am häufigsten 3D-Messsysteme nach
dem codierten Lichtansatz zum Einsatz. Dazu wird mit einem Projektor eine
Sequenz von Linien auf das Objekt projiziert, die in ihrer zeitlichen Folge jeder
unterscheidbaren Linie einen eindeutigen Binärcode zuweisen. Die Projekti
onslinien auf dem Objekt werden im allgemeinen von einer oder zwei Kame
ras aufgenommen. Durch eine vorab durchgeführte Kalibrierung ordnen die
Liniencodes jedem Pixel im Kamerabild einen Tiefenwert zu, der über die be
kannten Abbildungseigenschaften der Kameras zu einer dreidimensionalen
Objektkoordinate auf dem Objekt führt.
Eingeschränkt werden derartige Systeme durch mehrere Aspekte. Vermessen
werden können nur Bereiche auf dem Objekt, die sowohl vom Projektor be
leuchtet, als auch von den Kameras erfasst werden. Bei stark strukturierten
Oberflächen kommt es schnell zu Abschattungen. Zudem kann das Objekt nur
von einer Seite erfasst werden. Um eine vollständige Erfassung des Objektes
zu erreichen, sind im Allgemeinen viele Tiefenbilder aus unterschiedlichen
Perspektiven und Richtungen notwendig. Das Problem bei dieser Vorgehens
weise besteht in der Notwendigkeit, die normalerweise unabhängig voneinan
der aufgenommenen Tiefenbilder in ein gemeinsames Koordinatensystem zu
rück zu transformieren (Registrierung).
Wenn keine Information über die Lage der einzelnen Tiefenbilder mehr vor
liegt, bleibt nur die Registrierung der Tiefenbilder mittels Optimierungsverfah
ren im Computer. Bei bekannten Verfahren muss die grobe Lage der Tiefen
bilder zueinander vom Benutzer manuell vorgegeben werden. In einem auf
wendigen Optimierungsverfahren werden die Tiefenbilder dann vom Computer
zusammengefügt. Das Verfahren funktioniert allerdings nur, wenn ausrei
chend markante Merkmale auf den Überlappungsbereichen der verschiede
nen Tiefenbilder existieren. Damit sind diese Verfahren prinzipbedingt sehr
unsicher und ungenau.
Um bereits während der Messung eine spätere Registrierung zu sichern, sind
im Wesentlichen drei Verfahren bekannt. Durch die Koppelung von Positio
niersystemen mit den Messköpfen kann jedem Tiefenbild direkt eine globale
Position zugeordnet werden. Bei sehr großen Objekten ist allerdings ein ent
sprechend großes Positioniersystem nötig. Zudem wird jeder Positionierfehler
vom Messkopf zum eigentlichen Messbereich hin vergrößert, so dass sehr
hohe Ansprüche an die Genauigkeit der Hardware bestehen.
Zwei weitere bekannte Verfahren sehen Hilfen zur Registrierung der Tiefen
bilder auf dem Objekt vor. Dazu werden in beiden Fällen Marken auf das zu
vermessende Objekt aufgeklebt, die in den Tiefenbildern wiedergefunden
werden können. Im ersten Fall sind jeweils drei Marken in den Überlappungs
bereichen zweier Tiefenbilder nötig, um die Tiefenbilder einander zuordnen zu
können. Offensichtlicher Nachteil dieses Verfahrens ist die hohe Anzahl der
Marken, die in jedem Tiefenbild sichtbar sein müssen, zudem müssen breite
Überlappungen zwischen den Tiefenbildern existieren.
Besser und genauer ist das zweite, auf Marken basierende Verfahren. Jede
auf das Objekt aufgebrachte Marke wird photogrammetrisch vermessen und in
ein gemeinsames, globales Koordinatensystem eingeordnet. In jedem aufge
nommenen Tiefenbild müssen nur drei Marken erkannt werden, um eine Regi
strierung im globalen Koordinatensystem zu ermöglichen.
Gemeinsamer Nachteil der markenbasierten Verfahren ist die notwendige
Vorbereitung des Messobjekts, dem Aufbringen der Marken. Die Messung
muss vorab sehr genau geplant werden, da ein nachträgliches Anbringen oder
Einmessen weiterer Marken oft nur schwer möglich ist. Gerade bei empfindli
chen Messobjekten, wie z. B. Denkmälern, ist aber das Anbringen von Marken
auf dem Objekt grundsätzlich nicht möglich. Zudem bedeutet das Anbringen
und Einmessen von Marken einen nicht zu unterschätzenden Aufwand.
Aufgabe der vorliegenden Erfindung ist es eine Vorrichtung und ein Verfahren
zum Erfassen von Objekten durch Registrierung von Teilansichten vorzuse
hen, bei dem das zeitraubende Anbringen von Marken auf dem zu vermessen
den Objekt vermieden werden kann.
Die Aufgabe wird durch das erfindungsgemäße Verfahren und Vorrichtung mit
den in Anspruch 1 und 37 aufgeführten Merkmalen gelöst, insbesondere da
durch, dass Marken auf das Objekt optisch projiziert werden, die Marken von
zumindest einer Ortungskamera erfasst werden und eine Recheneinheit unter
Verwendung der Information über die erfassten Marken die Teilansichten des
Aufnahmesystems in das globales Koordinatensystem registriert.
Die mit der Erfindung erzielten Vorteile bestehen insbesondere darin, dass eine
notwendige Vorbereitung des Messobjektes entfällt, wodurch Schäden an
dem Messobjekt vermieden werden und der Zeitaufwand für den Messvor
gang verringert wird.
Gemäß einer vorteilhaften Ausführungsform der Erfindung weist das Verfah
ren und die Vorrichtung ein Aufnahmesystem auf, welches einerseits mittels
eines Projektors Lichtmuster auf das Objekt für die Aufnahme von Teilan
sichten des Objekts projiziert und gleichzeitig mit dem selben Projektor auch
die Marken auf das Objekt projiziert. Hierdurch wird die Anzahl der Kompo
nenten der Vorrichtung reduziert.
Vorteilhafterweise werden bei dem erfindungsgemäßen Verfahren durch Neu
positionierung des Aufnahmesystems im Weiteren Teilansichten des Objekts
aus verschiedenen Sichtwinkeln aufgenommen und Marken projiziert, bis das
gesamte Objekt ausreichend erfasst wurde.
Weitere Vorteile liegen darin, dass auf ein Positionierungssystem oder ähnliche
mechanische Hilfen verzichtet werden kann. Die Einmessung der projizierten
Marken geschieht in einem Arbeitsgang mit der eigentlichen Aufnahme der
Teilansicht durch die zusätzlichen Ortungskameras 10, 11, die um das Objekt
aufgestellt werden. Durch geschickte Anordnung der Ortungskameras 10, 11
kann der Messraum individuell auf fast jedes beliebige Objekt eingestellt wer
den.
Vorteilhafterweise kann das erfindungsgemäße System selbstkalibrierend
ausgestaltet sein, d. h., dass die Lage der Ortungskameras 10,11 während der
Messung selbstständig bestimmt wird. Kalibrierkörper sind hierbei nicht mehr
notwendig.
Weitere vorteilhafte Ausgestaltungen sind in den abhängigen Patentansprü
chen beschrieben.
Anhand der Fig. 1 und Fig. 2 seien Ausführungsbeispiele der Erfindung be
schrieben.
Fig. 1 zeigt schematisch eine Vorrichtung und ein Verfahren zur Regi
strierung von Teilansichten eines Objektes;
Fig. 2 zeigt ein Flussdiagramm für das erfindungsgemäße Verfahren
und die Vorrichtung zur Registrierung von Teilansichten eines
Objektes.
Bezugnehmend auf die Fig. 1 wird ein Objekt 15, das ein dreidimensionaler
Körper aber auch eine beliebige Fläche eines Körpers, sein kann, mittels des
erfindungsgemässen Verfahrens bzw. einer Vorrichtung 1 erfasst und ver
messen. Die Vorrichtung weist eine Aufnahmesystem 12, eine Recheneinheit
13, sowie mindestens eine Ortungskamera 10, 11 und einen Monitor 14 auf.
Die Recheneinheit 13 ist mit dem Aufnahmesystem 12 und den Ortungskame
ras 10, 11 verbunden um einen Datenaustausch zu ermöglichen. Über den mit
der Recheneinheit 13 verbundenen Monitor werden Zwischen- und Endergeb
nisse des Messvorgangs visualisiert.
Das Aufnahmesystem 12 umfasst im bevorzugten Ausführungsbeispiel einen
3D-Sensor, der so positioniert ist, dass er eine Teilansicht des Objektes 15
erfasst. Der 3D-Sensor dient zur Generierung eines räumlichen Tiefenbildes
T, der Teilansicht des Objektes 15, wobei der Index I ein bestimmtes Tiefen
bild bezeichnet. Hierzu weist das Aufnahmesystem 12 im bevorzugten Bei
spielen einen Gray-Code-Projektor mit mindestens einer Kamera (beide nicht
dargestellt) in Triangulationsanordnung auf. Der Projektor des Aufnahmesy
stems 12 durchläuft eine Projektionssequenz von Projektionsbildern, wobei
jedes Projektionsbild ein bestimmtes Lichtmuster auf dem Objekt abbildet.
Das Lichtmuster wird von der zumindest einen Kamera des Aufnahmesystems
12 aufgenommen. Durch eine vorab durchgeführte Kalibrierung des Aufnah
mesystems ordnen die Lichtmuster jedem Pixel im Kamerabild der Kamera
des Aufnahmesystems 12 einen Tiefenwert zu, der über die bekannten Abbil
dungseigenschaften der Kamera zu einer dreidimensionalen Objektkoordinate
P(aI, bI, cI) für das Tiefenbild führt, wobei aI, bI, cI die Koordinaten des Punktes
P im spezifischen Koordinatensystem des Tiefenbildes TI sind. Die einzelnen
Objektkoordinaten P(aI, bI, cI) der Pixel eines Kamerabildes einer erfassten
Ansicht bilden zusammen das Tiefenbild TI(aI, bI, cI). Die Kamera des Auf
nahmesystems 12 liefert für jedes Projektionsbild der Projektionssequenz
mindestens ein Kamerabild. Im bevorzugten Ausführungsbeispiel wird das
Kamerabild in dem Aufnahmesystem 12 zur Gewinnung des Tiefenbildes TI
(aI, bI, cI) analysiert, es ist jedoch auch denkbar das alle Bildverarbeitungs
schritte zentral in der Recheneinheit 13 stattfindet und das Aufnahmesystem
12 das Kamerabild plus den gemessenen Parametern zur Tiefenwertbestim
mung direkt an die Recheneinheit 13 weitergibt.
Das Aufnahmesystem 12 zur Generierung von Tiefenbildern des Objektes 15
kann jedoch auch alternativ jedes System auf der Basis von codierten Licht
mustern sein, z. B. das Phasen-Shiftverfahren, das Moirée-Verfahren oder ein
selbst kalibrierendes Gray-Code-Verfahren. Weiterhin könnte das Aufnahme
verfahren der Aufnahmesystems 12 alternativ auf 3D-Scannern, z. B. 3D-
Laserscannern, basieren. Schlussendlich könnte das Aufnahmesystem 12 auf
aktiver oder passiver Stereoskopie, z. B. einem Stereokamerasystem basie
ren.
Das Aufnahmesystem 12 ist in seiner relativen Lage zu dem Objekt 15 verän
derbar angeordnet, d. h. die Position des Aufnahmesystems 12 kann verändert
werden, um eine andere Teilansicht des Objektes 15 zu erfassen und damit
weitere Tiefenbilder TI(aI, bI, cI) zu erzeugen, um schlussendlich das gesamte
Objekt 15 zu erfassen und zu vermessen.
Da die so erzeugten Tiefenbilder TI ein Sensor- bzw. tiefenbildspezifisches
Koordinatensystem aI, bI, cI aufweisen, werden für die Registrierung der ein
zelnen Tiefenbilder TI Marken Mi eingesetzt. Im bevorzugten Beispiel werden
die Marken Mi durch den Projektor des Aufnahmesystems 12 optisch auf das
Objekt 15 projiziert. Alternativ könnten die Marken Mi von einem unabhängi
gen separaten Projektor (nicht dargestellt) auf das Objekt 15 aufprojiziert
werden.
In dem bevorzugten Ausführungsbeispiel werden zusätzliche Projektionsbilder
in die Projektionssequenz des Projektors des Aufnahmesystems 12 eingefügt,
in denen die Marken Mi auf das Objekt 15 aufprojiziert werden. Bevorzugter
weise wird die Projektionssequenz mit Projektionsbildern erweitert, die jeweils
eine punktförmige Marke Mi enthalten und wobei wenigstens drei Marken Mi
pro Projektionssequenz projiziert werden.
In anderen Ausführungsbeispielen wird die Projektionssequenz um wenig
stens ein Bild erweitert, das mehrere Marken Mi gleichzeitig enthält, wobei die
Marken Mi durch Farbe, Form oder Struktur unterscheidbar sind, z. B. ver
schiedenfarbige Punkte oder ein diffuses Muster.
Alternativ wird die Projektionssequenz um mehrere Bilder erweitert, die je
weils unterschiedlich strukturierte Muster projizieren. Die Kombination der se
quentiellen Muster markiert, aber eine Mehrzahl eindeutiger Marken Mi. Die
Muster unterscheiden sich wiederum in Farbe, Form oder Struktur. Ein Bei
spiel hierfür wären mehrere Bilder, die in die Projektionssequenz eingefügt
werden mit jeweils einer horizontalen Linie und mehrere Bilder mit jeweils ei
ner vertikalen Linie, wobei die Schnittpunkte der Linien in den Bildern die
Marken Mi definieren.
In einem weiteren bevorzugten Ausführungsbeispiel wird die Projektionsse
quenz des Projektors des Aufnahmesystems 12 um eine weitere Sequenz mit
codierten Linien erweitert (z. B. Gray-Code Sequenz), die eine andere Orien
tierung hat als die Sequenz zur Generierung der Tiefenbilder TI (z. B. um 90°
verdreht). Die Schnittpunkte der codierten Linien markieren wiederum die ge
suchten Marken Mi.
Die bevorzugte Realisierung des Messsystems sieht folgendes vor: Zunächst
erfolgt die Projektion einer Gray-Code/Phasensequenz zur Generierung des
Tiefenbildes und dann die Projektion von sechs horizontalen und sechs verti
kalen Linien mit dem Projektor auf das Messobjekt 15. Die Kreuzungspunkte
dieser Linien markieren demnach 36 Marken Mi . Um zu garantieren, dass
möglichst viele dieser Marken in gut einsehbare Bereiche auf das Objekt 15
projiziert werden, wird zwischen Tiefenbildaufnahme und Markenprojektion
eine Analyse des gewonnenen Tiefenbildes TI durchgeführt. Die Linien wer
den anschließend so projiziert, dass vorzugsweise keine Abschattungsberei
che oder Bereiche mit steilen Gradienten beleuchtet werden.
Durch Auswertung der Daten des Aufnahmesystems 12 werden nicht nur die
Tiefenbilder TI(aI, bI, cI) bestimmt, sondern auch die Positionen der Marken
Mi(ai,I, bi,I, ci,I) im Tiefenbild TI(aI, bI, cI), wobei mit ai,I, bi,I, ci,I die Koordinaten
der Marke Mi im Koordinatensystem des Tiefenbildes TI bezeichnet werden.
An den Bildpositionen Mi(ai,I, bi,I, ci,I) der Marken im Tiefenbild TI muss prin
zipbedingt vorher bereits eine 3D-Koordinate im Tiefenbild TI(aI, bI, cI) aufge
nommen worden sein. Der Vergleich der Bildposition Mi(ai,I, bi,I, ci,I) einer Mar
ke Mi mit dem, an gleicher Bildposition aufgenommenen Tiefenwert des Tie
fenbildes TI(aI, bI, cI) führt direkt zur Markenposition Mi(ai,I, bi,I, ci,I).
Bezüglich des bevorzugten Ausführungsbeispiels, in dem sechs horizontale
und sechs vertikale Linien mit dem Projektor auf das Messobjekt 15 projiziert
werden, bedeutet dies, dass aus den letzten zwölf Projektionsbildern der
Projektionssequenz die 36 Bildprojektionen der Marken mit dem gleichen Sy
stem, mit dem auch die Tiefenbilder TI(aI, bI, cI) berechnet wurden, extrahiert
werden. Da in einem Tiefenbild TI(aI, bI, cI) die 3D-Punkte entsprechend den
Pixel/Bildprojektionen im Kamerabild der Aufnahmeeinheit 12 abgespeichert
sind, können die Markenpositionen Mi(ai,I, bi,I, ci,I) also unmittelbar dem Tie
fenbild TI(aI, bI, cI) entnommen werden.
Wenn hingegen für das Aufnahmesystem 12 ein Laserscanner, d. h. einem
Sensor, der einen Laserpunkt in zwei Richtungen, R1, R2 ablenkt und bei
spielsweise nach dem Lichtlaufzeitverfahren arbeitet, verwendet wird, muss
um die Markenposition Mi(ai,I, bi,I, ci,I) im Tiefenbild zu bestimmen wie folgt
vorgegangen werden: Als erstes würde man ein Scanbild in R1- und R2-
Ordnung erzeugen, danach würde man an definierten R1,R2-Positionen einen
einzelnen Punkt projizieren und mit den Ortungskameras 10, 11 aufnehmen.
Auch hier hat dann die Marke "R1,R2" die Position, die an gleicher Stelle zuvor
gemessen wurde.
Durch die Bestimmung der Markenposition Mi(ai,I, bi,I, ci,I) in den Tiefenbildern
TI(aI, bI, cI) kann die relative Lage der projizierten Marken Mi zueinander aus
der Tiefenbildinformation TI(aI, bI, cI) berechnet werden.
Das Aufnahmesystem (12) gibt die Tiefenbildinformation TI(aI, bI, cI) und die
Markenposition Mi(ai,I, bi,I, ci,I) an die Recheneinheit 13 weiter. Alternativ, gibt
das Aufnahmesystem 12 lediglich die Tiefenbildinformation TI(aI, bI, cI) an die
Recheneinheit 13 weiter und diese bestimmt, wie oben beschrieben, die Mar
kenposition Mi(ai,I, bi,I, ci,I).
Die zuvor erwähnte mindestens eine Ortungskamera 10, 11 wird auf das zu
vermessene Objekt 15 ausgerichtet. Das bevorzugte Ausführungsbeispiels
der vorliegenden Erfindung weist zwei Ortungskameras 10, 11 auf (siehe Fig.
1). Vorzugsweise wird jedoch das gesamte Objekt 15 mit Ortungskameras
10, 11 umstellt. Für die Vermessung eines Objektes 15 von der Größe eines
Autos wären z. B. etwa 15-20 Kameras nötig. Bevorzugterweise werden die
Ortungskameras 10, 11 in einer Messkabine (nicht dargestellt) aufgebaut, um
eine feste Montierung der Ortungskameras 10, 11 und damit eine stationäre
Lage zu gewährleisten. Die fest konfigurierte Messkabine kann auf das zu
vermessende Objekt (15) zugeschnitten sein. Alternativ können die Ortungs
kameras 10, 11 jedoch auch während des Messvorgangs umgestellt werden,
um ein größeres oder kleineres Messvolumen zu realisieren, wobei jedoch
eine kontinuierliche Aktualisierung der Kalibrierung der Ortungskameras 10, 11
nötig ist.
Die auf das Objekt 15 aufprojizierten Marken Mi werden von den Ortungska
meras 10, 11 durch Bildaufnahme erfasst. Wie bereits zuvor festgestellt, proji
ziert der Projektor des Aufnahmesystems 12 die Sequenzen zur Bestimmung
der Tiefenbilder TI(aI, bI, cI) und Sequenzen zur Bildung der Marken Mi auf das
Objekt 15. Sinnvollerweise wird die Bildaufnahme der Ortungskameras 10, 11
mit der Projektionssequenz des Projektors abgestimmt, so dass für jede Auf
nahme aller Ortungskameras klar ist, welches Muster im Bild wiedergefunden
wird. Genauer gesagt, wird der Projektor der Aufnahmeeinheit 12 erst dann
angewiesen, ein neues Projektionsbild zu erzeugen, wenn alle Ortungskame
ras 10, 11 das letzte Projektionsbild der Projektionssequenz aufgenommen
haben.
Aus der gewonnenen Bildinformation der Ortungskameras 10, 11 kann die
Bildpositionen der Marken Mi in den Ortungskameras Mi(u1, v1), Mi(u2, v2) be
stimmt werden, wobei u1, v1 bzw. u2, v2 die Koordinaten der Marken Mi in
der zweidimensionalen Bildinformation der Ortungskamera 10 bzw. 11 be
zeichnen.
Die durch die Ortungskameras 10, 11 gewonnene Bildinformation wird im be
vorzugten Ausführungsbeispiel der vorliegenden Erfindung zur Verarbeitung
direkt an die Recheneinheit 13 weitergegeben, die angefangen mit der Be
stimmung der Bildpositionen der Marken Mi in den Ortungskameras Mi(u1, v1),
Mi(u2, v2) die restliche Verarbeitung ausführt. Es ist aber auch durchaus denk
bar, das sogenannte Smart-Kameras für die Ortungskameras 10, 11 eingesetzt
werden, wobei ein Teil der Verarbeitung schon bereits in den Ortungskameras
stattfindet.
Wenn nun die Lage K1(x1, y1, z1), K2(x2, y2, z2) der Ortungskameras 10, 11 im
globalen Koordinatensystem x, y, z bekannt ist, kann die absolute bzw. glo
bale Lage Mi(xi, yi, zi) der projizierten Marken Mi aus der Lageinformationen
K1(x1, y1, z1), K2(x2, y2, z2) der Ortungskameras 10, 11 und aus den Markenpo
sitionen Mi(u1, v1), Mi(u2, v2) berechnet werden.
Hierbei ist wird mit K1(x1, y1, z1) der Lage der ersten Ortungskamera 10 im
globalen Koordinatensystem bezeichnet. Hierbei ist anzumerken, das die La
ge der Ortungskamera nicht nur durch die drei Raumkoordinaten x1, y1, z1,
sondern auch weitere Parameter, wie die Orientierung der Ortungskamera 10,
11 umfaßt. Die Orientierung der Ortungskamera wird durch drei Winkel α, β, γ
festgelegt, die im Folgenden nicht explizit aufgelistet werden, aber mit in die
Berechnung z. B. der globalen Lage Mi(xi, yi, zi) der projizierten Marken Mi ein
fließen. Ähnliches gilt für die zu berechnende Lage der Tiefenbilder, die
ebenfalls eine durch Winkel bestimmte Orientierung umfaßt.
Zur Berechnung der globalen Markenposition Mi(xi, yi, zi) werden zu einer
Marke Mi in allen Ortungskameras 10, 11 (in denen diese Marke zu sehen ist),
Sehstrahlen anhand der Bildpositionen der Marken Mi(u1, v1), Mi(u2, v2) be
rechnet. Der Schnittpunkt aller Sehstrahlen einer Marke Mi wird als die globale
Position Mi(xi, yi, zi) dieser Marke Mi definiert (da sich die Sehstrahlen im all
gemeinen nicht schneiden, wird hier gegebenenfalls eine Ausgleichsrechnung
durchgeführt).
Im Weiteren sei noch angemerkt, dass alle Marken Mi in allen Kameras, d. h.
Ortungskameras 10, 11 sowie Kameras in dem Aufnahmesystem 12 eindeutig
identifiziert werden können, da die Bildsequenzen zwischen den einzelnen
Kameras abgestimmt sind. In dem bevorzugten Ausführungsbeispiel, in dem
sechs horizontale und sechs vertikale Linien mit dem Projektor auf das
Messobjekt projiziert werden, um die Marken Mi zu definieren, wird eine Mar
ke Mi durch die Aufnahmenummer (1-n, wobei n die Anzahl der Aufnahmen
ist), die horizontalen Liniennummern (1-6) und die vertikalen Liniennummern (1-
6) identifiziert. Diese Identifizierung kann in allen Ortungskameras 10, 11 und
den Kameras des Aufnahmesystems 12 gleicher Weise durchgeführt werden.
Durch die aus den Daten des Aufnahmesystems 12 bestimmte relative Lage
der Projektionsmarken Mi(ai,I, bi,I, ci,I) und der absoluten Lage Mi(xi, yi, zi) der
Projektionsmarken lässt sich eine Transformation des Tiefenbildes TI(aI, bI, cI)
in das globale Koordinationssystem TI(xI, yI, zI) berechnen (Registrierung),
wobei xI, yI, zI die Koordinaten der Punkte des Tiefenbildes TI in dem globalen
Koordinatensystem x, y, z bezeichnen.
Durch Umpositionieren des Aufnahmesystems 12 werden im Weiteren andere
Tiefenbilder TI(aI, bI, cI) aufgenommen und Marken Mi projiziert, bis das ge
samte Objekt ausreichend erfasst wurde. Über die Ordnungskameras 10, 11
und das beschriebene Verfahren werden alle aufgenommenen Tiefenbilder
TI(aI, bI, cI) in das globale gemeinsame Koordinatensystem x, y, z durch eine
Koordinatentransformation in globale Koordinaten TI(xI, yI, zI) übertragen.
Im nun Folgenden wird beschrieben, wie die Lage K1(x1, y1, z1), K2(x2, y2, z2)
der Ordnungskameras 10, 11 und ggf. des Aufnahmesystems 12 bestimmt
werden kann um die zuvor beschriebene Registrierung der Tiefenbilder zu
ermöglichen.
Die Bestimmung der Lage K1(x1, y1, z1), K2(x2, y2, z2) der Ortungskameras 10,
11 wird als Kalibrierung bezeichnet und wird im bevorzugten Ausführungsbei
spiel durch die Recheneinheit 13 realisiert.
Die Kalibrierung kann grundsätzlich auf zweierlei Art und Weise erfolgen: Ei
nerseits wird die Lage K1(x1, y1, z1), K2(x2, y2, z2) der Ortungskameras 10, 11
mit einem Kalibrierkörper (nicht dargestellt) bestimmt, der eine festgelegte
Anzahl von eindeutig identifizierbaren Marken enthält und von den Ortungs
kameras 10, 11 erfasst wird. Andererseits kann die Lage der Ortungskameras
10, 11 durch ein selbstkalibrierendes Verfahren bestimmt werden.
Das selbstkalibrierende Verfahren wird in dem bevorzugten Ausführungsbei
spiel der vorliegenden Erfindung verwendet. Die Lage der Ortungskameras
10, 11 wird über Stereokorrespondenzen berechnet, die mit den Projektions
marken M; gebildet werden. Zunächst wird die relative Lage von Paaren der
Ortungskameras 10, 11 berechnet. Gegebenfalls kann hier auch die Lage des
Aufnahmesystems 12 und darin enthaltener Kameras mit berechnet werden,
wenn dies nicht bereits vorkalibriert ist. Anschließend wird mit einem Optimie
rungsverfahren die Lage aller Kameras zueinander berechnet. Das selbstkali
brierende Verfahren wird ausführlich in der nicht vorveröffentlichten Pa
tentanmeldung 101 12 536.4 mit dem Titel "Handgeführter 3D-Scanner" be
schrieben, und wird durch Bezugnahme hierin aufgenommen.
Im Gegensatz zu dem in der zitierten Anmeldung beschriebenen System kann
aber bei der vorliegenden Erfindung für das Gesamtsystem eine Skalierung
berechnet werden, wenn das Aufnahmesystem 12 vorkalibriert ist. Es ist aber
auch durchaus denkbar, die Vorrichtung 1 vollständig selbstkalibrierend zu
realisieren, wobei der Skalierungsfaktor des Systems in diesem Fall ander
weitig bestimmt werden muss, zum Beispiel durch zusätzliche Abstandssen
soren (nicht dargestellt). Wird lediglich die Lage der Ortungskameras 10, 11
selbstkalibrierend bestimmt, kann die Skalierung zum Beispiel aus den durch
das Aufnahmesystem 12 gewonnene Tiefenbildern TI(aI, bI, cI) ermittelt wer
den.
Weiterhin wäre aber auch der umgekehrte Fall denkbar, d. h. die Ortungska
meras sind vorkalibriert und das Aufnahmesystem 12 ist selbstkalibrierend
ausgestaltet. In diesem Fall kann die Skalierung des Aufnahmesystems 12
aus der Kalibrierung der Ortungskameras 10, 11 berechnet werden.
Im selbstkalibrierenden Fall wird mit jeder neuen Einzelaufnahme durch die
Ortungskameras 10, 11 das Gesamtsystem, also die Vorrichtung 1, neu be
rechnet. Mit jeder neuen Aufnahme werden neue Marken Mi gebildet, die zu
einer Verbesserung der Aufnahme, d. h. einer erneuten Berechnung und Ver
besserung der Lage der Ortungskameras 10, 11, beitragen. Dies ist vor allem
wichtig, wenn Ortungskameras 10, 11 bisher nur wenig Marken Mi erfasst ha
ben oder die Marken Mi nur in einem kleinen Bildausschnitt lagen, so dass die
Lageberechnung relativ ungenau ist. Erst durch großflächig verteilte Marken
Mi ist eine sichere und genaue Selbstkalibrierung möglich. Dies bedeutet al
lerdings, dass mit jeder neuen Aufnahme auch die Lage bzw. Transformation
aller bisher aufgenommenen Tiefenbilder TI(xI, yI, zI) im bzw. ins globalen Ko
ordinatensystem neu berechnet werden muss. Insofern wird die erhöhte zu
sätzliche Flexibilität bezüglich der Kalibrierung durch einen erhöhten Rechen
aufwand erkauft.
In dem bevorzugten Ausführungsbeispiel besteht der einzige Zusammenhang
zwischen dem System zweier aufeinanderfolgender Aufnahmen, d. h. der Vor
richtung 1 mit der aufnahmenspezifischen Kalibrierung, darin, dass das Er
gebnis des alten Systems als Startwert für die Berechnung des neuen Sy
stems verwendet wird.
Zu der kontinuierlichen Neukalibrierung der Ortungskameras 10, 11 und der
Neuberechnung der Lage aller bisher aufgenommenen Tiefenbilder TI(xI, yI, zI)
ist anzumerken, dass die Lage eines Tiefenbildes lediglich durch sechs Para
meter (drei Translationen, drei Rotationen) beschrieben wird. Das Ausführen
dieser Lagetransformation geschieht lediglich zu Visualisierungszwecken
mittels des an die Recheneinheit 13 angeschlossenen Monitors 14. Wenn eine
neue Lagetransformation aufgrund einer neuen Kalibrierung berechnet wurde,
wird jeweils nur die Differenz zwischen der alten und der neuen Lagetrans
formation ausgeführt, was zwar keine Rechenzeit spart, allerdings datentech
nisch leichter zu realisieren ist. Es empfiehlt sich hierbei besonders bei gro
ßen Datensätzen, die aus vielen Tiefenbildern TI(xI, yI, zI) bestehen, zu Visua
lisierungszwecken die Lagetransformation nur auf ausgedünnten Datensätzen
durchzuführen und die Originaldatensätze zusammen mit den gültigen Trans
formationen auf einem Speichermedium, wie zum Beispiel einer Festplatte,
abzulegen.
Wie bereits zuvor erwähnt, kann zur Bestimmung der Lage der Ortungskame
ras 10, 11 alternativ ein Kalibrierkörper verwendet werden. Die Verwendung
eines Kalibrierkörpers sichert zum einen eine höhere Genauigkeit und bietet
den Vorteil, dass die Skalierung bekannt ist, allerdings ist das System da
durch weniger flexibel und ein erhöhter Vorbereitungsaufwand ist notwendig.
Im vorkalibrierten Fall, d. h. dem Einsatz eines Kalibrierkörpers vor dem ei
gentlichen Messvorgang, wird natürlich nur einmal kalibriert. Ein vorkalibrier
ter Fall tritt auch dann auf, wenn die letzte Kalibrierung einer bereits früher
durchgeführten Vermessung übernommen werden kann, wenn sich der Auf
bau und die Positionierung der Vorrichtung 1 nicht geändert hat.
Bei der Verwendung eines Kalibrierkörpers zur Kalibrierung sind die folgenden
Kalibrierungsansätze denkbar:
- a) Der Kalibrierkörper enthält wenigstens vier eindeutig identifizierbare Mar ken Mi, die von den Ortungskameras 10, 11 erfasst werden. Über den Ka librierkörper wird dann das globale Koordinatensystem x, y, z festgelegt.
- b) Der Kalibrierkörper enthält genau eine Marke Mi und wird durch den Mess raum geschwenkt. Über korrespondierende Bilder, in denen die Marke Mi detektiert wurde, wird die Lage der Ortungskameras 10, 11 zueinander, bis auf einen Skalierungsfaktor eindeutig, berechnet. Die Skalierung kann über die aufgenommenen Projektionsmarken Mi oder die Tiefenbilder TI berech net werden.
- c) Der Kalibrierkörper enthält mindestens zwei Marken Mi und wird durch den Messraum geschwenkt. Über korrespondierende Bilder, in denen die Mar ken Mi detektiert wurden, wird die Lage der Ortungskameras 10, 11 zuein ander berechnet. Die relative Lage der Marken Mi zueinander bestimmt die Skalierung des Gesamtsystems.
Im folgenden wird bezugnehmend auf die Fig. 2 der Ablauf des Verfahrens zur
Erfassung und Vermessung des Objektes 15 beschrieben.
Im anfänglichen Schritt 20 werden die Ortungskameras 10, 11 auf das
Messobjekt 15 ausgerichtet. Im folgenden Schritt 21 wird ein Tiefenbild TI(aI,
bI, cI) mit dem 3D-Sensor des Aufnahmesystems 12 vom Objekt 15 aufge
nommen. Im Schritt 22 wird das aufgenommene Tiefenbild TI(aI, bI, cI) bezüg
lich des Oberflächengradienten und Fehlstellen analysiert, um wie zuvor be
schrieben die Projektion der Marken Mi vorteilhafterweise zu beeinflussen. Im
folgenden Schritt 23 werden nun die Marken Mi durch den 3D-Sensor auf das
Objekt 15 projiziert. Im Schritt 24 werden die Markenpositionen Mi(ai,I, bi,I, ci,I)
im Tiefenbild TI(aI, bI, cI) bestimmt. Die Ortungskameras 10, 11 erzeugen im
Schritt 25 eine Aufnahme des Objektes 15 und die Bildpositionen Mi(u1, v1)
und Mi(u2, v2) der Marken Mi in den Ortungskameras 10, 11 wird in den Auf
nahmen bestimmt.
Im Schritt 26 erfolgt nun eine Fallunterscheidung: Wenn die Lage der Or
tungskameras 10, 11 bekannt ist, sei es durch eine Vorkalibrierung oder eine
ausreichend genaue Kalibrierung durch vorhergehende Verfahrensschritte,
fährt das Verfahren im Schritt 28 fort. Ist die Lage der Ortungskameras 10, 11
nicht bekannt oder noch zu ungenau, wird im Schritt 27 die Kalibrierung der
Vorrichtung 1 bestimmt bzw. aktualisiert. Hierzu werden die Bildpositionen
Mi(u1, v1), Mi(u2, v2) der Marken Mi dazu eingesetzt die Lage K1(x1, yi, z1),
K2(x2, y2, z2) der Ortungskameras 10, 11 im globalen Koordinatensystem x, y,
z berechnet. Nach dem Schritt 27 wird mit dem Schritt 28 fortgefahren. Im
Schritt 28 wird aus den Bildpositionen Mi(u1, v1), Mi(u2, v2) der Marken Mi in
den Ortungskameras 10, 11 die globale Position Mi(xi, yi, zi) der Marken Mi im
globalen Koordinatensystem x, y, z zu berechnen. Im folgenden Schritt 29 be
rechnet die Recheneinheit 13 nun für jedes Tiefenbild TI(aI, bI, cI) eine Lage
transformation unter Zuhilfenahme der Markenpositionen im Tiefenbild Mi(ai,I,
bi,I, ci,I) und der globalen Markenpositionen Mi(xi, yi, zi) in das globale Koordi
natensystem x, y, z. Im Schritt 30 werden mit Hilfe der Lagetransformation die
Koordinaten des Tiefenbildes TI(aI, bI, cI) in Koordinaten TI(xI, yI, zI) des glo
balen Koordinatensystems transformiert. Im Schritt 31 wird nun überprüft, ob
das Objekt 15 ausreichend erfasst ist. Wenn das Objekt 15 ausreichend er
fasst wurde, d. h. genug Teilansichten des Objekts 15 erfasst und deren Lage
im globalen Koordinatensystem bestimmt wurden, wird das Verfahren im
Schritt 33 beendet. Ansonsten wird im Schritt 32 der 3D-Sensor des Aufnah
mesystems 12 oder das Aufnahmesystem 12 an sich neu positioniert, um
weitere Teilansichten des Objekts 15 zu erfassen. Das Verfahren schreitet
hierfür mit dem Schritt 21 und ihm folgenden Schritten fort, bis die Abbruchbe
dingung im Schritt 31 erfüllt wird.
Bezüglich der Anzahl der Ortungskameras 10, 11 wird abschließend bemerkt,
dass, obwohl das bevorzugte Ausführungsbeispiel zwei Ortungskameras
10, 11 aufweist, mathematisch gesehen eine Ortungskamera ausreicht, um die
vorliegende Erfindung zu realisieren. Das mathematische Verfahren zur Be
rechnung der Lage K1(x1, y1, z1) einer einzigen Ortungskamera unterscheidet
sich von den beschriebenen Kalibrierungsvarianten. Ähnlich wie bei einer
klassischen Kamerakalibrierung werden bei einer einzigen Ortungskamera die
projizierten Marken als Kalibriermarken verstanden. Die Lage der Ortungska
mera 10, 11 kann relativ zu diesen Marken berechnet werden. Für jede Auf
nahme wird diese Berechnung separat und unabhängig von den anderen Auf
nahmen durchgeführt. Hierbei definiert die erste Aufnahme das globale Koor
dinatensystem x, y, z und die relative Lage der Ortungskamera in diesem Sy
stem. Bei jeder weiteren Aufnahme wird die zuerst berechnete Lage K1(x1, y1,
z1), K2(x2, y2, z2) der Ortungskamera 10, 11 als fest angesehen und die relati
ve Lage zwischen der Ortungskamera 10, 11 und dem Tiefenbild TI(aI, bI, cI)
dient nun zur Berechnung der globalen Lage TI(xI, yI, zI) des Tiefenbildes.
Die Ortungskamera 10, 11 hat im Gegensatz zum 3D-Sensor der Aufnahme
einheit 12 ein großes Blickfeld. Die von der Aufnahmeeinheit 12 projizierten
Marken Mi werden also in der Ortungskamera 10, 11 nur einen kleinen Bild
ausschnitt belegen. Da alle Aufnahmen zur Berechnung der relativen Lage
der Ortungskameras 10, 11 unabhängig voneinander betrachtet werden, findet
die Lageberechnung also jeweils nur über einen kleinen Bildausschnitt statt,
was zu Ungenauigkeiten in der Lageberechnung K1(x1, y1, z1), K2(x2, y2, z2)
der Ortungskameras 10, 11, und damit der Lagetransformation der Tiefenbilder
führen kann.
Die Variante mit mehreren Ortungskameras 10, 11 hat demgegenüber den
Vorteil, dass alle Marken Mi an der Lageberechnung der Ortungskameras 10,
11 teilnehmen. Mit zunehmender Zahl von Aufnahmen wird also ein zuneh
mend größerer Bildausschnitt der Ortungskameras 10, 11 mit Marken Mi ab
gedeckt, so dass die Kalibrierung der Ortungskameras 10, 11 genauer wird.
Bezüglich der Ortungskameras 10, 11 ist weiterhin anzumerken, dass in dem
bevorzugten Ausführungsbeispiel es nicht vorgesehen ist, die Ortungskame
ras 10, 11 umzustellen. Wie bereits zuvor erwähnt, ist es von Vorteil, mit den
Ortungskameras 10, 11 eine fest konfigurierte Messkabine aufzubauen, in der
die Ortungskameras fest montiert sind. Anstatt die Ortungskameras 10, 11
umzustellen, ist es von Vorteil, das Sichtfeld der Ortungskameras 10, 11 vor
ab größer auszulegen, um ein größeres Volumen vermessen zu können.
Wenn in so einem System mit festen Ortungskameras 10, 11 eine ausrei
chende Qualität der Kalibrierung erreicht wurde, zum Beispiel durch das obige
beschriebene kontinuierlich aktualisierte Selbstkalibrierungsverfahren, wird
die Kalibrierung als fest angenommen und im weiteren nicht mehr verfeinert.
Dadurch wird die Datenverarbeitung im Rahmen neuer Vermessungen von
weiteren Objekten 15 deutlich vereinfacht. Wenn Ortungskameras umgestellt
werden, kann nie eine feststehende Kalibrierung angenommen werden, und
die Kalibrierung muss kontinuierlich aktualisiert werden.
Das Umstellen einer Ortungskamera 10, 11 kann als Abschalten einer Or
tungskamera 10, 11 und einem dementsprechenden Anschalten einer neuen
Kamera 10, 11 interpretiert werden. Sobald die umgestellte Ortungskamera
10, 11 Marken Mi aufnimmt, erhält sie eine neue Position K3(x1, y1, z1), die
alte Position K1(x1, y1, z1) bleibt aber ebenfalls im Gesamtsystem erhalten.
Hierdurch bleibt das globale Koordinatensystem x, y, z erhalten.
Oder anders ausgedrückt, an einer Berechnung der Positionen der Ortungs
kameras 10, 11 nach einer Einzelaufnahme nehmen immer alle Ortungskame
ras 10, 11 teil, auch die, die physikalisch nicht mehr existieren, da ein Umstel
len der Ortungskameras 10, 11 stattgefunden hat. Es ist jedoch zu beachten,
dass im weiteren nie alle Ortungskameras 10, 11 gleichzeitig bewegt werden.
Technisch gesehen muss wenigstens eine Ortungskamera 10, 11 ortsfest
bleiben, um ein altes System von Ortungskameras 10, 11 mit einem neuen
System von Ortungskameras 10, 11 zu verbinden. Aus Genauigkeitsgründen
sollte aber die Zahl der Ortungskameras 10, 11, die bewegt werden, klein sein
gegenüber der Zahl der Ortungskameras 10, 11, die ortsfest bleiben.
In Bezug auf die Erfassung der Marken durch die Ortungskameras 10, 11 ist
anzumerken, dass nicht die Notwendigkeit besteht, dass alle Ortungskameras
10, 11 immer alle Marken sehen. Es kann durchaus vorkommen, dass eine
Ortungskamera erst nach einigen Messungen oder Aufnahmen die ersten
Marken erfasst und somit auch erst dann innerhalb des Gesamtsystems kali
briert werden kann. Genauso kann es sein, dass eine Ortungskamera, mit der
am Anfang viele Marken erfasst wurden, später keine Marken Mi erfasst wer
den. Es sei bemerkt, dass auch bereits kalibrierte Ortungskameras 10, 11, die
keine Marken im Rahmen einer Messung aufgenommen haben an der näch
sten Kalibrierung teilnehmen und ggf. eine Positionskorrektur erfahren.
Claims (37)
1. Vorrichtung (1) zum Erfassen und Vermessen eines Objektes (15) durch
Registrierung von Teilansichten des Objektes (15) in einem globalen
Koordinatensystem (x, y, z), wobei die Vorrichtung (1) ein Aufnahmesy
stem (12) zur Aufnahme der Teilansichten des Objektes (15), minde
stens eine Ortungskamera (10, 11) und eine Recheneinheit (13) auf
weist,
wobei Marken (Mi) auf das Objekt (15) optisch projiziert und von der Ortungskamera (10, 11) erfasst werden und
wobei das Aufnahmesystem (12) die Teilansichten und die Ortungska mera (10, 11) die durch das Erfassen der Marken (Mi) gewonnenen In formationen an die Recheneinheit (13) liefern und die Recheneinheit (13) unter Verwendung der Informationen über die erfassten Marken (Mi) die Teilansichten des Objektes (15) in das globales Koordinatensy stem (x, y, z) registriert.
wobei Marken (Mi) auf das Objekt (15) optisch projiziert und von der Ortungskamera (10, 11) erfasst werden und
wobei das Aufnahmesystem (12) die Teilansichten und die Ortungska mera (10, 11) die durch das Erfassen der Marken (Mi) gewonnenen In formationen an die Recheneinheit (13) liefern und die Recheneinheit (13) unter Verwendung der Informationen über die erfassten Marken (Mi) die Teilansichten des Objektes (15) in das globales Koordinatensy stem (x, y, z) registriert.
2. Vorrichtung nach Anspruch 1 und 2, wobei das Aufnahmesystem (12)
einen Projektor aufweist, mit dem die Marken optisch auf das Objekt
(15) projiziert werden.
3. Vorrichtung nach einem der vorherigen Ansprüche 1, wobei das Auf
nahmesystem (12) ein System zur räumlichen Tiefenbildgenerierung ist
und Tiefenbilder von den Teilansichten erzeugt.
4. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 3, wobei das Aufnahmesystem (12) einen Gray-Code Pro
jektor mit zumindest einer Kamera in Triangulationsanordnung aufweist.
5. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 3, wobei das Aufnahmesystem (12) auf der Basis von co
dierten Lichtmustern, z. B. im Phasen-Shift Verfahren, dem Moirée Ver
fahren oder einem selbstkalibrierenden Gray-Code Verfahren arbeitet.
6. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 3, wobei das Aufnahmesystem (12) zur Generierung von
Tiefenbildern auf der Basis von 3D-Scannern, z. B. 3D-Laserscannern,
arbeitet.
7. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 3, wobei das Aufnahmesystem (12) auf der Basis aktiver oder
passiver Stereoskopie, z. B. Stereokamerasystem, arbeitet.
8. Vorrichtung nach einem der vorherigen Ansprüche, wobei mehrere Or
tungskameras (10, 11) auf das zu vermessende Objekt (15) ausgerich
tet werden, und wobei vorzugsweise das gesamte Objekt (15) mit Or
tungskameras (10, 11) umstellt ist.
9. Vorrichtung nach einem der vorherigen Ansprüche, wobei das Aufnah
mesystem (12) eine Projektionssequenz durchläuft.
10. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 9, wobei die Projektionssequenz mit Projektionsbildern er
weitert wird, die jeweils eine vorzugsweise punktförmige Marke (Mi)
enthalten.
11. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 10, wobei pro Projektionssequenz wenigstens drei Marken
projiziert werden, die von der Ortungskamera (10, 11) erfasst werden.
12. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 1, wobei die relative Lage der projizierten Marken (Mi) zuein
ander aus der Tiefenbildinformation der Teilansichten des Aufnahme
systems (12) berechnet wird.
13. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 1, wobei die absolute Lage der projizierten Marken (Mi) über
die Ortungskamera (10, 11) berechnet wird.
14. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 1, wobei aus der relativen und absoluten Lage der Projekti
onsmarken eine Transformation der Teilansicht in ein definiertes glo
bales Koordinatensystem berechnet wird (Registrierung).
15. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 1, wobei mit dem Aufnahmesystem (12) durch Neupositionie
rung des Aufnahmesystems (12) im Weiteren Tiefenbilder aufgenom
men und Marken projiziert werden, bis das gesamte Objekt ausreichend
erfasst wurde.
16. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 1, wobei über die Ortungskameras (10, 11) alle Tiefenbilder in
ein gemeinsames Koordinatensystem übertragen werden.
17. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 1, wobei die Lage der Ortungskamera (10, 11) während der
Messung über die aufgenommenen Projektionsmarken bzw. projizierte
Marken (Mi) berechnet wird (Selbstkalibrierung).
18. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 1, wobei die Vorrichtung mindestens zwei Ortungskameras
(10, 11) aufweist und wobei die Lage der Ortungskamera (10, 11) während
der Messung über die aufgenommenen Projektionsmarken (Mi) durch
Stereokorrespondenzen berechnet wird (Selbstkalibrierung).
19. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 9, wobei bei der Projektion der optischen Marken (Mi) die
Projektionssequenz um (wenigstens) ein Bild erweitert ist, das mehrere
Marken (Mi) gleichzeitig enthält.
20. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 1, wobei die Marken (Mi) durch Farbe, Form oder Struktur
unterscheidbar sind, z. B. verschiedenfarbige Punkte, diffuse Muster.
21. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 9, wobei die Projektionssequenz um mehrere Bilder erweitert
wird, die jeweils unterschiedlich strukturierte Muster projizieren.
22. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 21, wobei die Kombination der sequentiellen Muster eine
Mehrzahl eindeutiger Marken (Mi) markiert.
23. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 9, wobei die Muster sich in Farbe, Form oder Struktur unter
scheiden, z. B. mehrere Bilder mit jeweils einer horizontalen Linie und
mehrere Bilder mit jeweils einer vertikalen Linie, wobei die Schnitt
punkte der Linien in den Bildern die Marken definieren.
24. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 9, wobei die Projektionssequenz um eine weitere Sequenz
mit codierten Linien, z. B. Gray-Code Sequenz, erweitert wird, die eine
andere Orientierung besitzt als die Sequenz zur Generierung der Tie
fenbilder (z. B. 90° verdreht), wobei dann die Schnittpunkte der codier
ten Linien die gesuchten Marken (Mi) markieren.
25. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 1, wobei die Marken (Mi) von einem eigenständigen Projekti
onssystem unabhängig vom Aufnahmesystem (12) projiziert werden.
26. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 1, wobei die Marken (Mi) sowohl vom Aufnahmesystem (12)
als auch von der Ortungskamera (10, 11) erfasst werden.
27. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 9, wobei zur Bestimmung der Lage der Ortungskamera
(10, 11) ein Kalibrierkörper verwendet wird.
28. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 27, wobei der Kalibrierkörper wenigstens vier eindeutig iden
tifizierbare Marken (Mi) enthält, die von der Ortungskamera (10, 11) er
fasst werden.
29. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 22, wobei über den Kalibrierkörper das globale Koordinaten
system (x, y, z) festgelegt werden kann.
30. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 1, wobei die Lage der Ortungskamera mit einem Kalibrierkör
per berechnet wird, der genau eine Marke (Mi) enthält und durch den
Messraum geschwenkt wird.
31. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 1, wobei über korrespondierende, durch die Ortungskameras
(10, 11) und/oder das Aufnahmesystem gewonnene Bilder, in denen die
Marke detektiert wurde, die Lage der mindestens einen Ortungskamera
zu dem Objekt oder zu anderen Ortungskameras (10, 11) bis auf einen
Skalierungsfaktor eindeutig berechnet wird.
32. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 1, wobei die Skalierung über aufgenommene Projektionsmar
ken oder über die durch das Aufnahmesystem (12) aufgenommene
Tiefenbilder berechnet wird.
33. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 1, wobei die Lage der Ortungskamera mit einem Kalibrierkör
per berechnet wird, der wenigstens zwei Marken (Mi) enthält und durch
den Messraum geschwenkt wird.
34. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 1, wobei aus korrespondierenden Bildern, in denen die Mar
ken detektiert wurden, die Lage der Ortungskamera relativ zu dem Ob
jekt und/oder relativ zu anderen Ortungskameras (10, 11) berechnet wird
und wobei die relative Lage der Marken zueinander durch die Skalie
rung des Gesamtsystems bestimmt ist.
35. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 1, wobei die Tiefenbilder der Teilansichten bezüglich des
Oberflächengradienten und Fehlstellen analysiert wird und basierend
auf dieser Analyse die Projektion der Marken (Mi) abgeändert wird, um
Marken (Mi) nicht auf Abschattungsbereiche oder Bereiche mit steilen
Gradienten zu projizieren.
36. Vorrichtung nach einem der vorherigen Ansprüche, insbesondere nach
Anspruch 1, wobei die Ortungskameras (10, 11) beweglich angeordnet
sind und während des Messvorgangs und zwischen Aufnahmen der
Ortungskameras (10, 11) bewegt werden können.
37. Verfahren zum Erfassen und Vermessen eine Objektes (15) durch Re
gistrierung von Teilansichten des Objektes (15) in einem globalen Ko
ordinatensystem (x, y, z), welches folgende Schritte aufweist:
Aufnehmen von Teilansichten des Objektes (15) mittels eines Aufnah mesystems (12);
optisches Aufprojizieren von Marken (Mi) auf das Objekt (15);
Bestimmen der Markenposition in den Teilansichten;
Erfassen der Marken (Mi) durch mindestens eine Ortungskamera (10, 11) und Bestimmen der Positionen der Marken (Mi) in dem globalen Koordinatensystem (x, y, z);
Registrieren der Teilansichten des Objektes (15) in das Globale Koordi natensystem (x, y, z) mit Hilfe der Markenpositionen in den Teilansichten und in dem globalen Koordinatensystem (x, y, z) durch die Rechenein heit (13).
Aufnehmen von Teilansichten des Objektes (15) mittels eines Aufnah mesystems (12);
optisches Aufprojizieren von Marken (Mi) auf das Objekt (15);
Bestimmen der Markenposition in den Teilansichten;
Erfassen der Marken (Mi) durch mindestens eine Ortungskamera (10, 11) und Bestimmen der Positionen der Marken (Mi) in dem globalen Koordinatensystem (x, y, z);
Registrieren der Teilansichten des Objektes (15) in das Globale Koordi natensystem (x, y, z) mit Hilfe der Markenpositionen in den Teilansichten und in dem globalen Koordinatensystem (x, y, z) durch die Rechenein heit (13).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10137241A DE10137241A1 (de) | 2001-03-15 | 2001-07-30 | Registrierung von Tiefenbildern mittels optisch projizierter Marken |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10112535 | 2001-03-15 | ||
DE10113298 | 2001-03-16 | ||
DE10137241A DE10137241A1 (de) | 2001-03-15 | 2001-07-30 | Registrierung von Tiefenbildern mittels optisch projizierter Marken |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10137241A1 true DE10137241A1 (de) | 2002-09-19 |
Family
ID=26008788
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10137241A Withdrawn DE10137241A1 (de) | 2001-03-15 | 2001-07-30 | Registrierung von Tiefenbildern mittels optisch projizierter Marken |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE10137241A1 (de) |
Cited By (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2869408A1 (fr) * | 2004-04-23 | 2005-10-28 | 3D Shape Gmbh | Procede et dispositif pour determiner la forme et les normales locales de surfaces reflechissantes |
DE102007059973A1 (de) * | 2007-12-11 | 2009-06-18 | Medical Laserrent E.K. | Verfahren und Identifikatorsystem zur Zuordnung von Fotodokumenten zu einem Patienten |
WO2010034301A2 (de) | 2008-09-25 | 2010-04-01 | Technische Universität Braunschweig Carolo-Wilhelmina | 3d-geometrie-erfassungsverfahren und -vorrichtung |
DE102008062995A1 (de) * | 2008-12-23 | 2010-06-24 | Sick Ag | 3D-Kamera zur Raumüberwachung |
WO2010094751A2 (en) | 2009-02-20 | 2010-08-26 | 3G Software & Measurement Gmbh | Mobile projection system for scaling and orientation of surfaces surveyed by an optical measuring system |
DE102009035336B3 (de) * | 2009-07-22 | 2010-11-18 | Faro Technologies, Inc., Lake Mary | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
US8625106B2 (en) | 2009-07-22 | 2014-01-07 | Faro Technologies, Inc. | Method for optically scanning and measuring an object |
DE102012014330A1 (de) * | 2012-07-20 | 2014-01-23 | API - Automotive Process Institute GmbH | Verfahren und Vorrichtung zur 3D-Vermessung |
DE102008034198B4 (de) * | 2008-07-21 | 2014-01-23 | Zoller & Fröhlich GmbH | Target und Verfahren zum Auswerten von Scans |
US8699036B2 (en) | 2010-07-29 | 2014-04-15 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US8699007B2 (en) | 2010-07-26 | 2014-04-15 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US8705012B2 (en) | 2010-07-26 | 2014-04-22 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US8705016B2 (en) | 2009-11-20 | 2014-04-22 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US8719474B2 (en) | 2009-02-13 | 2014-05-06 | Faro Technologies, Inc. | Interface for communication between internal and external devices |
US8730477B2 (en) | 2010-07-26 | 2014-05-20 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US8830485B2 (en) | 2012-08-17 | 2014-09-09 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US8896819B2 (en) | 2009-11-20 | 2014-11-25 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US8997362B2 (en) | 2012-07-17 | 2015-04-07 | Faro Technologies, Inc. | Portable articulated arm coordinate measuring machine with optical communications bus |
US9009000B2 (en) | 2010-01-20 | 2015-04-14 | Faro Technologies, Inc. | Method for evaluating mounting stability of articulated arm coordinate measurement machine using inclinometers |
US9074883B2 (en) | 2009-03-25 | 2015-07-07 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US9113023B2 (en) | 2009-11-20 | 2015-08-18 | Faro Technologies, Inc. | Three-dimensional scanner with spectroscopic energy detector |
US9163922B2 (en) | 2010-01-20 | 2015-10-20 | Faro Technologies, Inc. | Coordinate measurement machine with distance meter and camera to determine dimensions within camera images |
US9168654B2 (en) | 2010-11-16 | 2015-10-27 | Faro Technologies, Inc. | Coordinate measuring machines with dual layer arm |
US9210288B2 (en) | 2009-11-20 | 2015-12-08 | Faro Technologies, Inc. | Three-dimensional scanner with dichroic beam splitters to capture a variety of signals |
USRE45854E1 (en) | 2006-07-03 | 2016-01-19 | Faro Technologies, Inc. | Method and an apparatus for capturing three-dimensional data of an area of space |
US9329271B2 (en) | 2010-05-10 | 2016-05-03 | Faro Technologies, Inc. | Method for optically scanning and measuring an environment |
US9372265B2 (en) | 2012-10-05 | 2016-06-21 | Faro Technologies, Inc. | Intermediate two-dimensional scanning with a three-dimensional scanner to speed registration |
US9417316B2 (en) | 2009-11-20 | 2016-08-16 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US9417056B2 (en) | 2012-01-25 | 2016-08-16 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US9513107B2 (en) | 2012-10-05 | 2016-12-06 | Faro Technologies, Inc. | Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner |
US9529083B2 (en) | 2009-11-20 | 2016-12-27 | Faro Technologies, Inc. | Three-dimensional scanner with enhanced spectroscopic energy detector |
US9551575B2 (en) | 2009-03-25 | 2017-01-24 | Faro Technologies, Inc. | Laser scanner having a multi-color light source and real-time color receiver |
US9607239B2 (en) | 2010-01-20 | 2017-03-28 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations |
US9628775B2 (en) | 2010-01-20 | 2017-04-18 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations |
DE102012108567B4 (de) * | 2011-10-05 | 2017-04-27 | Electronics And Telecommunications Research Institute | Verfahren zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters |
US10067231B2 (en) | 2012-10-05 | 2018-09-04 | Faro Technologies, Inc. | Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner |
DE102016120026B4 (de) | 2015-10-22 | 2019-01-03 | Canon Kabushiki Kaisha | Messvorrichtung und Verfahren, Programm, Produktherstellungsverfahren, Kalibrierungsmarkierungselement, Verarbeitungsvorrichtung und Verarbeitungssystem |
US10175037B2 (en) | 2015-12-27 | 2019-01-08 | Faro Technologies, Inc. | 3-D measuring device with battery pack |
DE102017212371A1 (de) * | 2017-07-19 | 2019-01-24 | Carl Zeiss Industrielle Messtechnik Gmbh | Bestimmung einer Marke in einem Datensatz mit mittels zumindest eines Laserscanners erfassten dreidimensionalen Oberflächen-Koordinaten einer Szene |
US10281259B2 (en) | 2010-01-20 | 2019-05-07 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features |
DE102018127221A1 (de) * | 2018-10-31 | 2020-04-30 | Carl Zeiss Industrielle Messtechnik Gmbh | Koordinatenmesssystem |
DE102018129143A1 (de) | 2018-11-20 | 2020-05-20 | Carl Zeiss Industrielle Messtechnik Gmbh | Variabler messobjektabhängiger Kameraaufbau und Kalibrierung davon |
DE102018129144A1 (de) | 2018-11-20 | 2020-05-20 | Carl Zeiss Industrielle Messtechnik Gmbh | Dynamische Auswahl einer Kamerakonfiguration zur Objektnavigation- und verfolgung |
DE102019119908A1 (de) * | 2019-07-23 | 2021-01-28 | Carl Zeiss Industrielle Messtechnik Gmbh | Sensoranordnung und Verfahren zur Bestimmung von geometrischen Eigenschaften eines Messobjekts |
-
2001
- 2001-07-30 DE DE10137241A patent/DE10137241A1/de not_active Withdrawn
Cited By (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2869408A1 (fr) * | 2004-04-23 | 2005-10-28 | 3D Shape Gmbh | Procede et dispositif pour determiner la forme et les normales locales de surfaces reflechissantes |
USRE45854E1 (en) | 2006-07-03 | 2016-01-19 | Faro Technologies, Inc. | Method and an apparatus for capturing three-dimensional data of an area of space |
DE102007059973A1 (de) * | 2007-12-11 | 2009-06-18 | Medical Laserrent E.K. | Verfahren und Identifikatorsystem zur Zuordnung von Fotodokumenten zu einem Patienten |
DE102008034198B4 (de) * | 2008-07-21 | 2014-01-23 | Zoller & Fröhlich GmbH | Target und Verfahren zum Auswerten von Scans |
DE102008048963B4 (de) * | 2008-09-25 | 2011-08-25 | Technische Universität Braunschweig Carolo-Wilhelmina, 38106 | 3D-Geometrie-Erfassungsverfahren und -vorrichtung |
WO2010034301A2 (de) | 2008-09-25 | 2010-04-01 | Technische Universität Braunschweig Carolo-Wilhelmina | 3d-geometrie-erfassungsverfahren und -vorrichtung |
DE102008048963A1 (de) * | 2008-09-25 | 2010-04-22 | Technische Universität Braunschweig Carolo-Wilhelmina | 3D-Geometrie-Erfassungsverfahren und -vorrichtung |
DE102008062995A1 (de) * | 2008-12-23 | 2010-06-24 | Sick Ag | 3D-Kamera zur Raumüberwachung |
US8719474B2 (en) | 2009-02-13 | 2014-05-06 | Faro Technologies, Inc. | Interface for communication between internal and external devices |
WO2010094751A2 (en) | 2009-02-20 | 2010-08-26 | 3G Software & Measurement Gmbh | Mobile projection system for scaling and orientation of surfaces surveyed by an optical measuring system |
US8526011B2 (en) | 2009-02-20 | 2013-09-03 | 3Gsm Gmbh | Mobile projection system for scaling and orientation of surfaces surveyed by an optical measuring system |
US9074883B2 (en) | 2009-03-25 | 2015-07-07 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US9551575B2 (en) | 2009-03-25 | 2017-01-24 | Faro Technologies, Inc. | Laser scanner having a multi-color light source and real-time color receiver |
US8384914B2 (en) | 2009-07-22 | 2013-02-26 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
DE102009035336B3 (de) * | 2009-07-22 | 2010-11-18 | Faro Technologies, Inc., Lake Mary | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
US8625106B2 (en) | 2009-07-22 | 2014-01-07 | Faro Technologies, Inc. | Method for optically scanning and measuring an object |
US8896819B2 (en) | 2009-11-20 | 2014-11-25 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US9529083B2 (en) | 2009-11-20 | 2016-12-27 | Faro Technologies, Inc. | Three-dimensional scanner with enhanced spectroscopic energy detector |
US9210288B2 (en) | 2009-11-20 | 2015-12-08 | Faro Technologies, Inc. | Three-dimensional scanner with dichroic beam splitters to capture a variety of signals |
US8705016B2 (en) | 2009-11-20 | 2014-04-22 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US9113023B2 (en) | 2009-11-20 | 2015-08-18 | Faro Technologies, Inc. | Three-dimensional scanner with spectroscopic energy detector |
US9417316B2 (en) | 2009-11-20 | 2016-08-16 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US9009000B2 (en) | 2010-01-20 | 2015-04-14 | Faro Technologies, Inc. | Method for evaluating mounting stability of articulated arm coordinate measurement machine using inclinometers |
US10281259B2 (en) | 2010-01-20 | 2019-05-07 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features |
US9163922B2 (en) | 2010-01-20 | 2015-10-20 | Faro Technologies, Inc. | Coordinate measurement machine with distance meter and camera to determine dimensions within camera images |
US9607239B2 (en) | 2010-01-20 | 2017-03-28 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations |
US9628775B2 (en) | 2010-01-20 | 2017-04-18 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations |
US10060722B2 (en) | 2010-01-20 | 2018-08-28 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations |
US9684078B2 (en) | 2010-05-10 | 2017-06-20 | Faro Technologies, Inc. | Method for optically scanning and measuring an environment |
US9329271B2 (en) | 2010-05-10 | 2016-05-03 | Faro Technologies, Inc. | Method for optically scanning and measuring an environment |
US8699007B2 (en) | 2010-07-26 | 2014-04-15 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US8705012B2 (en) | 2010-07-26 | 2014-04-22 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US8730477B2 (en) | 2010-07-26 | 2014-05-20 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US8699036B2 (en) | 2010-07-29 | 2014-04-15 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US9168654B2 (en) | 2010-11-16 | 2015-10-27 | Faro Technologies, Inc. | Coordinate measuring machines with dual layer arm |
DE102012108567B4 (de) * | 2011-10-05 | 2017-04-27 | Electronics And Telecommunications Research Institute | Verfahren zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters |
US9417056B2 (en) | 2012-01-25 | 2016-08-16 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US8997362B2 (en) | 2012-07-17 | 2015-04-07 | Faro Technologies, Inc. | Portable articulated arm coordinate measuring machine with optical communications bus |
DE102012014330A1 (de) * | 2012-07-20 | 2014-01-23 | API - Automotive Process Institute GmbH | Verfahren und Vorrichtung zur 3D-Vermessung |
US8830485B2 (en) | 2012-08-17 | 2014-09-09 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US10739458B2 (en) | 2012-10-05 | 2020-08-11 | Faro Technologies, Inc. | Using two-dimensional camera images to speed registration of three-dimensional scans |
US11112501B2 (en) | 2012-10-05 | 2021-09-07 | Faro Technologies, Inc. | Using a two-dimensional scanner to speed registration of three-dimensional scan data |
US9746559B2 (en) | 2012-10-05 | 2017-08-29 | Faro Technologies, Inc. | Using two-dimensional camera images to speed registration of three-dimensional scans |
US9618620B2 (en) | 2012-10-05 | 2017-04-11 | Faro Technologies, Inc. | Using depth-camera images to speed registration of three-dimensional scans |
US10067231B2 (en) | 2012-10-05 | 2018-09-04 | Faro Technologies, Inc. | Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner |
US11035955B2 (en) | 2012-10-05 | 2021-06-15 | Faro Technologies, Inc. | Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner |
US10203413B2 (en) | 2012-10-05 | 2019-02-12 | Faro Technologies, Inc. | Using a two-dimensional scanner to speed registration of three-dimensional scan data |
US9513107B2 (en) | 2012-10-05 | 2016-12-06 | Faro Technologies, Inc. | Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner |
US9372265B2 (en) | 2012-10-05 | 2016-06-21 | Faro Technologies, Inc. | Intermediate two-dimensional scanning with a three-dimensional scanner to speed registration |
US9739886B2 (en) | 2012-10-05 | 2017-08-22 | Faro Technologies, Inc. | Using a two-dimensional scanner to speed registration of three-dimensional scan data |
US11815600B2 (en) | 2012-10-05 | 2023-11-14 | Faro Technologies, Inc. | Using a two-dimensional scanner to speed registration of three-dimensional scan data |
DE102016120026B4 (de) | 2015-10-22 | 2019-01-03 | Canon Kabushiki Kaisha | Messvorrichtung und Verfahren, Programm, Produktherstellungsverfahren, Kalibrierungsmarkierungselement, Verarbeitungsvorrichtung und Verarbeitungssystem |
US10175037B2 (en) | 2015-12-27 | 2019-01-08 | Faro Technologies, Inc. | 3-D measuring device with battery pack |
DE102017212371A1 (de) * | 2017-07-19 | 2019-01-24 | Carl Zeiss Industrielle Messtechnik Gmbh | Bestimmung einer Marke in einem Datensatz mit mittels zumindest eines Laserscanners erfassten dreidimensionalen Oberflächen-Koordinaten einer Szene |
DE102017212371B4 (de) | 2017-07-19 | 2020-06-04 | Carl Zeiss Industrielle Messtechnik Gmbh | Bestimmung einer Marke in einem Datensatz mit mittels zumindest eines Laserscanners erfassten dreidimensionalen Oberflächen-Koordinaten einer Szene |
US10282845B2 (en) | 2017-07-19 | 2019-05-07 | Carl Zeiss Industrielle Messtechnik Gmbh | Determining a mark in a data record with three-dimensional surface coordinates of a scene, captured by at least one laser scanner |
DE102018127221A1 (de) * | 2018-10-31 | 2020-04-30 | Carl Zeiss Industrielle Messtechnik Gmbh | Koordinatenmesssystem |
DE102018127221B4 (de) * | 2018-10-31 | 2021-05-06 | Carl Zeiss Industrielle Messtechnik Gmbh | Koordinatenmesssystem |
US11454498B2 (en) | 2018-10-31 | 2022-09-27 | Carl Zeiss Industrielle Messtechnik Gmbh | Coordinate measuring system |
DE102018129143B4 (de) * | 2018-11-20 | 2021-06-17 | Carl Zeiss Industrielle Messtechnik Gmbh | Variabler messobjektabhängiger Kameraaufbau und Kalibrierung davon |
DE102018129144A1 (de) | 2018-11-20 | 2020-05-20 | Carl Zeiss Industrielle Messtechnik Gmbh | Dynamische Auswahl einer Kamerakonfiguration zur Objektnavigation- und verfolgung |
DE102018129143A1 (de) | 2018-11-20 | 2020-05-20 | Carl Zeiss Industrielle Messtechnik Gmbh | Variabler messobjektabhängiger Kameraaufbau und Kalibrierung davon |
DE102019119908A1 (de) * | 2019-07-23 | 2021-01-28 | Carl Zeiss Industrielle Messtechnik Gmbh | Sensoranordnung und Verfahren zur Bestimmung von geometrischen Eigenschaften eines Messobjekts |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10137241A1 (de) | Registrierung von Tiefenbildern mittels optisch projizierter Marken | |
EP2273229B1 (de) | Verfahren zur Bestimmung der 3D-Koordinaten eines Objekts | |
EP1181814B1 (de) | Verfahren zur erfassung und darstellung eines oder mehrerer objekte, beispielsweise zähne | |
EP2489977B1 (de) | Verfahren zur Bestimmung der 3-D-Koordinaten eines Objekts und zum Kalibrieren eines Industrieroboters | |
DE102007054906B4 (de) | Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten | |
DE102008041523B4 (de) | Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung | |
EP2574876B1 (de) | Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts | |
DE10020893B4 (de) | Verfahren zur optischen Formerfassung von Gegenständen | |
EP1290408B1 (de) | Verfahren und anordnungen zur photogrammetrischen erfassung der raumform eines objekts | |
DE19502459A1 (de) | Verfahren zur dreidimensionalen optischen Vermessung der Oberfläche von Objekten | |
EP1497613A1 (de) | Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten eines gegenstandes | |
DE102008031942A1 (de) | Verfahren und Vorrichtung zur 3D-Digitalisierung eines Objekts | |
DE102006015792A1 (de) | Verfahren und System zur Formmessung einer reflektierenden Oberfläche | |
EP0923705B1 (de) | Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten von gegenständen | |
DE102009032771B4 (de) | Messeinrichtung und Verfahren zum dreidimensionalen optischen Vermessen von Objekten | |
DE102015212352A1 (de) | Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts | |
EP2133659A1 (de) | Verfahren und Vorrichtung zur Ermittlung der Lage eines Sensors | |
DE102019201526A1 (de) | Verfahren und System zum Erfassen und Messen der Position eines Bauteils gegenüber einer Referenzposition sowie der Verschiebung und der Verdrehung eines sich relativ zu einem Bezugssystem bewegenden Bauteils | |
DE19626889A1 (de) | Verfahren und Vorrichtung zur Erfassung von Geometriedaten aus unterschiedlichen Beobachtungspositionen | |
EP3628995A1 (de) | Kalibriervorlage und kalibrierverfahren zum geometrischen kalibrieren einer vielzahl von kameras eines kamera-arrays | |
WO2009018894A1 (de) | Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts | |
EP1098268A2 (de) | Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen | |
DE10359104B3 (de) | Verfahren zur dynamischen, dreidimensionalen Erfassung und Darstellung einer Oberfläche | |
DE102019110729A1 (de) | Verfahren zur Ausrichtung mindestens eines Kalibrierkörpers und Vorrichtung zum dreidimensionalen optischen Vermessen von Objekten | |
DE102005043753A1 (de) | Verfahren zur Bestimmung der Raumkoordinaten von Oberflächenpunkten eines Prüflings und Vorrichtung zur Durchführung des Verfahrens |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8127 | New person/name/address of the applicant |
Owner name: HUMAN SOLUTIONS GMBH, 67657 KAISERSLAUTERN, DE |
|
8139 | Disposal/non-payment of the annual fee |