DE10149750A1 - Handgeführter 3D-Scanner - Google Patents
Handgeführter 3D-ScannerInfo
- Publication number
- DE10149750A1 DE10149750A1 DE10149750A DE10149750A DE10149750A1 DE 10149750 A1 DE10149750 A1 DE 10149750A1 DE 10149750 A DE10149750 A DE 10149750A DE 10149750 A DE10149750 A DE 10149750A DE 10149750 A1 DE10149750 A1 DE 10149750A1
- Authority
- DE
- Germany
- Prior art keywords
- image information
- light source
- imaging units
- dimensional
- particular according
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/30—Interpretation of pictures by triangulation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2545—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
Abstract
Bei einem Verfahren und einer Vorrichtung zur Durchführung eines Messvorgangs zum mindestens teilweisen Erfassen und Vermessen einer Oberfläche von mindestens einem dreidimensionalen Objekt (10) oder von beliebigen Flächen, wobei mittels einer Lichtquelle (11) ein Lichtmuster auf dadurch beleuchtete Teilbereiche des Objektes (10) oder der Fläche projiziert wird und mittels mindestens zwei bildgebenden Einheiten (12, 13) von unterschiedlichen Positionen aus, derart, dass das Lichtmuster in dem überlappenden Sichtbereich der mindestens zwei bildgebenden Einheiten (12, 13) liegt, jeweils zweidimensionale Bildinformationen der zu vermessenden Objektoberfläche geliefert werden und aus der zweidimensionalen Bildinformation dreidimensionale Objektinformationen ermittelt werden, ist es wünschenswert, eine flexible Anwendung, ein leicht vergrößer- bzw. verkleinerbares Scanvolumen und die Möglichkeit das Objekt gezielt und selektiv innerhalb des Scanvolumens vermessen zu können. Dies wird bei dem erfindungsgemäßen Verfahren und der Vorrichtung dadurch erreicht, dass die beleuchteten Teilbereiche von den mindestens zwei bildgebenden Einheiten (12, 13) gleichzeitig beobachtet werden, die von den bildgebenden Einheiten (12, 13) durch die Beobachtungen gewonnene jeweilige zweidimensionale Bildinformation an eine Recheneinheit (14) übertragen wird, die Recheneinheit (14) aus den zweidimensionalen Bildinformationen kontinuierlich sowohl durch eine Selbstkalibrierung ...
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bestimmung räumli
cher Information von Objekten nach dem Oberbegriff des Verfahrens- und des
Vorrichtungshauptanspruches.
Systeme zur dreidimensionalen Vermessung von Objekten sind bereits seit län
gerem Stand der Technik. Auf Basis bildgebender Sensoren lassen sich vor al
lem zwei Messprinzipien unterscheiden: die passive Stereoskopie und die opti
sche Triangulation.
Die passive Stereoskopie zeichnet sich besonders durch ihre hohe Flexibilität
aus. Im einfachsten Fall reichen zwei Bilder vom Objekt aus, um eine dreidimen
sionale Rekonstruktion zu berechnen. Dazu wird automatisch oder interaktiv
durch den Benutzer nach korrespondierenden Bereichen in beiden Bildern ge
sucht. Je mehr korrespondierende Bereich in beiden Bildern gefunden werden,
umso besser kann das erfasste Objekt rekonstruiert werden. Bei homogenen
Oberflächen schlägt die Korrespondenzpunktsuche schnell fehl, da keine ein
deutige Zuordnung korrespondierender Bereiche mehr gefunden wird. Zudem
führen unterschiedliche Beleuchtungen oder kleinere Bildfehler schnell zu Fehl
zuordnungen, so dass die rein passiven Stereoskopieverfahren insgesamt als
relativ ungenau angesehen werden können.
Sehr viel genauer und damit zuverlässiger arbeiten bekannte Triangulationssen
soren. Eine strukturierte Lichtquelle wird in fester, bekannter Anordnung mit ei
nem bildgebenen Sensor gekoppelt. Die Struktur der im Bild aufgenommenen
Lichtreflexion auf dem Messobjekt sowie die Parameter des Sensors erlauben
die Berechnung von dreidimensionalen Koordinaten. Im einfachsten Fall wird ein
punktförmiger Lichtstrahl, z. B. ein Laser, mit einem linearen CCD-Chip kombi
niert. Der Ort der Lichtpunktreflexion auf der CCD-Linie ist dann proportional zur
gemessenen Entfernung. Die Verbindung einer Laserlinie mit einem flächigem
CCD-Array ermöglicht die Berechnung einer Profillinie über das Objekt. Durch
den Einsatz von strukturierten Lichtmustern oder sequentiell codierten Linienmu
stern können in einer Aufnahme komplette Tiefenbilder des Objektes in hoher
Genauigkeit und Auflösung generiert werden. Die feste Kopplung zwischen
Lichtquelle und Bildsensor begrenzt allerdings den zur Verfügung stehenden
Messbereich. Nur Bereiche auf dem Objekt, die sowohl von der Lichtquelle be
strahlt, als auch vom Bildsensor erfasst werden, können vermessen werden.
Hinterschneidungen führen zu Abschattungen, spiegelnde Oberflächen führen
aufgrund von auftretenden Reflexionen zu systematischen Fehlmessungen.
Mit einem relativ neuen Messprinzip, der aktiven Stereoskopie, wird versucht die
Vorteile beider Verfahren zu kombinieren, bei gleichzeitiger Elimination der
Nachteile. Die eigentliche Bildaufnahme und Auswertung erfolgt stereoskopisch.
Die Suche von korrespondierenden Bereichen in den Bildern wird durch die
Projektion von strukturiertem Licht unterstützt. Die Identifikation der beleuchte
ten Bereiche und die Zuordnung von Bereichen mit gleichen Lichtmustern führt
zur Berechnung von dreidimensionalen Objektkoordinaten. Bisher realisierte
Verfahren gehen allerdings noch einen Kompromiss bezüglich der Anordnung
der bildgebenden Sensoren und des verwendeten strukturierten Lichtes ein.
In der DE 195 34 415 wird ein aktives Stereoskopieverfahren beschrieben, bei
dem die Anordnung der Kameras zueinander zwar beliebig ist, die Lagepara
meter der Kameras werden allerdings explizit über einen Kalibrierkörper berech
net, so dass auch nur im Bereich des Kalibrierkörpers eine zuverlässige Objekt
vermessung durchgeführt werden kann. Zudem wird für die Objektvermessung
ausschließlich eine punktförmige Lichtquelle vorgesehen, die durch eine mecha
nische Ablenkeinheit gesteuert wird. Aufgrund der punktförmigen Lichtquelle ist
die Aufnahmegeschwindigkeit auf einen Objektpunkt pro Bild begrenzt. Mit der
mechanischen Ablenkeinheit wird der Lichtpunkt zeilenweise über das Objekt
geführt und somit wird das Objekt systematisch abgescannt. Dieses Verfahren
vereinfacht zwar die Bildverarbeitung, da die vermutliche Lage des Bildpunktes
zu jedem Zeitpunkt bekannt ist, allerdings werden so auch viele Punkt erfasst,
die in nicht relevanten oder wenig strukturierten Bereichen des Objektes liegen
und zur eigentlichen Objektrekonstruktion nicht beitragen. Zudem beschränkt
sich der erfassbare Bereich auf dem Objekt auf die Orte, die gleichzeitig von
beiden Bildsensoren erfasst werden und von der Lichtquelle beleuchtet werden.
Es werden keine Verfahren zur Vergrößerung des Sichtfeldes oder zur Rund
umerfassung angegeben. Mehr als zwei Kameras dienen lediglich zur Erhöhung
der Genauigkeit oder zur Vermeidung von Abschattungen.
In "Bestimmungen von Entfernungsbildern durch aktive stereoskopische Verfah
ren" von Ralph Sasse werden Verfahren zur aktiven Stereoskopie beschrieben,
bei denen die Lage der Lichtquelle nicht fest vorgegeben ist und nach jedem
Messvorgang variiert werden kann. Der Einsatz von farbigen, bunten Linienmu
stern erlaubt zudem die Generierung von Tiefenbildern im Rahmen einer einzi
gen Aufnahme. Allerdings wird auch dieses System durch einen Kalibrierkörper
vorkalibriert. Zudem sind die Aufnahmekameras mechanisch miteinander gekop
pelt, so dass der zur Verfügung stehende Messbereich durch die Anordnung der
Kameras eingeschränkt ist und nur kleine Objekte von wenigen Dezimetern er
fasst werden können.
Aufgabe der vorliegenden Erfindung ist es eine Erfassungsvorrichtung und
Verfahren für Objekte vorzusehen die flexibel in der Anwendung sind, ein leicht
vergrößer- bzw. verkleinerbares Scanvolumen aufweisen und mit denen das
Objekt gezielt und selektiv innerhalb des Scanvolumens vermessen werden
kann.
Die Aufgabe wird durch das erfindungsgemäße Verfahren und Vorrichtung mit
den in Anspruch 1 und 31 aufgeführten Merkmalen gelöst, insbesondere da
durch, dass
die beleuchteten Teilbereiche von den mindestens zwei bildgebenden Einheiten gleichzeitig beobachtet werden,
die von den bildgebenden Einheiten durch die Beobachtungen gewonnene je weilige zweidimensionale Bildinformation an eine Recheneinheit übertragen wird,
die Recheneinheit aus den zweidimensionalen Bildinformationen kontinuierlich sowohl durch eine Selbstkalibrierung Kalibrierinformation für die bildgebenden Einheiten als auch dreidimensionale Objektinformationen berechnet, und
die relative Positionierung der Lichtquelle zu dem Objekt während des Beob achtens verändert wird um verschiedenen Teilbereiche des Objektes zu be leuchten.
die beleuchteten Teilbereiche von den mindestens zwei bildgebenden Einheiten gleichzeitig beobachtet werden,
die von den bildgebenden Einheiten durch die Beobachtungen gewonnene je weilige zweidimensionale Bildinformation an eine Recheneinheit übertragen wird,
die Recheneinheit aus den zweidimensionalen Bildinformationen kontinuierlich sowohl durch eine Selbstkalibrierung Kalibrierinformation für die bildgebenden Einheiten als auch dreidimensionale Objektinformationen berechnet, und
die relative Positionierung der Lichtquelle zu dem Objekt während des Beob achtens verändert wird um verschiedenen Teilbereiche des Objektes zu be leuchten.
Die mit der Erfindung erzielten Vorteile bestehen insbesondere darin, dass eine
vollständige mechanische Entkopplung von Lichtquelle und Aufnahmetechnik in
dem aktiven Stereoskopieverfahren der vorliegenden Erfindung gegeben ist. Da
durch ist ein selektives Ausleuchten und Erfassen von Teilbereichen des Objek
tes, die eine höhere Detaildichte hat oder von größerer Bedeutung sind, mög
lich. Bereiche ohne relevante Information können somit gezielt ausgelassen
werden.
Gemäß einer vorteilhaften Ausführungsform der Erfindung wird die Lichtquelle
manuell mit der Hand geführt. Der Benutzer kann dann ganz gezielt das Objekt
entsprechend der gewünschten Detailgenauigkeit anstrahlen und vermessen.
Bereiche mit vielen oder wichtigen Details werden feiner angestrahlt, Bereiche
ohne relevante Information können grob angestrahlt werden.
Die kontinuierliche Selbstkalibrierung des in der vorliegenden Patentschrift vor
gestellten Verfahrens erlaubt die höchstmögliche Flexibilität bei der Aufstellung
und Dimensionierung des Systems.
Die kontinuierliche Selbstkalibrierung führt außerdem mit zunehmender Zahl von
durch die Kameras erfassten Korrespondenzen zu einer ständigen Verbesserung
der Kalibrierung, die bis auf einen Skalierungsfaktor eindeutig ist.
Die Zahl und Lage der Kameras ist beliebig, es sind wenigstens zwei Kameras
notwendig. Über zusätzliche Kameras kann der zur Verfügung stehende Mess
raum beliebig konfiguriert werden.
Wenn kleine Objekte erfasst werden sollen, werden die Kameras dicht zusam
men gestellt, bei größeren Objekten werden die Kameras weit auseinander ge
stellt. Der Messbereich lässt sich zur Erreichung optimaler Ergebnisse einfach
und individuell auf das Messobjekt einstellen. Die Größe des Messbereichs wird
prinzipiell nur noch durch die Intensität der Lichtquelle begrenzt. Die Lage der
Kameras wird während der Messung als integraler Bestandteil der Messung be
rechnet. Alle aufgenommenen Messdaten dienen sowohl zur dreidimensionalen
Rekonstruktion als auch zur Kalibrierung der Kameras. Dadurch entfällt eine ex
plizite Kalibrierung mit Eichkörpern.
Hinzukommt, dass durch das sukzessive Umstellen der Kameras mit wenigen
Kameras eine virtuell sehr viel größere Zahl von Kameras simuliert werden kann.
Ein Ausführungsbeispiel der Erfindung ist in den Zeichnungen dargestellt und wird
im folgenden näher beschrieben.
Es zeigen:
Fig. 1 eine schematische Darstellung einer Vorrichtung zum teilweise Erfassen
und Vermessen eines dreidimensionalen Objektes gemäß der vorliegenden Er
findung;
Fig. 2 ein Flussdiagramm des Verfahrens zum teilweise Erfassen und Vermes
sen einer Teilansicht eines Objektes gemäß der vorliegenden Erfindung;
Fig. 3 ein Flussdiagramm eines Verfahrens zum Erfassen und Vermessen eines
dreidimensionalen Objektes gemäß der vorliegenden Erfindung; und
Fig. 4 eine schematische Darstellung eines weiteren Ausführungsbeispiels der
vorliegenden Erfindung ähnlich zu der Fig. 1.
Bezugnehmend auf die Fig. 1 wird ein Objekt 10, das ein dreidimensionaler
Körper, aber auch eine beliebige Fläche eines Körpers, sein kann, mittels des
erfindungsgemäßen Verfahrens bzw. einer Vorrichtung 1 der aktiven Stereosko
pie erfasst und vermessen, um dreidimensionale Informationen des Objektes 10
zu gewinnen. Durch das im folgenden beschriebene Verfahren und Vorrichtung
können dreidimensionale Objektkoordinaten von Punkten, die auf der Oberfläche
des Objektes 10 liegen, in einem dreidimensionalen Referenzkoordinatensystem
x, y, z bestimmt werden. Hierzu weist die erfindungsgemäße Vorrichtung eine
Lichtquelle 11 auf, die ein Lichtmuster auf einen Teilbereich des Objektes 10
projiziert. In dem bevorzugten Ausführungsbeispiel der Erfindung ist die Licht
quelle 11 ein optischer oder elektromagnetischer Strahler, insbesondere ein La
serstrahl oder eine fokussierte Weißlichtquelle, der einen punktförmigen Strahl
aussendet und einen Lichtpunkt Pi auf der Oberfläche des Objektes markiert.
Obwohl im folgenden in Bezug auf die Lichtquelle 11 von einem punktförmigen
Strahler gesprochen wird, kann die Lichtquelle 11 gemäß weiteren Ausfüh
rungsformen der vorliegenden Erfindung auch ein quasi-punktförmiger Strahler
sein, wobei zum Beispiel durch einen Laserstrahl ein Kreuz auf dem Objekt 10
projiziert wird, mit dem ein eindeutiger Punkt markiert wird. Ebenso könnte mit
tels eines Laserstrahls ein Kreis auf dem Objekt 11 projiziert werden, dessen
Mitte einen eindeutigen Punkt markiert. Gemäß weiteren Ausführungsformen der
vorliegenden Erfindung könnte die Lichtquelle 11 ein optischer oder elektroma
gnetischer Strahler, punktförmig oder quasi-punktförmig sein, der viele Strahlen
gleichzeitig aussendet, die entweder durch ihre Form, ihre Struktur oder ihre
Farbe identifizierbar sind, zum Beispiel ein Projektor, der viele bunte Punkte pro
jiziert, oder zum Beispiel ein Projektor, der viele Punkte in definierten, nicht
gleichmäßigen Abständen projiziert. Es ist außerdem vorstellbar, dass die Licht
quelle ein flächig codiertes Muster abstrahlt, wobei das Muster diffus ist und
über Korrelation oder Farbvergleich gleiche Bildpunkte des Projektionsmusters
in Kamerabildern wiedergefunden werden, wobei das Muster ein buntes Muster
oder ein unregelmäßiges Hell/Dunkelmuster sein kann. Schlussendlich könnte
die Lichtquelle auch ein sequentiell codiertes Muster abstrahlen, wobei über eine
Folge von Bildern ein mehrere Bildebenen tiefes Muster projiziert wird, das je
dem Bildpunkt einen eindeutigen Code zuordnet. In den Bildern stellen Bild
punkte mit gleichem Code korrespondierende Punkte dar, wobei Gray-Code-
Sequenzen, die in zwei Orientierungen (z. B. horizontal und vertikal) oder zum
Beispiel Gray-Code in Verbindung mit Phasen-Shift-Verfahren, die zwei Orientie
rungen projiziert werden, auf das Objekt (10) abgebildet werden.
Die Vorrichtung 1 umfasst weiterhin zumindest zwei bildgebende Einheiten 12,
13. Die bildgebenden Einheiten 12, 13 sind Sensoren für optische oder elektro
magnetische Signale, die digital oder analog mit einer Recheneinheit 14 gekop
pelt werden können. In dem bevorzugten Ausführungsbeispiel sind die bildge
benden Einheiten 12, 13 vorzugsweise elektronische, pixelbasierte Farb- oder
Schwarz-Weiß-Kameras, wie zum Beispiel CCD-Kameras oder CMOS-Kameras.
Gemäß weiteren Ausführungsformen der vorliegenden Erfindung könnten die
bildgebenden Einheiten jedoch auch Smartkameras sein, die Bildverarbeitungs
hardware on board haben und damit die Bildverarbeitung bereits in der Kamera
selbst durchführen, so dass bereits ausgewertete Bilder an die Recheneinheit 14
übertragen werden.
Die Kameras 12, 13 werden so angeordnet, dass sie jeweils Teilbereiche des
Objektes 10 beobachten, wobei sich die Teilbereiche der Kameras 12, 13 zumin
dest teilweise überlappen. Dabei liegt der durch die Lichtquelle 11 beleuchtete
Punkt Pi auf dem Objekt 10 in dem sich überlappenden Bereich der Sichtfelder
der Kameras 12, 13. Die Kameras 12, 13 nehmen gleichzeitig Bildinformationen
von dem Objekt 10 auf und liefern diese an die Recheneinheit 14. Die Rechen
einheit 14 analysiert die Bildinformationen der Kamera 12 und bestimmt mittels
bekannten Bildverarbeitungsalgorithmen die zweidimensionalen Koordinaten Pi
(U1, V1) in dem zweidimensionalen Koordinatensystem U1, V1 der Kamera 12.
Ähnlich bestimmt die Recheneinheit 14 aus der gleichzeitig aufgenommenen Bil
dinformation der Kamera 13 die zweidimensionalen Koordinaten Pi (U2, V2) in
dem zweidimensionalen Koordinatensystem U2, V2 der Kamera 13.
Die 2-D-Koordinaten Pi (U1, V1) und Pi (U2, V2) werden gespeichert und zur Be
rechnung der Lage der Kameras zueinander und relativ zum Objekt (Selbstkali
brierung) als auch zur Vermessung und Erfassung, also zur dreidimensionalen
Rekonstruktion des Objektes, verwendet.
Während des Messvorgangs wird die relative Position des Strahlers 11 zu dem
Objekt 10 verändert, damit n unterschiedliche Punkte P1, . . ., Pn auf dem Objekt
10 beleuchtet werden.
Bei dem Verfahren und der Vorrichtung der vorliegenden Erfindung kann die
Lichtquelle bzw. der punktförmige Lichtstrahler 11 manuell durch den Benutzer
während des Messvorgangs geführt werden. Der Benutzer (nicht dargestellt)
strahlt das Objekt 10 mit einer punktförmigen Lichtquelle 11 an, wobei er den
Lichtstrahl über das Objekt 10 schwenkt. Die Bereiche auf dem Objekt 10, die
angestrahlt und von den Kameras 12, 13 erfasst werden, werden vermessen. Der
Benutzer kann gezielt das Objekt 10 entsprechend der gewünschten Detailge
nauigkeit anstrahlen und vermessen. Hierbei können Bereiche mit vielen oder
wichtigen Details feiner angestrahlt werden, und Bereiche ohne relevante Infor
mationen können grob angestrahlt werden.
Die Kameras 12, 13 nehmen während des Messvorgangs synchron Bildinforma
tionen des Objektes 10 in schneller Folge (z. B. 30 Hz) auf und geben diese an
die Recheneinheit 14 weiter. Die Recheneinheit 14 bestimmt wiederum die zwei
dimensionalen Koordinaten der Punkte P1, . . ., n (U1, V1) und P1, . . ., n (U2, V2) in den
Koordinatensystemen der Kameras 12 und 13 und speichert diese ab.
Da die zweidimensionalen Koordinaten U1, V1 und U2, V2 der Punkte P1, . . ., n
aus korrespondierender Bildinformation der Kameras 12, 13 gewonnen wurden,
müssen die beiden kameraspezifischen Koordinatensysteme U1, V1 und U2, V2
über eine Koordinatentransformation verknüpfbar sein. Genauer gesagt:
wobei M eine Kalibrierungsmatrix ist; die auch als Epipolarmatrix bezeichnet
wird und mit homogenen Koordinaten für die Punkte Pi gerechnet wird.
Gemäß bekannten algorithmischen Verfahren kann nun die Recheneinheit 14
die Einträge der Kalibrierungsmatrix M berechnen, und zwar so, dass in Abhän
gigkeit von den Koordinaten U1, V1 und U2, V2 die linke Seite der oberen Glei
chung minimiert wird. Somit wird eine erste Kalibrierung des Systems gewonnen.
Das bei der vorliegenden Erfindung eingesetzte Verfahren zur Selbstkalibrierung
wird in Thomas S Huang, "Determining Three-Dimensional Motion and Structure
from Two Perspective Views", 1986, Handbook of Pattern Recognition and
Image Processing", beschrieben.
Für das in Huang beschriebene Verfahren sind wenigstens 8 erfasste Bildpunkte
Pi mit entsprechenden zweidimensionalen Koordinaten Pi (U1, V1) und Pi (U2, V2)
notwendig (das Verfahren nennt sich daher 8-Point Algorithm).
Bei der vorliegenden Erfindung wird zunächst ebenfalls das 8-Punkte-Verfahren
eingesetzt um eine anfängliche Kalibrierung zu gewinnen, bei zunehmender
Genauigkeit der Kalibrierungen wird bevorzugterweise ein erweitertes, nichtline
ar optimierendes Verfahren eingesetzt. Mathematisch gesehen liegt die Mindest
zahl von erfassten Punkten für eine erfolgreiche Bestimmung der Kalibrierung
bei 5. Tatsächlich wird aber erst ab ca. 20 Punkten mit der Kalibrierung begon
nen, da aufgrund von Sensorrauschen erst dann eine ausreichende Fehlerunter
drückung erreicht wird.
Die Kalibrierung des Systems über die Kalibrierungsmatrix M wird kontinuierlich
überwacht, und wird mit zunehmender Anzahl von gewonnenen Bildpunktkoordi
naten P1, . . ., n (U1, V1) und P1, . . ., n (U2, V2) verbessert. Die Recheneinheit 14 über
prüft bei steigender Anzahl von erfassten Bildpunkten ob eine bessere Kalibrie
rung gemäß obiger Gleichung gewonnen werden kann. Ist dies der Fall, wird die
zunächst angenommene Kalibrierung verworfen und eine neue weitere Kalibrie
rung wird berechnet.
Dabei ist die Kalibrierung bis auf einen Skalierungsfaktor eindeutig. Der Skalie
rungsfaktor kann durch das Vorsehen eines einer Kamera zugeordneten Entfer
nungsmessers bestimmt werden, so dass dreidimensionale Objektinformationen,
die aus unterschiedlichen Kamerapositionen relativ zu dem Objekt gewonnen
wurden, über den Skalierungsfaktor zu einander skalierbar sind und in das glei
che Koordinatensystem integriert werden können.
Ist eine Kalibrierung ausreichend stabil, d. h. die Veränderungen der Einträge in
der kontinuierlich aktualisierten Kalibrierungsmatrix M unterschreiten einen vor
bestimmten Schwellenwert wird die derzeitige Kalibrierungsmatrix Mo als
Grundlage für die Kalibrierung des Systems angesehen und gespeichert. Die
Recheneinheit 14 bestimmt die dreidimensionalen Objektkoordinaten x, y, z des
Punktes Pi aus der Kalibrierungsmatrix Mo der Kalibrierung und den korrespon
dierenden zweidimensionalen Koordinaten Pi (U1, V1) und Pi (U2, V2). Dies ge
schieht für bereits erfasste und abgespeicherte Punkte Pi , sowie für Punkte Pi,
die zeitlich nach der Stabilisierung der Kalibrierung aufgenommen werden.
Wird eine alte Systemkalibrierung zu Gunsten einer neuen Systemkalibrierung
aufgegeben, weil die Recheneinheit 14 bei der kontinuierliche Aktualisierung der
Kalibrierungsmatrix M berechnet hat, das eine neue Kalibrierungsmatrix M' eine
bessere Kalibrierung des Systems bietet, wird die derzeitige Kalibrierungsmatrix
Mo durch die neue Kalibrierungsmatrix M' ersetzt. Die dreidimensionalen Objekt
koordinaten x, y, z des Punktes Pi, die gemäß der derzeitige Kalibrierungsmatrix
Mo berechnet wurden, werden nun gemäß der neuen Kalibrierung repräsentiert
durch die neue Kalibrierungsmatrix M' aktualisiert bzw. neu berechnet.
Aus der Kalibrierungsmatrix M kann die relative Lage der Kameras zueinander in
Form einer Translation und einer Rotation gewonnen werden. Damit lässt sich
für jeden Bildpunkt Pi ein Projektionsstrahl berechnen. Der Schnittpunkt der
Projektionsstrahlen zweier korrespondierender Bildpunkte Pi (U1, V1), Pi (U2, V2)
ergibt den rekonstruierten Raumpunkt Pi (x, y, z). Bei windschiefen Strahlen wird
der Raumpunkt zur Rekonstruktion verwendet, der den beiden Projektionsstrah
len am Nächsten liegt.
Die so gewonnenen dreidimensionalen Koordinaten Pi (x, y, z) des Raumpunktes
werden noch während des Ablaufes des Messvorgangs auf einem an die Rech
nereinheit 14 angeschlossenen Bildschirm 15 visualisiert. Die dreidimensionalen
Punktkoordinaten werden hierfür in ein Oberflächenmodell umgerechnet und
liefern dem Benutzer eine dreidimensionale visualisierte Rekonstruktion des
Objektes 10 auf dem Bildschirm 15.
Das rekonstruierte Oberflächenmodell wird synthetisch eingefärbt um dem Be
nutzer hinweise zu geben, wo Punkte aufgenommen werden sollten, die zur Ka
librierung beitragen. Helle Farben bezeichnen Bereiche, die gut rekonstruiert
wurden, dunkle Farben bezeichnen Bereiche, an denen noch mehr Daten zur
Berechnung einer guten Kalibrierung notwendig sind.
Der Benutzer kann erkennen, weiche Bereiche des Objektes 10 bereits ausrei
chend vermessen und erfasst sind, und welche Bereiche er mittels der Licht
quelle 11 noch detaillierter ausleuchten, und damit vermessen und erfassen
muss.
Bezugnehmend auf die Fig. 2 wird nun der detaillierte Verfahrensablauf eines
Messvorgangs zum Vermessen und Erfassen einer Ansicht des Objektes 10 be
schrieben, wobei die Ansicht eines Objektes 10 die Bereiche des Objektes sind,
die im sich überlappenden Sichtfeld der mindestens zwei Kameras 12, 13 liegen.
Der Messvorgang beginnt mit dem Schritt 20. In Schritt 21 werden zumindest
zwei Kameras, wobei die Anzahl der Kameras jedoch beliebig hoch sein kann,
so positioniert, dass sie das Objekt 10 aus jeweils verschiedenen Blickwinkeln
beobachten. Hierbei ist zu beachten, dass sich die Sichtfelder der individuellen
Kameras 12, 13 jedoch mindestens in einem Teilbereich überlappen. Im Schritt
22 wird die Lichtquelle 11 so relativ zum Objekt 10 positioniert, das mittels des
Lichtmusters zumindest ein Lichtpunkt Pi, der in den sich überlappenden Sicht
felder der Kameras 12, 13 auf dem Objekt 10 liegt (Schritt 23), auf dem Objekt
10 beleuchtet wird. Die Kameras 12, 13 nehmen bevorzugterweise synchron im
Schritt 24 Bildinformation des Objektes 10 auf und geben diese in Schritt 25 an
die Recheneinheit 14 weiter.
Die Recheneinheit 14 bestimmt in Schritt 26 die 2-D-Koordinaten des durch die
Lichtquelle definierten Bildpunktes in den zeitgleich aufgenommenen Bildinfor
mationen der jeweiligen Kameras mittels bekannten Verfahren der Bildverarbei
tung und speichert diese 2-D-Koordinaten ab.
Das Verfahren schreitet sodann mit Schritt 27 fort und berechnet die 3-D-
Koordinaten des aktuellen Bildpunktes Pi aus den entsprechenden 2-D-
Koordinaten der Kameras 12 und 13 und der Kalibrierinformation der derzeiti
gen Kalibrierung. Liegt noch keine erste Kalibrierung vor, da z. B. der Messvor
gang gerade erst begonnen hat, werden die 2-D-Koordinaten zur späteren Be
rechnung gespeichert. Im Schritt 27 wird auch festgestellt, ob sich die Kalibrie
rung verändert hat. Ist dies der Fall werden die bis jetzt mit der alten Kalibrie
rung gewonnen Objektkoordinaten basierend auf der neuen Kalibrierung aktuali
siert bzw. neu berechnet.
In Schritt 28 werden die bis jetzt gewonnenen 3D-Koordinaten der Punkte Pi auf
dem Bildschirm 15 visualisiert, wobei dem Benutzer durch Einfärbung zusätzli
che Information über die Genauigkeit der jetzigen Kalibrierung gegeben werden
kann. Ein Gütemaß für die Qualität der Kalibrierung ist zum Beispiel durch den
Restbetrag der Gleichung (1) gegeben, aber auch durch einen möglichen Ab
stand der Projektionsstrahlen eines Bildpunkte Pi zueinander, der bei der Be
stimmung der dreidimensionalen Objektkoordinaten des Punktes Pi aus den 2D-
Koordinaten und der Kalibrierinformation auftreten kann.
Im Schritt 29 wird überprüft, ob die derzeitige Kalibrierung verbessert werden
kann, d. h. die Recheneinheit 14 prüft, ob mit steigender Anzahl von beobachte
ten Lichtpunkten auf dem Objekt 10, und deren jeweiligen kameraspezifischen 2
D-Koordinaten, es nicht eine bessere, alternative Kalibrierung gibt als die der
zeitige. Ist dies der Fall schreitet das Verfahren mit Schritt 30 voran. Ist die der
zeitige Selbstkalibrierung jedoch weiterhin die optimale, so schreitet das Verfah
ren mit Schritt 32 voran.
In Schritt 30 aktualisiert die Recheneinheit 14 die Selbstkalibrierung, und inte
griert ggf. neue aufgenommene Punkt Pi mit den jeweiligen kameraspezifischen
2D-Koordinaten in die Berechnung der Kalibrierinformation. Danach fährt das
Verfahren mit Schritt 31 fort.
In Schritt 32 dagegen wird überprüft, ob die Ansicht des Objektes ausreichend
erfasst wurde. Eine Vielzahl von Kriterien ist für die Bestimmung, ob das Objekt
ausreichend erfasst wurde, vorgesehen. Einerseits kann der Benutzer anhand
der visualisierten bereits gewonnenen 3D-Koordinaten überprüfen, ob eine aus
reichende Dichte der 3D-Koordinaten des Objektes erlangt wurde, andererseits
können Abbruchkriterien, wie zum Beispiel eine erreichte Höchstzahl von er
fassten Bildpunkten, oder eine überschrittene durchschnittliche Punktedichte der
erfassten 3D-Objektkoordinaten eingesetzt werden. Ist das Objekt ausreichend
erfasst, wird der Messvorgang bei 33 beendet.
Ist das Objekt jedoch nicht ausreichend erfasst, folgt Schritt 31 des Messvor
gangs,
In Schritt 31 wird die relative Position der Lichtquelle 11 zu dem Objekt 10 ver
ändert, so dass ein weiterer Punkt Pi auf dem Objekt 10 in dem sich überlap
penden Bereich der Sichtfelder der Kameras 12, 13 auf dem Objekt 10 beleuch
tet und somit definiert wird.
Das Verfahren kehrt somit zu Schritt 23 zurück um im Folgenden einen weiteren
Punkt Pi zu erfassen und zu vermessen. Die Schritte 23 bis 32 werden schluss
endlich solange wiederholt bis im Schritt 32 eine ausreichende Erfassung und
Vermessung des Objektes festgestellt wird.
Bezugnehmend auf die Fig. 3 wird eine weitere Ausführungsform der vorliegen
den Erfindung beschrieben, in der während des Messvorgangs auch die Positio
nen der Kameras 12, 13 verändert werden können, um andere Ansichten des
Objektes in dem Messvorgang aufzunehmen. Die Schritte 20b bis 32b der Fig.
3 sind identisch mit den Schritten 20 bis 32 der Fig. 2. Wenn in Schritt 31b je
doch bestimmt wird, dass die Ansicht des Objektes ausreichend erfasst ist, wird
im Gegensatz zu dem unter Bezugnahme auf die Fig. 2 beschriebenen Ausfüh
rungsbeispiel der Messvorgang nicht beendet, sondern es wird weiter im Schritt
34b geprüft, ob das Objekt an sich ausreichend, d. h. von einer ausreichenden
Zahl von Blickwinkeln her, erfasst wurde. Ist das Objekt 10 nicht ausreichend
erfasst, schreitet der Messvorgang mit Schritt 35b voran. In Schritt 35b wird die
relative Position der Kameras 12, 13 zu dem Objekt 10 verändert, um eine ande
re Ansicht des Objektes 10 durch die Kameras 12, 13 zu beobachten und gemäß
der Schritte 23b bis 32b zu vermessen und zu erfassen.
Beim Verändern der Position der Kameras ist zu beachten, dass wenigstens eine
Kamera als Referenzsystem bei jedem Durchlaufen des Schrittes 35b ortsfest
verbleibt. Die ortsfesten Kameras dieses Schrittes stellen sicher, dass die
Punkte Pi , die bei einer neuen Ansicht nach dem Umstellen und nach einer ak
tualisierten Kalibrierung erfasst werden, im gleichen Koordinatensystem x, y, z
wie die bisherigen Ansichten aufgenommen werden.
Beim Umstellen der Kameras ist zu beachten, dass die Kameras unperiodisch
umgestellt werden sollten, also nicht nach einem festen oder regelmäßigen Mu
ster. Dies wirkt sich vorteilhaft bei der Fehlerfortpflanzung zwischen der Vermes
sung und Erfassung von einzelnen Teilansichten aus.
Nach Schritt 35b kehrt der Messvorgang zu Schritt 22b zurück, und im folgenden
werden die Schritte 23b bis 32b solange durchlaufen bis die neue Ansicht aus
reichend erfasst wurde. Der Messvorgang wird gemäß der Schritte 22b bis 35b
wiederholt, bis das gesamte Objekt 10 ausreichend erfasst ist. Im Schritt 34b
wird dann festgestellt, dass der Messvorgang bei 36b beendet werden soll.
Bei einem weiteren Ausführungsbeispiel der vorliegenden Erfindung wird das
Objekt 10 (siehe Fig. 1) auf einem Drehteller positioniert. Während des Mess
vorganges zum Erfassen und Vermessen des Objektes kann dann durch Drehen
des Drehtellers die relative Position der Kameras 12, 13 zu dem Objekt verän
dern werden, um eine neue Teilansicht des Objektes 10 zu vermessen und zu
erfassen, wobei jedoch weiterhin die Lichtquelle 11 per Hand geführt wird.
Abwandlungen der Verfahrensschritte sind natürlich im Rahmen fachmännischen
Handelns möglich. Zum Beispiel ist die Reihenfolge der verschiedenen Schritte
in den Fig. 2 und 3 nicht notwendigerweise zwingend. So könnte beispiels
weise der Visualisierungs-Schritt 28(b) durchaus zu einem anderen Zeitpunkt
bezüglich der Schritte 22b bis 32b stattfinden.
Bei einem weiteren in der Fig. 4 dargestellten Ausführungsbeispiel der vorlie
genden Erfindung kann das erfindungsgemäße Verfahren zum Erfassen und
Vermessen eines Objekts, wie es unter Bezugnahme auf die Fig. 1 bis 3 be
schrieben wurde, lediglich mit einer Ortungskamera 13 und einer als Projektor
ausgestalteten Lichtquelle 11B durchgeführt werden.
Das Ausführungsbeispiel der Fig. 4 ist identisch zu den vorherigen mit der
Ausnahme, dass eine der Ortungskameras 12 fehlt und dass die Lichtquelle in
der Form eines Projektors 11B ausgestaltet ist. Der Projektor 11B projiziert eine
horizontale und eine vertikale Gray-Code-Sequenz auf das Objekt 10. Technisch
gesehen wird der Projektor 11B als eine sogenannte inverse Kamera interpre
tiert.
Die Codes der Gray-Code-Sequenz im Bild der Kamera 13 können direkt als "Pi
xelkoordinaten" des Projektors 11B interpretiert werden, so daß die 2D-
Bildkoordinaten, die in den vorherigen Ausführungsbeispielen durch die zweite
Ortungskamera 12 geliefert wurden, nunmehr ebenfalls aus der Bildinformation
der einzigen Ortungskamera 13, sei es durch die Ortungskamera 13 selbst oder
mittels einer Analyse der Bilddaten durch die Recheneinheit 14, bestimmt wer
den. Für die Bestimmung der "Pixelkoordinaten" des Projektors müssen die Ab
bildungseigenschaften des Projektors 11 B bekannt sein und müssen mit in die
Bestimmung einfließen. Die Stereokalibrierung kann somit, wie zuvor bezüglich
der Fig. 1 bis 3 beschrieben, durchgeführt werden um eine Vermessung und
Erfassung des Objektes 10 zu realisieren.
Claims (32)
1. Verfahren zur Durchführung eines Messvorgangs zum mindestens teilweisen
Erfassen und Vermessen einer Oberfläche von mindestens einem dreidimen
sionalen Objekt (10) (Objektoberfläche) oder von beliebigen Flächen, wobei
mittels einer Lichtquelle (11) ein Lichtmuster auf dadurch beleuchtete Teilbe reiche des Objektes (10) oder der Fläche projiziert wird und
mittels mindestens zwei bildgebenden Einheiten (12, 13) von unterschiedli chen Positionen aus, derart dass das Lichtmuster in dem überlappenden Sichtbereich der mindesten zwei bildgebenden Einheiten (12, 13) liegt, je weils zweidimensionale Bildinformationen der zu vermessenden Objektober fläche geliefert werden
und aus der zweidimensionalen Bildinformation dreidimensionale Objektin formationen ermittelt werden,
dadurch gekennzeichnet dass,
die beleuchteten Teilbereiche von den mindestens zwei bildgebenden Ein heiten (12, 13) gleichzeitig beobachtet werden,
die von den bildgebenden Einheiten (12, 13) durch die Beobachtungen ge wonnene jeweilige zweidimensionale Bildinformation an eine Recheneinheit (14) übertragen wird,
die Recheneinheit (14) aus den zweidimensionalen Bildinformationen konti nuierlich sowohl durch eine Selbstkalibrierung Kalibrierinformation für die bildgebenden Einheiten (12, 13) als auch dreidimensionale Objektinformatio nen berechnet, und
die relative Positionierung der Lichtquelle (11) zu dem Objekt (10) während des Beobachtens verändert wird um verschiedenen Teilbereiche des Objek tes (10) zu beleuchten.
mittels einer Lichtquelle (11) ein Lichtmuster auf dadurch beleuchtete Teilbe reiche des Objektes (10) oder der Fläche projiziert wird und
mittels mindestens zwei bildgebenden Einheiten (12, 13) von unterschiedli chen Positionen aus, derart dass das Lichtmuster in dem überlappenden Sichtbereich der mindesten zwei bildgebenden Einheiten (12, 13) liegt, je weils zweidimensionale Bildinformationen der zu vermessenden Objektober fläche geliefert werden
und aus der zweidimensionalen Bildinformation dreidimensionale Objektin formationen ermittelt werden,
dadurch gekennzeichnet dass,
die beleuchteten Teilbereiche von den mindestens zwei bildgebenden Ein heiten (12, 13) gleichzeitig beobachtet werden,
die von den bildgebenden Einheiten (12, 13) durch die Beobachtungen ge wonnene jeweilige zweidimensionale Bildinformation an eine Recheneinheit (14) übertragen wird,
die Recheneinheit (14) aus den zweidimensionalen Bildinformationen konti nuierlich sowohl durch eine Selbstkalibrierung Kalibrierinformation für die bildgebenden Einheiten (12, 13) als auch dreidimensionale Objektinformatio nen berechnet, und
die relative Positionierung der Lichtquelle (11) zu dem Objekt (10) während des Beobachtens verändert wird um verschiedenen Teilbereiche des Objek tes (10) zu beleuchten.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die vollständige
Erfassung des Objektes (10) oder der Fläche durch sukzessive Veränderung
der relativen Lage der bildgebenden Einheiten (12, 13) gegenüber dem Objekt
(10) durchgeführt wird, wobei die Selbstkalibrierung der bildgebenden Einheiten
(12, 13) laufend aktualisiert wird.
3. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 2, dadurch gekennzeichnet, dass zum sukzessiven Verändern der
relativen Lage der bildgebenden Einheiten (12, 13) gegenüber dem Objekt (10)
eine oder mehrere der bildgebenden Einheiten (12, 13) umgestellt werden, wo
bei wenigstens eine bildgebende Einheit (12, 13) als Referenzsystem in jedem
Fall des Umstellens (Umstellschritt) ortsfest verbleibt.
4. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 3 wobei die bildgebenden Einheiten (12, 13) umgestellt werden um
den Sichtbereich der bildgebenden Einheiten (12, 13) zu variieren nachdem ein
Sichtbereich (Ansicht) des Objekts (10) durch die bildgebenden Einheiten (12,
13) ausreichend erfasst und vermessen wurde, wobei nach dem Umstellen der
Messvorgang fortgesetzt wird, hierbei stellen die ortsfesten bildgebenden Ein
heiten im Fall des Umstellens (Umstellschritt) sicher, dass die neue Ansicht des
Objektes im gleichen dreidimensionalen Koordinatensystem wie die bisherigen
Ansichten aufgenommen werden, wobei die Schritte des Umstellens und des
Erfassens und Vermessens einer Ansicht des Objektes (10) solange fortgeführt
wird bis das gesamte Objekt (10) erfasst und vermessen ist.
5. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 1, dadurch gekennzeichnet, dass die aktuellen Ergebnisse des Erfas
sens und Vermessens, d. h. die dreidimensionale Objektinformation simultan
während des Messvorgangs in ein Oberflächenmodel umgerechnet werden und
online mittels eines Bildschirms (15) visualisiert werden um die Lichtquelle (11)
basierend auf die visualisierte, bis jetzt erfolgte Erfassung zu steuern insbeson
dere hinsichtlich Position und/oder Helligkeit.
6. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 1, dadurch gekennzeichnet, dass die Lichtquelle (11) manuell geführt
wird.
7. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 1, dadurch gekennzeichnet, dass die Lichtquelle (11) ein Laserpointer
ist und das Lichtmuster durch punktförmiges Anstrahlen des Objektes (10) er
zeugt wird.
8. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 1, dadurch gekennzeichnet, dass die Recheneinheit (14) die zweidi
mensionalen Bildinformationen der beiden bildgebenden Einheiten (12, 13) in
schneller Folge (z. B. 30 Hz) aufnimmt.
9. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 1, dadurch gekennzeichnet, dass die Recheneinheit (14) in korre
spondierenden (d. h. gleichzeitig durch die bildgebenden Einheiten aufgenom
men) Bildinformationen der bildgebenden Einheiten (12, 13) die Reflexion des
Lichtmusters auf dem Objekt (Stereokorrespondenzen) detektiert.
10. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 8, dadurch gekennzeichnet, dass die Genauigkeit der Stereokorre
spondenzen durch subpixelgenaue Verfahren, z. B. durch Schwerpunktbildung
erhöht wird.
11. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 1, dadurch gekennzeichnet, dass wenigstens Bildinformation einer
bildgebenden Einheit, vorzugsweise aber Bildinformation jeder bildgebenden
Einheit, gespeichert wird und zur Texturierung einer dreidimensionalen Re
konstruktion des Objektes dient.
12. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 1, dadurch gekennzeichnet, dass als Lichtquelle (11) ein optischer
oder elektromagnetischer Strahler, der einen punktförmigen Strahl aussen
det, verwendet wird, wie zum Beispiel ein Laserstrahler oder eine fokussierte
Weißlichtquelle.
13. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 1, dadurch gekennzeichnet, dass ein quasi-punktförmiger Strahler
als Lichtquelle (11) eingesetzt wird mit dem ein eindeutiger Punkt definiert
wird, wie z. B. Laserstrahler, die ein Kreuz projizieren, mit dem ein eindeuti
ger Punkt markiert wird oder Laserstrahler, die einen Kreis projizieren, des
sen Mitte einen eindeutigen Punkt markiert.
14. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 11 und 12, dadurch gekennzeichnet, dass der Strahler viele
Strahlen gleichzeitig aussendet, die entweder durch ihre Form, ihre Struktur
oder ihre Farbe identifizierbar sind wie z. B. ein Projektor, der viele bunte
Punkte projiziert oder ein Projektor, der viele Punkte in definierten, nicht
gleichmäßigen Abständen projiziert.
15. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 1, dadurch gekennzeichnet, dass die Lichtquelle (11) ein flächig
codiertes Lichtmuster aussendet, wobei das Lichtmuster diffus ist und über
Korrelation oder Farbvergleich gleiche Bildpunkte des Lichtmusters in den
Bildern der bildgebenden Einheiten (12, 13) wiedergefunden werden können
wie z. B. ein buntes Muster oder ein unregelmäßiges Hell-Dunkel-Muster.
16. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 1, dadurch gekennzeichnet, dass die Lichtquelle (11) ein sequenti
ell codiertes Lichtmuster projiziert und über eine Folge von Bildern ein meh
rere Bildebenen tiefes Lichtmuster projiziert wird, das jedem Bildpunkt einen
eindeutigen Code zuordnet, wobei in den Bildern Bildpunkte mit gleichem
Code korrespondierende Punkte darstellen, wie z. B. Gray-Code-Sequenzen,
die in zwei Orientierungen (z. B. horizontal und vertikal) auf das Objekt proji
ziert werden oder ein Gray-Code in Verbindung mit Phasen-Shift-Verfahren,
die in zwei Orientierungen auf das Objekt (10) projiziert werden.
17. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 1, dadurch gekennzeichnet, dass ein Laser als Lichtquelle (11)
verwendet wird.
18. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 1, dadurch gekennzeichnet, dass die Lichtquelle (11) eine fokus
sierte Weißlichtquelle ist.
19. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 1, dadurch gekennzeichnet, dass der Messvorgang zum Erfassen
und Vermessen einer Ansicht des Objekts weiter folgende Schritte aufweist:
die Selbstkalibrierung wird mit einer handgeführten Lichtquelle (11) gemäß einem der vorhergehenden Ansprüche durchgeführt,
die Vermessung und Erfassung wird mit einem handgeführten, zur Linie aufgeweiteten Strahler durchgeführt, wobei gleiche Punkte in korrespon dierenden Bildinformation über die sogenannten Epipolargeometrie be rechnet werden, wobei für jeden detektierten Bildpunkt der Laserlinie in einer Bildinformation über den Schnitt der Epipolarlinie mit der detektierten Laserlinie in allen anderen Bildinformationen Korrespondenzen berechnet werden.
die Selbstkalibrierung wird mit einer handgeführten Lichtquelle (11) gemäß einem der vorhergehenden Ansprüche durchgeführt,
die Vermessung und Erfassung wird mit einem handgeführten, zur Linie aufgeweiteten Strahler durchgeführt, wobei gleiche Punkte in korrespon dierenden Bildinformation über die sogenannten Epipolargeometrie be rechnet werden, wobei für jeden detektierten Bildpunkt der Laserlinie in einer Bildinformation über den Schnitt der Epipolarlinie mit der detektierten Laserlinie in allen anderen Bildinformationen Korrespondenzen berechnet werden.
20. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 18, dadurch gekennzeichnet, dass die Vermessung und Erfassung
einer Ansicht wahlweise mit jedem optischen oder elektromagnetischen
Strahler, der einen zur Linie aufgeweiteten Strahl aussendet, z. B. einem Lini
enlaser oder einer Weißlichtquelle mit Schlitzblende und Fokussieroptik
durchgeführt wird.
21. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 19, dadurch gekennzeichnet, dass bei der Vermessung und Erfas
sung viele parallele Linien gleichzeitig ausgestrahlt werden, wobei die Zu
ordnung der richtigen Schnittpunkte von Epipolarlinie und detektierten Laser
linien durch Abzählen geschieht, z. B. einem Linienmuster mit sinusförmigem
Intensitätsprofil.
22. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 19, dadurch gekennzeichnet, dass bei der Vermessung und Erfas
sung viele parallele Linien gleichzeitig ausgestrahlt werden, die über ihre
Form, Struktur oder Farbe unterschieden werden können, wobei die Zuord
nung der richtigen Schnittpunkte von Epipolarlinie und detektierten Laserlini
en durch Vergleich von Form, Struktur oder Farbe dient, wie z. B. Linien mit
den Farben des Farbspektrum oder ein durchgehendes Farbspektrum oder
wie z. B. Linien unterschiedlicher Helligkeit oder Breite.
23. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 19, dadurch gekennzeichnet, dass bei der Vermessung und Erfas
sung ein sequentiell codiertes Linienmuster ausgestrahlt wird, dass viele Li
nien über die Folge der Bildinformationen mit unterschiedlichen, mehrere Bil
debenen tiefen Codes vorsieht, wobei die Zuordnung der richtigen Schnitt
punkte von Epipolarlinie und detektierten Laserlinien über den Vergleich des
Liniencodes geschieht, z. B. einer Gray-Code-Sequenz
oder einer Gray-Code-Sequenz in Verbindung mit einem Phasen-Shift-Ver
fahren.
24. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 19, dadurch gekennzeichnet, dass bei der Vermessung und Erfassung
ein flächig codiertes Muster eingesetzt wird, wobei die Kodierung des Musters
über Form, Struktur oder Farbe geschieht, und wobei in einer Bildinformation das
Muster identifiziert wird und korrespondierende Stellen in anderen
Bildinformationen über Korrelation entlang der Epipolarlinien gesucht werden,
z. B. ein buntes Muster oder ein unregelmäßiges Hell-Dunkel-Muster.
25. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 1, dadurch gekennzeichnet dass als bildgebende Einheiten (12,
13) Sensoren für optische o. elektromagnetische Signale verwendet werden,
die digital oder analog mit der Recheneinheit (14) koppelbar sind.
26. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 1, dadurch gekennzeichnet dass vorzugsweise elektronische, pi
xelbasierte Farb- oder Scharz-Weiß- wie CCD-Kameras oder CMOS-Kameras
als bildgebende Einheiten (12, 13) verwendet werden.
27. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 1, dadurch gekennzeichnet, dass als bildgebende Einheiten (12,
13) Smart-Kameras, die Bildverarbeitungshardware on board haben und da
mit die Bildverarbeitung bereits on board durchgeführt werden kann, einge
setzt werden, wobei an die Recheneinheit (12, 13) nur noch die ausgewerte
ten Bilder übertragen werden.
28. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 2, dadurch gekennzeichnet, dass ein Drehteller verwendet wird um
sukzessiv die Lage der bildgebenden Einheiten (12, 13) relativ zu dem Objekt
(10) zu verändern.
29. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 26, dadurch gekennzeichnet, dass die Drehachse des Tellers über
einen einfachen Kalibrierkörper bestimmt wird, z. B. eine Stange, die in die
Drehachse des Teller gesteckt wird und in den Bildinformationen der bildge
benden Einheiten (12, 13) wieder erkennbar ist und wobei über die bekannte
Größe des Drehtellers oder des Kalibrierstabes die Skalierung des Systems
berechnet werden kann.
30. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach
Anspruch 1, dadurch gekennzeichnet, dass jede angetriebene oder nicht an
getriebene Mechanik, die das Objekt (10) linear oder rotierend oder in einer
anderen definierten Weise im Sichtfeld der Kameras bewegen kann verwen
det wird, wobei bei solchen Positioniersystemen über die bekannte Lage der
eingestellten Positionen die Skalierung des Systems berechnet werden kann,
z. B. Drehbank oder Roboterarm-Positioniersystem.
31. Verfahren zur Durchführung eines Messvorgangs zum mindestens teilwei
sen Erfassen und Vermessen einer Oberfläche von mindestens einem drei
dimensionalen Objekt (10) (Objektoberfläche) oder von beliebigen Flächen,
wobei
mittels einer Lichtquelle (11) ein Lichtmuster auf dadurch beleuchtete Teilbe reiche des Objektes (10) oder der Fläche projiziert wird und
mittels mindestens einer bildgebenden Einheit (13) von unterschiedlichen Positionen aus zweidimensionalen Bildinformationen der zu vermessenden Objektoberfläche geliefert wird
und aus der zweidimensionalen Bildinformation dreidimensionale Objektin formationen ermittelt werden,
die beleuchteten Teilbereiche von der mindestens einen bildgebenden Ein heiten (13) beobachtet wird,
dadurch gekennzeichnet dass,
die von der bildgebenden Einheit (13) durch die Beobachtung gewonnene zweidimensionale Bildinformation an eine Recheneinheit (14) übertragen wird,
wobei durch das Lichtmuster Pixelkoordinaten der Lichtquelle definiert wer den, die durch Analyse der zweidimensionalen Bildinformation der bildge benden Einheit (13) wiedergewonnen werden und zusätzliche zweidimensio nale Bildinformation einer virtuellen, inversen bildgebenden Einheit (11B) er zeugen,
die Recheneinheit (14) aus den zweidimensionalen Bildinformationen und der zusätzlichen zweidimensionalen Bildinformation kontinuierlich sowohl durch eine Selbstkalibrierung Kalibrierinformation für die bildgebende und die virtuelle, inverse bildgebende Einheit (13) als auch dreidimensionale Objektinformationen berechnet, und
die relative Positionierung der Lichtquelle (11) zu dem Objekt (10) während des Beobachtens verändert wird um verschiedene Teilbereiche des Objek tes (10) zu beleuchten.
mittels einer Lichtquelle (11) ein Lichtmuster auf dadurch beleuchtete Teilbe reiche des Objektes (10) oder der Fläche projiziert wird und
mittels mindestens einer bildgebenden Einheit (13) von unterschiedlichen Positionen aus zweidimensionalen Bildinformationen der zu vermessenden Objektoberfläche geliefert wird
und aus der zweidimensionalen Bildinformation dreidimensionale Objektin formationen ermittelt werden,
die beleuchteten Teilbereiche von der mindestens einen bildgebenden Ein heiten (13) beobachtet wird,
dadurch gekennzeichnet dass,
die von der bildgebenden Einheit (13) durch die Beobachtung gewonnene zweidimensionale Bildinformation an eine Recheneinheit (14) übertragen wird,
wobei durch das Lichtmuster Pixelkoordinaten der Lichtquelle definiert wer den, die durch Analyse der zweidimensionalen Bildinformation der bildge benden Einheit (13) wiedergewonnen werden und zusätzliche zweidimensio nale Bildinformation einer virtuellen, inversen bildgebenden Einheit (11B) er zeugen,
die Recheneinheit (14) aus den zweidimensionalen Bildinformationen und der zusätzlichen zweidimensionalen Bildinformation kontinuierlich sowohl durch eine Selbstkalibrierung Kalibrierinformation für die bildgebende und die virtuelle, inverse bildgebende Einheit (13) als auch dreidimensionale Objektinformationen berechnet, und
die relative Positionierung der Lichtquelle (11) zu dem Objekt (10) während des Beobachtens verändert wird um verschiedene Teilbereiche des Objek tes (10) zu beleuchten.
32. Vorrichtung zur Durchführung eines Messvorgangs zum mindestens teilwei
sen Erfassen und Vermessen einer Oberfläche von mindestens einem drei
dimensionalen Objekt (10) (Objektoberfläche) oder von beliebigen Flächen,
die
eine Lichtquelle (10) zum projizieren eines Lichtmusters auf dadurch be leuchtete Teilbereiche des Objektes (11) oder der Fläche,
mindestens zwei bildgebenden Einheiten (12, 13), die von unterschiedlichen Positionen aus, derart dass das Lichtmuster in dem überlappenden Sichtbe reich der mindestens zwei bildgebenden Einheiten (12, 13) liegt, jeweils zweidimensionale Bildinformationen der zu vermessenden Objektoberfläche liefern
aufweist und aus der zweidimensionalen Bildinformation dreidimensionale Objektinformationen ermittelt,
dadurch gekennzeichnet, dass
mindestens zwei bildgebenden Einheiten (12, 13) gleichzeitig die beleuchte ten Teilbereiche beobachtet,
zwei bildgebenden Einheiten (12, 13) mit einer Recheneinheit (14) gekoppelt sind, um die von den bildgebenden Einheiten (12, 13) durch die Beobachtun gen gewonnene jeweilige zweidimensionale Bildinformation an eine Re cheneinheit (14) zu übertragen,
die Recheneinheit (14) aus den zweidimensionalen Bildinformationen konti nuierlich sowohl durch Selbstkalibrierung Kalibrierinformation für die bildge benden Einheiten (12, 13) (Selbstkalibrierung) als auch dreidimensionale Objektinformationen berechnet, und
die relative Positionierung der Lichtquelle (11) zu dem Objekt (10) während des Beobachtens veränderlich ist um verschiedenen Teilbereiche des Ob jektes (10) zu beleuchten.
eine Lichtquelle (10) zum projizieren eines Lichtmusters auf dadurch be leuchtete Teilbereiche des Objektes (11) oder der Fläche,
mindestens zwei bildgebenden Einheiten (12, 13), die von unterschiedlichen Positionen aus, derart dass das Lichtmuster in dem überlappenden Sichtbe reich der mindestens zwei bildgebenden Einheiten (12, 13) liegt, jeweils zweidimensionale Bildinformationen der zu vermessenden Objektoberfläche liefern
aufweist und aus der zweidimensionalen Bildinformation dreidimensionale Objektinformationen ermittelt,
dadurch gekennzeichnet, dass
mindestens zwei bildgebenden Einheiten (12, 13) gleichzeitig die beleuchte ten Teilbereiche beobachtet,
zwei bildgebenden Einheiten (12, 13) mit einer Recheneinheit (14) gekoppelt sind, um die von den bildgebenden Einheiten (12, 13) durch die Beobachtun gen gewonnene jeweilige zweidimensionale Bildinformation an eine Re cheneinheit (14) zu übertragen,
die Recheneinheit (14) aus den zweidimensionalen Bildinformationen konti nuierlich sowohl durch Selbstkalibrierung Kalibrierinformation für die bildge benden Einheiten (12, 13) (Selbstkalibrierung) als auch dreidimensionale Objektinformationen berechnet, und
die relative Positionierung der Lichtquelle (11) zu dem Objekt (10) während des Beobachtens veränderlich ist um verschiedenen Teilbereiche des Ob jektes (10) zu beleuchten.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10149750A DE10149750A1 (de) | 2001-03-09 | 2001-10-09 | Handgeführter 3D-Scanner |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10111503 | 2001-03-09 | ||
DE10112536 | 2001-03-15 | ||
DE10149750A DE10149750A1 (de) | 2001-03-09 | 2001-10-09 | Handgeführter 3D-Scanner |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10149750A1 true DE10149750A1 (de) | 2002-09-19 |
Family
ID=26008733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10149750A Withdrawn DE10149750A1 (de) | 2001-03-09 | 2001-10-09 | Handgeführter 3D-Scanner |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE10149750A1 (de) |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004044525A3 (en) * | 2002-11-11 | 2004-09-16 | Qinetiq Ltd | Ranging apparatus |
EP1770356A2 (de) * | 2005-09-30 | 2007-04-04 | Topcon Corporation | Dreidimensionales Messsystem mit Projektionsvorrichtung |
DE102005002190B4 (de) * | 2005-01-17 | 2007-04-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Scanner und Verfahren zum Betreiben eines Scanners |
DE102006049695A1 (de) * | 2006-10-16 | 2008-04-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur |
US7459670B2 (en) | 2002-11-11 | 2008-12-02 | Qinetiq Limited | Proximity sensor based on projection of structured light |
US8878929B2 (en) | 2009-05-27 | 2014-11-04 | Koh Young Technology Inc. | Three dimensional shape measurement apparatus and method |
DE102013208466A1 (de) | 2013-05-08 | 2014-11-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum berührungslosen Vermessen von Oberflächenkonturen |
WO2016040229A1 (en) * | 2014-09-10 | 2016-03-17 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device |
DE102013002399B4 (de) * | 2013-02-13 | 2016-12-22 | Chromasens Gmbh | Vorrichtung zur Generierung von Lichtmustern mit einer eindimensional fokussierten Beleuchtungseinrichtung |
US9602811B2 (en) | 2014-09-10 | 2017-03-21 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device |
US9618620B2 (en) | 2012-10-05 | 2017-04-11 | Faro Technologies, Inc. | Using depth-camera images to speed registration of three-dimensional scans |
US9671221B2 (en) | 2014-09-10 | 2017-06-06 | Faro Technologies, Inc. | Portable device for optically measuring three-dimensional coordinates |
US9684078B2 (en) | 2010-05-10 | 2017-06-20 | Faro Technologies, Inc. | Method for optically scanning and measuring an environment |
US9693040B2 (en) | 2014-09-10 | 2017-06-27 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device |
DE102016105405B4 (de) * | 2015-03-25 | 2017-07-20 | EXTEND3D GmbH | Verfahren und eine Vorrichtungsanordnung zur hochgenauen, (semi-)automatischen in-situ-Kalibrierung und -Registrierung eines Projektor-Kamera-Systems zu einem Bauteil |
US9769463B2 (en) | 2014-09-10 | 2017-09-19 | Faro Technologies, Inc. | Device and method for optically scanning and measuring an environment and a method of control |
DE102016221040A1 (de) * | 2016-10-26 | 2018-04-26 | Robert Bosch Gmbh | Verfahren zur Lokalisierung einer Vorrichtung in einem System |
US10067231B2 (en) | 2012-10-05 | 2018-09-04 | Faro Technologies, Inc. | Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner |
US10070116B2 (en) | 2014-09-10 | 2018-09-04 | Faro Technologies, Inc. | Device and method for optically scanning and measuring an environment |
US10175037B2 (en) | 2015-12-27 | 2019-01-08 | Faro Technologies, Inc. | 3-D measuring device with battery pack |
CN111051919A (zh) * | 2017-09-07 | 2020-04-21 | 罗伯特·博世有限公司 | 用于运行激光测距仪的方法 |
DE102010039092B4 (de) * | 2009-09-02 | 2020-10-22 | Robert Bosch Gmbh | Verfahren und Steuergerät zum Ermitteln eines Abstandes eines Objektes von einem Fahrzeug |
CN112304292A (zh) * | 2019-07-25 | 2021-02-02 | 富泰华工业(深圳)有限公司 | 基于单色光的物体检测方法及检测系统 |
DE102019123045B4 (de) | 2019-08-28 | 2022-01-27 | Daniel Futterer | Dummy-Vorrichtung und deren Verwendungen sowie Automatisierungssystem |
US11350077B2 (en) | 2018-07-03 | 2022-05-31 | Faro Technologies, Inc. | Handheld three dimensional scanner with an autoaperture |
DE102022200821B3 (de) | 2022-01-25 | 2023-01-12 | Carl Zeiss Meditec Ag | Verfahren zum Kalibrieren eines stereoskopischen medizinischen Mikroskops und medizinische Mikroskopanordnung |
-
2001
- 2001-10-09 DE DE10149750A patent/DE10149750A1/de not_active Withdrawn
Cited By (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2003286238B2 (en) * | 2002-11-11 | 2007-07-05 | Qinetiq Limited | Ranging apparatus |
WO2004044525A3 (en) * | 2002-11-11 | 2004-09-16 | Qinetiq Ltd | Ranging apparatus |
US7589825B2 (en) | 2002-11-11 | 2009-09-15 | Qinetiq Limited | Ranging apparatus |
US7459670B2 (en) | 2002-11-11 | 2008-12-02 | Qinetiq Limited | Proximity sensor based on projection of structured light |
US7469834B2 (en) | 2005-01-17 | 2008-12-30 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Scanner and method for operating a scanner |
DE102005002190B4 (de) * | 2005-01-17 | 2007-04-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Scanner und Verfahren zum Betreiben eines Scanners |
EP1770356A2 (de) * | 2005-09-30 | 2007-04-04 | Topcon Corporation | Dreidimensionales Messsystem mit Projektionsvorrichtung |
EP1770356A3 (de) * | 2005-09-30 | 2007-05-09 | Topcon Corporation | Dreidimensionales Messsystem mit Projektionsvorrichtung |
WO2008046663A3 (de) * | 2006-10-16 | 2008-12-11 | Fraunhofer Ges Forschung | Vorrichtung und verfahren zum berührungs losen erfassen einer dreidimensionalen kontur |
WO2008046663A2 (de) | 2006-10-16 | 2008-04-24 | Fraunhofer Gesellschaft Zur Förderung Der Angewandten Forschung E. V. | Vorrichtung und verfahren zum berührungs losen erfassen einer dreidimensionalen kontur |
JP2010507079A (ja) * | 2006-10-16 | 2010-03-04 | フラウンホッファー−ゲゼルシャフト ツァー フェーデルング デア アンゲバンテン フォルシュング エー ファー | 三次元輪郭の非接触検出のための装置および方法 |
US8243286B2 (en) | 2006-10-16 | 2012-08-14 | Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. | Device and method for the contactless detection of a three-dimensional contour |
DE102006049695A1 (de) * | 2006-10-16 | 2008-04-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur |
US8878929B2 (en) | 2009-05-27 | 2014-11-04 | Koh Young Technology Inc. | Three dimensional shape measurement apparatus and method |
DE102010029319B4 (de) * | 2009-05-27 | 2015-07-02 | Koh Young Technology Inc. | Vorrichtung zur Messung einer dreidimensionalen Form und Verfahren dazu |
DE102010039092B4 (de) * | 2009-09-02 | 2020-10-22 | Robert Bosch Gmbh | Verfahren und Steuergerät zum Ermitteln eines Abstandes eines Objektes von einem Fahrzeug |
US9684078B2 (en) | 2010-05-10 | 2017-06-20 | Faro Technologies, Inc. | Method for optically scanning and measuring an environment |
US9746559B2 (en) | 2012-10-05 | 2017-08-29 | Faro Technologies, Inc. | Using two-dimensional camera images to speed registration of three-dimensional scans |
US10067231B2 (en) | 2012-10-05 | 2018-09-04 | Faro Technologies, Inc. | Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner |
US11815600B2 (en) | 2012-10-05 | 2023-11-14 | Faro Technologies, Inc. | Using a two-dimensional scanner to speed registration of three-dimensional scan data |
US9618620B2 (en) | 2012-10-05 | 2017-04-11 | Faro Technologies, Inc. | Using depth-camera images to speed registration of three-dimensional scans |
US11112501B2 (en) | 2012-10-05 | 2021-09-07 | Faro Technologies, Inc. | Using a two-dimensional scanner to speed registration of three-dimensional scan data |
US11035955B2 (en) | 2012-10-05 | 2021-06-15 | Faro Technologies, Inc. | Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner |
US10739458B2 (en) | 2012-10-05 | 2020-08-11 | Faro Technologies, Inc. | Using two-dimensional camera images to speed registration of three-dimensional scans |
US10203413B2 (en) | 2012-10-05 | 2019-02-12 | Faro Technologies, Inc. | Using a two-dimensional scanner to speed registration of three-dimensional scan data |
US9739886B2 (en) | 2012-10-05 | 2017-08-22 | Faro Technologies, Inc. | Using a two-dimensional scanner to speed registration of three-dimensional scan data |
DE102013002399B4 (de) * | 2013-02-13 | 2016-12-22 | Chromasens Gmbh | Vorrichtung zur Generierung von Lichtmustern mit einer eindimensional fokussierten Beleuchtungseinrichtung |
DE102013208466A1 (de) | 2013-05-08 | 2014-11-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum berührungslosen Vermessen von Oberflächenkonturen |
DE102013208466B4 (de) * | 2013-05-08 | 2016-01-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum berührungslosen Vermessen von Oberflächenkonturen |
US9769463B2 (en) | 2014-09-10 | 2017-09-19 | Faro Technologies, Inc. | Device and method for optically scanning and measuring an environment and a method of control |
GB2544935B (en) * | 2014-09-10 | 2020-01-08 | Faro Tech Inc | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device |
US9671221B2 (en) | 2014-09-10 | 2017-06-06 | Faro Technologies, Inc. | Portable device for optically measuring three-dimensional coordinates |
US9879975B2 (en) | 2014-09-10 | 2018-01-30 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device |
US10401143B2 (en) | 2014-09-10 | 2019-09-03 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device |
US10088296B2 (en) | 2014-09-10 | 2018-10-02 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device |
US9915521B2 (en) | 2014-09-10 | 2018-03-13 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device |
US9602811B2 (en) | 2014-09-10 | 2017-03-21 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device |
US10070116B2 (en) | 2014-09-10 | 2018-09-04 | Faro Technologies, Inc. | Device and method for optically scanning and measuring an environment |
US10499040B2 (en) | 2014-09-10 | 2019-12-03 | Faro Technologies, Inc. | Device and method for optically scanning and measuring an environment and a method of control |
WO2016040229A1 (en) * | 2014-09-10 | 2016-03-17 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device |
GB2544935A (en) * | 2014-09-10 | 2017-05-31 | Faro Tech Inc | Method for optically measuring three-dimensional co-ordinates and calibration of a three-dimensional measuring device |
US9693040B2 (en) | 2014-09-10 | 2017-06-27 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device |
DE102016105405B4 (de) * | 2015-03-25 | 2017-07-20 | EXTEND3D GmbH | Verfahren und eine Vorrichtungsanordnung zur hochgenauen, (semi-)automatischen in-situ-Kalibrierung und -Registrierung eines Projektor-Kamera-Systems zu einem Bauteil |
US10175037B2 (en) | 2015-12-27 | 2019-01-08 | Faro Technologies, Inc. | 3-D measuring device with battery pack |
DE102016221040A1 (de) * | 2016-10-26 | 2018-04-26 | Robert Bosch Gmbh | Verfahren zur Lokalisierung einer Vorrichtung in einem System |
CN111051919A (zh) * | 2017-09-07 | 2020-04-21 | 罗伯特·博世有限公司 | 用于运行激光测距仪的方法 |
CN111051919B (zh) * | 2017-09-07 | 2024-03-29 | 罗伯特·博世有限公司 | 用于运行激光测距仪的方法 |
US11350077B2 (en) | 2018-07-03 | 2022-05-31 | Faro Technologies, Inc. | Handheld three dimensional scanner with an autoaperture |
CN112304292B (zh) * | 2019-07-25 | 2023-07-28 | 富泰华工业(深圳)有限公司 | 基于单色光的物体检测方法及检测系统 |
CN112304292A (zh) * | 2019-07-25 | 2021-02-02 | 富泰华工业(深圳)有限公司 | 基于单色光的物体检测方法及检测系统 |
DE102019123045B4 (de) | 2019-08-28 | 2022-01-27 | Daniel Futterer | Dummy-Vorrichtung und deren Verwendungen sowie Automatisierungssystem |
DE102022200821B3 (de) | 2022-01-25 | 2023-01-12 | Carl Zeiss Meditec Ag | Verfahren zum Kalibrieren eines stereoskopischen medizinischen Mikroskops und medizinische Mikroskopanordnung |
DE102022200821B9 (de) | 2022-01-25 | 2023-05-25 | Carl Zeiss Meditec Ag | Verfahren zum Kalibrieren eines stereoskopischen medizinischen Mikroskops und medizinische Mikroskopanordnung |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10149750A1 (de) | Handgeführter 3D-Scanner | |
DE102007054906B4 (de) | Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten | |
DE102012108567B4 (de) | Verfahren zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters | |
EP0897524B1 (de) | Vorrichtung zum berührungsfreien vermessen einer dreidimensionalen objektoberfläche | |
EP1971820B1 (de) | Erstellung eines abstandsbildes | |
EP2079981B1 (de) | Vorrichtung und verfahren zum berührungslosen erfassen einer dreidimensionalen kontur | |
DE102012112322B4 (de) | Verfahren zum optischen Abtasten und Vermessen einer Umgebung | |
DE102016002398B4 (de) | Optischer 3D-Sensor zur schnellen und dichten Formerfassung | |
EP1597539B1 (de) | Verfahren und optisches system zur vermessung der topographie eines messobjekts | |
EP2212646B1 (de) | Verfahren zur optischen vermessung von objekten unter verwendung eines triangulationsverfahrens | |
AT506110B1 (de) | Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten | |
DE102006001634B3 (de) | Erstellung eines Abstandsbildes | |
DE102008002725B4 (de) | Verfahren und Vorrichtung zur 3D-Rekonstruktion | |
DE10137241A1 (de) | Registrierung von Tiefenbildern mittels optisch projizierter Marken | |
EP3195256B1 (de) | Verfahren und vorrichtung zum identifizieren von strukturelementen eines projizierten strukturmusters in kamerabildern | |
EP3775767B1 (de) | Verfahren und system zur vermessung eines objekts mittels stereoskopie | |
DE19637682B4 (de) | Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung und Vorrichtung zur Anwendung dieses Verfahrens | |
CH692873A5 (de) | Vorrichtung und Verfahren zur geometrischen Kalibrierung von CCD-Kameras. | |
DE102008048963A1 (de) | 3D-Geometrie-Erfassungsverfahren und -vorrichtung | |
DE102017116758B4 (de) | Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera | |
DE602004011093T2 (de) | Einrichtung zum scannen dreidimensionaler objekte | |
DE4113992A1 (de) | Verfahren zur automatischen dreidimensionalen ueberwachung von gefahrenraeumen | |
DE102012102580A1 (de) | Verfahren zum Messen eines Objektes sowie Intraoral-Scanner | |
DE10359104B3 (de) | Verfahren zur dynamischen, dreidimensionalen Erfassung und Darstellung einer Oberfläche | |
DE102005043753A1 (de) | Verfahren zur Bestimmung der Raumkoordinaten von Oberflächenpunkten eines Prüflings und Vorrichtung zur Durchführung des Verfahrens |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8127 | New person/name/address of the applicant |
Owner name: HUMAN SOLUTIONS GMBH, 67657 KAISERSLAUTERN, DE |
|
8139 | Disposal/non-payment of the annual fee |