DE10149750A1 - Handgeführter 3D-Scanner - Google Patents

Handgeführter 3D-Scanner

Info

Publication number
DE10149750A1
DE10149750A1 DE10149750A DE10149750A DE10149750A1 DE 10149750 A1 DE10149750 A1 DE 10149750A1 DE 10149750 A DE10149750 A DE 10149750A DE 10149750 A DE10149750 A DE 10149750A DE 10149750 A1 DE10149750 A1 DE 10149750A1
Authority
DE
Germany
Prior art keywords
image information
light source
imaging units
dimensional
particular according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10149750A
Other languages
English (en)
Inventor
Helmut Hanfeld
Quido Harven
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Human Solutions GmbH
Original Assignee
TECMATH AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TECMATH AG filed Critical TECMATH AG
Priority to DE10149750A priority Critical patent/DE10149750A1/de
Publication of DE10149750A1 publication Critical patent/DE10149750A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/30Interpretation of pictures by triangulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area

Abstract

Bei einem Verfahren und einer Vorrichtung zur Durchführung eines Messvorgangs zum mindestens teilweisen Erfassen und Vermessen einer Oberfläche von mindestens einem dreidimensionalen Objekt (10) oder von beliebigen Flächen, wobei mittels einer Lichtquelle (11) ein Lichtmuster auf dadurch beleuchtete Teilbereiche des Objektes (10) oder der Fläche projiziert wird und mittels mindestens zwei bildgebenden Einheiten (12, 13) von unterschiedlichen Positionen aus, derart, dass das Lichtmuster in dem überlappenden Sichtbereich der mindestens zwei bildgebenden Einheiten (12, 13) liegt, jeweils zweidimensionale Bildinformationen der zu vermessenden Objektoberfläche geliefert werden und aus der zweidimensionalen Bildinformation dreidimensionale Objektinformationen ermittelt werden, ist es wünschenswert, eine flexible Anwendung, ein leicht vergrößer- bzw. verkleinerbares Scanvolumen und die Möglichkeit das Objekt gezielt und selektiv innerhalb des Scanvolumens vermessen zu können. Dies wird bei dem erfindungsgemäßen Verfahren und der Vorrichtung dadurch erreicht, dass die beleuchteten Teilbereiche von den mindestens zwei bildgebenden Einheiten (12, 13) gleichzeitig beobachtet werden, die von den bildgebenden Einheiten (12, 13) durch die Beobachtungen gewonnene jeweilige zweidimensionale Bildinformation an eine Recheneinheit (14) übertragen wird, die Recheneinheit (14) aus den zweidimensionalen Bildinformationen kontinuierlich sowohl durch eine Selbstkalibrierung ...

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bestimmung räumli­ cher Information von Objekten nach dem Oberbegriff des Verfahrens- und des Vorrichtungshauptanspruches.
Stand der Technik
Systeme zur dreidimensionalen Vermessung von Objekten sind bereits seit län­ gerem Stand der Technik. Auf Basis bildgebender Sensoren lassen sich vor al­ lem zwei Messprinzipien unterscheiden: die passive Stereoskopie und die opti­ sche Triangulation.
Die passive Stereoskopie zeichnet sich besonders durch ihre hohe Flexibilität aus. Im einfachsten Fall reichen zwei Bilder vom Objekt aus, um eine dreidimen­ sionale Rekonstruktion zu berechnen. Dazu wird automatisch oder interaktiv durch den Benutzer nach korrespondierenden Bereichen in beiden Bildern ge­ sucht. Je mehr korrespondierende Bereich in beiden Bildern gefunden werden, umso besser kann das erfasste Objekt rekonstruiert werden. Bei homogenen Oberflächen schlägt die Korrespondenzpunktsuche schnell fehl, da keine ein­ deutige Zuordnung korrespondierender Bereiche mehr gefunden wird. Zudem führen unterschiedliche Beleuchtungen oder kleinere Bildfehler schnell zu Fehl­ zuordnungen, so dass die rein passiven Stereoskopieverfahren insgesamt als relativ ungenau angesehen werden können.
Sehr viel genauer und damit zuverlässiger arbeiten bekannte Triangulationssen­ soren. Eine strukturierte Lichtquelle wird in fester, bekannter Anordnung mit ei­ nem bildgebenen Sensor gekoppelt. Die Struktur der im Bild aufgenommenen Lichtreflexion auf dem Messobjekt sowie die Parameter des Sensors erlauben die Berechnung von dreidimensionalen Koordinaten. Im einfachsten Fall wird ein punktförmiger Lichtstrahl, z. B. ein Laser, mit einem linearen CCD-Chip kombi­ niert. Der Ort der Lichtpunktreflexion auf der CCD-Linie ist dann proportional zur gemessenen Entfernung. Die Verbindung einer Laserlinie mit einem flächigem CCD-Array ermöglicht die Berechnung einer Profillinie über das Objekt. Durch den Einsatz von strukturierten Lichtmustern oder sequentiell codierten Linienmu­ stern können in einer Aufnahme komplette Tiefenbilder des Objektes in hoher Genauigkeit und Auflösung generiert werden. Die feste Kopplung zwischen Lichtquelle und Bildsensor begrenzt allerdings den zur Verfügung stehenden Messbereich. Nur Bereiche auf dem Objekt, die sowohl von der Lichtquelle be­ strahlt, als auch vom Bildsensor erfasst werden, können vermessen werden. Hinterschneidungen führen zu Abschattungen, spiegelnde Oberflächen führen aufgrund von auftretenden Reflexionen zu systematischen Fehlmessungen.
Mit einem relativ neuen Messprinzip, der aktiven Stereoskopie, wird versucht die Vorteile beider Verfahren zu kombinieren, bei gleichzeitiger Elimination der Nachteile. Die eigentliche Bildaufnahme und Auswertung erfolgt stereoskopisch. Die Suche von korrespondierenden Bereichen in den Bildern wird durch die Projektion von strukturiertem Licht unterstützt. Die Identifikation der beleuchte­ ten Bereiche und die Zuordnung von Bereichen mit gleichen Lichtmustern führt zur Berechnung von dreidimensionalen Objektkoordinaten. Bisher realisierte Verfahren gehen allerdings noch einen Kompromiss bezüglich der Anordnung der bildgebenden Sensoren und des verwendeten strukturierten Lichtes ein.
In der DE 195 34 415 wird ein aktives Stereoskopieverfahren beschrieben, bei dem die Anordnung der Kameras zueinander zwar beliebig ist, die Lagepara­ meter der Kameras werden allerdings explizit über einen Kalibrierkörper berech­ net, so dass auch nur im Bereich des Kalibrierkörpers eine zuverlässige Objekt­ vermessung durchgeführt werden kann. Zudem wird für die Objektvermessung ausschließlich eine punktförmige Lichtquelle vorgesehen, die durch eine mecha­ nische Ablenkeinheit gesteuert wird. Aufgrund der punktförmigen Lichtquelle ist die Aufnahmegeschwindigkeit auf einen Objektpunkt pro Bild begrenzt. Mit der mechanischen Ablenkeinheit wird der Lichtpunkt zeilenweise über das Objekt geführt und somit wird das Objekt systematisch abgescannt. Dieses Verfahren vereinfacht zwar die Bildverarbeitung, da die vermutliche Lage des Bildpunktes zu jedem Zeitpunkt bekannt ist, allerdings werden so auch viele Punkt erfasst, die in nicht relevanten oder wenig strukturierten Bereichen des Objektes liegen und zur eigentlichen Objektrekonstruktion nicht beitragen. Zudem beschränkt sich der erfassbare Bereich auf dem Objekt auf die Orte, die gleichzeitig von beiden Bildsensoren erfasst werden und von der Lichtquelle beleuchtet werden. Es werden keine Verfahren zur Vergrößerung des Sichtfeldes oder zur Rund­ umerfassung angegeben. Mehr als zwei Kameras dienen lediglich zur Erhöhung der Genauigkeit oder zur Vermeidung von Abschattungen.
In "Bestimmungen von Entfernungsbildern durch aktive stereoskopische Verfah­ ren" von Ralph Sasse werden Verfahren zur aktiven Stereoskopie beschrieben, bei denen die Lage der Lichtquelle nicht fest vorgegeben ist und nach jedem Messvorgang variiert werden kann. Der Einsatz von farbigen, bunten Linienmu­ stern erlaubt zudem die Generierung von Tiefenbildern im Rahmen einer einzi­ gen Aufnahme. Allerdings wird auch dieses System durch einen Kalibrierkörper vorkalibriert. Zudem sind die Aufnahmekameras mechanisch miteinander gekop­ pelt, so dass der zur Verfügung stehende Messbereich durch die Anordnung der Kameras eingeschränkt ist und nur kleine Objekte von wenigen Dezimetern er­ fasst werden können.
Aufgabe der vorliegenden Erfindung ist es eine Erfassungsvorrichtung und Verfahren für Objekte vorzusehen die flexibel in der Anwendung sind, ein leicht vergrößer- bzw. verkleinerbares Scanvolumen aufweisen und mit denen das Objekt gezielt und selektiv innerhalb des Scanvolumens vermessen werden kann.
Die Aufgabe wird durch das erfindungsgemäße Verfahren und Vorrichtung mit den in Anspruch 1 und 31 aufgeführten Merkmalen gelöst, insbesondere da­ durch, dass
die beleuchteten Teilbereiche von den mindestens zwei bildgebenden Einheiten gleichzeitig beobachtet werden,
die von den bildgebenden Einheiten durch die Beobachtungen gewonnene je­ weilige zweidimensionale Bildinformation an eine Recheneinheit übertragen wird,
die Recheneinheit aus den zweidimensionalen Bildinformationen kontinuierlich sowohl durch eine Selbstkalibrierung Kalibrierinformation für die bildgebenden Einheiten als auch dreidimensionale Objektinformationen berechnet, und
die relative Positionierung der Lichtquelle zu dem Objekt während des Beob­ achtens verändert wird um verschiedenen Teilbereiche des Objektes zu be­ leuchten.
Die mit der Erfindung erzielten Vorteile bestehen insbesondere darin, dass eine vollständige mechanische Entkopplung von Lichtquelle und Aufnahmetechnik in dem aktiven Stereoskopieverfahren der vorliegenden Erfindung gegeben ist. Da­ durch ist ein selektives Ausleuchten und Erfassen von Teilbereichen des Objek­ tes, die eine höhere Detaildichte hat oder von größerer Bedeutung sind, mög­ lich. Bereiche ohne relevante Information können somit gezielt ausgelassen werden.
Gemäß einer vorteilhaften Ausführungsform der Erfindung wird die Lichtquelle manuell mit der Hand geführt. Der Benutzer kann dann ganz gezielt das Objekt entsprechend der gewünschten Detailgenauigkeit anstrahlen und vermessen. Bereiche mit vielen oder wichtigen Details werden feiner angestrahlt, Bereiche ohne relevante Information können grob angestrahlt werden.
Die kontinuierliche Selbstkalibrierung des in der vorliegenden Patentschrift vor­ gestellten Verfahrens erlaubt die höchstmögliche Flexibilität bei der Aufstellung und Dimensionierung des Systems.
Die kontinuierliche Selbstkalibrierung führt außerdem mit zunehmender Zahl von durch die Kameras erfassten Korrespondenzen zu einer ständigen Verbesserung der Kalibrierung, die bis auf einen Skalierungsfaktor eindeutig ist.
Die Zahl und Lage der Kameras ist beliebig, es sind wenigstens zwei Kameras notwendig. Über zusätzliche Kameras kann der zur Verfügung stehende Mess­ raum beliebig konfiguriert werden.
Wenn kleine Objekte erfasst werden sollen, werden die Kameras dicht zusam­ men gestellt, bei größeren Objekten werden die Kameras weit auseinander ge­ stellt. Der Messbereich lässt sich zur Erreichung optimaler Ergebnisse einfach und individuell auf das Messobjekt einstellen. Die Größe des Messbereichs wird prinzipiell nur noch durch die Intensität der Lichtquelle begrenzt. Die Lage der Kameras wird während der Messung als integraler Bestandteil der Messung be­ rechnet. Alle aufgenommenen Messdaten dienen sowohl zur dreidimensionalen Rekonstruktion als auch zur Kalibrierung der Kameras. Dadurch entfällt eine ex­ plizite Kalibrierung mit Eichkörpern.
Hinzukommt, dass durch das sukzessive Umstellen der Kameras mit wenigen Kameras eine virtuell sehr viel größere Zahl von Kameras simuliert werden kann.
Ein Ausführungsbeispiel der Erfindung ist in den Zeichnungen dargestellt und wird im folgenden näher beschrieben.
Es zeigen:
Fig. 1 eine schematische Darstellung einer Vorrichtung zum teilweise Erfassen und Vermessen eines dreidimensionalen Objektes gemäß der vorliegenden Er­ findung;
Fig. 2 ein Flussdiagramm des Verfahrens zum teilweise Erfassen und Vermes­ sen einer Teilansicht eines Objektes gemäß der vorliegenden Erfindung;
Fig. 3 ein Flussdiagramm eines Verfahrens zum Erfassen und Vermessen eines dreidimensionalen Objektes gemäß der vorliegenden Erfindung; und
Fig. 4 eine schematische Darstellung eines weiteren Ausführungsbeispiels der vorliegenden Erfindung ähnlich zu der Fig. 1.
Bezugnehmend auf die Fig. 1 wird ein Objekt 10, das ein dreidimensionaler Körper, aber auch eine beliebige Fläche eines Körpers, sein kann, mittels des erfindungsgemäßen Verfahrens bzw. einer Vorrichtung 1 der aktiven Stereosko­ pie erfasst und vermessen, um dreidimensionale Informationen des Objektes 10 zu gewinnen. Durch das im folgenden beschriebene Verfahren und Vorrichtung können dreidimensionale Objektkoordinaten von Punkten, die auf der Oberfläche des Objektes 10 liegen, in einem dreidimensionalen Referenzkoordinatensystem x, y, z bestimmt werden. Hierzu weist die erfindungsgemäße Vorrichtung eine Lichtquelle 11 auf, die ein Lichtmuster auf einen Teilbereich des Objektes 10 projiziert. In dem bevorzugten Ausführungsbeispiel der Erfindung ist die Licht­ quelle 11 ein optischer oder elektromagnetischer Strahler, insbesondere ein La­ serstrahl oder eine fokussierte Weißlichtquelle, der einen punktförmigen Strahl aussendet und einen Lichtpunkt Pi auf der Oberfläche des Objektes markiert.
Obwohl im folgenden in Bezug auf die Lichtquelle 11 von einem punktförmigen Strahler gesprochen wird, kann die Lichtquelle 11 gemäß weiteren Ausfüh­ rungsformen der vorliegenden Erfindung auch ein quasi-punktförmiger Strahler sein, wobei zum Beispiel durch einen Laserstrahl ein Kreuz auf dem Objekt 10 projiziert wird, mit dem ein eindeutiger Punkt markiert wird. Ebenso könnte mit­ tels eines Laserstrahls ein Kreis auf dem Objekt 11 projiziert werden, dessen Mitte einen eindeutigen Punkt markiert. Gemäß weiteren Ausführungsformen der vorliegenden Erfindung könnte die Lichtquelle 11 ein optischer oder elektroma­ gnetischer Strahler, punktförmig oder quasi-punktförmig sein, der viele Strahlen gleichzeitig aussendet, die entweder durch ihre Form, ihre Struktur oder ihre Farbe identifizierbar sind, zum Beispiel ein Projektor, der viele bunte Punkte pro­ jiziert, oder zum Beispiel ein Projektor, der viele Punkte in definierten, nicht gleichmäßigen Abständen projiziert. Es ist außerdem vorstellbar, dass die Licht­ quelle ein flächig codiertes Muster abstrahlt, wobei das Muster diffus ist und über Korrelation oder Farbvergleich gleiche Bildpunkte des Projektionsmusters in Kamerabildern wiedergefunden werden, wobei das Muster ein buntes Muster oder ein unregelmäßiges Hell/Dunkelmuster sein kann. Schlussendlich könnte die Lichtquelle auch ein sequentiell codiertes Muster abstrahlen, wobei über eine Folge von Bildern ein mehrere Bildebenen tiefes Muster projiziert wird, das je­ dem Bildpunkt einen eindeutigen Code zuordnet. In den Bildern stellen Bild­ punkte mit gleichem Code korrespondierende Punkte dar, wobei Gray-Code- Sequenzen, die in zwei Orientierungen (z. B. horizontal und vertikal) oder zum Beispiel Gray-Code in Verbindung mit Phasen-Shift-Verfahren, die zwei Orientie­ rungen projiziert werden, auf das Objekt (10) abgebildet werden.
Die Vorrichtung 1 umfasst weiterhin zumindest zwei bildgebende Einheiten 12, 13. Die bildgebenden Einheiten 12, 13 sind Sensoren für optische oder elektro­ magnetische Signale, die digital oder analog mit einer Recheneinheit 14 gekop­ pelt werden können. In dem bevorzugten Ausführungsbeispiel sind die bildge­ benden Einheiten 12, 13 vorzugsweise elektronische, pixelbasierte Farb- oder Schwarz-Weiß-Kameras, wie zum Beispiel CCD-Kameras oder CMOS-Kameras.
Gemäß weiteren Ausführungsformen der vorliegenden Erfindung könnten die bildgebenden Einheiten jedoch auch Smartkameras sein, die Bildverarbeitungs­ hardware on board haben und damit die Bildverarbeitung bereits in der Kamera selbst durchführen, so dass bereits ausgewertete Bilder an die Recheneinheit 14 übertragen werden.
Die Kameras 12, 13 werden so angeordnet, dass sie jeweils Teilbereiche des Objektes 10 beobachten, wobei sich die Teilbereiche der Kameras 12, 13 zumin­ dest teilweise überlappen. Dabei liegt der durch die Lichtquelle 11 beleuchtete Punkt Pi auf dem Objekt 10 in dem sich überlappenden Bereich der Sichtfelder der Kameras 12, 13. Die Kameras 12, 13 nehmen gleichzeitig Bildinformationen von dem Objekt 10 auf und liefern diese an die Recheneinheit 14. Die Rechen­ einheit 14 analysiert die Bildinformationen der Kamera 12 und bestimmt mittels bekannten Bildverarbeitungsalgorithmen die zweidimensionalen Koordinaten Pi (U1, V1) in dem zweidimensionalen Koordinatensystem U1, V1 der Kamera 12. Ähnlich bestimmt die Recheneinheit 14 aus der gleichzeitig aufgenommenen Bil­ dinformation der Kamera 13 die zweidimensionalen Koordinaten Pi (U2, V2) in dem zweidimensionalen Koordinatensystem U2, V2 der Kamera 13.
Die 2-D-Koordinaten Pi (U1, V1) und Pi (U2, V2) werden gespeichert und zur Be­ rechnung der Lage der Kameras zueinander und relativ zum Objekt (Selbstkali­ brierung) als auch zur Vermessung und Erfassung, also zur dreidimensionalen Rekonstruktion des Objektes, verwendet.
Während des Messvorgangs wird die relative Position des Strahlers 11 zu dem Objekt 10 verändert, damit n unterschiedliche Punkte P1, . . ., Pn auf dem Objekt 10 beleuchtet werden.
Bei dem Verfahren und der Vorrichtung der vorliegenden Erfindung kann die Lichtquelle bzw. der punktförmige Lichtstrahler 11 manuell durch den Benutzer während des Messvorgangs geführt werden. Der Benutzer (nicht dargestellt) strahlt das Objekt 10 mit einer punktförmigen Lichtquelle 11 an, wobei er den Lichtstrahl über das Objekt 10 schwenkt. Die Bereiche auf dem Objekt 10, die angestrahlt und von den Kameras 12, 13 erfasst werden, werden vermessen. Der Benutzer kann gezielt das Objekt 10 entsprechend der gewünschten Detailge­ nauigkeit anstrahlen und vermessen. Hierbei können Bereiche mit vielen oder wichtigen Details feiner angestrahlt werden, und Bereiche ohne relevante Infor­ mationen können grob angestrahlt werden.
Die Kameras 12, 13 nehmen während des Messvorgangs synchron Bildinforma­ tionen des Objektes 10 in schneller Folge (z. B. 30 Hz) auf und geben diese an die Recheneinheit 14 weiter. Die Recheneinheit 14 bestimmt wiederum die zwei­ dimensionalen Koordinaten der Punkte P1, . . ., n (U1, V1) und P1, . . ., n (U2, V2) in den Koordinatensystemen der Kameras 12 und 13 und speichert diese ab.
Da die zweidimensionalen Koordinaten U1, V1 und U2, V2 der Punkte P1, . . ., n aus korrespondierender Bildinformation der Kameras 12, 13 gewonnen wurden, müssen die beiden kameraspezifischen Koordinatensysteme U1, V1 und U2, V2 über eine Koordinatentransformation verknüpfbar sein. Genauer gesagt:
wobei M eine Kalibrierungsmatrix ist; die auch als Epipolarmatrix bezeichnet wird und mit homogenen Koordinaten für die Punkte Pi gerechnet wird.
Gemäß bekannten algorithmischen Verfahren kann nun die Recheneinheit 14 die Einträge der Kalibrierungsmatrix M berechnen, und zwar so, dass in Abhän­ gigkeit von den Koordinaten U1, V1 und U2, V2 die linke Seite der oberen Glei­ chung minimiert wird. Somit wird eine erste Kalibrierung des Systems gewonnen.
Das bei der vorliegenden Erfindung eingesetzte Verfahren zur Selbstkalibrierung wird in Thomas S Huang, "Determining Three-Dimensional Motion and Structure from Two Perspective Views", 1986, Handbook of Pattern Recognition and Image Processing", beschrieben.
Für das in Huang beschriebene Verfahren sind wenigstens 8 erfasste Bildpunkte Pi mit entsprechenden zweidimensionalen Koordinaten Pi (U1, V1) und Pi (U2, V2) notwendig (das Verfahren nennt sich daher 8-Point Algorithm).
Bei der vorliegenden Erfindung wird zunächst ebenfalls das 8-Punkte-Verfahren eingesetzt um eine anfängliche Kalibrierung zu gewinnen, bei zunehmender Genauigkeit der Kalibrierungen wird bevorzugterweise ein erweitertes, nichtline­ ar optimierendes Verfahren eingesetzt. Mathematisch gesehen liegt die Mindest­ zahl von erfassten Punkten für eine erfolgreiche Bestimmung der Kalibrierung bei 5. Tatsächlich wird aber erst ab ca. 20 Punkten mit der Kalibrierung begon­ nen, da aufgrund von Sensorrauschen erst dann eine ausreichende Fehlerunter­ drückung erreicht wird.
Die Kalibrierung des Systems über die Kalibrierungsmatrix M wird kontinuierlich überwacht, und wird mit zunehmender Anzahl von gewonnenen Bildpunktkoordi­ naten P1, . . ., n (U1, V1) und P1, . . ., n (U2, V2) verbessert. Die Recheneinheit 14 über­ prüft bei steigender Anzahl von erfassten Bildpunkten ob eine bessere Kalibrie­ rung gemäß obiger Gleichung gewonnen werden kann. Ist dies der Fall, wird die zunächst angenommene Kalibrierung verworfen und eine neue weitere Kalibrie­ rung wird berechnet.
Dabei ist die Kalibrierung bis auf einen Skalierungsfaktor eindeutig. Der Skalie­ rungsfaktor kann durch das Vorsehen eines einer Kamera zugeordneten Entfer­ nungsmessers bestimmt werden, so dass dreidimensionale Objektinformationen, die aus unterschiedlichen Kamerapositionen relativ zu dem Objekt gewonnen wurden, über den Skalierungsfaktor zu einander skalierbar sind und in das glei­ che Koordinatensystem integriert werden können.
Ist eine Kalibrierung ausreichend stabil, d. h. die Veränderungen der Einträge in der kontinuierlich aktualisierten Kalibrierungsmatrix M unterschreiten einen vor­ bestimmten Schwellenwert wird die derzeitige Kalibrierungsmatrix Mo als Grundlage für die Kalibrierung des Systems angesehen und gespeichert. Die Recheneinheit 14 bestimmt die dreidimensionalen Objektkoordinaten x, y, z des Punktes Pi aus der Kalibrierungsmatrix Mo der Kalibrierung und den korrespon­ dierenden zweidimensionalen Koordinaten Pi (U1, V1) und Pi (U2, V2). Dies ge­ schieht für bereits erfasste und abgespeicherte Punkte Pi , sowie für Punkte Pi, die zeitlich nach der Stabilisierung der Kalibrierung aufgenommen werden.
Wird eine alte Systemkalibrierung zu Gunsten einer neuen Systemkalibrierung aufgegeben, weil die Recheneinheit 14 bei der kontinuierliche Aktualisierung der Kalibrierungsmatrix M berechnet hat, das eine neue Kalibrierungsmatrix M' eine bessere Kalibrierung des Systems bietet, wird die derzeitige Kalibrierungsmatrix Mo durch die neue Kalibrierungsmatrix M' ersetzt. Die dreidimensionalen Objekt­ koordinaten x, y, z des Punktes Pi, die gemäß der derzeitige Kalibrierungsmatrix Mo berechnet wurden, werden nun gemäß der neuen Kalibrierung repräsentiert durch die neue Kalibrierungsmatrix M' aktualisiert bzw. neu berechnet.
Aus der Kalibrierungsmatrix M kann die relative Lage der Kameras zueinander in Form einer Translation und einer Rotation gewonnen werden. Damit lässt sich für jeden Bildpunkt Pi ein Projektionsstrahl berechnen. Der Schnittpunkt der Projektionsstrahlen zweier korrespondierender Bildpunkte Pi (U1, V1), Pi (U2, V2) ergibt den rekonstruierten Raumpunkt Pi (x, y, z). Bei windschiefen Strahlen wird der Raumpunkt zur Rekonstruktion verwendet, der den beiden Projektionsstrah­ len am Nächsten liegt.
Die so gewonnenen dreidimensionalen Koordinaten Pi (x, y, z) des Raumpunktes werden noch während des Ablaufes des Messvorgangs auf einem an die Rech­ nereinheit 14 angeschlossenen Bildschirm 15 visualisiert. Die dreidimensionalen Punktkoordinaten werden hierfür in ein Oberflächenmodell umgerechnet und liefern dem Benutzer eine dreidimensionale visualisierte Rekonstruktion des Objektes 10 auf dem Bildschirm 15.
Das rekonstruierte Oberflächenmodell wird synthetisch eingefärbt um dem Be­ nutzer hinweise zu geben, wo Punkte aufgenommen werden sollten, die zur Ka­ librierung beitragen. Helle Farben bezeichnen Bereiche, die gut rekonstruiert wurden, dunkle Farben bezeichnen Bereiche, an denen noch mehr Daten zur Berechnung einer guten Kalibrierung notwendig sind.
Der Benutzer kann erkennen, weiche Bereiche des Objektes 10 bereits ausrei­ chend vermessen und erfasst sind, und welche Bereiche er mittels der Licht­ quelle 11 noch detaillierter ausleuchten, und damit vermessen und erfassen muss.
Bezugnehmend auf die Fig. 2 wird nun der detaillierte Verfahrensablauf eines Messvorgangs zum Vermessen und Erfassen einer Ansicht des Objektes 10 be­ schrieben, wobei die Ansicht eines Objektes 10 die Bereiche des Objektes sind, die im sich überlappenden Sichtfeld der mindestens zwei Kameras 12, 13 liegen.
Der Messvorgang beginnt mit dem Schritt 20. In Schritt 21 werden zumindest zwei Kameras, wobei die Anzahl der Kameras jedoch beliebig hoch sein kann, so positioniert, dass sie das Objekt 10 aus jeweils verschiedenen Blickwinkeln beobachten. Hierbei ist zu beachten, dass sich die Sichtfelder der individuellen Kameras 12, 13 jedoch mindestens in einem Teilbereich überlappen. Im Schritt 22 wird die Lichtquelle 11 so relativ zum Objekt 10 positioniert, das mittels des Lichtmusters zumindest ein Lichtpunkt Pi, der in den sich überlappenden Sicht­ felder der Kameras 12, 13 auf dem Objekt 10 liegt (Schritt 23), auf dem Objekt 10 beleuchtet wird. Die Kameras 12, 13 nehmen bevorzugterweise synchron im Schritt 24 Bildinformation des Objektes 10 auf und geben diese in Schritt 25 an die Recheneinheit 14 weiter.
Die Recheneinheit 14 bestimmt in Schritt 26 die 2-D-Koordinaten des durch die Lichtquelle definierten Bildpunktes in den zeitgleich aufgenommenen Bildinfor­ mationen der jeweiligen Kameras mittels bekannten Verfahren der Bildverarbei­ tung und speichert diese 2-D-Koordinaten ab.
Das Verfahren schreitet sodann mit Schritt 27 fort und berechnet die 3-D- Koordinaten des aktuellen Bildpunktes Pi aus den entsprechenden 2-D- Koordinaten der Kameras 12 und 13 und der Kalibrierinformation der derzeiti­ gen Kalibrierung. Liegt noch keine erste Kalibrierung vor, da z. B. der Messvor­ gang gerade erst begonnen hat, werden die 2-D-Koordinaten zur späteren Be­ rechnung gespeichert. Im Schritt 27 wird auch festgestellt, ob sich die Kalibrie­ rung verändert hat. Ist dies der Fall werden die bis jetzt mit der alten Kalibrie­ rung gewonnen Objektkoordinaten basierend auf der neuen Kalibrierung aktuali­ siert bzw. neu berechnet.
In Schritt 28 werden die bis jetzt gewonnenen 3D-Koordinaten der Punkte Pi auf dem Bildschirm 15 visualisiert, wobei dem Benutzer durch Einfärbung zusätzli­ che Information über die Genauigkeit der jetzigen Kalibrierung gegeben werden kann. Ein Gütemaß für die Qualität der Kalibrierung ist zum Beispiel durch den Restbetrag der Gleichung (1) gegeben, aber auch durch einen möglichen Ab­ stand der Projektionsstrahlen eines Bildpunkte Pi zueinander, der bei der Be­ stimmung der dreidimensionalen Objektkoordinaten des Punktes Pi aus den 2D- Koordinaten und der Kalibrierinformation auftreten kann.
Im Schritt 29 wird überprüft, ob die derzeitige Kalibrierung verbessert werden kann, d. h. die Recheneinheit 14 prüft, ob mit steigender Anzahl von beobachte­ ten Lichtpunkten auf dem Objekt 10, und deren jeweiligen kameraspezifischen 2­ D-Koordinaten, es nicht eine bessere, alternative Kalibrierung gibt als die der­ zeitige. Ist dies der Fall schreitet das Verfahren mit Schritt 30 voran. Ist die der­ zeitige Selbstkalibrierung jedoch weiterhin die optimale, so schreitet das Verfah­ ren mit Schritt 32 voran.
In Schritt 30 aktualisiert die Recheneinheit 14 die Selbstkalibrierung, und inte­ griert ggf. neue aufgenommene Punkt Pi mit den jeweiligen kameraspezifischen 2D-Koordinaten in die Berechnung der Kalibrierinformation. Danach fährt das Verfahren mit Schritt 31 fort.
In Schritt 32 dagegen wird überprüft, ob die Ansicht des Objektes ausreichend erfasst wurde. Eine Vielzahl von Kriterien ist für die Bestimmung, ob das Objekt ausreichend erfasst wurde, vorgesehen. Einerseits kann der Benutzer anhand der visualisierten bereits gewonnenen 3D-Koordinaten überprüfen, ob eine aus­ reichende Dichte der 3D-Koordinaten des Objektes erlangt wurde, andererseits können Abbruchkriterien, wie zum Beispiel eine erreichte Höchstzahl von er­ fassten Bildpunkten, oder eine überschrittene durchschnittliche Punktedichte der erfassten 3D-Objektkoordinaten eingesetzt werden. Ist das Objekt ausreichend erfasst, wird der Messvorgang bei 33 beendet.
Ist das Objekt jedoch nicht ausreichend erfasst, folgt Schritt 31 des Messvor­ gangs, In Schritt 31 wird die relative Position der Lichtquelle 11 zu dem Objekt 10 ver­ ändert, so dass ein weiterer Punkt Pi auf dem Objekt 10 in dem sich überlap­ penden Bereich der Sichtfelder der Kameras 12, 13 auf dem Objekt 10 beleuch­ tet und somit definiert wird.
Das Verfahren kehrt somit zu Schritt 23 zurück um im Folgenden einen weiteren Punkt Pi zu erfassen und zu vermessen. Die Schritte 23 bis 32 werden schluss­ endlich solange wiederholt bis im Schritt 32 eine ausreichende Erfassung und Vermessung des Objektes festgestellt wird.
Bezugnehmend auf die Fig. 3 wird eine weitere Ausführungsform der vorliegen­ den Erfindung beschrieben, in der während des Messvorgangs auch die Positio­ nen der Kameras 12, 13 verändert werden können, um andere Ansichten des Objektes in dem Messvorgang aufzunehmen. Die Schritte 20b bis 32b der Fig. 3 sind identisch mit den Schritten 20 bis 32 der Fig. 2. Wenn in Schritt 31b je­ doch bestimmt wird, dass die Ansicht des Objektes ausreichend erfasst ist, wird im Gegensatz zu dem unter Bezugnahme auf die Fig. 2 beschriebenen Ausfüh­ rungsbeispiel der Messvorgang nicht beendet, sondern es wird weiter im Schritt 34b geprüft, ob das Objekt an sich ausreichend, d. h. von einer ausreichenden Zahl von Blickwinkeln her, erfasst wurde. Ist das Objekt 10 nicht ausreichend erfasst, schreitet der Messvorgang mit Schritt 35b voran. In Schritt 35b wird die relative Position der Kameras 12, 13 zu dem Objekt 10 verändert, um eine ande­ re Ansicht des Objektes 10 durch die Kameras 12, 13 zu beobachten und gemäß der Schritte 23b bis 32b zu vermessen und zu erfassen.
Beim Verändern der Position der Kameras ist zu beachten, dass wenigstens eine Kamera als Referenzsystem bei jedem Durchlaufen des Schrittes 35b ortsfest verbleibt. Die ortsfesten Kameras dieses Schrittes stellen sicher, dass die Punkte Pi , die bei einer neuen Ansicht nach dem Umstellen und nach einer ak­ tualisierten Kalibrierung erfasst werden, im gleichen Koordinatensystem x, y, z wie die bisherigen Ansichten aufgenommen werden.
Beim Umstellen der Kameras ist zu beachten, dass die Kameras unperiodisch umgestellt werden sollten, also nicht nach einem festen oder regelmäßigen Mu­ ster. Dies wirkt sich vorteilhaft bei der Fehlerfortpflanzung zwischen der Vermes­ sung und Erfassung von einzelnen Teilansichten aus.
Nach Schritt 35b kehrt der Messvorgang zu Schritt 22b zurück, und im folgenden werden die Schritte 23b bis 32b solange durchlaufen bis die neue Ansicht aus­ reichend erfasst wurde. Der Messvorgang wird gemäß der Schritte 22b bis 35b wiederholt, bis das gesamte Objekt 10 ausreichend erfasst ist. Im Schritt 34b wird dann festgestellt, dass der Messvorgang bei 36b beendet werden soll.
Bei einem weiteren Ausführungsbeispiel der vorliegenden Erfindung wird das Objekt 10 (siehe Fig. 1) auf einem Drehteller positioniert. Während des Mess­ vorganges zum Erfassen und Vermessen des Objektes kann dann durch Drehen des Drehtellers die relative Position der Kameras 12, 13 zu dem Objekt verän­ dern werden, um eine neue Teilansicht des Objektes 10 zu vermessen und zu erfassen, wobei jedoch weiterhin die Lichtquelle 11 per Hand geführt wird.
Abwandlungen der Verfahrensschritte sind natürlich im Rahmen fachmännischen Handelns möglich. Zum Beispiel ist die Reihenfolge der verschiedenen Schritte in den Fig. 2 und 3 nicht notwendigerweise zwingend. So könnte beispiels­ weise der Visualisierungs-Schritt 28(b) durchaus zu einem anderen Zeitpunkt bezüglich der Schritte 22b bis 32b stattfinden.
Bei einem weiteren in der Fig. 4 dargestellten Ausführungsbeispiel der vorlie­ genden Erfindung kann das erfindungsgemäße Verfahren zum Erfassen und Vermessen eines Objekts, wie es unter Bezugnahme auf die Fig. 1 bis 3 be­ schrieben wurde, lediglich mit einer Ortungskamera 13 und einer als Projektor ausgestalteten Lichtquelle 11B durchgeführt werden.
Das Ausführungsbeispiel der Fig. 4 ist identisch zu den vorherigen mit der Ausnahme, dass eine der Ortungskameras 12 fehlt und dass die Lichtquelle in der Form eines Projektors 11B ausgestaltet ist. Der Projektor 11B projiziert eine horizontale und eine vertikale Gray-Code-Sequenz auf das Objekt 10. Technisch gesehen wird der Projektor 11B als eine sogenannte inverse Kamera interpre­ tiert.
Die Codes der Gray-Code-Sequenz im Bild der Kamera 13 können direkt als "Pi­ xelkoordinaten" des Projektors 11B interpretiert werden, so daß die 2D- Bildkoordinaten, die in den vorherigen Ausführungsbeispielen durch die zweite Ortungskamera 12 geliefert wurden, nunmehr ebenfalls aus der Bildinformation der einzigen Ortungskamera 13, sei es durch die Ortungskamera 13 selbst oder mittels einer Analyse der Bilddaten durch die Recheneinheit 14, bestimmt wer­ den. Für die Bestimmung der "Pixelkoordinaten" des Projektors müssen die Ab­ bildungseigenschaften des Projektors 11 B bekannt sein und müssen mit in die Bestimmung einfließen. Die Stereokalibrierung kann somit, wie zuvor bezüglich der Fig. 1 bis 3 beschrieben, durchgeführt werden um eine Vermessung und Erfassung des Objektes 10 zu realisieren.

Claims (32)

1. Verfahren zur Durchführung eines Messvorgangs zum mindestens teilweisen Erfassen und Vermessen einer Oberfläche von mindestens einem dreidimen­ sionalen Objekt (10) (Objektoberfläche) oder von beliebigen Flächen, wobei
mittels einer Lichtquelle (11) ein Lichtmuster auf dadurch beleuchtete Teilbe­ reiche des Objektes (10) oder der Fläche projiziert wird und
mittels mindestens zwei bildgebenden Einheiten (12, 13) von unterschiedli­ chen Positionen aus, derart dass das Lichtmuster in dem überlappenden Sichtbereich der mindesten zwei bildgebenden Einheiten (12, 13) liegt, je­ weils zweidimensionale Bildinformationen der zu vermessenden Objektober­ fläche geliefert werden
und aus der zweidimensionalen Bildinformation dreidimensionale Objektin­ formationen ermittelt werden,
dadurch gekennzeichnet dass,
die beleuchteten Teilbereiche von den mindestens zwei bildgebenden Ein­ heiten (12, 13) gleichzeitig beobachtet werden,
die von den bildgebenden Einheiten (12, 13) durch die Beobachtungen ge­ wonnene jeweilige zweidimensionale Bildinformation an eine Recheneinheit (14) übertragen wird,
die Recheneinheit (14) aus den zweidimensionalen Bildinformationen konti­ nuierlich sowohl durch eine Selbstkalibrierung Kalibrierinformation für die bildgebenden Einheiten (12, 13) als auch dreidimensionale Objektinformatio­ nen berechnet, und
die relative Positionierung der Lichtquelle (11) zu dem Objekt (10) während des Beobachtens verändert wird um verschiedenen Teilbereiche des Objek­ tes (10) zu beleuchten.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die vollständige Erfassung des Objektes (10) oder der Fläche durch sukzessive Veränderung der relativen Lage der bildgebenden Einheiten (12, 13) gegenüber dem Objekt (10) durchgeführt wird, wobei die Selbstkalibrierung der bildgebenden Einheiten (12, 13) laufend aktualisiert wird.
3. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 2, dadurch gekennzeichnet, dass zum sukzessiven Verändern der relativen Lage der bildgebenden Einheiten (12, 13) gegenüber dem Objekt (10) eine oder mehrere der bildgebenden Einheiten (12, 13) umgestellt werden, wo­ bei wenigstens eine bildgebende Einheit (12, 13) als Referenzsystem in jedem Fall des Umstellens (Umstellschritt) ortsfest verbleibt.
4. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 3 wobei die bildgebenden Einheiten (12, 13) umgestellt werden um den Sichtbereich der bildgebenden Einheiten (12, 13) zu variieren nachdem ein Sichtbereich (Ansicht) des Objekts (10) durch die bildgebenden Einheiten (12, 13) ausreichend erfasst und vermessen wurde, wobei nach dem Umstellen der Messvorgang fortgesetzt wird, hierbei stellen die ortsfesten bildgebenden Ein­ heiten im Fall des Umstellens (Umstellschritt) sicher, dass die neue Ansicht des Objektes im gleichen dreidimensionalen Koordinatensystem wie die bisherigen Ansichten aufgenommen werden, wobei die Schritte des Umstellens und des Erfassens und Vermessens einer Ansicht des Objektes (10) solange fortgeführt wird bis das gesamte Objekt (10) erfasst und vermessen ist.
5. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 1, dadurch gekennzeichnet, dass die aktuellen Ergebnisse des Erfas­ sens und Vermessens, d. h. die dreidimensionale Objektinformation simultan während des Messvorgangs in ein Oberflächenmodel umgerechnet werden und online mittels eines Bildschirms (15) visualisiert werden um die Lichtquelle (11) basierend auf die visualisierte, bis jetzt erfolgte Erfassung zu steuern insbeson­ dere hinsichtlich Position und/oder Helligkeit.
6. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 1, dadurch gekennzeichnet, dass die Lichtquelle (11) manuell geführt wird.
7. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 1, dadurch gekennzeichnet, dass die Lichtquelle (11) ein Laserpointer ist und das Lichtmuster durch punktförmiges Anstrahlen des Objektes (10) er­ zeugt wird.
8. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 1, dadurch gekennzeichnet, dass die Recheneinheit (14) die zweidi­ mensionalen Bildinformationen der beiden bildgebenden Einheiten (12, 13) in schneller Folge (z. B. 30 Hz) aufnimmt.
9. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 1, dadurch gekennzeichnet, dass die Recheneinheit (14) in korre­ spondierenden (d. h. gleichzeitig durch die bildgebenden Einheiten aufgenom­ men) Bildinformationen der bildgebenden Einheiten (12, 13) die Reflexion des Lichtmusters auf dem Objekt (Stereokorrespondenzen) detektiert.
10. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 8, dadurch gekennzeichnet, dass die Genauigkeit der Stereokorre­ spondenzen durch subpixelgenaue Verfahren, z. B. durch Schwerpunktbildung erhöht wird.
11. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 1, dadurch gekennzeichnet, dass wenigstens Bildinformation einer bildgebenden Einheit, vorzugsweise aber Bildinformation jeder bildgebenden Einheit, gespeichert wird und zur Texturierung einer dreidimensionalen Re­ konstruktion des Objektes dient.
12. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 1, dadurch gekennzeichnet, dass als Lichtquelle (11) ein optischer oder elektromagnetischer Strahler, der einen punktförmigen Strahl aussen­ det, verwendet wird, wie zum Beispiel ein Laserstrahler oder eine fokussierte Weißlichtquelle.
13. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 1, dadurch gekennzeichnet, dass ein quasi-punktförmiger Strahler als Lichtquelle (11) eingesetzt wird mit dem ein eindeutiger Punkt definiert wird, wie z. B. Laserstrahler, die ein Kreuz projizieren, mit dem ein eindeuti­ ger Punkt markiert wird oder Laserstrahler, die einen Kreis projizieren, des­ sen Mitte einen eindeutigen Punkt markiert.
14. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 11 und 12, dadurch gekennzeichnet, dass der Strahler viele Strahlen gleichzeitig aussendet, die entweder durch ihre Form, ihre Struktur oder ihre Farbe identifizierbar sind wie z. B. ein Projektor, der viele bunte Punkte projiziert oder ein Projektor, der viele Punkte in definierten, nicht gleichmäßigen Abständen projiziert.
15. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 1, dadurch gekennzeichnet, dass die Lichtquelle (11) ein flächig codiertes Lichtmuster aussendet, wobei das Lichtmuster diffus ist und über Korrelation oder Farbvergleich gleiche Bildpunkte des Lichtmusters in den Bildern der bildgebenden Einheiten (12, 13) wiedergefunden werden können wie z. B. ein buntes Muster oder ein unregelmäßiges Hell-Dunkel-Muster.
16. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 1, dadurch gekennzeichnet, dass die Lichtquelle (11) ein sequenti­ ell codiertes Lichtmuster projiziert und über eine Folge von Bildern ein meh­ rere Bildebenen tiefes Lichtmuster projiziert wird, das jedem Bildpunkt einen eindeutigen Code zuordnet, wobei in den Bildern Bildpunkte mit gleichem Code korrespondierende Punkte darstellen, wie z. B. Gray-Code-Sequenzen, die in zwei Orientierungen (z. B. horizontal und vertikal) auf das Objekt proji­ ziert werden oder ein Gray-Code in Verbindung mit Phasen-Shift-Verfahren, die in zwei Orientierungen auf das Objekt (10) projiziert werden.
17. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 1, dadurch gekennzeichnet, dass ein Laser als Lichtquelle (11) verwendet wird.
18. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 1, dadurch gekennzeichnet, dass die Lichtquelle (11) eine fokus­ sierte Weißlichtquelle ist.
19. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 1, dadurch gekennzeichnet, dass der Messvorgang zum Erfassen und Vermessen einer Ansicht des Objekts weiter folgende Schritte aufweist:
die Selbstkalibrierung wird mit einer handgeführten Lichtquelle (11) gemäß einem der vorhergehenden Ansprüche durchgeführt,
die Vermessung und Erfassung wird mit einem handgeführten, zur Linie aufgeweiteten Strahler durchgeführt, wobei gleiche Punkte in korrespon­ dierenden Bildinformation über die sogenannten Epipolargeometrie be­ rechnet werden, wobei für jeden detektierten Bildpunkt der Laserlinie in einer Bildinformation über den Schnitt der Epipolarlinie mit der detektierten Laserlinie in allen anderen Bildinformationen Korrespondenzen berechnet werden.
20. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 18, dadurch gekennzeichnet, dass die Vermessung und Erfassung einer Ansicht wahlweise mit jedem optischen oder elektromagnetischen Strahler, der einen zur Linie aufgeweiteten Strahl aussendet, z. B. einem Lini­ enlaser oder einer Weißlichtquelle mit Schlitzblende und Fokussieroptik durchgeführt wird.
21. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 19, dadurch gekennzeichnet, dass bei der Vermessung und Erfas­ sung viele parallele Linien gleichzeitig ausgestrahlt werden, wobei die Zu­ ordnung der richtigen Schnittpunkte von Epipolarlinie und detektierten Laser­ linien durch Abzählen geschieht, z. B. einem Linienmuster mit sinusförmigem Intensitätsprofil.
22. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 19, dadurch gekennzeichnet, dass bei der Vermessung und Erfas­ sung viele parallele Linien gleichzeitig ausgestrahlt werden, die über ihre Form, Struktur oder Farbe unterschieden werden können, wobei die Zuord­ nung der richtigen Schnittpunkte von Epipolarlinie und detektierten Laserlini­ en durch Vergleich von Form, Struktur oder Farbe dient, wie z. B. Linien mit den Farben des Farbspektrum oder ein durchgehendes Farbspektrum oder wie z. B. Linien unterschiedlicher Helligkeit oder Breite.
23. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 19, dadurch gekennzeichnet, dass bei der Vermessung und Erfas­ sung ein sequentiell codiertes Linienmuster ausgestrahlt wird, dass viele Li­ nien über die Folge der Bildinformationen mit unterschiedlichen, mehrere Bil­ debenen tiefen Codes vorsieht, wobei die Zuordnung der richtigen Schnitt­ punkte von Epipolarlinie und detektierten Laserlinien über den Vergleich des Liniencodes geschieht, z. B. einer Gray-Code-Sequenz oder einer Gray-Code-Sequenz in Verbindung mit einem Phasen-Shift-Ver­ fahren.
24. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 19, dadurch gekennzeichnet, dass bei der Vermessung und Erfassung ein flächig codiertes Muster eingesetzt wird, wobei die Kodierung des Musters über Form, Struktur oder Farbe geschieht, und wobei in einer Bildinformation das Muster identifiziert wird und korrespondierende Stellen in anderen Bildinformationen über Korrelation entlang der Epipolarlinien gesucht werden, z. B. ein buntes Muster oder ein unregelmäßiges Hell-Dunkel-Muster.
25. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 1, dadurch gekennzeichnet dass als bildgebende Einheiten (12, 13) Sensoren für optische o. elektromagnetische Signale verwendet werden, die digital oder analog mit der Recheneinheit (14) koppelbar sind.
26. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 1, dadurch gekennzeichnet dass vorzugsweise elektronische, pi­ xelbasierte Farb- oder Scharz-Weiß- wie CCD-Kameras oder CMOS-Kameras als bildgebende Einheiten (12, 13) verwendet werden.
27. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 1, dadurch gekennzeichnet, dass als bildgebende Einheiten (12, 13) Smart-Kameras, die Bildverarbeitungshardware on board haben und da­ mit die Bildverarbeitung bereits on board durchgeführt werden kann, einge­ setzt werden, wobei an die Recheneinheit (12, 13) nur noch die ausgewerte­ ten Bilder übertragen werden.
28. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 2, dadurch gekennzeichnet, dass ein Drehteller verwendet wird um sukzessiv die Lage der bildgebenden Einheiten (12, 13) relativ zu dem Objekt (10) zu verändern.
29. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 26, dadurch gekennzeichnet, dass die Drehachse des Tellers über einen einfachen Kalibrierkörper bestimmt wird, z. B. eine Stange, die in die Drehachse des Teller gesteckt wird und in den Bildinformationen der bildge­ benden Einheiten (12, 13) wieder erkennbar ist und wobei über die bekannte Größe des Drehtellers oder des Kalibrierstabes die Skalierung des Systems berechnet werden kann.
30. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 1, dadurch gekennzeichnet, dass jede angetriebene oder nicht an­ getriebene Mechanik, die das Objekt (10) linear oder rotierend oder in einer anderen definierten Weise im Sichtfeld der Kameras bewegen kann verwen­ det wird, wobei bei solchen Positioniersystemen über die bekannte Lage der eingestellten Positionen die Skalierung des Systems berechnet werden kann, z. B. Drehbank oder Roboterarm-Positioniersystem.
31. Verfahren zur Durchführung eines Messvorgangs zum mindestens teilwei­ sen Erfassen und Vermessen einer Oberfläche von mindestens einem drei­ dimensionalen Objekt (10) (Objektoberfläche) oder von beliebigen Flächen, wobei
mittels einer Lichtquelle (11) ein Lichtmuster auf dadurch beleuchtete Teilbe­ reiche des Objektes (10) oder der Fläche projiziert wird und
mittels mindestens einer bildgebenden Einheit (13) von unterschiedlichen Positionen aus zweidimensionalen Bildinformationen der zu vermessenden Objektoberfläche geliefert wird
und aus der zweidimensionalen Bildinformation dreidimensionale Objektin­ formationen ermittelt werden,
die beleuchteten Teilbereiche von der mindestens einen bildgebenden Ein­ heiten (13) beobachtet wird,
dadurch gekennzeichnet dass,
die von der bildgebenden Einheit (13) durch die Beobachtung gewonnene zweidimensionale Bildinformation an eine Recheneinheit (14) übertragen wird,
wobei durch das Lichtmuster Pixelkoordinaten der Lichtquelle definiert wer­ den, die durch Analyse der zweidimensionalen Bildinformation der bildge­ benden Einheit (13) wiedergewonnen werden und zusätzliche zweidimensio­ nale Bildinformation einer virtuellen, inversen bildgebenden Einheit (11B) er­ zeugen,
die Recheneinheit (14) aus den zweidimensionalen Bildinformationen und der zusätzlichen zweidimensionalen Bildinformation kontinuierlich sowohl durch eine Selbstkalibrierung Kalibrierinformation für die bildgebende und die virtuelle, inverse bildgebende Einheit (13) als auch dreidimensionale Objektinformationen berechnet, und
die relative Positionierung der Lichtquelle (11) zu dem Objekt (10) während des Beobachtens verändert wird um verschiedene Teilbereiche des Objek­ tes (10) zu beleuchten.
32. Vorrichtung zur Durchführung eines Messvorgangs zum mindestens teilwei­ sen Erfassen und Vermessen einer Oberfläche von mindestens einem drei­ dimensionalen Objekt (10) (Objektoberfläche) oder von beliebigen Flächen, die
eine Lichtquelle (10) zum projizieren eines Lichtmusters auf dadurch be­ leuchtete Teilbereiche des Objektes (11) oder der Fläche,
mindestens zwei bildgebenden Einheiten (12, 13), die von unterschiedlichen Positionen aus, derart dass das Lichtmuster in dem überlappenden Sichtbe­ reich der mindestens zwei bildgebenden Einheiten (12, 13) liegt, jeweils zweidimensionale Bildinformationen der zu vermessenden Objektoberfläche liefern
aufweist und aus der zweidimensionalen Bildinformation dreidimensionale Objektinformationen ermittelt,
dadurch gekennzeichnet, dass
mindestens zwei bildgebenden Einheiten (12, 13) gleichzeitig die beleuchte­ ten Teilbereiche beobachtet,
zwei bildgebenden Einheiten (12, 13) mit einer Recheneinheit (14) gekoppelt sind, um die von den bildgebenden Einheiten (12, 13) durch die Beobachtun­ gen gewonnene jeweilige zweidimensionale Bildinformation an eine Re­ cheneinheit (14) zu übertragen,
die Recheneinheit (14) aus den zweidimensionalen Bildinformationen konti­ nuierlich sowohl durch Selbstkalibrierung Kalibrierinformation für die bildge­ benden Einheiten (12, 13) (Selbstkalibrierung) als auch dreidimensionale Objektinformationen berechnet, und
die relative Positionierung der Lichtquelle (11) zu dem Objekt (10) während des Beobachtens veränderlich ist um verschiedenen Teilbereiche des Ob­ jektes (10) zu beleuchten.
DE10149750A 2001-03-09 2001-10-09 Handgeführter 3D-Scanner Withdrawn DE10149750A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10149750A DE10149750A1 (de) 2001-03-09 2001-10-09 Handgeführter 3D-Scanner

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10111503 2001-03-09
DE10112536 2001-03-15
DE10149750A DE10149750A1 (de) 2001-03-09 2001-10-09 Handgeführter 3D-Scanner

Publications (1)

Publication Number Publication Date
DE10149750A1 true DE10149750A1 (de) 2002-09-19

Family

ID=26008733

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10149750A Withdrawn DE10149750A1 (de) 2001-03-09 2001-10-09 Handgeführter 3D-Scanner

Country Status (1)

Country Link
DE (1) DE10149750A1 (de)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004044525A3 (en) * 2002-11-11 2004-09-16 Qinetiq Ltd Ranging apparatus
EP1770356A2 (de) * 2005-09-30 2007-04-04 Topcon Corporation Dreidimensionales Messsystem mit Projektionsvorrichtung
DE102005002190B4 (de) * 2005-01-17 2007-04-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Scanner und Verfahren zum Betreiben eines Scanners
DE102006049695A1 (de) * 2006-10-16 2008-04-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur
US7459670B2 (en) 2002-11-11 2008-12-02 Qinetiq Limited Proximity sensor based on projection of structured light
US8878929B2 (en) 2009-05-27 2014-11-04 Koh Young Technology Inc. Three dimensional shape measurement apparatus and method
DE102013208466A1 (de) 2013-05-08 2014-11-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum berührungslosen Vermessen von Oberflächenkonturen
WO2016040229A1 (en) * 2014-09-10 2016-03-17 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
DE102013002399B4 (de) * 2013-02-13 2016-12-22 Chromasens Gmbh Vorrichtung zur Generierung von Lichtmustern mit einer eindimensional fokussierten Beleuchtungseinrichtung
US9602811B2 (en) 2014-09-10 2017-03-21 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
US9618620B2 (en) 2012-10-05 2017-04-11 Faro Technologies, Inc. Using depth-camera images to speed registration of three-dimensional scans
US9671221B2 (en) 2014-09-10 2017-06-06 Faro Technologies, Inc. Portable device for optically measuring three-dimensional coordinates
US9684078B2 (en) 2010-05-10 2017-06-20 Faro Technologies, Inc. Method for optically scanning and measuring an environment
US9693040B2 (en) 2014-09-10 2017-06-27 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
DE102016105405B4 (de) * 2015-03-25 2017-07-20 EXTEND3D GmbH Verfahren und eine Vorrichtungsanordnung zur hochgenauen, (semi-)automatischen in-situ-Kalibrierung und -Registrierung eines Projektor-Kamera-Systems zu einem Bauteil
US9769463B2 (en) 2014-09-10 2017-09-19 Faro Technologies, Inc. Device and method for optically scanning and measuring an environment and a method of control
DE102016221040A1 (de) * 2016-10-26 2018-04-26 Robert Bosch Gmbh Verfahren zur Lokalisierung einer Vorrichtung in einem System
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
US10070116B2 (en) 2014-09-10 2018-09-04 Faro Technologies, Inc. Device and method for optically scanning and measuring an environment
US10175037B2 (en) 2015-12-27 2019-01-08 Faro Technologies, Inc. 3-D measuring device with battery pack
CN111051919A (zh) * 2017-09-07 2020-04-21 罗伯特·博世有限公司 用于运行激光测距仪的方法
DE102010039092B4 (de) * 2009-09-02 2020-10-22 Robert Bosch Gmbh Verfahren und Steuergerät zum Ermitteln eines Abstandes eines Objektes von einem Fahrzeug
CN112304292A (zh) * 2019-07-25 2021-02-02 富泰华工业(深圳)有限公司 基于单色光的物体检测方法及检测系统
DE102019123045B4 (de) 2019-08-28 2022-01-27 Daniel Futterer Dummy-Vorrichtung und deren Verwendungen sowie Automatisierungssystem
US11350077B2 (en) 2018-07-03 2022-05-31 Faro Technologies, Inc. Handheld three dimensional scanner with an autoaperture
DE102022200821B3 (de) 2022-01-25 2023-01-12 Carl Zeiss Meditec Ag Verfahren zum Kalibrieren eines stereoskopischen medizinischen Mikroskops und medizinische Mikroskopanordnung

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003286238B2 (en) * 2002-11-11 2007-07-05 Qinetiq Limited Ranging apparatus
WO2004044525A3 (en) * 2002-11-11 2004-09-16 Qinetiq Ltd Ranging apparatus
US7589825B2 (en) 2002-11-11 2009-09-15 Qinetiq Limited Ranging apparatus
US7459670B2 (en) 2002-11-11 2008-12-02 Qinetiq Limited Proximity sensor based on projection of structured light
US7469834B2 (en) 2005-01-17 2008-12-30 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Scanner and method for operating a scanner
DE102005002190B4 (de) * 2005-01-17 2007-04-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Scanner und Verfahren zum Betreiben eines Scanners
EP1770356A2 (de) * 2005-09-30 2007-04-04 Topcon Corporation Dreidimensionales Messsystem mit Projektionsvorrichtung
EP1770356A3 (de) * 2005-09-30 2007-05-09 Topcon Corporation Dreidimensionales Messsystem mit Projektionsvorrichtung
WO2008046663A3 (de) * 2006-10-16 2008-12-11 Fraunhofer Ges Forschung Vorrichtung und verfahren zum berührungs losen erfassen einer dreidimensionalen kontur
WO2008046663A2 (de) 2006-10-16 2008-04-24 Fraunhofer Gesellschaft Zur Förderung Der Angewandten Forschung E. V. Vorrichtung und verfahren zum berührungs losen erfassen einer dreidimensionalen kontur
JP2010507079A (ja) * 2006-10-16 2010-03-04 フラウンホッファー−ゲゼルシャフト ツァー フェーデルング デア アンゲバンテン フォルシュング エー ファー 三次元輪郭の非接触検出のための装置および方法
US8243286B2 (en) 2006-10-16 2012-08-14 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Device and method for the contactless detection of a three-dimensional contour
DE102006049695A1 (de) * 2006-10-16 2008-04-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur
US8878929B2 (en) 2009-05-27 2014-11-04 Koh Young Technology Inc. Three dimensional shape measurement apparatus and method
DE102010029319B4 (de) * 2009-05-27 2015-07-02 Koh Young Technology Inc. Vorrichtung zur Messung einer dreidimensionalen Form und Verfahren dazu
DE102010039092B4 (de) * 2009-09-02 2020-10-22 Robert Bosch Gmbh Verfahren und Steuergerät zum Ermitteln eines Abstandes eines Objektes von einem Fahrzeug
US9684078B2 (en) 2010-05-10 2017-06-20 Faro Technologies, Inc. Method for optically scanning and measuring an environment
US9746559B2 (en) 2012-10-05 2017-08-29 Faro Technologies, Inc. Using two-dimensional camera images to speed registration of three-dimensional scans
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
US11815600B2 (en) 2012-10-05 2023-11-14 Faro Technologies, Inc. Using a two-dimensional scanner to speed registration of three-dimensional scan data
US9618620B2 (en) 2012-10-05 2017-04-11 Faro Technologies, Inc. Using depth-camera images to speed registration of three-dimensional scans
US11112501B2 (en) 2012-10-05 2021-09-07 Faro Technologies, Inc. Using a two-dimensional scanner to speed registration of three-dimensional scan data
US11035955B2 (en) 2012-10-05 2021-06-15 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
US10739458B2 (en) 2012-10-05 2020-08-11 Faro Technologies, Inc. Using two-dimensional camera images to speed registration of three-dimensional scans
US10203413B2 (en) 2012-10-05 2019-02-12 Faro Technologies, Inc. Using a two-dimensional scanner to speed registration of three-dimensional scan data
US9739886B2 (en) 2012-10-05 2017-08-22 Faro Technologies, Inc. Using a two-dimensional scanner to speed registration of three-dimensional scan data
DE102013002399B4 (de) * 2013-02-13 2016-12-22 Chromasens Gmbh Vorrichtung zur Generierung von Lichtmustern mit einer eindimensional fokussierten Beleuchtungseinrichtung
DE102013208466A1 (de) 2013-05-08 2014-11-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum berührungslosen Vermessen von Oberflächenkonturen
DE102013208466B4 (de) * 2013-05-08 2016-01-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum berührungslosen Vermessen von Oberflächenkonturen
US9769463B2 (en) 2014-09-10 2017-09-19 Faro Technologies, Inc. Device and method for optically scanning and measuring an environment and a method of control
GB2544935B (en) * 2014-09-10 2020-01-08 Faro Tech Inc Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
US9671221B2 (en) 2014-09-10 2017-06-06 Faro Technologies, Inc. Portable device for optically measuring three-dimensional coordinates
US9879975B2 (en) 2014-09-10 2018-01-30 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
US10401143B2 (en) 2014-09-10 2019-09-03 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
US10088296B2 (en) 2014-09-10 2018-10-02 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
US9915521B2 (en) 2014-09-10 2018-03-13 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
US9602811B2 (en) 2014-09-10 2017-03-21 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
US10070116B2 (en) 2014-09-10 2018-09-04 Faro Technologies, Inc. Device and method for optically scanning and measuring an environment
US10499040B2 (en) 2014-09-10 2019-12-03 Faro Technologies, Inc. Device and method for optically scanning and measuring an environment and a method of control
WO2016040229A1 (en) * 2014-09-10 2016-03-17 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
GB2544935A (en) * 2014-09-10 2017-05-31 Faro Tech Inc Method for optically measuring three-dimensional co-ordinates and calibration of a three-dimensional measuring device
US9693040B2 (en) 2014-09-10 2017-06-27 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
DE102016105405B4 (de) * 2015-03-25 2017-07-20 EXTEND3D GmbH Verfahren und eine Vorrichtungsanordnung zur hochgenauen, (semi-)automatischen in-situ-Kalibrierung und -Registrierung eines Projektor-Kamera-Systems zu einem Bauteil
US10175037B2 (en) 2015-12-27 2019-01-08 Faro Technologies, Inc. 3-D measuring device with battery pack
DE102016221040A1 (de) * 2016-10-26 2018-04-26 Robert Bosch Gmbh Verfahren zur Lokalisierung einer Vorrichtung in einem System
CN111051919A (zh) * 2017-09-07 2020-04-21 罗伯特·博世有限公司 用于运行激光测距仪的方法
CN111051919B (zh) * 2017-09-07 2024-03-29 罗伯特·博世有限公司 用于运行激光测距仪的方法
US11350077B2 (en) 2018-07-03 2022-05-31 Faro Technologies, Inc. Handheld three dimensional scanner with an autoaperture
CN112304292B (zh) * 2019-07-25 2023-07-28 富泰华工业(深圳)有限公司 基于单色光的物体检测方法及检测系统
CN112304292A (zh) * 2019-07-25 2021-02-02 富泰华工业(深圳)有限公司 基于单色光的物体检测方法及检测系统
DE102019123045B4 (de) 2019-08-28 2022-01-27 Daniel Futterer Dummy-Vorrichtung und deren Verwendungen sowie Automatisierungssystem
DE102022200821B3 (de) 2022-01-25 2023-01-12 Carl Zeiss Meditec Ag Verfahren zum Kalibrieren eines stereoskopischen medizinischen Mikroskops und medizinische Mikroskopanordnung
DE102022200821B9 (de) 2022-01-25 2023-05-25 Carl Zeiss Meditec Ag Verfahren zum Kalibrieren eines stereoskopischen medizinischen Mikroskops und medizinische Mikroskopanordnung

Similar Documents

Publication Publication Date Title
DE10149750A1 (de) Handgeführter 3D-Scanner
DE102007054906B4 (de) Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten
DE102012108567B4 (de) Verfahren zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters
EP0897524B1 (de) Vorrichtung zum berührungsfreien vermessen einer dreidimensionalen objektoberfläche
EP1971820B1 (de) Erstellung eines abstandsbildes
EP2079981B1 (de) Vorrichtung und verfahren zum berührungslosen erfassen einer dreidimensionalen kontur
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE102016002398B4 (de) Optischer 3D-Sensor zur schnellen und dichten Formerfassung
EP1597539B1 (de) Verfahren und optisches system zur vermessung der topographie eines messobjekts
EP2212646B1 (de) Verfahren zur optischen vermessung von objekten unter verwendung eines triangulationsverfahrens
AT506110B1 (de) Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
DE102006001634B3 (de) Erstellung eines Abstandsbildes
DE102008002725B4 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
EP3195256B1 (de) Verfahren und vorrichtung zum identifizieren von strukturelementen eines projizierten strukturmusters in kamerabildern
EP3775767B1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE19637682B4 (de) Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung und Vorrichtung zur Anwendung dieses Verfahrens
CH692873A5 (de) Vorrichtung und Verfahren zur geometrischen Kalibrierung von CCD-Kameras.
DE102008048963A1 (de) 3D-Geometrie-Erfassungsverfahren und -vorrichtung
DE102017116758B4 (de) Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera
DE602004011093T2 (de) Einrichtung zum scannen dreidimensionaler objekte
DE4113992A1 (de) Verfahren zur automatischen dreidimensionalen ueberwachung von gefahrenraeumen
DE102012102580A1 (de) Verfahren zum Messen eines Objektes sowie Intraoral-Scanner
DE10359104B3 (de) Verfahren zur dynamischen, dreidimensionalen Erfassung und Darstellung einer Oberfläche
DE102005043753A1 (de) Verfahren zur Bestimmung der Raumkoordinaten von Oberflächenpunkten eines Prüflings und Vorrichtung zur Durchführung des Verfahrens

Legal Events

Date Code Title Description
8127 New person/name/address of the applicant

Owner name: HUMAN SOLUTIONS GMBH, 67657 KAISERSLAUTERN, DE

8139 Disposal/non-payment of the annual fee