DE19536294A1 - Verfahren zur geometrischen Navigation von optischen 3D-Sensoren zum dreidimensionalen Vermessen von Objekten - Google Patents

Verfahren zur geometrischen Navigation von optischen 3D-Sensoren zum dreidimensionalen Vermessen von Objekten

Info

Publication number
DE19536294A1
DE19536294A1 DE1995136294 DE19536294A DE19536294A1 DE 19536294 A1 DE19536294 A1 DE 19536294A1 DE 1995136294 DE1995136294 DE 1995136294 DE 19536294 A DE19536294 A DE 19536294A DE 19536294 A1 DE19536294 A1 DE 19536294A1
Authority
DE
Germany
Prior art keywords
sensor
navigation
coordinate system
cameras
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE1995136294
Other languages
English (en)
Other versions
DE19536294C2 (de
Inventor
Reinhard Dr Malz
Horst Dr Beyer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3d Imaging Technologies Cremines Ch GmbH
Original Assignee
Daimler Benz AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Benz AG filed Critical Daimler Benz AG
Priority to DE1995136294 priority Critical patent/DE19536294C2/de
Publication of DE19536294A1 publication Critical patent/DE19536294A1/de
Application granted granted Critical
Publication of DE19536294C2 publication Critical patent/DE19536294C2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates

Description

Die Erfindung betrifft ein Verfahren zur geometrischen Na­ vigation von optischen 3D-Sensoren zum dreidimensionalen Vermessen von Objekten innerhalb eines Navigationsvolumens relativ zu einem Referenzkoordinatensystem, beruhend auf den Prinzipien der Streifenprojektion und der Triangula­ tion unter Verwendung wenigstens einer Kamera, einer Ein­ richtung zur Digitalisierung und Speicherung von Bildfol­ gen der Kamera, mindestens einem zur Kamera fixierten Be­ leuchtungsprojektor, der zeitlich nacheinander Lichtstruk­ turen aus wenigstens eindimensionalen Streifen erzeugt und mindestens einer im Referenzkoordinatensystem bestimmten Navigationseinrichtung.
Es sind flächenhaft messende optische Meßverfahren mit Ma­ trixkamera und Projektor für uncodierte oder codierte Streifen bekannt, bei denen die dreidimensionalen Koordi­ naten der Oberflächenpunkte aus den beiden Bildkoordinaten des Kamerabildes und der an der jeweiligen Bildkoordinate detektierten Streifennummer berechnet werden (Reinhard W. Malz: Codierte Lichtstrukturen für 3-D-Meßtechnik und In­ sektion, Thesis, Universität Stuttgart 1992, Reihe: Be­ richte aus dem Institut für technische Optik der Universi­ tät Stuttgart). Ebenso sind Verfahren unter Verwendung mehreren Projektoren bekannt.
Des weiteren sind photogrammetrische optische Meßverfahren mit mehreren Matrixkameras oder eine Matrixkamera in meh­ reren Positionen bekannt, bei denen die dreidimensionalen Koordinaten eindeutig bestimmbarer Punkte im Raum aus meh­ reren Ansichten derselben numerisch bestimmt werden. Zur Erzeugung eindeutig bestimmbarer Punkte im Objektraum wer­ den natürliche Objektmerkmale, zum Beispiel reguläre oder stochastische Grauwert- oder Farbverteilungen am Objekt, ebenso genutzt wie künstliche Merkmale wie aufgeklebte oder aufprojizierte Marken bzw. reguläre oder stochasti­ sche Grauwert- oder Farbverteilungen.
Zur Bestimmung optisch nicht markierbarer oder nicht zu­ gänglicher Oberflächenpunkte ist es bekannt, vermittelnde Körper, Taster, einzusetzen, deren Position im Raum ihrer­ seits mittels aufgebrachter Marken vermessen werden kann. Damit ist indirekt auch die Position der Tastspitze be­ kannt.
Bekannt sind des weiteren photogrammetrische Verfahren, die die räumliche Lage einer Kamera relativ zu mehreren sichtbaren Referenzpunkten bestimmen können, deren abso­ lute Koordinaten bekannt sind (Räumlicher Rückwärts­ schnitt). Ebenso sind photogrammetrische Verfahren be­ kannt, die mehrere räumliche Lagen einer Kamera relativ zueinander bestimmen können, sofern die aus mehreren Lagen aufgenommenen Bilder mehrere gemeinsame Referenzpunkte enthalten, deren Koordinaten vorab nicht bekannt sein müs­ sen (Bündelausgleichung). Bei diesem Verfahren werden zu­ sätzlich zu den Lagen der Kamera auch die Koordinaten der in mehreren Bildern sichtbaren Punkte berechnet (Punktmes­ sung).
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren der genannten Gattung zu schaffen, mit welchem Objekte mit optischen Sensoren dreidimensional vermessen werden sol­ len, wobei sich die räumliche Anordnung von Sensor und Ob­ jekt ändern kann, um anschließend Teilansichten paßgenau zusammenfügen zu können.
Zweck der Erfindung ist zum Beispiel, Herstellungsmaschi­ nen, wie Pressen oder Fräsen oder Werkzeugmaschinen, mit­ tels der Erfindung so zu steuern, daß über die optische Aufnahme eines Probenkörpers ein hochgenaues Werkstück als Abbild des Probenkörpers hergestellt werden kann oder softwaremäßig praktisch beliebige Manipulationen am virtu­ ellen Datenmaterial vorgenommen und wieder ausgegeben wer­ den können, um damit ein neues Werkstück herzustellen.
Die Lösung der Aufgabe besteht im Verfahren zur geometri­ schen Navigation von optischen 3D-Sensoren zum dreidimen­ sionalen Vermessen von Objekten innerhalb eines Navigati­ onsvolumens relativ zu einem Referenzkoordinatensystem, beruhend auf den Prinzipien der Streifenprojektion und der Triangulation, unter Verwendung wenigstens einer Kamera, vorzugsweise Videokamera, einer Einrichtung zur Digitali­ sierung und Speicherung von Bildfolgen der Kamera, minde­ stens einem zur Kamera fixierten Beleuchtungsprojektor, der zeitlich nacheinander Lichtstrukturen aus wenigstens eindimensionalen Streifen erzeugt, mindestens einer im Re­ ferenzkoordinatensystem bestimmten Navigationseinrichtung, die entweder aus reflektierenden und/oder streuenden Si­ gnalmarken mit einer Beleuchtungseinrichtung oder aus lichtemittierenden Signalmarken oder aus einem Signalkon­ tinuum besteht, und einem Rechner zur Steuerung und Verar­ beitung der Bilder, wobei der 3D-Sensor im Raum beweglich ist und wenigstens drei Signalmarken oder drei voneinander unabhängige Signalwerte des Signalkontinuums optisch de­ tektiert werden, die Positionen der detektierten Signal­ marken bzw. Signalwerte sowie deren Identifikationsindices (Labeling) innerhalb eines gegebenen sensoreigenen Koordi­ natensystems bestimmt und gespeichert werden, die Positio­ nen der detektierten Signalmarken bzw. Signalwerte inner­ halb des gegebenen sensoreigenen Koordinatensystems mit den bekannten Positionen der identifizierten Signalmarken bzw. Signalwerte innerhalb des gegebenen Referenzkoordina­ tensystems verglichen werden, mittels eines numerischen Ausgleichsverfahrens aus dem Vergleich eine Transformati­ onsmatrix bestimmt wird, welche das Sensorkoordinatensy­ stem in das Referenzkoordinatensystem transformiert, bei unveränderter Stellung oder bei absolut bekannter Stel­ lungsveränderung des Sensors die Transformationsmatrix dazu verwendet wird, die von einem im Navigationsraum be­ findlichen Objekt im Sensorkoordinatensystem mit codierter Streifenprojektion gemessenen Koordinaten in das Refe­ renzkoordinatensystem zu überführen.
Der Vorteil des erfindungsgemäßen Verfahrens ist darin zu sehen, daß Objekte mit optischen Sensoren dreidimensional vermessen werden können, wobei sich die räumliche Anord­ nung von Sensor und Objekt ändern darf, und anschließend Teilansichten des Objekts paßgenau zusammengefügt werden können. Des weiteren sind aufgrund des Verfahrens Kosten­ reduktionen zu erzielen, weil das Verfahren auf teure me­ chanische Präzisionspositioniereinrichtungen, wie Koordi­ natenmeßgeräte, Präzisionsmeßroboter, Fräsmaschinen, Step­ per o.a. verzichtet.
Vorteilhaft können Kamera und Projektor und deren relative Anordnung mit Hilfe mehrfacher Meßaufnahmen aus verschie­ denen Richtungen erst während des Verfahrens simultan ka­ libriert werden. Die Navigationseinrichtung kann mit Hilfe mehrfacher Meßaufnahmen aus verschiedenen Richtungen erst während des Verfahrens vermessen werden.
Die Navigationseinrichtung kann aus mehreren relativ zu­ einander beweglichen Teilen bestehen, deren relative Lage oder Lageänderung mit Hilfe von Meßaufnahmen und Ähnlich­ keitstransformationen bestimmt wird. Ebenso kann als Teil der Navigationseinrichtung ein mit Signalmarken ausgestat­ tetes Referenzobjekt, wie zum Beispiel ein Meßtaster, ver­ wendet werden, der einschließlich einer mechanischen Tast­ spitze vorher vermessen und kalibriert worden ist und mit dem anschließend optisch unzugängliche Punkte vermessen werden, wobei der Meßtaster nicht zum Navigieren des Sen­ sors dient.
Des weiteren können die Relativbewegungen zwischen Sensor und Navigationseinrichtung oder zwischen Referenzobjekten mit Hilfe einer Mechanik und/oder einer Meßeinrichtung ge­ nau als bekannt ermittelt werden, beispielsweise die Win­ keländerung einer einachsigen Rotation oder der Abstand einer linearen Translation, wobei in Positionen innerhalb der Relativbewegungen bei verdeckten Signalmarken die Na­ vigation mit Hilfe einer Interpolation oder Extrapolation von Navigationsdaten durchgeführt wird, welche vorher in anderen Positionen optisch gewonnen worden sind. Vorteil­ haft können damit auch bei verdeckten Signalmarken Naviga­ tionsmessungen durchgeführt werden.
Der Sensor kann vorteilhaft mit mehreren Kameras ausge­ stattet sein, deren relative Position und Orientierung zu­ einander für die Dauer einer Messung temporär oder dauer­ haft bekannt sind, die Kameras können über gleiche oder unterschiedliche Fokussierung für verschiedene Entfernun­ gen sowie über gleichen oder unterschiedlichen Bildwinkel verfügen, sie können gleiche oder unterschiedliche spek­ trale Empfindlichkeit aufweisen, in die gleiche oder in verschiedene Raumrichtungen blicken, wobei alle Kameras imstande sind, gleichzeitig Bilder aufnehmen zu können.
Die relative Position und Orientierung des Sensors mit mehreren Kameras kann durch eine mechanische starre Ver­ bindung derselben untereinander oder durch eine relative Orientierungsbestimmung als bekannt gewonnen werden. Zur Navigation können eine oder mehrere zusätzliche Kameras verwendet werden, die sowohl die Navigationseinrichtung bzw. Navigationseinrichtungen als auch den mit Signalmar­ ken ausgerüsteten Sensor gleichzeitig in einem gemeinsamen Bildfeld beobachten und vermessen, wobei zur Navigation des Sensors relativ zur Navigationseinrichtung sowohl die vom Sensor gemessenen Koordinaten der Navigationseinrich­ tung als auch die von den zusätzlichen Kameras gemessenen Koordinaten der Navigationseinrichtung und des Sensors in einem einzigen numerischen Ausgleichsalgorithmus verwendet werden.
Vorteilhaft können zusätzliche Kameras auf einem Referenz­ objekt befestigt sein. Derartige zusätzliche Kameras kön­ nen auf einem Drehtisch mit dem Werkstück befestigt sein, der Teil der Navigationseinrichtung ist.
Als numerisches Ausgleichsverfahren kann eine räumliche Ähnlichkeitstransformation verwendet werden, die die Koef­ fizienten der Transformationsmatrix so bestimmt, daß die Summe aller quadratischen Koordinatenfehler minimiert wird.
In vorteilhafter Weise können wenigstens ein Teil der ver­ wendeten Kameras jeweils über eine eigene Bildspeicherein­ richtung und/oder Bildverarbeitungseinrichtung verfügen, wobei die Bildaufnahme, die in allen Kameras synchron er­ folgt, mittels eines optischen Signals gemeinsam ausgelöst wird und die Bilder bereits in der Kamera vorverarbeitet werden, um eine Datenreduktion zu erzielen.
Das vorbeschriebene Verfahren und die Varianten hierzu setzen voraus, daß die Navigationseinrichtung normaler­ weise in Ruhe ist und die Bilder bzw. Streifen sequentiell erhalten werden. In einer vorteilhaften Variante des Ver­ fahrens ist es aber auch möglich, mit einem 3D-Sensor zu arbeiten, der sich nicht in Ruhe befindet, beispielsweise ohne Stativ. Ein derartiger 3D-Sensor arbeitet mit einem relativ und inkrementell messenden Streifenmeßverfahren, welches zur Messung von stetigen Oberflächen nur ein ein­ ziges Bild, welches gleichzeitig mit den Retros aufgenom­ men wird, erfordert, wobei die absolute Position der Koor­ dinaten eines stetigen Flächenstücks jeweils durch einen Signalisierungspunkt innerhalb der gemessenen Objektfläche bestimmt wird.
Oder der 3D-Sensor arbeitet mit einem Streifenmeßverfah­ ren, bei dem die üblichen mehreren Streifenbilder jeweils gleichzeitig mit der Retrobeleuchtung geblitzt werden, wo­ nach die gegeneinander leicht verschobenen Bilder mit Hilfe der Navigation aus jeweils einem Bild in ein einzi­ ges Koordinatensystem transformiert und dann decodiert werden. Die Bilder werden quasi zurechtgeruckt und dann decodiert.
Kurzbeschreibung der Zeichnung, in der zeigt
Fig. 1 eine schematische Darstellung eines 3D- Sensors unter Verwendung von zwei Kameras mit Beleuchtungseinrichtung, einem zu den Kameras fixierten Beleuchtungsprojektor und eine Navigationseinrichtung aus reflektierenden Signalmarken auf Referenzkörpern,
Fig. 2 zusätzlich zur Darstellung in Fig. 1 einen beweglichen Meßobjektträger,
Fig. 3 zusätzlich zur Darstellung in Fig. 2 eine weitere unabhängige Beobachtungseinrichtung mit mindestens einer Kamera,
Fig. 4 zusätzlich zur Darstellung in Fig. 3 eine weitere zusätzliche Beobachtungseinrichtung die mit dem Meßobjektträger fest verbunden ist,
Fig. 5 zusätzlich zur Darstellung in Fig. 4 einen weiteren Referenzkörper mit Signalisierungen, der in die Navigationseinrichtung temporär eingebracht ist.
Fig. 1 zeigt einen 3D-Sensor 1, bestehend aus zwei auf einem Stativ 7 mit Querbalken montierten Kameras 2, 3, die jeweils mit einer Beleuchtungseinrichtung 4, 5 für retrore­ flektierende Signalisierungen oder Signalmarken ausgestat­ tet sind sowie einem zwischen den Kameras auf dem Querträ­ ger angeordneten, programmierbaren Streifenprojektor 6; gemessen wird ein Meßprojekt 8. Eine ein- oder mehrteilige Navigationseinrichtung besteht im einfachsten Fall aus Si­ gnalisierungen 9 auf dem Meßobjekt 8 und/oder aus einem einteiligen oder mehrteiligen Referenzkörper 10, 11 eben­ falls mit Signalisierungen 9.
Fig. 2 zeigt zusätzlich zu Fig. 1 auf dem Referenzkörper 11 einen beweglich gehalterten, beispielsweise drehbaren, Meßobjektträger 12, der ebenfalls Signalisierungen trägt, die vom 3D-Sensor 1 oder von einer zusätzlichen Beobach­ tungseinrichtung (Fig. 3) mit mindestens einer Kamera 13 beobachtet werden.
Der Meßobjektträger 12 kann beispielsweise eine exakt be­ kannte Linear- oder Rotationsbewegung ausführen. Oder der Sensorträger 7 (Stativ) kann beweglich gestaltet sein mit exakt bekannter Linear- oder Rotationsbewegung.
Fig. 3 zeigt zusätzlich zu Fig. 2 eine unabhängige Beob­ achtungseinrichtung mit mindestens einer Kamera 13, die ebenfalls eine Beleuchtungseinrichtung 4 aufweisen kann und die die Referenzkörper 10, 11 sowie den beweglichen Meßobjektträger 12 einschließlich des Meßobjekts 8 und/oder den mit Signalisierungen 9 ausgestatteten beweg­ lichen 3D-Sensor 1 beobachtet.
Fig. 4 zeigt zusätzlich zu Fig. 3 eine weitere Beobach­ tungseinrichtung mit mindestens einer Kamera 14, 15, welche mit einem Teil der Navigationseinrichtung, beispielsweise mit dem Meßobjektträger 12, fest verbunden sind und deren Relativbewegung aus der Beobachtung der übrigen Referenz­ körper 10, 11 bestimmt werden kann.
Fig. 5 zeigt zusätzlich zu Fig. 4 einen weiteren Refe­ renzkörper 16, beispielsweise Taster, mit Signalisierungen 9, der mit dem Meßobjekt 8 - oder einem anderen Referenz­ körper, beispielsweise der Meßobjektträger 12 - temporär verbunden ist. Durch Navigation bzw. Vermessung des Refe­ renzkörpers 16 können auch die aktuellen Koordinaten der mit ihm verbundenen Objekte genauer bestimmt werden.
Das Verfahren zur geometrischen Navigation von optischen 3D-Sensoren zum dreidimensionalen Vermessen von Objekten innerhalb eines Navigationsvolumens ist insbesondere für Herstellungsmaschinen, wie Pressen oder Fräsen oder Werk­ zeugmaschinen anwendbar, die mittels des Verfahrens so ge­ steuert werden können, daß über die optische Aufnahme ei­ nes Probenkörpers ein hochgenaues Werkstück als Abbild des Probenkörpers hergestellt werden kann oder softwaremäßig praktisch beliebige Manipulationen am virtuellen Datenma­ terial vorgenommen und wieder ausgegeben werden können, um damit ein neues Werkstück herzustellen.

Claims (15)

1. Verfahren zur geometrischen Navigation von optischen 3D-Sensoren zum dreidimensionalen Vermessen von Objekten innerhalb eines Navigationsvolumens relativ zu einem Refe­ renzkoordinatensystem, beruhend auf den Prinzipien der Streifenprojektion und der Triangulation, unter Verwendung wenigstens einer Kamera, vorzugsweise Videokamera, einer Einrichtung zur Digitalisierung und Speicherung von Bild­ folgen der Kamera, mindestens einem zur Kamera fixierten bzw. zu mehreren Kameras zugeordneten Beleuchtungsprojek­ tor, der zeitlich nacheinander Lichtstrukturen aus wenig­ stens eindimensionalen Streifen erzeugt, mindestens einer im Referenzkoordinatensystem bestimmten Navigationsein­ richtung, die entweder aus reflektierenden und/oder streu­ enden Signalmarken mit einer Beleuchtungseinrichtung oder aus lichtemittierenden Signal­ marken mit einer Beleuchtungseinrichtung oder aus lichte­ mittierenden Signalmarken oder aus einem Signalkontinuum besteht, und einem Rechner zur Steuerung und Verarbeitung der Bilder, dadurch gekennzeichnet, daß der 3D-Sensor im Raum beweglich ist und wenigstens drei Signalmarken oder drei voneinander unabhängige Signalwerte des Signalkontinuums optisch detektiert werden, die Posi­ tionen der detektierten Signalmarken bzw. Signalwerte so­ wie deren Identifikationsindices (Labeling) innerhalb ei­ nes gegebenen sensoreigenen Koordinatensystems bestimmt und gespeichert werden, die Positionen der detektierten Si­ gnalmarken bzw. Signalwerte innerhalb des gegebenen senso­ reigenen Koordinatensystems mit den bekannten Positionen der identifizierten Signalmarken bzw. Signalwerte inner­ halb des gegebenen Referenzkoordinatensystems verglichen werden, mittels eines numerischen Ausgleichungsverfahrens aus dem Vergleich eine Transformationsmatrix bestimmt wird, welche das Sensorkoordinatensystem in das Referenz­ koordinatensystem transformiert, bei unveränderter Stel­ lung oder bei absolut bekannter Stellungsveränderung des Sensors die Transformationsmatrix dazu verwendet wird, die von einem im Navigationsraum befindlichen Objekt im Sen­ sorkoordinatensystem mit codierter Streifenprojektion ge­ messenen Koordinaten in das Referenzkoordinatensystem zu überführen.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß Kamera und Projektor und deren relative Anordnung mit Hilfe mehrfacher Meßaufnahmen aus verschiedenen Richtungen erst während des Verfahrens simultan kalibriert werden.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Navigationseinrichtung mit Hilfe mehrfacher Meßaufnah­ men aus verschiedenen Richtungen erst während des Verfah­ rens vermessen wird.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Navigationseinrichtung aus mehreren relativ zueinander beweglichen Teilen besteht, deren relative Lage oder Lage­ änderung mit Hilfe von Meßaufnahmen und Ähnlichkeitstrans­ formationen bestimmt wird.
5. Verfahren nach den Ansprüchen 3 und 4, dadurch gekenn­ zeichnet, daß als Teil der Navigationseinrichtung ein mit Signalmarken ausgestatteter Meßtaster verwendet wird, der einschließlich einer mechanischen Tastspitze vorher ver­ messen und kalibriert worden ist, und mit dem anschließend optisch unzugängliche Punkte vermessen werden.
6. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeich­ net, daß Relativbewegungen zwischen Sensor und Navigati­ onseinrichtung oder zwischen Teilen der Navigationsein­ richtung mit Hilfe einer Mechanik und/oder einer Meßein­ richtung genau als bekannt ermittelt werden, beispiels­ weise die Winkeländerung einer einachsigen Rotation oder der Abstand einer linearen Translation, daß in Positionen innerhalb der Relativbewegungen bei verdeckten Signalmar­ ken die Navigation mit Hilfe einer Interpolation oder Ex­ trapolation von Navigationsdaten durchgeführt wird, welche vorher in anderen Positionen optisch gewonnen worden sind.
7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Sensor mit mehreren Kameras ausgestattet ist, deren relative Position und Orientierung zueinander für die Dauer einer Messung temporär oder dauerhaft bekannt sind, daß die Kameras über gleiche oder unterschiedliche Fokus­ sierung für verschiedene Entfernungen sowie über gleichen oder unterschiedlichen Bildwinkel verfügen, gleiche oder unterschiedliche spektrale Empfindlichkeit aufweisen, in die gleiche oder in verschiedene Raumrichtungen blicken können und alle Kameras imstande sind, gleichzeitig Bilder aufnehmen zu können.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß relative Position und Orientierung des Sensors mit mehre­ ren Kameras durch eine mechanische starre Verbindung der­ selben untereinander oder durch eine relative Orientie­ rungsbestimmung als bekannt gewonnen werden.
9. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß zur Navigation eine oder mehrere zusätzliche Kameras ver­ wendet werden, die sowohl die Navigationseinrichtung bzw. Navigationseinrichtungen als auch den mit Signalmarken ausgerüsteten Sensor gleichzeitig in einem gemeinsamen Bildfeld beobachten und vermessen, und daß zur Navigation des Sensors relativ zur Navigationseinrichtung sowohl die vom Sensor gemessenen Koordinaten der Navigationseinrich­ tung als auch die von den zusätzlichen Kameras gemessenen Koordinaten der Navigationseinrichtung und des Sensors in einem einzigen numerischen Ausgleichsalgorithmus verwen­ det werden.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß zusätzliche Kameras auf einem Teil der Navigationsein­ richtung befestigt sind.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß die zusätzlichen Kameras auf einem Drehtisch mit dem Werkstück befestigt sind, der Teil der Navigationseinrich­ tung ist.
12. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß als numerisches Ausgleichsverfahren eine räumliche Ähnlichkeitstransformation verwendet wird, welche die Ko­ effizienten der Transformationsmatrix so bestimmt, daß die Summe aller quadratischen Koordinatenfehler minimiert wird.
13. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß wenigstens ein Teil der verwendeten Kameras jeweils über eine eigene Bildspeichereinrichtung und/oder Bildver­ arbeitungseinrichtung verfügen und die Bildaufnahme, die in allen Kameras synchron erfolgt, mittels eines optischen Signals gemeinsam ausgelöst wird und die Bilder zur Daten­ reduktion bereits in der Kamera vorverarbeitet werden.
14. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der 3D-Sensor mit einem relativ und inkrementell mes­ senden Streifenmeßverfahren arbeitet, welches zur Messung von stetigen Oberflächen nur ein einziges Bild, welches gleichzeitig mit den Retros aufgenommen wird, erfordert, wobei die absolute Position der Koordinaten eines stetigen Flächenstücks jeweils durch einen Signalisierungspunkt in­ nerhalb der gemessenen Objektfläche bestimmt wird.
15. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der 3D-Sensor mit einem Streifenmeßverfahren arbeitet, bei dem die üblichen mehreren Streifenbilder jeweils gleichzeitig mit der Retrobeleuchtung geblitzt werden, und die gegeneinander leicht verschobenen Bilder mit Hilfe der Navigation aus jeweils einem Bild in ein einziges Koordi­ natensystem transformiert und erst dann decodiert werden.
DE1995136294 1995-09-29 1995-09-29 Verfahren zur geometrischen Navigation von optischen 3D-Sensoren zum dreidimensionalen Vermessen von Objekten Expired - Lifetime DE19536294C2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE1995136294 DE19536294C2 (de) 1995-09-29 1995-09-29 Verfahren zur geometrischen Navigation von optischen 3D-Sensoren zum dreidimensionalen Vermessen von Objekten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1995136294 DE19536294C2 (de) 1995-09-29 1995-09-29 Verfahren zur geometrischen Navigation von optischen 3D-Sensoren zum dreidimensionalen Vermessen von Objekten

Publications (2)

Publication Number Publication Date
DE19536294A1 true DE19536294A1 (de) 1997-04-03
DE19536294C2 DE19536294C2 (de) 2003-12-18

Family

ID=7773558

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1995136294 Expired - Lifetime DE19536294C2 (de) 1995-09-29 1995-09-29 Verfahren zur geometrischen Navigation von optischen 3D-Sensoren zum dreidimensionalen Vermessen von Objekten

Country Status (1)

Country Link
DE (1) DE19536294C2 (de)

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999039158A1 (de) * 1998-02-02 1999-08-05 Daimlerchrysler Ag Vorrichtung zur verwendung als navigationskulisse bei der vermessung von objekten
EP1022541A2 (de) * 1999-01-22 2000-07-26 Wohlenberg Schneidesysteme GmbH Verfahren und Vorrichtung zur Bestimmung der Geometrie von blattförmigem Gut oder Stapeln davon
EP1134546A3 (de) * 2000-03-14 2001-10-04 DaimlerChrysler AG Anlage zur messtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten
WO2001088471A1 (de) * 2000-05-16 2001-11-22 Steinbichler Optotechnik Gmbh Verfahren und vorrichtung zum bestimmen der 3d-form eines objektes
DE10033366A1 (de) * 2000-07-08 2002-01-31 Festo Ag & Co Verfahren und Erfassungsvorrichtung zur Erfassung von Parametern an maschinellen Einrichtungen
WO2002063240A1 (en) * 2001-02-02 2002-08-15 Snap-On Technologies Inc Method and apparatus for mapping system calibration
DE19956192C2 (de) * 1999-11-23 2003-04-17 Daimler Chrysler Ag Robustes erweitertes Kalibrier- und Messverfahren
DE10112653B4 (de) * 2000-03-21 2004-02-12 Romain Granger System zur Positionspeilung
DE10311111A1 (de) * 2003-03-12 2004-09-30 Universität Karlsruhe (TH) - Körperschaft des öffentlichen Rechts Positionierverfahren und -vorrichtung
DE102005002190B4 (de) * 2005-01-17 2007-04-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Scanner und Verfahren zum Betreiben eines Scanners
DE10354078B4 (de) * 2003-11-19 2008-09-04 Daimler Ag Spannvorrichtung für Werkstücke zur dreidimensionalen optischen Oberflächenmessung
DE102007017675A1 (de) * 2007-04-14 2008-10-16 Volkswagen Ag Mobile Messeinrichtung
FR2921492A1 (fr) * 2007-09-21 2009-03-27 Cap Tech Sarl Procede de positionnement cartesien d'un objet sur une surface et dispositif pour sa mise en oeuvre
WO2009065418A1 (de) * 2007-11-19 2009-05-28 Corpus.E Ag Hochauflösende optische erfassung der raumform von körpern
DE102008019435A1 (de) * 2008-04-17 2009-10-29 Aicon Metrology Gmbh Verfahren zum berührungslosen Vermessen dreidimensionaler, komplex geformter Bauteile
DE202008011332U1 (de) * 2008-08-26 2010-02-11 Dmg Microset Gmbh Vorrichtung zum Vermessen und/oder Einstellen eines Werkzeugs
DE202009017401U1 (de) 2009-12-22 2010-05-12 Corpus.E Ag Kalibrationsfreie und genaue optische Erfassung der Raumform
US7830529B2 (en) 2005-11-15 2010-11-09 Mtu Aero Engines Gmbh Optical measurement of metallic surfaces
US7907265B2 (en) 2006-08-03 2011-03-15 Dürr Assembly Products GmbH Method for the determination of the axle geometry of a vehicle
EP2381214A1 (de) * 2010-04-22 2011-10-26 Metronor A/S Optisches Messsystem
EP2230482B1 (de) * 2005-03-11 2013-10-30 Creaform Inc. Selbstreferenziertes System und Vorrichtung zum dreidimensionalen Scannen
DE102005009549B4 (de) * 2004-03-02 2014-03-13 Institut Straumann Ag Oberflächenerfassungshalterung sowie Verfahren zur Oberflächenerfassung
DE102013211342A1 (de) * 2013-06-18 2014-12-18 Siemens Aktiengesellschaft Fotobasiertes 3D-Oberflächen-Inspektionssystem
WO2015023483A1 (en) * 2013-08-06 2015-02-19 Smart Picture Technology, Inc. 3d mapping device for modeling of imaged objects using camera position and pose to obtain accuracy with reduced processing requirements
WO2016103125A1 (en) * 2014-12-22 2016-06-30 Bombardier Inc. Reference system for online vision inspection
EP3252458A1 (de) * 2016-06-01 2017-12-06 Hijos de Jose Sivo, S.L. System und verfahren zur digitalisierung dreidimensionaler objekte
US10068344B2 (en) 2014-03-05 2018-09-04 Smart Picture Technologies Inc. Method and system for 3D capture based on structure from motion with simplified pose detection
US10083522B2 (en) 2015-06-19 2018-09-25 Smart Picture Technologies, Inc. Image based measurement system
EP3396590A1 (de) * 2017-04-26 2018-10-31 Mashgin Inc. Synchronisation von bilddaten mehrerer dreidimensionaler kameras zur bilderkennung
US10200670B2 (en) 2011-09-30 2019-02-05 Carl Zeiss Optotechnik GmbH Method and apparatus for determining the 3D coordinates of an object
US10304254B2 (en) 2017-08-08 2019-05-28 Smart Picture Technologies, Inc. Method for measuring and modeling spaces using markerless augmented reality
US10366445B2 (en) 2013-10-17 2019-07-30 Mashgin Inc. Automated object recognition kiosk for retail checkouts
US10540551B2 (en) 2018-01-30 2020-01-21 Mashgin Inc. Generation of two-dimensional and three-dimensional images of items for visual recognition in checkout apparatus
US10628695B2 (en) 2017-04-26 2020-04-21 Mashgin Inc. Fast item identification for checkout counter
EP3447681B1 (de) * 2017-08-24 2020-04-29 Mashgin Inc. Trennung von objekten in bildern von dreidimensionalen kameras
EP3584532A4 (de) * 2017-02-17 2020-12-09 Limited Liability Company "Fittin" Verfahren und vorrichtung zur messung der form, abmessungen und flexibilität von schuhen
US11138757B2 (en) 2019-05-10 2021-10-05 Smart Picture Technologies, Inc. Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process
US11281888B2 (en) 2017-04-26 2022-03-22 Mashgin Inc. Separation of objects in images from three-dimensional cameras
CN114485479A (zh) * 2022-01-17 2022-05-13 吉林大学 基于双目相机和惯性导航的结构光扫描测量方法及系统
US11551287B2 (en) 2013-10-17 2023-01-10 Mashgin Inc. Automated object recognition kiosk for retail checkouts

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3122712A1 (de) * 1980-06-11 1982-03-18 General Electric Co., Schenectady, N.Y. "verfahren und vorrichtung zum beruehrungslosen messen von oberflaechenprofilen"
DE4115445A1 (de) * 1990-07-05 1992-01-23 Reinhard Malz Verfahren zum aufnehmen eines dreidimensionalen bildes eines objektes nach dem aktiven triangulationsprinzip und vorrichtung hierzu
DE4115846A1 (de) * 1991-05-15 1992-11-19 Ameling Walter Verfahren zur beruehrungslosen raeumlichen positionsmessung in roboterarbeitsraeumen
DE4134546A1 (de) * 1991-09-26 1993-04-08 Steinbichler Hans Verfahren und vorrichtung zur bestimmung der absolut-koordinaten eines objektes
WO1994028375A1 (en) * 1993-05-24 1994-12-08 Metronor As Method and system for geometry measurement

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4205406A1 (de) * 1992-02-20 1993-09-02 Gerhard Dipl Ing Lutter Verfahren zur photogrammetrischen vermessung eines statischen objektes mit weitgehend handelsueblichen video- oder ccd-kameras
DE19502459A1 (de) * 1995-01-28 1996-08-01 Wolf Henning Verfahren zur dreidimensionalen optischen Vermessung der Oberfläche von Objekten

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3122712A1 (de) * 1980-06-11 1982-03-18 General Electric Co., Schenectady, N.Y. "verfahren und vorrichtung zum beruehrungslosen messen von oberflaechenprofilen"
DE4115445A1 (de) * 1990-07-05 1992-01-23 Reinhard Malz Verfahren zum aufnehmen eines dreidimensionalen bildes eines objektes nach dem aktiven triangulationsprinzip und vorrichtung hierzu
DE4115846A1 (de) * 1991-05-15 1992-11-19 Ameling Walter Verfahren zur beruehrungslosen raeumlichen positionsmessung in roboterarbeitsraeumen
DE4134546A1 (de) * 1991-09-26 1993-04-08 Steinbichler Hans Verfahren und vorrichtung zur bestimmung der absolut-koordinaten eines objektes
WO1994028375A1 (en) * 1993-05-24 1994-12-08 Metronor As Method and system for geometry measurement

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DIETMAYER,Klaus, KRÜGER,Klaus: Verfahren zur berührungslosen Erfassung ebener Bewegungen mit einer CCD-Kamera. In: tm - Technisches Messen 61, 1994, 2, S.65-74 *
GERDES,R., u.a.: Kalibrierung eines digitalen Bildverarbeitungssystems mit CCD-Kamera, Teil 1: Modellbildung und Verfahren. In: tm - Technisches Messen 60, 1993, 6, S.255-261 *
JANOCHA,Hartmut, ZAPP,Michael: Fertigungsnahe 3D-Koordinatenmessung mit bewegter CCD-Kamera. In: tm - Technisches Messen 61, 1994, 9, S.329- S.334 *
STAHS,Thomas, WAHL,Friedrich: Oberflächenvermessung mit einem 3D-Robotersensor. In: ZPF-Zeitschrift für Photogrammetrie und Fernerkundung, 6/1990, S.190-202 *

Cited By (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999039158A1 (de) * 1998-02-02 1999-08-05 Daimlerchrysler Ag Vorrichtung zur verwendung als navigationskulisse bei der vermessung von objekten
US6591512B2 (en) 1998-02-02 2003-07-15 Daimlerchrysler Device for use as a navigation link when measuring objects
EP1022541A2 (de) * 1999-01-22 2000-07-26 Wohlenberg Schneidesysteme GmbH Verfahren und Vorrichtung zur Bestimmung der Geometrie von blattförmigem Gut oder Stapeln davon
EP1022541A3 (de) * 1999-01-22 2001-10-10 Wohlenberg Schneidesysteme GmbH Verfahren und Vorrichtung zur Bestimmung der Geometrie von blattförmigem Gut oder Stapeln davon
DE19956192C2 (de) * 1999-11-23 2003-04-17 Daimler Chrysler Ag Robustes erweitertes Kalibrier- und Messverfahren
EP1134546A3 (de) * 2000-03-14 2001-10-04 DaimlerChrysler AG Anlage zur messtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten
DE10112653B4 (de) * 2000-03-21 2004-02-12 Romain Granger System zur Positionspeilung
WO2001088471A1 (de) * 2000-05-16 2001-11-22 Steinbichler Optotechnik Gmbh Verfahren und vorrichtung zum bestimmen der 3d-form eines objektes
US7414732B2 (en) 2000-05-16 2008-08-19 Steinbichler Optotechnik Gmbh Method and device for determining the 3D profile of an object
DE10033366A1 (de) * 2000-07-08 2002-01-31 Festo Ag & Co Verfahren und Erfassungsvorrichtung zur Erfassung von Parametern an maschinellen Einrichtungen
DE10033366B4 (de) * 2000-07-08 2007-10-04 Festo Ag & Co. Verfahren und Erfassungsvorrichtung zur Erfassung von Parametern an maschinellen Einrichtungen
WO2002063240A1 (en) * 2001-02-02 2002-08-15 Snap-On Technologies Inc Method and apparatus for mapping system calibration
DE10311111A1 (de) * 2003-03-12 2004-09-30 Universität Karlsruhe (TH) - Körperschaft des öffentlichen Rechts Positionierverfahren und -vorrichtung
DE10311111B4 (de) * 2003-03-12 2005-12-08 Universität Karlsruhe (TH) - Körperschaft des öffentlichen Rechts Positionierverfahren und -vorrichtung
DE10354078B4 (de) * 2003-11-19 2008-09-04 Daimler Ag Spannvorrichtung für Werkstücke zur dreidimensionalen optischen Oberflächenmessung
DE102005009549B4 (de) * 2004-03-02 2014-03-13 Institut Straumann Ag Oberflächenerfassungshalterung sowie Verfahren zur Oberflächenerfassung
DE102005002190B4 (de) * 2005-01-17 2007-04-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Scanner und Verfahren zum Betreiben eines Scanners
US7469834B2 (en) 2005-01-17 2008-12-30 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Scanner and method for operating a scanner
EP2230482B1 (de) * 2005-03-11 2013-10-30 Creaform Inc. Selbstreferenziertes System und Vorrichtung zum dreidimensionalen Scannen
US7830529B2 (en) 2005-11-15 2010-11-09 Mtu Aero Engines Gmbh Optical measurement of metallic surfaces
US7907265B2 (en) 2006-08-03 2011-03-15 Dürr Assembly Products GmbH Method for the determination of the axle geometry of a vehicle
EP2047211B1 (de) * 2006-08-03 2014-05-07 Dürr Assembly Products GmbH Verfahren zur bestimmung der achsgeometrie eines fahrzeugs
DE102007017675A1 (de) * 2007-04-14 2008-10-16 Volkswagen Ag Mobile Messeinrichtung
FR2921492A1 (fr) * 2007-09-21 2009-03-27 Cap Tech Sarl Procede de positionnement cartesien d'un objet sur une surface et dispositif pour sa mise en oeuvre
WO2009065418A1 (de) * 2007-11-19 2009-05-28 Corpus.E Ag Hochauflösende optische erfassung der raumform von körpern
US8363927B2 (en) 2007-11-19 2013-01-29 Corpus.E Ag High-resolution optical detection of the three-dimensional shape of bodies
DE102008019435A1 (de) * 2008-04-17 2009-10-29 Aicon Metrology Gmbh Verfahren zum berührungslosen Vermessen dreidimensionaler, komplex geformter Bauteile
DE102008019435B4 (de) * 2008-04-17 2012-06-06 Aicon Metrology Gmbh Verfahren zum berührungslosen Vermessen dreidimensionaler, komplex geformter Bauteile
DE202008011332U1 (de) * 2008-08-26 2010-02-11 Dmg Microset Gmbh Vorrichtung zum Vermessen und/oder Einstellen eines Werkzeugs
WO2011076292A1 (de) 2009-12-22 2011-06-30 Corpus.E Ag Kalibrationsfreie und genaue optische erfassung der raumform
DE202009017401U1 (de) 2009-12-22 2010-05-12 Corpus.E Ag Kalibrationsfreie und genaue optische Erfassung der Raumform
US8874406B2 (en) 2010-04-22 2014-10-28 Metronor As Optical measurement system
EP2381214A1 (de) * 2010-04-22 2011-10-26 Metronor A/S Optisches Messsystem
US10200670B2 (en) 2011-09-30 2019-02-05 Carl Zeiss Optotechnik GmbH Method and apparatus for determining the 3D coordinates of an object
DE102013211342A1 (de) * 2013-06-18 2014-12-18 Siemens Aktiengesellschaft Fotobasiertes 3D-Oberflächen-Inspektionssystem
WO2015023483A1 (en) * 2013-08-06 2015-02-19 Smart Picture Technology, Inc. 3d mapping device for modeling of imaged objects using camera position and pose to obtain accuracy with reduced processing requirements
US11551287B2 (en) 2013-10-17 2023-01-10 Mashgin Inc. Automated object recognition kiosk for retail checkouts
US10366445B2 (en) 2013-10-17 2019-07-30 Mashgin Inc. Automated object recognition kiosk for retail checkouts
US10068344B2 (en) 2014-03-05 2018-09-04 Smart Picture Technologies Inc. Method and system for 3D capture based on structure from motion with simplified pose detection
WO2016103125A1 (en) * 2014-12-22 2016-06-30 Bombardier Inc. Reference system for online vision inspection
US10466041B2 (en) 2014-12-22 2019-11-05 Bombardier Inc. Reference system for online vision inspection
US10083522B2 (en) 2015-06-19 2018-09-25 Smart Picture Technologies, Inc. Image based measurement system
EP3252458A1 (de) * 2016-06-01 2017-12-06 Hijos de Jose Sivo, S.L. System und verfahren zur digitalisierung dreidimensionaler objekte
EP3584532A4 (de) * 2017-02-17 2020-12-09 Limited Liability Company "Fittin" Verfahren und vorrichtung zur messung der form, abmessungen und flexibilität von schuhen
EP3396590A1 (de) * 2017-04-26 2018-10-31 Mashgin Inc. Synchronisation von bilddaten mehrerer dreidimensionaler kameras zur bilderkennung
US10467454B2 (en) 2017-04-26 2019-11-05 Mashgin Inc. Synchronization of image data from multiple three-dimensional cameras for image recognition
US11869256B2 (en) 2017-04-26 2024-01-09 Mashgin Inc. Separation of objects in images from three-dimensional cameras
US10628695B2 (en) 2017-04-26 2020-04-21 Mashgin Inc. Fast item identification for checkout counter
US20180314877A1 (en) * 2017-04-26 2018-11-01 Mashgin Inc. Synchronization of image data from multiple three-dimensional cameras for image recognition
US11281888B2 (en) 2017-04-26 2022-03-22 Mashgin Inc. Separation of objects in images from three-dimensional cameras
US10803292B2 (en) 2017-04-26 2020-10-13 Mashgin Inc. Separation of objects in images from three-dimensional cameras
US10304254B2 (en) 2017-08-08 2019-05-28 Smart Picture Technologies, Inc. Method for measuring and modeling spaces using markerless augmented reality
US11164387B2 (en) 2017-08-08 2021-11-02 Smart Picture Technologies, Inc. Method for measuring and modeling spaces using markerless augmented reality
US10679424B2 (en) 2017-08-08 2020-06-09 Smart Picture Technologies, Inc. Method for measuring and modeling spaces using markerless augmented reality
US11682177B2 (en) 2017-08-08 2023-06-20 Smart Picture Technologies, Inc. Method for measuring and modeling spaces using markerless augmented reality
EP3447681B1 (de) * 2017-08-24 2020-04-29 Mashgin Inc. Trennung von objekten in bildern von dreidimensionalen kameras
US10540551B2 (en) 2018-01-30 2020-01-21 Mashgin Inc. Generation of two-dimensional and three-dimensional images of items for visual recognition in checkout apparatus
US11138757B2 (en) 2019-05-10 2021-10-05 Smart Picture Technologies, Inc. Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process
US11527009B2 (en) 2019-05-10 2022-12-13 Smart Picture Technologies, Inc. Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process
CN114485479A (zh) * 2022-01-17 2022-05-13 吉林大学 基于双目相机和惯性导航的结构光扫描测量方法及系统

Also Published As

Publication number Publication date
DE19536294C2 (de) 2003-12-18

Similar Documents

Publication Publication Date Title
DE19536294C2 (de) Verfahren zur geometrischen Navigation von optischen 3D-Sensoren zum dreidimensionalen Vermessen von Objekten
DE19536297C2 (de) Verfahren zur geometrischen Kalibrierung von optischen 3D-Sensoren zur dreidimensionalen Vermessung von Objekten und Vorrichtung hierzu
DE102004061338B4 (de) Automatische Bauteilprüfung
WO2001088471A1 (de) Verfahren und vorrichtung zum bestimmen der 3d-form eines objektes
AT506110B1 (de) Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
EP1420264A1 (de) Verfahren und Vorrichtung zur Kalibrierung eines Messsystems
DE4301538A1 (de) Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen
EP2133659B1 (de) Verfahren und Vorrichtung zur Ermittlung der Lage eines Sensors
DE4417872A1 (de) Optische Digitalisierung von Körperteilen
EP1528353A1 (de) Verfahren zur Kalibrierung eines 3D-Messgerätes
DE112015006593T5 (de) Positionsfinder eines freien Raums
DE10127304A1 (de) Verfahren und Vorrichtung zur Bestimmung der dreidimensionalen Kontur einer spiegelnden Oberfläche eines Objektes
EP3640583A1 (de) Verfahren zur 3d-erfassung eines messobjekts
EP3418680A1 (de) System und verfahren zur positionierungsmessung
DE19626889A1 (de) Verfahren und Vorrichtung zur Erfassung von Geometriedaten aus unterschiedlichen Beobachtungspositionen
DE4142676A1 (de) Verfahren und vorrichtung zur vermessung von objekten, insbesondere zahnraedern, mittels projizierter streifenmuster
DE102015109612B4 (de) Koordinatenmessgerät und Verfahren zum Kalibrieren desselben mit einer Time-of-Flight-Kamera
DE102019103519A1 (de) Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
Uffenkamp State of the art of high precision industrial photogrammetry
EP1657678B1 (de) Videobildunterstützte Patientenregistrierung
DE19846145A1 (de) Verfahren und Anordung zur 3D-Aufnahme
CN112720469B (zh) 显微立体视觉用于三轴平移运动系统零点校准方法
WO2005059470A1 (de) Verfahren zur dynamischen, dreidimensionalen erfassung und darstellung einer oberfläche
EP0867689B1 (de) Mikrofotogrammatische Messeinrichtung

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: DAIMLERCHRYSLER AG, 70567 STUTTGART, DE

8304 Grant after examination procedure
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: 3D IMAGING TECHNOLOGIES GMBH, CREMINES, CH

8328 Change in the person/name/address of the agent

Representative=s name: SEFFER, A., RECHTSANW., 60549 FRANKFURT

R071 Expiry of right