DE102007054906A1 - Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten - Google Patents

Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten Download PDF

Info

Publication number
DE102007054906A1
DE102007054906A1 DE102007054906A DE102007054906A DE102007054906A1 DE 102007054906 A1 DE102007054906 A1 DE 102007054906A1 DE 102007054906 A DE102007054906 A DE 102007054906A DE 102007054906 A DE102007054906 A DE 102007054906A DE 102007054906 A1 DE102007054906 A1 DE 102007054906A1
Authority
DE
Germany
Prior art keywords
recording
pattern
data
light
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102007054906A
Other languages
English (en)
Other versions
DE102007054906B4 (de
Inventor
Frank A.U. Thiel
Joachim Pfeiffer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sirona Dental Systems GmbH
Original Assignee
Sirona Dental Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sirona Dental Systems GmbH filed Critical Sirona Dental Systems GmbH
Priority to DE102007054906A priority Critical patent/DE102007054906B4/de
Priority to PCT/EP2008/065626 priority patent/WO2009063087A2/en
Priority to EP08849761.5A priority patent/EP2212645B1/de
Priority to JP2010533608A priority patent/JP5346033B2/ja
Publication of DE102007054906A1 publication Critical patent/DE102007054906A1/de
Priority to US12/770,426 priority patent/US8280152B2/en
Application granted granted Critical
Publication of DE102007054906B4 publication Critical patent/DE102007054906B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • A61B5/4547Evaluating teeth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rheumatology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur optischen Vermessung der dreidimensionalen Geometrie eines Objekts mittels eines Triangulationsverfahrens, wobei auf das aufzunehmende Objekt (7) ein Muster (9, 9') projiziert wird, um einen 3-D-Datensatz zu gewinnen, und wobei das projizierte Muster (9, 9') in einer Aufnahme (40, 41) aufgenommen wird. In einem ersten Schritt zur Erstellung mindestens einer ersten Aufnahme (40) wird ein erstes Muster (9) und in einem zweiten Schritt zur Erstellung mindestens einer weiteren Aufnahme (41) ein gegenüber dem ersten Muster in seiner Lage oder Ausbildung abweichendes weiteres Muster (9') auf das aufzunehmende Objekt (7) projiziert und die Aufnahme (41) erstellt. Die erste Aufnahme (40) und die weitere Aufnahme (41) werden derart zueinander ausgerichtet, dass die beiden Muster (9, 9') sich teilweise überschneiden und zumindest einen gemeinsamen Punkt (44) aufweisen. Die 3-D-Daten aus den Aufnahmen (40, 41) werden in einem weiteren Schritt anhand der 3-D-Daten des zumindest einen gemeinsamen Punktes (44) so zusammengeführt, dass die 3-D-Daten aus den Aufnahmen (40, 41) zumindest bezüglich der 3-D-Daten des einen gemeinsamen Punktes (44) in dem 3-D-Datensatz übereinstimmen.

Description

  • Technisches Gebiet
  • Die Erfindung betrifft ein Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten und befasst sich mit dem Problem der Verwacklung bei mittels streifenprojektionsbasierten Messmethoden gewonnenen 3D-Daten eines Aufnahmeobjekts sowie mit der Aufgabenstellung der 3D-Vermessung bei relativer Bewegung zwischen der Kamera und dem Objekt während des Messprozesses, insbesondere für zahnmedizinische Zwecke.
  • Stand der Technik
  • Durch eine optische 3D-Vermessung eines oder mehrerer Zähne im Mund eines Patienten können digitale Konstruktionsdaten für die rechnergesteuerte Anfertigung von Zahnersatz ohne die Erstellung eines herkömmlichen Abdrucks gewonnen werden.
  • Für diese Vermessung werden oft Messmethoden verwendet, die auf dem Prinzip der Triangulation basieren. Aus der EP 0 160 797 ist eine Phase-Shifting-Triangulation bekannt, bei der aus mehreren Aufnahmen mit einem jeweils von einer Aufnahme zum anderen versetzt angeordneten Raster ein 3D-Datensatz gewonnen wird.
  • Bei bekannten Triangulationsverfahren wird von einer Projektionseinrichtung ein einzelner gerader Lichtstrich auf das aufzunehmende Objekt aufprojiziert und das projizierte Bild wird unter einem in Beobachtungsrichtung liegenden Parallaxe-Winkel y mit einer Kamera aufgenommen, so dass eine Aufnahme P vorliegt.
  • Abhängig von der Oberflächenstruktur des Objekts erscheint der Lichtstrich nicht mehr gerade, sondern gegenüber dem geraden Verlauf gekrümmt und verschoben. Aus der Lage und aus dem Verlauf des Lichtstrichs kann auf die Oberflächenstruktur des Aufnahmeobjekts geschlossen werden.
  • Durch ein Verschieben des Lichtstrichs in einer Richtung senkrecht zur Erstreckungsrichtung des Lichtstrichs kann das gesamte Aufnahmeobjekt abgetastet werden, sodass Aufnahmen P1 bis PN entstehen. Die aus jeder der Aufnahmen gewonnenen Höheninformationen des Aufnahmeobjekts können in einem zweidimensionalen Raster im Speicher eines Rechners abgespeichert werden, was einer Projektion der Höheninformationen der Oberfläche des Aufnahmeobjekts auf eine Grundfläche als Referenzebene entspricht. Nach dem Messvorgang liegt ein digitales 3-dimensionales Datenmodell des Aufnahmeobjekts vor, welches z. B. auf einem Monitor als Videostandbild dargestellt werden kann.
  • Aus der Schrift WO 2004/085956 A2 ist ein Verfahren zur Erstellung eines 3-dimensionalen Bildes eines Aufnahmeobjekts bekannt, welches die zuletzt beschriebene Messmethode dahingehend verbessert, dass während einer Aufnahme Pi die Oberflächenstruktur des Aufnahmeobjekts praktisch gleichzeitig vermessen wird.
  • Der Lichtstrich kann z. B. durch schnelles Bewegen des Lichtstrahls eines Lasers während der Dauer einer Aufnahme erzeugt werden, d. h. der Lichtstrich ist eigentlich aus Lichtpunkten aufgebaut. Während einer Aufnahme Pi wird also ein punktförmiger Lichtstrahl eines Lasers entlang eines 2-dimensionalen Lichtstreifenmusters, bei dem zumindest ein Teil der Lichtstreifen im wesentlichen parallel zueinander, also in einer Richtung R1, verlaufen, über das Aufnahmeob jekt geführt. Zwischen den Lichtstreifen ist dabei ein Zwischenraum vorgesehen.
  • Während einer Aufnahme werden im wesentlichen die Höheninformation des Aufnahmeobjekts entlang mehrerer paralleler, beabstandeter Lichtstreifenstücke oder Striche erfasst.
  • Damit liegen nach einer Aufnahme bereits die Höheninformationen des Aufnahmeobjekts in einer ersten Gruppe von mehreren, beabstandeten Zeilen des 2-dimensionalen Rasters des zu erstellenden 3D-Datensatzes vor.
  • Der Tangentialvektor an die Lichtstreifenstücke steht dabei nicht senkrecht zur Triangulationsebene, welche durch die Projektionsrichtung und die Aufnahmerichtung definiert ist.
  • Während der nächsten Aufnahmen wird der Laserstrahl entlang des vorzugsweise selben Lichtstreifenmusters geführt, jedoch räumlich jeweils gegenüber den vorherigen Aufnahmen etwas in einer Richtung senkrecht zu den parallelen Lichtstreifen in den Zwischenraum der ersten Aufnahme parallelverschoben, so dass jeweils ein anderer, benachbarter Teil des Aufnahmeobjektes erfasst wird. Damit liegen nach jeder Aufnahme die Höheninformationen des Aufnahmeobjekts in einer anderen Gruppe von zueinander beabstandeten Zeilen des 2-dimensionalen Rasters vor.
  • Durch mehrere, entsprechend aufeinander abgestimmte Aufnahmen mit jeweils etwas senkrecht zur Lichtstreifenrichtung versetztem Lichtstreifenmuster kann das gesamte Aufnahmeobjekt durch den Laser abgetastet werden, bis nach mehreren Aufnahmen die vollständige Oberflächenstruktur des Aufnahmeobjekts erfasst ist. Um die gewünschte Genauigkeit der Oberflächenvermessung zu gewährleisten, müssen genügend entsprechend dicht beieinander liegende Scheiben erfasst werden. Durch Zusammenfügen der Aufnahmen liegen für jede Zeile des 2-dimensionalen Rasters die Höheninformationen des Aufnahmeobjekts vor.
  • Bei den beiden beschriebenen Verfahren der während jeweils einer Aufnahme quasi-statischen Streifenprojektion mit einem Strich pro Aufnahme oder mit mehreren beabstandeten Strichen pro Aufnahme, wie aus der WO 2004/085956 A2 bekannt, werden die mittels der einzelnen Aufnahmen gewonnenen unabhängigen Höheninformationen zu einem Gesamtfeld zusammengeführt, welches die Gesamtheit der gewonnenen 3D-Daten des Aufnahmeobjekts beschreibt bzw. beinhaltet.
  • Kommt es zwischen den einzelnen Aufnahmen zu einer Veränderung der Orientierung zwischen Kamera und Objekt, etwa durch ein Verwackeln, so sind die Koordinatensysteme der Aufnahmen nicht mehr gleich. Da die Änderung der Orientierung zwischen Kamera und Objekt aber unbekannt ist, können die 2-dimensionalen Raster der Aufnahmen Pi nicht korrekt in ein gemeinsames 2-dimensionales Raster des Gesamtfeldes, welches z. B. gleich dem Koordinatensystem der ersten Aufnahme gewählt wird, zusammengefügt werden.
  • Für diese Vermessung bedeutet ein Verwackeln, dass die in den Einzelaufnahmen vermessenen Scheiben des Aufnahmeobjektes von einer Aufnahme zur nächsten Aufnahme nicht mehr parallel zueinander sind.
  • Fügt man die in den Zeilen der 2-dimensionalen Raster der in den verwackelten Einzelaufnahmen enthaltenen Höheninformationen in ein gemeinsames 2-dimensionales Raster zusammen, so ergibt sich eine fehlerhafte Oberflächenstruktur des Aufnahmeobjekts.
  • Um die Aufnahmen dennoch korrekt in ein gemeinsames 2-dimensionales Raster zusammenfügen zu können und ein korrektes 3D-Bild des Aufnahmeobjekts zu erhalten, ist es not wendig die Koordinatentransformationen zu bestimmen, welche die Koordinatensysteme der Einzelaufnahmen auf ein gemeinsames Koordinatensystem abbilden. Dazu müssen die Ausrichtungen und/oder Positionen der 2-dimensionalen Raster der Einzelaufnahmen relativ zueinander bekannt sein.
  • Eine von J. Gühring, „3D-Erfassung und Objektrekonstruktion mittels Streifenprojektion", Dissertation, Universität Stuttgart, 2002, beschriebene Möglichkeit zur Verwacklungskompensation besteht darin, die Oberfläche des durch die zusammengesetzte Aufnahme P beschriebenen Objekts zu minimieren. Ein solches oder ähnliche Minimierungsverfahren eignen sich für homogene Flächen wie z. B. eine Ebene oder eine Kugeloberfläche gut, für Aufnahmeobjekte mit ausgeprägter Topographie, wie z. B. für Zähne, eignen sich diese Methoden aber nur bedingt.
  • Die sich ergebende Aufgabe besteht also darin, ein Verfahren zur Bestimmung eines dreidimensionalen Bildes eines Aufnahmeobjekts, insbesondere für zahnmedizinische Zwecke, zur Verfügung zu stellen, welches auch bei Verwacklung ein hinreichend korrektes 3D-Modell des Aufnahmeobjekts liefert.
  • Darstellung der Erfindung
  • Diese Aufgabe wird durch die im Folgenden angegebenen Merkmale der Erfindung gelöst.
  • Gemäß der Erfindung wird ein Verfahren zur optischen Vermessung der dreidimensionalen Geometrie eines Objekts mittels eines Triangulationsverfahrens zur Verfügung gestellt, wobei auf das aufzunehmende Objekt ein Muster projiziert wird, um einen 3D-Datensatz zu gewinnen. Das projizierte Muster wird in einer Aufnahme aufgenommen. In einem ersten Schritt zur Erstellung mindestens einer ersten Aufnahme wird ein erstes Muster und in einem zweiten Schritt zur Erstellung mindestens einer weiteren Aufnahme ein gegenüber dem ersten Muster in seiner Lage oder Ausbildung abweichendes weiteres Muster auf das aufzunehmende Objekt projiziert und die jeweiligen Aufnahmen werden erstellt. In einem nachfolgenden Schritt werden aus der ersten Aufnahme und aus der weiteren Aufnahme gewonnene 3D-Daten zu einem 3D-Datensatz zusammengeführt. Die erste Aufnahme des auf das Objekt projizierten und aufgenommenen ersten Musters und die weitere Aufnahme des auf das Objekt projizierten und aufgenommenen weiteren Musters werden derart zueinander ausgerichtet, dass die beiden Muster sich teilweise überschneiden und zumindest einen gemeinsamen Punkt aufweisen, der am aufzunehmenden Objekt von beiden Mustern aufgenommen wird. Die 3D-Daten aus den Aufnahmen werden anhand der 3D-Daten des zumindest einen gemeinsamen Punktes in den Aufnahmen in einem 3D-Datensatz so zusammengeführt, dass die 3D-Daten aus den Aufnahmen zumindest bezüglich der 3D-Daten des einen gemeinsamen Punktes in dem 3D-Datensatz übereinstimmen.
  • Das bei der vorliegenden Erfindung verwendete Triangulationsverfahren beruht auf dem folgenden Grundprinzip.
  • Ein bestimmter Messpunkt eines Messobjekt wird aus einer Richtung von einem Projektionsstrahl beleuchtet und als Beobachtungsstrahl aus einer anderen Richtung durch einen Sensor aufgenommenen.
  • Dabei erhält man die beiden Winkel zwischen einer Basislänge, die die Lichtquelle mit dem Sensor verbindet, und dem Projektionsstrahl sowie dem Beobachtungsstrahl. Unter Kenntnis der Basislänge kann man dann die Koordinaten des Messpunktes relativ zum Koordinatensystem der Aufnahmevor richtung bestimmen, die die Lichtquelle und den Sensor umfasst.
  • Die vorliegende Erfindung verwendet vorteilhafterweise ein Streifenprojektionsverfahren, wobei ein Muster aus parallelen Streifen auf das Messobjekt projiziert wird und dadurch mehrere Messpunkte gleichzeitig vermessen werden können.
  • Zur Bestimmung der Koordinate des Messpunktes muss eine Projektionskoordinate bekannt sein, die einem Messpunkt einem Bildkoordinate auf dem Sensor zuordnet. Die Messpunkte müssen also in den jeweiligen Streifen zugeordnet sein.
  • Diese Zuordnung kann durch Abzählen der Streifen erfolgen, indem die Folge von Helligkeitswerte auf den Sensor ausgewertet wird und die Nummer des jeweiligen Streifens somit bestimmt wird.
  • Diese Zuordnung kann auch durch ein Binär-Kode-Verfahren (z. B. Gray Code) erfolgen, indem jeder Streifen eine binäre Abfolge von Helligkeitswerten enthält, die die Nummer des Streifens repräsentiert. Beim Auswerten dieses binären Kode kann dann die jeweilige Nummer des Streifens bestimmt werden.
  • Eine höhere Genauigkeit bei der Zuordnung der Projektionskoordinate kann durch das sogenannte Phasenschiebeverfahren (Phase-Shift-Verfahren) erreicht werden, findet bei der vorliegenden Erfindung jedoch keine Anwendung, da beim Phasenschiebeverfahren die 3D-Daten des Messobjekts erst nach der Auswertung von mindestens vier phasenverschobenen Einzelaufnahmen erzeugt werden können.
  • Der Vorteil der Zuordnung durch das Abzählen und durch das Binär-Kode-Verfahren besteht also darin, dass die 3D-Daten des durch das Muster beleuchteten Messbereichs nach jeder einzelnen Aufnahme sofort erzeugt werden können.
  • Das Muster kann aus einem einzelnen Streifen oder aus mehreren parallelen Streifen aufgebaut sein.
  • Das zweite Muster weicht vom ersten Muster in seiner Lage oder Ausbildung ab. Das zweite Muster kann beispielsweise gegenüber dem ersten Muster um einen bestimmten Winkel verdreht sein oder in einer bestimmten Richtung verschoben sein oder eine andere Form aufweisen. Falls das erste und das zweite Muster aus parallelen Streifen gebildet ist und das zweite Muster gegenüber dem ersten Muster senkrecht zu den parallelen Streifen verschoben ist und zusätzlich um einen bestimmten Winkel verdreht ist, entstehen Kreuzungspunkte die sowohl vom ersten als auch vom zweiten Muster beleuchtet werden. Diese gemeinsamen Punkte in den beiden Aufnahmen werden als Korrelationspunkte verwendet, um die 3D-Daten der beiden Aufnahmen zu einem 3D-Datensatz zusammenzusetzen.
  • Die Verdrehung des zweiten Musters gegenüber dem ersten Muster kann durch manuelles Verdrehen der Aufnahmevorrichtung relativ zum Messobjekt zwischen der ersten oder zweiten Aufnahme erzeugt werden oder durch Verdrehen eines Gitters in der Aufnahmevorrichtung, das die Muster erzeugt.
  • Ein Vorteil des erfinderischen Verfahrens ist, dass im Vergleich zu den herkömmlichen Verfahren der Fehler durch das Verwackeln der freihändig gehaltenen Aufnahmevorrichtung während der Aufnahme korrigiert wird. Dies ist insbesondere für dentale intraorale Kameras vorteilhaft, die freihändig gehalten werden und 3D-Datensätze von Zahnoberflächen erzeugen. Beim Verwackeln weisen die erstellten 3D-Aufnahmen Bildfehler, in Form von beispielsweise Spitzen oder stufenförmigen Strukturen, auf und die 3D-Aufnahmen müssen wiederholt werden.
  • Durch das Überlagern der gemeinsamen Punkte wird die durch das Verwackeln verursachte Lageänderung des Musters bestimmt und korrigiert.
  • Ein weiterer Vorteil ist, dass das erfinderische Verfahren eine so genannte on-the-fly-Messung ermöglicht. Die Aufnahmevorrichtung kann also gleichmäßig relativ zum Messobjekt bewegt werden und die einzelnen Aufnahmen aus den verschiedenen Richtungen werden zu einem gesamten 3D-Datensatz zusammengesetzt. Es ist also nicht notwendig die Aufnahmevorrichtung während einer Aufnahme still zu halten. Es können mehrere Aufnahmen ohne Unterbrechung zeitlich nacheinander aufgenommen werden während die Aufnahmevorrichtung relativ zum Objekt bewegt wird.
  • Vorteilhafterweise können in weiteren Schritten mehr als zwei Aufnahmen durchgeführt werden und unter Verwendung der gemeinsamen Punkte dieser Aufnahmen die daraus erzeugten 3D-Daten zu einem 3D-Datensatz zusammengeführt werden.
  • Dadurch kann beispielsweise im ersten Schritt eine erste Aufnahme aufgenommen werden und nach dem Verdrehen des Musters weitere vier Aufnahmen durchgeführt werden, wobei die Streifenbreite 1/4 des Abstandes zwischen den Streifen beträgt und das Muster senkrecht zu den parallelen Streifen um die Streifenbreite verschoben wird, so dass die Oberfläche des Messobjekts lückenlos aufgenommen wird.
  • Vorteilhafterweise kann anhand der 3D-Daten des zumindest einen gemeinsamen Punktes eine Lagebeziehung der 3D-Daten aus der mindestens einen weiteren Aufnahme bezüglich der ersten Aufnahme bestimmt werden. Anhand der Lagebeziehung erfolgt eine Lagekorrektur der 3D-Daten aus der mindestens einen weiteren Aufnahme. Die korrigierten 3D-Daten mindestens einer weiteren Aufnahme und die 3D-Daten der ersten Aufnahme werden in einen 3D-Datensatz zusammengeführt.
  • Dadurch werden Bildfehler, die durch das Verwackeln der Aufnahmevorrichtung verursacht werden, korrigiert. Die gemeinsamen Punkte werden als Korrelationspunkte verwendet, um die Lagebeziehung der 3D-Daten aus den verschiedenen Aufnahmen zu bestimmen. Bei Kenntnis der Lagebeziehung wird eine Lagekorrektur der 3D-Daten, beispielsweise durch Koordinatentransformationen, durchgeführt, so dass die gemeinsamen Punkte übereinstimmen.
  • Vorteilhafterweise kann die Lage des mindestens einen gemeinsamen Punktes, der am aufzunehmenden Objekt von mindestens zwei Mustern aufgenommen wird, in den 3D-Daten der Aufnahme über einen Suchalgorithmus ermittelt werden.
  • Dadurch werden die gemeinsamen Punkte in den verschiedenen Aufnahmen automatisch ermittelt. Die Suchalgorithmen aus der Bildverarbeitung sind in der Lage anhand der charakteristischen Form der einzelnen Aufnahmen deren Lage auf der Oberfläche des Messobjekts zu bestimmen.
  • Vorteilhafterweise kann als Suchalgorithmus zur Ermittlung des mindestens einen gemeinsamen Punktes das ICP-Verfahren oder das Topology-Matching-Verfahren verwendet werden.
  • Das sogenannte ICP-Verfahren (Iterative Closest Point) wird zur Ausrichtung von 3D-Daten mit zumindest in Teilbereichen ähnlicher Form verwendet.
  • Das Verfahren aus der Bildverarbeitung ist das sogenannte Topology-Matching-Verfahren, das zum Vergleich der verschiedenen Topologien MRGs (Multiresolutional Reeb Graphs) verwendet. MRGs eignen sich besonders gut als Suchkriterium für ähnliche 3D-Datensätze. Die Berechnung der Ähnlichkeit erfolgt mit diesem Verfahren schnell und effizient, da nach diesem Verfahren die Lageänderung sowie die Rotation nicht berechnet werden muss.
  • Vorteilhafterweise kann das erste Muster entlang einer ersten Richtung und das weitere Muster entlang einer weiteren zweiten Richtung ausgerichtete parallele Lichtstreifen aufweisen, wobei sich die zweite Richtung der parallelen Lichtstreifen des weiteren Musters gegenüber der ersten Richtung der parallelen Lichtstreifen des ersten Musters um einen vorgegebenen Winkel α von mindestens 5° und höchstens 90° unterscheidet. Die gemeinsamen Punkte sind durch die Kreuzungspunkte der Lichtstreifen der Muster gebildet.
  • Dadurch wird gewährleistet, dass sich die beiden Muster kreuzen und an den Kreuzungspunkten die gemeinsamen Punkte gebildet werden. Bei einem Winkel größer als 5° wird das Auffinden der Kreuzungspunkte erleichtert, wobei bei einem optimalen Winkel von 90° die Kreuzungspunkte am besten ermittelt werden können.
  • Vorteilhafterweise können die Lichtstreifen des weiteren Musters mit Lichtstreifen in der zweiten Richtung einen größeren Lichtstreifenabstand aufweisen als die Lichtstreifen des ersten Musters mit Lichtstreifen in der ersten Richtung.
  • Dadurch können die Kreuzungspunkte einfacher ermittelt werden, denn der größere Lichtstreifenabstand verbessert die Analyse der Helligkeitswerte.
  • Vorteilhafterweise kann eine erste Gruppe mit mindestens einer Aufnahme vorgesehen sein, in der ein Muster mit im Wesentlichen entlang einer ersten Richtung ausgerichteten Lichtstreifen enthalten ist und dass mindestens eine zweite Gruppe mit mindestens einer Aufnahme mit einem Muster mit im Wesentlichen entlang einer anderen Richtung ausgerichteten Lichtstreifen enthalten ist, die sich um einen Winkel α > 5° von der ersten Richtung unterscheidet.
  • Dadurch lässt sich die Auflösung des 3D-Datensatzes verbessern. Beispielsweise kann in der ersten Richtung eine Aufnahme erfolgen und in der zweiten Richtung eine Gruppe von Aufnahmen erfolgen, wobei die Streifenmuster jeweils um die Streifenbreite verschoben werden und somit die Oberfläche des Messobjekts lückenlos vermessen wird. Jedes Streifenmuster aus der zweiten Gruppe in der zweiten Richtung weist Kreuzungspunkte mit den einzelnen Aufnahmen aus der ersten Gruppe auf. Folglich kann die Lagekorrektur für jede Aufnahme durchgeführt werden.
  • Vorteilhafterweise kann die mindestens zweite Gruppe der Aufnahmen mit Lichtstreifen in die zweite Richtung eine geringere Gruppengröße aufweisen als die erste Gruppe der Aufnahmen mit Lichtstreifen in die erste Richtung.
  • Vorteilhafterweise können die Abstände der Lichtstreifen für eine Gruppe von Aufnahmen mit gleich ausgerichteten Lichtstreifen in Richtung R1 oder R2 um ein ganzzahliges Vielfaches größer sein als die Lichtstreifenbreite.
  • Die Lichtstreifenbreite der einzelnen Lichtstreifen gibt die Auflösung der 3D-Daten vor. Für eine höhere Auflösung müssen somit mehr einzelne Aufnahmen erfolgen. Der Abstand zwischen den Lichtstreifen beträgt ein Vielfaches der Lichtstreifenbreite, da bei den einzelnen Aufnahmen mit gleicher Ausrichtung das Muster senkrecht zu den Lichtstreifen jeweils um eine Lichtstreifenbreite verschoben wird. Beispielsweise beträgt der Abstand zwischen den Lichtstreifen das Vierfache der Lichtstreifenbreite bei vier einzelnen Aufnahmen.
  • Vorteilhafterweise kann der Winkel α zwischen der ersten Richtung und der zweiten Richtung 90° betragen.
  • Der Winkel von 90° ist für das computergestützte Auffinden von Kreuzungspunkten am besten geeignet.
  • Vorteilhafterweise können die Richtungsvektoren der ersten und der zweiten Richtung R2 der Muster in einem Winkel größer als 30° und höchstens 90° zu einer durch das Triangulationsverfahren vorgegebenen Triangulationsebene liegen.
  • Die Triangulationsebene ist durch den Projektionsstrahl und den Beobachtungsstrahl definiert. Für eine fehlerlose Funktionsweise des Streifenprojektion Verfahrens muss der Winkel zwischen den Richtungsvektoren der Lichtstreifen zur Triangulationsebene größer als 0° sein und vorteilhafterweise mindestens einen Winkel von 30° aufweisen. Ein Winkel von 90° ist für die Aufnahme am besten geeignet.
  • Vorteilhafterweise können die erste und die zweite Richtung mit der Triangulationsebene einen Winkel β und einen Winkel γ von bis zu +/–60° einschließen.
  • Dadurch ist sowohl der Winkel α zwischen der ersten oder zweiten Richtung für eine genaue Ermittlung der Kreuzungspunkte als auch die Winkel β und γ zwischen der ersten oder zweiten Richtung zur Triangulationsebene für eine fehlerlose Funktionsweise des Streifenprojektionverfahrens ausreichend. Das erfinderische Verfahren ist besonders vorteilhaft, wenn der Winkel α 90°, der Winkel β 45° und der Winkel γ 45° beträgt.
  • Vorteilhafterweise kann die erste und die weitere Aufnahme denselben Messbereich des Objekts erfassen.
  • Dadurch wird gewährleistet, dass Anhaltspunkte zwischen beiden Mustern ermittelt werden können.
  • Vorteilhafterweise kann die erste und die weitere Aufnahme oder die erste und die weitere Gruppe von Aufnahmen in ei nem zeitlichen Abstand von mindestens 100 ms zueinander erfolgen.
  • Dadurch wird das Muster zwischen den Aufnahmen nur geringfügig verwackelt.
  • Vorteilhafterweise kann die Verdrehung des Musters um den Winkel α durch mechanisches Verdrehen eines Gitters innerhalb einer Aufnahmevorrichtung erfolgen.
  • Das Gitter kann entsprechend angesteuert sein um die Richtungen der Lichtstreifen in genau um den Winkel α zu verstellen. Dadurch ist es möglich zwischen den Aufnahmen die Richtung der Lichtstreifen um einen vorgegebenen Winkel α zu verstellen, der möglichst 90° betragen sollte.
  • Vorteilhafterweise kann die Verdrehung des Musters um den Winkel α durch das Drehen einer gesamten Aufnahmenvorrichtung erfolgen.
  • Die Aufnahmevorrichtung kann folglich manuell nach der ersten Gruppe von Aufnahmen um einen Winkel α gedreht werden, um eine weitere Aufnahme aufzunehmen, deren Lichtstreifen sich mit den Lichtstreifen der Aufnahmen aus der ersten Gruppe kreuzen. Die Aufnahmevorrichtung sollte möglichst um den Winkel α von 90° gedreht werden. Diese Ausführungsform hat gegenüber der Ausführungsform mit dem verstellbaren Gitter den Vorteil, dass die Winkel β und γ zwischen den Lichtstreifen und der Triangulationsebene gleich bleiben, da die gesamte Aufnahmevorrichtung gedreht wird, und vorteilhafterweise 90° betragen können.
  • Vorteilhafterweise kann das erste Muster sich teilweise mit dem weiteren Muster überschneiden und zumindest drei gemeinsame Punkte aufweisen, die am aufzunehmenden Objekt von beiden Mustern aufgenommen werden.
  • Mit einer höheren Anzahl an gemeinsamen Punkten wird die Lagekorrektur verbessert.
  • Ein weiterer Gegenstand der Erfindung ist ein alternatives Verfahren zur optischen Vermessung der dreidimensionalen Geometrie eines Objekts mittels eines Triangulationsverfahrens, wobei auf das aufzunehmende Objekt ein Muster projiziert wird, um einen 3D-Datensatz zu gewinnen und wobei das projizierte Muster in einer Aufnahme aufgenommen wird. In einem ersten Schritt zur Erstellung mindestens einer ersten Aufnahme wird ein erstes Muster und in einem zweiten Schritt zur Erstellung mindestens einer weiteren Aufnahme wird ein gegenüber dem ersten Muster in seiner Lage oder Ausbildung abweichendes weiteres Muster auf das aufzunehmende Objekt projiziert und die Aufnahme erstellt, wobei in einem nachfolgenden Schritt aus der ersten Aufnahme und aus der weiteren Aufnahme erzeugte 3D-Daten zu einem 3D-Datensatz zusammengeführt werden. Darüber hinaus wird mindestens eine Korrelationsaufnahme mit einem auf das aufzunehmende Objekt projizierten Korrelationsmuster aufgenommen, wobei die Korrelationsaufnahme und die erste Aufnahme des auf das Objekt projizierten und aufgenommenen ersten Musters und die weitere Aufnahme des auf das Objekt projizierten und aufgenommenen weiteren Musters derart zueinander ausgerichtet sind, dass die erste und zweite Aufnahme mit der Korrelationsaufnahme jeweils zumindest einen gemeinsamen Punkt aufweisen, der am aufzunehmenden Objekt von beiden Mustern aufgenommen wird. Die 3D-Daten aus den Aufnahmen anhand der 3D-Daten des zumindest einen gemeinsamen Punktes in den Aufnahmen und in der Korrelationsaufnahme zu dem 3D-Datensatz so zusammengeführt werden, dass die 3D-Daten aus den Aufnahmen an dem gemeinsamen Punkt in dem 3D- Datensatz mit den 3D-Daten aus der Korrelationsaufnahme übereinstimmen.
  • Im Vergleich zu der ersten Ausführungsform wird zusätzlich zu den beiden Aufnahmen eine Korrelationsaufnahme durchgeführt und anhand der Kreuzungspunkte des Musters aus der Korrelationsaufnahme mit Mustern der ersten und zweiten Aufnahme eine Lagekorrektur durchgeführt.
  • Ein Vorteil des Verfahrens ist, dass eine Reihe von Aufnahmen mit gleicher Richtung der Lichtstreifen jeweils versetzt um eine Lichtstreifenbreite durchgeführt werden kann, um die Oberfläche des Messobjekts lückenlos zu erfassen, und anschließend eine Korrelationsaufnahme mit einer anderen Richtung der Lichtstreifen durchgeführt werden kann, so dass die Lichtstreifen der Korrelationsaufnahme sich mit den Lichtstreifen der ersten und der zweiten Aufnahme kreuzen. Anhand der gemeinsamen Punkte kann dann die Lagekorrektur durchgeführt werden.
  • Vorteilhafterweise können mehr als zwei Aufnahmen durchgeführt werden und unter Verwendung der gemeinsamen Punkte mit der Korrelationsaufnahme die daraus erzeugten 3D-Daten zu einem 3D-Datensatz zusammengeführt werden.
  • Dadurch können beispielsweise im ersten Schritt vier Aufnahmen aufgenommen werden und nach dem Verdrehen des Musters eine Korrelationsaufnahme durchgeführt werden. Der Abstand zwischen den Streifen würde dann das Vierfache der Streifenbreite betragen, um die Oberfläche des Messobjekts lückenlos zu vermessen.
  • Vorteilhafterweise kann anhand der 3D-Daten des zumindest einen gemeinsamen Punktes in der Aufnahme und der 3D-Daten des gemeinsamen Punktes in der Korrelationsaufnahme eine Lagebeziehung der 3D-Daten aus der Aufnahme bezüglich der 3D-Daten aus der Korrelationsaufnahme bestimmt werden. Anhand der Lagebeziehung erfolgt eine Lagekorrektur der 3D-Daten aus der Aufnahme. Die korrigierten 3D-Daten aus den mindestens zwei Aufnahmen werden zur Bereitstellung eines 3D-Datensatzes zusammengeführt.
  • Dadurch werden Bildfehler, die durch das Verwackeln der Aufnahmevorrichtung verursacht werden, korrigiert. Die gemeinsamen Punkte zwischen den Aufnahmen und der Korrelationsaufnahme werden als Korrelationspunkte verwendet, um die Lagebeziehung der 3D-Daten aus den verschiedenen Aufnahmen zu bestimmen. Bei Kenntnis der Lagebeziehung wird eine Lagekorrektur der 3D-Daten, beispielsweise durch Koordinatentransformationen, durchgeführt, so dass die gemeinsamen Punkte übereinstimmen.
  • Vorteilhafterweise kann die tatsächliche Lage des mindestens einen gemeinsamen Punktes in den 3D-Daten der Aufnahme einerseits und in den 3D-Daten der Korrelationsaufnahme andererseits über einen Suchalgorithmus ermittelt wird.
  • Dadurch werden die gemeinsamen Punkte in den verschiedenen Aufnahmen automatisch ermittelt.
  • Vorteilhafterweise kann das erste Muster und das weitere Muster überschneidungsfrei sein.
  • Dadurch wird gewährleistet, dass die weiteren Muster aus der ersten Gruppe der Aufnahmen parallel zum Muster der ersten Aufnahme jeweils um eine Streifenbreite verschoben werden und somit die Oberfläche des Messobjekts lückenlos erfassen.
  • Vorteilhafterweise kann das erste und das weitere Muster parallele Lichtstreifen mit einer Ausrichtung in einer ersten Richtung aufweisen.
  • Dadurch stimmen die Ausrichtungen der Lichtstreifen des ersten Musters und des zweiten Musters überein.
  • Vorteilhafterweise können die parallelen Lichtstreifen des weiteren Musters gegenüber den parallelen Lichtstreifen des ersten Musters versetzt sein.
  • Dadurch kann die Oberfläche des Messobjekts mit möglichst wenigen Aufnahmen lückenlos erfasst werden. Vorteilhafterweise wird das Muster um eine Streifenbreite verschoben.
  • Vorteilhafterweise können die Lichtstreifen des weiteren Musters und die Lichtstreifen des ersten Musters um einen vielfachen Betrag der Streifenbreite zueinander beabstandet sein.
  • Die Lichtstreifenbreite der einzelnen Lichtstreifen gibt die Auflösung der 3D-Daten vor. Für eine höhere Auflösung müssen somit mehr einzelne Aufnahmen erfolgen.
  • Vorteilhafterweise kann das Korrelationsmuster entlang einer zweiten Richtung ausgerichtete Lichtstreifen aufweisen, welche sich um einen vorgegeben Winkel α von mindestens 5° und höchstens 90° von der ersten Richtung, entlang welcher die Muster der ersten und der weiteren Aufnahmen ausgerichtet sind, unterscheiden. Die gemeinsamen Punkte sind durch die Kreuzungspunkte der Lichtstreifen des Musters einer Aufnahme mit den Lichtstreifen des Korrelationsmusters der Korrelationsaufnahme gebildet.
  • Dadurch wird gewährleistet, dass sich die beiden Muster kreuzen und an den Kreuzungspunkten die gemeinsamen Punkte gebildet werden.
  • Vorteilhafterweise kann die Korrelationsaufnahme mit Lichtstreifen in zweiter Richtung einen größeren Lichtstreifenabstand aufweisen als die erste und weitere Aufnahmen mit Lichtstreifen mit erster Richtung.
  • Durch den größeren Abstand zwischen den Streifen können die Kreuzungspunkte beim Auswerten der Helligkeitsunterschiede besser erkannt werden.
  • Vorteilhafterweise kann der Winkel α zwischen der ersten Richtung und der zweiten Richtung 90° betragen.
  • Bei einem Winkel α von 90° können die Kreuzungspunkte am besten ermittelt werden.
  • Vorteilhafterweise können die Richtungsvektoren zur ersten Richtung der Muster zu den Aufnahmen und zweiten Richtung des Musters zur Korrelationsaufnahme in einem Winkel größer als 30° und höchstens 90° zu einer durch das Triangulationsverfahren vorgegebenen Triangulationsebene liegen.
  • Die Triangulationsebene wird durch einen Projektionsstrahl, der auf einen Messpunkt projiziert wird, und einen Beobachtungsstrahl, der vom Messpunktes zu einem Sensor führt, gebildet. Das Streifenprojektionsverfahren erfordert mindestens einen Winkel von 30° zwischen der Richtung der Streifen und der Triangulationsebene, wobei der Winkel von 90° vorteilhaft ist.
  • Vorteilhafterweise kann die erste Richtung der Aufnahmen mit der Triangulationsebene einen Winkel β einschließen und die zweite Richtung der Korrelationsaufnahme mit der Triangulationsebene einen Winkel γ von bis zu +/–60° einschließen.
  • Dadurch ist sowohl der Winkel α zwischen der ersten oder zweiten Richtung für eine genaue Ermittlung der Kreuzungspunkte als auch die Winkel β und γ zwischen der ersten oder zweiten Richtung zur Triangulationsebene für eine fehlerlose Funktionsweise des Streifenprojektionverfahrens ausreichend. Das erfinderische Verfahren ist bei einem Winkel α 90°, bei einem Winkel β von 45° und bei einem Winkel γ von 45° besonders vorteilhaft.
  • Vorteilhafterweise kann das Muster der mindestens einen Aufnahme sich teilweise mit dem Korrelationsmuster der Korrelationsaufnahme überschneiden und zumindest drei gemeinsame Punkte aufweisen, die am aufzunehmenden Objekt von dem Muster und von dem Korrelationsmuster aufgenommen werden.
  • Bei einer höheren Anzahl an gemeinsamen Punkten wird die Lagekorrektur verbessert.
  • Das zugrunde liegende Prinzip besteht darin, sich geeignete, teilweise redundante Daten zu verschaffen, mit deren Hilfe es möglich ist, die relativen Lagen der 2-dimensionalen Raster der Einzelaufnahmen zu rekonstruieren. Kennt man diese relativen Lagen, so kann man die Höheninformationen der Einzelaufnahmen geeignet zu einer Gesamtaufnahme zusammenführen.
  • Die redundanten Daten sollten derart beschaffen sein, dass zur Minimierung von Speicherbedarf und Datenbeschaffungszeit mit möglichst wenigen Daten ein möglichst hoher Verknüpfungsgrad zwischen allen Einzelaufnahmen erreicht wird.
  • Der Erfindung liegt die Idee zugrunde, dass während mindestens einer Aufnahme der einzelnen Aufnahmen das Messobjekts mit einer oder mehreren Lichtstreifen abgetastet wird, welche im Wesentlichen entlang einer zweiten Richtung ausgerichtet sind, welche sich um einen Winkel α ungleich Null von der ersten Richtung, entlang welcher die Lichtstreifen der anderen einzelnen Aufnahmen im Wesentlichen ausgerichtet sind, unterscheidet.
  • Diese mindestens eine Aufnahme kann eine der Aufnahmen mit einer anderen Richtung des Musters oder eine Korrelations aufnahme sein. Im ersten Fall werden die 3-D-Daten aus allen Auf nahmen zu einem 3D-datensatzes zusammengesetzt. Im zweiten Fall wird die Korrelationsaufnahme nur dazu verwendet die Kreuzungspunkte zu ermitteln und die Lagekorrektur durchzuführen.
  • Da mit der mindestens einen Aufnahme dasselbe Messgebiet wie in den übrigen Aufnahmen vermessen wird, sind in der mindestens einen Aufnahme 3D-Daten des Messobjekts an Punkten enthalten, welche auch in den anderen Aufnahmen vorhanden sind. Bestimmte Oberflächenpunkte des Aufnahmeobjekts, nämlich die Punkte, bei denen sich die Lichtstreifen des zweidimensionalen Musters der mindestens einen Aufnahme mit den Lichtstreifen der zweidimensionalen Muster der anderen Aufnahmen schneiden, werden mindestens zweimal vermessen. Diese Schnittpunkte werden als gemeinsame Punkte bezeichnet.
  • Anhand dieser gemeinsamen Punkte ist es nun möglich, die relativen Lagen der zweidimensionalen Muster aller Aufnahmen in Beziehung zueinander zu setzen, da der Winkel α zwischen der mindestens einen Aufnahme und den übrigen Aufnahmen bis auf den Anteil aus dem Verwackeln bekannt ist. Nach geeigneter Ausrichtung und Anpassung der zweidimensionalen Muster derart, dass eine bestmögliche Übereinstimmung der Höheninformationen in den übereinstimmenden Punkten eines Aufnahmenpaars aus der Korrelationsaufnahme und aus einer der anderen Aufnahmen erreicht wird, lassen sich die 3D-Daten der einzelnen Aufnahmen zu einem gesamten 3D-Datensatz zusammenführen.
  • Kurzbeschreibung der Zeichnung
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt. Es zeigt die
  • 1 eine Skizze des erfinderischen Verfahrens, umfassend eine dentale intraorale Kamera als eine Aufnahmevorrichtung zu Vermessung von Zähnen,
  • 2 einen Ausschnitt der Oberfläche eines Messobjekts mit fünf Aufnahmen unterschiedlicher Ausrichtung,
  • 3 eine schematische Darstellung von Mustern zweier Aufnahmen mit einem Winkel α von 40° zwischen einer ersten Richtung und einer zweiten Richtung,
  • 4 eine schematische Darstellung von Mustern zweier Aufnahmen mit einem Winkel α von 90° zwischen einer ersten Richtung und einer zweiten Richtung,
  • 5 eine schematische Darstellung eines ersten Musters und eines zweiten Musters einer zweiten Aufnahme beim Winkel α von 45°, wobei der Abstand zwischen den Lichtstreifen beim zweiten Muster größer ist als beim ersten Muster,
  • 6 eine schematische Darstellung des Zusammenführens von vier einzelnen Aufnahmen zu einer gesamten Aufnahme mit einer Korrelationsaufnahme bei einem Winkel α von 90° und den Winkeln β und γ zur Triangulationsebene von 45°.
  • Ausführungsbeispiele der Erfindung
  • Die 1 zeigt eine intraorale Dentalkamera als eine Aufnahmevorrichtung 1, die eine Lichtquelle 2, einem Sensor 3, ein Gitter 4 und einen schwenkbaren Spiegel 5 aufweist. Die Lichtquelle 1 sendet einen Projektionsstrahl 6 aus, der das Gitter 4 durchleuchtet und vom schwenkbaren Spiegel 5 auf ein aufzunehmendes Objekt 7, nämlich die Oberfläche eines Zahns, umgelenkt wird. Das Gitter weist zur Triangulationsebene 8 senkrecht angeordnete Schlitze 4.1 auf, so dass auf das aufzunehmende Objekt 7 ein strukturiertes Muster 9 projiziert wird, das aus parallelen Lichtstreifen 10 aufgebaut ist. Das strukturierte Muster 9 ist nur schematisch dargestellt und entspricht nicht der tatsächlichen Projektion der Lichtstreifen 10 auf dem aufzunehmendes Objekt 7. Der Projektionsstrahl 6 wird von der Oberfläche des aufzunehmenden Objekts 7 reflektiert und als ein Beobachtungsstrahl 11 zurückgestrahlt. Der Beobachtungsstrahl 11 wird zum Sensor 3 umgeleitet und von diesem detektiert. Die Triangulationsebene 8 wird vom Projektionsstrahl 6 und dem Beobachtungsstrahl 11 aufgespannt. Der Projektionsstrahl 6 weist zum Beobachtungsstrahl 11 einen so genannten Triangulationswinkel 12 auf. Die ausgelieferten Bilddaten werden vom Sensor 3 an einen Computer als Auswerteeinheit 13 weitergeleitet, der einen Monitor als Anzeigeeinheit 14 und eine Tastatur und eine Computermaus als Bedienungseinheiten 15 aufweist.
  • Der schwenkbare Spiegel 5 kann um eine Achse 16 geschwenkt werden und dadurch das Muster 9 in die Richtung 17 in der Triangulationsebene 8 stufenweise verschoben werden. Beim vorliegenden erfinderischen Verfahren werden mehrere Aufnahmen durchgeführt, wobei das Muster 9 jeweils um eine Streifenbreite entlang der Richtung 17 verschoben wird bis die Oberfläche des zu vermessenden Objekts 7 lückenlos erfasst ist. Aus jeder einzelnen Aufnahme werden 3D-Daten mittels der Auswerteeinheit 13 berechnet. Bei der Berechnung findet das Triangulationsverfahren Anwendung, wobei aus den beiden Winkeln zwischen einer Basislänge, die die Lichtquelle mit dem Sensor verbindet, und dem Projektionsstrahl sowie dem Beobachtungsstrahl und den Betrag der Basislänge die Koordinaten eines Messpunktes relativ zum Koordinatensystem der Aufnahmevorrichtung bestimmt werden.
  • Die 3D-Daten der einzelnen Aufnahmen werden anschließend zu einem gesamten 3D-Datensatz zusammengesetzt, der in der Anzeigevorrichtung 14 als eine 3D-Darstellung 18 angezeigt wird.
  • Bei herkömmlichen Triangulationsmessverfahren werden beim Verwackeln der Aufnahmevorrichtung 1 durch den Benutzer während der Aufnahme Bildfehler erzeugt, die als spitzförmige oder stufenförmige Strukturen in der 3D-Darstellung 18 erscheinen. Diese Fehler entstehen dadurch, dass die Lageänderung der Muster durch Verwackeln zwischen den Einzelaufnahmen beim Zusammensetzen des gesamten 3D-Datensatzes nicht berücksichtigt wird.
  • Das vorliegende erfinderischen Verfahren löst dieses Problem dadurch, dass eine Lagekorrektur für die einzelnen Aufnahmen durchgeführt wird. Dies erfolgt dadurch, dass das Gitter 4 um eine Gitterachse 19 in einer Richtung 20 verstellt werden kann. Beim Verstellen des Gitters 4 um die Gitterachse 19 wird auch das projizierte Muster 9 relativ zum aufzunehmenden Objekt 7 gedreht. Folglich werden zunächst mehrere Aufnahmen mit einer ersten Richtung R1 der Lichtstreifen 10 des Musters 9 durchgeführt, um die Oberfläche des Objekts 7 lückenlos zu erfassen und anschließend wird das Gitter 4 verstellt und eine weitere Aufnahme mit einer zweiten Richtung R2 der Lichtstreifen 10' des Musters 9' aufgenommen. Diese weitere Aufnahme weist Kreuzungspunkte zu den vorherigen Aufnahmen auf und wird zur Lagekorrektur verwendet.
  • Die 2 zeigt eine schematische Darstellung eines Ausschnittes 30 der Oberfläche eines aufzunehmenden Objekts 7 wobei die ersten vier Aufnahmen 31, 32, 33 und 34, die durch gestrichelte Linien zur Darstellung der tatsächlichen Richtung der parallelen Lichtstreifen 10 der einzelnen Mus ter 9 auf dem Objekt 7 repräsentiert werden, bei einer ersten Stellung des Gitters 4 mit der Richtung R1 aufgenommen werden und anschließend eine weitere Aufnahme 35, die durch eine gestrichelte Linie zur Darstellung der Ausrichtung der Streifenmuster repräsentiert wird, bei einer zweiten Stellung des Gitters 4 mit der Richtung R2 nach dem Verstellen um einen Winkel α von 90° aufgenommen wird.
  • Beim Verwackeln der Aufnahmevorrichtung 1 durch den Benutzer wird auch das projizierte Muster 9 verwackelt, so dass die Lichtstreifen der Aufnahmen 31, 32, 33 und 34 nicht parallel zueinander sind und sich teilweise überschneiden. Die Lichtstreifen der Aufnahme 35 kreuzen die Lichtstreifen der Aufnahmen 31, 32, 33 und 34, wobei an den Kreuzungspunkten 36 3D-Daten sowohl bei der Aufnahme 31 als auch bei der Aufnahme 35 erfasst werden. An den Kreuzungspunkten 37 werden 3D-Daten sowohl bei der Aufnahme 32 als auch bei der Aufnahme 35 erfasst. An den Kreuzungspunkten 38 werden 3D-Daten sowohl bei der Aufnahme 33 als auch bei der Aufnahme 35 erfasst. An den Kreuzungspunkten 39 werden 3D-Daten sowohl bei der Aufnahme 34 als auch bei der Aufnahme 35 erfasst. Diese Kreuzungspunkte sind folglich gemeinsame Punkte der einzelnen Aufnahmen 31, 32, 33 und 34 zu der letzten Aufnahme 35. Nach dem Auffinden der gemeinsamen Punkte 36, 37, 38 und 39 in den einzelnen Aufnahmen 31, 32, 33 und 34 wird die relative Lage der Aufnahmen zueinander bestimmt und eine Lagekorrektur durchgeführt, um die Bildfehler zu korrigieren, die durch das Verwackeln der Aufnahmevorrichtung 1 durch den Benutzer verursacht wurden.
  • Die 3 zeigt in schematischer Darstellung eine erste Aufnahme 40 mit einem ersten Muster 9 dessen Lichtstreifen 10 in einer ersten Richtung R1 ausgerichtet sind und eine zweite Aufnahme 41 mit einem zweiten Muster 9' dessen Lichtstreifen 10' in einer zweiten Richtung R2 ausgerichtet sind. Der Winkel α zwischen der ersten Richtung R1 und der zweiten Richtung R2 beträgt 40°. Das aufzunehmende Objekt 7, nämlich ein Zahn, ist in der Draufsicht zu sehen. Das aufzunehmende Objekt 7 ist so angeordnet, dass es sowohl innerhalb des Messbereichs 42 der ersten Aufnahme 40 als auch innerhalb des Messbereichs 43 der zweiten Aufnahme 41 liegt. Die Lichtstreifen 10 des ersten Musters 9 kreuzen sich mit den Lichtstreifen 10' des zweiten Musters 9' an den Kreuzungspunkten 44, die die gemeinsamen Punkte der Aufnahmen 40 und 41 sind. Anhand der gemeinsamen Punkte 44 kann folglich die relative Lage der zweiten Aufnahme 41 zur ersten Aufnahme 40 bestimmt werden und die 3D-Daten aus den Aufnahmen 40 und 41 unter Berücksichtigung der relativen Lage zu einem gemeinsamen 3D-Datensatz zusammengeführt werden. Der erste Abstand d1 zwischen den Lichtstreifen 10 bei der ersten Aufnahme 40 und der zweite Abstand d2 zwischen den Lichtstreifen 10' der zweiten Aufnahme 41 sind gleich.
  • Es ist notwendig, dass für jede der Aufnahmen 40 und 41 die Richtungen R1 und R2 der Lichtstreifen 10 und 10' nicht parallel zur Triangulationsebene 8 aus 1 liegen, da dies eine Vorraussetzung für die Funktionsweise des Streifenprojektionsverfahrens basierend auf dem Triangulationsverfahren ist. Im vorliegenden Fall beträgt der Winkel β zwischen der Triangulationsebene 8 und der Richtung R1 45° und der Winkel γ zwischen der Triangulationsebene 8 und der Richtung R2 45°.
  • Die 4 zeigt wie in 3 in einer schematischen Darstellung einer ersten Aufnahme 40 mit einem ersten Muster 9 dessen Lichtstreifen 10 in einer ersten Richtung R1 ausgerichtet sind und eine zweite Aufnahme 41 mit einem zweiten Muster 9' dessen Lichtstreifen 10' in einer zweiten Rich tung R2 ausgerichtet sind. Der Winkel α zwischen der ersten Richtung R1 und der zweiten Richtung R2 beträgt 90°.
  • Die Schnittpunkte 44 entsprechen den ähnlichen Punkten zwischen den beiden Aufnahmen 40 und 41.
  • Es ist notwendig, dass für jede der Aufnahmen 40 und 41 die Tangentialvektoren der abtastenden Lichtstreifen, also die Richtungen R1 und R2 der Lichtstreifen 10 und 10', nicht parallel zur Triangulationsebene 8 aus 1 liegen. Im vorliegenden Fall beträgt der Winkel β zwischen der Triangulationsebene 8 und der Richtung R1 45° und der Winkel γ zwischen der Triangulationsebene 8 und der Richtung R2 45°.
  • Es ist auch denkbar, dass bei einer ersten Gruppe G1 von Aufnahmen die Lichtstreifen im Wesentlichen entlang der ersten Richtung R1 und bei einer zweiten Gruppe G2 von Aufnahmen die Lichtstreifen im Wesentlichen entlang einer anderen Richtung R2 ausgerichtet sind.
  • Ganz allgemein kann jede Aufnahme, unabhängig davon, ob sie zur Gruppe der Aufnahmen mit Lichtstreifen in Richtung R1 oder zur Gruppe der Aufnahmen mit Lichtstreifen in Richtung R2 gehört, einen oder mehrere Lichtstreifen umfassen.
  • Der Abstand d1 und d2 der im Wesentlichen parallelen Lichtstreifen einer Aufnahme muss nicht für alle Aufnahmen gleich sein.
  • Vorteilhafterweise sind die Abstände der Lichtstreifen für eine Gruppe von Aufnahmen mit Lichtstreifen in Richtung R1 oder R2 gleich.
  • Besonders vorteilhaft ist es, dass die Gruppe der Aufnahmen mit Lichtstreifen in Richtung R2, welche zur Aufnahme redundanter Daten verwendet wird, einen größeren Lichtstreifenabstand aufweist und/oder eine geringere Gruppengröße besitzt als die Gruppe der Aufnahmen mit Lichtstreifen in Richtung R1, welche zur genauen Vermessung der Oberflächenstruktur des Aufnahmeobjekts vorgesehen ist.
  • Die dargestellte Ausführungsform mit einem Winkel α von 90° ist die bevorzugte Ausführungsform, da die gemeinsamen Punkte 44 mittels der computergestützten Analyse der Helligkeitsunterschiede am besten beim Winkel α von 90° erkannt werden können.
  • Die dargestellte Ausführungsform mit dem Winkel β von 45° und dem Winkel γ von 45° ist zugleich die bevorzugte Ausführungsform, da diese Winkel für eine Ausführbarkeit des Streifenprojektionsverfahrens ausreichend sind.
  • Die 5 zeigt wie in 3 und 4 zwei Aufnahmen 40 und 41, wobei der Winkel α zwischen der ersten Richtung R1 und der zweiten Richtung R2 45° beträgt. Der Abstand d2 der zweiten Aufnahme 41 zwischen den Lichtstreifen 10' ist größer als der erste Abstand d1 zwischen den Lichtstreifen 10 der ersten Aufnahme 40. Diese bevorzugte Ausführungsform hat den Vorteil, dass die zweite Aufnahme 41 mit der zweiten Richtung R2 eine geringere Anzahl an Lichtstreifen 10' als die Anzahl der Lichtstreifen 10 der ersten Aufnahme 40 aufweist. Es ist somit eine geringere Anzahl an Kreuzungspunkten 44 auszuwerten. Die zweite Aufnahme 41 oder eine zweite Gruppe G2 von Aufnahmen mit der Richtung R2 dient lediglich der Korrelation für die Lagekorrektur, wobei die erste Aufnahme 40 oder eine erste Gruppe G1 von Aufnahmen mit der Richtung R1 der genauen Vermessung der Oberflächenstruktur des Aufnahmeobjekts dient.
  • Darüber hinaus wird der Messbereich des aufzunehmenden Objekts 7 vom ersten Muster vollständig erfasst, wobei das zweite Muster 9' den Messbereich des aufzunehmenden Objekts 7 nur teilweise erfasst wird. Es ergeben sich folglich Kreuzungspunkte 44 lediglich im überlappenden Bereich der beiden Muster 9 und 9', der den Messbereich des aufzunehmenden Objekts 7 nur zum Teil erfasst. Anhand dieser Kreuzungspunkte kann jedoch trotz dessen die Lagebeziehung zwischen den Mustern 9 und 9' ermittelt werden. Es ist also nicht notwendig, dass die weitere Aufnahme 41 in Richtung R2 den Messbereich der ersten Aufnahme 40 vollständig erfasst.
  • Die 6 zeigt schematisch, wie aus vier einzelnen Aufnahmen eine gesamte Aufnahme zusammengesetzt wird. In der ersten Aufnahme 50 ist das Muster 9.1 an einer ersten Position und ist aus den Lichtstreifen 10.1 gebildet, die in der Richtung R1 ausgerichtet sind. In der zweiten Aufnahme 51 ist das Muster 9.2 an einer zweiten Position und ist aus den Lichtstreifen 10.2 gebildet, die in der Richtung R1 ausgerichtet sind und gegenüber den Lichtstreifen 10.1 um eine Lichtstreifenbreite t in der Richtung 17 aus 1 verschoben sind. In der dritten Aufnahme 52 ist das Muster 9.3 an einer dritten Position und ist aus den Lichtstreifen 10.3 gebildet, die in der Richtung R1 ausgerichtet sind und gegenüber den Lichtstreifen 10.2 um eine Lichtstreifenbreite t in der Richtung 17 aus 1 verschoben sind. In der vierten Aufnahme 53 ist das Muster 9.4 an einer vierten Position und ist aus den Lichtstreifen 10.4 gebildet, die in der Richtung R1 ausgerichtet sind und gegenüber den Lichtstreifen 10.3 um eine Lichtstreifenbreite t in der Richtung 17 aus 1 verschoben sind.
  • Als fünfte Aufnahme 54 wird eine Korrelationsaufnahme durchgeführt, deren Lichtstreifen 10.5 in der zweiten Richtung R2 ausgerichtet sind. Der Winkel α zwischen R1 und R2 beträgt 90°, wobei der Winkel β 45° und der Winkel γ 45° beträgt.
  • Der Abstand d1 zwischen den Lichtstreifen der Muster 9.1, 9.2, 9.3 und 9.4 beträgt das Vierfache der Lichtstreifenbreite t, so dass die Oberfläche des zu vermessenden Objekts 7 durch die ersten vier Aufnahmen 50, 51, 52 und 53 lückenlos erfasst wird. Die fünfte Aufnahme 54 dient lediglich als Korrelationsaufnahme zum Auffinden der gemeinsamen Kreuzungspunkte 44 zur Korrelation der ersten vier Aufnahmen.
  • Der zweite Abstand d2 zwischen den Lichtstreifen 10.5 der fünften Aufnahme 54 ist in der dargestellten Ausführungsform dem ersten Abstand d1 gleich, könnte aber auch größer gestaltet sein.
  • Jede einzelne Aufnahme 50, 51, 52 und 53 beinhaltet also lediglich 1/4 der 3D-Daten einer gesamten Aufnahme 55.
  • Durch ein Übereinanderlegen der aus den vier einzelnen Aufnahmen 50, 51, 52 und 53 gewonnenen 3D-Daten ergibt sich ein 3D-Datensatz der gesamten Aufnahme 55 des Messobjekts. Erst die Gesamtheit der vier Aufnahmen deckt im Rahmen der gegebenen Diskretisierung den ganzen Messbereich das zweidimensionalen Rasters 9 ab.
  • Das Zusammenfügen der einzelnen Aufnahmen 50, 51, 52 und 53 zur gesamten Aufnahme 55 ist nur dann sinnvoll möglich bzw. liefert nur dann die im Rahmen der gegebenen Diskretisierung korrekte Oberflächenstruktur des aufzunehmenden Objekts 7, wenn zwischen den einzelnen Aufnahmen 50, 51, 52 und 53 kein Verwackeln stattgefunden hat, d. h. wenn sich die Orientierung zwischen der Aufnahmevorrichtung 1 und dem Objekt 7 während der ganzen Messzeit nicht wesentlich verändert hat und damit die Koordinatensysteme der Aufnahmen 50, 51, 52 und 53 gleich sind. Nur dann lassen sich die 3D-Daten in den Lichtstreifen 10.1, 10.2, 10.3 und 10.4 des zweidimensionalen Rasters der einzelnen Aufnahmen 50, 51, 52 und 53 direkt in Beziehung zueinander setzen und in ein gemeinsames zweidimensionales Raster zur gesamten Aufnahme 55 zusammenfügen, welches die korrekten 3D-Daten des aufzunehmenden Objekts 7 enthält.
  • Kommt es zwischen den einzelnen Aufnahmen 50, 51, 52 und 53 zu einer Veränderung der Orientierung zwischen der Aufnahmevorrichtung 1 und dem Objekt 7, etwa durch ein Verwackeln durch den Benutzer, so sind die Koordinatensysteme der Aufnahmen 50, 51, 52 und 53 nicht mehr gleich. Da die Änderung der Orientierung zwischen der Aufnahmevorrichtung 1 und dem Objekt 7 also unbekannt ist, können die zweidimensionalen Raster der Aufnahmen 50, 51, 52 und 53 nicht korrekt zu einer gemeinsamen Aufnahme 55 des gesamten Messbereichs zusammengefügt werden.
  • Für diese Vermessung bedeutet ein Verwackeln, dass die in den einzelnen Aufnahmen 50, 51, 52 und 53 vermessenen Scheiben des aufzunehmenden Objekts 7 von einer Aufnahme zur nächsten Aufnahme nicht mehr parallel zueinander sind. Dies ist schematisch in 2 dargestellt. Beispielsweise werden während der zweiten Aufnahme 51 Bereiche des Objekts 7 entlang der Lichtstreifen 10.2 abgetastet, die relativ zu den Lichtstreifen 10.1 der ersten Aufnahme 50 gedreht und/oder verschoben sind. Folglich enthält jede Aufnahme 50, 51, 52 und 53 einen Teil der 3D-Daten eines etwas gedrehten und/oder verschobenen Objekts 7.
  • Fügt man die in den Lichtstreifen 10.1, 10.2, 10.3, 10.4 der zweidimensionalen Raster der einzelnen Aufnahmen 50, 51, 52 und 53 enthaltenen 3D-Daten in einer gemeinsamen Aufnahme 55 zusammen, so ergibt sich eine fehlerhafte Oberflächenstruktur des aufzunehmenden Objekts 7.
  • Diese Bilderfehler können durch eine Lagekorrektur verhindert werden. Dazu ist es notwendig die Koordinatentransfor mationen zu bestimmen, welche die Koordinatensysteme der einzelnen Aufnahmen 50, 51, 52 und 53 auf ein gemeinsames Koordinatensystem abbilden. Dazu müssen die Ausrichtungen und/oder Positionen der zweidimensionalen Raster 9.1, 9.2, 9.3, 9.4 der einzelnen Aufnahmen relativ zueinander bekannt sein. Dies erfolgt durch das Auffinden von Kreuzungspunkten 44, die als Korrelationspunkte dienen.
  • 1
    Aufnahmevorrichtung
    2
    Lichtquelle
    3
    Sensor
    4
    Gitter
    4.1
    Schlitze
    5
    schwenkbarer Spiegel
    6
    Projektionsstrahl
    7
    aufzunehmendes Objekt
    8
    Triangulationsebene
    9
    Muster
    9'
    Muster
    9.1
    Muster
    9.2
    Muster
    9.3
    Muster
    9.4
    Muster
    10
    parallele Lichtstreifen
    10'
    Lichstreifen
    10.2
    Lichtstreifen
    10.3
    Lichtstreifen
    10.4
    Lichtstreifen
    10.5
    Lichtstreifen
    11
    Beobachtungsstrahl
    12
    Triangulationswinkel
    13
    Auswerteeinheit
    14
    Anzeigeeinheit
    15
    Bedienungseinheiten
    17
    Richtung
    18
    3D-Darstellung
    19
    Gitterachse
    20
    Richtung
    30
    Ausschnitt
    31
    Aufnahme
    32
    Aufnahme
    33
    Aufnahme
    34
    Aufnahme
    35
    Aufnahme
    36
    Kreuzungspunkte
    37
    Kreuzungspunkte
    38
    Kreuzungspunkte
    39
    Kreuzungspunkte
    40
    erste Aufnahme
    41
    zweite Aufnahme
    42
    Messbereich
    43
    Messbereich
    44
    Kreuzungspunkte
    50
    erste Aufnahme
    51
    zweite Aufnahme
    52
    dritte Aufnahme
    53
    vierte Aufnahme
    54
    fünfte Aufnahme
    55
    gesamte Aufnahme/gesamter 3D-Datensatz
    R1
    Richtung
    R2
    Richtung
    d1
    erster Abstand
    d2
    zweiter Abstand
    G1
    erste Gruppe
    G2
    zweite Gruppe
    t
    Lichtstreifenbreite
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - EP 0160797 [0003]
    • - WO 2004/085956 A2 [0007, 0014]
  • Zitierte Nicht-Patentliteratur
    • - J. Gühring, „3D-Erfassung und Objektrekonstruktion mittels Streifenprojektion", Dissertation, Universität Stuttgart, 2002 [0019]

Claims (32)

  1. Verfahren zur optischen Vermessung der dreidimensionalen Geometrie eines Objekts mittels eines Triangulationsverfahrens, wobei auf das aufzunehmende Objekt (7) ein Muster (9, 9') projiziert wird, um einen 3D-Datensatz zu gewinnen und wobei das projizierte Muster (9, 9') in einer Aufnahme (40, 41) aufgenommen wird, wobei in einem ersten Schritt zur Erstellung mindestens einer ersten Aufnahme (40) ein erstes Muster (9) und in einem zweiten Schritt zur Erstellung mindestens einer weiteren Aufnahme (41) ein gegenüber dem ersten Muster in seiner Lage oder Ausbildung abweichendes weiteres Muster (9') auf das aufzunehmende Objekt (7) projiziert und die Aufnahme (41) erstellt wird, wobei in einem nachfolgenden Schritt aus der ersten Aufnahme (40) und aus der weiteren Aufnahme (41) gewonnene 3D-Daten zu einem 3D-Datensatz zusammengeführt werden, dadurch gekennzeichnet, dass die erste Aufnahme (40) des auf das Objekt (7) projizierten und aufgenommenen ersten Musters (9) und die weitere Aufnahme (41) des auf das Objekt (7) projizierten und aufgenommenen weitere Musters (9') derart zueinander ausgerichtet sind, dass die beiden Muster (9, 9') sich teilweise überschneiden und zumindest einen gemeinsamen Punkt (44) aufweisen, der am aufzunehmenden Objekt (7) von beiden Mustern (9, 9') aufgenommen wird, dass die 3D-Daten aus den Aufnahmen (40, 41) anhand der 3D-Daten des zumindest einen gemeinsamen Punktes (44) in den Aufnahmen (40, 41) in einem 3D-Datensatz so zusammengeführt werden, dass die 3D-Daten aus den Aufnahmen (40, 41) zumindest bezüglich der 3D-Daten des einen gemeinsamen Punktes (44) in dem 3D-Datensatz übereinstimmen.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in weiteren Schritten mehr als zwei Aufnahmen (40, 41) durchgeführt werden und unter Verwendung der gemeinsamen Punkte (44) dieser Aufnahmen (40, 41) die daraus erzeugten 3D-Daten zu einem 3D-Datensatz zusammengeführt werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass anhand der 3D-Daten des zumindest einen gemeinsamen Punktes (44) in der Aufnahme (40) eine Lagebeziehung der 3D-Daten aus der mindestens einen weiteren Aufnahme (41) bezüglich der ersten Aufnahme (40) bestimmt wird, dass anhand der Lagebeziehung eine Lagekorrektur der 3D-Daten aus der mindestens einen weiteren Aufnahme (41) erfolgt und dass die korrigierten 3D-Daten der mindestens einen weiteren Aufnahme (41) und die 3D-Daten der ersten Aufnahme (40) in einem 3D-Datensatz zusammengeführt werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Lage des mindestens einen gemeinsamen Punktes (44), der am aufzunehmenden Objekt (7) von mindestens zwei Mustern (9, 9') aufgenommen wird, in den 3D-Daten der Aufnahme (40, 41) über einen Suchalgorithmus ermittelt wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass als Suchalgorithmus zur Ermittlung des mindestens einen gemeinsamen Punktes (44) das ICP-Verfahren oder das Topology-Matching-Verfahren verwendet wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das erste Muster (9) entlang einer ersten Richtung R1 und das weitere Muster (9') entlang einer weiteren Richtung R2 ausgerichtete parallele Lichtstreifen aufweist, wobei sich die Richtung R2 der parallelen Lichtstreifen (10') des weiteren Musters (9') gegenüber der Richtung R1 der parallelen Lichtstreifen (10) des ersten Musters (9) um einen vorgegebenen Winkel (α) von mindestens 5° und höchstens 90° unterscheidet und dass die gemeinsamen Punkte (44) durch die Kreuzungspunkte der Lichtstreifen (10, 10') der Muster (9, 9') gebildet sind.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Lichtstreifen des weiteren Musters (9') mit Lichtstreifen in Richtung R2 einen größeren Lichtstreifenabstand (d2) aufweisen als die Lichtstreifen des ersten Musters (9) mit Lichtstreifen mit Richtung R1.
  8. Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass eine erste Gruppe (G1) mit mindestens einer Aufnahme (40) vorgesehen ist, in der ein Muster (9) mit im Wesentlichen entlang einer Richtung R1 ausgerichteten Lichtstreifen enthalten ist und dass mindestens eine zweite Gruppe (G2) mit mindestens einer Aufnahme (41) mit einem Muster (9') mit im Wesentlichen entlang einer anderen Richtung R2 ausgerichteten Lichtstreifen enthalten ist, die sich um einen Winkel (α) größer 5° von der Richtung R1 unterscheidet.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die mindestens zweite Gruppe (G2) der Aufnahmen (41) mit Lichtstreifen (10') in Richtung R2 eine geringere Gruppengröße aufweist als die erste Gruppe (G1) der Aufnahmen (40) mit Lichtstreifen (10) in Richtung R1.
  10. Verfahren nach einem der Ansprüche 6 bis 9, dadurch gekennzeichnet, dass die Abstände (d1, d2) der Lichtstreifen (10, 10') für eine Gruppe (G1, G2) von Aufnahmen mit gleich ausgerichteten Lichtstreifen (10, 10') in Richtung R1 oder R2 um ein ganzzahliges Vielfaches größer sind als die Lichtstreifenbreite (t).
  11. Verfahren nach einem der Ansprüche 6 bis 10, dadurch gekennzeichnet, dass der Winkel (α) zwischen der Richtung R1 und der Richtung R2 90° beträgt.
  12. Verfahren nach einem der Ansprüche 6 bis 11 als, dadurch gekennzeichnet, dass die Richtungsvektoren zur Richtung (R1, R2) der Muster (9, 9') in einem Winkel (β, γ) größer als 0° und höchstens 90° zu einer durch das Triangulationsverfahren vorgegebenen Triangulationsebene liegen.
  13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass die Richtungen R1 und R2 mit der Triangulationsebene einen Winkel (β) und einen Winkel (γ) von bis zu +/–60° einschließen.
  14. Verfahren nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass die erste und die weitere Aufnahme (40, 41) denselben Messbereich des Objekts (7) erfassen.
  15. Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass die erste und die weitere Aufnahme (40, 41) oder die erste und die weitere Gruppe (G1, G2) von Aufnahmen in einem zeitlichen Abstand von mindestens 100 ms zueinander erfolgen.
  16. Verfahren nach einem der Ansprüche 4 bis 15, dadurch gekennzeichnet, dass die Verdrehung des Musters (9, 9') um den Winkel α durch mechanisches Verdrehen eines Gitters innerhalb einer Aufnahmevorrichtung erfolgt.
  17. Verfahren nach einem der Ansprüche 4 bis 16, dadurch gekennzeichnet, dass die Verdrehung des Musters (9, 9') um den Winkel α durch das Drehen einer gesamten Aufnahmenvorrichtung erfolgt.
  18. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, dass das erste Muster (9) sich teilweise mit dem weiteren Muster (9') überschneidet und zumindest drei gemeinsame Punkte (44) aufweist, die am aufzunehmenden Objekt (7) von beiden Mustern (9, 9') aufgenommen werden.
  19. Verfahren zur optischen Vermessung der dreidimensionalen Geometrie eines Objekts mittels eines Triangulationsverfahrens, wobei auf das aufzunehmende Objekt (7) ein Muster (9.1, 9.2, 9.3, 9.4) projiziert wird, um einen 3D-Datensatz zu gewinnen und wobei das projizierte Muster (9.1, 9.2, 9.3, 9.4) in einer Aufnahme (50, 51, 52, 53) aufgenommen wird, wobei in einem ersten Schritt zur Erstellung mindestens einer ersten Aufnahme (50) ein erstes Muster (9.1) und in einem zweiten Schritt zur Erstellung mindestens einer weiteren Aufnahme (51, 52, 53) ein gegenüber dem ersten Muster (9.1) in seiner Lage oder Ausbildung abweichendes weiteres Muster (9.2, 9.3, 9.4) auf das aufzunehmende Objekt (7) projiziert und die weitere Aufnahme (51, 52, 53) erstellt wird, wobei in einem nachfolgenden Schritt aus der ersten Aufnahme (50) und aus der weiteren Aufnahme (51, 52, 53) erzeugte 3D-Daten zu einem 3D-Datensatz (18) zusammengeführt werden, dadurch gekennzeichnet, dass mindestens eine Korrelationsaufnahme (54) mit einem auf das aufzunehmende Objekt (7) projizierten Korrelationsmuster (9.5) aufgenommen wird, wobei die Korrelationsaufnahme (54) und die erste Aufnahme (50) des auf das Objekt (7) projizierten und aufgenommenen ersten Musters (9.1) und die weitere Aufnahme (51, 52, 53) des auf das Objekt (7) projizierten und aufgenommenen weiteren Musters (9.2, 9.3, 9.4) derart zueinander ausgerichtet sind, dass die erste und weitere Aufnahme mit der Korrelationsaufnahme (54) jeweils zumindest einen gemeinsamen Punkt (44) aufweisen, der am aufzunehmenden Objekt (7) von beiden Mustern (9.1, 9.2, 9.3, 9.4, 9.5) aufgenommen wird, und dass die 3D-Daten aus den Aufnahmen (50, 51, 52, 53) anhand der 3D-Daten des zumindest einen gemeinsamen Punktes (44) in den Aufnahmen (50, 51, 52, 53) und in der Korrelationsaufnahme (54) zu dem 3D-Datensatz (18) so zusammengeführt werden, dass die 3D-Daten aus den Aufnahmen (50, 51, 52, 53) an dem gemeinsamen Punkt (44) in dem 3D-Datensatz (18) mit den 3D-Daten aus der Korrelationsaufnahme (54) übereinstimmen.
  20. Verfahren nach Anspruch 19, dadurch gekennzeichnet, dass mehr als zwei Aufnahmen (50, 51, 52, 53) durchgeführt werden und unter Verwendung der gemeinsamen Punkte (44) mit der Korrelationsaufnahme (54) die daraus erzeugten 3D-Daten zu einem 3D-Datensatz zusammengeführt werden.
  21. Verfahren nach Anspruch 19 oder 20, dadurch gekennzeichnet, dass anhand der 3D-Daten des zumindest einen gemeinsamen Punktes (44) in der Aufnahme (50, 51, 52, 53) und der 3D-Daten des gemeinsamen Punktes (44) in der Korrelationsaufnahme (54) eine Lagebeziehung der 3D-Daten aus der Aufnahme (50, 51, 52, 53) bezüglich der 3D-Daten aus der Korrelationsaufnahme (54) bestimmt wird, dass anhand der Lagebeziehung eine Lagekorrektur der 3D-Daten aus der Aufnahme (50, 51, 52, 53) erfolgt und dass die korrigierten 3D-Daten aus den mindestens zwei Aufnahmen (50, 51, 52, 53) zur Bereitstellung eines 3D-Datensatzes zusammengeführt werden.
  22. Verfahren nach einem der Ansprüche 19 bis 21, dadurch gekennzeichnet, dass die tatsächliche Lage des mindestens einen gemeinsamen Punktes (44) in den 3D-Daten der Aufnahme (50, 51, 52, 53) einerseits und in den 3D-Daten der Korrelationsaufnahme (54) andererseits über einen Suchalgorithmus ermittelt wird.
  23. Verfahren nach einem der Ansprüche 19 bis 22, dadurch gekennzeichnet, dass das erste Muster (9.1) und das weitere Muster (9.2, 9.3, 9.4) überschneidungsfrei sind.
  24. Verfahren nach Anspruch 23, dadurch gekennzeichnet, dass das erste und das weitere Muster (9.1, 9.2, 9.3, 9.4) parallele Lichtstreifen mit einer Ausrichtung in einer Richtung R1 aufweist.
  25. Verfahren nach Anspruch 24, dadurch gekennzeichnet, dass die parallelen Lichtstreifen (10.2, 10.3, 10.4) des weiteren Musters (9.2, 9.3, 9.4) gegenüber den parallelen Lichtstreifen (10.1) des ersten Musters (9.1) versetzt sind.
  26. Verfahren nach Anspruch 25, dadurch gekennzeichnet, dass die Lichtstreifen (10.2, 10.3, 10.4) des weiteren Musters (9.2, 9.3, 9.4) und die Lichtstreifen (10.1) des ersten Musters (9.1) um den Betrag der erforderlichen Auflösung zueinander beabstandet sind.
  27. Verfahren nach einem der Ansprüche 19 bis 27, dadurch gekennzeichnet, dass das Korrelationsmuster (9.5) entlang einer Richtung R2 ausgerichtete Lichtstreifen (10.5) aufweist, welche sich um einen vorgegeben Winkel α von mindestens 5° und höchstens 90° von der Richtung R1, entlang welcher die Muster (9.1, 9.2, 9.3, 9.4) der ersten und der weiteren Aufnahmen (50, 51, 52, 53) ausgerichtet sind, unterscheidet und dass die gemeinsamen Punkte (44) durch die Kreuzungspunkte der Lichtstreifen (10.1, 10.2, 10.3, 10.4) des Musters (9.1, 9.2, 9.3, 9.4) einer Aufnahme (50, 51, 52, 53) mit den Lichtstreifen (10.5) des Korrelationsmusters (9.5) der Korrelationsaufnahme (54) gebildet sind.
  28. Verfahren nach Anspruch 27, dadurch gekennzeichnet, dass die Korrelationsaufnahme (54) mit Lichtstreifen in Richtung R2 einen größeren Lichtstreifenabstand (d2) aufweist als die erste und weiteren Aufnahmen (50, 51, 52, 53) mit Lichtstreifen (d1) mit Richtung R1.
  29. Verfahren nach Anspruch 27 oder 28, dadurch gekennzeichnet, dass der Winkel α zwischen der Richtung R1 und der Richtung R2 90° beträgt.
  30. Verfahren nach einem der Ansprüche 27 bis 29, dadurch gekennzeichnet, dass die Richtungsvektoren zur Richtung (R1, R2) der Muster (9.1, 9.2, 9.3, 9.4, 9.5) in einem Winkel (β, γ) größer als 0° und höchstens 90° zu einer durch das Triangulationsverfahren vorgegebenen Triangulationsebene (8) liegen.
  31. Verfahren nach Anspruch 30, dadurch gekennzeichnet, dass die Richtungen R1 und R2 mit der Triangulationsebene (8) einen Winkel (β) und einen Winkel (γ) von bis zu +/–60° einschließen.
  32. Verfahren nach einem der Ansprüche 19 bis 31, dadurch gekennzeichnet, dass das Muster (9.1, 9.2, 9.3, 9.4) der mindestens einen Aufnahme (50, 51, 52, 53) sich teilweise mit dem Korrelationsmuster (9.5) der Korrelationsaufnahme (54) überschneidet und zumindest drei ge meinsame Punkte (44) aufweist, die am aufzunehmenden Objekt (7) von dem Muster (9.1, 9.2, 9.3, 9.4) und von dem Korrelationsmuster (9.5) aufgenommen werden.
DE102007054906A 2007-11-15 2007-11-15 Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten Expired - Fee Related DE102007054906B4 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102007054906A DE102007054906B4 (de) 2007-11-15 2007-11-15 Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten
PCT/EP2008/065626 WO2009063087A2 (en) 2007-11-15 2008-11-14 Method for optical measurement of the three dimensional geometry of objects
EP08849761.5A EP2212645B1 (de) 2007-11-15 2008-11-14 Verfahren zur optischen messung der dreidimensionalen geometrie von objekten
JP2010533608A JP5346033B2 (ja) 2007-11-15 2008-11-14 物体の三次元形状を光学的に測定する方法
US12/770,426 US8280152B2 (en) 2007-11-15 2010-04-29 Method for optical measurement of the three dimensional geometry of objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007054906A DE102007054906B4 (de) 2007-11-15 2007-11-15 Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten

Publications (2)

Publication Number Publication Date
DE102007054906A1 true DE102007054906A1 (de) 2009-05-28
DE102007054906B4 DE102007054906B4 (de) 2011-07-28

Family

ID=40576795

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007054906A Expired - Fee Related DE102007054906B4 (de) 2007-11-15 2007-11-15 Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten

Country Status (5)

Country Link
US (1) US8280152B2 (de)
EP (1) EP2212645B1 (de)
JP (1) JP5346033B2 (de)
DE (1) DE102007054906B4 (de)
WO (1) WO2009063087A2 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012016635A2 (de) 2010-08-04 2012-02-09 Charité - Universitätsmedizin Berlin Verfahren zum erzeugen einer digitalen zahntopologie für eine zahnstruktur sowie messverfahren
US9687330B2 (en) 2013-06-24 2017-06-27 Qioptiq Photonics Gmbh & Co. Kg Dental measuring device for three dimensional measurement of teeth
US10952827B2 (en) 2014-08-15 2021-03-23 Align Technology, Inc. Calibration of an intraoral scanner
DE102020133627A1 (de) 2020-12-15 2022-06-15 Infinisense Technologies GmbH Verfahren und Intraoralscanner zum Erfassen der Topographie der Oberfläche eines transluzenten, insbesondere dentalen, Objektes

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007054906B4 (de) * 2007-11-15 2011-07-28 Sirona Dental Systems GmbH, 64625 Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten
JP5016520B2 (ja) * 2008-02-26 2012-09-05 パナソニック株式会社 3次元形状計測方法および装置
DE112009000516T5 (de) 2008-03-12 2011-02-10 Optimet Optical Metrology Ltd. Intraorales Abbildungssystem und Verfahren, das auf der konoskopischen Holographie beruht
US20110273443A1 (en) * 2008-08-22 2011-11-10 Nippon Telegraph And Telephone Corp. System and a method for three-dimensional modeling of a three-dimensional scene features
WO2010140059A2 (en) * 2009-06-01 2010-12-09 Gerd Hausler Method and device for three-dimensional surface detection with a dynamic reference frame
CA2763826C (en) 2009-06-17 2020-04-07 3Shape A/S Focus scanning apparatus
US20110123098A1 (en) * 2009-11-24 2011-05-26 Maurice Moshe Ernst System and a Method for Three-dimensional Modeling of a Three-dimensional Scene Features with a Cooling System
KR101043976B1 (ko) * 2009-12-15 2011-06-24 데오덴탈 주식회사 구강용 스캐너
CN102762142B (zh) * 2010-02-12 2016-01-27 皇家飞利浦电子股份有限公司 3d表面的激光增强重建
AU2010257224B2 (en) * 2010-12-15 2014-09-18 Canon Kabushiki Kaisha Block patterns as two-dimensional ruler
AT511223B1 (de) * 2011-03-18 2013-01-15 A Tron3D Gmbh Vorrichtung zum aufnehmen von bildern von dreidimensionalen objekten
DE102011101476B4 (de) * 2011-05-11 2023-05-25 Cognex Ireland Ltd. Verfahren zur 3D-Messung von Objekten
DE102011080180B4 (de) * 2011-08-01 2013-05-02 Sirona Dental Systems Gmbh Verfahren zur Registrierung mehrerer dreidimensionaler Aufnahmen eines dentalen Objektes
US9349182B2 (en) * 2011-11-10 2016-05-24 Carestream Health, Inc. 3D intraoral measurements using optical multiline method
DE102011121696A1 (de) * 2011-12-16 2013-06-20 Friedrich-Schiller-Universität Jena Verfahren zur 3D-Messung von tiefenlimitierten Objekten
DE112012005886B4 (de) * 2012-02-15 2023-05-11 Media Co., Ltd. Vorrichtung zur Zahnreihenaufnahme in Mundhöhlen
JP5995484B2 (ja) * 2012-03-30 2016-09-21 キヤノン株式会社 三次元形状測定装置、三次元形状測定方法、及びプログラム
DE102012220048B4 (de) * 2012-11-02 2018-09-20 Sirona Dental Systems Gmbh Kalibrierungsvorrichtung und Verfahren zur Kalibrierung einer dentalen Kamera
US9772173B2 (en) * 2013-06-27 2017-09-26 Faro Technologies, Inc. Method for measuring 3D coordinates of a surface with a portable articulated arm coordinate measuring machine having a camera
US9860520B2 (en) * 2013-07-23 2018-01-02 Sirona Dental Systems Gmbh Method, system, apparatus, and computer program for 3D acquisition and caries detection
JP6184289B2 (ja) * 2013-10-17 2017-08-23 株式会社キーエンス 三次元画像処理装置、三次元画像処理方法、三次元画像処理プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
WO2015109387A1 (en) * 2014-01-21 2015-07-30 Vorum Research Corporation Method and system for generating a three-dimensional scan of an object
EP2904988B1 (de) * 2014-02-05 2020-04-01 Sirona Dental Systems GmbH Verfahren zur intraoralen dreidimensionalen Vermessung
WO2015118120A1 (en) 2014-02-07 2015-08-13 3Shape A/S Detecting tooth shade
JP6535020B2 (ja) * 2014-03-02 2019-06-26 ブイ.ティー.エム.(バーチャル テープ メジャー)テクノロジーズ リミテッド 内視鏡画像内で可視の物体の3d距離および寸法を測定するシステム
JP6694873B2 (ja) 2014-08-28 2020-05-20 ケアストリーム ヘルス インク 歯の表面に従ってセンサ画素配列を照射画素配列にマッピングするための装置の作動方法、及び、歯の表面輪郭画像を提供する装置の作動方法
US10176625B2 (en) 2014-09-25 2019-01-08 Faro Technologies, Inc. Augmented reality camera for use with 3D metrology equipment in forming 3D images from 2D camera images
US11553844B2 (en) 2014-10-14 2023-01-17 East Carolina University Methods, systems and computer program products for calculating MetaKG signals for regions having multiple sets of optical characteristics
EP3188651A4 (de) 2014-10-14 2018-07-04 East Carolina University Verfahren, systeme und computerprogrammprodukte zur visualisierung anatomischer strukturen und des blutflusses und der perfusionsphysiologie durch verwendung von bildgebungstechniken
WO2016061041A1 (en) 2014-10-14 2016-04-21 East Carolina University Methods, systems and computer program products for determining hemodynamic status parameters using signals derived from multispectral blood flow and perfusion imaging
DE112015005020T5 (de) 2014-11-05 2017-07-27 Trw Automotive U.S. Llc Verbesserte objektdetektion unter verwendung von strukturiertem licht
US9506744B2 (en) 2014-12-16 2016-11-29 Faro Technologies, Inc. Triangulation scanner and camera for augmented reality
US10966614B2 (en) 2015-01-18 2021-04-06 Dentlytec G.P.L. Ltd. Intraoral scanner
US10058256B2 (en) 2015-03-20 2018-08-28 East Carolina University Multi-spectral laser imaging (MSLI) methods and systems for blood flow and perfusion imaging and quantification
US10390718B2 (en) 2015-03-20 2019-08-27 East Carolina University Multi-spectral physiologic visualization (MSPV) using laser imaging methods and systems for blood flow and perfusion imaging and quantification in an endoscopic design
US10451410B2 (en) 2015-04-22 2019-10-22 Nippon Steel Corporation Shape measurement apparatus and shape measurement method
US10159542B2 (en) 2015-05-01 2018-12-25 Dentlytec G.P.L. Ltd. System, device and methods for dental digital impressions
WO2017053368A1 (en) * 2015-09-23 2017-03-30 East Carolina University Methods, systems and computer program products for determining object distances and target dimensions using light emitters
KR102482062B1 (ko) * 2016-02-05 2022-12-28 주식회사바텍 컬러 패턴을 이용한 치과용 3차원 스캐너
EP3509501A1 (de) 2016-09-10 2019-07-17 Ark Surgical Ltd. Laparoskopische arbeitsplatzvorrichtung
CN106580506B (zh) * 2016-10-25 2018-11-23 成都频泰医疗设备有限公司 分时三维扫描系统和方法
US10731974B2 (en) * 2016-11-21 2020-08-04 Carestream Dental Technology Topco Limited 3-D intraoral surface characterization
WO2019008586A1 (en) 2017-07-04 2019-01-10 Dentlytec G.P.L. Ltd DENTAL DEVICE WITH PROBE
WO2019021285A1 (en) 2017-07-26 2019-01-31 Dentlytec G.P.L. Ltd INTRA-BUCCAL SCANNER
EP3692396A4 (de) * 2017-10-08 2021-07-21 Magik Eye Inc. Distanzmessung unter verwendung eines längsrastermusters
US10835352B2 (en) * 2018-03-19 2020-11-17 3D Imaging and Simulation Corp. Americas Intraoral scanner and computing system for capturing images and generating three-dimensional models
CN109186493B (zh) * 2018-04-17 2021-02-19 苏州佳世达光电有限公司 三维扫描系统
CN112513565B (zh) 2018-06-06 2023-02-10 魔眼公司 使用高密度投影图案的距离测量
US10986328B2 (en) 2018-06-08 2021-04-20 Dentsply Sirona Inc. Device, method and system for generating dynamic projection patterns in a camera
CN112740666A (zh) 2018-07-19 2021-04-30 艾科缇弗外科公司 自动手术机器人视觉系统中多模态感测深度的系统和方法
JP6701277B2 (ja) * 2018-08-01 2020-05-27 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
TWI676781B (zh) * 2018-08-17 2019-11-11 鑑微科技股份有限公司 三維掃描系統
WO2020037387A1 (en) * 2018-08-18 2020-02-27 Insfor - Innovative Solutions For Robotics Ltda. - Me System for the inspection and monitoring of moving pipelines
TWI704907B (zh) * 2018-11-29 2020-09-21 財團法人金屬工業研究發展中心 牙體建模裝置以及牙體建模方法
WO2020150131A1 (en) 2019-01-20 2020-07-23 Magik Eye Inc. Three-dimensional sensor including bandpass filter having multiple passbands
WO2020197813A1 (en) 2019-03-25 2020-10-01 Magik Eye Inc. Distance measurement using high density projection patterns
KR20220021920A (ko) 2019-04-08 2022-02-22 액티브 서지컬, 인크. 의료 이미징을 위한 시스템 및 방법
WO2021035094A1 (en) 2019-08-21 2021-02-25 Activ Surgical, Inc. Systems and methods for medical imaging
US11450083B2 (en) * 2019-09-27 2022-09-20 Honeywell International Inc. Dual-pattern optical 3D dimensioning
US11639846B2 (en) 2019-09-27 2023-05-02 Honeywell International Inc. Dual-pattern optical 3D dimensioning
WO2021113135A1 (en) 2019-12-01 2021-06-10 Magik Eye Inc. Enhancing triangulation-based three-dimensional distance measurements with time of flight information

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0160797A1 (de) 1984-03-06 1985-11-13 Werner H. Dr.med.dent. Mörmann Rohling zur Herstellung zahntechnischer Formteile und Verwendung desselben
WO2004085956A2 (en) 2003-03-24 2004-10-07 D3D, L.P. Laser digitizer system for dental applications

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4007502A1 (de) * 1990-03-09 1991-09-12 Zeiss Carl Fa Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen
GB9116151D0 (en) * 1991-07-26 1991-09-11 Isis Innovation Three-dimensional vision system
DE4416108C2 (de) * 1994-05-06 2000-05-11 Fraunhofer Ges Forschung Vorrichtung zum berührungsfreien Vermessen einer Objektoberfläche
US5818959A (en) * 1995-10-04 1998-10-06 Visual Interface, Inc. Method of producing a three-dimensional image from two-dimensional images
DE19638758A1 (de) * 1996-09-13 1998-03-19 Rubbert Ruedger Verfahren und Vorrichtung zur dreidimensionalen Vermessung von Objekten
US6858826B2 (en) * 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
US5946645A (en) * 1997-04-09 1999-08-31 National Research Council Of Canada Three dimensional imaging method and device
US6219063B1 (en) * 1997-05-30 2001-04-17 California Institute Of Technology 3D rendering
DE19747061B4 (de) * 1997-10-24 2005-02-10 Mähner, Bernward Verfahren und Einrichtung zur flächenhaften, dreidimensionalen, optischen Vermessung von Objekten
WO1999058930A1 (en) * 1998-05-14 1999-11-18 Metacreations Corporation Structured-light, triangulation-based three-dimensional digitizer
US6542249B1 (en) * 1999-07-20 2003-04-01 The University Of Western Ontario Three-dimensional measurement method and apparatus
US7027642B2 (en) * 2000-04-28 2006-04-11 Orametrix, Inc. Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects
JP2002164066A (ja) * 2000-11-22 2002-06-07 Mitsubishi Heavy Ind Ltd 積層型熱交換器
JP3962588B2 (ja) * 2002-01-07 2007-08-22 キヤノン株式会社 三次元画像処理方法、三次元画像処理装置、三次元画像処理システムおよび三次元画像処理プログラム
DE50308814D1 (de) * 2002-10-18 2008-01-24 Aepsilon Rechteverwaltungs Gmb Vorrichtungen und verfahren zur oberflächenerfassung und zur herstellung von zahnersatzteilen
DE60326881D1 (de) * 2002-12-31 2009-05-07 D4D Technologies Llc Digitalisierungssystem mit einem laser für zahntechnische anwendungen
US7330577B2 (en) * 2004-01-27 2008-02-12 Densys Ltd. Three-dimensional modeling of the oral cavity by projecting a two-dimensional array of random patterns
JP4525240B2 (ja) * 2004-08-23 2010-08-18 富士ゼロックス株式会社 3次元画像入力装置および方法
US7657081B2 (en) * 2004-09-03 2010-02-02 National Research Council Of Canada Recursive 3D model optimization
ATE421077T1 (de) * 2004-10-29 2009-01-15 Degudent Gmbh Verfahren und vorrichtung zur erfassung von konturdaten und/oder optischen eigenschaften eines dreidimensionalen semitransparenten objekts
JP2009517634A (ja) * 2005-11-28 2009-04-30 3シェイプ アー/エス 符号化された構造光
US7978892B2 (en) * 2006-10-25 2011-07-12 D4D Technologies, Llc 3D photogrammetry using projected patterns
JP5689681B2 (ja) * 2007-08-17 2015-03-25 レニショウ パブリック リミテッド カンパニーRenishaw Public Limited Company 非接触プローブ
DE102007054906B4 (de) * 2007-11-15 2011-07-28 Sirona Dental Systems GmbH, 64625 Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0160797A1 (de) 1984-03-06 1985-11-13 Werner H. Dr.med.dent. Mörmann Rohling zur Herstellung zahntechnischer Formteile und Verwendung desselben
WO2004085956A2 (en) 2003-03-24 2004-10-07 D3D, L.P. Laser digitizer system for dental applications

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
J. Gühring, "3D-Erfassung und Objektrekonstruktion mittels Streifenprojektion", Dissertation, Universität Stuttgart, 2002

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012016635A2 (de) 2010-08-04 2012-02-09 Charité - Universitätsmedizin Berlin Verfahren zum erzeugen einer digitalen zahntopologie für eine zahnstruktur sowie messverfahren
DE102010036841A1 (de) 2010-08-04 2012-02-09 Charité - Universitätsmedizin Berlin Verfahren zum Erzeugen einer digitalen Zahntopologie für eine Zahnstruktur sowie Messverfahren
US9687330B2 (en) 2013-06-24 2017-06-27 Qioptiq Photonics Gmbh & Co. Kg Dental measuring device for three dimensional measurement of teeth
US10952827B2 (en) 2014-08-15 2021-03-23 Align Technology, Inc. Calibration of an intraoral scanner
DE102020133627A1 (de) 2020-12-15 2022-06-15 Infinisense Technologies GmbH Verfahren und Intraoralscanner zum Erfassen der Topographie der Oberfläche eines transluzenten, insbesondere dentalen, Objektes

Also Published As

Publication number Publication date
WO2009063087A2 (en) 2009-05-22
WO2009063087A3 (en) 2009-09-24
US8280152B2 (en) 2012-10-02
EP2212645A2 (de) 2010-08-04
US20100209002A1 (en) 2010-08-19
EP2212645B1 (de) 2018-06-06
JP2011504586A (ja) 2011-02-10
JP5346033B2 (ja) 2013-11-20
DE102007054906B4 (de) 2011-07-28

Similar Documents

Publication Publication Date Title
DE102007054906B4 (de) Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten
EP2212646B1 (de) Verfahren zur optischen vermessung von objekten unter verwendung eines triangulationsverfahrens
EP1597539B1 (de) Verfahren und optisches system zur vermessung der topographie eines messobjekts
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
EP0897524B1 (de) Vorrichtung zum berührungsfreien vermessen einer dreidimensionalen objektoberfläche
EP2079981B1 (de) Vorrichtung und verfahren zum berührungslosen erfassen einer dreidimensionalen kontur
DE102016002398B4 (de) Optischer 3D-Sensor zur schnellen und dichten Formerfassung
DE102008041523B4 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
DE102010015566B4 (de) Verfahren und System zur Vermessung spiegelnder Oberflächen
CH680187A5 (de)
DE102008054985A1 (de) Verfahren und Vorrichtung zur optischen Vermessung von dreidimensionalen Objekten mittels einer dentalen 3D-Kamera unter Verwendung eines Triangulationsverfahrens
DE102008047816A1 (de) Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
EP3775767B1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE102008031942A1 (de) Verfahren und Vorrichtung zur 3D-Digitalisierung eines Objekts
EP0923705B1 (de) Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten von gegenständen
DE10149750A1 (de) Handgeführter 3D-Scanner
DE102005037841A1 (de) Verfahren und Anordnung zur Bestimmung der relativen Lage eines ersten Objektes bezüglich eines zweiten Objektes, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
DE102005043753A1 (de) Verfahren zur Bestimmung der Raumkoordinaten von Oberflächenpunkten eines Prüflings und Vorrichtung zur Durchführung des Verfahrens
DE10359104B3 (de) Verfahren zur dynamischen, dreidimensionalen Erfassung und Darstellung einer Oberfläche
DE102014016087B4 (de) Dreidimensionale optische Erfassung von Objektoberflächen
WO2009018894A1 (de) Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts
WO2014114663A1 (de) Optische vorrichtung und verfahren zum bestimmen räumlicher koordinaten von oberflächen makroskopischer objekte durch triangulation zweier zeilenkameras
DE102010029627B4 (de) Vorrichtung und Verfahren zur Bestimmung der Struktur einer spiegelnden Oberfläche eines Objekts
DE102017122627B4 (de) Optisches Messsystem und Messverfahren

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20111029

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee