DE102008048963B4 - 3D-Geometrie-Erfassungsverfahren und -vorrichtung - Google Patents

3D-Geometrie-Erfassungsverfahren und -vorrichtung Download PDF

Info

Publication number
DE102008048963B4
DE102008048963B4 DE200810048963 DE102008048963A DE102008048963B4 DE 102008048963 B4 DE102008048963 B4 DE 102008048963B4 DE 200810048963 DE200810048963 DE 200810048963 DE 102008048963 A DE102008048963 A DE 102008048963A DE 102008048963 B4 DE102008048963 B4 DE 102008048963B4
Authority
DE
Germany
Prior art keywords
dynamic light
light plane
plane
camera
static
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE200810048963
Other languages
English (en)
Other versions
DE102008048963A1 (de
Inventor
Simon Dr.-Ing. 38124 Winkelbach
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TECH UNI BRAUNSCHWEIG CAROLO WILHELMINA
Technische Universitaet Braunschweig
Original Assignee
TECH UNI BRAUNSCHWEIG CAROLO WILHELMINA
Technische Universitaet Braunschweig
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TECH UNI BRAUNSCHWEIG CAROLO WILHELMINA, Technische Universitaet Braunschweig filed Critical TECH UNI BRAUNSCHWEIG CAROLO WILHELMINA
Priority to DE200810048963 priority Critical patent/DE102008048963B4/de
Priority to PCT/DE2009/001331 priority patent/WO2010034301A2/de
Publication of DE102008048963A1 publication Critical patent/DE102008048963A1/de
Application granted granted Critical
Publication of DE102008048963B4 publication Critical patent/DE102008048963B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns

Abstract

3D-Geometrie-Erfassungsverfahren mit den Schritten a) Bereitstellen eines Objektes mit einer Oberfläche, deren Geometrie zu vermessen ist, b) Bestimmung von Stützkoordinaten von Stützpunkten auf der Oberfläche des Objektes in einem vorgegebenen Koordinatensystem, c) Aussenden von Licht in einer dynamischen Lichtebene, so dass die Oberfläche des Objektes beleuchtet wird und genügend Stützpunkte in der dynamischen Lichtebene liegen, um eine Lage der dynamischen Lichtebene in dem Koordinatensystem zu berechnen, d) Aufnehmen von Kamerabildern des beleuchteten Objektes mit einer außerhalb der dynamischen Lichtebene angeordneten Kamera, deren Position in dem Koordinatensystem bekannt ist, e) Errechnen der Lage der dynamischen Lichtebene zumindest auch aus den Stützkoordinaten von Stützpunkten, die in der dynamischen Lichtebene liegen, f) Errechnen von Oberflächenkoordinaten des Objektes in der dynamischen Lichtebene aus der Lage der dynamischen Lichtebene und Daten der Kamerabilder, dadurch gekennzeichnet, dass g) der Verfahrensschritt b) die folgenden Schritte umfasst: b1) Aussenden...

Description

  • Die Erfindung betrifft ein 3D-Geometrie-Erfassungsverfahren und eine 3D-Geometrie-Erfassungsvorrichtung.
  • Verfahren, mit denen die dreidimensionale Geometrie eines zu vermessenden Objektes erfasst werden kann, sind in Form von triangulationsbasierten Laserscan- und Lichtschnitttechniken seit über 20 Jahren bekannt. Bei den meisten bekannten Ansätzen werden zwei Kameras und/oder ein relativ teurer Lichtprojektor benötigt. Andere Systeme arbeiten mit nur einer Kamera und einer Licht- bzw. Laserebene. Dazu kann beispielsweise ein Laserstrahl per Linse zu einer Ebene aufgefächert werden.
  • Mit einer derartigen Laserebene wird die Oberfläche des zu vermessenden Objektes beleuchtet, und die an der Oberfläche des zu scannenden Objektes reflektierten Lichtstrahlen mit der Kamera aufgefangen. Ist die räumliche Lage der Laserebene bezüglich der Kamera bekannt, kann per Triangulation, also durch Bestimmen des Schnittpunktes des Sehstrahls der Kamera mit der Laserebene der Punkt auf der Oberfläche des Objektes exakt bestimmt werden.
  • Die Lichtquelle zum Erzeugen der Licht- oder Laserebene wird meist per Schrittmotor über das zu vermessende Objekt geschwenkt, um über die Oberfläche des Objektes zu rastern und so ein dreidimensionales Abbild des zu vermessenden Objektes zu erhalten. Alternativ kann die Laserebene auch mit einem externen Messsystem bestimmt werden. Dabei wird die Winkelposition der Lichtquelle durch einen Winkelsensor gemessen und die Kamera so mit dem Schrittmotor synchronisiert, dass jedem Bild genau eine Winkelposition zugeordnet werden kann.
  • Neuere Arbeiten auf diesem Gebiet schlagen vor, die räumliche Lage der Licht- oder Laserebene über eine automatische Analyse des Kamerabildes zu vermessen. Dazu muss stets eine bekannte Kalibriergeometrie im Kamerabild sichtbar sein. Beispielsweise kann aus der Lage der projizierten Lichtlinien auf der Kalibriergeometrie die Lage der zugehörigen Lichtebene errechnet werden.
  • Nachteilig bei den bekannten Lösungen ist, dass entweder die Laser- oder Lichtebene über zusätzliche Aktorik rotiert und verschoben oder die Lage der Ebene über eine externe Sensorik vermessen werden muss. Aufgrund der hohen Genauigkeit, die bei der 3D-Geometrie-Erfassung benötigt wird, sind beide Lösungen teuer. Zudem ist eine beispielsweise per Schrittmotor schwenkbare Laserebene unflexibel, da insbesondere bei komplizierten zu vermessenden Objekten manche Bereiche der Oberfläche nicht erfasst werden können, da sie im Schatten anderer Bereiche liegen.
  • Aus der US 6,415,051 B1 ist ein gattungsgemäßes Verfahren bekannt. Nachteilig an dem Verfahren ist, dass stets eine Referenzfläche vorhanden sein muss, deren Lage relativ zur Kamera bekannt ist. Wird aber die Lage der Licht- oder Laserebene über eine Analyse des Kamerabildes bestimmt, muss immer eine bekannte Geometrie in die zu vermessende Szene gestellt werden. Dies macht das Verfahren unflexibel, da insbesondere große Objekte und Ausschnitte großer Objekte nicht vermessen werden können, da in diesen Fällen keine Kalibriergeometrie im Kamerabild sichtbar ist. Zudem ist es nicht immer möglich, eine Kalibriergeometrie in das Kamerabild zu stellen, beispielsweise wenn archäologische Funde vermessen werden sollen, die sich noch im Erdboden befinden.
  • Aus der US 2005/0231734 A1 ist eine Messvorrichtung bekannt, bei der die Geometrie von Objekten erfasst wird, die auf einem Förderband bewegt werden. Nachteilig hieran ist, dass beispielsweise bei Feldversuchen kein entsprechend eingerichtetes Förderband vorhanden ist.
  • Aus der DE 101 37 241 A1 ist ein Verfahren zum Registrieren von Tiefenbildern mittels optisch projizierter Marken bekannt. Nachteilig ist hieran, dass eine große Anzahl an Marken auf das Objekt projiziert werden muss, damit die Oberfläche des zu vermessenden Objekts mit einer hohen Auflösung erfasst werden kann.
  • Der Erfindung liegt die Aufgabe zugrunde, die 3D-Geometrie-Erfassung so zu verbessern, dass keine Referenzfläche notwendig und eine schnelle Erfassung möglich ist.
  • Die Erfindung löst die Aufgabe durch ein 3D-Geometrie-Erfassungsverfahren gemäß Anspruch 1 und eine 3D-Geometrie-Erfassungsvorrichtung gemäß Anspruch 5.
  • Im erfindungsgemäßen Verfahren sollen die Koordinaten der Punkte auf der Oberfläche des Objektes bestimmt werden, die in der dynamischen Lichtebene liegen. Dazu wird im Verfahrensschritt c) Licht in der dynamischen Lichtebene ausgesandt, so dass auf der Oberfläche des Objektes ein beleuchteter Streifen erscheint.
  • Im Verfahrensschritt d) werden Kamerabilder des so beleuchteten Objektes mit einer Kamera aufgenommen, die außerhalb der dynamischen Lichtebene angeordnet ist.
  • Einige der Punkte auf der Oberfläche, die auf dem beleuchteten Streifen liegen, sind Stützpunkte, deren Stützkoordinaten im Verfahrensschritt b) bestimmt wurden. Durch Auswerten der in Verfahrensschritt d) aufgenommenen Kamerabilder werden die Stützpunkte identifiziert, die in der dynamischen Lichtebene liegen, die also auf dem beleuchteten Streifen liegen. Aus den Stützkoordinaten dieser Stützpunkte wird die Lage der dynamischen Lichtebene errechnet. Ist die Lage der dynamischen Lichtebene bekannt, können dann die Oberflächenkoordinaten der Oberflächenpunkte des Objektes bestimmt werden, die auf dem beleuchteten Streifen liegen, indem der Sehstrahl der Kamera mit der Lichtebene geschnitten wird. Zum Errechnen der Lage der dynamischen Lichtebene im Verfahrensschritt e) ist es beispielsweise ausreichend, wenn die Stützkoordinaten dreier Stützpunkte in der dynamischen Lichtebene bekannt sind, sofern diese nicht auf einer Geraden liegen.
  • Zum Bestimmen von Koordinaten weiterer Punkte auf der Oberfläche des Objektes wird anschließend das Verfahren ab Verfahrensschritt c) mit dem Aussenden von Licht in einer neuen dynamischen Lichtebene wiederholt. Die im Verfahrensschritt f) errechneten Oberflächenkoordinaten werden dabei vorteilhafterweise als weitere Stützkoordinaten für das Errechnen der Lage der neuen dynamischen Lichtebene mit verwendet.
  • Erfindungsgemäß umfasst der Verfahrensschritt b) die folgenden Schritte:
    • b1) Aussenden von Licht in zumindest einer statischen Lichtebene, deren Lage im Koordinatensystem bekannt ist, so dass die Oberfläche des Objektes bestrahlt wird,
    • b2) Aufnehmen von Stützpunktkamerabildern des beleuchteten Objektes mit der Kamera, die außerhalb der mindestens einen statischen Lichtebene angeordnet ist,
    • b3) Errechnen von Stützkoordinaten auf der Oberfläche des Objektes in der mindestens einen statischen Lichtebene aus Daten der Stützpunktkamerabilder und der Lage der mindestens einen statischen Lichtebene.
  • Im Verfahrensschritt b3) werden wieder über die Triangulation die Schnittpunkte der Sehstrahlen der Kamera mit der mindestens einen statischen Lichtebene berechnet. Da die Lage der mindestens einen statischen Lichtebene im Koordinatensystem bekannt ist, ist dies ohne Probleme möglich. Die so gewonnenen Stützkoordinaten von Stützpunkten auf der Oberfläche des Objektes werden im Verfahrensschritt e) zum Errechnen der Lage der dynamischen Lichtebene verwendet.
  • Vorteilhafterweise wird im Verfahrensschritt b1) Licht in zumindest drei statischen Lichtebenen ausgesandt, die parallel zueinander verlaufen, beispielsweise vertikal. Auf diese Weise ist sichergestellt, dass jede dynamische Lichtebene, in der im Verfahrensschritt c) Licht ausgesandt wird und die nicht parallel zu den statischen Lichtebenen ist, zumindest drei statische Lichtebenen schneidet und somit wenigstens drei Stützpunkte enthält, deren Stützkoordinaten bekannt sind. Sofern diese mindestens drei Stützpunkte nicht auf einer Geraden liegen, kann die Lage der dynamischen Lichtebene ermittelt werden.
  • Vorzugsweise werden beim Errechnen der Lage der dynamischen Lichtebene im Verfahrensschritt e) Stützkoordinaten von wenigstens zwei Punkten auf der Oberfläche des zu vermessenden Objektes in der dynamischen Lichtebene verwendet. Sind die Stützkoordinaten von mehr als zwei Stützpunkten in der dynamischen Lichtebene bekannt, wird die Lage der dynamischen Lichtebene aus diesen Stützkoordinaten errechnet.
  • Enthält die dynamische Lichtebene jedoch nur zwei Stützpunkte, deren Stützkoordinaten bekannt sind, wird zum Errechnen der Lage der dynamischen Lichtebene ein weiterer Punkt benötigt. Dies ist beispielsweise die Position der Lichtquelle, die das Licht in der dynamischen Lichtebene aussendet.
  • Vorzugsweise werden beim Errechnen der Lage der dynamischen Lichtebene im Verfahrensschritt e) die Stützkoordinaten wenigstens eines Punktes auf der Oberfläche des zu vermessenden Objektes in der dynamischen Lichtebene und ein Winkel der dynamischen Lichtebene zur Horizontalen verwendet.
  • Vorzugsweise wird im Verfahrensschritt c) die Oberfläche des Objektes sowohl direkt, indirekt über einen ersten Spiegel, als auch indirekt über einen zweiten Spiegel bestrahlt, so dass das Objekt über seinen Umfang in der dynamischen Lichtebene beleuchtet wird und die Kamera im Verfahrensschritt d) Bilder des vollständigen beleuchteten Umfangs des Objektes in der dynamischen Lichtebene aufnimmt. Auf diese Weise ist sichergestellt, dass auch der von der Kamera abgewandte Teil der Oberfläche des zu vermessenden Objektes mit erfasst wird.
  • Eine erfindungsgemäße 3D-Geometrie-Erfassungsvorrichtung umfasst mindestens eine statische Lichtquelle, die eingerichtet ist zum Abgeben von Licht in einer statischen Lichtebene und eine außerhalb der statischen Lichtquelle relativ zu der mindestens einen statischen Lichtquelle unbeweglich angeordnete Kamera sowie eine elektrische Steuerung, die eingerichtet ist zum Durchführen eines oben beschriebenen Verfahrens.
  • Ein zu vermessendes 3D-Objekt wird dann so angeordnet, dass es sowohl vom Licht der statischen Lichtquelle bestrahlt wird, als sich auch in dem Kamerabild der Kamera befindet. Da die statische Lichtquelle relativ zur Kamera unbeweglich ist, ist ihre Position im Koordinatensystem der Kamera bekannt. Somit ist auch die Lage der mindestens einen statischen Lichtebene bekannt. Die Vermessung der Oberflächenkoordinaten einer von einem statischen Laser beleuchteten Oberfläche ist mathematisch einfach und schnell durchführbar.
  • Durch die erfindungsgemäße Vorrichtung ist es folglich möglich, die für die Durchführung eines erfindungsgemäßen 3D-Geometrie-Erfassungsverfahrens notwendigen Stützkoordinaten von Stützpunkten auf der Oberfläche zu bestimmen. Dazu werden einfach die im Kamerabild sichtbaren Laser- bzw. Lichtlinien analysiert, die beim Auftreffen des von der mindestens einen statischen Lichtquelle ausgesandten Lichtes auf der Oberfläche des zu erfassenden Objektes entstehen.
  • Vorzugsweise umfasst die 3D-Geometrie-Erfassungsvorrichtung eine dynamische Lichtquelle, die eingerichtet ist zum Abgeben von Licht in einer dynamischen Lichtebene. Bevorzugt ist diese dynamische Lichtquelle ein separates Bauteil ohne Verbindung zur Kamera. Dabei handelt es sich beispielsweise um eine frei bewegliche, handgeführte Lichtquelle, die Licht in einer Lichtebene abgeben kann, nämlich der oben beschriebenen dynamischen Lichtebene. Sobald die dynamische Lichtebene der frei beweglichen Lichtquelle auf bereits vermessene Punkte der Oberfläche trifft, kann die räumliche Lage der dynamischen Lichtebene einfach automatisch berechnet werden, wodurch im Folgenden die restlichen Oberflächenpunkte entlang der Lichtlinie vermessen werden können. Dadurch, dass die dynamische Lichtquelle frei beweglich und ohne Verbindung zur Kamers ist, können insbesondere alle Punkt der Oberfläche des Objektes vermessen werden. Beispielsweise ist die dynamische Lichtquelle ein Hand-Fächerlaser.
  • Alternativ ist die dynamische Lichtquelle schwenkbar mit der Kamera verbunden. Auf diese Weise ist die Lage der dynamischen Lichtebene bis auf einen Freiheitsgrad/Parameter bekannt, so dass zum Errechnen der Lage der dynamischen Lichtebene die Koordinaten der dynamischen Lichtquelle mit verwendet werden und somit weniger Stützpunkte auf der Oberfläche des Objektes benötigt werden.
  • Vorteilhaft an der Erfindung ist, dass ein externes Sensorsystem zur Vermessung der räumlichen Lage der dynamischen Lichtebene entbehrlich ist. Dadurch werden die Herstellungskosten für die 3D-Geometrie-Erfassungsvorrichtung deutlich reduziert. Zudem wird keine Aktorik benötigt, um die dynamische Lichtebene über das zu erfassende Objekt wandern zu lassen. Da die Kamera unsynchronisiert arbeiten kann, ist zum Beispiel eine einfache Webcam verwendbar. Zudem sind das erfindungsgemäße Verfahren und die erfindungsgemäße Vorrichtung äußerst flexibel, da auch große Objekte oder Objekte, die durch ihre Lage die Verwendung einer separaten Kalibriergeometrie unmöglich machen, vermessen werden können.
  • Die Anwendungsgebiete eines erfindungsgemäßen Verfahrens bzw. einer erfindungsgemäßen Vorrichtung finden sich im Rapid Prototyping, der Qualitätskontrolle, der Orthopädie, Dentaltechnik oder Archäologie ebenso wie in der Computergrafik oder Modellierung, dem Design, der Architektur oder der Kriminologie.
  • Vorteilhafterweise umfasst die 3D-Geometrie-Erfassungsvorrichtung einen ersten Spiegel und einen zweiten Spiegel zum Reflektieren eines Teils des von der dynamischen Lichtquelle ausgesandten Lichtes, wobei die beiden Spiegel einen Winkel von weniger als 180° bilden und so angeordnet sind, dass das zu vermessende Objekt über seinen Umfang in der dynamischen Lichtebene beleuchtbar ist und mit der Kamera ein Bild des vollständigen Umfangs des Objektes in der dynamischen Lichtebene aufnehmbar ist. Auf diese Weise kann auch die der Kamera abgewandte Seite der Oberfläche des zu vermessenden Objektes vermessen werden, ohne dass das Objekt bewegt oder die Vorrichtung umgebaut werden müsste. Dadurch wird die Dauer der Vermessung eines Objektes deutlich reduziert, was insbesondere dann von Vorteil ist, wenn das Objekt sich bewegt.
  • Im Folgenden wird die Erfindung anhand der beigefügten Zeichnungen näher erläutert. Dabei zeigt
  • 1 den schematischen Aufbau einer 3D-Geometrie-Erfassungsvorrichtung nach einem Ausführungsbeispiel der vorliegenden Erfindung und
  • 2 den schematischen Aufbau einer 3D-Geometrie-Erfassungsvorrichtung nach einem anderen Ausführungsbeispiel der vorliegenden Erfindung.
  • In 1 ist der schematische Aufbau einer 3D-Geometrie-Erfassungsvorrichtung nach einem Ausführungsbeispiel der vorliegenden Erfindung gezeigt. Die dort gezeigte 3D-Geometrie-Erfassungsvorrichtung umfasst eine Kamera 2, die unbeweglich mit drei statischen Lichtquellen 4.1, 4.2, 4.3 verbunden ist. Die statischen Lichtquellen 4.1, 4.2, 4.3 sind eingerichtet zum Aussenden von Licht einer ersten Farbe, beispielsweise rot, in jeweils einer statischen Lichtebene 6.1, 6.2, 6.3. Das von den statischen Lichtquellen 4.1, 4.2, 4.3 ausgesandte Licht trifft auf ein zu vermessendes Objekt 8. Auf diesem Objekt 8 entstehen durch das von den statischen Lichtquellen 4.1, 4.2, 4.3 ausgesandte Licht statische Lichtlinien 10.1, 10.2, 10.3.
  • Die Position der statischen Lichtquellen 4.1, 4.2, 4.3 relativ zur Kamera 2 ist bekannt. Somit ist auch die Lage der statischen Lichtebenen 6.1, 6.2, 6.3 im Koordinatensystem der Kamera 2 bekannt. Über Triangulation können somit die Stützkoordinaten der Stützpunkte auf den statischen Lichtlinien 10.1, 10.2, 10.3 einfach errechnet werden.
  • Die in 1 gezeigte 3D-Geometrie-Erfassungsvorrichtung umfasst weiter eine dynamische Lichtquelle 12, im vorliegenden Fall in Form eines Hand-Fächerlasers, der grünes Licht abgibt. Die dynamischen Lichtquelle 12 sendet Licht in einer dynamischen Lichtebene 14 aus. Auch das von der dynamischen Lichtquelle 12 ausgesandte Licht trifft auf das zu vermessende Objekt und bildet dort eine dynamische Lichtlinie 16. Die dynamischen Lichtquelle 12 ist im in 1 gezeigten Ausführungsbeispiel frei beweg- und schwenkbar, so dass in der Regel weder ihre Position im Koordinatensystem der Kamera 2 noch die Lage der dynamischen Lichtebene 14 in diesem Koordinatensystem bekannt sind.
  • Die dynamischen Lichtlinie 16 schneidet im in 1 gezeigten Beispiel die drei statischen Lichtlinien 10.1, 10.2, 10.3, deren Stützkoordinaten bekannt sind. Die dynamischen Lichtlinie 16 umfasst folglich drei Stützpunkte 18.1, 18.2, 18.3, die im in 1 gezeigten Ausführungsbeispiel nicht auf einer Geraden liegen. Aus den Stützkoordinaten dieser drei Stützpunkte 18.1, 18.2, 18.3 wird die Lage der dynamischen Lichtebene 14 im Koordinatensystem der Kamera 2 bestimmt. Sobald die Lage der dynamischen Lichtebene 14 bestimmt ist, wird über Triangulation die gesamte dynamische Lichtlinie 16 vermessen. Beispielsweise werden die Koordinaten eines Punkts 20 dadurch bestimmt, dass der Schnittpunkt zwischen der nun bekannten dynamischen Lichtebene 14 mit einem Sehstrahl 22 berechnet wird. Der Sehstrahl 22 wird errechnet aus dem von de Kamera 2 aufgenommenen Bild des Punkts 20.
  • Anschließend wird die dynamische Lichtquelle 12 weiterbewegt, so dass eine neue dynamische Lichtebene 14 entsteht. Auch diese lässt, solange sie nicht parallel zu den statischen Lichtebenen 6.1, 6.2, 6.3 ist, eine dynamische Lichtlinie 16 auf der Oberfläche des Objektes 8 entstehen lassen, die die drei statischen Lichtlinien 10.1, 10.2, 10.3 schneidet, so dass auch auf der neuen dynamischen Lichtlinie 16 die Stützkoordinaten von wenigstens drei Stützpunkten bekannt sind.
  • Die dynamische Lichtquelle wird nun so lange in unterschiedlichen Richtungen auf dem Objekt gerichtet, bis für hinreichend viele Punkte auf der Oberfläche die Koordinaten bestimmt sind. Es ist möglich, mehr als eine dynamische Lichtquelle zu verwenden, die vorzugsweise Licht verschiedener Farben aussenden.
  • In 2 ist eine 3D-Geometrie-Erfassungsvorrichtung gemäß einem anderen Ausführungsbeispiel der vorliegenden Erfindung gezeigt. Sie umfasst ebenfalls eine Kamera 2, die mit einer statischen Lichtquelle 4.1 unbeweglich verbunden ist.
  • Die statische Lichtquelle 4.1 sendet Licht in der statischen Lichtebene 6.1 auf das zu vermessende Objekt 8, so dass auf diesem die statische Lichtlinie 10.1 entsteht. Die Stützkoordinaten der Punkte auf der statischen Lichtlinie 10.1 werden über von der Kamera 2 aufgenommene Bilder einfach errechnet, da sowohl die Position der statischen Lichtquelle 4.1 als auch die Lage der statischen Ebene 6.1 im Koordinatensystem der Kamera 2 bekannt ist.
  • Die in 2 gezeigte 3D-Geometrie-Erfassungsvorrichtung umfasst die dynamische Lichtquelle 12, deren Position relativ zur Kamera 2 unveränderlich ist. Die dynamische Lichtquelle 12 sendet Licht in der dynamischen Lichtebene 14 aus, das auf das zu vermessende Objekt 8 trifft und dort die dynamische Lichtlinie 16 entstehen lässt. Die dynamische Lichtquelle 12 ist in dem in 2 gezeigten Ausführungsbeispiel um eine Schwenkachse A um einen Winkel φ schwenkbar gelagert. Dabei ist die Lage der Schwenkachse A bekannt.
  • Die dynamische Lichtlinie 16 schneidet im in 2 gezeigten Ausführungsbeispiel lediglich eine statische Lichtlinie 10.1. Sie umfasst folglich auch nur einen Stützpunkt 18, dessen Koordinaten aus denen der Lage der dynamischen Lichtebene 14 berechnet wird.
  • Ist die Lage der dynamischen Lichtebene 14 im Raum bekannt, werden die Koordinaten der anderen Punkte auf der dynamischen Lichtlinie 16, beispielsweise Punkt 20, mittels Triangulation ermittelt. Anschließend wird der Winkel φ der dynamischen Lichtebene 14 verändert, so dass eine neue dynamische Lichtlinie 16 auf dem zu vermessenden Objekt 8 entsteht. Solange die dynamische Lichtebene 14 nicht parallel zur statischen Lichtebene 6.1 ist, werden die beiden Lichtebenen 6.1, 14 sich schneiden, so dass auch hier wieder die Stützkoordinaten eines Stützpunktes bekannt sind.
  • Für die Berechnung der Punkte auf der Oberfläche des Objekts 8 muss der Winkel φ anders als bei bekannten Verfahren – nicht gemessen werden, weil er viel genauer anhand des Stützpunkts 18 berechnet werden kann. Dadurch kann ein etwaig vorhandener Schwenkantrieb für die dynamische Lichtquelle 14 unsynchronisiert zur Kamera 2 sein. Auch ist ein Winkelmesser entbehrlich.
  • Bezugszeichenliste
  • 2
    Kamera
    4.1, 4.2, 4.3
    statische Lichtquelle
    6.1, 6.2, 6.3
    statische Lichtebene
    8
    Objekt
    10.1, 10.2, 10.3
    statische Lichtlinie
    12
    dynamische Lichtquelle
    14
    dynamische Lichtebene
    16
    dynamische Lichtlinie
    18
    Stützpunkt
    20
    Punkt
    22
    Sehstrahl
    A
    Schwenkachse
    ϕ
    Winkel

Claims (8)

  1. 3D-Geometrie-Erfassungsverfahren mit den Schritten a) Bereitstellen eines Objektes mit einer Oberfläche, deren Geometrie zu vermessen ist, b) Bestimmung von Stützkoordinaten von Stützpunkten auf der Oberfläche des Objektes in einem vorgegebenen Koordinatensystem, c) Aussenden von Licht in einer dynamischen Lichtebene, so dass die Oberfläche des Objektes beleuchtet wird und genügend Stützpunkte in der dynamischen Lichtebene liegen, um eine Lage der dynamischen Lichtebene in dem Koordinatensystem zu berechnen, d) Aufnehmen von Kamerabildern des beleuchteten Objektes mit einer außerhalb der dynamischen Lichtebene angeordneten Kamera, deren Position in dem Koordinatensystem bekannt ist, e) Errechnen der Lage der dynamischen Lichtebene zumindest auch aus den Stützkoordinaten von Stützpunkten, die in der dynamischen Lichtebene liegen, f) Errechnen von Oberflächenkoordinaten des Objektes in der dynamischen Lichtebene aus der Lage der dynamischen Lichtebene und Daten der Kamerabilder, dadurch gekennzeichnet, dass g) der Verfahrensschritt b) die folgenden Schritte umfasst: b1) Aussenden von Licht in zumindest einer statischen Lichtebene, deren Lage im Koordinatensystem bekannt ist, so dass die Oberfläche des Objektes bestrahlt wird, b2) Aufnehmen von Stützpunkt-Kamerabildern des beleuchteten Objektes mit der Kamera, die außerhalb der mindestens einen statischen Lichtebene angeordnet ist, und b3) Errechnen von Stützkoordinaten auf der Oberfläche des Objektes in der mindestens einen statischen Lichtebene aus Daten der Stützpunkt-Kamerabilder und der Lage der mindestens einen statischen Lichtebene.
  2. 3D-Geometrie-Erfassungsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass beim Errechnen der Lage der dynamischen Lichtebene im Verfahrensschritt e) Stützkoordinaten von wenigstens zwei Punkten auf der Oberfläche des zu vermessenden Objektes in der dynamischen Lichtebene verwendet werden.
  3. 3D-Geometrie-Erfassungsverfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass beim Errechnen der Lage der dynamischen Lichtebene im Verfahrensschritt e) die Stützkoordinaten wenigstens eines Punktes auf der Oberfläche des zu vermessenden Objektes in der dynamischen Lichtebene und ein Winkel der dynamischen Lichtebene zur Horizontalen verwendet werden.
  4. 3D-Geometrie-Erfassungsverfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass im Verfahrensschritt c) die Oberfläche des Objektes i) direkt, ii) indirekt über einen ersten Spiegel, und iii) indirekt über einen zweiten Spiegel bestrahlt wird, sodass das Objekt über seinen Umfang in der dynamischen Lichtebene beleuchtet wird und die Kamera im Verfahrensschritt d) Bilder des vollständigen beleuchteten Umfangs des Objektes in der dynamischen Lichtebene aufnimmt.
  5. 3D-Geometrie-Erfassungsvorrichtung mit – mindestens einer statischen Lichtquelle, die eingerichtet ist zum Abgeben von Licht in einer statischen Lichtebene, – einer außerhalb der statischen Lichtebene relativ zu der mindestens einen statischen Lichtquelle unbeweglich angeordneten Kamera und – einer dynamischen Lichtquelle, die eingerichtet ist zum Abgeben von Licht in einer dynamischen Lichtebene, gekennzeichnet durch – eine elektrische Steuerung, die eingerichtet ist zum Durchführen eines Verfahrens nach einem der Ansprüche 1 bis 4.
  6. 3D-Geometrie-Erfassungsvorrichtung nach Anspruch 5, dadurch gekennzeichnet, dass die dynamische Lichtquelle ein separates Bauteil ohne Verbindung zur Kamera ist.
  7. 3D-Geometrie-Erfassungsvorrichtung nach Anspruch 5, dadurch gekennzeichnet, dass die dynamische Lichtquelle schwenkbar mit der Kamera verbunden ist.
  8. 3D-Geometrie-Erfassungsvorrichtung nach einem der Ansprüche 5 bis 7, gekennzeichnet durch – einen ersten Spiegel und – einen zweiten Spiegel zum Reflektieren eines Teils des von der dynamischen Lichtquelle ausgesandten Lichtes, – wobei die Spiegel, die einen Winkel von weniger als 180° bilden, so angeordnet sind, dass das Objekt über seinen Umfang in der dynamischen Lichtebene beleuchtbar ist und mit der Kamera ein Bild des vollständigen Umfangs des Objektes in der dynamischen Lichtebene aufnehmbar ist.
DE200810048963 2008-09-25 2008-09-25 3D-Geometrie-Erfassungsverfahren und -vorrichtung Expired - Fee Related DE102008048963B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE200810048963 DE102008048963B4 (de) 2008-09-25 2008-09-25 3D-Geometrie-Erfassungsverfahren und -vorrichtung
PCT/DE2009/001331 WO2010034301A2 (de) 2008-09-25 2009-09-23 3d-geometrie-erfassungsverfahren und -vorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200810048963 DE102008048963B4 (de) 2008-09-25 2008-09-25 3D-Geometrie-Erfassungsverfahren und -vorrichtung

Publications (2)

Publication Number Publication Date
DE102008048963A1 DE102008048963A1 (de) 2010-04-22
DE102008048963B4 true DE102008048963B4 (de) 2011-08-25

Family

ID=41683025

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200810048963 Expired - Fee Related DE102008048963B4 (de) 2008-09-25 2008-09-25 3D-Geometrie-Erfassungsverfahren und -vorrichtung

Country Status (2)

Country Link
DE (1) DE102008048963B4 (de)
WO (1) WO2010034301A2 (de)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009120073A2 (en) * 2008-03-24 2009-10-01 Bantwal Janardrian Mohandas Rao A dynamically calibrated self referenced three dimensional structured light scanner
US8243289B2 (en) 2009-05-29 2012-08-14 Perceptron, Inc. System and method for dynamic windowing
US8031345B2 (en) 2009-05-29 2011-10-04 Perceptron, Inc. Hybrid sensor
US7995218B2 (en) 2009-05-29 2011-08-09 Perceptron, Inc. Sensor system and reverse clamping mechanism
DE102012003620B4 (de) * 2012-02-20 2014-02-27 Salzgitter Mannesmann Grobblech Gmbh Verfahren und Vorrichtung zur berührungslosen geometrischen Vermessung eines Messobjektes
DE202013103339U1 (de) 2012-07-27 2013-10-31 Zfx Gmbh Scan-System
US9947813B2 (en) 2012-07-27 2018-04-17 Zfx Gmbh System and method for illuminating a sample and collecting light reflected from the sample
EP2829329A1 (de) 2013-07-22 2015-01-28 Hans-Michael Hangleiter GmbH Verfahren zum Versehen einer Oberfläche eines festen Substrats bzw. Bauteils mit einer Schicht aus mindestens einer sublimierbaren Verbindung, insbesondere mit einer Cyclododecanschicht, sowie nach diesem Verfahren erhältliches Substrat bzw. Bauteil
EP2829328A1 (de) 2013-07-22 2015-01-28 Hans-Michael Hangleiter GmbH Applikationsvorrichtung zur Anbringung mindestens einer sublimierbaren kondensierbaren Verbindung, insbesondere von kondensierbarem Cyclododecan, auf Oberflächen von festen Substraten bzw. Bauteilen sowie Vorrichtung zur Bestimmung der Güte, insbesondere der Oberfläche, eines festen Substrats bzw. Bauteils
KR101950634B1 (ko) * 2015-04-22 2019-02-20 신닛테츠스미킨 카부시키카이샤 형상 측정 장치 및 형상 측정 방법
DE102017208106A1 (de) 2017-05-15 2018-11-15 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur zumindest abschnittsweisen, bevorzugt vollständigen Bestimmung der äußeren und inneren Geometrie eines Bauteils mit wenigstens einem Hohlraum
EP3664242B1 (de) 2018-12-03 2022-10-26 Siemens Aktiengesellschaft Prädiktive betriebsplanung in einem mikronetz mit leistungsaustausch zwischen dem mikronetz und einem hauptstromnetz

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6415051B1 (en) * 1999-06-24 2002-07-02 Geometrix, Inc. Generating 3-D models using a manually operated structured light source
DE10137241A1 (de) * 2001-03-15 2002-09-19 Tecmath Ag Registrierung von Tiefenbildern mittels optisch projizierter Marken
US20050231734A1 (en) * 2004-04-19 2005-10-20 Ivp Integrated Vision Products Ab Measuring apparatus and method in a distribution system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2767340B2 (ja) * 1991-12-26 1998-06-18 ファナック株式会社 物体の3次元位置・姿勢計測方式
US7876455B2 (en) * 2004-08-03 2011-01-25 TechnoDream21 Co., Ltd. Three-dimensional shape measuring method and apparatus for the same
WO2009120073A2 (en) * 2008-03-24 2009-10-01 Bantwal Janardrian Mohandas Rao A dynamically calibrated self referenced three dimensional structured light scanner

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6415051B1 (en) * 1999-06-24 2002-07-02 Geometrix, Inc. Generating 3-D models using a manually operated structured light source
DE10137241A1 (de) * 2001-03-15 2002-09-19 Tecmath Ag Registrierung von Tiefenbildern mittels optisch projizierter Marken
US20050231734A1 (en) * 2004-04-19 2005-10-20 Ivp Integrated Vision Products Ab Measuring apparatus and method in a distribution system

Also Published As

Publication number Publication date
WO2010034301A3 (de) 2010-05-20
DE102008048963A1 (de) 2010-04-22
WO2010034301A2 (de) 2010-04-01

Similar Documents

Publication Publication Date Title
DE102008048963B4 (de) 3D-Geometrie-Erfassungsverfahren und -vorrichtung
DE10219054B4 (de) Verfahren und Vorrichtung zur Bestimmung der räumlichen Koordinaten eines Gegenstandes
AT506110B1 (de) Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
DE19536297C2 (de) Verfahren zur geometrischen Kalibrierung von optischen 3D-Sensoren zur dreidimensionalen Vermessung von Objekten und Vorrichtung hierzu
DE102011114674B4 (de) Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
DE102016118562A1 (de) Dreidimensionales bildgerät, das eine dichroitische kamera umfasst
DE102006049695A1 (de) Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur
DE102006015792A1 (de) Verfahren und System zur Formmessung einer reflektierenden Oberfläche
DE102004061338A1 (de) Automatische Bauteilprüfung
CH692873A5 (de) Vorrichtung und Verfahren zur geometrischen Kalibrierung von CCD-Kameras.
EP2668468A1 (de) Kalibrierung von laser-lichtschnittsensoren bei gleichzeitiger messung
EP2948732B1 (de) System zur lagebestimmung eines prüfobjektes
EP1640688A1 (de) Verfahren und Vorrichtung zur 3-dimensionalen Vermessung der Oberfläche eines Gegenstands
EP3640583A1 (de) Verfahren zur 3d-erfassung eines messobjekts
DE102005037094B3 (de) Kalibrierverfahren für einen Sensor zur Abstandsmessung
DE4212404A1 (de) Vorrichtung zum messen der raeumlichen form eines langgestreckten bauteils
DE102018108141A1 (de) Mobile Vorrichtung und Verfahren zum Erfassen eines Objektraums
EP1821064A1 (de) Verfahren und Vorrichtung zum Erfassen einer Kontur einer reflektierenden Oberfläche
DE10049103A1 (de) Vorrichtung zur Überlagerung von Röntgen-Videobildern
DE10328523A1 (de) Verfahren und Meßvorrichtung zur berührungslosen Vermessung einer Kontur einer Oberfläche sowie Verfahren zur automatischen Entzerrung von Koordinaten von Bildpunkten
DE102004033526A1 (de) Verfahren und Vorrichtung zur Analyse zumindest partiell reflektierender Oberflächen
DE102015106836B4 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels momentaner Bewegung und Vorrichtung hierzu
WO2019238508A1 (de) Abgleichverfahren für eine strahlrichteinheit einer interferometrischen messvorrichtung und messvorrichtung zur durchführung einer interferometrischen messung mittels laserstrahlung
DE19736588A1 (de) Optoelektronisches Entfernungs-Meßverfahren sowie Entfernungsmeßeinrichtung zur Verfahrensdurchführung
DE102006005874A1 (de) Vorrichtung und Verfahren zum berührungsfreien Vermessen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20111126

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20140401