WO2010034301A2 - 3d-geometrie-erfassungsverfahren und -vorrichtung - Google Patents

3d-geometrie-erfassungsverfahren und -vorrichtung Download PDF

Info

Publication number
WO2010034301A2
WO2010034301A2 PCT/DE2009/001331 DE2009001331W WO2010034301A2 WO 2010034301 A2 WO2010034301 A2 WO 2010034301A2 DE 2009001331 W DE2009001331 W DE 2009001331W WO 2010034301 A2 WO2010034301 A2 WO 2010034301A2
Authority
WO
WIPO (PCT)
Prior art keywords
dynamic light
light plane
plane
camera
static
Prior art date
Application number
PCT/DE2009/001331
Other languages
English (en)
French (fr)
Other versions
WO2010034301A3 (de
Inventor
Simon Winkelbach
Original Assignee
Technische Universität Braunschweig Carolo-Wilhelmina
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Technische Universität Braunschweig Carolo-Wilhelmina filed Critical Technische Universität Braunschweig Carolo-Wilhelmina
Publication of WO2010034301A2 publication Critical patent/WO2010034301A2/de
Publication of WO2010034301A3 publication Critical patent/WO2010034301A3/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns

Definitions

  • the invention relates to a 3D geometry detection method and an SD geometry detection device.
  • the surface of the object to be measured is illuminated, and the rays of light reflected at the surface of the object to be scanned are captured by the camera. If the spatial position of the laser plane with respect to the camera is known, the point on the surface of the object can be determined exactly by triangulation, ie by determining the point of intersection of the visual beam of the camera with the laser plane.
  • the light source for generating the light or laser plane is usually pivoted by a stepper motor over the object to be measured in order to raster over the surface of the object and to obtain a three-dimensional image of the object to be measured.
  • the laser plane can also be determined with an external measuring system.
  • the angular position of the light source is measured by an angle sensor and the camera is synchronized with the stepper motor so that each image can be assigned exactly one angular position.
  • Recent work in this field suggests measuring the spatial position of the light or laser plane via an automatic analysis of the camera image. For this, a known calibration geometry must always be visible in the camera image. For example, the position of the associated light plane can be calculated from the position of the projected light lines on the calibration geometry.
  • a disadvantage of the known solutions is that either the laser or light plane has to be rotated and displaced via additional actuators, or the position of the plane has to be measured via an external sensor system. Due to the high accuracy required in 3D geometry acquisition, both solutions are expensive.
  • a laser plane which can be pivoted, for example, by means of a stepping motor, is inflexible, since some areas of the surface can not be detected, particularly in the case of complicated objects to be measured, since they lie in the shadow of other areas.
  • a measuring device in which the geometry of objects is detected, which are moved on a conveyor belt.
  • the disadvantage of this is that, for example, in field tests no appropriately equipped conveyor belt is present.
  • DE 101 37 241 A1 discloses a method for registering depth images by means of optically projected marks. The disadvantage of this is that a large number of marks must be projected onto the object, so that the surface of the object to be measured can be detected with a high resolution.
  • the invention has for its object to improve the 3D geometry detection so that no reference surface necessary and rapid detection is possible.
  • the invention achieves the object by a 3D geometry detection method according to claim 1 and a 3D geometry detection device according to claim 5.
  • the coordinates of the points on the surface of the object which lie in the dynamic light plane are to be determined.
  • light is emitted in the dynamic light plane in method step c), so that an illuminated strip appears on the surface of the object.
  • step d camera images of the object illuminated in this way are taken with a camera, which is arranged outside the dynamic light plane.
  • Some of the points on the surface that lie on the illuminated strip are vertices whose support coordinates were determined in step b).
  • the support points which lie in the dynamic light plane that is to say lie on the illuminated strip, are identified.
  • the position of the dynamic light plane is calculated from the support coordinates of these interpolation points. If the position of the dynamic light plane is known, then the surface coordinates of the surface points of the object can be determined, which are based on the illuminated strips lie by the visual line of the camera is cut with the light plane.
  • the method is then repeated from method step c) with the emission of light in a new dynamic light plane.
  • the surface coordinates calculated in method step f) are advantageously used as further support coordinates for calculating the position of the new dynamic light plane.
  • method step b) comprises the following steps: b1) emission of light in at least one static light plane whose
  • method step b3) the points of intersection of the visual rays of the camera with the at least one static plane of light are again calculated via the triangulation. Since the position of the at least one static light plane in the coordinate system is known, this is possible without problems.
  • the support coordinates of support points on the surface of the object thus obtained are used in method step e) for calculating the position of the dynamic light plane.
  • light is emitted in at least three static light planes which run parallel to one another, for example vertically. In this way it is ensured that each dynamic light plane in which light is emitted in method step c) and which is not parallel to the static light planes intersects at least three static light planes and thus contains at least three support points whose support coordinates are known. If these at least three interpolation points do not lie on a straight line, the position of the dynamic light plane can be determined.
  • support coordinates of at least two points on the surface of the object to be measured in the dynamic light plane are used. If the support coordinates of more than two support points in the dynamic light plane are known, the position of the dynamic light plane is calculated from these support coordinates.
  • the dynamic light plane contains only two vertices whose support coordinates are known, another point is needed to calculate the position of the dynamic light plane. This is, for example, the position of the light source that emits the light in the dynamic light plane.
  • the support coordinates of at least one point on the surface of the object to be measured in the dynamic light plane and an angle of the dynamic light plane to the horizontal are used.
  • the surface of the object is irradiated both directly, indirectly via a first mirror, as well as indirectly via a second mirror, so that the object is illuminated over its circumference in the dynamic light plane and the camera in step d) images of completely illuminated periphery of the object in the dynamic light plane absorbs. In this way, it is ensured that the The remote part of the surface of the object to be measured is also detected.
  • a 3D geometry detection device comprises at least one static light source arranged to emit light in a static light plane and a camera immovable outside the static light source relative to the at least one static light source, and an electrical controller configured to perform a method described above ..
  • a 3D object to be measured is then arranged so that it is irradiated both by the light from the static light source and in the camera image of the camera. Since the static light source is immobile relative to the camera, its position in the coordinate system of the camera is known. Thus, the position of the at least one static light plane is known.
  • the measurement of the surface coordinates of a surface illuminated by a static laser is mathematically simple and quick to carry out.
  • the device according to the invention consequently makes it possible to determine the supporting coordinates of interpolation points on the surface necessary for carrying out a 3D geometry detection method according to the invention.
  • the visible laser or light lines in the camera image are analyzed, which arise when hitting the light emitted by the at least one static light source on the surface of the object to be detected.
  • the 3D geometry detection device comprises a dynamic light source configured to emit light in a dynamic light plane.
  • this dynamic light source is a separate component without connection to the camera.
  • This is, for example, a freely movable, hand-held light source which can emit light in a plane of light, namely the dynamic light plane described above.
  • the dynamic light plane of the freely movable light source strikes already measured points of the surface, the spatial position of the dynamic light plane can easily be calculated automatically, whereby subsequently the remaining surface points along the light line can be measured.
  • the dynamic light source is freely movable and without connection to the camera, in particular all points of the surface of the object can be measured.
  • the dynamic light source is a hand-held fan laser.
  • the dynamic light source is pivotally connected to the camera.
  • the position of the dynamic light plane to one degree of freedom / parameter is known, so that the coordinates of the dynamic light source are used to calculate the position of the dynamic light plane and thus fewer points on the surface of the object are needed.
  • An advantage of the invention is that an external sensor system for measuring the spatial position of the dynamic light plane is unnecessary. As a result, the manufacturing costs for the 3D geometry detection device are significantly reduced. In addition, no actuator is needed to allow the dynamic light plane to move over the object to be detected. Since the camera can work unsynchronized, for example, a simple webcam can be used. In addition, the method according to the invention and the device according to the invention are extremely flexible, since even large objects or objects which make the use of a separate calibration geometry impossible due to their position can be measured.
  • the 3D geometry detection device comprises a first mirror and a second mirror for reflecting a part of the light emitted by the dynamic light source, wherein the two mirrors form an angle of less than 180 ° and are arranged so that the object to be measured on Its scope in the dynamic light level is illuminated and with the camera an image of the full extent of the object in the dynamic light plane can be accommodated. In this way, the camera side facing away from the surface of the object to be measured can be measured without the object should be moved or the device would have to be rebuilt. As a result, the duration of the measurement of an object is significantly reduced, which is particularly advantageous when the object is moving.
  • FIG. 1 shows the schematic structure of an SD geometry
  • FIG. 2 shows the schematic structure of an SD geometry
  • FIG. 1 shows the schematic structure of a 3D geometry detection device according to an exemplary embodiment of the present invention.
  • the 3D geometry detection device shown there comprises a camera 2 which is immovably connected to three static light sources 4.1, 4.2, 4.3.
  • the static light sources 4.1, 4.2, 4.3 are set up to emit light of a first color, for example red, in each case in a static light plane 6.1, 6.2, 6.3.
  • the light emitted by the static light sources 4.1, 4.2, 4.3 impinges on an object 8 to be measured.
  • static light lines 10.1, 10.2, 10.3 are formed by the light emitted by the static light sources 4.1, 4.2, 4.3.
  • the position of the static light sources 4.1, 4.2, 4.3 relative to the camera 2 is known.
  • the position of the static light levels 6.1, 6.2, 6.3 in the coordinate system of the camera 2 is known.
  • the support coordinates of the interpolation points on the static light lines 10.1, 10.2, 10.3 can thus be easily calculated.
  • the 3D geometry detection device shown in FIG. 1 further comprises a dynamic light source 12, in the present case in the form of a hand-held fan laser emitting green light.
  • the dynamic light source 12 transmits Light in a dynamic light plane 14 off.
  • the light emitted by the dynamic light source 12 also strikes the object to be measured and forms a dynamic light line 16 there.
  • the dynamic light source 12 is freely movable and pivotable in the exemplary embodiment shown in FIG. 1, so that as a rule neither its position in the coordinate system the camera 2 nor the position of the dynamic light plane 14 in this coordinate system are known.
  • the dynamic light line 16 intersects the three static lines of light 10.1, 10.2, 10.3 whose support coordinates are known.
  • the dynamic light line 16 thus comprises three support points 18.1, 18.2, 18.3, which are not in a straight line in the embodiment shown in FIG. From the support coordinates of these three points 18.1, 18.2, 18.3, the position of the dynamic light plane 14 in the coordinate system of the camera 2 is determined.
  • the entire dynamic light line 16 is measured by triangulation.
  • the coordinates of a point 20 are determined by calculating the point of intersection between the now known dynamic light plane 14 with a line of sight 22.
  • the visual ray 22 is calculated from the image of the point 20 taken by the camera 2.
  • the dynamic light source 12 is moved further, so that a new dynamic light plane 14 is formed.
  • This too, as long as it is not parallel to the static light planes 6.1, 6.2, 6.3, creates a dynamic light line 16 on the surface of the object 8, which intersects the three static light lines 10.1, 10.2, 10.3, so that also on the new dynamic light line 16, the support coordinates of at least three interpolation points are known.
  • the dynamic light source is now directed in different directions on the object until the coordinates are determined for a sufficient number of points on the surface. It is possible to have more than one dynamic light source that preferably emit light of different colors.
  • FIG. 2 shows a 3D geometry detection device according to another embodiment of the present invention. It also comprises a camera 2, which is immovably connected to a static light source 4.1.
  • the static light source 4.1 sends light in the static light plane 6.1 to the object 8 to be measured, so that the static light line 10.1 is formed thereon.
  • the support coordinates of the points on the static light line 10.1 are easily calculated via images taken by the camera 2, since both the position of the static light source 4.1 and the position of the static plane 6.1 in the coordinate system of the camera 2 is known.
  • the 3D geometry detection device shown in FIG. 2 comprises the dynamic light source 12 whose position relative to the camera 2 is immutable.
  • the dynamic light source 12 emits light in the dynamic light plane 14, which hits the object 8 to be measured, where it creates the dynamic light line 16.
  • the dynamic light source 12 is pivotably mounted in the embodiment shown in Figure 2 about a pivot axis A by an angle ⁇ . The position of the pivot axis A is known.
  • the dynamic light line 16 intersects in the embodiment shown in Figure 2 only a static light line 10.1. Consequently, it also comprises only one support point 18 whose coordinates are calculated from those of the position of the dynamic light plane 14.
  • the coordinates of the other points on the dynamic light line 16, for example point 20 are determined by means of triangulation. Subsequently, the angle ⁇ of the dynamic light plane 14 is changed so that a new dynamic light line 16 is formed on the object 8 to be measured. As long as the dynamic light plane 14 is not parallel to the static light plane 6.1, the two light planes 6.1, 14 intersect, so that here again the support coordinates of a base are known.
  • the angle ⁇ - unlike in known methods - need not be measured, because it can be calculated much more accurately from the reference point 18.
  • any pivoting drive available for the dynamic light source 14 may be unsynchronized with the camera 2.
  • a protractor is unnecessary.

Abstract

3D-Geometrie-Erfassungsverfahren mit den Schritten: Bereitstellen eines Objektes mit einer Oberfläche, deren Geometrie zu vermessen ist, Bestimmung von Stützkoordinaten von Stützpunkten in einem vorgegebenen Koordinatensystem, Aussenden von Licht in einer dynamischen Lichtebene, so dass die Oberfläche des Objektes beleuchtet wird und genügend Stützpunkte in der dynamischen Lichtebene liegen, um eine Lage der dynamischen Lichtebene in dem Koordinatensystem zu berechnen, Aufnehmen von Kamerabildern des beleuchteten Objektes mit einer außerhalb der dynamischen Lichtebene angeordneten Kamera, deren Position in dem Koordinatensystem bekannt ist, Errechnen der Lage der dynamischen Lichtebene zumindest auch aus den Stützkoordinaten von Stützpunkten, die in der dynamischen Lichtebene liegen, Errechnen von Oberflächenkoordinaten des Objektes in der dynamischen Lichtebene aus der Lage der dynamischen Lichtebene und Daten der Kamerabilder. Erfindungsgemäß ist vorgesehen, dass die Stützpunkte auf der Oberfläche des Objektes liegen.

Description

3D-Geometrie-Erfassungsverfahren und -Vorrichtung
Die Erfindung betrifft ein 3D-Geometrie-Erfassungsverfahren und eine SD- Geometrie-Erfassungsvorrichtung.
Verfahren, mit denen die dreidimensionale Geometrie eines zu vermessenden Objektes erfasst werden können, sind in Form von triangulationsbasierten Laserscan- und Lichtschnitttechniken seit über 20 Jahren bekannt. Bei den meisten bekannten Ansätzen werden zwei Kameras und/oder ein relativ teurer Lichtprojektor benötigt. Andere Systeme arbeiten mit nur einer Kamera und einer Licht- bzw. Laserebene. Dazu kann beispielsweise ein Laserstrahl per Linse zu einer Ebene aufgefächert werden.
Mit einer derartigen Laserebene wird die Oberfläche des zu vermessenden Objektes beleuchtet, und die an der Oberfläche des zu scannenden Objektes reflektierten Lichtstrahlen mit der Kamera aufgefangen. Ist die räumliche Lage der Laserebene bezüglich der Kamera bekannt, kann per Triangulation, also durch Bestimmen des Schnittpunktes des Sehstrahls der Kamera mit der Laserebene der Punkt auf der Oberfläche des Objektes exakt bestimmt werden.
Die Lichtquelle zum Erzeugen der Licht- oder Laserebene wird meist per Schrittmotor über das zu vermessende Objekt geschwenkt, um über die Oberfläche des Objektes zu rastern und so ein dreidimensionales Abbild des zu vermessenden Objektes zu erhalten. Alternativ kann die Laserebene auch mit einem externen Messsystem bestimmt werden. Dabei wird die Winkelposition der Lichtquelle durch einen Winkelsensor gemessen und die Kamera so mit dem Schrittmotor synchronisiert, dass jedem Bild genau eine Winkelposition zugeordnet werden kann. Neuere Arbeiten auf diesem Gebiet schlagen vor, die räumliche Lage der Lichtoder Laserebene über eine automatische Analyse des Kamerabildes zu vermessen. Dazu muss stets eine bekannte Kalibriergeometrie im Kamerabild sichtbar sein. Beispielsweise kann aus der Lage der projizierten Lichtlinien auf der Kalibriergeometrie die Lage der zugehörigen Lichtebene errechnet werden.
Nachteilig bei den bekannten Lösungen ist, dass entweder die Laser- oder Lichtebene über zusätzliche Aktorik rotiert und verschoben oder die Lage der Ebene über eine externe Sensorik vermessen werden muss. Aufgrund der hohen Genauigkeit, die bei der 3D-Geometrie-Erfassung benötigt wird, sind beide Lösungen teuer. Zudem ist eine beispielsweise per Schrittmotor schwenkbare Laserebene unflexibel, da insbesondere bei komplizierten zu vermessenden Objekten manche Bereiche der Oberfläche nicht erfasst werden können, da sie im Schatten anderer Bereiche liegen.
Aus der US 6,415,051 B1 ist ein gattungsgemäßes Verfahren bekannt. Nachteilig an dem Verfahren ist, dass stets eine Referenzfläche vorhanden sein muss, deren Lage relativ zur Kamera bekannt ist. Wird aber die Lage der Licht- oder Laserebene über eine Analyse des Kamerabildes bestimmt, muss immer eine bekannte Geometrie in die zu vermessende Szene gestellt werden. Dies macht das Verfahren unflexibel, da insbesondere große Objekte und Ausschnitte großer Objekte nicht vermessen werden können, da in diesen Fällen keine Kalibriergeometrie im Kamerabild sichtbar ist. Zudem ist es nicht immer möglich, eine Kalibriergeometrie in das Kamerabild zu stellen, beispielsweise wenn archäologische Funde vermessen werden sollen, die sich noch im Erdboden befinden.
Aus der US 2005/0231734 A1 ist eine Messvorrichtung bekannt, bei der die Geometrie von Objekten erfasst wird, die auf einem Förderband bewegt werden. Nachteilig hieran ist, dass beispielsweise bei Feldversuchen kein entsprechend eingerichtetes Förderband vorhanden ist. Aus der DE 101 37 241 A1 ist ein Verfahren zum Registrieren von Tiefenbildern mittels optisch projizierter Marken bekannt. Nachteilig ist hieran, dass eine große Anzahl an Marken auf das Objekt projiziert werden muss, damit die Oberfläche des zu vermessenden Objekts mit einer hohen Auflösung erfasst werden kann.
Der Erfindung liegt die Aufgabe zugrunde, die 3D-Geometrie-Erfassung so zu verbessern, dass keine Referenzfläche notwendig und eine schnelle Erfassung möglich ist.
Die Erfindung löst die Aufgabe durch ein 3D-Geometrie-Erfassungsverfahren gemäß Anspruch 1 und eine 3D-Geometrie-Erfassungsvorrichtung gemäß Anspruch 5.
Im erfindungsgemäßen Verfahren sollen die Koordinaten der Punkte auf der Oberfläche des Objektes bestimmt werden, die in der dynamischen Lichtebene liegen. Dazu wird im Verfahrensschritt c) Licht in der dynamischen Lichtebene ausgesandt, so dass auf der Oberfläche des Objektes ein beleuchteter Streifen erscheint.
Im Verfahrensschritt d) werden Kamerabilder des so beleuchteten Objektes mit einer Kamera aufgenommen, die außerhalb der dynamischen Lichtebene angeordnet ist.
Einige der Punkte auf der Oberfläche, die auf dem beleuchteten Streifen liegen, sind Stützpunkte, deren Stützkoordinaten im Verfahrensschritt b) bestimmt wurden. Durch Auswerten der in Verfahrensschritt d) aufgenommenen Kamerabilder werden die Stützpunkte identifiziert, die in der dynamischen Lichtebene liegen, die also auf dem beleuchteten Streifen liegen. Aus den Stützkoordinaten dieser Stützpunkte wird die Lage der dynamischen Lichtebene errechnet. Ist die Lage der dynamischen Lichtebene bekannt, können dann die Oberflächenkoordinaten der Oberflächenpunkte des Objektes bestimmt werden, die auf dem beleuchteten Streifen liegen, indem der Sehstrahl der Kamera mit der Lichtebene geschnitten wird. Zum Errechnen der Lage der dynamischen Lichtebene im Verfahrensschritt e) ist es beispielsweise ausreichend, wenn die Stützkoordinaten dreier Stützpunkte in der dynamischen Lichtebene bekannt sind, sofern diese nicht auf einer Geraden liegen.
Zum Bestimmen von Koordinaten weiterer Punkte auf der Oberfläche des Objektes wird anschließend das Verfahren ab Verfahrensschritt c) mit dem Aussenden von Licht in einer neuen dynamischen Lichtebene wiederholt. Die im Verfahrensschritt f) errechneten Oberflächenkoordinaten werden dabei vorteilhafterweise als weitere Stützkoordinaten für das Errechnen der Lage der neuen dynamischen Lichtebene mit verwendet.
Erfindungsgemäß umfasst der Verfahrensschritt b) die folgenden Schritte: b1) Aussenden von Licht in zumindest einer statischen Lichtebene, deren
Lage im Koordinatensystem bekannt ist, so dass die Oberfläche des Objektes bestrahlt wird, b2) Aufnehmen von Stützpunktkamerabildern des beleuchteten Objektes mit der Kamera, die außerhalb der mindestens einen statischen Lichtebene angeordnet ist, b3) Errechnen von Stützkoordinaten auf der Oberfläche des Objektes in der mindestens einen statischen Lichtebene aus Daten der Stützpunktkamerabilder und der Lage der mindestens einen statischen Lichtebene.
Im Verfahrensschritt b3) werden wieder über die Triangulation die Schnittpunkte der Sehstrahlen der Kamera mit der mindestens einen statischen Lichtebene berechnet. Da die Lage der mindestens einen statischen Lichtebene im Koordinatensystem bekannt ist, ist dies ohne Probleme möglich. Die so gewonnenen Stützkoordinaten von Stützpunkten auf der Oberfläche des Objektes werden im Verfahrensschritt e) zum Errechnen der Lage der dynamischen Lichtebene verwendet. Vorteilhafterweise wird im Verfahrensschritt b1) Licht in zumindest drei statischen Lichtebenen ausgesandt, die parallel zueinander verlaufen, beispielsweise vertikal. Auf diese Weise ist sichergestellt, dass jede dynamische Lichtebene, in der im Verfahrensschritt c) Licht ausgesandt wird und die nicht parallel zu den statischen Lichtebenen ist, zumindest drei statische Lichtebenen schneidet und somit wenigstens drei Stützpunkte enthält, deren Stützkoordinaten bekannt sind. Sofern diese mindestens drei Stützpunkte nicht auf einer Geraden liegen, kann die Lage der dynamischen Lichtebene ermittelt werden.
Vorzugsweise werden beim Errechnen der Lage der dynamischen Lichtebene im Verfahrensschritt e) Stützkoordinaten von wenigstens zwei Punkten auf der Oberfläche des zu vermessenden Objektes in der dynamischen Lichtebene verwendet. Sind die Stützkoordinaten von mehr als zwei Stützpunkten in der dynamischen Lichtebene bekannt, wird die Lage der dynamischen Lichtebene aus diesen Stützkoordinaten errechnet.
Enthält die dynamische Lichtebene jedoch nur zwei Stützpunkte, deren Stützkoordinaten bekannt sind, wird zum Errechnen der Lage der dynamischen Lichtebene ein weiterer Punkt benötigt. Dies ist beispielsweise die Position der Lichtquelle, die das Licht in der dynamischen Lichtebene aussendet.
Vorzugsweise werden beim Errechnen der Lage der dynamischen Lichtebene im Verfahrensschritt e) die Stützkoordinaten wenigstens eines Punktes auf der Oberfläche des zu vermessenden Objektes in der dynamischen Lichtebene und ein Winkel der dynamischen Lichtebene zur Horizontalen verwendet.
Vorzugsweise wird im Verfahrensschritt c) die Oberfläche des Objektes sowohl direkt, indirekt über einen ersten Spiegel, als auch indirekt über einen zweiten Spiegel bestrahlt, so dass das Objekt über seinen Umfang in der dynamischen Lichtebene beleuchtet wird und die Kamera im Verfahrensschritt d) Bilder des vollständigen beleuchteten Umfangs des Objektes in der dynamischen Lichtebene aufnimmt. Auf diese Weise ist sichergestellt, dass auch der von der Ka- mera abgewandte Teil der Oberfläche des zu vermessenden Objektes mit er- fasst wird.
Eine erfindungsgemäße 3D-Geometrie-Erfassungsvorrichtung umfasst mindestens eine statische Lichtquelle, die eingerichtet ist zum Abgeben von Licht in einer statischen Lichtebene und eine außerhalb der statischen Lichtquelle relativ zu der mindestens einen statischen Lichtquelle unbeweglich angeordnete Kamera sowie eine elektrische Steuerung, die eingerichtet ist zum Durchführen eines oben beschriebenen Verfahrens..
Ein zu vermessendes 3D-Objekt wird dann so angeordnet, dass es sowohl vom Licht der statischen Lichtquelle bestrahlt wird, als sich auch in dem Kamerabild der Kamera befindet. Da die statische Lichtquelle relativ zur Kamera unbeweglich ist, ist ihre Position im Koordinatensystem der Kamera bekannt. Somit ist auch die Lage der mindestens einen statischen Lichtebene bekannt. Die Vermessung der Oberflächenkoordinaten einer von einem statischen Laser beleuchteten Oberfläche ist mathematisch einfach und schnell durchführbar.
Durch die erfindungsgemäße Vorrichtung ist es folglich möglich, die für die Durchführung eines erfindungsgemäßen 3D-Geometrie-Erfassungsverfahrens notwendigen Stützkoordinaten von Stützpunkten auf der Oberfläche zu bestimmen. Dazu werden einfach die im Kamerabild sichtbaren Laser- bzw. Lichtlinien analysiert, die beim Auftreffen des von der mindestens einen statischen Lichtquelle ausgesandten Lichtes auf der Oberfläche des zu erfassenden Objektes entstehen.
Vorzugsweise umfasst die 3D-Geometrie-Erfassungsvorrichtung eine dynamische Lichtquelle, die eingerichtet ist zum Abgeben von Licht in einer dynamischen Lichtebene. Bevorzugt ist diese dynamische Lichtquelle ein separates Bauteil ohne Verbindung zur Kamera. Dabei handelt es sich beispielsweise um eine frei bewegliche, handgeführte Lichtquelle, die Licht in einer Lichtebene abgeben kann, nämlich der oben beschriebenen dynamischen Lichtebene. Sobald die dynamische Lichtebene der frei beweglichen Lichtquelle auf bereits vermessene Punkte der Oberfläche trifft, kann die räumliche Lage der dynamischen Lichtebene einfach automatisch berechnet werden, wodurch im Folgenden die restlichen Oberflächenpunkte entlang der Lichtlinie vermessen werden können. Dadurch, dass die dynamische Lichtquelle frei beweglich und ohne Verbindung zur Kamera ist, können insbesondere alle Punkt der Oberfläche des Objektes vermessen werden. Beispielsweise ist die dynamische Lichtquelle ein Hand- Fächerlaser.
Alternativ ist die dynamische Lichtquelle schwenkbar mit der Kamera verbunden. Auf diese Weise ist die Lage der dynamischen Lichtebene bis auf einen Freiheitsgrad/Parameter bekannt, so dass zum Errechnen der Lage der dynamischen Lichtebene die Koordinaten der dynamischen Lichtquelle mit verwendet werden und somit weniger Stützpunkte auf der Oberfläche des Objektes benötigt werden.
Vorteilhaft an der Erfindung ist, dass ein externes Sensorsystem zur Vermessung der räumlichen Lage der dynamischen Lichtebene entbehrlich ist. Dadurch werden die Herstellungskosten für die 3D-Geometrie-Erfassungsvorrichtung deutlich reduziert. Zudem wird keine Aktorik benötigt, um die dynamische Lichtebene über das zu erfassende Objekt wandern zu lassen. Da die Kamera un- synchronisiert arbeiten kann, ist zum Beispiel eine einfache Webcam verwendbar. Zudem sind das erfindungsgemäße Verfahren und die erfindungsgemäße Vorrichtung äußerst flexibel, da auch große Objekte oder Objekte, die durch ihre Lage die Verwendung einer separaten Kalibriergeometrie unmöglich machen, vermessen werden können.
Die Anwendungsgebiete eines erfindungsgemäßen Verfahrens bzw. einer erfindungsgemäßen Vorrichtung finden sich im Rapid Prototyping, der Qualitätskontrolle, der Orthopädie, Dentaltechnik oder Archäologie ebenso wie in der Computergrafik oder Modellierung, dem Design, der Architektur oder der Kriminologie. Vorteilhafterweise umfasst die 3D-Geometrie-Erfassungsvorrichtung einen ersten Spiegel und einen zweiten Spiegel zum Reflektieren eines Teils des von der dynamischen Lichtquelle ausgesandten Lichtes, wobei die beiden Spiegel einen Winkel von weniger als 180° bilden und so angeordnet sind, dass das zu vermessende Objekt über seinen Umfang in der dynamischen Lichtebene beleuchtbar ist und mit der Kamera ein Bild des vollständigen Umfangs des Objektes in der dynamischen Lichtebene aufnehmbar ist. Auf diese Weise kann auch die der Kamera abgewandte Seite der Oberfläche des zu vermessenden Objektes vermessen werden, ohne dass das Objekt bewegt oder die Vorrichtung umgebaut werden müsste. Dadurch wird die Dauer der Vermessung eines Objektes deutlich reduziert, was insbesondere dann von Vorteil ist, wenn das Objekt sich bewegt.
Im Folgenden wird die Erfindung anhand der beigefügten Zeichnungen näher erläutert. Dabei zeigt
Figur 1 den schematischen Aufbau einer SD-Geometrie-
Erfassungsvorrichtung nach einem Ausführungsbeispiel der vorliegenden Erfindung und
Figur 2 den schematischen Aufbau einer SD-Geometrie-
Erfassungsvorrichtung nach einem anderen Ausführungsbeispiel der vorliegenden Erfindung.
In Figur 1 ist der schematische Aufbau einer 3D-Geometrie- Erfassungsvorrichtung nach einem Ausführungsbeispiel der vorliegenden Erfindung gezeigt. Die dort gezeigte 3D-Geometrie-Erfassungsvorrichtung umfasst eine Kamera 2, die unbeweglich mit drei statischen Lichtquellen 4.1 , 4.2, 4.3 verbunden ist. Die statischen Lichtquellen 4.1 , 4.2, 4.3 sind eingerichtet zum Aussenden von Licht einer ersten Farbe, beispielsweise rot, in jeweils einer statischen Lichtebene 6.1 , 6.2, 6.3. Das von den statischen Lichtquellen 4.1 , 4.2, 4.3 ausgesandte Licht trifft auf ein zu vermessendes Objekt 8. Auf diesem Objekt 8 entstehen durch das von den statischen Lichtquellen 4.1 , 4.2, 4.3 ausgesandte Licht statische Lichtlinien 10.1 , 10.2, 10.3.
Die Position der statischen Lichtquellen 4.1 , 4.2, 4.3 relativ zur Kamera 2 ist bekannt. Somit ist auch die Lage der statischen Lichtebenen 6.1 , 6.2, 6.3 im Koordinatensystem der Kamera 2 bekannt. Über Triangulation können somit die Stützkoordinaten der Stützpunkte auf den statischen Lichtlinien 10.1 , 10.2, 10.3 einfach errechnet werden.
Die in Figur 1 gezeigte 3D-Geometrie-Erfassungsvorrichtung umfasst weiter eine dynamische Lichtquelle 12, im vorliegenden Fall in Form eines Hand- Fächerlasers, der grünes Licht abgibt. Die dynamischen Lichtquelle 12 sendet Licht in einer dynamischen Lichtebene 14 aus. Auch das von der dynamischen Lichtquelle 12 ausgesandte Licht trifft auf das zu vermessende Objekt und bildet dort eine dynamische Lichtlinie 16. Die dynamischen Lichtquelle 12 ist im in Figur 1 gezeigten Ausführungsbeispiel frei beweg- und schwenkbar, so dass in der Regel weder ihre Position im Koordinatensystem der Kamera 2 noch die Lage der dynamischen Lichtebene 14 in diesem Koordinatensystem bekannt sind.
Die dynamischen Lichtlinie 16 schneidet im in Figur 1 gezeigten Beispiel die drei statischen Lichtlinien 10.1 , 10.2, 10.3, deren Stützkoordinaten bekannt sind. Die dynamischen Lichtlinie 16 umfasst folglich drei Stützpunkte 18.1 , 18.2, 18.3, die im in Figur 1 gezeigten Ausführungsbeispiel nicht auf einer Geraden liegen. Aus den Stützkoordinaten dieser drei Stützpunkte 18.1 , 18.2, 18.3 wird die Lage der dynamischen Lichtebene 14 im Koordinatensystem der Kamera 2 bestimmt. Sobald die Lage der dynamischen Lichtebene 14 bestimmt ist, wird über Triangulation die gesamte dynamische Lichtlinie 16 vermessen. Beispielsweise werden die Koordinaten eines Punkts 20 dadurch bestimmt, dass der Schnittpunkt zwischen der nun bekannten dynamischen Lichtebene 14 mit einem Sehstrahl 22 berechnet wird. Der Sehstrahl 22 wird errechnet aus dem von de Kamera 2 aufgenommenen Bild des Punkts 20.
Anschließend wird die dynamische Lichtquelle 12 weiterbewegt, so dass eine neue dynamische Lichtebene 14 entsteht. Auch diese lässt, solange sie nicht parallel zu den statischen Lichtebenen 6.1 , 6.2, 6.3 ist, eine dynamische Lichtlinie 16 auf der Oberfläche des Objektes 8 entstehen lassen, die die drei statischen Lichtlinien 10.1 , 10.2, 10.3 schneidet, so dass auch auf der neuen dynamischen Lichtlinie 16 die Stützkoordinaten von wenigstens drei Stützpunkten bekannt sind.
Die dynamische Lichtquelle wird nun so lange in unterschiedlichen Richtungen auf dem Objekt gerichtet, bis für hinreichend viele Punkte auf der Oberfläche die Koordinaten bestimmt sind. Es ist möglich, mehr als eine dynamische Licht- quelle zu verwenden, die vorzugsweise Licht verschiedener Farben aussenden.
In Figur 2 ist eine 3D-Geometrie-Erfassungsvorrichtung gemäß einem anderen Ausführungsbeispiel der vorliegenden Erfindung gezeigt. Sie umfasst ebenfalls eine Kamera 2, die mit einer statischen Lichtquelle 4.1 unbeweglich verbunden ist.
Die statische Lichtquelle 4.1 sendet Licht in der statischen Lichtebene 6.1 auf das zu vermessende Objekt 8, so dass auf diesem die statische Lichtlinie 10.1 entsteht. Die Stützkoordinaten der Punkte auf der statischen Lichtlinie 10.1 werden über von der Kamera 2 aufgenommene Bilder einfach errechnet, da sowohl die Position der statischen Lichtquelle 4.1 als auch die Lage der statischen Ebene 6.1 im Koordinatensystem der Kamera 2 bekannt ist.
Die in Figur 2 gezeigte 3D-Geometrie-Erfassungsvorrichtung umfasst die dynamische Lichtquelle 12, deren Position relativ zur Kamera 2 unveränderlich ist. Die dynamische Lichtquelle 12 sendet Licht in der dynamischen Lichtebene 14 aus, das auf das zu vermessende Objekt 8 trifft und dort die dynamische Lichtlinie 16 entstehen lässt. Die dynamische Lichtquelle 12 ist in dem in Figur 2 gezeigten Ausführungsbeispiel um eine Schwenkachse A um einen Winkel φ schwenkbar gelagert. Dabei ist die Lage der Schwenkachse A bekannt.
Die dynamische Lichtlinie 16 schneidet im in Figur 2 gezeigten Ausführungsbeispiel lediglich eine statische Lichtlinie 10.1. Sie umfasst folglich auch nur einen Stützpunkt 18, dessen Koordinaten aus denen der Lage der dynamischen Lichtebene 14 berechnet wird.
Ist die Lage der dynamischen Lichtebene 14 im Raum bekannt, werden die Koordinaten der anderen Punkte auf der dynamischen Lichtlinie 16, beispielsweise Punkt 20, mittels Triangulation ermittelt. Anschließend wird der Winkel φ der dynamischen Lichtebene 14 verändert, so dass eine neue dynamische Lichtlinie 16 auf dem zu vermessenden Objekt 8 entsteht. Solange die dynamische Licht- ebene 14 nicht parallel zur statischen Lichtebene 6.1 ist, werden die beiden Lichtebenen 6.1 , 14 sich schneiden, so dass auch hier wieder die Stützkoordinaten eines Stützpunktes bekannt sind.
Für die Berechnung der Punkte auf der Oberfläche des Objekts 8 muss der Winkel φ - anders als bei bekannten Verfahren - nicht gemessen werden, weil er viel genauer anhand des Stützpunkts 18 berechnet werden kann. Dadurch kann ein etwaig vorhandener Schwenkantrieb für die dynamische Lichtquelle 14 unsynchronisiert zur Kamera 2 sein. Auch ist ein Winkelmesser entbehrlich.
Bezugszeichen liste
2 Kamera
4.1 , 4.2, 4.3 statische Lichtquelle
6.1 , 6.2, 6.3 statische Lichtebene
8 Objekt
10.1, 10.2, 10.3 statische Lichtlinie
12 dynamische Lichtquelle
14 dynamische Lichtebene
16 dynamischen Lichtlinie
18 Stützpunkt
20 Punkt
22 Sehstrahl
A Schwenkachse
Φ Winkel

Claims

Ansprüche:
1. 3D-Geometrie-Erfassungsverfahren mit den Schritten
(a) Bereitstellen eines Objektes mit einer Oberfläche, deren Geometrie zu vermessen ist,
(b) Bestimmung von Stützkoordinaten von Stützpunkten in einem vorgegebenen Koordinatensystem,
(c) Aussenden von Licht in einer dynamischen Lichtebene, so dass die Oberfläche des Objektes beleuchtet wird und genügend Stützpunkte in der dynamischen Lichtebene liegen, um eine Lage der dynamischen Lichtebene in dem Koordinatensystem zu berechnen,
(d) Aufnehmen von Kamerabildern des beleuchteten Objektes mit einer außerhalb der dynamischen Lichtebene angeordneten Kamera, deren Position in dem Koordinatensystem bekannt ist,
(e) Errechnen der Lage der dynamischen Lichtebene zumindest auch aus den Stützkoordinaten von Stützpunkten, die in der dynamischen Lichtebene liegen,
(f) Errechnen von Oberflächenkoordinaten des Objektes in der dynamischen Lichtebene aus der Lage der dynamischen Lichtebene und Daten der Kamerabilder, dadurch gekennzeichnet, dass
(g) die Stützpunkte auf der Oberfläche des Objektes liegen.
2. 3D-Geometrie-Erfassungsverfahren nach Anspruch 1 , dadurch gekennzeichnet, dass der Verfahrensschritt b) die folgenden Schritte umfasst: b1) Aussenden von Licht in zumindest einer statischen Lichtebene, deren Lage im Koordinatensystem bekannt ist, so dass die Oberfläche des Objektes bestrahlt wird, b2) Aufnehmen von Stützpunkt-Kamerabildern des beleuchteten Objektes mit der Kamera, die außerhalb der mindestens einen statischen Lichtebene angeordnet ist, b3) Errechnen von Stützkoordinaten auf der Oberfläche des Objektes in der mindestens einen statischen Lichtebene aus Daten der Stützpunkt-Kamerabilder und der Lage der mindestens einen statischen Lichtebene.
3. 3D-Geometrie-Erfassungsverfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass beim Errechnen der Lage der dynamischen Lichtebene im Verfahrensschritt e) Stützkoordinaten von wenigstens zwei Punkten auf der Oberfläche des zu vermessenden Objektes in der dynamischen Lichtebene verwendet werden.
4. 3D-Geomethe-Erfassungsverfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass beim Errechnen der Lage der dynamischen Lichtebene im Verfahrensschritt e) die Stützkoordinaten wenigstens eines Punktes auf der Oberfläche des zu vermessenden Objektes in der dynamischen Lichtebene und ein Winkel der dynamischen Lichtebene zur Horizontalen verwendet werden.
5. 3D-Geometrie-Erfassungsverfahren nach einem der vorstehenden Ansprüche dadurch gekennzeichnet, dass im Verfahrensschritt c) die Oberfläche des Objektes i) direkt, ii) indirekt über einen ersten Spiegel, und iii) indirekt über einen zweiten Spiegel bestrahlt wird, sodass das Objekt über seinen Umfang in der dynamischen Lichtebene beleuchtet wird und die Kamera im Verfahrensschritt d) Bilder des vollständigen beleuchteten Umfangs des Objektes in der dynamischen Lichtebene aufnimmt.
6. 3D-Geometrie-Erfassungsvorrichtung mit mindestens einer statischen Lichtquelle, die eingerichtet ist zum Abgeben von Licht in einer statischen Lichtebene und einer außerhalb der statischen Lichtebene relativ zu der mindestens einen statischen Lichtquelle unbeweglich angeordneten Kamera.
7. 3D-Geometrie-Erfassungsvorrichtung nach Anspruch 6 gekennzeichnet durch eine dynamische Lichtquelle, die eingerichtet ist zum Abgeben von Licht in einer dynamischen Lichtebene.
8. 3D-Geometrie-Erfassungsvorrichtung nach Anspruch 7, dadurch gekennzeichnet, dass die dynamische Lichtquelle ein separates Bauteil ohne Verbindung zur Kamera ist.
9. 3D-Geometrie-Erfassungsvorrichtung nach Anspruch 7, dadurch gekennzeichnet, dass die dynamische Lichtquelle schwenkbar mit der Kamera verbunden ist.
10. 3D-Geometrie-Erfassungsvorrichtung nach einem der Ansprüche 6 bis 9, gekennzeichnet durch eine elektrische Steuerung, die eingerichtet ist zum Durchführen eines Verfahrens nach einem der Ansprüche 1 bis 5.
11. 3D-Geometrie-Erfassungsvorrichtung nach einem der Ansprüche 6 bis 10, gekennzeichnet durch einen ersten Spiegel und einen zweiten Spiegel zum Reflektieren eines Teils des von der dynamischen Lichtquelle ausgesandten Lichtes, wobei die Spiegel, die einen Winkel von weniger als 180° bilden und so angeordnet sind, dass das Objekt über seinen Umfang in der dynamischen Lichtebene beleuchtbar ist und mit der Kamera ein Bild des vollständigen Umfangs des Objektes in der dynamischen Lichtebene aufnehmbar ist.
PCT/DE2009/001331 2008-09-25 2009-09-23 3d-geometrie-erfassungsverfahren und -vorrichtung WO2010034301A2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE200810048963 DE102008048963B4 (de) 2008-09-25 2008-09-25 3D-Geometrie-Erfassungsverfahren und -vorrichtung
DE102008048963.8 2008-09-25

Publications (2)

Publication Number Publication Date
WO2010034301A2 true WO2010034301A2 (de) 2010-04-01
WO2010034301A3 WO2010034301A3 (de) 2010-05-20

Family

ID=41683025

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2009/001331 WO2010034301A2 (de) 2008-09-25 2009-09-23 3d-geometrie-erfassungsverfahren und -vorrichtung

Country Status (2)

Country Link
DE (1) DE102008048963B4 (de)
WO (1) WO2010034301A2 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009120073A2 (en) * 2008-03-24 2009-10-01 Bantwal Janardrian Mohandas Rao A dynamically calibrated self referenced three dimensional structured light scanner
WO2010138543A1 (en) * 2009-05-29 2010-12-02 Perceptron, Inc. Hybrid sensor
US7995218B2 (en) 2009-05-29 2011-08-09 Perceptron, Inc. Sensor system and reverse clamping mechanism
US8243289B2 (en) 2009-05-29 2012-08-14 Perceptron, Inc. System and method for dynamic windowing
KR20170136618A (ko) * 2015-04-22 2017-12-11 신닛테츠스미킨 카부시키카이샤 형상 측정 장치 및 형상 측정 방법

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012003620B4 (de) * 2012-02-20 2014-02-27 Salzgitter Mannesmann Grobblech Gmbh Verfahren und Vorrichtung zur berührungslosen geometrischen Vermessung eines Messobjektes
US9947813B2 (en) 2012-07-27 2018-04-17 Zfx Gmbh System and method for illuminating a sample and collecting light reflected from the sample
DE202013103339U1 (de) 2012-07-27 2013-10-31 Zfx Gmbh Scan-System
EP2829329A1 (de) 2013-07-22 2015-01-28 Hans-Michael Hangleiter GmbH Verfahren zum Versehen einer Oberfläche eines festen Substrats bzw. Bauteils mit einer Schicht aus mindestens einer sublimierbaren Verbindung, insbesondere mit einer Cyclododecanschicht, sowie nach diesem Verfahren erhältliches Substrat bzw. Bauteil
EP2829328A1 (de) 2013-07-22 2015-01-28 Hans-Michael Hangleiter GmbH Applikationsvorrichtung zur Anbringung mindestens einer sublimierbaren kondensierbaren Verbindung, insbesondere von kondensierbarem Cyclododecan, auf Oberflächen von festen Substraten bzw. Bauteilen sowie Vorrichtung zur Bestimmung der Güte, insbesondere der Oberfläche, eines festen Substrats bzw. Bauteils
DE102017208106A1 (de) 2017-05-15 2018-11-15 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur zumindest abschnittsweisen, bevorzugt vollständigen Bestimmung der äußeren und inneren Geometrie eines Bauteils mit wenigstens einem Hohlraum
ES2931500T3 (es) 2018-12-03 2022-12-30 Siemens Ag Planificación operativa predictiva en una microrred con intercambio de potencia entre la microrred y una red eléctrica principal

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6415051B1 (en) 1999-06-24 2002-07-02 Geometrix, Inc. Generating 3-D models using a manually operated structured light source
DE10137241A1 (de) 2001-03-15 2002-09-19 Tecmath Ag Registrierung von Tiefenbildern mittels optisch projizierter Marken
US20050231734A1 (en) 2004-04-19 2005-10-20 Ivp Integrated Vision Products Ab Measuring apparatus and method in a distribution system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2767340B2 (ja) * 1991-12-26 1998-06-18 ファナック株式会社 物体の3次元位置・姿勢計測方式
US7876455B2 (en) * 2004-08-03 2011-01-25 TechnoDream21 Co., Ltd. Three-dimensional shape measuring method and apparatus for the same
WO2009120073A2 (en) * 2008-03-24 2009-10-01 Bantwal Janardrian Mohandas Rao A dynamically calibrated self referenced three dimensional structured light scanner

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6415051B1 (en) 1999-06-24 2002-07-02 Geometrix, Inc. Generating 3-D models using a manually operated structured light source
DE10137241A1 (de) 2001-03-15 2002-09-19 Tecmath Ag Registrierung von Tiefenbildern mittels optisch projizierter Marken
US20050231734A1 (en) 2004-04-19 2005-10-20 Ivp Integrated Vision Products Ab Measuring apparatus and method in a distribution system

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009120073A2 (en) * 2008-03-24 2009-10-01 Bantwal Janardrian Mohandas Rao A dynamically calibrated self referenced three dimensional structured light scanner
WO2009120073A3 (en) * 2008-03-24 2010-11-11 Bantwal Janardhan Mohandas Rao A dynamically calibrated self referenced three dimensional structured light scanner
WO2010138543A1 (en) * 2009-05-29 2010-12-02 Perceptron, Inc. Hybrid sensor
US7995218B2 (en) 2009-05-29 2011-08-09 Perceptron, Inc. Sensor system and reverse clamping mechanism
US8031345B2 (en) 2009-05-29 2011-10-04 Perceptron, Inc. Hybrid sensor
US8227722B2 (en) 2009-05-29 2012-07-24 Perceptron, Inc. Sensor system and reverse clamping mechanism
US8233156B2 (en) 2009-05-29 2012-07-31 Perceptron, Inc. Hybrid sensor
US8243289B2 (en) 2009-05-29 2012-08-14 Perceptron, Inc. System and method for dynamic windowing
US8395785B2 (en) 2009-05-29 2013-03-12 Perceptron, Inc. Hybrid sensor
KR20170136618A (ko) * 2015-04-22 2017-12-11 신닛테츠스미킨 카부시키카이샤 형상 측정 장치 및 형상 측정 방법
EP3270104A4 (de) * 2015-04-22 2018-08-22 Nippon Steel & Sumitomo Metal Corporation Formmessvorrichtung und formmessverfahren
KR101950634B1 (ko) 2015-04-22 2019-02-20 신닛테츠스미킨 카부시키카이샤 형상 측정 장치 및 형상 측정 방법
US10451410B2 (en) 2015-04-22 2019-10-22 Nippon Steel Corporation Shape measurement apparatus and shape measurement method

Also Published As

Publication number Publication date
WO2010034301A3 (de) 2010-05-20
DE102008048963A1 (de) 2010-04-22
DE102008048963B4 (de) 2011-08-25

Similar Documents

Publication Publication Date Title
DE102008048963B4 (de) 3D-Geometrie-Erfassungsverfahren und -vorrichtung
AT506110B1 (de) Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
EP3084347B1 (de) Verfahren zur durchführung und kontrolle eines bearbeitungsschritts an einem werkstück
DE19536297C2 (de) Verfahren zur geometrischen Kalibrierung von optischen 3D-Sensoren zur dreidimensionalen Vermessung von Objekten und Vorrichtung hierzu
DE102016118562A1 (de) Dreidimensionales bildgerät, das eine dichroitische kamera umfasst
DE102006015792A1 (de) Verfahren und System zur Formmessung einer reflektierenden Oberfläche
DE102017118767B4 (de) Verfahren und Vorrichtung zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts
EP2668468A1 (de) Kalibrierung von laser-lichtschnittsensoren bei gleichzeitiger messung
DE102006049695A1 (de) Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur
DE102004061338A1 (de) Automatische Bauteilprüfung
EP2105701A1 (de) Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
CH692873A5 (de) Vorrichtung und Verfahren zur geometrischen Kalibrierung von CCD-Kameras.
DE4212404B4 (de) Vorrichtung und Verfahren zur Bestimmung der räumlichen Form eines langgestreckten Bauteils
EP1640688A1 (de) Verfahren und Vorrichtung zur 3-dimensionalen Vermessung der Oberfläche eines Gegenstands
EP3640583A1 (de) Verfahren zur 3d-erfassung eines messobjekts
WO2019197656A1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE202018104053U1 (de) Messvorrichtung zur interferometrischen Vermessung eines Messobjekts
DE102005037094B3 (de) Kalibrierverfahren für einen Sensor zur Abstandsmessung
EP3044536A1 (de) Verfahren und vorrichtung zur vermessung von innengewinden eines werkstücks mit einem optischen sensor
DE102017212371B4 (de) Bestimmung einer Marke in einem Datensatz mit mittels zumindest eines Laserscanners erfassten dreidimensionalen Oberflächen-Koordinaten einer Szene
DE102005046764A1 (de) Verfahren zum Erzeugen eines Röntgenbildes einer Extremität eines Patienten mit einem Längenmaßstab
EP1821064A1 (de) Verfahren und Vorrichtung zum Erfassen einer Kontur einer reflektierenden Oberfläche
DE102018114480B3 (de) Abgleichverfahren für eine Strahlrichteinheit einer interferometrischen Messvorrichtung und Messvorrichtung zur Durchführung einer interferometrischen Messung mittels Laserstrahlung
CH702255A1 (de) Vorrichtung zur räumlichen Erfassung eines Objekts mittels optischer Abtastung.
DE10233372B4 (de) Messsystem und Verfahren zur Erfassung geometrischer Größen

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09771672

Country of ref document: EP

Kind code of ref document: A2

122 Ep: pct application non-entry in european phase

Ref document number: 09771672

Country of ref document: EP

Kind code of ref document: A2