DE102005043753A1 - Test sample surface point spatial coordinates determining method, involves computing spatial coordinates as projective reconstruction for all reference points, and converting coordinates of points into metric coordinates of surface points - Google Patents

Test sample surface point spatial coordinates determining method, involves computing spatial coordinates as projective reconstruction for all reference points, and converting coordinates of points into metric coordinates of surface points Download PDF

Info

Publication number
DE102005043753A1
DE102005043753A1 DE200510043753 DE102005043753A DE102005043753A1 DE 102005043753 A1 DE102005043753 A1 DE 102005043753A1 DE 200510043753 DE200510043753 DE 200510043753 DE 102005043753 A DE102005043753 A DE 102005043753A DE 102005043753 A1 DE102005043753 A1 DE 102005043753A1
Authority
DE
Germany
Prior art keywords
points
coordinates
camera
light
sensor unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE200510043753
Other languages
German (de)
Inventor
Dietmar Siepmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsche Mechatronics GmbH
Original Assignee
Deutsche Mechatronics GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsche Mechatronics GmbH filed Critical Deutsche Mechatronics GmbH
Priority to DE200510043753 priority Critical patent/DE102005043753A1/en
Publication of DE102005043753A1 publication Critical patent/DE102005043753A1/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

The method involves determining two dimensional coordinates of virtual intersection point for each camera. A reference point is provided from intersection point which is determined and coincides in all cameras. The spatial coordinates are computed as projective reconstruction for all the reference points. The spatial coordinates of the reference points are converted into metric coordinates of the surface points of the body. An independent claim is also included for a device for implementing a method for determining spatial coordinates of surface point of a test sample.

Description

Die Erfindung betrifft daher ein Verfahren zur Formerfassung und Überprüfung von Maßen (z.B. Abstände, Bögen, Winkel) von Prüflingen.The The invention therefore relates to a method for shape detection and verification of moderation (e.g., distances, Sheets, Angle) of test pieces.

Die Rekonstruktion der räumlichen Lage oder dreidimensionalen Form eines Objekts aus zweidimensionalen Fotografien bzw. Abbildungen dieses Objekts über fotogrammetrische Methoden ist grundsätzlich bekannt. Die Fotogrammetrie ermöglicht die berührungslose Rekonstruktion von räumlichen Koordinaten aus reflektierter oder emmitierter Strahlung. Bei einer stereoskopischen Betrachtung eines Gegenstandes mit zwei Kameras (vergleiche 1) können aus den zweidimensionalen Bildkoordinaten von Objektpunkten auf den Filmen oder den elektronischen Bildwandlern dreidimensionale Ortskoordinaten berechnet werden, sofern der Standort beider Kameras zueinander, sowie deren Eigenschaften, nämlich innere Parameter und Linsenverzerrungen, bekannt sind. Ist nichts über den Standort der Kameras oder deren innere Parameter wie z.B. die Brennweite der verwendeten Linse bekannt, arbeiten jedoch die Kameras weitestgehend nach dem Prinzip von Lochkameras oder sind die Kamerabilder entsprechend korrigiert, lässt sich trotzdem eine projektive Rekonstruktion der dreidimensionalen Ortskoordinaten bestimmen. Diese projektive Rekonstruktion lässt sich mit Hilfe bestimmter Informationen in eine metrische Rekonstruktion im Maßstab 1:1. überfürhren. Diese Informationen sind entweder bereits in den betrachteten Objekten enthalten oder werden z.B. in Form von Maßstäben und anderen Maßverkörperungen der Szenerie hinzugefügt. In der Praxis müssen hierbei bestimmte Abbildungseigenschaften der Kameras wie z.B. Veränderung der zweidimensionalen Bildkoordinaten durch Linsenverzerrungen, durch eine Kamerakalibrierung ermittelt werden, um die Kamerabilder gemäß der Abbildungscharakteristik einer Lochkamera zu korrigieren.The reconstruction of the spatial position or three-dimensional shape of an object from two-dimensional photographs or images of this object via photogrammetric methods is basically known. Photogrammetry allows non-contact reconstruction of spatial coordinates from reflected or emitted radiation. In a stereoscopic view of an object with two cameras (cf. 1 ) three-dimensional spatial coordinates can be calculated from the two-dimensional image coordinates of object points on the films or the electronic image converters, as long as the location of both cameras and their properties, namely internal parameters and lens distortions, are known. If nothing is known about the location of the cameras or their internal parameters such as the focal length of the lens used, however, the cameras largely work according to the principle of pinhole cameras or if the camera images are corrected accordingly, a projective reconstruction of the three-dimensional spatial coordinates can still be determined. This projective reconstruction can be transformed into a metric reconstruction on a scale of 1: 1 using specific information. überfürhren. This information is either already contained in the objects under consideration or is added to the scenery, for example in the form of scales and other material measures. In practice, certain imaging properties of the cameras, such as alteration of the two-dimensional image coordinates by lens distortions, must be determined by a camera calibration in order to correct the camera images in accordance with the imaging characteristic of a pinhole camera.

Ein grundlegendes Problem aller fotogrammetrischer Verfahren ist die eindeutige Bestimmung eines einzelnen Oberflächenpunktes in den verschiedenen Abbildungen. Bei mancher Anwendung genügt es, charakteristische Punkte an Ecken, Kanten oder sonstigen, markierten Stellen als Oberflächenpunkte zu benutzen. Sollen auch im Bereich von gleichförmigen Flächen Oberflächenpunkte betrachtet werden, so müssen diese markiert werden. Wie 1 an einem einfachen Körper 1 veranschaulicht, kann es bei Unebenheiten der Körperoberfläche durch Verdeckungen zu einer falschen Zuordnung der Punkte zueinander kommen. Als Beispiel sei eine ebene Fläche 2 mit einer rasterförmigen, rechtwinkligen Anordnung von markierten Punkten und einem Rahmen 3 gegeben. Ist nun in einem ersten Kamerabild 4 die linke Spalte des Rasters und in einem zweiten Kamerabild 5 die rechte Spalte des Rasters verdeckt, so ist die Anzahl und Anordnung der markierten Punkte gleich, ihre Zuordnung entsprechend ihrer Rasterposition in den jeweiligen Kamerabildern wäre jedoch falsch. Auch Abschattungen bewirken auf gleiche Art und Weise, dass erkennbare Bildpunkte, die von ihrer Anordnung her einander zugeordnet zu sein scheinen, tatsächlich unterschiedliche Punkte auf der Oberfläche des Körpers markieren. Vor allem bei der digitalen fotogrammetrischen Auswertung solcher Bilder werden Kamerabildpunkte falsch einander zugeordnet und erzeugen in der Rekonstruktion des Objekts Fehler in dessen Oberflächenstruktur. Dieses Problem der fehlerhaften Zuordnung von Kamerabildpunkten zu Oberflächenpunkten wird im folgenden als Korrespondenzproblem bezeichnet werden.A fundamental problem of all photogrammetric methods is the unambiguous determination of a single surface point in the different images. In some applications it is sufficient to use characteristic points on corners, edges or other marked points as surface points. If surface points are also to be considered in the area of uniform surfaces, these must be marked. As 1 on a simple body 1 In the case of unevenness in the surface of the body due to obstruction, misrepresentation of the points with respect to one another may occur. As an example let be a flat surface 2 with a grid-shaped, rectangular arrangement of marked points and a frame 3 given. Is now in a first camera picture 4 the left column of the grid and in a second camera image 5 If the right column of the grid is hidden, the number and arrangement of the marked points is the same, but their assignment according to their grid position in the respective camera images would be wrong. Shadows also act in the same way that recognizable pixels that appear to be associated with each other by their arrangement actually mark different points on the surface of the body. Especially in the digital photogrammetric evaluation of such images camera pixels are assigned to each other incorrectly and generate in the reconstruction of the object errors in its surface structure. This problem of incorrect mapping of camera pixels to surface points will be referred to as a correspondence problem in the following.

Um das Korrespondenzproblem zu vermeiden, werden z.B. bei der fotogrammetrischen Formkontrolle von Werkstücken spezielle Musterprojektoren verwendet. Wie 2 veranschaulicht, wird eine der Kameras durch einen Projektor ersetzt, welcher ein Muster projiziert, dessen Maße, Farbigkeiten, Helligkeitsverläufe und zeitliche Änderung exakt festgelegt sind. Dadurch erhalten einzelne Oberflächenpunkte eine eindeutige Kombination von Eigenschaften wie z.B. Helligkeit und/oder Farbe entlang der Zeitachse. Auf diese Weise können unterschiedliche Oberflächenpunkte in den zweidimensionalen Darstellungen der Kamerabilder identifiziert werden. Wurde das System aus Projektor und Kamera zuvor kalibriert, so kann über die eindeutig bestimmten Oberflächenpunkte die räumliche Form des Körpers rekonstruiert werden. Ein oft verwendeter Spezialfall des zuvor beschriebenen Verfahrens ist der kodierte Lichtschnittansatz mit oder ohne Phasenverschiebung mittels eines Streifenprojektors. Der Projektor ist hierbei so ausgeführt, dass er eine Serie von Mustern aus parallelen dunklen und hellen Streifen sequenziell projizieren kann, deren Breite mit jedem Projektionsschritt abnimmt. Das feinste Streifenmuster wird abschließend optional noch in mehreren Schritten quer zur Streifenlage verschoben. Aus dem Helligkeitsverlauf während der Projektionssequenz kann dann für jeden Punkt im Kamerabild ermittelt werden, welche Projektorzeile Ursprung der Lichtreflektion auf der Prüflingsoberfläche war.In order to avoid the correspondence problem, special sample projectors are used, for example, in the photogrammetric shape control of workpieces. As 2 1, one of the cameras is replaced by a projector which projects a pattern whose dimensions, colors, brightness gradients and temporal change are exactly defined. This gives individual surface points a unique combination of properties such as brightness and / or color along the time axis. In this way, different surface points in the two-dimensional representations of the camera images can be identified. If the system of projector and camera was previously calibrated, the spatial shape of the body can be reconstructed via the clearly determined surface points. A frequently used special case of the method described above is the coded light cut approach with or without phase shift by means of a strip projector. The projector is designed to sequentially project a series of patterns of parallel dark and light stripes, the width of which decreases with each projection step. Finally, the finest stripe pattern is optionally shifted in several steps across the strip position. From the brightness progression during the projection sequence, it can then be determined for each point in the camera image which projector line originated the light reflection on the specimen surface.

Die oben beschriebenen Methoden können bei wechselnden Fremdlichteinflüssen die Unterscheidung einzelner, durch abgestufte Helligkeit oder Farbe gekennzeichnete Musterpunkte nicht gewährleisten, zumal bei flächig projizierende Musterprojektoren sich die Lichtleistung auf eine relativ große Fläche verteilt und die verwendete Lichtleistung auf Grund technischer Einschränkungen nicht beliebig gesteigert werden kann. Daher machen Musterprojektoren, deren einzelne Musterpunkte über Helligkeit oder Farbigkeit gekennzeichnet werden, das umständliche Bereitstellen von Messvolumina mit kontrolliert einstellbaren Beleuchtungsverhältnissen notwendig.The above-described methods can not guarantee the distinction between individual sample points characterized by graduated brightness or color when the extraneous light influences are changing, especially since surface projecting projectors distribute the light output over a relatively large area and the light output used can not be arbitrarily increased due to technical limitations. Therefore, pattern projectors make their individual pattern points over Hellig Speed or color, the cumbersome provision of measurement volumes with controlled adjustable lighting conditions necessary.

Bei der industriellen Werkstückformkontrolle in Bereichen, in denen die Beleuchtungsverhältnisse nicht ausreichend kontrolliert werden können, haben sich daher unter den fotogrammetrische Kontrollverfahren diejenigen mit lichtstarken, zumeist auf Lasertechnik basierenden monochromen Punktmusterprojektoren etabliert. Bei diesen Musterprojektoren werden die einzelnen Musterpunkte durch ihre Position innerhalb des Gesamtmusters gekennzeichnet. Wie zuvor beschrieben, können Abschattungen und Verdeckungen zu fehlerhaften Punktidentifikationen führen. Gerade bei Mustern mit hoher Punktedichte erhöht sich die Problematik der Zuordnung. Die Mustererkennung unterliegt dem eingangs erläuterten Korrespondenzproblem. Wird die Punktedichte des Musters reduziert, so vereinfacht sich der zur Identifikation des Musters notwendige Rechenaufwand, während die Anzahl der zu erstellenden Aufnahmen, bis eine Körperoberfläche im Detail exakt beschrieben werden kann, ansteigt. Letzteres bedeutet, dass ein einfaches Muster so lange auf verschiedene Stellen des Körpers projiziert wird, bis die Dichte an Oberflächenpunkten mit bekannten Raumkoordinaten die Beschreibung der Körperoberfläche mit der angestrebten Detaillauflösung erlaubt (vergleiche 3). Die Anzahl an bekannten Oberflächenpunkten mit zugeordneten Raumkoordinaten steigt hierbei linear mit jeder weiteren Aufnahme um die Anzahl der im Muster insgesamt enthaltenen und identifizierten Punkte.In the industrial workpiece mold inspection in areas where the lighting conditions can not be controlled sufficiently, therefore, among the photogrammetric control methods those with bright, mostly based on laser technology monochrome dot pattern projectors have been established. In these pattern projectors, the individual pattern points are identified by their position within the overall pattern. As previously described, shadows and occlusions can lead to erroneous point identifications. Especially with patterns with high dot density increases the problem of assignment. Pattern recognition is subject to the correspondence problem explained in the introduction. If the dot density of the pattern is reduced, the amount of computation required to identify the pattern is simplified, while the number of shots to be created increases until a body surface can be accurately described in detail. The latter means that a simple pattern is projected onto different parts of the body until the density of surface points with known spatial coordinates allows the description of the body surface with the desired detail resolution (cf. 3 ). The number of known surface points with assigned spatial coordinates in this case increases linearly with each further recording by the number of points contained in the pattern and identified in total.

Erfindunginvention

Die vorliegende Erfindung bietet ein Verfahren zur berührungsfreien Formerfassung und Prüfung von Prüflingen gemäß Anspruch 1, welches bei weniger Daten- und Rechenaufwand die benötigte Oberflächenpunktdichte schneller, effektiver und gegen Fremdlicht unempfindlicher gewährleistet, so dass es sehr gut in den Fertigungsablauf integriert werden kann. Außerdem soll das erfindungsgemäße Verfahren das freie Positionieren eines Prüflings im Messbereich ermöglichen.The The present invention provides a method for non-contact Shape detection and testing of test pieces according to claim 1, which with less data and computational effort, the required surface point density faster, more effective and insensitive to extraneous light, so that it can be integrated very well into the production process. Furthermore should the inventive method the free positioning of a test object allow in the measuring range.

Weitere erfindungsgemäße Vorteile werden in den abhängigen Ansprüchen und in der folgenden Beschreibung deutlich.Further Advantages of the invention become dependent claims and clearly in the following description.

Das erfindungsgemäße Verfahren zur Bestimmung der Raumkoordinaten von Oberflächenpunkten eines Prüflings, der in einem Erfassungsvolumen positioniert ist, mit Hilfe eines 3D-Messystems, bestehend aus mindestens einem Rechner und mindestens einer Sensoreinheit mit mindestens zwei digitalen Kameras und einer Projektionseinheit, umfasst folgende Schritte:

  • a) Projizieren von optischen Markierungen auf den Prüfling
  • b) Digitales Erfassen der reflektierten Signale mit der Sensoreinheit
  • c) Errechnen der Raumkoordinaten von Oberflächenpunkten des Prüflings,
wobei
in a) I) eine erste Schar paralleler Lichtlinien auf den Prüfling sequentiell projiziert wird,
in a) II) mindestens eine weitere Schar von Lichtlinien in einem Winkel α zur ersten Schar von Lichtlinien auf den Prüfling sequentiell projiziert wird,
in b) I) jede sequentiell erzeugte Lichtlinie digital als vollständige Linie in jeder Kamera erfasst wird,
in b) II) jede erfasste Linie mit den zuvor erfassten, nichtparallelen Linien auf Schnittpunkte überprüft wird und auftretende Schnittpunkte als ,virtuelle Schnittpunkte' gekennzeichnet werden
in c) I) die zweidimensionalen Koordinaten der virtuellen Schnittpunkte für jede Kamera bestimmt werden und
in c) II) aus in allen Kameras übereinstimmend bestimmten, virtuellen Schnittpunkten ein Referenzpunkt erstellt wird
in c) III) für die Referenzpunkte die Raumkoordinaten als projektive Rekonstruktion berechnet werden und
in c) IV) abschließend die Raumkoordinaten der Referenzpunkte in metrische Koordinaten der Oberflächenpunkte des Körpers umgerechnet werden.The method according to the invention for determining the spatial coordinates of surface points of a test object which is positioned in a detection volume with the aid of a 3D measuring system, comprising at least one computer and at least one sensor unit having at least two digital cameras and a projection unit, comprises the following steps:
  • a) Projecting optical marks on the specimen
  • b) digitally detecting the reflected signals with the sensor unit
  • c) calculating the spatial coordinates of surface points of the test object,
in which
in a) I) a first set of parallel light lines is sequentially projected onto the test piece,
in a) II) at least one further family of light lines is projected sequentially at an angle α to the first set of lines of light onto the test object,
in b) I) each sequentially generated light line is detected digitally as a complete line in each camera,
in b) II) every detected line is checked for intersections with the previously recorded, non-parallel lines and any intersections occurring are marked as 'virtual intersections'
in c) I) the two-dimensional coordinates of the virtual intersections for each camera are determined and
in c) II) a reference point is created from virtual intersections correspondingly determined in all cameras
in c) III) the spatial coordinates are calculated as projective reconstruction for the reference points, and
in c) IV) finally, the spatial coordinates of the reference points are converted into metric coordinates of the surface points of the body.

Die Anpassung der Sensoreinheit an die Geometrie des Prüflings erstreckt sich auf:

  • a) Erfassen und Speichern eines Hintergrundbildes im Messbereich jeder Kamera
  • b) Digitale Erfassung des Prüflings durch eine Differenzbildbetrachtung mit dem Hintergrundbild der jeweiligen Kamera
  • c) Begrenzen des Messbereiches auf das in jedem Kamerabild von dem Prüfling abgedeckte Bildsegment.
The adaptation of the sensor unit to the geometry of the test piece extends to:
  • a) Capturing and saving a background image in the measuring range of each camera
  • b) Digital acquisition of the test specimen by a difference image analysis with the background image of the respective camera
  • c) limiting the measuring range to the image segment covered by the test object in each camera image.

Vorzugsweise werden von der Anpassung folgende Schritte umfasst:

  • – alle Kameras der Sensoreinheit werden nacheinander auf das zunächst leere Erfassungsvolumen gerichtet und erzeugen entsprechende Bilder L1,
  • – der Prüfling wird im Erfassungsvolumen abgelegt und alle Kameras erzeugen nacheinander die Bilder Mi
  • – die Bilder Li und Mi werden pixelweise subtrahiert und daraus für jede Kamera ein Teilbereich der Bildfläche festgelegt, in dem das Abbild des Prüflings vollständig enthalten ist.
Preferably, the adaptation comprises the following steps:
  • - All cameras of the sensor unit are successively directed to the first empty acquisition volume and generate corresponding images L 1 ,
  • - The test object is stored in the acquisition volume and all cameras generate successively images M i
  • - The images L i and M i are subtracted pixel by pixel and from this for each camera a sub-area of the image area is determined, in which the image of the specimen is completely contained.

In einer weiteren Ausgestaltung der Erfindung ist vorgesehen, dass jede Sensoreinheit mindestens vor dem ersten Einsatz kalibriert wird und dass die Kalibrierung durch einmalige Messung einer Maßverkörperung aus mindestens fünf räumlich verteilten Punkten erfolgt, wobei eine homographische Matrix H berechnet wird, die die projektive Rekonstruktion der Maßverkörperung auf deren metrische Rekonstruktion abbildet.In a further embodiment of the inventions It is provided that each sensor unit is calibrated at least prior to the first use and that the calibration is carried out by measuring a material measure once from at least five spatially distributed points, whereby a homographic matrix H is calculated which maps the projective reconstruction of the material measure to its metric reconstruction ,

Alternativ kann die Kalibrierung durch die Berechnung der homographischen Matrix bei bekannten Koordinaten von Kameraposition, Sensorposition oder Prüfling erfolgen.alternative can calibration by calculating the homographic matrix with known coordinates of camera position, sensor position or examinee respectively.

Zur Verringerung des Fremdlichteinflusses wird erfahrungsgemäß der Prüfling mit mehreren Kameras beobachtet und der sich aus der Projektion der Lichtlinie auf der Objektoberfläche ergebende 3-dimensionale Kurvenverlauf in jeder Kamera als 2-dimensionaler Kurvenverlauf abgebildet, der in einen Polygonzug umgewandelt wird.to Reduction of the influence of extraneous light, experience has shown that the test object observed from several cameras and resulting from the projection of the light line on the object surface resulting 3-dimensional curve in each camera as a 2-dimensional curve imaged, which is converted into a polygon.

Darüber hinaus kann jede Linie in jeder Kamera mit einem Linienindex (Linien der ersten Schar: 1..n; Linien der zweiten Schar: 1..m) gespeichert, die virtuellen Schnittpunkte (xi, yj) der Polygonzüge berechnet und mit den Indizes (1..n, 1..m) kameraspezifisch gespeichert werden.In addition, each line in each camera can be stored with a line index (lines of the first flock: 1..n; lines of the second flock: 1..m), the virtual intersection points (x i , y j ) of the traverses calculated and the Indexes (1..n, 1..m) are stored camera specific.

Vorzugsweise wird von den Kameras einer Sensoreinheit die Daten der Schnittpunkte mit gleichen Indizes (x1, y1 bis zu xn, ym) zu entsprechenden Referenzpunkten gruppiert und in Raumkoordinaten des Prüflings transferiert.Preferably, the cameras of a sensor unit group the data of the intersection points with the same indices (x 1 , y 1 to x n , y m ) into corresponding reference points and transfer them into spatial coordinates of the test object.

Es ist vorteilhaft, wenn für jedes Kamerabild eine Konsistenzprüfung durchgeführt wird, wobei die Flächengröße der hellen Bereiche eines Kamerasensors überprüft wird, und wenn diese Fläche größer ist als dies aufgrund einer im Bild vorhandenen Lichtlinie plausibel ist, so werden die Werte verworfen und die Erfassungsprozedur teilweise wiederholt.It is advantageous if for every camera image a consistency check is performed, where the area size of the bright Areas of a camera sensor is checked, and if that area is greater than this is plausible due to a light line present in the image, so the values are discarded and the capture procedure partly repeated.

Zur Optimierung der Datenmenge der für die Erfassung der Oberflächenkoordinaten benötigten Daten wird wie folgt vorgegangen:

  • a) Ermitteln der räumlichen Abstände benachbarter Referenzpunkte innerhalb eines Oberflächensegments mit aus Richtung der Sensoreinheit zweidimensional gleichmäßig verteilten Referenzpunkten und Überprüfen der Streuung der erhaltenen Abstandswerte
  • b) Einteilung der Körperoberfläche in ebene und unebene Bereiche
  • c) Reduktion der Referenzpunktdichte in den Bereichen ebenmäßiger, räumlicher Oberflächenstrukturen mit geringer Abstandsstreuung
  • d) Erhöhen der Referenzpunktdichte im Bereich unebener, räumlicher Oberflächenstruktur mit hoher Abstandsstreuung durch Ermitteln weiterer Referenzpunkte.
To optimize the amount of data needed to acquire the surface coordinates, proceed as follows:
  • a) Determining the spatial distances of adjacent reference points within a surface segment with two-dimensionally uniformly distributed reference points from the direction of the sensor unit and checking the scattering of the obtained distance values
  • b) Division of the body surface into even and uneven areas
  • c) Reduction of the reference point density in the areas of even, spatial surface structures with little distance dispersion
  • d) Increasing the reference point density in the area of uneven, spatial surface structure with high distance scattering by determining further reference points.

In gleicher Wiese kann der Neigungswinkel α zwischen der ersten und zweiten Schar von Lichtlinien variiert werden in Abhängigkeit von der Oberflächenstruktur des Prüflings, wobei nach einer Variation des Winkels eine dritte und weitere Schar von Lichtlinien sequentiell auf den Prüfling projiziert wird und mit den vorher erfassten, nicht parallelen Linien auf Schnittpunkte überprüft wird, die zur Bestimmung weiterer Koordinaten und Referenzpunkte verwendet werden, wobei vorzugsweise die erste und zweite Schar von Lichtlinien rechtwinklig zueinander verlaufen.In the same meadow, the inclination angle α between the first and second Flock of light lines will vary depending on the surface texture of the test object, wherein after a variation of the angle, a third and further crowd of light lines is sequentially projected onto the specimen and with the previously detected, non-parallel lines are checked for intersections, used to determine additional coordinates and reference points preferably wherein the first and second families of light lines are orthogonal to each other.

Nach einer weiteren Ausgestaltung der Erfindung werden aus den Koordinaten der Referenzpunktgruppen der Kameras einer Sensoreinheit die Fundamentalmatrix F der Sensoreinheit und anschließend die Kameramatrizen P jeder Kamera ermittelt, so dass aus den Matrizen P und den zweidimensionalen Koordinaten der Referenzpunkte in den Kamerabildern eine projektive Rekonstruktion der dreidimensionalen Koordinaten der Referenzpunkte erstellt wird und dass unter Benutzung der homographischen Matrix H die projektive Rekonstruktion in eine metrische Rekonstruktion, eingebettet in ein Welt-Koordinatensystem, transferiert wird.To Another embodiment of the invention will become apparent from the coordinates the reference point groups of the cameras of a sensor unit, the fundamental matrix F of the sensor unit and then the camera matrices P each Camera determined so that from the matrices P and the two-dimensional Coordinates of the reference points in the camera images a projective Reconstruction of the three-dimensional coordinates of the reference points created and that using the homographic matrix H the projective Reconstruction in a metric reconstruction, embedded in a world coordinate system, is transferred.

In einem bevorzugten Anwendungsfall ist vorgesehen, dass der Prüfling mit einer CAD-Zeichnung automatisiert verglichen wird und die Messung an vordefinierten Punkten mit verringertem Linienabstand und somit mit höherer Referenzpunktdichte durchgeführt wird, wobei an den Stellen, an denen Abweichungen aus dem Vergleich von Solldaten und berechneten Daten festgestellt werden, eine erneute Messung mit erhöhter Referenzpunktdichte durchgeführt wird.In a preferred application, it is provided that the test specimen with a CAD drawing is automatically compared and the measurement is predefined Points with reduced line spacing and thus with higher reference point density is performed, being at the places where deviations from the comparison of Target data and calculated data are determined, a new measurement with elevated Reference point density performed becomes.

Grundsätzlich kann die Messung mit mehreren Sensoreinheiten gleichzeitig erfolgen, wobei jede Sensoreinheit eine unterschiedliche Lichtwellenlänge nutzt und dementsprechend die den jeweiligen Sensoreinheiten zugeordneten Kameras mit Filtereinrichtungen ausgestattet sind, die auf die Lichtwellenlänge der Projektoren der Sensoreinheit abgestimmt sind, wobei die Wellenlängen der Projektionseinheiten nach der Objektbeschaffenheit ausgewählt werden.Basically the measurement with several sensor units take place simultaneously, wherein each sensor unit uses a different wavelength of light and accordingly, associated with the respective sensor units Cameras are equipped with filtering devices that are based on the light wavelength of the Projectors of the sensor unit are tuned, the wavelengths of the Projection units are selected according to the object condition.

Es hat sich als vorteilhaft erwiesen, wenn die Beobachtung des Prüflings mit mehreren Sensoreinheiten erfolgt, die die Geometrie allseitig erfassen und die Lichtlinien durch Laserlinienprojektoren erzeugt werden.It has proved to be advantageous when the observation of the test specimen with multiple sensor units that capture the geometry on all sides and the light lines are generated by laser line projectors.

Um den Einfluss zu tragen wird der erfasste Prüfling gegen eine CAD-Referenz geprüft, wobei die ermittelte Gestalt des Prüflings durch Finite-Elemente-Rechnung der Gestalt der CAD-Referenz angenähert wird, um dem Einfluss elastischer Verformungen des Prüflings Rechnung zu tragen.In order to exert influence, the recorded test object is tested against a CAD reference, whereby the determined shape of the test object is determined by finite elements te calculation of the shape of the CAD reference is approximated to account for the influence of elastic deformation of the specimen.

Eine Vorrichtung zur Durchführung des Verfahrens besteht vorzugsweise aus mindestens einem Projektor, mindestens einer Sensoreinheit mit mindestens zwei Digitalkameras und einer Bildauswertungseinheit, wobei der Projektor aus einem sequentiellen, in mindestens zwei Richtungen eine Lichtlinie erzeugenden Lichtlinienprojektor besteht und die Bildauswertungseinheit eine Differenzbildauswertung und eine Schnittpunktberechnung für die sequentiell erzeugten Lichtlinien umfasst.A Apparatus for carrying out of the method preferably consists of at least one projector, at least one sensor unit with at least two digital cameras and an image evaluation unit, wherein the projector consists of a sequential, generating a light line in at least two directions Lichtlinienprojektor consists and the image evaluation unit a Difference image evaluation and intersection calculation for the sequential includes generated light lines.

Es ist vorteilhaft, wenn der Lichtlinienprojektor aus einem Laserlichtlinienprojektor besteht, wobei dieser auch eine Spreizung des Laserstrahls zu einer Laserlichtlinie umfasst.It is advantageous if the light line projector from a laser line projector this also being a spread of the laser beam to a laser light line includes.

Das erfindungsgemäße Verfahren sieht die Verwendung von mindestens zwei Kameras und mindestens einem Musterprojektor vor. Die Kombination von Kameras und Musterprojektor wird im Folgenden auch als Sensoreinheit bezeichnet. Zunächst werden die Kameras kalibriert. Hierbei wird z.B. eine speziell strukturierte, dreidimensionale Maßverkörperung im Erfassungsvolumen platziert und mit den Kameras erfasst. Die räumliche Position der Kameras zueinander ist durch die Kalibrierung festgelegt und wird in den nachfolgenden Verfahrensschritten nicht mehr verändert.The inventive method sees the use of at least two cameras and at least a sample projector. The combination of cameras and sample projector is also referred to below as a sensor unit. First, the Cameras calibrated. Here, e.g. a specially structured, three-dimensional dimensional standard placed in the acquisition volume and captured with the cameras. The spatial Position of the cameras to each other is determined by the calibration and is no longer changed in the subsequent process steps.

Unmittelbar bevor eine Sensoreinheit einen Prüfling durch Beleuchten mit dem Projektor und dem Aufnehmen von Bildern erfasst, wird in einem ersten Arbeitsschritt festgelegt, auf welche Bereiche der Kamerasensoren die Oberfläche des Prüflings abgebildet wird. Dies geschieht mittels Differenzbildverfahren auf der Basis von Aufnahmen des Erfassungsvolumens mit und ohne positioniertem Prüfling. Die sogenannten Erfassungsbereiche werden auf diese Bereiche eingeschränkt. In den nachfolgenden Verarbeitungsschritten werden nur noch die Bildflächen innerhalb der Erfassungsbereiche ausgewertet.immediate before a sensor unit illuminates a test object with the projector and taking pictures is in one first step determines which areas of the camera sensors the surface of the test piece is shown. This is done by means of difference image method the basis of recordings of the acquisition volume with and without positioned DUT. The so-called detection areas are restricted to these areas. In The subsequent processing steps are only the image areas within evaluated the coverage areas.

Der Musterprojektor projiziert einen durch das Erfassungsvolumen hindurch verlaufenden Lichtstrahl, der die Form eines Lichtfächers aufweist. Dieser wird als Lichtlinie auf der Oberfläche des Prüflings reflektiert. Die Lichtintensität des Projektors wird so gewählt, dass die Helligkeit der Lichtlinie deutlich über der Helligkeit einzelner Körperflächen durch Fremdlichtreflektion liegt. Dadurch kann die Lichtlinie in beiden Kamerabildern unabhängig von den Beleuchtungsbedingungen eindeutig identifiziert werden.Of the Pattern projector projects one through the acquisition volume extending light beam, which has the shape of a fan of light. This is reflected as a light line on the surface of the specimen. The light intensity of the projector will chosen so that the brightness of the light line is well above the brightness of individual Body surfaces through Outside light reflection is. This allows the light line in both camera images independently be clearly identified by the lighting conditions.

Vorteilhafterweise ist der Musterprojektor als Laser ausgeführt und die Kameras sind mit auf die Wellenlänge des Lasers eingestellten Bandpassfiltern ausgerüstet. Auf diese Art und Weise können Fehler durch Fremdlichteinfall weitestgehend ausgeschlossen werden.advantageously, the pattern projector is designed as a laser and the cameras are with to the wavelength equipped with laser bandpass filters. In this way can errors be largely excluded by incidental light.

Das Auffinden der zur Linie gehörenden Bildflächen kann dadurch erleichtert werden, dass ein Hintergrundbild bei deaktivierten Projektoren aufgenommen wird, das im Zuge eines Differenzbildverfahrens von den jeweiligen Bildern mit aktiviertem Projektore subtrahiert wird. Die hellen Bildflächen im resultierenden Bild gehören im Allgemeinen zur gesuchten Linie.The Find the belonging to the line screens can be made easier by having a background image disabled Projectors is recorded in the course of a difference image process subtracted from the respective images with the projector activated becomes. The bright picture surfaces belong in the resulting picture generally to the searched line.

Das digitale Erfassen der Linie in beiden Kamerabildern kann mit einer Plausibilitätsprüfung einhergehen, bei der die Größe der hellen Bildflächen bewertet wird. Ist der Flächeninhalt der Bildflächen, die der Lichtlinie zugeordnet werden können, größer als dies für eine Lichtlinie plausibel ist, so wird die Projektion wiederholt, da davon ausgegangen werden kann, dass sich die Fremdlichtverhältnisse zwischen Hintergrundaufnahme und Linienaufnahme zu stark verändert haben.The Digital capturing of the line in both camera pictures can be done with one Accompanied by a plausibility check, at the size of the bright Rated image areas becomes. Is the area content the picture surfaces, the greater than that for a light line is plausible, the projection is repeated, as assumed can be that the external light conditions between background shot and line recording changed too much to have.

Der zweidimensionale Verlauf der Lichtlinie in jedem Kamerabild wird digital erfasst und gespeichert.Of the two-dimensional course of the light line in each camera image digitally recorded and stored.

Anschließend projiziert der Musterprojektor einen neuen Lichtfächer, der in seinem Verlauf durch das Erfassungsvolumen den Weg des zuvor projizierten Lichtfächer schneidet. Der zweidimensionale Verlauf dieser zweiten Lichtlinie wird digital für jedes Kamerabild separat bestimmt und gespeichert.Subsequently projected the pattern projector introduces a new light fan, which in its course cuts the path of the previously projected fan of light through the acquisition volume. The two-dimensional course of this second light line becomes digital for each Camera image determined and saved separately.

Für jede Kamera können nun die erfassten Lichtlinien digital zum Schnitt gebracht werden. Die Schnittpunkte der Lichtlinien werden identifiziert und ihre zweidimensionalen Koordinaten werden gespeichert. Da diese Schnittpunkte nur in der Verarbeitungseinheit erzeugt worden sind, ohne dass zwei sich schneidende Lichtlinien gleichzeitig auf den Prüfling projiziert worden sind, werden sie im folgenden als virtuelle Schnittpunkte bezeichnet. Ist ein virtueller Schnittpunkt von 2 Lichtlinien in beiden Kamerabildern zu ermitteln, so bestimmt er einen Punkt auf der Oberfläche des Körpers. Bei Abschattungen oder Verdeckungen wäre eine der beiden Lichtlinien in dem entsprechenden Bereich in mindestens einem der beiden Kamerabilder nicht sichtbar und der virtuelle Schnittpunkt kann dort nicht berechnet werden.For every camera can now the detected light lines are digitally cut. The intersections of the light lines are identified and their two-dimensional coordinates are stored. Because these intersections have been generated only in the processing unit without two cutting lines of light have been simultaneously projected onto the test object, they are referred to below as virtual intersections. Is a virtual intersection of 2 light lines in both camera images To determine, he determines a point on the surface of the Body. For shading or occlusion, one of the two lines of light would be in the corresponding area in at least one of the two camera images not visible and the virtual intersection can not be calculated there become.

Auf diese Art und Weise ist das Korrespondenzproblem eindeutig gelöst. Die Menge der zweidimensionalen Koordinaten eines virtuellen Schnittpunktes, der in allen Kamerabildern aufgefunden wird, wird im folgenden als Referenzpunkt bezeichnet. Aus den Daten eines Referenzpunktes können die Ortskoordinaten eines Oberflächenpunktes des Prüflings auf bekannte Art und Weise berechnet werden.In this way the correspondence problem is clearly solved. The set of two-dimensional coordinates of a virtual intersection that is found in all the camera images will be referred to as a reference point. From the data of a reference point, the location coordinates of a surface point of the DUTs are calculated in a known manner.

Kann ein virtueller Schnittpunkt von zwei Lichtlinien für eine Kamera nicht berechnet werden, so deutet dies auf eine Abdeckung oder Verschattung hin. Hierbei können Verschattungen durch Verfahren des Musterprojektors und Projektion einer weiteren Lichtgeraden eliminiert werden.can a virtual intersection of two lines of light for a camera not calculated, this indicates a cover or shading. Here you can Shadows due to pattern projector and projection another light straight can be eliminated.

Die Verfahrensschritte der Lichtfächer-Projektion, der digitalen Erfassung der Lichtlinie auf der Körperoberfläche und des Abspeicherns dieser Lichtlinie mit einem fortlaufenden Index, werden so lange wiederholt, bis eine Anzahl an virtuellen Schnittpunkten erreicht worden ist, die die Rekonstruktion der Prüflingsoberfläche in der angestrebten Detaillauflösung erlaubt.The Process steps of light fan projection, the digital detection of the light line on the body surface and storing it Light line with a continuous index, are repeated so long until a number of virtual intersections has been reached, the reconstruction of the specimen surface in the desired detail resolution allowed.

Das verfahrensgemäße wiederholte Projizieren eines Lichtfächers, Erfassen der Lichtlinie auf der Körperoberfläche und Abspeichern der zweidimensionalen Koordinaten der Lichtlinie für jedes Kamerabild wird im folgenden als „sequentielles" Projizieren und digitales Erfassen bezeichnet.The procedurally repeated Projecting a fan of light, Capture the light line on the body surface and save the two-dimensional Coordinates of the light line for Each camera image is hereafter referred to as "sequential" projecting and digital detection referred to.

Ein naturgemäßer Vorteil der virtuellen Schnittpunkte ist die Tatsache, dass unter optimalen Bedingungen mit jeder weiteren erfassten Lichtlinie sämtliche zuvor erfassten Lichtlinien unter Bildung weiterer virtueller Schnittpunkte geschnitten werden können. So ergäbe bei bereits zehn erfassten Lichtlinien die Projektion der elften Linie zehn weitere virtuelle Schnittpunkte. Die Anzahl an virtuellen Schnittpunkten steigt daher mit jeder weiteren Mustererfassung quadratisch an, was dieses Verfahren gegenüber den etablierten Verfahren deutlich überlegen macht (vgl. 5). Unter optimalen Bedingungen ergibt sich die Anzahl pv an virtuellen Schnittpunkten für n erfasste Lichtlinien zu pv = Σ(i – 1) mit i = {1, 2, 3, ..., n}, also mit pv = (n2 – n)/2. Schneidet jede weitere projizierte Lichtlinie die Hälfte der zuvor projizierten, so ergibt sich bei n Linien die Anzahl an virtuellen Schnittpunkten zu (n/2)2 = n2/4. Für große n entstehen bei letzterer Variante demnach annähernd halb so viele Schnittpunkte wie bei der ersten.A natural advantage of the virtual intersections is the fact that under optimal conditions with each additional detected light line all previously detected light lines can be cut to form further virtual intersections. For example, with ten light lines already detected, the projection of the eleventh line would result in ten more virtual intersection points. The number of virtual intersections therefore increases quadratically with each further pattern acquisition, which makes this method clearly superior to the established methods (cf. 5 ). Under optimal conditions, the number p v at virtual points of intersection for n detected light lines is p v = Σ (i-1) with i = {1, 2, 3, ..., n}, ie with p v = (n 2 - n) / 2. If every other projected light line intersects half of the previously projected light lines, the number of virtual intersections for n lines will be (n / 2) 2 = n 2/4 . Thus, for large n, almost half as many intersections arise in the latter variant as in the former.

Bei der Verwendung verschiedener Systeme zum Erfassen der zweidimensionalen Koordinaten der Lichtlinie zeigte es sich, dass eine Speicherung der Lichtlinie in Form eines zweidimensionalen Polygonzuges die anfallende Datenmenge deutlich reduziert und darüber hinaus die Berechnung des virtuellen Schnittpunkts erheblich erleichtert. Zusätzlich konnte das Verfahren dadurch beschleunigt werden, dass zunächst von jeder Kamera ein Bild des Erfassungsvolumens als Hintergrundbild erstellt wurde. Nach dem Aufstellen des Prüflings innerhalb des Erfassungsvolumens wurde der Bereich der Prüflingsoberfläche in jedem Kamerabild durch eine Differenzbildbetrachtung eindeutig identifiziert und der Erfassungsbereich auf die Prüflingsoberfläche eingegrenzt. Außerhalb der Prüflingsoberfläche sichtbare Lichtliniensegmente wurden so von der weiteren digitalen Bearbeitung ausgenommen.at the use of different systems for detecting the two-dimensional Coordinates of the light line showed that a storage of the Light line in the form of a two-dimensional traverse the resulting Data volume significantly reduced and beyond the calculation of the virtual intersection greatly facilitated. Additionally could the process can be accelerated by first of each camera an image of the acquisition volume as a background image was created. After setting up the test object within the detection volume was the area of the specimen surface in each Camera image uniquely identified by a difference image and the detection range is limited to the specimen surface. Outside the test surface visible light line segments were thus excluded from the further digital processing.

Ferner wurde gefunden, dass die zur Beschreibung der Prüflingsoberfläche notwendige Datenmenge über eine qualitative Bewertung der Oberflächeneigenschaft durch folgende Überlegung weiter reduziert werden kann: Zeigen die Referenzpunkte in einem Oberflächensegment bei – aus der Beobachtungsrichtung der Sensoreinheit – zweidimensional äquidistant verteilten virtuellen Schnittpunkten deutliche Unterschiede in ihren räumlichen Abständen, so spricht dies für eine detailreiche Prüflingsoberfläche. Zur exakten Beschreibung dieses Segments ist eine dichtere Anordnung von Referenzpunkten notwendig. Referenzpunkte mit gleichmäßigem Abstand zueinander kennzeichnen ein ebenmäßiges bzw. glattes Oberflächensegment des Prüflings. Hier kann die Anzahl an Referenzpunkten reduziert werden, ohne die Detailtreue der Rekonstruktion zu beeinträchtigen. Das erfindungsgemäße Verfahren bietet den Vorteil, dass eine Erhöhung der Anzahl von virtuellen Schnittpunkten in einem begrenzten Erfassungsbereich mit einer minimalen Zahl an zusätzlichen Aufnahmen weiterer Lichtlinien erreicht werden kann. Dies ist vor allem für das im Folgenden näher beschriebene Prüfverfahren zur Kontrolle von Maßen von Vorteil.Further was found to be necessary for the description of the specimen surface Amount of data over a qualitative assessment of the surface property by the following consideration can be further reduced: Show the reference points in one surface segment at - off the observation direction of the sensor unit - two-dimensional equidistant distributed virtual intersections significant differences in their spatial intervals, this speaks for itself a detailed test surface. to exact description of this segment is a denser arrangement necessary from reference points. Reference points with even spacing to each other characterize a smooth or smooth surface segment of the test piece. Here the number of reference points can be reduced, without the Affect detail of the reconstruction. The inventive method offers the advantage of increasing the number of virtual Intersections in a limited detection area with a minimum Number of additional Recordings of other light lines can be achieved. This is before everything for this in more detail below described test method for controlling dimensions advantageous.

Ausführungsbeispiele der Erfindungembodiments the invention

Im einfachsten Fall ist die Raumform des Prüflings z.B. als CAD-Datensatz bereits bekannt und die zu kontrollierenden Maße bzw. Soll-Werte und deren Position auf der Prüflingsoberfläche liegen vor. Die Orientierung des Prüflings innerhalb des Erfassungsbereiches wird zunächst mit geringer Referenzpunktdichte bestimmt, die zweidimensionalen Koordinaten der Prüfbereiche der zu kontrollierenden Maße werden errechnet, und der Prüfbereich auf diese Koordinatenbereiche begrenzt. Anschließend wird die Referenzpunktdichte in den selektierten Prüfbereichen so lange erhöht, bis die Maße des Prüflings mit der benötigten Genauigkeit auf Übereinstimmung mit den vorgegebenen Soll-Werten überprüft werden können.in the In the simplest case, the spatial form of the specimen is e.g. as a CAD dataset already known and the measures to be controlled or target values and their Position on the specimen surface are present. The orientation of the test piece within the detection range is initially with low reference point density determines the two-dimensional coordinates of the test areas the dimensions to be controlled are calculated, and the test area limited to these coordinate ranges. Subsequently, the reference point density becomes in the selected test areas increased so long until the measurements of the test piece with the needed Accuracy to match the predetermined target values can be checked.

Vorteilhafterweise wird dabei die Anzahl an virtuellen Schnittpunkten maximiert (vergleiche 4). Dazu wird zunächst in der Mitte des Prüfbereiches sequentiell ein Dreieck aus Lichtgeraden mit dem Winkel α projiziert. Die Eckpunkte des Dreiecks seien mit A, B, C gekennzeichnet. Werden nun weitere, durch das Dreieck verlaufende Lichtgrade I, II, III projiziert, die die Gerade entlang AB außerhalb des Dreiecks, nahe zu Punkt A und die Dreiecksseite BC nahe zu Punkt C schneiden, so werden die nächsten Lichtgeraden IV, V ähnlicher Orientierung so projiziert, dass ihre Schnittpunkte unter dem Winkel α1 bzw. α2 mit der Lichtgeraden entlang AB einen größeren Abstand zum Punkt A und ihr Schnittpunkt mit der Dreieckseite BC einen größeren Abstand zum Punkt C aufweist. Insgesamt können so drei Gruppen von Lichtgraden mit zunehmender Abweichung der Orientierung der vorgegebenen Orientierungen der Lichtgraden entlang AB, AC sowie BC, unter Maximierung der Anzahl an virtuellen Schnittpunkten erzeugt werden.Advantageously, the number of virtual intersections is maximized (cf. 4 ). For this purpose, initially in the middle of the test area, a triangle of light straight lines is projected at the angle α. The vertices of the triangle are marked A, B, C. If now further light grades I, II, III running through the triangle are projected, which follow the straight line along AB outside the Triangles, near point A and the triangle side BC close to point C, the next light lines IV, V of similar orientation are projected so that their intersections at the angle α 1 and α 2 with the light line along AB a greater distance to Point A and their intersection with the triangle side BC has a greater distance to the point C. Overall, three groups of degrees of light can thus be generated with increasing deviation of the orientation of the predetermined orientations of the degrees of light along AB, AC and BC, maximizing the number of virtual intersections.

Zur Erzeugung gleichmäßig verteilter, äquidistanter Schnittpunkte innerhalb eines vorgegebenen Bereiches können sequentiell abwechselnd zwei im wesentlichen orthogonal zueinander verlaufende, äquidistante Geradenscharen auf den Prüfbereich projiziert werden. Dadurch wird gewährleistet, dass jede weitere zusätzlich projizierte Lichtgerade eine Lichtlinie erzeugt, die im wesentlichen die Hälfte der zuvor projizierten Lichtlinien schneidet.to Generation of evenly distributed, equidistant Intersections within a given range can be sequential alternately two substantially orthogonal to each other, equidistant Straight lines projected onto the test area become. This will ensure that each additional addition projected light line produces a line of light that is substantially the half the previously projected light lines intersects.

Ist die Identität des Prüflings unbekannt, so erfolgt zunächst die Identifikation des Prüflings über eine Datenbank, welche bezüglich festgelegter Merkmalen die entsprechenden Informationen zu allen Prüflingen enthält. Zunächst wird die Menge aller Prüflinge über das Merkmal der Außenabmessungen vorselektiert. Anschließend wird die so reduzierte Menge der möglichen Prüflinge iterativ unter stetem Erhöhen der Referenzpunktdichte mit Informationen über die Oberflächengeometrie des Prüflings weiter eingeschränkt, bis ein Prüfling eindeutig identifiziert werden kann. Anschließend erfolgt die bereits oben beschriebene Überprüfung der relevanten Maße.is the identity of the test piece unknown, it is done first the identification of the test object via a Database, which re specified characteristics the relevant information on all candidates contains. First will the amount of all candidates over the Feature of the outer dimensions preselected. Subsequently is the so reduced amount of possible candidates iteratively with constant increase in the Reference point density with information about the surface geometry of the test piece further restricted, to a candidate can be clearly identified. Subsequently, the review of the relevant dimensions.

Bei Abweichungen der Ist- von der Soll-Geometrie wird vorteilhafter Weise das Maß der Abweichung bewertet und in dem Fall, dass ein Messfehler angenommen werden kann, die Referenzpunktdichte im entsprechenden Bereich weiter erhöht.at Deviations of the actual from the desired geometry is more advantageous Way the measure of Deviation evaluated and in the event that assumed a measurement error can be, the reference point density in the corresponding area on elevated.

Zur vollständigen Raumformerfassung eines Prüflings können mehrere Sensoreinheiten mit jeweils mindestens zwei Kameras und einem Musterprojektor kombiniert werden, welche unterschiedliche Prüflingsseiten erfassen. Die Daten der einzelnen Sensoreinheiten werden anschließend im Rechner zu einem vollständigen Modell zusammengefügt.to complete Room shape detection of a test object can several sensor units each with at least two cameras and a sample projector are combined, which different Prüflingsseiten to capture. The data of the individual sensor units are then in Calculator to a complete Model assembled.

Hierbei bieten Laserprojektoren den Vorteil, dass durch Wahl unterschiedlicher Laserwellenlängen für jede Sensoreinheit in Kombination mit entsprechenden Bandpass-Filtern ein zeitparalleles Arbeiten der einzelnen Sensoreinheiten möglich ist.in this connection Laser projectors offer the advantage that by choosing different Laser wavelengths for every Sensor unit in combination with corresponding bandpass filters a time-parallel operation of the individual sensor units is possible.

Es zeigte sich, dass Wölbungen über die Parameter der als zweidimensionalem Polygonzug erfassten Lichtlinien bei reduziertem Zeitaufwand und eingeschränkter Genauigkeit kontrolliert werden konnten. Für exakte Rekonstruktionen war diese Methode jedoch nicht geeignet.It showed that bulges over the Parameters of the light lines detected as a two-dimensional polygon Controlled with reduced time and limited accuracy could become. For exact reconstructions, this method was not suitable.

Zur Kalibrierung wird vorzugsweise eine Maßverkörperung verwendet, die die exakte Bestimmung von mindestens 5 Punkten innerhalb des Erfassungsvolumens erlaubt. Nach der Erfassung eines Prüflings kann – ohne weitere Kenntnisse über die Position und Ausrichtung der Kameras – aus den Koordinaten der Abbilder der gefundenen Referenzpunkte auf den Sensorflächen jeder Kamera für jede Sensoreinheit die Fundamentalmatrix F sowie für jede Kamera eine Kameramatrix P berechnet werden. Aus den Matrizen P und den zweidimensionalen Daten der Referenzpunkte ist eine projektive Rekonstruktion der Ortskoordinaten der Oberflächenpunkte des Körpers möglich. Mit Hilfe der anfangs bestimmten 5 Punkte innerhalb des Erfassungsvolumens wird eine homographische Matrix H erzeugt, die die Zuordnung der projektiven Rekonstruktion zur metrischen Rekonstruktion erlaubt. Die Gestalt des Prüflings kann dann zusätzlich durch Finite-Element-Rechnung korrigiert werden, um elastische Verformungen des Prüflings nachzubilden.to Calibration is preferably used a material measure that the exact determination of at least 5 points within the detection volume allowed. After the detection of a test object can - without further Knowledge of the Position and orientation of the cameras - from the coordinates of the images the found reference points on the sensor surfaces of each camera for each sensor unit the fundamental matrix F as well as for each Camera a camera matrix P are calculated. From the matrices P and the two-dimensional data of the reference points is a projective Reconstruction of the spatial coordinates of the surface points of the body possible. With Help the initially determined 5 points within the collection volume a homographic matrix H is generated, which determines the assignment of the projective reconstruction for metric reconstruction allowed. The shape of the test piece can then additionally be corrected by finite element calculation to elastic deformations of the test piece replicate.

Claims (23)

Verfahren zur Bestimmung der Raumkoordinaten von Oberflächenpunkten eines Prüflings, der in einem Erfassungsvolumen positioniert ist, mit Hilfe eines 3D-Messystems, bestehend aus mindestens einem Rechner und mindestens einer Sensoreinheit mit mindestens zwei digitalen Kameras und einer Projektionseinheit, wobei das Verfahren die folgenden Schritte umfasst: a) Projizieren von optischen Markierungen auf den Prüfling b) Digitales Erfassen der reflektierten Signale mit der Sensoreinheit c) Errechnen der Raumkoordinaten von Oberflächenpunkten des Prüflings, gekennzeichnet dadurch, dass in a) I) eine erste Schar paralleler Lichtlinien auf den Prüfling sequentiell projiziert wird, in a) II) mindestens eine weitere Schar von Lichtlinien in einem Winkel α zur ersten Schar von Lichtlinien auf den Prüfling sequentiell projiziert wird, in b) I) jede sequentiell erzeugte Lichtlinie digital als vollständige Linie in jeder Kamera erfasst wird, in b) II) jede erfasste Linie mit den zuvor erfassten, nichtparallelen Linien auf Schnittpunkte überprüft wird und auftretende Schnittpunkte als ,virtuelle Schnittpunkte' gekennzeichnet werden in c) I) die zweidimensionalen Koordinaten der virtuellen Schnittpunkte für jede Kamera bestimmt werden und in c) II) aus in allen Kameras übereinstimmend bestimmten, virtuellen Schnittpunkten ein Referenzpunkt erstellt wird in c) III) für die Referenzpunkte die Raumkoordinaten als projektive Rekonstruktion berechnet werden und in c) IV) abschließend die Raumkoordinaten der Referenzpunkte in metrische Koordinaten der Oberflächenpunkte des Körpers umgerechnet werden.Method for determining the spatial coordinates of surface points of a test object that is positioned in a detection volume, with the aid of a 3D measuring system comprising at least one computer and at least one sensor unit having at least two digital cameras and a projection unit, the method comprising the following steps: a) projecting optical markings onto the test object b) digitally detecting the reflected signals with the sensor unit c) calculating the spatial coordinates of surface points of the test object, characterized in that in a) I) a first set of parallel light lines is sequentially projected onto the test object, in a) II) at least one further set of light lines is projected sequentially at an angle α to the first set of lines of light on the sample, in b) I) each sequentially generated light line is detected digitally as a complete line in each camera, in b) II ) each detected line with the previously erfa c) I) the two-dimensional coordinates of the virtual intersection points are determined for each camera and in c) II) from all the cameras coincidentally determined, virtual intersections reference point is created in c) III) for the reference points the spatial coordinates are calculated as projective reconstruction and in c) IV) finally the spatial coordinates of the reference points are converted into metric coordinates of the surface points of the body. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine Anpassung der Sensoreinheit auf die geometrische Form des Prüflings folgende Schritte umfasst: a) Erfassen und Speichern eines Hintergrundbildes im Messbereich jeder Kamera b) Digitale Erfassung des Prüflings durch eine Differenzbildbetrachtung mit dem Hintergrundbild der jeweiligen Kamera c) Begrenzen des Messbereiches auf das in jedem Kamerabild von dem Prüfling abgedeckte Bildsegment.Method according to claim 1, characterized in that that an adaptation of the sensor unit to the geometric shape of the test piece following steps include: a) Acquisition and storage of a Background image in the measuring range of each camera b) Digital capture of the test piece through a difference image view with the background image of respective camera c) limiting the measuring range to the in every camera picture of the examinee covered image segment. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die Anpassung folgende Schritte umfasst: – alle Kameras der Sensoreinheit werden nacheinander auf das zunächst leere Erfassungsvolumen gerichtet und erzeugen entsprechende Bilder Li, – der Prüfling wird im Erfassungsvolumen abgelegt und alle Kameras erzeugen nacheinander die Bilder Mi – die Bilder Li und Mi werden pixelweise subtrahiert und daraus für jede Kamera ein Teilbereich der Bildfläche festgelegt, in dem das Abbild des Prüflings vollständig enthalten ist.Method according to one of claims 1 or 2, characterized in that the adaptation comprises the following steps: - all cameras of the sensor unit are successively directed to the initially empty acquisition volume and generate corresponding images L i , - the DUT is stored in the acquisition volume and all cameras produce successively the images M i - the images L i and M i are subtracted pixel by pixel and from this for each camera a sub-area of the image area is determined, in which the image of the specimen is completely contained. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass jede Sensoreinheit mindestens vor dem ersten Einsatz kalibriert wird und dass die Kalibrierung durch einmalige Messung einer Maßverkörperung aus mindestens fünf räumlich verteilten Punkten erfolgt, wobei eine homographische Matrix H berechnet wird, die die projektive Rekonstruktion der Maßverkörperung auf deren metrische Rekonstruktion abbildet.Method according to one of the preceding claims, characterized characterized in that each sensor unit at least before the first Use is calibrated and that the calibration by one-time measurement a material measure from at least five spatial distributed points, where a homographic matrix H calculated which is the projective reconstruction of the material measure on the metric Reconstruction maps. Verfahren nach einem der vorhergehenden Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Kalibrierung durch die Berechnung der homographischen Matrix bei bekannten Koordinaten von Kameraposition, Sensorposition oder Prüfling erfolgt.Method according to one of the preceding claims 1 to 3, characterized in that the calibration by the calculation the homographic matrix at known coordinates of camera position, Sensor position or DUT he follows. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Prüfling mit mehreren Kameras beobachtet wird und der sich aus der Projektion der Lichtlinie auf der Objektoberfläche ergebende 3-dimensionale Kurvenverlauf in jeder Kamera als 2-dimensiolaner Kurvenverlauf abgebildet wird, der in einen Polygonzug umgewandelt wird.Method according to one of the preceding claims, characterized characterized in that the examinee is observed with multiple cameras and emerging from the projection the light line on the object surface resulting 3-dimensional Curve course in each camera shown as 2-dimensiolaner curve which is converted into a polygon. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass jede Linie in jeder Kamera mit einem Linienindex (Linien der ersten Schar: 1...n; Linien der zweiten Schar: 1..m) gespeichert wird, dass die virtuellen Schnittpunkte (xi, yj) der Polygonzüge berechnet und mit den Indizes (1..n, 1..m) kameraspezifisch gespeichert werden.Method according to one of the preceding claims, characterized in that each line in each camera is stored with a line index (lines of the first family: 1 ... n; lines of the second family: 1..m) that the virtual intersections (x i , y j ) of the traverses are calculated and stored with the indices (1..n, 1..m) camera-specific. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass von den Kameras einer Sensoreinheit die Daten der Schnittpunkte mit gleichen Indizes (x1, y1 bis zu xn, ym) zu entsprechenden Referenzpunkten gruppiert und in Raumkoordinaten des Prüflings transferiert werden.Method according to one of the preceding claims, characterized in that the data from the intersection points with the same indices (x 1 , y 1 to x n , y m ) are grouped by the cameras of a sensor unit into corresponding reference points and transferred into spatial coordinates of the test object. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für jedes Kamerabild eine Konsistenzprüfung durchgeführt wird, wobei die Flächengröße der hellen Bereiche eines Kamerasensors überprüft wird, und wenn diese Fläche größer ist als dies aufgrund einer im Bild vorhandenen Lichtlinie plausibel ist, so werden die Werte verworfen und die Erfassungsprozedur teilweise wiederholt.Method according to one of the preceding claims, characterized marked that for every camera image a consistency check is performed, where the area size of the bright Areas of a camera sensor is checked, and if that area is larger as this is plausible due to a light line in the picture is, then the values are discarded and the capture procedure is partially repeated. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Optimierung der Datenmenge der für die Erfassung der Oberflächenkoordinaten benötigten Daten wie folgt vorgegangen wird: a) Ermitteln der räumlichen Abstände benachbarter Referenzpunkte innerhalb eines Oberflächensegments mit aus Richtung der Sensoreinheit zweidimensional gleichmäßig verteilten Referenzpunkten und Überprüfen der Streuung der erhaltenen Abstandswerte b) Einteilung der Körperoberfläche in ebene und unebene Bereiche c) Reduktion der Referenzpunktdichte in den Bereichen ebenmäßiger, räumlicher Oberflächenstrukturen mit geringer Abstandsstreuung d) Erhöhen der Referenzpunktdichte im Bereich unebener, räumlicher Oberflächenstruktur mit hoher Abstandsstreuung durch Ermitteln weiterer Referenzpunkte.Method according to one of the preceding claims, characterized characterized in that to optimize the amount of data for the acquisition the surface coordinates required Data is handled as follows: a) Determining the spatial distances adjacent reference points within a surface segment with two-dimensionally evenly distributed from the direction of the sensor unit Reference points and checking the Scattering of the obtained distance values b) Classification of the body surface in level and uneven areas c) reduction of the reference point density in the areas even, spatial surface structures with low distance spread d) increasing the reference point density in the area uneven, spatial surface structure with high distance spread by finding other reference points. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Neigungswinkel α zwischen der ersten und zweiten Schar von Lichtlinien variiert wird in Abhängigkeit von der Oberflächenstruktur des Prüflings, wobei nach einer Variation des Winkels eine dritte und weitere Schar von Lichtlinien sequentiell auf den Prüfling projiziert wird und mit den vorher erfassten, nicht parallelen Linien auf Schnittpunkte überprüft wird, die zur Bestimmung weiterer Koordinaten und Referenzpunkte verwendet werden.Method according to one of the preceding claims, characterized characterized in that the inclination angle α between the first and second coulters of light lines is varied depending on the surface texture of the test object, wherein after a variation of the angle, a third and further crowd of light lines is sequentially projected onto the specimen and with the previously detected, non-parallel lines are checked for intersections, used to determine additional coordinates and reference points become. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die erste und zweite Schar von Lichtlinien rechtwinklig zueinander verlaufen.Method according to one of the preceding claims, characterized in that the first and second set of lines of light perpendicular to each other. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass aus den Koordinaten der Referenzpunktgruppen der Kameras einer Sensoreinheit die Fundamentalmatrix F der Sensoreinheit und anschließend die Kameramatrizen P jeder Kamera ermittelt werden, dass aus den Matrizen P und den zweidimensionalen Koordinaten der Referenzpunkte in den Kamerabildern eine projektive Rekonstruktion der dreidimensionalen Koordinaten der Referenzpunkte erstellt wird und dass unter Benutzung der homographischen Matrix H die projektive Rekonstruktion in eine metrische Rekonstruktion, eingebettet in ein Welt-Koordinatensystem, transferiert wird.Method according to one of the preceding claims, characterized characterized in that from the coordinates of the reference point groups the cameras of a sensor unit, the fundamental matrix F of the sensor unit and subsequently the camera matrices P of each camera are determined to be from the Matrices P and the two-dimensional coordinates of the reference points in the camera images a projective reconstruction of the three-dimensional Coordinates of the reference points is created and that under use the homographic matrix H the projective reconstruction into a metric reconstruction embedded in a world coordinate system, is transferred. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Prüfling mit einer CAD-Zeichnung automatisiert verglichen wird und die Messung an vordefinierten Punkten mit verringertem Linienabstand und somit mit höherer Referenzpunktdichte durchgeführt wird.Method according to one of the preceding claims, characterized characterized in that the examinee is compared with a CAD drawing automated and the measurement at predefined points with reduced line spacing and thus with higher Reference point density performed becomes. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass an den Stellen, an denen Abweichungen aus dem Vergleich von Solldaten und berechneten Daten festgestellt werden, eine erneute Messung mit erhöhter Referenzpunktdichte durchgeführt wird.Method according to one of the preceding claims, characterized characterized in that at the points where deviations from the Comparison of target data and calculated data can be determined a new measurement with increased Reference point density performed becomes. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Messung mit mehreren Sensoreinheiten gleichzeitig erfolgt, wobei jede Sensoreinheit eine unterschiedliche Lichtwellenlänge nutzt und dementsprechend die den jeweiligen Sensoreinheiten zugeordneten Kameras mit Filtereinrichtungen ausgestattet sind, die auf die Lichtwellenlänge der Projektoren der Sensoreinheit abgestimmt sind.Method according to one of the preceding claims, characterized characterized in that the measurement with multiple sensor units simultaneously takes place, each sensor unit uses a different wavelength of light and accordingly, associated with the respective sensor units Cameras are equipped with filtering devices that are based on the light wavelength of the Projectors of the sensor unit are tuned. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Wellenlängen der Projektionseinheiten nach der Objektbeschaffenheit ausgewählt werden.Method according to one of the preceding claims, characterized characterized in that the wavelengths the projection units are selected according to the object condition. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Beobachtung des Prüflings mit mehreren Sensoreinheiten erfolgt, die die Geometrie allseitig erfassen.Method according to one of the preceding claims, characterized characterized in that the observation of the test piece takes place with a plurality of sensor units, which capture the geometry on all sides. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Lichtlinien durch Laserlinienprojektoren erzeugt werden.Method according to one of the preceding claims, characterized characterized in that the light lines through laser line projectors be generated. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der erfasste Prüfling gegen eine CAD-Referenz geprüft wird, wobei die ermittelte Gestalt des Prüflings durch Finite-Elemente-Rechnung der Gestalt der CAD-Referenz angenähert wird, um dem Einfluss elastischer Verformungen des Prüflings Rechnung zu tragen.Method according to one of the preceding claims, characterized characterized in that the detected test object against a CAD reference being checked wherein the determined shape of the specimen by finite element calculation the shape of the CAD reference is approximated to the influence elastic deformations of the test specimen Take into account. Vorrichtung zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche 1 bis 20, bestehend aus mindestens einem Projektor, mindestens einer Sensoreinheit mit mindestens zwei Digitalkameras und einer Bildauswertungseinheit, dadurch gekennzeichnet, dass der Projektor aus einem sequentiellen, in mindestens zwei Richtungen eine Lichtlinie erzeugenden Lichtlinienprojektor besteht und dass die Bildauswertungseinheit eine Differenzbildauswertung und eine Schnittpunktberechnung für die sequentiell erzeugten Lichtlinien umfasst.Apparatus for carrying out the method according to one of the preceding claims 1 to 20, consisting of at least one projector, at least one Sensor unit with at least two digital cameras and an image evaluation unit, characterized in that the projector consists of a sequential, in at least two directions a line of light producing light line projector exists and that the image evaluation unit a difference image evaluation and an intersection calculation for the sequentially generated ones Includes light lines. Vorrichtung nach Anspruch 21, dadurch gekennzeichnet, dass der Lichtlinienprojektor aus einem Laserlichtlinienprojektor besteht.Apparatus according to claim 21, characterized that the light line projector from a laser light line projector consists. Vorrichtung nach einem der Ansprüche 21 oder 22, dadurch gekennzeichnet, dass der Lichtlinienprojektor eine Spreizung des Laserstrahls zu einer Laserlichtlinie umfasst.Device according to one of claims 21 or 22, characterized that the light line projector to a spread of the laser beam to a laser light line comprises.
DE200510043753 2005-09-13 2005-09-13 Test sample surface point spatial coordinates determining method, involves computing spatial coordinates as projective reconstruction for all reference points, and converting coordinates of points into metric coordinates of surface points Ceased DE102005043753A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE200510043753 DE102005043753A1 (en) 2005-09-13 2005-09-13 Test sample surface point spatial coordinates determining method, involves computing spatial coordinates as projective reconstruction for all reference points, and converting coordinates of points into metric coordinates of surface points

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200510043753 DE102005043753A1 (en) 2005-09-13 2005-09-13 Test sample surface point spatial coordinates determining method, involves computing spatial coordinates as projective reconstruction for all reference points, and converting coordinates of points into metric coordinates of surface points

Publications (1)

Publication Number Publication Date
DE102005043753A1 true DE102005043753A1 (en) 2007-03-15

Family

ID=37763157

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200510043753 Ceased DE102005043753A1 (en) 2005-09-13 2005-09-13 Test sample surface point spatial coordinates determining method, involves computing spatial coordinates as projective reconstruction for all reference points, and converting coordinates of points into metric coordinates of surface points

Country Status (1)

Country Link
DE (1) DE102005043753A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009024129A1 (en) * 2007-08-19 2009-02-26 Fachhochschule Giessen-Friedberg Signal marks and method for the photogrammetric measurement of geometrically irregular objects
EP2105701A1 (en) * 2008-03-25 2009-09-30 Steinbichler Optotechnik Gmbh Method and device for determining the 3D coordinates of an object
DE102014211369A1 (en) * 2014-06-13 2015-12-17 Sita Messtechnik Gmbh Contact angle measuring instrument
CN111380481A (en) * 2019-12-31 2020-07-07 吉林大学 Automobile morphology monocular active vision reconstruction system and method based on five-point identification
CN116878381A (en) * 2023-08-01 2023-10-13 湖南视比特机器人有限公司 Online full-size detection method and system based on multi-eye vision
DE102023108233A1 (en) 2023-03-30 2024-06-20 Carl Zeiss Smt Gmbh Light module for emitting measuring light in an optical metrology system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5175601A (en) * 1991-10-15 1992-12-29 Electro-Optical Information Systems High-speed 3-D surface measurement surface inspection and reverse-CAD system
DE4416108A1 (en) * 1994-05-06 1995-11-09 Fraunhofer Ges Forschung Object surface contactless measurement appts.
DE19637682A1 (en) * 1996-09-05 1998-03-12 Fraunhofer Ges Forschung Method for determining the spatial coordinates of objects and / or their temporal change and device for applying this method
DE19852149A1 (en) * 1998-11-04 2000-05-25 Fraunhofer Ges Forschung Device for determining the spatial coordinates of objects
DE10219054A1 (en) * 2002-04-24 2003-11-20 Fraunhofer Ges Forschung Method for determining the spatial coordinates of an object
EP1391688A1 (en) * 2002-08-14 2004-02-25 Metris N.V. Optical probe with laser scanner for generating crossed lines
EP1391690A1 (en) * 2002-08-14 2004-02-25 Metris N.V. Optical probe for measuring features of an object and methods therefor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5175601A (en) * 1991-10-15 1992-12-29 Electro-Optical Information Systems High-speed 3-D surface measurement surface inspection and reverse-CAD system
DE4416108A1 (en) * 1994-05-06 1995-11-09 Fraunhofer Ges Forschung Object surface contactless measurement appts.
DE19637682A1 (en) * 1996-09-05 1998-03-12 Fraunhofer Ges Forschung Method for determining the spatial coordinates of objects and / or their temporal change and device for applying this method
DE19852149A1 (en) * 1998-11-04 2000-05-25 Fraunhofer Ges Forschung Device for determining the spatial coordinates of objects
DE10219054A1 (en) * 2002-04-24 2003-11-20 Fraunhofer Ges Forschung Method for determining the spatial coordinates of an object
EP1391688A1 (en) * 2002-08-14 2004-02-25 Metris N.V. Optical probe with laser scanner for generating crossed lines
EP1391690A1 (en) * 2002-08-14 2004-02-25 Metris N.V. Optical probe for measuring features of an object and methods therefor

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009024129A1 (en) * 2007-08-19 2009-02-26 Fachhochschule Giessen-Friedberg Signal marks and method for the photogrammetric measurement of geometrically irregular objects
EP2105701A1 (en) * 2008-03-25 2009-09-30 Steinbichler Optotechnik Gmbh Method and device for determining the 3D coordinates of an object
DE102014211369A1 (en) * 2014-06-13 2015-12-17 Sita Messtechnik Gmbh Contact angle measuring instrument
DE102014211369A8 (en) * 2014-06-13 2016-02-18 Sita Messtechnik Gmbh Contact angle measuring instrument
US9322760B2 (en) 2014-06-13 2016-04-26 Sita Messtechnik Gmbh Contact angle measuring instrument
DE102014211369B4 (en) 2014-06-13 2022-03-10 Sita Messtechnik Gmbh contact angle meter
CN111380481A (en) * 2019-12-31 2020-07-07 吉林大学 Automobile morphology monocular active vision reconstruction system and method based on five-point identification
CN111380481B (en) * 2019-12-31 2024-06-07 吉林大学 System and method for monocular active visual reconstruction of automobile morphology based on five-point identification
DE102023108233A1 (en) 2023-03-30 2024-06-20 Carl Zeiss Smt Gmbh Light module for emitting measuring light in an optical metrology system
CN116878381A (en) * 2023-08-01 2023-10-13 湖南视比特机器人有限公司 Online full-size detection method and system based on multi-eye vision
CN116878381B (en) * 2023-08-01 2024-01-30 湖南视比特机器人有限公司 Online full-size detection method and system based on multi-eye vision

Similar Documents

Publication Publication Date Title
DE102012108567B4 (en) Method of obtaining depth information using a light pattern
DE102007054906B4 (en) Method for optical measurement of the three-dimensional geometry of objects
DE10020893B4 (en) Method for optical shape detection of objects
DE102015116047B4 (en) Test device and control method for a test device
DE19536297C2 (en) Method for the geometric calibration of 3D optical sensors for the three-dimensional measurement of objects and apparatus for this purpose
DE112010005008B4 (en) System and method for determining camera calibration in runtime
EP0897524B1 (en) Device for non-contact measurement of the surface of a three dimensional object
DE102006055758B4 (en) Method for calibrating cameras and projectors
EP2574876B1 (en) Method and device for determining the 3D coordinates of an object
EP2002203A2 (en) Method and system for measuring the shape of a reflective surface
DE10137241A1 (en) Arrangement, for detecting and measuring objects, optically projects markers onto object, records partial views of object in global coordinate system using information re-detected markers
EP3775767B1 (en) Method and system for measuring an object by means of stereoscopy
AT506110A1 (en) DEVICE AND METHOD FOR DETECTING BODY MEASURE DATA AND CONTOUR DATA
DE19637682A1 (en) Method for determining the spatial coordinates of objects and / or their temporal change and device for applying this method
DE102005043753A1 (en) Test sample surface point spatial coordinates determining method, involves computing spatial coordinates as projective reconstruction for all reference points, and converting coordinates of points into metric coordinates of surface points
DE10359104B3 (en) Method for dynamic, three-dimensional acquisition and display of a surface
WO2009018894A1 (en) Method and device for determining geometric data of a measured object
DE102020132179A1 (en) Method and device for photogrammetric measurement
EP2590139A1 (en) Method and apparatus for extensive optical three-dimensional measurement of surface topographies
DE102011083621B4 (en) Method and device for manufacturing control of a collimator
WO2014114663A1 (en) Optical device and method for determining spatial coordinates of surfaces of macroscopic objects by triangulating two line-scan cameras
EP3798570B1 (en) Optical measuring system and method for calibrating an optical measuring system, and calibration object for an optical measuring system
DE102019123232A1 (en) Multiple exposure process
WO2014094815A1 (en) Correspondence analysis method
DE102017122627A1 (en) Optical measuring system and measuring method

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8110 Request for examination paragraph 44
8131 Rejection