DE102013103252B4 - Increase measurement accuracy when measuring with light section sensors by simultaneously calibrating and reducing speckles - Google Patents

Increase measurement accuracy when measuring with light section sensors by simultaneously calibrating and reducing speckles Download PDF

Info

Publication number
DE102013103252B4
DE102013103252B4 DE102013103252.4A DE102013103252A DE102013103252B4 DE 102013103252 B4 DE102013103252 B4 DE 102013103252B4 DE 102013103252 A DE102013103252 A DE 102013103252A DE 102013103252 B4 DE102013103252 B4 DE 102013103252B4
Authority
DE
Germany
Prior art keywords
image data
light
light section
resulting
laser light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102013103252.4A
Other languages
German (de)
Other versions
DE102013103252A1 (en
Inventor
Albert Sedlmaier
Bernard Poks
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Data M Sheet Metal Solutions GmbH
Original Assignee
Data M Sheet Metal Solutions GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Data M Sheet Metal Solutions GmbH filed Critical Data M Sheet Metal Solutions GmbH
Priority to DE102013103252.4A priority Critical patent/DE102013103252B4/en
Publication of DE102013103252A1 publication Critical patent/DE102013103252A1/en
Application granted granted Critical
Publication of DE102013103252B4 publication Critical patent/DE102013103252B4/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object

Abstract

Verfahren zur Vermessung einer Oberfläche (20) eines Prüflings mit einem Lichtschnittsensor (S1–S4), folgende Schritte umfassend: a) Anordnen von mindestens einem Lichtschnittsensor (S1–S4) in mindestens einer ersten und in einer zweiten Position, um einen gemeinsamen Messbereich zur Vermessung des Prüflings zu bilden, wobei die jeweiligen Lichtschnittebenen von mindestens der ersten Position und der zweiten Position auf den Prüfling projiziert werden, indem sie in einer gemeinsamen Ebene liegen oder gerade nur so weit voneinander parallel beabstandet sind, dass sie sich bei einer Vermessung gegenseitig nicht stören; b) Anordnen von mindestens zwei Referenzen, die Teil des Prüflings sind, oder von mindestens zwei separaten Referenzmarkern (31–34) oder von mindestens einer Referenz im Prüfling und einem Referenzmarker (31–34) im gemeinsamen Messerfassungsbereich; c) messtechnisches Erfassen des Lichtschnitts auf dem Prüfling zusammen mit den Referenzen und/oder den Referenzmarkern (31–34) von der ersten und zweiten Position aus und damit Vermessen des Prüflings, wobei die jeweilige Lichtschnittebene durch ein erstes Laser-Lichtstrahlbündel erzeugt und ausgesendet wird und dabei erste Rohbilddaten von der jeweiligen Position erfasst werden; gekennzeichnet durch ...Method for measuring a surface (20) of a test object with a light section sensor (S1-S4), comprising the following steps: a) arranging at least one light section sensor (S1-S4) in at least a first and in a second position to form a common measuring area for Measuring the test specimen to be formed, wherein the respective Lichtschnittebenen be projected from at least the first position and the second position on the specimen by lying in a common plane or just just so far apart from each other that they are not mutually in one measurement to disturb; b) arranging at least two references that are part of the device under test or at least two separate reference markers (31-34) or at least one reference in the device under test and a reference marker (31-34) in the common measurement coverage area; c) metrological detection of the light section on the specimen together with the references and / or the reference markers (31-34) from the first and second position and thus measuring the test specimen, wherein the respective light section plane is generated and emitted by a first laser light beam and thereby first raw image data are acquired from the respective position; marked by ...

Description

Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Vermessung eines Strangprofils mit mindestens einem Lichtschnittsensor von verschiedenen Positionen aus. Dabei werden Messwerte von der einen Position mit anderen Messwerten von der anderen Position aus anhand von gemeinsamen Referenzen durch eine Recheneinheit korreliert und kalibriert. Speckles, die durch Verwendung von Laser-Licht als Reflexion an einer Oberfläche des Strangprofils entstehen, werden durch geeignete Maßnahmen reduziert.The present invention relates to a method and a device for measuring an extruded profile with at least one light section sensor from different positions. In this case, measured values from one position with other measured values from the other position are correlated and calibrated on the basis of common references by an arithmetic unit. Speckles created by using laser light as reflection on a surface of the extruded profile are reduced by appropriate means.

DE 103 28 523 A1 beschreibt ein Verfahren und eine Messvorrichtung für eine berührungslose Vermessung einer Oberflächenkontur eines Prüflings nach einem Laser basierten Lichtschnittverfahren (Triangulationsprinzip), wie beispielsweise für die berührungslose Vermessung eines Schienenprofils für Eisenbahnen. Dabei sind in eine Laserlinie, die von Lichtschnittsensoren auf das Schienenprofil projiziert wird, zwecks Kalibrierung mehrere Referenzmarker zwischen dem Schienenprofil und dem jeweiligen Sensor angeordnet, wobei die Referenzmarker in einer Ebene liegen und einen bekannten Abstand zueinander haben. Daraufhin werden die mittels Kamerasystem vermessenen Referenzmarker dazu verwendet, eine Transformationsmatrix zu berechnen, um damit das Bild einer Vermessungslinie des Schienenprofils zu entzerren. Die genaue Justierung der in einer Ebene liegenden Referenzmarker in die Ebene eines ausgesendeten Laserstrahlbündels ist jedoch diffizil und nur für einen festen Verbund der Lichtschnittsensoren und den Referenzmarkern gedacht. Durch das Laser-Licht erzeugte Speckles an den Oberflächen begrenzen die Messgenauigkeit. DE 103 28 523 A1 describes a method and a measuring device for a non-contact measurement of a surface contour of a test object according to a laser-based light-section method (triangulation principle), such as for the non-contact measurement of a rail profile for railways. In this case, a plurality of reference markers between the rail profile and the respective sensor are arranged in a laser line which is projected by light section sensors on the rail profile, wherein the reference markers lie in one plane and have a known distance from each other. The reference markers measured by the camera system are then used to calculate a transformation matrix in order to equalize the image of a survey line of the rail profile. The exact adjustment of the lying in a plane reference marker in the plane of a transmitted laser beam is, however, difficult and only intended for a solid composite of the light section sensors and the reference markers. Speckles on the surfaces created by the laser light limit the measurement accuracy.

US 7 679 757 B1 beschreibt eine Vorrichtung und ein Verfahren für eine berührungslose Vermessung einer Oberflächenkontur nach dem Laser basierten Lichtschnittverfahren beispielsweise eines Strangprofils, das durch eine Sensor-Vorrichtung geschoben wird. Dabei ermöglicht die Sensorvorrichtung die Vermessung der Oberfläche des Strangprofils während einer Produktion, so dass die Produktionsparameter während eines Produktionsprozesses entsprechend nachgestellt werden können. Dabei sind ein oder mehrere Sensoren auf einer ringartigen Vorrichtung montiert, so dass das Stangen- oder Schienenprofil von allen Seiten anhand seiner Oberfläche vermessen werden kann. Die Sensoren sind dabei radial, entlang eines Kreisbogens und nach innen auf das Strangprofil gerichtet angeordnet. US Pat. No. 7,679,757 B1 describes an apparatus and a method for a non-contact measurement of a surface contour according to the laser-based light-section method, for example of an extruded profile, which is pushed by a sensor device. In this case, the sensor device allows the measurement of the surface of the extruded profile during production, so that the production parameters can be adjusted accordingly during a production process. In this case, one or more sensors are mounted on a ring-like device, so that the rod or rail profile can be measured from all sides on the basis of its surface. The sensors are arranged radially, along a circular arc and directed inwards on the extruded profile.

Die Kalibrierung der Sensorvorrichtung erfolgt zeitweise unter Einbringen eines speziellen Kalibrierkörpers, die jedoch nicht während des Produktionsprozesses geschehen kann.The calibration of the sensor device takes place at times with the introduction of a special calibration body, which however can not occur during the production process.

DE 100 17 463 A1 beschreibt eine Vorrichtung und ein Verfahren für die berührungslose Vermessung einer Oberflächenkontur nach dem Laser basierten Lichtschnittverfahren, bei der das zu vermessende Objekt gleichzeitig mit feststehenden Referenzmarkern vermessen wird. Dabei wird das Bild von dem zu vermessenden Objekt und gleichzeitig von den feststehenden Referenzmarkern durch einen halbdurchlässigen Spiegel erzielt. Die feststehenden Referenzmarker sind dabei in einem definierten und konstanten Abstand zu den Sensoren zu halten. DE 100 17 463 A1 describes a device and a method for the non-contact measurement of a surface contour according to the laser-based light-section method, in which the object to be measured is measured simultaneously with fixed reference markers. The image is obtained from the object to be measured and at the same time from the fixed reference markers by a semitransparent mirror. The fixed reference markers are to be kept at a defined and constant distance from the sensors.

DE 690 03 090 T2 beschreibt eine Vorrichtung und ein Verfahren für die Kalibrierung eines beweglichen Laser-Lichtschnittsensors, der beispielsweise an einem Roboterarm befestigt ist und zu Messzwecken um den Prüfling herum bewegt wird. Zur Kalibrierung wird ein definiertes Kalibrierobjekt bekannter Abmaße an einer definierten Stelle im Raum platziert und abgetastet, um aus diesen Messwerten dann eine Korrekturmatrix für die Entzerrung bzw. Korrektur der Messergebnisse zu erzeugen. Während einer Kalibrierung ist der Laser-Lichtschnittsensor jedoch dem Kalibierobjekt hin zu bewegen und steht für diese Zeit nicht für Messungen zur Verfügung. Das Kalibrierobjekt und der Roboterarm müssen über die Zeit in einem definierten Abstand gehalten werden. DE 690 03 090 T2 describes an apparatus and method for calibrating a movable laser light-slit sensor, for example, attached to a robotic arm and moved around the specimen for measurement purposes. For calibration, a defined calibration object of known dimensions is placed at a defined point in space and scanned, in order then to generate from these measured values a correction matrix for the equalization or correction of the measurement results. During a calibration, however, the laser light-section sensor is to be moved towards the calibration object and is not available for measurements during this time. The calibration object and the robot arm must be kept at a defined distance over time.

US 7 679 757 B1 beschreibt ein 360 Grad Messsystem bestehend aus Laser-Lichtschnittsensoren, die zirkular um beispielsweise ein Strangprofil herum angeordnet sind und diese vermessen. Dabei kann das Messsystem durch ein Kalibrierobjekt, das kurzzeitig in die Mitte des gemeinsamen Messerfassungsbereichs eingebracht wird, kalibriert werden. Andererseits ist das Messsystem auch so ausgelegt, ein bekanntes Profil zu erkennen und zugeordnete Messwerte relativ dazu auszugeben. US Pat. No. 7,679,757 B1 describes a 360 degree measuring system consisting of laser light section sensors, which are arranged in a circle around, for example, an extruded profile and measure it. In this case, the measuring system can be calibrated by a calibration object, which is briefly introduced into the center of the common measuring range. On the other hand, the measuring system is also designed to recognize a known profile and to output associated measured values relative thereto.

US 2004/0 202 364 A1 beschreibt ein Kalibrierobjekt bzw. ein Referenzobjekt und ein Verfahren zur drei-dimensionalen Kalibrierung eines Messsystems bestehend aus einer Stereo-Fotografie-Einheit, die um den Messgegenstand zusammen mit dem im Bild angeordneten Kalibrierobjekt herum bewegt wird. Das Kalibrierobjekt bzw. Referenzobjekt weist eine Vielzahl an Referenzpunkten auf, deren jeweils mindestens sechs von jeder seitlichen Lage aus zu erkennen sind. US 2004/0 202 364 A1 describes a calibration object or a reference object and a method for the three-dimensional calibration of a measurement system consisting of a stereo photography unit which is moved around the measurement object together with the calibration object arranged in the image. The calibration object or reference object has a multiplicity of reference points, of which at least six can be recognized from each lateral position.

WO 92/08 103 A1 beschreibt ein Verfahren und eine Vorrichtung mit dem bzw. mit der ein Kalibrierkörper, dessen Maße in einem Rechner abgespeichert sind, in die Messbereiche von verwendeten Kameras gebracht wird, um so Entzerrungskorrekturen für die jeweiligen Kamerabilddaten rechentechnisch durchführen zu können. Hierfür sind jedoch bekannte Kalibrierkörper notwendig. Differenzen der Messergebnisse zwischen einem Kamerabild und einem benachbarten Kamerabild können dabei durch Messfehler des Kalibrierkörpers immer noch auftreten. WO 92/08103 A1 describes a method and a device with or with which a calibration body, the dimensions of which are stored in a computer, is brought into the measurement areas of cameras used, so that equalization corrections for the respective camera image data can be performed computationally. However, known calibration bodies are necessary for this purpose. Differences of the measurement results between a camera image and an adjacent camera image can still occur due to measurement errors of the calibration.

WO 2005/106 384 A1 beschreibt ein Verfahren und eine dazugehörige Vorrichtung, die einen optischen Sensor an einer Roboterhand und zusätzliche Messpunkte (Target) aufweist, die für die Kalibrierung des optischen Sensors dienen. Die genaue Lage der Messpunkte im Raum wird dabei durch eine zusätzliche nahe angeordnete Messeinrichtung bestimmt. WO 2005/106384 A1 describes a method and associated apparatus including an optical sensor on a robot hand and additional measurement points (target) for calibration of the optical sensor. The exact position of the measuring points in the room is determined by an additional measuring device arranged close by.

DE 103 35 472 A1 beschreibt eine Vorrichtung, die einen Vermessungssensor an einer Roboterhand aufweist, der über einen weiten Bereich bewegt werden kann und damit einen großen Messbereich aufweist. Dazu muss die Lage und Richtung des Vermessungssensors bekannt sein, die beispielsweise über Gelenksensoren oder aber auch über eine optische Vermessung bekannter Marken berechnet werden kann. DE 103 35 472 A1 describes a device having a surveying sensor on a robot hand, which can be moved over a wide range and thus has a large measuring range. For this purpose, the position and direction of the surveying sensor must be known, which can be calculated, for example, by means of joint sensors or also via an optical measurement of known brands.

US 6 078 846 A beschreibt einen Roboterarm auf dem eine Kamera, die auf dem Lichtschnittverfahren basierend misst, angebracht ist und einen Gegenstand vermisst. Die Kamera ist dabei von verschiedenen Positionen aus mittels vorhandener Kalibrierobjekte kalibrierbar. Als Kalibrierobjekte werden hierbei Tetraeder (target structure) eingesetzt, die eine bestimmte Position im Nutzerkoordinatensystem haben, worauf die Kamera somit eingestellt werden kann. Hierfür sind jedoch besondere Kalibrierobjekte notwendig, und Differenzen der Messergebnisse zwischen einem Kamerabild und einem anderen Kamerabild von einer anderen Position aus können durch Messfehler des Kalibrierkörpers immer noch auftreten. US Pat. No. 6,078,846 describes a robot arm on which a camera, which measures based on the light-section method, is mounted and misses an object. The camera can be calibrated from different positions using existing calibration objects. As calibration objects in this case tetrahedrons (target structure) are used, which have a certain position in the user coordinate system, whereupon the camera can be adjusted. However, special calibration objects are necessary for this, and differences in the measurement results between a camera image and another camera image from a different position can still occur due to measurement errors of the calibration body.

DE 10 2006 031 142 A1 offenbart ein Verfahren zur dreidimensionalen Vermessung von Sportbällen und kugelförmigen Objekten, wobei die Sportbälle und kugelförmigen Objekte von mehreren Positionen aus vermessen werden. Eine Speckle-Reduktion ist dabei aber nicht offenbart. DE 10 2006 031 142 A1 discloses a method for three-dimensional measurement of sports balls and spherical objects, wherein the sports balls and spherical objects are measured from several positions. A speckle reduction is not disclosed.

Die DE 10 2006 059 415 A1 offenbart ein Verfahren und eine Vorrichtung zur Dickenmessung von Gegenständen, wobei mehrere Bilder aufgenommen und Mittelungsverfahren eingesetzt werden, um eine Genauigkeit zu verbessern. Auftretende Speckles können dadurch jedoch nicht ausreichend reduziert oder eine kompensiert werden. Die DE 10 2011 000 304 A1 beschreibt ein Verfahren und eine Messvorrichtung gemäß dem Oberbegriff der vorliegenden Erfindung. Dabei wird ein Querschnitt des Strang- oder Blechwalzprofils von mehreren Positionen aus um das Strangprofil herum vermessen, wobei während der Vermessung gleichzeitig über gemeinsame Referenzen und/oder Referenzmarker in einem jeweils benachbarten Messerfassungsbereich eine Kalibrierung des jeweiligen Sensors an der jeweiligen Position durchgeführt wird. Durch die Verwendung eines Laser-Lichts zur Erzeugung der Lichtschnittebene treten Speckles auf, die die Messung stören.The DE 10 2006 059 415 A1 discloses a method and apparatus for measuring thickness of objects wherein multiple images are taken and averaging techniques used to improve accuracy. However, this does not sufficiently reduce or compensate for occurring speckles. The DE 10 2011 000 304 A1 describes a method and a measuring device according to the preamble of the present invention. In this case, a cross-section of the extruded or rolled sheet profile is measured from several positions around the extruded profile, wherein during the measurement, a calibration of the respective sensor at the respective position is performed simultaneously via common references and / or reference markers in a respective adjacent measuring range. By using a laser light to generate the light section plane speckles occur that interfere with the measurement.

Um für den Lichtschnittsensor eine dafür notwendige Lichtschnittebene als entsprechendes Lichtstrahlbündel mit hoher Lichtintensität, geringer Breite, hoher Tiefe und Tiefenschärfe und einer möglichst geringen Wärmeverlustleistung zu erzeugen, wird im Stand der Technik eine Laser-Lichtquelle verwendet. Durch das Laser-Licht werden an den reflektierenden Oberflächen jedoch die sogenannten Speckles erzeugt, die durch Interferenzen an der Oberflächenrauigkeit der Oberfläche entstehen und die die Messgenauigkeit somit begrenzen bzw. Messfehler verursachen.In order to produce a light section plane necessary for the light section sensor as a corresponding light beam bundle with high light intensity, small width, high depth and depth of focus and the lowest possible heat loss, a laser light source is used in the prior art. Due to the laser light, however, the so-called speckles are generated at the reflecting surfaces, which are caused by interferences on the surface roughness of the surface and thus limit the measuring accuracy or cause measuring errors.

Das Strangprofil soll möglichst während einer kontinuierlichen Herstellung in der Walzprofilieranlage über deren Oberfläche als Querschnitt kontinuierlich vermessen werden. Dadurch können anhand der Messergebnisse sofort parametrische Korrekturen in der Walzprofilieranlage vorgenommen werden. Wünschenswert ist eine Vermessung des Strangprofiles oder des Prüflings in der Messvorrichtung von mehreren Seiten oder Perspektiven aus, mit allen wesentlichen Oberflächen und Rundungen. Dafür kommen entweder mehrere Sensoren oder mindestens ein beweglicher, in der Messvorrichtung verfahrbarer Sensor in Betracht. Ebenso könnte das Strangprofil oder der Prüfling in der Messvorrichtung gedreht werden, die auch eine Tisch-Messvorrichtung mit einem Drehteller sein kann.If possible, the extruded profile should be continuously measured over its surface as a cross section during continuous production in the roll forming system. As a result, parametric corrections can be made in the roll forming system based on the measurement results. It is desirable to measure the extruded profile or the specimen in the measuring device from several sides or perspectives, with all the essential surfaces and curves. For this purpose, either several sensors or at least one movable, movable in the measuring device sensor come into consideration. Likewise, the extruded profile or the test piece could be rotated in the measuring device, which may also be a table-measuring device with a turntable.

Zudem soll eine einmal hergestellte Genauigkeit der Messvorrichtung mit gewissen Toleranzen möglichst gut beibehalten werden, die maßgeblich von Temperaturschwankungen, Vibrationen und von mechanischen Schocks beeinträchtigt wird. Genaue und langzeitstabile Sensoren mit einer guten Messgenauigkeit über einem Temperaturbereich sind meist teuer und empfindlich. Dabei sind temperaturbedingte oder Langzeit-Messabweichungen im Wesentlichen durch eine temperaturbedingte Winkelveränderung eines Licht- oder Laserstrahlbündels bedingt, die sich im Wesentlichen als Offset und nur weniger in einer Skalierung auswirken. Die Genauigkeit kann bekanntlich durch eine periodische Kalibrierungen wiederhergestellt werden.In addition, a once manufactured accuracy of the measuring device should be kept as well as possible with certain tolerances, which is significantly affected by temperature fluctuations, vibrations and mechanical shocks. Accurate and long-term stable sensors with a good measurement accuracy over a temperature range are usually expensive and sensitive. In this case, temperature-related or long-term measurement deviations are essentially due to a temperature-induced change in the angle of a light or laser beam, which essentially have an effect as an offset and only a few in a scaling. The accuracy can be known to be restored by a periodic calibrations.

Hinsichtlich der Messgenauigkeit ist es wünschenswert, Speckles möglichst zu vermeiden oder weitgehend zu reduzieren.With regard to the measurement accuracy, it is desirable to avoid or substantially reduce speckles.

Zusammenfassung der ErfindungSummary of the invention

Daher besteht eine Aufgabe der vorliegenden Erfindung, um die Nachteile aus dem Stand der Technik zu vermeiden, in der Bereitstellung eines Verfahrens und einer Messvorrichtung basierend auf einem Lichtschnitt-Messverfahren zu einer kontinuierlichen Vermessung einer Oberfläche eines Prüflings entlang einem Querschnitt des Prüflings von mindestens zwei Perspektiven aus, wobei durch Laser-Licht auftretende Speckles und dadurch bedingte Messfehler möglichst weitgehend reduziert werden sollen.Therefore, an object of the present invention to overcome the disadvantages of the prior To avoid technique, in providing a method and a measuring device based on a light-slit measuring method for a continuous measurement of a surface of a specimen along a cross-section of the specimen from at least two perspectives, wherein occurring by laser light speckles and consequent measurement errors as much as possible should be reduced.

Die vorstehende Aufgabe sowie weitere der Beschreibung zu entnehmende Aufgaben werden von einem Verfahren und einer Messvorrichtung zur Vermessung einer Oberfläche eines Strangprofils gemäß den kennzeichnenden Merkmalen der unabhängigen Ansprüche 1 bzw. 7 gelöst.The above object and other objects to be taken from the description are achieved by a method and a measuring device for measuring a surface of an extruded profile according to the characterizing features of independent claims 1 and 7, respectively.

Es wird ein Verfahren und eine dazugehörige Messvorrichtung zur Verfügung gestellt, das oder die eine Vermessung einer Oberfläche eines Prüflings, wie beispielweise eines Strangprofils durch mindestens einen Lichtschnittsensor von mindestens zwei Positionen oder Messperspektiven aus erlaubt, wobei während der Vermessung des Prüflings auch gleichzeitig eine erneute Kalibrierung des mindestens einen Lichtschnittsensors erfolgen kann. Durch die erneute Kalibrierung wird eine Langzeitstabilität und somit die Genauigkeit der Vermessung erhöht, und es können somit auch kostengünstigere Sensor-Komponenten mit einer geringeren Langzeitstabilität oder Langzeit-Genauigkeit für die Messvorrichtung gewählt werden.A method and an associated measuring device are provided which permit a measurement of a surface of a test object, such as an extruded profile by at least one light section sensor from at least two positions or measuring perspectives, during which the test specimen is also simultaneously recalibrated the at least one light section sensor can take place. The recalibration increases the long-term stability and thus the accuracy of the measurement, and thus also cheaper sensor components with a lower long-term stability or long-term accuracy for the measuring device can be selected.

Indem erfindungsgemäß mit dem Lichtschnittsensors als einem Laser-Lichtschnittsensor von einer jeweiligen Position aus eine Vermessung sowohl mit einem ersten Lichtstrahlbündel zur Erzeugung erster Rohbilddaten, als auch eine Vermessung mit einem anderen, zweiten Lichtstrahlbündel zur Erzeugung zweiter Rohbilddaten vorgenommen wird, treten zwischen den ersten und den zweiten Rohbilddaten unterschiedliche Speckles-Muster auf. Auf diese Weise lassen sich durch einen Algorithmus bereinigte, resultierende Bilddaten erzeugen, die ein wesentlich geringeres Speckles-Muster aufweisen. Zur Erzeugung des ersten und des zweiten Lichtstrahlbündels können verschiedene Wellenlängen verwendet werden. Bevorzugt können aber auch durch eine unterschiedliche Polarisationsebene des Laserlichts die unterschiedlichen Speckles Muster erzeugt werden. Auch beide Verfahren in Kombination sind denkbar, wodurch sich noch mehr Variationsmöglichkeiten für eine Veränderung der Speckles zwischen den ersten und den zweiten Rohbilddaten erzeugen lassen. Eine solche Vorrichtung ist relativ einfach und kostengünstig umsetzbar, wenn beispielsweise ein farblich steuerbarer Laser und/oder ein elektrisch steuerbarer Polarisator verwendet werden.By measuring according to the invention with the light section sensor as a laser light section sensor from a respective position both with a first light beam for generating first raw image data, and a measurement with another, second light beam for generating second raw image data occur between the first and the second raw image data on different Speckles pattern. In this way, an algorithm can generate clean, resulting image data that has a much lower speckle pattern. Different wavelengths can be used to generate the first and the second light beam. Preferably, however, the different speckles patterns can also be generated by a different polarization plane of the laser light. Both methods in combination are also conceivable, whereby even more variation possibilities for a change of the speckles between the first and the second raw image data can be generated. Such a device is relatively simple and inexpensive to implement, for example, if a color-controllable laser and / or an electrically controllable polarizer are used.

Insbesondere durch die bevorzugte Anordnung eines Hadamard Diffusors lassen sich Speckles noch effektiver in den ersten und zweiten Rohbilddaten und in den resultierenden Bilddaten reduzieren. Indem bevorzugt die Speckles in den ersten Rohbilddaten ausgewertet werden und daraufhin eine zweite Konfiguration des Hadamard Diffusors für die Erzeugung des zweiten Lichtstrahlbündels vorgenommen wird, können Speckles noch besser unterdrückt oder gemittelt werden.In particular, with the preferred arrangement of a Hadamard diffuser, speckles can be reduced even more effectively in the first and second raw image data and in the resulting image data. By preferably evaluating the speckles in the first raw image data and then making a second configuration of the Hadamard diffuser for the generation of the second light beam, speckles can be even better suppressed or averaged.

Ins besondere kann auch durch die Reduktion der Speckles eine Kontur oder der Laserlichtschnitt wesentlich besser und genauer vermessen werden. Auch ist eine genauere Messung von relativ kleinen Referenzen oder Referenzmarkern dadurch möglich, die wesentlich für die Bestimmung der Transformationsmatrix ist, um die resultierenden Bilddaten genauer kalibrieren zu können, als ohne die Speckles-Reduktion.In particular, by the reduction of speckles a contour or the laser light section can be measured much better and more accurate. Also, a more accurate measurement of relatively small references or reference markers is possible thereby, which is essential for the determination of the transformation matrix in order to be able to calibrate the resulting image data more accurately than without the speckles reduction.

Durch den Algorithmus zur Speckles-Reduktion können aus den ersten und den zweiten Rohbilddaten die resultierenden Bilddaten mit schärferen und glatteren Rändern berechnet werden. Bevorzugt werden beispielsweise durch den Algorithmus punktartige Minima in den jeweiligen ersten Rohbilddaten erkannt und an den Stellen der punktartigen Minima durch Werte aus den zweiten Rohbilddaten ersetzt. Bevorzugt kann der Algorithmus auch einen Mittelwert der jeweiligen Pixel der ersten und der zweiten Rohbilddaten berechnen und als die resultierenden Bilddaten erzeugen.The speckle reduction algorithm allows the resulting image data to be calculated with sharper and smoother edges from the first and second raw image data. By way of example, punctiform minima in the respective first raw image data are preferably recognized by the algorithm and replaced by values from the second raw image data at the points of the point-like minima. Preferably, the algorithm may also calculate an average of the respective pixels of the first and second raw image data and generate it as the resulting image data.

Bevorzugt kann das Verfahren auch weiter verbessert werden, indem eine dritte und/oder weitere Wellenlänge oder Polarisation ausgesendet, erfasst und zu einer weiteren Reduktion der Speckles verwendet wird.Preferably, the method can also be further improved by emitting a third and / or further wavelength or polarization, detecting it and using it for a further reduction of the speckles.

Weitere bevorzugte Verbesserungen können durch eine Nano-Verschiebung des Lichtschnittsensors oder eines darin enthaltenen Kamerasensors oder der Laser-Lichtquelle und eine nachfolgende weitere Vermessung und Verrechnung durch den Algorithmus erzeugt werden.Further preferred enhancements may be produced by nano-shifting the light-section sensor or a camera sensor or laser light source contained therein, and subsequently further measuring and billing by the algorithm.

Ebenso können weitere Verbesserungen durch eine Nano-Verschiebung in Längs- oder in Querrichtung zum ausgesendeten Strahlengang und eine nachfolgende weitere Vermessung und Verrechnung durch den Algorithmus erzeugt werden.Likewise, further improvements can be produced by a nano-displacement in the longitudinal or in the transverse direction to the emitted beam path and a subsequent further measurement and calculation by the algorithm.

Auch die Nano-Verschiebungen lassen sich einfach und kostengünstig durch beispielsweise Piezo-Aktuatoren, auf denen der Kamerasensor oder die Laser-Lichtquelle montiert ist, erzeugen. Auf dem entsprechenden Piezo-Aktuator kann bevorzugt auch der gesamte Lichtschnittsensor angeordnet und damit bewegt werden. Auch kann durch mehrere parallel angeordnete Piezo-Aktuatoren eine Platte leicht in einer Richtung geschwenkt werden, wodurch der Lichtstrahl sich um die Nano-Verschiebung entlang dem Strangprofil bewegen kann.Also, the nano-shifts can be easily and inexpensively by, for example, piezo actuators on which the camera sensor or the laser light source is mounted generate. On the corresponding piezo actuator, the entire light section sensor can preferably also be arranged and moved with it. Also, by a plurality of piezo actuators arranged in parallel, a plate can be easily pivoted in one direction, whereby the Light beam can move around the nano-displacement along the extruded profile.

Bevorzugte Nano-Verschiebungen liegen im Bereich von 0,5–1 Wellenlängen. Andere bevorzugte Nano-Verschiebungen liegen im Bereich von 1–5 Wellenlängen oder im Bereich von 1–20 Wellenlängen.Preferred nano-shifts are in the range of 0.5-1 wavelengths. Other preferred nano-shifts are in the range of 1-5 wavelengths or in the range of 1-20 wavelengths.

Bevorzugt kann eine Vermessung mit zwei Wellenlängen auch gleichzeitig vorgenommen werden, wobei beispielsweise durch einen Farbkamerasensor zwei oder drei Rohbilddaten für jeden der Farbsensoren der Kamera erzeugt werden. Die ersten und zweiten Rohbilddaten können auch in einem Paket an Rohbilddaten enthalten sein, wie beispielsweise in einem Farbbild.Preferably, a measurement with two wavelengths can also be carried out simultaneously, whereby, for example, two or three raw image data for each of the color sensors of the camera are generated by a color camera sensor. The first and second raw image data may also be included in a package of raw image data, such as in a color image.

Durch all diese Möglichkeiten werden Speckles oder Interferenzen, die durch das an der Oberfläche reflektierte Licht auftreten reduziert oder kompensiert. Ergebnis ist eine höhere Messgenauigkeit bzw. eine kleinerer Messfehler.All these options reduce or compensate for speckles or interference from surface light. The result is a higher measuring accuracy or a smaller measuring error.

Weitere vorteilhafte Ausbildungen der Erfindung sind in den abhängigen Ansprüchen angegeben.Further advantageous embodiments of the invention are specified in the dependent claims.

Eine bevorzugte Ausführungsform gemäß der vorliegenden Erfindung ist in nachfolgenden Zeichnungen und in einer detaillierten Beschreibung dargestellt, soll aber die vorliegende Erfindung nicht darauf begrenzen.A preferred embodiment according to the present invention is illustrated in the following drawings and detailed description, but is not intended to limit the present invention thereto.

Kurzbeschreibung der ZeichnungenBrief description of the drawings

1 ist eine perspektivische Ansicht einer Messvorrichtung basierend auf dem Lichtschnittmessverfahren zur Vermessung einer Oberfläche eines Strangprofils, das aus einer Walzvorrichtung durch die Messvorrichtung hindurch geschoben wird. 1 FIG. 15 is a perspective view of a measuring device based on the light-slit measuring method for measuring a surface of an extruded profile that is pushed from a rolling device through the measuring device. FIG.

2 ist eine schematische Ansicht der Messvorrichtung zur Vermessung der Oberfläche des Strangprofils, in der vier Lichtschnittsensoren in einem inkrementellen Winkel von 90 Grad entlang eines Kreisrings um den Querschnitt des Strangprofils nach innen hin gerichtet angeordnet sind. 2 Fig. 12 is a schematic view of the measuring device for measuring the surface of the extruded profile, in which four light section sensors are arranged at an incremental angle of 90 degrees along a circular ring directed inwards around the cross section of the extruded profile.

3 zeigt den Querschnitt des Strangprofils, das sich von dem der 2 unterscheidet, mit vier darum herum angeordneten Referenzmarkern und mit angedeuteten Strahlengängen von einer ersten Messperspektive des jeweiligen Lichtschnittsensors aus. 3 shows the cross section of the extruded profile, which differs from that of 2 differs, with four reference markers arranged around it and with indicated beam paths from a first measuring perspective of the respective light section sensor.

4 zeigt den Querschnitt des Strangprofils mit den darum herum angeordneten Referenzmarkern und mit den Strahlengängen von einer zweiten Messperspektive des jeweiligen Lichtschnittsensors aus. 4 shows the cross section of the extruded profile with the reference markers arranged around it and with the beam paths from a second measuring perspective of the respective light section sensor.

5 zeigt den Querschnitt des Strangprofils mit den darum herum angeordneten Referenzmarkern und mit Strahlengängen von einer weiteren Messperspektive des jeweiligen Lichtschnittsensors aus. 5 shows the cross section of the extruded profile with the reference markers arranged around it and with beam paths from a further measuring perspective of the respective light section sensor.

6 zeigt eine Seitenansicht eines inneren Aufbaus des Lichtschnittsensors mit einer Grundplatte, auf der über einen Piezo-Aktuator eine Laser-Lichtquelle angeordnet ist, die in longitudinaler Richtung des Laser-Lichts verschoben werden kann. 6 shows a side view of an internal structure of the light section sensor with a base plate on which a piezoelectric actuator, a laser light source is arranged, which can be moved in the longitudinal direction of the laser light.

7 zeigt eine Seitenansicht eines anderen inneren Aufbaus des Lichtschnittsensors mit der Grundplatte du einer darauf angeordneten Laser-Lichtquelle, wobei das Laser-Licht durch ein optisches Laufzeitelement in der Phase veränderbar ist. 7 shows a side view of another internal structure of the light section sensor with the base plate du of a laser light source arranged thereon, wherein the laser light is variable in phase by an optical delay element.

8 zeigt eine Seitenansicht eines gewöhnlichen inneren Aufbaus des Lichtschnittsensors mit der Grundplatte, wobei entweder der Lichtschnittsensor oder das Strangprofil in der Höhe verschoben wird. 8th shows a side view of a conventional internal structure of the light section sensor with the base plate, wherein either the light section sensor or the extruded profile is moved in height.

9 zeigt einen schematischen Ablauf zur Bestimmung von Rohbilddaten, von resultierenden Bilddaten und von zusammengeführten Messdaten des Prüflings. 9 shows a schematic sequence for the determination of raw image data, resulting image data and merged measurement data of the DUT.

Detaillierte Beschreibung eines AusführungsbeispielsDetailed description of an embodiment

1 zeigt eine dreidimensionale Ansicht einer bevorzugten Messvorrichtung 1 zur Vermessung eines Prüflings und insbesondere dabei eines Strangprofils 2, das durch die Messvorrichtung 1 hindurch geleitet wird. Bevorzugt sind in der Messvorrichtung 1 mehrere Lichtschnittsensoren S1–S4 an einer jeweiligen Position um das Strangprofil 2 herum so angeordnet, dass sie zur Mitte hin ausgerichtet sind, wo sich das Strangprofil 2 befindet, dessen Oberfläche 20 vermessen werden soll. Bevorzugt sind die Lichtschnittsensoren S1–S4 in einer Ebene orthogonal zum Strangprofil 2 und damit in der Ebene des Querschnitts des Strangprofils 2 angeordnet, um den Querschnitt zu vermessen. Bevorzugt sind die Lichtschnittsensoren S1–S4 in der Messvorrichtung 1 dabei auf einer kreisrunden Vorrichtung 11 um das Strangprofil herum angeordnet. Anstelle mehrerer Lichtschnittsensoren S1–S4 kann auch nur ein Lichtschnittsensor S1–S4 oder wenige Lichtschnittsensoren S1–S4 verfahrbar auf der Vorrichtung 11 angeordnet werden, der vor einer jeweiligen Messung an die jeweilige Position gefahren wird. Ebenso ist es natürlich vorstellbar, die Lichtschnittsensoren S1–S4 entlang einer ovalen oder rechteckigen Anordnung oder Vorrichtung 11 zu positionieren oder zu verfahren, um beispielsweise einen länglichen Querschnitt des Strangprofils besser vermessen zu können. 1 shows a three-dimensional view of a preferred measuring device 1 for measuring a test object and in particular an extruded profile 2 that through the measuring device 1 is passed through. Preferred are in the measuring device 1 a plurality of light section sensors S1-S4 at a respective position about the extruded profile 2 arranged so that they are aligned to the center, where the extruded profile 2 whose surface is located 20 to be measured. Preferably, the light section sensors S1-S4 are in a plane orthogonal to the extruded profile 2 and thus in the plane of the cross section of the extruded profile 2 arranged to measure the cross section. Preferably, the light section sensors S1-S4 are in the measuring device 1 doing so on a circular device 11 arranged around the extruded profile. Instead of a plurality of light section sensors S1-S4, only one light section sensor S1-S4 or a few light section sensors S1-S4 can be moved on the device 11 can be arranged, which is moved to the respective position before a respective measurement. Likewise, it is of course conceivable, the light section sensors S1-S4 along an oval or rectangular arrangement or device 11 to position or to method, for example, to better measure an elongated cross-section of the extruded profile can.

Wenn auf der Vorrichtung 11 entweder mehrere Lichtschnittsensoren S1–S4 positioniert sind oder der mindestens eine Lichtschnittsensor S1–S4 verfahren wird, muss deren jeweilige genaue Position zunächst nicht zwangsläufig bekannt sein, da die genauen Positionen zueinander später durch eine Kalibrierung berechnet werden können. Die Anordnung der Lichtschnittsensoren S1–S4 entlang der Vorrichtung 11 (2) erfolgt so, dass ein möglichst großer und relevanter Teil der Oberfläche 20 des Strangprofils 2 von den Lichtschnittsensoren S1–S4 messtechnisch erfasst wird.If on the device 11 If either a plurality of light section sensors S1-S4 are positioned or the at least one light section sensor S1-S4 is moved, their respective exact position need not necessarily be known at first since the exact positions relative to one another can be calculated later by calibration. The arrangement of the light section sensors S1-S4 along the device 11 ( 2 ) takes place in such a way that the largest possible and relevant part of the surface 20 of the extruded profile 2 is metrologically detected by the light section sensors S1-S4.

Die Erfassung der Oberfläche 20 durch die Lichtschnittsensoren S1–S4 erfolgt nach dem Triangulations-Messprinzip, wobei der jeweilige Lichtschnittsensor S1–S4 ein Lichtstrahlbündel, welches in einer Ebene liegt, auf die Oberfläche 20 des Strangprofils 2 aussendet und ein daran reflektiertes Licht wiederum messtechnisch unter einem bestimmten Winkel zum Lichtstrahlbündel erfasst. Das ausgesendete Lichtstrahlbündel, welches in einer Eben liegt, wird auch als Lichtschnittebene bezeichnet. Dabei wird das Lichtstrahlbündel oder die Lichtschnittebene von einem Linienprojektor erzeugt.The detection of the surface 20 by the light section sensors S1-S4 is carried out according to the triangulation measurement principle, wherein the respective light section sensor S1-S4 a light beam which lies in a plane on the surface 20 of the extruded profile 2 emitted and a reflected light again detected by measurement at a certain angle to the light beam. The emitted light beam, which lies in a plane, is also called a light section plane. In this case, the light beam or the light section plane is generated by a line projector.

Die Anordnung des mindestens einen Lichtschnittsensors S1–S4 erfolgt so, dass die Lichtschnitte von der jeweiligen Position aus so erzeugt werden, dass sie im Wesentlichen in einer gemeinsamen Ebene liegen und nur so weit voneinander parallel beabstandet sind, dass sie sich gegenseitig bei einer Messung nicht stören. Bevorzugt werden die Lichtschnittebenen bzw. deren Lichtstrahlbündel benachbarter Positionen kurz nacheinander erzeugt, um sich dadurch gegenseitig nicht zu stören und dennoch in einer gemeinsamen Ebene liegen zu können. Bevorzugt ist die gemeinsame Ebene der Lichtschnitte so ausgelegt, dass sie im Wesentlichen senkrecht zum Strangprofil (2) verläuft.The arrangement of the at least one light section sensor S1-S4 is such that the light sections are generated from the respective position so that they lie substantially in a common plane and only so far apart from each other that they do not mutually in a measurement to disturb. Preferably, the light section planes or their light beam bundles of adjacent positions are generated shortly one after the other so as not to disturb one another and still be able to lie in a common plane. Preferably, the common plane of the light cuts is designed so that they are substantially perpendicular to the extruded profile ( 2 ) runs.

In einer weiteren bevorzugten Ausführungsform der Messvorrichtung 1 können der mindestens eine Lichtschnittsensor S1–S4 in der Vorrichtung 11 um einen Winkel Phi verfahren werden, oder das Strangprofil 2 gedreht werden, um dadurch eine andere Ausleuchtung und einen anderen Messerfassungsbereich zu erzeugen und letztlich Hinterschneidungen des Strangprofils besser vermessen zu können.In a further preferred embodiment of the measuring device 1 For example, the at least one light section sensor S1-S4 in the device 11 be moved by an angle Phi, or the extruded profile 2 be rotated to thereby produce a different illumination and another measurement coverage area and ultimately to be able to better measure undercuts of the extruded profile.

Zur Kalibrierung sind in der Messvorrichtung 1 im Inneren zwischen den Lichtschnittsensoren S1–S4 und dem Strangprofil 2 Referenzmarker 3134 angeordnet, die zusammen mit dem Strangprofil 2 vermessen werden. Die Referenzmarker 3134 sind bevorzugt in der Messvorrichtung 1 so angeordnet, dass sie möglichst wenig vom zu vermessenden Strangprofil 2 abschatten.For calibration are in the measuring device 1 in the interior between the light section sensors S1-S4 and the extruded profile 2 reference marker 31 - 34 arranged along with the extruded profile 2 be measured. The reference marker 31 - 34 are preferred in the measuring device 1 arranged so that they are as little as possible of the extruded profile to be measured 2 shade.

Indem das Strangprofil 2 in Z-Richtung durch die Messvorrichtung 1 geleitet und bevorzugt von allen Seiten aus vermessen wird, ist das Strangprofil 2 als quasi 3D-Oberflächenprofil vermessbar. Im Falle, dass bei einem Strangprofil 2 Teile des Oberflächenprofils 20 durch Hinterschneidungen abgeschattet werden, wie es in 3 und 4 der Fall ist, können diese Teile durch Lichtschnittsensoren S1–S4 nicht vermessen werden.By the extrusion profile 2 in the Z direction through the measuring device 1 is guided and preferably measured from all sides, is the extruded profile 2 as a quasi 3D surface profile vermessbar. In the case of an extruded profile 2 Parts of the surface profile 20 be shaded by undercuts, as in 3 and 4 If this is the case, these parts can not be measured by light section sensors S1-S4.

Zu einer Richtungsdefinition ist in 1 ein Koordinatensystem eingezeichnet. Das Strangprofil 2, das durch die Lichtschnittsensoren gemessen wird, liegt also in der X-Y-Ebene, wobei hierbei die angestrahlten Außenkanten messtechnisch erfasst werden können. Indem das Strangprofil 2 bei quasi kontinuierlicher Messung durch die Messvorrichtung 1 geleitet wird, wird ein dreidimensionales Oberflächenbild davon erhalten.To a direction definition is in 1 a coordinate system drawn. The extruded profile 2 , which is measured by the light section sensors, so lies in the XY plane, in which case the illuminated outer edges can be detected by measurement. By the extrusion profile 2 with quasi-continuous measurement by the measuring device 1 is passed, a three-dimensional surface image is obtained.

In 2 ist eine schematische Seitenansicht einer bevorzugten Ausführungsform der Messvorrichtung 1 dargestellt, die die Vorrichtung 11 mit vier darauf angeordneten Lichtschnittsensoren S1–S4 und eine Anordnung mit vier Referenzmarkern 3134 am Rande eines bevorzugt gemeinsamen Messerfassungsbereichs der Lichtschnittsensoren S1–S4 umfasst. Als gemeinsamer Messerfassungsbereich wird dabei jeweils ein Messerfassungsbereich bezeichnet, der jeweils von zwei benachbart angeordneten Lichtschnittsensoren S1–S4 erfasst wird. In der Mitte der Messvorrichtung 1 und bevorzugt in dem gemeinsamen Messerfassungsbereich ist das zu vermessende Strangprofil 2 angeordnet. Das Strangprofil 2 ist dabei als Querschnitt mit den nach außen gerichteten Oberflächensegmenten 2124 dargestellt. Die Oberflächensegmente 2124 bilden dabei im Wesentlichen die Oberfläche 20 des Strangprofils 2, wenn keine Abschattungen oder Hinterschneidungen vorliegen, was im vorliegenden Beispiel nicht der Fall ist. Die Referenzmarker 3134 sind bevorzugt als Metallstreifen ausgebildet und an einem äußeren Bereich 4 des jeweiligen gemeinsamen Messerfassungsbereichs radial nach innen gerichtet angeordnet. Dadurch schatten sie das Strangprofil 2 nicht ab und liegen dennoch alle zumindest teilweise im jeweiligen gemeinsamen Messerfassungsbereich der jeweils benachbarten Lichtschnittsensoren S1–S4.In 2 is a schematic side view of a preferred embodiment of the measuring device 1 shown the device 11 with four light section sensors S1-S4 arranged thereon and an arrangement with four reference markers 31 - 34 at the edge of a preferred common measuring range of the light section sensors S1-S4. In this case, a common measurement detection area is in each case a measurement area which is detected by two adjacent light-section sensors S1-S4. In the middle of the measuring device 1 and preferably in the common measurement coverage area is the extruded profile to be measured 2 arranged. The extruded profile 2 is here as a cross section with the outwardly directed surface segments 21 - 24 shown. The surface segments 21 - 24 essentially form the surface 20 of the extruded profile 2 if there are no shadows or undercuts, which is not the case in this example. The reference marker 31 - 34 are preferably formed as metal strips and on an outer area 4 arranged directed radially inward of the respective common measuring range. This shadows the extruded profile 2 not from and still are all at least partially in the respective common measurement range of the respective adjacent light section sensors S1-S4.

Die Vorrichtung 11, auf der die Lichtschnittsensoren S1–S4 angeordnet sind, besitzt in der bevorzugten Ausführungsform eine Öffnung 12, durch die ein Strangprofil auch von der Seite aus eingeführt werden kann. Diese Öffnung 12 ist nicht zwangsläufig nötig, da das Strangprofil 2 kontinuierlich durch die Messvorrichtung 1 geleitet werden kann, ohne dass zwischendurch zum Zwecke einer Kalibrierung das Strangprofil 2 herausgenommen werden und dann wieder hineingebracht werden müsste. In einer bevorzugten Anordnung der Messvorrichtung 1 kann diese beispielsweise an einem Ende einer Walzvorrichtung oder an einer anderen Produktionsanlage für eine Herstellung des Strangprofils 2 angeordnet sein.The device 11 on which the light section sensors S1-S4 are arranged has an opening in the preferred embodiment 12 through which an extruded profile can also be inserted from the side. This opening 12 is not necessarily necessary because the extruded profile 2 continuously through the measuring device 1 can be routed without in between for the purpose of calibration, the extruded profile 2 should be taken out and then brought back into it. In a preferred arrangement of the measuring device 1 This can for example be at one end of a rolling mill or at another production facility for production of the extruded profile 2 be arranged.

Die Kalibrierung der Messvorrichtung mit den jeweiligen benachbart angeordneten Lichtschnittsensoren S1–S4 wird bevorzugt so vorgenommen, dass vorhandene Referenzen im zu vermessenden Strangprofil 2 und zusätzliche Referenzmarker 3134, die von den Lichtschnittsensoren S1–S4 aus den jeweiligen Messperspektiven gemeinsam erfasst werden, zur Kalibrierung verwendet werden. Dabei werden die erfassten mindestens zwei Referenzen und/oder Referenzmarker in den erfassten Bilddaten des jeweiligen Lichtschnittsensors S1–S4 von der jeweiligen Position aus zu einer Überlagerung gebracht. Die Überlagerung der Bilddaten durch Drehung und Verschiebung in x/y-Richtung wird dabei so durchgeführt, dass die jeweils erfassten Teile der Referenzen und/oder Referenzmarker 3134 zusammen optimal überlagert werden. Für eine Berechnung der optimalen Überlagerung wird bevorzugt ein Least-Mean-Square-Verfahren angewendet. Aus der bestimmten Drehung und Verschiebung wird eine jeweilige Transformationsmatrix berechnet, die ausgebildet ist, die Bilddaten der zweiten Position zu kalibrierten Bilddaten der zweiten Position zu transformieren, indem die kalibrierten Bilddaten der zweiten Position und die Bilddaten der ersten Position richtig in einem gemeinsamen Koordinatensystem abgebildet werden können. Die Korrektur durch die Transformationsmatrix umfasst dabei eine entsprechende Drehung und Verschiebung. Durch die Transformationsmatrix werden also die Bilddaten des jeweiligen, benachbarten Lichtschnittsensors S1–S4 in kalibrierte Bilddaten umgewandelt, um die Bilddaten der vorangegangenen oder ersten Position mit den kalibrierten Bilddaten der benachbarten, nachfolgenden oder zweiten Position in einem gemeinsamen Koordinatensystem richtig abzubilden.The calibration of the measuring device with the respective adjacent arranged light section sensors S1-S4 is preferably carried out so that existing references in the extruded profile to be measured 2 and additional reference markers 31 - 34 , which are detected by the light-section sensors S1-S4 together from the respective measurement perspectives, are used for calibration. In this case, the detected at least two references and / or reference markers in the acquired image data of the respective light section sensor S1-S4 are brought to overlap from the respective position. The superimposition of the image data by rotation and displacement in the x / y direction is carried out in such a way that the respectively detected parts of the references and / or reference markers 31 - 34 optimally superimposed together. For a calculation of the optimum overlay, a least mean square method is preferably used. From the determined rotation and displacement, a respective transformation matrix configured to transform the second position image data into second position calibrated image data is calculated by properly mapping the calibrated second position image data and the first position image data into a common coordinate system can. The correction by the transformation matrix comprises a corresponding rotation and displacement. The transformation matrix thus converts the image data of the respective neighboring light section sensor S1-S4 into calibrated image data in order to correctly image the image data of the previous or first position with the calibrated image data of the adjacent, subsequent or second position in a common coordinate system.

Als Referenzen im Strangprofil 2 und als Referenzmarker 3134 können bevorzugt Formen, wie beispielsweise Geraden, Kreise und/oder Kreissegmente dienen, die von mindestens zwei Messperspektiven aus gut erfasst werden können. Falls im Strangprofil 2 beispielsweise Geradensegmente in einer entsprechenden Winkellage vorliegen, die von mindestens zwei jeweiligen Messperspektiven aus erfasst werden können, können diese als die Referenzen herangezogen werden. Ansonsten werden, wie oben beschrieben, die Referenzmarker 3134 zusätzlich in dem gemeinsamen Messerfassungsbereich angeordnet. Dabei ist als der gemeinsame Messerfassungsbereich bevorzugt ein äußerer Bereich 4 gewählt, der in 2 als gestrichelte Linie gezeichnet ist, und gerade noch von benachbarten Lichtschnittsensoren S1–S4 erfasst wird. Dabei sind eine Form und eine Dicke der Referenzmarker 3134 bevorzugter Maßen bekannt. Die Referenzmarker 3134 werden, um den inneren Messerfassungsbereich, wo sich das zu vermessende Strangprofil befindet, möglichst wenig abzuschatten, bevorzugt als dünne, blechartige Streifen ausgelegt, die in dem äußeren Bereich 4 bevorzugt als vier Referenzmarker 3134 gleichverteilt und radial nach innen gerichtet angeordnet sind.As references in the extruded profile 2 and as a reference marker 31 - 34 may preferably serve shapes, such as straight lines, circles and / or circle segments, which can be well detected from at least two measurement perspectives. If in the extruded profile 2 For example, straight segments present in a corresponding angular position, which can be detected from at least two respective measurement perspectives, these can be used as the references. Otherwise, as described above, the reference markers 31 - 34 additionally arranged in the common measuring area. In this case, as the common measurement coverage area is preferably an outer area 4 chosen in 2 is drawn as a dashed line, and is just detected by adjacent light section sensors S1-S4. Here are a shape and a thickness of the reference marker 31 - 34 preferably known. The reference marker 31 - 34 are as little as possible to shade the inner measurement coverage area where the extruded profile is to be measured, preferably designed as a thin, sheet-like strips in the outer region 4 preferably as four reference markers 31 - 34 evenly distributed and arranged directed radially inward.

Abstände der Referenzen und der Referenzmarker 3134 zueinander müssen nicht zwangsläufig bekannt sein, solange sie aus den verschiedenen Messperspektiven bzw. von den Messerfassungsdaten der jeweiligen Lichtschnittsensoren S1–S4 eindeutig zuordenbar sind.Distances of references and reference markers 31 - 34 they do not necessarily have to be known as long as they can be unambiguously assigned from the different measurement perspectives or from the measurement data of the respective light section sensors S1-S4.

Für eine Offsetkorrektur der jeweiligen Lichtschnittsensoren S1–S4 sind jeweils mindestens zwei Referenzen bzw. Referenzmarker notwendig, die von den benachbarten Lichtschnittsensoren S1–S4 gemeinsam erfasst werden können. Dabei eignen sich als benachbarte Referenzen und Referenzmarker S1–S4 bevorzugt solche, die eine nicht parallele Geradenform aufweisen, da die Geradenform jeweils per Mustererkennungsverfahren gut erkannt wird und eindeutig extrapoliert werden kann. Durch zwei nicht parallele Geraden und durch einen berechneten Schnittpunkt der Geraden können die Winkellage und der Abstand zum jeweiligen Lichtschnittsensor S1–S4 eindeutig bestimmt und bei der Kalibrierung korrigiert werden. Idealerweise werden von zwei benachbarten Lichtschnittsensoren S1–S4 noch eine zusätzliche Referenzmarke erfasst, die möglichst weit entfernt von den übrigen zwei Referenzmarkern ist, um dadurch einen Einfluss von Messrauschen zu reduzieren bzw. um die Genauigkeit der Ortung und Überlagerung der Referenzmarker 3134 zu erhöhen.For an offset correction of the respective light section sensors S1-S4, respectively at least two references or reference markers are necessary, which can be detected jointly by the adjacent light section sensors S1-S4. In this case, suitable as adjacent references and reference markers S1-S4 are preferably those which have a non-parallel straight line form, since the straight line shape is in each case well recognized by pattern recognition methods and can be clearly extrapolated. By means of two non-parallel straight lines and through a calculated intersection of the straight lines, the angular position and the distance to the respective light section sensor S1-S4 can be clearly determined and corrected during the calibration. Ideally, two adjacent light-section sensors S1-S4 detect an additional reference mark that is as far away as possible from the remaining two reference markers, in order to reduce the influence of measurement noise or the accuracy of locating and superimposing the reference markers 31 - 34 to increase.

An dieser Stelle wird nochmals bemerkt, dass sich ein Temperatureinfluss auf die Lichtschnittsensoren S1–S4 und eine Alterung hauptsächlich nur auf deren Offset der Bilddaten oder Rohbilddaten auswirken, wobei die Skalierung der Mess- bzw. der Rohbilddaten im Wesentlichen unverändert bleibt. Zur Klarheit werden als Rohbilddaten die Daten verstanden, die unmittelbar vom Kamerasensor des jeweiligen Lichtschnittsensors erzeugt werden; als Bilddaten werden dabei irgendwie verarbeitete Rohbilddaten verstanden. Zur Kalibrierung des Offsets werden also als Referenzen oder Referenzmarker 3134 nur zwei Geradenabschnitte in dem gemeinsamen Messerfassungsbereich benötigt, um Drehwinkel und die Verschiebung bezüglich des gemeinsamen Koordinatensystems zu bestimmen.At this point, it is once again noted that a temperature influence on the light section sensors S1-S4 and an aging mainly only affect their offset of the image data or raw image data, wherein the scaling of the measurement or the raw image data remains essentially unchanged. For clarity, the raw image data is the data that is generated directly by the camera sensor of the respective light section sensor; Image data is understood to be somehow processed raw image data. To calibrate the offset so be as references or reference marker 31 - 34 requires only two straight line sections in the common measurement coverage area to determine rotation angles and the displacement with respect to the common coordinate system.

Zur Vollständigen Kalibrierung der Offsets und der Skalierung werden mindestens drei Referenzen oder Referenzmarker 3134 im jeweiligen gemeinsamen Messerfassungsbereich benötigt, deren Abstände zueinander bekannt und kalibriert sind. Auf diese Weise können auch Fehler aus Kettenmaßen reduziert werden. At least three references or reference markers are used to fully calibrate the offsets and scale 31 - 34 needed in the respective common measurement coverage area whose distances are known and calibrated to each other. In this way, errors from chain dimensions can be reduced.

Bevorzugt werden für einen Abgleich von benachbarten Lichtschnittsensoren S1–S4 mindestens jeweils zwei gemeinsam erfassbare Referenzmarker 3134, die die Form von Blechstreifen aufweisen und als Geraden oder Geradenabschnitte messtechnisch gut erfassbar sind, zur Bestimmung der Transformationsmatrix verwendet.For matching of adjacent light-section sensors S1-S4, at least two commonly detectable reference markers are preferred 31 - 34 , which have the shape of sheet-metal strips and are metrologically well detectable as straight lines or straight line sections, used to determine the transformation matrix.

Bevorzugt sind die Referenzmarker 3134 so ausgebildet, dass mindestens einer davon eine Kodierung aufweist. Durch die Kodierung sind die Referenzmarker 3134 in den Rohbilddaten oder Bilddaten identifizierbar, um eine eindeutige Zuordnung der Referenzmarker in den verschiedenen Bilddaten zu erhalten. Eine solche Kodierung kann beispielsweise durch eine zusätzliche Rundung oder Abkantung am Referenzmarker vorgesehen werden oder der Referenzmarker 3134 kann auch eine eindeutig andere Ausrichtung als die anderen haben. Anstelle dessen können aber für eine richtige Ausrichtung bzw. Drehung der Rohbilddaten oder der Bilddaten im Koordinatensystem auch Grobpositionen der Lichtschnittsensoren S1–S4 bekannt sein, so dass eine Zuordnung durch eine Berechnung von geringsten Abständen, beispielsweise per Least Mean Square Verfahren, erfolgen kann. Zusätzlich können auch signifikante Referenzen im Strangprofil 2 zur Findung der Zuordnung der Referenzmarker 3134 verwendet werden.Preferred are the reference markers 31 - 34 designed so that at least one of them has a coding. By coding are the reference markers 31 - 34 in the raw image data or image data identifiable to obtain a unique assignment of the reference marker in the different image data. Such coding can be provided, for example, by additional rounding or folding on the reference marker or the reference marker 31 - 34 can also have a clearly different orientation than the others. Instead, however, coarse positions of the light section sensors S1-S4 may also be known for correct alignment or rotation of the raw image data or the image data in the coordinate system, so that an assignment can be made by calculating least distances, for example by least mean square methods. In addition, significant references in the extruded profile can also be used 2 for finding the assignment of the reference marker 31 - 34 be used.

Erfindungsgemäß ist der mindestens eine Lichtschnittsensor S1–S4 ein Laser-Lichtschnittsensor, mit dem von der jeweiligen Position aus eine Vermessung des Strangprofils zusammen mit den Referenzen und/oder den Referenzmarkern sowohl unter Aussendung eines ersten Lichtstrahlbündels als der Lichtschnittebene, als auch unter Aussendung eines anderen zweiten Lichtstrahlbündels als der Lichtschnittebene vorgenommen wird. Bei der Aussendung des ersten Lichtstrahlbündels wird das Laser-Licht bevorzugt mit einer ersten Wellenlänge ausgesendet und gleichzeitig gemessen, und bei der Aussendung des zweiten Lichtstrahlbündels wird das Laser-Licht bevorzugt mit einer anderen zweiten Wellenlänge ausgesendet und gemessen. So können durch die unterschiedliche Wellenlänge des Laser-Lichts unterschiedliche Rohbilddaten einer ansonsten gleichen Vermessung gewonnen werden, die entsprechend nur unterschiedliche der Messung überlagerte Speckles Muster aufweisen. „Speckles” sind bekanntlich Interferenzmuster, die durch ein reflektiertes Licht an einer rauhen Oberfläche, die mit kohärentem Laser-Licht bestrahlt wird, auftreten und ein eigentlich gewünschtes Bild, das in diesem Zusammenhang die Lichtschnittlinie darstellt, überlagern. Scharfe Abbildungen beispielsweise einer Kante werden durch Speckles gestört. Als die Speckles wird dabei eine punktartige Hell-Dunkel-Verteilung in den aufgenommenen Rohbilddaten bezeichnet. Die punktartige Hell-Dunkel-Verteilung kommt dabei durch die verschiedenen Auslöschungen und gleichphasigen Überlagerungen als Interferenzen eines kohärenten Laser-Lichts zustande. Die Verteilung der Speckles ist dabei naturgemäß von der Wellenlänge des Lichts und von der Polarisation wie auch von der Oberfläche 20, an der reflektiert wird, abhängig. Bevorzugt liegen die erste und die zweite Wellenlänge aus Gründen der Arbeitssicherheit in einem sichtbaren Wellenlängenbereich von 380–780 nm. Bevorzugt kann die erste und/oder die zweite Wellenlänge aber auch im IR-Bereich mit einer höheren Wellenlänge liegen. Eine Verwendung von höherfrequentem UV-Licht ist ebenso vorstellbar, wobei eine Auflösung besser wird, abgesehen von den Speckles.According to the invention, the at least one light section sensor S1-S4 is a laser light section sensor, with which from the respective position a measurement of the extruded profile together with the references and / or the reference markers both emitting a first beam of light as the light section plane, as well as another second light beam is made as the light section plane. When the first light beam is emitted, the laser light is preferably emitted at a first wavelength and measured simultaneously, and when the second light beam is emitted, the laser light is preferably emitted and measured at a different second wavelength. Thus, different raw image data of an otherwise identical measurement can be obtained by the different wavelength of the laser light, which accordingly have only different speckle patterns superimposed on the measurement. "Speckles" are known to be interference patterns that appear by a reflected light on a rough surface, which is irradiated with coherent laser light, and superimpose an actually desired image, which in this context represents the light cut line. Sharp images, for example, of an edge are disturbed by speckles. The speckles are a point-like light-dark distribution in the recorded raw image data. The point-like light-dark distribution is caused by the various extinctions and in-phase superimpositions as interference of a coherent laser light. The distribution of speckles is naturally of the wavelength of the light and of the polarization as well as of the surface 20 which reflects is dependent. For reasons of safety at work, the first and second wavelengths are preferably in a visible wavelength range of 380-780 nm. Preferably, however, the first and / or the second wavelength can also lie in the IR range with a higher wavelength. A use of higher frequency UV light is also conceivable, with a resolution being better, apart from the speckles.

Somit lassen sich erste Rohbilddaten, die bei der Vermessung mit dem ersten Lichtstrahlbündel gewonnen werden, und zweite Rohbilddaten, die bei der Vermessung mit dem zweiten Lichtstrahlbündel gewonnen werden, vergleichen und bereinigte resultierende Bilddaten mit reduzierten Speckles daraus gewinnen. Mit jeder bevorzugten weiteren Vermessung mit einem anderen, weiteren Lichtstrahlbündel werden entsprechend weitere Rohbilddaten erzeugt.Thus, first raw image data obtained by measurement with the first light beam and second raw image data obtained by measurement with the second light beam can be compared, and cleared resulting image data with reduced speckles can be obtained therefrom. With each preferred further measurement with another, further light beam bundle further raw image data are generated accordingly.

Die resultierenden Bilddaten werden durch einen Algorithmus aus den ersten und den zweiten Rohbilddaten gewonnen, und bevorzugt können dabei auch noch die weiteren Rohbilddaten zur Bestimmung verbesserter, resultierender Bilddaten verwendet werden, die der Algorithmus auf gleiche oder ähnliche Weise verarbeitet.The resulting image data is obtained by an algorithm from the first and the second raw image data, and preferably also the further raw image data can be used for the determination of improved, resulting image data, which the algorithm processes in the same or similar manner.

Dabei ist der Algorithmus so ausgebildet, dass bevorzugt Speckles Muster in jeweiligen Rohbilddaten erkannt werden und pixelweise durch Vergleich der Rohbilddaten oder Mittelwertbildung zwischen den Rohbilddaten bereinigt oder reduziert werden. Zugrundegelegt wird dabei, dass in den ersten Rohbilddaten eine erste Verteilung der Speckles und in den zweiten Rohbilddaten eine entsprechend andere, zweite Verteilung der Speckles vorliegt, bei ansonsten gleichen Bilddaten der Vermessung. Der Algorithmus wird dabei bevorzugt durch ein Field-Programmable-Array oder eine Recheneinheit ausgeführt um die resultierenden Bilddaten zu erzeugen.In this case, the algorithm is designed such that speckles patterns are preferably recognized in respective raw image data and are adjusted or reduced pixel by pixel by comparing the raw image data or averaging between the raw image data. It is assumed that in the first raw image data a first distribution of the speckles and in the second raw image data a correspondingly different, second distribution of the speckles is present, with otherwise identical image data of the measurement. The algorithm is preferably carried out by a field programmable array or a computing unit to generate the resulting image data.

Bevorzugt können anstelle von unterschiedlichen Wellenlängen in dem ersten und zweiten Lichtstahlbündel zur Erzeugung der Lichtschnittebene an der jeweiligen Position auch unterschiedliche Polarisationen oder Polarisationsebenen verwendet werden. Dabei werden das erste Laser-Lichtstrahlbündel mit einer ersten Polarisationsebene und das zweite Laser-Lichtstrahlbündel mit einer anderen, zweiten Polarisationsebene erzeugt. Bevorzugt wird dabei die zweite Polarisationsebene mit einem Winkel von > 45 Grad Unterschied zur ersten Polarisationsebene erzeugt. Besonders bevorzugt wird die zweite Polarisationsebene orthogonal zur ersten Polarisationsebene erzeugt.Preferably, instead of different wavelengths in the first and second beam bundles for generating the light section plane at the respective position also different Polarizations or polarization levels are used. In this case, the first laser light beam are generated with a first polarization plane and the second laser light beam with another, second polarization plane. The second polarization plane is preferably generated at an angle of> 45 degrees to the first polarization plane. Particularly preferably, the second polarization plane is generated orthogonally to the first polarization plane.

Bevorzugt können dabei auch das erste Laser-Lichtstrahlbündel mit einer ersten Wellenlänge und einer ersten Polarisationsebene und das zweite Laser-Lichtstrahlbündel mit einer anderen, zweiten Wellenlänge und mit einer anderen zweiten Polarisationsebene erzeugt werden.In this case, the first laser light beam bundle having a first wavelength and a first polarization plane and the second laser light beam bundle having a different, second wavelength and a different second polarization plane may also be generated.

Bevorzugt werden auch das erste und das andere zweite Lichtstrahlbündel gleichzeitig ausgesendet und empfangen. Beispielsweise können dabei das erste und das andere zweite Lichtstrahlbündel durch eine Farbkamera empfangen werden. Dabei sind die ersten Rohbilddaten und die zweiten Rohbilddaten bevorzugt in Farbbilddaten eines Farbbildes als Rohbilddaten enthalten, wie beispielsweise in RGB Bilddaten. Eine gleichzeitige Aussendung der ersten und zweiten Lichtstrahlbündel mit beispielsweise zwei verschiedenen Polarisationen und/oder Wellenlängen und ein Empfang des reflektierten Lichtschnitts durch das jeweilige an der Oberfläche 20 reflektierte Licht mit einem entsprechend für den Empfang ausgebildeten Kamerasensor 53 ist ebenso denkbar.Preferably, the first and the other second light beam are transmitted and received simultaneously. For example, the first and the second second light beam bundles can be received by a color camera. Here, the first raw image data and the second raw image data are preferably included in color image data of a color image as raw image data, such as RGB image data. Simultaneous emission of the first and second light beam bundles with, for example, two different polarizations and / or wavelengths and a reception of the reflected light section through the respective surface 20 reflected light with a trained accordingly for the reception of the camera sensor 53 is also conceivable.

Die so gewonnenen resultierenden Bilddaten beispielsweise einer ersten Position und einer benachbarten zweiten Position werden dann zur Bestimmung der Verschiebung und des Drehwinkels der resultierenden Bilddaten der benachbarten zweiten Position zur ersten Position verwendet. Dabei werden die jeweils darin erfassten Referenzen und/oder Referenzmarker 3134 durch eine Recheneinheit in Bezug gesetzt. Aus der somit bestimmten Verschiebung und dem Drehwinkel wird die Transformationsmatrix berechnet. Bevorzugt kann die Transformationsmatrix beispielsweise auch direkt aus den ersten und den zweiten resultierenden Bilddaten berechnet werden. Danach werden die zweiten resultierenden Bilddaten durch die Transformationsmatrix in die kalibrierten zweiten Bilddaten bzw. in kalibrierte resultierende zweite Bilddaten umgewandelt. Die kalibrierten zweiten Bilddaten werden dann bevorzugt zusammen mit den resultierenden ersten Rohbilddaten in einem gemeinsamen Koordinatensystem abgebildet.The thus obtained resulting image data of, for example, a first position and an adjacent second position are then used to determine the displacement and the rotation angle of the resulting image data of the adjacent second position to the first position. The respective references and / or reference markers are included 31 - 34 related by an arithmetic unit. The transformation matrix is calculated from the thus determined displacement and the rotation angle. For example, the transformation matrix can also be calculated directly from the first and the second resulting image data, for example. Thereafter, the second resultant image data is converted by the transform matrix into the calibrated second image data and calibrated resulting second image data, respectively. The calibrated second image data are then preferably imaged together with the resulting first raw image data in a common coordinate system.

Bevorzugt wiederholt sich die Messprozedur nach der ersten und der zweiten benachbarten Position für mindestens eine weitere dritte Position, wobei die dritte Position einen gemeinsamen Messerfassungsbereich mit der zweiten Position und ebenfalls mindestens zwei Referenzen und/oder Referenzmarker (3134) darin aufweist. Dabei wird bevorzugt mit nächsten resultierenden dritten Bilddaten in gleicher Weise verfahren, indem eine nächste Transformationsmatrix für die resultierenden dritten Bilddaten im Vergleich zu den kalibrierten zweiten Bilddaten bestimmt wird und daraus kalibrierte dritte Bilddaten bestimmt werden. Für nächste Positionen wird analog verfahren, indem die kalibrierten Bilddaten der jeweils vorangegangenen Position für eine jeweilige Kalibrierung verwendet werden. Zur Klarheit sei hier angemerkt, dass bei der dritten Position im Ablauf zur Erzeugung der Transformationsmatrix dazu die kalibrierten Bilddaten der zweiten Position als die Bezugsdaten gelten, gegen die eine Verschiebung und Drehung der resultierenden Bilddaten der dritten Position berechnet werden.Preferably, the measuring procedure repeats after the first and the second adjacent position for at least one further third position, the third position having a common measuring range with the second position and also at least two references and / or reference markers ( 31 - 34 ) therein. In this case, it is preferable to proceed with the next resulting third image data in the same way by determining a next transformation matrix for the resulting third image data in comparison to the calibrated second image data and determining therefrom calibrated third image data. For next positions, the procedure is analogous, by using the calibrated image data of the respective previous position for a respective calibration. For the sake of clarity, it should be noted here that at the third position in the process for generating the transformation matrix, the second position calibrated image data is regarded as the reference data against which displacement and rotation of the resulting third position image data are calculated.

Der Algorithmus ist bevorzugt ausgebildet, um jeweilige Maximalwerte oder Mittelwerte für die jeweiligen Pixel der ersten und zweiten und ggf. weiterer Bilddaten zu bestimmen und als die resultierenden Bilddaten auszugeben. Dadurch werden verschiedene Speckles-Verteilungen in den jeweiligen Rohbilddaten aus der gleichen Position besser gleichverteilt oder bevorzugt deren Minima reduziert. Bevorzugt können auch Interferenzmaxima in den jeweiligen Bilddaten reduziert oder kompensiert werden, wie beispielsweise durch eine Mittelwertbildung. Bevorzugt wird der Mittelwert dabei als arithmetischer, quadratischer oder Median-Mittelwert gebildet. Bevorzugt können ebenso oder zusätzlich maximum likelihood estimation Methoden als Algorithmus eingesetzt werden, um Maxima und Minima in einem jeweiligen Bild zu schätzen und entsprechend zu kompensieren. Durch den Algorithmus können aus den ersten und den zweiten Rohbilddaten resultierende Bilddaten mit schärferen und glatteren Rändern bestimmt werden, wodurch sich der Messfehler verringert. Bevorzugt werden auch weitere Rohbilddaten mit einer weiteren Wellenlänge von der jeweiligen selben Position in den Algorithmus eingespeist, um so beispielsweise aus drei verschiedenen Rohbilddaten die resultierenden Bilddaten zu gewinnen. Zudem können auch andere Rohbilddaten zudem für die Bestimmung durch den Algorithmus verwendet werden.The algorithm is preferably designed to determine respective maximum values or average values for the respective pixels of the first and second and possibly further image data and to output them as the resulting image data. As a result, different speckles distributions in the respective raw image data from the same position are better uniformly distributed or preferably their minimums are reduced. Interference maxima in the respective image data can preferably also be reduced or compensated, for example by averaging. The mean value is preferably formed as an arithmetic, quadratic or median mean value. Preferably, as well as in addition, maximum likelihood estimation methods can be used as an algorithm in order to estimate maxima and minima in a respective image and to compensate them accordingly. The algorithm allows image data resulting from the first and second raw image data to be determined with sharper and smoother edges, thereby reducing the measurement error. Preferably, further raw image data with a further wavelength from the respective same position are fed into the algorithm in order to obtain the resulting image data from three different raw image data, for example. In addition, other raw image data may also be used for determination by the algorithm.

Bevorzugt werden von der jeweiligen Position aus zusätzlich weitere Rohbilddaten erfasst, wobei die weiteren Bilddaten nach einer gesteuerten Nano-Verschiebung des jeweiligen Lichtschnittsensors erfasst werden, wobei die Nano-Verschiebung durch mindestens einen Aktuator 51 erzeugt wird. Beispielsweise kann der Aktuator dabei ein Piezo-Aktuator sein, auf dem der Lichtschnittsensor in der Messvorrichtung angeordnet ist. Als Aktuator 51 kann aber auch ein Hubmagnet, eine steuerbarer elongierbarer Kunststoff oder ein anderer Längen-Aktuator eingesetzt werden. Ein Vibrator als schwingungserzeugender Aktuator ist dabei ebenso vorstellbar. Die Nano-Verschiebung wird dabei entweder in Richtung des Laser-Lichtstrahlengangs oder quer dazu erzeugt. Eine Nano-Verschiebung ist dabei allgemein eine Verschiebung bevorzugt in einem Bereich von 200–500 nm. Bevorzugt kann die Nano-Verschiebung auch im Bereich von 500–1000 nm liegen. Bevorzugt liegt die Nano-Verschiebung in einem Bereich von 0,5–1 oder 1–5 oder 1–20 Wellenlängen. Besonders bevorzugt liegt die Nano-Verschiebung im Bereich von 0,5–1 Wellenlänge. Bevorzugt ist die Nano-Verschiebung dabei so klein, dass sie beim Vergleich der ersten, zweiten oder weiterer Rohbilddaten und bei der Mittelwertbildung oder Auswertung durch den Algorithmus nicht als Messfehler ins Gewicht fallen. Größere Verschiebungen sind ebenso denkbar und müssten als Rohbilddaten entsprechend verarbeitet werden. Dabei werden die erfassten, weiteren Rohbilddaten ebenfalls durch den Algorithmus zur Bestimmung der resultierenden Bilddaten berücksichtigt.In addition, further raw image data are preferably acquired from the respective position, wherein the further image data are acquired after a controlled nano-shift of the respective light section sensor, wherein the nano-displacement by at least one actuator 51 is produced. For example, the actuator may be a piezo actuator, on which the light section sensor is arranged in the measuring device. As an actuator 51 but can also be a solenoid, a controllable elongatable plastic or another length actuator be used. A vibrator as a vibration generating actuator is also conceivable. The nano-displacement is generated either in the direction of the laser light beam path or transversely thereto. A nano-shift is generally a shift preferably in a range of 200-500 nm. Preferably, the nano-shift can also be in the range of 500-1000 nm. Preferably, the nano-shift is in the range of 0.5-1 or 1-5 or 1-20 wavelengths. More preferably, the nano-shift is in the range of 0.5-1 wavelength. In this case, the nano-shift is preferably so small that it does not fall into the category of measurement errors when comparing the first, second or further raw image data and in the averaging or evaluation by the algorithm. Larger shifts are also conceivable and would have to be processed as raw image data accordingly. In this case, the acquired further raw image data are likewise taken into account by the algorithm for determining the resulting image data.

Alternativ oder kombiniert kann die Nano-Verschiebung des Strangprofils 2 auf gleiche Weise erzeugt werden. Dabei kann die Nano-Verschiebung längs und/oder quer zum Strangprofil 2 erfolgen. Dabei werden die entsprechenden weiteren Rohbilddaten erfasst und zur Bestimmung der resultierenden Bilddaten verwendet.Alternatively or combined, the nano-displacement of the extruded profile 2 be generated in the same way. The nano-displacement can be longitudinal and / or transverse to the extruded profile 2 respectively. The corresponding further raw image data are recorded and used to determine the resulting image data.

Alternativ oder kombiniert kann die Nano-Verschiebung der Laser-Lichtquelle 52 des jeweiligen Lichtschnittsensors (siehe 6) auf gleiche Weise erzeugt werden. Dabei werden die entsprechenden weiteren Bilddaten erfasst und zur Bestimmung der resultierenden Bilddaten verwendet.Alternatively or combined, the nano-shift of the laser light source 52 of the respective light section sensor (see 6 ) are generated in the same way. In this case, the corresponding further image data are acquired and used to determine the resulting image data.

Alternativ oder kombiniert kann die Nano-Verschiebung des Kamerasensors 53 des jeweiligen Lichtschnittsensors (siehe 6) auf gleiche Weise erzeugt werden. Dabei werden die entsprechenden weiteren Bilddaten erfasst und zur Bestimmung der resultierenden Bilddaten verwendet.Alternatively or in combination, the nano-displacement of the camera sensor 53 of the respective light section sensor (see 6 ) are generated in the same way. In this case, the corresponding further image data are acquired and used to determine the resulting image data.

Alternativ kann auch ein Polarisator zur Erzeugung des entsprechenden Lichtstrahlbündels im Lichtschnittsensor S1–S4 entsprechend angeordnet sein, um das Licht entsprechend zu drehen.Alternatively, a polarizer for generating the corresponding light beam in the light section sensor S1-S4 can be arranged correspondingly in order to rotate the light accordingly.

Die Nano-Verschiebung erfolgt jeweils bevorzugt entweder in Längsrichtung oder in Querrichtung oder in Längs- und in Querrichtung zum ausgesendeten Lichtstrahlbündel. Der oder die Aktuatoren 51 sind dafür entsprechend in der Messvorrichtung angeordnet, um diese Verschiebungen oder Verdrehungen zu erzeugen.The nano-displacement takes place preferably either in the longitudinal direction or in the transverse direction or in the longitudinal and transverse direction to the emitted light beam. The actuator (s) 51 are arranged accordingly in the measuring device to produce these displacements or twists.

6 zeigt dazu eine Grundplatte 50 mit einem darauf montierten Piezo-Aktuator 51 und einer auf dem Piezo-Aktuator 51 montierten Laser-Lichtquelle 52. Durch eine ansteuerbare und bevorzugt schwingend angesteuerte longitudinale Ausdehnung des Piezo-Aktuators 51 wird die Laser-Lichtquelle 52 in Richtung des Strahlengangs hin und her bewegt. Ein im Strahlengang angeordnete Optik 55 erzeugt aus dem Laserstrahl die Lichtschnittebene. Durch die Bewegung der Laser-Lichtquelle 52 wird die Phase des Laser-Lichts relativ zur Oberfläche 20 des Strangprofils 2 verschoben. Ein Kamerasensor 53 empfängt die an der Oberfläche 20 reflektierte Strahlung. 6 shows a base plate 50 with a piezo actuator mounted on it 51 and one on the piezo actuator 51 mounted laser light source 52 , By a controllable and preferably swinging controlled longitudinal expansion of the piezo actuator 51 becomes the laser light source 52 moved back and forth in the direction of the beam path. An arranged in the beam path optics 55 generates the light section plane from the laser beam. By the movement of the laser light source 52 becomes the phase of the laser light relative to the surface 20 of the extruded profile 2 postponed. A camera sensor 53 receives the at the surface 20 reflected radiation.

7 stellt eine ähnliche Anordnung wie 6 dar, nur dass im Strahlengang zusätzlich ein optisches Laufzeitelement 54 angeordnet ist, durch das die Phase des Laser-Lichts veränderbar ist. Dabei kann das Laufzeitelement 54 ein veränderlicher, dafür entsprechend geeigneter Kunststoff, ein Gel oder eine Flüssigkeit in einem durchsichtigen Behälter sein. Bevorzugt wird der Behälter oder das Laufzeitelement 54 durch Kräfte in Pfeilrichtrung deformiert, um dadurch die Dicke des Laufzeitelements 54 zu ändern. Bevorzugt kann das Laufzeitelement 54 auch ein matrixartiges, diskontinuierliches Laufzeitelement sein, das einen aufgeweiteten Laser Lichtstrahl in verschiedene Teile mit dementsprechend unterschiedlichen Phasen wandelt, die durch die anschließende Optik 55 wieder zusammengeführt werden. Bevorzugt kann das Laufzeitelement 54 auch durch die Recheneinheit gesteuert werden. Alternativ kann das Laufzeitelement 54 auch ein nichtveränderliches Laufzeitelement 54 sein. 7 represents a similar arrangement as 6 represents, except that in the beam path in addition an optical delay element 54 is arranged, through which the phase of the laser light is changeable. The runtime element can do this 54 a variable, correspondingly suitable plastic, a gel or a liquid in a transparent container. The container or the transit time element is preferred 54 deformed by forces in Pfeilrichtrung, thereby increasing the thickness of the delay element 54 to change. Preferably, the runtime element 54 also be a matrix-like, discontinuous transit time element that converts an expanded laser light beam into different parts with correspondingly different phases, through the subsequent optics 55 be merged again. Preferably, the runtime element 54 also be controlled by the arithmetic unit. Alternatively, the runtime element 54 also a non-variable runtime element 54 be.

Bevorzugt wird alternativ oder zusätzlich zum Laufzeitelement 54 ein durch die Recheneinheit steuerbares Polarisationsfilter oder ein Polarisator im Strahlengang angeordnet, das beispielsweise Teil der Optik 55 ist. Das Polarisationsfilter hat einen Vorteil, dass es sich zu einer Drehung der Polarisationsebene des Laser-Lichts einfach elektrisch ansteuern lässt. Dabei wird das durch die Polarisation gedrehte Laser-Licht an der Oberfläche 20, die unregelmäßig ist, anders reflektiert, als ein nicht polarisiertes oder anders polarisiertes Laser-Licht. Dadurch entsteht ein anderes Speckles-Muster. Die Optik 55 zur Polarisation kann dabei durch einen entsprechend angeordneten Aktuator, durch eine Verschiebung oder Verdrehung oder durch Anlegen eines elektrischen Feldes oder eines Stromes in der Polarisation verändert werden. Dabei kann auch die Laser-Lichtquelle 52 durch den Aktuator 51 gedreht werden.Preferred is alternatively or additionally to the delay element 54 a controllable by the computing unit polarizing filter or a polarizer disposed in the beam path, for example, part of the optics 55 is. The polarizing filter has an advantage that it can be easily electrically driven to rotate the polarization plane of the laser light. In this case, the laser light rotated by the polarization becomes on the surface 20 which is irregular, reflects differently than a non-polarized or otherwise polarized laser light. This creates another speckles pattern. The optics 55 for polarization can be changed by a correspondingly arranged actuator, by a shift or rotation or by applying an electric field or a current in the polarization. It can also be the laser light source 52 through the actuator 51 to be turned around.

Bevorzugt ist im Strahlengang des Lichtschnittsensors zur Erzeugung des ersten und zweiten Lichtstrahlbündels oder weiterer Lichtstrahlbündel, beispielsweise in der Optik 55 oder davor in Richtung zur Laser-Lichtquelle 52, ein Hadamard Diffusor angeordnet. Der Hadamard Diffusor ist dabei ausgebildet, das Laser-Licht in Teile aufspalten und diese Teile mit unterschiedlichen Laufzeiten und/oder Polarisationen gesteuert oder transmissionsgesteuert wieder zu vereinigen.Preferred in the beam path of the light section sensor for generating the first and second light beam or other light beam, for example in optics 55 or before that towards the laser light source 52 , a Hadamard diffuser arranged. The Hadamard diffuser is designed to split the laser light into parts and controlled these parts with different maturities and / or polarizations or reunited transmission controlled.

Dabei sind die unterschiedlichen Laufzeiten und/oder Polarisationen der Teile des Laser-Lichts bevorzugt steuerbar. Die Zusammensetzung des austretenden Laser-Lichts mit den unterschiedlichen Laufzeiten und/oder Polarisationen und der dabei unterschiedlichen Abschattungen oder Intensitäten der Licht-Teile durch den Hadamard Diffusor wird durch dessen Konfiguration bestimmt, wobei die Konfiguration durch die Recheneinheit entsprechend angesteuert wird.In this case, the different transit times and / or polarizations of the parts of the laser light are preferably controllable. The composition of the emergent laser light with the different transit times and / or polarizations and the different shading or intensities of the light parts by the Hadamard diffuser is determined by its configuration, the configuration being controlled accordingly by the arithmetic unit.

Bei einer bevorzugten Ausführung wird das erste Lichtstrahlbündel mit einer durch die Recheneinheit gesteuerten ersten Konfiguration ausgesendet und als erste Rohbilddaten empfangen. Durch den Algorithmus wird das Speckles Muster in den ersten Rohbilddaten auswertet, und es werden dementsprechend für die Erzeugung des zweiten Lichtstrahlbündels eine zweite Konfiguration des Hadamard Diffusors bestimmt, um dadurch andere Speckles, die durch das zweite Lichtstrahlbündel entstehen, zu erzeugen.In a preferred embodiment, the first light beam is emitted with a first configuration controlled by the arithmetic unit and received as first raw image data. The algorithm evaluates the speckles pattern in the first raw image data and, accordingly, determines a second configuration of the Hadamard diffuser for generating the second light beam to thereby generate other speckles formed by the second light beam.

Bevorzugt wird die zweite Konfiguration so bestimmt, dass. die Speckles ein Minimum annehmen, wonach der Algorithmus beim Vergleich der ersten und zweiten Rohbilddaten nur die zweiten Rohbilddaten als die resultierende Bilddaten auswählt. Indem nur die zweiten Rohbilddaten ausgewählt werden, führen Verschiebungen zwischen den ersten und zweiten Rohbilddaten, die beispielsweise durch eine Vibration der Messvorrichtung 1 hervorgerufen werden, nicht zu einer Verschlechterung einer Kantenschärfe. Alternativ bevorzugt kann der Algorithmus aber auch so ausgebildet werden, dass durch die zweite Konfiguration möglichst inverse Speckles durch das zweite Lichtstrahlbündel erzeugt werden und anschließend eine Mittelung zwischen den ersten und zweiten Rohbilddaten zur Erzeugung der resultierenden Bilddaten gebildet wird.Preferably, the second configuration is determined such that the speckles take a minimum, after which the algorithm, in comparing the first and second raw image data, selects only the second raw image data as the resulting image data. By selecting only the second raw image data, shifts between the first and second raw image data resulting from, for example, vibration of the measuring device 1 caused, not to a deterioration of an edge sharpness. Alternatively, however, the algorithm can also be designed in such a way that as far as possible inverse speckles are generated by the second configuration by the second light beam and then an averaging is formed between the first and second raw image data for generating the resulting image data.

8 stellt eine Anordnung des Lichtschnittsensors, umfassend die Grundplatte 50 mit der darauf montierten Laser-Lichtquelle 52 und dem Kamerasensor 53 dar, der in Querrichtung Z zum Strahlengang in Y-Richtung bewegt wird. Alternativ oder kombiniert kann das Strangprofil 2 mit dessen Oberfläche 20 relativ zum Lichtschnittsensor bewegt werden. 8th illustrates an arrangement of the light section sensor comprising the base plate 50 with the laser light source mounted thereon 52 and the camera sensor 53 which is moved in the transverse direction Z to the beam path in the Y direction. Alternatively or combined, the extruded profile 2 with its surface 20 be moved relative to the light section sensor.

Bevorzugt wird die Nano-Verschiebung entweder in Längsrichtung Y oder in Querrichtung Z oder in Längsrichtung Y und in Querrichtung Z zum Strangprofil 2 durch den mindestens einen Aktuator erzeugt. Alternativ oder kombiniert kann die Nano-Verschiebung in longitudinaler Richtung Y des Strahlengangs erzeugt werden.The nano-displacement is preferably either in the longitudinal direction Y or in the transverse direction Z or in the longitudinal direction Y and in the transverse direction Z to the extruded profile 2 generated by the at least one actuator. Alternatively or in combination, the nano-displacement can be generated in the longitudinal direction Y of the beam path.

Bevorzugt erfolgt die Erzeugung der Lichtschnittebene in der Optik 55 durch einen darin integrierten, rotierenden Spiegel oder ein Prisma, um einen Lichtpunktstrahl in der Lichtschnittebene zu verteilen.Preferably, the generation of the light section plane in the optics 55 by a rotating mirror or prism integrated therein to distribute a spot beam in the light-section plane.

In 9 ist schematisch ein bevorzugter Ablauf zur Bestimmung von Messdaten des Strangprofils 2 dargestellt. Die ersten und die zweiten Rohbilddaten von der ersten Position (Pos1) aus, als RBD 1-1 und RBD 1-2 bezeichnet, werden vom Algorithmus zu den resultierenden Bilddaten der ersten Position, als resBD 1 bezeichnet, umgewandelt, die entsprechend reduzierte Speckles darin aufweisen. Ebenso werden die ersten und die zweiten Rohbilddaten von der zweiten Position (Pos2) aus, als RBD 2-1 und RBD 2-2 bezeichnet, vom Algorithmus zu den resultierenden Bilddaten der zweiten Position, als resBD 1 bezeichnet, umgewandelt, die ebenfalls entsprechend reduzierte Speckles darin aufweisen. Die Transformationsmatrix wird aus der Verschiebung und Verdrehung der resultierenden Bilddaten der zweiten Position zu den resultierenden Bilddaten der ersten Position bestimmt und auf die resultierenden Bilddaten der zweiten Position angewendet. Dadurch werden die kalibrierten Bilddaten der zweiten Position erzeugt, die zusammen mit den resultierenden Bilddaten der ersten Position in einem gemeinsamen Koordinatensystem als die Messdaten des Prüflings oder des Strangprofils 2 abgebildet werden können.In 9 is schematically a preferred sequence for determining measurement data of the extruded profile 2 shown. The first and second raw image data from the first position (Pos1) as RBD 1-1 and RBD 1-2 are converted by the algorithm to the resulting first position image data, referred to as resBD 1, having correspondingly reduced speckles therein. Likewise, the first and second raw image data become from the second position (Pos2) as RBD 2-1 and RBD 2-2 denoted by the algorithm to the resulting second position image data, referred to as resBD 1, which also has correspondingly reduced speckles therein. The transformation matrix is determined from the shift and rotation of the resulting second position image data to the resulting first position image data and applied to the resulting second position image data. Thereby, the calibrated image data of the second position are generated, which together with the resulting image data of the first position in a common coordinate system as the measurement data of the DUT or the extruded profile 2 can be displayed.

Bei der Vermessung des Strangprofils 2 von verschiedenen Positionen aus in einer im Wesentlichen gleichen Lichtschnittebene, werden Teile der Oberfläche 20 des Strangprofils mehrfach vermessen und werden bevorzugt dementsprechend korreliert oder als Mittelwert in den Messdaten des Strangprofils 2 abgespeichert.When measuring the extruded profile 2 from different positions in a substantially same light-section plane, become parts of the surface 20 of the extruded profile and are preferably correlated accordingly or as an average in the measured data of the extruded profile 2 stored.

2 zeigt beispielweise die Messvorrichtung 1, bei der für den Abgleich bzw. für die Kalibrierung beispielsweise zwischen Lichtschnittsensor S1 und Lichtschnittsensor S2 alle Referenzmarker 3134 verwendet werden können. Von dem Lichtschnittsensor S1 werden die Referenzmarker 31 und 32 voll und die Referenzmarker 33 und 34 teils erfasst. Von Lichtschnittsensor S2 werden die Referenzmarker 31 und 34 voll und die Referenzmarker 32 und 33 teils erfasst. Hierbei soll bemerkt werden, dass für die Überlagerung der Referenzmarker 31 und 33 von diesen Perspektiven die Dicke der Referenzmarker 31, 33 mit in die Rechnung einbezogen wird. Gleichzeitig kann das Oberflächensegment 24 zusätzlich als Referenz zwischen den Lichtschnittsensoren S1 und S2 herangezogen werden. Für den Abgleich bzw. für die Kalibrierung zwischen weiteren Lichtschnittsensoren S1–S4 gilt diese Betrachtungsweise analog aus den jeweiligen Messperspektiven. 2 shows, for example, the measuring device 1 in which, for the adjustment or for the calibration, for example, between light section sensor S1 and light section sensor S2 all reference markers 31 - 34 can be used. From the light section sensor S1 become the reference markers 31 and 32 full and the reference marker 33 and 34 partly recorded. Light section sensor S2 becomes the reference marker 31 and 34 full and the reference marker 32 and 33 partly recorded. It should be noted that for the superimposition of the reference marker 31 and 33 from these perspectives, the thickness of the reference marker 31 . 33 is included in the bill. At the same time, the surface segment 24 additionally be used as a reference between the light section sensors S1 and S2. For the adjustment or for the calibration between further light section sensors S1-S4, this approach applies analogously to the respective measurement perspectives.

In 3 ist der Messerfassungsbereich MB des Lichtschnittsensor S1 mit einer gestrichelten Umrandung dargestellt, in dem vom Lichtschnittsensor S1 vordere Teile des Strangprofils 2, das sich von dem Strangprofil 2 aus 2 unterscheidet, und Teile der Referenzmarker 3134 erfasst werden. Von den hinteren Referenzmarkern 33 und 34 ist also nur ein Teil als Messergebnis zu sehen, da sie andernteils von den vorderen Referenzmarkern 33 und 32 abgeschattet werden. In dieser bevorzugten Anordnung sind die Referenzmarker 3134 ebenfalls als dünne Platten am äußeren Rand 4 des Messerfassungsbereichs MB radial nach innen zum Zentrum des Messerfassungsbereichs MB hin gerichtet angeordnet. Anders als dargestellt und deshalb zu bemerken ist, dass nicht die gesamte Oberfläche des Strangprofils 2 von den Lichtschnittsensor S1–S4 messtechnisch erfasst werden kann, sondern nur Teile davon. Beispielsweise werden von dem Lichtschnittsensor S1 insbesondere die Oberflächensegmente 23, 21, 22, 27A, 27B ganz und 28 und 29 teilweise erfasst. In 3 the blade detection area MB of the light section sensor S1 is shown with a dashed border, in which the light section sensor S1 front parts of the extruded profile 2 that is different from the extruded profile 2 out 2 different, and parts of the reference marker 31 - 34 be recorded. From the rear reference markers 33 and 34 So only one part is to be seen as a measurement result, as it is different from the front reference markers 33 and 32 to be shaded. In this preferred arrangement, the reference markers 31 - 34 also as thin plates on the outer edge 4 of the mesa-detecting portion MB is disposed radially inward toward the center of the mesa portion MB. Other than shown and therefore it should be noted that not the entire surface of the extruded profile 2 can be detected by the light section sensor S1-S4 metrologically, but only parts thereof. For example, the light section sensor S1 in particular the surface segments 23 . 21 . 22 . 27A . 27B whole and 28 and 29 partially recorded.

Für eine Kalibrierung zwischen Lichtschnittsensor S1 und Lichtschnittsensor S4 eignen sich in dem dargestellten Fall alle Referenzmarker 3134, als auch die Oberflächensegmente 23 als Referenz, die jedoch relativ klein ausfällt. Je länger eine geradlinige Referenz oder ein Referenzmarker 3134 erfasst werden kann, desto größer ist die Genauigkeit, indem viele Messpunkte für eine Geradenberechnung zur Verfügung stehen.For a calibration between the light section sensor S1 and the light section sensor S4, all reference markers are suitable in the illustrated case 31 - 34 , as well as the surface segments 23 as a reference, which is relatively small. The longer a straight line reference or a reference marker 31 - 34 can be detected, the greater the accuracy by having many measurement points available for a straight line calculation.

In diesem Beispiel wird von dem Lichtschnittsensor S1 der Referenzmarker 32 von einer Seite 320 erfasst und als Gerade weitergeführt, die den Geradenabschnitt des Referenzmarkers 34 mit dessen Seite 340 übergeht und somit eine lange Gerade mit guter messtechnischer Genauigkeit bildet. Von dem Lichtschnittsensor S4 werden die Referenzmarker 32 und 34 ebenfalls erfasst und zu einer Geraden ausgebildet, jedoch aber von einer zweiten Seite 323 bzw. 343. Unter Berücksichtigung der Dicke der Referenzmarker 32 und 34 werden diese beiden Geraden dann durch die jeweiligen Bilddaten zur Überlagerung gebracht. Das gleiche gilt für die Referenzmarker 31 und 33, die ebenfalls von beiden Lichtschnittsensor S1 und S4 erfasst, zu Geraden ausgebildet und in den jeweiligen Bilddaten zur Überlagerung gebracht werden.In this example, the light-slit sensor S1 becomes the reference marker 32 from one side 320 recorded and continued as a straight line, the straight line section of the reference marker 34 with its side 340 goes over and thus forms a long straight with good metrological accuracy. From the light section sensor S4, the reference markers 32 and 34 also detected and trained to a straight line, but from a second page 323 respectively. 343 , Taking into account the thickness of the reference marker 32 and 34 these two lines are then brought to overlap by the respective image data. The same applies to the reference marker 31 and 33 , which are also detected by both light section sensors S1 and S4, formed into straight lines and brought to overlap in the respective image data.

Wie oben erwähnt, kann das Oberflächensegment 23 ebenfalls als Referenz bzw. als Referenzgerade zur Bestimmung der besten Überlagerung der Bilddaten der Lichtschnittsensoren S1 und S4 verwendet werden. Die Referenzen sind signifikante Oberflächenteile des Prüflings oder des Strangprofils 2, die in den jeweiligen Bilddaten von benachbarten Positionen aus detektiert werden können, um sie zur Überlagerung zu bringen. Dadurch können die Verschiebung und die Verdrehung des einen Bildes zum benachbarten Bild bestimmt werden. Dadurch wird die Kalibrierung der zweiten Bilddaten bzw. des zweiten Bildes relativ zum ersten Bild vorgenommen. Eine Skalierung des zweiten Bildes zum ersten Bild kann dabei bevorzugt ebenfalls bestimmt werden.As mentioned above, the surface segment 23 also be used as a reference or as a reference line for determining the best superimposition of the image data of the light section sensors S1 and S4. The references are significant surface portions of the specimen or extruded profile 2 which can be detected in the respective image data from adjacent positions to superimpose them. Thereby, the shift and the rotation of the one image to the neighboring image can be determined. Thereby, the calibration of the second image data or the second image is made relative to the first image. A scaling of the second image to the first image can preferably also be determined.

Das bevorzugte Verfahren zur Kalibrierung detektiert also aus den Bilddaten des jeweiligen Lichtschnittsensors S1–S4 vorhandene Geraden, versucht diese möglichst gut durch möglichst viele Messpunkte genau zu bestimmen und im Vergleich zu den Bilddaten der anderen Lichtschnittsensoren S1–S4 zu identifizieren. Nach der Identifikation erfolgt das Matchen bzw. die optimale Überlagerung der jeweiligen Bilddaten mit einander. Dabei werden zwecks Kalibrierung die jeweiligen Transformationsmatrizen der Bilddaten für auf einander abgestimmte Koordinatenangaben bestimmt und auf die nachfolgenden sonstigen Bilddaten angewendet, so dass alle Seitenansichten aus den verschiedenen Messperspektiven der verwendeten Lichtschnittsensoren S1–S4 oder weiteren zu einander in einem Koordinatensystem passen.The preferred method of calibration thus detects existing lines from the image data of the respective light section sensor S1-S4, tries to determine them as accurately as possible by as many measuring points as possible and to identify them in comparison to the image data of the other light section sensors S1-S4. After the identification, the matching or the optimal superimposition of the respective image data takes place with each other. For the purpose of calibration, the respective transformation matrices of the image data are determined for mutually coordinated coordinate data and applied to the subsequent other image data, so that all side views from the different measurement perspectives of the light section sensors S1-S4 used or more to one another fit in a coordinate system.

In 4 ist die gleiche Anordnung des Strangprofils 2 innerhalb eines zweiten Messerfassungsbereichs MB2 mit den jeweiligen Referenzmarkern 3134 zu sehen, jedoch von einer anderen Messperspektive von dem Lichtschnittsensor S4 aus. Dabei ist zu erkennen, dass das Strangprofil 2 durch die Messperspektive des Lichtschnittsensors 34 beispielsweise um die Bilddaten der Oberflächensegmente 24, 23, teilweise 26, 26B und 26C zusätzlich zu den Bilddaten aus der Messperspektive seitens Lichtschnittsensor S1 ergänzt wird.In 4 is the same arrangement of the extruded profile 2 within a second measurement coverage area MB2 with the respective reference markers 31 - 34 but from a different measuring perspective from the light section sensor S4. It can be seen that the extruded profile 2 through the measuring perspective of the light section sensor 34 for example, the image data of the surface segments 24 . 23 , partially 26 . 26B and 26C in addition to the image data from the measurement perspective is supplemented by light section sensor S1.

Bei der Kalibrierung werden der Referenzmarker 33 durch die Seite 330, der Referenzmarker 32 durch die Seite 323, der Referenzmarker 34 teilweise durch die Seite 343 und der Referenzmarker 31 teilweise durch die Seite 310 erfasst.During calibration, the reference marker 33 through the page 330 , the reference marker 32 through the page 323 , the reference marker 34 partly through the page 343 and the reference marker 31 partly through the page 310 detected.

Bei einer Kalibrierung des Lichtschnittsensor S4 wird aus den dabei gemessenen Bilddaten die entsprechende Transformationsmatrix für diesen Lichtschnittsensor S4 so bestimmt, dass die darin enthaltenen Positionen und Linienverläufe der Referenzmarker 3134 mit den vorangehend gemessenen Positionen und Linienverläufe der Referenzmarker 3134 einer ersten Messperspektive, beispielsweise von dem Lichtschnittsensor S1 aus, optimal zur Übereinstimmung kommen.During a calibration of the light section sensor S4, the corresponding transformation matrix for this light section sensor S4 is determined from the image data measured thereby in such a way that the positions and line courses of the reference markers contained therein are determined 31 - 34 with the previously measured positions and line courses of the reference markers 31 - 34 a first measurement perspective, for example, from the light section sensor S1, come to an optimal match.

Die Kalibrierung der weiteren Lichtschnittsensoren S1–S4 aus den entsprechenden weiteren Messperspektiven geschieht analog.The calibration of the further light section sensors S1-S4 from the corresponding further measuring perspectives is done analogously.

5 zeigt noch eine Messperspektive des Strangprofils 2 aus einer zusätzlichen Ansicht eines um 45 Grad nach rechts gedrehten Lichtschnittsensors. Es wird dabei deutlich, dass das Oberflächensegment 23 des Strangprofils 2 messtechnisch besser bzw. genauer erfasst werden kann, vor allem dessen Ecken betreffend. Die dünn punktierten Linien deuten Strahlenverläufe des nach rechts gedrehten Lichtschnittsensors an. Dabei kann entweder ein oder mehrere zusätzliche Lichtschnittsensoren verwendet werden oder es können die bereits in der Messvorrichtung 1 verwendeten Lichtschnittsensoren S1–S4 insgesamt für ein Zeitmoment der Messung rotatorisch verfahren und zurückgefahren werden. Die rotatorische Verfahrposition der Lichtschnittsensoren S1–S4 lässt sich dabei von der Anordnung ebenso wie bei der Kalibrierung anhand der Referenzmarker 3134 und anhand von Referenzen im Strangprofil ermitteln, so dass die Mess- und Bilddaten des Strangprofils 2 (sowie die der Referenzmarker 3134) aus der jeweiligen Messperspektive durch die jeweilige, neu bestimmte Transformationsmatrix richtig im Koordinatensystem liegen. 5 shows another measuring perspective of the extruded profile 2 from an additional view of a light-section sensor turned 45 degrees to the right. It becomes clear that the surface segment 23 of the extruded profile 2 metrologically better or more accurately can be detected, especially concerning its corners. The thin dotted lines indicate ray trajectories of the light section sensor turned to the right. In this case, either one or more additional light section sensors can be used or they can already be in the measuring device 1 used light-slit sensors S1-S4 in total for a moment instant of the measurement and moved back in rotation. The rotational movement position of the light section sensors S1-S4 can thereby be determined by the arrangement as well as in the calibration using the reference marker 31 - 34 and determine based on references in the extruded profile, so that the measurement and image data of the extruded profile 2 (as well as the reference marker 31 - 34 ) lie correctly in the coordinate system from the respective measuring perspective through the respective, newly determined transformation matrix.

Bevorzugt brauchen die Referenzen und/oder Referenzmarker 3134 nicht in bekannten, definierten Abständen oder Positionen zueinander angeordnet sein. Die jeweiligen Referenzen und/oder Referenzmarker 3134 müssen nur in dem jeweils gemeinsamen Messerfassungsbereichen der jeweiligen benachbarten Lichtschnittsensoren S1–S4 angeordnet sein. Die Anzahl der aufeinander abzustimmenden, gegenseitig zueinander zu kalibrierenden Lichtschnittsensoren S1–S4 ist beliebig, solange die oben beschriebene Bedingung der gemeinsamen Erfassung der Referenzen und/oder der Referenzmarker 3134 erfüllt ist. Dabei soll auch nochmals klargestellt werden, dass unter Umständen für die Kalibrierung nicht einmal Referenzmarker 3134 notwendig sind, wenn genügend Referenzen im Strangprofil 2 vorhanden sind, die die Bedingung erfüllen, dass mindestens zwei Referenzen gemeinsam von jeweils benachbarten Lichtschnittsensoren S1–S4 erfasst werden; dies ist beispielsweise bei Strangprofilen 2 mit einem gleichverteilen Achtkantquerschnitt und bei gleichmäßig verteilen 8 Lichtschnittsensoren S1–S4 der Fall.Preferably, the references and / or reference markers need 31 - 34 not be arranged in known, defined distances or positions to each other. The respective references and / or reference markers 31 - 34 only have to be arranged in the respectively common measuring areas of the respective adjacent light section sensors S1-S4. The number of light section sensors S1-S4 to be matched to one another, which can be mutually calibrated, is arbitrary, as long as the above-described condition of the common detection of the references and / or the reference markers 31 - 34 is satisfied. It should also be clarified once again that under certain circumstances for the calibration not even reference marker 31 - 34 necessary, if enough references in the extruded profile 2 are present, which satisfy the condition that at least two references are detected in common by each adjacent light section sensors S1-S4; This is for example in extruded profiles 2 with a gleichverteilen octagonal cross-section and evenly distributed 8 Lichtschnittensoren S1-S4 of the case.

Bevorzugt ist die Anzahl der Referenzen und der Referenzmarker 3134 beliebig, solange die Bedingung erfüllt ist, dass mindestens zwei Referenzen oder mindestens zwei Referenzmarker 3134 oder mindestens eine Referenz und ein Referenzmarker 3134 gemeinsam von jeweils benachbarten Lichtschnittsensoren S1–S4 erfasst werden.Preferred is the number of references and the reference marker 31 - 34 arbitrarily, as long as the condition is fulfilled, that at least two references or at least two reference markers 31 - 34 or at least one reference and one reference marker 31 - 34 be jointly detected by each adjacent light section sensors S1-S4.

Der Klarheit wegen soll ferner festgehalten werden, dass falls die Form der Referenzmarker 3134 gleich ist, dass dann deren einzelnen Positionen in den einzelnen Bilddaten der jeweiligen Lichtschnittsensoren S1–S4 grob bekannt sein muss, um eine eindeutige Zuordnung der Referenzmarker 3134 in den jeweiligen Bilddaten vornehmen zu können. Andernfalls kann mindestens einer der Referenzmarker 3134, der in benachbarten Bilddaten sichtbar ist, eine Codierung zur eindeutigen Identifikation in den Bilddaten der benachbarten Bilddaten tragen und/oder das Strangprofil 2 selbst für die Zuordnung verwendet werden.For the sake of clarity, it should also be noted that if the shape of the reference marker 31 - 34 it is the same that then their individual positions in the individual image data of the respective light section sensors S1-S4 must be roughly known to an unambiguous assignment of the reference marker 31 - 34 in the respective image data to make. Otherwise, at least one of the reference markers 31 - 34 which is visible in adjacent image data, carries a coding for unique identification in the image data of the adjacent image data and / or the extruded profile 2 even be used for the assignment.

Bevorzugt werden als die Lichtschnittsensoren S1–S4 2D und/oder 3D Sensoren verwendet.Preferably, 2D and / or 3D sensors are used as the light section sensors S1-S4.

Der Klarheit wegen soll nochmals festgehalten werden, dass hier unter der Kalibrierung zwei Arten verstanden werden. Im Allgemeinen umfasst die Kalibrierung eine Korrekturbestimmung der Offsets in X- und in Y-Richtung und des Drehwinkels, so dass die Bilddaten benachbarter Lichtschnittsensoren S1–S4 anhand von bekannten oder gemeinsamen Referenzen, wie beispielsweise Referenzgeraden, optimal in einem gemeinsamen Koordinatensystem abgebildet werden. Dazu wird eine Transformationsmatrix für den jeweiligen Lichtschnittsensor S1–S4 berechnet und anschließend auf die jeweiligen Bilddaten (zur Korrektur) angewendet. Im Falle, dass genügend viele Referenzen und Referenzmarker 3134 bei einer gemeinsamen Erfassung durch Lichtschnittsensoren S1–S4 oder auch kalibrierte Referenzmarker 3134 mit definierten, bekannten Abständen zur Verfügung stehen, kann die Kalibrierung zusätzlich auch die Korrektur der Skalierung umfassen. Dabei soll bemerkt sein, dass eine bevorzugte Methode der Kalibrierung der Skalierung auch eine optimale Mittelung zwischen den Bilddaten der verschiedenen Lichtschnittsensoren S1–S4 umfasst, wozu bevorzugt die Least Mean Square Methode eingesetzt wird.For the sake of clarity, it should be reiterated that two types of calibration are understood here. In general, the calibration comprises a correction determination of the offsets in the X and Y directions and of the rotation angle, so that the image data of adjacent light section sensors S1-S4 are optimally imaged in a common coordinate system on the basis of known or common references, such as reference lines. For this purpose, a transformation matrix for the respective light section sensor S1-S4 is calculated and then applied to the respective image data (for correction). In the event that enough references and reference markers 31 - 34 with a common detection by light section sensors S1-S4 or also calibrated reference markers 31 - 34 With defined, known distances, the calibration can additionally include the correction of the scaling. It should be noted that a preferred method of calibrating the scaling also includes an optimal averaging between the image data of the different light section sensors S1-S4, for which purpose preferably the least mean square method is used.

Der Klarheit wegen wird festgehalten, dass die Bezeichnung Strangprofil 2 für alle Arten von zu vermessenden Prüflingen steht, die beispielsweise auch entlang der Länge ein veränderliches Profil aufweisen.For the sake of clarity, it is stated that the term extruded profile 2 For all types of test specimens to be measured, for example, have along the length of a variable profile.

Es ist ferner vorstellbar, dass die Rohbilddaten schon vorab-kalibrierte Daten sein können, die bezogen auf den jeweiligen Lichtschnittsensor S1–S4 und/oder auf die Messvorrichtung 1 kalibriert wurden.It is furthermore conceivable that the raw image data can already be pre-calibrated data which, based on the respective light section sensor S1-S4 and / or on the measuring device 1 calibrated.

Es ist auch denkbar, dass statt der Referenzmarker 3134 Lichtpunkte auf das Strangprofil 2 projiziert werden, die jeweils von zwei benachbarten Lichtschnittsensoren S1–S4 erfasst werden, um auf diese Weise Referenzpunkte für eine Zuordnung und für eine Offsetkorrektur der jeweiligen Bilddaten zu erzielen. Dadurch, dass sich alle Lichtpunkte oder Referenzpunkte gleichzeitig aussenden und messen lassen, kann auch eine Schwingungsanalyse des Strangprofils 2 durchgeführt werden.It is also conceivable that instead of the reference marker 31 - 34 Points of light on the extruded profile 2 are respectively detected by two adjacent light section sensors S1-S4, so as to obtain reference points for an assignment and for an offset correction of the respective image data. Because all light points or reference points can be emitted and measured simultaneously, a vibration analysis of the extruded profile can also be carried out 2 be performed.

Eine weitere bevorzugte Ausführungsform der Messvorrichtung 1 umfasst einen Drehtisch oder Dreheller, auf dem der Prüfling positioniert wird und in bestimmte Drehpositionen zur Vermessung gebracht wird. Dabei werden der Drehpunkt und die Drehlage des Lichtschnittsensors oder des Prüflings durch entsprechende Referenzen oder Referenzmarker 3134 bestimmt.Another preferred embodiment of the measuring device 1 includes a turntable or turntable on which the specimen is positioned and surveyed in certain rotational positions. In this case, the pivot point and the rotational position of the light section sensor or the test specimen by corresponding references or reference markers 31 - 34 certainly.

Bevorzugt werden die Ablaufsteuerung, Berechnungen und/oder Bestimmungen durch eine Recheneinheit vorgenommen.The sequence control, calculations and / or determinations are preferably carried out by a computing unit.

Weitere mögliche Ausbildungsformen sind in den folgenden Ansprüchen beschrieben.Further possible embodiments are described in the following claims.

Die In den Ansprüchen genannten Bezugszeichen dienen der besseren Verständlichkeit, beschränken aber die Ansprüche nicht auf die in den Figuren. dargestellten Formen.The reference numerals mentioned in the claims are for better comprehension, but do not limit the claims to those in the figures. illustrated forms.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Messvorrichtungmeasuring device
1111
kreisartige Vorrichtungcircular device
1212
Öffnungopening
22
Strangprofilextruded profile
2020
Oberfläche des StrangprofilsSurface of the extruded profile
21–2921-29
Oberflächensegmentesurface segments
33
Referenzmarkerreference marker
3131
erster Referenzmarkerfirst reference marker
3232
zweiter Referenzmarkersecond reference marker
3333
dritter Referenzmarkerthird reference marker
3434
vierter Referenzmarkerfourth reference marker
44
äußerer Bereichouter area
5050
Grundplatte (des Lichtschnittsensors)Base plate (of the light section sensor)
5151
Piezo-AktuatorPiezo actuator
5252
Laser-LichtquelleLaser light source
5353
Kamerasensorcamera sensor
5454
optisches Laufzeitelementoptical delay element
5555
Optikoptics
KS1KS1
erster Kamerablickwinkelfirst camera viewing angle
KS2KS2
zweiter Kamerablickwinkelsecond camera viewing angle
MBMB
MesserfassungsbereichMeasurement detection range
MB2MB2
zweiter Messerfassungsbereichsecond measuring range
RBD 1-1, RBD 1-2RBD 1-1, RBD 1-2
erste bzw. zweite Rohbilddaten der ersten Positionfirst or second raw image data of the first position
RBD 2-1, RBD 2-2RBD 2-1, RBD 2-2
erste bzw. zweite Rohbilddaten der zweiten Positionfirst or second raw image data of the second position
resBD 1, resBD 2resBD 1, resBD 2
resultierende Bilddaten der ersten bzw. zweiten Positionresulting image data of the first or second position
kalBD 2calBD 2
kalibrierte Bilddaten der zweiten Positioncalibrated image data of the second position
S1–S4S1-S4
erster – vierter Lichtschnittsensorfirst - fourth light section sensor
X, Y, ZX, Y, Z
KoordinatenrichtungsangabenCoordinate direction information

Claims (13)

Verfahren zur Vermessung einer Oberfläche (20) eines Prüflings mit einem Lichtschnittsensor (S1–S4), folgende Schritte umfassend: a) Anordnen von mindestens einem Lichtschnittsensor (S1–S4) in mindestens einer ersten und in einer zweiten Position, um einen gemeinsamen Messbereich zur Vermessung des Prüflings zu bilden, wobei die jeweiligen Lichtschnittebenen von mindestens der ersten Position und der zweiten Position auf den Prüfling projiziert werden, indem sie in einer gemeinsamen Ebene liegen oder gerade nur so weit voneinander parallel beabstandet sind, dass sie sich bei einer Vermessung gegenseitig nicht stören; b) Anordnen von mindestens zwei Referenzen, die Teil des Prüflings sind, oder von mindestens zwei separaten Referenzmarkern (3134) oder von mindestens einer Referenz im Prüfling und einem Referenzmarker (3134) im gemeinsamen Messerfassungsbereich; c) messtechnisches Erfassen des Lichtschnitts auf dem Prüfling zusammen mit den Referenzen und/oder den Referenzmarkern (3134) von der ersten und zweiten Position aus und damit Vermessen des Prüflings, wobei die jeweilige Lichtschnittebene durch ein erstes Laser-Lichtstrahlbündel erzeugt und ausgesendet wird und dabei erste Rohbilddaten von der jeweiligen Position erfasst werden; gekennzeichnet durch d) Erzeugen und Aussenden der jeweiligen Lichtschnittebene von dem mindestens einen Lichtschnittsensor (S1–S4) von der jeweiligen Position aus durch ein vom ersten Laser-Lichtstrahlbündel unterschiedliches zweites Laser-Lichtstrahlbündel und dabei Erfassen von zweiten Rohbilddaten an der jeweiligen Position; wobei das unterschiedliche zweite Laser-Lichtstrahlbündel nach einer gesteuerten Nano-Verschiebung des jeweiligen Lichtschnittsensors (S1–54), des Prüflings, einer Laser-Lichtquelle (52) zur Erzeugung des jeweiligen zweiten Laser-Lichtstrahlbündels oder eines Kamerasensors (53) im jeweiligen Lichtschnittsensor (S1–S4) erzeugt wird; wobei die Nano-Verschiebung entweder in Längsrichtung oder in Querrichtung oder in Längs- und in Querrichtung zum ausgesendeten Lichtstrahlbündel erzeugt wird, und die Nano-Verschiebung durch mindestens einen Aktuator (51) erzeugt wird und in einem Bereich von 0,5–1 oder 1–5 oder 1–20 Wellenlängen des Laser-Lichts liegt; e) Bestimmen von jeweiligen resultierenden Bilddaten durch einen Algorithmus aus den jeweiligen ersten und den zweiten Rohbilddaten für die jeweilige Position; f) Bestimmen einer Verschiebung und eines Drehwinkels zwischen den resultierenden Bilddaten der zweiten Position und den resultierenden Bilddaten der ersten Position, indem die darin erfassten Referenzen und/oder Referenzmarker (3134) durch eine Recheneinheit in Bezug gesetzt werden; g) Berechnen einer Transformationsmatrix aus der bestimmten Verschiebung und dem Drehwinkel, die ausgebildet ist, die resultierenden Bilddaten der zweiten Position zu kalibrierten Bilddaten der zweiten Position zu transformieren, indem die kalibrierten Bilddaten der zweiten Position und die resultierenden Bilddaten der ersten Position richtig in einem gemeinsamen Koordinatensystem abgebildet werden können; h) Anwenden der Transformationsmatrix auf die resultierenden Bilddaten der zweiten Position und Abbilden der kalibrierten Bilddaten der zweiten Position zusammen mit den resultierenden Bilddaten der ersten Position in dem gemeinsamen Koordinatensystem.Method for measuring a surface ( 20 ) of a test object with a light section sensor (S1-S4), comprising the following steps: a) arranging at least one light section sensor (S1-S4) in at least a first and in a second position to form a common measuring area for measuring the test object, the respective light slices of at least the first position and the second position are projected onto the specimen by being in a common plane or just just so far apart from each other that they do not interfere with one another during a survey; b) arranging at least two references that are part of the candidate or at least two separate reference markers ( 31 - 34 ) or at least one reference in the candidate and a reference marker ( 31 - 34 ) in the common measurement coverage area; c) metrological recording of the light section on the test specimen together with the references and / or the reference markers ( 31 - 34 ) from the first and second position and thus measuring the test object, wherein the respective light section plane is generated and emitted by a first laser light beam and thereby first raw image data are detected by the respective position; characterized by d) generating and emitting the respective light slicing plane from the at least one light section sensor (S1-S4) from the respective position by a second laser light beam bundle different from the first laser light beam bundle and thereby detecting second raw image data at the respective position; wherein the different second laser light beam after a controlled nano-displacement of the respective light section sensor (S1-54), the test specimen, a laser light source ( 52 ) for generating the respective second laser light beam or a camera sensor ( 53 ) is generated in the respective light section sensor (S1-S4); wherein the nano-displacement is generated either longitudinally or transversely or longitudinally and transversely to the emitted light beam, and the nano-displacement by at least one actuator ( 51 ) and is in a range of 0.5-1 or 1-5 or 1-20 wavelengths of the laser light; e) determining respective resulting image data by an algorithm from the respective first and second raw image data for the respective position; f) determining a displacement and a rotation angle between the resulting image data of the second position and the resulting image data of the first position by the references and / or reference markers ( 31 - 34 ) are related by a computing unit; g) transforming a transformation matrix of the determined displacement and rotation angle that is configured to transform the resulting second position image data into second position calibrated image data by properly collating the calibrated second position image data and the resulting first position image data in a common position Coordinate system can be mapped; h) applying the transformation matrix to the resulting second position image data and mapping the calibrated second position image data together with the resulting first position image data in the common coordinate system. Verfahren gemäß Anspruch 1, wobei das erste Laser-Lichtstrahlbündel mit einer ersten Wellenlänge und das zweite Laser-Lichtstrahlbündel mit einer anderen, zweiten Wellenlänge erzeugt wird, und/oder wobei das erste Laser-Lichtstrahlbündel mit einer ersten Polarisationsebene und das zweite Laser-Lichtstrahlbündel mit einer anderen, zweiten Polarisationsebene erzeugt wird.The method of claim 1, wherein the first laser beam of light at a first wavelength and the second laser beam of light at a different, second wavelength is generated, and / or wherein the first laser beam with a first polarization plane and the second laser beam with another, second polarization plane is generated. Verfahren gemäß Anspruch 1 oder 2, wobei in Schritt e) durch den Algorithmus die jeweiligen ersten und zweiten Rohbilddaten pixelweise miteinander verglichen oder ausgewertet werden, indem für jeden Pixel oder Pixelbereich Maximalwerte oder Mittelwerte bestimmt und als die resultierenden Bilddaten abgespeichert werden, wobei dadurch die resultierenden Bilddaten reduzierte Speckles oder Interferenz-Minima aufweisen.Method according to claim 1 or 2, wherein in step e) the algorithm compares or evaluates the respective first and second raw image data pixel by pixel by determining maximum values or mean values for each pixel or pixel region and storing them as the resulting image data, thereby obtaining the resulting Image data have reduced speckles or interference minima. Verfahren gemäß einem der vorstehenden Ansprüche, wobei vor Schritt e) die jeweilige Lichtschnittebene aus der jeweiligen Position durch mindestens ein weiteres Laser-Lichtstrahlbündel mit einer weiteren Wellenlänge und/oder mit einer weiteren Polarisationsebene erzeugt wird, um dadurch jeweilige weitere Rohbilddaten zu erzeugen, und wobei im nachfolgenden Schritt e) die jeweiligen weiteren Rohbilddaten für die Bestimmung der jeweiligen resultierenden Bilddaten durch den Algorithmus gleichermaßen verarbeitet werden.Method according to one of the preceding claims, wherein prior to step e), the respective light section plane is generated from the respective position by at least one further laser light beam having a further wavelength and / or with a further polarization plane, thereby generating respective further raw image data, and wherein in the subsequent step e), the respective further raw image data for the determination of the respective resulting image data are likewise processed by the algorithm. Verfahren gemäß einem der vorstehenden Ansprüche, wobei im Strahlengang des Lichtschnittsensors zur Erzeugung des ersten und zweiten Lichtstrahlbündels ein Hadamard Diffusor angeordnet ist, durch den das erste Lichtstrahlbündel mit einer durch die Recheneinheit gesteuerten ersten Konfiguration ausgesendet wird, indem durch die Konfiguration verschiedene Lichtanteile mit verschiedenen Phasen und/oder Polarisationen erzeugt werden, die das jeweilige Lichtstrahlbündel bilden, wonach durch den Algorithmus zudem ein Speckles Muster in den ersten Rohbilddaten auswertet wird und für die Erzeugung des zweiten Lichtstrahlbündels eine zweite Konfiguration des Hadamard Diffusors bestimmt wird, um dadurch andere zweite Speckles, die durch das zweite Lichtstrahlbündel entstehen, zu erzeugen.Method according to one of the preceding claims, wherein in the beam path of the light section sensor for generating the first and second light beam, a Hadamard diffuser is arranged, through which the first light beam is emitted with a first configuration controlled by the arithmetic unit, by the configuration different light components with different phases and / or polarizations forming the respective light beam, whereupon the algorithm also evaluates a speckles pattern in the first raw image data and determines a second configuration of the Hadamard diffuser to generate the second light beam, thereby generating other second speckles caused by the second beam of light to produce. Verfahren gemäß einem der vorstehenden Ansprüche, wobei der Prüfling von einer Vielzahl an Positionen aus in der im Wesentlichen gleichen Lichtschnittebene um den Prüfling herum vermessen wird, wobei die Messdaten für Teile der Oberfläche (20), die mehrfach vermessen sind, korreliert und/oder als Mittelwert bestimmt werden, wobei daraus resultierende Messdaten der Oberfläche (20) des Prüflings erzeugt und zur Verfügung gestellt werden.Method according to one of the preceding claims, wherein the test object is measured from a plurality of positions in the substantially same light-section plane around the test object, wherein the measurement data for parts of the surface ( 20 ), which are measured several times, are correlated and / or determined as the mean value, the resulting measurement data of the surface ( 20 ) of the test object are generated and made available. Messvorrichtung (1) zur Vermessung einer Oberfläche (20) eines Prüflings, umfassend: – mindestens ein Lichtschnittsensor (S1–S4), der in der Messvorrichtung (1) so angeordnet oder verfahrbar ist, um von mindestens einer ersten und einer zweiten Position aus einen gemeinsamen Messbereich zur Vermessung des Prüflings zu bilden, wobei die jeweiligen Lichtschnittebenen von mindestens der ersten und der zweiten Position auf den Prüfling projiziert werden, indem sie in einer gemeinsamen Ebene liegen oder gerade nur so weit parallel voneinander beabstandet sind, dass sie sich bei der Vermessung gegenseitig nicht stören, und wobei der mindestens eine Lichtschnittsensor (S1–S4) Rohbilddaten liefert; – mindestens zwei Referenzen, die Teil des Prüflings sind, oder mindestens zwei separate Referenzmarker (3134), die im gemeinsamen Messerfassungsbereich in der Messvorrichtung (1) angeordnet sind oder mindestens eine Referenz im Prüfling und ein Referenzmarker (3134), wobei die Referenzen und/oder die Referenzmarker (3134) in dem gemeinsamen Messerfassungsbereich liegen und jeweils von der ersten und von der zweiten Position aus zusammen mit dem Prüfling erfassbar sind; – eine Recheneinheit zur Erfassung und Verarbeitung der Rohbilddaten, um daraus Messdaten der Oberfläche (20) in einem gemeinsamen Koordinatensystem zu erzeugen; dadurch gekennzeichnet, dass – der mindestens eine Lichtschnittsensor (S1–S4) die jeweilige Lichtschnittebene sowohl durch ein erstes Laser-Lichtstrahlbündel erzeugt und erfasst, wobei erste Rohbilddaten erzeugt werden, als auch durch ein zweites Laser-Lichtstrahlbündel erzeugt und erfasst, wobei zweite Rohbilddaten erzeugt werden; – mindestens ein Aktuator (51) in der Meßvorrichtung so angeordnet ist, um darin durch die Recheneinheit gesteuert den mindestens einen Lichtschnittsensor (S1–S4) und/oder eine Laser-Lichtquelle (52) des mindestens einen Lichtschnittsensors (S1–S4) und/oder einen Kamerasensor (53) des mindestens einen Lichtschnittsensors (S1–S4) um eine Nano-Verschiebung verschieben zu können, um dabei die ersten und zweiten Rohbilddaten zu erzeugen; wobei der Aktuator (51) so ausgebildet und angeordnet ist, die Nano-Verschiebung in einem Bereich von 0,5–2 oder 1–5 oder 1–20 Wellenlängen des Laser-Lichts zu erzeugen, und die Nano-Verschiebung oder Verdrehung entweder in Längsrichtung oder in Querrichtung oder in Längs- und in Querrichtung zum ausgesendeten Lichtstrahlbündel zu erzeugen; – die Recheneinheit ausgebildet ist: um den mindestens einen Lichtschnittsensor (S1–S4) so anzusteuern, dass die jeweiligen ersten und die zweiten Rohbilddaten von der jeweiligen ersten und zweiten Position erzeugt werden; um durch einen Algorithmus die jeweiligen ersten und die zweiten Rohbilddaten zu jeweiligen resultierenden Bilddaten für die jeweilige Position zu verarbeiten, um darin enthaltene Speckles oder Interferenzmuster zu reduzieren; um eine Verschiebung und einen Drehwinkel zwischen den resultierenden Bilddaten der zweiten Position und den resultierenden Bilddaten der ersten Position zu bestimmen, indem die darin erfassten Referenzen und/oder Referenzmarker (3134) in Bezug gesetzt werden; um eine Transformationsmatrix aus der bestimmten Verschiebung und dem Drehwinkel zu bestimmen, die ausgebildet ist, die resultierenden Bilddaten der zweiten Position zu kalibrierten Bilddaten der zweiten Position zu transformieren, indem die kalibrierten Bilddaten der zweiten Position und die resultierenden Bilddaten der ersten Position richtig in einem gemeinsamen Koordinatensystem abgebildet werden; und um die Transformationsmatrix auf die resultierenden Bilddaten der zweiten Position anzuwenden, um dadurch die kalibrierten Bilddaten der zweiten Position zu erzeugen.Measuring device ( 1 ) for measuring a surface ( 20 ) of a test object, comprising: - at least one light section sensor (S1-S4) which is in the measuring device ( 1 ) is arranged or movable to form from at least a first and a second position of a common measuring range for measuring the specimen, wherein the respective light section planes of at least the first and the second position are projected onto the specimen by being in a common Lie flat or just so far apart in parallel that they do not interfere with each other in the measurement, and wherein the at least one light section sensor (S1-S4) provides raw image data; - at least two references that are part of the candidate, or at least two separate reference markers ( 31 - 34 ) in the common measuring range in the measuring device ( 1 ) or at least one reference in the test piece and a reference marker ( 31 - 34 ), the references and / or the reference markers ( 31 - 34 ) are in the common measuring range and are detectable from the first and from the second position together with the DUT; An arithmetic unit for acquiring and processing the raw image data in order to use it to obtain measurement data of the surface ( 20 ) in a common coordinate system; characterized in that - the at least one light section sensor (S1-S4) generates and detects the respective light section plane both by a first laser light beam, wherein first raw image data are generated, as well generates and detects a second laser light beam, generating second raw image data; At least one actuator ( 51 ) is arranged in the measuring device so as to be controlled therein by the arithmetic unit, the at least one light section sensor (S1-S4) and / or a laser light source ( 52 ) of the at least one light section sensor (S1-S4) and / or a camera sensor ( 53 ) of the at least one light section sensor (S1-S4) to be displaceable by a nano-shift to thereby generate the first and second raw image data; wherein the actuator ( 51 ) is designed and arranged to produce the nano-shift in a range of 0.5-2 or 1-5 or 1-20 wavelengths of the laser light, and the nano-displacement or torsion either longitudinally or transversely or in the longitudinal and transverse directions to the emitted light beam to produce; - The arithmetic unit is formed: to the at least one light section sensor (S1-S4) to control so that the respective first and the second raw image data are generated from the respective first and second position; to process by an algorithm the respective first and second raw image data to respective resulting image data for the respective position to reduce speckles or interference patterns contained therein; to determine a displacement and a rotation angle between the resulting image data of the second position and the resulting image data of the first position by the references and / or reference markers ( 31 - 34 ); to determine a transformation matrix from the determined displacement and rotation angle configured to transform the resulting second position image data into second position calibrated image data by properly integrating the calibrated second position image data and the resulting first position image data Coordinate system are mapped; and apply the transformation matrix to the resulting second position image data to thereby generate the second position calibrated image data. Messvorrichtung (1) gemäß Anspruch 7, wobei der mindestens eine Lichtschnittsensor (S1–S4) und die Recheneinheit ausgebildet sind, das erste Laser-Lichtstrahlbündel mit einer ersten Wellenlänge und das zweite Laser-Lichtstrahlbündel mit einer anderen, zweiten Wellenlänge zu erzeugen und zu erfassen, und/oder das erste Laser-Lichtstrahlbündel mit einer ersten Polarisationsebene und das zweite Laser-Lichtstrahlbündel mit einer anderen, zweiten Polarisationsebene zu erzeugen.Measuring device ( 1 ) according to claim 7, wherein the at least one light section sensor (S1-S4) and the arithmetic unit are configured to generate and detect the first laser light beam having a first wavelength and the second laser light beam having a different, second wavelength, and / or to generate the first laser light beam having a first polarization plane and the second laser light beam having another, second polarization plane. Messvorrichtung (1) gemäß Anspruch 7 oder 8, wobei der Algorithmus zur Bestimmung der jeweiligen resultierenden Bilddaten so ausgebildet ist, die jeweiligen ersten und zweiten Rohbilddaten pixelweise miteinander zu vergleichen oder auszuwerten, indem für jeden Pixel oder Pixelbereich Maximalwerte oder Mittelwerte bestimmt und als die resultierenden Bilddaten abgespeichert werden, wobei dadurch die resultierenden Bilddaten reduzierte Speckles oder Interferenz-Minima aufweisen, wobei die Mittelwerte entweder als arithmetische, quadratische oder Medianwert-Mittelwerte gebildet werden.Measuring device ( 1 ) according to claim 7 or 8, wherein the algorithm for determining the respective resulting image data is adapted to compare or evaluate the respective first and second raw image data pixel by pixel by determining maximum values or mean values for each pixel or pixel region and storing them as the resulting image data whereby the resulting image data has reduced speckles or interference minima, the mean values being formed either as arithmetic, quadratic or median value averages. Messvorrichtung (1) gemäß Anspruch 8 oder 9, wobei der mindestens eine Lichtschnittsensor (S1–S4) und die Recheneinheit ausgebildet sind, die jeweilige Lichtschnittebene von der jeweiligen Position durch mindestens ein weiteres Laser-Lichtstrahlbündel mit einer weiteren Wellenlänge und/oder mit einer weiteren Polarisationsebene zu erzeugen, um dadurch jeweilige weitere Rohbilddaten zu erzeugen und durch den Algorithmus für die Bestimmung der jeweiligen resultierenden Bilddaten gleichermaßen mit zu verarbeiten.Measuring device ( 1 ) according to claim 8 or 9, wherein the at least one light section sensor (S1-S4) and the arithmetic unit are adapted to generate the respective light section plane from the respective position by at least one further laser light beam with a further wavelength and / or with a further polarization plane to thereby generate respective further raw image data and to process by the algorithm equally for the determination of the respective resulting image data. Messvorrichtung (1) gemäß einem der vorstehenden Ansprüche 7–10, wobei in der Messvorrichtung (1) mindestens ein Aktuator (51) so angeordnet ist, um durch den Aktuator (51) entweder den Lichtschnittsensor (S1–S4) oder den Prüfling durch eine Nano-Verschiebung zu verschieben oder zu verdrehen und dabei jeweilige weitere Rohbilddaten zu erzeugen; und wobei die Recheneinheit und der Algorithmus ausgebildet ist, die jeweiligen weiteren Rohbilddaten zur Bestimmung der jeweiligen resultierenden Bilddaten für die jeweilige Position entsprechend mit zu verarbeiten, wobei der Aktuator (51) so ausgebildet und angeordnet ist, die Nano-Verschiebung in einem Bereich von 0,5–2 oder 1–5 oder 1–20 Wellenlängen des Laser-Lichts zu erzeugen, und die Nano-Verschiebung oder Verdrehung entweder in Längsrichtung oder in Querrichtung oder in Längs- und in Querrichtung zum ausgesendeten Lichtstrahlbündel zu erzeugen.Measuring device ( 1 ) according to one of the preceding claims 7-10, wherein in the measuring device ( 1 ) at least one actuator ( 51 ) is arranged so as to pass through the actuator ( 51 ) either to shift or rotate the light section sensor (S1-S4) or the test object by a nano-displacement and thereby to generate respective further raw image data; and wherein the arithmetic unit and the algorithm is designed to process the respective further raw image data for determining the respective resulting image data for the respective position, wherein the actuator ( 51 ) is designed and arranged to produce the nano-shift in a range of 0.5-2 or 1-5 or 1-20 wavelengths of the laser light, and the nano-displacement or torsion either longitudinally or transversely or to generate in the longitudinal and transverse direction to the emitted light beam. Messvorrichtung (1) gemäß einem der vorstehenden Ansprüche 7–11, wobei der Lichtschnittsensor (S1–S4) entweder so ausgebildet ist, dass im Strahlengang zwischen einer Laser-Lichtquelle (52) zur Erzeugung des Laser-Lichts und dem emittierten, jeweiligen Lichtstrahlbündels oder zwischen dem reflektierten, eintreffenden Licht und einem Kamerasensor (53) eine Optik (55) angeordnet ist, die ausgebildet ist, die Phase oder die Polarisation des durchgehenden Lichts durch die Recheneinheit steuerbar zu verändern; oder dass im Strahlengang zwischen der Laser-Lichtquelle (52) und dem emittierten, jeweiligen Lichtstrahlbündels ein Hadamard Diffusor angeordnet und durch die Recheneinheit entsprechend ansteuerbar ist. Measuring device ( 1 ) according to one of the preceding claims 7-11, wherein the light section sensor (S1-S4) is either designed so that in the beam path between a laser light source ( 52 ) for generating the laser light and the emitted, respective light beam or between the reflected, incident light and a camera sensor ( 53 ) an optic ( 55 ) arranged to controllably change the phase or the polarization of the transmitted light by the arithmetic unit; or that in the beam path between the laser light source ( 52 ) and the emitted, respective light beam bundle a Hadamard diffuser arranged and controlled by the arithmetic unit accordingly. Messvorrichtung (1) gemäß einem der vorstehenden Ansprüche 7–12, wobei die Messvorrichtung (1) und die Recheneinheit ferner so ausgebildet sind, den gemeinsamen Messbereich von einer Vielzahl an Positionen aus in der im Wesentlichen gleichen Lichtschnittebene um den Prüfling herum zu vermessen, wobei bestimmte Bereiche der Oberfläche (20), die durch die jeweiligen resultierenden Bilddaten mehrfach vermessen sind, korreliert und/oder als Mittelwert zu daraus resultierenden Messdaten bestimmt werden; und/oder wobei die Messvorrichtung (1) zudem einen Drehtisch umfasst, auf dem der Prüfling zur Vermessung positionierbar und drehbar ist.Measuring device ( 1 ) according to one of the preceding claims 7-12, wherein the measuring device ( 1 ) and the arithmetic unit are further configured to measure the common measuring range from a plurality of positions in the substantially same light-section plane around the test object, whereby certain areas of the surface ( 20 ), which are measured several times by the respective resulting image data, are correlated and / or determined as an average value to resulting measurement data; and / or wherein the measuring device ( 1 ) also comprises a turntable on which the specimen is positionable and rotatable for surveying.
DE102013103252.4A 2013-03-28 2013-03-28 Increase measurement accuracy when measuring with light section sensors by simultaneously calibrating and reducing speckles Expired - Fee Related DE102013103252B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013103252.4A DE102013103252B4 (en) 2013-03-28 2013-03-28 Increase measurement accuracy when measuring with light section sensors by simultaneously calibrating and reducing speckles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013103252.4A DE102013103252B4 (en) 2013-03-28 2013-03-28 Increase measurement accuracy when measuring with light section sensors by simultaneously calibrating and reducing speckles

Publications (2)

Publication Number Publication Date
DE102013103252A1 DE102013103252A1 (en) 2014-10-16
DE102013103252B4 true DE102013103252B4 (en) 2016-03-10

Family

ID=51618186

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013103252.4A Expired - Fee Related DE102013103252B4 (en) 2013-03-28 2013-03-28 Increase measurement accuracy when measuring with light section sensors by simultaneously calibrating and reducing speckles

Country Status (1)

Country Link
DE (1) DE102013103252B4 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT516998A1 (en) * 2015-03-24 2016-10-15 Nextsense Mess- Und Prüfsysteme Gmbh Method and device for measuring a long profile
EP3184958B1 (en) * 2015-12-23 2020-03-18 Liebherr-Verzahntechnik GmbH Apparatus for emptying a conveyor with an apparatus for workpiece identification and/or workpiece position detection of a plurality of arbitrary disposed workpieces within the conveyor and gripping apparatus for emptying the conveyor
DE102017109854A1 (en) * 2017-05-08 2018-11-08 Wobben Properties Gmbh Method for referencing a plurality of sensor units and associated measuring device

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992008103A1 (en) * 1990-10-24 1992-05-14 Böhler Gesellschaft M.B.H. Process and device for the opto-electronic measurement of objects
DE69003090T2 (en) * 1989-02-06 1994-02-10 Kreon Ind Lannemezan Sa CALIBRATION METHOD OF A THREE-DIMENSIONAL MOLD DETECTION SYSTEM AND SYSTEM FOR IMPLEMENTING THIS METHOD.
US6078846A (en) * 1996-02-06 2000-06-20 Perceptron, Inc. Calibration and compensation of robot-based gauging system
DE10017463A1 (en) * 2000-04-07 2001-10-18 Metronom Indvermessung Gmbh Object measuring method, has sensor used for simultaneous detection of part of measured object and reference marking defined within object coordinate system
US20040202364A1 (en) * 2001-08-03 2004-10-14 Hitoshi Otani Calibration object
DE10328523A1 (en) * 2003-06-24 2005-01-27 Schreck-Mieves Gmbh Method and measuring device for non-contact measurement of a contour of a surface and method for the automatic equalization of coordinates of pixels
DE10335472A1 (en) * 2003-08-02 2005-02-17 E. Zoller GmbH & Co. KG Einstell- und Messgeräte Measurement and adjustment device has a positioning device for moving an exchangeable measurement head with a camera in three dimensions, said positioning device having a pivoting articulated arm
WO2005106384A1 (en) * 2004-05-04 2005-11-10 Daimlerchrysler Ag Method and auxiliary device for calibrating a robot-guided optical measurement system
DE102006031142A1 (en) * 2006-07-05 2008-01-10 Prüf- und Forschungsinstitut Pirmasens e.V. Surface coordinates three dimensional measurement and spatial detection method for e.g. foot ball, involves rotating object so that surface spherical segment is found by sensors, where detection is continued till full surfaces are detected
DE102006059415A1 (en) * 2006-12-15 2008-06-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Thickness measurement device determines material thickness between first and second main surface using first and second measured distances and first material thickness measured from x-ray attenuation
US7679757B1 (en) * 2002-10-31 2010-03-16 BYTEWISE Measurement Systems LLC. Non-contact profile measurement system
DE102011000304A1 (en) * 2011-01-25 2012-07-26 Data M Sheet Metal Solutions Gmbh Calibration of laser light section sensors with simultaneous measurement

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69003090T2 (en) * 1989-02-06 1994-02-10 Kreon Ind Lannemezan Sa CALIBRATION METHOD OF A THREE-DIMENSIONAL MOLD DETECTION SYSTEM AND SYSTEM FOR IMPLEMENTING THIS METHOD.
WO1992008103A1 (en) * 1990-10-24 1992-05-14 Böhler Gesellschaft M.B.H. Process and device for the opto-electronic measurement of objects
US6078846A (en) * 1996-02-06 2000-06-20 Perceptron, Inc. Calibration and compensation of robot-based gauging system
DE10017463A1 (en) * 2000-04-07 2001-10-18 Metronom Indvermessung Gmbh Object measuring method, has sensor used for simultaneous detection of part of measured object and reference marking defined within object coordinate system
US20040202364A1 (en) * 2001-08-03 2004-10-14 Hitoshi Otani Calibration object
US7679757B1 (en) * 2002-10-31 2010-03-16 BYTEWISE Measurement Systems LLC. Non-contact profile measurement system
DE10328523A1 (en) * 2003-06-24 2005-01-27 Schreck-Mieves Gmbh Method and measuring device for non-contact measurement of a contour of a surface and method for the automatic equalization of coordinates of pixels
DE10335472A1 (en) * 2003-08-02 2005-02-17 E. Zoller GmbH & Co. KG Einstell- und Messgeräte Measurement and adjustment device has a positioning device for moving an exchangeable measurement head with a camera in three dimensions, said positioning device having a pivoting articulated arm
WO2005106384A1 (en) * 2004-05-04 2005-11-10 Daimlerchrysler Ag Method and auxiliary device for calibrating a robot-guided optical measurement system
DE102006031142A1 (en) * 2006-07-05 2008-01-10 Prüf- und Forschungsinstitut Pirmasens e.V. Surface coordinates three dimensional measurement and spatial detection method for e.g. foot ball, involves rotating object so that surface spherical segment is found by sensors, where detection is continued till full surfaces are detected
DE102006059415A1 (en) * 2006-12-15 2008-06-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Thickness measurement device determines material thickness between first and second main surface using first and second measured distances and first material thickness measured from x-ray attenuation
DE102011000304A1 (en) * 2011-01-25 2012-07-26 Data M Sheet Metal Solutions Gmbh Calibration of laser light section sensors with simultaneous measurement

Also Published As

Publication number Publication date
DE102013103252A1 (en) 2014-10-16

Similar Documents

Publication Publication Date Title
AT506110B1 (en) DEVICE AND METHOD FOR DETECTING BODY MEASURE DATA AND CONTOUR DATA
DE102011000304B4 (en) Calibration of laser light section sensors with simultaneous measurement
EP1984770B1 (en) Method and arrangement for a rapid and robust chromatic confocal 3d measurement technique
DE102006007172B4 (en) Method and arrangement for rapid, spatially resolved, areal, spectroscopic analysis, or for spectral imaging or for 3D detection by means of spectroscopy
EP2574876B1 (en) Method and device for determining the 3D coordinates of an object
EP3622247B1 (en) Method for referencing a plurality of sensor units and associated measuring device
DE112014001268T5 (en) Compensation of a scanner with structured light, which is tracked in six degrees of freedom
WO1991008439A1 (en) Process and arrangement for optoelectronic measurement of objects
WO2014000738A2 (en) Method for capturing images of a preferably structured surface of an object and device for image capture
DE102011012611B4 (en) Method and device for non-contact measurement of an angle
EP3418680B1 (en) System and method for position measurement
DE202018104053U1 (en) Measuring device for the interferometric measurement of a test object
DE102013103252B4 (en) Increase measurement accuracy when measuring with light section sensors by simultaneously calibrating and reducing speckles
DE102012102580A1 (en) Method for measuring an object and intraoral scanner
DE102013103251B4 (en) Increase the accuracy of a measurement with light-section sensors by simultaneously calibrating and avoiding speckles
CH702255A1 (en) Three dimensional table scanner for three dimensional detection of objects, has cameras and light sources are arranged relative to object by holding devices, and processing device is operatively connected with cameras
DE102006013318A1 (en) Static scene reconstruction method for testing work pieces, involves reconstructing scene of a two-dimensional image data by method of shape from motion when scene exhibits region with intensity gradients
WO2018054888A1 (en) Method and device for the stereo photogrammetric measurement of different objects
DE102011101509C5 (en) Method for the optical measurement of a wave
DE102006013316A1 (en) Three-dimensional reconstruction of static scenes through standardized combination of DFD (depth from defocus) and SFM (shape from motion) methods, involves using DFD and SFD methods in processing two-dimensional image of static scene
DE102013103253B4 (en) Laser light-section sensor with improved accuracy due to reduction of speckles
DE102013210736A1 (en) Device for determining the position of mechanical elements
DE102014119436B4 (en) Coordinate measuring machine and method for determining geometric properties of a measurement object using a light field camera
EP3296688A1 (en) Method and device for stereo photogrammetric measurement of different objects
DE102014117498B4 (en) Optical measuring device and method for optical measurement

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee