DE102021121080A1 - Measuring device and method for measuring an object - Google Patents

Measuring device and method for measuring an object Download PDF

Info

Publication number
DE102021121080A1
DE102021121080A1 DE102021121080.1A DE102021121080A DE102021121080A1 DE 102021121080 A1 DE102021121080 A1 DE 102021121080A1 DE 102021121080 A DE102021121080 A DE 102021121080A DE 102021121080 A1 DE102021121080 A1 DE 102021121080A1
Authority
DE
Germany
Prior art keywords
processing device
cameras
image data
characteristic value
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021121080.1A
Other languages
German (de)
Inventor
Wolfgang Kaumanns
Janne JUSLIN
Lucas Siegel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inline3d GmbH
Original Assignee
Inline3d GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inline3d GmbH filed Critical Inline3d GmbH
Priority to DE102021121080.1A priority Critical patent/DE102021121080A1/en
Publication of DE102021121080A1 publication Critical patent/DE102021121080A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft eine Messvorrichtung (10) und ein Verfahren zur Messung eines Objekts, wobei mit einer Mehrzahl von relativ zu einem zu messenden Objekt (15) in unterschiedlichen Positionen angeordneten Kameras (11, 12, 13) der Messvorrichtung Bilder des Objekts erfasst werden, wobei Bilddaten der Bilder mittels einer Verarbeitungseinrichtung (14) der Messvorrichtung gespeichert und verarbeitet werden, wobei die Verarbeitungseinrichtung aus den Bilddaten ein dreidimensionales Modell des Objekts berechnet, welches durch Objektpunkte in einem Koordinatensystem repräsentiert ist, wobei eine Mehrzahl gleichartiger Objekte in einer Abfolge gemessen wird, wobei die Verarbeitungseinrichtung die Objektpunkte oder die Objektpunkte repräsentierende Bilddaten den jeweiligen Kameras zuordnet und einen eine Messqualität dieser Objektpunkte beschreibenden Kennwert für die jeweiligen Kameras bestimmt, wobei die Verarbeitungseinrichtung bei einer weiteren Berechnung eines dreidimensionalen Modells des Objekts dabei die mit den Kameras jeweils erfassten Bilddaten in Abhängigkeit des Kennwertes berücksichtigt.The invention relates to a measuring device (10) and a method for measuring an object, with a plurality of cameras (11, 12, 13) of the measuring device arranged in different positions relative to an object (15) to be measured being used to capture images of the object, wherein image data of the images are stored and processed by means of a processing device (14) of the measuring device, wherein the processing device calculates a three-dimensional model of the object from the image data, which is represented by object points in a coordinate system, with a plurality of objects of the same type being measured in a sequence, wherein the processing device assigns the object points or image data representing the object points to the respective cameras and determines a characteristic value describing a measurement quality of these object points for the respective cameras, the processing device during a further calculation of a three-dimensional mode lls of the object takes into account the image data recorded with the cameras as a function of the characteristic value.

Description

Die Erfindung betrifft eine Messvorrichtung und ein Verfahren zur Messung eines Objekts, wobei mit einer Mehrzahl von relativ zu einem zu messenden Objekt in unterschiedlichen Positionen angeordneten Kameras einer Messvorrichtung Bilder des Objekts erfasst werden, wobei Bilddaten der Bilder mittels einer Verarbeitungseinrichtung der Messvorrichtung gespeichert und verarbeitet werden, wobei die Verarbeitungseinrichtung aus den Bilddaten ein dreidimensionales Modell des Objekts berechnet, welches durch Objektpunkte in einem Koordinatensystem repräsentiert ist, wobei eine Mehrzahl gleichartiger Objekte in einer Abfolge gemessen wird.The invention relates to a measuring device and a method for measuring an object, images of the object being captured using a plurality of cameras of a measuring device arranged in different positions relative to an object to be measured, image data of the images being stored and processed by a processing device of the measuring device , wherein the processing device calculates a three-dimensional model of the object from the image data, which is represented by object points in a coordinate system, a plurality of objects of the same type being measured in a sequence.

Derartige Vorrichtungen und Verfahren sind aus dem Stand der Technik hinreichend bekannt und werden zur berührungslosen Messung von Produkten bzw. Bauteilen eingesetzt. Insbesondere bei der industriellen Herstellung von Bauteilen in größeren Stückzahlen wird eine maßliche Überprüfung dieser Bauteile durchgeführt, um ein angestrebtes Qualitätsniveau einhalten zu können. Zur Vereinfachung einer derartigen Prüfung kommen vielfach Lehren als eine Maßverkörperung des Bauteils zum Einsatz. Handelt es sich um größere, komplexere Bauteile, wie beispielsweise Karosseriebauteile im Fahrzeugbau, können ebenfalls Lehren zur Prüfung dieser Bauteile eingesetzt werden.Devices and methods of this type are sufficiently known from the prior art and are used for non-contact measurement of products or components. Especially in the industrial production of components in larger quantities, a dimensional check of these components is carried out in order to be able to maintain a desired level of quality. To simplify such a test, gauges are often used as a material measure of the component. If the components are larger, more complex, such as bodywork components in vehicle construction, gauges can also be used to test these components.

Eine Prüfung eines derartigen Bauteils kann vielfach auch durch eine Bildmessung des Bauteils in einen Fertigungsprozess integriert und so vereinfacht werden. Bei der Bildmessung wird das Bauteil bzw. das zu messende Objekt von zumindest zwei Kameras aus unterschiedlichen Positionen aufgenommen. Die mit den Kameras aufgenommenen Bilddaten werden mittels einer Verarbeitungseinrichtung bzw. eines Computers verarbeitet, wobei mittels Triangulation ein dreidimensionales Modell des Bauteils berechnet wird. Dabei können Objektpunkte, wie beispielsweise ein Mittelpunkt einer Bohrung in dem Bauteil, mittels Bildverarbeitung identifiziert und eine Lage der jeweiligen Obj ektpunkte in einem Koordinatensystem bestimmt und durch eine Matrix beschrieben werden.A test of such a component can often also be integrated into a production process by an image measurement of the component and can thus be simplified. During image measurement, the component or the object to be measured is recorded by at least two cameras from different positions. The image data recorded with the cameras are processed using a processing device or a computer, with a three-dimensional model of the component being calculated using triangulation. Object points, such as a center point of a hole in the component, can be identified by image processing and a position of the respective object points can be determined in a coordinate system and described by a matrix.

Ob die jeweils vermessenen Bauteile bzw. Positionen der Objektpunkte den Qualitätsanforderungen entsprechen, ergibt sich aus einem Vergleich der gemessenen Ist-Positionen mit Soll-Positionen, die auch durch ein Toleranzfeld repräsentiert sein können. Die Soll-Positionen werden von einem Referenzbauteil bzw. Referenzobjekt ermittelt, welches zur Kalibrierung der Messvorrichtung mit dieser vermessen wurde. Das Referenzobjekt kann dabei im Wesentlichen mit den zu messenden Objekten identisch sein, wobei die Objektpunkte des Referenzobj ekts dann als Referenzobjektpunkte für alle nachfolgenden Messungen von Objekten bzw. Bauteilen herangezogen werden. Um besonders genauere Referenzpositionen von Referenzobjektpunkten zu erhalten ist es bekannt Referenzobjekte regelmäßig mittels einer Koordinatenmessmaschine zu vermessen. Maßliche Abweichungen des Referenzobjekts können dann bei einer Kalibrierung der Messvorrichtung berücksichtigt werden. Bei einer Messung des Referenzobjekts kann eine entsprechende Korrektur der Referenzpositionen erfolgen. Eine derartige Messvorrichtung ist beispielsweise aus der WO 2018/185363 A1 bekannt. Eine hohe Messgenauigkeit kann auch dadurch erzielt werden, dass eine größere Anzahl an Kameras verwendet wird, die das Bauteil aus unterschiedlichen Positionen aufnehmen. Auch wird es dadurch möglich eine Vielzahl von Objektpunkten, die sich beispielsweise an gegenüberliegenden Seiten des Bauteils befinden, zu erfassen. Die Verwendung einer größeren Anzahl an Kameras zur Erzielung einer höheren Messgenauigkeit ist jedoch kostenaufwendig und durch eine Rechenleistung der Verarbeitungseinrichtung begrenzt.A comparison of the measured actual positions with target positions, which can also be represented by a tolerance field, reveals whether the measured components or positions of the object points correspond to the quality requirements. The target positions are determined by a reference component or reference object, which was measured with the measuring device in order to calibrate it. The reference object can be essentially identical to the objects to be measured, with the object points of the reference object then being used as reference object points for all subsequent measurements of objects or components. In order to obtain particularly accurate reference positions of reference object points, it is known to regularly measure reference objects using a coordinate measuring machine. Dimensional deviations of the reference object can then be taken into account when calibrating the measuring device. A corresponding correction of the reference positions can take place when the reference object is measured. Such a measuring device is, for example, from WO 2018/185363 A1 known. High measurement accuracy can also be achieved by using a larger number of cameras that record the component from different positions. This also makes it possible to detect a large number of object points that are located, for example, on opposite sides of the component. However, the use of a larger number of cameras to achieve greater measurement accuracy is expensive and limited by the computing power of the processing device.

Der Erfindung liegt daher die Aufgabe zugrunde ein Verfahren und eine Messvorrichtung zur Messung eines Objekts vorzuschlagen, das eine vereinfachte Messung großformatiger und komplexer Bauteile mit hoher Genauigkeit ermöglicht.The invention is therefore based on the object of proposing a method and a measuring device for measuring an object, which enables simplified measurement of large-format and complex components with high accuracy.

Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 und eine Messvorrichtung mit den Merkmalen des Anspruchs 18 gelöst.This object is achieved by a method having the features of claim 1 and a measuring device having the features of claim 18 .

Bei dem erfindungsgemäßen Verfahren zur Messung eines Objekts werden mit einer Mehrzahl von relativ zu einem zu messenden Objekt in unterschiedlichen Positionen angeordneten Kameras einer Messvorrichtung Bilder des Objekts erfasst, wobei Bilddaten der Bilder mittels einer Verarbeitungseinrichtung der Messvorrichtung gespeichert und verarbeitet werden, wobei die Verarbeitungseinrichtung aus den Bilddaten ein dreidimensionales Modell des Objekts berechnet, welches durch Objektpunkte in einem Koordinatensystem repräsentiert ist, wobei eine Mehrzahl gleichartiger Objekte in einer Abfolge gemessen wird, wobei die Verarbeitungseinrichtung die Objektpunkte oder die Objektpunkte repräsentierende Bilddaten den jeweiligen Kameras zuordnet und einen eine Messqualität dieser Objektpunkte beschreibenden Kennwert für die jeweiligen Kameras bestimmt, wobei die Verarbeitungseinrichtung bei einer weiteren Berechnung eines dreidimensionalen Modells des Objekts dabei die mit den Kameras jeweils erfassten Bilddaten in Abhängigkeit des Kennwertes berücksichtigt.In the method according to the invention for measuring an object, images of the object are captured with a plurality of cameras of a measuring device arranged in different positions relative to an object to be measured, image data of the images being stored and processed by means of a processing device of the measuring device, the processing device consisting of the Image data calculates a three-dimensional model of the object, which is represented by object points in a coordinate system, with a plurality of objects of the same type being measured in a sequence, with the processing device assigning the object points or the image data representing the object points to the respective cameras and assigning a characteristic value describing a measurement quality of these object points determined for the respective cameras, wherein the processing device in a further calculation of a three-dimensional model of the object in this case the respectively recorded with the cameras Image data taken into account depending on the characteristic value.

Bei dem erfindungsgemäßen Verfahren werden eine Mehrzahl von Kameras, vorzugsweise zumindest drei oder mehr Kameras, welche in unterschiedlichen Positionen relativ zu dem messenden Objekt bzw. Bauteil angeordnet sind, verwendet. Mittels der Kameras werden nun von den unterschiedlichen Positionen Bilder des Objekts, welches vorzugsweise während der Bildaufnahme unbewegt ist, erfasst. Die so gewonnenen Bilddaten werden in der Verarbeitungseinrichtung gespeichert und weiterverarbeitet. Die Verarbeitungseinrichtung ist eine Einrichtung zur Datenverarbeitung mit zumindest einem Speicher und einem Prozessor, beispielsweise ein Computer, der zur Bildverarbeitung geeignet ist. Aus den Bilddaten errechnet die Verarbeitungseinrichtung mittels Triangulation ein dreidimensionales Modell des Objekts bzw. Bauteils. Das Modell wird dabei von Objektpunkten repräsentiert, deren jeweilige Lage bzw. Position in einem dreidimensionalen Koordinatensystem festgelegt ist. Die Lage der Objektpunkte in dem dreidimensionalen Koordinatensystem kann beispielsweise durch eine Matrix definiert werden.In the method according to the invention, a plurality of cameras, preferably at least three or more cameras, which are arranged in different positions relative to the object or component to be measured, are used. Images of the object, which is preferably motionless during the image recording, are now captured from the different positions by means of the cameras. The image data obtained in this way are stored and further processed in the processing device. The processing device is a device for data processing with at least one memory and one processor, for example a computer that is suitable for image processing. The processing device uses triangulation to calculate a three-dimensional model of the object or component from the image data. The model is represented by object points whose respective location or position is defined in a three-dimensional coordinate system. The position of the object points in the three-dimensional coordinate system can be defined by a matrix, for example.

Weiter berechnet die Verarbeitungseinrichtung Positionen der Objektpunkte des Objekts bzw. Bauteils relativ zueinander und stellt einen Bezug zu einem Maßstab her bzw. weist dem Modell des gemessenen Objekts einen Maßstab zu. Die Positionen der Objektpunkte können nun mit einer absoluten Maßangabe und/oder mit einem Relativbezug zu einem Toleranzfeld ausgegeben werden. Bei der Herstellung von Bauteilen in größeren Stückzahlen werden gleichartige Bauteile bzw. Objekte in einer Abfolge gemessen. Dabei können alle Bauteile bzw. Objekte einer Serie oder auch nur ausgewählte Objekte gemessen werden.Furthermore, the processing device calculates positions of the object points of the object or component relative to one another and creates a reference to a scale or assigns a scale to the model of the measured object. The positions of the object points can now be output with an absolute dimension and/or with a relative reference to a tolerance zone. When manufacturing components in larger quantities, similar components or objects are measured in a sequence. All components or objects of a series or only selected objects can be measured.

Insbesondere kann bei dem erfindungsgemäßen Verfahren die Verarbeitungseinrichtung die Objektpunkte oder die Objektpunkte repräsentierende Bilddaten den jeweiligen Kameras zuordnen und einen eine Messqualität dieser Objektpunkte beschreibenden Kennwert für die jeweiligen Kameras bestimmen. Der Kennwert gibt dabei an, wie hoch eine Qualität der von den jeweiligen Kameras gelieferten Bilddaten in Bezug auf eine mit den Bilddaten erzielbare Messgenauigkeit ist. Beispielsweise könnte eine Kamera, aufgrund einer ungünstigen Positionierung oder anderer Einflüsse Bilddaten liefern, die das dreidimensionale Modell des Objekts in Bezug auf eine Messgenauigkeit eher verschlechtern als verbessern. So wird es mit dem Verfahren möglich über den eine Messqualität beschreibenden Kennwert die Kameras zu identifizieren, die im Verhältnis zu anderen Kameras weniger genaue Bilddaten zur Berechnung des dreidimensionalen Modells des Objekts liefern. Der Kennwert kann dabei durch einen Datenvergleich, beispielsweise von Bilddaten einer Kamera in Bezug auf ein Objekt oder eine Mehrzahl von Objekten von der Verarbeitungseinrichtung ermittelt werden. Wenn anhand eines Objekts oder mehrerer Objekte den Kameras jeweils ein Kennwert zugewiesen wurde, kann die Verarbeitungseinrichtung bei einer weiteren Berechnung eines dreidimensionalen Modells des Objekts die mit den Kameras jeweils erfassten Bilddaten in Abhängigkeit des Kennwertes berücksichtigen. Diese Berücksichtigung kann beispielsweise in Form einer Gewichtung der Kameras bei der Berechnung des dreidimensionalen Modells des Objekts erfolgen. Bei dieser Gewichtung können die Kameras nach einem prozentualen Anteil oder einem Faktor in die Berechnung des dreidimensionalen Modells entsprechend ihres Kennwertes mit einbezogen werden. Auch kann es vorgesehen sein, dass eine Kamera bei einer Berechnung unberücksichtigt bleibt bzw. deren Bilddaten nicht mit in die Berechnung einbezogen werden. Insgesamt wird es so möglich, ohne eine Verwendung weiterer Kameras und ohne dass es einen erhöhten Messaufwand bedürfe, eine Messgenauigkeit der Messvorrichtung wesentlich zu verbessern.In particular, in the method according to the invention, the processing device can assign the object points or image data representing the object points to the respective cameras and determine a characteristic value describing a measurement quality of these object points for the respective cameras. The characteristic value indicates how high the quality of the image data supplied by the respective cameras is in relation to a measurement accuracy that can be achieved with the image data. For example, due to an unfavorable positioning or other influences, a camera could deliver image data that worsen rather than improve the three-dimensional model of the object in terms of measurement accuracy. It is thus possible with the method, via the characteristic value describing a measurement quality, to identify the cameras which, in comparison to other cameras, supply less accurate image data for calculating the three-dimensional model of the object. The characteristic value can be determined by the processing device by comparing data, for example image data from a camera in relation to an object or a plurality of objects. If the cameras have been assigned a characteristic value based on one or more objects, the processing device can take into account the image data recorded with the cameras in each case in a further calculation of a three-dimensional model of the object depending on the characteristic value. This consideration can take place, for example, in the form of a weighting of the cameras when calculating the three-dimensional model of the object. With this weighting, the cameras can be included in the calculation of the three-dimensional model according to a percentage or a factor according to their characteristic value. Provision can also be made for a camera not to be taken into account in a calculation or for its image data not to be included in the calculation. Overall, this makes it possible to significantly improve the measuring accuracy of the measuring device without using additional cameras and without requiring increased measuring effort.

Die Verarbeitungseinrichtung kann die jeweiligen Kameras nach deren Kennwert vergleichen, und bei der weiteren Berechnung des dreidimensionalen Modells des Objekts die dabei mit den Kameras jeweils erfassten Bilddaten in Abhängigkeit des Vergleichs berücksichtigen. Bei dem Vergleich der Kennwerte kann die Verarbeitungseinrichtung eine Priorisierung der Kameras durchführen, bei der beispielsweise eine Reihenfolge der Kameras nach deren Messqualität bestimmt wird. Die von den Kameras jeweils erfassten Bilddaten können dann von der Verarbeitungseinrichtung entsprechend der Priorisierung bei der weiteren Berechnung eines dreidimensionalen Modells des Objekts mehr oder weniger berücksichtigt werden.The processing device can compare the respective cameras according to their characteristic value and, in the further calculation of the three-dimensional model of the object, take into account the image data recorded with the cameras in each case as a function of the comparison. When comparing the characteristic values, the processing device can prioritize the cameras, in which, for example, a sequence of the cameras is determined according to their measurement quality. The image data recorded by the cameras can then be taken into account to a greater or lesser extent by the processing device in accordance with the prioritization in the further calculation of a three-dimensional model of the object.

Die Verarbeitungseinrichtung kann den Kennwert als einen Grad einer Übereinstimmung von vergleichbaren Objektpunkten bestimmen. So kann die Verarbeitungseinrichtung einen oder sämtliche zu messende Objektpunkte eines Objekts mit vergleichbaren Objektpunkten, beispielsweise Referenzobjektpunkten oder gleichen Objektpunkten eines anderen vergleichbaren Objekts, vergleichen. Je nach Differenz von Objektpunkt und vergleichbaren Objektpunkt kann der Grad der Übereinstimmung bestimmt und durch den Kennwert, welcher dimensionslos sein kann, angegeben werden.The processing device can determine the characteristic value as a degree of agreement of comparable object points. The processing device can thus compare one or all of the object points of an object to be measured with comparable object points, for example reference object points or the same object points of another comparable object. Depending on the difference between the object point and a comparable object point, the degree of agreement can be determined and indicated by the characteristic value, which can be dimensionless.

Die Verarbeitungseinrichtung kann ein dreidimensionales Modell eines gleichartigen Objekts berechnen. Demnach kann vorgesehen sein, dass die nach der Bestimmung der Kennwerte durch die Verarbeitungseinrichtung ein dreidimensionales Modell eines gleichartigen Objekts, beispielsweise eines gleichartigen Objekts innerhalb einer Abfolge von Objekten, berechnet wird. Bei dieser Berechnung kann dann bereits der Kennwert bzw. die von dem gleichartigen Objekt erfassten Bilddaten in Abhängigkeit des Kennwertes von der Verarbeitungseinrichtung berücksichtigt werden. Die Kennwerte bzw. die von der Verarbeitungseinrichtung anhand der Kennwerte vorgenommene Gewichtung der Kameras bei der Berechnung des dreidimensionalen Modells kann auf alle Messungen der in der Abfolge gemessenen gleichartigen Objekte angewendet werden.The processing device can calculate a three-dimensional model of a similar object. Accordingly, it can be provided that, after the characteristic values have been determined by the processing device, a three-dimensional model of a similar object, for example a similar object within a sequence of objects, is calculated. In this calculation, the characteristic value or the image data recorded from the object of the same type can then already be taken into account by the processing device as a function of the characteristic value. The characteristic values or the weighting of the cameras carried out by the processing device on the basis of the characteristic values when calculating the three-dimensional model can be applied to all measurements of the objects of the same type measured in the sequence.

Vorteilhaft kann die Verarbeitungseinrichtung den Kennwert als einen Grad einer Übereinstimmung von dem dreidimensionalen Modell des Objekts und dreidimensionalen Modellen von einer Vielzahl von gleichartigen Objekten bestimmen und die dabei mit den Kameras erfassten Bilddaten der gleichartigen Objekte speichern und zur Bestimmung des Kennwertes verwenden. So kann vorgesehen sein, dass mittels der Kameras zunächst eine Mehrzahl gleichartiger Objekte in einer Abfolge erfasst und deren jeweils dreidimensionale Modelle bzw. Bilddaten von der Verarbeitungseinrichtung berechnet bzw. verwendet werden. Die mit den Kameras erfassten Bilddaten bzw. jeweils berechneten dreidimensionalen Modelle der gleichartigen Objekte können nun von der Verarbeitungseinrichtung gespeichert und zur Bestimmung des Kennwertes weiterverarbeitet werden. Dabei kann die Verarbeitungseinrichtung einen Grad einer Übereinstimmung, beispielsweise gleicher Objektpunkte, bestimmten, und nach dem Grad der Übereinstimmung den Kennwert ermitteln. So ist es beispielsweise möglich, dass erste vergleichbare Objektpunkte im Durchschnitt eine größere Abweichung voneinander aufweisen, als zweite vergleichbare Objektpunkte.The processing device can advantageously determine the characteristic value as a degree of correspondence between the three-dimensional model of the object and three-dimensional models of a large number of similar objects and store the image data of the similar objects recorded with the cameras and use them to determine the characteristic value. Thus, it can be provided that a plurality of objects of the same type are first recorded in a sequence by means of the cameras and their respective three-dimensional models or image data are calculated or used by the processing device. The image data recorded with the cameras or respectively calculated three-dimensional models of the similar objects can now be stored by the processing device and further processed to determine the characteristic value. The processing device can determine a degree of agreement, for example identical object points, and determine the characteristic value based on the degree of agreement. It is thus possible, for example, for first comparable object points to have a greater deviation from one another on average than second comparable object points.

Auch können die Bilder des Objekts mit den Kameras unter unterschiedlichen Beleuchtungsbedingungen erfasst werden, wobei die Verarbeitungseinrichtung den Kennwert als einen Grad einer Übereinstimmung von den dreidimensionalen Modellen bzw. Bilddaten des selben Objekts bestimmen kann und die dabei mit den Kameras erfassten Bilddaten des Objekts speichern und zur Bestimmung des Kennwertes verwenden kann. Beispielsweise kann vorgesehen sein, dass mit den Kameras ein und das selbe Objekt unter den unterschiedlichen Beleuchtungsbedingungen erfasst wird, um unterschiedliche Bilddaten dieses Objekts zu erhalten. Die unterschiedlichen Bilddaten können dazu benutzt werden, festzustellen, welche der Kameras eine vergleichsweise größere Varianz bei der Bestimmung der Objektpunkte hat. Die unterschiedlichen Beleuchtungsbedingungen können durch eine Variation von Leuchten, die zur Beleuchtung des Objekts dienen, ausgebildet werden. Weiter kann auch vorgesehen sein, dass gleichartige Objekte unter den unterschiedlichen Beleuchtungsbedingungen erfasst werden.The images of the object can also be captured with the cameras under different lighting conditions, with the processing device being able to determine the characteristic value as a degree of agreement from the three-dimensional models or image data of the same object and storing and using the image data of the object captured by the cameras Determination of the characteristic value can use. For example, the cameras can be used to capture one and the same object under different lighting conditions in order to obtain different image data of this object. The different image data can be used to determine which of the cameras has a comparatively greater variance when determining the object points. The different lighting conditions can be formed by varying the lamps used to illuminate the object. Furthermore, it can also be provided that objects of the same type are detected under the different lighting conditions.

Weiter kann die Verarbeitungseinrichtung den Kennwert als ein Grad einer Übereinstimmung von dem dreidimensionalen Modell des Objekts und einem in der Verarbeitungseinrichtung gespeicherten dreidimensionalen Modell eines Referenzobjekts bestimmen. Der Grad der Übereinstimmung kann durch einen Vergleich von zweidimensionalen Bilddaten des dreidimensionalen Modells des Objekts und Referenzdaten des Referenzobjekts bestimmt werden. Das Referenzobjekt ist dabei ein mit dem zu messenden Objekt vergleichbares Objekt. Vorteilhaft dabei ist, dass das Referenzobjekt nicht zwangsläufig physisch vorhanden sein muss.Furthermore, the processing device can determine the characteristic value as a degree of correspondence between the three-dimensional model of the object and a three-dimensional model of a reference object stored in the processing device. The degree of correspondence can be determined by comparing two-dimensional image data of the three-dimensional model of the object and reference data of the reference object. The reference object is an object comparable to the object to be measured. The advantage here is that the reference object does not necessarily have to be physically present.

Die Referenzdaten des Referenzobjekts können aus einem in der Verarbeitungseinrichtung gespeicherten dreidimensionalen Vektormodell des zu messenden Objekts gewonnen werden. So können beispielsweise CAD-Daten des Referenzobjekts in die Verarbeitungseinrichtung importiert und zur Bestimmung des Kennwertes benutzt werden. Das Referenzobjekt wird dann durch CAD-Daten repräsentiert. Dieses Vektormodell kann in der Verarbeitungseinrichtung einfach gespeichert und so von der Verarbeitungseinrichtung zur Berechnung von Referenzobjektpunkten verwendet werden. Eine Verwendung eines physischen Referenzobjekts ist dann nicht mehr zwingend erforderlich.The reference data of the reference object can be obtained from a three-dimensional vector model, stored in the processing device, of the object to be measured. For example, CAD data of the reference object can be imported into the processing device and used to determine the characteristic value. The reference object is then represented by CAD data. This vector model can easily be stored in the processing device and can thus be used by the processing device to calculate reference object points. It is then no longer absolutely necessary to use a physical reference object.

Die Verarbeitungseinrichtung kann die Referenzdaten des Referenzobjekts aus durch Bildsynthese des Vektormodells erzeugten Bilddaten des Referenzobjekts gewinnen. Wenn ein Vektormodell bzw. CAD-Daten des zu messenden Objekts bzw. des Referenzobjekts in der Verarbeitungseinrichtung gespeichert sind, kann mittels der Verarbeitungseinrichtung ein Rendering des Vektormodells durchgeführt werden, sodass Bilddaten des Referenzobjekts von der Verarbeitungseinrichtung erzeugt werden. Bei dem Rendering können unterschiedliche Beleuchtungsszenarien des Referenzobjekts simuliert werden. Weiter kann vorgesehen sein, dass Objektpunkte und Referenzobjektpunkte auf Basis der Bilddaten bzw. der erzeugten Bilddaten mittels Bildverarbeitung durch die Verarbeitungseinrichtung ermittelt werden. Da die Erkennung der Objektpunkte bei dem zu messenden Objekt mit dem Referenzobjekt mit dem gleichen Verfahren durchgeführt wird, können eventuell sonst bei unterschiedlichen Verfahren auftretende Fehler ausgeschlossen werden.The processing device can obtain the reference data of the reference object from image data of the reference object generated by image synthesis of the vector model. If a vector model or CAD data of the object to be measured or the reference object is stored in the processing device, the processing device can be used to render the vector model so that image data of the reference object are generated by the processing device. Different lighting scenarios of the reference object can be simulated in the rendering. Furthermore, it can be provided that object points and reference object points are determined on the basis of the image data or the generated image data by means of image processing by the processing device. Since the detection of the object points in the object to be measured is carried out with the reference object using the same method, errors that may otherwise occur with different methods can be ruled out.

Der Kennwert kann eine relative statistische Abweichung von Positionen gleicher Objektpunkte repräsentieren. Insbesondere wenn mehrere gleichartige Objekte gemessen bzw. deren Objekte bestimmt werden, wird es möglich diese Objektpunkte zu vergleichen und die relative statistische Abweichung vergleichbarer Objektpunkte zu berechnen. Der Kennwert kann beispielsweise eine Korrelation einer räumlichen Verteilung der Objektpunkte oder ein Streuungsmaß, insbesondere ein arithmetisches Mittel, ein Median, eine Spannweite oder eine geometrische Standardabweichung sein.The characteristic value can represent a relative statistical deviation from positions of the same object points. In particular, if several objects of the same type are measured or their objects are determined, it becomes possible to to compare points and to calculate the relative statistical deviation of comparable object points. The characteristic value can be, for example, a correlation of a spatial distribution of the object points or a scatter measure, in particular an arithmetic mean, a median, a range or a geometric standard deviation.

Die Verarbeitungseinrichtung kann das dreidimensionale Modell des Objekts und/oder dreidimensionale Referenzdaten eines Referenzobjekts in zweidimensionale Bilddaten für die jeweiligen Positionen der Kameras umwandeln. Die Verarbeitungseinrichtung kann dann weiter die derart gewonnenen zweidimensionalen Bilddaten für die jeweilige Position der Kamera mit den tatsächlich aufgenommenen Bilddaten der Kamera überlagern. Der Kennwert kann dann durch einen Vergleich der Bilddaten bestimmt werden. Weiter kann alternativ auch ein Referenzobjekt, welches im Wesentlichen mit dem zu messenden Objekt übereinstimmt, verwendet werden. Die Verarbeitungseinrichtung kann dann die Referenzdaten für die jeweilige Kameraposition mit den gemessenen Positionen der Objektpunkte des Objekts überlagern und auch so den Kennwert bestimmen. Bei dem Vergleich der Referenzdaten bzw. Bilddaten für die jeweilige Kameraposition kann dann anhand des Kennwertes eine Qualität der jeweiligen Kameraaufnahmen bestimmt werden. Durch diese Rückprojektion des dreidimensionalen Modells des Objekts auf die jeweiligen Kameras ergeben sich mehr oder weniger große Unterschiede bei dem Vergleich. Sofern ein Rendering eines Vektormodells eines Referenzobjekts durchgeführt wurde, kann eine Überlagerung der jeweiligen Bilddaten, der Bilddaten des gemessenen Objekts und/oder der Referenzdaten des Referenzobjekts vorgenommen werden.The processing device can convert the three-dimensional model of the object and/or three-dimensional reference data of a reference object into two-dimensional image data for the respective positions of the cameras. The processing device can then further overlay the two-dimensional image data obtained in this way for the respective position of the camera with the image data actually recorded by the camera. The characteristic value can then be determined by comparing the image data. Alternatively, a reference object that essentially matches the object to be measured can also be used. The processing device can then overlay the reference data for the respective camera position with the measured positions of the object points of the object and can also determine the characteristic value in this way. When comparing the reference data or image data for the respective camera position, a quality of the respective camera recordings can then be determined on the basis of the characteristic value. This back-projection of the three-dimensional model of the object onto the respective cameras results in more or less large differences in the comparison. If a vector model of a reference object has been rendered, the respective image data, the image data of the measured object and/or the reference data of the reference object can be superimposed.

Folglich kann die Verarbeitungseinrichtung, ausgehend von dem dreidimensionalen Modell des Objekts, jeweils vorausgesetzte Positionen der Kameras berechnen, wobei die Verarbeitungseinrichtung die Positionen der Kameras mit den vorausgesetzten Positionen vergleichen und den Kennwert als einen Grad einer Übereinstimmung bestimmen kann.Consequently, starting from the three-dimensional model of the object, the processing device can calculate respective assumed positions of the cameras, wherein the processing device can compare the positions of the cameras with the assumed positions and determine the characteristic value as a degree of agreement.

Weiter kann die Verarbeitungseinrichtung ein dreidimensionales Modell des Objekts wiederholt berechnen und die dabei mit den Kameras jeweils erfassten Bilddaten in Abhängigkeit des Vergleichs berücksichtigen. Anhand des für jede Kamera bestimmen Kennwertes kann von der Verarbeitungseinrichtung eine Priorisierung der Kameras durchgeführt werden, wobei die Kameras bei der wiederholten Berechnung des dreidimensionalen Modells des Objekts bzw. der Bilddaten dann mehr oder weniger berücksichtigt werden können. Das von der Verarbeitungseinrichtung demnach zum zweiten Mal berechnete dreidimensionale Modell des Objekts weist durch die Priorisierung bzw. einen Ausschluss von Kameras mit geringer Genauigkeit bzw. qualitativ schlechteren Bilddaten, eine höhere Genauigkeit auf.Furthermore, the processing device can repeatedly calculate a three-dimensional model of the object and take into account the image data recorded with the cameras in each case as a function of the comparison. Using the characteristic value determined for each camera, the processing device can prioritize the cameras, with the cameras then being able to be more or less taken into account in the repeated calculation of the three-dimensional model of the object or the image data. The three-dimensional model of the object calculated by the processing device for the second time has a higher accuracy due to the prioritization or exclusion of cameras with low accuracy or image data of poorer quality.

Die Verarbeitungseinrichtung kann jeweils eine äußere Orientierung und eine innere Orientierung der Kameras berechnen. Die äußere Orientierung legt eine Lage bzw. Position der Ausrichtung der Kamera fest und die innere Orientierung eine Bildebene der Kamera bzw. eine Abbildungsgeometrie in der Bildebene, die von einem Objektiv der Kamera beeinflusst ist. So kann beispielsweise vorgesehen sein, dass die Verarbeitungseinrichtung eine Verzeichnung des Objektivs der Kamera rechnerisch korrigiert. Diese Korrektur kann im Rahmen einer Kalibrierung der Kameras erfolgen.The processing device can calculate an external orientation and an internal orientation of the cameras, respectively. The outer orientation defines a location or position of the alignment of the camera, and the inner orientation defines an image plane of the camera or an imaging geometry in the image plane, which is influenced by a lens of the camera. For example, it can be provided that the processing device corrects a distortion of the lens of the camera by calculation. This correction can be carried out as part of a calibration of the cameras.

Die Verarbeitungseinrichtung kann in einem ersten Schritt relative Positionen der Objektpunkte des Objekts zueinander berechnen, wobei die Verarbeitungseinrichtung in einem zweiten Schritt aus Referenzdaten eines Referenzobjekts absolute Referenzpositionen von Referenzobjektpunkten, die eine Maßverkörperung repräsentieren können, berechnen kann, wobei die Verarbeitungseinrichtung in einem dritten Schritt die relativen Positionen der Objektpunkte des Objekts nach der Maßverkörperung transformieren kann.In a first step, the processing device can calculate relative positions of the object points of the object to one another, wherein in a second step the processing device can calculate absolute reference positions of reference object points, which can represent a material measure, from reference data of a reference object, wherein in a third step the processing device calculates the relative Positions of the object points of the object can transform according to the material measure.

In dem ersten Schritt kann nun die Verarbeitungseinrichtung Positionen der Objektpunkte des Objekts bzw. Bauteils relativ zueinander berechnen. Bei dieser Berechnung ist eine Objektgröße bzw. ein Maßstab noch nicht bestimmt bzw. es wird kein Bezug zu einem Maßstab hergestellt. In einem zweiten Schritt können von der Verarbeitungseinrichtung Referenzdaten eines Referenzobjekts verarbeitet werden, um absolute Referenzpositionen von Referenzobjektpunkten des Referenzobjekts zu berechnen. Dabei verkörpern die Referenzobjektpunkte ein absolutes Maß. Die Referenzdaten des Referenzobjekts können direkt an dem Referenzobjekt gemessen oder auch in die Verarbeitungseinrichtung eingegeben werden. Wesentlich ist, dass die Referenzobjektpunkte, die sich aus den Referenzdaten ergeben, eine Maßverkörperung repräsentieren. Das Referenzobjekt kann dabei im Wesentlichen dem zu messenden Objekt entsprechen oder es kann sich auch um ein Referenzobjekt mit einer davon abweichenden Gestalt handeln. In dem dritten Schritt können nun die relativen Positionen der Objektpunkte des Objekts von der Verarbeitungseinrichtung der Maßverkörperung transformiert werden. Dabei passt die Verarbeitungseinrichtung die relativen Positionen der Objektpunkte des Objekts an die absoluten Referenzpositionen der Referenzobjektpunkte an. Diese rechnerische Anpassung kann beispielsweise mittels Helmert-Transformation und/oder Interpolation erfolgen. Demnach wird bei dem Verfahren in dem dritten Schritt dem Modell des gemessenen Objekts ein Maßstab zugeordnet. So kann bei dem Verfahren auf eine aufwendige Vermessung eines Referenzbauteils mit einer Koordinatenmessmaschine verzichtet werden, da zur Kalibrierung prinzipiell jedes beliebige Objekt, welches einen Maßstab repräsentiert, verwendet werden kann. Auch ist keine aufwendige Korrektur einzelner zu messender Objektpunkte erforderlich. Insgesamt kann so eine Messung eines Objekts bzw. einer Vielzahl von Objekten im Rahmen eines Fertigungsprozesses einfach und mit hoher Genauigkeit durchgeführt werden.In the first step, the processing device can now calculate positions of the object points of the object or component relative to one another. In this calculation, an object size or a scale has not yet been determined or a reference to a scale is not established. In a second step, reference data of a reference object can be processed by the processing device in order to calculate absolute reference positions of reference object points of the reference object. The reference object points embody an absolute measure. The reference data of the reference object can be measured directly on the reference object or entered into the processing device. It is essential that the reference object points, which result from the reference data, represent a material measure. The reference object can essentially correspond to the object to be measured or it can also be a reference object with a different shape. In the third step, the relative positions of the object points of the object can now be transformed by the processing device of the material measure. In this case, the processing device adapts the relative positions of the object points of the object to the absolute reference positions of the reference object points. This computational adjustment can, for example, by means of a Helmert transformation and/or interpolation take place. Accordingly, in the third step of the method, a scale is assigned to the model of the measured object. In this way, with the method, a complex measurement of a reference component with a coordinate measuring machine can be dispensed with, since in principle any object that represents a scale can be used for the calibration. Also, no complex correction of individual object points to be measured is required. Overall, a measurement of an object or a multiplicity of objects can be carried out easily and with high accuracy as part of a production process.

In einer alternativen Ausführungsform des Verfahrens kann der zweite Schritt vor dem ersten Schritt ausgeführt werden. So ist es möglich, dass zunächst von der Verarbeitungseinrichtung die Referenzdaten des Referenzobjekts erfasst und in dieser gespeichert werden. Dann kann die Verarbeitungseinrichtung bereits aus den Referenzdaten die Maßverkörperung bestimmen, die ebenfalls in der Verarbeitungseinrichtung gespeichert werden kann. Nachfolgend kann dann das zu messende Objekt erstmalig erfasst werden, wobei die Verarbeitungseinrichtung die relativen Positionen der Objektpunkte des Objekts zueinander berechnen kann, die dann entsprechend transformiert werden. Prinzipiell ist daher eine Reihenfolge der Datenerfassung der Objektpunkte und der Referenzobjektpunkte beliebig.In an alternative embodiment of the method, the second step can be carried out before the first step. It is thus possible for the reference data of the reference object to first be recorded by the processing device and stored in it. The processing device can then already determine the material measure from the reference data, which can also be stored in the processing device. The object to be measured can then be detected for the first time, with the processing device being able to calculate the relative positions of the object points of the object to one another, which are then correspondingly transformed. In principle, therefore, any order of data acquisition of the object points and the reference object points is arbitrary.

Vorteilhaft kann ein Messraum der Messvorrichtung durch ein Fachwerk gebildet werden, an dem die Kameras ortsfest angeordnet werden können, wobei das Objekt in dem Messraum angeordnet werden kann. Das Fachwerk kann beispielsweise ein kubisches Fachwerk sein, welches aus miteinander an Knoten verbundenen Streben ausgebildet ist. An den Streben können die Kameras ortsfest angeordnet sein, sodass in einem von dem Fachwerk umgebenen Volumen der Messraum ausgebildet wird. Bei dem Messraum muss es sich folglich nicht um einen gegenüber einer Umgebung verschlossenen Raum handeln. Das Fachwerk bzw. der Messraum kann sich jedoch selbst innerhalb eines Raums befinden. Dadurch wird es möglich das Fachwerk und auch die zu vermessenden Objekte zu temperieren und auch geeignete Beleuchtungsbedingungen für Kameraaufnahmen auszubilden. Auch kann das zu messende Objekt einfach in dem Messraum ortsfest angeordnet werden, beispielsweise durch Positionierung auf einem dafür vorgesehenen Untergrund.A measuring space of the measuring device can advantageously be formed by a framework on which the cameras can be arranged in a stationary manner, with the object being able to be arranged in the measuring space. The truss can be a cubic truss, for example, which is formed from struts connected to one another at nodes. The cameras can be stationarily arranged on the struts, so that the measuring space is formed in a volume surrounded by the framework. Consequently, the measurement space does not have to be a space that is closed to the environment. However, the truss or the measuring room can itself be located within a room. This makes it possible to temper the framework and also the objects to be measured and also to develop suitable lighting conditions for camera recordings. The object to be measured can also be simply arranged in a stationary manner in the measuring space, for example by positioning it on a subsurface provided for this purpose.

In dem zweiten Schritt kann die Verarbeitungseinrichtung die Referenzdaten des Referenzobjekts aus durch mit den Kameras gewonnenen Bilddaten des Referenzobjekts gewinnen. Mit den Kameras kann dann wie bei einer Messung eines zu messenden Objekts das Referenzobjekt mit den Kameras aufgenommen werden. Die Bilddaten bzw. Referenzdaten des Referenzobjekts können dann mittels der Verarbeitungseinrichtung in dieser gespeichert und verarbeitet werden, wobei die Verarbeitungseinrichtung dann aus den Referenzdaten die absoluten Referenzpositionen der Referenzobjektpunkte, die eine Maßverkörperung repräsentieren, berechnen kann. Das Referenzobjekt kann dabei dem zu messenden Objekt im Wesentlichen entsprechen oder es kann sich um ein vollkommen anderes Objekt, wie beispielsweise einen Maßstab, handeln.In the second step, the processing device can obtain the reference data of the reference object from image data of the reference object obtained with the cameras. With the cameras, the reference object can then be recorded with the cameras, as in the case of a measurement of an object to be measured. The image data or reference data of the reference object can then be stored and processed by the processing device in the latter, with the processing device then being able to calculate the absolute reference positions of the reference object points, which represent a material measure, from the reference data. The reference object can essentially correspond to the object to be measured or it can be a completely different object, such as a ruler.

Besonders vorteilhaft ist es, wenn das Referenzobjekt in einem Messraum der Messvorrichtung befestigt wird. Wenn der Messraum beispielsweise durch ein Fachwerk ausgebildet wird, kann das Referenzobjekt dann an dem Fachwerk ortsfest so befestigt werden, dass das Referenzobjekt zumindest von einer Anzahl von Kameras erfassbar ist. Messungen mit dem Referenzobjekt können dann auch durchgeführt werden, wenn zu messende Objekte bereits im Messraum positioniert sind. Vorteilhaft ist auch, dass das Referenzobjekt dann stets die gleiche Temperatur wie der Messraum bzw. ein Fachwerk, an dem das Referenzobjekt befestigt ist, aufweist.It is particularly advantageous if the reference object is fixed in a measuring space of the measuring device. If the measuring space is formed by a framework, for example, the reference object can then be fixed in place on the framework in such a way that the reference object can be captured by at least a number of cameras. Measurements with the reference object can then also be carried out when the objects to be measured are already positioned in the measuring space. It is also advantageous that the reference object then always has the same temperature as the measuring room or a framework to which the reference object is attached.

Das Referenzobjekt kann aus Graphit oder einem Kohlenstoffverbundwerkstoff und abweichend von dem zu messenden Objekt ausgebildet sein. Graphit und Kohlenstoffverbundwerkstoffe, wie beispielsweise kohlenstofffaserverstärkter Kunststoff oder kohlenstofffaserverstärkter Kohlenstoff weisen gegenüber anderen Werkstoffen einen vergleichsweise niedrigen Temperaturausdehnungskoeffizienten auf. Beispielsweise kann das Referenzobjekt rechteckig oder quadratisch ausgebildet sein sowie kontrastierende, mit Kameras gut erkennbare Objektpunkte aufweisen sein. Das Referenzobjekt kann dreidimensional ausgebildet sein, sodass die Objektpunkte beispielsweise in verschiedenen Ebenen bzw. Abständen voneinander an dem Referenzobjekt ausgebildet bzw. angeordnet sind. Aufgrund des niedrigen Ausdehnungskoeffizienten des Referenzobjekts können Temperaturfehler bei einer Kalibrierung der Messvorrichtung minimiert werden. Gleichzeitig können Serien von Messungen von Objekten ohne weitere Aufwände oder Umbauten durch eine wiederholte Kalibrierung mit dem Referenzobjekt besonders genau vermessen werden.The reference object may be made of graphite or carbon composite material and may be different from the object to be measured. Graphite and carbon composite materials, such as carbon fiber reinforced plastic or carbon fiber reinforced carbon, have a comparatively low coefficient of thermal expansion compared to other materials. For example, the reference object can be rectangular or square and have contrasting object points that are easily recognizable with cameras. The reference object can be three-dimensional, so that the object points are formed or arranged, for example, in different planes or distances from one another on the reference object. Due to the low coefficient of expansion of the reference object, temperature errors can be minimized when calibrating the measuring device. At the same time, series of measurements of objects can be measured particularly precisely without any further effort or modifications by repeated calibration with the reference object.

Die Verarbeitungseinrichtung kann mittels Bildverarbeitung eine Öffnung in dem zu messenden Objekt bestimmen und deren Mittelpunkt berechnen. Dies kann beispielsweise durch Randkantenerkennung, Ellipse Fit, Canny Edge oder anderen geeigneten Verfahren durchgeführt werden.The processing device can use image processing to determine an opening in the object to be measured and calculate its center point. This can be carried out, for example, by edge detection, ellipse fit, canny edge or other suitable methods.

Die Verarbeitungseinrichtung kann das dreidimensionale Modell des Objekts und/oder dreidimensionale Referenzdaten des Referenzobjekts in zweidimensionale Bilddaten einer Öffnungsfläche der Öffnung umwandeln und deren Mittelpunkt berechnen. Dadurch können eventuelle Fehler, die sich bei einer Randkantenerkennung auf Basis von Grauwerten ergeben können, vermieden werden. Aufgrund einer im Wesentlichen orthogonalen Ausrichtung eines Bildes, bezogen auf eine Flächennormale im Mittelpunkt, auf die Öffnungsfläche der Öffnung, ergibt sich beispielsweise bei Bohrungen stets eine kreisrunde Öffnung ohne mögliche Schatten an Kanten. Im Gegensatz dazu können bei einem Einpassen einer Ellipse und der Berechnung des zugehörigen Mittelpunktes Ungenauigkeiten zu Messfehlern führen.The processing device can use the three-dimensional model of the object and/or three-di convert dimensional reference data of the reference object into two-dimensional image data of an opening surface of the opening and calculate its center. In this way, any errors that can arise in the case of marginal edge detection based on gray values can be avoided. Due to an essentially orthogonal alignment of an image, based on a surface normal in the center, on the opening surface of the opening, there is always a circular opening without possible shadows at edges, for example in the case of bores. In contrast, when fitting an ellipse and calculating the associated center point, inaccuracies can lead to measurement errors.

Eine weitere Verbesserung einer Messgenauigkeit wird möglich, wenn in die Öffnung eine Zielmarkierung eingesetzt wird. Die Zielmarkierung kann in einer einfachen Ausführungsform ein Stift sein, der in eine Bohrung gesteckt wird. An dem Stift kann auch ein quaderförmiger Körper mit kontrastierenden Punkten an Flächen des Körpers angeordnet sein. So wird es noch einfacher möglich eine Achslage des Stifts anhand der leicht mit Bildverarbeitung erkennbaren Flächen des quaderförmigen Körpers zum Identifizieren. Eine Achse bzw. Längsachse des Stifts kann dann eindeutig einen Mittelpunkt der Öffnung definieren. Auch wird es so möglich unter widrigen Beleuchtungsbedingungen einen Mittelpunkt zu bestimmen.A further improvement in measurement accuracy is possible if a target marking is inserted into the opening. In a simple embodiment, the target marking can be a pin that is inserted into a bore. A cuboid body with contrasting points on surfaces of the body can also be arranged on the pin. This makes it even easier to identify an axis position of the pin based on the surfaces of the cuboid body, which can easily be recognized with image processing. An axis or longitudinal axis of the pin can then clearly define a center point of the opening. This also makes it possible to determine a center point under adverse lighting conditions.

Die erfindungsgemäße Messvorrichtung zur Messung eines Objekts umfasst eine Mehrzahl von relativ zu einem zu messenden Objekt in unterschiedlichen Positionen angeordneten Kameras und eine Verarbeitungseinrichtung, wobei mit den Kameras Bilder des Objekts erfassbar sind, wobei mittels der Verarbeitungseinrichtung Bilddaten der Bilder speicherbar und verarbeitbar sind, wobei eine Mehrzahl gleichartiger Objekte in einer Abfolge messbar sind, wobei mittels der Verarbeitungseinrichtung die Objektpunkte oder die Objektpunkte repräsentierende Bilddaten den jeweiligen Kameras zuordenbar und einen eine Messqualität dieser Objektpunkte beschreibenden Kennwert für die jeweiligen Kameras bestimmbar sind, wobei mittels der Verarbeitungseinrichtung bei einer weiteren Berechnung eines dreidimensionalen Modells des Objekts dabei die mit den Kameras jeweils erfassten Bilddaten in Abhängigkeit des Kennwertes berücksichtigbar sind. Zu den Vorteilen der erfindungsgemäßen Messvorrichtung wird auf die Vorteilsbeschreibung des erfindungsgemäßen Verfahrens verwiesen. Weitere vorteilhafte Ausführungsformen einer Messvorrichtung ergeben sich aus den Merkmalsbeschreibungen der auf den Verfahrensanspruchs 1 zurückbezogenen Unteransprüche.The measuring device according to the invention for measuring an object comprises a plurality of cameras arranged in different positions relative to an object to be measured and a processing device, with the cameras being able to capture images of the object, with the processing device being able to store and process image data of the images, with a A plurality of similar objects can be measured in a sequence, with the object points or the image data representing the object points being assignable to the respective cameras by means of the processing device and a characteristic value describing a measurement quality of these object points being determinable for the respective cameras, with the processing device being able to be used in a further calculation of a three-dimensional model of the object, the image data recorded with the cameras can be taken into account as a function of the characteristic value. For the advantages of the measuring device according to the invention, reference is made to the description of the advantages of the method according to the invention. Further advantageous embodiments of a measuring device result from the feature descriptions of the dependent claims referring back to method claim 1.

Nachfolgend werden bevorzugte Ausführungsformen der Erfindung unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.Preferred embodiments of the invention are explained in more detail below with reference to the accompanying drawings.

Es zeigen:

  • 1 Eine schematische Darstellung einer Messvorrichtung;
  • 2 eine Darstellung einer ersten Ausführungsform eines Verfahrensablaufs;
  • 3 eine Darstellung einer zweiten Ausführungsform eines Verfahrensablaufs.
Show it:
  • 1 A schematic representation of a measuring device;
  • 2 a representation of a first embodiment of a process flow;
  • 3 a representation of a second embodiment of a process flow.

Die 1 zeigt eine schematische Darstellung einer Messvorrichtung 10, welche aus einer Mehrzahl von Kameras 11, 12, 13 und einer Verarbeitungseinrichtung 14 gebildet ist. Die Kameras 11, 12, 13 sind mit der Verarbeitungseinrichtung 14 verbunden, sodass mit den Kameras 11, 12, 13 aufgenommene Bilder eines Objekts 15 aufgenommen und als Bilddaten von der Verarbeitungseinrichtung 14 gespeichert und verarbeitet werden können. Die Kameras 11, 12, 13 sind ortsfest an einem hier nicht dargestellten Fachwerk befestigt. Ein sich zwischen den Kameras 11, 12, 13 erstreckender Raum entspricht einem Messraum 16 innerhalb dem das Objekt 15 auf einem Untergrund 17 angeordnet ist. Weiter ist in dem Messraum 16 ein Referenzobjekt 18 positioniert.The 1 shows a schematic representation of a measuring device 10, which is formed from a plurality of cameras 11, 12, 13 and a processing device 14. The cameras 11 , 12 , 13 are connected to the processing device 14 so that images of an object 15 recorded by the cameras 11 , 12 , 13 can be recorded and stored as image data by the processing device 14 and processed. The cameras 11, 12, 13 are fixed in place on a truss, not shown here. A space extending between the cameras 11 , 12 , 13 corresponds to a measuring space 16 within which the object 15 is arranged on a base 17 . A reference object 18 is also positioned in the measurement space 16 .

Die 2 zeigt eine schematische Darstellung bzw. ein Ablaufdiagramm einer ersten Ausführungsform eines mit der in der 1 dargestellten Messvorrichtung 10 ausgeführten Messverfahrens. In einem Aufnahmeschritt 19 werden zunächst Bilddaten des Objekts 15 mit den Kameras 11, 12, 13 aufgenommen und in der Verarbeitungseinrichtung 14 gespeichert. In einem nachfolgenden Schritt 20 berechnet die Verarbeitungseinrichtung 14 aus den Bilddaten ein dreidimensionales Modell des Objekts 15, welches durch Objektpunkte in einem Koordinatensystem repräsentiert ist. In einem nachfolgenden Schritt 21 berechnet die Verarbeitungseinrichtung 14 Positionen der Objektpunkte des Objekts 15 in dem Koordinatensystem, beispielsweise Mittelpunkte von Bohrungen, und nimmt eine Zuordnung von diesen Objektpunkten zu den Kameras 11, 12, 13 vor. So können beispielsweise auch Objektpunkte nicht in Bilddaten von Kameras 11, 12, 13 enthalten sein, da diese nicht von allen Kameras 11, 12, 13 aufgrund ihrer Lage erfasst werden können. In einem nachfolgenden Schritt 22 erfolgt eine rechnerische Rückprojektion des dreidimensionalen Modells des Objekts 15 mittels der Verarbeitungseinrichtung 14 auf eine zweidimensionale Bildebene der Kameras 11, 12, 13. In dem Schritt 22 vergleicht die Verarbeitungseinrichtung 14 die so erhaltenen Bilddaten mit den tatsächlichen Bilddaten der Kameras bzw. vergleicht die Lage der Objektpunkte relativ zueinander bezogen auf die jeweiligen Kameras 11, 12, 13. Je nach einer Abweichung der Objektpunkte der Rückprojektion von den mit jeweiligen Kameras 11, 12, 13 erfassten Bilddaten bzw. Objektpunkten ergibt sich eine mehr oder weniger große Abweichung der Objektpunkte je Kamera 11, 12, 13. Die Verarbeitungseinrichtung 14 berechnet bzw. bestimmt für die jeweilige Abweichung einen Kennwert, der ein Maß für eine Genauigkeit der Bilddaten des Objekts 15 der Kamera 11, 12, 13 ist.The 2 shows a schematic representation or a flow chart of a first embodiment of a with the in 1 illustrated measuring device 10 executed measuring method. In a recording step 19 , image data of the object 15 are first recorded with the cameras 11 , 12 , 13 and stored in the processing device 14 . In a subsequent step 20, the processing device 14 uses the image data to calculate a three-dimensional model of the object 15, which is represented by object points in a coordinate system. In a subsequent step 21, the processing device 14 calculates positions of the object points of the object 15 in the coordinate system, for example centers of bores, and assigns these object points to the cameras 11, 12, 13. For example, object points cannot be contained in image data from cameras 11, 12, 13, since they cannot be detected by all cameras 11, 12, 13 due to their position. In a subsequent step 22, the three-dimensional model of the object 15 is mathematically back-projected by the processing device 14 onto a two-dimensional image plane of the cameras 11, 12, 13. In step 22, the processing device 14 compares the image data thus obtained with the actual image data of the cameras or compares the position of the object points relative to each other based on the respective cameras 11, 12, 13. Depending on A deviation of the object points of the rear projection from the image data or object points recorded with the respective cameras 11, 12, 13 results in a more or less large deviation of the object points per camera 11, 12, 13. The processing device 14 calculates or determines for the respective deviation a parameter that is a measure of the accuracy of the image data of the object 15 of the camera 11, 12, 13.

In einem nachfolgenden Schritt 23 erfolgt eine Neuberechnung des dreidimensionalen Modells des Objekts 15 durch die Verarbeitungseinrichtung 14 auf Basis der in dem Aufnahmeschritt 19 gewonnenen Bilddaten. Bei dieser Neuberechnung berücksichtigt die Verarbeitungseinrichtung 14 die Kennwerte der jeweiligen Kameras 11, 12, 13 und nimmt anhand der Kennwerte eine Gewichtung der Kameras 11, 12, 13 bzw. der mit den Kameras 11, 12, 13 gewonnenen Bilddaten vor. So werden Bilddaten mehr oder weniger in die Berechnung mit einbezogen oder auch ganz verworfen. Dadurch dass bei der Berechnung des dreidimensionalen Modells durch die Verarbeitungseinrichtung 14 vergleichsweise genauere Bilddaten verwendet werden, kann eine Lage der Objektpunkte ebenfalls genauer berechnet werden. Dieser beschriebene Verfahrensablauf kann auch wiederholt durchgeführt werden.In a subsequent step 23 , the three-dimensional model of the object 15 is recalculated by the processing device 14 on the basis of the image data obtained in the recording step 19 . During this recalculation, the processing device 14 takes into account the characteristic values of the respective cameras 11, 12, 13 and uses the characteristic values to weight the cameras 11, 12, 13 or the image data obtained with the cameras 11, 12, 13. Image data is more or less included in the calculation or even discarded entirely. Due to the fact that comparatively more accurate image data are used in the calculation of the three-dimensional model by the processing device 14, a position of the object points can also be calculated more precisely. This process sequence described can also be carried out repeatedly.

Die 3 zeigt eine zweite Ausführungsform des Messverfahrens in einem Ablaufdiagramm, wobei auch hier zunächst in einem Aufnahmeschritt 24 Bilddaten des Objekts 15 erfasst werden. In einem nachfolgenden Schritt 25 berechnet die Verarbeitungseinrichtung 14 ein dreidimensionales Modell des Objekts 15, welches durch Objektpunkte in einem Koordinatensystem repräsentiert ist. Das dreidimensionale Modell des Objekts 15 wird von der Verarbeitungseinrichtung 14 gespeichert, und die Verarbeitungseinrichtung 14 berechnet die Objektpunkte des Objekts 15 und weist diese den Kameras 11, 12, 13 zu. Weiter wird der Aufnahmeschritt 24 sowie der Schritt 25 für weitere, gleichartige Objekte 15 durchgeführt. Die Objekte 15 können beispielsweise einer Serienproduktion von Objekten 15 entnommen sein. Auch für diese Objekte 15 berechnet die Verarbeitungseinrichtung 14 jeweils ein dreidimensionales Modell des Objekts 15 entsprechend dem Schritt 26.The 3 shows a second embodiment of the measurement method in a flowchart, image data of the object 15 being recorded here first in a recording step 24 . In a subsequent step 25, the processing device 14 calculates a three-dimensional model of the object 15, which is represented by object points in a coordinate system. The three-dimensional model of the object 15 is stored by the processing device 14, and the processing device 14 calculates the object points of the object 15 and assigns them to the cameras 11, 12, 13. Furthermore, the recording step 24 and the step 25 are carried out for further objects 15 of the same type. The objects 15 can be taken from a series production of objects 15, for example. The processing device 14 also calculates a three-dimensional model of the object 15 for these objects 15 in accordance with step 26.

In einem Schritt 27 vergleicht die Verarbeitungseinrichtung 14 die Objektpunkte bzw. die Kameras 11, 12, 13 bezüglich ihrer Objektpunkte und deren jeweilige Abweichung. So kann sich beispielsweise für eine Kamera 11, 12, 13 eine mehr oder weniger große Streuung für einen Objektpunkt ergeben. Die Verarbeitungseinrichtung 14 berechnet hieraus einen Kennwert, mit dem die Kameras 11, 12, 13 hinsichtlich ihrer Aufnahmequalität bzw. Genauigkeit vergleichbar werden. Ausgehend von dem Schritt 27 erfolgt in der wiederkehrenden Abfolge der Schritte 24 und 25 in dem Schritt 25 eine Gewichtung der Kameras 11, 12, 13 bzw. der mit den Kameras 11, 12, 13 aufgenommenen Bilddaten zur Berechnung des dreidimensionalen Modells des Objekts 15 bzw. gleichartiger Objekte 15. Da hier überwiegend bzw. ausschließlich Bilddaten zur Berechnung herangezogen werden, die eine vergleichsweise genauere Berechnung des dreidimensionalen Modells des Objekts 15 ermöglichen, kann bei dem Verfahren in der wiederkehrenden Abfolge mit einer steigenden Anzahl gemessener Objekte 15 eine noch höhere Genauigkeit bei der Messung eines Objekts 15 erzielt werden.In a step 27, the processing device 14 compares the object points or the cameras 11, 12, 13 with regard to their object points and their respective deviation. For example, for a camera 11, 12, 13 there can be a greater or lesser spread for an object point. From this, the processing device 14 calculates a parameter with which the cameras 11, 12, 13 can be compared in terms of their recording quality or accuracy. Starting from step 27, in the recurring sequence of steps 24 and 25, in step 25 the cameras 11, 12, 13 or the image data recorded with the cameras 11, 12, 13 are weighted in order to calculate the three-dimensional model of the object 15 or Similar objects 15. Since image data are used here predominantly or exclusively for the calculation, which enable a comparatively more precise calculation of the three-dimensional model of the object 15, the method in the recurring sequence with an increasing number of measured objects 15 can achieve even greater accuracy the measurement of an object 15 can be achieved.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • WO 2018185363 A1 [0004]WO 2018185363 A1 [0004]

Claims (18)

Verfahren zur Messung eines Objektes, wobei mit einer Mehrzahl von relativ zu einem zu messenden Objekt (15) in unterschiedlichen Positionen angeordneten Kameras (11, 12, 13) einer Messvorrichtung (10) Bilder des Objekts erfasst werden, wobei Bilddaten der Bilder mittels einer Verarbeitungseinrichtung (14) der Messvorrichtung gespeichert und verarbeitet werden, wobei die Verarbeitungseinrichtung aus den Bilddaten ein dreidimensionales Modell des Objekts berechnet, welches durch Objektpunkte in einem Koordinatensystem repräsentiert ist, wobei eine Mehrzahl gleichartiger Objekte in einer Abfolge gemessen wird, dadurch gekennzeichnet, dass die Verarbeitungseinrichtung die Objektpunkte oder die Objektpunkte repräsentierende Bilddaten den jeweiligen Kameras zuordnet und einen eine Messqualität dieser Objektpunkte beschreibenden Kennwert für die jeweiligen Kameras bestimmt, wobei die Verarbeitungseinrichtung bei einer weiteren Berechnung eines dreidimensionalen Modells des Objekts dabei die mit den Kameras jeweils erfassten Bilddaten in Abhängigkeit des Kennwertes berücksichtigt. Method for measuring an object, images of the object being captured with a plurality of cameras (11, 12, 13) of a measuring device (10) arranged in different positions relative to an object (15) to be measured, image data of the images being captured by a processing device (14) of the measuring device are stored and processed, with the processing device calculating a three-dimensional model of the object from the image data, which is represented by object points in a coordinate system, with a plurality of objects of the same type being measured in a sequence, characterized in that the processing device calculates the Assigns object points or image data representing the object points to the respective cameras and determines a characteristic value describing a measurement quality of these object points for the respective cameras image data recorded with the cameras depending on the characteristic value. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Verarbeitungseinrichtung (14) die jeweiligen Kameras (11, 12, 13) nach deren Kennwert vergleicht, und bei der weiteren Berechnung des dreidimensionalen Modells des Objekts (15) die dabei mit den Kameras jeweils erfassten Bilddaten in Abhängigkeit des Vergleichs berücksichtigt.procedure after claim 1 , characterized in that the processing device (14) compares the respective cameras (11, 12, 13) according to their characteristic value, and during the further calculation of the three-dimensional model of the object (15) the image data recorded with the cameras in each case depending on the comparison taken into account. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Verarbeitungseinrichtung (14) den Kennwert als einen Grad einer Übereinstimmung von vergleichbaren Objektpunkten bestimmt.procedure after claim 1 or 2 , characterized in that the processing device (14) determines the characteristic value as a degree of agreement of comparable object points. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinrichtung (14) ein dreidimensionales Modell eines gleichartigen Objekts (15) berechnet.Method according to one of the preceding claims, characterized in that the processing device (14) calculates a three-dimensional model of a similar object (15). Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinrichtung (14) den Kennwert als einen Grad einer Übereinstimmung von dem dreidimensionalen Modell des Objekts (15) und dreidimensionalen Modellen von einer Vielzahl von gleichartigen Objekten (15) bestimmt und die dabei mit den Kameras (11, 12, 13) erfassten Bilddaten der gleichartigen Objekte speichert und zur Bestimmung des Kennwertes verwendet.Method according to one of the preceding claims, characterized in that the processing device (14) determines the characteristic value as a degree of correspondence between the three-dimensional model of the object (15) and three-dimensional models of a large number of objects (15) of the same type and which, in doing so, with the Cameras (11, 12, 13) stores image data of similar objects and uses it to determine the characteristic value. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Bilder des Objekts (15) mit den Kameras (11, 12, 13) unter unterschiedlichen Beleuchtungsbedingungen erfasst werden, wobei die Verarbeitungseinrichtung (14) den Kennwert als einen Grad einer Übereinstimmung von dem dreidimensionalen Modellen des selben Objekts bestimmt und die dabei mit den Kameras erfassten Bilddaten des Objekts speichert und zur Bestimmung des Kennwertes verwendet.Method according to one of the preceding claims, characterized in that the images of the object (15) are captured with the cameras (11, 12, 13) under different lighting conditions, the processing device (14) interpreting the characteristic value as a degree of correspondence from the three-dimensional Models of the same object are determined and the image data of the object captured by the cameras is saved and used to determine the characteristic value. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinrichtung (14) den Kennwert als einen Grad einer Übereinstimmung von dem dreidimensionalen Modell des Objekts (15) und einem in der Verarbeitungseinrichtung gespeicherten dreidimensionalen Modell eines Referenzobjekts bestimmt.Method according to one of the preceding claims, characterized in that the processing device (14) determines the characteristic value as a degree of correspondence between the three-dimensional model of the object (15) and a three-dimensional model of a reference object stored in the processing device. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass Referenzdaten des Referenzobjekts aus einem in der Verarbeitungseinrichtung (14) gespeicherten dreidimensionalen Vektormodell des zu messenden Objekts (15) gewonnen werden.procedure after claim 7 , characterized in that reference data of the reference object are obtained from a three-dimensional vector model, stored in the processing device (14), of the object (15) to be measured. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Verarbeitungseinrichtung (14) die Referenzdaten des Referenzobjekts aus durch Bildsynthese des Vektormodells erzeugten Bilddaten des Referenzobjekts gewinnt.procedure after claim 8 , characterized in that the processing device (14) wins the reference data of the reference object from image data of the reference object generated by image synthesis of the vector model. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Kennwert eine relative statistische Abweichung von Positionen gleicher Objektpunkte repräsentiert.Method according to one of the preceding claims, characterized in that the characteristic value represents a relative statistical deviation from positions of the same object points. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinrichtung (14) das dreidimensionale Modell des Objekts (15) und/oder dreidimensionale Referenzdaten eines Referenzobjekts in zweidimensionale Bilddaten für die jeweiligen Positionen der Kameras (11, 12, 13) umwandelt.Method according to one of the preceding claims, characterized in that the processing device (14) converts the three-dimensional model of the object (15) and/or three-dimensional reference data of a reference object into two-dimensional image data for the respective positions of the cameras (11, 12, 13). Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinrichtung (14), ausgehend von dem dreidimensionalen Modell des Objekts (15), jeweils vorausgesetzte Positionen der Kameras (11, 12, 13) berechnet, wobei die Verarbeitungseinrichtung die Positionen der Kameras mit den vorausgesetzten Positionen vergleicht und den Kennwert als einen Grad einer Übereinstimmung bestimmt.Method according to one of the preceding claims, characterized in that the processing device (14), starting from the three-dimensional model of the object (15), calculates respectively assumed positions of the cameras (11, 12, 13), wherein the processing device calculates the positions of the cameras with compares the assumed positions and determines the score as a degree of agreement. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass die Verarbeitungseinrichtung (14) ein dreidimensionales Modell des Objekts (15) wiederholt berechnet und die dabei mit den Kameras (11, 12, 13) jeweils erfassten Bilddaten in Abhängigkeit des Vergleichs berücksichtigt.procedure after claim 11 , characterized in that the processing device (14) repeatedly calculates a three-dimensional model of the object (15) and takes into account the image data recorded with the cameras (11, 12, 13) depending on the comparison. Verfahren nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass die Verarbeitungseinrichtung (14) jeweils eine äußere Orientierung und eine innere Orientierung der Kameras (11, 12, 13) berechnet.procedure after claim 11 or 12 , characterized in that the processing device (14) calculates an external orientation and an internal orientation of the cameras (11, 12, 13). Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinrichtung (14) in einem ersten Schritt relative Positionen der Objektpunkte des Objekts (15) zueinander berechnet, wobei die Verarbeitungseinrichtung in einem zweiten Schritt aus Referenzdaten eines Referenzobjekts (18) absolute Referenzpositionen von Referenzobjektpunkten, die eine Maßverkörperung repräsentieren, berechnet, wobei die Verarbeitungseinrichtung in einem dritten Schritt die relativen Positionen der Objektpunkte des Objekts nach der Maßverkörperung transformiert.Method according to one of the preceding claims, characterized in that the processing device (14) calculates relative positions of the object points of the object (15) to one another in a first step, the processing device calculating absolute reference positions of reference object points from reference data of a reference object (18) in a second step , which represent a material measure, are calculated, the processing device transforming the relative positions of the object points of the object according to the material measure in a third step. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass ein Messraum (16) der Messvorrichtung (10) durch ein Fachwerk gebildet wird, an dem die Kameras (11, 12, 13) ortsfest angeordnet werden, wobei das Objekt (15) in dem Messraum angeordnet wird.Method according to one of the preceding claims, characterized in that a measuring space (16) of the measuring device (10) is formed by a framework on which the cameras (11, 12, 13) are stationarily arranged, the object (15) in the Measuring room is arranged. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinrichtung (14) mittels Bildverarbeitung eine Öffnung in dem zu messenden Objekt (15) bestimmt und deren Mittelpunkt als einen Objektpunkt berechnet.Method according to one of the preceding claims, characterized in that the processing device (14) uses image processing to determine an opening in the object (15) to be measured and calculates its center as an object point. Messvorrichtung (10) zur Messung eines Objektes, wobei die Messvorrichtung eine Mehrzahl von relativ zu einem zu messenden Objekt (15) in unterschiedlichen Positionen angeordneten Kameras (11, 12, 13) und eine Verarbeitungseinrichtung (14) umfasst, wobei mit den Kameras Bilder des Objekts erfassbar sind, wobei mittels der Verarbeitungseinrichtung Bilddaten der Bilder speicherbar und verarbeitbar sind, wobei mittels der Verarbeitungseinrichtung aus den Bilddaten ein dreidimensionales Modell des Objekts, welches durch Objektpunkte in einem Koordinatensystem repräsentiert ist, berechenbar ist, wobei eine Mehrzahl gleichartiger Objekte in einer Abfolge messbar sind, dadurch gekennzeichnet, dass mittels der Verarbeitungseinrichtung die Objektpunkte oder die Obj ektpunkte repräsentierende Bilddaten den jeweiligen Kameras zuordenbar und einen eine Messqualität dieser Objektpunkte beschreibenden Kennwert für die jeweiligen Kameras bestimmbar sind, wobei mittels der Verarbeitungseinrichtung bei einer weiteren Berechnung eines dreidimensionalen Modells des Objekts dabei die mit den Kameras jeweils erfassten Bilddaten in Abhängigkeit des Kennwertes berücksichtigbar sind.Measuring device (10) for measuring an object, the measuring device comprising a plurality of cameras (11, 12, 13) arranged in different positions relative to an object to be measured (15) and a processing device (14), the cameras being used to generate images of the object can be detected, with image data of the images being able to be stored and processed by means of the processing device, with a three-dimensional model of the object, which is represented by object points in a coordinate system, being able to be calculated from the image data by means of the processing device, with a plurality of objects of the same type being measurable in a sequence are, characterized in that the object points or the image data representing the object points can be assigned to the respective cameras by means of the processing device and a characteristic value describing a measurement quality of these object points can be determined for the respective cameras, with the processing device being In a further calculation of a three-dimensional model of the object, the image data recorded with the cameras can be taken into account as a function of the characteristic value.
DE102021121080.1A 2021-08-13 2021-08-13 Measuring device and method for measuring an object Pending DE102021121080A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021121080.1A DE102021121080A1 (en) 2021-08-13 2021-08-13 Measuring device and method for measuring an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021121080.1A DE102021121080A1 (en) 2021-08-13 2021-08-13 Measuring device and method for measuring an object

Publications (1)

Publication Number Publication Date
DE102021121080A1 true DE102021121080A1 (en) 2023-02-16

Family

ID=85039978

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021121080.1A Pending DE102021121080A1 (en) 2021-08-13 2021-08-13 Measuring device and method for measuring an object

Country Status (1)

Country Link
DE (1) DE102021121080A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202014010159U1 (en) 2013-12-27 2015-02-05 Layerlab.Net Gmbh Mobile quick-build visualization studio for generating three-dimensional images of moving target objects
WO2018185363A1 (en) 2017-04-05 2018-10-11 Oy Mapvision Ltd Machine vision system
DE102018002622A1 (en) 2018-03-29 2019-10-02 Twinner Gmbh 3-D object detection system
DE102018114222A1 (en) 2018-06-14 2019-12-19 INTRAVIS Gesellschaft für Lieferungen und Leistungen von bildgebenden und bildverarbeitenden Anlagen und Verfahren mbH Procedure for examining matching test objects
EP3792877A1 (en) 2019-09-12 2021-03-17 Koninklijke Philips N.V. Apparatus and method for evaluating a quality of image capture of a scene

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202014010159U1 (en) 2013-12-27 2015-02-05 Layerlab.Net Gmbh Mobile quick-build visualization studio for generating three-dimensional images of moving target objects
WO2018185363A1 (en) 2017-04-05 2018-10-11 Oy Mapvision Ltd Machine vision system
DE102018002622A1 (en) 2018-03-29 2019-10-02 Twinner Gmbh 3-D object detection system
DE102018114222A1 (en) 2018-06-14 2019-12-19 INTRAVIS Gesellschaft für Lieferungen und Leistungen von bildgebenden und bildverarbeitenden Anlagen und Verfahren mbH Procedure for examining matching test objects
EP3792877A1 (en) 2019-09-12 2021-03-17 Koninklijke Philips N.V. Apparatus and method for evaluating a quality of image capture of a scene

Similar Documents

Publication Publication Date Title
DE69916237T2 (en) Determine shape deformations on objects with transformation parameters after a registration
DE102009050474B4 (en) Imaging inspection device
EP2753897B1 (en) Method and device for detecting deviations of an object surface
DE102016120026A1 (en) Measuring device and method, program, product manufacturing method, calibration marking element, processing device and processing system
DE112018002048T5 (en) HIGHLY ACCURATE CALIBRATION SYSTEM AND CALIBRATION PROCESS
DE102008041523A1 (en) Method for three-dimensional measurement and device for three-dimensional measurement
DE102008031942A1 (en) Method and device for 3D digitizing an object
DE112010004767T5 (en) Point cloud data processing device, point cloud data processing method and point cloud data processing program
DE102009030644B4 (en) Non-contact detection device
DE102005032687A1 (en) Method and arrangement for evaluating a coordinate data set of a measurement object
DE102007030378A1 (en) Camera system e.g. eye tracking system, position determining method for use in vehicle, involves performing determination of position of camera system with respect to reference system under consideration of position of display system
EP3992620A1 (en) Computer-implemented method for determining at least one geometric parameter required for evaluation of measurement data
DE102005058701A1 (en) Method for examining 3D scanned data using parametric tolerance
DE102020005518A1 (en) CALIBRATION PROCEDURE OF AN X-RAY MEASURING DEVICE
DE102021121080A1 (en) Measuring device and method for measuring an object
DE112023000151T5 (en) INSPECTION SUPPORT SYSTEM, INSPECTION SUPPORT PROCEDURE AND INSPECTION SUPPORT PROGRAM
DE102019008369B4 (en) Method for calibrating a distance measuring sensor of a vehicle
DE102009056467A1 (en) Method for determining surfaces of e.g. object in discrete data for controlling robot, involves defining surface as surface to be determined, and resulting evaluation of correlation, which is smaller than or same as preset correlation
WO2009018894A1 (en) Method and device for determining geometric data of a measured object
DE102021121073A1 (en) Measuring device and method for measuring an object
EP1435065A1 (en) Automatic determination of geometric models for optical partial recognitions
DE102018002224A1 (en) Method and system for determining spatial coordinates of landmarks of a person's head
EP3685349A1 (en) Method for recognizing the geometry of a portion of an object
DE102018122842A1 (en) Computer-implemented method for compressing measurement data from a measurement of a measurement volume
EP4130656B1 (en) Preparation of the evaluation of samples of measured values from a measurement of a plurality of workpieces by one or more coordinate measuring devices

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication