DE102021100979A1 - Messeinrichtung für dreidimensionale Geometrien und Messverfahren für dreidimensionale Geometrien - Google Patents

Messeinrichtung für dreidimensionale Geometrien und Messverfahren für dreidimensionale Geometrien Download PDF

Info

Publication number
DE102021100979A1
DE102021100979A1 DE102021100979.0A DE102021100979A DE102021100979A1 DE 102021100979 A1 DE102021100979 A1 DE 102021100979A1 DE 102021100979 A DE102021100979 A DE 102021100979A DE 102021100979 A1 DE102021100979 A1 DE 102021100979A1
Authority
DE
Germany
Prior art keywords
coordinates
measurement target
detected
pixel
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021100979.0A
Other languages
English (en)
Inventor
Kaoru MIYATA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Original Assignee
Mitutoyo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitutoyo Corp filed Critical Mitutoyo Corp
Publication of DE102021100979A1 publication Critical patent/DE102021100979A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • G06T5/80
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/045Correction of measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

Eine Messeinrichtung 100 für eine dreidimensionale Geometrie mit einem Identifikationsteil 402 für virtuelle Koordinaten, der Koordinaten eines virtuellen erfassten Pixels, das einem Merkmalspunkt entspricht, in einer Bildebene einer Erfassungsvorrichtung durch virtuelles Projizieren des Merkmalspunkts an einem Referenzinstrument auf die Bildebene identifiziert; einem Korrekturteil 403, der Korrekturinformationen zum Korrigieren von Koordinaten des erfassten Messzielpixels, das in einem erfassten Messzielbild enthalten ist, erzeugt; und einem Geometrieidentifikationsteil 405, der Koordinaten von mehreren der erfassten Messzielpixel, die im erfassten Messzielbild enthalten sind, das durch Erfassen eines zu messenden Objekts mit der Erfassungsvorrichtung erzeugt wird, auf der Basis von Informationen von geometrischen Eigenschaften und der Korrekturinformationen korrigiert, und eine Geometrie des zu messenden Objekts auf der Basis von dreidimensionalen Messkoordinaten identifiziert, die auf der Basis der Koordinaten der erfassten Messzielpixel berechnet werden sollen.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung bezieht sich auf eine Messeinrichtung für dreidimensionale Geometrien und ein Messverfahren für dreidimensionale Geometrien zum Messen einer dreidimensionalen Geometrie eines zu messenden Objekts.
  • HINTERGRUND DER ERFINDUNG
  • Ein Lichtmusterprojektionsverfahren verwendet das Prinzip der Triangulation und führt eine Messung einer dreidimensionalen (3D) Geometrie durch Projizieren eines Musters von Streifen von einem Projektor auf ein zu messendes Objekt und dann durch Erfassen des Musters, das sich gemäß der Geometrie des zu messenden Objekts ändert, mit einer Kamera durch. Bei der 3D-Geometrie-Messung kann die Messgenauigkeit aufgrund von Einflüssen einer Verzerrung eines Bildes, die durch optische Unzulänglichkeiten und dergleichen eines Erfassungsteils oder eines Projektionsteils verursacht wird, verringert werden. Daher ist es wichtig, die Bildverzerrung durch Erfassen eines Referenzinstruments für eine Verzerrungskorrektur zu erhalten, um die Bildverzerrung zu korrigieren. Die japanische ungeprüfte Patentanmeldung mit der Veröffentlichungs-Nr. 2017-207346 beschreibt das Korrigieren einer Verzerrung eines Bildes durch Erfassen eines Kalibriermusters an einem Referenzi nstru ment.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • VON DER ERFINDUNG ZU LÖSENDE PROBLEME
  • In dem Verfahren, das in der japanischen ungeprüften Patentanmeldung mit der Veröffentlichungs-Nr. 2017-207346 beschrieben ist, wird, um die Genauigkeit sicherzustellen, eine Kalibrierung durch Abstrahlen von Licht mit einer speziellen Wellenlänge durchgeführt. Da jedoch die Bildverzerrung kompliziert ist, bestand ein Problem, dass es schwierig ist, eine ausreichende Genauigkeit direkt mit einem solchen Verfahren sicherzustellen.
  • Die vorliegende Offenbarung konzentriert sich auf diesen Punkt und eine Aufgabe der vorliegenden Offenbarung besteht darin, eine 3D-Geometrie-Messeinrichtung und ein 3D-Messverfahren zu schaffen, die in der Lage sind, eine genauere Messung beim Behandeln einer komplizierten Bildverzerrung durchzuführen.
  • MITTEL ZUM LÖSEN DER PROBLEME
  • Eine 3D-Geometrie-Messeinrichtung des ersten Aspekts, die eine Erfassungsvorrichtung umfasst und eine 3D-Geometrie eines zu messenden Objekts auf der Basis eines erfassten Messzielbildes misst, das durch Erfassen des zu messenden Objekts mit der Erfassungsvorrichtung erhalten wird, wobei die 3D-Geometrie-Messeinrichtung umfasst: einen Referenzkoordinatenidentifikationsteil, der Koordinaten eines erfassten Referenzpixels identifiziert, das einem Merkmalspunkt in einem erfassten Referenzbild entspricht, das durch Erfassen eines Referenzinstruments mit mehreren der Merkmalspunkte mit der Erfassungsvorrichtung erzeugt wird; einen Identifikationsteil für virtuelle Koordinaten, der Koordinaten eines virtuellen erfassten Pixels, das dem Merkmalspunkt entspricht, in einer Bildebene der Erfassungsvorrichtung durch virtuelles Projizieren des Merkmalspunkts an dem Referenzinstrument auf die Bildebene unter Verwendung von (i) Informationen von geometrischen Eigenschaften, die geometrische Charakteristiken der Erfassungsvorrichtungen angeben, und (ii) relativen Positions- und Lageinformationen zwischen der Erfassungsvorrichtung und dem Referenzinstrument identifiziert; einen Korrekturteil, der Korrekturinformationen zum Korrigieren von Koordinaten des erfassten Messzielpixels, das in dem erfassten Messzielbild enthalten ist, auf der Basis eines Vergleichs zwischen den Koordinaten des erfassten Referenzpixels und den Koordinaten des virtuellen erfassten Pixels erzeugt; und einen Geometrieidentifikationsteil, der Koordinaten von mehreren der erfassten Messzielpixel, die im erfassten Messzielbild enthalten sind, das durch Erfassen des zu messenden Objekts mit der Erfassungsvorrichtung erzeugt wird, auf der Basis der Informationen von geometrischen Eigenschaften und der Korrekturinformationen korrigiert, und eine Geometrie des zu messenden Objekts auf der Basis von Mess-3D-Koordinaten identifiziert, die auf der Basis der Koordinaten der erfassten Messzielpixel berechnet werden sollen.
  • Die Informationen von geometrischen Eigenschaften der Erfassungsvorrichtung können eine Funktion unter Verwendung eines Koeffizienten für eine Verzerrung in einer radialen Richtung eines optischen Elements und/oder eine Funktion unter Verwendung eines Koeffizienten für eine Verzerrung in einer Umfangsrichtung des optischen Elements umfassen. Der Korrekturteil kann einen Fehler zwischen den Koordinaten des virtuellen erfassten Pixels und den Koordinaten des erfassten Referenzpixels identifizieren, der Korrekturteil kann ein Fehlerbild erzeugen, in dem der identifizierte Fehler Koordinaten eines Pixels zugeordnet ist, das dem identifizierten Fehler entspricht, und der Geometrieidentifikationsteil kann Koordinaten des erfassten Messzielpixels auf der Basis des Fehlers korrigieren, der Koordinaten eines Pixels zugeordnet ist, das dem erfassten Messzielpixel im Fehlerbild entspricht, und berechnet die Mess-3D-Koordinaten auf der Basis der korrigierten Koordinaten.
  • Der Korrekturteil kann einen Fehler des Pixels, dem der Fehler nicht zugeordnet ist, auf der Basis von mehreren der Fehler von mehreren der erfassten Referenzpixel, die Koordinaten zugeordnet sind, die von den Koordinaten des Pixels verschieden sind, dem der Fehler nicht zugeordnet ist, abschätzen und das Fehlerbild durch Zuordnen der Koordinaten des Pixels, das dem abgeschätzten Fehler entspricht, zum abgeschätzten Fehler erzeugen.
  • Der Korrekturteil kann mehrere der Fehlerbilder erzeugen, die mehreren der erfassten Referenzbilder entsprechen, die durch Erfassen des Referenzinstruments in einem Zustand, in dem das Referenzinstrument in mehreren Positionen und Lagen installiert ist, mit den Erfassungsvorrichtungen erzeugt werden, und die Einrichtung kann ferner einen Syntheseteil umfassen, der ein oder mehrere gemittelte Fehlerbilder durch Mitteln (i) eines Fehlers, der dem erfassten Messzielpixel in einem der Fehlerbilder zugeordnet ist, und (ii) eines Fehlers, der demselben erfassten Messzielpixel in einem anderen Fehlerbild zugeordnet ist, erzeugt.
  • Der Korrekturteil kann die Fehlerbilder erzeugen, die den mehreren erfassten Referenzbildern des Referenzinstruments entsprechen, das allmählich um eine Achse in einer Tiefenrichtung gedreht wird. Der Geometrieidentifikationsteil kann einen ungefähren Wert von Mess-3D-Koordinaten erhalten, die dem erfassten Messzielpixel entsprechen, das im erfassten Messzielbild enthalten ist, und die Mess-3D-Koordinaten auf der Basis eines Fehlers berechnen, der unter Verwendung von (i) mehreren der Fehlerbilder, (ii) Koordinaten von Positionen des Referenzinstruments in einer Tiefenrichtung, die den Fehlerbildern entsprechen, und (iii) einer Koordinate des ungefähren Werts in einer Tiefenrichtung identifiziert wird. Die 3D-Geometrie-Messeinrichtung kann ferner eine Projektionsvorrichtung umfassen, die ein Projektionsbild projiziert, wobei die Bilderfassungsvorrichtung das erfasste Messzielbild durch Erfassen des zu messenden Objekts erzeugen kann, auf das das Projektionsbild projiziert wird.
  • Ein 3D-Geometrie-Messverfahren des zweiten Aspekts ist ein 3D-Geometrie-Messverfahren zum Messen einer 3D-Geometrie eines zu messenden Objekts auf der Basis eines erfassten Messzielbildes, das durch Erfassen des zu messenden Objekts mit der Erfassungsvorrichtung erhalten wird, einschließlich der Schritte des Identifizierens von Koordinaten eines erfassten Referenzpixels, das einem Merkmalspunkt im erfassten Referenzbild entspricht, das durch Erfassen eines Referenzinstruments mit mehreren der Merkmalspunkte mit den Erfassungsvorrichtungen erzeugt wird, des Identifizierens von Koordinaten eines virtuellen erfassten Pixels, das dem Merkmalspunkt entspricht, in einer Bildebene der Erfassungsvorrichtung durch virtuelles Projizieren des Merkmalspunkts am Referenzinstrument auf die Bildebene (i) unter Verwendung von Informationen von geometrischen Eigenschaften, die geometrische Charakteristiken der Erfassungsvorrichtungen angeben, und (ii) relativen Positions- und Lageinformationen zwischen den Erfassungsvorrichtungen und dem Referenzinstrument, des Erzeugens von Korrekturinformationen zum Korrigieren von Koordinaten des erfassten Messzielpixels, das im erfassten Messzielbild enthalten ist, auf der Basis eines Vergleichs zwischen den Koordinaten des erfassten Referenzpixels und den Koordinaten des virtuellen erfassten Pixels und des Korrigierens von Koordinaten von mehreren der erfassten Messzielpixel, die im erfassten Messzielbild enthalten sind, das durch Erfassen des zu messenden Objekts mit der Erfassungsvorrichtung erzeugt wird, auf der Basis der Informationen von geometrischen Eigenschaften und der Korrekturinformationen, um eine Geometrie des zu messenden Objekts auf der Basis von Mess-3D-Koordinaten zu identifizieren, die auf der Basis der Koordinaten der erfassten Messzielpixel berechnet werden sollen.
  • EFFEKT DER ERFINDUNG
  • Gemäß der vorliegenden Offenbarung kann ein Effekt der Durchführung einer Messung mit höherer Genauigkeit beim Behandeln der komplizierten Bildverzerrung erreicht werden.
  • Figurenliste
    • 1A bis 1C stellen einen Umriss einer 3D-Geometrie-Messeinrichtung gemäß der Ausführungsform dar.
    • 2 zeigt eine Konfiguration der 3D-Geometrie-Messeinrichtung.
    • 3A und 3B zeigen jeweils ein Beispiel eines Merkmalspunkts eines Referenzinstruments.
    • 4 zeigt, wie das Referenzinstrument gemessen wird.
    • 5 stellt ein Verfahren zum Identifizieren von Koordinaten eines virtuellen erfassten Pixels dar.
    • 6 zeigt ein Beispiel eines Fehlers zwischen einem erfassten Referenzpixel (erfassten Pixel einer tatsächlichen Messung) und dem virtuellen erfassten Pixel.
    • 7A bis 7F zeigen jeweils Beispiele von Typen von Projektionsbildern, die ein Geometrieidentifikationsteil projiziert.
    • 8A bis 8D zeigen jeweils Beispiele von Abstufungsstreifenmustern mit sinusförmigen Luminanzverteilungen.
    • 9 zeigt Beispiele von Gray-Codes, die den binären Streifenmustern entsprechen.
    • 10 zeigt eine Beziehung zwischen absoluten Projektionskoordinaten und relativen Projektionskoordinaten.
    • 11 zeigt eine Entsprechung zwischen einem ersten erfassten Messzielpixel und einem zweiten erfassten Messzielpixel.
    • 12 ist ein Ablaufplan, der eine Verarbeitungsprozedur zum Erzeugen eines Fehlerbildes zeigt, die durch die 3D-Geometrie-Messeinrichtung durchgeführt wird.
    • 13 ist ein Ablaufplan, der eine Verarbeitungsprozedur zum Identifizieren einer Geometrie des zu messenden Objekts zeigt, die durch die 3D-Geometrie-Messeinrichtung durchgeführt wird.
    • 14 zeigt eine Beziehung zwischen (i) Koordinaten in einer Tiefenrichtung und (ii) einer seitlichen Komponente eines Fehlers in Koordinaten eines speziellen erfassten Referenzpixels.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • [Übersicht über eine Messeinrichtung 100 für dreidimensionale Geometrien (3D-Geometrie-Messeinrichtung)]
  • 1A bis 1C stellen einen Umriss einer 3D-Geometrie-Messeinrichtung 100 gemäß der Ausführungsform dar. 1A zeigt eine Konfiguration der 3D-Geometrie-Messeinrichtung 100. Die 3D-Geometrie-Messeinrichtung 100 misst die 3D-Geometrie eines zu messenden Objekts auf der Basis eines erfassten Messzielbildes (erfasstes Messbildes), in dem das zu messende Objekt durch eine oder mehrere Erfassungsvorrichtungen erfasst wird. Die 3D-Geometrie-Messeinrichtung 100 umfasst als optische Vorrichtungen eine erste Erfassungsvorrichtung 1, eine zweite Erfassungsvorrichtung 2 und eine Projektionsvorrichtung 3. Die 3D-Geometrie-Messeinrichtung 100 umfasst einen Steuerteil 4, der verschiedene Operationen der optischen Vorrichtungen steuert.
  • Die Projektionsvorrichtung 3 ist eine Projektionsvorrichtung mit einer Lichtquelle wie z. B. einer Leuchtdiode, einem Laser oder dergleichen. Die Projektionsvorrichtung 3 projiziert ein Projektionsbild mit Mustern oder dergleichen zum Identifizieren von Projektionskoordinaten auf eine Messoberfläche des zu messenden Objekts. Die Projektionskoordinaten geben Positionen von Projektionspixeln an, die ein Projektionsbild bilden, das die Projektionsvorrichtung 3 projiziert. Die Projektionskoordinaten können eindimensionale Koordinaten, die entweder eine vertikale oder horizontale Position des Projektionsbildes angeben, oder zweidimensionale Koordinaten, die sowohl die vertikalen als auch die horizontalen Positionen des Projektionsbildes angeben, sein. Die Muster sind beispielsweise Streifenmuster. Ferner ist die Anzahl von Projektionsvorrichtungen 3 nicht auf eine begrenzt und die 3D-Geometrie-Messeinrichtung 100 kann irgendeine Anzahl von Projektionsvorrichtungen umfassen.
  • Die erste Erfassungsvorrichtung 1 umfasst ein optisches Element 11 und ein Abbildungselement 12. Das optische Element 11 ist beispielsweise eine Linse. Das optische Element 11 kann mehrere Linsen oder Spiegel umfassen. Die erste Erfassungsvorrichtung 1 erzeugt ein erstes erfasstes Bild durch Erfassen des Projektionsbildes, das auf das zu messende Objekt projiziert wird, in Reaktion darauf, dass die Projektionsvorrichtung 3 das Projektionsbild auf das zu messende Objekt projiziert. Die erste Erfassungsvorrichtung 1 ist in einer solchen Weise angeordnet, dass die optische Achse der ersten Erfassungsvorrichtung 1 einen vorbestimmten Winkel mit der optischen Achse der Projektionsvorrichtung 3 bildet.
  • Die zweite Erfassungsvorrichtung 2 weist ein optisches Element 21 und ein Abbildungselement 22 auf. Das optische Element 21 ist beispielsweise eine Linse. Das optische Element 21 kann mehrere Linsen oder Spiegel umfassen. Die zweite Erfassungsvorrichtung 2 erzeugt ein zweites erfasstes Bild durch Erfassen des Projektionsbildes, das auf das zu messende Objekt projiziert wird, in Reaktion darauf, dass die Projektionsvorrichtung 3 das Projektionsbild auf das zu messende Objekt projiziert. Die zweite Erfassungsvorrichtung 2 ist in einer solchen Weise angeordnet, dass die optische Achse der zweiten Erfassungsvorrichtung 2 einen vorbestimmten Winkel mit der optischen Achse der Projektionsvorrichtung 3 bildet. Die optische Achse der zweiten Erfassungsvorrichtung 2 kann in derselben Ebene wie die optische Achse der ersten Erfassungsvorrichtung 1 und die optische Achse der Projektionsvorrichtung 3 liegen, ist jedoch nicht darauf begrenzt. Der Steuerteil 4 wird beispielsweise durch einen Computer implementiert. Der Steuerteil 4 misst eine 3D-Geometrie des zu messenden Objekts auf der Basis von mehreren erfassten Bildern, die durch die erste Erfassungsvorrichtung 1 und die zweite Erfassungsvorrichtung 2 erfasst werden. Ferner ist die Anzahl von Erfassungsvorrichtungen nicht auf zwei begrenzt und die 3D-Geometrie-Messeinrichtung 100 kann irgendeine Anzahl von Erfassungsvorrichtungen umfassen.
  • 1B und 1C zeigen jeweils ein Beispiel eines erfassten Messzielbildes, das durch die erste Erfassungsvorrichtung 1 erzeugt wird, während die Projektionsvorrichtung 3 das Projektionsbild auf das zu messende Objekt projiziert. Wie in 1B und 1C gezeigt, projiziert die Projektionsvorrichtung 3 ein Projektionsbild mit binären Streifenmustern auf das zu messende Objekt. Die binären Streifenmuster bestehen aus Lichtprojektionsbereichen, in denen Licht projiziert wird, und Nicht-Projektions-Bereichen, in denen Licht nicht projiziert wird. 1B zeigt ein erfasstes Messzielbild, das mit der ersten Erfassungsvorrichtung 1 und der zweiten Erfassungsvorrichtung 2 erzeugt wird, wenn die Projektionsvorrichtung 3 das Projektionsbild mit den binären Streifenmuster auf eine ebene Messoberfläche projiziert. Die weißen Bereiche stellen die Lichtprojektionsbereiche dar und die schwarzen Bereiche stellen die Nicht-Projektions-Bereiche dar. Wenn die Messoberfläche keine Unregelmäßigkeiten aufweist, entsprechen die binären Streifenmuster des erfassten Messzielbildes, das mit der ersten Erfassungsvorrichtung 1 und der zweiten Erfassungsvorrichtung 2 erzeugt wird, in der Form ungefähr den binären Streifenmustern des Projektionsbildes.
  • 1C ist ein erfasstes Messzielbild, das mit der ersten Erfassungsvorrichtung 1 oder der zweiten Erfassungsvorrichtung 2 erzeugt wird, wenn die binären Streifenmuster auf eine Messoberfläche mit konvexen Abschnitten projiziert werden. In dem erfassten Messzielbild von 1C ist das Bild eines Teils der binären Streifenmuster verformt. In dem erfassten Messzielbild ist das Bild der binären Streifenmuster um ein Ausmaß gemäß der Höhe der konvexen Abschnitte verformt. Daher kann die 3D-Geometrie-Messeinrichtung 100 die Geometrie des zu messenden Objekts durch Identifizieren der Höhe von jedem Ort des konvexen Abschnitts auf der Basis des Ausmaßes der Verformung des Bildes der binären Streifenmuster im erfassten Messzielbild messen.
  • Die 3D-Geometrie-Messeinrichtung 100 speichert in einem Speicherteil (i) Informationen von geometrischen Eigenschaften, die Parameter wie z. B. eine Brennweite und ein Bildzentrum, die geometrische Charakteristiken der ersten Erfassungsvorrichtung 1 und der zweiten Erfassungsvorrichtung 2 darstellen, und eine Funktion einer Linsenverzerrung usw. angeben, und (ii) Informationen über relative Positionen und die Lage zwischen der individuellen Erfassungsvorrichtung und dem Referenzinstrument. Durch Bezugnahme auf diese Informationen wird die Geometrie des zu messenden Objekts identifiziert, während die Verzerrung des erfassten Bildes korrigiert wird. Durch Erfassen eines Merkmalspunkts des Referenzinstruments, dessen zweidimensionale Koordinaten oder 3D-Koordinaten im Voraus bekannt sind, behandelt die 3D-Geometrie-Messeinrichtung 100 einen Fehler in der Messung von 3D-Koordinaten, der unter Verwendung von nur Informationen von geometrischen Eigenschaften, die geometrische Charakteristiken angeben, schwierig zu behandeln ist. Da die 3D-Geometrie-Messeinrichtung 100 3D-Koordinaten eines Messpunkts des zu messenden Objekts durch Bezugnahme auf den identifizierten Fehler misst, kann die 3D-Geometrie-Messeinrichtung 100 den Einfluss der Verzerrung eines Bildes genauer korrigieren.
  • [Konfiguration der 3D-Geometrie-Messeinrichtung]
  • 2 zeigt eine Konfiguration der 3D-Geometrie-Messeinrichtung 100. Die 3D-Geometrie-Messeinrichtung 100 umfasst einen Speicherteil 5 zusätzlich zur ersten Erfassungsvorrichtung 1, zur zweiten Erfassungsvorrichtung 2, zur Projektionsvorrichtung 3 und zum Steuerteil 4, die in 1 gezeigt sind.
  • Der Speicherteil 5 umfasst ein Speichermedium mit einem Festwertspeicher (ROM), einem Direktzugriffsspeicher (RAM), einer Festplatte und dergleichen. Der Speicherteil 5 speichert durch den Steuerteil 4 auszuführende Programme. Der Steuerteil 4 ist beispielsweise eine Zentraleinheit (CPU). Durch Ausführen der im Speicherteil 5 gespeicherten Programme funktioniert der Steuerteil als Referenzkoordinatenidentifikationsteil 401 (Identifikationsteil 401 für tatsächliche Messkoordinaten), als Identifikationsteil 402 für virtuelle Koordinaten, Korrekturteil 403, Syntheseteil 404 und Geometrieidentifikationsteil 405.
  • [Messung des Referenzinstruments]
  • Der Referenzkoordinatenidentifikationsteil 401 erzeugt ein erfasstes Referenzbild (erfasstes Bild einer tatsächlichen Messung), indem die erste Erfassungsvorrichtung 1 oder die zweite Erfassungsvorrichtung 2 ein Referenzinstrument mit mehreren Merkmalspunkten erfasst. Der Referenzkoordinatenidentifikationsteil 401 identifiziert Koordinaten eines Pixels (nachstehend als erfasstes Referenzpixel (erfasstes Pixel einer tatsächlichen Messung) bezeichnet), das dem Merkmalspunkt des Referenzinstruments im erzeugten erfassten Referenzbild entspricht.
  • 3A und 3B zeigen jeweils ein Beispiel des Referenzpunkts des Referenzinstruments. 3A und 3B zeigen jeweils das Referenzinstrument von oben betrachtet. 3A zeigt ein Referenzinstrument, in dem mehrere schwarze Kreise in Längs- und seitlichen Richtungen angeordnet sind. 3B zeigt ein schachbrettartiges Referenzinstrument. Wenn das in 3A gezeigte Referenzinstrument verwendet wird, bestimmt der Referenzkoordinatenidentifikationsteil 401 das Zentrum des schwarzen Kreises als Merkmalspunkt und identifiziert Koordinaten des erfassten Referenzpixels, das diesem Merkmalspunkt entspricht. Wenn das in 3B gezeigte Referenzinstrument verwendet wird, bestimmt der Referenzkoordinatenidentifikationsteil 401 jeden Eckpunkt der weißen Quadrate und der schwarzen Quadrate, die das Schachbrettmuster bilden, als Merkmalspunkt und identifiziert die Koordinaten des erfassten Referenzpixels, das dem bestimmten Merkmalspunkt entspricht.
  • Es wird angenommen, dass Positionen der Merkmalspunkte des Referenzinstruments im Voraus mit einem anderen Messinstrument (nicht gezeigt) gemessen werden. Wenn beispielsweise irgendeiner von mehreren Merkmalspunkten, die im Referenzinstrument enthalten sind, der Ursprung ist, werden relative Koordinateninformationen, die relative Koordinaten von anderen Merkmalspunkten als dem Ursprung angeben, im Speicherteil 5 gespeichert. Informationen, die die Koordinaten der mehreren Merkmalspunkte angeben, die im Referenzinstrument enthalten sind, können im Speicherteil 5 gespeichert werden.
  • 4 zeigt, wie ein Referenzinstrument 51 gemessen wird. In einem Beispiel von 4 ist das Referenzinstrument 51 ein flaches plattenförmiges Element, ist jedoch nicht darauf begrenzt, und irgendeine Form kann als Referenzinstrument verwendet werden. Der Referenzkoordinatenidentifikationsteil 401 erfasst das Referenzinstrument 51 mehr als einmal. Bei der Messung wird das Referenzinstrument 51 der Reihe nach in mehreren Positionen installieren, deren Koordinaten in einer Tiefenrichtung, die durch einen Pfeil in 4 gezeigt ist, sich unterscheiden. Ferner kann das Referenzinstrument 51 in mehreren verschiedenen Lagen installiert werden.
  • Die mehreren Positionen, in denen das Referenzinstrument 51 installiert wird, oder die Lagen des Referenzinstruments 51, wenn das Referenzinstrument 51 in den jeweiligen Positionen installiert wird, können ferner im Voraus bestimmt werden. In solchen Fällen können solche Positionen und Lagen schematisch sein. Der Referenzkoordinatenidentifikationsteil 401 gewinnt auch Positions- und Lageinformationen, die eine relative Position und Lage zwischen der Erfassungsvorrichtung und dem Referenzinstrument 51 angeben, wenn das Referenzinstrument 51 erfasst wird, um die Informationen von geometrischen Eigenschaften zu gewinnen, die die geometrischen Charakteristiken der Erfassungsvorrichtung angeben. Ferner kann der Referenzkoordinatenidentifikationsteil 401 Positions- und Lageinformationen, die eine Position und Lage des Referenzinstruments 51 angeben, durch Messen von 3D-Koordinaten von individuellen Merkmalspunkten am Referenzinstrument 51 durch Triangulation gewinnen, wie z. B. durch Kombinieren der Erfassungsvorrichtungen miteinander oder durch Kombinieren der Erfassungsvorrichtung mit der Projektionsvorrichtung.
  • Der Referenzkoordinatenidentifikationsteil 401 erzeugt mehrere der erfassten Referenzbilder durch Erfassen des Referenzinstruments 51 in einem Zustand, in dem das Referenzinstrument 51 in den jeweiligen Positionen und Lagen installiert ist. Der Referenzkoordinatenidentifikationsteil 401 identifiziert die Koordinaten des erfassten Referenzpixels des Merkmalspunkts des Referenzinstruments 51 in den mehreren Positionen und dergleichen auf der Basis der mehreren erfassten Referenzbilder.
  • Es soll angenommen werden, dass die Positions- und Lageinformationen, die der Position und der Lage des Referenzinstruments 51 entsprechen, g(= 1, ..., G) sind. Es soll angenommen werden, dass die Merkmalspunktinformationen, die dem Merkmalspunkt des Referenzinstruments 51 entsprechen, h (= 1, ... , H) sind. Unter der Annahme, dass die Position des erfassten Referenzpixels im erfassten Bild in homogenen Koordinaten ausgedruckt wird, identifiziert der Referenzkoordinatenidentifikationsteil 401 Koordinaten ñg,,h des erfassten Referenzpixels, das einem Merkmalspunkt h des Referenzinstruments 51 entspricht, unter Verwendung der folgenden Gleichung 1: n ˜ g ,h = [ u g ,h    V g ,h      1 ] T
    Figure DE102021100979A1_0001
  • In Gleichung 1 gibt ug,h die seitliche Komponente der homogenen Koordinaten in einer Bildebene des erfassten Bildes an, vg,h gibt die longitudinale Komponente der homogenen Koordinaten in der Bildebene an und „T“ gibt eine Transponierte einer Matrix an.
  • [Identifizieren von Koordinaten eines virtuellen erfassten Bildes]
  • Ein Identifikationsteil 402 für virtuelle Koordinaten liest aus dem Speicherteil 5 (i) Informationen von geometrischen Eigenschaften, die die geometrischen Charakteristiken der ersten Erfassungsvorrichtung 1 oder der zweiten Erfassungsvorrichtung 2 angeben, und (ii) die Positions- und Lageinformationen, die die relative Position und Lage des Referenzinstruments 51 von der ersten Erfassungsvorrichtung 1 oder der zweiten Erfassungsvorrichtung 2 betrachtet angeben. Der Identifikationsteil 402 für virtuelle Koordinaten identifiziert Koordinaten des erfassten Pixels (nachstehend auch als virtuelles erfasstes Pixel bezeichnet), das dem Merkmalspunkt in dieser Bildebene entspricht, wenn angenommen wird, dass der Merkmalspunkt am Referenzinstrument 51 virtuell auf eine Bildebene der ersten Erfassungsvorrichtung 1 oder der zweiten Erfassungsvorrichtung 2 projiziert wird, unter Verwendung von Parametern und Funktionen, die in den gelesenen Informationen von geometrischen Eigenschaften enthalten sind, und der Position und Lage des Referenzinstruments 51, die in den Position- und Lageinformationen enthalten sind.
  • 5 stellt ein Verfahren zum Identifizieren der Koordinaten des virtuellen erfassten Pixels dar. 5 zeigt ein Kamerakoordinatensystem mit einem optischen Zentrum C der ersten Erfassungsvorrichtung 1 als Ursprung und ein Weltkoordinatensystem mit einem Merkmalspunkt 0 am Referenzinstrument 51 als Ursprung. Eine X-Achse, eine Y-Achse und eine Z-Achse des Kamerakoordinatensystems sowie eine Xw-Achse, eine Yw-Achse und eine Zw-Achse des Weltkoordinatensystems sind gezeigt. Die Xw-Achse und die Yw-Achse sind Koordinatenachsen, die eine Ebene zeigen, in der mehrere Merkmalspunkte am Referenzinstrument 51 angeordnet sind. Die Zw-Achse ist eine Koordinatenachse orthogonal zur Ebene, in der die mehreren Merkmalspunkte angeordnet sind, und entspricht der in 4 in dem Beispiel der Ausführungsform gezeigten Tiefenrichtung, „f“ in 5 gibt die Brennweite des optischen Elements 11 an. Es sollte beachtet werden, dass gemäß der Gewohnheit die Bildebene derart gezeigt ist, dass sie auf der Seite angeordnet ist, auf der ein zu erfassendes Objekt vorhanden ist.
  • Unter Verwendung des Weltkoordinatensystems wird ein Merkmalspunkt M des Referenzinstruments 51 ausgedrückt als: M= [ X w Y w Z w ] T
    Figure DE102021100979A1_0002
  • Ein virtuelles erfasstes Pixel m, das der Merkmalspunkt M ist, der auf die Bildebene der ersten Erfassungsvorrichtung 1 projiziert wird, wird ausgedrückt als: m = [ uv ] T
    Figure DE102021100979A1_0003
    Das virtuelle erfasste Pixel m umfasst eine seitliche Komponente u und eine longitudinale Komponente v der Bildebene.
  • Wenn der Merkmalspunkt M und das virtuelle erfasste Pixel m durch homogene Koordinaten dargestellt werden, werden sie als folgende Gleichungen 4 bzw. 5 ausgedrückt. M ˜ = [ X w Y w Z w 1 ] T
    Figure DE102021100979A1_0004
    m ˜ = [ u  v   1 ] T
    Figure DE102021100979A1_0005
    Es soll angenommen werden, dass Koordinaten des Merkmalspunkts M im Kamerakoordinatensystem, das dreidimensional ist, mit x bezeichnet werden. x kann folgendermaßen ausgedrückt werden: x = [ R T ] M ˜
    Figure DE102021100979A1_0006
    In Gleichung 6 ist R eine Rotationsmatrix. T ist ein Translationsvektor. Die Rotationsmatrix R und der Translationsvektor T können als relative Positions- und Lageinformationen zwischen der Erfassungsvorrichtung und dem Referenzinstrument verwendet werden. Wenn A eine Matrix mit Informationen wie z. B. der Brennweite der ersten Erfassungsvorrichtung 1 ist, kann x wie folgt unter Verwendung eines Skalierungsfaktors s ausgedrückt werden, der den Betrag angibt. s m ˜ = Ax
    Figure DE102021100979A1_0007
    In Gleichung 7 sind die Komponenten der Matrix A: A= [ α 0 u 0 0 β v 0 0 0 1 ]
    Figure DE102021100979A1_0008
  • Unter den Komponenten der Matrix A, die in Gleichung 8 gezeigt ist, gibt uo die seitliche Komponente des Zentrums des erfassten Bildes an. vo gibt die longitudinale Komponente des Zentrums des erfassten Bildes an. Unter Verwendung der Brennweite f und der Anzahl von Pixeln ku pro seitlicher Einheitslänge kann ausgedrückt werden als: = fk u
    Figure DE102021100979A1_0009
    Unter Verwendung der Brennweite f und der Anzahl von Pixeln kv pro longitudinaler Einheitslänge kann ausgedrückt werden als: = fk v
    Figure DE102021100979A1_0010
    Außerdem kann ein Scherkoeffizient, der in Gleichung 8 weggelassen ist, enthalten sein.
  • Wenn beide Seiten von Gleichung 7 normiert werden, wird sie als nachstehend gezeigte Gleichung 11 ausgedrückt. m ˜ =A x ˜
    Figure DE102021100979A1_0011
    Jede Komponente von „x-Tilde“ in Gleichung 11 wird als nachstehend gezeigte Gleichung 12 ausgedrückt. x ˜ = [ x n  y 1 ] T
    Figure DE102021100979A1_0012
  • Wenn die Gleichungen 5, 11 und 12 in Anbetracht einer Verzerrung eines Bildes in der ersten Erfassungsvorrichtung 1 umgeschrieben werden, werden die folgenden Gleichungen 13 bis 15 erhalten. m d ˜ = [ u  v d    1 ] T
    Figure DE102021100979A1_0013
    m d ˜ = A x d ˜
    Figure DE102021100979A1_0014
    x d ˜ = [ x d   y d    1 ] T
    Figure DE102021100979A1_0015
    Der tiefgestellte Index jeder Variable in den Gleichungen gibt an, dass die Bildverzerrung berücksichtigt wird. Die Bildverzerrung kann, wie in der folgenden Gleichung 16 gezeigt, unter Verwendung einer Funktion, die in den Informationen von geometrischen Eigenschaften der ersten Erfassungsvorrichtung 1 oder der zweiten Erfassungsvorrichtung 2 enthalten ist, im normierten Kamerakoordinatensystem ausgedrückt werden. Inhalte der Informationen von geometrischen Eigenschaften sind Parameter wie z. B. eine Brennweite und ein Bildzentrum, die die geometrischen Charakteristiken der ersten Erfassungsvorrichtung 1 oder der zweiten Erfassungsvorrichtung 2 darstellen, und eine Funktion der Linsenverzerrung. [ x d y d ] = [ x n y n ] + ( k 1 r n 2 +k 2 r n 4 ) [ x n y n ] + [ 2 p 1 x n y n ( r n 2 + 2 x n 2 ) p 1 ( r n 2 + 2 y n 2 ) + 2 p 2 x n y n ]
    Figure DE102021100979A1_0016
  • In Gleichung 16 wird rn ausgedrückt als: r n 2 = x n 2 + y n 2
    Figure DE102021100979A1_0017
    k (i = 1, 2) ist auch ein Koeffizient für eine Verzerrung in einer radialen Richtung des optischen Elements. pi (i = 1, 2) ist ein Koeffizient für eine Verzerrung in einer Umfangsrichtung. Die homogenen Koordinaten von xd werden durch die folgende Gleichung 18 unter Verwendung einer vorbestimmten Funktion fa ausgedrückt. x ˜ d = f ( k , p , x ˜ ) = f a ( k , p , R , T , M ˜ )
    Figure DE102021100979A1_0018
  • Ebenso wird unter Verwendung einer vorbestimmten Funktion fb Gleichung 12 so modifiziert, dass sie die nachstehend gezeigte Gleichung 19 ist: m ˜ d = A x ˜ d = f b ( A , k , p , R , T , M ˜ )
    Figure DE102021100979A1_0019
    Ferner sind die Informationen von geometrischen Eigenschaften, die die geometrischen Charakteristiken wie z. B. der ersten Erfassungsvorrichtung 1 angeben, nicht auf das Beispiel mit der Funktion unter Verwendung sowohl des Koeffizienten für die Verzerrung in der radialen Richtung des optischen Elements als auch des Koeffizienten für die Verzerrung in der Umfangsrichtung des optischen Elements begrenzt. Die Informationen von geometrischen Eigenschaften, die die geometrischen Charakteristiken wie z. B. der ersten Erfassungsvorrichtung 1 angeben, können beispielsweise eine Funktion unter Verwendung des Koeffizienten für die Verzerrung in der radialen Richtung des optischen Elements und/oder eine Funktion unter Verwendung des Koeffizienten für die Verzerrung in der Umfangsrichtung des optischen Elements umfassen. Es sollte beachtet werden, dass die Funktionen der Linsenverzerrung, die hier gezeigt sind, Beispiele sind und irgendeine Form davon behandelt werden kann. Ferner ist es in Abhängigkeit vom Grad der Linsenverzerrung nicht erforderlich, die Funktion der Linsenverzerrung selbst zu verwenden.
  • Der Identifikationsteil 402 für virtuelle Koordinaten verwendet eine Rotationsmatrix Rg und einen Translationsvektor Tg, um die homogenen Koordinaten des virtuellen erfassten Pixels m, das dem Merkmalspunkt M mit den Positions- und Lageinformationen g entspricht, unter Verwendung der folgenden Gleichung 20 zu identifizieren: m ˜ d ,g ,h = f b ( A ,k ,p ,r g ,T g , M ˜ h )
    Figure DE102021100979A1_0020
  • Der Identifikationsteil 402 für virtuelle Koordinaten erhält die Variablen A, k, p, Rg, Tg von Gleichung 20 derart, dass der Fehler zwischen den homogenen Koordinaten ñg,,h des erfassten Referenzpixels und den Koordinaten des virtuellen erfassten Pixels m minimiert wird, und speichert jede erhaltene Variable im Speicherteil 5.
  • [Identifikation des Fehlers]
  • Der Korrekturteil 403 vergleicht die Koordinaten des erfassten Referenzpixels, die durch den Referenzkoordinatenidentifikationsteil 401 identifiziert werden, mit den Koordinaten des virtuellen erfassten Pixels, die mit Gleichung 20 erhalten werden. Der Korrekturteil 403 erzeugt Korrekturinformationen zum Korrigieren der Koordinaten des erfassten Pixels auf der Basis eines Vergleichsergebnisses.
  • 6 zeigt ein Beispiel eines Fehlers zwischen dem erfassten Referenzpixel und dem virtuellen erfassten Pixel. In 6 gibt „i“ die horizontale Koordinate im erfassten Referenzbild an und „j“ gibt die vertikale Koordinate im erfassten Referenzbild an. Die erfassten Referenzpixel sind durch Kreise angegeben und die virtuellen erfassten Pixel sind durch Dreiecke angegeben. Der Korrekturteil 403 bestimmt die jeweiligen Variablen von Gleichung 20 und identifiziert dann einen Fehler zwischen den Koordinaten des virtuellen erfassten Pixels und den Koordinaten des erfassten Referenzpixels. Ein Fehler eg,h zwischen dem erfassten Referenzpixel und dem virtuellen erfassten Pixel ist durch einen Pfeil in 6 gezeigt. Der Fehler eg,h zwischen den Koordinaten ñg,,h des erfassten Referenzpixels, die in Gleichung 1 gezeigt sind, und den Koordinaten m-tilded,g,h des virtuellen erfassten Pixels, die in Gleichung 20 gezeigt sind, wird durch die folgende Gleichung 21 ausgedrückt. e g ,h = n ˜ g ,h m ˜ d ,g ,h = ( e 1, g ,h , e 2, g ,h )
    Figure DE102021100979A1_0021
  • Der Fehler eg,h umfasst eine Komponente e1,g,h entlang der i-Richtung des erfassten Bildes und eine Komponente e2,g,h entlang der j-Richtung des erfassten Bildes. Der Korrekturteil 403 ordnet den Fehler eg,h und die Koordinaten des erfassten Referenzpixels, das dem Fehler egh entspricht, einander zu und speichert sie im Speicherteil 5.
  • [Erzeugen eines Fehlerbildes]
  • Der Korrekturteil 403 schätzt einen Fehler durch einen Interpolationsprozess auch für ein erfasstes Pixel, das keinem Fehler im Speicherteil 5 zugeordnet ist, ab. Zuerst gewinnt der Korrekturteil 403 vom Speicherteil 5 mehrere Fehler von mehreren der erfassten Referenzpixel, die Koordinaten zugeordnet sind, die von den Koordinaten des erfassten Pixels verschieden sind, dem ein Fehler nicht zugeordnet ist. Der Korrekturteil 403 gewinnt beispielsweise mehrere Fehler, die im Speicherteil 5 Koordinaten innerhalb eines vorbestimmten Abstandes vom erfassten Pixel zugeordnet sind, dem der Fehler nicht zugeordnet ist.
  • Der Korrekturteil 403 schätzt einen Fehler der Koordinaten des erfassten Pixels, dem der Fehler nicht zugeordnet ist, unter Verwendung des Interpolationsprozesse wie z. B. eines linearen Interpolationsprozesses auf der Basis der gewonnenen mehreren Fehler ab. Der Korrekturteil 403 erzeugt ein Fehlerbild, in dem der abgeschätzte Fehler und Koordinaten des erfassten Pixels, das diesem Fehler entspricht, zugeordnet sind. Der Korrekturteil 403 integriert im Fehlerbild eine Kombination, in der die Koordinaten des erfassten Referenzpixels und der Fehler, der den Koordinaten des erfassten Referenzpixels entspricht, einander zugeordnet sind.
  • Das Fehlerbild kann ausgedrückt werden als: E g = ( E 1, g , E 2, g )
    Figure DE102021100979A1_0022
    In Gleichung 22 gibt E1,g eine Fehlerkomponente entlang der horizontalen Richtung der Koordinaten des erfassten Referenzpixels an und E2,g gibt eine Fehlerkomponente entlang der vertikalen Richtung der Koordinaten des erfassten Referenzpixels an. Der Korrekturteil 403 erzeugt mehrere Fehlerbilder, die den mehreren erfassten Referenzbildern entsprechen, wenn die mehreren erfassten Referenzbilder durch den Referenzkoordinatenidentifikationsteil 401 erzeugt werden. Der Korrekturteil 403 speichert im Speicherteil 5 das erzeugte Fehlerbild als Korrekturinformationen zum Korrigieren der Koordinaten des erfassten Pixels. Das Fehlerbild kann einen Fehler umfassen, der schwierig mit der Funktion von Gleichung 16 auszudrücken sein könnte. Daher kann der Korrekturteil 403 die Genauigkeit einer Korrektur der Bildverzerrung durch Korrigieren eines Messergebnisses des zu messenden Objekts durch Bezugnahme auf die Funktion von Gleichung 16 und das Fehlerbild verbessern.
  • [Erzeugen eines einzelnen Fehlerbildes]
  • Der Syntheseteil 404 gewinnt aus dem Speicherteil 5 einen Fehler, der dem erfassten Pixel in einem Fehlerbild zugeordnet ist, und einen Fehler, der demselben erfassten Pixel in einem anderen Fehlerbild zugeordnet ist. Der Syntheseteil 404 berechnet einen neuen Fehler, der dem erfassten Pixel zugeordnet ist, durch Mitteln der mehreren gewonnenen Fehler. Der Syntheseteil 404 erzeugt ein einzelnes Fehlerbild durch Wiederholen derselben Verarbeitung für die anderen erfassten Pixel. Der Syntheseteil 404 erzeugt beispielsweise ein einzelnes Fehlerbild durch Mitteln von Fehlerkomponenten, die mehreren Fehlerbildern entsprechen, wie in der folgenden Gleichung 23 gezeigt. E = 1 G X g E g = 1 G X ( g E 1, g , g E 2, g )
    Figure DE102021100979A1_0023
    In Gleichung 23 gibt Gx die Anzahl von Fehlerbildern an.
  • Der Syntheseteil 404 ist nicht auf das Beispiel begrenzt, in dem die mehreren Fehlerbilder gemittelt werden, um ein einzelnes Fehlerbild zu erzeugen. Der Syntheseteil 404 kann beispielsweise mehrere Fehlerbilder durch Mitteln der Fehlerbilder erzeugen, deren Koordinaten in der Tiefenrichtung relativ nahe beieinander liegen. Der Syntheseteil 404 kann beispielsweise mehrere gemittelte Fehlerbilder durch Mitteln der Fehlerbilder von Nr. 1 bis Nr. 3 unter den mehreren Fehlerbildern von Nr. 1 bis Nr. 8, um ein Fehlerbild zu erzeugen, und Mitteln der Fehlerbilder von Nr. 2 bis Nr. 4, um ein anderes Fehlerbild zu erzeugen, erzeugen. Dadurch kann die Anzahl von Fehlerbildern, die im Speicherteil 5 gespeichert sind, verringert werden, um die Verarbeitungslast oder die erforderliche Speicherkapazität zu verringern, und dagegen kann die Anzahl von Fehlerbildern erhöht werden, um die Korrekturgenauigkeit zu verbessern. Es sollte beachtet werden, dass die gewonnenen relativen Positions- und Lageinformationen der Erfassungsvorrichtung und des Referenzinstruments als Koordinaten der Tiefenrichtung des Referenzinstruments verwendet werden können. Es ist auch möglich, Informationen über Installationspositionen des Referenzinstruments, die im Voraus festgelegt werden, Messergebnisse von 3D-Koordinaten der Merkmalspunkte des Referenzinstruments, die durch mehrere Erfassungsvorrichtungen erhalten werden, oder eine Kombination von einer Erfassungsvorrichtung und einer Projektionsvorrichtung oder dergleichen zu verwenden.
  • [Korrektur unter Verwendung der Informationen von geometrischen Eigenschaften]
  • Der Geometrieidentifikationsteil 405 projiziert ein Projektionsbild auf die Messoberfläche des zu messenden Objekts mit der Projektionsvorrichtung 3. Der Geometrieidentifikationsteil 405 steuert die erste Erfassungsvorrichtung 1 und die zweite Erfassungsvorrichtung 2, um ein erfasstes Messzielbild durch Erfassen des zu messenden Objekts, während das Projektionsbild projiziert wird, zu erzeugen. Nachstehend kann das erfasste Messzielbild, das durch die erste Erfassungsvorrichtung 1 erzeugt wird, als erstes erfasstes Messzielbild bezeichnet werden und ein erfasstes Messzielbild, das durch die zweite Erfassungsvorrichtung 2 erzeugt wird, kann als zweites erfasstes Messzielbild bezeichnet werden.
  • Der Geometrieidentifikationsteil 405 korrigiert Koordinaten von mehreren erfassten Messzielpixeln (erfassten Messpixeln), die im erfassten Messzielbild enthalten sind, auf der Basis (i) einer Funktion, die in den Informationen von geometrischen Eigenschaften enthalten sind, die im Speicherteil 5 gespeichert sind und die geometrischen Charakteristiken der ersten Erfassungsvorrichtung 1 oder der zweiten Erfassungsvorrichtung 2 angeben, die in Gleichung 16 gezeigt sind, und (ii) des Fehlerbildes, das der Korrekturteil 403 erzeugt hat, als Korrekturinformationen. Der Geometrieidentifikationsteil 405 korrigiert für die Koordinaten der jeweiligen erfassten Messzielpixel, die im erfassten Messzielbild enthalten sind, eine Gesamtverzerrung unter Verwendung der Funktion, die in den Informationen von geometrischen Eigenschaften der ersten Erfassungsvorrichtung 1 oder der zweiten Erfassungsvorrichtung 2 enthalten sind, die in Gleichung 16 gezeigt sind.
  • [Korrektur unter Verwendung eines einzelnen Fehlerbildes]
  • Der Geometrieidentifikationsteil 405 liest aus dem Speicherteil 5 ein einzelnes Fehlerbild, das der Syntheseteil 404 synthetisiert hat. Der Geometrieidentifikationsteil 405 identifiziert Koordinaten eines Pixels, die den Koordinaten des erfassten Messzielpixels im Fehlerbild entsprechen. Der Geometrieidentifikationsteil 405 identifiziert beispielsweise Koordinaten des Pixels am nächsten zu den Koordinaten des erfassten Messzielpixels im Fehlerbild. Der Geometrieidentifikationsteil 405 identifiziert den Fehler, der den Koordinaten des im Fehlerbild identifizierten Pixels zugeordnet ist.
  • Der Geometrieidentifikationsteil 405 korrigiert die Koordinaten des erfassten Messzielpixels auf der Basis des identifizierten Fehlers. Der Geometrieidentifikationsteil 405 korrigiert beispielsweise eine lokale Verzerrung für die Koordinaten (i, j) des erfassten Messzielpixels, das im erfassten Messzielbild enthalten ist, durch Ändern der Koordinate in der horizontalen Richtung um eine Fehlerkomponente E1,g(i, j) und Ändern der Koordinate in der vertikalen Richtung um eine Fehlerkomponente E2,g(i, j). Die Fehlerkomponenten E1,g(i, j) und E2,g(i, j) werden durch das Fehlerbild angegeben.
  • [Identifikation von Projektionskoordinaten]
  • Der Geometrieidentifikationsteil 405 berechnet die Mess-3D-Koordinaten des Messpunkts des zu messenden Objekts auf der Basis der korrigierten Koordinaten des erfassten Messzielpixels. In der Ausführungsform wird ein Beispiel, in dem der Geometrieidentifikationsteil 405 Mess-3D-Koordinaten eines Messpunkts durch Identifizieren einer Entsprechung zwischen einem ersten erfassten Messzielpixel des ersten erfassten Messzielbildes und einem zweiten erfassten Messzielpixel des zweiten erfassten Messzielbildes berechnet, beschrieben.
  • 7A bis 7F zeigen jeweils Beispiele von Typen von Projektionsbildern, die der Geometrieidentifikationsteil 405 projiziert. Die schwarzen Bereiche in 7A bis 7F stellen Nicht-Projektions-Bereiche dar, in denen der Geometrieidentifikationsteil 405 kein Licht projiziert, und die weißen Bereiche stellen Lichtprojektionsbereiche dar, in denen der Geometrieidentifikationsteil 405 Licht projiziert.
  • 7A zeigt ein Standardmuster, durch das Licht nicht auf irgendeinen Teil des zu messenden Objekts projiziert wird (d. h. ein ganz schwarzes Muster). 7B zeigt ein Standardmuster, durch das Licht auf das ganze zu messende Objekt projiziert wird (d. h. ein ganz weißes Muster). 7C bis 7F zeigen binäre Streifenmuster, die aus Lichtprojektionsbereichen und Nicht-Projektions-Bereichen bestehen und in denen die Streifen, die eine unterschiedliche Breite für jedes Projektionsbild aufweisen, in derselben Richtung angeordnet sind. Die in 7C bis 7F gezeigten Streifenmuster entsprechen Gray-Codes und werden zum Identifizieren von Projektionskoordinaten verwendet, die Positionen von Projektionspixeln des Projektionsbildes angeben, die den erfassten Messzielpixeln im erfassten Messzielbild entsprechen. Details werden nachstehend beschrieben.
  • Der Geometrieidentifikationsteil 405 projiziert Projektionsbilder mit Abstufungsstreifenmustern mit sinusförmigen Luminanzverteilungen auf das zu messende Objekt. 8A bis 8D zeigen jeweils Beispiele von Abstufungsstreifenmustern mit sinusförmigen Luminanzverteilungen. Obwohl die in 7C bis 7F gezeigten binären Streifenmuster binäre Bilder sind, die aus den schwarzen Bereichen und den weißen Bereichen bestehen, ändert sich in den Abstufungsstreifenmustern, die in 8A bis 8D gezeigt sind, die Schattierung in einer sinusförmigen Weise von dem weißen Bereich zum schwarzen Bereich entlang der Breitenrichtung der Streifen. Intervalle zwischen den Streifen in den Abstufungsstreifenmustern von 8A bis 8D sind konstant und die räumliche Frequenz der Streifen in den Abstufungsstreifenmustern ist beispielsweise viermal die räumliche Frequenz der binären Streifenmuster von 7F.
  • Die Abstufungsstreifenmuster von 8A bis 8D sind in dem Punkt voneinander verschieden, dass die Phasen der Sinuswellen, die die Luminanzverteilung angeben, sich um 90 Grad voneinander unterscheiden, und ihre Luminanzverteilungen sind ansonsten gleich. In dieser Ausführungsform projiziert der Geometrieidentifikationsteil 405 insgesamt zehn Projektionsbilder: zwei Standardmuster, die in 7A und 7B gezeigt sind, vier binäre Streifenmuster, die in 7C bis 7F gezeigt sind, und vier Abstufungsstreifenmuster, die in 8A bis 8D gezeigt sind. Die Abstufungsstreifenmuster, die in 8A bis 8D gezeigt sind, zusammen mit den Streifenmustern, die in 7A bis 7F gezeigt sind, werden zum Identifizieren der Projektionskoordinaten verwendet. Der Geometrieidentifikationsteil 405 kann auch mehrere Projektionsbilder mit Mustern, in denen die Breiten der Streifen sich in Abhängigkeit von einer Richtung unterscheiden, in der sich die Streifen erstrecken, auf das zu messende Objekt projizieren.
  • Wie vorstehend angegeben, entsprechen die binären Streifenmuster, die in 7C bis 7F gezeigt sind, Gray-Codes. 9 zeigt Beispiele von Gray-Codes, die den in 7C bis 7F gezeigten binären Streifenmustern entsprechen. Durch Zuordnen von 0-en in den Gray-Codes zu den Nicht-Projektions-Bereichen und 1-en zu den Lichtprojektionsbereichen werden die in 7C bis 7F gezeigten binären Streifenmuster erzeugt.
  • Jede Position in der x-Richtung in 7A bis 7F und 9 ist durch einen Codewert dargestellt, der die Kombination der Zahlen 0 und 1 in den jeweiligen Positionen in den Gray-Codes ist. Die Position 0 in 9 entspricht dem Codewert von „0000“, die Position 1 entspricht dem Code-Wert von „0001“, und die Position 15 entspricht dem Codewert von „1000“.
  • Der Geometrieidentifikationsteil 405 erzeugt ein erfasstes Messzielbild, in dem das auf das zu messende Objekt projizierte Projektionsbild durch die erste Erfassungsvorrichtung 1 erfasst wird, und ein erfasstes Messzielbild, in dem das auf das zu messende Objekt projizierte Projektionsbild durch die zweite Erfassungsvorrichtung 2 erfasst wird. Der Geometrieidentifikationsteil 405 identifiziert die Projektionskoordinaten, die die Positionen der Projektionspixel angeben, die den erfassten Messzielpixeln entsprechen, die im erfassten Messzielbild enthalten sind, auf der Basis der Muster, die im erfassten Messzielbild enthalten sind. Der Geometrieidentifikationsteil 405 identifiziert die Projektionskoordinaten, die den erfassten Messzielpixeln entsprechen, die im erfassten Messzielbild enthalten sind, durch Analysieren einer Änderung der Schattierung in den Mustern, die im erfassten Messzielbild enthalten sind.
  • Der Geometrieidentifikationsteil 405 berechnet für jedes Pixel einen Mittelwert eines Luminanzwerts, wenn das ganz schwarze Muster, das in 7A gezeigt ist, projiziert wird, und eines Luminanzwerts, wenn das ganz weiße Muster, das in 7B gezeigt ist, projiziert wird, als Median. Hinsichtlich der erfassten Messzielbilder identifiziert ebenso, während die binären Streifenmuster, die in 7C bis 7F gezeigt sind, auf das zu messende Objekt projiziert werden, der Geometrieidentifikationsteil 405 die Codewerte der jeweiligen erfassten Messzielpixel durch Vergleichen von Luminanzwerten der jeweiligen erfassten Messzielpixel in vier erfassten Messzielbildern mit den entsprechenden Medianwerten. Durch Identifizieren der Codewerte kann der Geometrieidentifikationsteil 405 identifizieren, welcher binäre Streifen in jeder Pixelposition des erfassten Messzielpixels reflektiert wird, innerhalb der binären Streifen, die in Richtung verschiedener Positionen projiziert werden. Der Geometrieidentifikationsteil 405 identifiziert die Position von Position 1 bis Position 15, die in 9 gezeigt sind, in der jedes erfasste Pixel, das in dem erfassten Messzielbild enthalten ist, enthalten ist.
  • Ferner identifiziert der Geometrieidentifikationsteil 405 als Projektionskoordinaten eine Phase einer Sinuswelle, die dem erfassten Messzielpixel entspricht, im erfassten Messzielbild, wenn die Abstufungsstreifenmuster mit sinusförmigen Luminanzverteilungen auf das zu messende Objekt projiziert werden. Da die Abstufungsstreifenmuster des Projektionsbildes eine Periodizität aufweisen, weisen mehrere Projektionspixel im Projektionsbild dieselben Projektionskoordinaten auf. Nachstehend werden die Projektionskoordinaten mit Periodizität in Projektionsbildern auch als relative Projektionskoordinaten bezeichnet. Ferner werden die Projektionskoordinaten, die im Projektionsbild eindeutig bestimmt sind, auch als absolute Projektionskoordinaten bezeichnet.
  • 10 zeigt eine Beziehung zwischen den absoluten Projektionskoordinaten und den relativen Projektionskoordinaten. Die vertikale Achse von 10 gibt die Projektionskoordinate an. Die horizontale Achse von 10 gibt die Positionen der Projektionspixel in der Breitenrichtung der Streifen an, die in dem Projektionsbild enthalten sind. Die Breitenrichtung ist eine Richtung, die zu einer Richtung orthogonal ist, in der sich die Streifen erstrecken. Wie die durchgezogene Linie in 10 zeigt, weisen die relativen Projektionskoordinaten Periodizität auf. Die relativen Projektionskoordinaten zeigen denselben Wert für jeden Zyklus einer Wiederholung der Abstufungsstreifenmuster mit sinusförmigen Luminanzverteilungen. Andererseits sind, wie eine gestrichelte Linie in 10 zeigt, die absoluten Projektionskoordinaten im Projektionsbild eindeutig bestimmt.
  • Der Geometrieidentifikationsteil 405 identifiziert die relativen Projektionskoordinaten, die den erfassten Messzielpixeln entsprechen, durch Analysieren der Schattierung der Abstufungsstreifenmuster. Der Geometrieidentifikationsteil 405 identifiziert die absoluten Projektionskoordinaten, die dem erfassten Messzielpixel entsprechen, durch Identifizieren, welcher Position von Position 0 bis Position 15 das erfasste Messzielpixel entspricht, auf der Basis von Gray-Codes, die durch die binären Streifenmuster angegeben sind.
  • [Identifikation einer Entsprechung der Mess-3D-Koordinaten]
  • Eine Entsprechung zwischen dem ersten erfassten Messzielpixel, das im ersten erfassten Messzielbild enthalten ist, das mit der ersten Erfassungsvorrichtung 1 erzeugt wird, und dem zweiten erfassten Messzielpixel, das im zweiten erfassten Messzielbild enthalten ist, das mit der zweiten Erfassungsvorrichtung 2 erzeugt wird, kann unter Verwendung einer epipolaren Linie erhalten werden. 11 zeigt die Entsprechung zwischen einem ersten erfassten Messzielpixel und einem zweiten erfassten Messzielpixel. Die linke Seite von 11 zeigt eine Bildebene des ersten erfassten Messzielbildes und die rechte Seite von 11 zeigt eine Bildebene des zweiten erfassten Messzielbildes.
  • In der Bildebene des zweiten erfassten Messzielbildes ist eine epipolare Linie EBA, die dem ersten erfassten Messzielpixel A entspricht, gezeigt. Unter der Annahme, dass das erste erfasste Messzielpixel A und das zweite erfasste Messzielpixel B demselben Messpunkt M des zu messenden Objekts entsprechen, befindet sich das zweite erfasste Messzielpixel B auf der epipolaren Linie EBA in der Bildebene des zweiten erfassten Messzielbildes.
  • Der Geometrieidentifikationsteil 405 identifiziert das zweite erfasste Messzielpixel B, das demselben Messpunkt M wie das erste erfasste Messzielpixel A am zu messsenden Objekt entspricht. Insbesondere identifiziert der Geometrieidentifikationsteil 405 das zweite erfasste Messzielpixel B auf der epipolaren Linie EBA, das dem ersten erfassten Messzielpixel A entspricht und dieselben absoluten Projektionskoordinaten wie das erste erfasste Messzielpixel A aufweist. Wenn der tiefgestellte Index, der die erste Erfassungsvorrichtung 1 angibt, ist, kann Gleichung 19 als folgende Gleichung 24 umgeschrieben werden: m ˜ α d ,1 = f b ( A α , k α , p α , R α ,1 , T α ,1 , M ˜ )
    Figure DE102021100979A1_0024
  • Wenn der tiefgestellte Index, der die zweite Erfassungsvorrichtung 2 angibt, ist, kann die Gleichung 19 als folgende Gleichung 25 umgeschrieben werden: m ˜ β d ,1 = f b ( A β , k β , p β , R β ,1 , T β ,1 , M ˜ )
    Figure DE102021100979A1_0025
    Das erste erfasste Messzielpixel A und das zweite erfasste Messzielpixel B, die demselben Messpunkt M des zu messenden Objekts entsprechen, werden für die Berechnung von Koordinaten verwendet. Der Geometrieidentifikationsteil 405 liest aus dem Speicherteil 5 die Variablen A, k, p, R.1, T.1, A, k, p, R.1, und T ,1, die durch den Identifikationsteil 402 für virtuelle Koordinaten erhalten werden, und das Fehlerbild. Unter Verwendung der gelesenen A , k , p , R ,1, T ,1, A, k, p, R,1, T,1, und des Fehlerbildes kann der Geometrieidentifikationsteil 405 die Mess-3D-Koordinaten „M-tilde“ des Messpunkts M berechnen und die Verzerrung des erfassten Bildes korrigieren.
  • Der Geometrieidentifikationsteil 405 berechnet ebenso Mess-3D-Koordinaten der anderen Messunkte des zu messenden Objekts. Der Geometrieidentifikationsteil 405 identifiziert die Geometrie des zu messenden Objekts auf der Basis der 3D-Koordinaten der mehreren berechneten Messpunkte. Ferner ist der Geometrieidentifikationsteil 405 nicht auf das Beispiel der Berechnung der Mess-3D-Koordinaten des Messpunkts durch Identifizieren einer Entsprechung zwischen dem ersten erfassten Messzielpixel A und dem zweiten erfassten Pixel B begrenzt. Der Geometrieidentifikationsteil 405 kann beispielsweise die Mess-3D-Koordinaten des Messpunkts durch Identifizieren einer Kombination des ersten erfassten Messzielpixels A und des im Projektionsbild enthaltenen Projektionspixels berechnen.
  • [Variationsbeispiel zum Auswählen eines zu korrigierenden Fehlerbildes]
  • Außerdem kann der Geometrieidentifikationsteil 405 ein Fehlerbild auswählen, das für die Korrektur jedes erfassten Messzielpixels verwendet werden soll. Der Korrekturteil 403 erzeugt eine Fehlertabelle, in der Koordinaten in der Tiefenrichtung, in der das Referenzinstrument 51 installiert ist, dem Fehlerbild zugeordnet sind, und speichert die Fehlertabelle im Speicherteil 5.
  • Der Geometrieidentifikationsteil 405 erhält einen ungefähren Wert der Mess-3D-Koordinaten, die dem erfassten Messzielpixel entsprechen, das im erfassten Messzielbild enthalten sind. Der Geometrieidentifikationsteil 405 erhält beispielsweise den ungefähren Wert der Mess-3D-Koordinaten des Messpunkts des zu messenden Objekts ohne Verwendung eines Fehlerbildes. Der Geometrieidentifikationsteil 405 kann den ungefähren Wert der Mess-3D-Koordinaten durch Verringern der Anzahl von signifikanten Ziffern von Daten erhalten. Der Geometrieidentifikationsteil 405 gewinnt die Fehlertabelle aus dem Speicherteil 5.
  • Der Geometrieidentifikationsteil 405 nimmt auf die Fehlertabelle Bezug, die mehrere der Fehlerbilder umfasst, und vergleicht (i) die Koordinaten der Positionen des Referenzinstruments in der Tiefenrichtung, die den Fehlerbildern entsprechen, und (ii) die Koordinaten des erhaltenen ungefähren Werts in der Tiefenrichtung. Der Geometrieidentifikationsteil 405 wählt das Fehlerbild auf der Basis des Vergleichsergebnisses aus. Der Geometrieidentifikationsteil 405 wählt beispielsweise das Fehlerbild aus, das der Koordinate in der Tiefenrichtung, die am nächsten zur Koordinate des erhaltenen ungefähren Werts in der Tiefenrichtung liegt, zugeordnet ist.
  • Der Geometrieidentifikationsteil 405 berechnet die Mess-3D-Koordinaten durch Bezugnahme auf das ausgewählte Fehlerbild. Der Geometrieidentifikationsteil 405 identifiziert beispielsweise den Fehler, der den Koordinaten des erfassten Pixels am nächsten zum ungefähren Wert der Mess-3D-Koordinaten zugeordnet ist. Der Geometrieidentifikationsteil 405 korrigiert die Koordinaten des erfassten Messzielpixels auf der Basis des identifizierten Fehlers. Der Geometrieidentifikationsteil 405 berechnet die Mess-3D-Koordinaten des Messpunkts auf der Basis der korrigierten Koordinaten des erfassten Messzielpixels.
  • Hinsichtlich der Tiefenrichtung kann ferner der Geometrieidentifikationsteil 405 mehrere Fehlerbilder nahe der Koordinate des ungefähren Werts in der Tiefenrichtung auswählen und einen Wert des Fehlerbildes, der der Koordinate des ungefähren Werts in der Tiefenrichtung entspricht, durch Interpolation erhalten. Als Beispiel unter Verwendung der mehreren ausgewählten Fehlerbilder kann der Geometrieidentifikationsteil 405 den Wert des Fehlerbildes, der der Koordinate des ungefähren Werts in der Tiefenrichtung entspricht, durch lineare Interpolation erhalten. Diese Weise ermöglicht, dass die Korrektur mit höherer Genauigkeit ausgeführt wird.
  • Das folgende Verfahren kann verwendet werden, um den ungefähren Wert zu erhalten. Mit dem Messsystem von 1 kann beispielsweise eine Messung mit einer Kombination von mehreren Vorrichtungen durchgeführt werden, wie z. B. eine Berechnung von 3D-Koordinaten durch Kombinieren einer Erfassungsvorrichtung und einer Projektionsvorrichtung, eine Berechnung von 3D-Koordinaten unter Verwendung von zwei Erfassungsvorrichtungen und einer Projektionsvorrichtung oder dergleichen. Das Ergebnis eines bestimmten Messsystems unter mehreren Messsystemen, die in dieser Weise erhalten werden, kann als ungefährer Wert verwendet werden. 3D-Koordinaten, die eine Erfassungsvorrichtung und eine Projektionsvorrichtung kombinieren, können beispielsweise für den ungefähren Wert für die Messung unter Verwendung von zwei Erfassungsvorrichtungen und einer Projektionsvorrichtung verwendet werden. In dieser Weise ist es möglich, die Messeffizienz zu verbessern.
  • Der Geometrieidentifikationsteil 405 ist nicht auf das Beispiel begrenzt, in dem das Fehlerbild verwendet wird, um die Bildverzerrung zu korrigieren. Der Geometrieidentifikationsteil 405 kann beispielsweise eine Verzerrung eines Bildes der Projektionsvorrichtung 3 unter Verwendung eines Fehlerbildes korrigieren. Da die Projektionsvorrichtung 3 dieselbe wie die erste Erfassungsvorrichtung 1 ist, außer dass eine Laufrichtung von Licht umgekehrt ist, kann der Geometrieidentifikationsteil 405 in einer ähnlichen Weise wie mit der ersten Erfassungsvorrichtung 1 die Bildverzerrung der Projektionsvorrichtung 3 korrigieren.
  • [Verarbeitungsprozedur zum Erzeugen eines Fehlerbildes]
  • 12 ist ein Ablaufplan, der eine Verarbeitungsprozedur zum Erzeugen eines Fehlerbildes zeigt, die durch die 3D-Geometrie-Messeinrichtung 100 durchgeführt wird. Diese Verarbeitungsprozedur startet beispielsweise, wenn ein Bedienungsempfangsteil (nicht gezeigt) in einem Zustand, in dem das Referenzinstrument 51 installiert ist, die Bedienung eines Benutzers empfängt, die eine Kalibrierung der Funktion anweist, die in den Informationen von geometrischen Eigenschaften der ersten Erfassungsvorrichtung 1 enthalten ist, die im Speicherteil 5 gespeichert sind.
  • Zuerst erzeugt der Referenzkoordinatenidentifikationsteil 401 ein erfasstes Referenzbild durch Erfassen des Referenzinstruments 51 mit mehreren Merkmalspunkten mit der ersten Erfassungsvorrichtung 1. Der Referenzkoordinatenidentifikationsteil 401 identifiziert Koordinaten der erfassten Referenzpixel, die den Merkmalspunkten des Referenzinstruments 51 entsprechen, durch Analysieren des erfassten Referenzbildes (S101). Der Identifikationsteil 402 für virtuelle Koordinaten liest aus dem Speicherteil 5 die Informationen von geometrischen Eigenschaften mit Parametern und Funktionen, die die geometrischen Charakteristiken der ersten Erfassungsvorrichtung 1 darstellen, und die Positions- und Lageinformationen, die die Position und Lage des Referenzinstruments 51 identifizieren. Der Identifikationsteil 402 für virtuelle Koordinaten identifiziert Koordinaten des virtuellen erfassten Pixels unter Verwendung der gelesenen Informationen von geometrischen Eigenschaften und der Positions- und Lageinformationen (S102).
  • Der Korrekturteil 403 identifiziert Fehler zwischen den Koordinaten des virtuellen erfassten Pixels und den Koordinaten der erfassten Referenzpixel (S103). Der Referenzkoordinatenidentifikationsteil 401 bestimmt, ob die Fehler, die allen erfassten Referenzpixeln entsprechen, identifiziert wurden oder nicht (S104). Wenn in der Bestimmung von Schritt S104 bestimmt wird, dass die Fehler, die allen erfassten Referenzpixeln entsprechen, identifiziert wurden (JA in S104), führt der Referenzkoordinatenidentifikationsteil 401 einen Interpolationsprozess auf der Basis der gewonnenen mehreren Fehler durch (S105) und schätzt einen Fehler, der dem erfassten Pixel entspricht, dem der Fehler nicht zugeordnet ist, ab.
  • Der Korrekturteil 403 erzeugt ein Fehlerbild durch Zuordnen des abgeschätzten Fehlers zu Koordinaten des erfassten Pixels, das diesem Fehler entspricht (S106), und beendet die Verarbeitung. Wenn in der Bestimmung von Schritt S104 bestimmt wird, dass die Fehler, die allen erfassten Referenzpixeln entsprechen, nicht identifiziert wurden (NEIN in S104), kehrt der Referenzkoordinatenidentifikationsteil 401 zur Verarbeitung von Schritt S101 zurück.
  • [Verarbeitungsprozedur zur Geometrieidentifikation des zu messenden Objekts]
  • 13 ist ein Ablaufplan, der eine Verarbeitungsprozedur zum Identifizieren der Geometrie des zu messenden Objekts zeigt, die durch die 3D-Geometrie-Messeinrichtung 100 durchgeführt wird. Diese Verarbeitungsprozedur startet, wenn der Bedienungsempfangsteil die Bedienung eines Benutzers empfängt, die die Identifikation der Geometrie des zu messenden Objekts anweist.
  • Zuerst erzeugt der Geometrieidentifikationsteil 405 ein erfasstes Messzielbild, in dem das Projektionsbild, das auf das zu messende Objekt projiziert wird, durch die erste Erfassungsvorrichtung 1 erfasst wird, und ein erfasstes Messzielbild, in dem das Projektionsbild, das auf das zu messende Objekt projiziert wird, durch die zweite Erfassungsvorrichtung 2 erfasst wird (S201). Der Geometrieidentifikationsteil 405 korrigiert Koordinaten der erfassten Messzielpixel, die im erfassten Messzielbild enthalten sind, unter Verwendung einer Funktion, die die geometrischen Charakteristiken der ersten Erfassungsvorrichtung 1 darstellen, oder dergleichen. Der Geometrieidentifikationsteil 405 nimmt auf ein einzelnes Fehlerbild Bezug, das der Syntheseteil 404 synthetisiert hat, und korrigiert die Koordinaten der erfassten Messzielpixel, die im erfassten Messzielbild enthalten sind (S202).
  • Der Geometrieidentifikationsteil 405 identifiziert Projektionskoordinaten, die Positionen der Projektionspixel angeben, die den erfassten Messzielpixeln entsprechen, durch Analysieren einer Änderung der Schattierung in den Mustern, die im korrigierten erfassten Messzielbild enthalten sind (S203). Der Geometrieidentifikationsteil 405 berechnet die Mess-3D-Koordinaten des Messpunkts des zu messenden Objekts durch Identifizieren einer Kombination des ersten erfassten Messzielpixels und des zweiten erfassten Messzielpixels, die demselben Messpunkt des zu messenden Objekts entsprechen (S204).
  • Der Geometrieidentifikationsteil 405 bestimmt, ob ein anderes erfasstes Messzielpixel vorhanden ist, das nicht für die Berechnung der Mess-3D-Koordinaten verwendet wird (S205). Wenn ein anderes erfasstes Messzielpixel, das nicht für die Berechnung der Mess-3D-Koordinaten verwendet wird, in der Bestimmung von Schritt S205 nicht bleibt (NEIN in S205), identifiziert der Geometrieidentifikationsteil 405 die Geometrie des zu messenden Objekts auf der Basis der Mess-3D-Koordinaten der mehreren Messpunkte (S206). Wenn ein anderes erfasstes Messzielpixel, das nicht für die Berechnung der Mess-3D-Koordinaten verwendet wird, in Schritt S205 vorhanden ist (JA in S205), kehrt der Geometrieidentifikationsteil 405 zur Verarbeitung von Schritt S202 zurück.
  • [Effekt der vorliegenden Erfindung]
  • In der 3D-Geometrie-Messeinrichtung 100 der vorliegenden Ausführungsform korrigiert der Geometrieidentifikationsteil 405 die Koordinaten der mehreren erfassten Messzielpixel, die im erfassten Messzielbild enthalten sind, auf der Basis (i) der Funktion, die die geometrischen Charakteristiken der ersten Erfassungsvorrichtung 1 darstellt, und (ii) der Korrekturinformationen zum Korrigieren der Koordinaten des erfassten Messzielpixels. Daher kann der Geometrieidentifikationsteil 405 die Bildverzerrung sehr genau korrigieren, die mit der Funktion, die die geometrischen Charakteristiken darstellt, schwierig auszudrücken wäre.
  • [Variationsbeispiel zum Erfassen eines Referenzinstruments, das um eine Achse in der Tiefenrichtung gedreht wird]
  • Der Referenzkoordinatenidentifikationsteil 401 kann mehrere erfasste Referenzbilder des Referenzinstruments 51 erzeugen, das allmählich um eine Achse in der Tiefenrichtung gedreht wird. Der Korrekturteil 403 erzeugt Fehlerbilder, die diesen erfassten Referenzbildern entsprechen. Der Syntheseteil 404 kann ein Fehlerbild erzeugen, das die gemittelten mehreren erzeugten Fehlerbilder ist. In dieser Weise kann, da der Syntheseteil 404 Variationen in Koordinaten der Merkmalspunkte des Referenzinstruments 51 in der Tiefenrichtung mittelt, die Messgenauigkeit weiter verbessert werden.
  • [Variationsbeispiel zum Erhalten einer Korrekturfunktion]
  • Unter Verwendung von mehreren Fehlerbildern kann der Korrekturteil 403 für jedes erfasste Pixel eine Korrekturfunktion für die Korrektur erzeugen. 14 zeigt eine Beziehung zwischen (i) Koordinaten in der Tiefenrichtung und (ii) einer seitlichen Komponente eines Fehlers in Koordinaten eines speziellen erfassten Referenzpixels. Die horizontale Achse von 14 gibt die Koordinaten in der Tiefenrichtung an, in der das Referenzinstrument 51 installiert ist. Die vertikale Achse von 14 gibt die seitliche Komponente des Fehlers in den Koordinaten des speziellen erfassten Pixels an. Mehrere schwarze Kreise in 14 geben die Verteilung von seitlichen Komponenten des Fehlers in den Koordinaten des speziellen erfassten Pixels an.
  • Die seitlichen Komponenten des Fehlers in den Koordinaten des erfassten Pixels schwanken gemäß den Koordinaten in der Tiefenrichtung. Der Korrekturteil 403 kann eine Korrekturfunktion erzeugen, die der Verteilung der schwarzen Kreise für die seitlichen Komponenten des Fehlers in den Koordinaten des erfassten Pixels entspricht, wie durch eine gekrümmte Linie in 14 gezeigt. Der Korrekturteil 403 erzeugt beispielsweise eine Korrekturfunktion, die der Verteilung der schwarzen Kreise von 14 entspricht, unter Verwendung einer bekannten Technik wie z. B. des Verfahrens kleinster Quadrate. Der Korrekturteil 403 ordnet (i) die erzeugte Korrekturfunktion, (ii) die vertikalen Koordinaten des erfassten Pixels und (iii) die horizontalen Koordinaten des erfassten Pixels einander zu und speichert sie im Speicherteil 5. Der Korrekturteil 403 erzeugt eine ähnliche Korrekturfunktion für die longitudinalen Komponenten des Fehlers in den Koordinaten des erfassten Pixels.
  • Der Geometrieidentifikationsteil 405 nimmt anstelle des Fehlerbildes auf die Korrekturfunktion Bezug, die durch den Korrekturteil 403 erzeugt wird, um die Koordinaten des erfassten Messzielpixels zu korrigieren. Da der Geometrieidentifikationsteil 405 den Fehler der Koordinaten des erfassten Messzielpixels, das irgendeiner Koordinate in der Tiefenrichtung entspricht, durch Bezugnahme auf die Korrekturfunktion erhalten kann, kann die Bildverzerrung mit höherer Genauigkeit korrigiert werden.
  • Die vorliegende Offenbarung ist auf der Basis der Beispielausführungsformen erläutert. Der technische Schutzbereich der vorliegenden Offenbarung ist nicht auf den in den obigen Ausführungsformen erläuterten Schutzbereich begrenzt und es ist möglich, verschiedene Änderungen und Modifikationen innerhalb des Schutzbereichs der Offenbarung durchzuführen. Die speziellen Ausführungsformen der Verteilung und Integration der Einrichtung sind beispielsweise nicht auf die obigen Ausführungsformen begrenzt, Alles oder ein Teil davon kann mit irgendeiner Einheit konfiguriert sein, die funktional oder physikalisch verteilt oder integriert ist. Ferner sind neue Beispielausführungsformen, die durch beliebige Kombinationen von ihnen erzeugt werden, in den Beispielausführungsformen der vorliegenden Offenbarung enthalten. Ferner weisen Effekte der neuen Beispielausführungsformen, die durch die Kombinationen erbracht werden, auch die Effekte der ursprünglichen Beispielausführungsformen auf.
  • Bezugszeichenliste
  • 1
    Erste Erfassungsvorrichtung
    2
    Zweite Erfassungsvorrichtung
    3
    Projektionsvorrichtung
    4
    Steuerteil
    5
    Speicherteil
    11
    Optisches Element
    12
    Abbildungselement
    21
    Optisches Element
    22
    Abbildungselement
    51
    Referenzinstrument
    100
    Messeinrichtung für eine dreidimensionale Geometrie
    401
    Referenzkoordinatenidentifikationsteil
    402
    Identifikationsteil für virtuelle Koordinaten
    403
    Korrekturteil
    404
    Syntheseteil
    405
    Geometrieidentifikationsteil

Claims (9)

  1. Messeinrichtung (100) für eine dreidimensionale Geometrie, die eine Erfassungsvorrichtung umfasst und eine dreidimensionale Geometrie eines zu messenden Objekts auf der Basis eines erfassten Messzielbildes misst, das durch Erfassen des zu messenden Objekts mit der Erfassungsvorrichtung erhalten wird, wobei die Messeinrichtung für eine dreidimensionale Geometrie umfasst: einen Referenzkoordinatenidentifikationsteil (401), der Koordinaten eines erfassten Referenzpixels identifiziert, das einem Merkmalspunkt in einem erfassten Referenzbild entspricht, das durch Erfassen eines Referenzinstruments (51) mit mehreren der Merkmalspunkte mit der Erfassungsvorrichtung erzeugt wird, einen Identifikationsteil (402) für virtuelle Koordinaten, der Koordinaten eines virtuellen erfassten Pixels, das dem Merkmalspunkt entspricht, in einer Bildebene der Erfassungsvorrichtung durch virtuelles Projizieren des Merkmalspunkts am Referenzinstrument auf die Bildebene unter Verwendung von (i) Informationen von geometrischen Eigenschaften, die geometrische Charakteristiken der Erfassungsvorrichtungen angeben, und (ii) relativen Positions- und Lageinformationen zwischen der Erfassungsvorrichtung und dem Referenzinstrument identifiziert; einen Korrekturteil (403), der Korrekturinformationen zum Korrigieren von Koordinaten des erfassten Messzielpixels, das im erfassten Messzielbild enthalten ist, auf der Basis eines Vergleichs zwischen den Koordinaten des erfassten Referenzpixels und den Koordinaten des virtuellen erfassten Pixels erzeugt; und einen Geometrieidentifikationsteil (405), der Koordinaten von mehreren der erfassten Messzielpixel, die im erfassten Messzielbild enthalten sind, das durch Erfassen des zu messenden Objekts mit der Erfassungsvorrichtung erzeugt wird, auf der Basis der Informationen von geometrischen Eigenschaften und der Korrekturinformationen korrigiert, und eine Geometrie des zu messenden Objekts auf der Basis von dreidimensionalen Messkoordinaten identifiziert, die auf der Basis der Koordinaten der erfassten Messzielpixel berechnet werden sollen.
  2. Messeinrichtung für eine dreidimensionale Geometrie nach Anspruch 1, wobei die Informationen von geometrischen Eigenschaften der Erfassungsvorrichtung eine Funktion unter Verwendung eines Koeffizienten für eine Verzerrung in einer radialen Richtung eines optischen Elements und/oder eine Funktion unter Verwendung eines Koeffizienten für eine Verzerrung in einer Umfangsrichtung des optischen Elements umfassen.
  3. Messeinrichtung für eine dreidimensionale Geometrie nach Anspruch 1 oder 2, wobei der Korrekturteil einen Fehler zwischen den Koordinaten des virtuellen erfassten Pixels und den Koordinaten des erfassten Pixels identifiziert, der Korrekturteil ein Fehlerbild erzeugt, in dem der identifizierte Fehler Koordinaten eines Pixels zugeordnet ist, das dem identifizierten Fehler entspricht, und der Geometrieidentifikationsteil Koordinaten des erfassten Messzielpixels auf der Basis des Fehlers korrigiert, der Koordinaten eines Pixels zugeordnet ist, das dem erfassten Messzielpixel im Fehlerbild entspricht, und die dreidimensionalen Messkoordinaten auf der Basis der korrigierten Koordinaten berechnet.
  4. Messeinrichtung für eine dreidimensionale Geometrie nach Anspruch 3, wobei der Korrekturteil einen Fehler des Pixels, dem der Fehler nicht zugeordnet ist, auf der Basis von mehreren der Fehler von mehreren der erfassten Referenzpixel, die Koordinaten zugeordnet sind, die von den Koordinaten des Pixels verschieden sind, dem der Fehler nicht zugeordnet ist, abschätzt und das Fehlerbild durch Zuordnen der Koordinaten des Pixels, das dem abgeschätzten Fehler entspricht, zum abgeschätzten Fehler erzeugt.
  5. Messeinrichtung für eine dreidimensionale Geometrie nach Anspruch 3 oder 4, wobei der Korrekturteil mehrere der Fehlerbilder erzeugt, die mehreren der erfassten Referenzbilder entsprechen, die durch Erfassen des Referenzinstruments in einem Zustand, in dem das Referenzinstrument in mehreren Positionen und Lagen installiert ist, mit den Erfassungsvorrichtungen erzeugt werden, und die Einrichtung ferner umfasst einen Syntheseteil (404), der ein oder mehrere gemittelte Fehlerbilder durch Mitteln (i) eines Fehlers, der dem erfassten Messzielpixel in einem der Fehlerbilder zugeordnet ist, und (ii) eines Fehlers, der demselben erfassten Messzielpixel in einem anderen Fehlerbild zugeordnet ist, erzeugt.
  6. Messeinrichtung für eine dreidimensionale Geometrie nach Anspruch 5, wobei der Korrekturteil die Fehlerbilder erzeugt, die den mehreren erfassten Referenzbildern des Referenzinstruments entsprechen, das allmählich um eine Achse in einer Tiefenrichtung gedreht wird.
  7. Messeinrichtung für eine dreidimensionale Geometrie nach einem der Ansprüche 3 bis 5, wobei der Geometrieidentifikationsteil einen ungefähren Wert von dreidimensionalen Messkoordinaten erhält, die dem erfassten Messzielpixel entsprechen, das im erfassten Messzielbild enthalten ist, und die dreidimensionalen Messkoordinaten auf der Basis eines Fehlers berechnet, der unter Verwendung von (i) mehreren der Fehlerbilder, (ii) Koordinaten von Positionen des Referenzinstruments in einer Tiefenrichtung, die den Fehlerbildern entsprechen, und (iii) einer Koordinate des ungefähren Werts in einer Tiefenrichtung identifiziert wird.
  8. Messeinrichtung für eine dreidimensionale Geometrie nach einem der Ansprüche 1 bis 7, die ferner umfasst eine Projektionsvorrichtung, die ein Projektionsbild projiziert, wobei die Bilderfassungsvorrichtung das erfasste Messzielbild durch Erfassen des zu messenden Objekts, auf das das Projektionsbild projiziert wird, erzeugt.
  9. Messverfahren für eine dreidimensionale Geometrie zum Messen einer dreidimensionalen Geometrie eines zu messenden Objekts auf der Basis eines erfassten Messzielbildes, das durch Erfassen des zu messenden Objekts mit der Erfassungsvorrichtung erhalten wird, das die Schritte umfasst: Identifizieren von Koordinaten eines erfassten Referenzpixels, das einem Merkmalspunkt im erfassten Referenzbild entspricht, das durch Erfassen eines Referenzinstruments (51) mit mehreren der Merkmalspunkte mit den Erfassungsvorrichtungen erzeugt wird; Identifizieren von Koordinaten eines virtuellen erfassten Pixels, das dem Merkmalspunkt entspricht, in der Bildebene der Erfassungsvorrichtung durch virtuelles Projizieren des Merkmalspunkts am Referenzinstrument auf die Bildebene unter Verwendung von (i) Informationen von geometrischen Eigenschaften, die geometrische Charakteristiken der Erfassungsvorrichtungen angeben, und (ii) relativen Positions- und Lageinformationen zwischen den Erfassungsvorrichtungen und dem Referenzinstrument; Erzeugen von Korrekturinformationen zum Korrigieren von Koordinaten des erfassten Messzielpixels, das im erfassten Messzielbild enthalten ist, auf der Basis eines Vergleichs zwischen den Koordinaten des erfassten Referenzpixels und den Koordinaten des virtuellen erfassten Pixels; und Korrigieren von Koordinaten von mehreren der erfassten Messzielpixel, die im erfassten Messzielbild enthalten sind, das durch Erfassen des zu messenden Objekts mit der Erfassungsvorrichtung erzeugt wird, auf der Basis der Informationen von geometrischen Eigenschaften und der Korrekturinformationen, um eine Geometrie des zu erfassenden Objekts auf der Basis von dreidimensionalen Messkoordinaten zu identifizieren, die auf der Basis der Koordinaten der erfassten Messzielpixel berechnet werden sollen.
DE102021100979.0A 2020-01-22 2021-01-19 Messeinrichtung für dreidimensionale Geometrien und Messverfahren für dreidimensionale Geometrien Pending DE102021100979A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-008025 2020-01-22
JP2020008025 2020-01-22

Publications (1)

Publication Number Publication Date
DE102021100979A1 true DE102021100979A1 (de) 2021-07-22

Family

ID=76650512

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021100979.0A Pending DE102021100979A1 (de) 2020-01-22 2021-01-19 Messeinrichtung für dreidimensionale Geometrien und Messverfahren für dreidimensionale Geometrien

Country Status (4)

Country Link
US (1) US11449970B2 (de)
JP (1) JP2021117228A (de)
CN (1) CN113155053A (de)
DE (1) DE102021100979A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113776457A (zh) * 2021-08-31 2021-12-10 中国铁道科学研究院集团有限公司 基于虚实结合的曲线段钢轨轮廓测量误差修正方法及装置
CN114111639A (zh) * 2021-11-26 2022-03-01 凌云光技术股份有限公司 一种面结构光三维测量系统的校正方法和设备
CN114111639B (en) * 2021-11-26 2024-04-30 凌云光技术股份有限公司 Correction method and device of surface structured light three-dimensional measurement system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113983951B (zh) * 2021-09-10 2024-03-29 深圳市辰卓科技有限公司 三维目标的测量方法、装置、影像仪及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2528791A1 (en) * 2005-12-01 2007-06-01 Peirong Jia Full-field three-dimensional measurement method
WO2010013289A1 (ja) * 2008-07-31 2010-02-04 三菱電機株式会社 カメラ校正画像作成装置およびカメラ校正画像作成プログラム
CN101576379B (zh) * 2009-05-12 2011-04-27 四川大学 基于二维彩色标靶的主动投影三维测量系统快速标定方法
JP2012013592A (ja) * 2010-07-02 2012-01-19 Nikon Corp 3次元形状測定機の校正方法及び3次元形状測定機
CN102750698B (zh) * 2012-06-11 2014-12-03 上海大学 纹理摄像机标定装置与方法及其纹理图像几何校正方法
JP6253368B2 (ja) * 2013-11-25 2017-12-27 キヤノン株式会社 三次元形状計測装置およびその制御方法
JP6320051B2 (ja) * 2014-01-17 2018-05-09 キヤノン株式会社 三次元形状計測装置、三次元形状計測方法
JP6510213B2 (ja) * 2014-02-18 2019-05-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 投影システム、半導体集積回路、および画像補正方法
JP6394005B2 (ja) * 2014-03-10 2018-09-26 株式会社リコー 投影画像補正装置、投影する原画像を補正する方法およびプログラム
EP3220099B1 (de) * 2014-11-13 2019-11-06 Olympus Corporation Kalibriervorrichtung, kalibrierverfahren, optische vorrichtung, bildgebungsvorrichtung projektionsvorrichtung, messsystem und messverfahren
JP6795993B2 (ja) * 2016-02-18 2020-12-02 株式会社ミツトヨ 形状測定システム、形状測定装置及び形状測定方法
JP2017207346A (ja) * 2016-05-18 2017-11-24 大同特殊鋼株式会社 三次元形状測定装置の較正方法
US10529082B2 (en) * 2017-06-20 2020-01-07 Mitutoyo Corporation Three-dimensional geometry measurement apparatus and three-dimensional geometry measurement method
JP7049220B2 (ja) * 2018-08-30 2022-04-06 オリンパス株式会社 画像取得装置および画像取得装置の作動方法
CN110336987B (zh) * 2019-04-03 2021-10-08 北京小鸟听听科技有限公司 一种投影仪畸变校正方法、装置和投影仪

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113776457A (zh) * 2021-08-31 2021-12-10 中国铁道科学研究院集团有限公司 基于虚实结合的曲线段钢轨轮廓测量误差修正方法及装置
CN113776457B (zh) * 2021-08-31 2023-08-08 中国铁道科学研究院集团有限公司 基于虚实结合的曲线段钢轨轮廓测量误差修正方法及装置
CN114111639A (zh) * 2021-11-26 2022-03-01 凌云光技术股份有限公司 一种面结构光三维测量系统的校正方法和设备
CN114111639B (en) * 2021-11-26 2024-04-30 凌云光技术股份有限公司 Correction method and device of surface structured light three-dimensional measurement system

Also Published As

Publication number Publication date
US20210224960A1 (en) 2021-07-22
JP2021117228A (ja) 2021-08-10
US11449970B2 (en) 2022-09-20
CN113155053A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
EP1173749B1 (de) Bildbearbeitung zur vorbereitung einer texturanalyse
DE19928341C2 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE102016120026B4 (de) Messvorrichtung und Verfahren, Programm, Produktherstellungsverfahren, Kalibrierungsmarkierungselement, Verarbeitungsvorrichtung und Verarbeitungssystem
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE602005002176T2 (de) Vorrichtung und Verfahren zur dreidimensionalen Bildvermessung
DE69826753T2 (de) Optischer Profilsensor
DE102017001366A1 (de) Geometrie-messsystem, geometrie-messapparat und geometrie-messverfahren
DE112016004540T5 (de) Kamerakalibrierung unter Verwendung von synthetischen Bildern
DE19623172C1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
EP2609395B1 (de) Neigungssensor für ein gerät und verfahren zur bestimmung der neigung eines gerätes
DE3228014A1 (de) Verfahren und einrichtung zur lagesteuerung eines werkzeugs relativ zu einem werkstueck
DE102021100979A1 (de) Messeinrichtung für dreidimensionale Geometrien und Messverfahren für dreidimensionale Geometrien
DE10127304C5 (de) Verfahren und Vorrichtung zur Bestimmung der dreidimensionalen Kontur einer spiegelnden Oberfläche eines Objektes
EP1718926A1 (de) Vorrichtung und verfahren zur bestimmung von raumkoordinaten eines objekts
DE102016205382A1 (de) Randerkennungsabweichungskorrekturwertberechnungsverfahren, Randerkennungsabweichungskorrekturverfahren und Randerkennungsabweichungskorrekturprogramm
DE112017006976B4 (de) Überlagerungspositionskorrektureinrichtung und überlagerungspositionskorrekturverfahren
DE102018004592A1 (de) Messapparat für dreidimensionale Geometrie und Messverfahren für dreidimensionale Geometrie
DE19634254A1 (de) Optisch-numerisches Verfahren zur Ermittlung der gesamten Oberfläche eines dreidimensionalen Objekts
DE102017212371A1 (de) Bestimmung einer Marke in einem Datensatz mit mittels zumindest eines Laserscanners erfassten dreidimensionalen Oberflächen-Koordinaten einer Szene
EP1022541A2 (de) Verfahren und Vorrichtung zur Bestimmung der Geometrie von blattförmigem Gut oder Stapeln davon
EP2031348B1 (de) Oberflächeninspektionsverfahren zum Detektieren von Oberflächendefekten und/oder Vermessen der Oberflächentopographie
DE102017010683B4 (de) Verfahren zur automatischen Wiederherstellung eines eingemessenen Zustands eines Projektionssystems
DE102009056177B4 (de) Vorrichtung und Verfahren zur Messung und Kompensation von Bewegungseinflüssen bei Phasenschiebe-Profilometern und dessen Anwendung auf mobile, freihandgeführte Profilometrie
DE19953063A1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE102019006314A1 (de) Dreidimensionale-Geometrie-Messvorrichtung und Dreidimensionale-Geometrie-Messverfahren